1.4. Diagonalisierbarkeit

Wichtige Eigenschaften eines Endomorphismus lassen sich bereits am Rang und am Spektrum einer darstellenden Matrix ablesen. Leider lassen sich diese Charakteristika im Allgemeinen (bis auf Spezialfälle) nicht direkt an den Einträgen der Matrix ablesen. Die grundlegende Frage in diesem Abschnitt wird sein, wie wir durch eine geeignete Wahl von Basen eine besonders einfache Gestalt der darstellenden Matrix erreichen können, die die Eigenschaften des zu Grunde liegenden Endomorphismus erhält.

Aus dem Basiswechselsatz Theorem 1.1 wissen wir, dass ein Basiswechsel für Abbildungsmatrizen einer Multiplikation mit zwei regulären Basiswechselmatrizen von links und rechts entspricht. Die hierdurch beschriebene Relation der Abbildungsmatrizen motiviert die folgende Definition.

Definition 1.9 (Äquivalenz und Ähnlichkeit von Matrizen)

Wir definieren im folgenden zwei Begriffe, die eine spezielle Relation zweier Matrizen beschreibt.

  • Zwei Matrizen A,BKn×m heißen äquivalent, wenn es Matrizen SGL(n;K) und TGL(m;K) gibt mit

(1.10)B = SAT1.
  • Zwei Matrizen A,BKn×n heißen ähnlich oder konjugiert, wenn es eine Matrix SGL(n,K) gibt mit

(1.11)B = SAS1.

Man sieht sofort, dass ähnliche Matrizen ein Spezialfall von äquivalenten Matrizen sind für m=n und T1:=S1. Während man für äquivalente Matrizen zeigen kann, dass der Rang der Matrizen unter den in Definition Definition 1.9 beschriebenen Transformationen erhalten bleibt, so gilt für ähnliche Matrizen sogar die noch stärkere Invarianz des Spektrums, wie das folgende Lemma zeigt.

Lemma 1.4

Seien A,BKn×n zwei quadratische Matrizen. Falls A und B ähnlich zueinander sind, so haben sie das gleiche charakteristische Polynom.

Proof. Seien A,BKn×n zwei ähnliche Matrizen, d.h., es existiert eine Matrix SGL(n;K), so dass B=SAS1. Ferner gilt wegen Linearität und der Kommutativität der Einheitsmatrix In für jedes Skalar tK

StInS1=tIn.

Wir können also schreiben:

BtIn = SAS1tIn = SAS1StInS1 = S(AtIn)S1.

Wenden wir nun die Determinante an, so erhalten wir aus dem Produktsatz für Determinanten \cite{burger_2020}[Satz 3.40]

det(BtIn) = det(S(AtIn)S1) = det(S)det(AtIn)det(S1)=det(S)1 = det(AtIn).

Die Ausdrücke auf der linken und rechten Seite der obigen Gleichung sind gerade die Definitionen der charakteristischen Polynome von A bzw. B, was die Aussage dieses Lemmas beweist.

Ein besonders interessanter Fall liegt vor, wenn eine Matrix AKn×n ähnlich zu einer Diagonalmatrix DKn×n ist. Dies wird in der folgenden Definition weiter präzisiert.

Definition 1.10 (Diagonalisierbarkeit)

Wir definieren den Begriff der Diagonalisierbarkeit im folgenden sowohl für Endomorphismen als auch für Matrizen.

  • Ein Endormorphismus F:VV eines K-Vektorraums V heißt \emph{diagonalisierbar}, wenn V eine Basis aus Eigenvektoren von F besitzt.

  • Eine Matrix AKn×n heißt \emph{diagonalisierbar}, wenn sie ähnlich zu einer Diagonalmatrix ist.

Auf Grund von Lemma Lemma 1.4 wird klar, dass eine diagonalisierbare Matrix A ähnlich zu einer Diagonalmatrix D sein muss, die die Eigenwerte von A auf der Diagonalen enthält. Im Folgenden wollen wir verstehen, wie wir entscheiden können, ob ein Endomorphismus F bzw. eine darstellende Matrix von F diagonalisierbar ist.

Theorem 1.6 (Diagonalisierbarkeit)

Sei V ein endlichdimensionaler K-Vektorraum und F:VV ein Endomorphismus von V. Dann sind die folgenden Bedingungen äquivalent:

i) F ist diagonalisierbar

ii) Das charakteristische Polynom PF zerfällt in Linearfaktoren über K und die algebraische Vielfachheit ist gleich der geometrischen Vielfachheit für alle Eigenwerte λK von F.

iii) Sind λ1,,λkK die paarweise verschiedenen Eigenwerte von F, so lässt sich V als direkte Summe der korrespondierenden Eigenräume schreiben, d.h.

V = Eig(F;λ1)Eig(F;λk).

Proof. Wir zeigen die Äquivalenz der drei Aussagen mittels eines Ringschlusses.

i) ii):

Nehmen wir an, dass F diagonalisierbar ist. Dann ist jede darstellende Matrix von F ähnlich zu einer Diagonalmatrix DKn×n auf deren Hauptdiagonalen die Eigenwerte λ1,,λkK von F mit algebraischen Vielfachheiten r1,,rkN stehen. Das charakteristische Polynom PD von D zerfällt offensichtlich in Linearfaktoren über K in der Form

PD(t) = (λ1t)r1(λkt)rk

und die Summe der algebraischen Vielfachheiten entspricht dem Grad des Polynoms, d.h., ki=1ri=n. Aus Lemma Lemma 1.4 wissen wir aber schon, dass das charakteristische Polynom von F und D gleich sein müssen.

Da F diagonalisierbar ist existiert eine Basis von V aus Eigenvektoren von F. Die Eigenvektoren dieser Basis können wir anhand ihrer zugehörigen Eigenwerte sortieren, so dass sich Basen der jeweiligen Eigenräume mit geometrischen Vielfachheiten s1,,sk ergeben, d.h., wir betrachten die Eigenvektoren vi1,,visiV von F zum Eigenwert λiK mit geometrischer Vielfachheit siN als Basis des Eigenraums Eig(F;λi) für 1ik. Daraus ergibt sich, dass ki=1si=n gelten muss, da wir von einer Basis von V ausgegangen sind. Gleichzeitig wissen wir aus dem Argument von oben, dass ki=1rk=n gelten muss und nach Satz Theorem 1.3 die algebraischen Vielfachheiten größer oder gleich den geometrischen Vielfachheiten sind, d.h., es gilt risi. Diese drei Bedingungen können jedoch nur dann erfüllt werden, wenn schon gilt ri=si.

ii) iii):

Seien λ1,,λkK die paarweise verschiedenen Eigenwerte von F, deren algebraische Vielfachheit gleich der geometrischen Vielfachheit ist, d.h., ri=si für 1ik. Wir nehmen an, dass das charakteristische Polynom PF von F in Linearfaktoren über K zerfällt und von der Form ist

PF(t) = (tλ1)r1(tλk)rs.

Wir betrachten die lineare Hülle der Eigenräume Eig(F;λi),1ik, von F

W := lin(Eig(F;λ1)Eig(F;λk))V.

Da die geometrische Vielfachheit si=ri für i=1,,k ist, wird W durch n Eigenvektoren aufgespannt. Aus Satz Theorem 1.5 wissen wir, dass Vektoren aus verschiedenen Eigenräumen paarweise linear unabhängig sind. Damit folgt aber schon, dass W eine direkte Summe der Eigenräume sein muss mit

W = Eig(F;λ1)Eig(F;λk)=V.

iii) i):

Sei Bi=(vi1,,visi) eine Basis aus Eigenvektoren zum Eigenwert λiK vom Eigenraum Eig(F;λi) für 1ik. Da die Eigenräume als direkte Summe den ganzen Vektorraum V bilden, wissen wir, dass

B := (v11,,v1s1,,vk1,,vksk)

eine Basis von V ist. Da diese Basis aus Eigenvektoren von F besteht ist F schon diagonalisierbar per Definition.

Corollary 1.1

Aus Satz Theorem 1.6 wird direkt klar, dass der Endomorphismus F diagonalisierbar ist, wenn er nN paarweise verschiedene Eigenwerte besitzt. Dies ist eine hinreichende aber keineswegs notwendige Bedingung, wie etwa das Beispiel F=IdV zeigt.

Example 1.4

Im Folgenden wollen wir zwei Beispiele untersuchen in denen eine reellwerte Matrix AR3×3 nicht diagonalisierbar ist und die Gründe hierfür genauer beleuchten.

  • Sei die Matrix AR3×3 gegeben durch:

A = (130310001).

Wir bestimmen das charakteristische Polynom PA von A mit der Produktregel für Determinanten von Blockmatrizen in Lemma Lemma 1.3 als

PA(t) = det(AtI3) = (1t3031t0001t) = (1t)((1t)(1t)+33) = (1t)(t21+3) = (1t)(t2+2).

Da das quadratische Polynom (t2+2) keine Nullstellen in R besitzt, lässt sich das charakteristische Polynom PA nicht vollständig in Linearfaktoren über R zerlegen. Daraus folgt mit Satz Theorem 1.6, dass die Matrix A nicht diagonalisierbar ist.

  • Sei die Matrix AR3×3 gegeben durch:

A = (343274395).

Wir bestimmen das charakteristische Polynom PA von A durch die Regel von Sarrus in Lemma Lemma 1.2 oder Umformung mittels Gaußschen Eliminationsverfahren und erhalten:

PA(t) = det(AtI3) = (t2)2(t1).

Das charakteristische Polynom zerfällt also in Linearfaktoren über R und wir können die beiden Eigenwerte λ1=2 und λ2=1 ablesen. Hierbei bemerken wir, dass der Eigenwert λ1 die algebraische Vielfachheit 2 und der Eigenwert λ2 die algebraische Vielfachheit 1 besitzt. Außerdem kann man die zugehörigen Eigenräume wie folgt bestimmen:

Eig(A;λ1) = {α(112) | αR},Eig(A;λ2) = {α(123) | αR}.

Wir sehen also, dass die geometrischen Vielfachheiten der Eigenwerte λ1,λ2R jeweils 1 betragen und somit die algebraische Vielfachheit von λ1 nicht mit der geometrischen Vielfachheit übereinstimmt. Daraus folgt mit Satz Theorem 1.6, dass die Matrix A nicht diagonalisierbar ist.

Das folgende Beispiel untersucht wann eine allgemeine (2×2)-Matrix AR2×2 nicht diagonalisierbar ist. \begin{example} Sei AR2×2 eine quadratische Matrix mit

A := (abcd)

für a,b,c,dR. Um zu untersuchen wann A nicht diagonalisierbar ist, betrachten wir das charakteristische Polynom PA von A mit

PA(t) = det(AtI2) = det(atbcdt) = (at)(dt)bc= t2(a+d)t+(adbc).

Um die Nullstellen des charakteristischen Polynoms zu bestimmen verwenden wir in diesem einfachen Fall die p-q-Formel mit p:=(a+d) und q:=(adbc), so dass für die Eigenwerte von A gilt

λ1/2 = p2±p24q = (a+d)2±(a+d)24(adbc).

Wir bemerken zuerst, dass der Radikand R unter der Wurzel von der folgenden Form ist

R = (a+d)24(adbc) = Spur(A)24det(A).

Nun macht es Sinn eine Fallunterscheidung nach dem Vorzeichen von R zu machen.

  1. Falls R>0 gilt, so existieren zwei Lösungen der quadratischen Gleichung und somit zwei verschiedene Eigenwerte λ1λ2 von A. Nach Korollar Corollary 1.1 wissen wir, dass A dann schon diagonalisierbar ist.

  2. Falls R<0 gilt, so liegt die Wurzel nicht mehr im Körper R und somit gibt es keine reellen Eigenwerte von A. Für diesen Fall ist A nicht diagonalisierbar.

  3. Der spannende Fall tritt ein für R=0. Hier besitzt die Matrix A nur einen Eigenwert λ = (a+d)2 mit algebraischer Vielfachheit 2. Nach Satz Theorem 1.6 ist A genau dann diagonalisierbar, wenn die geometrische Vielfachheit des zugehörigen Eigenraums Eig(A;λ) auch 2 beträgt. Wir betrachten also den Eigenraum zum Eigenwert λ im Folgenden.

Eig(A;λ) = Kern(AλI2) = Kern(A(a+d)2I2) = Kern((ad)2bc(da)2).

Wir versuchen also folgendes lineares Gleichungssystem für einen unbekannten Vektor x=(x1,x2)TR2 zu lösen:

((ad)2bc(da)2)(x1x2) = (00).

Mittels Gaußschen-Eliminationsverfahren bringen wir die Matrix in eine obere, rechte Dreiecksgestalt und erhalten so:

(c(ad)2bc0(ad)24bc)(x1x2) = (00).

Wir erkennen, dass der Eintrag unten, rechts in der Matrix von folgender Gestalt ist:

(ad)24bc = a2+2add24bc = a22add24+(adbc)= (a+d)24+(adbc) = Spur(A)24+det(A) = R = 0.

Das bedeutet, dass wir zur Bestimmung des Kern Lösungen des folgenden Gleichungssystems bestimmen müssen.

(1.12)(c(ad)2bc00)(x1x2) = (00).

Auch hier gibt es zwei Möglichkeiten. Falls die Matrix A bereits in Diagonalgestalt ist, so steht ihr Eigenwert λ auf der Hauptdiagonalen und es gilt a=d=λ und b=c=0. Wie man leicht einsieht ist die Matrix in (1.12) dann die Nullmatrix und jeder Vektor xR2 löst das lineare Gleichungssystem. Also ist der Kern bereits der gesamte Vektorraum V=R2 und die geometrische Vielfachheit des Eigenwerts λ ist in der Tat 2. Damit ist die Matrix trivialerweise diagonalisierbar.

In allen anderen Fällen können wir den Eigenraum explizit angeben als

Eig(A;λ) = lin({(bcc(ad)2)}).

Der Eigenraum Eig(A;λ) hat also die Dimension 1 und somit stimmen geometrische Vielfachheit und algebraische Vielfachheit nicht überein. Nach Satz Theorem 1.6 ist die Matrix A also nicht diagonalisierbar.

Um ein konkretes Beispiel für den dritten Fall der Fallunterscheidung oben anzugeben, müssen wir eine Matrix AR2×2 konstruieren, so dass R=0 ist, bzw., so dass gilt Spur(A)2=4det(A). Hierzu betrachten wir die folgende Matrix

A := (3111).

Wir sehen sofort ein, dass gilt

Spur(A)2 = (3+1)2 = 16 = 4(31(1)1) = 4det(A).

Mit unseren allgemeinen Vorüberlegungen oben, können wir den Eigenwert λ von A angeben als

λ = a+d2 = 3+12 = 2.

Und der Eigenraum Eig(A;2) von A wird aufgespannt durch den Vektor

(bcc(ad)2) = (111(31)2) = (11).

Die Matrix A ist nach Satz Theorem 1.6 nicht diagonalisierbar, da geometrische und algebraische Vielfachheit des Eigenwerts λ=2 nicht übereinstimmen. \end{example}

Sollte eine quadratische Matrix AKn×n diagonalisierbar sein, so hat die reguläre Matrix S1GL(n;K) in (1.11) eine besondere Gestalt, wie das folgende Lemma zeigt.

Lemma 1.5

Sei AKn×n eine diagonalisierbare Matrix. In diesem Fall sind die Spaltenvektoren von S1 gerade die Eigenvektoren der zugehörigen Eigenwerte auf der Diagonalen von D.

Proof. Da A diagonalisierbar ist existiert eine Diagonalmatrix DKn×n und eine reguläre Matrix SGL(n;K), so dass SAS1=D gilt. Aus Lemma Lemma 1.4 wissen wir, dass die Eigenwerte λ1,,λn von A durch die Einträge auf der Diagonalen von D, gegeben sind. Durch Multiplikation mit der Matrix S1 von links erhalten wir also:

S1S=InAS1 = AS1 = S1D.

Wir sehen also, dass AS1=S1D gilt. Sei nun vkKn die k-te Spalte von S1 mit 1kn, dann sieht man ein, dass gilt

Av = λkvk, für alle 1kn.

Nach Definition Definition 1.4 ist der Vektor vk also gerade der Eigenvektor zum Eigenwert λk von A.

Im folgenden Beispiel wollen wir diagonalisierbare (2×2)-Matrizen untersuchen und die Beobachtung aus Lemma Lemma 1.5 verifizieren.

Example 1.5

Wir betrachten zwei Beispiele von (2×2)-Matrizen, für die wir eine ähnliche Diagonalmatrix D berechnen wollen, auf deren Hauptdiagonalen die zugehörigen Eigenwerte stehen.

  • Für eine Matrix der Form

A = (1614)

bestimmen wir das charakteristische Polynom PA als

PA(t) = det(AtI2) = (1t)(4t)+6 = t23t+2 = (t1)(t2).

Wir sehen also, dass das charakteristische Polynom PA in Linearfaktoren zerfällt und die Eigenwerte von A gegeben sind durch λ1=1 und λ2=2. Es ist auf Grund von Satz Theorem 1.6 klar, dass A diagonalisierbar ist, d.h., dass es eine reguläre Matrix SGL(2;K) gibt, so dass SAS1=D gilt. Die Diagonalmatrix D ist damit bis auf Permutation der Hauptdiagonale eindeutig bestimmt als

D = (1002).

Aus Lemma 1.5 wissen wir, dass die Spalten von S1 gerade die Eigenvektoren von A sind. Für die Bestimmung der Eigenräume Eig(A;λ1) und Eig(A;λ2) lösen wir die beiden homogenen Gleichungssysteme

(2613)(v1v2) = (Aλ1I2)v=0,(3612)(v1v2) = (Aλ2I2)v=0.

Wir sehen direkt, dass die jeweiligen Zeilen der beiden Matrizen linear abhängig sind und man den Eigenvektor zum Eigenwert λ1=1 angeben kann als v=(3,1)T bzw. den Eigenvektor zum Eigenwert λ2=2 als v=(2,1)T. Schreiben wir die Eigenvektoren als Spalten der Matrix S1, so erhalten wir

S1 = (3211)

Der Vollständigkeit halber bestimmen wir nun noch die Inverse S zu S1 durch die Determinanten-Regel:

S = (S1)1 = (3211)1 = 13121(1213) = (1213).

Wir überprüfen unsere Rechnung abschließend durch das Diagonalisieren von A als

SAS1 = (1213)(1614)(3211) = (1002) = D.
  • Für eine Spiegelmatrix der Form

A = (cosαsinαsinαcosα)

berechnen wir das charakteristische Polynom PA als

PA(t) = det(AtI2) = (cosαt)(cosα+t)sin2α = t2cos2αsin2α= t2(sin2α+cos2α)=1 = t21 = (t1)(t+1).

Wir sehen also, dass das charakteristische Polynom PA in Linearfaktoren zerfällt und die Eigenwerte dieser allgemeinen Spiegelmatrix unabhängig sind von der Wahl des Winkels α[0,2π) immer λ1=1 und λ2=1. Es ist auf Grund von Satz Theorem 1.6 klar, dass A diagonalisierbar ist, d.h., dass es eine reguläre Matrix SGL(2;K) gibt, so dass SAS1=D gilt. Die Diagonalmatrix D ist damit bis auf Permutation der Hauptdiagonale eindeutig bestimmt als

D = (1001).

Aus Lemma Lemma 1.5 wissen wir, dass die Spalten von S1 gerade die Eigenvektoren von A sind. Für die Bestimmung der Eigenräume Eig(A;λ1) und Eig(A;λ2) lösen wir die beiden homogenen Gleichungssysteme

(cosα1sinαsinαcosα1)(v1v2) = (Aλ1I2)v=0,(cosα+1sinαsinαcosα+1)(v1v2) = (Aλ2I2)v=0.

Durch Multiplikation der unteren Zeile mit dem ersten Eintrag der ersten Zeile sieht man, dass beide Zeilen linear abhängig sind und man kann die Eigenvektoren als Lösungen der obigen Gleichungen ablesen. Für den Eigenwert λ1=1 erhält man den zugehörigen Eigenvektor v1=(sin2α,sinα[1cosα])T und für den zweiten Eigenwert λ2=1 erhält man entsprechend den zugehörigen Eigenvektor v2=(sin2α,sinα[1+cosα])T. Damit ist die Transformationsmatrix S1 gegeben durch

S1 = (sin2αsin2αsinα(1cosα)sinα(1+cosα)).

Das Bestimmen der Transformationsmatrix S und die Überprüfung der Diagonalisierung von A überlassen wir an dieser Stelle der geneigten Leserin und machen dafür folgende Beobachtung. Die Vektoren v1,v2R2 bilden eine Orthogonalbasis von R2, da gilt:

v1,v2 = (sin2α,sinα[1cosα])T,(sin2α,sinα[1+cosα])T = sin4αsinα(1cosα)sinα(1+cosα) = sin4αsin2α(1cos2α)=sin2α = sin4αsin4α = 0.