1.6. Die Jordansche Normalform¶
An einer Triagonalmatrix können wir bereits Rang und Eigenwerte ablesen, jedoch keine weiteren charakteristischen Eigenschaften des zu Grunde liegenden Endomorphismus, wie z.B. die Dimension der Eigenräume. Außerdem kann die obere, rechte Dreiecksmatrix voll besetzt in der oberen Hälfte sein, so dass sie für numerische Verfahren eher ungünstig ist. Das wirkt sich vor allem bei der Potenzierung von Endomorphismen in iterativen Verfahren aus, bei der diese Mehrfachanwendung zu unerwünschten Rechenoperationen führt. Ein weiteres Problem ist, das allgemeine Triagonalmatrizen ungeeignet sind um explizite Lösungen von Systemen linearer Differentialgleichungen anzugeben, da die Gleichungen nicht hinreichend entkoppeln in dieser Darstellung.
Es ist also ganz natürlich sich die Frage zu stellen, ob für eine gegebene trigonalisierbare Matrix \(A\) eine kanonische Wahl einer oberen, rechten Dreiecksmatrix existiert, die einfach und interpretierbar aufgebaut ist und nur wenige Wahlmöglichkeiten bei der Bestimmung zulässt. Die Frage, wie durch geschickte Wahl einer Basis \(B\) von des endlich-dimensionalen Vektorraums \(V\) die darstellende Matrix \(M_B(F)\) des Endomorphismus \(F\) auf eine möglichst einfache und eindeutige Gestalt gebracht werden kann, ist allerdings deutlich schwieriger als die bereits bekannte Triagonalisierung einer Matrix. Diese Frage wird zentral in der Normalformentheorie von Endomorphismen behandelt.
Wie wir im Folgenden sehen werden existiert glücklicherweise eine kanonische Darstellung einer trigonalisierbaren Matrix, welche Jordansche Normalform genannt wird, und die die gewünschten Eigenschaften hat.
Bevor wir uns jedoch mit dem Studium dieser Normalform beschäftigen führen die Definition eines nilpotenten Endomorphismus ein.
(Nilpotenz)
Wir definieren den Begriff der Nilpotenz im folgenden sowohl für Endomorphismen als auch für Matrizen.
Ein Endormorphismus \(F \colon V \rightarrow V\) eines \(\mathbb{K}\)-Vektorraums \(V\) heißt nilpotent, falls es einen Index \(k\in \mathbb{N}\) gibt, so dass \(F^k =\!\!\!\!\!\!\underbrace{F \circ \ldots \circ F}_{k\text{-fache Anwendung}} \!\!\!\!\!\!= 0\) ist. Der kleinste solche Index \(k\) heißt dann Nilpotenzindex.
Eine Matrix \(A \in \mathbb{K}^{n \times n}\) heißt nilpotent, falls es einen Index \(k\in \mathbb{N}\) gibt, so dass \(A^k =\!\!\!\!\!\!\underbrace{A \cdot \ldots \cdot A}_{k\text{-fache Anwendung}} \!\!\!\!\!\!= 0\) ist. Der kleinste solche Index \(k\) heißt dann Nilpotenzindex.
Wir wollen im Folgenden den Nilpotenzindex zweier Matrizen durch ihre Potenzierung bestimmen.
Wir betrachten die Matrix \(A \in \mathbb{R}^{3 \times 3}\) mit
Wir betrachten Potenzen von \(A\) und erhalten:
Erstaunlicherweise ist der Nilpotenzindex der Matrix \(A\) schon \(k = 2\). \item Wir betrachten die Matrix \(A \in \mathbb{R}^{4 \times 4}\) mit
Wir betrachten Potenzen von \(A\) und erhalten:
Der Nilpotenzindex der Matrix \(A\) ist also \(k = 4\).
1.6.1. Nilpotente Matrizen¶
Die Matrix \(A\) aus dem zweiten Beispiel Example 1.7 ist in einer besonderen Form, welche wir näher betrachten werden.
(Normalform für nilpotente Matrizen)
Sei \(k \in \mathbb{N}, k \geq 1\), dann definieren wir eine nilpotente Matrix in Normalform \(N_k \in \mathbb{K}^{k\times k}\) durch:
Hierbei bezeichnet \(\delta_{i,j}\) das Kronecker-Delta. Das heißt \(N_k\) ist eine Matrix, die nur auf der oberen, ersten Nebendiagonale Einsen besitzt und deren sonstige Einträge alle Null sind. Diese Normalform von nilpotenten Matrizen wird auch \emph{Jordanmatrix} genannt.
Wir wollen im Folgenden einige nützliche Eigenschaften von nilpotenten Matrizen angeben.
Sei \(A \in \mathbb{K}^{n \times n}\) eine strikte obere, rechte Dreiecksmatrix, d.h., für die Diagonalelemente gilt \(a_{ii} = 0, 1 \leq i \leq n\). Dann ist \(A\) nilpotent ist und besitzt einen Nilpotenzindex von \(k\leq n\).
Proof. Wir beweisen die Behauptung per vollständige Induktion über die Dimension \( n \) von \( A \):
Induktionsanfang \( n = 1 \):
Falls \( n= 1 \), so \( A = (0) \) und \( A \) ist offensichtlich nilpotent mit Index \( 1 \leq n \).
Induktionsschritt \( n-1 \rightarrow n \), \( n > 1 \):
Wenn \( A \in \mathbb{K}^{n\times n } \) eine strikte obere Dreiecksmatrix ist, dann gibt es eine strikte obere Dreiecksmatrix \( A' \in \mathbb{K}^{(n-1)\times(n-1)} \), so dass
Hierbei kennzeichnet \( \star \) einen Eintrag, welcher nicht notwendigerweise Null ist. Wir sehen, dass
Per Induktionsvoraussetzung ist \( A' \) nilpotent mit Nilpotenzindex \( \ell \leq n-1 \). Wir rechnen nun
Eine weitere Multiplikation mit \( A \) von links zeigt
und der Nilpotenzindex von \( A \) ist höchstens \( \ell+1 \leq n \).
Wir wollen im folgenden Satz Kriterien herleiten, die aussagen wann eine obere, rechte Dreiecksmatrix nilpotent ist.
Sei \(A \in \mathbb{K}^{n\times n}\) eine obere, rechte Dreiecksmatrix. Dann gelten die folgenden Aussagen:
i) \(A\) ist genau dann nilpotent, wenn alle Diagonalelemente \(a_{ii}, 1\leq i\leq n\), gleich \(0\) sind.
ii) \(A\) ist genau dann nilpotent und diagonalisierbar, wenn \(A\) die Nullmatrix \(\mymathbb{0} \in \mathbb{K}^{n \times n}\) ist.
iii) Ist \(A\) nilpotent, so hat \(A\) nur den Eigenwert \(0\).
Proof. ad i) Man kann leicht zeigen, dass für eine obere, rechte Dreiecksmatrix \(A\) stets gilt:
Damit \(A\) nilpotent ist, muss also für alle Diagonalelemente \(a_{ii} = 0, 1 \leq i \leq n\), gelten.
Sei umgekehrt \(A\) eine obere, rechte Dreiecksmatrix deren Diagonalelemente \(a_{ii} = 0\) sind für \(1 \leq i \leq n\). Dann folgt die Behauptung direkt mit Lemma Lemma 1.6.
ad ii) Falls \(A = 0\) die Nullmatrix ist, so ist \(A\) nilpotent vom Index \(1\) und trivialerweise diagonalisierbar.
Sei umgekehrt \(A\) nilpotent und diagonalisierbar, dann existiert eine reguläre Matrix \(S \in \GL(n; \mathbb{K})\), so dass
wobei \(\lambda_i, 1 \leq i \leq n\), die Eigenwerte von \(A\) sind. Sei \(k\) der Nilpotenzindex von \(A\). Wie man leicht einsieht gilt
Da \(A^k = 0\) die Nullmatrix ist, folgt schon, dass \(\lambda_i = 0, 1 \leq i \leq n\), gelten muss. Darum ist auch
ad iii) Wir führen einen Beweis über Widerspruch. Nehmen wir an, dass die Behauptung nicht gelte, dann existiert ein Eigenwert \(\lambda \neq 0\) und ein zugehörigen Eigenvektor \(v \neq \vec{0}\), so dass \(Av = \lambda v\).
Da \(A\) nilpotent ist, existiert ein Index \(k \in \mathbb{N}\), so dass \(A^{k-1} \neq 0\), jedoch \(A^k = 0\) gilt. Aus der Eigenwertgleichung können wir folgern, dass
Daraus folgt aber, dass \(\lambda = 0\) oder \(v = 0\) gilt, was zum Widerspruch führt.
Der folgende Satz sagt uns, dass wir für jeden nilpotenten Endomorphismus eine darstellende Matrix finden können, die eine strikte obere, rechte Dreiecksgestalt besitzt.
Sei \(V\) ein endlich-dimensionaler \(\mathbb{K}\)-Vektorraum und \(F \colon V \rightarrow V\) ein nilpotenter Endomorphismus von \(V\). Dann existiert eine Basis \(B\) von \(V\), so dass die darstellende Matrix \(M_B(F)\) von \(F\) bezüglich \(B\) eine obere, rechte Dreiecksmatrix mit Nullen auf der Hauptdiagonale ist, d.h.
und es gilt \(P_F(t) = (-1)^n t^n\).
Proof. Wir führen den Beweis durch Induktion über \(n = \dim V\).
Induktionsanfang: \(n=1\)
Die Aussage ist trivialerweise erfüllt, da für einen nilpotenten Endomorphismus \(F\) eines eindimensionalen Vektorraums \(V\) gelten muss \(F \equiv 0\). Dadurch ist die darstellende Matrix für eine beliebige Basis \(B\) von \(V\) gegeben durch \(M_B(F) = 0\) und das charakteristische Polynom ist dementsprechend \(P_F(t) = 0-t = (-1)^1 \cdot t^1\).
Induktionsschritt: \(n-1 \rightarrow n\)
Die Induktionsannahme ist, dass die Aussage bereits für den Fall \(n-1\) gezeigt wurde. Sei \(F\) nun ein nilpotenter Endomorphismus von \(V\) mit \(F \not \equiv 0\) (da ansonsten die Situation vom Induktionsanfang vorliegt). Da nach Satz Theorem 1.8 Null der einzige Eigenwert von \(F\) ist wissen wir, dass \(\dim \Bild(F(V)) < \dim V\) gilt und somit muss schon gelten, dass der Kern von \(F\) nicht-trivial ist, d.h., \(\Kern F \neq \vec{0}\).
Sei nun \(v_1 \in \Kern(F), v \neq \vec{0}\). Wir ergänzen \(v_1\) zu einer Basis \(B' = (v_1, w_2, \ldots, w_n)\) von \(V\). Mit Hilfe des Algorithmus Algorithm 1.1 zur Trigonalisierung einer Matrix erhalten wir also:
Da \(W \coloneqq \lin(\lbrace w_2, \ldots, w_n \rbrace)\) im Allgemeinen nicht \(F\)-invariant ist, definieren wir die linearen Abbildungen
Dann können wir den Endomorphismus \(F\) schreiben als: \(F(w) = H(w) + G(w)\) für alle \(w \in W\). Bezüglich der Basis \(\tilde{B}' = (w_2, \ldots, w_n)\) gilt dann \(B = M_{\tilde{B}'}(G)\). Außerdem gilt, dass \(\operatorname{Bild}(H) \subset \Kern(F)\) und \(G\) ist nilpotent, da auf Grund der Nilpotenz von \(F\) für alle \(w \in W\) gilt:
Da \(\dim W = \dim V - 1\) gilt, können wir auf \(G\) die Induktionsvoraussetzung anwenden, d.h., es gibt eine Basis \(\tilde{B} = (v_2, \ldots, v_n)\) von \(W\), so dass
Damit folgt schon für die Basis \(B = (v_1, \ldots, v_n)\) von \(V\), dass
und das charakteristische Polynom ist dementsprechend \(P_F(t) \ = \ (-1)^nt^n\).
Man kann sogar noch mehr zeigen als die Aussage der vorangegangenen Sätze und Lemmata, nämlich eine vollständige Charakterisierung von nilpotenten Endomorphismen, wie der folgende Satz zeigt.
Sei \(F \colon V \rightarrow V\) ein Endomorphismus von \(V\). Dann sind folgende Aussagen äquivalent:
i) \(F\) ist nilpotent. ii) \(F^k = 0\) für ein \(k \in \mathbb{N}\). iii) Das charakterstische Polynom \(P_F\) von \(F\) hat die Form \(P_F(t) = (-1)^n t^n\). iv) Es gibt eine Basis \(B\) von \(V\), so dass die darstellende Matrix \(M_B(F)\) von \(F\) die folgende Gestalt hat:
Proof. Siehe Satz 4.5.7 [Fis05].
Nilpotente Endomorphismen bzw. Matrizen besitzen nur den Eigenwert \(\lambda = 0\), daher haben ihre darstellenden Matrizen keinen vollen Rang. Andersherum gibt es jedoch quadratische Matrizen, die nicht vollen Rang haben, jedoch nicht nilpotent sind, z.B. die Matrix
mit \(A^k = A\) für alle \(k \in \mathbb{K}\) und den Eigenwerten \(\lambda_1 = 0\) und \(\lambda_2 = 1\) von \(A\).
1.6.2. Hauptraum und Hauptvektoren¶
Eine wichtige Erkenntnis zur Konstruktion der Jordanschen Normalform ist, dass der Kern des Endomorphismus \(G \coloneqq (F - \lambda \operatorname{Id}_V)\) mit jeder Potenz von \(G\) größer werden kann, wie folgendes Lemma zeigt.
Sei \(F \colon V \rightarrow V\) ein Endomorphismus des endlich-dimensionalen \(\mathbb{K}\)-Vektorraums \(V\) mit Eigenwert \(\lambda \in \mathbb{K}\). Dann gilt für alle \(k \in \mathbb{N}\):
Proof. Sei \(G \coloneqq (F - \lambda \operatorname{Id}_V)\). Wir müssen zeigen, dass für beliebiges \(k \in \mathbb{N}\) gilt:
Sei also \(v \in \Kern(G)\), dann gilt offensichtlich \(G v = 0\). Sei nun \(k \in \mathbb{N}\) eine beliebige Potenz, dann betrachten wir
Daraus folgt also schon, dass \(v \in \Kern(G^k)\) gilt.
Nach Satz Theorem 1.6 wissen wir, dass sich der Vektorraum \(V\) genau dann in eine direkte Summe von \(F\)-invarianten Eigenräumen \(\Eig(F; \lambda_i), i=1,\ldots,k,\) zerlegen lässt, wenn die Dimension jedes Eigenraums der algebraischen Vielfachheit \(r_i \in \mathbb{N}\) der Nullstellen des charakteristischen Polynoms entspricht, d.h.,
Falls die Dimension eines Eigenraums \(\Eig(F; \lambda_i)\) jedoch zu klein ist, so lässt sie sich durch Potenzieren mit \(r_i\) passend vergrößern, denn nach Lemma 1.7 gilt:
Die Einbettung in (1.13) motiviert folgende Definition des Hauptraums.
(Hauptraum und Hauptvektoren)
Sei \(F \colon V \rightarrow V\) ein Endomorphismus des \(\mathbb{K}\)-Vektorraums \(V\). Sei außerdem \(\lambda \in \mathbb{K}\) ein Eigenwert von \(F\) der algebraischen Vielfachheit \(r \geq 1\). Dann definieren wir den \emph{Hauptraum} oder \emph{verallgemeinerten Eigenraum} \(\Hau(F; \lambda)\) von \(F\) zum Eigenwert \(\lambda\) als Kern der \(r\)-fachen Anwendung von \((F - \lambda \operatorname{Id}_V)\), d.h.
Die Vektoren \(v \in \Hau(F; \lambda)\) werden \emph{Hauptvektoren} der Stufe \(d \geq 1\) genannt, wenn gilt
Damit ergibt sich, dass alle Eigenvektoren Hauptvektoren der Stufe \(d=1\) sind.
Um zu verstehen, wie sich die Potenzierung der Endomorphismen auswirkt betrachten wir einen Eigenwert \(\lambda \in \mathbb{K}\) des Endomorphismus \(F \colon V \rightarrow V\) und Potenzen des Endomorphimus \(G \coloneqq F - \lambda \operatorname{Id}_V\). Wir stellen fest, dass wir folgende Inklusionsketten erhalten:
Außerdem gilt nach dem Dimensionssatz (Satz 2.2.4 [Fis05]), dass \(\dim \Kern G^l + \dim \Bild G^l = \dim V\) ist. Jedoch sind die Mengen im Allgemeinen nicht disjunkt wie bei einer direkten Summe, d.h., wir haben nicht
Da \(V\) jedoch endlich-dimensional ist, können die beiden obigen Inklusionsketten nicht beliebig auf- bzw. absteigen.
Das folgende nützliche Lemma charakterisiert die Eigenschaften dieser Inklusionsketten noch genauer.
(Lemma von Fitting)
Sei \(G \colon V \rightarrow V\) ein Endomorphismus des \(\mathbb{K}\)-Vektorraums \(V\). Sei außerdem \(\lambda = 0\) ein Eigenwert von \(G\) mit algebraischer Vielfachheit \(r \in \mathbb{N}, r \geq 1\). Wir betrachten die kleinste Potenz \(d \in \mathbb{N}\) für die der Kern von \(G\) sich nicht mehr ändert, d.h.,
wobei \(G^0 \coloneqq \operatorname{Id}_V\) gilt. Dann gelten die folgenden Aussagen:
\(d \, = \, \min \lbrace{l \in \mathbb{N} \: | \: \Bild(G^l) \, = \, \Bild(G^{l+1}) \rbrace}\),
\(\Kern(G^{d+i}) = \Kern(G^{d}), \quad \Bild(G^{d+i}) = \Bild(G^{d})\) \quad für alle \(i \in \mathbb{N}\),
Die Räume \(U \coloneqq \Kern(G^d)\) und \(W \coloneqq \Bild(G^d)\) sind \(G\)-invariant,
\((G|_{U})^d \ = \ 0\) \ und \ \(G|_{W} \colon W \rightarrow W\) ist ein Isomorphismus,
\(V \ = \ U \oplus W\).
Proof. Wir nehmen an \(d \in \mathbb{N}\) sei der kleinste Index mit der Eigenschaft aus \eqref{eq:fitting_index}. Dann können wir mit der Dimensionsformel \cite[Satz 2.2.4]{fischer} folgern, dass gilt
Das bedeutet schon, dass die Abbildung \(G|_W\) für \(W \coloneqq \Bild(G^d)\) mit
ein Isomorphismus ist. Aus dieser Beobachtung folgen schon die ersten drei Aussagen, sowie der zweite Teil der vierten Aussage. Die Nilpotenz der Abbildung \(G|_U\) mit Nilpotenzindex \(d\) ist auch klar, da für alle \(v \in U = \Kern(G^k)\) gilt, dass \(G^d (v) = 0\) ist.
Sei nun \(v \in U \cap W\), dann ist \(G^d(v) = 0\) und es muss ein \(w \in V\) geben, so dass \(G^d(w) = v\) ist. Setzen wir die erste Beobachtung in die zweite Beobachtung ein erhalten wir, dass auch \(G^{2d}(w) = 0\) sein muss und somit gilt nach der zweiten Aussage des Lemmas, dass
Damit folgt aber schon, dass
und somit gilt \(V = U \oplus W\).
1.6.3. Hauptraumzerlegung¶
Durch die Betrachtung von Haupträumen anstatt Eigenräumen lässt sich eine mögliche Differenz zwischen algebraischen und geometrischen Vielfachheiten der Eigenwerte eines Endomorphismus ausgleichen. Wie wir im folgenden Satz sehen werden lässt sich der Vektorraum \(V\) nun in eine innere direkte Summe der Haupträume zerlegen. Dies war bisher nur für diagonalisierbare Endomorphismen mit Hilfe der Eigenräume in Satz Theorem 1.6 möglich und bringt uns einen großen Schritt in Richtung der Jordanschen Normalform voran.
(Hauptraumzerlegung)
Sei \(F \colon V \rightarrow V\) ein Endomorphismus des \(\mathbb{K}\)-Vektorraums \(V\) und sei
das charakteristische Polynom von \(F\) mit paarweisen verschiedenen \(\lambda_1, \ldots, \lambda_k \in \mathbb{K}\), die die Eigenwerte von \(F\) darstellen und deren algebraischen Vielfachheiten \(r_i \in \mathbb{N}, r_i \geq 1\) sind. Es sei außerdem \(V_i \coloneqq \Hau(F; \lambda_i) \subset V\) für jedes \(\lambda_i\) der entsprechende Hauptraum. Dann gelten die folgenden Aussagen: \begin{enumerate} \item \(V \ = \ V_1 \, \oplus \ldots \oplus \, V_k\) \item \(F(V_i) \subset V_i\) und \(\dim V_i = r_i\) für \(i = 1,\ldots,k\) \item \(F\) hat eine Zerlegung \(F = F_D + F_N\) mit: \begin{enumerate}[a)] \item \(F_D\) ist diagonalisierbar \item \(F_N\) ist nilpotent \item \(F_N\) und \(F_D\) kommutieren, d.h., \(F_D \circ F_N = F_N \circ F_D\) \end{enumerate} \end{enumerate}
Proof. Wir führen den Beweis mittels vollständiger Induktion über die Zahl \(k \geq 1\) der paarweise verschiedenen Eigenwerte von \(F\). ~\[0.3cm] \textbf{Induktionsanfang: \(k=1\)}\ Für \(k=1\) existiert nur ein Eigenwert \(\lambda \in \mathbb{K}\) von \(F\). Das bedeutet, dass das charakteristische Polynom \(P_F\) von der Form ist
und somit hat \(\lambda\) die algebraische Vielfachheit \(n = \dim(V)\). Damit gilt für \(V_1 = \Hau(F; \lambda)\) schon
da \(F - \lambda \operatorname{Id}_V\) nilpotent ist mit Nilpotenzindex \(k \leq n\) und wir erhalten damit die triviale Zerlegung aus der ersten Behauptung.
Da \(F\) Endomorphismus ist folgt trivialerweise, dass \(F(V_1) \subset V_1 = V\) und \(\dim(V_1) = \dim(V) = n\) gilt, was die zweite Behauptung zeigt.
Da das charakteristische Polynom \(P_F\) von \(F\) in Linearfaktoren zerfällt wissen wir mit Satz Theorem 1.7, dass eine Basis \(B\) von \(V\) existiert, so dass die darstellende Matrix \(M_B(F)\) eine obere, rechte Dreiecksgestalt hat. Wir können die darstellende Matrix dann zerlegen in \(M_B(F) = D + N\), wobei \(D\) eine Diagonalmatrix der Form \(D = \lambda E_n\) ist und \(N\) eine strikte obere, rechte Dreiecksmatrix ist. Mit Satz Theorem 1.10 wissen wir, dass \(N\) nilpotent sein muss. Eine einfache Rechnung zeigt, dass \(D\) und \(N\) kommutieren mit
womit die dritte Behauptung gezeigt ist. ~\[0.3cm] \textbf{Induktionsschritt: \(k-1 \rightarrow k\)}\ Die Induktionsannahme ist, dass die Aussage bereits für den Fall \(k-1\) gezeigt wurde. Wir definieren uns also für den Eigenwert \(\lambda_1 \in \mathbb{K}\) von \(F\) mit algebraischer Vielfachheit \(r_1 \in \mathbb{N}, r_1 \geq 1\) die Abbildung \(G \ \coloneqq \ F - \lambda_1 \operatorname{Id}_V\). Seien \(A\) eine darstellende Matrix von \(G\) und \(B\) eine darstellende Matrix von \(F\) bezüglich einer beliebigen gemeinsamen Basis. Dann gilt offensichtlich \(A = B - \lambda_1 I_n\). Damit sehen wir nun ein, dass gilt
womit schon folgt, dass \(0\) ein Eigenwert von \(G\) mit algebraischer Vielfachheit \(r_1\) ist, da
Nach dem Lemma Lemma 1.8 von Fitting lässt sich \(V\) als direkte Summe schreiben mit
Für \(v \in \Hau(F; \lambda_1)\) gilt, dass \([F - \lambda_1 \operatorname{Id}_V]^{r_1} (v) = 0\). Außerdem sieht man durch die Kommutativität der Identität ein, dass
und somit durch sukzessive Anwendung von \eqref{eq:kommutativ_identität} auch
Das zeigt, dass \(F(v) \in \Hau(F; \lambda_1)\) für alle \(v \in \Hau(F; \lambda_1)\), d.h, dass der Unterraum \(\Hau(F; \lambda_1)\) \(F\)-invariant ist.
Für \(v \in V\) gilt, dass \(G^{r_1}(v) \eqqcolon w \in \Bild(G^{r_1})\) ist. Außerdem sehen wir ein, dass mit \(F = (G + \lambda_1 \operatorname{Id}_V)\) gilt:
da \(\Bild(G^{r_1+1}) \subset \Bild(G^{r_1})\) ist. Das zeigt, dass \(F(w) \in \Bild([F-\lambda_1 \operatorname{Id}_V]^{r_1})\) für alle \(w \in \Bild([F-\lambda_1 \operatorname{Id}_V]^{r_1})\) ist, d.h., der Unterraum \(\Bild([F-\lambda_1 \operatorname{Id}_V]^{r_1})\) ist auch \(F\)-invariant.
Betrachten wir die Einschränkung \(F|_W\) von \(F\) auf den Unterraum \(W\) so stellen wir fest, dass das charakteristische Polynom \(P_{F|_W}\) in Linearfaktoren zerfällt mit
Da wir nun einen Endomorphismus betrachten, der \(k-1\) verschiedene Eigenwerte besitzt und dessen charakteristischen Polynom in Linearfaktoren zerfällt, können wir die Induktionsvoraussetzung anwenden. Damit folgen direkt schon die ersten beiden Aussagen des Satzes.
Die Zerlegung aus der dritten Aussage des Satzes erhält man durch die folgenden darstellenden Matrizen in Blockdiagonalgestalt, die existieren, da der Endomorphismus \(F\) trigonalisierbar ist nach Satz Theorem 1.7:
Man kann durch Nachrechnen leicht zeigen, dass gilt:
Da \(N\) und \(D\) die darstellenden Matrizen der Endomorphismen \(F_D\) und \(F_N\) sind, folgt die Kommutativität jener.
Im Fall von Matrizen lässt sich die Aussage von Satz Theorem 1.11 wie folgt formulieren.
Sei \(A \in \mathbb{K}^{n \times n}\) eine Matrix, für die das charakteristische Polynom \(P_A\) in Linearfaktoren zerfällt, d.h.
Dann existiert eine invertierbare Matrix \(S \in \GL(n; \mathbb{K})\), so dass
Jede Blockmatrix für \(i=1,\ldots,k\) hat hierbei die Gestalt einer rechten oberen Dreiecksmatrix, d.h.,
Insbesondere lässt sich die Matrix \(\tilde{A}\) zerlegen in \(\tilde{A} = D + N\), wobei \(D\) Diagonalmatrix und \(N\) nilpotent ist. Schließlich gilt außerdem, dass \(D\) und \(N\) kommutieren, d.h.
Die in Satz Theorem 1.11 beschriebene Zerlegung \(F = F_D + F_N\) ist die einzige Zerlegung in einen diagonalisierbaren und einen nilpotenten Endomorphismus, die kommutieren.
1.6.4. Normalisierung nilpotenter Endomorphismen¶
Die Hauptraumzerlegung liefert uns zwar eine Blockdiagonalmatrix, die der Gestalt einer vollbesetzten oberen, rechten Dreiecksmatrix vorzuziehen ist, jedoch geben wir uns noch nicht zufrieden mit diesem Resultat. Bisher haben wir die nilpotenten Anteile des Endomorphismus als gegeben angesehen. Es stellt sich jedoch heraus, dass es möglich ist diese durch geschickte Basiswahl in die Normalform einer Jordanmatrix in Definition Definition 1.13 zu überführen, wie der folgende Satz aussagt.
(Normalisierung nilpotenter Endomorphismen)
Es sei \( G \in \End(V) \) nilpotent mit Nilpotenzindex \( d \in \mathbb{N} \) über einem \( \mathbb{K} \)-Vektorraum \( V \). Dann gilt
und es gibt Koeffizienten \( s_i \in \mathbb{N}, 1 \leq i \leq d \), so dass eine Zahlpartition existiert mit
Die Koeffizienten der Zahlpartition sind für den Endomorphismus \(G\) eindeutig festgelegt durch die folgende Differenz:
wobei \(\Delta_i \coloneqq \dim \Kern(G_i) - \dim \Kern(G_{i-1})\) gerade die Anzahl der Hauptvektoren der Stufe \(i\) sind.
Außerdem gibt es eine Basis \( B \) von \( V \), so dass die darstellende Matrix von \(G\) bezüglich \(B\) eine Blockdiagonalmatrix mit folgender Gestalt ist
wobei, die Matrizen \(J_k\), \(1 \leq k \leq d\), \(k\)-dimensionale Jordanmatrizen aus Definition Definition 1.13 sind mit
Proof. Siehe Theorem 4.6.5 [Fis05].
Wir verzichten an dieser Stelle bewusst auf einen konstruktiven Beweis dieses wichtigen Satzes, da wir für ein vollständiges Verständnis viel mehr Theorie benötigen, die jedoch nicht Bestandteil dieser Vorlesung sein kann. Diese unbefriedigende Lücke in der Normalformentheorie werden wir stattdessen mit der Diskussion eines Algorithmus zur Überführung der nilpotenten Anteile des Endomorphismus in die Normalform aus Satz Theorem 1.12 füllen.
(Normalisierung einer nilpotenten Matrix)
Sei \(B\) eine kanonische Basis des \(\mathbb{K}\)-Vektorraums \(V\) und \(A \coloneqq M_B(G)\) darstellende Matrix eines nilpotenten Endomorphismus \(G \colon V \rightarrow V\) mit Nilpotenzindex \(d \in \mathbb{N}\).
Um eine Transformationsmatrix \(S \in \GL(\mathbb{K}; n)\) zu erhalten, so dass gilt
wobei \(N\) eine Jordanmatrix ist, müssen wir geschickt Basisvektoren aus den verschiedenen Kernen der Potenzen von \(G\) wählen.
Vorbereitung
Berechne Potenzen von \(A\) als \(A^i\) für \(1 \leq i \leq d\)
Bestimme Basen \(K_i\) der jeweiligen Kerne \(\Kern(A^i)\) für \(1 \leq i \leq d\)
Berechne die Differenzen der aufeinanderfolgenden Kerndimensionen: \( \Delta_1 = \Dim\Kern(A) - \Dim\Kern(E_n)\), \dots, \( \Delta_d = \Dim\Kern(A^d)-\Dim\Kern(A^{d-1}) \)
0. Schritt: Hauptvektoren der Stufe \(d\)
Wähle \( s_d \coloneqq \Delta_d - \Delta_{d+1} = \Delta_d\) Hauptvektoren \( v^{(d)}_1,\dots, v_{s_d}^{(d)} \) der Stufe \(d\) aus \(K_d\) %aus \( K_d \), welche linear unabhängig zu Vektoren aus \( \Kern(A^{(d-1)}) \) sind.
Notiere das Schema für den Aufbau von Jordanketten wie folgt
\( v^{(d)}_1 \) |
\( \dots \) |
\( v_{s_d}^{(d)}\) |
---|---|---|
1. Schritt: Hauptvektoren der Stufe \(d-1\)
Multipliziere alle Vektoren des vorigen Schritts (die unterste Zeile im Schema) mit \(A\) und trage die resultierenden Vektoren \( A v^{(d)}_1, \dots, A v_{s_d}^{(d)} \) in eine neue Zeile unter das Schema ein.
Ergänze um \( s_{d-1} = \Delta_{d-1}-\Delta_{d}\) Hauptvektoren \( v^{(d-1)}_1,\dots, v_{s_{d-1}}^{(d-1)} \) der Stufe \(d-1\) aus \(K_{d-1}\) und trage sie rechts neben die unterste Zeile des Schemas ein.
Das resultierende Schema für den Aufbau von Jordanketten sollte die folgende Gestalt haben:
\( v^{(d)}_1 \) |
\( \dots \) |
\( v_{s_d}^{(d)} \) |
|||
---|---|---|---|---|---|
\( A v^{(d)}_1 \) |
\( \dots \) |
\( A v_{s_d}^{(d)} \) |
\( v^{(d-1)}_1 \) |
\( \dots \) |
\( v_{s_{d-1}}^{(d-1)}\) |
\(i\). Schritt: Hauptvektoren der Stufe \(d-i\)
Multipliziere alle Vektoren des vorigen Schritts (die unterste Zeile im Schema) mit \(A\) und trage die resultierenden Vektoren in eine neue Zeile unter das Schema ein.
Ergänze um \( s_{d-i} = \Delta_{d-i} - \Delta_{d-i+1}\) Hauptvektoren \( v^{(d-i)}_1,\dots, v^{(d-i)}_{s_{d-i}} \) der Stufe \(d-i\) aus \(K_{d-i}\) und trage sie \textbf{rechts} neben die unterste Zeile des Schemas ein.
Das resultierende Schema für den Aufbau von Jordanketten sollte die folgende Gestalt haben:
\(\vdots\) |
\(\vdots\) |
\(\vdots\) |
||||
---|---|---|---|---|---|---|
\( A^{i-1}v^{(d)}_1 \) |
\(\dots \) |
\( A^{i-1}v^{(d)}_{s_d}\) |
\( \dots\) |
|||
\( A^{i}v^{(d)}_1 \) |
\(\dots \) |
\( A^{i}v^{(d)}_{s_d} \) |
\( \dots \) |
\( v^{(d-i)}_1 \) |
\(\dots \) |
\( v^{(d-i)}_{s_{d-i}}\) |
\(d-1\). Schritt: Hauptvektoren der Stufe \(1\)
Multipliziere alle Vektoren des vorigen Schritts (die unterste Zeile im Schema) mit \(A\) und trage die resultierenden Vektoren in eine neue Zeile unter das Schema ein.
Ergänze um \( s_{1} = \Delta_{1} - \Delta_{2}\) Hauptvektoren \( v^{(1)}_1,\dots, v^{(1)}_{s_{1}} \) der Stufe \(1\) aus \(K_1 = \Eig(G; \lambda)\), also Eigenvektoren, und trage sie rechts neben die unterste Zeile des Schemas ein.
Das resultierende Schema für den Aufbau von Jordanketten sollte die folgende Gestalt haben:
\(\vdots\) |
\(\vdots\) |
\(\vdots\) |
||||
---|---|---|---|---|---|---|
\(A^{d-2}v^{(d)}_1 \) |
\(\dots \) |
\( A^{d-2}v^{(d)}_{s_d}\) |
\( \dots \) |
|||
\( A^{d-1}v^{(d)}_1 \) |
\(\dots \) |
\( A^{d-1}v^{(d)}_{s_d}\) |
\( \dots \) |
\( v^{(1)}_1 \) |
\(\dots \) |
$ v^{(1)}_{s_1} |
\( \uparrow \) |
\( \uparrow \) |
|||||
\text{ Jordankette } |
\text{ Jordankette } |
Spaltenweises Eintragen des Schemas in \(S^{-1}\):
Lesen wir die schließlich das fertige Schema zuerst von unten nach oben und dann von links nach rechts (entlang der Jordanketten) zellenweise ab und notieren die so gefundenen Vektoren spaltenweise von links nach rechts in die Transformationsmatrix \(S^{-1}\), so liegt \( N = S A S^{-1} \) in der Normalform nilpotenter Endomorphismen in Definition Definition 1.13 vor.
1.6.5. Jordansche Normalform¶
Durch geschickte Kombination der Hauptraumzerlegung aus Satz Theorem 1.11 und der Normalform niolpotenter Endormorphismen in Satz Theorem 1.12 lässt sich eine kanonische Normalform für Endomorphismen bestimmen, die schöne Eigenschaften hat. Diese Jordansche Normalform wird im folgenden Satz näher beschrieben.
(Jordansche Normalform)
Sei \(A \in \mathbb{K}^{n \times n}\) eine Matrix, für die das charakteristische Polynom \(P_A\) in Linearfaktoren zerfällt, d.h.
Dann existiert eine invertierbare Matrix \(S \in \GL(n; \mathbb{K})\), so dass
Die nilpotenten Anteile \(N_i\) für \(i=1,\ldots,k\) liegen hierbei (blockweise) in der Normalform aus Definition Definition 1.13 vor. Die Blockmatrizen \(\lambda_i I_{r_i} + N_i \in \mathbb{K}^{r_i \times r_i}\) in \(J\) werden \emph{Jordanblöcke} genannt und sind von der Gestalt
Die Anzahl der Kästchen in einem Jordanblock der Form \eqref{eq:jordanblock} ist gegeben durch die geometrische Vielfachheit , \(\dim \Eig(F - \lambda_i I_n)\) des Eigenwerts \(\lambda_i \in \mathbb{K}\) von \(F\). Insbesondere lässt sich die Jordansche Normalform \(J\) von \(A\) zerlegen in \(J= D + N\), wobei \(D\) Diagonalmatrix und \(N\) nilpotent ist. Schließlich gilt außerdem, dass \(D\) und \(N\) kommutieren, d.h.
Proof. Der Beweis der Jordanschen Normalform besteht im Prinzip nur aus Anwendung der Hauptraumzerlegung aus Satz Theorem 1.11 und dem Satz Theorem 1.12 über die Normalform für nilpotente Endomorphismen. Wir bezeichnen für \(i = 1, \ldots, k\) die Haupträume von \(F\) bezüglich der Eigenwerte \(\lambda_i\) mit
und wir betrachten die nilpotenten Endomorphismen
Durch Anwendung des Satzes Theorem 1.12 können wir Basen \(B_i\) der Haupträume \(V_i\) finden, so dass die darstellenden Matrizen \(M_{B_i}(G_i)\) der nilpotenten Endomorphismen in Normalform vorliegen. Diese Basen kann man dann wegen der Hauptraumzerlegung in Satz Theorem 1.11 zu einer Basis \(B\) von \(V\) zusammenführen, so dass die darstellende Matrix \(M_B(F)\) in Jordanscher Normalform vorliegt.
(Berechnung der Jordannormalform)
Sei \(B\) eine kanonische Basis des \(\mathbb{K}\)-Vektorraums \(V\) und \(A \coloneqq M_B(F)\) darstellende Matrix eines Endomorphismus \(F \colon V \rightarrow V\), dessen charakteristisches Polynom in Linearfaktoren zerfällt von der Gestalt ist
für \(k \in \mathbb{N}\) paarweise verschiedene Eigenwerte von \(F\).
Das Ziel ist es eine Transformationsmatrix \(S \in \GL(\mathbb{K}; n)\) zu konstruieren, so dass gilt
wobei \(J\) die Jordannormalform aus (1.17) ist.
Hierfür müssen wir nur die nilpotenten Einschränkungen von \(F\) auf die Haupträume \(V_i \coloneqq \Hau(F; \lambda_i)\) mit
betrachten und die nötigen Basen \(B_i\) von \(\Hau(F; \lambda_i)\) mit dem Algorithmus Algorithm 1.2 zur Normalisierung von nilpotenten Endomorphismen berechnen. Die Konkatenation der Basen \(B_i, 1 \leq i \leq k\) ergibt wegen dem Satz zur Hauptraumzerlegung Theorem 1.11 eine Basis des Vektorraums \(V\). Werden die Basisvektoren spaltenweise in die Transformationsmatrix \(S^{-1}\) eingetragen, so erhält man unter dieser Ähnlichkeitstransformation die gewünschte Jordansche Normalform \(J\) von \(A\).
Diese Jordansche Normalform \(J\) ist eindeutig bis auf Permutation der Jordanblöcke.
Wir wollen ein abschließendes Beispiel zur Jordanschen Normalform für eine \((5 \times 5)\)-Matrix durchrechnen.
(Berechnung der Jordanschen Normalform mit Transformationsmatrix)
Wir betrachten die Matrix
Um die Matrix \(A\) in eine Jordansche Normalform zu überführen verwenden wir Algorithmus Algorithm 1.2 und Algorithm 1.3.
Wir berechnen zuerst alle Eigenwerte von \(A\) mit Hilfe des charakteristischen Polynoms:
Es liegen somit die Eigenwerte \( \lambda_1 = 1 \) und \( \lambda_2 = 4 \) von \(A\) mit den jeweiligen algebraischen Vielfachheiten \( r_1 = 2 \) und \( r_2 = 3 \) vor.
Für den \textbf{ersten Jordanblock} zum Eigenwert \(\lambda_1 = 1\) von \(A\) betrachten wir zunächst den Endomorphismus
und wenden Algorithmus Algorithm 1.2 zur Bestimmung einer Normalform an.
Vorbereitung
Wir bestimmen eine Basis \(K_1\) des Eigenraums \( \Kern(G_1) \) mittels Gaußschen Eliminiationsverfahren:
Wir erhalten also als mögliche Basis
Da \(\dim K_1 = \dim \Eig(A; 1) = 1\) gilt, wissen wir nach Satz Theorem 1.13, dass es nur ein Jordankästchen innerhalb des Jordanblocks zum Eigenwert \(\lambda_1 = 1\) von \(A\) geben kann. Die Größe dieses Jordankästchens entspricht in diesem Fall der algebraischen Vielfachheit \(r_1 = 2\) von \(\lambda_1\).
Wir bestimmen nun eine Basis \(K_2\) des Eigenraums \( \Kern(G_1^2) \) mittels Gaußschen Eliminationsverfahren mit
und erhalten somit
Wir erhalten somit als mögliche Basis von \(\Kern(G_1^2)\)
Wir haben den Nilpotenzindex von \(d = 2\) von \(G_1|_{\Hau(A; \lambda_1)}\) erreicht. Das bedeutet, dass der Kern von \(G_1\) sich nicht mehr ändert für jede weitere Potenz von \(G_1\), da gilt
Entsprechend brauchen wir keine weiteren Potenzen von \( G_1 \) mehr zu betrachten.
Wir berechnen abschließend zur Vorbereitung
1. Schritt: Hauptvektoren der Stufe \(2\)
Wir wählen aus dem Kern \( K_2 \) einen (\(\Delta_2 = 1 \)) Hauptvektor der Stufe \(2\), d.h., einen Vektor der linear unabhängig zu Vektoren aus \( K_1 \) ist, also beispielsweise \( (0,-1,0,-1,0)^T \). Wir notieren diesen Vektor in ein Schema wie folgt:
\(\begin{pmatrix}0\\-1\\0\\-1\\0\end{pmatrix}\) |
---|
2. Schritt: Hauptvektoren der Stufe \(1\)
Wir berechnen zunächst \( G_1 \cdot (0,-1,0,-1,0)^T = (0,1,0,-1,0)^T\) und tragen diesen Vektor in einer neuen Zeile unten in das Schema ein. Wir berechnen
also brauchen wir keine weiteren Vektoren hinzufügen. Dies ist konsistent zu der Beobachtung, dass das Schema bereits \(r_1 = 2\) Vektoren enthält.
Das finale Schema für den ersten Jordanblock sieht entsprechend so aus:
\(\begin{pmatrix}0\\-1\\0\\-1\\0\end{pmatrix}\) |
---|
$\begin{pmatrix} 0\1\0-1\0 \end{pmatrix} |
Die Basis \( B_1 \) für den Hauptraum \(\Hau(A; 1)\) von \(A\) zum Eigenwert \(\lambda_1 = 1\) ergibt sich entsprechend durch Ablesen des Schemas von unten nach oben, von links nach rechts:
Für den zweiten Jordanblock zum Eigenwert \(\lambda_1 = 4\) von \(A\) betrachten wir zunächst den Endomorphismus
und wenden Algorithm 1.2 zur Bestimmung einer Normalform an.
Vorbereitung
Wir bestimmen eine Basis \(K_1\) des Eigenraums \( \Kern(G_2) \) mittels Gaußschen Eliminiationsverfahren:
Wir erhalten also als mögliche Basis
Da \(\dim K_1 = \dim \Eig(A; 4) = 2\) gilt, wissen wir nach Satz Theorem 1.13, dass es zwei Jordankästchen innerhalb des Jordanblocks zum Eigenwert \(\lambda_2 = 4\) von \(A\) gibt. Die Summe der Größen dieser Jordankästchen entspricht in diesem Fall der algebraischen Vielfachheit \(r_2 = 3\) von \(\lambda_2\).
Wir bestimmen nun eine Basis \(K_2\) des Eigenraums \( \Kern(G_2^2) \) mittels Gaußschen Eliminiationsverfahren mit
und erhalten somit
Wir erhalten somit als mögliche Basis von \(\Kern(G_1^2)\)
Wir haben den Nilpotenzindex von \(d = 3\) von \(G_2|_{\Hau(A; \lambda_2)}\) erreicht. Das bedeutet, dass der Kern von \(G_2\) sich nicht mehr ändert für jede weitere Potenz von \(G_2\), da gilt
Entsprechend brauchen wir keine weiteren Potenzen von \( G_2 \) zu betrachten.
Wir berechnen abschließend zur Vorbereitung
1. Schritt: Hauptvektoren der Stufe \(2\)
Wir wählen aus dem Kern \( K_2 \) einen (\(\Delta_2 = 1 \)) Hauptvektor der Stufe \(2\), d.h., einen Vektor der linear unabhängig zu Vektoren aus \( K_1 \) ist, also beispielsweise \( ( 1, 0 , 0 , 0 , 0)^T \). Wir notieren diesen Vektor in ein Schema wie folgt:\[.5cm]
\(\begin{pmatrix} 1 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix}\) |
---|
2. Schritt: Hauptvektoren der Stufe \(1\)
Wir berechnen zunächst \( G_2 \cdot ( 1, 0 , 0 , 0 , 0)^T = (1,0,-1,0,0)^T \) und tragen diesen Vektor in einer neuen Zeile unten in das Schema ein. Wir berechnen
Dies bedeutet, dass wir noch einen weiteren Hauptvektor der Stufe \(1\) aus \(K_1\) zu unserem Schema hinzufügen müssen. Hierzu wählen wir den Vektor \( (0,0,0,0,1)^T \). Dies ist konsistent zu der Beobachtung, dass das Schema nun \(r_2 = 3\) Vektoren enthält.
Das finale Schema für den zweiten Jordanblock sieht entsprechend so aus:
\( \begin{pmatrix} 1 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} \) |
|
---|---|
\( \begin{pmatrix} 1 \\ 0 \\ -1 \\ 0 \\ 0 \end{pmatrix} \) |
\(\begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 1 \end{pmatrix}\) |
Die Basis \( B_2 \) für den Hauptraum \(\Hau(A; 4)\) von \(A\) zum Eigenwert \(\lambda_2 = 4\) ergibt sich entsprechend durch Ablesen des Schemas von unten nach oben, von links nach rechts:
Wir fügen abschließend die beiden Basen \(B_1\) und \(B_2\) der zwei Haupträume zu einer Basis \(B\) von \(V\) zusammen und schreiben die Basisvektoren von \(B\) als Spalten der Transformationsmatrix
Entsprechend erhalten wir
Wir können uns während der Bestimmung einer Jordanschen Normalform auch mittels der Jordanketten die passende Jordannormalform schon überlegen. Zu \(\Hau(A;1)\) gehört nur ein Jordankästchen der Dimension \( 2 \times 2 \) (eine Jordankette der Länge \(2\)). Zu \(\Hau(A;4)\) gehört ein Jordankästchen der Dimension \( 2 \times 2 \) (eine Jordankette der Länge \(2\)) und eine Jordankästchen der Dimension \( 1 \times 1 \) (eine Jordankette der Länge \(1\)).
Glücklicherweise existieren Algorithmen, die die obigen Berechnungen automatisiert in einem Computer durchführen und dabei mögliche Rechenfehler vermeiden und uns somit viel Zeit sparen.