2.7. Selbstadjungierte Endomorphismen¶
Dieser Abschnitt widmet sich hauptsächlich den Eigenschaften und der Herleitung einer Normalform von symmetrischen bzw. hermetischen Matrizen. Wir werden insbesondere zeigen, dass diese Matrizen immer diagonalisierbar sind, was sie besonders attraktiv für numerische Verfahren macht. Da diese Familie von Matrizen auch in der Theorie sehr häufig auftaucht haben sie zahlreiche Anwendungen in Geometrie, Analysis und in der Physik.
Wir beginnen mit der Definition von adjungierten und selbstadjungierten Endomorphismen, die eine zentrale Rolle in diesem Abschnitt spielen werden.
((Selbst-)Adjungierter Endomorphismus)
Wir nennen eine Abbildung \(F^* \colon V \to V\) den adjungierten Endomorphismus von \(F\), falls die folgende Beziehung bezüglich des Standardskalarprodukts gilt:
Ein Endomorphismus \(F\) eines Euklidischen bzw. unitären Vektorraums \(V\) heißt \emph{selbstadjungiert}, wenn \(F=F^*\), d.h.
Für orthogonale bzw. unitäre Matrizen haben wir bereits in Kapitel Orthogonale und unitäre Endomorphismen gesehen, dass \(A^* = A^{-1}\) gilt. Diese Beobachtung überträgt sich mit folgendem Lemma auch auf adjungierte Endomorphismen.
Ist \(F\) orthogonal bzw. unitär, so gilt \(F^* = F^{-1}\).
Proof. Seien \(u,v\in V\) mit \(w=F(u)\), also \(u=F^{-1}(w)\), so folgt
Folgender Satz garantiert uns die Existenz eines adjungierten Endomorphismus und stellt eine Beziehung zur Adjungierten der darstellenden Matrix her.
Sei \(V\) ein endlich-dimensionaler Euklidischer bzw. unitärer \(\K\)-Vektorraum und \(F\colon V\to V\) ein Endomorphismus. Dann existiert genau ein adjungierter Endomorphismus \(F^*\) von \(F\). Ist \(B\) eine Orthonormalbasis von \(V\) und \(A:=M_{B}(F)\) die darstellende Matrix von \(F\) bezüglich \(B\), so gilt
Proof. Da \(B\) orthonormal ist, gilt für \(v=\Phi_{B}(x)\) und \(w=\Phi_{B}(y)\) mit \(x,y\in\K^n\), so dass
Die Bedingung \eqref{eq:endoAdj} bedeutet also
Daraus folgt nun, dass \(A^T = \bar{C}\) gelten muss. Also ist \(F^*\) durch die darstellende Matrix \(C \coloneqq \bar{A}^T\) eindeutig definiert.
Aus dem obigen Satz lässt sich folgende interessante Beziehung zwischen selbstadjungierten Endomorphismen und symmetrischen bzw. hermiteschen Matrizen direkt ableiten.
Ist \(F \colon V \to V\) ein Endomorphismus und \(B\) eine Orthonormalbasis von \(V\), so gilt
Proof. Mit den gleichen Argumenten wie im Beweis von Satz Theorem 2.12 können wir feststellen, dass \(F\) selbstadjungiert ist genau dann wenn gilt:
Das ist offensichtlich genau dann der Fall, wenn \(A^T = \bar{A}\) gilt oder äquivalent, wenn gilt \(A = \bar{A}^T = A^*\).
Selbstadjungierte Endomorphismen haben die schöne Eigenschaft, dass sie nur reelle Eigenwerte besitzen, wie uns folgendes Lemma zeigt.
Sei \(V\) ein Euklidischer bzw. unitärer \(\K\)-Vektorraum und \(F\colon V\to V\) selbstadjungiert. Dann hat das charakteristische Polynom \(P_F\) auch für \(\K=\C\) nur reelle Nullstellen und zerfällt in Linearfaktoren über \(\mathbb{R}\). Insbesondere sind alle Eigenwerte von \(F\) reell.
````{prf:proof}
Sei $\lambda \in \K$ ein Eigenwert von $F$ mit zugehörigem Eigenvektor $v \in V$, dann gilt $F(v) = \lambda v$.
Wegen der Selbstadjungiertheit von $F$ können wir dann folgern:
\begin{equation*}
\lambda\langle v,v\rangle \ = \ \langle\lambda v,v\rangle \ = \ \langle F(v), v\rangle \ = \ \langle v, F(v)\rangle \ = \ \langle v, \lambda v\rangle \ = \ \bar\lambda \langle v,v\rangle.
\end{equation*}
Da $v \neq 0$ ist als Eigenvektor folgt also schon, dass $\bar\lambda = \lambda$ gilt und somit sind alle Eigenwerte von $F$ reell.
Da das charakteristische Polynom $P_F$ von $F$ nach dem Fundamentalsatz der Algebra in Linearfaktoren über $\C$ zerfällt und die Nullstellen die Eigenwerte von $F$ darstellen, folgt die Aussage.
Wenn wir die Aussagen aus Korollar Corollary 2.4 und Lemma Lemma 2.15 zusammen nehmen, können wir folgern, dass alle symmetrischen und hermiteschen Matrizen nur reelle Eigenwerte besitzen. Wir wollen diese Eigenschaft in folgendem Beispiel illustrieren.
Wir untersuchen die Eigenwerte zweier hermitescher Matrizen \(A \in \mathbb{K}^{2 \times 2}\) im Folgenden.
Sei \(A \in \mathbb{C}^{2 \times 2}\) mit
Dann ist das charakteristische Polynom gegeben durch \(P_A(t) = t^2-3t +1\) dessen Nullstellen gegeben sind durch:
Sei \(A \in \mathbb{R}^{2 \times 2}\) mit
Dann ist das charakteristische Polynom gegeben durch
Die Diskriminante von \(P_A\) ist in diesem Fall \((a-c)^2+4b^2\geq 0\), also sind die Eigenwerte reell. \end{enumerate}
Die schönen mathematischen Eigenschaften von selbstadjungierten Endomorphismen führen dazu, dass ihre Normalform einer Diagonalmatrix entspricht wie uns folgender Satz erklärt.
(Diagonalisierungssatz)
Ist \(F\) ein selbstadjungierter Endomorphismus auf einem Euklidischen bzw. unitären Vektorraum \(V\), so gibt es eine Orthonormalbasis von \(V\), die aus Eigenvektoren zu reellen Eigenwerten von \(F\) besteht.
Proof. Wir führen den Beweis mittels vollständiger Induktion über \(n=\dim V\).
Induktionsanfang: \(n=1\)
Da \(F\) selbstadjungiert ist, ist der einzige Eigenwert von \(F\) reell. Sei \(\lambda_1 \in \mathbb{R}\) der Eigenwert von \(F\) und \(v_1 \in V\) der zugehörige Eigenvektor mit \(||v_1|| = 1\) (durch Normalisierung). Dann bildet \(B = (v_1)\) eine Orthonormalbasis von \(V\).
Induktionsschritt: \(n-1 \rightarrow n\)
Die Induktionsannahme ist, dass die Aussage bereits für den Fall \(n-1\) gezeigt wurde. Nach Lemma 2.15 zerfällt das charakteristische Polynom \(P_F\) von \(F\) in Linearfaktoren über \(\R\) mit:
Wir wählen den Eigenwert \(\lambda_1\) von \(F\) und den zugehörigen Eigenvektor \(v_1\) mit \(\Vert v_1\Vert = 1\) (durch Normalisierung) und definieren das orthogonale Komplement zu \(v\) als
Wir erkennen wieder, dass \(W\) invariant ist unter \(F\), d.h. \(F(W)\subset W\), da für \(w\in W\) wegen der Selbstadjungiertheit gilt:
Außerdem ist \(F\vert_W\colon W\to W\) als Einschränkung von \(F\) wieder selbstadjungiert. Da
gilt können wir die Induktionsvorraussetzung anwenden, so dass eine Orthonormalbasis \(B'\) von \(W\) existiert aus Eigenvektoren von \(F|_W\). Diese können wir nun zu der gewünschten Orthonormalbasis \(B = (v_1, \ldots, v_n)\) von \(V\) aus Eigenvektoren von \(F\) ergänzen.
Wegen der Diagonalisierbarkeit eines selbstadjungierten Endomorphismus lassen sich direkt zwei Beobachtungen ableiten.
Ist \(A\in \K^{n\times n}\) eine symmetrische bzw. hermitesche Matrix, so gibt es eine orthogonale bzw. unitäre Matrix \(S \in U(n)\), so dass
Proof. Als Spalten von \(S^* = S^{-1}\) verwendet man eine orthonormale Basis des \(\C^n\), die aus Eigenvektoren von \(A\) besteht.
Außerdem lässt sich aus dem Satz Theorem 1.11 über die Hauptraumzerlegung folgende Zerlegung in orthogonale \(F\)-invariante Unterräume folgern.
Sind \(\lambda_1, \ldots, \lambda_k \in \R\) die paarweise verschiedenen Eigenwerte eines selbstadjungierten oder unitären Endomorphismus \(F\) von \(V\), so ist
wobei \(\obot\) die orthogonale Summe bezeichnet.
Für symmetrische bzw. hermitesche Matrizen können wir die positive Definitheit mittels des folgenden Satzes am Vorzeichen der Eigenwerte ablesen.
Für eine symmetrische bzw. hermitesche Matrix \(A\in \K^{n \times n}\) sind die folgenden Bedingungen äquivalent:
\(i) \)A$ ist positiv definit.
\(ii)\) Alle Eigenwerte \(\lambda_1, \ldots, \lambda_n\in\R\) von \(A\) sind positiv.
Proof. Für führen den Beweis für den allgemeineren Fall von unitären Vektorräumen, da er den Euklidischen Fall mit abdeckt.
\(i)\Rightarrow ii)\):
Sei \(\lambda \in \R\) ein beliebiger Eigenwert von \(A\) und \(v\in\C^n\) der zugehörige Eigenvektor, so ist wegen der Eigenwertgleichung
Somit ist \(\bar{v} \in \C^n\) offensichtlich ein Eigenvektor von \(\bar{A}\) zum Eigenwert \(\lambda\). Mit \(w:=\bar{v}\neq0\) folgt wegen der Hermizität von \(A\)
und aus der positiven Definitheit des Skalarprodukts, d.h., \(w^T\bar{w} > 0\), folgt \(\lambda>0\).
\(ii)\Rightarrow i)\):
Wir wählen eine Orthonormalbasis \((w_1, \ldots, w_n)\) bestehend aus Eigenvektoren von \(\bar A\), so dass \(\bar Aw_i = \lambda_iw_i\) für alle \(1 \leq i \leq n\). Ähnlich wie im Beweis der ersten Folgerung erhält man
Jeder beliebige Vektor \(v\in\C^n\) hat nun eine Darstellung aus Eigenvektoren mit \(v=\sum\limits_{i=1}^n\mu_iw_i\), also ist
Abschließend wollen wir die Behauptung aus Satz Theorem 2.14 an einem konkreten Beispiel nachvollziehen.
Für \(a,b\in\R\) und die hermetische Matrix
ist
Also ist \(A\) genau dann positiv definit, wenn \(a+b>0\) und \(ab>1\) ist. In diesem Fall kann man die Eigenwerte einfach ausrechnen:
Sie sind beide positiv, wenn \(a+b>0\) und \(ab>1\) ist, wie man leicht nachprüfen kann.