2.6. Orthogonale und unitäre Endomorphismen¶
Mit Hilfe des in den vorangegangenen Kapiteln eingeführten Skalarprodukts ist es uns möglich eine besondere Gruppe von Endomorphismen zu untersuchen - die orthogonalen und unitären Endomorphismen. Wir werden hierbei sehen, dass diese Abbildungen schöne mathematische Eigenschaften haben und insbesondere Längen- und Winkel-erhaltend sind. Daher sind sie besonders geeignet bei der Lösung von linearen Gleichungssystemen und Eigenwertproblemen.
Orthogonale bzw. unitäre Endomorphismen lassen sich durch ihr Verhalten bezüglich des Standardskalarprodukts charakterisieren, worauf die folgende Definition basiert.
(Orthogonale und unitäre Endomorphismen)
Sei \(V\) ein Euklidischer bzw. unitärer Vektorraum und \(F \colon V \rightarrow V\) ein Endomorphismus von \(V\). Dann heißt \(F\) orthogonal bzw. unitär, wenn
2.6.1. Eigenschaften orthogonaler und unitärer Endomorphismen¶
Wir können nur mit Hilfe von Definition Definition 2.17 bereits viele interessante Eigenschaften für orthogonale bzw. unitäre Endomorphismen ableiten, wie der folgende Satz zeigt.
Sei \(V\) ein Euklidischer bzw. unitärer Vektorraum und \(F \colon V \rightarrow V\) ein orthogonaler bzw. unitärer Endomorphismus von \(V\). Seien außerdem \(v,w \in V\) beliebige Vektoren. Dann besitzt \(F\) folgende Eigenschaften:
\(i)\) \(\Vert F(v)\Vert \ = \ \Vert v\Vert\),
\(ii)\) \(\measuredangle (F(v), F(w) ) \ = \ \measuredangle (v,w)\),
\(iii)\) \(v\perp w \ \Leftrightarrow \ F(v) \perp F(w)\),
\(iv)\) \(F\) ist Isomorphismus und \(F^{-1}\) ist auch orthogonal bzw. unitär,
\(v)\) Für alle Eigenwerte \(\lambda\in\K\) von \(F\) gilt \(\vert\lambda\vert=1.\)
Proof. Wir beweisen die verschiedenen Eigenschaften des Endomorphismus \(F\) durch Ausnutzen der Definition von orthogonalen bzw. unitären Endomorphismen.
Ad \(i)\)
Sei \(v \in V\), dann gilt
Ad \(ii)\)
Seien \(v,w \in V\), dann können wir unter Ausnutzung von i) zeigen, dass gilt:
Ad \(iii)\)
Seien \(v,w \in V\) mit \(v \perp w\), dann ist die Aussage natürlich ein Spezialfall von ii). Wir können aber auch direkt nachrechnen, dass gilt:
Ad \(iv)\)
Wir müssen für die Aussage zeigen, dass \(F \colon V \rightarrow V\) injektiv ist und der Kern von \(F\) nur die Null enthält, denn dann gilt nach dem Dimensionssatz Satz 2.2.4 [Fis05] schon, dass \(\Bild(F) = V\) gelten muss und es sich somit um einen Isomorphismus handelt. Sei also \(v \in \Kern(F)\), dann gilt schon:
Wegen der positiven Definitheit des Skalarprodukt muss \(v = 0\) gelten und damit haben wir gezeigt, dass \(F\) injektiv und somit ein Isomorphismus ist.
Um zu zeigen, dass auch \(F^{-1}\) orthogonal bzw. unitär ist betrachten wir für beliebiges \(v \in V\) mit \(F^{-1}(v) \eqqcolon w\) folgende Gleichung:
Daher ist \(F^{-1}\) also auch orthogonal bzw. unitär.
\(Ad v)\)
Sei \(\lambda \in \mathbb{K}\) ein Eigenwert von \(F\) mit zugehörigem Eigenvektor \(v \in V\), so gilt wegen \(i)\):
Diese Gleichung kann nur gelten, wenn \(|\lambda| = 1\) ist.
Wir können einen Endomorphismus \(F\) von \(V\) schon als orthogonal bzw. unitär erkennen, sobald er Längen-erhaltend ist, wie folgendes Lemma zeigt. Solche Abbildungen werden Isometrien genannt. Damit gilt auch die Umkehrung von Aussage \(i)\) in Satz Theorem 2.8.
Sei \(F \colon V \rightarrow V\) ein Endomorphismus mit
Dann ist \(F\) orthogonal bzw. unitär.
Proof. Aus der Invarianz der Norm \(||F(v)|| = ||v||\) eines Vektors \(v \in V\) folgt auch schon die Invarianz der quadratischen Norm \(||v||^2\) von \(v\). Dies ist jedoch gerade die quadratische Form des kanonischen Skalarprodukts in \(V\). Mit Hilfe der Polarisierungsformel in Satz Theorem 2.4 folgt aus der Invarianz der quadratischen Form schon die Invarianz des Skalarprodukts selbst. Dies bedeutet nach Definition Definition 2.17, dass \(F\) orthogonal bzw. unitär sein muss.
2.6.2. Matrix Eigenschaften¶
Nutzt man in \(\R^n\) und \(\C^n\) mit dem kanonischen Skalarprodukt die darstellende Matrix \(A\) eines orthogonalen bzw. unitären Endomorphismus \(F\) von \(V\), so lässt sich beobachten, dass für alle \(x,y \in \mathbb{K}^n\) gilt:
Die Matrix \(\bar{A}^T\) in Gleichung (2.8) hat eine besondere Bedeutung wie die folgende Definition zeigt.
(Adjungierte Matrix)
Sei \(A \in \mathbb{C}^{m \times n}\) eine komplexe Matrix mit
dann definieren wir die adjungierte Matrix \(A^* \in \mathbb{C}^{n \times m}\), auch Adjungierte genannt, als die komplexe Konjugation der transponierten Matrix von \(A\), d.h.,
Ist \(A\) eine reelle Matrix, so ist die Adjungierte lediglich die transponierte Matrix von \(A\), d.h., \(A^* = A^T\).
Für die darstellende Matrix eines unitären Endomorphismus muss also nach Gleichung (2.8) gelten, dass \(A^* \cdot A = E_n\) gilt, was die folgende Definition motiviert.
(Orthogonale und unitäre Matrix)
Eine Matrix \(A\in\operatorname{GL}(n;\R)\) heißt orthogonal, falls gilt
Eine Matrix \(A\in\operatorname{GL}(n;\C)\) heißt unitär, falls gilt
Aus der Gleichung \(A^* \cdot A = E_n\) können wir folgende interessante Beobachtungen zur Gestalt und Determinante einer unitären Matrix machen.
Sei \(A\) eine unitäre Matrix. Dann bilden sowohl die Spalten als auch die Zeilen von \(A\) eine Orthonormalbasis des \(\mathbb{K}^n\).
Proof. Da \(A\) unitär ist gilt per Definition, dass \(A^{-1} = A^*\) gilt. Daraus folgt einerseits
also müssen die Zeilen von \(A\) eine Orthonormalbasis des \(\mathbb{K}^n\) bilden. Gleichzeitig gilt aber auch
also müssen die Spalten von \(A\) eine Orthonormalbasis des \(\mathbb{K}^n\) bilden.
Sei \(A\) eine unitäre Matrix. Dann gilt entweder \(\det A = 1\) oder \(\det A = -1\).
Proof. Für eine komplexe Zahl \(z \in \mathbb{C}\) mit \(z \coloneqq a + ib\) und \(a,b \in \mathbb{R}\) gilt offensichtlich:
Daher können wir für die Determinante von \(A\) folgern, dass gilt:
Damit wissen wir, dass für unitäre Matrizen gilt \(\det A = \pm1.\)
Das Vorzeichen der Determinante hat eine wichtige geometrische Bedeutung, denn falls \(\det A=+1\) gilt, bleiben Orientierungen unter der Wirkung von \(A\) erhalten. Solch orthogonale Matrizen nennt man daher auch eigentlich orthogonal und sie bilden eine abgeschlossene Gruppe, wie folgende Bemerkung feststellt.
Die Mengen
der orthogonalen, speziellen orthogonalen, unitären und speziellen unitären Matrizen sind Untergruppen von \(\operatorname{GL}(n;\R)\) bzw. \(\operatorname{GL}(n;\C)\).
Wir diskutieren im Folgenden zwei Beispiele von orthogonalen bzw. unitären Matrizen.
Sei \(A \in \mathbb{K}^{3\times3}\), dann betrachten wir zwei einfache Beispiele.
Die Einheitsmatrix \(A = E_3 \in \mathbb{R}^{3\times 3}\) mit
ist eine orthogonale Matrix, da offensichtlich gilt \(A^T = A = A^{-1}\). Es gilt sogar \(A \in \operatorname{SO}(3)\), da \(\det A = +1\) ist.
Die Matrix \(A \in \mathbb{C}^{3\times 3}\) mit
ist eine unitäre Matrix, denn offensichtlich gilt \(A^* = A^{-1}\) mit
Es gilt sogar \(A \in \operatorname{SU}(3)\), da \(\det A = +1\) ist.
2.6.3. Zusammenhang zwischen Endormorphisnen und Matrizen¶
Der folgende Satz stellt eine direkte Beziehung zwischen orthogonalen bzw. unitären Endomorphismen und den Eigenschaften ihrer darstellenden Matrizen bezüglich bestimmter Basen fest.
Sei \(V\) ein Euklidischer bzw. unitärer Vektorraum mit einer Orthonormalbasis \(B\) und \(F\) ein Endomorphismus von \(V\). Dann gilt:
Proof. Wir zeigen die Aussage für den allgemeineren Fall eines unitären Vektorraums. Sei \(A:= M_B(F)\in \mathbb{K}^{n\times n}\) die darstellende Matrix von \(F\) bezüglich der Orthonormalbasis \(B\) und für \(v,w\in V\) seien \(x, y \in \mathbb{K}^n\) die zugehörigen Koordinaten, d.h.
Da \(B\) eine Orthonormalbasis ist gilt offensichtlich
Der Endomorphismus \(F\) ist also genau dann unitär, falls gilt
Also genau dann wenn \(A^T \cdot \bar{A} = I_n\) gilt, was der Fall ist, wenn \(A\) unitär ist.
2.6.4. Diagonalisierung¶
Wir wollen im folgenden untersuchen wie die Normalform eines orthogonalen bzw. unitären Endomorphismus aussieht. Hierbei werden wir die mathematischen Werkzeuge aus der Eigenwerttheorie in Kapitel Eigenwerte einsetzen können. Hierzu beginnen wir mit der (mathematisch schöneren) Normalform von unitären Endomorphismen, die im folgenden Satz beschrieben ist.
(Diagonalisierungssatz)
Jeder unitäre Endomorphismus \(F\) eines unitären Vektorraums \(V\) besitzt eine Orthonormalbasis aus Eigenvektoren von \(F\). Insbesondere ist er diagonalisierbar.
Proof. Wir führen den Beweis mittels vollständiger Induktion über \(n=\dim V\).\[0.3cm]
Induktionsanfang: \(n=1\)
Da \(F\) unitär ist muss gelten
Im eindimensionalen Fall, kann dies nur gelten, falls \(F(v) = v\) oder \(F(v) = -v\) für alle \(v \in V\) gilt. Dies erfüllt aber schon die Eigenwertgleichung für den Eigenwert \(\lambda_1 = 1\) oder \(\lambda_1 = -1\). Für beide Fälle ist \(v_1 = 1\) der zugehörige Eigenvektor und es ist klar, dass \(v_1\) eine Orthonormalbasis von \(V\) bildet. Damit ist \(F\) nach Definition Definition 1.10 diagonalisierbar.
Induktionsschritt: \(n-1 \rightarrow n\)**
Die Induktionsannahme ist, dass die Aussage bereits für den Fall \(n-1\) gezeigt wurde. Wir betrachten für \(n \geq 1\) das charakteristische Polynom \(P_F\) von \(F\), welches nach dem Fundamentalssatz der Algebra in Linearfaktoren über dem Körper \(\mathbb{C}\) zerfällt in
Zum Eigenwert \(\lambda_1 \in \mathbb{C}\) von \(F\) wählen wir einen zugehörigen Eigenvektor \(v_1\) mit \(\Vert v_1\Vert = 1\). Wir betrachten das orthogonale Komplement zum Unterraum \(\lin(\lbrace v_1 \rbrace)\), d.h.
Wir müssen nun \(F(W) = W\) zeigen, d.h., dass \(W\) ein \(F\)-invarianter Unterraum ist. Da \(F\) nach Satz Theorem 2.8 ein Isomorphismus ist, genügt es \(F(W)\subset W\) zu beweisen. Für alle \(w \in W\) folgt aus der Gleichung
dass \(\langle F(w), v_1\rangle = 0\), da \(\vert \lambda_1\vert = 1\) und damit insbesondere \(\lambda_1\neq0\) gilt. Das zeigt jedoch schon, dass \(F(W) \subset W\) gilt.
Nun betrachten wir den Endomorphismus \(G:=F|_W\) von \(W\). Als Einschränkung von \(F\) ist \(G\) weiterhin unitär und wegen \(\dim W = n-1\) können wir auf \(G\) die Induktionsannahme anwenden. Danach gibt es eine Orthonormalbasis \((v_2, \ldots, v_n)\) von \(W\) bestehend aus Eigenvektoren von \(G\) und somit auch von \(F\). Die um den Eigenvektor \(v_1 \in V\) ergänzte Basis \((v_1, v_2, \ldots, v_n)\) ist orthonormal und besteht aus Eigenvektoren von \(F\).
Übertragen auf unitäre Matrizen liefert uns der Diagonalisierungssatz Theorem 2.10 folgende Ähnlichkeitstransformation.
Zu \(A\in\operatorname{U}(n)\) gibt es ein \(S\in\operatorname{U}(n)\) mit
wobei \(\lambda_i\in\C\) mit \(\vert\lambda_i\vert = 1\) für \(i=1,\ldots,n\,.\)
Proof. Als Spalten von \(S^* = S^{-1}\) verwendet man eine orthonormale Basis des \(\C^n\), die aus Eigenvektoren von \(A\) besteht.
Im folgenden Beispiel wollen wir die Diagonalisierbarkeit einer unitären Matrix nach Korollar Corollary 2.3 prüfen.
Die Matrix \(A \in \mathbb{R}^{2\times 2}\) mit
beschreibt eine Drehung um \(90^\circ\) im \(\R^2\) und ist offensichtlich orthogonal. Da das charakteristische Polynom von \(A\) die Form \(P_A(t) = t^2 + 1\) hat, sind die Eigenwerte \(\lambda_1 = i\) und \(\lambda_2 = -i\) nicht reell. Die zugehörigen Eigenvektoren in \(\C^2\) sind:
Durch Normalisierung der Eigenvektoren mit dem Faktor \(\sqrt{2}\) erhalten wir
und wir erhalten damit
2.6.5. Beispiele und Veranschaulichung¶
Um den komplizierteren Fall von orthogonalen Endomorphismen besser zu verstehen beginnen wir mit einer Falldiskussion für kleine Dimensionen \(n = 1,2,3\) des Vektorraums \(V\). Sei also im Folgenden \(F \colon V \rightarrow V\) ein orthogonaler Endomorphismus und \(A \coloneqq M_B(F)\) die darstellende Matrix von \(F\) bezüglich einer Basis \(B\). Aus Satz Theorem 2.9 wissen wir, dass \(A\) dann auch orthogonal ist und wir können unsere Diskussion auf diese Matrix beschränken.
Im eindimensionalen Fall kann wegen \(A^{-1} = A^T\) nur gelten \(A = \pm 1\).
Im zweidimensionalen Fall erhalten wir im folgenden Lemma eine interessante geometrische Interpretation von orthogonalen Matrizen, die besagt, dass orthogonale \((2 \times 2)\)-Matrizen spezielle geometrische Transformationen realisieren.
Ist \(A\in\operatorname{O}(2)\), so gibt es ein \(\alpha\in\left[0, 2\pi\right[\), so dass
Proof. In der Hausaufgabe zu zeigen.
Im dreidimensionalen Fall eines orthogonalen Endomorphismus \(F\colon\R^3\to\R^3\) betrachten wir das charakteristische Polynom \(P_F\). Da \(P_F\) den Grad \(3\) besitzt, existiert nach dem Zwischenwertsatz der Analysis mindestens eine reelle Nullstelle von \(P_F\). Also hat \(F\) mindestens einen Eigenwert \(\lambda_1 \in \mathbb{R}\) und nach Satz Theorem 2.8 wissen wir, dass \(\lambda_1=\pm1\) gilt. Sei \(v_1\in\R^3\) der zugehörige Eigenvektor, für den wir \(\Vert v_1\Vert = 1\) annehmen können (durch Normalisierung). Dann können diesen Eigenvektor von \(F\) nach Satz Theorem 2.7 zu einer Orthonormalbasis \(B = (v_1,w_2,w_3)\) von \(V\) ergänzen.
Wir bezeichnen mit \(W\subset V = \R^3\) die von \(w_2\) und \(w_3\) aufgespannte zweidimensionale Ebene. Da \(v_1\) ein Eigenvektor von \(F\) ist, gilt natürlich \(F(v_1) \subset \lin(\left\lbrace v_1 \right\rbrace)\). Da außerdem \(v_1 \perp W\) und \(F\) nach Satz Theorem 2.8 ein Isomorphismus ist muss gelten, dass \(F(W)=W\) gilt. Betrachten wir die darstellende Matrix \(M_B(F)\) von \(F\) bezüglich der Orthonormalbasis \(B\) mit
so folgt aus Satz Theorem 2.9, dass \(A^\prime \in\operatorname{O}(2)\) orthogonal ist. Weiter gilt wegen der Determinantenregel für Blockmatrizen in Lemma Lemma 1.3, dass gilt \(\det A = \lambda_1 \cdot \det A^\prime\). Betrachten wir also die möglichen Fälle im Folgenden basierend auf unseren Erkenntnissen aus Lemma Lemma 2.12.
Sei \(\det A = +1\). Ist \(\lambda_1 = -1\), dann muss \(\det A^\prime = -1\) sein. Daher kann man \(w_2\) und \(w_3\) als Eigenvektoren zu den Eigenwerten \(\lambda_2 = + 1\) und \(\lambda_3 = -1\) wählen, also
Ist \(\lambda_1 = +1\), dann muss auch \(\det A^\prime = +1\) sein, also gibt es ein \(\alpha \in \left[0, 2\pi\right[\), so dass
Ist \(\det A = -1\), dann gibt es bei geeigneter Wahl von \(w_2\) und \(w_3\) die Möglichkeiten
2.6.6. Normalform für unitäre und orthogonale Endomorphismen¶
Wir nutzen unsere Erkenntnisse aus der gerade durchgeführten Diskussion für die Fälle \(\dim V \in \lbrace 1,2,3\rbrace\) um eine Normalform für unitäre und orthogonale Endomorphismen im allgemeinen Fall anzugeben.
Im Gegensatz zu der gerade im komplexen Fall bewiesenen Diagonalisierbarkeit unitärer Endomorphismen gibt es im Reellen orthogonale Endomorphismen ohne Eigenwerte in \(\mathbb{R}\). Das einfachste Beispiel sind Drehungen in der Ebene \(\R^2\) wie in Beispiel Example 2.12 beschrieben.
Bevor wir uns der Normalform von orthogonalen Endomorphismen widmen benötigen wir das folgende hilfreiche Lemma.
Zu einem orthogonalen Endomorphismus \(F \colon V \rightarrow V\) eines Euklidischen Vektorraums \(V\) mit \(\dim V \geq 1\) gibt es stets einen Untervektorraum \(W \subset V\) mit
Proof. Sei \(A \in \mathbb{R}^{n \times n}\) die darstellende Matrix des orthogonalen Endomorphismus \(F\) auf \(V\). Wir führen den Beweis des Lemmas durch eine Symmetrisierung von \(A\). Sei hierfür die Symmetrisierung \(A^s\) von \(A\) definiert als
Offensichtlich ist \(A^s\) symmetrisch, da für alle Indizes \(1 \leq i,j \leq n\) gilt
Wie wir im nächsten Kapitel sehen werden, bedeutet dies, dass ein reeller Eigenwert \(\lambda \in \mathbb{R}\) und ein zugehöriger reeller Eigenvektor \(v\) von \(A^s\), so dass die Eigenwertgleichung \(A^sv=\lambda v\) erfüllt ist.
Dieser Eigenvektor erzeugt den \(F\)-invarianten Unterraum \(W\) mit
Die Invarianz von \(W\) unter Anwendung von \(A\) folgt aus den folgenden Argumenten. Wenden wir \(A\) auf \(v\) an, so erhalten wir den Vektor \(Av \in W\). Außerdem gilt, dass \(A \cdot Av = A^2v \in W\), da wir aus der Eigenwertgleichung sehen:
Wir zeigen nun, dass sich die Normalform eines orthogonalen Endomorphismus auf eine darstellende Matrix zurückführen lässt, die im Wesentlichen nur die Eigenwerte \(\pm 1\) auf der Hauptdiagonalen und eben jene \((2 \times 2)\)-Drehmatrizen besitzt.
Ist \(F\) ein orthogonaler Endomorphismus eines Euklidischen Vektorraums \(V\), dann gibt es in \(V\) eine Orthonormalbasis \(B\) derart, dass die darstellende Matrix \(M_B(F) \in \GL(n; \mathbb{R})\) folgende Gestalt einer Normalform hat
wobei für \(j=1,\ldots,k\) folgende Drehmatrizen existieren:
\(F\) ist also charakterisiert durch die Anzahl \(r\in \mathbb{N}\) der Eigenwerte \(+1\) die Anzahl \(s\in \mathbb{N}\) der Eigenwerte \(-1\), sowie durch die Winkel \(\alpha_1, \ldots,\alpha_k\), wobei gilt
Proof. Sei \(A\) eine darstellende Matrix von \(F\). Wir führen den Beweis durch vollständige Induktion über \(n=\dim V\).
Induktionsanfang: \(n=1\) und \(n=2\)
Der Induktionsanfang folgt direkt aus der Beobachtung, dass \(A = \pm 1\) für \(n=1\) gilt und der Aussage von Lemma Lemma 2.12 für \(n=2\).
Induktionsschritt: \(n-1 \rightarrow n\) für \(n \geq 3\)
Die Induktionsannahme ist, dass die Aussage bereits für den Fall \(n-1\) und \(n-2\) gezeigt wurde.
Da \(F\) orthogonal ist existiert nach Lemma Lemma 2.13 ein Untervektorraum \(W\subset V\) mit
Aus Satz Theorem 2.8 wissen wir, dass \(F\) injektiv und somit gilt schon, dass \(F(W) = W\) sein muss. Außerdem existiert existiert ein Endomorphismus \(F^{-1}\), der auch orthogonal ist und für den gilt \(F^{-1}(W) = W\). Daher können wir für die Vektoren \(w\in W\) und \(v\in W^\perp\) folgern, dass gilt
Daraus folgt schon, dass \(F(W^\perp) \subset W^\perp\) gilt. Da \(F\) nach Satz Theorem 2.8 insbesondere ein Isomorphismus ist, muss schon gelten, dass \(F(W^\perp) = W^\perp\). Damit haben wir \(F\) zerlegt in zwei orthogonale Abbildungen
Da \(n-2 \leq \dim W^\perp < n\) ist können wir können wir auf \(H\) die Induktionvorrausetzung anwenden und erhalten eine Basis \(B^\prime\) von \(W^\perp\) der gewünschten Art.
Für den orthogonalen Endomorphismus \(G\) müssen wir abschließend noch zwei Fälle in Abhängigkeit von \(\dim W \in \lbrace 1,2 \rbrace\) betrachten.
Ist \(\dim W = 1\), so gibt es einen Eigenvektor \(v\in W\) mit \(\Vert v\Vert = 1\) zu einem Eigenwert \(\pm1\). Ergänzt man \(B^\prime\) an passender Stelle durch \(v\) zu \(B\), so hat diese Basis von \(V\) die gewünschten Eigenschaften.
Im Fall \(\dim W = 2\) gibt es eine Orthonormalbasis \((v_1, v_2)\) von \(W\), bezüglich der \(G\) nach Lemma Lemma 2.12 beschrieben wird durch eine Matrix der Form
Indem man \(v_1\) und \(v_2\) an den passenden Stellen in \(B^\prime\) einfügt, erhält man wieder einen gewünschte Basis \(B\) von \(V\).
Wie der Beweis zeigt lässt sich \(V\) rekursiv in eine orthogonale direkte Summe von invarianten Unterräume der Dimension \(1\) oder \(2\) zerlegen.