2.5. Orthogonalisierung und Orthonormalisierung¶
In vielen Fällen ist es sinnvoll nicht eine beliebige Basis eines endlich-dimensionalen Vektorraums \(V\) zu betrachten, sondern eine Familie von Vektoren, die orthogonal oder sogar orthonormal sind. Dies hat viele Vorteile für die Mathematik, da sich so manche Berechnung durch eine Orthonormalbasis deutlich vereinfachen lässt. Auch lassen sich durch orthonormale Vektoren längen- und winkelerhaltende Transformationen durchführen.
(Orthogonalität und Orthonormalität)
Sei \(V\) ein Euklidischer bzw. unitärer Vektorraum. Dann können wir folgende Begriffe und Notation definieren:
i) Zwei Vektoren \(u,v \in V\) heißen orthogonal, falls gilt:
Wir notieren in diesem Fall häufig auch \(v \perp w\).
ii) Zwei Untervektorräume \(U, W \subset V\) heißen orthogonal, falls gilt:
Wir notieren in diesem Fall häufig auch \(U \perp W\).
iii) Ist \(U \subset V\) ein Untervektorraum, so definieren wir sein orthogonales Komplement als
Es ist klar, dass \(U^\perp\) wieder ein Untervektorraum ist.
iv) Eine Familie von Vektoren \((v_1, \ldots, v_n)\) in \(V\) heißt orthogonal, wenn gilt
Sie heißt orthonormal, falls zusätzlich gilt
In diesem Fall gilt offenbar
wobei \(\delta_{ij}\) das Kronecker-Delta bezeichnet (vgl. Definition Definition 1.13).
v) Wir nennen eine Familie von orthonormalen Vektoren \((v_1, \ldots, v_n)\) in \(V\) eine Orthonormalbasis, falls die Vektoren eine Basis von \(V\) bilden. \item Ist \(V = V_1 \oplus \ldots \oplus V_n\), so heißt die direkte Summe orthogonal, falls gilt
Wir notieren in diesem Fall häufig auch \(V = V_1 \operp \ldots \operp V_n\).
Betrachten wir \(\mathbb{R}^n\) oder \(\mathbb{C}^n\) mit dem kanonischen bzw. komplexen Skalarprodukt, so ist die kanonische Basis \(B = (e_1, \ldots, e_n)\) eine Orthonormalbasis.
Ist \((v_1, \ldots, v_n)\) eine orthogonale Familie von Vektoren in \(V\) mit \(v_i \neq 0\) für alle \(1 \leq i \leq n\), so gelten die folgenden Aussagen
i) Die Familie \((\alpha_1 v_1, \ldots, \alpha_n v_n)\) von Vektoren mit \(\alpha_i \coloneqq ||v_i||^{-1}\) ist orthonormal. ii) Die Familie \((v_1, \ldots, v_n)\) von Vektoren ist linear unabhängig.
Proof. Wir zeigen die beiden Behauptungen für ein allgemeines Skalarprodukt.
i) Da \(v_i \perp v_j\) gilt für \(i \neq j\) folgt schon, dass gilt
Die Familie \((\alpha_1 v_1, \ldots, \alpha_n v_n)\) von Vektoren ist also orthogonal. Da \(\alpha_i = ||v_i||^{-1} \in \mathbb{R}\) gilt sehen wir für den Fall \(i=j\), dass gilt
Die Familie von Vektoren ist also orthonormal.
ii) Wir müssen für die lineare Unabhängigkeit der Vektoren \(v_1, \ldots, v_n \in V\) zeigen, dass aus der Gleichung
bereits folgt, dass \(\lambda_i = 0\) für \(1 \leq i \leq n\) gelten muss. Multiplizieren wir also die Gleichung (2.7) von rechts mit \(v_i^T\) so folgt:
Da das Skalarprodukt insbesondere positiv definit ist, muss also schon gelten, dass \(\lambda_i = 0\) ist. Da dies unabhängig von der Wahl des Vektors \(v_i\) gilt, müssen schon alle Koeffizienten \(\lambda_i = 0\) für \(1\leq i \leq n\) gelten.
Sei \((v_1, \ldots, v_n)\) eine Orthonormalbasis von \(V\) und \(v \in V\) ein beliebiger Vektor. Setzen wir \(\lambda_i \coloneqq \langle v_i, v \rangle\), so gilt:
Proof. Da \((v_1, \ldots, v_n)\) eine Orthonormalbasis von \(V\) ist, existieren eindeutige Koeffizienten \(\gamma_i, 1 \leq i \leq n\), so dass sich der beliebige Vektor \(v \in V\) schreiben lässt als
Wir multiplizieren obige Gleichung von rechts mit dem Vektor \(v_i^T\) und können die Koeffizienten damit eindeutig bestimmen als
Da dies für alle \(1 \leq i \leq n\) gilt, können wir \(\lambda_i \coloneqq \gamma_i = \langle v_i, v \rangle\) definieren und es gilt damit offensichtlich
In vielen Situationen ist es praktisch eine Orthonormalbasis zu betrachten, da sie viele Berechnungen vereinfacht. Lässt sich jedoch eine Orthonormalbasis für einen beliebigen Euklidischen bzw. unitären Vektorraum bestimmen? Darauf gibt glücklicherweise der folgende Satz eine zufriedenstellende Antwort.
(Orthonormalisierungssatz)
Sei \(V\) ein endlich-dimensionaler Euklidischer bzw. unitärer Vektorraum und \(W \subset V\) ein Untervektorraum mit Orthonormalbasis \((w_1, \ldots, w_m)\). Dann existiert eine Ergänzung aus Vektoren \(w_{m+1}, \ldots, w_n \in V\), so dass
eine Orthonormalbasis von \(V\) ergibt.
Proof. Da der Beweis des Satzes in konstruktiver Form erfolgt, formulieren wir diesen im Folgenden als einen konkreten Algorithmus.
Da als Unterraum \(W = \lbrace{ 0 \rbrace}\) in Satz Theorem 2.7 erlaubt ist, erhalten wir direkt das folgende Korollar.
Jeder endlichdimensionale Euklidische bzw. unitäre Vektorraum besitzt eine Orthonormalbasis.
Außerdem können wir folgendes Korollar aus dem Orthogonalisierungssatz Theorem 2.7 ableiten.
Ist \(W \subset V\) Untervektorraum eines Euklidischen bzw. unitären Vektorraums \(V\), so gilt
Die Konstruktion einer Orthonormalbasis geht auf die beiden Mathematiker J. Gram und E. Schmidt zurück und wird daher weitläufig auch als Gram-Schmidtsches Orthogonalisierungsverfahren bezeichnet. Bevor wir uns dem Verfahren widmen, wollen wir eine nützliche Abbildung einführen.
(Orthogonale Projektion)
Seien \(V\) ein endlich-dimensionaler Euklidischer bzw. unitärer Vektorraum und \(v,w \in V\) zwei linear unabhängige Vektoren. Dann bezeichnen wir die Abbildung
als orthogonale Projektion von \(w\) auf \(v\). Die orthogonale Projektion berechnet den Anteil, den der Vektor \(v\) an der Geometrie von \(w\) hat.
Die Kernidee des Gram-Schmidtschen Orthogonalisierungsverfahren ist es die Vektoren paarweise zueinander orthogonal auszurichten. Dabei spielt eine Korrektur mit Hilfe der orthogonalen Projektion eine zentrale Rolle, wie das folgende Lemma zeigt.
Seien \(V\) ein endlich-dimensionaler Euklidischer bzw. unitärer Vektorraum und \(v,w \in V\) zwei linear unabhängige Vektoren. Dann können wir einen Vektor \(\hat{w} \in V\) berechnen mit
so dass \(\hat{w} \perp v\) gilt.
Proof. Wir betrachten folgende Umformungen:
Und somit gilt \(\hat{w} \perp v\). Die obigen Umformungen wären einfacher zu zeigen gewesen, wenn man die Gleichung mit \(\langle \hat{w}, v \rangle\) begonnen hätte. So konnte man jedoch sehen, dass die Aussage auch mit dem komplexen Standardskalarprodukt verträglich ist.
Der folgende Algorithmus erklärt das Gram-Schmidt-Orthogonalisierungsverfahren zur Konstruktion einer Orthonormalbasis eines endlich-dimensionalen Euklidischen oder unitären Vektorraums.
(Gram-Schmidtsches Orthogonalisierungsverfahren)
Sei \(V\) ein endlich-dimensionaler Euklidischer bzw. unitärer Vektorraum mit \(\dim V = n\), dann lässt sich eine Orthonormalbasis \((v_1, \ldots, v_n)\) aus einer Familie von linear unabhängig Vektoren \((w_1, \ldots, w_n)\) von \(V\) wie folgt konstruieren.
1. Schritt:
Wähle den ersten Vektor \(w_1 \in V\) und setze
Normiere den ersten Vektor wie folgt:
2. Schritt:
Wähle den zweiten Vektor \(w_2 \in V\) und berechne die orthogonale Projektion von \(w_2\) auf den normierten Vektor \(v_1\) als
Ziehe die orthogonale Projektion \(\Pi_{v_1}(w_2)\) vom ursprünglichen Vektor \(w_2\) ab und erhalte damit
Normiere den zweiten Vektor wie folgt:
i. Schritt:
Wähle den \(i\)-ten Vektor \(w_i \in V\) und berechne die orthogonale Projektion von \(w_i\) auf die normierten Vektoren \(v_1, \ldots, v_{i-1}\) und ziehe diese Projektionen vom ursprünglichen Vektor \(w_i\) ab durch
Normiere den \(i\)-ten Vektor wie folgt:
n. Schritt:
Wähle den \(n\)-ten Vektor \(w_n \in V\) und berechne die orthogonale Projektion von \(w_n\) auf die normierten Vektoren \(v_1, \ldots, v_{n-1}\) und ziehe diese Projektionen vom ursprünglichen Vektor \(w_n\) ab durch
Normiere den \(n\)-ten Vektor wie folgt:
Die Familie \((v_1, \ldots, v_n)\) bilden nach Konstruktion nun eine Orthonormalbasis von \(V\).
Wir wollen das Gram-Schmidtsche Orthogonalisierungsverfahren mit einem kurzen Rechenbeispiel veranschaulichen.
Sei \(V = \mathbb{R}^2\) der Euklidische Vektorraum und wir betrachten zwei linear unabhängige Vektoren \(w_1, w_2 \in V\), die wir orthonormalisieren wollen mit
Wir nutzen Algorithmus Algorithm 2.1 zur Konstruktion einer Orthonormalbasis aus \(w_1\) und \(w_2\).
1. Schritt:
Wir setzen \(\tilde{v_1} = w_1\) und normieren den Vektor wie folgt:
2. Schritt:
Wir berechnen die orthogonale Projektion von \(w_2\) auf \(v_1\) wie folgt:
Damit können wir nun den Vektor \(w_2\) orthogonalisieren mit
Durch Normierung erhalten wir den zweiten Vektor der Orthonormalbasis:
Damit haben wir eine Orthonormalbasis von \(V\) konstruiert, da offensichtlich gilt: