2.5. Orthogonalisierung und Orthonormalisierung¶
In vielen Fällen ist es sinnvoll nicht eine beliebige Basis eines endlich-dimensionalen Vektorraums V zu betrachten, sondern eine Familie von Vektoren, die orthogonal oder sogar orthonormal sind. Dies hat viele Vorteile für die Mathematik, da sich so manche Berechnung durch eine Orthonormalbasis deutlich vereinfachen lässt. Auch lassen sich durch orthonormale Vektoren längen- und winkelerhaltende Transformationen durchführen.
Definition 2.15 (Orthogonalität und Orthonormalität)
Sei V ein Euklidischer bzw. unitärer Vektorraum. Dann können wir folgende Begriffe und Notation definieren:
i) Zwei Vektoren u,v∈V heißen orthogonal, falls gilt:
Wir notieren in diesem Fall häufig auch v⊥w.
ii) Zwei Untervektorräume U,W⊂V heißen orthogonal, falls gilt:
Wir notieren in diesem Fall häufig auch U⊥W.
iii) Ist U⊂V ein Untervektorraum, so definieren wir sein orthogonales Komplement als
Es ist klar, dass U⊥ wieder ein Untervektorraum ist.
iv) Eine Familie von Vektoren (v1,…,vn) in V heißt orthogonal, wenn gilt
Sie heißt orthonormal, falls zusätzlich gilt
In diesem Fall gilt offenbar
wobei δij das Kronecker-Delta bezeichnet (vgl. Definition Definition 1.13).
v) Wir nennen eine Familie von orthonormalen Vektoren (v1,…,vn) in V eine Orthonormalbasis, falls die Vektoren eine Basis von V bilden. \item Ist V=V1⊕…⊕Vn, so heißt die direkte Summe orthogonal, falls gilt
Wir notieren in diesem Fall häufig auch V=V1\operp…\operpVn.
Example 2.9
Betrachten wir Rn oder Cn mit dem kanonischen bzw. komplexen Skalarprodukt, so ist die kanonische Basis B=(e1,…,en) eine Orthonormalbasis.
Theorem 2.5
Ist (v1,…,vn) eine orthogonale Familie von Vektoren in V mit vi≠0 für alle 1≤i≤n, so gelten die folgenden Aussagen
i) Die Familie (α1v1,…,αnvn) von Vektoren mit αi:=||vi||−1 ist orthonormal. ii) Die Familie (v1,…,vn) von Vektoren ist linear unabhängig.
Proof. Wir zeigen die beiden Behauptungen für ein allgemeines Skalarprodukt.
i) Da vi⊥vj gilt für i≠j folgt schon, dass gilt
Die Familie (α1v1,…,αnvn) von Vektoren ist also orthogonal. Da αi=||vi||−1∈R gilt sehen wir für den Fall i=j, dass gilt
Die Familie von Vektoren ist also orthonormal.
ii) Wir müssen für die lineare Unabhängigkeit der Vektoren v1,…,vn∈V zeigen, dass aus der Gleichung
bereits folgt, dass λi=0 für 1≤i≤n gelten muss. Multiplizieren wir also die Gleichung (2.7) von rechts mit vTi so folgt:
Da das Skalarprodukt insbesondere positiv definit ist, muss also schon gelten, dass λi=0 ist. Da dies unabhängig von der Wahl des Vektors vi gilt, müssen schon alle Koeffizienten λi=0 für 1≤i≤n gelten.
Theorem 2.6
Sei (v1,…,vn) eine Orthonormalbasis von V und v∈V ein beliebiger Vektor. Setzen wir λi:=⟨vi,v⟩, so gilt:
Proof. Da (v1,…,vn) eine Orthonormalbasis von V ist, existieren eindeutige Koeffizienten γi,1≤i≤n, so dass sich der beliebige Vektor v∈V schreiben lässt als
Wir multiplizieren obige Gleichung von rechts mit dem Vektor vTi und können die Koeffizienten damit eindeutig bestimmen als
Da dies für alle 1≤i≤n gilt, können wir λi:=γi=⟨vi,v⟩ definieren und es gilt damit offensichtlich
In vielen Situationen ist es praktisch eine Orthonormalbasis zu betrachten, da sie viele Berechnungen vereinfacht. Lässt sich jedoch eine Orthonormalbasis für einen beliebigen Euklidischen bzw. unitären Vektorraum bestimmen? Darauf gibt glücklicherweise der folgende Satz eine zufriedenstellende Antwort.
Theorem 2.7 (Orthonormalisierungssatz)
Sei V ein endlich-dimensionaler Euklidischer bzw. unitärer Vektorraum und W⊂V ein Untervektorraum mit Orthonormalbasis (w1,…,wm). Dann existiert eine Ergänzung aus Vektoren wm+1,…,wn∈V, so dass
eine Orthonormalbasis von V ergibt.
Proof. Da der Beweis des Satzes in konstruktiver Form erfolgt, formulieren wir diesen im Folgenden als einen konkreten Algorithmus.
Da als Unterraum W={0} in Satz Theorem 2.7 erlaubt ist, erhalten wir direkt das folgende Korollar.
Corollary 2.1
Jeder endlichdimensionale Euklidische bzw. unitäre Vektorraum besitzt eine Orthonormalbasis.
Außerdem können wir folgendes Korollar aus dem Orthogonalisierungssatz Theorem 2.7 ableiten.
Corollary 2.2
Ist W⊂V Untervektorraum eines Euklidischen bzw. unitären Vektorraums V, so gilt
Die Konstruktion einer Orthonormalbasis geht auf die beiden Mathematiker J. Gram und E. Schmidt zurück und wird daher weitläufig auch als Gram-Schmidtsches Orthogonalisierungsverfahren bezeichnet. Bevor wir uns dem Verfahren widmen, wollen wir eine nützliche Abbildung einführen.
Definition 2.16 (Orthogonale Projektion)
Seien V ein endlich-dimensionaler Euklidischer bzw. unitärer Vektorraum und v,w∈V zwei linear unabhängige Vektoren. Dann bezeichnen wir die Abbildung
als orthogonale Projektion von w auf v. Die orthogonale Projektion berechnet den Anteil, den der Vektor v an der Geometrie von w hat.
Die Kernidee des Gram-Schmidtschen Orthogonalisierungsverfahren ist es die Vektoren paarweise zueinander orthogonal auszurichten. Dabei spielt eine Korrektur mit Hilfe der orthogonalen Projektion eine zentrale Rolle, wie das folgende Lemma zeigt.
Lemma 2.8
Seien V ein endlich-dimensionaler Euklidischer bzw. unitärer Vektorraum und v,w∈V zwei linear unabhängige Vektoren. Dann können wir einen Vektor ˆw∈V berechnen mit
so dass ˆw⊥v gilt.
Proof. Wir betrachten folgende Umformungen:
Und somit gilt ˆw⊥v. Die obigen Umformungen wären einfacher zu zeigen gewesen, wenn man die Gleichung mit ⟨ˆw,v⟩ begonnen hätte. So konnte man jedoch sehen, dass die Aussage auch mit dem komplexen Standardskalarprodukt verträglich ist.
Der folgende Algorithmus erklärt das Gram-Schmidt-Orthogonalisierungsverfahren zur Konstruktion einer Orthonormalbasis eines endlich-dimensionalen Euklidischen oder unitären Vektorraums.
Algorithm 2.1 (Gram-Schmidtsches Orthogonalisierungsverfahren)
Sei V ein endlich-dimensionaler Euklidischer bzw. unitärer Vektorraum mit dimV=n, dann lässt sich eine Orthonormalbasis (v1,…,vn) aus einer Familie von linear unabhängig Vektoren (w1,…,wn) von V wie folgt konstruieren.
1. Schritt:
Wähle den ersten Vektor w1∈V und setze
Normiere den ersten Vektor wie folgt:
2. Schritt:
Wähle den zweiten Vektor w2∈V und berechne die orthogonale Projektion von w2 auf den normierten Vektor v1 als
Ziehe die orthogonale Projektion Πv1(w2) vom ursprünglichen Vektor w2 ab und erhalte damit
Normiere den zweiten Vektor wie folgt:
i. Schritt:
Wähle den i-ten Vektor wi∈V und berechne die orthogonale Projektion von wi auf die normierten Vektoren v1,…,vi−1 und ziehe diese Projektionen vom ursprünglichen Vektor wi ab durch
Normiere den i-ten Vektor wie folgt:
n. Schritt:
Wähle den n-ten Vektor wn∈V und berechne die orthogonale Projektion von wn auf die normierten Vektoren v1,…,vn−1 und ziehe diese Projektionen vom ursprünglichen Vektor wn ab durch
Normiere den n-ten Vektor wie folgt:
Die Familie (v1,…,vn) bilden nach Konstruktion nun eine Orthonormalbasis von V.
Wir wollen das Gram-Schmidtsche Orthogonalisierungsverfahren mit einem kurzen Rechenbeispiel veranschaulichen.
Example 2.10
Sei V=R2 der Euklidische Vektorraum und wir betrachten zwei linear unabhängige Vektoren w1,w2∈V, die wir orthonormalisieren wollen mit
Wir nutzen Algorithmus Algorithm 2.1 zur Konstruktion einer Orthonormalbasis aus w1 und w2.
1. Schritt:
Wir setzen ~v1=w1 und normieren den Vektor wie folgt:
2. Schritt:
Wir berechnen die orthogonale Projektion von w2 auf v1 wie folgt:
Damit können wir nun den Vektor w2 orthogonalisieren mit
Durch Normierung erhalten wir den zweiten Vektor der Orthonormalbasis:
Damit haben wir eine Orthonormalbasis von V konstruiert, da offensichtlich gilt: