1.1. Mathematische Grundlagen

Zur Entwicklung der Eigenwerttheorie betrachten wir in diesem Kapitel spezielle lineare Abbildungen F:VV, den sogenannten Endomorphismen, die von einem Vektorraum V wieder nach V abbilden. Hierbei beschränken wir uns auf den endlich-dimensionalen Fall und nehmen im Folgenden immer an, dass V ein K-Vektorraum über einem Körper K ist und eine endliche Dimension dim(V)=n,nN, besitzt. Ein kanonisches Beispiel wäre der Vektorraum V=Rn. Es sei angemerkt, dass Eigenwerte auch für den Fall von unendlich-dimensionalen Vektorräumen untersucht werden können, zum Beispiel bei der Spektraltheorie in der Funktionanalysis. Wir wollen uns in dieser Vorlesung jedoch auf den einfacheren, endlich-dimensionalen Fall beschränken.

Wir beginnen mit einer kurzen Auffrischung der Beziehung einer darstellenden Matrix und einer allgemeinen linearen Abbildung zwischen zwei K-Vektorräumen. Wie wir wissen, besteht zwischen Matrizen aus Kn×m und linearen Abbildungen F:VW zwischen n– bzw. m–dimensionalen K–Vektorräumen V und W ein enger Zusammenhang. Ist B=(b1,...,bn) eine Basis von V und C=(c1,...,cm) eine Basis von W , dann ist die darstellende Matrix MBC(F)Kn×m diejenige Matrix, bezüglich derer der Vektor ni=1vibiV unter F auf den Vektor mj=1wjcjW mit

wj = ni=1(MBC(F))j,ivi

abgebildet wird. Die Matrix MBC(F) drückt also aus, wie sich die lineare Abbildung auf Vektoren von V bezüglich der gewählten Basen B und C verhält, so dass viele mathematische Sätze für lineare Abbildungen und Matrizen äquivalent formuliert werden können.

Besonders wichtig für die Eigenwerttheorie ist der folgende grundlegende Basiswechselsatz.

Theorem 1.1 (Basiswechselsatz)

Seien V ein n-dimensionaler K-Vektorraum mit nN und seien

B := (b1,,bn),C := (c1,,cn)

zwei Basen von V. Sei nun vV ein Vektor, der in den beiden Basen folgende Darstellungen hat

v = ni=1xibi = ni=1yici.

Die Koordinaten (x1,,xn)Kn und (y1,,yn)Kn sind eindeutig bestimmt und es existiert eine reguläre Matrix TBCGL(n;K), genannt Transformationsmatrix, die einen Basiswechsel von B nach C wie folgt realisiert:

(y1yn) = TBC(x1xn)

Außerdem lassen sich die Koordinaten des Vektors v bezüglich der Basis B aus den Koordinaten bezüglich der Basis C unter zu Hilfenahme der inversen Transformationsmatrix TCB=(TBC)1 berechnen und es gilt

(x1xn) = TCB(y1yn)

Proof. Siehe Bemerkung 2.6.2 und 2.6.3 in [Fis05].

Bevor wir uns dem eigentlich Studium von Eigenwerten und Eigenvektoren widmen, wollen wir noch einige grundlegende Begriffe aus der Linearen Algebra wiederholen, die aus [Bur20] bereits bekannt sein sollten. Hierbei handelt es sich um nützliche Begriffe und Eigenschaften von quadratische Matrizen als Repräsentanten von Endomorphismen, die ein Spezialfall von linearen Abbildungen zwischen K-Vektorräumen darstellen.

Definition 1.1 (Spur einer Matrix)

Sei AKn×n eine quadratische Matrix. Dann ist die Spur Spur(A) von A definiert als die Summe der Diagonaleinträge von A, d.h.,

Spur(A) := ni=1Ai,i.

Definition 1.2 (Kern einer Matrix)

Sei AKn×n eine quadratische Matrix. Dann ist der Kern Kern(A) von A, auch Nullraum genannt, definiert als der Unterraum von V, dessen Vektoren von A auf den Nullvektor 0V abgebildet werden, d.h.,

Kern(A) := {vV|Av=0}.

Der Kern von A ist also gerade der Lösungsraum des homogenen, linearen Gleichungssystems Av=0.

Definition 1.3 (Bild und Rang einer Matrix)

Sei AKn×n eine quadratische Matrix.

  • Dann ist das mit Bild(A) bezeichnete Bild von A, auch Bildraum genannt, definiert als der Unterraum von V, auf den alle Vektoren vV von A abgebildet werden, d.h.,

Bild(A) := {wV|Av=w,vV}.
  • Weiterhin können wir den mit Rang(A) bezeichneten Rang von A definieren als Dimension des Bildraums von A, d.h., Rang(A):=dimBild(A).

Folgende Lemmata werden uns nützlich sein in Bezug auf die Determinante det(A) einer quadratischen Matrix A.

Lemma 1.1

Eine quadratische Matrix AKn×n hat genau dann vollen Rang, wenn ihre Determinante ungleich Null ist, d.h.

Rang(A)=dimV  det(A)0.

Proof. Sei Rang(A)=dimBild(A)=dimV, dann wissen wir nach dem Satz über die Orthogonalität von Bild und Kern (siehe Satz 3.28 [Bur20]), dass der Kern von AT trivial sein muss, d.h., Kern(AT)={0}. Dies ist äquivalent dazu, dass die Matrix AT regulär ist. Dann folgt schon mit der äquivalenten Bedingung aus [Bur20] Satz 3.41], dass die Determinante det(AT)=det(A)0 ist.

Lemma 1.2 (Determinanten-Regel von Sarrus)

Die Determinante det(A) einer quadratischen (3×3)-Matrix AK3×3 mit

A = (a11a12a13a21a22a23a31a32a33)

lässt sich mit der Regel von Sarrus wie folgt berechnen.

det(A) = a11a22a33+a12a23a31+a13a21a32a13a22a31a11a23a32a12a21a33.

Proof. Siehe Theorem 3.2.5 (Leibnizformel) in [Fis05].

Das folgende Lemma erlaubt es uns die Determinante für Blockmatrizen besonders leicht auszurechnen und das Problem in einfachere Unterprobleme zu zerlegen.

Lemma 1.3 (Determinanten-Regel für Blockmatrizen)

Sei nN mit n2 und sei AKn×n eine quadratische Blockmatrix von der Gestalt

A = (A1C0A2),

wobei A1 und A2 quadratische Blöcke sind. Dann gilt für die Determinante der Blockmatrix A:

det(A) = det(A1)det(A2).

Proof. Siehe Satz 3.1.3, D9 [Fis05].