Lineare Algebra: Tammo Tom Dieck
Lineare Algebra: Tammo Tom Dieck
Mathematisches Institut
Universität Göttingen
2 Matrizen 32
2.1 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3 Basiswechsel. Koordinatentransformation . . . . . . . . . . . . 41
2.4 Lineare Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . 47
3 Determinanten 54
3.1 Determinantenformen . . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Determinante einer Matrix . . . . . . . . . . . . . . . . . . . . . 57
3.3 Volumen. Orientierung . . . . . . . . . . . . . . . . . . . . . . . 61
3.4 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . 63
4 Bilineare Abbildungen 66
4.1 Hilbert-Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Isometrien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3 Selbstadjungierte Endomorphismen . . . . . . . . . . . . . . . . 79
4.4 Bilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 83
4.5 Adjungierte Endomorphismen . . . . . . . . . . . . . . . . . . . 86
4.6 Geometrische Bilinearformen . . . . . . . . . . . . . . . . . . . 87
4.7 Bilinearformen auf reellen Vektorräumen . . . . . . . . . . . . . 89
4.8 Die Lorentz-Gruppe . . . . . . . . . . . . . . . . . . . . . . . . 92
6 Normalformen 116
6.1 Zyklische Endomorphismen . . . . . . . . . . . . . . . . . . . . 116
6.2 Nilpotente Endomorphismen . . . . . . . . . . . . . . . . . . . 117
6.3 Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . 119
6.4 Normalformen für Zwei-mal-zwei Matrizen . . . . . . . . . . . . 120
8 Anhang 148
8.1 Die Mengensprache . . . . . . . . . . . . . . . . . . . . . . . . . 148
Index 152
Kapitel 1
1.1 Vorbereitungen
Ein Grundbegriff der linearen Algebra ist der Begriff eines Vektorraums über
einem Körper. Um ihn zu formulieren, verwenden wir den Begriff einer Grup-
pe und den eines Körpers. Obgleich es sich dabei um wichtige Begriffe der
Mathematik handelt, mit eigenen umfangreichen Theorien, werden in diesem
einleitenden Abschnitt lediglich die Vokabeln bereitgestellt.
(1.1.1) Zahlen. Die Algebra ist aus dem Zahlenrechnen und seinen Gesetzen
entstanden. Eine elementare Kenntnis der Zahlen wird unterstellt.
Einige Mengen von Zahlen werden im vorliegenden Text mit Standardsym-
bolen notiert:
berg 1983.
1.1 Vorbereitungen 5
(1.1.2) Komplexe Zahlen. Wir notieren noch einige Einzelheiten über die
komplexen Zahlen. Für die gesamte Mathematik ist bekanntlich die Erweite-
rung des Bereichs der reellen Zahlen zu den komplexen Zahlen von grundlegen-
der Bedeutung.
Keine reelle Zahl x genügt der Gleichung x2 + 1 = 0. Man erfindet eine neue
Zahl i, für die i2 = −1 gilt, bildet mit reellen Zahlen a und b Ausdrücke a + bi,
addiert zwei solche gemäß der Regel
Man rechnet also einfach wie gewohnt, wobei jedoch immer wenn i2 vorkommt,
dafür −1 gesetzt wird. Man nennt z = a + bi eine komplexe Zahl, a = Re(z)
ihren Realteil, b = Im(z) ihren Imaginärteil und i die imaginäre Einheit. Die
Gesamtheit der komplexen Zahlen wird mit C bezeichnet. Geometrisch wird
z = a + bi als Punkt (a, b) ∈ R2 der Zahlenebene veranschaulicht. Geometrisch
wird die Addition durch die berühmte Parallelogrammregel dargestellt. Die
Zahl z = a − bi heißt die zu z = a + bi konjugierte Zahl (Spiegelung an der
reellen Achse). Es gelten die Regeln u + v = u + v und u · v = u · v. Wegen
z·z = (a+bi)(a−bi) = a2 +b2 setzen wir z·z = |z|2 und nennen |z| ≥ 0 die Norm
oder den Betrag von z. Diese Zahl ist der elementar-geometrische Abstand von
z vom Nullpunkt. Es gelten die Dreiecksungleichung |u + v| ≤ |u| + |v| sowie
|uv| = |u||v|. 3
iR
6z + p w
p pp p p p p p
6
p p
pp ppp
p p ppp pp w
Im(z) = ib r z = a + bi p p p
ppp
z pp
3
I
@@
r r - R @r
-
Re(z) = a
je drei Elemente a, b, c aus G die Gleichheit m(a, m(b, c)) = m(m(a, b), c) be-
steht. Formeln dieser Art lassen sich schlecht lesen. Wenn wir eine Verknüpfung
abgekürzt als Multiplikation m(a, b) = a · b = ab notieren, so lautet also das
Assoziativgesetz a(bc) = (ab)c. Statt verknüpfen“ sagen wir bei dieser Be-
”
zeichnungsweise auch multiplizieren“. Eine Verknüpfung m heißt kommutativ,
”
wenn für je zwei Elemente a, b aus G die Gleichheit m(a, b) = ab = ba = m(b, a)
besteht. Ein Element e ∈ G heißt neutrales Element der Verknüpfung m, wenn
für alle x ∈ G die Gleichungen m(e, x) = ex = x = xe = m(x, e) gelten. Sind e
und f neutral, so folgt e = ef = f . Also hat eine Verknüpfung höchstens ein
neutrales Element. 3
(1.1.4) Beispiel. Sei G eine der sechs in (1.1.1) genannten Mengen. Dann ist
jeweils die Addition und die Multiplikation eine Verknüpfung auf dieser Menge,
und diese Verknüpfungen sind assoziativ und kommutativ.
Auf der Menge N = {1, 2, 3, 4, . . .} hat die Multiplikation ein neutrales Ele-
ment, die Eins; die Addition hat jedoch kein neutrales Element. Wie verhalten
sich diesbezüglich Addition und Multiplikation auf der Menge N0 ? 3
(1.1.5) Gruppen. Eine Gruppe besteht aus einer Menge G und einer Ver-
knüpfung m auf G, so daß die folgenden Axiome gelten:
(1) Die Verknüpfung ist assoziativ.
(2) Die Verknüpfung besitzt ein neutrales Element e ∈ G.
(3) Zu jedem a ∈ G gibt es ein b ∈ G, so daß m(b, a) = e = m(a, b) ist.
Ist (G, m) eine Gruppe, so heißt m eine Gruppenstruktur auf der Menge G.
Wenn die Verknüpfung als Multiplikation geschrieben wird, so nennen wir
m auch Gruppenmultiplikation. Eine Gruppe mit einer kommutativen Mul-
tiplikation wird kommutative Gruppe oder abelsche2 Gruppe genannt. In ei-
ner kommutativen Gruppe wird die Verknüpfung oft als Addition geschrieben,
m(a, b) = a + b; in diesem Fall sprechen wir natürlich von der Gruppenaddition.
Wir unterscheiden diese beiden Notationen auch dadurch, daß wir von additi-
ven und multiplikativen Gruppen reden. Es ist üblich, eine Gruppe (G, m) nur
durch die zugrundeliegende Menge G zu bezeichnen, insbesondere dann, wenn
man nicht mehrere Verknüpfungen unterscheiden muß. 3
In einer multiplikativen Gruppe schreiben wir das neutrale Element oft als
1 und nennen es das Einselement der Gruppe. Das bei gegebenem a ∈ G
eindeutig bestimmte Element b mit der Eigenschaft ab = 1 = ba nennen wir
das Inverse von a und bezeichnen es mit a−1 . In einer additiv geschriebenen
Gruppe ist das Inverse b von a durch die Gleichung a + b = 0 bestimmt;
wir schreiben in diesem Fall b = −a. Mit diesen Bezeichnungen gelten dann
die Rechenregeln 1 · a = a = a · 1 und a−1 · a = a · a−1 = 1. Ferner ist
(a−1 )−1 = a, und es gilt (a · b)−1 = b−1 · a−1 . Die Linksmultiplikation mit
2 Niels Henrik Abel 1802 – 1829
1.1 Vorbereitungen 7
(1.1.6) Beispiele.
(1) Die ganzen Zahlen Z sind zusammen mit der Addition eine kommutative
Gruppe. Die Vielfachen {cz | z ∈ Z} einer ganzen Zahl c sind eine Untergruppe
darin.
(2) Die komplexen Zahlen vom Betrag 1 sind zusammen mit der Multi-
plikation eine kommutative Gruppe. In der geometrischen Interpretation der
komplexen Zahlen als Punkte der Ebene besteht diese Gruppe aus den Punk-
ten des Kreises vom Radius 1 um den Nullpunkt. In dieser Gruppe gibt es die
Untergruppe Cn = {ζ | ζ n = 1} der Zahlen, deren n-te Potenz gleich 1 ist
und die deshalb n-te Einheitswurzeln heißen (n ∈ N). Mit Hilfe der komple-
xen Exponentialfunktion lassen sich diese Zahlen als exp(2πik/n), 0 ≤ k < n
8 1 Vektorräume und lineare Abbildungen
(1.1.7) Körper. Ein Körper ist eine Menge K zusammen mit zwei Ver-
knüpfungen
A : K × K → K, (x, y) 7→ x + y
M : K × K → K, (x, y) 7→ xy = x · y
(1.1.8) Beispiele. Die rationalen Zahlen Q, die reellen Zahlen R und die
komplexen Zahlen C, jeweils mit der üblichen Addition und Multiplikation
versehen, sind Körper. Für die ganzen Zahlen erfüllen die Addition und Multi-
plikation fast alle Körperaxiome, aber ±1 sind die einzigen ganzen Zahlen, die
ein Inverses bezüglich der Multiplikation haben. 3
(1.1.9) Beispiel. Wir wollen zumindest einen etwas exotischen Körper be-
schreiben, weil er in der linearen Algebra (und auch sonst) oft aus der Rolle
fällt. Ein Körper enthält die Elemente 0 und 1, und zwei so bezeichnete Ele-
mente bilden mit den Rechenregeln, die sich aus den Axiomen ergeben, schon
einen Körper. Natürlich ist dann 1 + 1 ein Körperelement; aus 1 + 1 = 1 würde
1 = 0 folgen, was in einem Körper nicht sein kann. Also ist 1 + 1 = 0. Wollte
man 1 + 1 mit 2 bezeichnen, so wäre 2 = 0. Oh weh!, aber warum nicht?
Diesen Körper kann man sich auch aus dem Zahlenrechnen erklären. Be-
kanntlich zerfallen die ganzen Zahlen in gerade und ungerade Zahlen. Mit den
Worten gerade“= g und ungerade“= u kann man rechnen, etwa g + u = u
” ”
oder u · u = u. Es entspricht dann g der Null und u der Eins. 3
a b √
− 2 2
a2 − 2b 2 a − 2b 2
√
ist inverse zu a + b 2 6= 0. Der Nenner ist ungleich Null, weil 2 kein Quadrat in Q
ist.
8. Die Grundrechenarten in einem Körper sind Addition und Multiplikation. Die Sub-
traktion ist eine Konsequenz der Axiome. Durch ein von Null verschiedenes Körper-
element kann man dividieren: Man könnte ab−1 = b−1 a mit ab bezeichnen. Für die
üblichen Zahlen sind wir daran gewöhnt, aber auch allgemein gelten die Regeln des
Bruchrechnens
a c ab a c ad + bc
· = , + = .
b d cd b d bd
Wegen a · 0 = 0 kann (darf!) man durch Null nicht dividieren.
1.2 Vektorräume
(1.2.1) Vektorraum. Ein Vektorraum über einem Körper K besteht aus einer
Menge V und zwei Abbildungen
a: V × V → V , (v, w) 7→ a(v, w) = v + w
m: K × V → V , (λ, v) 7→ λ · v = λv
der reellen (komplexen) Zahlen wird auch reeller (komplexer ) Vektorraum ge-
nannt. Das Paar (V, a) ist die additive Gruppe des Vektorraumes (V, a, m). 3
Der Körper K und die abelsche Gruppe (V, a) haben beide ihr eigenes Null-
element; geschrieben wird dafür aber beidemal 0; das ist ungenau, aber meistens
bequem. Es gelten nämlich die Rechenregeln 0·v = 0 und λ·0 = 0. Die erste folgt
so: Mit einem Distributivgesetz folgt 0·v = (0+0)·v = 0·v+0·v und dann durch
Kürzung in der Gruppe V die Behauptung. Ähnlich wird auf die zweite Regel
geschlossen. Wir schreiben x − y für x + (−y). Es gilt (−λ)x = λ(−x) = −(λx)
und speziell (−1)x = −x. Zum Beweis: λx + (−λx) = (λ + (−λ))x = 0 · x = 0,
und das bedeutet −(λx) = (−λ)x. Analog folgt die Gleichung λ(−x) = −(λx)
mit dem anderen Distributivgesetz.
Wir erläutern die Definition eines Vektorraumes mit dem wichtigsten Bei-
spiel:
(1.2.2) Der Standardvektorraum. Sei K ein Körper. Auf der Menge K n
der n-Tupel (x1 , . . . , xn ) von Elementen xi ∈ K haben wir die Struktur einer
abelschen Gruppe durch komponentenweise Addition
(1.2.3) Unterraum. Sei (V, a, m) ein Vektorraum über dem Körper K. Sei
U ⊂ V eine nichtleere Teilmenge mit den Eigenschaften a(U × U ) ⊂ U und
m(K × U ) ⊂ U .
auf U eine Vektorraumstruktur definiert, wie eine kurze Überlegung zeigt. Eine
Teilmenge zusammen mit dieser Struktur heißt Untervektorraum oder kurz
Unterraum von V . Wir sagen in diesem Fall, die Vektorraumstruktur auf U
12 1 Vektorräume und lineare Abbildungen
entstehe durch Einschränkung der auf V gegebenen Struktur, das heißt man
verwendet immer noch die gleiche Addition und Skalarmultiplikation, aber nur
für die Vektoren in U . 3
(1.2.4) Beispiele.
(1) Jeder Vektorraum V hat den nur aus dem Nullvektor bestehenden Un-
terraum, den sogenannten Nullraum oder trivialen Unterraum {0}, der auch
einfach mit 0 bezeichnet wird.
(2) Jeder Vektorraum ist ein Unterraum von sich selbst.
(3) Im Standardraum R3 sind die Geraden und die Ebenen durch den Null-
punkt Unterräume, und es gibt keine weiteren außer 0 und R3 , wie wir alsbald
sehen werden.
(4) Im Vektorraum Rω aller reellen Folgen bilden die konvergenten Folgen
einen Unterraum. Auch R∞ ist ein Unterraum. 3
x 7→ a0 + a1 x + a2 x2 + · · · + an xn
mit Koeffizienten ai ∈ R ist ein Unterraum von C k (R, R). Er wird Vektorraum
aller Polynome vom Grad kleinergleich n genannt.
(7) Noch etwas allgemeiner kann man auf der Menge Abb(A, V ) der Abbil-
dungen von A in einen Vektorraum V eine Vektorraumstruktur wie unter (1)
definieren. 3
1.3 Basis. Dimension 13
(1.3.1) Lineare Hülle. Sei S ⊂ V eine beliebige Teilmenge. Der Schnitt aller
Unterräume von V , die S enthalten, heiße lineare Hülle von S und werde mit
L(S) bezeichnet. Das ist ein Unterraum. Gilt U = L(S), so sagen wir: S erzeugt
U , S spannt U auf, S ist ein Erzeugendensystem von U . Der Vektorraum L(S)
ist der (bezüglich Mengeninklusion) kleinste Unterraum, der S enthält. Wir
14 1 Vektorräume und lineare Abbildungen
eine Linearkombination der Familie der vj . Wir sagen von der Summe auch, v
sei durch die Familie der vj linear dargestellt und nennen die Summe eine lineare
Darstellung von v durch die vj . Ist die Indexmenge J leer, so verstehen wir unter
der Summe den Nullvektor. Es wird hier nicht vorausgesetzt, daß die Vektoren
vj paarweise verschieden sind. Gehören die Vektoren vj alle einem Unterraum
U an, so liegt auch jede ihrer Linearkombinationen in diesem Unterraum.
Das Bilden von Linearkombinationen ist der fundamentale Rechenprozeß
der linearen Algebra. 3
(1.3.3) Notiz. Sei S ⊂ V eine beliebige Teilmenge. Die Menge L(S) ist gleich
der Menge aller Linearkombinationen, die sich mit Vektoren aus S formen
lassen, oder, wie wir auch sagen wollen, die sich durch S linear darstellen
lassen.
Beweis. Sei L0 (S) die Menge aller genannten Linearkombinationen. Dann ist
L0 (S) ein Unterraum, da die Summe zweier Linearkombinationen aus Elemen-
ten von S wieder eine solche Linearkombination ist; und ebenso ein skalares
Vielfaches. Nach Konstruktion ist S ⊂ L0 (S) und folglich gilt, nach Definition
von L(S), die Inklusion L(S) ⊂ L0 (S). Andererseits ist S ⊂ L(S), und aus der
Definition eines Unteraumes folgt, daß dann auch jede Linearkombination aus
Elementen von S in diesem Unteraum liegt. Also gilt auch L0 (S) ⊂ L(S). 2
Wir bemerken zur letzten Notiz: Die Menge S darf unendlich sein, jedoch
ist jede Linearkombination eine endliche Summe.
(1.3.6) Notiz. Eine Menge {x1 , . . . , xn } ⊂ V ist genau dann linear un-
abhängig, wenn aus einer linearen Relation λ1 x1 + · · · + λn xn = 0 folgt, daß
alle λj = 0 sind.
Beweis. Sei die Menge linear unabhängig. Angenommen, es gebe eine Relation,
in der (etwa) λ1 6= 0 ist. Dann ist
x1 = −λ−1
1 (λ2 x2 + · · · + λn xn ) ∈ L(S r {x1 }).
Beweis. Wir beweisen den Satz nur für den Fall, daß S endlich ist. Das reicht
für die meisten Anwendungen und erspart uns einen genaueren Blick in die
Mengenlehre.
Unter allen linear unabhängigen Teilmengen X von V mit M ⊂ X ⊂ S
wählen wir eine maximale aus, etwa B = {b1 , . . . , bn }. Wir zeigen, daß B den
Raum V erzeugt. Falls B = S ist, bleibt nichts mehr zu zeigen. Andernfalls gibt
es ein x ∈ S r B. Wegen der Maximalität von B ist B ∪ {x} linear abhängig.
Es gibt also eine echte lineare Relation
λx + λ1 x1 + · · · + λn xn = 0.
Wäre λ = 0, so würde aus der linearen Unabhängigkeit von B folgen, daß alle
λi = 0 sind. Also ist λ 6= 0 und damit x in dem von B erzeugten Unterraum
enthalten. Somit ist S ⊂ L(B) und mit L(S) = V folgt V = L(S) ⊂ L(B) ⊂ V
also L(B) = V . 2
Die Endlichkeit der Menge S wurde im vorstehenden Beweis nur dazu be-
nutzt, die Existenz einer maximalen Menge B sicherzustellen. Ein Axiom der
Mengenlehre, etwa das sogenannte Zornsche Lemma, liefert, daß es die maxi-
malen Mengen immer gibt. In Wahrheit wird man hier zu subtilen Problemen
der Logik und Mengenlehre geführt.
(1.3.12) Satz. Sei S eine endliche linear unabhängige Menge in V und T ein
endliches Erzeugendensystem von V . Dann gilt |S| ≤ |T |, und S läßt sich durch
|T | − |S| Elemente aus T zu einem Erzeugendensystem ergänzen.
Beweis. Wir beweisen den Satz durch vollständige Induktion nach der Mächtig-
keit |S| von S. Ist S leer, also |S| = 0, so folgt die Behauptung aus (1.3.10). Sei
3 Ernst Steinitz 1871 – 1928
1.3 Basis. Dimension 17
|S| > 0 und S = P ∪ {b}. Dann ist P als Teil von S auch linear unabhängig.
Nach Induktionsvoraussetzung können wir P durch eine Teilmenge Q von T
mit |T | − |S| + 1 Elementen zu einem Erzeugendensystem P ∪ Q = T 0 ergänzen.
Der Vektor b ist also in L(T 0 ) enthalten aber nicht in L(P ), da S linear un-
abhängig ist. Eine lineare Darstellung von b durch T 0 muß deshalb Elemente
aus Q wirklich benutzen“, das heißt es gibt ein c ∈ Q, so daß b die Form
”
b = v + λc, λ 6= 0, v ∈ L(P ∪ (Q r {c})
folgen und dann nach (1.3.6) aus der linearen Unabhängigkeit µi − λi = 0. Wir
nennen λi die i-te Koordinate von v bezüglich der geordneten Basis b1 , . . . , bn .
Allgemein haben wir für jede Basis B und jedes b ∈ B die zugehörige b-
Koordinate: Das ist der skalare Koeffizient von b in einer Linearkombination
von Elementen aus B. Ist a = (a1 , . . . , an ) ∈ K n , so ist aj die j-te Koordinate
von a bezüglich der Standardbasis. 3
Die identische Abbildung ist linear; die Verkettung linearer Abbildungen ist
linear.
Aus den Axiomen für eine lineare Abbildung f folgt durch Induktion nach
n die Verträglichkeit mit Linearkombinationen:
Pn Pn
i=1 λi f (xi ) = f ( i=1 λi xi ), λi ∈ K, xi ∈ V.
Kennt man also diePWerte von f an den Stellen xi , so kennt man f für alle
n
Vektoren der Form i=1 λi xi . 3
Lineare Abbildungen sind hier also zunächst formal algebraisch definiert.
Viele Begriffe der linearen Algebra haben aber einen geometrischen Hinter-
grund, der natürlich für ein intuitives Arbeiten oft nützlich ist. So sollte man
ein Verständnis darüber gewinnen, wie lineare Abbildungen der Standardebene
R2 in sich aussehen“. Das werden wir später erläutern, nachdem wir weitere
”
Hilfsmittel wie etwa die Matrizenrechnung entwickelt haben. Hier nur einige
Vokabeln: Drehungen um den Nullpunkt, Spiegelungen an einer Geraden, Deh-
nungen und Stauchungen, Scherungen, Parallelprojektionen auf eine Gerade.
Grundlegend unter anderem für die rechnerische Analyse von linearen Ab-
bildungen ist der nächste Satz.
(1.4.2) Satz. Sei B eine Basis des K-Vektorraumes V und W ein weiterer K-
Vektorraum. Zu jeder Familie (wb | b ∈ B) gibt es genau eine lineare Abbildung
f : V → W , die b auf wb abbildet.
P P
Beweis. Die Eindeutigkeit folgt aus der Formel f ( b∈B λb b) =P b∈B λb f (b).
Zu jedem v ∈ V gibt es genau eine lineare Darstellung P v = b∈B λb b. Wir
definieren eine Abbildung f durch die Vorschrift f (v) = b∈B λb wb . Dann gilt
jedenfalss f (b) = wb . Die definierenden
P Eigenschaften einer linearen
P Abbildung
werden nachgerechnet: Ist u = b∈B µb b, P so folgt u + v = b∈B (µb + λb )b.
Nach Definition von f ist dann f (u + v) = b∈B (µb + λb )wb , und letzteres ist
offenbar gleich f (u) + f (v). Ähnlich verifiziert man f (λv) = λf (v).
Wir haben imPvorstehenden Beweis so getan, als sei B endlich. Im allgemei-
nen Fall ist v = b∈JP λb b für eine endliche Teilmenge J ⊂ B, und es ist dann
zweckmäßig, dafür b∈B λb b zu schreiben (obgleich es ja eigentlich unendliche
Summe nicht gibt), wobei die λb für b ∈ / J als Null anzusehen sind. Zwar ist
20 1 Vektorräume und lineare Abbildungen
durch v die endliche Teilmenge J nicht eindeutig bestimmt, doch möge man
sich davon überzeugen, daß diese Vereinbarung nicht zu Problemen führt. 2
(1.4.3) Beispiele.
(1) Die Multiplikation mit einem Skalar λ liefert eine lineare Abbildung
lλ : V → V, v 7→ λv. Es gilt dann lλ+µ = lλ + lµ und lλµ = lλ lµ . Diese Aussagen
sind ein Teil der Vektorraumaxiome.
(2) Integration von stetigen Funktionen liefert eine lineare Abbildung
C([0, 1], R) → R.
(3) Differentiation ist eine lineare Abbildung C k (R, R) → C k−1 (R, R).
(4) Indem man einer konvergenten Folge ihre Summe zuordnet, erhält man
eine lineare Abbildung. 3
f Epimorphismus ⇔ f surjektiv
f Monomorphismus ⇔ f injektiv
f Isomorphismus ⇔ f bijektiv
f Endomorphismus ⇔ V =W
f Automorphismus ⇔ V = W, f bijektiv.
Der Unterraum f −1 (0) heißt Kern von f , der Unterraum f (V ) Bild von f .
(1.4.5) Notiz. Eine lineare Abbildung f ist genau dann injektiv, wenn ihr
Kern der Nullraum ist.
P P P
Beweis. (1) Aus b∈J λb b = 0 folgt f ( b λb ) = 0, also b λb b = 0, da f
injektiv ist, und dann folgt nach (1.3.6) λb = 0.
P
(2) Sei wP∈ W , also w = f (v) für ein v ∈ V . Aus v = b λb b folgt dann
w = f (v) = b λb f (b).
(3) folgt aus (1) und (2). 2
Weil die f (vi ) linear unabhängig sind, folgt λ1 = . . . = λn = 0, und weil die aj
linear unabhängig sind, folgt dann µ1 = . . . = µm = 0. 2
Ist f : V → W eine lineare Abbildung und V endlichdimensional, so ist auch
f (V ) endlichdimensional. Die Dimension des Bildes f (V ) heißt Rang von f .
(1.4.8) Dimensionsformel. Für jede lineare Abbildung f : V → W eines
endlichdimensionalen Vektorraumes V gilt
wie man es vom Rechnen gewohnt ist. Das wird später noch deutlicher, wenn
wir lineare Abbildungen durch die sogenannten Matrizen beschreiben. 3
f ∗ : W ∗ → V ∗, α 7→ α ◦ f.
U0
u0
/ U1 . . . u1
/ un
/ Un+1
heißt exakt, wenn sie an allen Stellen Uj , 1 ≤ j ≤ n exakt ist. Eine exakte Sequenz
der Form
0→U →V →W →0
heißt auch kurze exakte Sequenz. In einer solchen exakten Sequenz ist U → V injektiv
und V → W surjektiv und U isomorph zum Kern von V → W .
delberg 1995
1.5 Summen und Produkte 25
(1.5.5) Komplement. Sei U ein Unterraum von W . Dann heißt ein Unter-
raum V von W Komplement von U in W , wenn W in U und V direkt zerlegt
ist.
Im allgemeinen gibt es verschieden Komplemente: So ist etwa jede Gerade
durch den Nullpunkt, die nicht in U = R2 × {0} liegt, ist ein Komplement von
U in R3 . 3
ι = A+ + A− , A2+ = A+ , A2− = A− , A + A− = 0
nach. Also sind A± beides Projektionen. Sei V± das Bild von A± . Dann gilt
nach (1.5.9) V = V+ ⊕ V− . Es gilt ferner AA± = A± , so daß die Vektoren in
V± Eigenvektoren zum Eigenwert ±1 sind. Das Bild von A± ist der Kern von
A∓ .
Diese Rechnungen benutzen nicht wirklich die reellen Zahlen. Man kann
jeden Körper verwenden, in dem 1 + 1 6= 0 ist. Es ist dann 12 als das Inverse
von 1 + 1 zu interpretieren. 3
Q Q
Hom(U, j∈J Vj ) → j∈J Hom(U, Vj ), f 7→ (pj ◦ f )
sind für jeden Vektorraum U und W bijektiv. 3
L
Wir haben das Summensymbol auch schon für die interne direkte Sum-
me benutzt. Ist das schädlich? Nein. Ist nämlich V1 , . . . , Vn eine
LnFamilie von
Unterräumen von V , so gibt es genau eine lineare Abbildung f : j=1 Vj → V ,
so daß f ◦ ij die Inklusion Vj ⊂ V ist. Genau dann ist f ein Isomorphismus,
wenn V die interne
Ln direkte Summe der Vj ist, wie aus (1.5.3) folgt. Es ist dann
übrigens auch j=1 Vj die interne direkte Summe der Bilder ij (Vj ). Insofern
unterscheiden sich also die beiden Aspekte kaum.
Die Summe von n Exemplaren K ist der Standardraum K n .
Lr
(1.5.11) Satz. Sei V = S Vj eine interne direkte Summe und Bj eine
j=1
Basis von Vj . Dann ist B = j Bj eine Basis von V und Bi ∩ Bj = ∅ für
i 6= j. Ist eine Basis B von V disjunkte Vereinigung
Lr von B1 , . . . , Br und Vj
der von Bj erzeugte Unterrraum, so ist j=1 Vj = V . Es gilt deshalb die
Dimensionsformel für direkte Summen
Lr Pr
dim j=1 Vj = j=1 dim Vj .
Ist µb 6= 0, so folgt λ = λ(b) und µc = 0 für λ(c) 6= λ(b), daß heißt v ∈ Vj , falls
λj = λ(b). Also ist Vj = V (λj ), und es gibt keine weitere Eigenwerte. 2
Der Beweis des letzten Satzes zeigt übrigens:
für jeden Vektorraum W bijektiv ist. Dann gibt es genau einen Isomorphismus ϕ : V →
⊕j∈J Vj , so daß ϕ ◦ ιj = ij ist (vergleiche (1.5.10)). Im Fall des Produktes arbeitet
man analog mit den Projektionen pk .
1.6 Quotienträume
(1.6.1) Satz. Sei f : U → V eine surjektive und γ : U → W eine weitere
lineare Abbildung. Genau dann gibt es eine lineare Abbildung Γ : V → W mit
der Eigenschaft Γf = γ, wenn Kern f ⊂ Kern γ ist.
5 Siehe etwa: S. MacLane: Kategorien. Springer-Verlag, Berlin Heidelberg 1972
1.6 Quotienträume 29
U
γ
/W
}>
}
f }
} Γ
Beweis. Da p surjektiv ist, ist die Struktur eindeutig bestimmt; damit p linear
wird, müssen wir die Addition nämlich durch
definieren. Zu zeigen ist, daß damit eine wohldefinierte Abbildung gegeben ist.
Das bedeutet: Aus x + L = x0 + L, y + L = y 0 + L folgt x + y + L = x0 + y 0 + L
(Unabhängigkeit von der Auswahl der Repräsentanten). Nun ist aber x + L =
x0 +L gleichwertig mit x−x0 = a ∈ L, und damit folgt x+y+L = x0 +a+y+L =
x0 + y + L, da a ∈ L ist. Ebenso muß die Skalarmultiplikation durch λ(x + L) =
λx + L definiert werden, und eine Rechnung wie eben λx + L = λ(x0 + a) + L =
λx0 + λa + L = λx0 + L zeigt die Unabhängigkeit vom Repräsentanten. Damit
30 1 Vektorräume und lineare Abbildungen
haben wir die Verknüpfungen, also die Daten für eine Vektorraumstruktur, auf
U/L definiert. Die Vektorraumaxiome folgen unmittelbar aus denen für U . 2
Der Raum U/L heißt Quotientraum6 von U nach L. Die vorstehende Über-
legung zeigt insbesondere, daß jeder Unterraum Kern einer linearen Abbildung
ist.
Ist f : U → V eine lineare Abbildung, die einen Unterraum U0 ⊂ U in
einen Unterraum V0 ⊂ V abbildet, so gibt es genau eine lineare Abbildung
F : U/U0 → V /V0 , genannt die durch f induzierte, die das Diagramm
U0
⊂
/U pU
/ U/U0
f0 f F
V0
⊂
/V pV
/ V /V0
Beweis. Sei f (x) = 0. Dann ist 0 = pV f (x) = F pU (x). Weil F injektiv ist,
folgt pU (x) = 0. Mithin liegt x in U0 . Dann ist aber f0 (x) = f (x) = 0, und da
f0 injektiv ist, gilt x = 0. Also ist f injektiv.
Sei y ∈ V gegeben. Da F pU surjektiv ist, gibt es x ∈ U mit F pU (x) = pV (y).
Also liegt y−f (x) im Kern von pV , also in V0 . Da f0 surjektiv ist, gibt es z ∈ U0
mit f0 (z) = y − f (x). Also ist y = f (x + z) und somit f auch surjektiv. 2
(1.6.5) Satz. Der Vektorraum V habe eine Basis aus n Elementen. Dann ist
jede Menge mit n + 1 Elementen linear abhängig.
6 Manche sagen auch Quotientenraum; das wäre aber ein Raum, der aus Quotienten be-
steht.
1.6 Quotienträume 31
Matrizen
Eine Hauptaufgabe der linearen Algebra ist die geometrische und algebraische
Untersuchung der linearen Abbildungen. Dieser Abschnitt ist der Beschreibung
linearer Abbildungen durch Matrizen gewidmet. Eine Matrix ist eine Tabelle.
Tabellen werden als rechteckiges Schema notiert. Sie bestehen aus Zeilen und
Spalten. Eine Tabelle bietet auf kleinstem Raum eine Fülle an Information
übersichtlich dar. In der Mathematik ist eine Matrix ein rechteckiges Zahlen-
schema. Die Matrizenrechnung ist ein Algorithmus mit außerordentlichen prak-
tischen und theoretischen Möglichkeiten. Ein wichtiges methodisches Prinzip
der linearen Algebra ist die Übersetzung geometrischer und begrifflicher Aussa-
gen über lineare Abbildungen in algebraische, algorithmische und rechnerische
Aussagen über Matrizen.
Das Rechnen mit Matrizen ist aber auch ein Kalkül, der in weiten Teilen
unabhängig von Vektorräumen und linearen Abbildungen entwickelt werden
kann. Doch bleibt dann Einiges ohne die begriffliche Deutung unklar oder un-
motiviert.
2.1 Matrizen
Wir beginnen mit ein wenig Terminologie über die Datensysteme der Matrizen.
Die Nützlichkeit dieser Begriffsbildungen wird sich alsbald erweisen.
(2.1.1) Matrizen. Eine (n, m)-Matrix mit Einträgen oder Elementen akl aus
2.1 Matrizen 33
Der erste Index ist der Zeilenindex, der zweite Index der Spaltenindex. Dem-
gemäß nennen wir zi = (ai1 , . . . , aim ) die i-te Zeile der Matrix A und
a1k
a2k
sk = ...
ank
die k-te Spalte der Matrix A. Wir sprechen in diesem Kontext auch von Zei-
lenvektoren zi und Spaltenvektoren sk .
Formal mathematisch ist eine (n, m)-Matrix eine Abbildung
a : {1, . . . , n} × {1, . . . , m} → K
mit dem Wert akl an der Stelle (k, l). Deshalb sprechenwir auch von einer
n × m-Matrix.
Natürlich kann man diese Definition mengentheoretisch ganz allgemein fas-
sen: Eine Abbildung a : S × T → M ist eine S × T -Matrix mit Werten in der
Menge M . Ist speziell S ⊂ {1, . . . , n} und T ⊂ {1, . . . , m}, so heißt die ein-
geschränkte Abbildung a : S × T → K eine Untermatrix der n × m-Matrix
a : {1, . . . , n} × {1, . . . , m} → K. Überhaupt werden in der Praxis die Zeilen
und Spalten nicht immer beginnend mit 1 durchnumeriert. Eine Untermatrix
entsteht also durch Streichung von einigen Zeilen und Spalten. 3
Wo treten nun Matrizen auf und warum sind sie nützlich? Wir nennen in
Schlagworten einige Anwendungsbereiche.
(1) Lineare Abbildungen.
(2) Lineare Gleichungen.
(3) Basiswechsel.
(4) Koordinatenwechsel.
(5) Bilineare Abbildungen.
(6) Gruppentheorie.
(7) Matrizenkalkül.
ist eine lineare Abbildung f durch die Bildvektoren f (v1 ), . . . , f (vm ) bestimmt.
Wir schreiben diese als Linearkombinationen der Basisvektoren von w
Pn
(1.2) f (vi ) = j=1 xji wj , xji ∈ K.
(2.1.3) Räume von Abbildungen und Matrizen. Auf der Menge M (n, m)
der (n, m)-Matrizen über K definieren wir eine Addition und Skalarmultiplika-
tion komponentenweise:
Damit wird M (n, m) zu einem Vektorraum der Dimension nm, denn M (n, m)
ist offenbar im wesentlichen ein Standardvektorraum, nur in etwas anderer
Schreibweise.
In diesem Kontext hat übrigens der Standardraum K n zwei Erscheinungs-
formen, nämlich M (1, n) als Zeilenvektoren“ und M (n, 1) als Spaltenvek-
” ”
toren“. Wir werden künftig beide Versionen verwenden, darauf möchte man
achten.
Wir hatten früher schon den Vektorraum Hom(V, W ) der K-linearen Ab-
bildungen erklärt. Beide Räume passen nun zusammen.
Die Abbildung
mCB : Hom(V, W ) → M (n, m)
Die Bijektivität ist nichts anderes als die Aussage, daß eine lineare Abbil-
dung durch die Bilder der Basisvektoren bestimmt ist und diese Bilder beliebig
2.1 Matrizen 35
Deshalb ist mC
P
A (g ◦ f ) = Z = (zki ) mit zki = j xkj yji . Wir nennen diese
Matrix Z das Produkt XY von (X, Y ).
Wir sammeln das Resultat in einem Diagramm.
In Worten: An der Stelle (k, i) der Produktmatrix steht eine Summe, die sich
aus der k-ten Zeile der ersten (= linken) und der i-ten Spalte der zweiten
(= rechten) Matrix wie angegeben berechnet. Wir notieren ein Produkt von
Matrizen auch als Produkt in der üblichen Weise
y1j
ynj
X × Y = Z
Es sei darauf hingewiesen, daß das Produkt von Matrizen nur dann definiert
ist, wenn sie der Größe nach zusammenpassen. Immer wenn wir ein Matrizen-
produkt hinschreiben, so sei dieses Passen unterstellt. 3
a b e f ae + bg af + bh
=
c d g h ce + dg cf + dh
(2.1.5) Notiz. Die oben durchgeführte Rechnung besagt, daß Verkettung von
linearen Abbildungen in das Produkt von Matrizen überführt wird, in Formeln:
mD C D
C (g)mB (f ) = mB (gf ).
Verkettung von Abbildungen ist assoziativ, also ist das Matrizenprodukt asso-
ziativ X(Y Z) = (XY )Z. 2
folgere man, daß die erste Matrix genau dann invertierbar ist, wenn ad − bc 6= 0 ist.
6. Hat eine lineare Abbildung die Matrix A, so hat die duale Abbildung bezüglich
der Dualbasen die Matrix At .
7. Die Verkettung
ist bilinear: Es gelten die Verträglichkeiten mit der Vektorraumstruktur g ◦(f1 +f2 ) =
g ◦ f1 + g ◦ f2 , (g1 + g2 ) ◦ f = g1 ◦ f + g2 ◦ f2 , (λg) ◦ f = λ(g ◦ f ), g ◦ (λf ) = λ(g ◦ f ).
8. Das Matrizenprodukt
Die Nullabbildung, die jeden Vektor auf den Nullvektor wirft, besitzt die
Nullmatrix, deren sämtliche Einträge Null sind.
Später werden wir uns mit dem Problem beschäftigen, zu einer linearen
Abbildung durch geschickte Basiswahl eine möglichst einfache Matrix zu fin-
den. Diagonalmatrizen werden unter diesem Gesichtspunkt als die einfachsten
angesehen.
1 Leopold Kronecker 1823 – 1891
2 Die Bezeichnung kommt von General Linear
2.2 Spezielle Matrizen 39
Aus der Definition einer Matrix zu einer linearen Abbildung ist unmittelbar
klar:
(2.2.4) Notiz. Genau dann hat f : V → V bezüglich der Basis B eine Diago-
nalmatrix, wenn B aus Eigenvektoren von f besteht. 2
0 = V0 ⊂ V1 ⊂ V2 ⊂ . . . ⊂ Vn−1 ⊂ Vn = V
Ist U ⊂ V ein f -stabiler Unterraum und ergänzen wir eine Basis von U zu
einer von V , so hat die Matrix von f eine Blockform
X Y
.
0 Z
Sind allgemeiner U1 ⊂ . . . ⊂ Ut f -stabile Unterräume und ergänzen wir nach-
einander Basen von U1 , U2 , . . ., so wird die Matrix von f eine obere Blockdrei-
ecksmatrix. Aus (1.6.4) entnehmen wir, daß eine solche Matrix invertierbar ist,
wenn die Diagonalblöcke invertierbar sind. Ein direkter Beweis durch Induk-
tion nach der Anzahl der Blöcke ist eine instruktive Aufgabe. Auch mit Hilfe
der Determinantentheorie kann man den Beweis führen. 3
(I − N )(I + N + N 2 + · · · + N n−1 ) = I − N n = I.
Also ist I −N invertierbar. Eine obere Dreicksmatrix mit lauter Einsen auf der Diago-
nale ist also invertierbar. Ist B eine obere Dreickmatrix ohne Nullen auf der Diagonale,
so gibt es eine Diagonalmatirx D, so daß DB nur Einsen auf der Diagonale hat. Also
ist B invertierbar.
2. Verallgemeinerte Blockmatrizen. L Sei U1 , . . . , Um eine Familie von Vek-
torräumen mit der direkten Summe U = s Us . Dazu gibt es die kanonischen In-
jektionen ik : Uk → U und die kanonischen Projektionen L pl : U → Ul . Ist V1 , . . . Vn
eine weitere Familie mit der direkten Summe V = t , Vt , so benutzen wir U und V
als oberen Index, um die zu U und V gehörenden Injektionen und Projektionen zu
unterscheiden. Die lineare Abbildung ϕ : U → V besitzt die Teilabbildungen
ϕlk = pVl ◦ ϕ ◦ iU
k : Uk → V l .
2.3 Basiswechsel. Koordinatentransformation 41
Die Wirkung von ϕ als Resultat der Teilabbildungen läßt sich nun ebenfalls als Ma-
trizenprodukt schreiben
···
0 10 1
ϕ11 ϕ1m u1
B . .. C B .. C ,
@ .. ··· . A@ . A
ϕn1 ... ϕnm um
worin aber die Einträge der Matrix jetzt nicht mehr Elemente des Körpers sind son-
dern lineare Abbildungen. Mit dieser Notation erhält auch die Verkettung von linea-
ren Abbildungen
P dasselbe Aussehen wie ein Matrizenprodukt, es ist dann nämlich
(ψ ◦ ϕ)kl = j ψkj ◦ ϕjl .
Wenn wir speziell K m als direkte Summe m
L
s=1 K ansehen, so wird ϕlk : K → K
formal gesehen eine lineare Abbildung, aber eine lineare Abbildung K → K ist die
Multiplikation mit einem Körperelement, und wir können dann ohne Schaden die
Matrix ϕlk als eine Matrix mit Einträgen aus K ansehen.
wkj b0k .
P
bj = k
Wir nennen sie die Basiswechselmatrix Alt durch Neu“. Die Matrix ist inver-
”
tierbar, und das Inverse beschreibt Neu durch Alt“. Aus der Verkettungsformel
”
(2.1.5) folgt
00
B0 B 00
mBB 0 (id)mB (id) = mB (id).
(2.3.2) Satz (Basiswechsel). Mit der oben vereinbarten Sprechweise gilt: Ist
f : V → V ein Endomorphismus, X seine Matrix in der alten und Y seine
Matrix in der neuen Basis, und ist T die Matrix, die die alten Basisvektoren
durch die neuen ausdrückt, so gilt T −1 XT = Y . 2
Ist Mn (K) der Vektorraum der (n, n)-Matrizen über K, so ist die Spur eine
lineare Abbildung
Sp : Mn (K) → K.
Eine simple Rechnung zeigt für zwei (n, n)-Matrizen A und B die Relation
Sp(AB) = Sp(BA).
Es folgt: Konjugierte Matrizen haben dieselbe Spur. Damit ist die Spur auch
für einen Endomorphismus definiert, nämlich als die Spur irgendeiner repräsen-
tierenden Matrix (siehe (2.3.3)). 3
(2.3.5) Satz. Sei T : Mn (K) → K eine lineare Abbildung mit der Eigenschaft
T (AB) = T (BA) für alle A, B ∈ Mn (K). Dann ist T ein skalares Vielfaches
von Sp.
Beweis. Sei Eij ∈ Mn (K) die Matrix, die an der Stelle (i, j) eine 1 hat und sonst
überall Nullen. Die Eij bilden eine Basis von Mn (K). Es gilt Eij Ekl = δjk Eil .
Für i 6= l ist deshalb
Eij Ejl − Ejl Eij = Eil
und folglich T (Eil ) = 0. Wegen
gilt außerdem T (Eii ) = T (Ejj ). Damit ist der Wert von T auf (aij ) gleich
T (a11 ) Sp(aij ). 2
(2.3.6) Koordinaten. Hat man in einem Vektorraum V eine Basis B =
{b1 , . . . , bm } gewählt, so kann man die Elemente von V durch Koordinaten
beschreiben; die Koordinaten
Pm von v ∈ V sind die Koeffizienten in einer Line-
arkombination v = j=1 j j durch die Basisvektoren. Wir wollen die Ko-
λ b
ordinaten für die weiteren Zwecke als Spaltenvektor auffassen. Der dadurch
bestimmte lineare Isomorphismus
λ1
m ..
κ = κB : V → K , v 7→ .
λm
44 2 Matrizen
L : K m → K n, x 7→ Ax
ist eine lineare Abbildung, und die Matrix von L bezüglich der Standardba-
sen ist A (oh Wunder!). Wir bezeichnen diese Abbildung deshalb besser mit
A : K m → K n , denn glücklicherweise haben das Abbildungssymbol A(x) und
das Matrizenprodukt dasselbe Aussehen, und die Linearität der Abbildung
führt äußerlich zu denselben Formeln wie das Matrizenrechnen, wie wir im letz-
ten Abschnitt gesehen haben. Also noch einmal ausgebreitet hingeschrieben: A
ist die lineare Abbildung
Pm
x1 a11 a12 a13 . . . a1m x1 a1j xj
Pj=1
m
7→ a21 a22 a23 . . . a2m x2 = j=1 a2j xj .
x2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Pm . . .
xm an1 an2 an3 . . . anm xm j=1 anj xj
Man merke sich die Regel: In den Spalten der Matrix stehen die Bilder der
Standardbasisvektoren. 3
V
f
/W
κB κC
mC
B (f )
Km / Kn
2.3 Basiswechsel. Koordinatentransformation 45
A0 / Kn 0
KO m O A0 = m C
B 0 (f )
κB 0 κC 0
V
f
/W
κB κC
Km
A / Kn A = mC
B (f )
Wir setzen
κB 0 ◦ κ−1
B = S, κC 0 ◦ κ−1
C = T.
A0 S = T A und A0 = T AS −1 .
(2.3.11) Rang einer Matrix. Die Dimension des von den Zeilenvektoren
einer Matrix A aufgespannten Unterraums nennen wir den Zeilenrang der Ma-
trix. Analog wird der Spaltenrang definiert. Der Zeilenrang einer Matrix ist
gleich dem Spaltenrang der transponierten Matrix. 3
46 2 Matrizen
dim(Bild f ) = Spaltenrang A.
Beweis. Wir betrachten das Diagramm aus (2.2.3). Die Bilder von f und von
A haben dieselbe Dimension, weil κC einen Isomorphismus zwischen diesen
Bildräumen vermittelt. Das Bild von A wird von den Spaltenvektoren erzeugt.
2
Jede Matrix ist also zu einer dieser Form grob-äquivalent. Zwei (n, m)-Matrizen
sind genau dann grob-äquivalent, wenn sie denselben Spaltenrang haben.
Beweis. Eine Basis {c1 , . . . , cr } des Bildes von f werde zu einer Basis von W
ergänzt. Wir wählen {b1 , . . . , br }, so daß für 1 ≤ j ≤ r die Relation f (bj ) = cj
besteht. Dann sind diese Vektoren linear unabhängig, und wir ergänzen sie
durch eine Basis des Kerns von f zu einer Basis von V . Bezüglich dieser Basen
hat dann die Matrix von f die genannte Form. Zur letzten Aussage bemerken
wir, daß die grobe Äquivalenz den Spaltenrang nicht ändert, da ein Isomorphis-
mus einen Unterraum auf einen gleichdimensionalen Unterraum abbildet. 2
(2.3.14) Satz. Für jede Matrix stimmen Zeilen- und Spaltenrang überein.
Beweis. Ist A eine Matrix, so wählen wir invertierbare Matrizen P und Q so,
daß P AQ die Normalform des letzten Satzes hat. In dieser Normalform sind
offenbar Zeilen- und Spaltenrang gleich, da in Zeilen und Spalten nur Vektoren
einer Standardbasis und Nullvektoren stehen. Die Matrizen P AQ und (P AQ)t
haben also denselben Spaltenrang. Es ist (P AQ)t = Qt At P t , und Qt und
P t sind wieder invertierbar, Multiplikation mit ihnen ändert also nicht den
Spaltenrang. 2
Wegen des letzten Satzes sprechen wir vom Rang einer Matrix schlecht-
hin. Der Satz ist insofern überraschend, als die Zeilen- und Spaltenvektoren
äußerlich wenig miteinander zu tun haben. Wir heben noch hervor:
(2.3.15) Notiz. Eine (n, n)-Matrix ist genau dann regulär, wenn sie den Rang
n hat. 2
2.4 Lineare Gleichungen 47
Darin sind a11 , a12 , . . . , akn und b1 , . . . , bk gegebene Elemente eines Körpers K.
Eine Lösung“ des Systems von Gleichungen ist ein Systemen (x1 , . . . , xn ) von
”
xj ∈ K, die die k Gleichungen G1 , . . . , Gk gleichzeitig erfüllen“, für die also die
”
aufgeschriebenen Daten eine Gleichheit von Elementen des Körpers sind. Der
Index i in aij gibt an, in welcher Gleichung wir uns befinden, der Index j gibt
an, vor welcher Unbekannten xj das Körperelement steht. Es dürfen natürlich
einige der Koeffizienten aij gleich Null sein; in der Praxis schreiben wir dann
diesen Summanden gar nicht erst hin. Drei Punkte bedeuten und so weiter“.
”
Sei L(G1 , . . . , Gk ) die Lösungsmenge des Gleichungssystems. Wir beschrei-
ben jetzt ein Verfahren nach Art der Schulmathematik zur Bestimmung der
Lösungsmenge. Dazu ist keinerlei Theorie oder gelehrte Vorbildung nötig, ledig-
kich etwas systematische Buchführung“. Und natürlich gibt es das Verfahren
”
schon lange vor unserer heutigen linearen Algebra.
Danach schauen wir uns das Verfahren genauer an und benutzen dazu die
Sprache der Vektorräume und Matrizen.
(2.4.1) Der Gaußsche Algorithmus. Wir beginnen damit, aus den gege-
benen Gleichungen neue so zu bilden, daß sich dabei die Lösungsmenge nicht
ändert, symbolisch
Wir werden dann diese Umformungen geeignet solange wiederholen, bis wir
zu einem Gleichungssystem gelangt sind, dem wir die Lösungsmenge unmittel-
bar ansehen. Hier nun elementare Umformungen, die die Lösungsmenge nicht
ändern:
(1) Vertauschen der Reihenfolge von Gleichungen.
(2) Multiplikation einer Gleichung mit einer von Null verschiedenen Zahl λ;
symbolisch:
L(G1 , . . . , Gk ) = L(λG1 , . . . , Gk )
bei Multiplikation von G1 mit λ 6= 0.
(3) Addition des λ-fachen einer Gleichung zu einer anderen; symbolisch:
L(G1 , G2 , . . .) = L(G1 , λG1 + G2 , . . .)
bei Additon von λG1 zu G2 .
Da wir alle diese Schritte zurückrechnen können, ändert sich bei ihnen die
Lösungsmenge nicht.
Wir formen jetzt das System schrittweise um, indem wir nacheinander auf
die Koeffizienten von x1 , x2 , . . . achten. Sind alle Koeffizienten aj1 von x1 gleich
Null, so betrachten wir x1 als erledigt. Andernfalls sei etwa aj1 6= 0. Wir
setzen dann die Gleichung Gj an die erste Stelle, sodann machen wir nach
(2) dort den Koeffizienten von x1 zu 1 und subtrahieren nach (3) geeignete
Vielfache der nunmehr ersten Gleichung von den folgenden, um dortselbst den
Koeffizienten von x1 zu Null zu machen. Jetzt lassen wir die erste Gleichung in
Ruhe und behandeln die weiteren Gleichungen nach demselben Verfahren, aber
beginnend mit x2 , da ja x1 nicht mehr vorhanden“ ist. Schließlich erreichen
”
wir ein System, bei dem die letzte Gleichung die folgende Form hat: Entweder
xj + bk,j+1 xj+1 + · · · + bk,n xn = ck ,
für ein j ∈ {1, . . . , n} oder eventuell 0 = ck .
Im letzteren Fall ist für ck 6= 0 ein Widerspruch erreicht, mit anderen Wor-
ten: Es gibt keine Lösung. Beispielsweise widersprechen sich offenbar die Glei-
chungen G1 : x1 +x2 = 1 und G2 : x1 +x2 = 2 und nach dem Verfahren würden
wir 0 · x1 + 0 · x2 = 1 erhalten.
Im ersten Fall können wir xj+1 , . . . , xn beliebig vorgeben und dann xj durch
die Gleichung ausrechnen. Nun steigen wir die Gleichungen von unten nach
oben auf, setzen die schon festgelegten Werte der xt ein und rechnen das jeweils
am Anfang stehende xl durch die restlichen aus, wobei gegebenenfalls vorher
noch nicht festgelegte xr willkürlich gewählt werden dürfen.
Wir haben ein Rechenverfahren zur Lösung linearer Gleichungssysteme be-
schrieben. Schematische Rechenverfahren bezeichnet man als Algorithmus. Un-
ser Verfahren wird manchmal Eliminationsverfahren genannt, weil nacheinan-
der die Unbekannten xj beseitigt (= eliminiert) werden. Das Verfahren wird
auch Gaußscher3 Algorithmus genannt. 3
3 Carl Friedrich Gauß 1777 – 1855
2.4 Lineare Gleichungen 49
(2.4.2) Beispiel. Ein Beispiel mag die Methode verdeutlichen (etwa K = R).
Angenommen, das Endergebnis der elementaren Umformungen habe die Form:
x1 + x2 + 3x3 + x4 + x6 = 0
x2 − x3 − x5 − 2x6 = 1
x5 = 2.
Damit ist zunächst x5 festgelegt. Wir steigen auf, setzen x5 = 2 ein, wählen
x3 , x4 , x6 willkürlich und rechnen x2 aus. Wir steigen zur ersten Gleichung auf,
haben x2 bis x6 schon festgelegt und rechnen x1 aus. Die Lösungsmenge ist
also
(−(3 + 4x3 + x4 + 3x6 ), 3 + x3 + 2x6 , x3 , x4 , 2, x6 )
mit beliebigen x3 , x4 , x6 ∈ R. (Ein dreidimensionaler affiner Unterraum des
R6 .) 3
(2.4.3) Beispiel. Wir erinnern an die Elementargeometrie der Ebene R2 . Die
Punkte (x, y) ∈ R2 , die einer Gleichung ax+by = c genügen, füllen eine Gerade
aus (wenn a und b nicht beide Null sind). Hat man eine zweite Gleichung dieser
Art. so gibt es eine gemeinsame Lösung genau dann, wenn sich die Geraden
schneiden, der Schnittspunkt ist die eindeutig bestimmte Lösung. Allerdings
können die Geraden auch parallel verlaufen, dann gibt es keine Lösung. For-
melmäßig tritt dieser Fall auf, wenn sich die Gleichungen widersprechen. Wenn
man schließlich drei Gleichungen hat, so werden die geometrischen Möglichkei-
ten schon unübersichtlich.
Analoge Diskussion der geometrischen Lage von drei Ebenen im Raum R3
als Aufgabe. 3
Die vorstehende Überlegung hat eine wichtige Konsequenz qualitativer Art.
Ein Gleichungssystem wie anfangs vorgestellt, bei dem alle bj gleich Null
sind, heißt homogen. Elementare Umformungen machen aus einem homogenen
System wieder ein solches. Ein homogenes System führt niemals zu Wider-
sprüchen, denn alle xj = 0 gesetzt ist eine Lösung. Angenommen nun, es gibt
in einem homogenen System weniger Gleichungen als Unbekannte (also k < n).
Dann können wir in der Lösungsmenge ein geeignetes xj beliebig vorgeben; es
gibt also eine Lösung, die nicht nur aus Nullen besteht. Wir haben eingesehen:
(2.4.4) Satz. Ein homogenes lineares Gleichungssystem aus k Gleichungen
zwischen n Unbekannten hat im Fall k < n eine Lösung, die nicht nur aus
Nullen besteht. 2
Ich habe schon früher erläutert, wie man aus diesem Resultat den Rangsatz
herleiten kann. Und das ist auch der Beweis, der sich ohne Idee von selbst ergibt
und den man sich deshalb merken soll.
Wir werden nun den Algorithmus formaler beschreiben, genauer analysieren
und auf weitere Probleme der linearen Algebra anwenden.
50 2 Matrizen
LA : K n → K m , x 7→ Ax.
{y + u | u ∈ Kern LA } = y + U
die Lösungsgesamtheit. Wir haben eine Menge dieser Form einen affinen Un-
terraum von K n mit der Richtung U genannt. Genau dann liegt b im Bild von
LA , wenn b eine Linearkombination der Spaltenvektoren von A ist; und letzte-
res ist genau dann der Fall, wenn die Matrix A und die sogenannte erweiterte
Matrix
a11 . . . a1n b1
(A, b) = . . . . . . . . . . . . . . . . . . . .
am1 . . . amn bm
denselben Rang haben. Interessant ist der Fall m = n: Ist A regulär, so hat
Ax = b genau eine Lösung x = A−1 b. 3
Im + λEij , i 6= j, λ ∈ K
heißt Elementarmatrix. Sei A eine (m, n)-Matrix mit der k-ten Zeile ak . Das
Produkt (Im +λEij )A ist eine Matrix mit den folgenden Zeilen: Die i-te Zeile ist
ai +λaj und die k-te Zeile für k 6= i ist ak . Die Elementarmatrix ist invertierbar
2.4 Lineare Gleichungen 51
und hat das Inverse Im − λEij . Eine invertierbare Diagonalmatrix wollen wir
ebenfalls Elementarmatrix nennen. Das Produkt Dia (λ1 , . . . , λm )A hat λi ai als
i-te Zeile. Durch Multiplikation von links mit geeigneten Elementarmatrizen
können wir also die folgenden Zeilenumformungen realisieren:
Die folgende Sequenz von Umformungen dieser Art zeigt, daß dann auch Zei-
lenvertauschungen bewirkt werden können:
a1 a1 + a2 a1 + a2 a2 a2
, , , , .
a2 a2 −a1 −a1 a1
0 1
Multiplikation von links mit vertauscht bei einer (2, n)-Matrix die
1 0
Zeilen. Die Sequenz wird nach dem Genannten durch Multiplikation von links
mit
1 0 1 1 1 0 1 1 0 1
=
0 −1 0 1 −1 1 0 1 1 0
bewirkt.
Da Zeilenumformungen durch Produktbildung mit invertierbaren Matrizen
bewirkt werden, ändert sich dabei nicht der Rang einer Matrix. 3
(2.4.9) Satz. Eine Matrix ist genau dann invertierbar, wenn sie sich durch
Zeilenumformungen in die Einheitsmatrix überführen läßt, denn die Einheits-
matrix ist die einzige invertierbare Zeilenstufenmatrix. Eine invertierbare Ma-
trix ist Produkt von Elementarmatrizen. 2
(2.4.10) Korollar. Eine obere (untere) Dreiecksmatrix ist genau dann inver-
tierbar, wenn alle Diagonalelemente von Null verschieden sind. 2
(2.4.12) Satz. Eine (m, n)-Matrix A = (aij ) hat genau dann den Rang größer-
gleich k, wenn es
regulär ist. Der Rang von A ist also das maximale k, so daß aus A durch
Streichen von Zeilen und Spalten eine reguläre (k, k)-Untermatrix entsteht.
2.4 Lineare Gleichungen 53
Beweis. Hat à den Rang k, also k linear unabhängige Spalten, so sind erst recht
die Spalten zum Index (j1 , . . . , jk ) von A linear unabhängig, und deshalb hat
A mindestens den Rang k. Ist umgekehrt der Rang mindestens k, so wählen
wir (j1 , . . . , jk ) so aus, daß die zugehörigen Spalten linear unabhängig sind,
streichen die übrigen Spalten und wählen dann (i1 , . . . , ik ) so, daß bei der
verbliebenen Matrix die Zeilen zu den Indices i1 , . . . , ik linear unabhängig sind.
2
(2.4.13) Auswahl einer Basis. Seien (v1 , . . . , vn ) Vektoren des K m . Sie er-
zeugen einen Unterraum V . Wie berechnet man eine Basis von V ? Wir schrei-
ben die Vektoren (v1 , . . . , vn ) als Spalten einer Matrix A auf und bringen diese
durch Zeilenumformungen auf Zeilenstufenform S, wie oben ausgebreitet. Sei-
en (j1 , . . . , jk ) die Stufen. Dann ist {vj | j ∈ {j1 , . . . , jk }} eine Basis von V .
Der Beweis ergibt sich so: Es ist A = U S mit einem Produkt U von Element-
armatrizen. Ist sk die k-te Spalte von S, so gilt vk = U sk . Jetzt wenden wir
(2.4.8) an: Eine Basis des Spaltenraums von S wird durch U in eine Basis des
Spaltenraums von A transportiert. 3
Determinanten
3.1 Determinantenformen
Ein von Null verschiedenes Element aus Altn (V ) heißt Determinantenform auf
dem Vektorraum V . 3
Beweis. (1) Wir wenden auf die rechte Seite die Linearität in der i-ten Varia-
blen an und benutzen dann, daß D alternierend ist.
(2) Wir schreiben der Einfachheit halber nur zwei Variable hin und rechnen
wie folgt: 0 = D(v1 +v2 , v1 +v2 ) = D(v1 , v1 )+D(v1 , v2 )+D(v2 , v1 )+D(v2 , v2 ) =
D(v1 , v2 ) + D(v2 , v1 ).P
n
(3) Sei etwa v1 = j=2 λj vj . Linearität in der ersten Variablen liefert
Pn
D(v1 , . . . , vn ) = j=2 λj D(vj , v2 , . . . , vn ).
Da D alternierend ist, so ist jeder Summand rechts gleich Null. 2
Für den ersten Existenzbeweis für Determinantenformen verwenden wir das
Vorzeichen oder Signum einer Permutation.
(3.1.3) Permutationen. Eine bijektive Abbildung einer Menge M heißt Per-
mutation von M . Wir bezeichnen mit Sn die Menge der Permutationen von
{1, . . . , n}. Bezüglich Verkettung ist Sn eine Gruppe, genannt symmetrische
Gruppe oder Permutationsgruppe.
Sei P die Menge der Paare (i, j), i 6= j, 1 ≤ i, j ≤ n. Ein Halbsystem H in
P sei eine Teilmenge, die von den Paaren (i, j) und (j, i) jeweils genau eines
enthält. Für σ ∈ Sn ist
Y σ(i) − σ(j)
ε(σ) = ∈ {±1}
i−j
(i,j)∈H
unabhängig vom Halbsystem, denn wird (i, j) durch (j, i) ersetzt, so ändert
sich im Zähler und Nenner das Vorzeichen. Ist H ein Halbsystem, so ist auch
τ (H) = {(τ (i), τ (j)) | (i, j) ∈ H} ein Halbsystem. Es gilt
Y σ(i) − σ(j) Y τ (i) − τ (j)
ε(σ)ε(τ ) = ·
i−j i−j
(i,j)∈H (i,j)∈H
Y στ (i) − στ (j) Y τ (i) − τ (j)
= ·
τ (i) − τ (j) i−j
(i,j)∈H (i,j)∈H
= ε(στ ).
Diese Formel besagt, daß ε : Sn → {±1} ein Homomorphismus in die multipli-
kative Gruppe {±1} ist.
Wie nennen ε(σ) das Vorzeichen oder das Signum der Permutation σ. Eine
Permutation heißt gerade, wenn ihr Vorzeichen gleich 1 ist, andernfalls ungera-
de, Die geraden Permutationen bilden eine Untergruppe von Sn , die alternie-
rende Gruppe An . Eine Permutation, die genau zwei Elemente vertauscht und
die anderen festläßt, eine sogenannte Transposition, hat das Vorzeichen −1. Da
sich jede Permutation als Verkettung von Transpositionen schreiben läßt, so ist
durch die letzte Eigenschaft das Vorzeichen eindeutig bestimmt. 3
56 3 Determinanten
(3.1.4) Satz. Der Vektorraum Altn (V ) ist eindimensional, das heißt es gibt,
bis auf skalare Vielfache, genau eine Determinantenform.
Die Summe läuft dabei zunächst über alle Systeme (j1 , . . . , jn ) mit 1 ≤ jk ≤ n.
Da D alternierend ist, ergibt sich aber höchstens dann ein von Null verschie-
dener Summand, wenn (j1 , . . . , jn ) eine Permutation von {1, . . . , n} ist. Wegen
(3.2.1) gilt D(b1,σ(1) , . . . , bn,σ(n) ) = ε(σ)D(b1 , . . . , bn ). Insgesamt erhalten wir
die Leibnizsche1 Formel
X
D(v1 , . . . , vn ) = ε(σ)λ1,σ(1) · · · λn,σ(n) D(b1 , . . . , bn ),
σ∈Sn
die zeigt, daß D durch den Wert auf einer Basis bestimmt ist. Also ist Altn (V )
höchstens eindimensional.
Es bleibt zu zeigen, daß es von Null verschiedene Determinantenformen
überhaupt gibt. Zu diesem Zweck definieren wir eine Abbildung D durch die
eben hergeleitete Formel, indem wir den Wert von D(b1 , . . . , bn ) irgendwie, et-
wa als 1, fixieren. Es bleibt dann zu zeigen, daß die so gewonnene Abbildung
n-linear und alternierend ist. Die Linearität ist unmittelbar klar. Das Alter-
nierende folgt leicht mit der oben genannten Eigenschaft von ε. Wir lassen die
genaue Ausführung als Aufgabe, weil wir gleich noch einen zweiten Existenz-
beweis für die Determinante führen. 2
Es sollte vielleicht einmal betont werden, daß jeder Summand ein Produkt ist,
worin aus jeder Zeile und Spalte der Matrix genau ein Element benutzt wird.
Sei umgekehrt det eine Determinantenfunktion auf M (n, n; K) und V ein n-
dimensionaler
P K-Vektorraum. Wir wählen eine Basis (b1 , . . . , bn ) von V , schrei-
ben vi = j aij bj und setzten D(v1 , . . . , vn ) = det(aij ). Dann ist D eine De-
terminantenform auf V . Für sie gilt D(b1 , . . . , bn ) = 1.
Der Eindeutigkeitssatz (3.1.4) ist beweistechnisch sehr nützlich, wie wir
beim Beweis der Produktformel sehen werden.
Ist A eine (n, n)-Matrix, so bezeichne Aik die daraus durch Streichen der
i-ten Zeile und k-ten Spalte entstehende (n − 1, n − 1)-Matrix.
(3.2.2) Entwicklung nach einer Spalte. Es gibt genau eine Determinan-
tenfunktion auf M (n, n; K). Sie läßt sich durch die folgende Formel, genannt
Entwicklung nach der k-ten Spalte induktiv berechnen:
Pn
det(A) = i=1 (−1)i+k aik det(Aik ).
Für s = r + 1 ist Ark = Ask , und deshalb annullieren sich die beiden Summan-
den in der Klammer. Für s > r + 1 hat Ark Zeilen der Form
v10 , . . . , vr−1
0 0
, vr+1 0
, . . . , vs−1 , vr0 , vs+1
0
,...
v10 , . . . , vr−1
0
, vr0 , vr+1
0 0
, . . . , vs−1 0
, vs+1 ,...,
wobei vj0 aus vj durch Streichen der k-ten Komponente entsteht. Also wird beim
Übergang von Ark nach Ask die Zeile vr0 mit den s − r − 1 Zeilen vr+1
0 0
, . . . , vs−1
vertauscht. Bei einer solchen Vertauschung ändert sich die Determinante nach
(3.1.2) um das Vorzeichen (−1)s−r−1 , so daß sich auch in diesem Fall die beiden
Summanden annullieren. 2
Ist D ∈ Altn (V ) und f : V → V ein Endomorphismus, so ist (v1 , . . . , vn ) 7→
D(f v1 , . . . , f vn ) wieder aus Altn (V ). Ist D 6= 0, so gibt es nach (3.1.4) genau
ein d(f ) ∈ K, so daß die Gleichung
für alle (v1 , . . . , vn ) gilt, und außerdem ist der Faktor d(f ) von dem gewählten
D 6= 0 unabhängig. Wir setzen det(f ) = d(f ) und nennen dieses Element die
3.2 Determinante einer Matrix 59
Wir betonen, daß det(f ) basisfrei definiert worden ist, das heißt ohne vorherige
Auswahl einer Basis.
(3.2.3) Produktsatz. Für Endomorphismen f und g eines Vektorraumes V
gilt det(f ◦ g) = det(f ) det(g), und für (n, n)-Matrizen A und B gilt ebenso
det(AB) = det(A) det(B).
Beweis. Wir wenden dreimal die Definition an
ist eine Untergruppe von GL(n, K), die sogenannte spezielle lineare Gruppe.
(3.2.5) Satz. Eine Matrix und ihre Transponierte haben dieselbe Determinan-
te.
Beweis. Ist A eine (n, n)-Matrix vom Rang kleiner als n, so hat nach auch
At einen Rang kleiner als n, und die Determinanten von A und At sind nach
(2.4.2) beide gleich Null.
Sei also A invertierbar. Dann ist A nach (2.4.3) Produkt von Elementar-
matrizen, etwa A = S1 S2 · · · Sr . Folglich ist At = Srt · · · S1t , und nach dem
60 3 Determinanten
Der Eintrag an der Stelle (i, j) für i 6= j ist k (−1)j+k aik det(Ajk ), also gleich
P
der Entwicklung nach der j-ten Zeile einer Matrix, die aus A entsteht, indem die
j-te Zeile durch die i-te Zeile ersetzt wird. Also ist dieser Eintrag als Determi-
nante einer Matrix mit zwei gleichen Zeilen gleich Null. Die andere Behauptung
folgt ebenso durch Entwicklung nach Spalten. 2
(3.2.8) Inverse Matrix. Ist A regulär, so liefert der letzte Satz die Formel
A−1 = det(A)−1 A#
für das Inverse von A. 2
Nach dieser Formel wird man das Inverse fast niemals praktisch berechnen;
aber es ist bemerkenswert, daß es überhaupt eine Formel (rationale Funktion in
den Einträgen) gibt. (Zum Beispiel besagt diese Formel, daß das Inverse einer
reellen (n, n)-Matrix A stetig von A abhängt.) Wir erhalten daraus auch eine
Formel für die Lösung eines linearen Gleichungssystems.
(3.2.9) Cramersche Regel. Sei A eine reguläre Matrix. Die Lösung des Glei-
chunssystems Ax = b ist x = A−1 b = |A|−1 A# b, also
xi = |A|−1 j (−1)i+j bj |Aji |.
P
Dieletzte Summe ist aber nach dem Entwicklungssatz die Determinante einer
Matrix, die aus A entsteht, wenn die i-te Spalte durch b ersetzt wird. Die damit
gewonnene Formel für die Lösung wird Cramersche2 Regel genannt. 3
2 Gabriel Cramer 1704 – 1752
3.3 Volumen. Orientierung 61
mit quadratischer Matrix C, so liefert Entwicklung nach der ersten Zeile und
Induktion nach k die Gleichung det(U ) = det(C). Ähnlich wird eine Matrix be-
handelt, in der C und Ik vertauscht vorkommen. Aus dem Produktsatz erhalten
wir damit
A 0 A 0 I 0
det = det · det = det(A) det(B),
B C B I 0 C
wenn A und C quadratisch sind. Durch Transposition erhalten wir das ana-
loge Ergebnis für eine Blockmatrix mit der Null links unten. Daraus entneh-
men wir durch Induktion nach n für (n, n)-Dreiecksmatrizen D mit Diagonale
(d1 , . . . , dn ) die Gleichung det(D) = d1 · d2 · . . . · dn . Wir erkennen noch ein-
mal, daß eine solche Matrix genau dann regulär ist, wenn alle dk von Null
verschieden sind. 3
3 Bekannt ist die Scherzfrage: Warum vertauscht ein Spiegel rechts und links aber nicht
oben und unten? Nun, irgendwas vertauscht ja ein Spiegel, aber was?
3.4 Das charakteristische Polynom 63
Deshalb ist
(3.4.2) Satz. Genau dann ist λ ∈ K ein Eigenwert von A, wenn λ Nullstelle
des charakteristischen Polynoms det(xI − A) ist.
64 3 Determinanten
Beweis. Sei λ Eigenwert von A. Dann gilt für ein x ∈ K n r {0} die Gleichung
Ax = λx. Wegen (λI − A)x = 0 ist λI − A nicht invertierbar und deshalb ist
det(λI − A) = 0, also λ Nullstelle. Ist umgekehrt λ Nullstelle, also λI − A nicht
invertierbar, so hat x 7→ (λI − A)x einen von 0 verschiedenen Kern, also A
einen Eigenvektor zum Eigenwert λ. 2
Es gilt det(xI − SAS −1 ) = det(xSIS −1 − SAS −1 ) = det(S(xI − A)S −1 ) =
det(S) det(xI − A) det(S −1 ) = det(xI − A). Deshalb haben A und SAS −1
dasselbe charakteristische Polynom. Ist f : V → V ein Endomorphismus ei-
nes n-dimensionalen K-Vektorraumes und A eine Matrix von f bezüglich einer
Basis von V , so ist det(xI − A) unabhängig von der gewählten Basis. Wir
nennen deshalb det(xI − A) auch das charakteristische Polynom cf des En-
domorphismus f . Ist A diagonalisierbar, das heißt gibt es S ∈ GL(n, K) mit
SAS −1 = D = Dia(λ1 , . . . , λn ), so ist offenbar
det(xI − A) = det(xI − D) = (x − λ1 ) . . . (x − λn );
(3.4.5) Satz. Ein Endomorphismus besitzt genau dann eine obere Dreiecks-
matrix bezüglich einer geeigneten Basis, wenn sein charakteristisches Polynom
in Linearfaktoren zerfällt.
Beweis. Die eine Richtung haben wir eben schon bemerkt. Zerfalle also das
charakteristische Polynom von f : V → V in Linearfaktoren. Dann gibt es
jedenfalls einen Eigenvektor v. Er erzeuge den Unterraum U . Dieser ist f -stabil.
Das charakteristische Polynom der auf V /U induzierten Abbildung zerfällt als
Faktor von cf ebenfalls in Linearfaktoren. Nun wende man Induktion nach der
Dimension an. 2
Bilineare Abbildungen
4.1 Hilbert-Räume
Die Strecke von (0, 0) nach (x, y) in der Zahlenebene R2 hat in der elementaren
euklidischen Geometrie nach dem Satz des Pythagoras eine Länge mit dem
Quadrat x2 +y 2 . Ebenso ergibt sich das Längenquadrat der Strecke von (0, 0, 0)
nach (x, y, z) im dreidimensionalen euklidischen Raum zu x2 + y 2 + z 2 durch
zweimalige Anwendung des Satzes von Pythagoras.
Aus diesem Grund liegt es nahe, für eine allgemeine Längenmessung
Pn
q : Rn → R, (x1 , . . . , xn ) 7→ j=1 x2j
denn bei einer linearen Abbildung q wäre Pndieser Wert gleich Null. In Koor-
dinaten errechnen wir b((xj ), (yj )) = 2 j=1 xj yj . Die Abbildung b hat den
Vorteil, in jeder Variablen linear zu sein. Der Faktor 2 ist unwesentlich. Diese
Vorbetrachtungen führen uns zur nächsten Definition.
(4.1.1) Standardskalarprodukt. Wir verwenden Bezeichungen der Art x =
(xj ) = (x1 , . . . , xn ). Die Abbildung
Pn
h −, − i : Rn × Rn → R, ((xj ), (yj )) 7→ j=1 xj yj = h x, y i
nennen wir das Standardskalarprodukt auf dem Rn (das ist ein Produkt“ mit
”
einem Skalar als Resultat). Für komplexe Vektorräume gibt es eine ähnliche
Abbildung
Pn
h −, − i : Cn × Cn → C, ((zj ), (wj )) 7→ j=1 z j wj = h z, w i,
4.1 Hilbert-Räume 67
die ebenfalls Standardskalarprodukt genannt werden soll. Der Grund für das
Konjugiert-Komplexe in der letzten Definition ist natürlich die Relation zz =
a2 + b2 für z = a + bi mit a, b ∈ R; also wieder das Längenquadrat. 3
Wie oft in der Algebra ist nicht die explizite Formel entscheidend, wichtig
sind vielmehr ihre formalen Eigenschaften. Das führt zur nächsten Definition.
Wir behandeln reelle und komplexe Vektorräume gleichzeitig und vereinbaren
dazu: F sei einer der Körper R oder C. Mit z bezeichnen wir die zu z ∈ F
konjugiert-komplexe Zahl; ist z ∈ R, so ist also z = z.
(4.1.2) Skalarprodukt. Die Standardabbildungen (4.1.1) haben die folgen-
den Eigenschaften: Für v1 , v2 , v, w1 , w2 , w aus Fn und λ aus F gilt
(1) h v1 + v2 , w i = h v1 , w i + h v2 , w i
(2) h v, w1 + w2 i = h v, w1 i + h v, w2 i
(3) h λv, w i = λh v, w i
(4) h v, λw i = λh v, w i
(5) h v, w i = h w, v i
(6) h v, v i > 0, falls v 6= 0.
Sei V ein F-Vektorraum. Eine Abbildung h −, − i : V × V → F mit den Eigen-
schaften (1) – (6) heißt Skalarprodukt auf V . Ein Paar (V, h −, − i) heißt im
Fall F = R ein euklidischer Vektorraum und im Fall F = C ein unitärer Vektor-
raum. Statt Skalarprodukt ist auch der Terminus inneres Produkt gebräuchlich.
Wollen wir R und C gemeinsam behandeln, so nennen wir (V, h −, − i) einen
Hilbert-Raum 1 . 3
Der Begriff des Hilbert-Raumes ist wichtig in der Analysis. Es wird
dann allerdings noch zusätzlich verlangt, daß Cauchy-Folgen konvergieren
(Vollständigkeit von V ). Das spielt für unsere algebraischen Überlegungen keine
Rolle. In der Analysis gebraucht man ohne die Bedingung der Vollständigkeit
das Wortungetüm Prä-Hilbert-Raum.)
Ein reelles Skalarprodukt ist in beiden Variablen linear. Ein komplexes Ska-
larprodukt wird in beiden Variablen linear, wenn wir es als auf V × V definiert
auffassen. Abbildungen von diesem Typ nennen wir bilinear. Sie werden später
allgemein untersucht. Werden nur die Eigenschaften (1) – (5) gefordert, so
sprechen wir im Fall F = R von einer symmetrischen Bilinearform und im
Fall F = C von einer hermiteschen Form2 auf V . Gilt dann für diese Formen
zusätzlich (6), so heißen sie positiv definit.
Allgemein folgt aus (1) – (4)
P P P
h j λj vj , k µk wk i = j,k λj µk h vj , wk i,
A = (ajk ) irgendeine (n, n)-Matrix über F und B = {v1 , . . . , vn } eine Basis von
V , so wird durch
P P P t
h j λj vj , k µk vk i = j,k λj ajk µk = λ Aµ
sein, sofern (x, y) 6= (0, 0) ist. Demnach ist 0 < a und 0 < c notwendig für
positive Definitheit (x oder y gleich Null setzen). Aus der Formel
√ √ √
ax2 + 2bxy + cy 2 = ( ax + cy)2 + 2(b − ac)xy
√
erkennen
√ wir, daß b <√ ac oder äquivalent det A > 0 ebenfalls notwendig ist
(x = c und y = − a setzen). Es ist eine kleine Aufgabe, zu zeigen, daß
unter den eben hergeleiteten Bedingungen die Form wirklich positiv definit ist.
Später werden wir diese Tatsache ohne Rechnung einsehen lernen (4.7.4). 3
Sei im folgenden (V, h −, − i) ein Hilbert-Raum. Wie üblich wird er meist
nur durch die zugrundeliegende Menge V bezeichnet. p Skalarprodukte dienen
unter anderem zur Längendefinition. Wir nennen |v| = hv, vi die Norm oder
Länge von v und |v − w| den Abstand von v, w (bezüglich h −, − i). Vektoren
der Länge 1 heißen Einheitsvektoren. Ist x 6= 0, so ist |x|−1 x ein Einheitsvektor.
Gilt hu, vi = 0, so heißen u, v orthogonal. Wegen Axiom (5) ist h u, v i = 0 zu
h v, u i = 0 äquivalent.
Für orthogonale u, v gilt |u|2 + |v|2 = |u + v|2 (eine ab jetzt auch Satz des
Pythagoras genannte Relation).
Unterräume U1 und U2 von V heißen orthogonal, wenn für uj ∈ Uj immer
h u1 , u2 i = 0 ist. Ist V die direkte Summe paarweise orthogonaler Unterräume
(Uj | 1 ≤ j ≤ t), so sagen wir, V sei die orthogonale Summe der Uj und notieren
diesen Sachverhalt durch
V = U1 ⊥ U2 ⊥ . . . ⊥ Ut .
4.1 Hilbert-Räume 69
y = λx + z, λ ∈ F, h x, z i = 0.
Eine solche Zerlegung ist auf genau eine Weise möglich; ferner ist notwendig
λ = |x|−2 h x, y i. Aus z = y − λx und h x, z i = 0 folgt nämlich
0 = h x, z i = h x, y − λx i = h x, y i − λh x, x i.
Deshalb hat λ die behauptete Gestalt. Umgekehrt rechnet man leicht nach, daß
mit diesem λ der Vektor y − λx orthogonal zu x ist.
Für x = 0 gilt die behauptete Ungleichung. Andernfalls folgt mit dem so-
eben Überlegten und dem Satz des Pythagoras
h x, y i2
|y|2 = |λx|2 + |z|2 ≥ |λ|2 |x|2 = · |x|2 ,
|x|4
und das ist zu (1) gleichwertig.
(2) wird durch die folgende Rechnung belegt:
Pn
(3) Ist B eine Orthonormalbasis, so gilt k=1 |ck |2 = |v|2 . Ist B Orthonor-
malsystem und gilt diese Gleichung immer, so ist B eine Basis.
P P
Beweis. (1) Es ist vj orthogonal zu v − ck vk ; also ist v − ck vk orthogonal
zu jeder Linearkombination der vj (bilineares Ausrechnen). Nach dem Satz des
Pythagoras gilt somit
|v − ak vk |2 = |v − ck vk + (ck − ak )vk |2
P P P
= |v − ck vk |2 + | (ck − ak )vk |2 ≥ |v − ck vk |2 .
P P P
P P
(2) folgt aus 0 ≤ hv − ck vk , v − ck vk i durch bilineares Ausrechnen
P des
Skalarproduktes. Ebenso folgt die Gleichheit in (3), weil dann v = ck vk
ist. 2
Sei U ein endlichdimensionaler Unterraum von V . Der Raum
in U ⊥ . Folglich gilt V = U + U ⊥ . 2
Sei p : V → V eine Projektion, das heißt es gelte p ◦ p = p. Wir nennen p
orthogonale Projektion auf U = Bild p, wenn Kern p = U ⊥ ist; es ist dann also
U = Bild p ⊥ Kern p.
L = {x | h e, x i = c}
mit einem Einheitsvektor e und einer reellen Zahl c ≥ 0 schreiben. Die Daten e und
c sind unter diesen Bedingungen durch L eindeutig bestimmt. Die Hyperebenenglei-
chung h e, x i = c heißt Hessesche Normalform.
Beweis. Eine Hyperebene L ist eine Menge der Form L = v +U mit einem Unterraum
U der Kodimension 1 in V . Sei e ein Einheitsvektor im orthogonalen Komplement
von U . Dann hat v die Form v = ce + u mit einem u ∈ U , und folglich ist L = ce + U .
Indem wir e eventuell durch −e ersetzen, können wir c ≥ 0 annehmen. Dann ist aber
L = {x | h e, x i = c}. Ist umgekehrt L in dieser Form gegeben, so ist e orthogonal zur
Richtung von L. 2
Sei h e, x i = c eine Hessesche Normalform. Für v = ce + u ∈ L, u ∈ (Re)⊥
ist |v|2 = |u|2 + c2 . Deshalb ist c der minimale Abstand eines Punktes von L vom
Nullpunkt. Wir nennen c den Abstand von L zum Nullpunkt.
Ist he, yi = d, so heißt d − c der orientierte Abstand von y und L und |d − c| der
Abstand von y und L.
Orientiert“ soll besagen, daß man durch das Vorzeichen von he, yi − c die beiden
”
Halbräume unterscheiden kann, in die V durch L zerlegt wird; es gilt V r L = H + ∪
9 Ludwig Otto Hesse 1811 – 1874
4.2 Isometrien 73
dieser Wert wird für w = v minimal. Also ist |d − c| der minimale Abstand von y zu
einem Punkt von L.
4.2 Isometrien
Sei (V, h −, − i) ein n-dimensionaler Hilbert-Raum. Ein Endomorphismus f von
V heißt Isometrie von V , wenn immer h u, v i = h f u, f v i gilt. Eine Isometrie
bewahrt Längen und Abstände und Winkel. Im Fall F = R folgt aus
daß eine längenerhaltende lineare Abbildung eine Isometrie ist. Eine Isometrie
ist ein Isomorphismus, denn aus f u = 0 folgt 0 = h f u, f u i = h u, u i und damit
u = 0; also ist f injektiv und damit bijektiv. Die Isometrien bilden bezüglich
Verkettung eine Gruppe, die im Fall F = R die orthogonale Gruppe O(V ) und
im Fall F = C die unitäre Gruppe U (V ) von V genannt wird. Die Abbildungen
in O(V ) (und in U (V )) heißen orthogonal (und unitär).
(4.2.1) Sei A = (aij ) die Matrix eines Endomorphismus f bezüglich einer
Orthonormalbasis (e1 , . . . , en ). Dann ist f genau dann eine Isometrie, wenn
Āt A = In ist.
Beweis. Genau dann ist f eine Isometrie, wenn immer h ek , el i P = h f ek , f el i
gilt (Linearität von f , bilineares Ausrechnen). Wir setzen f ek = µ aµk eµ ein
und sehen, daß diese Gleichung zu Āt A = In äquivalent ist. 2
Eine reelle (komplexe) (n, n)-Matrix A heißt orthogonal (unitär), wenn
Āt A = In gilt. Sei O(n) bzw. U (n) die Gruppe der orthogonalen bzw.
unitären (n, n)-Matrizen. Eine orthogonale Matrix ist auch unitär, wir haben
also eine Untergruppe O(n) ⊂ U (n). Aus Āt A = In folgt 1 = det(In ) =
det(Āt ) det(A) = | det(A)|2 . Deshalb hat eine orthogonale Matrix eine Deter-
minante ±1 und eine unitäre Matrix eine Determinante vom Betrag 1. Die
Untergruppen
Allgemein ist das Element von Āt A an der Stelle (k, l) gleich h ak , al i, wenn
al die l-te Spalte von A ist (hier ist jetzt h −, − i das Standardskalarprodukt
auf Fn ). Also bedeutet Āt A = In , daß die Spalten eine Orthonormalbasis
bezüglich des Standardskalarproduktes bilden. Aus der Gleichung Āt A = In
folgt ĀAt = In , indem man sie von links (rechts) mit dem Inversen von Āt
(von A) multipliziert und das Ergebnis invertiert. Also bilden auch die Zeilen
eine Orthonormalbasis.
(4.2.3) Die Gruppe O(2). Ein zu (a, b) 6= (0, 0) orthogonaler Vektor hat die
Form (−cb, ca). Die Matrix
a −cb
b ca
hat die Determinante c(a2 + b2 ). Ist sie aus O(2), so ist a2 + b2 = 1 und folglich
c = ±1. Demnach besteht SO(2) aus den Matrizen
a −b
, a2 + b2 = 1.
b a
D(ϕ)D(ψ) = D(ϕ + ψ)
S(0)D(ϕ) = D(−ϕ)S(0)
D(ϕ)S(0)D(−ϕ) = S(ϕ)
S(ϕ)S(ψ) = D(2ϕ − 2ψ)
S(ϕ) = D(2ϕ)S(0)
S(ϕ)D(ψ) = D(2ϕ − ψ)S(0).
Sie geben an, wie in der Gruppe O(2) gerechnet wird. Insbesondere sehen wir:
Jede Drehung ist Produkt zweier geeigneter Spiegelungen, und das Produkt
zweier Spiegelungen ist immer eine Drehung.
Ein unitäre (1, 1)-Matrix ist“ eine komplexe Zahl vom Betrag eins. Multi-
”
plikation mit z = a + bi ist eine R-lineare Abbildung C → C, die bezüglich der
R-Basis 1, i von C die Matrix
a −b
b a
hat. Hat z den Betrag 1, so handelt es sich um eine Drehmatrix. Damit erkennen
wir die geometrische Bedeutung der Multiplikation komplexer Zahlen. 3
(4.2.4) Notiz. Ist f eine Isometrie von V und U ein f -stabiler Unterraum,
so gilt f (U ⊥ ) ⊂ U ⊥ .
Beweis. Es gilt für u ∈ U, v ∈ U ⊥ und den zu f inversen Endomorphismus
f −1
hf v, ui = hv, f −1 (u)i = 0,
weil wegen f (U ) = U auch f −1 (U ) = U ist. Also ist f v ∈ U ⊥ , und deshalb gilt
f (U ⊥ ) = U ⊥ . 2
Ist λ ein Eigenwert der Isometrie f mit dem Eigenvektor v, so gilt
h(ρ + ρ−1 )x, yi = hρx, yi + hρ−1 x, yi = hx, ρ−1 xi + hx, ρyi = hx, (ρ + ρ−1 )yi.
Sie hat deshalb einen reellen Eigenwert, etwa λ, zum Eigenvektor e. Aus ρe +
ρ−1 e = λe folgt ρ2 e = λρe − e. Die Vektoren ρe und e sind linear unabhängig,
da ρ in V0 keine Eigenvektoren hat. Also erzeugen e, ρe einen zweidimensionalen
Unterraum W , der wegen ρ2 e = λρe − e auch ρ-stabil ist. Wir betrachten nun
das orthogonale Komplement von W in V0 und wenden Induktion nach der
Dimension an. 2
Sei W ein zweidimensionaler ρ-stabiler Unterraum in V0 , und sei A die Ma-
trix von ρ : W → W bezüglich einer Orthonormalbasis. Dann ist A orthogonal.
Wäre det A = −1, so hätte A die Eigenwerte 1 und −1 und das widerspräche
der Definition von V0 . Also ist A eine Drehmatrix.
Übersetzen wir die voranstehenden Ergebnisse in die Matrizensprache (Ba-
siswechsel), so erhalten wir:
(4.2.10) Satz. Jede Matrix A ∈ O(n) ist in O(n) konjugiert zu einer Matrix
der folgenden Form (Blockdiagonalmatrix ):
D
A1
A2 .
. .
.
Ak
Darin ist D eine quadratische Diagonalmatrix mit Elementen ±1 auf der Dia-
gonale und jedes Aj ist eine (2, 2)-Drehmatrix. 2
Allgemein wollen wir eine Matrix A aus SO(n) eine Drehmatrix und die
dadurch vermittelte lineare Abbildung eine Drehung des Rn nennen.
Wir betrachten jetzt speziell den Fall einer Drehung ρ des R3 . Bezüglich
einer geeigneten Orthonormalbasis wird die zugehörige lineare Abbildung ρ
durch eine Matrix der Form
1 0 0
B = 0 cos α − sin α
0 sin α cos α
78 4 Bilineare Abbildungen
1
cos α = (Sp(B) − 1).
2
Da sich die Spur einer Matrix bei Basiswechsel nicht ändert, haben wir da-
mit eine Formel gewonnen, mit der cos α ohne Bestimmung einer Normalform
bestimmt werden kann.
Eine orthogonale Abbildung f : Rn → Rn heiße Spiegelung an der Hyperebe-
ne H, wenn der Eigenraum V+ zum Eigenwert 1 gleich H ist. Das orthogonale
Komplement von V+ ist dann ein eindimensionaler Raum V− zum Eigenwert
−1. Ist a ∈ V von Null verschieden, so ist durch die Formel
h a, v i
sa (v) = v − 2 a
h a, a i
(4.2.11) Satz. Jedes Element von SO(2k) oder SO(2k + 1) ist Produkt von
höchstens 2k Spiegelungen. Jedes Element von O(n) ist Produkt von höchstens
n Spiegelungen. 2
Sei A ∈ O(3) r SO(3). Dann hat A den Eigenwert −1. Es gibt also eine
A-invariante Gerade. Im dazu orthogonalen Komplement wird gedreht.
surjektiv ist, wenn Q(n) die Gruppe der genannten Dreiecksmatrizen ist. Da Q(n) ∩
O(n) nur die Einheitsmatrix enthält, so ist diese Abbildung auch injektiv.
4.3 Selbstadjungierte Endomorphismen 79
Beweis. Sei A die Matrix von f bezüglich einer Orthonormalbasis. Daß f selbst-
adjungiert ist, bedeutet für beliebige Koordinatenvektoren x, y die Gleichheit
xt Āt y = xt Ay. Allgemein folgt aus einer Gleichheit xt Cy = xt Dy für alle x, y
die Gleichheit der Matrizen C, D: man setze für x, y die Standardbasis ein. 2
Also können wir annehmen, daß (wk ) gegen w konvergiert. Aus Gründen der
Stetigkeit folgt |w| = 1 und |f (w)| = kf k. Ebenso schließt man, daß die Menge
{|hf (v), vi| | |v| = 1} ein Maximum enthält.)
Die Norm kf k läßt sich auch als das kleinste reelle C charakterisieren, so
daß für alle v ∈ V die Ungleichung
|f (v)| ≤ C|v|
gilt. Aus dieser Ungleichung folgt nämlich |f (v)| ≤ C für |v| = 1, also kf k ≤ C.
Ist v 6= 0 gegeben, so ist ein v|v|−1 Einheitsvektor, also gilt |f (v|v|−1 )| ≤ kf k
und deshalb auch |f (v)| ≤ kf k|v|.
(4.3.6) Notiz. Sei f selbstadjungiert. Dann gilt
hf v, wi = |f (v)| = hv, f wi
also
hf (v + w), v + wi = hf v, vi + 2|f v| + hf w, wi
hf (v − w), v − wi = hf v, vi − 2|f v| + hf w, wi
durch Subtraktion dieser Gleichungen ergibt sich
wie gewünscht (die Ungleichung folgt mit der Definition von M und die letzte
Gleichung durch bilineares Ausrechnen). 2
(4.3.7) Satz. Ist f ein selbstadjungierter Endomorphismus, so ist kf k oder
−kf k ein Eigenwert von f .
Beweis. Wir wählen einen Einheitsvektor v ∈ V , so daß hv, f vi = α und |α| =
kf k ist, das heißt das Maximum von hf x, xi werde (nach (4.3.6)) in x = v
angenommen. Dann folgt
mit der letzten Ungleichung nach (4.3.6). Also gilt f (v) = αv. 2
82 4 Bilineare Abbildungen
Wir geben schließlich (für den reellen Fall) noch einen weiteren analytischen
Beweis dafür, daß ein Einheitsvektor, der h v, f v i maximiert, ein Eigenvektor
ist. Sei zu diesem Zweck w irgendein Einheitsvektor, der zu v orthogonal ist.
Wir wählen eine stetig differenzierbare Kurve a : [−1, 1] → S n−1 mit den Ei-
genschaften: a(0) = v, a0 (0) = w, zum Beispiel a(t) = cos t · v + sin t · w. Dann
hat die Funktion t 7→ h a(t), f a(t) i an der Stelle t = 0 ein Maximum und
folglich die Ableitung Null. Diese Ableitung ist h f v, w i. Demnach ist f v zu
allen w orthogonal und daher ein Vielfaches von v. Ebenso kann man mit dem
Minimum argumentieren.
Es gibt eine gemeinsame Verallgemeinerung der Diagonalisierbarkeit unitä-
rer und hermitescher Matrizen. Eine Matrix A heiße normal, wenn gilt
Āt · A = A · Āt .
(4.3.8) Satz. Eine Matrix A ∈ M (n, n; C) ist genau dann normal, wenn es
S ∈ U (n) so gibt, daß SAS −1 eine Diagonalmatrix ist.
Beweis. Ist A normal und S ∈ U (n), so ist SAS −1 normal. Eine Diagonal-
matrix ist normal. Sei also A normal. Für einen Eigenraum V (λ) gilt dann
Āt V (λ) ⊂ V (λ), denn für v ∈ V (λ) ist A(Āt v) = Āt AV = Āt λv = λ(At v), also
Āt v ∈ V (λ). Man betrachte die Einschränkung Āt |V (λ) : V (λ) → V (λ), die
selbst einen Eigenwert µ und einen Eigenraum V (λ, µ) hat. Es gilt AV (λ, µ) ⊂
V (λ, µ), denn für v ∈ V (λ, µ) ist Āt (Av) = AĀt v = Aµv = µ(Av). Es gilt eben-
falls AV (λ, µ)⊥ ⊂ V (λ, µ)⊥ , denn aus v ∈ V (λ, µ) und hv, ui = 0 folgt hv, Aui =
hĀt v, ui = hµv, ui = µhv, ui = 0. Ebenso gilt Āt V (λ, µ)⊥ ⊂ V (λ, µ)⊥ . Also ist
die Einschränkung von A auf V (λ, µ)⊥ ein normaler Endomorphismus, und
man kommt durch Induktion nach dim V ans Ziel. 2
Wir kommen nun zu den eingangs erwähnten Anwendungen.
(4.3.9) Hauptachsen von Quadriken. Zunächst einige allgemeine Vorbe-
merkungen. Sei f : Rn → R eine Abbildung und
LA N (f, c) = N (f ◦ L−1
A , c).
Sei C = (ckl ) eine symmetrische reelle Matrix. Damit betrachten wir die Funk-
tion Pn
f : Rn → R, x = (x1 , . . . , xn ) 7→ k,l ckl xk xl = xt Cx.
4.4 Bilineare Abbildungen 83
Eine Menge der Form f −1 (c) nennen wir eine Quadrik. In neuen Koordinaten
haben wir die Funktion f ◦LA : x 7→ xt At CAx zu betrachten, also wiederum ei-
ne Quadrik. Wir wissen nach (4.3.4), daß wir eine Drehung A so finden können,
daß At CA = Dia (λ1 , . P
. . , λn ) ist. In den neuen Koordinaten hat die Gleichung
der Quadrik die Form j λj x2j = r, hat sich also beträchtlich vereinfacht.
Ebenso sehen wir, daß das Bild einer Quadrik bei einem linearen Automor-
phismus wieder eine Quadrik ist. Wir können aus demselben Grund durch eine
Drehung eine Quadrik in P eine Lage bringen, in der sie als Punktmenge durch
eine Gleichung der Form j λj x2j = r beschrieben wird. Durch Zurückdrehen
der Koordinatenachsen erhalten wir die sogenannten Hauptachsen der Quadrik,
und die Drehung in die genannte Normalform heißt die Hauptachsentransfor-
mation der Quadrik. 3
von Vektorräumen. 2
eine Basis von U und C = {c1 , . . . , cn } eine Basis von V . Dann gilt für eine
Bilinearform s : U × V → K
P P P
s( i λi bi , j µj cj ) = i,j λi µj s(bi , cj ),
und daraus entnehmen wir, daß die zu s gehörende Matrix S = (s(bi , cj )) die
Form s bestimmt und jede (m, n)-Matrix auf diese Weise aus einer Bilinearform
entsteht. Wir haben somit einen Isomorphismus
σ : K m × K n → K, (x, y) 7→ xt Sy,
und bezüglich der Standardbasen B und C ist mB,C (σ) = S. Sind Φ = (ϕkl )
und Ψ = (ψrs ) Basiswechselmatrizen in U und V (neue Basis durch die alte!),
so rechnen wir
und erkennen, daß die neue Matrix S 0 sich aus der alten S durch
S 0 = Φt SΨ
ausrechnen läßt.
Die adjungierte Abbildung sL zu einer Bilinearform s : U × V → K ist eine
lineare Abbildung U → V ∗ in den Dualraum und ebenso sR : V → U ∗ . Wir
wählen Dualbasen b1 , . . . , bm zu (b1 , . . . , bm ) und c1 , . . . , cn zu c1 , . . . , cn . Dann
gilt
sL (bi ) = j s(bi , cj )cj , sR (ci ) = j s(bj , ci )bj .
P P
Zum Beweis (der ersten Gleichung) zeigen wir, daß beide Linearformen auf ck
denselben Wert annehmen:
(4.4.2) Notiz. Die Matrix von sL bezüglich der Basen (bi ) und (cj ) ist die
transponierte Matrix S t . Die Matrix von sR bezüglich der Basen (ci ) und (bj )
ist S. 2
4.4 Bilineare Abbildungen 85
unitären Matrizen fügen sich diesem Schema nicht ganz, da das Konjugieren
der komplexen Zahlen gebraucht wird. In einem formalen Kontext kann man
stattdessen einen Körperautomorphismus der Ordnung zwei verwenden (Ses-
quilinearformen).
VO
sR
/ U∗
O
f# f∗
V
sR
/ U∗
ist kommutativ.
4.6 Geometrische Bilinearformen 87
Beweis. Die Verifikation aus den Definitionen ist leicht und durch das folgende
Schicksal von v ∈ V angedeutet:
v / s(?, v)
Das Diagramm klärt den Zusammenhang zwischen der dualen Abbildung und
der adjungierten Abbildung. 2
Es gibt ein analoges Diagramm für sL und g# .
Wir wählen nun eine Basis B = {b1 , . . . , bn } von U und C = {c1 , . . . , cn }
von V . In U ∗ verwenden wir die duale Basis B ∗ = {b∗1 , . . . , b∗n }. Die Matrix von
sR bezüglich dieser Basen ist S = (s(bi , cj )), wie wir in (4.4.2) gesehen haben.
Hat f die Matrix A bezüglich B, so hat nach (4.5.1) f # die Matrix von
−1
sR ◦ f ∗ ◦ sR , also die Matrix S −1 At S bezüglich C. Aus (4.5.1) entnehmen wir
(f2 f1 )# = f1# f2# und (id)# = id. Analog für die Kreuze unten. Bedeutsam ist
der Fall U = V , B = C. Wir nennen in diesem Fall f selbstadjungiert bezüglich
s, wenn f = f # ist, wenn also immer s(f (u), v) = s(u, f (v)) gilt. Mit den eben
verwendeten Matrizen ist das genau dann der Fall, wenn SA = At S gilt. Wir
notieren:
(4.5.2) Notiz. Ist s symmetrisch, so ist die Bilinearform (u, v) 7→ s(f (u), v))
genau dann symmetrisch, wenn f selbstadjungiert ist.
Beweis. Ist die Form symmetrisch, so hat man s(f (u), v) = s(f (v), u). Ersteres
ist gleich s(u, f # (v)) und letzteres wegen der Symmetrie von s gleich s(u, f (v)).
Es folgt f = f # . Analog folgt aus f = f # die Symmetrie der Form ρ(f, s). 2
Ist B eine Orthonormalbasis, also S die Einheitsmatrix, so ist f genau dann
selbstadjungiert, wenn die Matrix A bezüglich dieser Basis symmetrisch ist, das
heißt A = At gilt. Allgemein ist bei Verwendung von Orthonormalbasen At die
Matrix von f # , wenn A die Matrix von f ist.
(4.6.1) Satz. Sei U ein Unterraum, der keinen von Null verschiedenen iso-
tropen Vektor enthält. Dann besteht eine direkte Zerlegung V = U ⊕ U ⊥ .
Es folgt V = U + U ⊥ . 2
Wie im ersten Abschnitt definieren wir: Unterräume U1 und U2 heißen or-
thogonal, wenn für ui ∈ Ui immer s(u1 , u2 ) = 0 gilt. Ist V die direkte Summe
paarweise orthogonaler Unterräume (Uj | 1 ≤ j ≤ t), so sagen wir, V sei die
orthogonale Summe der Uj . Wir notieren diesen Sachverhalt durch
V = U1 ⊥ . . . ⊥ Ut .
j∗
V
sR
/ V∗ / U ∗.
Da j injektiv ist, ist j ∗ surjektiv. Da sR bijektiv ist, folgt die Behauptung aus
dim Kern f + dim Bild f = dim V für f = j ∗ ◦ sR .
4.7 Bilinearformen auf reellen Vektorräumen 89
(U0 + U1 )⊥ sowie (U0⊥ ∩ U1⊥ )⊥ ⊂ U0 + U1 . Wenden wir die letzte Inklusion auf
das Paar U0⊥ , U1⊥ statt auf U0 , U1 an, so folgt (U0 ∩ U1 )⊥ ⊂ U0⊥ + U1⊥ . Die
umgekehrte Inklusion hatten wir aber schon oben gezeigt. Damit haben wir (3)
gezeigt. Analog folgt (4). 2
Eine Basis b1 , . . . , bn heißt Orthogonalbasis, falls für i 6= j immer s(bi , bj ) =
0 ist. Die Matrix S von s bezüglich einer Orthogonalbasis ist eine Diagonalma-
trix (und umgekehrt).
Wir sagen, ein Körper habe die Charakteristik zwei, wenn 1 + 1 = 0 ist.
(4.6.3) Satz. Der Körper K habe nicht die Charakteristik 2. Dann gibt es zu
jeder symmetrischen Bilinearform s eine Orthogonalbasis. (Es muß s hierzu
nicht regulär sein.)
Beweis. Induktion nach dim V . Für dim V = 1 können wir irgendeine Basis
nehmen. Falls es ein b ∈ V mit s(b, b) 6= 0 gibt, so sei U der von b erzeugte
Unterraum. Ist b2 , . . . , bm eine Orthogonalbasis von U ⊥ (bezüglich der durch
s auf U ⊥ gegebenen Form), so ist b, b2 , . . . , bm eine Orthogonalbasis. Es bleibt
der Fall, daß für alle b ∈ V die Gleichheit s(b, b) = 0 gilt. Dann ist
also s(b, c) = 0 für irgend zwei Vektoren b und c, da K nicht die Charakteristik
zwei hat. Jede Basis ist dann eine Orthogonalbasis. 2
Interpretieren wir (4.6.3) durch Matrizen und Basiswechsel, so erhalten wir:
(4.6.4) Satz. Hat K nicht die Charakteristik 2, und ist S eine symmetrische
Matrix, so gibt es eine invertierbare Matrix T derart, daß T t ST eine Diago-
nalmatrix ist. 2
es λj > 0, so daß {λ1 b1 , . . . , λn bn } orthonormal ist. Nach (4.6.4) hat jede re-
guläre symmetrische Form auf einem endlichdimensionalen R-Vektorraum eine
Orthonormalbasis.
Sei im folgenden V endlichdimensional und s regulär, soweit nichts anderes
gesagt wird. Ein Unterraum U von V heiße positiv (bezüglich s), wenn für alle
x ∈ U r {0} die Ungleichung s(x, x) > 0 gilt. Analog: negativ. Ein positiver
Unterraum U heiße maximal, wenn jeder Unterraum, der U echt umfaßt, nicht
mehr positiv ist.
(4.7.1) Satz. Sei {b1 , . . . , br , c1 , . . . , cs } eine Orthonormalbasis von V . Es gelte
s(bi , bi ) = 1 und s(cj , cj ) = −1. Sei V (+) bzw. V (−) der von den b1 , . . . , br
bzw. c1 , . . . , cs erzeugte Unterraum. Dann gilt: V (+) ist ein maximaler positiver
und V (−) ist ein maximaler negativer Unterraum von V . Ferner ist V die
orthogonale Summe von V (+) und V (−).
Beweis. Es ist s( λi bi , λi bi ) = λ2i . Deshalb ist V (+) positiv. Analog folgt,
P P
daß V (−) negativ ist. Ist u ∈ V (+) und v ∈ V (−), so folgt s(u, v) = 0, weil
die Basisvektoren bi und cj paarweise zueinander orthogonal sind. Da offenbar
V = V (+) ⊕ V (−) gilt, folgt V = V (+) ⊥ V (−).
Sei nun U ⊃ V (+), U 6= V (+) ein Unterraum. Ein Vektor u ∈ U r V (+)
hat eine Darstellung u = u+ + u− , u+ ∈ V (+), u− ∈ V (−) und u− 6= 0. Es
ist dann u− = u − u+ ∈ U und folglich auch jeder Vektor u+ + λu− , λ ∈ R,
in U enthalten. Aus s(u, u) = s(u+ , u+ ) + λ2 s(u− , u− ) und s(u− , u− ) < 0 folgt
s(u, u) < 0 für genügend große λ. Also ist U nicht positiv und damit V (+)
maximal. 2
(4.7.2) Satz. Sei V + ein maximaler positiver Raum, und sei V − = (V + )⊥ .
Dann ist V − ein negativer Raum und V die orthogonale Summe von V + und
V −.
Beweis. Wir haben V = V + + V − und V + ∩ V − = 0 zu zeigen.
Sei v ∈ V + ∩V − . Dann ist nach Definition von V − als (V + )⊥ auch s(v, v) =
0. Da s auf V + positiv definit ist, folgt v = 0. Wegen dim V + + dim(V + )⊥ =
dim V folgt V = V + + V − .
Sei z 6= 0 aus V − . Wäre s(z, z) > 0, so wäre für λ ∈ R und v ∈ V + auch
s(v + λz, v + λz) = s(v, v) + λ2 s(z, z) > 0
und deshalb s auf dem von V + und z erzeugten Raum positiv definit, im
Widerspruch zur Wahl von V + . Also gilt s(z, z) ≤ 0 für alle z ∈ V − . Ist
s(z, z) = 0 und z, w ∈ V − , so folgt, weil w + λz ∈ V − ist,
0 ≥ s(w + λz, w + λz) = s(w, w) + 2λs(w, z).
Das kann für alle λ ∈ R nur gelten, wenn s(w, z) = 0 ist. Da für alle u ∈ V +
ebenfalls s(u, z) = 0 ist, folgt aus der Regularität von s, daß z = 0 ist. Mithin
ist s auf V − negativ definit. 2
4.7 Bilinearformen auf reellen Vektorräumen 91
beschrieben. Es ist (p, q) der Index und p − q die Signatur. Die Gruppe
(4.7.4) Satz. Eine reelle symmetrische (n, n)-Matrix A ist genau dann positiv
definit, wenn alle Determinanten det(A(k)) positiv sind.
s : R2 × R2 → R, (x, y) 7→ xt Hy,
worin
1 0
H=
0 −1
11 Hermann Minkowski 1864 – 1909
12 Hendrik Antoon Lorentz 1853 – 1928
13 Albert Einstein 1879 – 1955
4.8 Die Lorentz-Gruppe 93
ist. Wir benutzen die theoretischen Einsichten der früheren Abschnitte. Die
Form heißt hyperbolische Form, weil die Menge
für d 6= 0 eine Hyperbel ist. Die Menge H(0) besteht aus den beiden Winkelhal-
bierenden der Koordinatenachsen und ist die Menge der isotropen Vektoren.
Das Komplement R2 r H(0) zerfällt in vier Stücke (Kegel), von denen das
rechte und linke die positiven und das obere und untere die negativen Vektoren
enthält. Die Kegel werden formelmäßig durch
P (+) = {(x, y) | x > |y| > 0}, P (−) = {(x, y) | −x > |y| > 0}
N (+) = {(x, y) | y > |x| > 0}, N (−) = {(x, y) | −y > |x| > 0}
beschrieben (P für positiv, N für negativ).
Wählen wir als V + den von (1, t) für −1 < t < 1 aufgespannten Raum, so
ist V − der von (t, 1) aufgespannte. Also liegen V + und V − spiegelbildlich zu
den isotropen Geraden. Wir erkennen, wie sich bei Annäherung von V + und
V − notwendig isotrope Vektoren ergeben.
Die Isometrien von s werden durch die reellen (2, 2)-Matrizen B gegeben,
die der Gleichung B t HB = H genügen. Sie bilden die Gruppe O(1, 1), die wir
die kleine Lorentz-Gruppe nennen wollen. Setzen wir
b1 b2
B= ,
b3 b4
Quadrieren der letzten Gleichung und Einsetzen der beiden ersten führt zu
b21 = b24 . Außerdem sehen wir, daß diese Quadrate größergleich 1 sind. Falls
b1 = b4 = b ist, erhalten wir die Matrizen
√
√ b ± b2 − 1
,
± b2 − 1 b
der Determinante 1 und, falls b1 = −b4 = b ist, die Matrizen
√
√b ± b2 − 1
.
∓ b2 − 1 −b
der Determinante −1. Wir betrachten den ersten Fall. Es muß b2 ≥ 1 sein,
damit eine reelle Quadratwurzel existiert. Im Fall b ≥ 1 setzen wir
1
b= p , −1 < β < 1
1 − β2
94 4 Bilineare Abbildungen
Im physikalischen Kontext betrachtet man die Form x21 − c2 x22 (c die Lichtge-
schwindigkeit). Die Matrizen B(β) sind dann durch
√ βc
1
√
1−β 2 1−β 2
A(β) = β/c 1
√ √
1−β 2 1−β 2
z + βct t + (β/c)z
z0 = p , t0 = p .
1 − β2 1 − β2
Das ist die berühmte Lorentz-Transformation. Die erste Gleichung wird physi-
kalisch so interpretiert: Der Ursprung des (z 0 , t0 )-Systems hat gegenüber dem
Ursprung des (z, t)-Systems die Geschwindigkeit v = −βc (was z 0 = 0 ent-
spricht). Also ist β = −v/c. Damit erhalten wir typische Formeln der speziellen
Relativitätstheorie.
Zurück zu den Matrizen B(β). Die Formel
β+γ
B(β)B(γ) = B
1 + βγ
(4.8.1) Satz. Die Matrizen B(β) mit −1 < β < 1 bilden eine Untergruppe
SO(1, 1)+ von O(1, 1). Sie ist isomorph zur additiven Gruppe (R, +).
ex − e−x
ρ : R → ] − 1, 1[ , x 7→ .
ex + e−x
Sie genügt dem Additionstheorem
ρ(α) + ρ(β)
ρ(α + β) = .
1 + ρ(α)ρ(β)
Die vorstehend benutzte Funktion ρ ist der tangens hyperbolicus. Er ist Quo-
tient des sinus hyperbolicus sinh(x) = 21 (ex − e−x ) und des cosinus hyperbolicus
cosh(x) = 12 (ex + e−x ). Für diese Funktionen gelten die Additionstheoreme
schreiben. Die Additionstheoreme von sinh und cosh zeigen die Gleichung
L(t)L(u) = L(t + u). Folglich ist
für alle z ∈ C.
Die Gruppen
O(2; C) = {A ∈ GL(2, C) | At A = I}
O(1, 1; C) = {A ∈ GL(2, C) | At HA = H}
sind isomorph, weil die zugehörigen Bilinearformen über den komplexen Zahlen
isomorph sind. Explizit wird ein Isomorphismus folgendermaßen gegeben:
1 0 1 0
O(2; C) → O(1, 1; C), A 7→ A .
0 i 0 −i
Bei diesem Isomorphismus wird die Drehmatrix D(iz) auf L(−z) abgebildet
(z ∈ C beliebig). Wir erkennen, daß die Lorentz-Matrizen L komplexe Formen
der Drehmatrizen D sind: ¨‘Drehungen¨’ um einen rein imaginären Winkel.
Wir beschreiben nun genauer die Struktur der Gruppe O(2; C). Wir haben
die Determinantenabbildung nach Z∗ . Der Kern ist SO(2; C). Wir setzen für
z ∈ C∗
−1
(u − u−1 )
1 1
2 (u + u ) 2i
M (u) = .
1
− 2i (u − u−1 ) 21 (u + u−1 )
Damit gilt:
(4.8.3) Satz. C∗ → SO(2; C), u 7→ M (u) ist ein Isomorphismus.
Beweis. Durch Nachrechnen bestätigt man, daß ein injektiver Homomorphis-
mus vorliegt. (Übrigens, setzt man u = exp(z), so ist M (u) = D(z), und man
ist wieder bei den Additionstheoremen von cos und sin angelangt). Für die
Surjektivität sieht man zunächst, daß man alle Matrizen der Form
a b
, a2 + b 2 = 1
−b a
Diese Terminologie ist natürlich der Physik entlehnt. Wir haben früher diese
Fälle positiv, isotrop und negativ genannt. Ist x zeitartig, so ist das orthogonale
Komplement von x ein (n − 1)-dimensionaler raumartiger Unterraum.
(4.8.4) Notiz. Die Relation x ∼ y ⇔ s(x, y) < 0 ist eine Äquivalenzrela-
tion auf der Menge der zeitartigen Vektoren. Es gibt zwei Äquivalenzklassen.
Beweis. Reflexivität und Symmetrie sind klar. Sei also s(x, y) < 0, s(y, z) < 0.
Wir haben s(x, z) < 0 zu zeigen. Ohne wesentliche Einschränkung sei s(y, y) =
−1. Sei N das orthogonale Komplement von y. Dann gibt es Darstellungen der
Form
x = αy + u, y = βy + v
98 4 Bilineare Abbildungen
mit u, v ∈ N und
α = −s(x, y), β = −s(z, y).
Wir rechnen
s(x, x) = −α2 + s(u, u) < 0
s(z, z) = −β 2 + s(v, v) < 0
s(x, z) = −αβ + s(u, v).
Auf N ist s positiv definit, und wir haben deshalb die Cauchy-Schwarzsche
Ungleichung
s(u, v)2 ≤ s(u, u)s(v, v) < α2 β 2 .
Nach Voraussetzung sind α und β positiv. Also folgt s(u, v) < αβ und damit
s(x, z) < 0.
Ist T (x) die Klasse von x, so gilt für jeden zeitartigen Vektor y entweder
s(x, y) < 0 oder s(−x, y) < 0, denn s(x, y) = 0 würde y ∈ N bedeuten. Also
gibt es nur die Klassen T (x) und T (−x). 2
(4.8.5) Notiz. Die Äquivalenzklassen der zeitartigen Vektoren sind konvex.
Beweis. Seien x, y, z in derselben Klasse, und sei t ∈ [0, 1]. Dann gilt
s(x, ty + (1 − t)z) = ts(x, y) + (1 − t)s(x, z) < 0.
Also liegen alle ty + (1 − t)z in der Klasse von x. 2
Wir bezeichnen die Klassen mit T+ und T− und nennen T+ (T− ) den Zu-
kunftskegel (Vergangenheitskegel ).
Die Lorentz-Gruppe O(V, s) von (V, s) ist die Gruppe der Isometrien von
s, das heißt sie besteht aus den Endomorphismen f von V , genannt Lorentz-
Transformationen, mit der Eigenschaft: s(x, y) = s(f x, f y) für alle x, y ∈ V .
Die Abbildungen f aus O(V, s) bilden also raumartige (lichtartige, zeitartige)
Vektoren wieder in solche ab. Sind ferner x, y äquivalente zeitartige Vektoren, so
auch f x, f y. Die f ∈ O(V, s), die T+ in sich abbilden, formen eine Untergruppe
O(V, s)+ vom Index 2 in O(V, s), also einen Normalteiler; seine Elemente heißen
orthochrone Lorentz-Transformationen.
Es gibt eine Orthonormalbasis (Minkowski-Basis) v1 , . . . , vn ∈ V bezüglich
s, das heißt eine Basis mit der Eigenschaft s(vj , vj ) = 1 für j ≤ n − 1
und s(vn , vn ) = −1. Genau dann ist A = (aij ) die Matrix einer Lorentz-
Transformation bezüglich dieser Basis, wenn AIn−1,1 At = In−1,1 ist, wobei
In−1,1 = Dia(1, . . . , 1, −1) ist. Eine Lorentz-Transformation hat die Determi-
nante ±1. Wir setzen:
O(n − 1, 1) = {A ∈ GL(n, R) | AIn−1,1 At = In−1,1 }
SO(n − 1, 1) = {A ∈ O(n − 1, 1) | det A = 1}
O(n − 1, 1)+ = {A ∈ O(n − 1, 1) | A orthochron}
SO(n − 1, 1)+ = SO(n − 1, 1) ∩ O(n − 1, 1)+ .
4.8 Die Lorentz-Gruppe 99
Ry1 ⊥ N1 = Rn = Ry2 ⊥ N2 .
Auf N1 und N2 ist s positiv definit. Es gilt deshalb eine Isometrie ϕ : (N1 , s) →
(N2 , s). Diese Isometrie ergänzen wir durch y1 7→ y2 zu einer Isometrie f des
Minkowski-Raumes. Da y1 und y2 in Q+ ⊂ T+ liegen, ist f orthochron. Hat f
nicht Determinante 1, so ändern wir ϕ um eine Isometrie von (N2 , s) mit der
Determinante −1 ab. 2
Der homogene Raum SO(n − 1, 1)+ /SO(n − 1) ist also zu Q+ homöomorph
und Q+ ist vermöge der Projektion (x1 , . . . , xn ) 7→ (x1 , . . . , xn−1 ) zu Rn−1
homöomorph.
Wir wollen jetzt noch genauere Information über die klassischen Lorentz-
Gruppen O(3, 1) und O(2, 1) gewinnen. Dazu benutzen wir ein anderes Modell
des Minkowski-Raumes.
Sei H(2, C) die Menge der komplexen, hermiteschen (2, 2)-Matrizen. Eine
Matrix aus H(2, C) hat die Form
a b
A= , a, c ∈ R, b ∈ C.
b̄ c
Die Menge H(2, C) ist ein vierdiemnsionaler reeller Vektorraum. Eine Basis ist
1 0 0 1 0 −i 1 0
τ1 = , τ2 = , τ3 = , τ4 = .
0 −1 1 0 i 0 0 1
100 4 Bilineare Abbildungen
ist eine quadratische Form auf H(2, C). Die zugehörige symmetrische Bilinear-
form ist
1
hσ, τ i = (Sp(στ ) − Sp(σ)Sp(τ )),
2
weil für jede (2,2)-Matrix σ die Relation
und es gilt
ΛA ΛB = ΛAB .
Ist A ∈ SL(2, C), so zeigt die Produktformel für Determinanten die Relation
q(ΛA X) = q(X). Folglich ist dann ΛA eine Lorentz-Transformation unseres
Modells.
Beweis. Wir bestimmen den Kern. Gilt AX Āt = X für alle X ∈ H(2, C), so
folgt zunächst für X = I die Relation AĀt = I. Also gilt AX = XA für alle
X ∈ H(2, C) und dann auch A(iX) = (iX)A. Ist X hermitesch, so ist iX
schiefhermitesch und umgekehrt. Jede Matrix ist Summe einer hermiteschen
und einer schiefhermiteschen . Also ist A mit allen (2, 2)-Matrizen vertauschbar
und deshalb ein Vielfaches der Einheitsmatrix mit der Determinante 1.
Analoge Überlegungen lassen für den 3-dimensionalen Raum reellen sym-
metrischen (2, 2)-Matrizen und die Gruppe SL(2, R) durchführen. Dieselbe
Form wie oben macht daraus einen dreidimensionalen Minkowski-Raum. Jedes
A ∈ SL(2, R) liefert durch X 7→ AXAt eine Isometrie dieses Raumes. Wir er-
halten einen surjektiven Homomorphismus λ : SL(2, R) → SO(2, 1)+ mit dem
Kern ±I. 2
Kapitel 5
ρ : T X × X → X, (v, x) 7→ ρ(v, x) = v + x
der additiven Gruppe von T X auf der Menge X, so daß folgendes gilt: 0+x = x,
(v1 + v2 ) + x = v1 + (v2 + x). Die Operation ist einfach transitiv; das soll
heißen: Zu jedem geordneten Paar x1 , x2 von Elementen aus X gibt es genau
ein v ∈ T X, so daß ρ(v, x1 ) = x2 ist. Die Elemente von X heißen die Punkte
des affinen Raumes. Die Dimension von T X wird als die Dimension des affinen
Raumes bezeichnet. 3
auch mit v = x2 −x1 ; das Minuszeichen ist hierbei nur symbolisch zu verstehen,
denn auf X ist keine Verknüpfung erklärt.
−→
In einem affinen Raum über R heißt die Menge {tv+x1 | t ∈ [0, 1]}, v =x1 x2
die (Verbindungs-) Strecke von x1 nach x2 . Eine Teilmenge K ⊂ X heißt kon-
vex, wenn sie mit je zwei Punkten auch deren Verbindungsstrecke enthält. Der
Durchschnitt konvexer Mengen ist konvex. Jede Teilmenge S ⊂ X liegt in ei-
ner kleinsten konvexen Teilmenge, der konvexen Hülle C(S) von S; das ist der
Durchschnitt aller S enthaltenden konvexen Teilmengen von X; solche gibt es,
weil X konvex ist.
Wir üblich sagen wir auch: X ist ein affiner Raum; der Vektorraum T X
und die Operation ρ werden dann als gegeben unterstellt. Die Bezeichnung T X
soll an Tangentialraum von X“ oder an Translationsraum von X“ erinnern.
” ”
Wir können die Eigenschaften des Verbindungsvektors zu einer zweiten De-
finition eines affinen Raumes benutzen.
(5.1.3) Affiner Raum. Ein affiner Raum ist ein Tripel (X, a, T X), das aus
einer Menge X, einem Vektorraum T X und einer Abbildung a : X × X → T X
besteht, so daß gilt:
(1) Für je drei Elemente x1 , x2 , x3 ∈ X ist a(x1 , x2 ) + a(x2 , x3 ) = a(x1 , x3 ).
(2) Für jedes x ∈ X ist die Abbildung X 7→ T X, y 7→ a(x, y) bijektiv.
Aus (1) folgt, daß a(x, x) für jedes x der Nullvektor ist. Ferner gilt a(x, y) =
−→
−a(y, x). Wir setzen a(x, y) = xy . 3
Die Definitionen (5.1.1) und (5.1.3) hängen folgendermaßen zusammen.
−→
Ist (T X, ρ, X) wie in (5.1.1) gegeben, so ist a(x, y) durch xy definiert. Ist
(X, a, T X) wie in (5.1.3) gegeben, so wird ρ : T X × X → X durch ρ(v, x) = y
definiert, wobei y durch a(x, y) = v eindeutig bestimmt ist.
(5.1.4) Beispiel. Sei U Unterraum des Vektorraums V , und sei b ∈ V . Die
Nebenklasse U + b = b + U = {b + u | u ∈ U } liefert den affinen Raum
(U, ρ, b + U ) mit der Operation ρ(u1 , b + u2 ) = u1 + b + u2 . 3
(5.1.5) Beispiel. Sei f : V → W eine lineare Abbildung zwischen Vektorräum-
en V und W , und sei w ∈ f (V ) ⊂ W . Dann ist (Kern f, ρ, f −1 (w)) ein affiner
Raum, wobei ρ wieder durch die Vektorraumaddition in V erklärt wird. Dieses
Beispiel ist ein Spezialfall des vorigen. 3
(5.1.6) Satz. Sei E ein endlich-dimensionaler Vektorraum und H ⊂ E
ein Unterraum. Sei EH = {W | W Komplement von H in E}. Die Men-
ge EH hat eine kanonische Struktur eines affinen Raumes zum Vektorraum
Hom(E/H, H).
Beweis. Sei P r(E, H) = {f : E → H | f linear, f |H = id} die Menge der
Projektionen auf H. Wir erhalten eine Abbildung
P r(E, H) → EH , f 7→ Kern f.
5.1 Affine Räume 103
TX × X
ρ
/X
T f ×f f
TY × Y
σ / Y.
(mit Daten im Sinne von (5.1.3)) kommutativ. Deshalb nennen wir in diesem
Zusammenhang f affine Abbildung, wenn es eine lineare Abbildung T f so gibt,
daß das letzte Diagramm kommutativ wird. 3
(5.1.8) Satz. Seien X und Y affine Räume, und sei x0 ∈ X gegeben. Eine
affine Abbildung f : X → Y ist durch den Punkt f (x0 ) = y0 und die lineare
Abbildung T f : T X → T Y vermöge f (v + x0 ) = T f (v) + y0 bestimmt, und zu
gegebenem y0 ∈ Y und linearer Abbildung α : T X → T Y wird durch f (v +x0 ) =
α(v) + y0 eine affine Abbildung definiert.
(1.1) λ 0 p0 + λ 1 p1 + · · · + λ k pk = p
αx : X → T X ⊕ K, z 7→ (a−1
x (z), 1) = (z − x, 1).
p2
1
@
@
pp 3 p0 + 13 p1 + 31 p2
ppp
@p p p p
@
p pp
p p pp @ 1
p1 + 12 p2
PP p @2
PP p p p
P
pP @
PP
P @
PP @
PP
P
@
p0 p1
injektiv ist.
Beweis. Seien die Punkte unabhängig. Es ist
Pk Pk
i=0 λi pi = i=1 λi (pi − p0 ) + p0 .
Beweis. Die genannte Menge enthält alle pi und ist nach (5.1.9) konvex. Durch
Induktion nach ` zeigt man, daß jede {p0 , . . . , p` } enthaltende konvexe Menge
P` P`
auch alle Punkte i=0 λi pi mit λi ≥ 0, i=0 λi = 1 enthält. Für k = 1 ist das
die Definition der Konvexität. Der Induktionsschritt beruht für λ`+1 6= 1 auf
der Gleichheit
λ0 λ`
λ + · · · + p` + (1 − λ)p`+1
λ λ
mit λ = λ0 + · · · + λ` . 2
Sind p0 , . . . , pk unabhängig, so heißt ihre konvexe Hülle das von {p0 , . . . , pk }
aufgespannte k-Simplex (k = 2 Dreieck, k = 3 Tetraeder).
Wir erwähnen noch: Seien X und Y affine Räume zu Vektorräumen über
demselben Körper K. Eine Abbildung f : X → Y ist genau dann affin, wenn
für p0 , . . . , pk ∈ X und λ0 , . . . , λk ∈ K immer f (Σλj pj ) = Σλj f (pj ) gilt.
den skalaren Vielfachen von v, es ist p der von v erzeugte Unterraum, p = [v]
geschrieben. Für Vektoren v, w ∈ V r 0 ist genau dann [v] = [w], wenn für
ein λ ∈ K ∗ = K r 0 die Relation v = λw besteht. Deshalb betrachten wir auf
V r 0 die Äquivalenzrelation:
V r {0} → P (V ), v 7→ [v]
und bezeichnen die xj als die homogenen Koordinaten von x. Sie sind definiti-
onsgemäß nur bis auf einen gemeinsamen Faktor bestimmt.
Wir wollen nun erläutern, in welcher Weise der n-dimensionale projektive
Raum als Vervollständigung eines n-dimensionalen affinen Raumes verstanden
werden kann.
Sei U ⊂ V eine Hyperebene und H = P (U ) ⊂ P (V ) die zugehörige pro-
jektive Hyperebene. Sei A = P (V ) r H. Wir wählen a ∈ V r U aus. Dann gilt
V = [a] ⊕ U . Mit dieser Zerlegung lassen sich die Punkte aus A als die Punkte
[λa, u], λ 6= 0, u ∈ U beschreiben. Da aber [λa, u] = [a, λ−1 u] ist, können wir
die erste Komponente zu a normieren. Wir erhalten deshalb eine Bijektion
ρU,a : U → a + U → A, u 7→ a + u 7→ [a + u].
Durch Wahl von a wird also A mit einem affinen Unterraum zum Vektorraum
U identifiziert. Wir nennen ρU,a die Kartenabbildung von P (V ) zu (U, a), ferner
A den affinen Raum zur Hyperebene H und H die unendlich ferne Hyperebene
von A.
Eine invariantere Beschreibung der Karte zur Hyperebene U läßt sich fol-
gendermaßen geben. Sei wie in (5.1.6) VU die Menge der zu U komplementären
eindimensionalen Unterräume von V . Ein solcher Unterraum ist genau dann
komplementär, wenn er nicht in U enthalten ist. Also ist VU = P (V ) r P (U ).
Wir haben in (5.1.6) gesehen, daß VU kanonisch ein affiner Raum zum Vektor-
raum Hom(V /U, U ) ist.
108 5 Affine und projektive Räume
[a]
6
C
a rpp
C
%
ppp p ppp C
ppp pp
pp ppp
C
p C a+U
D
0 rpp
D
ppp D
ppp
pp
D
D U
Ui = {[x0 , . . . , xn ] | xi 6= 0} ⊂ P (K n+1 ).
Die Bedingung xi 6= 0 ist unabhängig von der Wahl des Repräsentanten in der
Äquivalenzklasse [x0 , . . . , xn ]. Wir erhalten zueinander inverse Bijektionen
n x0 xi−1 xi+1
Ui → K , [x0 , . . . , xn ] 7→ ,..., , ,...
xi xi xi
A
Ap
1 × Uppppppppppppppp p p p p p p p p p p p p p p p p pAp p p p p p p p p p p p p p p p p p W ∩ (1 × U )
pp
pp A
pp
pp A
p rp 1
pp
pp pp A
pp
pp p A
E E
p pEp p p p p p p p p p p p p W = [x] + L
E
E E
E
B
r 0
p
E B
p
p p p p p p p pBp p p p p p p U = 0 × U
E p p
E pp p
pp
B
L=W ∩U
Wir können jetzt einsehen, daß in einer projektiven Ebene P 2 je zwei ver-
schiedene Geraden genau einen Schnittpunkt haben. Sei
P 2 = P (V ) ⊃ P (U1 ), P (U2 ), P (U1 ) 6= P (U2 )
und gelte dim U1 = dim U2 = 2. Wegen U1 6= U2 ist U1 + U2 = V und deshalb
nach der Dimensionsformel dim(U1 ∩ U2 ) = 1. Folglich ist P (U1 ) ∩ P (U2 ) =
P (U1 ∩ U2 ) ein Punkt.
Ebenfalls lassen sich je zwei verschiedene Punkte p1 , p2 ∈ P 2 durch genau
eine Gerade verbinden. Ist pi = P (Ui ), dim Ui = 1, so ist U1 ⊕ U2 zweidimen-
sional und L = P (U1 ⊕ U2 ) die gewünschte Gerade.
In diesem Zusammenhang wird der Begriff parallel“ ein relativer Begriff:
”
Nach Auszeichnung einer Geraden H in KP 2 als unendlich fern“ sind zwei
”
affine Geraden in der affinen Ebene A = KP 2 r H genau dann parallel, wenn
sie sich in H schneiden. Die Wahl der Geraden H markiert einen Standpunkt.
Die projektive Ebene umfaßt viele affine Ebenen. Es stellt sich heraus, daß
man Aussagen über das Schneiden und Verbinden affiner Unterräume besser
im vollständigen projektiven Raum untersucht.
Die analytische Geometrie beschreibt geometrische Figuren als Teilmengen
von Vektorräumen.
Eine Teilmenge M des K n läßt sich oft als Nullstellenmenge einer Gleichung
gewinnen:
M = {(x1 , . . . , xn ) | f (x1 , . . . , xn ) = 0}
mit einer geeigneten Funktion f : K n → K. Für den projektiven Raum
können wir, mit einer Vorsichtsmaßnahme, ebenso vorgehen: Die (n + 1)-Tupel
(x0 , . . . , xn ) und (λx0 , . . . , λxn ) beschreiben für λ ∈ K ∗ denselben Punkt in
KP n . Aus diesem Grunde betrachten wir Funktionen f : K n+1 → K, bei de-
nen f (x0 , . . . , xn ) = 0 und f (λx0 , . . . , λxn ) = 0 gleichwertige Relationen sind.
Diese Forderung wird durch die sogenannten homogenen Funktionen erfüllt: f
heißt homogen vom Grad k ∈ N, wenn für λ ∈ K ∗
f (λx0 , . . . , λxn ) = λk f (x0 , . . . , xn )
gilt. Für eine homogene Funktion f : K n+1 → K ist also
{[x0 , . . . , xn ] ∈ P (K n+1 ) | f (x0 , . . . , xn ) = 0}
eine wohldefinierte Teilmenge des Raumes P (K n+1 ). Typische Beispiele für
homogene Funktionen vom Grad k sind die homogenen Polynome vom Grad k
X
p(x0 , . . . , xn ) = a(i0 , . . . , in )xi00 . . . xinn
i0 +···+in =k
5.3 Projektivitäten
Eine bijektive lineare Abbildung α : V → V bildet einen eindimensionalen Un-
terraum v ⊂ V wieder auf einen solchen ab. Deshalb wird eine projektive Ab-
112 5 Affine und projektive Räume
P (α) : P (V ) → P (V ), v 7→ α(v),
die auch [v] 7→ [a(v)] geschrieben wird. Die Gesamtheit dieser Selbstabbildun-
gen ist eine Gruppe P Aut(V ). Der Homomorphismus
ist surjektiv. Falls P (α) = id ist, so gilt für jedes v ∈ V r {0} sicherlich
α(v) = λ(v)v, mit einem λ(v) ∈ K. Wir zeigen, daß λ(v) von v unabhängig ist.
Seien v, w linear unabhängig. Dann ist
und durch Koeffizientenvergleich folgt λ(v) = λ(w). Der Kern P −1 (id) von P
besteht also aus den Vielfachen der Identität. Für V = K n+1 schreiben wir
P GL(n + 1, K) = P Aut(K n+1 ).
Die Elemente der projektiven Gruppe P GL(2, K) sind von der Form
az + b a
lim = .
z→∞ cz + d c
S∞ A
p p pp
p pp
pp ppp
p ppp
ppppppppppppppppppppppppppppppppppppppppppppppppP pp pp pp p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p S0
p pp prH
pp p
ppp
H
p p p H
p p
H
p p p H
p H r
H
p p pp S
p
H
p p x HH
pp
ppp
H
p
H
p p r
p HHr B
p p p
pp p P ∞ α(x)
p p ppp
p
ppp
ppp
Wenn sich der Projektionsstrahl S der Geraden S0 nähert, wandert α(x) ins
Unendliche, der Punkt P0 wird auf den unendlich fernen Punkt von B abgebil-
det. Umgekehrt erscheint P∞ ∈ B als Bild des unendlich fernen Punktes von
A. Wie sieht die Abbildung α formelmäßig aus?
Sei, der Einfachheit halber, A die y- und B die x-Achse. Sei P = (a, b). Die
Gerade durch (a, b) und (0, x) ist {t(a, b − x) + (0, x) | t ∈ R}, und sie trifft die
ax
x-Achse im Punkt ( x−b , 0). Also ist α die gebrochen-lineare Abbildung
ax
α(x) =
x−b
Beweis. Wir wählen eine Basis e0 , . . . , en von V und setzen en+1 = e0 +· · ·+en .
Dann sind je n + 1 der Vektoren e0 , . . . , en+1 linear unabhängig, es liegt also
ein projektives Koordinatensystem vor.
Existenz von P (α) mit P (α)(pj ) = [ej ]. Da die p0 , . . . , pn unabhängig sind,
gibt es eine Basis v0 , . . . , vn von V mit [vj ] = pj für j = 0, . . . , n. Es gibt
ferner eine lineare Relation vn+1 = λ0 v0 + · · · + λn vn . Kein λj ist Null, weil
je n + 1 der Vektoren v0 , . . . , vn+1 linear unabhängig ist. Wir können deshalb
auch w0 = λ0 v0 , . . . , wn = λn vn als Basis verwenden. Dann gilt [wj ] = pj
und [w0 + · · · + wn ] = [vn+1 ] = pn+1 . Sei α : V → V der durch α(wj ) = ej
für j ∈ {0, . . . , n} bestimmte lineare Automorphismus. Er bildet dann auch
α(wn+1 ) auf en+1 ab, und folglich hat P (α) die gewünschten Eigenschaften.
Analog kann man die qj auf die ej abbilden und dann durch Zusammensetzung
die pj auf die qj .
Eindeutigkeit. Sei P (α)[ej ] = [ej ] für alle j. Es gilt dann α(ej ) = λj ej
für j = 0, . . . , n und deshalb α(en+1 ) = λ0 e0 + . . . + λn en . Andererseits ist
α(en+1 ) = λen+1 = λe0 + . . . + λen . Folglich ist λ0 = . . . = λn = λ und deshalb
P (α) die Identität. 2
Ist p0 , . . . , pn+1 ein projektives Koordinatensystem von P (V ) und e0 , . . . , en
die Standardbasis von K n+1 , so gibt es genau einen projektiven Isomorphismus
P (α) : P (V ) → P (K 2 ), pj 7→ [ej ].
Ein vierter Punkt p ∈ P (V ) wird dabei auf ein eindeutig bestimmtes Element
P (α)(p) ∈ P (K 2 ) = K ∪ {∞} abgebildet. Wir schreiben
(5.3.2) Satz. Die Projektivitäten von P (K × V ), die die unendlich ferne Hy-
perebene H = P (V ) in sich abbilden, bilden eine zur affinen Gruppe von V
isomorphe Untergruppe. 2
Kapitel 6
Normalformen
vn + a1 vn−1 + · · · + an v0 = 0, aj ∈ K.
Der Vektor vn kann darin durchaus der Nullvektor sein. Aus der Relation folgt
durch Induktion nach k, daß alle vn+k für k ≥ 0 in dem von v0 , . . . , vn−1
erzeugten Unterraum liegen. Die Menge dieser Vektoren ist aber auch linear
unabhängig, da eine echte lineare Relation der Minimalität von n widerspräche.
6.2 Nilpotente Endomorphismen 117
Damit haben wir in {v0 , . . . , vn−1 } eine Basis von L(v, f ) gewonnen. Die Matrix
von f bezüglich dieser Basis ist
0 −an
1 0 −an−1
..
. .
.. ..
.
.
. .. 0
−a2
1 −a1
Die letzte Spalte ist kenntlich. Unterhalb der Hauptdiagonale stehen Einsen.
Alles andere sind Nullen.
(6.1.1) Notiz. Das charakteristische Polynom der Matrix der vorigen Matrix
ist
xn + a1 xn−1 + · · · + an−1 x + an .
Beweis. Induktion nach n mittels Entwicklung nach der ersten Zeile. 2
0
Die Relation schreiben wir in der Form (mit f = id)
(f n + a1 f n−1 + · · · + an f 0 )(v) = 0.
f n + a1 f n−1 + · · · + an f 0 .
Durch wiederholte Anwendung von f sehen wir, daß alle Vektoren vj im Kern
dieses Eondomorphismus liegen. Also handelt es sich um die Nullabbildung.
komplexen Zahlen ist die Voraussetzung des letzten Satzes immer erfüllt, weil
überhaupt alle Polynome in Linearfaktoren zerfallen. Jede Matrix besitzt eine
jordansche Normalform und, wegen des Eindeutigkeitssatzes (6.2.2), sind zwei
Matrizen genau dann konjugiert, wenn die Normalform (bis auf die Reihenfol-
ge) dieselben Jordan-Matrizen enthält.
läßt sich also durch Spur und Determinante berechnen. Genau dann hat χA
zwei verschiedene Nullstellen, wenn
ist. Die Menge {λ1 , λ2 } ist durch Sp(A) und det(A) eindeutig bestimmt.
Zweiter Fall: Die Matrix A ∈ GL(2, C) hat nur einen Eigenwert λ. Das
charakteristische Polynom ist dann (x − λ)2 . Es gibt einen Eigenvektor w1 zum
Eigenwert λ. Wir ergänzen ihn durch w2 zu einer Basis. Die lineare Abbildung
A hat bezüglich dieser Basis eine Matrix der Form
λ µ
.
0 λ
Daraus sehen wir, daß (A−λI)2 = 0 ist. Wir unterscheiden die Fälle A−λI = 0
und A − λI 6= 0. Im ersten Fall gibt es eine Basis aus Eigenvektoren, und A ist
zu Dia(λ, λ) konjugiert. Andernfalls gibt es einen Vektor v1 , der nicht im Kern
von A−λI liegt. Sei v2 = (A−λI)(v1 ). Dann sind v1 und v2 linear unabhängig,
denn eine echte lineare Relation av1 +b(A−λI)v1 = 0 würde v1 als Eigenvektor
zum Eigenwert λ − ab−1 erweisen. Da (A − λI)2 = 0 ist, ist v2 ein Eigenvektor.
6.4 Normalformen für Zwei-mal-zwei Matrizen 121
Bezüglich der Basis v1 , v2 hat somit die durch A vermittelte lineare Abbildung
die Matrix
λ 0
(1.1) .
1 λ
Matrizen dieser Bauart werden uns alsbald bei der jordanschen Normalform
begegnen. 3
Sei Kon GL(2, C) die Menge der Konjugationsklassen und [A] die Klasse
von A. Dann haben wir also das folgende Ergebnis erhalten:
(6.4.2) Satz. Die Zuordnung A 7→ (Sp(A), det(A)) induziert eine wohldefi-
nierte Abbildung
κ : Kon GL(2, C) → C × C∗ .
Diese Abbildung ist surjektiv.
Genau dann hat A zwei verschiedene Eigenwerte, wenn Sp2 (A) 6= 4 det(A)
ist. In diesem Fall ist [A] durch κ[A] = u bestimmt, und κ−1 (u) besteht aus
einem Element. Die Konjugationsklasse von A enthält zwei Diagonalmatrizen;
sie gehen durch Vertauschung der Diagonalelemente auseinander hervor.
Die Elemente {(x, y) ∈ C × C∗ | x2 = 4y} haben bei κ zwei Urbilder. Diese
beiden Urbilder enthalten genau eine Matrix der Form Dia(λ, λ) bzw. (1.1) und
sind dadurch zu unterscheiden. Der Unterschied ist durch die Dimension des
Eigenraumes gegeben (nämlich 2 bzw. 1). Der Eigenwert ist in diesem Fall
1
2 Sp(A). 2
Sei Kon(SL(2, R), GL(2, R)) die Menge der SL(2, R)-Konjugationsklassen
in GL(2, R). Dann haben wir wiederum eine durch A 7→ (Sp(A), det(A)) indu-
zierte wohldefinierte Abbildung
(6.4.7) Satz. Für x2 > 4y besteht σ −1 (x, y) aus genau einem Element, wie
im letzten Satz. Für Sp2 A < 4 det A gibt es in der Klasse von A genau eine
Matrix der Form (1.2). Die Konjugationsklassen werden durch (α, β), β 6= 0,
eindeutig parametrisiert. Die zu (α, β) und (α, −β) gehörenden Matrizen haben
dasselbe Bild bei σ. Die Urbildmenge σ −1 (x, y) hat für x2 < 4y zwei Elemente.
Im Fall Sp2 A = 4 det A gibt es drei durch σ[A] bestimmte Konjugationsklassen,
die durch das Enthalten der Matrizen
λ 0 λ 1 λ −1
, , ,
0 λ 0 λ 0 λ
Beispiele und
Anwendungen
7.1 Vektorprodukt
Sei V = R3 mit dem Standardskalarprodukt h−, −i versehen. Für x, y, z ∈ V
sei det(x, y, z) die Determinante mit den Zeilenvektoren x, y und z. Für feste
x, y ∈ V ist V → R, z 7→ det(x, y, z) eine lineare Abbildung. Es gibt deshalb
genau einen (von x und y abhängigen) Vektor w(x, y), so daß diese lineare Ab-
bildung durch z 7→ hw(x, y), zi gegeben wird. Wir schreiben w(x, y) = x × y
und nennen x × y das Vektorprodukt des geordneten Paares (x, y) (im Gegen-
satz zum Skalarprodukt ist also das Resultat der Verknüpfung wiederum ein
Vektor). Wir erhalten somit eine bilineare Abbildung
(1.1) R3 × R3 → R3 , (x, y) 7→ x × y.
(1.3) x × y = −y × x, x×x=0
für alle x und y; die Verknüpfung ist also nicht kommutativ. Nach der Definition
(1.2) folgt hx × y, λx + µyi = 0. Also gilt:
(7.1.1) Satz. Der Vektor x × y ist orthogonal zu dem von x und y aufgespann-
ten Unterraum. 2
Sei (x1 , x2 , x3 ) = x und entsprechend für y. Dann gilt:
7.1 Vektorprodukt 125
(1) (A, B) 7→ − 12 Sp(AB) ist auf dem Vektorraum so(3) ein Skalarprodukt.
(2) Für jedes U ∈ O(3) und A ∈ so(3) ist U AU −1 ∈ so(3). Die lineare
Abbildung so(3) → so(3), A 7→ U AU −1 ist orthogonal bezüglich des Ska-
larproduktes in (1).
(3) Die Abbildung ϕ : R3 → so(3) ist eine Isometrie.
(4) Für U ∈ SO(3) gilt ϕ(U x) = U ϕ(x)U −1 .
Beweis. (1), (2) und (3) ergeben sich unmittelbar aus den Definitionen und
den voranstehenden Ergebnissen.
(4) Es genügt, die Gleichung für x = e1 nachzurechnen, da sie dann we-
gen ϕ(U1 U2 e1 ) = U1 U2 ϕ(e1 )U2−1 = U1 ϕ(U2 e1 ) für jeden Einheitsvektor U2 e1
gilt. Wenn man für x = e1 die fraglichen Matrizen auf der rechten Seite der
gewünschten Formel ausmultipliziert, muß man auch die Gleichung At = Ã
verwenden, die für A ∈ SO(n) aus der Cramerschen Regel folgt. 2
Sei B = {b1 , b2 , b3 } eine Basis des R3 . Für jeden Index k wählen wir i, j so,
daß (i, j, k) eine gerade Permutation ist und setzen
P3
bi × bj = `=1 γk` b` .
Sei g = (gij ) mit gij = hbi , bj i. Dann ist also die Matrix γ = (γl` ) durch
γ = det(B)g −1
gegeben. Die Matrix γ beschreibt, wie sich das Kreuzprodukt bezüglich irgend-
einer Basis ausrechnen läßt. Ist B eine positive Orthonormalbasis, so ist g = γ
die Einheitsmatrix.
Für x, y ∈ R3 ist |x × y| der Flächeninhalt des von x und y aufgespannten
Parallelogramms. Das läßt sich so begründen. Sind x und y linear abhängig, so
sind |x × y| und der Flächeninhalt gleich Null. Andernfalls sei E die von x, y
aufgespannte P Ebene und b1P , b2 , b3 eine positive Orthonormalbasis mit b1 , b2 ∈
E. Sind x = xi bi , x = yi bi die Komponentendarstellungen, so ist x3 =
y3 = 0 und x × y = (x1 y2 − x2 y1 )b3 . Es ist aber definitionsgemäß |x1 y2 −
x2 y1 | der Flächeninhalt des durch x und y aufgespannten Parallelogramms.
Mittels hx, yi = |x||y| cos α mit dem Winkel α zwischen x und y folgt |x × y| =
|x||y| sin α, 0 ≤ α ≤ π.
128 7 Beispiele und Anwendungen
7.2 Quaternionen
Sei H die Menge der komplexen (2,2)-Matrizen der Form
a b
(2.1) A= .
−b̄ ā
Diese Menge ist ein vierdimensionaler reeller Vektorraum. Das Produkt zwei-
er Matrizen der Form (2.1) hat wieder diese Form. Deshalb machen die R-
Vektorraumstruktur und die Multiplikation von Matrizen die Menge H zu einer
R-Algebra, genannt die Algebra der Quaternionen, erfunden von Hamilton1 .
Wir setzen A∗ = Āt . Die Abbildung H → H, A 7→ A∗ heißt Konjugation
von H, ist R-linear und erfüllt (AB)∗ = B ∗ A∗ . Wegen der letzten Eigenschaft
spricht man auch von einem Antihomomorphismus H → H. Man hat sich dar-
an zu erinnern, daß die Konjugation in H nicht etwa der Übergang zur ele-
mentweise konjugiert-komplexen Matrix ist. Man definiert die Norm N (A) des
Elements (2.1) als N (A) = |a2 + |b|2 = det(A). (Hier bedeutet Norm“ etwas
”
anderes als die früher definierte Norm einer Matrix oder eines Vektors in einem
Hilbert-Raum.) Es gilt wegen des Produktsatzes für Determinanten
Ferner gilt
(2.3) A∗ · A = N (A) · I,
denn A∗ ist auch die Adjunkte von A. Es ist N (A) = 0 genau dann, wenn A
die Nullmatrix ist. Ein von Null verschiedenes Element A ∈ H hat deshalb das
multiplikative Inverse A−1 = N (A)−1 · A∗ . Bis auf das Kommutativgesetz der
Multiplikation erfüllt also H die Körperaxiome. Deshalb nennt man H einen
Schiefkörper oder eine Divisionsalgebra.
Wir haben eine Einbettung
c 0
(2.4) ι : C → H, c 7→ ,
0 c̄
die ι(a + b) = ι(a) + ι(b) und ι(ab) = ι(a)ι(b) erfüllt. Das Bild ist also ein zu C
isomorpher Unterkörper. Wir fassen vermöge ι manchmal C als Teilmenge H
auf; man muß dabei aufpassen und die Elemente von C ⊂ H von den Koeffizien-
ten der Matrix als komplexe Zahlen unterscheiden. Jedenfalls wird durch (2.4)
H zu einem zweidimensionalen C-Vektorraum; die skalare Multiplikation mit
c ∈ C wird durch Linksmultiplikation mit der Matrix ι(c) definiert. Da H nicht
1 William Rowan Hamilton 1805 – 1865
7.2 Quaternionen 129
(Genau genommen steht also rechts in (2.7) ι(a) + ι(b)j.) Der komplexe Vek-
torraum H trägt das unitäre Skalarprodukt
(2.11) a + bi + cj + dk = q, a, b, c, d ∈ R
von H in den Unterkörper R und den euklidischen Raum der reinen Quater-
nionen. Wir nennen im(q) = bi + cj + dk auch den reinen oder imaginären Teil
der Quaternion (2.11).
Wir untersuchen nun Vertauschbarkeit in der Algebra H. Für a ∈ R, q ∈ H
gilt immer aq = qa. Wir betrachten deshalb das sogenannte Zentrum von H
Z(H) = {z ∈ H | für alle q ∈ H gilt zq = qz}
und behaupten
(7.2.1) Satz. Z(H) = R.
Ein Beweis von (7.2.1) folgt unmittelbar aus dem nächsten Satz.
(7.2.2) Satz. Sei A ∈ H r R, X ∈ H und gelte XA = AX. Dann ist X ∈
R + R · A, das heißt X = λ + µA mit λ, µ ∈ R.
Beweis. Genau dann ist XA = AX, wenn X im(A) = im(A)X ist. Wir dürfen
also A ∈ im H, A 6= 0 voraussetzen. Mittels (2.10) errechnet man für eine reine
Quaternion bi + cj + dk = A
(2.13) (bi + cj + dk)2 = −(b2 + c2 + d2 ) = −N (A) ∈ R.
Sei Y = im(X). Dann gilt auch Y A = AY . Falls Y 6= 0 ist, können wir, nach
Abänderung um einen rellen Faktor, wegen (2.13) annehmen, daß Y 2 = A2 =
−1 ist. Dann folgt
(Y − A)(Y + A) = Y 2 + Y A − AY − A2 = 0,
also Y = ±A. 2
Wir können auch den Teil im H von H durch die multiplikativen Eigenschaf-
ten von H charakterisieren.
(7.2.3) Satz. A ∈ im H genau dann, wenn A2 ∈ R, A2 ≤ 0.
Beweis. Ist A ∈ im H, so ist nach (2.13) A2 reell und nicht positiv.
Für den Beweis der Umkehrung sei A = r + Q, r ∈ R, Q ∈ im H angesetzt.
Dann ist A2 = r2 + 2rQ + Q2 genau dann reell, wenn rQ = 0 ist, also entweder
wenn r = 0 ist oder Q = 0. Ist Q = 0, so folgt aus A2 = r2 ≤ 0 aber auch
r = 0. 2
Die Anordnung in R kann ebenfalls durch die Körperstruktur beschrieben
werden, denn die nicht-negativen Elemente sind genau die Quadrate und a ≤ b
ist zu 0 ≤ b − a äquivalent. Folglich ist in (7.2.3) die Bedingung A2 ≤ 0
durch die Ringstruktur von H beschreibbar. Demnach ist auch die Zerlegung
A = Re(A) + im(A) und damit die Konjugation
A∗ = Re(A) − im(A)
und die euklidische Struktur ringtheoretisch (das heißt durch Aussagen über
plus“ und mal“) bestimmt.
” ”
7.3 Quaternionen und orthogonale Gruppen 131
(7.2.4) Satz. Ein Automorphismus α des Körpers R ist die Identität. Für
einen Automorphismus ϕ : H → H gelten ϕ(r) = r, falls r ∈ R, sowie ϕ(∗ A) =
ϕ(A)∗ und N (ϕ(A)) = N (A).
Beweis. Weil R+ = [0, ∞[ die Menge der Quadrate ist, gilt ϕ(R+ ) = R+ . Ist
a < b, so gilt b − a ∈ R+ also ϕ(b − a) = ϕ(b) − ϕ(a) ∈ R+ ; deshalb ist ϕ
monoton wachsend. Aus ϕ(1) = 1 folgt mittels Homomorphie ϕ(n) = n für
n ∈ Z, dann ϕ(r) = r für r ∈ Q und dann wegen der Monotonie ϕ(x) = x für
alle x ∈ R.
Ein Automorphismus ϕ bildet das Zentrum in das Zentrum ab, also ist
ϕ(R) ⊂ R und wegen der ersten Aussage ϕ(r) = r für r ∈ R. Es folgt dann
mittels (7.2.3) ϕ(im H) = im(H). Ist A = B + C die Zerlegung in Real- und
Imaginärteil, so ist
also
ϕ(A)∗ = B − ϕ(C) = ϕ(B − C) = ϕ(A∗ ).
Aus N (A) = A∗ · A ∈ R folgt dann
1 1
(2.14) hX, Y i = (X · Y ∗ + Y · X ∗ ) = (X ∗ · Y + Y ∗ · X).
2 2
Aus 2hX ∗ , Y i = X ∗ · Y ∗ + Y X erhält man durch Rechtsmultiplikation mit Y
die
(7.2.5) Dreier-Identität. Y XY = 2hX ∗ , Y iY − hY, Y iX ∗ . 2
(c, d) orthogonal zu (a, b), also ein Vielfaches vom sicherlich zu (a, b) orthogo-
nalen Vektor (−b̄, ā). Dieses Vielfache muß wegen ad − bc = 1 dann (−b̄, ā)
selbs sein. Demnach ist SU (2) als topologischer Raum die dreidimensionale
Einheitssphäre. (Es ist eine bemerkenswerte Tatsache, daß nur die Sphären
S 0 , S 1 , S 3 eine stetige Gruppenmultiplikation tragen können.) Es war H ein
euklidischer Raum mit Skalarprodukt h−, −i, das durch hx, xi = N (x) für alle
x ∈ H charakterisiert war. Wir setzen wie üblich |x| = hx, xi1/2 und sprechen
in diesem Zusammenhang vom Betrag der Quaternion x.
(7.3.1) Notiz. Für A, B ∈ SU (2) sind die Abbildungen H → H, X 7→ AXB
und X 7→ X ∗ orthogonal.
Beweis. |AXB| = |A||X||B| = |X|, |X| = |X ∗ |. 2
Wir werden sehen, daß auf die in (7.3.1) genannte Weise alle orthogonalen
Abbildungen erhalten werden. Zur Vorbereitung dienen einige allgemeine Be-
merkungen über Spiegelungen in euklidischen Räumen V , h−, −i. Sei v ∈ V
und |v| = 1. Die lineare Abbildung
(3.2) s1 (X) = −X ∗
(3.3) pA = sA ◦ s1 .
Schließlich gilt
sA ◦ sB = (sA ◦ s1 ) ◦ (s1 ◦ sB )
(3.4) = (sA ◦ s1 ) ◦ (s1 ◦ sB ◦ s−1
1 ) ◦ s1
= pA ◦ p−B ∗ .
Wir wollen jetzt diese Rechnungen zusammen mit der Erzeugbarkeit von
orthogonalen Abbildungen durch Spiegelungen verwenden. Für A, B ∈ SU (2)
setzen wir
q(A, B) : H → H, X 7→ A · X · B ∗ .
Dann gilt
Also ist
π(A) : im H → im H, X 7→ AXA∗ ,
(7.3.2) Notiz. Die Bilder der Abbildungen (3.5) bzw. (3.6) liegen in SO(H)
bzw. SO(im H).
Beweis. Eine Matrix in SU (2) ist zu einer Matrix der Form Dia (λ, λ−1 ) kon-
jugiert. Es gibt komplexe Zahlen µ, die µ2 = λ erfüllen. Es folgt, daß jede
Matrix A ∈ SU (2) die Form A = B 2 für ein B ∈ SU (2) hat. Natürlich hat
π(A) = π(B)2 positive Determinate. Analog wird für q geschlossen. 2
(7.3.3) Satz. Die Homomorphismen q und π sind surjektiv. Es gilt Kern π =
{I, −I} und Kern q = {(I, I), (−I, −I)}.
Beweis. Es gilt q(A, A∗ ) = pA . Also liegen wegen (3.4) alle Elemente der Form
sA ◦sB im Bild von q. Jedes Element von SO(H) ∼ = SO(4) läßt sich als Produkt
von vier Spiegelungen darstellen. Also ist q surjektiv.
Sei f ∈ SO(im H) gegeben. Wir setzen f zu einer Abbildung f ∈ SO(H)
fort, indem wir Elemente aus R identisch abbilden. Da q surjektiv ist, gibt es
A, B ∈ SU (2) so, daß f = q(A, B). Wegen f (1) = 1 folgt aber AB = 1, also
B = A∗ . Daher ist π surjektiv.
Sei A ∈ Kern π, also AXA∗ = X für alle X ∈ im H und deshalb auch für
alle X ∈ H. Dann liegt aber wegen A∗ = A−1 das Element A im Zentrum R
von H und deshalb ist A ∈ SU (2) ∩ Zentrum = {I, −I}.
Sei (A, B) ∈ Kern q, also AXB ∗ = X für alle X ∈ H. Wir setzen X = 1 und
erkennen, A = B, A ∈ Kern π. Demnach hat Kern q die behauptete Gestalt. 2
Als leichte Folgerung erhalten wir:
134 7 Beispiele und Anwendungen
(7.3.4) Satz. Jede Abbildung f ∈ O(H) r SO(H) läßt sich mit geeigneten
A, B ∈ SU (2) in der Form X 7→ A · X ∗ · B schreiben. Jede Abbildung f ∈
O(im H)rSO(im H) hat für ein geeignetes A ∈ SU (2) die Form X 7→ −AXA∗ .
Beweis. Die Abbildung c : H → H, X 7→ X ∗ liegt in O(H) r SO(H) und erfüllt
c(X) = −X für X ∈ im H. Man wende nun (7.3.3) auf f ◦ c an. 2
im(H) ist genau der Vektorraum der schief-hermiteschen (2,2)-Matrizen
über C. Dabei heißt eine Matrix A schief-hermitesch, wenn At = −Ā gilt.
Ist s ∈ U (n) und A eine schief-hermitesche (n, n)-Matrix, so ist SAS −1 eben-
falls schief-hermitesch. Für S ∈ SU (2) ⊂ H ist S −1 = S ∗ . Damit läßt sich
der Homomorphismus π auch formulieren, ohne auf Quaternionen Bezug zu
nehmen.
In der Physik werden häufig stattdessen die hermiteschen Matrizen A ver-
wendet, die also At = Ā erfüllen. Ist A hermitesch, so iA schief-hermitesch. So
kann man die beiden Standpunkte vergleichen. Wir beschreiben die Situation
für hermitesche Matrizen der Vollständigkeit und Abwechslung halber ausführ-
lich. Der Satz (7.3.5) übersetzt ein Ergebnis aus (7.3.3).
Der weiteren Untersuchung dienen die folgenden allgemeinen Vorbemer-
kungen. Sei Mn := M (n, n; C) der Vektorraum der komplexen (n, n)-Matrizen.
Durch (A, B) 7→ Sp (At B̄) wird auf Mn eine positiv definite hermitesche Form
definiert. Sei
H(n) = {A ∈ Mn | At = Ā}
die Menge der hermiteschen (n, n)-Matrizen. Dann ist H(n) ein reeller Unter-
raum von Mn . Der Realteil Re Sp(At B̄) definiert ein Skalarprodukt auf dem
reellen Vektorraum Mn . Sind A, B ∈ H(n), so gilt Sp(At B̄) = Sp(At B t ) =
Sp((BA)t ) = Sp(AB). Deshalb können wir auf H(n) das Skalarprodukt durch
(A, B) 7→ Re Sp(AB) erklären. Sei U ∈ U (n), also tU Ū = I. Wegen
(U AU −1 )t (U BU −1 ) = Ū t AB̄ Ū −1
und der allgemeinen Relation Sp (XY X −1 ) = Sp (Y ) gilt
Sp((U AU −1 )t (U BU −1 )) = Sp(At B̄).
Die lineare Abbildung
LU : Mn → Mn , A 7→ U AU −1
ist deshalb unitär bezüglich der eben erklärten hermiteschen Form. Ist A ∈
H(n), so gilt U AU −1 = (U AU −1 )t , also U AU −1 ∈ H(n). Wir haben deshalb
eine induzierte lineare Abbildung LU : H(n) → H(n), die bezüglich des eben
definierten Skalarprodukts orthogonal ist.
Betrachten wir den Fall n = 2. Eine Matrix aus H(2) hat dann die Form
a c
a, b ∈ R, c ∈ C.
c̄ b
7.4 Quadriken 135
Also ist H(2) vierdimensional. Sei V ⊂ H(2) der Unterraum der Matrizen mit
Spur 0, also −a = b. Dieser dreidimensionale Unterraum ist bei LU invariant,
so daß LU : V → V eine orthogonale Abbildung ist. Die Norm von
a α + iβ
α − iβ −a
bezüglich des Skalarprodukts ist 2(a2 + α2 + β 2 ). Es handelt sich also in dieser
Koordinatendarstellung bis auf einen konstanten Faktor um das Standards-
kalarprodukt. Die orthogonale Gruppe von V wollen wir deshalb mit O(3)
identifizieren.
(7.3.5) Satz. Die Zuordnung U 7→ LU liefert einen surjektiven Homomorphis-
mus ϕ : SU (2) → SO(3). Der Kern ist {I, −I}. 2
Als Raum (das heißt einschließlich der Stetigkeitseigenschaften) ist SU (2)
die dreidimensionale Einheitssphäre S 3 ⊂ H, und deshalb lassen sich die Ele-
mente von SU (2) durch Quadrupel (a, b, c, d) ∈ R4 mit a2 +b2 +c2 +d2 = 1 para-
metrisieren. Man kann nun ausrechnen, welche Matrix das Bild bei π bezüglich
der Standardbasis in im H ist. Man erhält
2
a + b2 + c2 − d2
−2ad + 2bc 2ac + 2bd
2ad + 2bc a2 − b2 + c2 − d2 −2ab + 2cd+ .
−2ac + 2bd 2ab + 2cd a2 − b2 − c2 + d2
Die dadurch gegebene Parametrisierung von SO(3) war schon Euler bekannt.
Für SO(2) gibt es eine analoge Parametrisierung, nämlich durch Matrizen
der Form 2 2
x −y 2xy
2 +y 2 x2 +y 2
x
.
−2xy x2 −y 2
x2 +y 2 x2 +y 2
Diese Formel ist die Grundlage für die Transformation von Integralen über
rationale Funktionen aus Sinus und Cosinus in Integrale über rationale Funk-
tionen. Vermöge der Surjektion π : SU (2) → SO(3) entsprechen die Elemente
von SO(3) den Paaren (X, −X) antipodischer Vektoren X ∈ S 3 . Diese Paa-
re entsprechen genau den eindimensionalen Unterräumen von R4 . Die Menge
dieser Unterräume ist der dreidimensionale reelle projektive Raum; also kann
SO(3) als dieser Raum aufgefaßt werden.
7.4 Quadriken
Sei K ein Körper der Charakteristik 6= 2. Wir betrachten Funktionen f : K n →
K, die durch quadratische Polynome gegeben sind:
Pn Pn
(4.1) f (x) = i,j=1 aij xi xj + i=1 bi xi + c
136 7 Beispiele und Anwendungen
f (x) = xt Ax + Bx + c
schreiben, worin A die Matrix (aij ) ist und B = (b1 , . . . , bn ). Die Funktion f
wird nicht geändert, wenn man den Koeffizienten von xi xj durch 21 (aij + aji )
ersetzt. Deshalb können und wollen wir im folgenden die Matrix A als symme-
trisch voraussetzen. Außerdem soll A nicht die Nullmatrix sein. Die Menge
M = {x ∈ K n | f (x) = 0}
heißt die durch f bestimmte affine Quadrik (oder auch Hyperfläche zweiter
Ordnung, auch zweiten Grades).
Zur geometrischen Untersuchung der Quadriken nimmt man den Stand-
punkt ein, daß geometrische Eigenschaften durch (geeignete) Koordinatentrans-
formationen nicht verändert werden. Wie schon früher dargelegt, muß man
auch hier unterscheiden, ob man sich durch Koordinatentransformation eine
neue Funktion verschafft, deren Nullstellenquadrik man untersucht, oder ob
man die Nullstellenquadrik M von f abbildet und das Bild untersucht.
Die allgemeinsten Abbildungen (bzw. Koordinatentransformationen), die
wir in diesem Zusammenhang betrachten, sind die affinen:
ϕ : K n → K n , x 7→ Sx + t,
(mit neuen di , d). Sind dk+1 , . . . , dn = 0, so hören wir auf zu denken. An-
dernfalls sei d` 6= 0 und ` mininal mit dieser
P Eigenschaft. Wir wählen neue
Koordinaten xi = ui für i 6= ` und u` = di xi . Die transformierte Funktion
hat die Gestalt
Pk
q(u) = i=1 λi u2i + λuk+1 + d.
Wir können kann noch λi um ein Quadrat abändern und uk+1 mit einer Kon-
stanten 6= 0 multiplizieren. Damit haben wir gewisse Normalformen von qua-
dratischen Funktionen bei affinen Koordinatentransformationen gewonnen.
Sei nun K = R der Körper der reellen Zahlen. Dann können wir zunächst
nach dem Satz über Hauptachsentransformationen die Matrix A durch eine or-
thogonale Matrix S diagonalisieren. Sodann können wir bei dem zuletzt durch-
geführten Übergang von x nach u etwas vorsichtiger sein und ein Vielfaches von
(dk+1 , . . . , dn ) im Raum der letzten (n − k) Koordinaten als Basisvektor einer
Orthonormalbasis verwenden, um diesen Übergang als orthogonale Abbildung
zu erhalten. Insgesamt erhalten wir:
Pk Pk Pk
i=1 λi x2i , i=1 λi x2i − 1, i=1 λi x2i − 2xk+1
|x|2 − |y|2 = 0
(4.2) |x|2 − |y|2 = 1 x ∈ Rr , y ∈ Rs , z ∈ R .
|x|2 − |y|2 = 2z
Hierbei haben wir in x die Komponenten mit positivem λ, in y die mit ne-
gativem λ zusammengefaßt; es darf natürlich r oder s gleich Null sein. Die
Koordinaten, die in der Gleichung nicht vorkommen, sind frei wählbar.
Nun zur Veranschaulichung einige Beispiele. Wir gehen von den Gleichungen
(4.2) aus.
138 7 Beispiele und Anwendungen
(1) −y 2 = 1
(2) x2 = 0 −y 2 = 0
(3) x2 = 1
2
(4) x − 2y = 0 −x2 − 2y = 0
(5) x2 − y 2 = 0
(6) x2 − y 2 = 1
(7) −x2 + y 2 = 0
(8) x2 + y 2 = 1.
Die zugehörigen Nullstellenmengen (Quadriken) sind: (1) leere Menge; (2) eine
Gerade ( doppelt zu zählen“); (3) ein Paar paralleler Geraden x = 1, x = −1;
”
(7) ein Punkt. Alle die Fälle sind mehr oder weniger degeneriert. (5) Zwei sich
schneidende Geraden. (4) Parabel. (6) Hyperbel. (8) Kreis (Ellipse). Die letzten
drei Fälle sind die regulären. 3
Für n = 3 sind die Quadriken, bis auf die degenerierten Fälle, Flächen im
Raum. Wir verwenden x, y, z als Koordinaten. Falls z in den Gleichungen nicht
vorkommt, so hat man die (x, y)-Lösungsmenge mit der z-Achse cartesisch zu
multiplizieren. So liefert x2 + y 2 = 1 einen Zylinder und x2 − y 2 = 0 zwei sich
schneidende Ebenen etc.
Wir betrachten deshalb nur die Fälle, in denen alle drei Unbestimmten in
den Gleichungen vorkommen“ und deren Lösungsmengen Flächen sind.
”
(7.4.3) Quadriken im R3 . Es bleiben folgende Fälle übrig:
(1) x2 + y 2 − z 2 = 0
(2) x2 + y 2 + z 2 = 1
(3) x2 + y 2 − z 2 = 1
(4) x2 − y 2 − z 2 = 1
(5) x2 + y 2 − 2z = 0
(6) x2 − y 2 − 2z = 0
gekrümmte. Die entstehende Fläche heißt Sattelfläche. Der Nullpunkt ist der
Sattelpunkt. Die beiden Geraden x = y, z = 0 und x = −y, z = 0 liegen in der
Fläche und gehen durch den Sattelpunkt. Schneidet man die Sattelfläche in der
Höhe z parallel zur (x, y)-Ebene, so entstehen als Höhenlinien Hyperbeln (für
z 6= 0) oder die beiden genannten Geraden.
Trotz ihrer augenfälligen Krummheit enthalten einige dieser Flächen ganze
Scharen von Geraden.
Die Sattelfläche z = x2 − y 2 = (x + y)(x − y) enthält die Geradenscharen I
und II:
I x + y = a, a(x − y) = z
II x − y = a, a(x + y) = z
Für festes a ∈ R definieren die beiden Gleichungen in I eine Gerade im R3 ,
denn die Matrix
1 1 0
a −a −1
hat immer den Rang 2. Und durch Multiplikation dieser Gleichungen erkennt
man, daß die Geraden in der Fläche enthalten sind. Analog im Fall II. Für ver-
schiedene a ∈ R sind die zugehörigen Geraden disjunkt, denn zwei Gleichungen
x + y = a, x + y = b können für a 6= b nicht gleichzeitig bestehen. Jeder Punkt
der Fläche liegt auf genau einer der Geraden in jeder Schar, denn der Parameter
a der Schar läßt sich aus den Koordinaten des Punktes berechnen. Jede Gerade
der ersten Schar schneidet jede Gerade der zweiten in genau einem Punkt, denn
x + y = a, x − y = b hat immer genau eine Lösung und, einmal gelöst, errechnet
sich der zugehörige z-Wert. Man kann die Punkte der Fläche also durch die zu-
gehörigen Parameter (a, b) der (ersten, zweiten) Schar beschreiben. Die Fläche
läßt sich durch diese Koordinatisierung umkehrbar eindeutig (und stetig) auf
R × R abbilden.
In ähnlicher Weise läßt sich das einschalige Hyperboloid durch zwei Gera-
denscharen beschreiben. Wir beschreiben es durch die Gleichung
hat immer den Rang 2. Natürlich liefern (λ, µ) und (αλ, αµ) für α 6= 0 dieselbe
Gerade. Für λµ 6= 0 sieht man durch Multiplikation der Gleichungen sofort,
daß die Geraden in der Fläche enthalten sind. Aber auch für etwa µ = 0 ist
die Gerade x + z = 0, 1 + y = 0 in der Fläche enthalten. Der Schnittpunkt der
(λ, µ)-Gerade mit der (x, y)-Ebene ist der Punkt
µ2 − λ2
2λµ
(x, y) = ,
µ2 + λ2 µ2 + λ2
auf dem Einheitskreis. Es liefern (λ, µ) und (λ0 , µ0 ) genau dann denselben Punkt
auf dem Einheitskreis, wenn α(λ, µ) = (λ0 , µ0 ) für ein α 6= 0 gilt. Demnach
ist die Gerade der Schar durch diesen Punkt bestimmt. Ähnlich wie bei der
Sattelfläche folgt nun: Jeder Punkt der Fläche liegt auf genau einer Geraden der
Schar, denn (λ, µ) kann bis auf einen konstanten Faktor durch die Koordinaten
(x, y, z) aus den Schargleichungen bestimmt werden.
Zu jeder Geraden der einen Schar gibt es eine der anderen, die dazu parallel
ist. Solche Ausnahmefälle kann man nur durch Hinzufügen unendlich ferner
Punkte beseitigen.
ist bilinear.
Die quadratischen Formen auf V bilden einen Vektorraum QF (V ), als Teilraum
von Abb(V, K). Ein Paar (V, q) mit einer quadratischen Form q auf V heißt
quadratischer Raum. Die zu q gehörende Form sq heißt Polarisierung von q.
Ist s : V × V → K eine Bilinearform, so ist qs : v 7→ s(v, v) eine quadratische
Form. Sei BF (V ) der Vektorraum der Bilinearformen auf V . Durch s 7→ qs
erhalten wir eine lineare Abbildung
Ω : BF (V ) → QF (V ).
7.5 Quadratische Formen 141
0 / SF (V ) ⊂
/ BF (V ) 1−τ
/ BF (V ) Ω / QF (V ) /0
ist exakt.
Beweis. Die Exaktheit an den Stellen SF (V ) und dem linken BF (V ) folgt
unmittelbar aus den Definitionen; ebenso die Relation Ω ◦ (1 − τ ) = 0.
Für den Beweis der Surjektivität von Ω leiten wir eine Matrixbeschreibung
einer quadratischen Form q mit zugehöriger Bilinearform s = sq her. Seien
v1 , . . . , vn ∈ V und λ1 , . . . , λn ∈ K. Dann folgt aus den definierenden Eigen-
schaften (1), (2) einer quadratischen Form durch Induktion nach n
Pn Pn
q( j=1 λj vj ) = j=1 λ2j q(vj ) + i<j λi λj s(vi , vj ).
P
Ist (v1 , . . . , vn ) eine Basis von V , so betrachten wir zu gegebenem q die Biline-
arform s mit der Matrix S = (ai,j )
aii = q(vi )
aij = sq (vi , vj ) i < j
aij = 0 i > j.
Dann ist nach der obigen Formel q = qs . Folglich ist Ω surjektiv. Angenommen,
Ωs = 0, d. h. für alle x ∈ V gilt s(x, x) = 0. Daraus folgt s(x, y) = −s(y, x) für
alle x, y ∈ V . Definieren wir eine Bilinearform t durch die Matrix
t(vi , vi ) = 0
t(vi , vj ) = s(vi , vj ) i < j
t(vi , vj ) = 0 i > j,
so ist (1−τ )(t) = s. Damit sehen wir auch die Exaktheit am rechten BF (V ). 2
Das Bild von 1−τ in BF (V ) besteht aus den alternierenden Bilinearformen.
Oft werden quadratische Formen und symmetrische Bilinearformen mitein-
ander verglichen. Die linearen Abbildungen
Φ : QF (V ) → SF (V ), q 7→ sq
142 7 Beispiele und Anwendungen
Ψ : SF (V ) → QF (V ), s 7→ qs
erfüllen die Relationen
(7.6.1) Satz. Sei v1 , . . . , vn eine C-Basis von V . Dann ist v1 , iv1 , . . . , vn , ivn
eine R-Basis von VR .
2 dimC V = dimR VR .
λu = au + bJu
7.6 Reelle und komplexe Strukturen 143
(U, J)R = U.
Eine komplexe Struktur kann es auf U natürlich nur dann geben, wenn dimR U
gerade ist.
Ist V ein C-Vektorraum, so trägt U = VR eine komplexe Struktur J,
die durch Ju = iu gegeben wird, und es ist V = (U, J) nach Konstrukti-
on. Sind (U1 , J1 ) und (U2 , J2 ) R-Vektorräume mit komplexer Struktur und ist
f : U1 → U2 eine R-lineare Abbildung, die J2 f = f J1 erfüllt, so ist dieselbe
Mengenabbildung eine C-lineare Abbildung
f : (U1 , J1 ) → (U2 , J2 ).
(λ, v) 7→ λv.
dimR U = dimC UC .
ist R-linear und offenbar injektiv, also ein R-Isomorphismus. Man rechnet nach,
daß sie mit den jeweiligen komplexen Strukturen verträglich ist. 2
(7.6.5) Bemerkung. Vektorräume gleicher Dimension über einem Körper
sind isomorph. Im allgemeinen kann man aber einen Isomorphismus nur durch
Auswahl von Basen herstellen. Gibt es einen ausgezeichneten, basisfrei definier-
ten Isomorphismus, so nennt man diesen kanonisch. Die Räume V und V (bzw.
V und V ∗ ) sind isomorph, aber nicht kanonisch. 3
Ist f : V → V 0 eine C-lineare Abbildung, sind c, c0 reelle Strukturen auf
V, V 0 und gilt f c = c0 f , so induziert f Abbildungen f+ : V+ → V+0 , f− : V− →
V−0 , die R-linear sind. Bezüglich der Isomorphismen in (7.6.3) wird (f+ )C in
f überführt. Ein Unterraum W von V heißt c-reell, wenn cW ⊂ W ist. Es
induziert dann c eine reelle Struktur auf W , und es gilt W+ = W ∩ V+ .
Wir geben nun noch einen zweiten Beweis für den Normalformensatz or-
thogonaler Matrizen, der darauf beruht, eine orthogonale Abbildung zunächst
als unitäre aufzufassen, diese dann zu diagonalisieren und das Ergebnis ins
Reelle zurückzurechnen. Zunächst behandeln wir den allgemeinen Fall von Ei-
genraumzerlegungen.
Endomorphismen reeller Vektorräume haben nicht immer Eigenwerte. In
diesem Fall betrachten wir zunächst die Komplexifizierung, zerlegen sie in Ei-
genräume und rechnen danach auf das Reelle zurück. Wir behandeln hier nur
den Fall, in dem eine Eigenraumzerlegung existiert.
(7.6.6) Satz. Sei V ein C-Vektorraum mit reeller Struktur c. Sei f : V → V
eine C-lineare Abbildung, die f c = cf erfüllt. Sei λ Eigenwert von f und V (λ)
der zugehörige Eigenraum. Sei U = V+ und h = f+ : U → U . Dann gilt:
(1) Ist λ reell, so ist V (λ) ein c-reller Unterraum von V ; es ist λ Eigenwert
von h und U (h, λ) = V (λ)+ .
(2) Ist λ nicht reell, so ist auch λ̄ Eigenwert. Es ist V (λ) ⊕ V (λ̄) c-
reeller Unterraum von V . Es induziert c einen R-linearen Isomorphis-
mus V (λ) → V (λ̄). Der Unterraum (V (λ) ⊕ V (λ̄))+ =: U {λ, λ̄} ⊂ U
wird durch h in sich abgebildet.
(3) Ist V direkte Summe der V (λ1 ), . . . , V (λr ), V (µ1 ), V (µ̄1 ), . . . , V (µs ),
V (µ̄s ) mit reellen λj und nicht-reellen µj , so ist U direkte Summe der
Beweis. Sei x ∈ V (λ). Wegen f (c(x)) = cf (x) = c(λx) = λ̄c(x) ist also c(x) ∈
V (λ̄). Damit folgt (1) und (2). Ist allgemein V = V 0 ⊕V 00 eine direkte Zerlegung
in c-reelle Unterräume, so wird eine direkte Zerlegung V+ = V+0 ⊕ V+00 induziert.
Damit folgt (3). 2
Sei V direkte Summe von Eigenräumen. Ist b1 , . . . , bt Basis von V (λ), so ist
c(b1 ), . . . , c(bt ) Basis von V (λ̄). Wir können deshalb eine Zerlegung
U = V (1)+ ⊕ · · · ⊕ W (`)+
in reell ein- bzw. zweidimensionale Unterräume, die durch h = f+ in sich ab-
gebildet werden. Es hat W (j)+ die Basis
1 1
√ (bj + cbj ) = aj (1), √ (ibj − icbj ) = aj (2)
2 2
und bezüglich dieser Basis hat h : W (j)+ → W (j)+ die Matrix
αj −βj
, αj = Re µj , βj = Im µj .
βj αj
Dia(λ1 , . . . , λr , M1 , . . . , M` )
7.6 Reelle und komplexe Strukturen 147
ist. Mit anderen Worten: Es gibt S ∈ GL(n, R), so daß SAS −1 diese Form hat.
Wir kommen nun zu den Anwendungen auf orthogonale Abbildungen. Sei
β : V × V → C eine hermitesche Form auf einem C-Vektorraum V . Dann ist
sβ = s : VR × VR → R, (u, v) 7→ Re β(u, v) eine symmetrische Bilinearform.
Ist β regulär, so auch sβ . Ist β positiv definit, so auch sβ . Ist v1 , . . . , vn eine
Orthonormalbasis bezüglich β, so ist v1 , iv1 , . . . , vn , ivn eine Orthonormalbasis
bezüglich s; denn β(vj , ivj ) = −iβ(vj , vj ) hat den Realteil 0. Ist f : V → V
unitär bezüglich β, so ist fR orthogonal bezüglich sβ . Deshalb wird ein Homo-
morphismus
r : U (n) → SO(2n)
induziert. Für n = 1 erhält man speziell einen Isomorphismus
iϕ cos ϕ − sin ϕ
r : U (1) → SO(2), e 7→ .
sin ϕ cos ϕ
Sei nun A ∈ O(n). Wie eben fassen wir A als Endomorphismus von Cn mit
reeller Struktur c(z1 , . . . , zn ) = (z̄1 , . . . , z̄n ) auf. Wir können A auch als unitäre
Matrix ansehen. Es gibt deshalb eine Orthonormalbasis des Cn bezüglich der
hermiteschen Standardform aus Eigenvektoren a1 , . . . , ak , b1 , cb1 , . . . , b` , cb` von
A. Die daraus nach dem eben beschriebenen Verfahren gebildete Basis
Anhang
f : A → B, a 7→ f (a) = f a.
Manchmal schreiben wir auch f neben oder über den Pfeil. Dabei heißt A der
Definitionsbereich oder die Quelle der Abbildung, B der Bildbereich oder
das Ziel der Abbildung. Die Vorschrift“ ist durch die Teilmenge
”
{(a, b) | b = f (a), a ∈ A} ⊂ A × B
besteht. In einigen Fällen sind auch Worte wie Operator oder Funktional
gebräuchlich. Die Abbildung A × B → A, (a, b) 7→ a heißt Projektion auf
den Faktor A; analog hat man für ein beliebiges cartesisches Produkt die
Projektionen auf die Faktoren. Die Abbildung id(A) = id : A → A, a 7→ a
heißt die identische Abbildung von A. Zu einer Inklusion A ⊂ B gehört die
Abbildung i : A → B, a 7→ a, die wir ebenfalls Inklusion nennen und auch
mit i : A ⊂ B mißbräuchlich bezeichnen. Eine gegebene Abbildung f : B → Y
besitzt die Einschränkung f ◦ i : A → Y auf die Teilmenge A ⊂ B, die auch
f |A notiert wird.
Die Verkettung der Abbildungen f : A → B und g : B → C ist die Abbil-
dung A → C, die a auf g(f (a)) abbildet; sie wird mit gf oder g ◦ f bezeich-
net. Oft hat man eine größere Anzahl von Abbildungen und Verkettungen zu
notieren. Das geschieht übersichtlich in einem Diagramm, welches aus den
Abbildungspfeilen, ihren Quellen und Zielen besteht. Führen alle möglichen
Verkettungen zwischen festen Stellen in einem Diagramm immer zum gleichen
Ergebnis, so sagen wir, das Diagramm sei kommutativ oder es kommutiere.
Zum Beispiel ist ein Rechteck
A
f
/B
g h
C
i /D
mag); sie wird mit |M | bezeichnet. Eine Menge heißt abzählbar unendlich,
wenn es eine Bijektion zur Menge der natürlichen Zahlen gibt.
Eine Äquivalenzrelation auf einer Menge A ist eine Teilmenge R ⊂ A×A
mit den folgenden Eigenschaften:
(1) Für jedes a ∈ A ist (a, a) ∈ R.
(2) Ist (a, b) ∈ R, so ist auch (b, a) ∈ R.
(3) Ist (a, b) ∈ R und (b, c) ∈ R, so ist auch (a, c) ∈ R.
Ist R solch eine Äquivalenzrelation, so schreibt man a ∼ b für (a, b) ∈ R und
sagt in diesem Fall, a ist äquivalent zu b bezüglich oder modulo dieser Re-
lation. Die Menge K(a) = {b | a ∼ b} heißt die Äquivalenzklasse von a.
Genau dann gilt K(a) = K(b), wenn a ∼ b ist. Die Menge der Äquivalenz-
klassen wird mit A/R bezeichnet und A modulo R gelesen. Die Abbildung
p : A → A/R, a 7→ K(a) heißt die Quotientabbildung der Äquivalenzrelati-
on. Es ist eine surjektive Abbildung. Die Menge A ist die disjunkte Vereinigung
der Äquivalenzklassen. Ist irgendeine disjunkte Zerlegung von A in nichtleere
Teilmengen gegeben, so gibt es genau eine Äquivalenzrelation auf A, deren
Äquivalenzklassen genau die Mengen dieser Zerlegung sind. Ist f : A → B eine
surjektive Abbildung, so bilden die Urbilder der Elemente von B solch eine
disjunkte Zerlegung. Ein Element einer Äquivalenzklasse wird Repräsentant
dieser Klasse genannt. Ist p : A → A/R die Quotientabbildung einer Äqui-
valenzrelation und f : A → B eine Abbildung, so gibt es genau dann eine
Abbildung g : A/R → B mit der Eigenschaft g ◦ p = f , wenn f die Äquiva-
lenzklassen von R auf einelementige Mengen abbildet. Man definiert g durch
g(K(a)) = f (a) und sagt, die Definition sei unabhängig von der Auswahl des
Repräsentanten oder kurz und salopp: g ist wohldefiniert 2 . Es gibt also drei
im wesentlichen gleichwertige Erscheinungsformen von Äquivalenzrelationen:
Die Relation R, die disjunkte Zerlegung in Klassen, die surjektive Abbildung
auf die Menge der Klassen.
Der Durchschnitt von Äquivalenzrelationen auf A, aufgefaßt als Teilmengen
von A × A, ist wieder eine. Zu jeder beliebigen Teilmenge S ⊂ A × A gibt
es deshalb eine kleinste S umfassende Äquivalenzrelation, genannt die von S
erzeugte. Sind R1 und R2 Äquivalenzrelationen auf A und gilt R1 ⊂ R2 , so
heißt R1 feiner als R2 und R2 gröber als R1 . Die feinste Äquivalenzrelation
ist die Gleichheit; die zugehörige Teilmenge von A × A ist die Diagonale
{(a, a) | a ∈ A} von A × A.
Allgemein wird eine Teilmenge R ⊂ A × A als eine (zweistellige) Relation
auf A bezeichnet. Die Idee dabei ist, daß R diejenigen Paare (a, b) aussondert,
die in einer jeweils festgelegten Beziehung (Relation) zueinander stehen. Meist
haben Relationen ihre eigene Notation, zum Beispiel a < b, a kleiner als b. In
diesem Fall besteht R aus den Paaren (a, b), für die a < b gilt.
Zeilenindex, 33 Permutationsgruppe, 55
Zeilenrang, 45 Polarsierung, 140
Zeilenstufenform, 51 positiv definit, 67, 80
Zeilenvektor, 33 Produkt von Vektorräumen, 26
Matrix von f bezüglich B, C, 34 Produktsatz für Determinanten, 59
Matrizen Projektion, 25
ähnlich, 42 Projektion auf den Faktor A, 150
äquivalent, 42 Projektionsoperator, 25
grob-äquivalent, 42 projektive Quadrik, 111
konjugiert, 42 projektive
Matrizenprodukt, 35 projektiver Raum, 106
Menge, 148 projektives Koordinatensystem, 113
linear abhängig, 14 Projektivität, 112
linear unabhängig, 14 Punkt
Minkowski-Raum, 92, 97 eines affinen Raumes, 101
Monomorphismus, 20 Punkte
in allgemeiner Lage, 113
Norm, 68, 72, 80 unabhängig, 113
Normalform
jordansche, 119 Quader, 61
Nullelement, 7 quadratische Form, 140
Nullmatrix, 38 quadratische Verfeinerung, 142
Nullraum, 12 quadratischer Raum, 140
Nullstelle, 63 Quadrik, 83
Nullvektor, 12 projektive, 111
Quaternionen, 128
Operator, 150 C-Standardbasis, 129
Ordnung eines Gruppenelementes, 9 R-Standardbasis, 129
Orientierung, 62 euklidisches Skalarprodukts, 129
kanonische, 62 Konjugation, 128
orthogonal, 87, 88 Multiplikationsregeln, 129
orthogonale Gruppe, 73 reine, 129
orthogonale Projektion, 71 unitäres Skalarprodukt, 129
orthogonale Summe, 88 Zentrum, 130
orthogonales Komplement, 71 Quelle, 149
Orthogonalsystem, 70 Quotientabbildung, 29, 151
Orthonormalbasis, 70, 89 Quotientraum, 30
Orthonormalisierungsverfahren, 70
Orthonormalsystem, 70 Radikal, 88
Rang einer linearen Abbildung, 21
Parsevalsche Ungleichung, 70 Rang einer Matrix, 46
Permutation, 55 Raum
gerade, 55 affiner, 101, 102
Signum, 55 projektiver, 106
Transposition, 55 Realteil, 5
ungerade, 55 rechtsinvers, 23
Vorzeichen, 55 reelle Struktur, 143
156 INDEX
Vereinigung, 149
Vergangenheitskegel, 98
Verkettung, 150
Verknüpfung, 5
assoziativ, 5
kommutativ, 6
neutrales Element, 6
Vielfachheit, 63
Volumen, 62
Winkel, 69
wohldefiniert, 151
Zahl
Betrag, 5
komplexe, 5
Imaginärteil, 5
konjugierte, 5
Realteil, 5
Norm, 5
Zahlen, 4
ganze, 4
komplexe, 4
natürliche, 4
rationale, 4
reelle, 4
Zeilenrang, 45
Zeilenumformungen, 51
Zentralprojektion, 112
Zentrum, 130
Ziel, 149
Zukunftskegel, 98