0% fanden dieses Dokument nützlich (0 Abstimmungen)
52 Ansichten157 Seiten

Lineare Algebra: Tammo Tom Dieck

Hochgeladen von

Jose Luis Wagener
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
52 Ansichten157 Seiten

Lineare Algebra: Tammo Tom Dieck

Hochgeladen von

Jose Luis Wagener
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Lineare Algebra

Tammo tom Dieck

Mathematisches Institut

Universität Göttingen

Version vom 7. Oktober 2014


Inhaltsverzeichnis

1 Vektorräume und lineare Abbildungen 4


1.1 Vorbereitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Basis. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5 Summen und Produkte . . . . . . . . . . . . . . . . . . . . . . . 24
1.6 Quotienträume . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2 Matrizen 32
2.1 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3 Basiswechsel. Koordinatentransformation . . . . . . . . . . . . 41
2.4 Lineare Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . 47

3 Determinanten 54
3.1 Determinantenformen . . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Determinante einer Matrix . . . . . . . . . . . . . . . . . . . . . 57
3.3 Volumen. Orientierung . . . . . . . . . . . . . . . . . . . . . . . 61
3.4 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . 63

4 Bilineare Abbildungen 66
4.1 Hilbert-Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Isometrien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3 Selbstadjungierte Endomorphismen . . . . . . . . . . . . . . . . 79
4.4 Bilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 83
4.5 Adjungierte Endomorphismen . . . . . . . . . . . . . . . . . . . 86
4.6 Geometrische Bilinearformen . . . . . . . . . . . . . . . . . . . 87
4.7 Bilinearformen auf reellen Vektorräumen . . . . . . . . . . . . . 89
4.8 Die Lorentz-Gruppe . . . . . . . . . . . . . . . . . . . . . . . . 92

5 Affine und projektive Räume 101


5.1 Affine Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2 Projektive Räume . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.3 Projektivitäten . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Inhaltsverzeichnis 3

6 Normalformen 116
6.1 Zyklische Endomorphismen . . . . . . . . . . . . . . . . . . . . 116
6.2 Nilpotente Endomorphismen . . . . . . . . . . . . . . . . . . . 117
6.3 Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . 119
6.4 Normalformen für Zwei-mal-zwei Matrizen . . . . . . . . . . . . 120

7 Beispiele und Anwendungen 124


7.1 Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
7.2 Quaternionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
7.3 Quaternionen und orthogonale Gruppen . . . . . . . . . . . . . 131
7.4 Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.5 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . . . . 140
7.6 Reelle und komplexe Strukturen . . . . . . . . . . . . . . . . . 142

8 Anhang 148
8.1 Die Mengensprache . . . . . . . . . . . . . . . . . . . . . . . . . 148

Index 152
Kapitel 1

Vektorräume und lineare


Abbildungen

1.1 Vorbereitungen
Ein Grundbegriff der linearen Algebra ist der Begriff eines Vektorraums über
einem Körper. Um ihn zu formulieren, verwenden wir den Begriff einer Grup-
pe und den eines Körpers. Obgleich es sich dabei um wichtige Begriffe der
Mathematik handelt, mit eigenen umfangreichen Theorien, werden in diesem
einleitenden Abschnitt lediglich die Vokabeln bereitgestellt.

(1.1.1) Zahlen. Die Algebra ist aus dem Zahlenrechnen und seinen Gesetzen
entstanden. Eine elementare Kenntnis der Zahlen wird unterstellt.
Einige Mengen von Zahlen werden im vorliegenden Text mit Standardsym-
bolen notiert:

N = {1, 2, 3, . . .} Menge der natürlichen Zahlen


N0 = {0, 1, 2, . . .} Menge der natürlichen Zahlen einschließlich der Null
Z = {0, ±1, ±2, . . .} Menge der ganzen Zahlen
Q = Menge der rationalen Zahlen (Brüche)
R = Menge der reellen Zahlen
C = Menge der komplexen Zahlen.

Die historische Entwicklung des Zahlbegriffs und seine axiomatische Grundle-


gung sind es jedoch wert, genauer angeschaut zu werden. Dazu sei ein Blick in
das reichhaltige und anregende Buch Zahlen1 empfohlen. 3
1 Ebbinghaus et. al: Zahlen (Grundwissen Mathematik 1). Springer-Verlag, Berlin Heidel-

berg 1983.
1.1 Vorbereitungen 5

(1.1.2) Komplexe Zahlen. Wir notieren noch einige Einzelheiten über die
komplexen Zahlen. Für die gesamte Mathematik ist bekanntlich die Erweite-
rung des Bereichs der reellen Zahlen zu den komplexen Zahlen von grundlegen-
der Bedeutung.
Keine reelle Zahl x genügt der Gleichung x2 + 1 = 0. Man erfindet eine neue
Zahl i, für die i2 = −1 gilt, bildet mit reellen Zahlen a und b Ausdrücke a + bi,
addiert zwei solche gemäß der Regel

(a + bi) + (c + di) = (a + c) + (b + d)i

und multipliziert sie gemäß der Regel

(a + bi)(c + di) = (ac − bd) + (ad + bc)i.

Man rechnet also einfach wie gewohnt, wobei jedoch immer wenn i2 vorkommt,
dafür −1 gesetzt wird. Man nennt z = a + bi eine komplexe Zahl, a = Re(z)
ihren Realteil, b = Im(z) ihren Imaginärteil und i die imaginäre Einheit. Die
Gesamtheit der komplexen Zahlen wird mit C bezeichnet. Geometrisch wird
z = a + bi als Punkt (a, b) ∈ R2 der Zahlenebene veranschaulicht. Geometrisch
wird die Addition durch die berühmte Parallelogrammregel dargestellt. Die
Zahl z = a − bi heißt die zu z = a + bi konjugierte Zahl (Spiegelung an der
reellen Achse). Es gelten die Regeln u + v = u + v und u · v = u · v. Wegen
z·z = (a+bi)(a−bi) = a2 +b2 setzen wir z·z = |z|2 und nennen |z| ≥ 0 die Norm
oder den Betrag von z. Diese Zahl ist der elementar-geometrische Abstand von
z vom Nullpunkt. Es gelten die Dreiecksungleichung |u + v| ≤ |u| + |v| sowie
|uv| = |u||v|. 3

iR
6z + p w
p pp p p p p p
6
p p
pp ppp
p p ppp  pp w
Im(z) = ib r z = a + bi p p p 
ppp

z pp

3 
 
 I
@@ 
r r - R @r

 -
Re(z) = a

Die Ebene C Parallelogrammregel


Für die vorstehend genannten Zahlenmengen verfügt man jeweils über die
Addition und die Multiplikation. Die zugehörigen Rechenregeln formulieren wir
nun ganz allgemein.
(1.1.3) Verknüpfungen. Eine Verknüpfung auf einer Menge G ist eine Ab-
bildung m : G × G → G. Eine Verknüpfung m auf G heißt assoziativ, wenn für
6 1 Vektorräume und lineare Abbildungen

je drei Elemente a, b, c aus G die Gleichheit m(a, m(b, c)) = m(m(a, b), c) be-
steht. Formeln dieser Art lassen sich schlecht lesen. Wenn wir eine Verknüpfung
abgekürzt als Multiplikation m(a, b) = a · b = ab notieren, so lautet also das
Assoziativgesetz a(bc) = (ab)c. Statt verknüpfen“ sagen wir bei dieser Be-

zeichnungsweise auch multiplizieren“. Eine Verknüpfung m heißt kommutativ,

wenn für je zwei Elemente a, b aus G die Gleichheit m(a, b) = ab = ba = m(b, a)
besteht. Ein Element e ∈ G heißt neutrales Element der Verknüpfung m, wenn
für alle x ∈ G die Gleichungen m(e, x) = ex = x = xe = m(x, e) gelten. Sind e
und f neutral, so folgt e = ef = f . Also hat eine Verknüpfung höchstens ein
neutrales Element. 3

(1.1.4) Beispiel. Sei G eine der sechs in (1.1.1) genannten Mengen. Dann ist
jeweils die Addition und die Multiplikation eine Verknüpfung auf dieser Menge,
und diese Verknüpfungen sind assoziativ und kommutativ.
Auf der Menge N = {1, 2, 3, 4, . . .} hat die Multiplikation ein neutrales Ele-
ment, die Eins; die Addition hat jedoch kein neutrales Element. Wie verhalten
sich diesbezüglich Addition und Multiplikation auf der Menge N0 ? 3

(1.1.5) Gruppen. Eine Gruppe besteht aus einer Menge G und einer Ver-
knüpfung m auf G, so daß die folgenden Axiome gelten:
(1) Die Verknüpfung ist assoziativ.
(2) Die Verknüpfung besitzt ein neutrales Element e ∈ G.
(3) Zu jedem a ∈ G gibt es ein b ∈ G, so daß m(b, a) = e = m(a, b) ist.
Ist (G, m) eine Gruppe, so heißt m eine Gruppenstruktur auf der Menge G.
Wenn die Verknüpfung als Multiplikation geschrieben wird, so nennen wir
m auch Gruppenmultiplikation. Eine Gruppe mit einer kommutativen Mul-
tiplikation wird kommutative Gruppe oder abelsche2 Gruppe genannt. In ei-
ner kommutativen Gruppe wird die Verknüpfung oft als Addition geschrieben,
m(a, b) = a + b; in diesem Fall sprechen wir natürlich von der Gruppenaddition.
Wir unterscheiden diese beiden Notationen auch dadurch, daß wir von additi-
ven und multiplikativen Gruppen reden. Es ist üblich, eine Gruppe (G, m) nur
durch die zugrundeliegende Menge G zu bezeichnen, insbesondere dann, wenn
man nicht mehrere Verknüpfungen unterscheiden muß. 3
In einer multiplikativen Gruppe schreiben wir das neutrale Element oft als
1 und nennen es das Einselement der Gruppe. Das bei gegebenem a ∈ G
eindeutig bestimmte Element b mit der Eigenschaft ab = 1 = ba nennen wir
das Inverse von a und bezeichnen es mit a−1 . In einer additiv geschriebenen
Gruppe ist das Inverse b von a durch die Gleichung a + b = 0 bestimmt;
wir schreiben in diesem Fall b = −a. Mit diesen Bezeichnungen gelten dann
die Rechenregeln 1 · a = a = a · 1 und a−1 · a = a · a−1 = 1. Ferner ist
(a−1 )−1 = a, und es gilt (a · b)−1 = b−1 · a−1 . Die Linksmultiplikation mit
2 Niels Henrik Abel 1802 – 1829
1.1 Vorbereitungen 7

a ∈ G ist die Abbildung l(a) : G → G, x 7→ ax. Die Gruppenaxiome besagen,


daß l(a)l(b) = l(ab) und l(e) = id (die identische Abbildung) ist. Es folgt, daß
l(a−1 ) die inverse Abbildung zu l(a) ist. Insbesondere ist l(a) immer bijektiv.
Da x 7→ ax bijektiv ist, so hat die Gleichung ax = b immer genau eine Lösung,
nämlich x = a−1 b; und aus ac = bc folgt a = b, das heißt man kann kürzen“.

In einer additiv geschriebenen abelschen Gruppe bezeichnen wir das neutra-
le Element mit 0 und nennen es das Nullelement der Gruppe. Man verwendet
die abkürzende Bezeichung a + (−b) = a − b. Es gelten dann −(−a) = a,
−b + a = a − b und −(a − b) = −a + b.
Eine nichtleere Teilmenge U einer Gruppe G heißt Untergruppe von G, wenn
aus x, y ∈ U immer xy ∈ U und x−1 ∈ U folgt. Dann ist nämlich offenbar die
Einschränkung U × U → U, (x, y) 7→ xy definiert und eine Gruppenstruktur
auf U .
Ein Homomorphismus der Gruppe G in die Gruppe H ist eine Abbildung
f : G → H, die f (ab) = f (a)f (b) erfüllt; es folgt dann f (1) = f (1 · 1) =
f (1) · f (1) also f (1) = 1 und f (1) = f (a · a−1 ) = f (a) · f (a−1 ) also
f (a−1 ) = (f (a))−1 . (Man sagt dann auch salopp, ein Homomorphismus re-

spektiert“ Einselemente und Inverse.) Ein bijektiver Homomorphismus heißt
Isomorphismus. Die Gruppen G und H heißen isomorph, wenn es einen Iso-
morphismus f : G → H gibt.
Wir verwenden die bekannte Schreibweise mit Potenzen in beliebigen mul-
tiplikativen Gruppen. Wir setzen also a0 = 1, a1 = a, a2 = a · a, an+1 = a · an ,
a−1 = (a−1 )n für n ∈ N0 . Es gilt dann die Regel am · an = am+n für beliebige
m, n ∈ Z. Das kann auch so formliert werden: Die Zuordnung Z → G, n 7→ an
ist ein Homomorphismus der additiven Gruppe Z in die multiplikative Gruppe
G.
Der trockenen Definition (1.1.3) ist natürlich nicht anzusehen, daß der Grup-
penbegriff einer der wichtigsten in der Mathematik ist. Wir werden im Verlauf
dieses Textes etliche Gruppen kennenlernen. (Eine Aufgabe der Gruppen ist es
übrigens, Symmetriestrukturen von mathematischen Objekten zu beschreiben,
was wir aber an dieser Stelle nicht erläutern.)

(1.1.6) Beispiele.
(1) Die ganzen Zahlen Z sind zusammen mit der Addition eine kommutative
Gruppe. Die Vielfachen {cz | z ∈ Z} einer ganzen Zahl c sind eine Untergruppe
darin.
(2) Die komplexen Zahlen vom Betrag 1 sind zusammen mit der Multi-
plikation eine kommutative Gruppe. In der geometrischen Interpretation der
komplexen Zahlen als Punkte der Ebene besteht diese Gruppe aus den Punk-
ten des Kreises vom Radius 1 um den Nullpunkt. In dieser Gruppe gibt es die
Untergruppe Cn = {ζ | ζ n = 1} der Zahlen, deren n-te Potenz gleich 1 ist
und die deshalb n-te Einheitswurzeln heißen (n ∈ N). Mit Hilfe der komple-
xen Exponentialfunktion lassen sich diese Zahlen als exp(2πik/n), 0 ≤ k < n
8 1 Vektorräume und lineare Abbildungen

darstellen. Zum Beispiel besteht C4 aus den Zahlen ±1, ±i.


(3) Die Abbildung Z → Cn , k 7→ exp(2πik/n) ist ein Homomorphismus der
additiven Gruppe Z auf die multiplikative Gruppe Cn .
(4) Die wesentliche Eigenschaft der berühmten Logarithmus-Funktion ist
es, ein Isomomorphismus zu sein, und zwar von der multiplikativen Gruppe
der positiven reellen Zahlen auf die additive Gruppe aller reellen Zahlen ( Ver-

wandlung der Multiplikation in die Addition“).
In vielen mathematischen Kontexten gibt es den Begriff Isomorphismus. Isomor-
phe Objekte sind dann im wesentlichen dieselben Dinge ( Dasselbe in Grün“). Unser

Beispiel zeigt aber, daß inhaltlich doch ein beträchlicher Unterschied bestehen kann
und man nicht blindlings ein Objekt durch ein isomorphes ersetzen kann.
(5) Nun noch eine abstrakte“ Gruppe. Sei X eine Menge. Die Menge S(X)

der bijektiven Abbildungen X → X ist mit der Verkettung von Abbildungen
eine Gruppe, nicht kommutativ, wenn X mehr als 2 Elemente enthält. 3

(1.1.7) Körper. Ein Körper ist eine Menge K zusammen mit zwei Ver-
knüpfungen

A : K × K → K, (x, y) 7→ x + y
M : K × K → K, (x, y) 7→ xy = x · y

mit den Eigenschaften (Körperaxiome)


(1) (K, A) ist eine abelsche Gruppe mit dem neutralen Element 0.
(2) (K r {0}, M ) ist eine abelsche Gruppe mit dem neutralen Element 1.
(3) Es gilt das Distributivgesetz a(b + c) = ab + ac.
(Wie üblich geht Punktrechnung“ (auch ohne Punkt) vor Strichrechnung“,
” ”
zur Vermeidung von Klammern.) Die Verknüpfung A ist die Addition und die
Verknüpfung M die Multiplikation des Körpers. Das Axiom (2) fordert un-
ter anderem, daß das Produkt zweier von Null verschiedener Elemente wieder
ungleich Null ist!
Einige einfache Folgerungen aus den Axiomen. Wegen der Kommutativität
der Multiplikation gilt auch das Distributivgesetz (b + c)a = ba + ca. Aus den
Gleichungen 0 · a = (0 + 0) · a = 0 · a + 0 · a folgt 0 = 0 · a und 0 = a · 0. Aus
0 = a · 0 = a · (b + (−b)) = a · b + a · (−b) folgt a · (−b) = −(a · b). Damit
ergibt sich (−a) · (−b) = −(a · (−b)) = −(−ab) = ab. Wir haben damit aus den
Körperaxiomen die Regel Minus mal Minus gleich Plus“ hergeleitet.

Eine nichtleere Teilmenge L von K heißt Unterkörper von K, wenn sie mit
a, b auch a + b und ab enthält und die dadurch bestimmten Verknüpfungen
L × L → L, (a, b) 7→ a + b, L × L → L, (a, b) 7→ ab die Körperaxiome erfüllen.
Aus a ∈ L folgt dann −a ∈ L und aus 0 6= b ∈ L folgt b−1 ∈ L. Das Einselement
von K ist auch das Einselement von L. 3
1.1 Vorbereitungen 9

(1.1.8) Beispiele. Die rationalen Zahlen Q, die reellen Zahlen R und die
komplexen Zahlen C, jeweils mit der üblichen Addition und Multiplikation
versehen, sind Körper. Für die ganzen Zahlen erfüllen die Addition und Multi-
plikation fast alle Körperaxiome, aber ±1 sind die einzigen ganzen Zahlen, die
ein Inverses bezüglich der Multiplikation haben. 3
(1.1.9) Beispiel. Wir wollen zumindest einen etwas exotischen Körper be-
schreiben, weil er in der linearen Algebra (und auch sonst) oft aus der Rolle
fällt. Ein Körper enthält die Elemente 0 und 1, und zwei so bezeichnete Ele-
mente bilden mit den Rechenregeln, die sich aus den Axiomen ergeben, schon
einen Körper. Natürlich ist dann 1 + 1 ein Körperelement; aus 1 + 1 = 1 würde
1 = 0 folgen, was in einem Körper nicht sein kann. Also ist 1 + 1 = 0. Wollte
man 1 + 1 mit 2 bezeichnen, so wäre 2 = 0. Oh weh!, aber warum nicht?
Diesen Körper kann man sich auch aus dem Zahlenrechnen erklären. Be-
kanntlich zerfallen die ganzen Zahlen in gerade und ungerade Zahlen. Mit den
Worten gerade“= g und ungerade“= u kann man rechnen, etwa g + u = u
” ”
oder u · u = u. Es entspricht dann g der Null und u der Eins. 3

Ergänzungen und Aufgaben


1. Gegeben sei eine Menge von Wandfarben. Eine Verknüpfung zweier Farben sei die
Mischung von gleichen Mengen dieser beiden Farben. Diese Verknüpfung ist kommu-
tativ aber nicht assoziativ. Man könnte eine Verknüpfung mit drei Variablen definie-
ren, indem man gleiche Teile dieser drei Farben mischt. Und so weiter.
2. In einem vollständig formalen Aufbau der Mathematik würde man über das Asso-
ziativgesetz beweisen müssen, daß jede sinnvolle Klammerung in einem Produkt von
vielen Faktoren dasselbe Ergebnis liefert. (So gibt es für vier Faktoren 5 Klammerun-
gen und für fünf Faktoren 14 Klammerungen. Ausprobieren!)
Ebenso müßte man für eine assoziative und kommutative Verknüpfung beweisen,
daß das Produkt von vielen Faktoren von der Reihenfolge der Faktoren nicht abhängt.
Wir wollen darüber an dieser Stelle nicht tiefsinnig werden.
3. Kann man von einer sinnvollen Klammerung von k Faktoren zu jeder anderen
dadurch gelangen, daß man das Assoziativgesetz mehrmals anwendet?
4. Die formalen Rechenregeln, um die wir uns meist nicht kümmern, haben durchaus
ihre Geheimnisse. Auf der Kugeloberfläche wähle man 14 Punkte geeignet und gebe
ihnen als Namen die sinnvollen Klammerungen von 5 Faktoren. Man verbinde zwei
Punkte durch eine sich selbst nicht kreuzende Linie, wenn sie auseinander durch
das Assoziativgesetz hervorgehen. Man kann dann die Gesamtheit dieser Linien so
zeichnen, daß sich je zwei nicht kreuzen. Zeichnung dazu?
5. Eine Untergruppe U der additiven Gruppe Z hat die Form {nc | n ∈ Z} für ein
eindeutig bestimmtes c ∈ N0 . Ist nämlich U 6= {0}, so ent hält U positive Zahlen; sei
c die kleinste davon. Ist k ∈ U , so dividieren wir k mit Rest 0 ≤ r < c, also k = qc + r.
Dann liegt r = n − qc in U und r > 0 würde der Minimalität von c wider sprechen.
6. Ist G eine Gruppe und a ∈ G, so bilden die n ∈ Z mit an = 1 eine Untergruppe U
von Z. Ist U 6= {0} und c ∈ U die kleinste Positive Zahle in U , so heißt c die Ordnung
10 1 Vektorräume und lineare Abbildungen

des Elementes a. Es gilt am = an genau dann, wenn m − n durch die Ordnung c


teilbar ist. √
7. Die rellen Zahlen der Form a+b 2 mit rationalen Zahlen a, b bilden einen Körper.
Einzig fraglich ist die Existenz von multiplikativen Inversen;

a b √
− 2 2
a2 − 2b 2 a − 2b 2


ist inverse zu a + b 2 6= 0. Der Nenner ist ungleich Null, weil 2 kein Quadrat in Q
ist.
8. Die Grundrechenarten in einem Körper sind Addition und Multiplikation. Die Sub-
traktion ist eine Konsequenz der Axiome. Durch ein von Null verschiedenes Körper-
element kann man dividieren: Man könnte ab−1 = b−1 a mit ab bezeichnen. Für die
üblichen Zahlen sind wir daran gewöhnt, aber auch allgemein gelten die Regeln des
Bruchrechnens
a c ab a c ad + bc
· = , + = .
b d cd b d bd
Wegen a · 0 = 0 kann (darf!) man durch Null nicht dividieren.

1.2 Vektorräume

(1.2.1) Vektorraum. Ein Vektorraum über einem Körper K besteht aus einer
Menge V und zwei Abbildungen

a: V × V → V , (v, w) 7→ a(v, w) = v + w
m: K × V → V , (λ, v) 7→ λ · v = λv

mit den Eigenschaften (Vektorraumaxiome):


(1) (V, a) ist eine additive Gruppe.
(2) Für λ1 , λ2 ∈ K und v ∈ V gilt λ1 (λ2 v) = (λ1 λ2 )v.
(3) Für λ ∈ K und v1 , v2 ∈ V gilt λ(v1 + v2 ) = λv1 + λv2 .
(4) Für λ1 , λ2 ∈ K und v ∈ V gilt (λ1 + λ2 )v = λ1 v + λ2 v.
(5) Für 1 ∈ K und v ∈ V gilt 1 · v = v.
Die Elemente aus V heißen Vektoren, die Elemente aus K (im Kontext der
Vektorräume) Skalare. Die Abbildung a heißt Addition von Vektoren. Die Ab-
bildung m heißt Multiplikation mit Skalaren. Die dritte und vierte Regel sind
ein Distributivgesetz. Das Paar (a, m) von Abbildungen wird Vektorraumstruk-
tur auf der Menge V genannt. Ein Vektorraum (V, a, m) wird meist nur durch
die zugrundeliegende Menge V bezeichnet. Wir sprechen auch von einem K-
Vektorraum, wenn ein Vektorraum über K gemeint ist. Der Hinweis auf den
Körper wird weggelassen, wenn er aus dem Kontext erkenntlich ist oder wenn
auf ihn nicht weiter hingewiesen werden muß. Ein Vektorraum über dem Körper
1.2 Vektorräume 11

der reellen (komplexen) Zahlen wird auch reeller (komplexer ) Vektorraum ge-
nannt. Das Paar (V, a) ist die additive Gruppe des Vektorraumes (V, a, m). 3
Der Körper K und die abelsche Gruppe (V, a) haben beide ihr eigenes Null-
element; geschrieben wird dafür aber beidemal 0; das ist ungenau, aber meistens
bequem. Es gelten nämlich die Rechenregeln 0·v = 0 und λ·0 = 0. Die erste folgt
so: Mit einem Distributivgesetz folgt 0·v = (0+0)·v = 0·v+0·v und dann durch
Kürzung in der Gruppe V die Behauptung. Ähnlich wird auf die zweite Regel
geschlossen. Wir schreiben x − y für x + (−y). Es gilt (−λ)x = λ(−x) = −(λx)
und speziell (−1)x = −x. Zum Beweis: λx + (−λx) = (λ + (−λ))x = 0 · x = 0,
und das bedeutet −(λx) = (−λ)x. Analog folgt die Gleichung λ(−x) = −(λx)
mit dem anderen Distributivgesetz.
Wir erläutern die Definition eines Vektorraumes mit dem wichtigsten Bei-
spiel:
(1.2.2) Der Standardvektorraum. Sei K ein Körper. Auf der Menge K n
der n-Tupel (x1 , . . . , xn ) von Elementen xi ∈ K haben wir die Struktur einer
abelschen Gruppe durch komponentenweise Addition

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )

und eine Multiplikation mit Skalaren

λ(x1 , . . . , xn ) = (λx1 , . . . , λxn ).

Aus den Körperaxiomen werden die Vektorraumaxiome unmittelbar nachge-


wiesen. Dieser Vektorraum wird kurz und bündig Der K n“ gerufen. Unter K 0

wollen wir den Nullraum verstehen.
Nach demselben Verfahren kann man noch größere Vektorräume herstellen.
Sei K ∞ der Vektorraum, der aus allen Folgen (x1 , x2 , x3 , . . .), xi ∈ K, besteht,
die nur endlich viele von Null verschiedene Einträge haben, und sei K ω der
Raum der aus allen Folgen dieser Art besteht (Addition und Skalarmultiplika-
tion weiterhin komponentenweise).
Siehe zu diesen Definitionen auch (1.2.5). 3

(1.2.3) Unterraum. Sei (V, a, m) ein Vektorraum über dem Körper K. Sei
U ⊂ V eine nichtleere Teilmenge mit den Eigenschaften a(U × U ) ⊂ U und
m(K × U ) ⊂ U .

U × U → U, (x, y) 7→ a(x, y) = x + y Addition


K × U → U, (λ, x) 7→ m(λ, x) = λ Skalarmultiplikation

auf U eine Vektorraumstruktur definiert, wie eine kurze Überlegung zeigt. Eine
Teilmenge zusammen mit dieser Struktur heißt Untervektorraum oder kurz
Unterraum von V . Wir sagen in diesem Fall, die Vektorraumstruktur auf U
12 1 Vektorräume und lineare Abbildungen

entstehe durch Einschränkung der auf V gegebenen Struktur, das heißt man
verwendet immer noch die gleiche Addition und Skalarmultiplikation, aber nur
für die Vektoren in U . 3

(1.2.4) Beispiele.
(1) Jeder Vektorraum V hat den nur aus dem Nullvektor bestehenden Un-
terraum, den sogenannten Nullraum oder trivialen Unterraum {0}, der auch
einfach mit 0 bezeichnet wird.
(2) Jeder Vektorraum ist ein Unterraum von sich selbst.
(3) Im Standardraum R3 sind die Geraden und die Ebenen durch den Null-
punkt Unterräume, und es gibt keine weiteren außer 0 und R3 , wie wir alsbald
sehen werden.
(4) Im Vektorraum Rω aller reellen Folgen bilden die konvergenten Folgen
einen Unterraum. Auch R∞ ist ein Unterraum. 3

(1.2.5) Beispiele (Funktionenräume).


(1) Sei A eine beliebige Menge und Abb(A, K) die Menge aller Abbildun-
gen von A in den Körper K. Auf dieser Menge wird die Struktur eines K-
Vektorraumes durch die Addition (f + g)(x) = f (x) + g(x) und die Skalarmul-
tiplikation (λf )(x) = λ(f (x)) definiert.
Indem man Abbildungen mit geeigneten weiteren Eigenschaften betrachtet,
erhält man zahlreiche Untervektorräume.
(2) Der Unterraum Abb0 (A, K) besteht aus allen Funktionen f : A → K,
die nur endlich viele von Null verschiedene Werte annehmen.
(3) Ein n-Tupel (x1 , . . . , xn ) von Elementen xi ∈ K ist eigentlich eine Funk-
tion x : {1, . . . , n} → K, und zwar ist xi der Wert an der Stelle i. Also ist K n
in diesem Sinne ein Funktionenraum.
(4) Ebenso können wir K ∞ als Abb0 (N, K) und K ω als Abb(N, K)
auffassen.
(5) Im Fall A = R und K = R haben wir den Vektorraum C k (R, R) der k-
mal stetig differenzierbaren Funktionen R → R oder den Raum C([0, 1], R) der
stetigen Funktionen [0, 1] → R. Vektorräume dieser Art spielen in der Analysis
eine große Rolle.
(6) Die Gesamtheit Pn (R) aller Polynomfunktionen

x 7→ a0 + a1 x + a2 x2 + · · · + an xn

mit Koeffizienten ai ∈ R ist ein Unterraum von C k (R, R). Er wird Vektorraum
aller Polynome vom Grad kleinergleich n genannt.
(7) Noch etwas allgemeiner kann man auf der Menge Abb(A, V ) der Abbil-
dungen von A in einen Vektorraum V eine Vektorraumstruktur wie unter (1)
definieren. 3
1.3 Basis. Dimension 13

Ergänzungen und Aufgaben


1. Für den Standardraum etwa über den reellen Zahlen braucht man natürlich keine
Gelehrsamkeit. Ein Vektor ist dann einfach ein Datensystem von Zahlen und man
rechnet mit diesen Systemen in bekannter Weise. Betrachten wir Kochrezepte. Ein
Rezeptvektor ordnet jeder Zutat ihre Mengenangabe zu. Will man für zwei Rezepte
einkaufen, so muß man die Zutatenvektoren addieren. Hat man ein Rezept für zwei
Personen, so muß man für sechs Personen den Zutatenvektor mit dem Skalar 3 mul-
tiplizieren.
2. Polynomfunktionen x 7→ a0 + a1 x + a2 x2 + · · · an xn können wir über jedem Körper
K betrachten, die Koeffizienten ai sind dabei Elemente aus K. Aber ach!, für den
Körper mit zwei Elementen ist x 7→ x + x2 die Nullfunktion. Das bedeutet: Eigentlich
(!) ist ein Polynom keine Funktion sondern ein formaler Ausdruck ( Buchstaben-

rechnen“), bestimmt durch die Koeffizienten ai , und die Potenzen von x sind zwar
nützlich, aber nur Platzhalter und gewissermaßen überflüssig.
3. Schnitträume. Seien U1 und U2 Unterräume eines Vektorraums V . Dann ist
T
U1 ∩ U2 ein Unterraum von V . Allgemein ist der Schnitt j∈J Uj einer beliebigen
Familie (Uj | j ∈ J) von Unterräumen wieder ein Unterraum.
4. Sei K ein Unterkörper des Körpers L. Dann ist L mit der Körperaddition und der
Skalarmultiplikation K × L → L, (λ, µ) 7→ λµ ein K-Vektorraum. Zum Beispiel ist C
ein R-Vektorraum und R ein Q-Vektorraum. Jeder L-Vektorraum wird in derselben
Weise durch Einschränkung der Skalarmultiplikation auf K ein K-Vektorraum. Der
Fall K = L ist erlaubt. Dann haben wir aber den Standardvektorraum K 1 vorliegen.
5. Sei V ein C-Vektorraum. Wir erhalten auf der Menge V eine neue Vektorraum-
struktur, indem wir zwar dieselbe Addition verwenden aber die neue Skalarmultipli-
kation C × V → V, (z, v) 7→ zv (Multiplikation mit der konjugiert-komplexen Zahl).
Wir nennen diesen Vektorraum den zu V konjugierten Vektorraum und bezeichnen
ihn mit V .

1.3 Basis. Dimension


Aus dem Vektorraumbegriff werden einige Begriffe abgeleitet, die für das wei-
tere Arbeiten von grundsätzlicher Bedeutung sind. Die wichtigsten sind die in
der Überschrift genannten. In diesem Abschnitt sei V ein Vektorraum über
dem Körper K.

(1.3.1) Lineare Hülle. Sei S ⊂ V eine beliebige Teilmenge. Der Schnitt aller
Unterräume von V , die S enthalten, heiße lineare Hülle von S und werde mit
L(S) bezeichnet. Das ist ein Unterraum. Gilt U = L(S), so sagen wir: S erzeugt
U , S spannt U auf, S ist ein Erzeugendensystem von U . Der Vektorraum L(S)
ist der (bezüglich Mengeninklusion) kleinste Unterraum, der S enthält. Wir
14 1 Vektorräume und lineare Abbildungen

beschreiben diesen Unterraum sogleich in (1.3.3) in weniger formaler Weise. 3


Ist S = ∅, so ist L(S) = {0} der Nullraum. Genau dann ist S selbst ein
Unterraum, wenn L(S) = S ist.
(1.3.2) Linearkombination. Ist (vj | j ∈ J) eine endliche Familie von Vek-
toren und (λj | j ∈ J) eine Familie von Skalaren, so heißt die Summe
P
v = j∈J λj vj

eine Linearkombination der Familie der vj . Wir sagen von der Summe auch, v
sei durch die Familie der vj linear dargestellt und nennen die Summe eine lineare
Darstellung von v durch die vj . Ist die Indexmenge J leer, so verstehen wir unter
der Summe den Nullvektor. Es wird hier nicht vorausgesetzt, daß die Vektoren
vj paarweise verschieden sind. Gehören die Vektoren vj alle einem Unterraum
U an, so liegt auch jede ihrer Linearkombinationen in diesem Unterraum.
Das Bilden von Linearkombinationen ist der fundamentale Rechenprozeß
der linearen Algebra. 3

(1.3.3) Notiz. Sei S ⊂ V eine beliebige Teilmenge. Die Menge L(S) ist gleich
der Menge aller Linearkombinationen, die sich mit Vektoren aus S formen
lassen, oder, wie wir auch sagen wollen, die sich durch S linear darstellen
lassen.
Beweis. Sei L0 (S) die Menge aller genannten Linearkombinationen. Dann ist
L0 (S) ein Unterraum, da die Summe zweier Linearkombinationen aus Elemen-
ten von S wieder eine solche Linearkombination ist; und ebenso ein skalares
Vielfaches. Nach Konstruktion ist S ⊂ L0 (S) und folglich gilt, nach Definition
von L(S), die Inklusion L(S) ⊂ L0 (S). Andererseits ist S ⊂ L(S), und aus der
Definition eines Unteraumes folgt, daß dann auch jede Linearkombination aus
Elementen von S in diesem Unteraum liegt. Also gilt auch L0 (S) ⊂ L(S). 2
Wir bemerken zur letzten Notiz: Die Menge S darf unendlich sein, jedoch
ist jede Linearkombination eine endliche Summe.

(1.3.4) Linear abhängig. Linear unabhängig. Sei S ⊂ V eine beliebige


Teilmenge. Ist x ∈ L(S), so nennen wir x linear abhängig von S. Ist x ∈
/ L(S),
so heißt x linear unabhängig von S.
Wir nennen S linear unabhängig, wenn jedes x ∈ S von S r {x} linear
unabhängig ist. Verneinung: S ist linear abhängig. Eine Menge ist also linear
abhängig genau dann, wenn mindestens eines ihrer Elemente durch die restli-
chen linear dargestellt werden kann. 3

(1.3.5) Basis. Eine Teilmenge B eines Vektorraumes V heißt Basis von V ,


wenn B linear unabhängig ist und V erzeugt. 3
1.3 Basis. Dimension 15

(1.3.6) Notiz. Eine Menge {x1 , . . . , xn } ⊂ V ist genau dann linear un-
abhängig, wenn aus einer linearen Relation λ1 x1 + · · · + λn xn = 0 folgt, daß
alle λj = 0 sind.
Beweis. Sei die Menge linear unabhängig. Angenommen, es gebe eine Relation,
in der (etwa) λ1 6= 0 ist. Dann ist

x1 = −λ−1
1 (λ2 x2 + · · · + λn xn ) ∈ L(S r {x1 }).

Widerspruch zur linearen Unabhängigkeit.


Sei die Menge linear abhängig. Dann wirdPn eines ihrer Elemente, etwa x1 ,
durch die restlichen linear dargestellt x1 = j=2 µj xj . Das widerspricht offen-
bar der vorausgesetzten Bedingung. 2
(1.3.7) Standardbasis. Der Vektor ei ∈ K n , der an der i-ten Stelle eine 1 hat
und sonst überall Nullen, heißt der i-te Standardvektor des Vektorraumes K n .
(In anderen Zusammenhängen nennen wir diese Vektoren auch Einheitsvekto- Pn
ren.) Die Standardvektoren sind linear unabhängig. Es gilt nämlich i=1 λi ei =
(λ1 , . . . , λn ); wenn diese Summe also der Nullvektor (0, . . . , 0) ∈ K n ist, so sind
alle λi = 0. Dieselbe Summe zeigt, daß die Menge der Standardvektoren den
K n erzeugt. Diese Basis nennen wir die Standardbasis des K n . 3
Hier noch eine Bemerkung zur Sprechweise: Wir werden später oft sagen,
seien die Vektoren x1 , . . . , xn linear unabhängig oder etwas Ähnliches. Das
klingt so, als käme diese Eigenschaft jedem einzelnen Vektor zu. Gemeint ist
jedoch eine Eigenschaft der Menge {x1 , . . . , xn }. Allgemein nennen wir das
Bestehen von λ1 x1 +· · ·+λn xn = 0 eine lineare Relation zwischen den Vektoren
(x1 , . . . , xn ), und eine echte, wenn nicht alle Koeffizienten λj gleich Null sind.
Ein einzelner Vektor x ist genau dann linear unabhängig, wenn er nicht
der Nullvektor ist. Beweis: Ist x = 0, so ist 1 · x = 0 eine nichttriviale lineare
Relation. Ist λx = 0 und λ 6= 0, so folgt durch Multiplikation mit dem Inversen
von λ, daß x = 0 ist.
Die leere Menge ist eine Basis des Nullraumes.
(1.3.8) Notiz. Seien A und S Teilmengen von V . Ist jedes Element von A
linear abhängig von S, so gilt L(S) = L(S ∪ A).
Beweis. Die Inklusion L(S) ⊂ L(S ∪ A) ist klar. Sei x ∈ L(S ∪ A). Dann stellen
wir x zunächst durch S ∪ A linear dar. Alle Elemente von A, die in dieser
linearen Darstellung vorkommen, werden sodann durch eine lineare Darstellung
mittels S ersetzt. Das Resultat ist eine lineare Darstellung durch S. Also gilt
L(S ∪ A) ⊂ L(S). 2
(1.3.9) Satz. Sei M ⊂ S ⊂ V , sei M linear unabhängig und S ein Erzeu-
gendensystem von V . Dann gibt es eine Basis B von V mit der Eigenschaft
M ⊂ B ⊂ S. Insbesondere hat jeder Vektorraum eine Basis.
16 1 Vektorräume und lineare Abbildungen

Beweis. Wir beweisen den Satz nur für den Fall, daß S endlich ist. Das reicht
für die meisten Anwendungen und erspart uns einen genaueren Blick in die
Mengenlehre.
Unter allen linear unabhängigen Teilmengen X von V mit M ⊂ X ⊂ S
wählen wir eine maximale aus, etwa B = {b1 , . . . , bn }. Wir zeigen, daß B den
Raum V erzeugt. Falls B = S ist, bleibt nichts mehr zu zeigen. Andernfalls gibt
es ein x ∈ S r B. Wegen der Maximalität von B ist B ∪ {x} linear abhängig.
Es gibt also eine echte lineare Relation

λx + λ1 x1 + · · · + λn xn = 0.

Wäre λ = 0, so würde aus der linearen Unabhängigkeit von B folgen, daß alle
λi = 0 sind. Also ist λ 6= 0 und damit x in dem von B erzeugten Unterraum
enthalten. Somit ist S ⊂ L(B) und mit L(S) = V folgt V = L(S) ⊂ L(B) ⊂ V
also L(B) = V . 2
Die Endlichkeit der Menge S wurde im vorstehenden Beweis nur dazu be-
nutzt, die Existenz einer maximalen Menge B sicherzustellen. Ein Axiom der
Mengenlehre, etwa das sogenannte Zornsche Lemma, liefert, daß es die maxi-
malen Mengen immer gibt. In Wahrheit wird man hier zu subtilen Problemen
der Logik und Mengenlehre geführt.

(1.3.10) Satz. Sei M ⊂ V linear unabhängig und T ein (endliches) Erzeugen-


densystem von V . Dann kann M durch Elemente aus T zu einer Basis ergänzt
werden.

Beweis. Wir wenden den vorstehenden Satz auf S = M ∪ T an. 2


Es gibt viele Basen. Wesentlich für die gesamte (lineare) Algebra ist der
folgende erste Hauptsatz der Algebra:

(1.3.11) Satz (Basissatz). In einem von einer endlichen Menge erzeugten


Vektorraum haben je zwei Basen dieselbe Mächtigkeit. 2

Der Basissatz folgt aus dem mehr technisch formulierten nächsten. Er


verschärft (1.3.10) durch eine Aussage über die Anzahl der zur Ergänzung
nötigen Elemente. Er läuft unter dem Namen Austauschsatz von Steinitz 3 .
Für einen weiteren Beweis des Basissatzes siehe Aufgabe 3.

(1.3.12) Satz. Sei S eine endliche linear unabhängige Menge in V und T ein
endliches Erzeugendensystem von V . Dann gilt |S| ≤ |T |, und S läßt sich durch
|T | − |S| Elemente aus T zu einem Erzeugendensystem ergänzen.

Beweis. Wir beweisen den Satz durch vollständige Induktion nach der Mächtig-
keit |S| von S. Ist S leer, also |S| = 0, so folgt die Behauptung aus (1.3.10). Sei
3 Ernst Steinitz 1871 – 1928
1.3 Basis. Dimension 17

|S| > 0 und S = P ∪ {b}. Dann ist P als Teil von S auch linear unabhängig.
Nach Induktionsvoraussetzung können wir P durch eine Teilmenge Q von T
mit |T | − |S| + 1 Elementen zu einem Erzeugendensystem P ∪ Q = T 0 ergänzen.
Der Vektor b ist also in L(T 0 ) enthalten aber nicht in L(P ), da S linear un-
abhängig ist. Eine lineare Darstellung von b durch T 0 muß deshalb Elemente
aus Q wirklich benutzen“, das heißt es gibt ein c ∈ Q, so daß b die Form

b = v + λc, λ 6= 0, v ∈ L(P ∪ (Q r {c})

hat. Also liegt c = λ−1 (b − c) in L(S ∪ (Q r {c}). Da P ∪ Q und also auch S ∪ Q


ein Erzeugendensystem ist, so nach (1.3.8) auch S ∪ (Q r {c}). 2
Es ist klar, wie (1.3.11) aus (1.3.12) folgt: Sind A und B Basen, so besagt
(1.3.12) sowohl |A| ≤ |B| als auch |B| ≤ |A|.
(1.3.13) Dimension. Die Mächtigkeit der Basis eines endlich erzeugten Vek-
torraumes V heißt die Dimension von V . Wir schreiben dim V für diese Zahl
(oder auch dimK V , um die Abhängigkeit von K zu betonen). Ist V nicht end-
lich erzeugt, so schreiben wir dim V = ∞. Ist U ein Unterraum von V , so wird
dim V − dim U die Kodimension von U in V genannt. 3
Wir haben in (1.3.7) gesehen, daß K n die Dimension n hat. Der Nullraum
hat die Dimension Null.
(1.3.14) Notiz. Sei V ein n-dimensionaler Vektorraum. Die Menge S ⊂ V
habe n Elemente (n ≥ 1). Dann gilt:
(1) Ist S linear unabhängig, so ist S eine Basis.
(2) Ist S ein Erzeugendensystem, so ist S eine Basis.
Beweis. (1) Wäre S keine Basis, so könnte S zu einer Basis ergänzt werden
(1.3.10), im Widerspruch zu (1.3.12).
(2) Eine geeignete Teilmenge T von S ist eine Basis (1.3.10). Wegen (1.3.12)
hat T n Elemente, ist also gleich S. 2
(1.3.15) Notiz. Ist U Unterraum von V und gilt dim U = dim V , so ist U =
V. 2
Sei b1 , . . . , bn eine Basis von V . Eine Basis ist nach (1.3.5) eine Teilmenge
von V . Wenn wir die Basis in der Form b1 , . . . , bn schreiben, so haben wir die
Basisvektoren durch die angehängten Nummern (= Indices) in eine Reihenfolge
gebracht. Wir sprechen in diesem Fall von einer geordneten Basis.
(1.3.16) Koordinaten. Sei b1 , . . . , bn eine geordnete Basis. Jeder Vektor v ∈
V läßt sich in der Form v = λ1 b1 +· · ·+λn bn schreiben. Durch v ist (λ1 , . . . , λn )
eindeutig bestimmt, denn wäre auch v = µ1 b1 + · · · + µn bn , so würde durch
Subtraktion
0 = (µ1 − λ1 )b1 + · · · + (µn − λn )bn
18 1 Vektorräume und lineare Abbildungen

folgen und dann nach (1.3.6) aus der linearen Unabhängigkeit µi − λi = 0. Wir
nennen λi die i-te Koordinate von v bezüglich der geordneten Basis b1 , . . . , bn .
Allgemein haben wir für jede Basis B und jedes b ∈ B die zugehörige b-
Koordinate: Das ist der skalare Koeffizient von b in einer Linearkombination
von Elementen aus B. Ist a = (a1 , . . . , an ) ∈ K n , so ist aj die j-te Koordinate
von a bezüglich der Standardbasis. 3

Ergänzungen und Aufgaben


1. Eine Menge ist genau dann linear unabhängig, wenn jede endliche Teilmenge line-
ar unabhängig ist.
2. Sei K[S] der Vektorraum der Funktionen S → K, die nur an endlich vielen Stellen
ungleich Null sind. Sei es die Funktion, die an der Stelle s den Wert 1 hat und sonst
überall den Wert Null. Die Menge der es , s ∈ S ist eine Basis von K[S]. Diese Basis
verallgemeinert die Standardbasis des K n .
3. Der Basissatz (1.3.11) folgt offenbar, wenn man zeigt: Ist v1 , . . . , vn eine Basis,
so sind Systeme y1 , . . . , yn+1 immer linear abhängig. Es ist nützlich, einmal aufzu-
schreiben, was diese P Aussage bedeutet. Zunächst gibt es nach Voraussetzung lineare
Darstellungen yi = n j=1 λij vj mit gewissen Skalaren λij . Wir wollen einsehen: Es
Pn+1
gibt Skalare x1 , . . . , xn+1 , die nicht sämtlich Null sind, so daß i=1 xi yi = 0 ist.
Wir P setzenPdie Darstellungen der yi in diese hypothetische Relation ein und erhal-
ten n+1 i=1
n
j=1 xi λij vj = 0. Da die vj eine Basis bilden, bedeutet das nach (1.3.6):
Die xi müssen alle Gleichungen n+1
P
i=1 λij xi = 0 erfüllen. Das ist, wie man sagt, ein
System von n linearen Gleichungen für die zu findenden xi . Wir führen es an dieser
Stelle nicht aus, werden aber bald im Abschnitt über lineare Gleichung einsehen, daß
ein solches System immer einer Lösung hat, die nicht nur aus Nullen besteht. Damit
erhalten wir einen weiteren Beweis für den Basissatz.
4. Die Polynome 1, x, x2 , . . . , xn bilden eine Basis von Pn (R). Ebenso die Polynome
1, x − a, . . . , (x − a)n für a ∈ R.
5. Sei A eine Menge reeller Zahlen. Wir betrachten für a ∈ A die Funktionen
fa (x) = exp(ax) aus Abb (R, R). Diese Menge ist linear unabhängig. Der Vektor-
raum Abb (R, R) hat also überabzählbare linear unabhängige Teilmengen.
6. Die komplexen Zahlen C sind ein R-Vektorraum. Eine Basis ist zum Beispiel {1, i}.
7. Sei {b1 , . . . , bn } eine Basis eines C-Vektorraumes V . Durch Einschränkung
der Skalarmultiplikation wird daraus ein R-Vektorraum VR . Er hat die Basis
b1 , ib1 , . . . , bn , ibn . Insbesondere gilt also dimR VR = 2 dimC V .
8. Prüfungsfrage: Was ist ein Vektor? Antwort: Ein Element eines Vektorraumes. So
weit, so gut.
Aber doch irgendwie unbefriedigend. Man denke etwa an den Gebrauch des Wor-
tes Vektor“ in der Physik, etwa Kraftvektor. Da wird ja eigentlich nicht erst ein

Vektorraum definiert. Man könnte an einen Standardraum denken, aber in der Natur
gibt es keine Koordinaten! In Lehrbüchern der Physik findet man darüber hinaus
verschiedene Sorten“ von Vektoren. Es gibt mathematische Auswege, doch lasse ich

es hier mal zum Grübeln so stehen.
1.4 Lineare Abbildungen 19

1.4 Lineare Abbildungen


Wir kommen nun zum zweiten Grundbegriff der linearen Algebra.
(1.4.1) Lineare Abbildung. Seien V und W Vektorräume über dem Körper
K. Eine lineare Abbildung f : V → W von V nach W ist eine Abbildung der
Menge V in die Menge W , so daß für x, y ∈ V und λ ∈ K gilt:

f (x + y) = f (x) + f (y) f (λx) = λf (x).

Die identische Abbildung ist linear; die Verkettung linearer Abbildungen ist
linear.
Aus den Axiomen für eine lineare Abbildung f folgt durch Induktion nach
n die Verträglichkeit mit Linearkombinationen:
Pn Pn
i=1 λi f (xi ) = f ( i=1 λi xi ), λi ∈ K, xi ∈ V.

Kennt man also diePWerte von f an den Stellen xi , so kennt man f für alle
n
Vektoren der Form i=1 λi xi . 3
Lineare Abbildungen sind hier also zunächst formal algebraisch definiert.
Viele Begriffe der linearen Algebra haben aber einen geometrischen Hinter-
grund, der natürlich für ein intuitives Arbeiten oft nützlich ist. So sollte man
ein Verständnis darüber gewinnen, wie lineare Abbildungen der Standardebene
R2 in sich aussehen“. Das werden wir später erläutern, nachdem wir weitere

Hilfsmittel wie etwa die Matrizenrechnung entwickelt haben. Hier nur einige
Vokabeln: Drehungen um den Nullpunkt, Spiegelungen an einer Geraden, Deh-
nungen und Stauchungen, Scherungen, Parallelprojektionen auf eine Gerade.
Grundlegend unter anderem für die rechnerische Analyse von linearen Ab-
bildungen ist der nächste Satz.
(1.4.2) Satz. Sei B eine Basis des K-Vektorraumes V und W ein weiterer K-
Vektorraum. Zu jeder Familie (wb | b ∈ B) gibt es genau eine lineare Abbildung
f : V → W , die b auf wb abbildet.
P P
Beweis. Die Eindeutigkeit folgt aus der Formel f ( b∈B λb b) =P b∈B λb f (b).
Zu jedem v ∈ V gibt es genau eine lineare Darstellung P v = b∈B λb b. Wir
definieren eine Abbildung f durch die Vorschrift f (v) = b∈B λb wb . Dann gilt
jedenfalss f (b) = wb . Die definierenden
P Eigenschaften einer linearen
P Abbildung
werden nachgerechnet: Ist u = b∈B µb b, P so folgt u + v = b∈B (µb + λb )b.
Nach Definition von f ist dann f (u + v) = b∈B (µb + λb )wb , und letzteres ist
offenbar gleich f (u) + f (v). Ähnlich verifiziert man f (λv) = λf (v).
Wir haben imPvorstehenden Beweis so getan, als sei B endlich. Im allgemei-
nen Fall ist v = b∈JP λb b für eine endliche Teilmenge J ⊂ B, und es ist dann
zweckmäßig, dafür b∈B λb b zu schreiben (obgleich es ja eigentlich unendliche
Summe nicht gibt), wobei die λb für b ∈ / J als Null anzusehen sind. Zwar ist
20 1 Vektorräume und lineare Abbildungen

durch v die endliche Teilmenge J nicht eindeutig bestimmt, doch möge man
sich davon überzeugen, daß diese Vereinbarung nicht zu Problemen führt. 2

(1.4.3) Beispiele.
(1) Die Multiplikation mit einem Skalar λ liefert eine lineare Abbildung
lλ : V → V, v 7→ λv. Es gilt dann lλ+µ = lλ + lµ und lλµ = lλ lµ . Diese Aussagen
sind ein Teil der Vektorraumaxiome.
(2) Integration von stetigen Funktionen liefert eine lineare Abbildung
C([0, 1], R) → R.
(3) Differentiation ist eine lineare Abbildung C k (R, R) → C k−1 (R, R).
(4) Indem man einer konvergenten Folge ihre Summe zuordnet, erhält man
eine lineare Abbildung. 3

Für lineare Abbildungen f : V → W mit speziellen Eigenschaften verwen-


den wir die folgende Terminologie:

f Epimorphismus ⇔ f surjektiv
f Monomorphismus ⇔ f injektiv
f Isomorphismus ⇔ f bijektiv
f Endomorphismus ⇔ V =W
f Automorphismus ⇔ V = W, f bijektiv.

Vektorräume heißen isomorph, wenn es einen Isomorphismus zwischen ihnen


gibt. Die folgende Notiz ergibt sich unmittelbar aus den beteiligten Definitio-
nen.

(1.4.4) Notiz. Sei f : V → W eine lineare Abbildung. Dann gilt:


(1) Ist V1 Unterraum von V , so ist f (V1 ) Unterraum von W .
(2) Ist W1 Unterraum von W , so ist f −1 (W1 ) Unterraum von V . 2

Der Unterraum f −1 (0) heißt Kern von f , der Unterraum f (V ) Bild von f .

(1.4.5) Notiz. Eine lineare Abbildung f ist genau dann injektiv, wenn ihr
Kern der Nullraum ist.

Beweis. Ist 0 6= v ∈ Kern(f ), so ist f (v) = 0 = f (0) und folglich f nicht


injektiv. Ist f (u) = f (v) für u 6= v, so liegt wegen f (u − v) = f (u) − f (v) = 0
das Element u − v 6= 0 im Kern von f . 2

(1.4.6) Satz. Sei f : V → W eine lineare Abbildung.


(1) Ist f injektiv und S linear unabhängig, so ist auch f (S) linear un-
abhängig.
(2) Ist f surjektiv und S ein Erzeugendensystem, so ist auch f (S) ein Er-
zeugendensystem.
(3) Ist f ein bijektiv und S eine Basis, so ist auch f (S) eine Basis.
1.4 Lineare Abbildungen 21

P P P
Beweis. (1) Aus b∈J λb b = 0 folgt f ( b λb ) = 0, also b λb b = 0, da f
injektiv ist, und dann folgt nach (1.3.6) λb = 0.
P
(2) Sei wP∈ W , also w = f (v) für ein v ∈ V . Aus v = b λb b folgt dann
w = f (v) = b λb f (b).
(3) folgt aus (1) und (2). 2

(1.4.7) Satz. Sei f : V → W eine lineare Abbildung zwischen endlichdimensio-


nalen Vektorräumen. Bilden die Vektoren f (v1 ), . . . , f (vn ) eine Basis des Bildes
von f und a1 , . . . , am eine Basis des Kernes von f , so ist a1 , . . . , am , v1 , . . . , vn
eine Basis von V .

In der Formulierung des Satzes haben wir stillschweigend n ≥ 1 und m ≥ 1


angenommen. Die Fälle n = 0, m = 0 sind klar.
P
Beweis. Sei x ∈ V . Dann gibt es eine lineare Relation f (x) = i λi f (vi ) mit
gewissen Pλi ∈ K, da f (v1 ), . . . , f (vn ) eine Basis von W ist. Da f linear ist,
liegt x − Pi λi vi imP
Kern von f und folglich gibt es eine lineare Relation der
Form x − i λi vi = j µj aj für geeignete µj ∈ K. Somit bilden die genannten
Elemente ein Erzeugendensystem.
P P
Umgekehrt: Aus einer linearen Relation 0 = j µj aj + i λi vi folgt durch
Anwendung von f
P P P
0 = f (0) = j µj f (aj ) + i λi f (vi ) = i λi f (vi ).

Weil die f (vi ) linear unabhängig sind, folgt λ1 = . . . = λn = 0, und weil die aj
linear unabhängig sind, folgt dann µ1 = . . . = µm = 0. 2
Ist f : V → W eine lineare Abbildung und V endlichdimensional, so ist auch
f (V ) endlichdimensional. Die Dimension des Bildes f (V ) heißt Rang von f .
(1.4.8) Dimensionsformel. Für jede lineare Abbildung f : V → W eines
endlichdimensionalen Vektorraumes V gilt

dim Kern f + dim Bild f = dim V, dim Kern f + Rang f = dim V.

Beweis. Das ist eine unmittelbare Folgerung aus (1.4.8). 2

(1.4.9) Satz. Sei f : V → W eine lineare Abbildung zwischen Vektorräumen


gleicher endlicher Dimension. Dann sind folgende Aussagen äquivalent:
(1) Kern f = 0.
(2) f ist injektiv.
(3) f ist surjektiv.
(4) f ist bijektiv (ein Isomorphismus).
22 1 Vektorräume und lineare Abbildungen

Beweis. (1) ⇔ (2) haben wir schon in (1.2.3) bemerkt.


(2) ⇒ (3). Ist S eine Basis von V , so ist f (S) linear unabhängig (1.4.6) und
wegen (1.3.15) eine Basis von W .
(3) ⇒ (4). Wegen (1.4.8) ist dim Kern f = 0, also f auch injektiv, also
bijektiv.
(4) ⇒ (1), (2), (3) ist klar. 2
Für ein Verständnis von linearen Selbstabbildungen (= Endomorphismen)
eines Vektorraumes V möchte man wissen, welche Wirkung sie auf Unterräum-
en haben. Insbesondere fragt man, ob es Unterräume gibt, die in sich selbst
abgebildet werden.
(1.4.10) Eigenwerte, Eigenvektoren, Eigenräume. Sei f : V → V eine li-
neare Abbildung. Wir sagen 0 6= v ∈ V ist ein Eigenvektor von f zum Eigenwert
λ, wenn f (v) = λv gilt. Zu gegebenem Skalar λ heißt {x ∈ V | f (x) = λx} der
Eigenraum von f zum Eigenwert λ, wenn dieser Raum nicht der Nullraum ist.
Ein Unterraum W ⊂ V heiße f -stabil, wenn f (W ) ⊂ W gilt. Die Eigenräume
von f sind f -stabil. 3

(1.4.11) Räume aus linearen Abbildungen. Seien V und W Vektorräume


über K. Wir bezeichnen mit

HomK (V, W ) oder Hom(V, W )

die Menge aller K-linearen Abbildungen f : V → W . Auf dieser Menge definie-


ren wir wie in (1.1.9) eine Vektorraumstruktur durch (f + g)(v) = f (v) + g(v)
und (λf )(v) = λ(f (v)), wobei f, g ∈ Hom(V, W ), v ∈ V und λ ∈ K. (Die
Notation rührt daher, daß eine lineare Abbildung in einem allgemeinen alge-
braischen Kontext auch als Homomorphismus bezeichnet wird. Wir könnten
hier auch L(V, W für diesen Raum schreiben.)
Mit linearen Abbildungen kann man rechnen. Der Vektorraum Hom(V, V )
hat zunächst einmal eine Addition und eine Skalarmultiplikation. Er trägt aber
auch ein Produkt, nämlich die Verkettung von Abbildungen, und wir schreiben
deshalb auch f ◦ g = f · g = f g in diesem Kontext. Sind a, b, c, d Skalare und
A, B, C, D Elemente aus Hom(V, V ), so gilt

(aA + bB)(cC + dD) = acAC + adAD + bcBC + bdBD,

wie man es vom Rechnen gewohnt ist. Das wird später noch deutlicher, wenn
wir lineare Abbildungen durch die sogenannten Matrizen beschreiben. 3

(1.4.12) Dualraum. Ist W = K, so nennen wir Hom(V, K) = V ∗ den Dual-


raum von V . Ein Element f ∈ V ∗ , also eine lineare Abbildung V → K, wird
Linearform auf V genannt.
1.4 Lineare Abbildungen 23

Ist f : V → W eine lineare Abbildung, so gehört dazu die duale Abbildung


(auch transponierte Abbildung genannt) f ∗ in umgekehrter Richtung

f ∗ : W ∗ → V ∗, α 7→ α ◦ f.

Sind f : U → V und g : V → W lineare Abbildungen, so gelten die Regeln


(gf )∗ = f ∗ g ∗ und (id(V ))∗ = id(V ∗ ).
Sei b1 , . . . , bn Basis von V . Die k-te Koordinatenabbildung ist die lineare
Abbildung bk , die bk auf 1 und bl für k 6= l auf Null abbildet. Die bk sind Ele-
mente des Dualraums V ∗ . Sie bilden eine Basis von V ∗ , genannt die Dualbasis
zur gegebenen Basis. Ist nämlich f ∈ V ∗ , so gilt f = k f (k)bk , und diese
P
Darstellung ist eindeutig. 3

Ergänzungen und Aufgaben


1. Zu einer geordneten Basis b1 , . . . , bn von V gehört ein eindeutig bestimmter Iso-
morphismus K n√→ V , der den Standardvektor ej auf bj abbildet.
2. Sei 0 < ρ = 5 2 ∈ R die fünfte Wurzel aus 2. Die reellen Zahlen der Form 4i=0 ai ρi
P
mit rationalen ai bilden einen Unterkörper Q(ρ) von R. Das einzige Axiom, das nicht
unmittelbar aus den Rechenregeln folgt, ist die Existenz eines multiplikativen Inver-
sen für 0 6= x ∈ Q(ρ). Man könnte versuchen, ein Inverses explizit auszurechnen; das
ist aber nicht so leicht. Nach einer Formel ist aber auch nicht gefragt, sondern nur
nach der Existenz. Es ist Q(ρ) ein Q-Vektorraum, und die Multiplikation y 7→ xy ist
Q-linear und für x 6= 0 injektiv und deshalb sogar bijektiv. Also liegt die 1 im Bild.
Man wird vermuten, daß Q(ρ) als Q-Vektorraum die Dimension 5 hat; das ist aber
nicht ganz selbstverständlich. Solche Probleme werden in der Körpertheorie systema-
tisch behandelt.
3. Für den Vektorraum V = K ∞ gibt es injektive lineare Abbildungen V → V , die
nicht bijektiv sind.
4. Zwei endlichdimensionale Vektorräume V und W sind genau dann isomorph, wenn
sie gleiche Dimension haben.
5. Gilt für lineare Abbildungen f : V → W und g : W → V die Gleichung gf = id,
so heißt g linksinvers zu f und f rechtsinvers zu g.
Eine lineare Abbildung f : V → W ist genau dann injektiv (surjektiv), wenn sie
ein Linksinverses (Rechtsinverses) hat. Sie ist genau dann ein Isomorphismus, wenn
sie Links- und Rechtsinverse hat, die dann notwendig beide gleich der Umkehrabbil-
dung sind.
6. Die Begriffsbildungen der linearen Algebra sind in vielen Bereichen nützlich, zum
Beispiel bei linearen Differentialgleichungen. Die zweifach Ableitung D2 ist eine linea-
re Abbildung auf dem Raum der 2-mal stetig differenzierbaren Funktionen C 2 (R, R).
Der Kern der Abbildung D2 + id, also die Menge der Funktionen, die der Differenti-
algleichung f 00 = −f genügen, ist ein Unteraum. Er ist zweidimensional und hat die
Funktionen cos und sin als Basis. Das kann mit elementaren Hilfsmitteln der Diffe-
24 1 Vektorräume und lineare Abbildungen

rentialrechnung bewiesen werden4 .


7. Eine Sequenz U
u /V v / W von linearen Abbildungen heißt exakt an der
Stelle V , wenn Bild u = Kern v ist. Eine Sequenz

U0
u0
/ U1 . . . u1
/ un
/ Un+1

heißt exakt, wenn sie an allen Stellen Uj , 1 ≤ j ≤ n exakt ist. Eine exakte Sequenz
der Form
0→U →V →W →0
heißt auch kurze exakte Sequenz. In einer solchen exakten Sequenz ist U → V injektiv
und V → W surjektiv und U isomorph zum Kern von V → W .

1.5 Summen und Produkte


Aus gegebenen Vektorräumen lassen sich in mancherlei Weise neue herstellen.
Wir behandeln in diesem Abschnitt Summen und Produkte. Der Terminus
Summe“ wird hier allerdings mit verschiedener Bedeutung benutzt.

(1.5.1) Summenräume. Die Vereinigung U1 ∪ U2 von Unterräumen Uj ⊂ V
eines Vektorraumes V ist im allgemeinen kein Unterraum. Sei U1 +U2 die Menge
aller Vektoren der Form u1 + u2 , worin uj ∈ Uj ist. Diese Menge wird leicht
als Unterraum nachgewiesen;
Pr er heißt die Summe der Unterräume U1 und U2 .
Ebenso wird die Summe j=1 Uj = U1 + · · · + Ur von Unterräumen U1 , . . . , Ur
als der Unterraum aller Vektoren der Form u1 + · · · + ur , uj ∈ Uj definiert. 3

(1.5.2) Dimensionsformel. Seien U1 und U2 endlichdimensionale Unter-


räume eines Vektorraums. Dann gilt die Dimensionsformel

dim U1 + dim U2 = dim(U1 + U2 ) + dim(U1 ∩ U2 ).

Beweis. Wir wählen eine Basis B0 von U0 = U1 ∩ U2 und ergänzen sie zu


einer Basis Bj von Uj . Wir behaupten: B0 ∪ B1 ∪ B2 = B ist eine Basis von
U = U1 + U2 . Es ist nämlich B offenbar ein Erzeugendensystem. Ist Wj der von
Bj erzeugte Unterraum, so ist U = W0 ⊕ W1 ⊕ W2 und Uj = W0 ⊕ Wj , woraus
mit der Dimensionsformel für direkte Summen die Behauptung folgt. 2

(1.5.3) Satz. Seien V1 , . . . , Vr Unterräume von V . Folgende Aussagen sind


äquivalent:
4 Siehe etwa Th. Bröcker: Analysis I. (2. Auflage). Spektrum Akademischer Verlag, Hei-

delberg 1995
1.5 Summen und Produkte 25

(1) Jeder Vektor v ∈ V besitzt eine eindeutig bestimmte Darstellung der


FormP v = v1 + · · · + vr mit vi ∈ Vi .
r P
(2) V = j=1 Vj , und für jedes i ist Vi ∩ ( j6=i Vj ) = {0}.
Beweis. P(1) ⇒ (2). Da jeder Vektor vPeine Darstellung v = v1 + · · · + vr
r
hat, ist j=1 VjP= V . Sei v ∈ Vi ∩ ( j6=i Vj ). Dann
Pgibt es Darstellungen
v = vi und v = j6=i vj mit vk ∈ Vk . Aus 0 = −vi + j6=i vj folgt wegen der
vorausgesetzten Eindeutigkeit einer Darstellung (hier: des Nullvektors), daß
vk = 0 ist für alle k; also ist P
v = 0.
r
(2) ⇒ (1). Wegen V = j=1 Vj gibt es mindestens eine Darstellung der
genannten Art. Seien v = v1 + · · · + P vr und v = v10 + · · · + vr0 zwei solche
Darstellungen. Dann ist vi − vi ∈ Vi ∩ j6=i Vj = {0}, also gilt vi = vi0 .
0
2
(1.5.4) Interne direkte Summe. Gilt eine der Aussagen (1), (2) in (1.5.3),
so sagen wir: V sei in die Unterräume V1 , . . . , Vr direkt zerlegt und schreiben
Lr
V = V1 ⊕ · · · ⊕ Vr = j=1 Vj
für das Bestehen dieses Sachverhalts, den wir auch eine direkte Zerlegung von
V nennen. Statt direkte Zerlegung ist auch der Terminus direkte Summe in
Gebrauch. 3

(1.5.5) Komplement. Sei U ein Unterraum von W . Dann heißt ein Unter-
raum V von W Komplement von U in W , wenn W in U und V direkt zerlegt
ist.
Im allgemeinen gibt es verschieden Komplemente: So ist etwa jede Gerade
durch den Nullpunkt, die nicht in U = R2 × {0} liegt, ist ein Komplement von
U in R3 . 3

(1.5.6) Satz. Jeder Unterraum eines U (endlichdimensionalen) Vektorraumes


W besitzt ein Komplement.
Beweis. Eine Basis (b1 , . . . , bm ) eines Unterraumes U werde durch (c1 , . . . , cn )
zu einer Basis von W ergänzt. Sei V der von (c1 , . . . , cn ) erzeugte Unterraum.
Dann ist nach dem soeben Bemerkten V ein Komplement von U . 2
(1.5.7) Projektion. Ein Endomorphismus p : V → V mit der Eigenschaft
p2 = p ◦ p = p heißt Projektion oder Projektionsoperator von V . 3

(1.5.8) Satz. Sei p : V → V eine Projektion. Dann ist auch q = ι − p eine


Projektion (ι die identische Abbildung), und es gelten die Relationen ι = p + q
und qp = 0 = pq.
Seien p, q : V → V lineare Abbildungen mit den Eigenschaften ι = p + q und
pq = 0. Dann sind p and q Projektionen, und es gelten
V = Bild p ⊕ Bild q = Kern p ⊕ Kern q
sowie Bild p = Kern q, Bild q = Kern p.
26 1 Vektorräume und lineare Abbildungen

Beweis. Es ist qp = (ι−p)p = p−p2 = 0 und q 2 = (1−p)(1−p) = 1−p−p+p2 =


1 − p = q. Diese Rechnungen zeigen die erste Behauptung.
Wegen q = ι − p und pq = 0 ist 0 = pq = p(ι − p) = p − p2 , also p eine
Projektion. Wegen ι = p + q wird V von den Bildern von p und q erzeugt. Sei
x im Schnitt der beiden Bilder, also p(y) = x = (1 − p)(z) für gewisse y, z. Es
folgt x = p(y) = p2 (y) = p(1 − p)(z) = 0. Also ist die Summe direkt (1.5.3).
Wegen pq = 0 ist Bild q ⊂ Kern p. Ist p(x) = 0, so folgt q(x) = (ι − p)x = x,
also gilt Kern p ⊂ Bild q. 2
(1.5.9) Beispiel. Das Rechnen mit linearen Abbildungen demonstrieren wir
an einem instruktiven Beispiel. Sei A : V → V eine lineare Abbildung eines
reellen Vektorraumes, deren Quadrat A2 = A ◦ A die identische Abbildung ι
ist. Wir verwenden die Abbildungen
1 1
A+ = (A + ι), A− = (A − ι).
2 2
Dann rechnet man leicht die Relationen

ι = A+ + A− , A2+ = A+ , A2− = A− , A + A− = 0

nach. Also sind A± beides Projektionen. Sei V± das Bild von A± . Dann gilt
nach (1.5.9) V = V+ ⊕ V− . Es gilt ferner AA± = A± , so daß die Vektoren in
V± Eigenvektoren zum Eigenwert ±1 sind. Das Bild von A± ist der Kern von
A∓ .
Diese Rechnungen benutzen nicht wirklich die reellen Zahlen. Man kann
jeden Körper verwenden, in dem 1 + 1 6= 0 ist. Es ist dann 12 als das Inverse
von 1 + 1 zu interpretieren. 3

(1.5.10) Summen und Produkte. Sei (Vj | j Q ∈ J) eine Familie von K-


Vektorräumen. Das mengentheoretische Produkt j∈J Vj machen wir zu ei-
nem Vektorraum durch komponentenweise
L Addition und Skalarmultiplikation.
Darin haben wir den Unterraum j∈J Vj der Familien (vj ∈ Vj | j ∈ J), die
nur an endlich vielen Stellen ungleich Null sind. Ist die Indexmenge endlich, so
unterscheiden sich die beiden Vektorräume nicht. Es gibt aber, wie wir gleich
sehen, formale Gründen, sie trotzdem getrennt zu behandeln.Q
Wir haben die Projektion auf den k-ten Faktor pk Q : j∈J Vj → Vk , (vj |
j ∈ J) 7→ vk . Die Injektion des k-ten Faktor ik : Vk → j∈J Vj ordnet vk die
Familie zu, die den
L Wert vk an der Stellen k hat und sonst überall Null ist.
Dasselbe gilt fürL j∈J Vj . Q
Wir nennen j∈J Vj die Summe der gegebenen Familie und j∈J Vj das
Produkt der gegebenen Familie.
Die Zuordnungen
L Q
Hom( j∈J Vj , W ) → j∈J Hom(Vj , W ), f 7→ (f ◦ ij )
1.5 Summen und Produkte 27

Q Q
Hom(U, j∈J Vj ) → j∈J Hom(U, Vj ), f 7→ (pj ◦ f )
sind für jeden Vektorraum U und W bijektiv. 3
L
Wir haben das Summensymbol auch schon für die interne direkte Sum-
me benutzt. Ist das schädlich? Nein. Ist nämlich V1 , . . . , Vn eine
LnFamilie von
Unterräumen von V , so gibt es genau eine lineare Abbildung f : j=1 Vj → V ,
so daß f ◦ ij die Inklusion Vj ⊂ V ist. Genau dann ist f ein Isomorphismus,
wenn V die interne
Ln direkte Summe der Vj ist, wie aus (1.5.3) folgt. Es ist dann
übrigens auch j=1 Vj die interne direkte Summe der Bilder ij (Vj ). Insofern
unterscheiden sich also die beiden Aspekte kaum.
Die Summe von n Exemplaren K ist der Standardraum K n .
Lr
(1.5.11) Satz. Sei V = S Vj eine interne direkte Summe und Bj eine
j=1
Basis von Vj . Dann ist B = j Bj eine Basis von V und Bi ∩ Bj = ∅ für
i 6= j. Ist eine Basis B von V disjunkte Vereinigung
Lr von B1 , . . . , Br und Vj
der von Bj erzeugte Unterrraum, so ist j=1 Vj = V . Es gilt deshalb die
Dimensionsformel für direkte Summen
Lr Pr
dim j=1 Vj = j=1 dim Vj .

Beweis. Da V von den Vj erzeugt wird und Vj von Bj , so wird V von B


erzeugt. Gibt es eine echte lineare Relation zwischen den Elementen von B,
so erhält man daraus
P durch Sortieren für ein j ein von Null verschiedenes
Element in Vj ∩ ( i6=j Vi ) im Widerspruch zu (1.5.3). Durch Umkehrung der
Argumentation erhält man die zweite Aussage des Satzes. 2
(1.5.12) Direkte Zerlegungen von Abbildungen. Lr Direkte
LrZerlegungen
gibt es auch für lineare Abbildungen. Seien j=1 Vj = V und j=1 Wj = W
direkte Zerlegungen von K-Vektorräumen. Seien fj : Vj → Wj lineare Abbil-
dungen. Dann gibt es genau eine lineare Abbildung f : V → W , mit der Eigen-
schaft
f (v1 + · · · + vr ) = f1 (v1 ) + · · · + fr (vr ),
für alle vj ∈ Vj , denn durch diese Formel wird eine wohldefinierte Abbildung
beschrieben, und man rechnet sie leicht als linear nach. Wir schreiben diese
Abbildung als f = f1 ⊕ · · · ⊕ fr und nennen sie die direkte Summe der fj . Auch
sagen wir, f sei in die fj direkt zerlegt. 3
Direkte Zerlegungen von Endomorphismen f : V → V sind von grundsätz-
licher Bedeutung. Sei V wie oben direkt zerlegt und bestehe für alle j die
Inklusion fj (Vj ) ⊂ Vj . Dann wird durch Einschränkung eine lineare Abbildung
fj : Vj → Vj , v 7→ f (v) induziert. Es gilt f = f1 ⊕ · · · ⊕ fr .
Der λ-Eigenraum V (λ) von f : V → V ist f -stabil. Die Summe f -stabiler
Unterräume ist f -stabil. Ist V die Summe von Eigenräumen von f , so wird f
in die zugehörigen Endomorphismen der Eigenräume direkt zerlegt. Genauer
gilt für Endomorphismen endlichdimensinonaler Vektorräume V :
28 1 Vektorräume und lineare Abbildungen

(1.5.13) Satz. Seien λ1 , . . . , λr paarweise verschiedene Eigenwerte des Endo-


morphismus f : V → V , sei V (λj ) der Eigenraum von λj und gelte Vj ⊂ V (λj ).
Sei ferner V die Summe der Vj . Dann ist Vj = V (λj ), und es gibt keine wei-
teren Eigenwerte.
P
Beweis. Sei λ(b) der Eigenwert von b ∈ B. Sei v = b∈B µb b 6= 0 Eigenvektor
zum Eigenwert λ. Dann gilt
P P
b λµb b = f (v) = b µb λ(b)b.

Ist µb 6= 0, so folgt λ = λ(b) und µc = 0 für λ(c) 6= λ(b), daß heißt v ∈ Vj , falls
λj = λ(b). Also ist Vj = V (λj ), und es gibt keine weitere Eigenwerte. 2
Der Beweis des letzten Satzes zeigt übrigens:

(1.5.14) Satz. Sind v1 , . . . , vr Eigenvektoren zu paarweise verschiedenen Ei-


genwerten einer linearen Abbildung, so sind sie linear unabhängig. 2

Ergänzungen und Aufgaben


1. Einen mathematischen Begriff soll man nicht durch eine Konstruktion“ sondern

durch eine Eigenschaft“ definieren. Obgleich es für diesen Text noch nicht so wichtig

ist, sollte man zu den Vokabeln der Mengensprache auch die Vokabeln der Kategori-
entheorie zur Kenntnis nehmen5 . In der Kategorientheorie werden eine Summe und
ein Produkt durch sogenannte universelle Eigenschaften definiert (und durch diese
Eigenschaft bis auf eindeutige Isomorphie bestimmt). Für die Summe lautet diese
Eigenschaft in unserem Kontext:
Sei (ιj : Vj → V | j ∈ j) eine Familie von linearen Abbildungen, so daß
Q
Hom(V, W ) → j∈J Hom(Vj , W ), f 7→ (f ◦ ιj )

für jeden Vektorraum W bijektiv ist. Dann gibt es genau einen Isomorphismus ϕ : V →
⊕j∈J Vj , so daß ϕ ◦ ιj = ij ist (vergleiche (1.5.10)). Im Fall des Produktes arbeitet
man analog mit den Projektionen pk .

1.6 Quotienträume
(1.6.1) Satz. Sei f : U → V eine surjektive und γ : U → W eine weitere
lineare Abbildung. Genau dann gibt es eine lineare Abbildung Γ : V → W mit
der Eigenschaft Γf = γ, wenn Kern f ⊂ Kern γ ist.
5 Siehe etwa: S. MacLane: Kategorien. Springer-Verlag, Berlin Heidelberg 1972
1.6 Quotienträume 29

Beweis. Wir deuten die Situation durch ein Diagramm an.

U
γ
/W
}>
}
f }
 } Γ

Gilt Γf = γ, so folgt die genannte Inklusion der Kerne unmittelbar.


Umgekehrt gibt es Γ genau dann als Mengenabbildung, wenn aus f (x) =
f (y) immer γ(x) = γ(y) folgt. Nun ist aber f (x) = f (y) gleichwertig zu x − y ∈
Kern f und ebenso für γ. Die somit eindeutig bestimmte Abbildung Γ mit der
Eigenschaft Γf = γ ist leicht als linear nachzuweisen: Sind x, y ∈ V gegeben,
so wählen wir x = f (a), y = f (b) und erhalten Γ(x) + Γ(y) = γ(a) + γ(b) =
γ(a + b) = Γf (a + b) = Γ(x + y). Analog für die Skalarmultiplikation. 2
Eine surjektive Abbildung f : U → V mit dem Kern L nennen wir eine
Quotientabbildung zum Unterraum L von V . Eine surjektive Abbildung f : U →
V liefert die Äquivalenzrelation: x ∼ y ⇔ f (x) = f (y). Ist f linear mit dem
Kern L, so gilt also x ∼ y ⇔ x − y ∈ L. Die Äquivalenzklassen sind die
Urbilder von Punkten und haben die Form x + L = {z | z = x + y, y ∈ L}.
Eine Teilmenge dieser Form heißt affiner Unterraum von U mit der Richtung L.
Ist dim L = 1 so sprechen wir von einer affinen Geraden, ist die Kodimension
von L in V gleich 1 von einer affinen Hyperebene (Ebene im Fall dim V = 3).
Wir drehen den Spieß nun um! Zu jedem Unterraum L von U haben wir
die Äquivalenzrelation x ∼ y ⇔ x − y ∈ L mit den Klassen der Form x + L.
Die Menge der Klassen bezeichnen wir mit U/L (gelesen U modulo L). Sei
p : U → U/L die Quotientabbildung, die jedem x seine Klasse x + L zuordnet.
Dann gilt:

(1.6.2) Notiz. Es gibt genau eine Vektorraumstruktur auf U/L, so daß p : U →


U/L eine lineare Abbildung wird.

Beweis. Da p surjektiv ist, ist die Struktur eindeutig bestimmt; damit p linear
wird, müssen wir die Addition nämlich durch

U/L × U/L → U/L, (x + L, y + L) 7→ (x + y) + L

definieren. Zu zeigen ist, daß damit eine wohldefinierte Abbildung gegeben ist.
Das bedeutet: Aus x + L = x0 + L, y + L = y 0 + L folgt x + y + L = x0 + y 0 + L
(Unabhängigkeit von der Auswahl der Repräsentanten). Nun ist aber x + L =
x0 +L gleichwertig mit x−x0 = a ∈ L, und damit folgt x+y+L = x0 +a+y+L =
x0 + y + L, da a ∈ L ist. Ebenso muß die Skalarmultiplikation durch λ(x + L) =
λx + L definiert werden, und eine Rechnung wie eben λx + L = λ(x0 + a) + L =
λx0 + λa + L = λx0 + L zeigt die Unabhängigkeit vom Repräsentanten. Damit
30 1 Vektorräume und lineare Abbildungen

haben wir die Verknüpfungen, also die Daten für eine Vektorraumstruktur, auf
U/L definiert. Die Vektorraumaxiome folgen unmittelbar aus denen für U . 2

Der Raum U/L heißt Quotientraum6 von U nach L. Die vorstehende Über-
legung zeigt insbesondere, daß jeder Unterraum Kern einer linearen Abbildung
ist.
Ist f : U → V eine lineare Abbildung, die einen Unterraum U0 ⊂ U in
einen Unterraum V0 ⊂ V abbildet, so gibt es genau eine lineare Abbildung
F : U/U0 → V /V0 , genannt die durch f induzierte, die das Diagramm

U0

/U pU
/ U/U0

f0 f F
  
V0

/V pV
/ V /V0

kommutativ macht (pU , pV Quotientabbildungen, f0 Einschränkung von f ).


Die Voraussetzung besagt nämlich, daß U0 im Kern von pV ◦f liegt, und deshalb
läßt sich (1.2.5) anwenden.

(1.6.3) Notiz. Seien f0 und F im letzten Diagramm Isomorphismen. Dann


ist auch f ein Isomorphismus.

Beweis. Sei f (x) = 0. Dann ist 0 = pV f (x) = F pU (x). Weil F injektiv ist,
folgt pU (x) = 0. Mithin liegt x in U0 . Dann ist aber f0 (x) = f (x) = 0, und da
f0 injektiv ist, gilt x = 0. Also ist f injektiv.
Sei y ∈ V gegeben. Da F pU surjektiv ist, gibt es x ∈ U mit F pU (x) = pV (y).
Also liegt y−f (x) im Kern von pV , also in V0 . Da f0 surjektiv ist, gibt es z ∈ U0
mit f0 (z) = y − f (x). Also ist y = f (x + z) und somit f auch surjektiv. 2

Aus der letzten Notiz folgt durch Induktion nach r:

(1.6.4) Satz. Sei f : V → W eine lineare Abbildung, seien 0 = V0 ⊂ V1 ⊂


. . . ⊂ Vr = V und 0 = W0 ⊂ W1 ⊂ . . . ⊂ Wr = W Unterräme und gelte
f (Vj ) ⊂ Wj . Dann induziert f Abbildungen fj : Vj /Vj−1 → Wj /Wj−1 , 1 ≤ j ≤
r. Sind alle diese Abbildungen Isomorphismen, so ist f ein Isomorphismus. 2

Wir benutzten schließlich die Quotienträume dazu, einen weiteren Beweis


für die Existenz der Dimension zu führen. Dazu genügt es zu zeigen:

(1.6.5) Satz. Der Vektorraum V habe eine Basis aus n Elementen. Dann ist
jede Menge mit n + 1 Elementen linear abhängig.
6 Manche sagen auch Quotientenraum; das wäre aber ein Raum, der aus Quotienten be-

steht.
1.6 Quotienträume 31

Beweis. Induktion nach n. Ist n = 1, b ein Basisvektor, und sind x 6= 0, y 6= 0


aus V , so gilt x = λb, y = µb mit λ 6= 0 6= µ, und µx − λy = 0 ist eine lineare
Relation.
Wir nehmen nun an, daß der Satz für jeden Raum mit höchstens n−1 Basis-
elementen gilt. Sei (b1 , . . . , bn ) eine Basis von V , und sei S = {x1 , . . . , xn+1 } ⊂
V gegeben. Ist xn+1 = 0, so ist S linear abhängig. Sei also xn+1 6= 0 und L
der von xn+1 aufgespannte Unterraum. Wir benutzen die Quotientabbildung
p : V → V /L. Da die p(b1 ), . . . , p(bn ) den Raum V /L erzeugen, Pn enthält diese
Menge eine Basis P (1.3.10). Es gibt eine Darstellung x n+1 = j=1 λj bj . Wegen
0 = p(xn+1 ) = j λj p(bj ) sind die p(bj ) linear abhängig, und deshalb hat V /L
nach (1.3.10) eine Basis mit P weniger als n Elementen. Nach PInduktion gibt es
n
daher eine echte Relation k µk p(xk ) = 0. Das bedeutet: k=1 µk xk liegt im
Kern von p und hat somit die Form µn+1 xn+1 . 2

Ergänzungen und Aufgaben


1. Aus der Analysis ist der Begriff einer Cauchy-Folge bekannt. Sei C(Q) der Vek-
torraum aller Cauchy-Folgen (xi | i ∈ N) aus rationalen Zahlen xi . In der Menge der
reellen Zahlen hat diese Folge einen Grenzwert. Indem man jeder Cauchy-Folge ihren
Grenzwert zuordnet, erhält man eine surjektive lineare Abbildung C(Q) → R, de-
ren Kern N (Q) aus allen Nullfolgen besteht. Auf diese Weise wird der Quotientraum
C(Q)/N (Q) isomorph zu R. Man kann also, wenn man die reellen Zahlen noch nicht
kennt, diese algebraisch als Quotientraum aus den rationalen Zahlen konstruieren.
(Weitere Strukturen, wie etwa die Multiplikation, lassen sich aus dieser Konstruktion
ebenfalls unschwer herleiten.)
2. Die Definition des Quotientraumes kann für manche anderen algebraischen Ob-
jekte imitiert werden. Sei G eine abelsche Gruppe und U eine Untergruppe, dann
ist x ∼ y ⇔ x − y ∈ U eine Äquivalenzrelation. Auf der Menge G/U der Klassen
gibt es genau eine Struktur einer abelschen Gruppe, so daß die Quotientabbildung
G → G/U ein Homomorphismus ist. (Im Falle nicht-abelscher Gruppen muß man von
U eine weitere Eigenschaft verlangen: Normalteiler.)
Kapitel 2

Matrizen

Eine Hauptaufgabe der linearen Algebra ist die geometrische und algebraische
Untersuchung der linearen Abbildungen. Dieser Abschnitt ist der Beschreibung
linearer Abbildungen durch Matrizen gewidmet. Eine Matrix ist eine Tabelle.
Tabellen werden als rechteckiges Schema notiert. Sie bestehen aus Zeilen und
Spalten. Eine Tabelle bietet auf kleinstem Raum eine Fülle an Information
übersichtlich dar. In der Mathematik ist eine Matrix ein rechteckiges Zahlen-
schema. Die Matrizenrechnung ist ein Algorithmus mit außerordentlichen prak-
tischen und theoretischen Möglichkeiten. Ein wichtiges methodisches Prinzip
der linearen Algebra ist die Übersetzung geometrischer und begrifflicher Aussa-
gen über lineare Abbildungen in algebraische, algorithmische und rechnerische
Aussagen über Matrizen.
Das Rechnen mit Matrizen ist aber auch ein Kalkül, der in weiten Teilen
unabhängig von Vektorräumen und linearen Abbildungen entwickelt werden
kann. Doch bleibt dann Einiges ohne die begriffliche Deutung unklar oder un-
motiviert.

2.1 Matrizen
Wir beginnen mit ein wenig Terminologie über die Datensysteme der Matrizen.
Die Nützlichkeit dieser Begriffsbildungen wird sich alsbald erweisen.

(2.1.1) Matrizen. Eine (n, m)-Matrix mit Einträgen oder Elementen akl aus
2.1 Matrizen 33

dem Körper K wird notiert als rechteckiges Schema


 
a11 a12 a13 . . . a1m
 a21 a22 a23 . . . a2m 
(1.1)  . . . . . . . . . . . . . . . . . . . . . . . . .  = A.
 

an1 an2 an3 . . . anm

Der erste Index ist der Zeilenindex, der zweite Index der Spaltenindex. Dem-
gemäß nennen wir zi = (ai1 , . . . , aim ) die i-te Zeile der Matrix A und
 
a1k
 a2k 
sk = ...

ank

die k-te Spalte der Matrix A. Wir sprechen in diesem Kontext auch von Zei-
lenvektoren zi und Spaltenvektoren sk .
Formal mathematisch ist eine (n, m)-Matrix eine Abbildung

a : {1, . . . , n} × {1, . . . , m} → K

mit dem Wert akl an der Stelle (k, l). Deshalb sprechenwir auch von einer
n × m-Matrix.
Natürlich kann man diese Definition mengentheoretisch ganz allgemein fas-
sen: Eine Abbildung a : S × T → M ist eine S × T -Matrix mit Werten in der
Menge M . Ist speziell S ⊂ {1, . . . , n} und T ⊂ {1, . . . , m}, so heißt die ein-
geschränkte Abbildung a : S × T → K eine Untermatrix der n × m-Matrix
a : {1, . . . , n} × {1, . . . , m} → K. Überhaupt werden in der Praxis die Zeilen
und Spalten nicht immer beginnend mit 1 durchnumeriert. Eine Untermatrix
entsteht also durch Streichung von einigen Zeilen und Spalten. 3
Wo treten nun Matrizen auf und warum sind sie nützlich? Wir nennen in
Schlagworten einige Anwendungsbereiche.
(1) Lineare Abbildungen.
(2) Lineare Gleichungen.
(3) Basiswechsel.
(4) Koordinatenwechsel.
(5) Bilineare Abbildungen.
(6) Gruppentheorie.
(7) Matrizenkalkül.

(2.1.2) Matrix einer linearen Abbildung. Sei f : V → W eine lineare


Abbildung zwischen Vektorräumen über dem Körper K. Wir wählen geordnete
Basen B = {v1 , . . . , vm } von V und C = {w1 , . . . , wn } von W . Wie wir wissen,
34 2 Matrizen

ist eine lineare Abbildung f durch die Bildvektoren f (v1 ), . . . , f (vm ) bestimmt.
Wir schreiben diese als Linearkombinationen der Basisvektoren von w
Pn
(1.2) f (vi ) = j=1 xji wj , xji ∈ K.

Man achte in dieser Formel auf die Reihenfolge der Indices.


Die Matrix
 
x11 x12 x13 . . . x1m
 x21 x22 x23 . . . x2m  C
(1.3)  . . . . . . . . . . . . . . . . . . . . . . . . . .  = X = mB (f ).
 

xn1 xn2 xn3 . . . xnm

heißt die Matrix von f bezüglich B, C. Ist V = W , so arbeiten wir im allgemei-


nen mit gleichen Basen B = C und sprechen von der Matrix von f bezüglich
B. Matrizen werden wir meist durch große Buchstaben bezeichnen.
Die Abbildung f ist durch die Matrix mC B (f ) eindeutig bestimmt, wenn die
Basen B und C einmal fixiert sind. Die k-te Spalte ist der Koordinatenvektor
von f (vk ) bezüglich der Basis C. Hierin steckt, wie schon gesagt, eine Vereinba-
rung: Es wäre auch möglich, den Koordinatenvektor als k-te Zeile zu notieren.
3

(2.1.3) Räume von Abbildungen und Matrizen. Auf der Menge M (n, m)
der (n, m)-Matrizen über K definieren wir eine Addition und Skalarmultiplika-
tion komponentenweise:

(aij ) + (bij ) = (aij + bij ), λ(aij ) = (λaij ).

Damit wird M (n, m) zu einem Vektorraum der Dimension nm, denn M (n, m)
ist offenbar im wesentlichen ein Standardvektorraum, nur in etwas anderer
Schreibweise.
In diesem Kontext hat übrigens der Standardraum K n zwei Erscheinungs-
formen, nämlich M (1, n) als Zeilenvektoren“ und M (n, 1) als Spaltenvek-
” ”
toren“. Wir werden künftig beide Versionen verwenden, darauf möchte man
achten.
Wir hatten früher schon den Vektorraum Hom(V, W ) der K-linearen Ab-
bildungen erklärt. Beide Räume passen nun zusammen.
Die Abbildung
mCB : Hom(V, W ) → M (n, m)

ist ein Isomorphismus von Vektorräumen. Daraus folgt

dim Hom(V, W ) = dim V · dim W.

Die Bijektivität ist nichts anderes als die Aussage, daß eine lineare Abbil-
dung durch die Bilder der Basisvektoren bestimmt ist und diese Bilder beliebig
2.1 Matrizen 35

vorgeschrieben werden können. Die Verträglichkeit mit Addition und Skalar-


multiplikation folgt unmittelbar durch Einsetzen der Definitionen. 3

(2.1.4) Matrizenprodukt. Eine wichtige Konsequenz aus der Zuordnung ei-


ner Matrix zu einer linearen Abbildung ist eine Formel für die Matrix einer
Verkettung von linearen Abbildung. Das Resultat nennen wir das Produkt der
Matrizen.
Seien U, V, W Vektorräume mit Basen A = (u1 , . . . , um ), B = (v1 , . . . , vn ),
C = (w1 , . . . , wp ). Sei g ∈ Hom(V, W ) und f ∈ Hom(U, V ). Wir setzen
P P
g(vj ) = k xkj wk , f (ui ) = j yji vj .

Diese Daten liefern


P  P P P
(g ◦ f )(ui ) = g j yji vj = j yji g(vj ) = j yji ( k xkj wk )
P P 
= k j xkj yji wk .

Deshalb ist mC
P
A (g ◦ f ) = Z = (zki ) mit zki = j xkj yji . Wir nennen diese
Matrix Z das Produkt XY von (X, Y ).
Wir sammeln das Resultat in einem Diagramm.

(g, f ) ∈ Hom(V, W ) × Hom(U, V ) / Hom(U, W ) 3g◦f


mC B
B ×mA mC
A
 
(X, Y ) ∈ M (p, n) × M (n, m) / M (p, m) 3 XY = Z.

Das Produkt XY = (xkj )(yji ) der Matrizen X = (xkj ) ∈ M (p, n) und


Y = (yji ) ∈ M (n, m) ist die Matrix Z = (zki ) ∈ M (p, m) mit den Einträgen
Pn
zki = j=1 xkj yji .

In Worten: An der Stelle (k, i) der Produktmatrix steht eine Summe, die sich
aus der k-ten Zeile der ersten (= linken) und der i-ten Spalte der zweiten
(= rechten) Matrix wie angegeben berechnet. Wir notieren ein Produkt von
Matrizen auch als Produkt in der üblichen Weise

M (p, n) × M (n, m) → M (p, m), (X, Y ) 7→ XY = X · Y

und benutzen die Standardsymbole wie etwa A · A = A2 .


36 2 Matrizen

y1j

xi1 xin × = r zij

ynj

X × Y = Z

Es sei darauf hingewiesen, daß das Produkt von Matrizen nur dann definiert
ist, wenn sie der Größe nach zusammenpassen. Immer wenn wir ein Matrizen-
produkt hinschreiben, so sei dieses Passen unterstellt. 3

Hier sind einige einfache Beispiele für Matrizenprodukte.


     
c c ca cb
(a b) = (ac + bd) , (a b) =
d d da db

    
a b e f ae + bg af + bh
=
c d g h ce + dg cf + dh

(2.1.5) Notiz. Die oben durchgeführte Rechnung besagt, daß Verkettung von
linearen Abbildungen in das Produkt von Matrizen überführt wird, in Formeln:

mD C D
C (g)mB (f ) = mB (gf ).

Verkettung von Abbildungen ist assoziativ, also ist das Matrizenprodukt asso-
ziativ X(Y Z) = (XY )Z. 2

(2.1.6) Bemerkung. Es ist nützlich, sich folgendes klarzumachen: Die Spalten


einer Produktmatrix AB bestehen aus Linearkombinationen der Spaltenvekto-
ren von A. In der i-ten Spalte wird mit den Einträgen der i-ten Spalte von B
linear kombiniert. Analog sind die Zeilen der Produktmatrix Linearkombina-
tionen der Zeilen von B. Wir schreiben diese Aussage in Formeln hin. Sei Zi
die i-te Zeile und Si die i-Spalte einer Matrix. Dann sind
P
Zi (AB) = aik Zk (B)
Pk
Si (AB) = k bki Sk (A)

die genannten Relationen. 3


2.1 Matrizen 37

Ergänzungen und Aufgaben


1. Die Multiplikation „ C → «C, w 7→ zw hat als R-lineare Abbildung bezüglich der
a −b
Basis 1, i die Matrix , wenn z = a+bi die Zerlegung in Real- und Imaginärteil
b a
ist.
2. Sei V ein komplexer Vektorraum und f : V → V eine C-lineare Abbildung. Sei
L = (λk` ) die Matrix von f bezüglich einer C-Basis v1 , . . . , vn von V . Wir setzen
λk` = αk` + iβk` mit reellen αk` und βk` an. Aus
P P P
f (v` ) = k λk` vk = k αk` vk + k βk` (ivk )
P P
f (iv` ) = − k βk` vk + k αk` (ivk )
erkennt man, daß f , aufgefaßt als R-lineare « fR : VR → VR , bezüglich der
„ Abbildung
A −B
R-Basis v1 , . . . , vn , iv1 , . . . , ivn die Matrix mit A = (αk` ), B = (βk` ) hat.
B A
3. Nachweis der Assoziativität des Matrizenprodukts ohne die Interpretation durch
lineare Abbildungen direkt aus der Formel.
4. Ist das Produkt zweier (n, n)-Matrizen invertierbar, so auch jeder Faktor.
5. Aus der Formel
„ «„ « „ «
a b d −b ad − bc 0
=
c d −c a 0 ad − bc

folgere man, daß die erste Matrix genau dann invertierbar ist, wenn ad − bc 6= 0 ist.
6. Hat eine lineare Abbildung die Matrix A, so hat die duale Abbildung bezüglich
der Dualbasen die Matrix At .
7. Die Verkettung

Hom(V, W ) × Hom(U, V ) → Hom(U, W ), (g, f ) 7→ g ◦ f = gf

ist bilinear: Es gelten die Verträglichkeiten mit der Vektorraumstruktur g ◦(f1 +f2 ) =
g ◦ f1 + g ◦ f2 , (g1 + g2 ) ◦ f = g1 ◦ f + g2 ◦ f2 , (λg) ◦ f = λ(g ◦ f ), g ◦ (λf ) = λ(g ◦ f ).
8. Das Matrizenprodukt

M (p, n) × M (n, m) → M (p, m), (X, Y ) 7→ XY

ist bilinear: Es gelten die Rechenregeln X(Y1 + Y2 ) = XY1 + XY2 , (X1 + X2 )Y =


X1 Y + X2 Y , (λX)Y = X(λY ) = λ(XY ).
9. Besonders in der physikalischen Literatur schreibt man die Formel (1.1) gerne
in der Form f (vi ) = n j
P
j=1 xi wj . Der Grund dafür ist, daß man in komplizierteren
Formeln dieser Art ( Tensorrechnung“) die sogenannte Summenkonvention anwendet;

sie besagt, daß über einen gleichen oberen und unteren Index summiert wird — und
dadurch spart man sich das Summenzeichen.
Diese Schreibweise hat auch andere Vorteile. Sind nämlich v i und P wj die Dual-
basen von V und W , so hat die duale Abbildung die Form f (w ) = i xji v i , und
∗ ∗ ∗ j

auch hier kann man die Summenkonvention anwenden.


Mit der Summenkonvention geschrieben ist zum Beispiel das Produkt der Matri-
zen (xki ) und (yli ) die Matrix mit dem Eintrag xki yli an der Stelle (k, l).
38 2 Matrizen

2.2 Spezielle Matrizen

(2.2.1) Invertierbare Matrizen. Die identische Abbildung id : V → V hat


bezüglich jeder Basis B von V die Einheitsmatrix mB B (id) = In = (δij ), deren
Einträge δii = 1 und δij = 0 für i 6= j sind. Man nennt eine Familie δij mit
diesen Eigenschaften manchmal Kronecker-Symbol 1 .
Eine (n, n)-Matrix (also eine quadratische Matrix) A heißt invertierbar oder
regulär, wenn sie bezüglich der Matrizenmultiplikation eine inverse Matrix hat,
wenn es also eine (n, n)-Matrix B so gibt, daß AB = BA die Einheitsmatrix
In ist.
Ist f : V → W ein Isomorphismus, gibt es also eine inverse Abbildung
g : W → V , so ist gf = id(V ) und f g = id(W ). Bezüglich beliebiger Basen
B und C ist deshalb die Matrix mC B (f ) invertierbar.
Ist, umgekehrt mC B (f ) invertierbar, so ist f ein Isomorphismus. 3

(2.2.2) Matrizengruppen. Die regulären (n, n)-Matrizen über eine Körper


K bilden bezüglich der Multiplikation eine Gruppe, die allgemeine lineare
Gruppe genannt und GL(n, K) bezeichnet wird2 . Das neutrale Element ist In .
Die linearen Gruppen und einige ihrer Untergruppen gehören zu den wich-
tigsten Gegenständen der Mathematik. Sie sind von einer außerordentlichen
Komplexität, und ihre inneren Geheimnisse sind noch lange nicht enträtselt.
Der weitere Verlauf der linearen Algebra dient zum Teil dem Studium dieser
Gruppen. 3

(2.2.3) Diagonalmatrizen. Ist A = (aij ) eine (n, n)-Matrix, so heißen die


Elemente a11 , a22 , . . . , ann die Diagonalelemente und ihre Gesamtheit bildet die
Diagonale oder auch Hauptdiagonale der Matrix A. Es gibt noch eine zweite
Diagonale, die weniger wichtig ist, deshalb Nebendiagonale heißt und aus den
Elementen aij mit i + j = n + 1 besteht. Sind alle Elemente einer Matrix
außerhalb der Hauptdiagonale gleich Null, so heißt sie Diagonalmatrix. Wir
schreiben Dia (d1 , . . . , dn ) für eine Diagonalmatrix (aij ) mit aii = di . Es gilt

Dia (a1 , . . . , an ) · Dia (b1 , . . . , bn ) = Dia (a1 b1 , . . . , an bn ).

Die Nullabbildung, die jeden Vektor auf den Nullvektor wirft, besitzt die
Nullmatrix, deren sämtliche Einträge Null sind.
Später werden wir uns mit dem Problem beschäftigen, zu einer linearen
Abbildung durch geschickte Basiswahl eine möglichst einfache Matrix zu fin-
den. Diagonalmatrizen werden unter diesem Gesichtspunkt als die einfachsten
angesehen.
1 Leopold Kronecker 1823 – 1891
2 Die Bezeichnung kommt von General Linear
2.2 Spezielle Matrizen 39

Eine Diagonalmatrix Dia(a1 , . . . , an ) ist offenbar genau dann invertierbar,


wenn alle ai 6= 0 sind, wie die Produktformel für Diagonalmatrizen lehrt. Die in-
vertierbaren Diagonalmatrizen bilden eine Untergruppe D(n, K) von GL(n, K).

Aus der Definition einer Matrix zu einer linearen Abbildung ist unmittelbar
klar:

(2.2.4) Notiz. Genau dann hat f : V → V bezüglich der Basis B eine Diago-
nalmatrix, wenn B aus Eigenvektoren von f besteht. 2

(2.2.5) Dreiecksmatrizen. Eine (n, n)-Matrix B = (bij ) heißt obere Drei-


ecksmatrix, wenn die Elemente unterhalb der Diagonale (das heißt die Elemente
bij mit i > j) gleich Null sind. Analog wird eine untere Dreiecksmatrix erklärt.
Das Produkt oberer (unterer) Dreiecksmatrizen ist wieder eine Matrix dieser
Form.
Sei d die Abbildung, die jeder oberen Dreiecksmatrix die Diagonalmatrix
mit derselben Diagonale zuordnet. Dann gilt d(AB) = d(A)d(B); eine inver-
tierbare Matrix wird also auf eine invertierbare abgebildet. Folglich hat eine
invertierbare obere Dreicksmatrix auf der Diagonale keine Nullen.
Sei V ein n-dimensionaler Vektorraum. Eine Fahne in V ist ein System

0 = V0 ⊂ V1 ⊂ V2 ⊂ . . . ⊂ Vn−1 ⊂ Vn = V

von Unterräumen der Dimension dim Vj = j. Zu einer solchen Fahne gibt es


eine Basis {b1 , . . . , bn }, so daß {b1 , . . . , bj } eine Basis von Vj ist. Eine lineare
Abbildung f : V → V mit der Eigenschaft f (Vj ) ⊂ Vj hat bezüglich dieser
Basis eine obere Dreiecksmatrix. Der von f auf dem Quotientraum Vj /Vj−1
induzierte Endomorphismus ist die Multiplikation mit dem j-ten Diagonalele-
ment. Sind alle diese Elemente von Null verschieden, so ist f nach (1.6.4) ein
Isomorphismus, also die Dreiecksmatrix invertierbar. Das Inverse g hat wieder
die Eigenschaft g(Vj ) ⊂ Vj und wird deshalb ebenfalls durch eine obere Drei-
ecksmatrix beschrieben. Damit haben wir gezeigt: Die oberen Dreiecksmatrizen
ohne Nullen auf der Diagonale bilden eine Gruppe.
Eine obere (n, n)-Dreiecksmatrix A habe auf der Diagonale nur Nullen.
Dann ist An die Nullmatrix. Eine Matrix, für die eine Potenz die Nullmatrix
ist, heißt nilpotent. 3

(2.2.6) Blockmatrizen. Eine Matrix wird oft in kleinere Matrizen aufgeteilt,


indem man sie durch senkrechte und waagerechte Linien in Rechtecke zerlegt.
Die Teilmatrizen heißen dann die Blöcke der großen Matrix. Es sieht dann das
Ergebnis so aus, als sei die große Matrix eine Matrix, deren Einträge selbst
wieder Matrizen sind, nämlich die Blöcke. Betrachten wir eine direkte Summe
40 2 Matrizen

f ⊕ g : U ⊕ U 0 → V ⊕ V 0 mit Basen B, B 0 , C, C 0 in U, U 0 , V, V 0 , so ergibt sich


eine Blockzerlegung
mC
!
C∪C 0 B (f ) 0
mB∪B 0 (f ⊕ g) = 0
.
0 mC B 0 (g)

Ist U ⊂ V ein f -stabiler Unterraum und ergänzen wir eine Basis von U zu
einer von V , so hat die Matrix von f eine Blockform
 
X Y
.
0 Z
Sind allgemeiner U1 ⊂ . . . ⊂ Ut f -stabile Unterräume und ergänzen wir nach-
einander Basen von U1 , U2 , . . ., so wird die Matrix von f eine obere Blockdrei-
ecksmatrix. Aus (1.6.4) entnehmen wir, daß eine solche Matrix invertierbar ist,
wenn die Diagonalblöcke invertierbar sind. Ein direkter Beweis durch Induk-
tion nach der Anzahl der Blöcke ist eine instruktive Aufgabe. Auch mit Hilfe
der Determinantentheorie kann man den Beweis führen. 3

(2.2.7) Transponierte Matrizen. Werden in einer Matrix A Zeilen und


Spalten vertauscht, so entsteht die transponierte Matrix At von A. Genauer: Ist
A = (aij ) eine (m, n)-Matrix, so ist At eine (n, m)-Matrix, die an der Stelle (i, j)
das Element aji trägt. Das Transponieren ist für viele Rechenprozesse nützlich.
Es gelten die folgenden Rechenregeln: (A + B)t = At + B t und (AB)t = B t At .
Da die Matrizenmultiplikation im allgemeinen nicht kommutativ ist, muß die
letzte Regel sorgsam beachtet werden. 3

Ergänzungen und Aufgaben


1. Sei N eine nilpotente quadratische Matrix mit N n = 0. Dann ist

(I − N )(I + N + N 2 + · · · + N n−1 ) = I − N n = I.

Also ist I −N invertierbar. Eine obere Dreicksmatrix mit lauter Einsen auf der Diago-
nale ist also invertierbar. Ist B eine obere Dreickmatrix ohne Nullen auf der Diagonale,
so gibt es eine Diagonalmatirx D, so daß DB nur Einsen auf der Diagonale hat. Also
ist B invertierbar.
2. Verallgemeinerte Blockmatrizen. L Sei U1 , . . . , Um eine Familie von Vek-
torräumen mit der direkten Summe U = s Us . Dazu gibt es die kanonischen In-
jektionen ik : Uk → U und die kanonischen Projektionen L pl : U → Ul . Ist V1 , . . . Vn
eine weitere Familie mit der direkten Summe V = t , Vt , so benutzen wir U und V
als oberen Index, um die zu U und V gehörenden Injektionen und Projektionen zu
unterscheiden. Die lineare Abbildung ϕ : U → V besitzt die Teilabbildungen

ϕlk = pVl ◦ ϕ ◦ iU
k : Uk → V l .
2.3 Basiswechsel. Koordinatentransformation 41

Aus diesen gewinnt man ϕ zuück


P P
ϕ(u1 , . . . , um ) = ( j ϕ1j uj , . . . , j ϕnj uj ).

Die Wirkung von ϕ als Resultat der Teilabbildungen läßt sich nun ebenfalls als Ma-
trizenprodukt schreiben

···
0 10 1
ϕ11 ϕ1m u1
B . .. C B .. C ,
@ .. ··· . A@ . A
ϕn1 ... ϕnm um

worin aber die Einträge der Matrix jetzt nicht mehr Elemente des Körpers sind son-
dern lineare Abbildungen. Mit dieser Notation erhält auch die Verkettung von linea-
ren Abbildungen
P dasselbe Aussehen wie ein Matrizenprodukt, es ist dann nämlich
(ψ ◦ ϕ)kl = j ψkj ◦ ϕjl .
Wenn wir speziell K m als direkte Summe m
L
s=1 K ansehen, so wird ϕlk : K → K
formal gesehen eine lineare Abbildung, aber eine lineare Abbildung K → K ist die
Multiplikation mit einem Körperelement, und wir können dann ohne Schaden die
Matrix ϕlk als eine Matrix mit Einträgen aus K ansehen.

2.3 Basiswechsel. Koordinatentransformation


Wir haben lineare Abbildungen durch Matrizen beschrieben. Dazu mußten wir
in den beteiligten Vektorräumen Basen auswählen. Wir überlegen nun, wie sich
die Matrixdarstellung einer linearen Abbildung ändert, wenn wir die Basen
ändern. Für den gesamten Übersetzungsprozeß ist diese Abhängigkeit immer
zu berücksichtigen. Die Basiswahl wird als etwas Zufälliges und Unwichtiges
angesehen. Jedoch erlaubt die Freiheit der Basiswahl auf der rechnerischen
Seite, durch geschickte Auswahl ein vorgegebenes Problem zu vereinfachen oder
übersichtlicher zu gestalten.
(2.3.1) Basiswechsel. Ein Vektorraum mit einer geordneten Basis B sei vor-
gegeben. Wählen wir eine zweite Basis B 0 , so wollen wir vorübergehend B die
alte und B 0 die neue Basis nennen. Wir schreiben auch (V, B) und (V, B 0 ) für
diese Daten. Die Vektoren der alten Basis sind Linearkombinationen der neuen
Basis, und wir notieren diesen Sachverhalt gemäß unserer Vereinbarungen

wkj b0k .
P
bj = k

Die dadurch bestimmte Matrix gehört zur identitischen Abbildung


0
mB
B (id) = (wkl ) = S.
42 2 Matrizen

Wir nennen sie die Basiswechselmatrix Alt durch Neu“. Die Matrix ist inver-

tierbar, und das Inverse beschreibt Neu durch Alt“. Aus der Verkettungsformel

(2.1.5) folgt
00
B0 B 00
mBB 0 (id)mB (id) = mB (id).

Die zu einer linearen Abbildung f : (V, B) → (W, C) gehörende Matrix ist


0 0
mC
B (f ) = X. Wählen wir neue Basen B und C , so ändert sich die Matrix
C0 0
mB 0 (f ) = X gemäß
0 0 0
mC C C C B
B 0 (f ) = mB 0 (idW ◦f ◦ idV ) = mC (idW )mB (f )mB 0 (idV ).

Mit den Abkürzungen


0 0
T = mC
C (idW ) und S = mB
B (idV )

erhalten wir also die Formel T XS −1 = X 0 .


Ist V = W , so benutzt man zweckmäßig in V und W dieselbe Basis. In die-
sem Fall hat man natürlich nur einen Basiswechsel zur Verfügung. Wir notieren
gesondert diesen Spezialfall:

(2.3.2) Satz (Basiswechsel). Mit der oben vereinbarten Sprechweise gilt: Ist
f : V → V ein Endomorphismus, X seine Matrix in der alten und Y seine
Matrix in der neuen Basis, und ist T die Matrix, die die alten Basisvektoren
durch die neuen ausdrückt, so gilt T −1 XT = Y . 2

Im folgenden werden wir bei der Untersuchung von Endomorphismen immer


nur mit einer Basis arbeiten, wenn nicht ausdrücklich etwas anderes gesagt
wird. 3

(2.3.3) Äquivalente Matrizen. Konjugierte (ähnliche) Matrizen. Die


vorstehenden Formeln kann man als Rechenprozesse mit Matrizen ansehen,
ohne dabei an Basiswechsel zu denken. Darauf bezieht sich die folgende Termi-
nologie.
Wir nennen (n, m)-Matrizen X und Y äquivalent oder, zur Verdeutlichung,
grob-äquivalent, wenn es eine invertierbare (n, n)-Matrix A und eine invertier-
bare (m, m)-Matrix B gibt, so daß die Gleichung A−1 XB = Y besteht.
Zwei (n, n)-Matrizen X und Y heißen ähnlich oder konjugiert, wenn es eine
invertierbare (n, n)-Matrix T gibt, so daß die Gleichung T −1 XT = Y besteht.
Äquivalenz ist eine Äquivalenzrelation auf (n, m)-Matrizen, Ähnlichkeit ist
eine Äquivalenzrelation auf (n, n)-Matrizen. 3
Zu einem Endomorphismus gehört also eine Konjugationsklasse von Matri-
zen. Die Mehrdeutigkeit, die durch die Basiswahl ensteht, haben wir jedenfalls
algebraisch etwas in den Griff bekommen. Eine naheliegende Frage ist nun,
ob man einer Matrix gewisse Invarianten“ zuordnen kann, die nur von der

2.3 Basiswechsel. Koordinatentransformation 43

Konjugationsklasse abhängen. Wir präsentieren eine einfach zu berechnende


Invariante, die sogenannte Spur. Ihre Bedeutung wird allerdings an dieser Stel-
le nicht erläutert.
(2.3.4) Die Spur. Die Summe der Diagonalelemente einer (n, n)-Matrix A =
(aij ) heißt Spur der Matrix, in Zeichen:
Pn
Sp(A) = j=1 ajj .

Ist Mn (K) der Vektorraum der (n, n)-Matrizen über K, so ist die Spur eine
lineare Abbildung
Sp : Mn (K) → K.
Eine simple Rechnung zeigt für zwei (n, n)-Matrizen A und B die Relation

Sp(AB) = Sp(BA).

Es folgt: Konjugierte Matrizen haben dieselbe Spur. Damit ist die Spur auch
für einen Endomorphismus definiert, nämlich als die Spur irgendeiner repräsen-
tierenden Matrix (siehe (2.3.3)). 3

(2.3.5) Satz. Sei T : Mn (K) → K eine lineare Abbildung mit der Eigenschaft
T (AB) = T (BA) für alle A, B ∈ Mn (K). Dann ist T ein skalares Vielfaches
von Sp.
Beweis. Sei Eij ∈ Mn (K) die Matrix, die an der Stelle (i, j) eine 1 hat und sonst
überall Nullen. Die Eij bilden eine Basis von Mn (K). Es gilt Eij Ekl = δjk Eil .
Für i 6= l ist deshalb
Eij Ejl − Ejl Eij = Eil
und folglich T (Eil ) = 0. Wegen

Eij Eji − Eji Eij = Eii − Ejj

gilt außerdem T (Eii ) = T (Ejj ). Damit ist der Wert von T auf (aij ) gleich
T (a11 ) Sp(aij ). 2
(2.3.6) Koordinaten. Hat man in einem Vektorraum V eine Basis B =
{b1 , . . . , bm } gewählt, so kann man die Elemente von V durch Koordinaten
beschreiben; die Koordinaten
Pm von v ∈ V sind die Koeffizienten in einer Line-
arkombination v = j=1 j j durch die Basisvektoren. Wir wollen die Ko-
λ b
ordinaten für die weiteren Zwecke als Spaltenvektor auffassen. Der dadurch
bestimmte lineare Isomorphismus
 
λ1
m  .. 
κ = κB : V → K , v 7→  . 
λm
44 2 Matrizen

heißt Koordinatenabbildung von V bezüglich B. Wahl einer Basis entspricht so


der Wahl eines Isomorphismus V → K m . Auch hier fragt man natürlich, wie
sich die Koordinaten ändern, wenn eine andere Basis gewählt wird. Eine zweite
Frage ist, wie eine lineare Abbildung durch die Koordinaten beschrieben wird.
Zum letzteren erklären wir, wie lineare Abbildungen zwischen Standardvek-
torräumen mittels Matrizen hergestellt werden. 3

(2.3.7) Standardabbildung zu einer Matrix. Der Vektorraum K n hat die


Standardbasis {e1 , . . . , en }. Deshalb haben wir auch eine Standardmethode,
lineare Abbildungen zwischen diesen Räumen durch Matrizen zu beschreiben.
Sei A = (aij ) eine (n, m)-Matrix mit Eintragungen aus K. Wir fassen die
Elemente aus K m als (m, 1)-Matrizen auf, das heißt als Spaltenvektoren“. Für

x ∈ K m ist dann das Matrizenprodukt Ax definiert und ein Spaltenvektor“
n ”
aus K . Die Abbildung

L : K m → K n, x 7→ Ax

ist eine lineare Abbildung, und die Matrix von L bezüglich der Standardba-
sen ist A (oh Wunder!). Wir bezeichnen diese Abbildung deshalb besser mit
A : K m → K n , denn glücklicherweise haben das Abbildungssymbol A(x) und
das Matrizenprodukt dasselbe Aussehen, und die Linearität der Abbildung
führt äußerlich zu denselben Formeln wie das Matrizenrechnen, wie wir im letz-
ten Abschnitt gesehen haben. Also noch einmal ausgebreitet hingeschrieben: A
ist die lineare Abbildung
       Pm 
x1 a11 a12 a13 . . . a1m x1 a1j xj
Pj=1
m
  7→  a21 a22 a23 . . . a2m   x2  =  j=1 a2j xj  .
 x2      
. . .  . . . . . . . . . . . . . . . . . . . . . . . . .  . . . 
Pm . . .

xm an1 an2 an3 . . . anm xm j=1 anj xj

Man merke sich die Regel: In den Spalten der Matrix stehen die Bilder der
Standardbasisvektoren. 3

(2.3.8) Lineare Abbildungen durch Koordinaten. Seien V und W Vek-


torräume mit Basen B und C wie vordem, und sei f : V → W eine lineare
Abbildung mit der zugehörigen Matrix mC B (f ). Wie eben gesehen, gehört zu
dieser Matrix auch eine Abbildung der Standardvektorräume, und dieses ist
nun genau die Beschreibung der linearen Abbildung durch die Koordinaten.
Formal könne wir diese Aussage so formulieren: Das Diagramm

V
f
/W
κB κC
 mC
B (f )

Km / Kn
2.3 Basiswechsel. Koordinatentransformation 45

ist kommutativ, das heißt es gilt mC


B (f ) ◦ κB = κC ◦ f . 3

(2.3.9) Koordinatentransformation. Zusätzlich zum Vorhergehenden wäh-


len wir Basen B 0 von V und C 0 von W . Das folgende Diagramm versammelt
die uns zur Verfügung stehenden Daten.

A0 / Kn 0
KO m O A0 = m C
B 0 (f )

κB 0 κC 0

V
f
/W

κB κC
 
Km
A / Kn A = mC
B (f )

Wir setzen
κB 0 ◦ κ−1
B = S, κC 0 ◦ κ−1
C = T.

Das sind invertierbare linearen Abbildungen (Matrizen) S und T . Die Kommu-


tativität des Diagramms besagt

A0 S = T A und A0 = T AS −1 .

Die Matrizen und linearen Abbildungen S und T heißen Koordinatentransfor-


mationen. Die Matrix S beschreibt nämlich, wie aus den Koordinaten bezüglich
B diejenigen bezüglich B 0 entstehen (neu aus alt).
0
P
Oder, wenn wir explizit mit Elementen arbeiten: Ist bi = k wki bk der
0
P
Basiswechsel alt-aus-neu, so ist λk = j wkj λj die Koordinatentransformati-
on neu-aus-alt. Die lineare Abbildung S wird also in Matrizenform durch die
Matrix (wkj ) beschrieben. 3

(2.3.10) Bemerkung. Man muß zwischen einem Vektor aus K n — ein n-


Tupel — und seinen Komponenten bezüglich einer Basis — auch ein n-Tupel —
begrifflich unterscheiden. Bezüglich der Standardbasis sieht man jedoch diesen
Unterschied nicht! Ebenso unterscheiden muß man eine Matrix, die einen Ba-
siswechsel beschreibt, von einer Matrix, die eine lineare Abbildung beschreibt.
3

(2.3.11) Rang einer Matrix. Die Dimension des von den Zeilenvektoren
einer Matrix A aufgespannten Unterraums nennen wir den Zeilenrang der Ma-
trix. Analog wird der Spaltenrang definiert. Der Zeilenrang einer Matrix ist
gleich dem Spaltenrang der transponierten Matrix. 3
46 2 Matrizen

(2.3.12) Satz. Beschreibt die Matrix A die lineare Abbildung f , so gilt

dim(Bild f ) = Spaltenrang A.

Beweis. Wir betrachten das Diagramm aus (2.2.3). Die Bilder von f und von
A haben dieselbe Dimension, weil κC einen Isomorphismus zwischen diesen
Bildräumen vermittelt. Das Bild von A wird von den Spaltenvektoren erzeugt.
2

(2.3.13) Satz. Sei f : V → W eine lineare Abbildung vom Spaltenrang r. Die


Dimensionen von V , W , Kern f seien m, n, s. Dann gibt es Basen {b1 , . . . , bm }
von V und {c1 , . . . , cn } von W mit der Eigenschaft: f (bi ) = ci für 1 ≤ i ≤ r
und g(bj ) = 0 für j > r. Bezüglich dieser Basen hat f die Matrix
 
Ir 0
.
0 0

Jede Matrix ist also zu einer dieser Form grob-äquivalent. Zwei (n, m)-Matrizen
sind genau dann grob-äquivalent, wenn sie denselben Spaltenrang haben.

Beweis. Eine Basis {c1 , . . . , cr } des Bildes von f werde zu einer Basis von W
ergänzt. Wir wählen {b1 , . . . , br }, so daß für 1 ≤ j ≤ r die Relation f (bj ) = cj
besteht. Dann sind diese Vektoren linear unabhängig, und wir ergänzen sie
durch eine Basis des Kerns von f zu einer Basis von V . Bezüglich dieser Basen
hat dann die Matrix von f die genannte Form. Zur letzten Aussage bemerken
wir, daß die grobe Äquivalenz den Spaltenrang nicht ändert, da ein Isomorphis-
mus einen Unterraum auf einen gleichdimensionalen Unterraum abbildet. 2

(2.3.14) Satz. Für jede Matrix stimmen Zeilen- und Spaltenrang überein.

Beweis. Ist A eine Matrix, so wählen wir invertierbare Matrizen P und Q so,
daß P AQ die Normalform des letzten Satzes hat. In dieser Normalform sind
offenbar Zeilen- und Spaltenrang gleich, da in Zeilen und Spalten nur Vektoren
einer Standardbasis und Nullvektoren stehen. Die Matrizen P AQ und (P AQ)t
haben also denselben Spaltenrang. Es ist (P AQ)t = Qt At P t , und Qt und
P t sind wieder invertierbar, Multiplikation mit ihnen ändert also nicht den
Spaltenrang. 2

Wegen des letzten Satzes sprechen wir vom Rang einer Matrix schlecht-
hin. Der Satz ist insofern überraschend, als die Zeilen- und Spaltenvektoren
äußerlich wenig miteinander zu tun haben. Wir heben noch hervor:

(2.3.15) Notiz. Eine (n, n)-Matrix ist genau dann regulär, wenn sie den Rang
n hat. 2
2.4 Lineare Gleichungen 47

Ergänzungen und Aufgaben


1. Sei f : V → W eine lineare Abbildung und f ∗ : W ∗ → V ∗ die duale Abbildung.
Die Aussage Zeilenrang = Spaltenrang“ ist äquivalent zu Rang f = Rang f ∗“.
” ”
2. f : V → W ist genau dann injektive (surjektiv), wenn die duale Abbildung
f ∗ : W ∗ → V ∗ surjektiv (injektiv) ist. Daraus folgere man, daß das Bild von f iso-
morph zum Bild von f ∗ ist.
3. Sei U → V → W exakt. Dann ist auch die duale Sequenz W ∗ → V ∗ → U ∗ exakt.

2.4 Lineare Gleichungen


Das Lösen von Gleichungen“ ist ein Grundproblem der Mathematik. Innerhalb

der linearen Algebra wird die Aufgabe gestellt, k lineare Gleichungen in n
Unbekannten zu lösen. Was heißt das? Nachfolgend sind solche Gleichungen in
einer systematischen Weise aufgeschrieben:

G1 : a11 x1 + a12 x2 + ··· + a1n xn = b1


G2 : a21 x1 + a22 x2 + ··· + a2n xn = b2
···
Gk : ak1 x1 + ak2 x2 + ··· + akn xn = bk .

Darin sind a11 , a12 , . . . , akn und b1 , . . . , bk gegebene Elemente eines Körpers K.
Eine Lösung“ des Systems von Gleichungen ist ein Systemen (x1 , . . . , xn ) von

xj ∈ K, die die k Gleichungen G1 , . . . , Gk gleichzeitig erfüllen“, für die also die

aufgeschriebenen Daten eine Gleichheit von Elementen des Körpers sind. Der
Index i in aij gibt an, in welcher Gleichung wir uns befinden, der Index j gibt
an, vor welcher Unbekannten xj das Körperelement steht. Es dürfen natürlich
einige der Koeffizienten aij gleich Null sein; in der Praxis schreiben wir dann
diesen Summanden gar nicht erst hin. Drei Punkte bedeuten und so weiter“.

Sei L(G1 , . . . , Gk ) die Lösungsmenge des Gleichungssystems. Wir beschrei-
ben jetzt ein Verfahren nach Art der Schulmathematik zur Bestimmung der
Lösungsmenge. Dazu ist keinerlei Theorie oder gelehrte Vorbildung nötig, ledig-
kich etwas systematische Buchführung“. Und natürlich gibt es das Verfahren

schon lange vor unserer heutigen linearen Algebra.
Danach schauen wir uns das Verfahren genauer an und benutzen dazu die
Sprache der Vektorräume und Matrizen.
(2.4.1) Der Gaußsche Algorithmus. Wir beginnen damit, aus den gege-
benen Gleichungen neue so zu bilden, daß sich dabei die Lösungsmenge nicht
ändert, symbolisch

L(G1 , . . . , Gk ) = L(G01 , . . . , G0k ).


48 2 Matrizen

Wir werden dann diese Umformungen geeignet solange wiederholen, bis wir
zu einem Gleichungssystem gelangt sind, dem wir die Lösungsmenge unmittel-
bar ansehen. Hier nun elementare Umformungen, die die Lösungsmenge nicht
ändern:
(1) Vertauschen der Reihenfolge von Gleichungen.
(2) Multiplikation einer Gleichung mit einer von Null verschiedenen Zahl λ;
symbolisch:
L(G1 , . . . , Gk ) = L(λG1 , . . . , Gk )
bei Multiplikation von G1 mit λ 6= 0.
(3) Addition des λ-fachen einer Gleichung zu einer anderen; symbolisch:
L(G1 , G2 , . . .) = L(G1 , λG1 + G2 , . . .)
bei Additon von λG1 zu G2 .
Da wir alle diese Schritte zurückrechnen können, ändert sich bei ihnen die
Lösungsmenge nicht.
Wir formen jetzt das System schrittweise um, indem wir nacheinander auf
die Koeffizienten von x1 , x2 , . . . achten. Sind alle Koeffizienten aj1 von x1 gleich
Null, so betrachten wir x1 als erledigt. Andernfalls sei etwa aj1 6= 0. Wir
setzen dann die Gleichung Gj an die erste Stelle, sodann machen wir nach
(2) dort den Koeffizienten von x1 zu 1 und subtrahieren nach (3) geeignete
Vielfache der nunmehr ersten Gleichung von den folgenden, um dortselbst den
Koeffizienten von x1 zu Null zu machen. Jetzt lassen wir die erste Gleichung in
Ruhe und behandeln die weiteren Gleichungen nach demselben Verfahren, aber
beginnend mit x2 , da ja x1 nicht mehr vorhanden“ ist. Schließlich erreichen

wir ein System, bei dem die letzte Gleichung die folgende Form hat: Entweder
xj + bk,j+1 xj+1 + · · · + bk,n xn = ck ,
für ein j ∈ {1, . . . , n} oder eventuell 0 = ck .
Im letzteren Fall ist für ck 6= 0 ein Widerspruch erreicht, mit anderen Wor-
ten: Es gibt keine Lösung. Beispielsweise widersprechen sich offenbar die Glei-
chungen G1 : x1 +x2 = 1 und G2 : x1 +x2 = 2 und nach dem Verfahren würden
wir 0 · x1 + 0 · x2 = 1 erhalten.
Im ersten Fall können wir xj+1 , . . . , xn beliebig vorgeben und dann xj durch
die Gleichung ausrechnen. Nun steigen wir die Gleichungen von unten nach
oben auf, setzen die schon festgelegten Werte der xt ein und rechnen das jeweils
am Anfang stehende xl durch die restlichen aus, wobei gegebenenfalls vorher
noch nicht festgelegte xr willkürlich gewählt werden dürfen.
Wir haben ein Rechenverfahren zur Lösung linearer Gleichungssysteme be-
schrieben. Schematische Rechenverfahren bezeichnet man als Algorithmus. Un-
ser Verfahren wird manchmal Eliminationsverfahren genannt, weil nacheinan-
der die Unbekannten xj beseitigt (= eliminiert) werden. Das Verfahren wird
auch Gaußscher3 Algorithmus genannt. 3
3 Carl Friedrich Gauß 1777 – 1855
2.4 Lineare Gleichungen 49

(2.4.2) Beispiel. Ein Beispiel mag die Methode verdeutlichen (etwa K = R).
Angenommen, das Endergebnis der elementaren Umformungen habe die Form:
x1 + x2 + 3x3 + x4 + x6 = 0
x2 − x3 − x5 − 2x6 = 1
x5 = 2.
Damit ist zunächst x5 festgelegt. Wir steigen auf, setzen x5 = 2 ein, wählen
x3 , x4 , x6 willkürlich und rechnen x2 aus. Wir steigen zur ersten Gleichung auf,
haben x2 bis x6 schon festgelegt und rechnen x1 aus. Die Lösungsmenge ist
also
(−(3 + 4x3 + x4 + 3x6 ), 3 + x3 + 2x6 , x3 , x4 , 2, x6 )
mit beliebigen x3 , x4 , x6 ∈ R. (Ein dreidimensionaler affiner Unterraum des
R6 .) 3
(2.4.3) Beispiel. Wir erinnern an die Elementargeometrie der Ebene R2 . Die
Punkte (x, y) ∈ R2 , die einer Gleichung ax+by = c genügen, füllen eine Gerade
aus (wenn a und b nicht beide Null sind). Hat man eine zweite Gleichung dieser
Art. so gibt es eine gemeinsame Lösung genau dann, wenn sich die Geraden
schneiden, der Schnittspunkt ist die eindeutig bestimmte Lösung. Allerdings
können die Geraden auch parallel verlaufen, dann gibt es keine Lösung. For-
melmäßig tritt dieser Fall auf, wenn sich die Gleichungen widersprechen. Wenn
man schließlich drei Gleichungen hat, so werden die geometrischen Möglichkei-
ten schon unübersichtlich.
Analoge Diskussion der geometrischen Lage von drei Ebenen im Raum R3
als Aufgabe. 3
Die vorstehende Überlegung hat eine wichtige Konsequenz qualitativer Art.
Ein Gleichungssystem wie anfangs vorgestellt, bei dem alle bj gleich Null
sind, heißt homogen. Elementare Umformungen machen aus einem homogenen
System wieder ein solches. Ein homogenes System führt niemals zu Wider-
sprüchen, denn alle xj = 0 gesetzt ist eine Lösung. Angenommen nun, es gibt
in einem homogenen System weniger Gleichungen als Unbekannte (also k < n).
Dann können wir in der Lösungsmenge ein geeignetes xj beliebig vorgeben; es
gibt also eine Lösung, die nicht nur aus Nullen besteht. Wir haben eingesehen:
(2.4.4) Satz. Ein homogenes lineares Gleichungssystem aus k Gleichungen
zwischen n Unbekannten hat im Fall k < n eine Lösung, die nicht nur aus
Nullen besteht. 2
Ich habe schon früher erläutert, wie man aus diesem Resultat den Rangsatz
herleiten kann. Und das ist auch der Beweis, der sich ohne Idee von selbst ergibt
und den man sich deshalb merken soll.
Wir werden nun den Algorithmus formaler beschreiben, genauer analysieren
und auf weitere Probleme der linearen Algebra anwenden.
50 2 Matrizen

(2.4.5) Gleichungssysteme matrizenthoeretisch. Lineare Gleichungssy-


steme lassen sich mit Hilfe der Matrizenmultiplikation in Kurzform schreiben.
Sei A = (aij ) eine (m, n)-Matrix über K und b ∈ K m ein Spaltenvektor. Das
System linearer Gleichungen
Pn
j=1 aij xj = bi für 1 ≤ i ≤ m

schreiben wir dann Ax = b und nennen A die Koeffizientenmatrix des Systems.


Das System heißt homogen, wenn b = 0 ist, andernfalls inhomogen. Wir fassen
A als lineare Abbildung auf

LA : K n → K m , x 7→ Ax.

Die Gleichung zu lösen, heißt dann, das Urbild L−1


A (b) zu bestimmen. Danach
wird die Theorie der Gleichungen ein Spezialfall der Theorie der linearen Ab-
bildungen und Matrizen.
Sei zunächst b = 0, liege also ein homogenes System vor. Dann ist die
Lösungsmenge L−1 n
A (0) = U ⊂ K ein Unterraum, der Kern von LA . Im inho-
mogenen Fall ist das System genau dann lösbar, wenn b im Bild von LA liegt.
Ist y irgendeine Lösung des Systems, so ist

{y + u | u ∈ Kern LA } = y + U

die Lösungsgesamtheit. Wir haben eine Menge dieser Form einen affinen Un-
terraum von K n mit der Richtung U genannt. Genau dann liegt b im Bild von
LA , wenn b eine Linearkombination der Spaltenvektoren von A ist; und letzte-
res ist genau dann der Fall, wenn die Matrix A und die sogenannte erweiterte
Matrix  
a11 . . . a1n b1
(A, b) =  . . . . . . . . . . . . . . . . . . . . 
am1 . . . amn bm
denselben Rang haben. Interessant ist der Fall m = n: Ist A regulär, so hat
Ax = b genau eine Lösung x = A−1 b. 3

(2.4.6) Eliminatiosnverfahren und Elementarmatrizen. Das Eliminati-


onsverfahren zur Lösung linearer Gleichungen hat eine Interpretation durch
Matrizen. Sei Eij die Matrix, die an der Stelle ij eine 1 und sonst überall
Nullen hat. Eine (m, m)-Matrix der Form

Im + λEij , i 6= j, λ ∈ K

heißt Elementarmatrix. Sei A eine (m, n)-Matrix mit der k-ten Zeile ak . Das
Produkt (Im +λEij )A ist eine Matrix mit den folgenden Zeilen: Die i-te Zeile ist
ai +λaj und die k-te Zeile für k 6= i ist ak . Die Elementarmatrix ist invertierbar
2.4 Lineare Gleichungen 51

und hat das Inverse Im − λEij . Eine invertierbare Diagonalmatrix wollen wir
ebenfalls Elementarmatrix nennen. Das Produkt Dia (λ1 , . . . , λm )A hat λi ai als
i-te Zeile. Durch Multiplikation von links mit geeigneten Elementarmatrizen
können wir also die folgenden Zeilenumformungen realisieren:

(1) Multiplikation einer Zeile mit einem Skalar λ 6= 0.

(2) Addition einer Zeile zu einer anderen.

Die folgende Sequenz von Umformungen dieser Art zeigt, daß dann auch Zei-
lenvertauschungen bewirkt werden können:

         
a1 a1 + a2 a1 + a2 a2 a2
, , , , .
a2 a2 −a1 −a1 a1

 
0 1
Multiplikation von links mit vertauscht bei einer (2, n)-Matrix die
1 0
Zeilen. Die Sequenz wird nach dem Genannten durch Multiplikation von links
mit

      
1 0 1 1 1 0 1 1 0 1
=
0 −1 0 1 −1 1 0 1 1 0

bewirkt.
Da Zeilenumformungen durch Produktbildung mit invertierbaren Matrizen
bewirkt werden, ändert sich dabei nicht der Rang einer Matrix. 3

(2.4.7) Zeilenstufenform einer Matrix. Das Endergebnis des Eliminati-


onsverfahrens ist eine Art Normalform für Matrizen. Eine Matrix kann durch
Zeilenumformungen in Zeilenstufenform (siehe unten) überführen kann. Die
Spalten mit den Nummern (j1 , . . . , jk ) heißen die Stufen. Unter der Treppe“

stehen Nullen. Die Fragezeichen sind nicht näher bezeichnete Elemente. Wird
die Matrix A des Systems auf Zeilenstufenform S gebracht, so haben Ax = 0
und Sx = 0 denselben Lösungsraum. Es gibt ein Produkt U von Elementarma-
trizen, so daß U A = S ist. Aus Ax = b wird also Sx = U Ax = U b, das heißt
man muß den Spaltenvektor b denselben Zeilenumformungen unterwerfen, um
das neue (zum alten äquivalente) inhomogene System zu erhalten. 3
52 2 Matrizen

0 ... 0 1 ??? 0 ??? 0 ??? 0 ???


0 1 ??? 0 ??? 0 ???
1 ??? 0 ???
· ···
· ···
0 ???
1 ???
0
·
0 ... 0 0 0
j1 j2 jk
Zeilenstufenform
(2.4.8) Notiz. Die ausgeschriebene Zeilenstufenmatrix hat den Rang k. Die
Spalten mit den Nummern (j1 , . . . , jk ) bilden eine Basis des von den Spalten-
vektoren erzeugten Raumes. 2

(2.4.9) Satz. Eine Matrix ist genau dann invertierbar, wenn sie sich durch
Zeilenumformungen in die Einheitsmatrix überführen läßt, denn die Einheits-
matrix ist die einzige invertierbare Zeilenstufenmatrix. Eine invertierbare Ma-
trix ist Produkt von Elementarmatrizen. 2

(2.4.10) Korollar. Eine obere (untere) Dreiecksmatrix ist genau dann inver-
tierbar, wenn alle Diagonalelemente von Null verschieden sind. 2

Der letzte Satz liefert:


(2.4.11) Verfahren zur Berechnung der inversen Matrix. Man schreibe
nebeneinander A | Im , bringe A durch Zeilenumformungen auf Zeilenstufenform
und wende dieselben Zeilenumformungen auf Im an; das letztere liefert A−1 .3

(2.4.12) Satz. Eine (m, n)-Matrix A = (aij ) hat genau dann den Rang größer-
gleich k, wenn es

1 ≤ i1 < i2 < . . . < ik ≤ m, 1 ≤ j1 < j2 < . . . < jk ≤ n

gibt, so daß die (k, k)-Matrix

à = (aij | i ∈ {ii , . . . , ik }, j ∈ {j1 , . . . , jk })

regulär ist. Der Rang von A ist also das maximale k, so daß aus A durch
Streichen von Zeilen und Spalten eine reguläre (k, k)-Untermatrix entsteht.
2.4 Lineare Gleichungen 53

Beweis. Hat à den Rang k, also k linear unabhängige Spalten, so sind erst recht
die Spalten zum Index (j1 , . . . , jk ) von A linear unabhängig, und deshalb hat
A mindestens den Rang k. Ist umgekehrt der Rang mindestens k, so wählen
wir (j1 , . . . , jk ) so aus, daß die zugehörigen Spalten linear unabhängig sind,
streichen die übrigen Spalten und wählen dann (i1 , . . . , ik ) so, daß bei der
verbliebenen Matrix die Zeilen zu den Indices i1 , . . . , ik linear unabhängig sind.
2
(2.4.13) Auswahl einer Basis. Seien (v1 , . . . , vn ) Vektoren des K m . Sie er-
zeugen einen Unterraum V . Wie berechnet man eine Basis von V ? Wir schrei-
ben die Vektoren (v1 , . . . , vn ) als Spalten einer Matrix A auf und bringen diese
durch Zeilenumformungen auf Zeilenstufenform S, wie oben ausgebreitet. Sei-
en (j1 , . . . , jk ) die Stufen. Dann ist {vj | j ∈ {j1 , . . . , jk }} eine Basis von V .
Der Beweis ergibt sich so: Es ist A = U S mit einem Produkt U von Element-
armatrizen. Ist sk die k-te Spalte von S, so gilt vk = U sk . Jetzt wenden wir
(2.4.8) an: Eine Basis des Spaltenraums von S wird durch U in eine Basis des
Spaltenraums von A transportiert. 3

(2.4.14) Berechnung einer Basis des Lösungsraumes. Sei A gegeben


und S Zeilenstufenform von A mit den Stufen (j1 , . . . , jk ). Dann ist Ax = 0
äquivalent zu Sx = 0. Sei B die Matrix, die aus S durch Weglassen der Spalten
zum Index (j1 , . . . , jk ) und der letzten n − k Zeilen entsteht. Die verbleibenden
Spalten mögen die Nummern r1 , . . . , rn−k tragen, das heißt es ist {j1 , . . . , jk } ∪
{r1 , . . . , rn−k } = {1, . . . , n}. Dann ist Sx = 0 äquivalent zu
   
xj1 xr1
 ..   . 
 .  = −B  ..  .
xjk xrn−k
Setzt man rechts die Standardbasis des K n−k ein, so erhält man eine Basis des
Lösungsraums. 3
Alles bisher über Zeilen Gesagte gilt mutatis mutandis für Spalten.

Ergänzungen und Aufgaben


1. Die Zeilenstufenmatrix zu einer Matrix A ist durch den Zeilenraum von A eindeu-
tig bestimmt.
Beweis. Sei U dieser Unterraum, und sei pj : U → K j , (x1 , . . . , xn ) 7→ (x1 , . . . , xj )
die Projektion auf die ersten j Koordinaten. Dann sind die Stufen an denjenigen
Stellen j, wo dim pj (U ) > dim pj−1 (U ) ist. Also ist die Sequenz (j1 , . . . , jk ) durch U
bestimmt. Die ersten k Zeilen der großen Matrix S oben bilden eine Basis von U . Sind
P
(a1 , . . . , ak ) bzw. (b1 , . . . , bk ) Basen von U in Zeilenstufenform und ist ar = i λi bi ,
so ist λi der Koeffizient von ar an der Stelle ji . Das ist aber δri . Also ist ar = br .
Kapitel 3

Determinanten

3.1 Determinantenformen

(3.1.1) Determinantenform. Sei V ein n-dimensionaler Vektorraum über


dem Körper K und V × V × · · · × V = V n das n-fache cartesische Produkt von
V mit sich, also die Menge aller n-Tupel (v1 , . . . , vn ), vi ∈ V . Eine Abbildung
D : V n → K heißt n-linear oder n-Linearform, wenn sie in jeder Variablen
linear ist, wenn also immer gilt:

D(v1 , . . . , vi + vi0 , . . .) = D(v1 , . . . , vi , . . .) + D(v1 , . . . , vi0 , . . .)


D(v1 , . . . , λvi , . . .) = λD(v1 , . . . , vi , . . .).

Eine n-Linearform D heißt alternierend, wenn aus vi = vj für i 6= j im-


mer D(v1 , . . . , vn ) = 0 folgt. Sei Altn (V ) die Menge der alternierenden n-
Linearformen auf dem n-dimensionalen Vektorraum V . Sie trägt eine Vektor-
raumstruktur durch Addition und skalare Multiplikation der Funktionswerte

(λ1 D1 + λ2 D2 )(v1 , . . . , vn ) = λ1 D(v1 , . . . , vn ) + λ2 D2 (v1 , . . . , vn ).

Ein von Null verschiedenes Element aus Altn (V ) heißt Determinantenform auf
dem Vektorraum V . 3

(3.1.2) Satz. Sei D eine Determinantenform auf V . Dann gilt:


(1) Ist i 6= k und λ ∈ K, so gilt

D(. . . , vi , . . . , vk . . .) = D(. . . , vi + λvk , . . . , vk , . . .).

(An den punktierten Stellen stehen jeweils dieselben Vektoren.)


(2) Werden zwei Vektoren vertauscht, so ändert sich das Vorzeichen.
(3) Sind v1 , . . . , vn linear abhängig, so ist D(v1 , . . . , vn ) = 0.
3.1 Determinantenformen 55

Beweis. (1) Wir wenden auf die rechte Seite die Linearität in der i-ten Varia-
blen an und benutzen dann, daß D alternierend ist.
(2) Wir schreiben der Einfachheit halber nur zwei Variable hin und rechnen
wie folgt: 0 = D(v1 +v2 , v1 +v2 ) = D(v1 , v1 )+D(v1 , v2 )+D(v2 , v1 )+D(v2 , v2 ) =
D(v1 , v2 ) + D(v2 , v1 ).P
n
(3) Sei etwa v1 = j=2 λj vj . Linearität in der ersten Variablen liefert
Pn
D(v1 , . . . , vn ) = j=2 λj D(vj , v2 , . . . , vn ).
Da D alternierend ist, so ist jeder Summand rechts gleich Null. 2
Für den ersten Existenzbeweis für Determinantenformen verwenden wir das
Vorzeichen oder Signum einer Permutation.
(3.1.3) Permutationen. Eine bijektive Abbildung einer Menge M heißt Per-
mutation von M . Wir bezeichnen mit Sn die Menge der Permutationen von
{1, . . . , n}. Bezüglich Verkettung ist Sn eine Gruppe, genannt symmetrische
Gruppe oder Permutationsgruppe.
Sei P die Menge der Paare (i, j), i 6= j, 1 ≤ i, j ≤ n. Ein Halbsystem H in
P sei eine Teilmenge, die von den Paaren (i, j) und (j, i) jeweils genau eines
enthält. Für σ ∈ Sn ist
Y σ(i) − σ(j)
ε(σ) = ∈ {±1}
i−j
(i,j)∈H

unabhängig vom Halbsystem, denn wird (i, j) durch (j, i) ersetzt, so ändert
sich im Zähler und Nenner das Vorzeichen. Ist H ein Halbsystem, so ist auch
τ (H) = {(τ (i), τ (j)) | (i, j) ∈ H} ein Halbsystem. Es gilt
Y σ(i) − σ(j) Y τ (i) − τ (j)
ε(σ)ε(τ ) = ·
i−j i−j
(i,j)∈H (i,j)∈H
Y στ (i) − στ (j) Y τ (i) − τ (j)
= ·
τ (i) − τ (j) i−j
(i,j)∈H (i,j)∈H

= ε(στ ).
Diese Formel besagt, daß ε : Sn → {±1} ein Homomorphismus in die multipli-
kative Gruppe {±1} ist.
Wie nennen ε(σ) das Vorzeichen oder das Signum der Permutation σ. Eine
Permutation heißt gerade, wenn ihr Vorzeichen gleich 1 ist, andernfalls ungera-
de, Die geraden Permutationen bilden eine Untergruppe von Sn , die alternie-
rende Gruppe An . Eine Permutation, die genau zwei Elemente vertauscht und
die anderen festläßt, eine sogenannte Transposition, hat das Vorzeichen −1. Da
sich jede Permutation als Verkettung von Transpositionen schreiben läßt, so ist
durch die letzte Eigenschaft das Vorzeichen eindeutig bestimmt. 3
56 3 Determinanten

(3.1.4) Satz. Der Vektorraum Altn (V ) ist eindimensional, das heißt es gibt,
bis auf skalare Vielfache, genau eine Determinantenform.

Beweis. Sei eine Determinantenform DPgegeben. Wir wählen eine Basis


(b1 , . . . , bn ) von V und schreiben vi = j λij bj . Dann rechnen wir mittels
der Linearität in jeder Variablen ein Summenmonster aus
P
D(v1 , . . . , vn ) = λ1j1 · · · λnjn D(bj1 , . . . , bjn ).

Die Summe läuft dabei zunächst über alle Systeme (j1 , . . . , jn ) mit 1 ≤ jk ≤ n.
Da D alternierend ist, ergibt sich aber höchstens dann ein von Null verschie-
dener Summand, wenn (j1 , . . . , jn ) eine Permutation von {1, . . . , n} ist. Wegen
(3.2.1) gilt D(b1,σ(1) , . . . , bn,σ(n) ) = ε(σ)D(b1 , . . . , bn ). Insgesamt erhalten wir
die Leibnizsche1 Formel
X
D(v1 , . . . , vn ) = ε(σ)λ1,σ(1) · · · λn,σ(n) D(b1 , . . . , bn ),
σ∈Sn

die zeigt, daß D durch den Wert auf einer Basis bestimmt ist. Also ist Altn (V )
höchstens eindimensional.
Es bleibt zu zeigen, daß es von Null verschiedene Determinantenformen
überhaupt gibt. Zu diesem Zweck definieren wir eine Abbildung D durch die
eben hergeleitete Formel, indem wir den Wert von D(b1 , . . . , bn ) irgendwie, et-
wa als 1, fixieren. Es bleibt dann zu zeigen, daß die so gewonnene Abbildung
n-linear und alternierend ist. Die Linearität ist unmittelbar klar. Das Alter-
nierende folgt leicht mit der oben genannten Eigenschaft von ε. Wir lassen die
genaue Ausführung als Aufgabe, weil wir gleich noch einen zweiten Existenz-
beweis für die Determinante führen. 2

Für den zweiten Existenzbeweis verwenden wir Determinanten für Matrizen


und leiten gleichzeitig eine induktive Berechnungsmethode her.

Ergänzungen und Aufgaben


1. Sei α : V n → K eine Abbildung mit den Eigenschaften
(1) α(v1 , . . . , λvj , . . . , vn ) = λα(v1 , . . . , vj , . . . , vn ) (Homogenität),
(2) α(v1 , . . . , vj , . . .) = α(v1 , . . . , vi + vj , . . .) für i 6= j (Scherungsinvarianz).
Dann ist α eine alternierende n-Linearform auf V . Im Fall n = 2 lassen sich diese
Axiome als elementargeometrische Eigenschaften des Flächeninhalts von Parallelo-
grammen veranschaulichen (für λ ≥ 0).
2. Die Gruppe Sn hat die Ordnung n! = 1 · 2 · 3 · . . . · n, gelesen n-Fakultät.

1 Gottfried Wilhelm Leibniz 1646 – 1716


3.2 Determinante einer Matrix 57

3.2 Determinante einer Matrix


Sei V = K n . Wir fassen Vektoren (a1 , . . . , an ) aus K n als Zeilen einer (n, n)-
Matrix A = (aij ) auf, indem wir ai = (ai1 , . . . , ain ) schreiben. Auf diese Weise
wird (K n )n mit M (n, n; K) identifiziert.
(3.2.1) Determinante. Eine Determinantenfunktion oder kurz eine Determi-
nante für (n, n)-Matrizen über K ist eine Abbildung
det : M (n, n; K) → K,
die bezüglich jeder Zeile linear ist, die bezüglich der Zeilen alternierend ist und
die durch die Bedingung det(In ) = 1 normiert ist. 3
Die Definitionen (3.1.1)und (3.2.1) sind im wesentlichen gleichwertig.
Ist (ej ) wie üblich die Standardbasis des K n , so ist ai = j aij ej die i-
P
te Zeile der Matrix A = (aij ). Für eine Determinantenform D auf K n mit
D(e1 , . . . , en ) = 1 wird dann durch die Festsetzung det(A) = D(a1 , . . . , an )
eine Determinantenfunktion gegeben. Es gilt also die Leibniz-Formel
X
det(A) = ε(σ)a1,σ(1) . . . an,σ(n) .
σ∈Sn

Es sollte vielleicht einmal betont werden, daß jeder Summand ein Produkt ist,
worin aus jeder Zeile und Spalte der Matrix genau ein Element benutzt wird.
Sei umgekehrt det eine Determinantenfunktion auf M (n, n; K) und V ein n-
dimensionaler
P K-Vektorraum. Wir wählen eine Basis (b1 , . . . , bn ) von V , schrei-
ben vi = j aij bj und setzten D(v1 , . . . , vn ) = det(aij ). Dann ist D eine De-
terminantenform auf V . Für sie gilt D(b1 , . . . , bn ) = 1.
Der Eindeutigkeitssatz (3.1.4) ist beweistechnisch sehr nützlich, wie wir
beim Beweis der Produktformel sehen werden.
Ist A eine (n, n)-Matrix, so bezeichne Aik die daraus durch Streichen der
i-ten Zeile und k-ten Spalte entstehende (n − 1, n − 1)-Matrix.
(3.2.2) Entwicklung nach einer Spalte. Es gibt genau eine Determinan-
tenfunktion auf M (n, n; K). Sie läßt sich durch die folgende Formel, genannt
Entwicklung nach der k-ten Spalte induktiv berechnen:
Pn
det(A) = i=1 (−1)i+k aik det(Aik ).

Die Vorzeichen (−1)i+k bilden ein Schachbrettmuster


 
+ − + .
− + − .
 .
+ − + .
. . . .
58 3 Determinanten

Beweis. Eindeutigkeit. Sei D eine Determinantenfunktion. Sind die Zeilen


(v1 , . . . , vn ) linear abhängig, so ist D(v1 , . . . , vn ) = 0. Andernfalls können wir
die Matrix mit den Zeilen (v1 , . . . , vn ) durch elementare Zeilenumformungen in
die Einheitsmatrix überführen (2.4.3). Wir wissen, wie sich D bei elementaren
Zeilenumformungen verhält: Zum Beispiel gelten D(λv1 , . . .) = λ1 D(v1 , . . .) so-
wie D(v1 + v2 , v2 , . . . , vn ) = D(v1 , . . . , vn ). Also läßt sich D(v1 , . . . , vn ) durch
Zeilenumformungen berechnen. Das ist übrigens auch ein praktisches Berech-
nungsverfahren.
Existenz. Wir beweisen die Existenz durch Induktion nach n. Im Fall n = 1
setzen wir det(a) = a. Ist n > 1, so wählen wir ein k ∈ {1, . . . , n} und definieren
det(A) durch die im Satz genannte Formel. Wir zeigen, daß die damit gegebene
Abbildung M (n, n; K) → K P n-linear, alternierend und normiert ist.
i+k
Zunächst ist det(I) = i (−1) δi,k det(Ii,k ) = δkk det(Ik,k ) = 1 wie
gewünscht (hier ist I = In ).
Weiterhin ist det linear in jeder Zeile, weil dieses offenbar für jeden Sum-
manden in der Entwicklungsformel gilt.
Es bleibt das Alternierende zu zeigen. Sei vr = vs für r < s. Falls i ∈ / {r, s}
so ist det(Aik ) = 0, weil Aik zwei gleiche Zeilen hat. Also bleiben nur die
Summanden

(−1)r+k ark det(Ark ) + (−1)s+k ask det(Ask )


= (−1)k ark ((−1)r det(Ark ) + (−1)s det(Ask )) .

Für s = r + 1 ist Ark = Ask , und deshalb annullieren sich die beiden Summan-
den in der Klammer. Für s > r + 1 hat Ark Zeilen der Form

v10 , . . . , vr−1
0 0
, vr+1 0
, . . . , vs−1 , vr0 , vs+1
0
,...

und Ask Zeilen der Form

v10 , . . . , vr−1
0
, vr0 , vr+1
0 0
, . . . , vs−1 0
, vs+1 ,...,

wobei vj0 aus vj durch Streichen der k-ten Komponente entsteht. Also wird beim
Übergang von Ark nach Ask die Zeile vr0 mit den s − r − 1 Zeilen vr+1
0 0
, . . . , vs−1
vertauscht. Bei einer solchen Vertauschung ändert sich die Determinante nach
(3.1.2) um das Vorzeichen (−1)s−r−1 , so daß sich auch in diesem Fall die beiden
Summanden annullieren. 2
Ist D ∈ Altn (V ) und f : V → V ein Endomorphismus, so ist (v1 , . . . , vn ) 7→
D(f v1 , . . . , f vn ) wieder aus Altn (V ). Ist D 6= 0, so gibt es nach (3.1.4) genau
ein d(f ) ∈ K, so daß die Gleichung

D(f v1 , . . . , f vn ) = d(f )D(v1 , . . . , vn )

für alle (v1 , . . . , vn ) gilt, und außerdem ist der Faktor d(f ) von dem gewählten
D 6= 0 unabhängig. Wir setzen det(f ) = d(f ) und nennen dieses Element die
3.2 Determinante einer Matrix 59

Determinante der linearen Abbildung f . Ist V = K n und wird f bezüglich der


Standardbasis (e1 , . . . , en ) durch die Matrix A gegeben, so gilt

det(f ) = det(f ) det(e1 , . . . , en ) = det(f e1 , . . . , f en ) = det(At ).

Wir betonen, daß det(f ) basisfrei definiert worden ist, das heißt ohne vorherige
Auswahl einer Basis.
(3.2.3) Produktsatz. Für Endomorphismen f und g eines Vektorraumes V
gilt det(f ◦ g) = det(f ) det(g), und für (n, n)-Matrizen A und B gilt ebenso
det(AB) = det(A) det(B).
Beweis. Wir wenden dreimal die Definition an

d(f g)D(v1 , . . . , vn ) = D(f g(v1 ) . . . , f g(vn ))


= d(f )D(g(v1 ), . . . , g(vn ))
= d(f )d(g)D(v1 , . . . , vn ).

Analog durch Übersetzung in die Matrizen. 2


Der kurze Beweis des Produktsatzes ist ein gutes Beispiel für die Kraft
der begrifflichen Argumentation. Man schreibe einmal die Formel für (2, 2)-
Matrizen explizit auf. Und für (3, 3)-Matrizen besser nicht?
(3.2.4) Satz. Die (n, n)-Matrix A ist genau dann regulär, wenn det(A) 6= 0
ist. Der Endomorphismus f : V → V ist genau dann ein Isomorphismus, wenn
det(f ) 6= 0 ist.
Beweis. Gibt es eine zu A inverse Matrix B, so folgt aus dem Produktsatz 1 =
det(In ) = det(AB) = det(A) det(B), und das ist nur möglich, wenn det(A) 6= 0
ist. Ist umgekehrt det(A) 6= 0, so sind die Zeilen von A nach (2.4.1) linear
unabhängig, und deshalb ist A regulär. Für Endomorphismen wird der Beweis
genauso geführt. 2
Eine weitere Konsequenz des Produktsatzes ist:

SL(n, K) = {A ∈ GL(n, K) | det A = 1}

ist eine Untergruppe von GL(n, K), die sogenannte spezielle lineare Gruppe.
(3.2.5) Satz. Eine Matrix und ihre Transponierte haben dieselbe Determinan-
te.
Beweis. Ist A eine (n, n)-Matrix vom Rang kleiner als n, so hat nach auch
At einen Rang kleiner als n, und die Determinanten von A und At sind nach
(2.4.2) beide gleich Null.
Sei also A invertierbar. Dann ist A nach (2.4.3) Produkt von Elementar-
matrizen, etwa A = S1 S2 · · · Sr . Folglich ist At = Srt · · · S1t , und nach dem
60 3 Determinanten

Produktsatz genügt es deshalb, die Gleichung det(S) = det(S t ) für Element-


armatrizen S zu zeigen. Ist S eine Diagonalmatrix, so gilt S = S t . Für die
anderen Elementarmatrizen ist nach (2.4.1) det(S) = 1. 2
Durch Übergang zur transponierten Matrix erhalten wir jetzt aus dem schon
Bewiesenen:
(3.2.6) Entwicklung nach einer Zeile. Die Zuordnung A 7→ det(A) ist n-
linear und alternierend in den Spaltenvektoren. Wir haben die zu (3.2.2) analoge
Entwicklung Pn
det(A) = i=1 (−1)i+k aki det Aki .
nach der k-ten Zeile. 2
Wir setzen a#
ji = (−1)i+j det(Aij ) und nennen die Matrix A# = (a#
ij ) die
Adjunkte von A.
(3.2.7) Satz. Für eine (n, n)-Matrix A gilt A# A = AA# = det(A) · In .
Beweis. Der Eintrag von AA# an der Stelle (i, i) ist
P # P i+j
j aij aji = i aij · (−1) det(Aij ) = det(A).

Der Eintrag an der Stelle (i, j) für i 6= j ist k (−1)j+k aik det(Ajk ), also gleich
P
der Entwicklung nach der j-ten Zeile einer Matrix, die aus A entsteht, indem die
j-te Zeile durch die i-te Zeile ersetzt wird. Also ist dieser Eintrag als Determi-
nante einer Matrix mit zwei gleichen Zeilen gleich Null. Die andere Behauptung
folgt ebenso durch Entwicklung nach Spalten. 2
(3.2.8) Inverse Matrix. Ist A regulär, so liefert der letzte Satz die Formel
A−1 = det(A)−1 A#
für das Inverse von A. 2
Nach dieser Formel wird man das Inverse fast niemals praktisch berechnen;
aber es ist bemerkenswert, daß es überhaupt eine Formel (rationale Funktion in
den Einträgen) gibt. (Zum Beispiel besagt diese Formel, daß das Inverse einer
reellen (n, n)-Matrix A stetig von A abhängt.) Wir erhalten daraus auch eine
Formel für die Lösung eines linearen Gleichungssystems.
(3.2.9) Cramersche Regel. Sei A eine reguläre Matrix. Die Lösung des Glei-
chunssystems Ax = b ist x = A−1 b = |A|−1 A# b, also
xi = |A|−1 j (−1)i+j bj |Aji |.
P

Dieletzte Summe ist aber nach dem Entwicklungssatz die Determinante einer
Matrix, die aus A entsteht, wenn die i-te Spalte durch b ersetzt wird. Die damit
gewonnene Formel für die Lösung wird Cramersche2 Regel genannt. 3
2 Gabriel Cramer 1704 – 1752
3.3 Volumen. Orientierung 61

(3.2.10) Determinante von Blockmatrizen. Haben wir eine Blockmatrix


 
Ik 0
U=
B C

mit quadratischer Matrix C, so liefert Entwicklung nach der ersten Zeile und
Induktion nach k die Gleichung det(U ) = det(C). Ähnlich wird eine Matrix be-
handelt, in der C und Ik vertauscht vorkommen. Aus dem Produktsatz erhalten
wir damit
     
A 0 A 0 I 0
det = det · det = det(A) det(B),
B C B I 0 C

wenn A und C quadratisch sind. Durch Transposition erhalten wir das ana-
loge Ergebnis für eine Blockmatrix mit der Null links unten. Daraus entneh-
men wir durch Induktion nach n für (n, n)-Dreiecksmatrizen D mit Diagonale
(d1 , . . . , dn ) die Gleichung det(D) = d1 · d2 · . . . · dn . Wir erkennen noch ein-
mal, daß eine solche Matrix genau dann regulär ist, wenn alle dk von Null
verschieden sind. 3

Ergänzungen und Aufgaben


1. Man leite den Entwicklungssatz (3.2.2) aus der Leibniz-Formel her. (Das ist nur
ein Problem der Organisation und erfordert keine neue Idee.)
2. Das Resultat von (3.2.8) haben wir für (2, 2)-Matrizen schon früher als Rechen-
aufgabe gestellt, nämlich wo?
3. Sei f : V → V eine C-lineare Abbildung und fR : VR → VR dieselbe Abbildung der
zugrundeliegenden R-Vektorräume. Dann gilt det(fR ) = | det(f )|2 .

3.3 Volumen. Orientierung


Wir benutzen die Determinante, um zwei geometrische Begriffe für reelle Vek-
torräume zu definieren.
(3.3.1) Volumen. Seien (b1 , . . . , bn ) Vektoren des Rn . Die Teilmenge
Pn
P (b1 , . . . , bn ) = { i=1 λi bi | 0 ≤ λi ≤ 1}

wird als der von (b1 , . . . , bn ) aufgespannte n-dimensionale Quader bezeichnet.


Im Fall n = 2 handelt es sich um ein Parallelogramm. Der Absolutbetrag

| det(b1 , . . . , bn )| = Vol P (b1 , . . . , bn )


62 3 Determinanten

wird als Volumen von P (b1 , . . . , bn ) definiert. Im Fall n = 2 bedeuten die


Grundeigenschaften einer Determinante elementargeometrische Eigenschaften
des Flächeninhaltes von Parallelogrammen. 3

(3.3.2) Orientierung. Was bedeutet das Vorzeichen der Determinante in die-


sem Zusammenhang? Es dient zur Definition einer subtilen geometrischen Ei-
genschaft: der Orientierung. Sei B die Menge aller Basen eines n-dimensionalen
Vektorraumes V über R. Wir sagen, ein Paar B1 , B2 von Basen sei gleich ori-
entiert, in Zeichen B1 ' B2 , wenn die Basiswechselmatrix von B1 nach B2
positive Determinante hat. Aus dem Produktsatz für Determinanten folgt so-
fort, daß ' eine Äquivalenzrelation auf B ist. Eine Äquivalenzklasse von Basen
heißt Orientierung von V . Ein orientierter Vektorraum ist ein Paar (V, o) aus
einem Vektorraum V und einer Orientierung o von V . Ist eine Orientierung
o von V festgelegt, so heißt eine Basis in der Klasse o positiv bezüglich die-
ser Orientierung; und natürlich negativ, wenn sie zur anderen Klasse gehört
(Okzidentierung). 3

Im Eindimensionalen ist eine Orientierung anschaulich eine Durchlaufrich-


tung der Geraden. Im Zweidimensionalen ist eine Orientierung anschaulich ein
Drehsinn (Uhrzeigersinn). Üblicherweise wird die durch e1 , e2 festgelegte Ori-
entierung des R2 als positiv angesehen, der Uhrzeigersinn gehört dann zur ne-
gativen Orientierung. Im Dreidimensionalen ist eine Orientierung anschaulich
ein Schraubensinn.
Ferner dient die Orientierung dazu, die Begriffe Rechts und Links festzule-
gen.
Eine Orientierung ist eine zusätzliche Struktur, eine Vereinbarung“. Ver-

einbarungen über Rechts und Links kann man nicht durch das Telefon mitteilen
sondern nur durch Vorzeigen (oder durch Vorurteile)3 .
Sei V ein komplexer Vektorraum mit Basis B = {b1 , . . . , bn }. Dann ist die
Orientierung des unterliegenden reellen Raumes VR , die durch b1 , ib1 , . . . , bn ibn
gegeben wird, unabängig von der Wahl von B und ihrer Anordnung. Sie heißt
die durch die komplexe Struktur induzierte kanonische Orientierung.
Wie erinnerlich wird das Integral einer Funktion f : [a, b] → R oft mit dem
Flächeninhalt motiviert. Aber auch dabei kommt es auf die Orientierung an,
es gibt negative Integrale (Integration ist eine lineare Abbildung).

3 Bekannt ist die Scherzfrage: Warum vertauscht ein Spiegel rechts und links aber nicht

oben und unten? Nun, irgendwas vertauscht ja ein Spiegel, aber was?
3.4 Das charakteristische Polynom 63

3.4 Das charakteristische Polynom


Wir unterstellen eine gewisse Bekanntschaft mit dem Rechnen mit Polyno-
men. Dabei wird jetzt definitiv ein Polynom nicht als eine Funktion angesehen
sondern als ein formales Objekt. Polynome werden also addiert und multipli-
ziert nach den Regeln des Buchstabenrechnens“. Ein Polynom p = p(x) =

a0 xn + a1 xn−1 + · · · + an ist durch seine Koeffizienten bestimmt. Natürlich
kann man auch weiterhin zu einem formalen Polynom die zugehörige Funktion
verwenden. Die Unbestimmte“ wird durch ein Körperelement λ ∈ K ersetzt,

und man erhält p(λ) = a0 λn + a1 λn−1 + · · · + an ∈ K. Man sagt auch, λ wird
in p eingesetzt. Ist p(λ) = 0, so heißt λ eine Nullstelle von p.
Analog zu den natürlichen und ganzen Zahlen kann man auch für Polynome
eine Teilbarkeitslehre entwickeln, was aber hier zunächst nicht im einzelnen
erläutert werden soll.
Ist λ eine Nullstelle des Polynoms p, so ist p durch das lineare Polynom
x − λ teilbar, es gilt also p = (x − λ) · q, worin das Polynom q einen um 1
kleineren Grad als p hat.
Qn Interessant ist der Fall, daß p vollständig in Linearfaktoren zerfällt, p =
j=1 (x − λj ). Bekanntlich gilt das für Polynome über den komplexen Zahlen.
Kommt der Faktor (x−λj ) im Produkt k-mal vor, so heißt k die Vielfachheit der
Nullstelle λj . Bis auf die Reihenfolge sind die Linearfaktoren durch p bestimmt.
Ist q ein Teiler von p, gilt also eine Relation p = q · r, so ist q ebenfalls ein
Produkt von Linearfaktoren.
(3.4.1) Charakteristisches Polynom. Sei A = (aij ) eine (n, n)-Matrix mit
Einträgen aus dem Körper K. Wir betrachten die mit einer weiteren Veränder-
lichen x gebildete Matrix xIn − A. Auf der Diagonale stehen also die linearen
Polynome x − aii . Rechnen wir die Determinante det(xIn − A) nach der Leib-
nizschen Formel aus, so sehen wir: Jeder Summand ist ein Polynom höchstens
vom Grad n. Der einzige Summand vom Grad n erscheint in

(x − a11 )(x − a22 ) · . . . · (x − ann ).

Deshalb ist

cA (x) = det xIn − A) = xn + c1 xn−1 + · · · + cn

ein Polynom vom Grad n, genannt das charakteristische Polynom cA von A.


Setzen wir x = 0 ein, so erhalten wir det(−A) = (−1)n det(A) als konstantes
Glied des charakteristischen Polynoms. Der Koeffizient von xn−1 ist − Sp(A)
(siehe Aufgabe 1). 3

(3.4.2) Satz. Genau dann ist λ ∈ K ein Eigenwert von A, wenn λ Nullstelle
des charakteristischen Polynoms det(xI − A) ist.
64 3 Determinanten

Beweis. Sei λ Eigenwert von A. Dann gilt für ein x ∈ K n r {0} die Gleichung
Ax = λx. Wegen (λI − A)x = 0 ist λI − A nicht invertierbar und deshalb ist
det(λI − A) = 0, also λ Nullstelle. Ist umgekehrt λ Nullstelle, also λI − A nicht
invertierbar, so hat x 7→ (λI − A)x einen von 0 verschiedenen Kern, also A
einen Eigenvektor zum Eigenwert λ. 2
Es gilt det(xI − SAS −1 ) = det(xSIS −1 − SAS −1 ) = det(S(xI − A)S −1 ) =
det(S) det(xI − A) det(S −1 ) = det(xI − A). Deshalb haben A und SAS −1
dasselbe charakteristische Polynom. Ist f : V → V ein Endomorphismus ei-
nes n-dimensionalen K-Vektorraumes und A eine Matrix von f bezüglich einer
Basis von V , so ist det(xI − A) unabhängig von der gewählten Basis. Wir
nennen deshalb det(xI − A) auch das charakteristische Polynom cf des En-
domorphismus f . Ist A diagonalisierbar, das heißt gibt es S ∈ GL(n, K) mit
SAS −1 = D = Dia(λ1 , . . . , λn ), so ist offenbar

det(xI − A) = det(xI − D) = (x − λ1 ) . . . (x − λn );

das charakteristische Polynom zerfällt also in Linearfaktoren. Die Vielfachheit


einer Nullstelle, eines Eigenwertes λj , ist in diesem Fall gleich der Dimension
des zugehörigen Eigenraumes.
(3.4.3) Satz. Sei A ∈ M (n, n; K). Folgende Aussagen sind äquivalent:
(1) A ist diagonalisierbar.
(2) Das charakteristische Polynom von A zerfällt in Linearfaktoren. Für je-
den Eigenwert λ der Vielfachheit k hat der Eigenraum von λ die Dimen-
sion k.
Beweis. (1) ⇒ (2) Q
haben wir schon bemerkt.
r
(2) ⇒ (1). Sei j=1 (x − λj )n(j) das charakteristische Polynom von A. Es
Pr
ist dann n = j=1 n(j). Der Eigenraum V (λj ) hat nach Voraussetzung die
Dimension n(j). Ferner gilt
P
V (λi ) ∩ ( j6=i V (λj )) = {0}
Pr
wie immer für Eigenrä[Link] hat j=1 V (λj ) = V als direkte Summe der
V (λj ) die Dimension n = n(j). Deshalb ist V = K n , und V hat eine Basis
aus Eigenvektoren. 2
(3.4.4) Notiz. Für eine Blockmatrix
 
B D
A=
0 C

mit quadratischen B und C gilt cA = cB cC . Ist f : V → V gegeben, ist U ein


f -stabiler Unterraum und sind g : U → U und h : V /U → V /U die durch f
induzierten Endomorphismen, so gilt cf = cg ch . 2
3.4 Das charakteristische Polynom 65

(3.4.5) Satz. Ein Endomorphismus besitzt genau dann eine obere Dreiecks-
matrix bezüglich einer geeigneten Basis, wenn sein charakteristisches Polynom
in Linearfaktoren zerfällt.

Beweis. Die eine Richtung haben wir eben schon bemerkt. Zerfalle also das
charakteristische Polynom von f : V → V in Linearfaktoren. Dann gibt es
jedenfalls einen Eigenvektor v. Er erzeuge den Unterraum U . Dieser ist f -stabil.
Das charakteristische Polynom der auf V /U induzierten Abbildung zerfällt als
Faktor von cf ebenfalls in Linearfaktoren. Nun wende man Induktion nach der
Dimension an. 2

Ergänzungen und Aufgaben


1. Der Koeffizient von xn−1 des charakteristeschen Polynoms einer (n, n)-Matrix
kann mit der Leibniz-Formel bestimmt werden. Dazu schaue man auf die Summanden
der Formel. Damit xn−1 vorkommt, müssen mindestens n − 1 Faktoren des Summan-
den die Form x − ajj haben und dann auch notwendig der noch fehlende Faktor. Der
Koeffizient von xn−1 in n
Q
j=1 (x − ajj ) ist aber das Negative der Spur.
Kapitel 4

Bilineare Abbildungen

4.1 Hilbert-Räume
Die Strecke von (0, 0) nach (x, y) in der Zahlenebene R2 hat in der elementaren
euklidischen Geometrie nach dem Satz des Pythagoras eine Länge mit dem
Quadrat x2 +y 2 . Ebenso ergibt sich das Längenquadrat der Strecke von (0, 0, 0)
nach (x, y, z) im dreidimensionalen euklidischen Raum zu x2 + y 2 + z 2 durch
zweimalige Anwendung des Satzes von Pythagoras.
Aus diesem Grund liegt es nahe, für eine allgemeine Längenmessung
Pn
q : Rn → R, (x1 , . . . , xn ) 7→ j=1 x2j

zu betrachten. Als quadratische Abbildung ist q nicht linear. Die Abweichung


von der Linearität ist

b(x, y) = q(x + y) − q(x) − q(y),

denn bei einer linearen Abbildung q wäre Pndieser Wert gleich Null. In Koor-
dinaten errechnen wir b((xj ), (yj )) = 2 j=1 xj yj . Die Abbildung b hat den
Vorteil, in jeder Variablen linear zu sein. Der Faktor 2 ist unwesentlich. Diese
Vorbetrachtungen führen uns zur nächsten Definition.
(4.1.1) Standardskalarprodukt. Wir verwenden Bezeichungen der Art x =
(xj ) = (x1 , . . . , xn ). Die Abbildung
Pn
h −, − i : Rn × Rn → R, ((xj ), (yj )) 7→ j=1 xj yj = h x, y i

nennen wir das Standardskalarprodukt auf dem Rn (das ist ein Produkt“ mit

einem Skalar als Resultat). Für komplexe Vektorräume gibt es eine ähnliche
Abbildung
Pn
h −, − i : Cn × Cn → C, ((zj ), (wj )) 7→ j=1 z j wj = h z, w i,
4.1 Hilbert-Räume 67

die ebenfalls Standardskalarprodukt genannt werden soll. Der Grund für das
Konjugiert-Komplexe in der letzten Definition ist natürlich die Relation zz =
a2 + b2 für z = a + bi mit a, b ∈ R; also wieder das Längenquadrat. 3
Wie oft in der Algebra ist nicht die explizite Formel entscheidend, wichtig
sind vielmehr ihre formalen Eigenschaften. Das führt zur nächsten Definition.
Wir behandeln reelle und komplexe Vektorräume gleichzeitig und vereinbaren
dazu: F sei einer der Körper R oder C. Mit z bezeichnen wir die zu z ∈ F
konjugiert-komplexe Zahl; ist z ∈ R, so ist also z = z.
(4.1.2) Skalarprodukt. Die Standardabbildungen (4.1.1) haben die folgen-
den Eigenschaften: Für v1 , v2 , v, w1 , w2 , w aus Fn und λ aus F gilt
(1) h v1 + v2 , w i = h v1 , w i + h v2 , w i
(2) h v, w1 + w2 i = h v, w1 i + h v, w2 i
(3) h λv, w i = λh v, w i
(4) h v, λw i = λh v, w i
(5) h v, w i = h w, v i
(6) h v, v i > 0, falls v 6= 0.
Sei V ein F-Vektorraum. Eine Abbildung h −, − i : V × V → F mit den Eigen-
schaften (1) – (6) heißt Skalarprodukt auf V . Ein Paar (V, h −, − i) heißt im
Fall F = R ein euklidischer Vektorraum und im Fall F = C ein unitärer Vektor-
raum. Statt Skalarprodukt ist auch der Terminus inneres Produkt gebräuchlich.
Wollen wir R und C gemeinsam behandeln, so nennen wir (V, h −, − i) einen
Hilbert-Raum 1 . 3
Der Begriff des Hilbert-Raumes ist wichtig in der Analysis. Es wird
dann allerdings noch zusätzlich verlangt, daß Cauchy-Folgen konvergieren
(Vollständigkeit von V ). Das spielt für unsere algebraischen Überlegungen keine
Rolle. In der Analysis gebraucht man ohne die Bedingung der Vollständigkeit
das Wortungetüm Prä-Hilbert-Raum.)
Ein reelles Skalarprodukt ist in beiden Variablen linear. Ein komplexes Ska-
larprodukt wird in beiden Variablen linear, wenn wir es als auf V × V definiert
auffassen. Abbildungen von diesem Typ nennen wir bilinear. Sie werden später
allgemein untersucht. Werden nur die Eigenschaften (1) – (5) gefordert, so
sprechen wir im Fall F = R von einer symmetrischen Bilinearform und im
Fall F = C von einer hermiteschen Form2 auf V . Gilt dann für diese Formen
zusätzlich (6), so heißen sie positiv definit.
Allgemein folgt aus (1) – (4)
P P P
h j λj vj , k µk wk i = j,k λj µk h vj , wk i,

genannt bilineares Ausrechnen“. Insbesondere ist die Abbildung h −, − i be-



kannt, wenn man die Matrix (h vj , vk i) für eine Basis {v1 , . . . , vn } kennt. Ist
1 David Hilbert 1862 – 1943
2 Charles Hermite 1822 – 1901
68 4 Bilineare Abbildungen

A = (ajk ) irgendeine (n, n)-Matrix über F und B = {v1 , . . . , vn } eine Basis von
V , so wird durch
P P P t
h j λj vj , k µk vk i = j,k λj ajk µk = λ Aµ

mit den Koordinatenvektoren λt = (λ1 , . . . , λn ) und µt = (µ1 , . . . , µn ) und den


entsprechenden Spaltenvektoren λ und µ eine Abbildung V × V → F mit den
Eigenschaften (1) – (4) definiert. Genau dann gilt (5), wenn Āt = A ist; eine
Matrix mit diesen Eigenschaften heißt im Fall F = R symmetrisch und im Fall
F = C hermitesch. Einer Matrix ist jedoch nicht so leicht anzusehen, wann (6)
gilt; ist das der Fall, so nennen wir sie positiv definit.
(4.1.3) Beispiel. Eine symmetrische reelle (2, 2)-Matrix hat die Gestalt
 
a b
A= .
b c
Ist sie positiv definit, so muß
  
a b x
(x, y) = ax2 + 2bxy + cy 2 > 0
b c y

sein, sofern (x, y) 6= (0, 0) ist. Demnach ist 0 < a und 0 < c notwendig für
positive Definitheit (x oder y gleich Null setzen). Aus der Formel
√ √ √
ax2 + 2bxy + cy 2 = ( ax + cy)2 + 2(b − ac)xy

erkennen
√ wir, daß b <√ ac oder äquivalent det A > 0 ebenfalls notwendig ist
(x = c und y = − a setzen). Es ist eine kleine Aufgabe, zu zeigen, daß
unter den eben hergeleiteten Bedingungen die Form wirklich positiv definit ist.
Später werden wir diese Tatsache ohne Rechnung einsehen lernen (4.7.4). 3
Sei im folgenden (V, h −, − i) ein Hilbert-Raum. Wie üblich wird er meist
nur durch die zugrundeliegende Menge V bezeichnet. p Skalarprodukte dienen
unter anderem zur Längendefinition. Wir nennen |v| = hv, vi die Norm oder
Länge von v und |v − w| den Abstand von v, w (bezüglich h −, − i). Vektoren
der Länge 1 heißen Einheitsvektoren. Ist x 6= 0, so ist |x|−1 x ein Einheitsvektor.
Gilt hu, vi = 0, so heißen u, v orthogonal. Wegen Axiom (5) ist h u, v i = 0 zu
h v, u i = 0 äquivalent.
Für orthogonale u, v gilt |u|2 + |v|2 = |u + v|2 (eine ab jetzt auch Satz des
Pythagoras genannte Relation).
Unterräume U1 und U2 von V heißen orthogonal, wenn für uj ∈ Uj immer
h u1 , u2 i = 0 ist. Ist V die direkte Summe paarweise orthogonaler Unterräume
(Uj | 1 ≤ j ≤ t), so sagen wir, V sei die orthogonale Summe der Uj und notieren
diesen Sachverhalt durch
V = U1 ⊥ U2 ⊥ . . . ⊥ Ut .
4.1 Hilbert-Räume 69

(4.1.4) Satz. Für x, y ∈ V gilt:


(1) |hx, yi| ≤ |x||y| (Cauchy-Schwarzsche Ungleichung34 ).
(2) |x + y| ≤ |x| + |y| (Dreiecksungleichung).
Beweis. (1) Seien x, y ∈ V gegeben, und sei x 6= 0. Wir suchen zunächst eine
orthogonale Zerlegung der Form

y = λx + z, λ ∈ F, h x, z i = 0.

Eine solche Zerlegung ist auf genau eine Weise möglich; ferner ist notwendig
λ = |x|−2 h x, y i. Aus z = y − λx und h x, z i = 0 folgt nämlich

0 = h x, z i = h x, y − λx i = h x, y i − λh x, x i.

Deshalb hat λ die behauptete Gestalt. Umgekehrt rechnet man leicht nach, daß
mit diesem λ der Vektor y − λx orthogonal zu x ist.
Für x = 0 gilt die behauptete Ungleichung. Andernfalls folgt mit dem so-
eben Überlegten und dem Satz des Pythagoras
h x, y i2
|y|2 = |λx|2 + |z|2 ≥ |λ|2 |x|2 = · |x|2 ,
|x|4
und das ist zu (1) gleichwertig.
(2) wird durch die folgende Rechnung belegt:

|x + y|2 = |x|2 + |y|2 + h x, y i + h y, x i


≤ |x|2 + |y|2 + 2|h x, y i| ≤ |x|2 + |y|2 + 2|x||y|
= (|x| + |y|)2 .

Wir haben darin (1) verwendet. 2


Im vorstehenden Satz gilt in (1) genau dann die Gleichheit, wenn x und y
linear abhängig sind. Das sieht man der letzten Formel im Beweis von (1) an,
weil die Gleichheit genau im Fall z = 0 besteht.
In einem Dreieck ist die Summe der Längen zweier Seiten mindestens gleich
der Länge der dritten Seite; das ist der Grund für die Bezeichnung Dreiecks-

ungleichung“.
Wir benutzen nun die Funktion Cosinus und setzen im Falle x 6= 0 6= y und
F=R
h x, y i
cos w(x, y) = .
|x||y|
Das ist möglich, weil nach dem letzten Satz die rechte Seite im Intervall [−1, 1]
liegt. Wir normieren 0 ≤ w(x, y) ≤ π und nennen w(x, y) den von x und y
eingeschlossenen Winkel.
3 Augustin Cauchy 1789 – 1857
4 Hermann Amandus Schwarz 1843 – 1921
70 4 Bilineare Abbildungen

Sei M ⊂ V eine Menge von Null verschiedener Vektoren. Wir definieren:


M Orthogonalsystem ⇔ Je zwei verschiedene Vektoren aus M
sind orthogonal
M Orthonormalsystem ⇔ M Orthogonalsystem, und jeder Vektor
aus M ist Einheitsvektor
M Orthonormalbasis ⇔ M Basis und Orthonormalsystem
(4.1.5) Notiz. Sei M Orthogonalsystem. Dann ist M linear unabhängig.
P
Beweis. Seien a1 , . . .P
, an paarweise
P verschiedene Vektoren aus M . Sei λi ai =
0. Dann ist 0 = haj , i λi ai i = i λi haj , ai i = λj haj , aj i; also ist λj = 0. 2
(4.1.6) Satz. Sei M = {x1 , . . . , xn } ⊂ V linear unabhängig. Es gibt ein Or-
thonormalsystem {e1 , . . . , en } mit der Eigenschaft: Für jedes j ∈ {1, . . . , n}
spannen {x1 , . . . , xj } und {e1 , . . . , ej } denselben Unterraum auf.
Beweis. Die Vektoren ej werden induktiv definiert. Es ist x1 6= 0, also |x1 | = 6 0
und somit e1 = |x1 |−1 x1 ein Einheitsvektor. Sei {e1 , . . . , ek } ein Orthonormal-
system, so daß für alle j ∈ {1, . . . , k} die im Satz genannte Bedingung erfüllt
ist. Der Vektor Pk
bk+1 = xk+1 − j=1 hej , xk+1 iej
ist zu e1 , . . . , ek orthogonal. Er ist auch von Null verschieden, da xk+1 , e1 , . . . , ek
linear unabhängig sind. Wir setzen ek+1 = |bk+1 |−1 bk+1 . 2
Das im Beweis von (4.1.6) angegebene Verfahren heißt Orthonormalisie-
rungsverfahren von Gram5 und Schmidt6 . Es läßt sich auch für abzählbar-
unendlich viele Vektoren x1 , x2 , x3 , . . . durchführen. Als unmittelbare Folgerung
erhalten wir:
(4.1.7) Satz. Sei V endlichdimensional. Jedes Orthonormalsystem kann zu
einer Orthonormalbasis ergänzt werden. Insbesondere gibt es Orthonormalba-
sen. 2
(4.1.8) Notiz. Sei e1 , . . . , en Orthonormalbasis. Dann ist hej , vi die j-te Kom-
ponente von v bezüglich dieser Basis.
2
P
Beweis. Aus v = j λj ej folgt hek , vi = λk .
(4.1.9) Satz. Sei B = {v1 , . . . , vn } ein Orthonormalsystem. Sei v ∈ V , cj =
hvj , vi. Seien
Pna1 , . . . , an ∈ F. Dann
Pn gelten:
(1) |v Pn− k=1 ck v k | ≤ |v − k=1 ak vk | (Besselsche Ungleichung7 ).
2 2
(2) k=1 |ck | ≤ |v| (Parsevalsche Ungleichung8 ).
5 Jørgen Pedersen Gram 1850 – 1916
6 Erhard Schmidt 1876 – 1959
7 Friedrich Wilhelm Bessel 1784 –1846
8 Marc–Antoine Parseval 1755 – 1836
4.1 Hilbert-Räume 71

Pn
(3) Ist B eine Orthonormalbasis, so gilt k=1 |ck |2 = |v|2 . Ist B Orthonor-
malsystem und gilt diese Gleichung immer, so ist B eine Basis.
P P
Beweis. (1) Es ist vj orthogonal zu v − ck vk ; also ist v − ck vk orthogonal
zu jeder Linearkombination der vj (bilineares Ausrechnen). Nach dem Satz des
Pythagoras gilt somit

|v − ak vk |2 = |v − ck vk + (ck − ak )vk |2
P P P

= |v − ck vk |2 + | (ck − ak )vk |2 ≥ |v − ck vk |2 .
P P P

P P
(2) folgt aus 0 ≤ hv − ck vk , v − ck vk i durch bilineares Ausrechnen
P des
Skalarproduktes. Ebenso folgt die Gleichheit in (3), weil dann v = ck vk
ist. 2
Sei U ein endlichdimensionaler Unterraum von V . Der Raum

U ⊥ = {v ∈ V | für alle u ∈ U ist hu, vi = 0}

heißt orthogonales Komplement von U in V , denn es gilt:


(4.1.10) Satz. Für jeden endlichdimensionalen Unterraum U von V besteht
die orthogonale Zerlegung V = U ⊕ U ⊥ .
Beweis. Sei v ∈ U ∩ U ⊥ . Dann ist hv, vi = 0, also v = 0. Sei (e1 , . . . , en ) eine
Orthonormalbasis von U . Dann liegt für jedes v der Vektor
Pn
p(v) = v − k=1 h ek , v iek

in U ⊥ . Folglich gilt V = U + U ⊥ . 2
Sei p : V → V eine Projektion, das heißt es gelte p ◦ p = p. Wir nennen p
orthogonale Projektion auf U = Bild p, wenn Kern p = U ⊥ ist; es ist dann also

U = Bild p ⊥ Kern p.

(4.1.11) Satz. Sei U ein endlichdimensionaler Unterraum von V . Dann gilt:


(1) Es gibt genau eine orthogonale Projektion auf U .
(2) Ist p die orthogonale Projektion auf U , so gilt für u ∈ U , v ∈ V immer
|u − v| ≥ |pv − v|. Aus |u − v| = |pv − v| folgt u = pv.
Beweis. (1) Es ist V = U ⊕ U ⊥ . Jeder Vektor v ∈ V hat also eine eindeutige
Darstellung der Form v = u+u0 , u ∈ U , u0 ∈ U ⊥ . Es ist v 7→ u eine orthogonale
Projektion auf U .
Ist umgekehrt p eine orthogonale Projektion auf U = Bild p, so gilt p(v) =
p(u) = u, da u0 ∈ U ⊥ = Kern p ist.
(2) Wir betrachten die folgende Kette von Gleichungen und Ungleichungen
(∗)
|u − v|2 = |pu − v|2 = |pu − pv + pv − v|2 = |pu − pv|2 + |pv − v|2 ≥ |pv − v|2 .
72 4 Bilineare Abbildungen

Gilt Gleichheit, so folgt |pu−pv|2 = 0, also pu−pv = u−pv = 0. Die Gleichheit


(∗) gilt nach dem Satz des Pythagoras, weil pv − v ∈ Kern p orthogonal zu
pu − pv ∈ Bild p ist. 2
Die Aussage (2) des letzten Satzes läßt sich so lesen: Die orthogonale Pro-
jektion pv gibt denjenigen Vektor in U an, der von v den kleinsten Abstand
hat (das Lot von v auf U ).

Ergänzungen und Aufgaben


1. Eine leichte Rechnung zeigt h a + b, a + b i − h a − b, a − b i = 4Re h a, b i. In der
ebenen Geometrie sind a + b und a − b die beiden Diagonalen des von a und b auf-
gespannten Parallelogramms. Ein Parallelogramm ist also genau dann ein Rechteck
(das heißt a, b sind orthogonal), wenn seine Diagonalen gleich lang sind.
2. Normierte Vektorräume. Wir erwähnen der Vollständigkeit halber einen wei-
teren, insbesondere in der Analysis wichtigen, Begriff. Eine Norm auf einem F-
Vektorraum V ist eine Abbildung N : V → R mit den Eigenschaften:
(1) N (λx) = |λ|N (x)
(2) N (x + y) ≤ N (x) + N (y)
(3) N (x) > 0 ⇔ x 6= 0.
Ein Paar (V, N ) aus einem Vektorraum V und einer Norm N auf V heißt normierter
Vektorraum. Ein Skalarprodukt führt also in natürlicher Weise zu einem normierten
Vektorraum.
3. Hessesche Normalform9 . Sei V ein endlichdimensionaler euklidischer Raum.
Jede Hyperebene L von V läßt sich in der Form

L = {x | h e, x i = c}

mit einem Einheitsvektor e und einer reellen Zahl c ≥ 0 schreiben. Die Daten e und
c sind unter diesen Bedingungen durch L eindeutig bestimmt. Die Hyperebenenglei-
chung h e, x i = c heißt Hessesche Normalform.
Beweis. Eine Hyperebene L ist eine Menge der Form L = v +U mit einem Unterraum
U der Kodimension 1 in V . Sei e ein Einheitsvektor im orthogonalen Komplement
von U . Dann hat v die Form v = ce + u mit einem u ∈ U , und folglich ist L = ce + U .
Indem wir e eventuell durch −e ersetzen, können wir c ≥ 0 annehmen. Dann ist aber
L = {x | h e, x i = c}. Ist umgekehrt L in dieser Form gegeben, so ist e orthogonal zur
Richtung von L. 2
Sei h e, x i = c eine Hessesche Normalform. Für v = ce + u ∈ L, u ∈ (Re)⊥
ist |v|2 = |u|2 + c2 . Deshalb ist c der minimale Abstand eines Punktes von L vom
Nullpunkt. Wir nennen c den Abstand von L zum Nullpunkt.
Ist he, yi = d, so heißt d − c der orientierte Abstand von y und L und |d − c| der
Abstand von y und L.
Orientiert“ soll besagen, daß man durch das Vorzeichen von he, yi − c die beiden

Halbräume unterscheiden kann, in die V durch L zerlegt wird; es gilt V r L = H + ∪
9 Ludwig Otto Hesse 1811 – 1874
4.2 Isometrien 73

H − , positives Vorzeichen für y ∈ H + , negatives für y ∈ H − . Setzt man y = de +


w, w ∈ (Re)⊥ , so ist

|y − (ce + v)|2 = |de + w − ce − v|2 = |d − c|2 + |w − v|2 ;

dieser Wert wird für w = v minimal. Also ist |d − c| der minimale Abstand von y zu
einem Punkt von L.

4.2 Isometrien
Sei (V, h −, − i) ein n-dimensionaler Hilbert-Raum. Ein Endomorphismus f von
V heißt Isometrie von V , wenn immer h u, v i = h f u, f v i gilt. Eine Isometrie
bewahrt Längen und Abstände und Winkel. Im Fall F = R folgt aus

|u + v|2 − |u|2 − |v|2 = 2h u, v i,

daß eine längenerhaltende lineare Abbildung eine Isometrie ist. Eine Isometrie
ist ein Isomorphismus, denn aus f u = 0 folgt 0 = h f u, f u i = h u, u i und damit
u = 0; also ist f injektiv und damit bijektiv. Die Isometrien bilden bezüglich
Verkettung eine Gruppe, die im Fall F = R die orthogonale Gruppe O(V ) und
im Fall F = C die unitäre Gruppe U (V ) von V genannt wird. Die Abbildungen
in O(V ) (und in U (V )) heißen orthogonal (und unitär).
(4.2.1) Sei A = (aij ) die Matrix eines Endomorphismus f bezüglich einer
Orthonormalbasis (e1 , . . . , en ). Dann ist f genau dann eine Isometrie, wenn
Āt A = In ist.
Beweis. Genau dann ist f eine Isometrie, wenn immer h ek , el i P = h f ek , f el i
gilt (Linearität von f , bilineares Ausrechnen). Wir setzen f ek = µ aµk eµ ein
und sehen, daß diese Gleichung zu Āt A = In äquivalent ist. 2
Eine reelle (komplexe) (n, n)-Matrix A heißt orthogonal (unitär), wenn
Āt A = In gilt. Sei O(n) bzw. U (n) die Gruppe der orthogonalen bzw.
unitären (n, n)-Matrizen. Eine orthogonale Matrix ist auch unitär, wir haben
also eine Untergruppe O(n) ⊂ U (n). Aus Āt A = In folgt 1 = det(In ) =
det(Āt ) det(A) = | det(A)|2 . Deshalb hat eine orthogonale Matrix eine Deter-
minante ±1 und eine unitäre Matrix eine Determinante vom Betrag 1. Die
Untergruppen

SO(n) = {A ∈ O(n) | det A = 1}, SU (n) = {A ∈ U (n) | det A = 1}

heißen spezielle orthogonale Gruppen orthogonale (unitäre) Gruppen.


Eine Rechnung wie im Beweis von (4.2.1) zeigt:
74 4 Bilineare Abbildungen

(4.2.2) Notiz. Sei (e1 , . . . , en ) eine Orthonormalbasis und (b1 , . . . , bn ) eine


andere Basis. Die Basiswechselmatrix ist genau dann orthogonal (unitär ), wenn
(b1 , . . . , bn ) eine Orthonormalbasis ist. 2

Allgemein ist das Element von Āt A an der Stelle (k, l) gleich h ak , al i, wenn
al die l-te Spalte von A ist (hier ist jetzt h −, − i das Standardskalarprodukt
auf Fn ). Also bedeutet Āt A = In , daß die Spalten eine Orthonormalbasis
bezüglich des Standardskalarproduktes bilden. Aus der Gleichung Āt A = In
folgt ĀAt = In , indem man sie von links (rechts) mit dem Inversen von Āt
(von A) multipliziert und das Ergebnis invertiert. Also bilden auch die Zeilen
eine Orthonormalbasis.
(4.2.3) Die Gruppe O(2). Ein zu (a, b) 6= (0, 0) orthogonaler Vektor hat die
Form (−cb, ca). Die Matrix  
a −cb
b ca
hat die Determinante c(a2 + b2 ). Ist sie aus O(2), so ist a2 + b2 = 1 und folglich
c = ±1. Demnach besteht SO(2) aus den Matrizen
 
a −b
, a2 + b2 = 1.
b a

Sie lassen sich in der Form


 
cos ϕ − sin ϕ
= D(ϕ)
sin ϕ cos ϕ

schreiben. Solche Matrizen heißen Drehmatrizen. (Drehung um den Winkel ϕ


gegen den Uhrzeigersinn in der üblichen Veranschaulichung der ebenen Geo-
metrie.) Die anderen Matrizen aus O(2) sind
 
a b
S= , a2 + b2 = 1.
b −a

Mit dieser Matrix S gilt


       
a+1 a+1 −b −b
S = , S =− .
b b a+1 a+1
 
a+1
Also ist S die Spiegelung an dem durch erzeugten Unterraum. Insbe-
b
sondere gilt S 2 = I2 . Wir schreiben Spiegelmatrizen in der Form
 
cos 2ϕ sin 2ϕ
= S(ϕ).
sin 2ϕ − cos 2ϕ
4.2 Isometrien 75

Der Grund ist aus den Relationen


       
cos ϕ cos ϕ − sin ϕ − sin ϕ
S(ϕ) = , S(ϕ) =−
sin ϕ sin ϕ cos ϕ cos ϕ
 
cos ϕ
ersichtlich; S(ϕ) ist die Spiegelung an der von aufgespannten Geraden.
sin ϕ
Es gelten die Formeln:

D(ϕ)D(ψ) = D(ϕ + ψ)
S(0)D(ϕ) = D(−ϕ)S(0)
D(ϕ)S(0)D(−ϕ) = S(ϕ)
S(ϕ)S(ψ) = D(2ϕ − 2ψ)
S(ϕ) = D(2ϕ)S(0)
S(ϕ)D(ψ) = D(2ϕ − ψ)S(0).

Sie geben an, wie in der Gruppe O(2) gerechnet wird. Insbesondere sehen wir:
Jede Drehung ist Produkt zweier geeigneter Spiegelungen, und das Produkt
zweier Spiegelungen ist immer eine Drehung.
Ein unitäre (1, 1)-Matrix ist“ eine komplexe Zahl vom Betrag eins. Multi-

plikation mit z = a + bi ist eine R-lineare Abbildung C → C, die bezüglich der
R-Basis 1, i von C die Matrix
 
a −b
b a

hat. Hat z den Betrag 1, so handelt es sich um eine Drehmatrix. Damit erkennen
wir die geometrische Bedeutung der Multiplikation komplexer Zahlen. 3

(4.2.4) Notiz. Ist f eine Isometrie von V und U ein f -stabiler Unterraum,
so gilt f (U ⊥ ) ⊂ U ⊥ .
Beweis. Es gilt für u ∈ U, v ∈ U ⊥ und den zu f inversen Endomorphismus
f −1
hf v, ui = hv, f −1 (u)i = 0,
weil wegen f (U ) = U auch f −1 (U ) = U ist. Also ist f v ∈ U ⊥ , und deshalb gilt
f (U ⊥ ) = U ⊥ . 2
Ist λ ein Eigenwert der Isometrie f mit dem Eigenvektor v, so gilt

hv, vi = hf v, f vi = hλv, λvi = |λ|2 hv, vi,

also |λ| = 1, λ ∈ S 1 . Ist V (λ) Eigenraum zu λ, so gilt f (V (λ)) ⊂ V (λ) und,


da f injektiv ist, auch f (V (λ)) = V (λ). Also läßt sich die vorstehende Notiz
auf U = V (λ) anwenden.
76 4 Bilineare Abbildungen

(4.2.5) Satz. Sei f ein unitärer Endomorphismus des unitären Raumes V .


Dann ist V direkte Summe der Eigenräume von f . Eigenräume zu verschie-
denen Eigenwerten sind orthogonal. Es besitzt V eine Orthonormalbasis aus
Eigenvektoren.
Beweis. Da f jedenfalls einen Eigenwert hat, weil ein charakteristisches Po-
lynom über den komplexen Zahlen Nullstellen hat, folgt mittels (4.2.4) durch
Induktion nach dim V die erste Aussage des Satzes. Sei λ 6= µ, x ∈ V (λ), y ∈
V (µ). Es folgt λhx, yi = hx, λyi = hx, f yi = hf −1 x, yi = hµ−1 x, yi = µhx, yi,
denn wegen f y = µy ist µ−1 y = f −1 y und wegen µ ∈ S 1 ist µ−1 = µ̄. Die dritte
Aussage folgt, indem man eine Orthonormalbasis in jedem V (λ) wählt. 2
In die Matrizensprache übersetzt besagt (4.2.5) zusammen mit (4.2.2) und
der allgemeinen Basiswechselformel:
(4.2.6) Satz. Ist A ∈ U (n), so gibt es S ∈ U (n), so daß SAS −1 =
Dia(λ1 , . . . , λn ) mit λj ∈ S 1 . Es sind die λ1 , . . . , λn die Eigenwerte von A. Des-
halb ist die Diagonalmatrix bis auf Permutation der Diagonalelemente durch A
eindeutig bestimmt. 2

Zusatz. Indem man S mit einer geeigneten Diagonalmatrix Dia(λ, λ, . . . , λ)


multipliziert, kann man erreichen, daß S in (4.2.6) aus SU (n) ist. 2
(4.2.7) Satz. Sei V ein unitärer Raum und M eine Menge vertauschbarer
unitärer Endomorphismen von V (das heißt f, g ∈ M ⇒ f g = gf ). Dann
gibt es eine orthogonale Zerlegung V = V1 ⊥ . . . ⊥ Vn in eindimensionale
Unterräume Vj , die M -stabil sind (das heißt für f ∈ M gilt f (Vj ) ⊂ Vj ).
Beweis. Das ist klar, falls M nur aus der Identität besteht. Sei also f ∈ M
nicht die Identität und V (λ) ein Eigenraum von f zu einem Eigenwert λ 6= 1.
Falls V (λ) = V ist, so ist jede orthogonale Zerlegung von V f -stabil, und wir
können M r {f } betrachten. Sei also V (λ) 6= V . Für g ∈ M und x ∈ V (λ)
gilt dann wegen f g)x)x = gf (x) = g(λx) = λg(x) auch g(x) ∈ V (λ). Also sind
V (λ) und V (λ)⊥ M -stabil, und man kann Induktion nach dim V anwenden. 2
Matrizentheoretisch gewendet besagt (4.2.7), daß für eine Menge M ⊂ U (n)
paarweise vertauschbarer Matrizen ein S ∈ U (n) existiert, so daß alle SAS −1 ,
A ∈ M , Diagonalmatrizen sind (simultane Diagonalisierung).
Wir leiten nun analoge Sätze für orthogonale Endomorphismen her. Sei
V ein n-dimensionaler euklidischer Raum und ρ : V → V ein orthogonaler
Endomorphismus, also Isomorphismus. Wissen wir schon: Ein Eigenwert λ von
ρ erfüllt λ2 = 1, und die Eigenräume V (1) und V (−1) zu den Eigenwerten 1
und −1 sind zueinander orthogonal. Der Unterraum V0 = (V (1) ⊕ V (−1))⊥ ist
ρ-stabil.
(4.2.8) Lemma. Die Dimension von V0 ist gerade.
4.2 Isometrien 77

Beweis. Andernfalls hätte das charakteristische Polynom von ψ = ρ | V0 : V0 →


V0 ungeraden Grad und nach dem Zwischenwertsatz eine reelle Nullstelle. Dann
hätte aber ψ eine Eigenraum zum Eigenwert 1 oder −1 im Widerspruch zur
Definition von V0 . 2
(4.2.9) Satz. Der Unterraum V0 ist die orthogonale Summe zweidimensionaler
ρ-stabiler Unterräume.
Beweis. Die Abbildung ρ + ρ−1 ist selbstadjungiert:

h(ρ + ρ−1 )x, yi = hρx, yi + hρ−1 x, yi = hx, ρ−1 xi + hx, ρyi = hx, (ρ + ρ−1 )yi.

Sie hat deshalb einen reellen Eigenwert, etwa λ, zum Eigenvektor e. Aus ρe +
ρ−1 e = λe folgt ρ2 e = λρe − e. Die Vektoren ρe und e sind linear unabhängig,
da ρ in V0 keine Eigenvektoren hat. Also erzeugen e, ρe einen zweidimensionalen
Unterraum W , der wegen ρ2 e = λρe − e auch ρ-stabil ist. Wir betrachten nun
das orthogonale Komplement von W in V0 und wenden Induktion nach der
Dimension an. 2
Sei W ein zweidimensionaler ρ-stabiler Unterraum in V0 , und sei A die Ma-
trix von ρ : W → W bezüglich einer Orthonormalbasis. Dann ist A orthogonal.
Wäre det A = −1, so hätte A die Eigenwerte 1 und −1 und das widerspräche
der Definition von V0 . Also ist A eine Drehmatrix.
Übersetzen wir die voranstehenden Ergebnisse in die Matrizensprache (Ba-
siswechsel), so erhalten wir:
(4.2.10) Satz. Jede Matrix A ∈ O(n) ist in O(n) konjugiert zu einer Matrix
der folgenden Form (Blockdiagonalmatrix ):
 
D

 A1 


 A2 .

 . . 
 . 
Ak
Darin ist D eine quadratische Diagonalmatrix mit Elementen ±1 auf der Dia-
gonale und jedes Aj ist eine (2, 2)-Drehmatrix. 2
Allgemein wollen wir eine Matrix A aus SO(n) eine Drehmatrix und die
dadurch vermittelte lineare Abbildung eine Drehung des Rn nennen.
Wir betrachten jetzt speziell den Fall einer Drehung ρ des R3 . Bezüglich
einer geeigneten Orthonormalbasis wird die zugehörige lineare Abbildung ρ
durch eine Matrix der Form
 
1 0 0
B =  0 cos α − sin α 
0 sin α cos α
78 4 Bilineare Abbildungen

beschrieben. Ist ρ 6= id, so ist der Eigenraum zum Eigenwert 1 eindimensional.


Er wird Drehachse von ρ genannt. Jede Drehung des R3 ist eine Drehung um
eine Achse im üblichen anschaulich-geometrischen Sinn. In der Matrix von B
ist α der Drehwinkel und es gilt

1
cos α = (Sp(B) − 1).
2
Da sich die Spur einer Matrix bei Basiswechsel nicht ändert, haben wir da-
mit eine Formel gewonnen, mit der cos α ohne Bestimmung einer Normalform
bestimmt werden kann.
Eine orthogonale Abbildung f : Rn → Rn heiße Spiegelung an der Hyperebe-
ne H, wenn der Eigenraum V+ zum Eigenwert 1 gleich H ist. Das orthogonale
Komplement von V+ ist dann ein eindimensionaler Raum V− zum Eigenwert
−1. Ist a ∈ V von Null verschieden, so ist durch die Formel

h a, v i
sa (v) = v − 2 a
h a, a i

die Spiegelung sa an der zu a orthogonalen Hyperebene gegeben. Wir hatten


in (4.2.3) gesehen, daß jedes Element von SO(2) Produkt zweier Spiegelungen
ist. Daraus folgt leicht mittels (4.2.10):

(4.2.11) Satz. Jedes Element von SO(2k) oder SO(2k + 1) ist Produkt von
höchstens 2k Spiegelungen. Jedes Element von O(n) ist Produkt von höchstens
n Spiegelungen. 2

Sei A ∈ O(3) r SO(3). Dann hat A den Eigenwert −1. Es gibt also eine
A-invariante Gerade. Im dazu orthogonalen Komplement wird gedreht.

Ergänzungen und Aufgaben


1. Wir interpretieren das Verfahren (4.1.6) durch Matrizen, indem wir es auf den
Rn mit dem Standardskalarprodukt anwenden. Sei also (x1 , . . . , xnP ) eine Basis und
(f1 , . . . , fn ) das Resultat der Orthonormalisierung. Setzen wir fi = ik=1 bki xk , so ist
B = (bki ) eine obere Dreiecksmatrix, deren Diagonalelemente positiv sind. Sei X die
Matrix mit den Spalten Sk (X) = xk und F die Matrix mit den Spalten Sk (F ) = fk .
Dann ist F eine orthogonale Matrix. Da auch B −1 eine obere Dreiecksmatrix mit
positiver Diagonale ist, so sehen wir, daß

Q(n) × O(n) → GL(n, R), (C, X) → CX

surjektiv ist, wenn Q(n) die Gruppe der genannten Dreiecksmatrizen ist. Da Q(n) ∩
O(n) nur die Einheitsmatrix enthält, so ist diese Abbildung auch injektiv.
4.3 Selbstadjungierte Endomorphismen 79

4.3 Selbstadjungierte Endomorphismen


Kreis, Ellipse und Hyperbel werden durch Gleichungen der Form ax2 + cy 2 = r
beschrieben. Setzen wir eine Koordinatentransformation x = αu + βv, y =
γu + δv in diese Gleichung ein, so erhält sie die Form Au2 + 2Buv + Cv 2 = r.
Analoge P höherdimensionale Gebilde werden durch quadratische Gleichungen
2 2 2
der Art i,j aij xi xj = r beschrieben, zum Beispiel liefert x + y + z =
1
1 die Oberfläche der Kugel vom Radius 1. Wenn wir aij durch 2 (aij + aji )
ersetzen, ändert sich die Gleichung nicht. Wir können also ohne Einschränkung
mit einer symmetrischen Matrix A = (aij ) arbeiten. Dann läßt sich die fragliche
Gleichung in der uns schon geläufigen Form
Pn
r = i,j aij xi xj = xt Ax = h Ax, x i = h x, Ax i

schreiben. Wir untersuchen zunächst derartige Formeln vom Standpunkt der


linearen Algebra und kehren danach zu den geometrischen Figuren zurück.
Sei V ein endlichdimensionaler Hilbert-Raum mit Skalarprodukt h−, −i.
Ein Endomorphismus f von V heißt selbstadjungiert, wenn immer hf (u), vi =
hu, f (v)i gilt. Eine reelle (komplexe) (n, n)-Matrix A heißt, wie erinnerlich,
symmetrisch (hermitesch), wenn Ā = At gilt.

(4.3.1) Notiz. Ein Endomorphismus ist genau dann selbstadjungiert, wenn


seine Matrix bezüglich einer Orthonormalbasis symmetrisch (hermitesch) ist.

Beweis. Sei A die Matrix von f bezüglich einer Orthonormalbasis. Daß f selbst-
adjungiert ist, bedeutet für beliebige Koordinatenvektoren x, y die Gleichheit
xt Āt y = xt Ay. Allgemein folgt aus einer Gleichheit xt Cy = xt Dy für alle x, y
die Gleichheit der Matrizen C, D: man setze für x, y die Standardbasis ein. 2

(4.3.2) Notiz. Sei f selbstadjungiert. Dann gilt:


(1) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal.
(2) Ist U ⊂ V Unterraum und f (U ) ⊂ U , so ist auch f (U ⊥ ) ⊂ U ⊥ .
(3) Ein Eigenwert von f ist reell.

Beweis. (1) Sei f (v) = λv, f (w) = µw, λ 6= µ. Es folgt

λhv, wi = hf (v), wi = hv, f (w)i = µhv, wi

und daraus hv, wi = 0.


(2) Sei u ∈ U , v ∈ U ⊥ . Dann ist hf (v), ui = hv, f (u)i = 0.
(3) Aus f v = λv, v 6= 0 folgt nämlich λh v, v i = h v, λv i = h v, f v i =
h f v, v i = h λv, v i = λh v, v i, also λ = λ ∈ R. 2

(4.3.3) Satz. Ein selbstadjungierter Endomorphismus besitzt eine Orthonor-


malbasis aus Eigenvektoren.
80 4 Bilineare Abbildungen

Beweis. Wir betrachten zunächst den Fall F = C. Dann gibt es jedenfalls


einen Eigenvektor v, da das charakteristische Polynom über den komplexen
Zahlen Nullstellen hat. Es erzeuge v den Unterraum U . Wegen (4.3.2) können
wir den Satz für U ⊥ durch Induktion nach der Dimension annehmen. Im Fall
F = R stellen wir uns den Endomorphismus als durch eine symmetrische Matrix
beschrieben vor. Eine solche ist aber auch hermitesch und hat deshalb einen
reellen Eigenwert. Nun argumentieren wir wie im komplexen Fall. 2
Wir notieren einige Konsequenzen des letzten Satzes. Ist V = Fn und h−, −i
das Standardskalarprodukt, so liefert eine symmetrische (hermitesche) (n, n)-
Matrix G = (gij ) einen selbstadjungierten Endomorphismus x 7→ Gx. Ist T
die Matrix, die die Standardbasis in die Orthonormalbasis aus Eigenvekto-
ren überführt, so ist T eine orthogonale (unitäre) Matrix. Demnach impliziert
(4.3.3) den nächsten Satz.
(4.3.4) Satz. Ist G eine symmetrische (hermitesche) (n, n)-Matrix, so existiert
T ∈ O(n) (T ∈ U (n)), so daß T −1 GT = T̄ t GT eine Diagonalmatrix ist. 2
Man kann übrigens in (4.3.4) offenbar T aus SO(n) bzw. aus SU (n) wählen.
Eine Matrix aus SO(n) heißt Drehmatrix und die zugehörige lineare Abbildung
des Rn eine Drehung.
Eine symmetrische (hermitesche) Matrix P heißt, wie erinnerlich, positiv
definit, wenn (x, y) 7→ xt P y ein Skalarprodukt ist.
(4.3.5) Simultane Diagonalisierung. Sei P eine positiv definite und G eine
symmetrische reelle (n, n)-Matrix. Dann gibt es T ∈ GL(n, R), so daß gilt:
(1) T t P T = In .
(2) T t GT ist Diagonalmatrix.
Beweis. Sei T1 eine Matrix, die die Standardbasis des Rn in eine Ortho-
normalbasis für das Skalarprodukt (x, y) 7→ xt P y transformiert. Dann ist
(x, y) 7→ xt Tit P T1 y ein Skalarprodukt, mit e1 , . . . , en als Orthonormalbasis.
Also gilt T1t P T1 = In . Es ist T1t GT1 symmetrisch. Man wähle T2 ∈ O(n), so
daß T2t T1t GT1 T2 eine Diagonalmatrix ist und setze T = T1 T2 . 2
Einen analogen Satz gibt es natürlich für komplexe, positiv definite P und
hermitesche G.
Wir besprechen nun eine weitere Methode, reelle Eigenwerte zu finden. Die
Norm eines Endomorphismus f wird durch
kf k = Maximum {|f (v)| | 1 = |v|}
definiert. (Eine Anleihe aus der Analysis besagt: Dieses Maximum existiert.
Zunächst überlegt man sich, daß die Menge {|f (v)| | 1 = |v|} beschränkt ist. Sie
hat also ein Supremum kf k. Man wählt eine Folge (wk ) mit limk→∞ |f (wk )| =
kf k. Man schreibt wk als Linearkombination einer Orthonormalbasis; die Kom-
ponenten sind beschränkt und konvergieren nach Übergang zu einer Teilfolge.
4.3 Selbstadjungierte Endomorphismen 81

Also können wir annehmen, daß (wk ) gegen w konvergiert. Aus Gründen der
Stetigkeit folgt |w| = 1 und |f (w)| = kf k. Ebenso schließt man, daß die Menge
{|hf (v), vi| | |v| = 1} ein Maximum enthält.)
Die Norm kf k läßt sich auch als das kleinste reelle C charakterisieren, so
daß für alle v ∈ V die Ungleichung

|f (v)| ≤ C|v|

gilt. Aus dieser Ungleichung folgt nämlich |f (v)| ≤ C für |v| = 1, also kf k ≤ C.
Ist v 6= 0 gegeben, so ist ein v|v|−1 Einheitsvektor, also gilt |f (v|v|−1 )| ≤ kf k
und deshalb auch |f (v)| ≤ kf k|v|.
(4.3.6) Notiz. Sei f selbstadjungiert. Dann gilt

kf k = Max{|hf v, vi| | 1 = |v|} = M.

Beweis. Die Schwarzsche Ungleichung liefert für |v| = 1

|hf v, vi| ≤ |f v||v| ≤ kf k.

Also gilt M ≤ kf k. Wir wollen nun kf k ≤ M , also |f (v)| ≤ M für |v| = 1


zeigen. Wir dürfen f (v) 6= 0 annehmen und setzen w = |f (v)|−1 f (v). Dann ist

hf v, wi = |f (v)| = hv, f wi

also
hf (v + w), v + wi = hf v, vi + 2|f v| + hf w, wi
hf (v − w), v − wi = hf v, vi − 2|f v| + hf w, wi
durch Subtraktion dieser Gleichungen ergibt sich

4|f v| = hf (v + w), v + wi − hf (v − w), v − wi ≤ M |v + w|2 + M |v − w|2 = 4M,

wie gewünscht (die Ungleichung folgt mit der Definition von M und die letzte
Gleichung durch bilineares Ausrechnen). 2
(4.3.7) Satz. Ist f ein selbstadjungierter Endomorphismus, so ist kf k oder
−kf k ein Eigenwert von f .
Beweis. Wir wählen einen Einheitsvektor v ∈ V , so daß hv, f vi = α und |α| =
kf k ist, das heißt das Maximum von hf x, xi werde (nach (4.3.6)) in x = v
angenommen. Dann folgt

0 ≤ |f (v) − αv|2 = |f (v)|2 − αh f v, v i − ᾱh v, f v i + |α|2 |v|2


= |f (v)|2 − 2ᾱα + |α|2 |v|2 ≤ 0,

mit der letzten Ungleichung nach (4.3.6). Also gilt f (v) = αv. 2
82 4 Bilineare Abbildungen

Wir geben schließlich (für den reellen Fall) noch einen weiteren analytischen
Beweis dafür, daß ein Einheitsvektor, der h v, f v i maximiert, ein Eigenvektor
ist. Sei zu diesem Zweck w irgendein Einheitsvektor, der zu v orthogonal ist.
Wir wählen eine stetig differenzierbare Kurve a : [−1, 1] → S n−1 mit den Ei-
genschaften: a(0) = v, a0 (0) = w, zum Beispiel a(t) = cos t · v + sin t · w. Dann
hat die Funktion t 7→ h a(t), f a(t) i an der Stelle t = 0 ein Maximum und
folglich die Ableitung Null. Diese Ableitung ist h f v, w i. Demnach ist f v zu
allen w orthogonal und daher ein Vielfaches von v. Ebenso kann man mit dem
Minimum argumentieren.
Es gibt eine gemeinsame Verallgemeinerung der Diagonalisierbarkeit unitä-
rer und hermitescher Matrizen. Eine Matrix A heiße normal, wenn gilt

Āt · A = A · Āt .

(4.3.8) Satz. Eine Matrix A ∈ M (n, n; C) ist genau dann normal, wenn es
S ∈ U (n) so gibt, daß SAS −1 eine Diagonalmatrix ist.
Beweis. Ist A normal und S ∈ U (n), so ist SAS −1 normal. Eine Diagonal-
matrix ist normal. Sei also A normal. Für einen Eigenraum V (λ) gilt dann
Āt V (λ) ⊂ V (λ), denn für v ∈ V (λ) ist A(Āt v) = Āt AV = Āt λv = λ(At v), also
Āt v ∈ V (λ). Man betrachte die Einschränkung Āt |V (λ) : V (λ) → V (λ), die
selbst einen Eigenwert µ und einen Eigenraum V (λ, µ) hat. Es gilt AV (λ, µ) ⊂
V (λ, µ), denn für v ∈ V (λ, µ) ist Āt (Av) = AĀt v = Aµv = µ(Av). Es gilt eben-
falls AV (λ, µ)⊥ ⊂ V (λ, µ)⊥ , denn aus v ∈ V (λ, µ) und hv, ui = 0 folgt hv, Aui =
hĀt v, ui = hµv, ui = µhv, ui = 0. Ebenso gilt Āt V (λ, µ)⊥ ⊂ V (λ, µ)⊥ . Also ist
die Einschränkung von A auf V (λ, µ)⊥ ein normaler Endomorphismus, und
man kommt durch Induktion nach dim V ans Ziel. 2
Wir kommen nun zu den eingangs erwähnten Anwendungen.
(4.3.9) Hauptachsen von Quadriken. Zunächst einige allgemeine Vorbe-
merkungen. Sei f : Rn → R eine Abbildung und

N (f, c) = {x ∈ Rn | f (x) = c} = f −1 (c)

die c-Stellenmenge von f . Sei A ∈ GL(n, R) und LA : Rn → Rn , x 7→ Ax der


zugehörige lineare Automorphismus. Die Wahl eines neuen Koordinatensystems
bedeutet, daß wir eine Abbildung der Form f ◦LA = g betrachten. In den neuen
Koordinaten wird N (f, c) also N (g, c). Wir können aber außerdem das Bild der
Menge N (f, c) bei LA betrachten, und dann gilt

LA N (f, c) = N (f ◦ L−1
A , c).

Sei C = (ckl ) eine symmetrische reelle Matrix. Damit betrachten wir die Funk-
tion Pn
f : Rn → R, x = (x1 , . . . , xn ) 7→ k,l ckl xk xl = xt Cx.
4.4 Bilineare Abbildungen 83

Eine Menge der Form f −1 (c) nennen wir eine Quadrik. In neuen Koordinaten
haben wir die Funktion f ◦LA : x 7→ xt At CAx zu betrachten, also wiederum ei-
ne Quadrik. Wir wissen nach (4.3.4), daß wir eine Drehung A so finden können,
daß At CA = Dia (λ1 , . P
. . , λn ) ist. In den neuen Koordinaten hat die Gleichung
der Quadrik die Form j λj x2j = r, hat sich also beträchtlich vereinfacht.
Ebenso sehen wir, daß das Bild einer Quadrik bei einem linearen Automor-
phismus wieder eine Quadrik ist. Wir können aus demselben Grund durch eine
Drehung eine Quadrik in P eine Lage bringen, in der sie als Punktmenge durch
eine Gleichung der Form j λj x2j = r beschrieben wird. Durch Zurückdrehen
der Koordinatenachsen erhalten wir die sogenannten Hauptachsen der Quadrik,
und die Drehung in die genannte Normalform heißt die Hauptachsentransfor-
mation der Quadrik. 3

4.4 Bilineare Abbildungen


Wir stellen einige allgemeine Aussagen über bilineare Abbildungen zusammen.
Spezialfälle sind uns schon begegnet. Seien U, V und W Vektorräume über dem
Körper K. Eine Abbildung s : U × V → W heißt bilinear, wenn für jedes v ∈ V
die Abbildung U → W , u 7→ s(u, v) und für jedes u ∈ U die Abbildung V → W ,
v 7→ s(u, v) linear ist. Ist W = K, so sprechen wir auch von einer Bilinearform.
Eine bilineare Abbildung s : U × V → W hat zwei adjungierte lineare Ab-
bildungen

sL : U → Hom(V, W ), u 7→ s(u, ?) links


sR : V → Hom(U, W ), v 7→ s(?, v) rechts.

Dabei ist s(u, ?) das Symbol für v 7→ s(u, v).


Wir bezeichnen mit Bil(U × V, W ) die Menge der bilinearen Abbildungen
U × V → W . Im Falle der Bilinearformen lassen wir das Symbol W weg. Durch
Addition und skalare Multiplikation von Funktionswerten trägt diese Menge wie
üblich eine Vektorraumstruktur. Aus den Definitionen verifiziert man sofort:

(4.4.1) Notiz. Die Zuordnung s 7→ sL liefert einen Isomorphismus

Λ : Bil(U × V, W ) → Hom(U, Hom(V, W ))

von Vektorräumen. 2

Im weiteren Verlauf dieses Abschnitts betrachten wir nur noch Bilinearfor-


men. Eine Bilinearform U ×V → K nennen wir auch eine Paarung von U mit V .
Zunächst geben wir eine Beschreibung durch Matrizen an. Sei B = {b1 , . . . , bm }
84 4 Bilineare Abbildungen

eine Basis von U und C = {c1 , . . . , cn } eine Basis von V . Dann gilt für eine
Bilinearform s : U × V → K
P P P
s( i λi bi , j µj cj ) = i,j λi µj s(bi , cj ),

und daraus entnehmen wir, daß die zu s gehörende Matrix S = (s(bi , cj )) die
Form s bestimmt und jede (m, n)-Matrix auf diese Weise aus einer Bilinearform
entsteht. Wir haben somit einen Isomorphismus

mB,C : Bil(U × V ) → M (m, n), s 7→ (s(bi , cj ))

von Vektorräumen. Fassen wir K m und K n als Räume von Spaltenvektoren


auf, so liefert eine (m, n)-Matrix S die Bilinearform

σ : K m × K n → K, (x, y) 7→ xt Sy,

und bezüglich der Standardbasen B und C ist mB,C (σ) = S. Sind Φ = (ϕkl )
und Ψ = (ψrs ) Basiswechselmatrizen in U und V (neue Basis durch die alte!),
so rechnen wir

s(b0i , c0j ) = s( ϕki bk , ψlj cl ) = ϕki s(bk , cl )ψlj


P P P
k l k,l

und erkennen, daß die neue Matrix S 0 sich aus der alten S durch

S 0 = Φt SΨ

ausrechnen läßt.
Die adjungierte Abbildung sL zu einer Bilinearform s : U × V → K ist eine
lineare Abbildung U → V ∗ in den Dualraum und ebenso sR : V → U ∗ . Wir
wählen Dualbasen b1 , . . . , bm zu (b1 , . . . , bm ) und c1 , . . . , cn zu c1 , . . . , cn . Dann
gilt
sL (bi ) = j s(bi , cj )cj , sR (ci ) = j s(bj , ci )bj .
P P

Zum Beweis (der ersten Gleichung) zeigen wir, daß beide Linearformen auf ck
denselben Wert annehmen:

( sL (bi ))(ck ) = s(bi , ck )

( j s(bi , cj )cj )(ck ) = j s(bi , cj )cj (ck ) = j s(bi , cj )δkj = s(bi , ck ).


P P P

Damit haben wir gezeigt:

(4.4.2) Notiz. Die Matrix von sL bezüglich der Basen (bi ) und (cj ) ist die
transponierte Matrix S t . Die Matrix von sR bezüglich der Basen (ci ) und (bj )
ist S. 2
4.4 Bilineare Abbildungen 85

Eine Bilinearform s : U ×V → K heißt regulär, wenn die beiden adjungierten


Abbildungen sL : U → V ∗ und sR : V → U ∗ injektiv sind. Eine reguläre Form
heißt auch Dualität zwischen U und V . Im Falle endlichdimensionaler U und
V gilt für reguläres s dann
dim U ≤ dim V ∗ = dim V ≤ dim U ∗ = dim U ;
also besteht überall Gleichheit, und die adjungierten Abbildungen sind Isomor-
phismen. Aus den Matrizenrechnungen folgt:
(4.4.3) Notiz. Eine Bilinearform ist genau dann regulär, wenn die zugehörige
Matrix regulär ist. 2
(4.4.4) Beispiele.
(1) Das Standardskalarprodukt auf dem Rn .
(2) Das Einsetzen in Linearformen V ∗ × V → K, (α, x) 7→ α(x). Durch Bi-
linearformen dieser Art werden Funktionssymbol und Variablensymbol gleich-
wertig behandelt. Man kann Vektoren in ein Funktional einsetzen; man kann
Funktionale an einem Vektor auswerten.
(3) Sei C([a, b], R) = V der Vektorraum der stetigen Funktionen [a, b] → R
Rb
und p : [a, b] → R eine stetige Funktion. Dann ist (f, g) 7→ a f (x)g(x)p(x)dx
eine Bilinearform auf V . Ist p ≥ 0 nicht die Nullfunktion, so ist die Form ein
Skalarprodukt.
(4) Verkettung von linearen Abbildungen und Matrizenprodukt. 3
Für Bilinearformen s : V × V → K verwenden wir natürlich in beiden
Variablen dieselbe Basis. Eine solche Form heißt symmetrisch, wenn immer
s(u, v) = s(v, u) gilt; alternierend, wenn immer s(x, x) = 0 gilt; schiefsymme-
trisch, wenn immer s(x, y) = −s(y, x) gilt. Eine alternierende Form ist schief-
symmetrisch, wie durch bilineares Ausrechnen von s(x + y, x + y) folgt. Sei
(b1 , . . . , bn ) eine Basis von V und S = (s(bk , bl )) die Matrix von s. Dann ist
s genau dann symmetrisch, wenn S t = S gilt; genau dann schiefsymmetrisch,
wenn S t = −S gilt; genau dann alternierend, wenn S t = −S gilt und die Diago-
nale von S nur Nullen enthält. Wir nennen Matrizen mit diesen Eigenschaften
entsprechend symmetrisch, schiefsymmetrisch oder alternierend.
Ein Isomorphismus f : V → V heißt Isometrie von s, wenn immer s(x, y) =
s(f x, f y) gilt. Die Isometrien von s bilden bezüglich Verkettung eine Gruppe.
Sei S die Matrix von s bezüglich {b1 , . . . , bn } und A die Matrix von f bezüglich
ebendieser Basis. Dann ist f genau dann eine s-Isometrie, wenn die Gleichung
S = At SA
gilt. Ist S regulär, so folgt aus dieser Gleichung, daß A regulär ist und die De-
terminante ±1 hat. Die Gruppe der s-Isometrien ist also isomorph zur Gruppe
der invertierbaren Matrizen A, die die Gleichung S = At SA erfüllen. Eine sol-
che Situation hatten wir schon bei den orthogonalen Matrizen angetroffen. Die
86 4 Bilineare Abbildungen

unitären Matrizen fügen sich diesem Schema nicht ganz, da das Konjugieren
der komplexen Zahlen gebraucht wird. In einem formalen Kontext kann man
stattdessen einen Körperautomorphismus der Ordnung zwei verwenden (Ses-
quilinearformen).

4.5 Adjungierte Endomorphismen


Seien U und V endlichdimensionale Vektorräume über dem Körper K, und sei
s : U × V → K eine reguläre Bilinearform.
Für jeden Endomorphismus f : U → U ist
ρ(f, s) : U × V → K, (u, v) 7→ s(f (u), v)
wieder eine Bilinearform. Ist sL : U → V ∗ die Linksadjungierte zu s, so ist die
Zusammensetzung sL ◦ f : U → V ∗ die Linksadjungierte zu der neuen Form
ρ(f, s). Da s regulär ist und folglich sL ein Isomorphismus, hat jede lineare
Abbildung g : U → V ∗ die Form sL ◦ f für genau einen Endomorphismus f von
U . Da s 7→ sL ein Isomorphismus Bil(U × V ) → Hom(U, V ∗ ) ist, so ist auch
Hom(U, U ) → Bil(U × V ), f 7→ ρ(f, s)
ein Isomorphismus.
Analog hat man für einen Endomorphismus g von V die Bilinearform
λ(s, g) : U × V → K, (u, v) 7→ s(u, g(v))
und die Zuordnung
Hom(V, V ) → Bil(U × V ), g 7→ λ(s, g)
ist ein Isomorphismus.
Zu jedem Endomorphismus f von U gibt es deshalb genau einen Endomor-
phismus von V , so daß für alle u ∈ U und v ∈ V die Gleichung
s(f (u), v) = s(u, g(v))
gilt. Wir setzen g = f und nennen f # die bezüglich s zu f adjungierte
#

Abbildung. Analog setzen wir f = g# . Es gelten dann Relationen (f # )# = f


und (g# )# = g.
(4.5.1) Satz. Das Diagramm

VO
sR
/ U∗
O
f# f∗

V
sR
/ U∗

ist kommutativ.
4.6 Geometrische Bilinearformen 87

Beweis. Die Verifikation aus den Definitionen ist leicht und durch das folgende
Schicksal von v ∈ V angedeutet:

f #O v / s(?, f # v) = s(f (?), v)


O

v / s(?, v)

Das Diagramm klärt den Zusammenhang zwischen der dualen Abbildung und
der adjungierten Abbildung. 2
Es gibt ein analoges Diagramm für sL und g# .
Wir wählen nun eine Basis B = {b1 , . . . , bn } von U und C = {c1 , . . . , cn }
von V . In U ∗ verwenden wir die duale Basis B ∗ = {b∗1 , . . . , b∗n }. Die Matrix von
sR bezüglich dieser Basen ist S = (s(bi , cj )), wie wir in (4.4.2) gesehen haben.
Hat f die Matrix A bezüglich B, so hat nach (4.5.1) f # die Matrix von
−1
sR ◦ f ∗ ◦ sR , also die Matrix S −1 At S bezüglich C. Aus (4.5.1) entnehmen wir
(f2 f1 )# = f1# f2# und (id)# = id. Analog für die Kreuze unten. Bedeutsam ist
der Fall U = V , B = C. Wir nennen in diesem Fall f selbstadjungiert bezüglich
s, wenn f = f # ist, wenn also immer s(f (u), v) = s(u, f (v)) gilt. Mit den eben
verwendeten Matrizen ist das genau dann der Fall, wenn SA = At S gilt. Wir
notieren:
(4.5.2) Notiz. Ist s symmetrisch, so ist die Bilinearform (u, v) 7→ s(f (u), v))
genau dann symmetrisch, wenn f selbstadjungiert ist.
Beweis. Ist die Form symmetrisch, so hat man s(f (u), v) = s(f (v), u). Ersteres
ist gleich s(u, f # (v)) und letzteres wegen der Symmetrie von s gleich s(u, f (v)).
Es folgt f = f # . Analog folgt aus f = f # die Symmetrie der Form ρ(f, s). 2
Ist B eine Orthonormalbasis, also S die Einheitsmatrix, so ist f genau dann
selbstadjungiert, wenn die Matrix A bezüglich dieser Basis symmetrisch ist, das
heißt A = At gilt. Allgemein ist bei Verwendung von Orthonormalbasen At die
Matrix von f # , wenn A die Matrix von f ist.

4.6 Geometrische Bilinearformen


Sei V ein endlichdimensionaler Vektorraum über K und s : V × V → K eine
Bilinearform. Ein geordnetes Paar (u, v) von Vektoren aus V heißt s-orthogonal
oder orthogonal bezüglich s, wenn s(u, v) = 0 ist. Die Form s nennen wir geome-
trisch, wenn aus s(u, v) = 0 immer s(v, u) = 0 folgt, wenn also Orthogonalität
eine symmetrische Relation ist. Wir betrachten im weiteren nur geometrische
Formen. Symmetrische und schiefsymmetrische Formen sind geometrisch.
88 4 Bilineare Abbildungen

Ist U ⊂ V ein Unterraum, so setzen wir

U ⊥ = {v ∈ V | für alle u ∈ U ist s(u, v) = 0}.

Im Gegensatz zum Fall der Skalarprodukte gibt es jetzt im allgemeinen keine


direkte Zerlegung V = U ⊕ U ⊥ .
Ein Vektor v heißt isotrop bezüglich s, wenn s(v, v) = 0 ist. Ein Unterraum
heißt isotrop, wenn er nur isotrope Vektoren enthält. Gegenteil: anisotrop. Der
Unterraum V ⊥ wird Radikal der Form s auf V genannt. Eine Form ist genau
dann regulär, wenn ihr Radikal gleich Null ist.

(4.6.1) Satz. Sei U ein Unterraum, der keinen von Null verschiedenen iso-
tropen Vektor enthält. Dann besteht eine direkte Zerlegung V = U ⊕ U ⊥ .

Beweis. Die Voraussetzung besagt U ∩ U ⊥ = 0. Der Raum U ⊥ ist der Kern


der Abbildung
j∗
V
sR
/ V∗ / U ∗,

worin j : U → V die Inklusion ist. Nach den Dimensionsformeln gilt

dim V ≥ dim(U + U ⊥ ) = dim U ⊥ + dim U ∗ ≥ dim V.

Es folgt V = U + U ⊥ . 2
Wie im ersten Abschnitt definieren wir: Unterräume U1 und U2 heißen or-
thogonal, wenn für ui ∈ Ui immer s(u1 , u2 ) = 0 gilt. Ist V die direkte Summe
paarweise orthogonaler Unterräume (Uj | 1 ≤ j ≤ t), so sagen wir, V sei die
orthogonale Summe der Uj . Wir notieren diesen Sachverhalt durch

V = U1 ⊥ . . . ⊥ Ut .

(4.6.2) Satz. Sei s regulär. Seien U, U0 , U1 Unterräume von V . Dann gilt:


(1) U0 ⊂ U1 ⇒ U0⊥ ⊃ U1⊥ .
(2) dim U + dim U ⊥ = dim V .
(3) (U0 ∩ U1 )⊥ = U0⊥ + U1⊥ .
(4) (U0 + U1 )⊥ = U0⊥ ∩ U1⊥ .
(5) (U ⊥ )⊥ = U .

Beweis. (1) ist klar.


(2) Wir verwenden wieder die Abbildung

j∗
V
sR
/ V∗ / U ∗.

Da j injektiv ist, ist j ∗ surjektiv. Da sR bijektiv ist, folgt die Behauptung aus
dim Kern f + dim Bild f = dim V für f = j ∗ ◦ sR .
4.7 Bilinearformen auf reellen Vektorräumen 89

(5) Aus den Definitionen entnimmt man U ⊂ (U ⊥ )⊥ . Aus (2) entnimmt


man dim U = dim(U ⊥ )⊥ .
(3), (4) Aus U0 ∩ U1 ⊂ Ui folgt (U0 ∩ U1 )⊥ ⊃ Ui⊥ und deshalb (U0 ∩ U1 )⊥ ⊃
U0 + U1⊥ . Aus Ui ⊂ U0 + U1 folgt Ui⊥ ⊃ (U0 + U1 )⊥ und deshalb U0⊥ ∩ U1⊥ ⊃

(U0 + U1 )⊥ sowie (U0⊥ ∩ U1⊥ )⊥ ⊂ U0 + U1 . Wenden wir die letzte Inklusion auf
das Paar U0⊥ , U1⊥ statt auf U0 , U1 an, so folgt (U0 ∩ U1 )⊥ ⊂ U0⊥ + U1⊥ . Die
umgekehrte Inklusion hatten wir aber schon oben gezeigt. Damit haben wir (3)
gezeigt. Analog folgt (4). 2
Eine Basis b1 , . . . , bn heißt Orthogonalbasis, falls für i 6= j immer s(bi , bj ) =
0 ist. Die Matrix S von s bezüglich einer Orthogonalbasis ist eine Diagonalma-
trix (und umgekehrt).
Wir sagen, ein Körper habe die Charakteristik zwei, wenn 1 + 1 = 0 ist.

(4.6.3) Satz. Der Körper K habe nicht die Charakteristik 2. Dann gibt es zu
jeder symmetrischen Bilinearform s eine Orthogonalbasis. (Es muß s hierzu
nicht regulär sein.)

Beweis. Induktion nach dim V . Für dim V = 1 können wir irgendeine Basis
nehmen. Falls es ein b ∈ V mit s(b, b) 6= 0 gibt, so sei U der von b erzeugte
Unterraum. Ist b2 , . . . , bm eine Orthogonalbasis von U ⊥ (bezüglich der durch
s auf U ⊥ gegebenen Form), so ist b, b2 , . . . , bm eine Orthogonalbasis. Es bleibt
der Fall, daß für alle b ∈ V die Gleichheit s(b, b) = 0 gilt. Dann ist

s(b + c, b + c) = s(b, b) + s(b, c) + s(c, b) + s(c, c) = 2s(b, c),

also s(b, c) = 0 für irgend zwei Vektoren b und c, da K nicht die Charakteristik
zwei hat. Jede Basis ist dann eine Orthogonalbasis. 2
Interpretieren wir (4.6.3) durch Matrizen und Basiswechsel, so erhalten wir:

(4.6.4) Satz. Hat K nicht die Charakteristik 2, und ist S eine symmetrische
Matrix, so gibt es eine invertierbare Matrix T derart, daß T t ST eine Diago-
nalmatrix ist. 2

4.7 Bilinearformen auf reellen Vektorräumen


Wir betrachten symmetrische Bilinearformen s : V × V → R auf Vektorräumen
V über R. Eine solche Form heißt positiv definit (negativ definit), wenn für alle
v ∈ V r {0} stets s(v, v) > 0 (stets s(v, v) < 0) gilt. Eine positiv definite Form
s ist ein Skalarprodukt auf V . Eine Orthogonalbasis b1 , . . . , bn heißt orthonor-
mal, wenn immer s(bi , bi ) ∈ {±1} ist. Ist {b1 , . . . , bn } Orthogonalbasis, so gibt
90 4 Bilineare Abbildungen

es λj > 0, so daß {λ1 b1 , . . . , λn bn } orthonormal ist. Nach (4.6.4) hat jede re-
guläre symmetrische Form auf einem endlichdimensionalen R-Vektorraum eine
Orthonormalbasis.
Sei im folgenden V endlichdimensional und s regulär, soweit nichts anderes
gesagt wird. Ein Unterraum U von V heiße positiv (bezüglich s), wenn für alle
x ∈ U r {0} die Ungleichung s(x, x) > 0 gilt. Analog: negativ. Ein positiver
Unterraum U heiße maximal, wenn jeder Unterraum, der U echt umfaßt, nicht
mehr positiv ist.
(4.7.1) Satz. Sei {b1 , . . . , br , c1 , . . . , cs } eine Orthonormalbasis von V . Es gelte
s(bi , bi ) = 1 und s(cj , cj ) = −1. Sei V (+) bzw. V (−) der von den b1 , . . . , br
bzw. c1 , . . . , cs erzeugte Unterraum. Dann gilt: V (+) ist ein maximaler positiver
und V (−) ist ein maximaler negativer Unterraum von V . Ferner ist V die
orthogonale Summe von V (+) und V (−).
Beweis. Es ist s( λi bi , λi bi ) = λ2i . Deshalb ist V (+) positiv. Analog folgt,
P P
daß V (−) negativ ist. Ist u ∈ V (+) und v ∈ V (−), so folgt s(u, v) = 0, weil
die Basisvektoren bi und cj paarweise zueinander orthogonal sind. Da offenbar
V = V (+) ⊕ V (−) gilt, folgt V = V (+) ⊥ V (−).
Sei nun U ⊃ V (+), U 6= V (+) ein Unterraum. Ein Vektor u ∈ U r V (+)
hat eine Darstellung u = u+ + u− , u+ ∈ V (+), u− ∈ V (−) und u− 6= 0. Es
ist dann u− = u − u+ ∈ U und folglich auch jeder Vektor u+ + λu− , λ ∈ R,
in U enthalten. Aus s(u, u) = s(u+ , u+ ) + λ2 s(u− , u− ) und s(u− , u− ) < 0 folgt
s(u, u) < 0 für genügend große λ. Also ist U nicht positiv und damit V (+)
maximal. 2
(4.7.2) Satz. Sei V + ein maximaler positiver Raum, und sei V − = (V + )⊥ .
Dann ist V − ein negativer Raum und V die orthogonale Summe von V + und
V −.
Beweis. Wir haben V = V + + V − und V + ∩ V − = 0 zu zeigen.
Sei v ∈ V + ∩V − . Dann ist nach Definition von V − als (V + )⊥ auch s(v, v) =
0. Da s auf V + positiv definit ist, folgt v = 0. Wegen dim V + + dim(V + )⊥ =
dim V folgt V = V + + V − .
Sei z 6= 0 aus V − . Wäre s(z, z) > 0, so wäre für λ ∈ R und v ∈ V + auch
s(v + λz, v + λz) = s(v, v) + λ2 s(z, z) > 0
und deshalb s auf dem von V + und z erzeugten Raum positiv definit, im
Widerspruch zur Wahl von V + . Also gilt s(z, z) ≤ 0 für alle z ∈ V − . Ist
s(z, z) = 0 und z, w ∈ V − , so folgt, weil w + λz ∈ V − ist,
0 ≥ s(w + λz, w + λz) = s(w, w) + 2λs(w, z).
Das kann für alle λ ∈ R nur gelten, wenn s(w, z) = 0 ist. Da für alle u ∈ V +
ebenfalls s(u, z) = 0 ist, folgt aus der Regularität von s, daß z = 0 ist. Mithin
ist s auf V − negativ definit. 2
4.7 Bilinearformen auf reellen Vektorräumen 91

Wir wollen nun Eindeutigkeitsaussagen über die Zerlegung von V in positive


und negative Unterräume herleiten.
(4.7.3) Satz. Sei s eine reguläre Form. Dann gilt:
(1) Je zwei maximale positive Unterräume V1 und V2 von V haben dieselbe
Dimension. (Analog für maximale negative.)
(2) Sei V = V+ ⊕ V− , und sei V+ bzw. V− positiv bzw. negativ. Dann sind
V+ und V− maximal.
(3) Sei V+ bzw. V− ein maximaler positiver bzw. negativer Unterraum. Dann
gilt V = V+ ⊕ V− .
Beweis. (1) Ist U positiv und W negativ, so gilt U ∩ V = {0}, denn x ∈ U ∩ V
impliziert 0 ≥ s(x, x) ≥ 0, und wegen der positiven Definitheit von s auf U ist
deshalb x = 0.
Sei dim V1 ≤ dim V2 . Es ist V1⊥ nach (4.7.2) negativ. Also gilt V2 ∩V1⊥ = {0}
und deshalb dim V = dim V1 + dim V1⊥ ≤ dim V2 + dim V1⊥ = dim(V2 + V1⊥ ) +
dim(V2 ∩ V1⊥ ) = dim(V2 + V1⊥ ) ≤ dim V . Somit steht überall die Gleichheit und
wir erhalten dim V1 = dim V2 . (In der Un-Gleichungskette wurde (4.7.2) und
die Dimensionsformel benutzt.)
(2) Sei U ⊃ V+ , U 6= V+ ein Unterraum. Sei u ∈ U r V+ , u = u+ + u− ,
u± ∈ V± . Wie im Beweis von (4.7.1) sieht man, daß U Vektoren der Form
u+ + λu− , s(u− , u− ) < 0, λ ∈ R beliebig, enthält. Es kann aber
s(u+ + λu− , u+ + λu− ) = s(u+ , u+ ) + 2λs(u+ , u− ) + λ2 s(u− , u− )
nicht für alle λ positiv sein, also ist U nicht positiv und demnach V+ maximal.
(3) Wegen (4.7.2) gilt V = V+ ⊕ V+⊥ . Wegen (1) und (2) gilt dim V+⊥ =
dim V− . Wegen V+ ∩ V− = {0} ist also dim(V+ + V− ) = dim V+ + dim V− =
dim V+ + dim V+⊥ = dim V und deshalb V = V+ ⊕ V− . 2
Wegen (4.7.1) und (4.7.3) ist in einer Orthonormalbasis B die Anzahl der
Basisvektoren b ∈ B mit s(b, b) = 1 unabhängig von der Wahl der Orthonor-
malbasis (Trägheitssatz von Sylvester10 ).
Ist s : V × V → R symmetrisch, aber vielleicht nicht regulär, so betrachten
wir das Radikal V0 von s. Sei V = V0 ⊕ W mit geeignetem W . Auf W ist s
regulär: Sei nämlich w ∈ W und s(w, v) = 0 für alle v ∈ W . Dann gilt auch
s(w, v) = 0 für alle v ∈ V , also w ∈ V0 . Wegen V0 ∩ W = {0} folgt w = 0. Aus
(4.7.2) erhält man eine Zerlegung V = V0 ⊕ V + ⊕ V − . Wir nennen das Tripel
(dim V + , dim V − , dim V0 ) den Index von s und dim V + − dim V − die Signatur
von s. (Die Terminologie in diesem Kontext ist nicht einheitlich.)
Eine reguläre Form wird bezüglich einer geeigneten Orthonormalbasis durch
eine Matrix der Gestalt
 
Ip 0
Ip,q = n=p+q
0 −Iq
10 James Joseph Sylvester 1814 – 1897
92 4 Bilineare Abbildungen

beschrieben. Es ist (p, q) der Index und p − q die Signatur. Die Gruppe

O(p, q) = {A ∈ GL(n, R) | At Ip,q A = Ip,q }

heißt orthogonale Gruppe dieser Form.


Für q = 0 ist O(n, 0) = O(n). Ist p = 3, q = 1, so heißt (V, s) Minkowski-
Raum11 und O(3, 1) die Lorentz-Gruppe12 . Sie regiert die spezielle Relativitäts-
theorie von Einstein13 .
Eine symmetrische reelle (n, n)-Matrix P heißt, wie erinnerlich positiv defi-
nit, wenn (x, y) 7→ xt P y ein Skalarprodukt auf dem Rn ist. Jedes Skalarprodukt
auf dem Rn ist von dieser Gestalt, P ist nämlich die Matrix von s bezüglich
der Standardbasis.
Wir werden nun ein Verfahren angeben, mit dem man rechnerisch entschei-
den kann, ob eine Matrix positiv definit ist. Sei A = (aij ) eine reelle symme-
trische (n, n)-Matrix, und sei A(k) die Untermatrix (aij | 1 ≤ i, j ≤ k). Dann
gilt:

(4.7.4) Satz. Eine reelle symmetrische (n, n)-Matrix A ist genau dann positiv
definit, wenn alle Determinanten det(A(k)) positiv sind.

Beweis. Ist A positiv definit, so gibt es T mit T t AT = In , woraus wir sehen,


daß det A positiv ist. Die Matrix A(k) beschreibt ein auf Rk eingeschränktes
Skalarprodukt und hat aus demselben Grund eine positive Determinante.
Seien umgekehrt die Determinantenbedingungen erfüllt. Wir betrachten die
durch A auf Rn gegebene Bilinearform. Durch Induktion nach der Dimension
erkennen wir, daß auf Rn−1 × {0} eine positive Form induziert wird. Also ist
der negative Raum null- oder eindimensional. Wäre er eindimensional, so wäre
det A < 0. 2

4.8 Die Lorentz-Gruppe


Wir betrachten ausführlich die symmetrische Bilinearform

s : R2 × R2 → R, (x, y) 7→ xt Hy,

worin  
1 0
H=
0 −1
11 Hermann Minkowski 1864 – 1909
12 Hendrik Antoon Lorentz 1853 – 1928
13 Albert Einstein 1879 – 1955
4.8 Die Lorentz-Gruppe 93

ist. Wir benutzen die theoretischen Einsichten der früheren Abschnitte. Die
Form heißt hyperbolische Form, weil die Menge

H(d) = {x ∈ R2 | s(x, x) = d} = {(x1 , x2 ) ∈ R2 | x21 − x22 = d}

für d 6= 0 eine Hyperbel ist. Die Menge H(0) besteht aus den beiden Winkelhal-
bierenden der Koordinatenachsen und ist die Menge der isotropen Vektoren.
Das Komplement R2 r H(0) zerfällt in vier Stücke (Kegel), von denen das
rechte und linke die positiven und das obere und untere die negativen Vektoren
enthält. Die Kegel werden formelmäßig durch

P (+) = {(x, y) | x > |y| > 0}, P (−) = {(x, y) | −x > |y| > 0}

N (+) = {(x, y) | y > |x| > 0}, N (−) = {(x, y) | −y > |x| > 0}
beschrieben (P für positiv, N für negativ).
Wählen wir als V + den von (1, t) für −1 < t < 1 aufgespannten Raum, so
ist V − der von (t, 1) aufgespannte. Also liegen V + und V − spiegelbildlich zu
den isotropen Geraden. Wir erkennen, wie sich bei Annäherung von V + und
V − notwendig isotrope Vektoren ergeben.
Die Isometrien von s werden durch die reellen (2, 2)-Matrizen B gegeben,
die der Gleichung B t HB = H genügen. Sie bilden die Gruppe O(1, 1), die wir
die kleine Lorentz-Gruppe nennen wollen. Setzen wir
 
b1 b2
B= ,
b3 b4

so bedeutet B t HB = H das Bestehen der Gleichungen

b21 − b23 = 1, b22 − b24 = −1, b1 b2 − b3 b4 = 0.

Quadrieren der letzten Gleichung und Einsetzen der beiden ersten führt zu
b21 = b24 . Außerdem sehen wir, daß diese Quadrate größergleich 1 sind. Falls
b1 = b4 = b ist, erhalten wir die Matrizen
 √ 
√ b ± b2 − 1
,
± b2 − 1 b
der Determinante 1 und, falls b1 = −b4 = b ist, die Matrizen
 √ 
√b ± b2 − 1
.
∓ b2 − 1 −b

der Determinante −1. Wir betrachten den ersten Fall. Es muß b2 ≥ 1 sein,
damit eine reelle Quadratwurzel existiert. Im Fall b ≥ 1 setzen wir
1
b= p , −1 < β < 1
1 − β2
94 4 Bilineare Abbildungen

und erhalten die Matrix


 
√ 1 √β
1−β 2 1−β 2
B(β) =  .
√β 2 √ 1
1−β 1−β 2

Im physikalischen Kontext betrachtet man die Form x21 − c2 x22 (c die Lichtge-
schwindigkeit). Die Matrizen B(β) sind dann durch

√ βc
 1


1−β 2 1−β 2
A(β) =  β/c 1

√ √
1−β 2 1−β 2

zu ersetzen. Verwenden wir die Matrix A(β) als Koordinatentransformation


von (z, t)-Koordinaten, so ergeben sich die neuen (z 0 , t0 )-Koordinaten als

z + βct t + (β/c)z
z0 = p , t0 = p .
1 − β2 1 − β2

Das ist die berühmte Lorentz-Transformation. Die erste Gleichung wird physi-
kalisch so interpretiert: Der Ursprung des (z 0 , t0 )-Systems hat gegenüber dem
Ursprung des (z, t)-Systems die Geschwindigkeit v = −βc (was z 0 = 0 ent-
spricht). Also ist β = −v/c. Damit erhalten wir typische Formeln der speziellen
Relativitätstheorie.
Zurück zu den Matrizen B(β). Die Formel
 
β+γ
B(β)B(γ) = B
1 + βγ

wird durch Nachrechnen verifiziert.

(4.8.1) Satz. Die Matrizen B(β) mit −1 < β < 1 bilden eine Untergruppe
SO(1, 1)+ von O(1, 1). Sie ist isomorph zur additiven Gruppe (R, +).

Beweis. Wir verwenden die Bijektion

ex − e−x
ρ : R → ] − 1, 1[ , x 7→ .
ex + e−x
Sie genügt dem Additionstheorem

ρ(α) + ρ(β)
ρ(α + β) = .
1 + ρ(α)ρ(β)

Deshalb ist α 7→ B(ρ(α)) der gewünschte Isomorphismus. 2


4.8 Die Lorentz-Gruppe 95

Die vorstehend benutzte Funktion ρ ist der tangens hyperbolicus. Er ist Quo-
tient des sinus hyperbolicus sinh(x) = 21 (ex − e−x ) und des cosinus hyperbolicus
cosh(x) = 12 (ex + e−x ). Für diese Funktionen gelten die Additionstheoreme

cosh(x + y) = cosh(x) cosh(y) + sinh(x) sinh(y),


sinh(x + y) = sinh(x) cosh(y) + cosh(x) sinh(y)

sowie die Identität cosh2 (x) − sinh2 (x) = 1. Die Matrizen


       
1 0 −1 0 1 0 −1 0
, , , ,
0 1 0 1 0 −1 0 −1

bilden eine kommutative Untergruppe G von O(1, 1) der Ordnung 4; jedes


Element darin hat höchstens die Ordnung zwei (Kleinsche Vierergruppe14 ).

(4.8.2) Notiz. Es gibt einen surjektiven Homomorphismus k : O(1, 1) → G


mit dem Kern SO(1, 1)+ . Er bildet ein Element xB(β), x ∈ G, auf x ab. Eine
andere Version dieses Homomorphismus ist
   
b1 b2 b1 b4
O(1, 1) → Z∗ × Z∗ , 7→ , .
b3 b4 |b1 | |b4 |
2

Zum letzteren bemerke man die Äquivalenzen:


b1 > 0 ⇔ die positiven Kegel werden nicht vertauscht
b4 > 0 ⇔ die negativen Kegel werden nicht vertauscht.
Ferner ist b1 b4 > 0 äquivalent zu det = 1.
Die Gruppe O(1, 1) besteht aus den vier Stücken (Zusammenhangskomponen-
ten im Sinne der Topologie) xSO(1, 1)+ , x ∈ G. Welche Bedeutung haben diese
Stücke? Zunächst kann man nach der Determinante unterscheiden; die Unter-
gruppe SO(1, 1) der Elemente mit Determinante 1 besteht aus zwei Stücken.
Ferner besteht der Kegel der positiven Vektoren selbst aus zwei Stücken: dem
Teil mit x1 > 0 und dem mit x1 < 0. Der positive Kegel wird durch Elemente
von SO(1, 1) in sich abgebildet. Die Elemente von SO(1, 1)+ bilden alle vier
Stücke von R2 r H(0) in sich ab. Man kann also die vier Stücke der Gruppe
durch ihre Vertauschungseigenschaften bezüglich der vier Stücke von R2 rH(0)
charakterisieren.
Im weiteren vergleichen wir die Gruppen O(2) und O(1, 1). Die Matrizen
aus SO(1, 1)+ lassen sich auch in der Form
 
cosh(t) sinh(t)
= L(t)
sinh(t) cosh(t)
14 Felix Klein 1849 – 1925
96 4 Bilineare Abbildungen

schreiben. Die Additionstheoreme von sinh und cosh zeigen die Gleichung
L(t)L(u) = L(t + u). Folglich ist

R → SO(1, 1)+ , t 7→ L(t)

ein Isomorphismus, der überdies die Analogie zu den Drehmatrizen zeigt.


Die Funktionen sin, cos, sinh, cosh sind auch für komplexe Argumente er-
klärt, und es gelten die Eulerschen Formeln

cosh(iz) = cos(z), sinh(iz) = i sin(z)

für alle z ∈ C.
Die Gruppen

O(2; C) = {A ∈ GL(2, C) | At A = I}
O(1, 1; C) = {A ∈ GL(2, C) | At HA = H}

sind isomorph, weil die zugehörigen Bilinearformen über den komplexen Zahlen
isomorph sind. Explizit wird ein Isomorphismus folgendermaßen gegeben:
   
1 0 1 0
O(2; C) → O(1, 1; C), A 7→ A .
0 i 0 −i

Bei diesem Isomorphismus wird die Drehmatrix D(iz) auf L(−z) abgebildet
(z ∈ C beliebig). Wir erkennen, daß die Lorentz-Matrizen L komplexe Formen
der Drehmatrizen D sind: ¨‘Drehungen¨’ um einen rein imaginären Winkel.
Wir beschreiben nun genauer die Struktur der Gruppe O(2; C). Wir haben
die Determinantenabbildung nach Z∗ . Der Kern ist SO(2; C). Wir setzen für
z ∈ C∗
−1
(u − u−1 )
 1 1

2 (u + u ) 2i
M (u) =  .
1
− 2i (u − u−1 ) 21 (u + u−1 )
Damit gilt:
(4.8.3) Satz. C∗ → SO(2; C), u 7→ M (u) ist ein Isomorphismus.
Beweis. Durch Nachrechnen bestätigt man, daß ein injektiver Homomorphis-
mus vorliegt. (Übrigens, setzt man u = exp(z), so ist M (u) = D(z), und man
ist wieder bei den Additionstheoremen von cos und sin angelangt). Für die
Surjektivität sieht man zunächst, daß man alle Matrizen der Form
 
a b
, a2 + b 2 = 1
−b a

bestimmen muß. Sodann schreibt man

1 = a2 + b2 = (a + bi)(a − bi) = uv, u = a + bi, v = a − bi


4.8 Die Lorentz-Gruppe 97

und löst nach a und b auf. 2


Wir betrachten schließlich die Gruppen SO(2) und SO(1, 1)+ vom dyna-
mischen Standpunkt, indem wir die Bahnen bei der natürlichen Operation auf
R2 beschreiben (die Operation durch Matrizenmultiplikation). Die Bahnen von
SO(2) sind leicht beschrieben: Die konzentrischen Kreise um den Nullpunkt;
der Nullpunkt selbst ist auch eine Bahn. Nun zur anderen Gruppe. Die Glei-
chung     
cosh(t) sinh(t) a ±t a
=e
sinh(t) cosh(t) ±a ±a
zeigt, daß die Menge der isotropen von Null verschiedenen Vektoren in vier
Bahnen zerfällt: Die vier Halbgeraden der Menge H(0) r 0. Die Bahnen durch
nicht-isotrope Vektoren sind Hyperbeläste in den entsprechenden Kegeln, und
zwar besteht jede Hyperbel H(d) aus vier Bahnen (= Ästen). Instruktiv ist
es, die Bewegung eines Bahnpunktes bei der Wirkung von L(t) zu verfolgen,
wenn t von −∞ nach ∞ läuft: Die Punkte kommen aus dem Unendlichen in
der Nähe der Asymptote y = −x angerast und verschwinden im Unendlichen
in der Nähe der Asymptote y = x.

Die allgemeine Lorentz-Gruppe


Wir betrachten jetzt die allgemeine Lorentz-Gruppe. Sei V ein n-dimensionaler
reeller Vektorraum und s : V × V → R eine reguläre symmetrische Bilinear-
form vom Index (n − 1, 1). Sei q : V → R, x 7→ s(x, x) die zu s gehörende
quadratische Form. Das Paar (V, S) heißt n-dimensionaler Minkowski-Raum.
Für n = 4 erhalten wir den Raum der speziellen Relativitätstheorie. Für einen
Vektor x ∈ V führen wir die folgenden Bezeichnungen ein:

x raumartig ⇔ q(x) > 0


x lichtartig ⇔ q(x) = 0
x zeitartig ⇔ q(x) < 0.

Diese Terminologie ist natürlich der Physik entlehnt. Wir haben früher diese
Fälle positiv, isotrop und negativ genannt. Ist x zeitartig, so ist das orthogonale
Komplement von x ein (n − 1)-dimensionaler raumartiger Unterraum.
(4.8.4) Notiz. Die Relation x ∼ y ⇔ s(x, y) < 0 ist eine Äquivalenzrela-
tion auf der Menge der zeitartigen Vektoren. Es gibt zwei Äquivalenzklassen.
Beweis. Reflexivität und Symmetrie sind klar. Sei also s(x, y) < 0, s(y, z) < 0.
Wir haben s(x, z) < 0 zu zeigen. Ohne wesentliche Einschränkung sei s(y, y) =
−1. Sei N das orthogonale Komplement von y. Dann gibt es Darstellungen der
Form
x = αy + u, y = βy + v
98 4 Bilineare Abbildungen

mit u, v ∈ N und
α = −s(x, y), β = −s(z, y).
Wir rechnen
s(x, x) = −α2 + s(u, u) < 0
s(z, z) = −β 2 + s(v, v) < 0
s(x, z) = −αβ + s(u, v).
Auf N ist s positiv definit, und wir haben deshalb die Cauchy-Schwarzsche
Ungleichung
s(u, v)2 ≤ s(u, u)s(v, v) < α2 β 2 .
Nach Voraussetzung sind α und β positiv. Also folgt s(u, v) < αβ und damit
s(x, z) < 0.
Ist T (x) die Klasse von x, so gilt für jeden zeitartigen Vektor y entweder
s(x, y) < 0 oder s(−x, y) < 0, denn s(x, y) = 0 würde y ∈ N bedeuten. Also
gibt es nur die Klassen T (x) und T (−x). 2
(4.8.5) Notiz. Die Äquivalenzklassen der zeitartigen Vektoren sind konvex.
Beweis. Seien x, y, z in derselben Klasse, und sei t ∈ [0, 1]. Dann gilt
s(x, ty + (1 − t)z) = ts(x, y) + (1 − t)s(x, z) < 0.
Also liegen alle ty + (1 − t)z in der Klasse von x. 2
Wir bezeichnen die Klassen mit T+ und T− und nennen T+ (T− ) den Zu-
kunftskegel (Vergangenheitskegel ).
Die Lorentz-Gruppe O(V, s) von (V, s) ist die Gruppe der Isometrien von
s, das heißt sie besteht aus den Endomorphismen f von V , genannt Lorentz-
Transformationen, mit der Eigenschaft: s(x, y) = s(f x, f y) für alle x, y ∈ V .
Die Abbildungen f aus O(V, s) bilden also raumartige (lichtartige, zeitartige)
Vektoren wieder in solche ab. Sind ferner x, y äquivalente zeitartige Vektoren, so
auch f x, f y. Die f ∈ O(V, s), die T+ in sich abbilden, formen eine Untergruppe
O(V, s)+ vom Index 2 in O(V, s), also einen Normalteiler; seine Elemente heißen
orthochrone Lorentz-Transformationen.
Es gibt eine Orthonormalbasis (Minkowski-Basis) v1 , . . . , vn ∈ V bezüglich
s, das heißt eine Basis mit der Eigenschaft s(vj , vj ) = 1 für j ≤ n − 1
und s(vn , vn ) = −1. Genau dann ist A = (aij ) die Matrix einer Lorentz-
Transformation bezüglich dieser Basis, wenn AIn−1,1 At = In−1,1 ist, wobei
In−1,1 = Dia(1, . . . , 1, −1) ist. Eine Lorentz-Transformation hat die Determi-
nante ±1. Wir setzen:
O(n − 1, 1) = {A ∈ GL(n, R) | AIn−1,1 At = In−1,1 }
SO(n − 1, 1) = {A ∈ O(n − 1, 1) | det A = 1}
O(n − 1, 1)+ = {A ∈ O(n − 1, 1) | A orthochron}
SO(n − 1, 1)+ = SO(n − 1, 1) ∩ O(n − 1, 1)+ .
4.8 Die Lorentz-Gruppe 99

Wir nennen O(n − 1, 1) Lorentz-Gruppe. Als Standardmodell des Minkowski-


Raumes verwenden wir den Rn mit der quadratischen Form q(x1 , . . . , xn ) =
x21 + · · · + x2n−1 − x2n . Die Standardbasis ist dann eine Minkowski-Basis.
(4.8.6) Notiz. Eine Matrix (aij ) ∈ O(n − 1, 1) ist genau dann orthochron,
wenn an,n < 0 ist. Die Zuordnung (aij ) 7→ an,n /|an,n | ist ein Homomorphismus
ε : O(n − 1, 1) → Z∗ mit dem Kern O(n − 1, 1)+ .
Beweis. Der Vektor (0, . . . , 0, 1) = en ist zeitartig. Genau dann ist (aij ) ortho-
chron, wenn Aen zu en äquivalent ist. Es ist s(en , Aen ) = −an,n . Da jedenfalls
Aen wieder zeitartig ist, so ist an,n 6= 0. 2
Im Standardmodell setzen wir T± = {x ∈ Rn | q(x) < 0, ±xm > 0}. Die
Menge Q = {x ∈ Rn | q(x) = −1} besteht aus den beiden Stücken Q± = {x ∈
Q | ±xn ≥ 1}. Die Lorentz-Transformationen bilden Q in sich ab.
(4.8.7) Satz. SO(n − 1, 1)+operiert
 transitiv auf Q+ . Die Standgruppe von
A 0
en besteht aus den Matrizen , A ∈ SO(n − 1).
0 1
Beweis. Seien y1 , y2 Vektoren aus Q+ und N1 , N2 ihre orthogonalen Komple-
mente. Wir haben eine orthogonale Zerlegung bezüglich s

Ry1 ⊥ N1 = Rn = Ry2 ⊥ N2 .

Auf N1 und N2 ist s positiv definit. Es gilt deshalb eine Isometrie ϕ : (N1 , s) →
(N2 , s). Diese Isometrie ergänzen wir durch y1 7→ y2 zu einer Isometrie f des
Minkowski-Raumes. Da y1 und y2 in Q+ ⊂ T+ liegen, ist f orthochron. Hat f
nicht Determinante 1, so ändern wir ϕ um eine Isometrie von (N2 , s) mit der
Determinante −1 ab. 2
Der homogene Raum SO(n − 1, 1)+ /SO(n − 1) ist also zu Q+ homöomorph
und Q+ ist vermöge der Projektion (x1 , . . . , xn ) 7→ (x1 , . . . , xn−1 ) zu Rn−1
homöomorph.
Wir wollen jetzt noch genauere Information über die klassischen Lorentz-
Gruppen O(3, 1) und O(2, 1) gewinnen. Dazu benutzen wir ein anderes Modell
des Minkowski-Raumes.
Sei H(2, C) die Menge der komplexen, hermiteschen (2, 2)-Matrizen. Eine
Matrix aus H(2, C) hat die Form
 
a b
A= , a, c ∈ R, b ∈ C.
b̄ c

Die Menge H(2, C) ist ein vierdiemnsionaler reeller Vektorraum. Eine Basis ist
       
1 0 0 1 0 −i 1 0
τ1 = , τ2 = , τ3 = , τ4 = .
0 −1 1 0 i 0 0 1
100 4 Bilineare Abbildungen

Die Matrizen τ1 , τ2 , τ3 heißen Pauli-Matrizen. Die Abbildung


 
a b
q = − det : H(2, C) → R, = |b|2 − ac
b̄ c

ist eine quadratische Form auf H(2, C). Die zugehörige symmetrische Bilinear-
form ist
1
hσ, τ i = (Sp(στ ) − Sp(σ)Sp(τ )),
2
weil für jede (2,2)-Matrix σ die Relation

Sp(σ 2 ) − (Spσ)2 = −2 det σ

besteht. Die Form q nimmt auf den Basisvektoren τ1 , . . . , τ4 die Werte 1, 1, 1, −1


an. Also ist (H(2, C), q) ein vierdimensionaler Minkowski-Raum.
Sei A ∈ GL(2, C) und X ∈ H(2, C). Dann zeigt eine leichte Rechnung, daß
auch AX Āt ∈ H(2, C) ist. Wir erhalten somit eine lineare Abbildung

ΛA : H(2, C) → H(2, C), X 7→ AX Āt

und es gilt
ΛA ΛB = ΛAB .
Ist A ∈ SL(2, C), so zeigt die Produktformel für Determinanten die Relation
q(ΛA X) = q(X). Folglich ist dann ΛA eine Lorentz-Transformation unseres
Modells.

(4.8.8) Satz. Die Zuordnung A 7→ ΛA ist ein surjektiver Homomorphismus


Λ : SL(2, C) → SO(3, 1)+ mit dem Kern {±I}.

Beweis. Wir bestimmen den Kern. Gilt AX Āt = X für alle X ∈ H(2, C), so
folgt zunächst für X = I die Relation AĀt = I. Also gilt AX = XA für alle
X ∈ H(2, C) und dann auch A(iX) = (iX)A. Ist X hermitesch, so ist iX
schiefhermitesch und umgekehrt. Jede Matrix ist Summe einer hermiteschen
und einer schiefhermiteschen . Also ist A mit allen (2, 2)-Matrizen vertauschbar
und deshalb ein Vielfaches der Einheitsmatrix mit der Determinante 1.
Analoge Überlegungen lassen für den 3-dimensionalen Raum reellen sym-
metrischen (2, 2)-Matrizen und die Gruppe SL(2, R) durchführen. Dieselbe
Form wie oben macht daraus einen dreidimensionalen Minkowski-Raum. Jedes
A ∈ SL(2, R) liefert durch X 7→ AXAt eine Isometrie dieses Raumes. Wir er-
halten einen surjektiven Homomorphismus λ : SL(2, R) → SO(2, 1)+ mit dem
Kern ±I. 2
Kapitel 5

Affine und projektive


Räume

5.1 Affine Räume


Wir beginnen damit, zwei verschiedene Definitionen des Begriffs affiner Raum“

zu geben.
(5.1.1) Affiner Raum. Ein affiner Raum A = (T X, ρ, X) über dem Körper
K besteht aus einer Menge X, einem K-Vektorraum T X und einer Operation

ρ : T X × X → X, (v, x) 7→ ρ(v, x) = v + x

der additiven Gruppe von T X auf der Menge X, so daß folgendes gilt: 0+x = x,
(v1 + v2 ) + x = v1 + (v2 + x). Die Operation ist einfach transitiv; das soll
heißen: Zu jedem geordneten Paar x1 , x2 von Elementen aus X gibt es genau
ein v ∈ T X, so daß ρ(v, x1 ) = x2 ist. Die Elemente von X heißen die Punkte
des affinen Raumes. Die Dimension von T X wird als die Dimension des affinen
Raumes bezeichnet. 3

(5.1.2) Der Standardraum. Sowohl T X als auch X sind ein Vektorraum V ,


und ρ ist die Vektorraumaddition. Das Beispiel ist insofern verwirrend, als die
Elemente der Menge V hier zweierlei Funktion haben: Zum einen Vektoren“

und zum anderen Punkte“ zu sein. 3

Die Abbildung tv : X → X, x 7→ v + x heißt Translation mit v. Die Abbil-
dung ax : T X → X, v 7→ v + x heißt Abtragen der Vektoren von x.
Die Abbildungen ax sind bijektiv, weil die Operation einfach transitiv ist.
Sind x1 , x2 ∈ X gegeben, so heißt der durch v + x1 = x2 eindeutig bestimmte
−→
Vektor v der Verbindungsvektor v =x1 x2 von x1 nach x2 . Wir bezeichnen ihn
102 5 Affine und projektive Räume

auch mit v = x2 −x1 ; das Minuszeichen ist hierbei nur symbolisch zu verstehen,
denn auf X ist keine Verknüpfung erklärt.
−→
In einem affinen Raum über R heißt die Menge {tv+x1 | t ∈ [0, 1]}, v =x1 x2
die (Verbindungs-) Strecke von x1 nach x2 . Eine Teilmenge K ⊂ X heißt kon-
vex, wenn sie mit je zwei Punkten auch deren Verbindungsstrecke enthält. Der
Durchschnitt konvexer Mengen ist konvex. Jede Teilmenge S ⊂ X liegt in ei-
ner kleinsten konvexen Teilmenge, der konvexen Hülle C(S) von S; das ist der
Durchschnitt aller S enthaltenden konvexen Teilmengen von X; solche gibt es,
weil X konvex ist.
Wir üblich sagen wir auch: X ist ein affiner Raum; der Vektorraum T X
und die Operation ρ werden dann als gegeben unterstellt. Die Bezeichnung T X
soll an Tangentialraum von X“ oder an Translationsraum von X“ erinnern.
” ”
Wir können die Eigenschaften des Verbindungsvektors zu einer zweiten De-
finition eines affinen Raumes benutzen.
(5.1.3) Affiner Raum. Ein affiner Raum ist ein Tripel (X, a, T X), das aus
einer Menge X, einem Vektorraum T X und einer Abbildung a : X × X → T X
besteht, so daß gilt:
(1) Für je drei Elemente x1 , x2 , x3 ∈ X ist a(x1 , x2 ) + a(x2 , x3 ) = a(x1 , x3 ).
(2) Für jedes x ∈ X ist die Abbildung X 7→ T X, y 7→ a(x, y) bijektiv.
Aus (1) folgt, daß a(x, x) für jedes x der Nullvektor ist. Ferner gilt a(x, y) =
−→
−a(y, x). Wir setzen a(x, y) = xy . 3
Die Definitionen (5.1.1) und (5.1.3) hängen folgendermaßen zusammen.
−→
Ist (T X, ρ, X) wie in (5.1.1) gegeben, so ist a(x, y) durch xy definiert. Ist
(X, a, T X) wie in (5.1.3) gegeben, so wird ρ : T X × X → X durch ρ(v, x) = y
definiert, wobei y durch a(x, y) = v eindeutig bestimmt ist.
(5.1.4) Beispiel. Sei U Unterraum des Vektorraums V , und sei b ∈ V . Die
Nebenklasse U + b = b + U = {b + u | u ∈ U } liefert den affinen Raum
(U, ρ, b + U ) mit der Operation ρ(u1 , b + u2 ) = u1 + b + u2 . 3
(5.1.5) Beispiel. Sei f : V → W eine lineare Abbildung zwischen Vektorräum-
en V und W , und sei w ∈ f (V ) ⊂ W . Dann ist (Kern f, ρ, f −1 (w)) ein affiner
Raum, wobei ρ wieder durch die Vektorraumaddition in V erklärt wird. Dieses
Beispiel ist ein Spezialfall des vorigen. 3
(5.1.6) Satz. Sei E ein endlich-dimensionaler Vektorraum und H ⊂ E
ein Unterraum. Sei EH = {W | W Komplement von H in E}. Die Men-
ge EH hat eine kanonische Struktur eines affinen Raumes zum Vektorraum
Hom(E/H, H).
Beweis. Sei P r(E, H) = {f : E → H | f linear, f |H = id} die Menge der
Projektionen auf H. Wir erhalten eine Abbildung

P r(E, H) → EH , f 7→ Kern f.
5.1 Affine Räume 103

Diese Abbildung ist bijektiv, denn jedes W ∈ EH liefert wegen E = W ⊕H eine


Projektion E → H mit Kern W . Wir erklären deshalb die Struktur des affinen
Raumes auf P r(E, H) statt auf EH . Sind p1 , p2 ∈ P r(E, H), so liegt H im
Kern von p1 − p2 und liefert deshalb eine lineare Abbildung a(p1 , p2 ) : E/H →
H ∈ Hom(E/H, H). Es gilt offenbar (5.1.3) (1).
Ist ϕ ∈ Hom(E/H, H) und ϕ̃ : E → H die Zusammensetzung mit der kano-
nischen Abbildung E → E/H, so ist für p ∈ P r(E, H) auch p + ϕ̃ ∈ P r(E, H)
und a(p + ϕ̃, p) = ϕ. Man erkennt (5.1.3) (2). 2
(5.1.7) Affine Abbildungen. Seien (T X, ρ, X) = A und (T Y, σ, Y ) = B
affine Räume zu Vektorräumen über demselben Körper. Eine affine Abbildung
A → B besteht aus einer Mengenabbildung f : X → Y und einer linearen
Abbildung T (f ) : T X → T Y , so daß folgendes Diagramm kommutativ ist:

TX × X
ρ
/X

T f ×f f
 
TY × Y
σ / Y.

Es ist T f durch f bestimmt. Ist nämlich v + x = y für v ∈ T X und x, y ∈ X,


so folgt
T f (v) + f (x) = f (v + x) = f (y),
also ist T f (v) der Verbindungsvektor von f (y) nach f (x). Es ist also das Dia-
gramm
a /
X ×X TX
f ×f Tf
 
Y ×Y
a / TY

(mit Daten im Sinne von (5.1.3)) kommutativ. Deshalb nennen wir in diesem
Zusammenhang f affine Abbildung, wenn es eine lineare Abbildung T f so gibt,
daß das letzte Diagramm kommutativ wird. 3

(5.1.8) Satz. Seien X und Y affine Räume, und sei x0 ∈ X gegeben. Eine
affine Abbildung f : X → Y ist durch den Punkt f (x0 ) = y0 und die lineare
Abbildung T f : T X → T Y vermöge f (v + x0 ) = T f (v) + y0 bestimmt, und zu
gegebenem y0 ∈ Y und linearer Abbildung α : T X → T Y wird durch f (v +x0 ) =
α(v) + y0 eine affine Abbildung definiert.

Beweis. Da T X → X, v 7→ v +x0 bijektiv ist, so liefert die Formel f (v +x0 ) =


α(v) + y0 jedenfalls eine Abbildung f : X → Y . Sei x1 = v + x0 , u ∈ T X. Dann
gilt
f (u + x1 ) = f (u + v + x0 ) = α(u + v) + y0
104 5 Affine und projektive Räume

T f (u) + f (x1 ) = α(u) + f (v + x0 ) = α(u) + α(v) + y0


und damit die gewünschte Kommutativität. 2
Ein affines Koordinatensystem (x0 ; v1 , . . . , vn ) von X besteht aus einem
Punkt x0 ∈ X (dem Ursprung) und einer Basis (v1 , . . . , vn ) von T X.
In affinen Räumen X kann man in geeigneter Weise mit Punkten rechnen.
Das führt zu den baryzentrischen Koordinaten (Schwerpunkt-Koordinaten). Sei
(T X, ρ, X) ein affiner Raum mit einem K-Vektorraum T X der Dimension n.
Seien p0 , . . . , pk aus X und λ0 , . . . , λk aus K mit der Summe λ0 + · · · + λk = 1
gegeben. Mit

(1.1) λ 0 p0 + λ 1 p1 + · · · + λ k pk = p

bezeichnen wir den durch

(1.2) λ1 (p1 − p0 ) + · · · + λk (pk − p0 ) + p0

definierten Punkt. Hier sind wiederum pj − p0 Verbindungsvektoren. Formal


Pk
ergibt sich (1.2) aus (1.1), indem λ0 durch 1 − j=1 λj ersetzt wird. Wenn
statt p0 ein anderer der Punkte pj ausgezeichnet wird, ergibt sich nach der
Vorschrift (1.2) dasselbe Element. Diese und ähnliche Aussagen beweist man
am besten, indem man den affinen Raum in einen Vektorraum einbettet, wie
es im folgenden erläutert wird.
Sei ax : T X → X, v 7→ v + x. Wir betrachten die Einbettung

αx : X → T X ⊕ K, z 7→ (a−1
x (z), 1) = (z − x, 1).

Sei L(y, x) : T X ⊕ K → T X ⊕ K der lineare Automorphismus, der auf T X die


Identität ist und (0, 1) ∈ T X × K auf (x − y, 1) abbildet. Dann gilt L(y, x)dx =
dy .
Durch
P αx wird X auf die Hyperbene T X × {1} P von T X ⊕ K abgebildet.
Ist λj = 1 und sind p0 , . . . , pk ∈ X, so liegtP λj αx (pj ) im Bild von αx ,
P p ∈ X, das mit
hat also die Form αx (p) für ein λj pj bezeichnet werde. Für
jedes y ∈ X gilt dann auch λj αj (pj ) = αy (p), so daß die Definition von p
unabhängig von der Wahl von x ist. Mit anderen Worten: Der Punkt
k
P Pk
λj (pj − x) + x, für j=0 λj = 1
j=0
P
ist unabhängig von der Wahl von x. Wir nennen λj pj den Schwerpunkt der
p0 , . . . , pk bezüglich der Gewichte λ0 , . . . , λk . Sind p0 , p1 , p2 drei Punkte der
reellen affinen Ebene, versehen mit der Masse 1, so ist
1 1 1 1
p0 + p1 + p2 = (p0 + p1 + p2 )
3 3 3 3
5.1 Affine Räume 105

der gewöhnliche Schwerpunkt. Ferner ist 21 p0 + 12 p1 der Mittelpunkt der Strecke


von p0 nach p1 .

p2
1
@
@
pp 3 p0 + 13 p1 + 31 p2
ppp
@p p p p
@
p pp
p p pp @ 1
p1 + 12 p2
PP p @2
PP p p p 
P
 pP @
  PP
P @
  PP @
PP
 P
@
p0 p1

Für die Schwerpunktrechnung gilt ein Assoziativgesetz.


(5.1.9) Satz. Sei I = I1 ∪ . . . ∪ Is eine disjunkte Vereinigung einer endlichen
Pi | i ∈ I) Punkte aus dem affinen Raum X. Seien
Menge I. Seien (p P(µ
s
j (k) | j ∈
Ik ) Skalare mit j∈Ik µj (k) = 1. Seien λ1 , . . . , λs Skalare mit i=1 λi = 1.
Dann gilt Ps P P
i=1 λi ( j∈Ii µj (i)pj ) = i,j λi µj (i)pj .

Beweis. Anwendung einer Abbildung αx . 2


Die Schwerpunkte können zur Koordinatenbeschreibung eines affinen Rau-
mes X dienen. Sei X n-dimensional. Wir nennen k + 1 Punkte p0 , . . . , pk aus
X unabhängig, wenn die Vektoren p1 − p0 , . . . , pk − p0 in T X linear unabhängig
sind.
(5.1.10) Satz. Die Punkte p0 , . . . , pk sind genau dann unabhängig, wenn die
Abbildung
n Pk o Pk
σ : (λ0 , . . . , λk ) ∈ K k+1 | i=0 λi = 1 → X, (λ0 , . . . , λk ) 7→ i=0 λi pi

injektiv ist.
Beweis. Seien die Punkte unabhängig. Es ist
Pk Pk
i=0 λi pi = i=1 λi (pi − p0 ) + p0 .

Die Zusammensetzung von σ mit dem Inversen von aq , q = p0 , ist


Pk
(λ0 , . . . , λk ) 7→ i=1 λi (pi − p0 ).
106 5 Affine und projektive Räume

Diese Abbildung ist wegen der linearen Unabhängigkeit der pj − p0 injektiv,


Pk
denn die λ1 , . . . , λk sind beliebig und λ0 ist durch l0 = 1 − i=1 λi bestimmt.
Da a−1
q σ injektiv ist, so auch σ. Analog folgt aus der Injektivität von σ die
Unabhängigkeit der Punkte. 2
Wir nennen (p0 , . . . , pn ) ein affines Koordinatensystem des n-dimensionalen
affinen Raumes X, wenn diese Punkte unabhängig sind. Jeder Punkt p ∈ X
besitzt dann genau eine Darstellung p = λ0 p0 + · · · + λn pn mit λ0 + · · · +
λn = 1. In einer solchen Darstellung heißen (λ0 , . . . , λn ) die baryzentrischen
Koordinaten von p bezüglich (p0 , . . . , pn ).
(5.1.11) Satz. Sei X ein affiner Raum über den reellen Zahlen. Die konve-
xe Hülle einer Menge {p0 , . . . , pk } ⊂ X besteht aus allen Punkten der Form
Pk Pk
i=0 λi pi mit λi ≥ 0 und i=0 λi = 1.

Beweis. Die genannte Menge enthält alle pi und ist nach (5.1.9) konvex. Durch
Induktion nach ` zeigt man, daß jede {p0 , . . . , p` } enthaltende konvexe Menge
P` P`
auch alle Punkte i=0 λi pi mit λi ≥ 0, i=0 λi = 1 enthält. Für k = 1 ist das
die Definition der Konvexität. Der Induktionsschritt beruht für λ`+1 6= 1 auf
der Gleichheit  
λ0 λ`
λ + · · · + p` + (1 − λ)p`+1
λ λ
mit λ = λ0 + · · · + λ` . 2
Sind p0 , . . . , pk unabhängig, so heißt ihre konvexe Hülle das von {p0 , . . . , pk }
aufgespannte k-Simplex (k = 2 Dreieck, k = 3 Tetraeder).
Wir erwähnen noch: Seien X und Y affine Räume zu Vektorräumen über
demselben Körper K. Eine Abbildung f : X → Y ist genau dann affin, wenn
für p0 , . . . , pk ∈ X und λ0 , . . . , λk ∈ K immer f (Σλj pj ) = Σλj f (pj ) gilt.

5.2 Projektive Räume


Der projektive Raum P (V ) des Vektorraums V über dem Körper K ist die
Menge aller eindimensionalen Unterräume von V . Ist V n-dimensional, so ord-
nen wir P (V ) die Dimension n − 1 zu. Ist V nulldimensional, so gibt es keine
eindimensionalen Unterräume, deshalb ist P (V ) die leere Menge; sie bekommt
die Dimension −1. Ist V eindimensional, so ist P (V ) ein Punkt. Die Elemente
von P (V ) heißen Punkte. Ist U ⊂ V ein Unterraum, so ist P (U ) ⊂ P (V ) ein
projektiver Unterraum. Für U1 , U2 in V gilt P (U1 ) = P (U2 ) genau dann, wenn
U1 = U2 ist.
Wir geben eine zweite Beschreibung von P (V ) an. Sei p ∈ P (V ) und v ∈ p
ein von Null verschiedener Vektor der Geraden p ⊂ V . Dann besteht p aus
5.2 Projektive Räume 107

den skalaren Vielfachen von v, es ist p der von v erzeugte Unterraum, p = [v]
geschrieben. Für Vektoren v, w ∈ V r 0 ist genau dann [v] = [w], wenn für
ein λ ∈ K ∗ = K r 0 die Relation v = λw besteht. Deshalb betrachten wir auf
V r 0 die Äquivalenzrelation:

v∼w ⇔ es ist v = λw für ein λ ∈ K ∗ .

Die Menge der Äquivalenzklassen kann mit P (V ) identifiziert werden, indem


der Klasse von v das Element [v] ∈ P (V ) zugeordnet wird. Wir nennen

V r {0} → P (V ), v 7→ [v]

die kanonische Abbildung.


Ist V = K n+1 und 0 6= x = (x0 , . . . , xn ), so schreiben wir

[x] = [x0 , . . . , xn ] = [x0 : x1 : . . . : xn ] ∈ P (K n+1 )

und bezeichnen die xj als die homogenen Koordinaten von x. Sie sind definiti-
onsgemäß nur bis auf einen gemeinsamen Faktor bestimmt.
Wir wollen nun erläutern, in welcher Weise der n-dimensionale projektive
Raum als Vervollständigung eines n-dimensionalen affinen Raumes verstanden
werden kann.
Sei U ⊂ V eine Hyperebene und H = P (U ) ⊂ P (V ) die zugehörige pro-
jektive Hyperebene. Sei A = P (V ) r H. Wir wählen a ∈ V r U aus. Dann gilt
V = [a] ⊕ U . Mit dieser Zerlegung lassen sich die Punkte aus A als die Punkte
[λa, u], λ 6= 0, u ∈ U beschreiben. Da aber [λa, u] = [a, λ−1 u] ist, können wir
die erste Komponente zu a normieren. Wir erhalten deshalb eine Bijektion

ρU,a : U → a + U → A, u 7→ a + u 7→ [a + u].

Durch Wahl von a wird also A mit einem affinen Unterraum zum Vektorraum
U identifiziert. Wir nennen ρU,a die Kartenabbildung von P (V ) zu (U, a), ferner
A den affinen Raum zur Hyperebene H und H die unendlich ferne Hyperebene
von A.
Eine invariantere Beschreibung der Karte zur Hyperebene U läßt sich fol-
gendermaßen geben. Sei wie in (5.1.6) VU die Menge der zu U komplementären
eindimensionalen Unterräume von V . Ein solcher Unterraum ist genau dann
komplementär, wenn er nicht in U enthalten ist. Also ist VU = P (V ) r P (U ).
Wir haben in (5.1.6) gesehen, daß VU kanonisch ein affiner Raum zum Vektor-
raum Hom(V /U, U ) ist.
108 5 Affine und projektive Räume

[a]
6

 C
a rpp
 C
%
 ppp p ppp C
ppp pp
pp ppp
 C
 p C a+U
 D
0 rpp
 D
 ppp D
ppp
pp
 D
 D U

Für den projektiven Raum P (K n+1 ) haben wir n + 1 affine Hyperebenen,


die durch Nullsetzen jeweils einer Koordinate erhalten werden. Sei

Ui = {[x0 , . . . , xn ] | xi 6= 0} ⊂ P (K n+1 ).

Die Bedingung xi 6= 0 ist unabhängig von der Wahl des Repräsentanten in der
Äquivalenzklasse [x0 , . . . , xn ]. Wir erhalten zueinander inverse Bijektionen
 
n x0 xi−1 xi+1
Ui → K , [x0 , . . . , xn ] 7→ ,..., , ,...
xi xi xi

K n → Ui , (a1 , . . . , an ) 7→ [a1 , . . . , ai−1 , 1, ai+1 , . . .].


Die erste Abbildung ist wohldefiniert, weil sich der frei verfügbare gemeinsame
Faktor herauskürzt. Die Ui überdecken P (K n+1 ), das heißt P (K n+1 ) ist die
Vereinigung der Mengen U0 , . . . , Un .
Gehen wir umgekehrt von einem Vektorraum U aus und möchten diesen als
affinen Raum eines projektiven Raumes realisieren, so bilden wir V = K ⊕ U
und wählen H = P (U ) als unendliche ferne Hyperebene und a = (1, 0). Dann
haben wir wie eben Bijektionen

U → {1} × U → P (V ) r P (U ), u 7→ [1, u].

Wir wollen jetzt die Geometrie von U und P (V ) vergleichen. Es gilt:

(5.2.1) Satz. Es gibt eine kanonische Bijektion zwischen den Mengen:


(1) k-dimensionale affine Unterräume von 1 × U .
5.2 Projektive Räume 109

(2) k-dimensionale projektive Unterräume von P (K ⊕ U ), die nicht in P (U )


enthalten sind.
Die Bijektion wird durch r : P (W ) 7→ W ∩ (1 × U ) gegeben.

 A
Ap
1 × Uppppppppppppppp p p p p p p p p p p p p p p p p pAp p p p p p p p p p p p p p p p p p W ∩ (1 × U )
 
pp
  
pp A
 

  pp
pp A

 
p rp 1
 pp
 pp pp A
pp
 pp p A
E E
p pEp p p p p p p p p p p p p W = [x] + L
E
E E
 E   
 B
r 0 
p
 E B
 p
 
p p p p p p p pBp p p p p p p U = 0 × U
 E p  p
E pp p
 
pp
 B
L=W ∩U

Beweis. Sei W 6⊂ U = {0} × U . Dann gibt es in W ein Element mit erster


Komponente 1, etwa x, und damit ist {1} × U = x + U . Es folgt W ∩ (1 × U ) =
W ∩ (x + U ) = x + W ∩ U . Nach der Dimensionsformel ist

dim(W ∩ U ) = dim W + dim U − dim(W ⊕ U ) = dim W − 1,

weil W ⊕ U = V die Dimension n + 1 hat.


Sei umgekehrt x + L ein k-dimensionaler affiner Unterraum in 1 × U mit
zugehöriger Richtung L ⊂ U . Dann ist W = [x] + L ein (k + 1)-dimensionaler
Unterraum von V , denn L ⊂ U und x 6∈ U . Es ist für x − y ∈ L auch
[x] + L = [y] + L, so daß W nicht von der Auswahl von x zur Beschreibung von
x + L abhängt. Wir können deshalb eine Abbildung in der umgekehrten Rich-
tung durch s : x + L 7→ P ([x] + L) definieren. Es handelt sich um die Umkehr-
abbildung zu r : P (W ) 7→ W ∩(1×U ). Es ist nämlich ([x]+L)∩(1×U ) = x+L
nach Konstruktion, also rs = id.
Umgekehrt: P (W ) 7→ W ∩ (1 × U ) = x + W ∩ U 7→ P ([x] + W ∩ U ); es
ist W ∩ U 6⊂ [x] + W ∩ U ⊂ W , also wegen dim(W ∩ U ) = dim W − 1, gilt
dim([x] + W ∩ U ) = dim W , also [x] + W ∩ U = W . 2

Einen eindimensionalen projektiven Unterraum P (U ) von P (V ) nennen wir


projektive Gerade, einen zweidimensionalen projektive Ebene. Wir schreiben
auch
KP n = P n (K) = P (K n+1 ),

um die Dimension zu kennzeichnen.


110 5 Affine und projektive Räume

Wir können jetzt einsehen, daß in einer projektiven Ebene P 2 je zwei ver-
schiedene Geraden genau einen Schnittpunkt haben. Sei
P 2 = P (V ) ⊃ P (U1 ), P (U2 ), P (U1 ) 6= P (U2 )
und gelte dim U1 = dim U2 = 2. Wegen U1 6= U2 ist U1 + U2 = V und deshalb
nach der Dimensionsformel dim(U1 ∩ U2 ) = 1. Folglich ist P (U1 ) ∩ P (U2 ) =
P (U1 ∩ U2 ) ein Punkt.
Ebenfalls lassen sich je zwei verschiedene Punkte p1 , p2 ∈ P 2 durch genau
eine Gerade verbinden. Ist pi = P (Ui ), dim Ui = 1, so ist U1 ⊕ U2 zweidimen-
sional und L = P (U1 ⊕ U2 ) die gewünschte Gerade.
In diesem Zusammenhang wird der Begriff parallel“ ein relativer Begriff:

Nach Auszeichnung einer Geraden H in KP 2 als unendlich fern“ sind zwei

affine Geraden in der affinen Ebene A = KP 2 r H genau dann parallel, wenn
sie sich in H schneiden. Die Wahl der Geraden H markiert einen Standpunkt.
Die projektive Ebene umfaßt viele affine Ebenen. Es stellt sich heraus, daß
man Aussagen über das Schneiden und Verbinden affiner Unterräume besser
im vollständigen projektiven Raum untersucht.
Die analytische Geometrie beschreibt geometrische Figuren als Teilmengen
von Vektorräumen.
Eine Teilmenge M des K n läßt sich oft als Nullstellenmenge einer Gleichung
gewinnen:
M = {(x1 , . . . , xn ) | f (x1 , . . . , xn ) = 0}
mit einer geeigneten Funktion f : K n → K. Für den projektiven Raum
können wir, mit einer Vorsichtsmaßnahme, ebenso vorgehen: Die (n + 1)-Tupel
(x0 , . . . , xn ) und (λx0 , . . . , λxn ) beschreiben für λ ∈ K ∗ denselben Punkt in
KP n . Aus diesem Grunde betrachten wir Funktionen f : K n+1 → K, bei de-
nen f (x0 , . . . , xn ) = 0 und f (λx0 , . . . , λxn ) = 0 gleichwertige Relationen sind.
Diese Forderung wird durch die sogenannten homogenen Funktionen erfüllt: f
heißt homogen vom Grad k ∈ N, wenn für λ ∈ K ∗
f (λx0 , . . . , λxn ) = λk f (x0 , . . . , xn )
gilt. Für eine homogene Funktion f : K n+1 → K ist also
{[x0 , . . . , xn ] ∈ P (K n+1 ) | f (x0 , . . . , xn ) = 0}
eine wohldefinierte Teilmenge des Raumes P (K n+1 ). Typische Beispiele für
homogene Funktionen vom Grad k sind die homogenen Polynome vom Grad k
X
p(x0 , . . . , xn ) = a(i0 , . . . , in )xi00 . . . xinn
i0 +···+in =k

mit Koeffizienten a(i0 , . . . , in ) ∈ K, zum Beispiel die homogenen quadratischen


Polynome
n
X
q(x0 , . . . , xn ) = aij xi xj .
i,j=0
5.3 Projektivitäten 111

Betrachten wir den affinen Teilraum U0 ⊂ P (K n+1 ) und die Bijektion


ρ0 : K n → U0 ⊂ P (K n+1 ), (x1 , . . . , xn ) 7→ [1, x1 , . . . , xn ].
Die Teilmenge U0 ∩ {[x0 , . . . , xn ] | q(x0 , . . . , xn ) = 0} wird vermöge ρ0 zu
einer Teilmenge von K n . Sie erscheint als Nullstellenmenge der Gleichung
f (x1 , . . . , xn ) = 0, wobei
n
X n
X
f (x1 , . . . , xn ) = q(1, x1 , . . . , xn ) = aij xi xj + (a0i + ai0 )xi + a00 .
i,j=1 i=1

Wir sehen deshalb, daß die sogenannte projektive Quadrik


Qq = {[x0 , . . . , xn ] | q(x0 , . . . , xn ) = 0}
als Vervollständigung der affinen Quadrik
Qf = {(x1 , . . . , xn ) | f (x1 , . . . , xn ) = 0}
erscheint; gewisse unendlich ferne Punkte werden hinzugehügt.
Betrachten wir als Beispiel Ellipse, Parabel und Hyperbel. Der Grundkörper
sei der Körper der reellen Zahlen. Wir schreiben die affinen und die zugehörigen
homogenen Gleichungen nebeneinander:
I: x21 + x22 − 1 = 0 x21 + x22 − x20 = 0
II: x21 − x22 − 1 = 0 x21 − x22 − x20 = 0
III: x21 − 2x2 = 0 x21 − 2x0 x2 = 0.
Die eventuell hinzugefügten unendlich fernen Punkte [x0 , x1 , x2 ] erhalten wir
durch die Bedingung x0 = 0. Im Fall I führt das zu x21 + x22 = 0, also zu
x1 = x2 = 0. Das Tripel [0, 0, 0] ist aber nicht erlaubt, d. h. die unendlich
ferne Gerade hat einen leeren Schnitt mit der projektiven Quadrik, der Kreis
ist schon projektiv vollständig. Im Fall II erhalten wir x21 − x22 = 0. Dazu
gehören zwei Punkte im projektiven Raum: [0, 1, 1] und [0, −1, 1], denn alle Lö-
sungen (x1 , x2 ) = (a, ±a), a 6= 0, führen zu diesen Punkten. Die Hyperbel wird
durch zwei Punkte im Unendlichen vervollständigt. Die beiden Asymptoten
schneiden dort die unendlich ferne Gerade. Im Fall III erhalten wir x21 = 0, also
einen Punkt im Unendlichen [0, 0, 1].
Ellipse, Parabel und Hyperbel sind, projektiv betrachtet, dieselben Objekte,
sie erscheinen“ nur verschieden, je nach Lage der unendlich fernen Geraden

zur projektiven Quadrik.

5.3 Projektivitäten
Eine bijektive lineare Abbildung α : V → V bildet einen eindimensionalen Un-
terraum v ⊂ V wieder auf einen solchen ab. Deshalb wird eine projektive Ab-
112 5 Affine und projektive Räume

bildung, auch Projektivität genannt, induziert:

P (α) : P (V ) → P (V ), v 7→ α(v),

die auch [v] 7→ [a(v)] geschrieben wird. Die Gesamtheit dieser Selbstabbildun-
gen ist eine Gruppe P Aut(V ). Der Homomorphismus

P : Aut(V ) → P Aut(V ), α 7→ P (α)

ist surjektiv. Falls P (α) = id ist, so gilt für jedes v ∈ V r {0} sicherlich
α(v) = λ(v)v, mit einem λ(v) ∈ K. Wir zeigen, daß λ(v) von v unabhängig ist.
Seien v, w linear unabhängig. Dann ist

α(v + w) = λ(v + w)v + λ(v + w)w, α(v) + α(w) = λ(v)v + λ(w)w,

und durch Koeffizientenvergleich folgt λ(v) = λ(w). Der Kern P −1 (id) von P
besteht also aus den Vielfachen der Identität. Für V = K n+1 schreiben wir
P GL(n + 1, K) = P Aut(K n+1 ).
Die Elemente der projektiven Gruppe P GL(2, K) sind von der Form

[z0 , z1 ] 7→ [az0 + bz1 , cz0 + dz1 ],

wobei die Determinante ad − bc 6= 0 ist. Falls cz0 + dzh1 6= 0 und


i z1 6= 0 ist und
az+b
wir z = z0 /z1 setzen, so ist der Punkt rechts gleich cz+d , 1 . Wenn wir also
die affine Gerade {[z, 1] | z ∈ K} ⊂ KP 1 betrachten, so ist eine Projektivität
eine gebrochen-lineare Abbildung z 7→ az+b
cz+d .
Der Punkt z ∈ K, für den cz + d = 0 ist (solche gibt es nur, falls c 6= 0 ist),
wird auf den unendlich fernen Punkt abgebildet. Die Division durch 0“ erhält

also in diesem Zusammenhang eine Sinnzuweisung. Der unendlich ferne Punkt
selbst wird auf a/c abgebildet. Das entspricht für K = R dem aus der Analysis
Geläufigen,

az + b a
lim = .
z→∞ cz + d c

Die projektiven Räume und Projektivitäten haben etwas mit Projektionen


zu tun (daher der Name). Betrachten wir als Beispiel die Zentralprojektion α
5.3 Projektivitäten 113

von einem Punkt P ∈ R2 einer Geraden A auf eine Gerade B.

S∞ A
p p pp
p pp
pp ppp
p ppp
ppppppppppppppppppppppppppppppppppppppppppppppppP pp pp pp p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p S0
p pp prH
pp p
ppp
H
p p p H
p p
H
p p p H
p H r
H
p p pp S
p
H
p p x HH
pp
ppp
H
p
H
p p r
p HHr B
p p p
pp p P ∞ α(x)
p p ppp
p
ppp
ppp

Wenn sich der Projektionsstrahl S der Geraden S0 nähert, wandert α(x) ins
Unendliche, der Punkt P0 wird auf den unendlich fernen Punkt von B abgebil-
det. Umgekehrt erscheint P∞ ∈ B als Bild des unendlich fernen Punktes von
A. Wie sieht die Abbildung α formelmäßig aus?
Sei, der Einfachheit halber, A die y- und B die x-Achse. Sei P = (a, b). Die
Gerade durch (a, b) und (0, x) ist {t(a, b − x) + (0, x) | t ∈ R}, und sie trifft die
ax
x-Achse im Punkt ( x−b , 0). Also ist α die gebrochen-lineare Abbildung

ax
α(x) =
x−b

und somit eine Projektivität im oben definierten Sinne.


Ein k-Tupel von Punkten [v1 ], . . . , [vk ] aus P (V ) heißt unabhängig (oder,
in allgemeiner Lage), wenn die Vektoren v1 , . . . , vk in V linear unabhängig
sind. Unabhängige k-Tupel spannen einen (k − 1)-dimensionalen projektiven
Unterraum auf; er ist der kleinste, in dem sie alle liegen. Ist dim P (V ) = n,
also dim V = n + 1, so heißt ein (n + 2)-Tupel (p0 , p1 , . . . , pn+1 ) von Punkten
in P (V ) ein projektives Koordinatensystem, wenn je n + 1 Punkte unabhängig
sind. Diese Terminologie wird durch den folgenden Satz gerechtfertigt.

(5.3.1) Satz. Sind p0 , . . . , pn+1 und q0 , . . . , qn+1 projektive Koordinatensyste-


me von P (V ), so gibt es genau eine Projektivität P (α), die pj auf qj abbildet
(j = 0, . . . , n + 1).
114 5 Affine und projektive Räume

Beweis. Wir wählen eine Basis e0 , . . . , en von V und setzen en+1 = e0 +· · ·+en .
Dann sind je n + 1 der Vektoren e0 , . . . , en+1 linear unabhängig, es liegt also
ein projektives Koordinatensystem vor.
Existenz von P (α) mit P (α)(pj ) = [ej ]. Da die p0 , . . . , pn unabhängig sind,
gibt es eine Basis v0 , . . . , vn von V mit [vj ] = pj für j = 0, . . . , n. Es gibt
ferner eine lineare Relation vn+1 = λ0 v0 + · · · + λn vn . Kein λj ist Null, weil
je n + 1 der Vektoren v0 , . . . , vn+1 linear unabhängig ist. Wir können deshalb
auch w0 = λ0 v0 , . . . , wn = λn vn als Basis verwenden. Dann gilt [wj ] = pj
und [w0 + · · · + wn ] = [vn+1 ] = pn+1 . Sei α : V → V der durch α(wj ) = ej
für j ∈ {0, . . . , n} bestimmte lineare Automorphismus. Er bildet dann auch
α(wn+1 ) auf en+1 ab, und folglich hat P (α) die gewünschten Eigenschaften.
Analog kann man die qj auf die ej abbilden und dann durch Zusammensetzung
die pj auf die qj .
Eindeutigkeit. Sei P (α)[ej ] = [ej ] für alle j. Es gilt dann α(ej ) = λj ej
für j = 0, . . . , n und deshalb α(en+1 ) = λ0 e0 + . . . + λn en . Andererseits ist
α(en+1 ) = λen+1 = λe0 + . . . + λen . Folglich ist λ0 = . . . = λn = λ und deshalb
P (α) die Identität. 2
Ist p0 , . . . , pn+1 ein projektives Koordinatensystem von P (V ) und e0 , . . . , en
die Standardbasis von K n+1 , so gibt es genau einen projektiven Isomorphismus

P (α) : P (V ) → P (K n+1 ), pj 7→ [ej ]

für j = 0, . . . , n + 1. Jedem [x] = [x0 , . . . , xn ] ∈ P (K n+1 ) entspricht genau ein


Punkt P (V ), und in diesem Sinne ist p0 , . . . , pn+1 ein Koordinatensystem.
Wir betrachten speziell den Fall dim P (V ) = 1, dim V = 2. Der zugehörige
Standardraum P (K 2 ) ist K ∪ {∞}, wobei K = {[1, k] | k ∈ K} und ∞ = [0, 1].
Wir setzen

[e0 ] = [1, 0] = 0, [e1 ] = [0, 1] = ∞, [e2 ] = [1, 1] = 1.

Sind p0 , p1 , p2 paarweise verschiedene Punkte in P (V ), so bilden sie ein projek-


tives Koordinatensystem. Es gibt deshalb genau einen Isomorphismus

P (α) : P (V ) → P (K 2 ), pj 7→ [ej ].

Ein vierter Punkt p ∈ P (V ) wird dabei auf ein eindeutig bestimmtes Element
P (α)(p) ∈ P (K 2 ) = K ∪ {∞} abgebildet. Wir schreiben

P (α)(p) = D(p0 , p1 , p2 , p) ∈ K ∪ {∞}

und nennen dieses Körperelement (eventuell ∞) das Doppelverhältnis des Qua-


drupels (p0 , p1 , p2 , p). Es läßt sich nämlich in der folgenden Weise ausrechnen
(was dann den Namen erklärt).
5.3 Projektivitäten 115

Sei V = K 2 und also P (V ) = K ∪ {∞}. Die gebrochen-lineare Transforma-


tion
p − p0 p2 − p0
K ∪ {∞} → K ∪ {∞}, p 7→ :
p − p1 p2 − p1
bildet p0 , p1 , p2 auf 0, ∞, 1 ab und ist deshalb das gewünschte P (α). Für pj = ∞
muß man die Formel (richtig) interpretieren. (Es gibt verschiedene Vereinbarun-
gen für das Doppelverhältnis. Alle Permutationen der vier Variablen kommen
vor.) Nach unserer abstrakten Definition des Doppelverhältnisses ist es auch für
den Fall definiert, daß p einer der Punkte p0 , p1 , p2 ist. Das Doppelverhältnis
ist invariant gegenüber Projektivitäten. Hier noch eine Aufgabe:

(5.3.2) Satz. Die Projektivitäten von P (K × V ), die die unendlich ferne Hy-
perebene H = P (V ) in sich abbilden, bilden eine zur affinen Gruppe von V
isomorphe Untergruppe. 2
Kapitel 6

Normalformen

Wird ein Endomorphismus f eines Vektorraumes V bezüglich zweier Basen


durch Matrizen A und B beschrieben, so besagt die Basiswechselformel, daß
eine invertierbare Matrix S existiert, mit der die Relation A = SBS −1 gilt,
die Matrizen also konjugiert sind. Das Normalformenproblem besteht darin, in
der Konjugationsklasse einer Matrix eine möglichst einfache zu finden und die
Konjugationsklassen durch geeignete Daten, die man aus der Matrix ablesen
kann, zu charakterisieren.

6.1 Zyklische Endomorphismen


Ist U ein f -stabiler Unterraum von V und v ∈ U , so liegen alle Vektoren
v, f (v), f 2 (v), . . . in U . Für jeden Vektor v ∈ V ist die lineare Hülle der Vektoren
v, f (v), f 2 (v), . . . ein f -stabiler Unterraum L(v, f ).
Das Paar (V, f ) heiße zyklisch und f ein zyklischer Endomorphismus, wenn
es einen Vektor v ∈ V so gibt, daß V = L(v, f ) ist. Wir untersuchen zunächst
zyklische Endomorphismen als Bausteine für allgemeine.
Wir setzen vj = f j (v). Die Familie der vj ist linear abhängig, da V end-
lichdimensional ist. Sei n minimal gewählt, so daß vn von v0 , . . . , vn−1 linear
abhängig ist. Dann besteht eine Relation

vn + a1 vn−1 + · · · + an v0 = 0, aj ∈ K.

Der Vektor vn kann darin durchaus der Nullvektor sein. Aus der Relation folgt
durch Induktion nach k, daß alle vn+k für k ≥ 0 in dem von v0 , . . . , vn−1
erzeugten Unterraum liegen. Die Menge dieser Vektoren ist aber auch linear
unabhängig, da eine echte lineare Relation der Minimalität von n widerspräche.
6.2 Nilpotente Endomorphismen 117

Damit haben wir in {v0 , . . . , vn−1 } eine Basis von L(v, f ) gewonnen. Die Matrix
von f bezüglich dieser Basis ist
 
0 −an
1 0 −an−1 
.. 
 
 . .
.. ..

 . 
.
 . .. 0

 −a2 
1 −a1

Die letzte Spalte ist kenntlich. Unterhalb der Hauptdiagonale stehen Einsen.
Alles andere sind Nullen.
(6.1.1) Notiz. Das charakteristische Polynom der Matrix der vorigen Matrix
ist
xn + a1 xn−1 + · · · + an−1 x + an .
Beweis. Induktion nach n mittels Entwicklung nach der ersten Zeile. 2
0
Die Relation schreiben wir in der Form (mit f = id)

(f n + a1 f n−1 + · · · + an f 0 )(v) = 0.

Sie besagt: v liegt im Kern des Endomorphismus

f n + a1 f n−1 + · · · + an f 0 .

Durch wiederholte Anwendung von f sehen wir, daß alle Vektoren vj im Kern
dieses Eondomorphismus liegen. Also handelt es sich um die Nullabbildung.

6.2 Nilpotente Endomorphismen


Der einfachste Fall des Vorhergehenden liegt vor, wenn vn = 0 ist. Dann gilt
f n = 0. Wir nennen f nilpotent, wenn für ein N ∈ N die Relation f N = 0
besteht. Ist f nilpotent und v ∈ V , so gibt es eine kleinste natürliche Zahl k
derart, daß f k−1 (v) 6= 0 aber f k (v) = 0 ist. Wir nennen k die Stufe von v
bezüglich f .
(6.2.1) Satz. Sei f nilpotent, w ∈ V ein Vektor maximaler Stufe und U ein
bezüglich Inklusion maximaler f -stabiler Unterraum mit L(w, f )∩U = 0. Dann
gilt V = L(w, f ) ⊕ U .
Beweis. Zu zeigen ist, daß L(w, f ) und U zusammen den Raum V erzeugen.
/ L(w, f ) + U . Es gibt ein kleinstes j, so daß f j (v)
Andernfalls gibt es ein v ∈
118 6 Normalformen

in L(w, f ) + U liegt, da ja f N (v) = 0 jedenfalls darin liegt. Indem wir v durch


f j−1 (v) ersetzen, erhalten wir einen eventuell neuen Vektor v, der nicht in
L(w, f ) + U liegt, wohl aber dessen Bild bei f . Somit gilt
f (v) = λw + f (w0 ) + u, u ∈ U, w0 ∈ L(w, f ),
weil w, f (w), . . . , f k−1 (w) eine Basis von L(w, f ) ist und deshalb jeder Vektor
von L(w, f ) die angegebene Form λw + f (w0 ) hat. Nach Voraussetzung über
k hat v höchstens die Stufe k, also f (v) höchstens die Stufe k − 1. Da aber
L(w, f ) + U wegen L(w, f ) ∩ U = 0 eine direkte Zerlegung in f -stabile Un-
terräume ist, so ist die Stufe von f (v) mindestens gleich der von λw + f (w0 ).
Also muß λ = 0 sein.
Aus v −w0 ∈ L(w, f )+U würde v ∈ L(w, f )+U folgen; also liegt v 0 = v −w0
nicht in L(w, f ) + U . Es gilt f (v 0 ) = f (v) − f (w0 ) = u ∈ U . Folglich ist
L(v 0 , f ) + U ein f -stabiler Unterraum, der größer als U ist. Es gilt aber auch
L(w, f ) ∩ (L(v 0 , f ) + U ) = 0,
denn sonst gäbe es w1 ∈ L(w, f ) von der Form
w1 = u + λv 0 , λ 6= 0, u ∈ U,
und dann wäre
1
v0 = (w1 − u) ∈ L(w, f ) + U,
λ
was wir oben schon ausgeschlossen hatten. Damit haben wir einen Widerspruch
zur Maximalität von U erhalten. 2
Indem wir den vorstehenden Satz induktiv anwenden, erhalten wir den fol-
genden Struktursatz für nilpotente Morphismen:
(6.2.2) Satz. Sei f : V → V nilpoten. Dann gibt es eine direkte Zerlegung
von V in f -stabile zyklische Unterräume V = V1 ⊕ · · · ⊕ Vr . Wählen wir die
Bezeichnungen so, daß immer nj = dim Vj ≥ nj+1 = dimVj+1 > 0 gilt, so ist
(n1 , . . . , nr ) durch f eindeutig bestimmt.
Beweis. Die Existenz folgt induktiv aus dem vorigen Satz. Die Anzahl r ist
die Dimension des Kerns von f . Die Anzahl der Summanden mit ns > j ist
die Anzahl der zyklischen Summanden einer entsprechenden Zerlegung von
f : f j (V ) → f j (V ). 2
Wir bemerken zur Abrundung noch:
(6.2.3) Satz. Ein Endomorphismus f : V → V eines n-dimensionalen Vek-
torraumes ist genau dann nilpotent, wenn sein charakteristisches Polynom xn
ist.
Beweis. Aus (6.1.1) und (6.2.2) entnehmen wir, daß ein nilpotenter Endomor-
phismus das angegebene Polynom hat. Die Umkehrung folgt mittels (3.4.5). 2
6.3 Jordansche Normalform 119

6.3 Jordansche Normalform


Sei f : V → V ein Endomorphismus und λ ein Eigenwert von f . Für die Räume
V t (λ) = Kern (f − λ)t gilt V t (λ) ⊂ V t+1 (λ). (Wir schreiben f − λ anstatt
f − λ · id.) Es gibt deshalb ein minimales k ≥ 1, so daß für alle l ≥ k die
Gleichheit V k (λ) = V l (λ) gilt. Diesen Raum bezeichnen wir mit Vλ und nennen
ihn den verallgemeinerten Eigenraum von f zum Eigenwert λ oder den λ-
primären Raum von f . Aus der Konstruktion folgt sofort:
(6.3.1) Notiz. Die Räume V t (λ) sind f -stabil. 2
Auf Vλ ist f − λ = g nilpotent. Die direkte Zerlegung von Vλ nach Satz
(6.2.2) in g-stabile zyklische Unterräume ist dann auch eine in f -stabile Räume.
Nach (6.1.1) hat f = g + λ in jedem g-zyklischen Summanden eine Matrix der
Form  
λ
1 λ 
,
 

 . .
.. .. 
1 λ
auf der Diagonalen steht immer λ, darunter jeweils eine 1, der Rest sind Nullen.
Eine Matrix dieser Form heißt Jordan-Matrix und eine Blockdiagonalmatrix aus
Jordan-Matrizen eine jordansche Normalform. Wir wissen also, daß f auf jedem
verallgemeinerten Eigenraum durch eine Matrix in jordanscher Normalform
beschrieben werden kann.
(6.3.2)
Qr Satz. Das charakteristische Polynom von f zerfalle in Linearfaktoren
χ = j=1 (x − λj )n(j) mit paarweise verschiedenen λj . Dann ist V die direk-
te Summe der verallgemeinerten Eigenräume Wj zu den Eigenwerten λj . Die
Dimension von Wj ist n(j).
Beweis. Das charakteristische Polynom von f auf Wj hat die Form (x−λ)m(j) ,
und dieses ist ein Faktor von χ. Also ist m(j) ≤ n(j). Bestünde nicht Gleichheit,
so hätte die von f auf V /Wj induzierte Abbildung einen Eigenwerte λj . Sei Uj
das Urbild des Eigenraumes von f auf V /Wj . Dann gilt (f − λ)(Uj ) ⊂ Wj ,
was der Maximalität des verallgemeinerten Eigenraums widerspräche. Damit
haben
P wir die Dimensionsaussage des SatzesPgezeigt. Der Durchschnitt Wj ∩
k6=j W k ist Null, denn andernfalls enthielte k6=j Uk einen Eigenvektor zu λj ,
was nicht sein kann, da das charakteristischeP Polynom von f auf dieser Summe
nur Nullstellen ungleich λj hat. Also ist k Wk in die Wk direkt zerlegt und
aus Dimensionsgründen gleich V . 2
Im Beweis des letzten Satzes haben wir benutzt, daß ein Faktor eines in
Linearfaktoren zerlegten Polynoms ein Produkt eines Teils dieser Faktoren ist.
Das ist für komplexe Polynome relativ klar und verlangt allgemein eine Über-
legung zur Teilbarkeitslehre von Polynomen, die wir hier übergehen. Über den
120 6 Normalformen

komplexen Zahlen ist die Voraussetzung des letzten Satzes immer erfüllt, weil
überhaupt alle Polynome in Linearfaktoren zerfallen. Jede Matrix besitzt eine
jordansche Normalform und, wegen des Eindeutigkeitssatzes (6.2.2), sind zwei
Matrizen genau dann konjugiert, wenn die Normalform (bis auf die Reihenfol-
ge) dieselben Jordan-Matrizen enthält.

6.4 Normalformen für Zwei-mal-zwei Matrizen


Als Illustration der Normalformentheorie soll im folgenden das Normalformen-
problem im einzelnen für verschiedene Situationen von (2,2)-Matrizen ohne
allgemeine Theorie durchgerechnet werden.
(6.4.1) Konjugationsklassen in GL(2, C).
Erster Fall: A ∈ GL(2, C) habe zwei verschiedene Eigenwerte λ1 und λ2 . Das
charakteristische Polynom ist dann (x − λ1 )(x − λ2 ). Indem man Eigenvektoren
als Basis nimmt, sieht man, daß A zu Dia(λ1 , λ2 ) konjugiert ist. Vertauschen
wir die Basisvektoren, so erhalten wir Dia(λ2 , λ1 ). Auf die Reihenfolge der
Eigenwerte kommt es also nicht an. Das charakteristische Polynom und folglich
die Menge der Eigenwerte sind Invarianten der Konjugationsklasse.
Das charakteristische Polynom einer (2, 2)-Matrix A ist

χA (x) = x2 − Sp(A)x + det(A),

läßt sich also durch Spur und Determinante berechnen. Genau dann hat χA
zwei verschiedene Nullstellen, wenn

Sp2 (A) − 4 det(A) 6= 0

ist. Die Menge {λ1 , λ2 } ist durch Sp(A) und det(A) eindeutig bestimmt.
Zweiter Fall: Die Matrix A ∈ GL(2, C) hat nur einen Eigenwert λ. Das
charakteristische Polynom ist dann (x − λ)2 . Es gibt einen Eigenvektor w1 zum
Eigenwert λ. Wir ergänzen ihn durch w2 zu einer Basis. Die lineare Abbildung
A hat bezüglich dieser Basis eine Matrix der Form
 
λ µ
.
0 λ

Daraus sehen wir, daß (A−λI)2 = 0 ist. Wir unterscheiden die Fälle A−λI = 0
und A − λI 6= 0. Im ersten Fall gibt es eine Basis aus Eigenvektoren, und A ist
zu Dia(λ, λ) konjugiert. Andernfalls gibt es einen Vektor v1 , der nicht im Kern
von A−λI liegt. Sei v2 = (A−λI)(v1 ). Dann sind v1 und v2 linear unabhängig,
denn eine echte lineare Relation av1 +b(A−λI)v1 = 0 würde v1 als Eigenvektor
zum Eigenwert λ − ab−1 erweisen. Da (A − λI)2 = 0 ist, ist v2 ein Eigenvektor.
6.4 Normalformen für Zwei-mal-zwei Matrizen 121

Bezüglich der Basis v1 , v2 hat somit die durch A vermittelte lineare Abbildung
die Matrix
 
λ 0
(1.1) .
1 λ

Matrizen dieser Bauart werden uns alsbald bei der jordanschen Normalform
begegnen. 3
Sei Kon GL(2, C) die Menge der Konjugationsklassen und [A] die Klasse
von A. Dann haben wir also das folgende Ergebnis erhalten:
(6.4.2) Satz. Die Zuordnung A 7→ (Sp(A), det(A)) induziert eine wohldefi-
nierte Abbildung
κ : Kon GL(2, C) → C × C∗ .
Diese Abbildung ist surjektiv.
Genau dann hat A zwei verschiedene Eigenwerte, wenn Sp2 (A) 6= 4 det(A)
ist. In diesem Fall ist [A] durch κ[A] = u bestimmt, und κ−1 (u) besteht aus
einem Element. Die Konjugationsklasse von A enthält zwei Diagonalmatrizen;
sie gehen durch Vertauschung der Diagonalelemente auseinander hervor.
Die Elemente {(x, y) ∈ C × C∗ | x2 = 4y} haben bei κ zwei Urbilder. Diese
beiden Urbilder enthalten genau eine Matrix der Form Dia(λ, λ) bzw. (1.1) und
sind dadurch zu unterscheiden. Der Unterschied ist durch die Dimension des
Eigenraumes gegeben (nämlich 2 bzw. 1). Der Eigenwert ist in diesem Fall
1
2 Sp(A). 2

In den vorstehenden Überlegungen wurden die komplexen Zahlen nur da-


zu benutzt, um das charakteristische Polynom in Linearfaktoren zu zerlegen.
Setzen wir letzteres voraus, so erhalten wir eine entsprechende Normalform für
eine Matrix über einem beliebigen Körper.
(6.4.3) SL(2, C)-Konjugationsklassen in GL(2, C). In diesem Fall wird
also nur die Konjugation durch Matrizen der Determinante 1 erlaubt. Ei-
ne Matrix der Form Dia(c, c) = A(c) ist mit allen (2,2)-Matrizen vertausch-
bar. Gilt AXA−1 = Y , so gilt deshalb auch A(c)AX(A(c)A)−1 = Y . Es ist
det(A(c)A) = c2 det(A). Da jede komplexe Zahl ein Quadrat ist, können wir
also B ∈ SL(2, C) so finden, daß BXB −1 = Y ist. Mit anderen Worten: Die
SL(2, C)- und die GL(2, C)-Klassen sind dieselben. 3

(6.4.4) SL(2, R)-Konjugationsklassen in GL(2, R). Erster Fall: Die Ma-


trix A ∈ GL(2, R) habe zwei verschiedene reelle Eigenwerte λ1 , λ2 . Wir
können Basisvektoren bi in den Eigenräumen V (λi ) sicherlich so wählen, daß
det(b1 , b2 ) = 1 ist. In der Konjugationsklasse von A liegen also genau die bei-
den Diagonalmatrizen Dia(λ1 , λ2 ) und Dia(λ2 , λ1 ), und die Konjugationsklasse
ist durch das charakteristische Polynom, also durch Spur und Determinante
122 6 Normalformen

bestimmt. Das charakteristische Polynom hat genau dann zwei verschiedene


reelle Nullstellen, wenn
Sp2 (A) > 4 det(A)
ist.
Zweiter Fall: Die Matrix A hat einen nicht-reellen Eigenwert λ. Dann ist
auch λ̄ ein Eigenwert, da χA ein reelles Polynom ist. Dieser Fall tritt genau
dann auf, wenn
Sp2 (A) < 4 det(A)
ist. Sei x ein komplexer Eigenvektor zu λ. Dann ist x̄ Eigenvektor zu λ̄. Die Vek-
toren x und x̄ sind C-linear unabhängig, da sie zu verschiedenen Eigenwerten
gehören. Die Vektoren
1 i
c1 = √ (x + x̄), c2 = √ (x − x̄)
2 2
sind dann reelle Vektoren und ebenfalls linear unabhängig. Die Transforma-
tionsmatrix von (x, x̄) zu (c1 , c2 ) ist
 
1 1 i
S=√ .
2 1 −i
Sie ist unitär. Bezüglich x, x̄ hat die lineare Abbildung A die Matrix Dia(λ, λ̄),
also bezüglich (c1 , c2 ) die Matrix
     
−1 λ 0 1 λ + λ̄ i(λ − λ̄) α −β
(1.2) S S= = ,
0 λ̄ 2 −i(λ − λ̄) λ + λ̄ β α
wenn λ = α + iβ die Zerlegung in Real- und Imaginärteil ist. Bei komplexen
Eigenwerten kann man also jedenfalls durch GL(2, R)-Konjugation die Nor-
malform (1.2) erreichen. Die Eigenwerte sind α ± iβ. Demnach sind α und ±β
durch die Konjugationsklasse bestimmt. Wegen
   −1  
1 0 α β 1 0 α −β
=
0 −1 −β α 0 −1 β α
sind die beiden Möglichkeiten konjugiert, und wir können etwa noch β > 0
verlangen, um eine eindeutige Normalform zu bekommen Aus einer Gleichung
     
a b α −β α β a b
=
c d β α −β α c d
schließt man wegen β 6= 0 auf b = c und −a = d, also auf ad−bc = −a2 −c2 < 0.
Die Konjugation kann also nicht mit Matrizen in SL(2, R) bewirkt werden.
Dritter Fall: A habe nur einen Eigenwert λ. Dieser ist notwendig reell, das
charakteristische Polynom ist (x − λ)2 . Ist der Eigenraum zweidimensional, so
kann man mittels SL(2, R)-Konjugation sicherlich die Form Dia(λ, λ) erreichen.
Anderfalls schließen wir wie in (6.4.1) und erhalten eine Matrix (1.1). 3
6.4 Normalformen für Zwei-mal-zwei Matrizen 123

(6.4.5) Satz. Die Zuordnung A 7→ (Sp(A), det A) induziert eine surjektive


Abbildung
κ : Kon GL(2, R) → R × R∗ .
Die Menge {(x, y) | x2 6= 4y} hat genau ein Urbild. Für x2 > 4y enthält eine
Konjugationsklasse genau zwei Diagonalmatrizen, die sich durch Vertauschung
der Diagonalelemente unterscheiden. Für x2 < 4y enthält eine Konjugations-
klasse genau zwei Matrizen der Form (1.2), die durch Transposition ausein-
ander hervorgehen. Für x2 = 4y gibt es zwei Urbilder bei κ. Diese Urbilder
enthalten genau eine Matrix der Form Dia(λ, λ) bzw (1.1). 2

Sei Kon(SL(2, R), GL(2, R)) die Menge der SL(2, R)-Konjugationsklassen
in GL(2, R). Dann haben wir wiederum eine durch A 7→ (Sp(A), det(A)) indu-
zierte wohldefinierte Abbildung

σ : Kon(SL(2, R), GL(2, R)) → R × R∗ .

Man überlegt sich:


   
λ µ λ µ̃
(6.4.6) Notiz. und sind genau dann in SL(2, R)-konjugiert,
0 λ 0 λ
wenn cd > 0 ist, also wenn c und d dasselbe Vorzeichen haben. 2

Mit diesen Vereinbarungen gilt:

(6.4.7) Satz. Für x2 > 4y besteht σ −1 (x, y) aus genau einem Element, wie
im letzten Satz. Für Sp2 A < 4 det A gibt es in der Klasse von A genau eine
Matrix der Form (1.2). Die Konjugationsklassen werden durch (α, β), β 6= 0,
eindeutig parametrisiert. Die zu (α, β) und (α, −β) gehörenden Matrizen haben
dasselbe Bild bei σ. Die Urbildmenge σ −1 (x, y) hat für x2 < 4y zwei Elemente.
Im Fall Sp2 A = 4 det A gibt es drei durch σ[A] bestimmte Konjugationsklassen,
die durch das Enthalten der Matrizen
     
λ 0 λ 1 λ −1
, , ,
0 λ 0 λ 0 λ

charakterisiert werden können. Darin ist λ durch σ[A] bestimmt. 2


Kapitel 7

Beispiele und
Anwendungen

7.1 Vektorprodukt
Sei V = R3 mit dem Standardskalarprodukt h−, −i versehen. Für x, y, z ∈ V
sei det(x, y, z) die Determinante mit den Zeilenvektoren x, y und z. Für feste
x, y ∈ V ist V → R, z 7→ det(x, y, z) eine lineare Abbildung. Es gibt deshalb
genau einen (von x und y abhängigen) Vektor w(x, y), so daß diese lineare Ab-
bildung durch z 7→ hw(x, y), zi gegeben wird. Wir schreiben w(x, y) = x × y
und nennen x × y das Vektorprodukt des geordneten Paares (x, y) (im Gegen-
satz zum Skalarprodukt ist also das Resultat der Verknüpfung wiederum ein
Vektor). Wir erhalten somit eine bilineare Abbildung

(1.1) R3 × R3 → R3 , (x, y) 7→ x × y.

Definitionsgemäß gilt für alle x, y, z die Gleichung

(1.2) hx × y, zi = det(x, y, z).

Da die Determinante alternierend ist, folgt

(1.3) x × y = −y × x, x×x=0

für alle x und y; die Verknüpfung ist also nicht kommutativ. Nach der Definition
(1.2) folgt hx × y, λx + µyi = 0. Also gilt:
(7.1.1) Satz. Der Vektor x × y ist orthogonal zu dem von x und y aufgespann-
ten Unterraum. 2
Sei (x1 , x2 , x3 ) = x und entsprechend für y. Dann gilt:
7.1 Vektorprodukt 125

(7.1.2) Satz. Der Vektor x × y hat die Komponentendarstellung


x2 x3 x1 x3 x1 x2
e1 − e2 + e3 .
y2 y3 y1 y3 y1 y2
Beweis. Man bildet das Skalarprodukt mit z und sieht, daß die Entwicklung
von
x1 x2 x3
y1 y2 y3
z1 z2 z3
nach der dritten Zeile herauskommt. 2
(7.1.3) Korollar. e1 × e2 = e3 , e1 × e3 = −e2 , e2 × e3 = e1 . 2
Jedes y liefert eine lineare Abbildung R3 → R3 , z 7→ y × z. Setzen wir
y = (a, b, c), so errechnet man die Matrix dieser linearen Abbildung zu
 
0 −c b
(1.4) ϕ(y) =  c 0 −a  .
−b a 0
Für diese Matrix A gilt At = −A. Matrizen mit dieser Eigenschaft haben wir
schiefsymmetrisch genannt. Ersichtlich bilden die schiefsymmetrischen (3,3)-
Matrizen einen dreidimensionalen Vektorraum, da sie durch die Elemente über
der Hauptdiagonalen bestimmt sind. Nennen wir den Vektorraum dieser (3,3)-
Matrizen so(3), so haben wir also einen linearen Isomorphismus
(1.5) ϕ : R3 → so(3).
Wir setzen [A, B] = AB − BA für je zwei (n, n)-Matrizen A, B und nennen
[A, B] die Lie-Klammer von (A, B). Die Lie-Klammer liefert ebenfalls eine bi-
lineare Verknüpfung
so(3) × so(3) → so(3), (A, B) 7→ [A, B].
(7.1.4) Satz. Die Abbildung ϕ : R3 → so(3) erfüllt ϕ(x×y) = [ϕ(x), ϕ(y)]. 2
Das Vektorprodukt ist nicht einmal assoziativ. Stattdessen gilt die
(7.1.5) Jacobi-Identität. x × (y × z) + y × (z × x) + z × (x × y) = 0 (zyklische
Vertauschung von x, y, z in den Summanden).
Beweis. Es genügt wegen des letzten Satzes, die Identität
[A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0
nachzuweisen. Es gilt [A[B, C]] = ABC − ACB − BCA + CBA. Der erste und
dritte Summand sind gerade Permutationen von ABC, der zweite und vierte
ungerade. Wenn wir also A, B und C zyklisch vertauschen und alles addieren,
ergibt die Summe der ersten und dritten (zweiten und vierten) Summanden
jeweils Null. 2
126 7 Beispiele und Anwendungen

(7.1.6) Satz. Das Vektorprodukt hat die folgenden Eigenschaften:


(1) x × y = 0 genau dann, wenn x, y linear abhängig sind.
(2) Sind x, y linear unabhängig, so ist x, y x×y eine positiv orientierte Basis,
das heißt det(x, y, x × y) > 0.
(3) Aus x × y = 0 für alle y folgt x = 0.
(4) hx × y, zi = hx, y × zi.
(5) hx, yi2 + |x × y|2 = |x|2 |y|2 (Verschärfte Cauchy-Schwarzsche
Ungleichung.)
(6) x × (y × z) = hx, ziy − hx, yiz (Graßmann-Identität).
(7) (a × b) × (c × d) = det(a, b, c)c − det(a, b, c)d.
Beweis. (1) Ist x = λy, so folgt x×y = λy ×y = 0. Sind x, y linear unabhängig,
so gibt es eine Basis der Form x, y, z. Für diese ist det(x, y, z) 6= 0 und deshalb
ist x × y 6= 0.
(2) Ist x × y 6= 0, also x, y, x × y eine positiv orientierte Basis.
(3) Sei x 6= 0. Wir wählen x, y linear unabhängig. Dann ist x × y 6= 0.
(4) hx × y, zi = det(x, y, z) = det(y, z, x) = hy × z, xi = hx, y × zi.
(6) Die Abbildungen R3 × R3 × R3 → R3 , die (x, y, z) auf x × (y × z) bzw.
auf hx, ziy − hx, yiz abbilden, sind linear in jeder Variablen. Um ihre Gleichheit
zu zeigen, genügt es deshalb, Vektoren der Standardbasis einzusetzen. Das ist
leicht, z. B. e2 × (e2 × e3 ) = e2 × e1 = −e3 und he2 , e3 ie2 − he2 , e2 ie3 = −e3
etc.
(5) Nach (4) gilt |x × y|2 = hx × y, x × yi = hx, y × (x × y)i. Man setzt (6)
ein und erhält das Gewünschte.
(7) Man wendet (6) an und danach (1.2). 2
(7.1.7) Satz. Sei A eine reelle (3, 3)-Matrix. Dann gilt

At (Ax × Ay) = det(A)x × y.

Beweis. Für alle z ∈ R3 haben wir die Gleichungskette

hAt (Ax × Ay), zi = hAx × Ay, Azi = det(Ax, Ay, Az)


= det(A) det(x, y, z) = det(A)hx × y, zi.

Es folgt die Behauptung. 2


(7.1.8) Korollar. Sei A ∈ SO(3). Aus dem letzten Satz und At = A−1 folgt:
Die Zuordnug x 7→ Ax ist ein Isomorphismus der Verknüpfung Kreuzprodukt,
das heißt es gilt A(x × y) = Ax × Ay. 2
Wenn man die Matrix A (1.4) quadriert, so erhält man eine Matrix, de-
ren Diagonalelemente −(b2 + c2 ), −(a2 + c2 ), −(a2 + b2 ) sind. Folglich ist
− 21 Spur(A2 ) = a2 + b2 + c2 . Deshalb gilt:
(7.1.9) Satz.
7.1 Vektorprodukt 127

(1) (A, B) 7→ − 12 Sp(AB) ist auf dem Vektorraum so(3) ein Skalarprodukt.
(2) Für jedes U ∈ O(3) und A ∈ so(3) ist U AU −1 ∈ so(3). Die lineare
Abbildung so(3) → so(3), A 7→ U AU −1 ist orthogonal bezüglich des Ska-
larproduktes in (1).
(3) Die Abbildung ϕ : R3 → so(3) ist eine Isometrie.
(4) Für U ∈ SO(3) gilt ϕ(U x) = U ϕ(x)U −1 .

Beweis. (1), (2) und (3) ergeben sich unmittelbar aus den Definitionen und
den voranstehenden Ergebnissen.
(4) Es genügt, die Gleichung für x = e1 nachzurechnen, da sie dann we-
gen ϕ(U1 U2 e1 ) = U1 U2 ϕ(e1 )U2−1 = U1 ϕ(U2 e1 ) für jeden Einheitsvektor U2 e1
gilt. Wenn man für x = e1 die fraglichen Matrizen auf der rechten Seite der
gewünschten Formel ausmultipliziert, muß man auch die Gleichung At = Ã
verwenden, die für A ∈ SO(n) aus der Cramerschen Regel folgt. 2

Sei B = {b1 , b2 , b3 } eine Basis des R3 . Für jeden Index k wählen wir i, j so,
daß (i, j, k) eine gerade Permutation ist und setzen

P3
bi × bj = `=1 γk` b` .

Wir erhalten nach (1.2)


P
det(bi , bj , bt ) = ` γk` hb` , bt i = det(B)δkt .

Sei g = (gij ) mit gij = hbi , bj i. Dann ist also die Matrix γ = (γl` ) durch

γ = det(B)g −1

gegeben. Die Matrix γ beschreibt, wie sich das Kreuzprodukt bezüglich irgend-
einer Basis ausrechnen läßt. Ist B eine positive Orthonormalbasis, so ist g = γ
die Einheitsmatrix.
Für x, y ∈ R3 ist |x × y| der Flächeninhalt des von x und y aufgespannten
Parallelogramms. Das läßt sich so begründen. Sind x und y linear abhängig, so
sind |x × y| und der Flächeninhalt gleich Null. Andernfalls sei E die von x, y
aufgespannte P Ebene und b1P , b2 , b3 eine positive Orthonormalbasis mit b1 , b2 ∈
E. Sind x = xi bi , x = yi bi die Komponentendarstellungen, so ist x3 =
y3 = 0 und x × y = (x1 y2 − x2 y1 )b3 . Es ist aber definitionsgemäß |x1 y2 −
x2 y1 | der Flächeninhalt des durch x und y aufgespannten Parallelogramms.
Mittels hx, yi = |x||y| cos α mit dem Winkel α zwischen x und y folgt |x × y| =
|x||y| sin α, 0 ≤ α ≤ π.
128 7 Beispiele und Anwendungen

7.2 Quaternionen
Sei H die Menge der komplexen (2,2)-Matrizen der Form
 
a b
(2.1) A= .
−b̄ ā

Diese Menge ist ein vierdimensionaler reeller Vektorraum. Das Produkt zwei-
er Matrizen der Form (2.1) hat wieder diese Form. Deshalb machen die R-
Vektorraumstruktur und die Multiplikation von Matrizen die Menge H zu einer
R-Algebra, genannt die Algebra der Quaternionen, erfunden von Hamilton1 .
Wir setzen A∗ = Āt . Die Abbildung H → H, A 7→ A∗ heißt Konjugation
von H, ist R-linear und erfüllt (AB)∗ = B ∗ A∗ . Wegen der letzten Eigenschaft
spricht man auch von einem Antihomomorphismus H → H. Man hat sich dar-
an zu erinnern, daß die Konjugation in H nicht etwa der Übergang zur ele-
mentweise konjugiert-komplexen Matrix ist. Man definiert die Norm N (A) des
Elements (2.1) als N (A) = |a2 + |b|2 = det(A). (Hier bedeutet Norm“ etwas

anderes als die früher definierte Norm einer Matrix oder eines Vektors in einem
Hilbert-Raum.) Es gilt wegen des Produktsatzes für Determinanten

(2.2) N (A)N (B) = N (AB).

Ferner gilt

(2.3) A∗ · A = N (A) · I,

denn A∗ ist auch die Adjunkte von A. Es ist N (A) = 0 genau dann, wenn A
die Nullmatrix ist. Ein von Null verschiedenes Element A ∈ H hat deshalb das
multiplikative Inverse A−1 = N (A)−1 · A∗ . Bis auf das Kommutativgesetz der
Multiplikation erfüllt also H die Körperaxiome. Deshalb nennt man H einen
Schiefkörper oder eine Divisionsalgebra.
Wir haben eine Einbettung
 
c 0
(2.4) ι : C → H, c 7→ ,
0 c̄

die ι(a + b) = ι(a) + ι(b) und ι(ab) = ι(a)ι(b) erfüllt. Das Bild ist also ein zu C
isomorpher Unterkörper. Wir fassen vermöge ι manchmal C als Teilmenge H
auf; man muß dabei aufpassen und die Elemente von C ⊂ H von den Koeffizien-
ten der Matrix als komplexe Zahlen unterscheiden. Jedenfalls wird durch (2.4)
H zu einem zweidimensionalen C-Vektorraum; die skalare Multiplikation mit
c ∈ C wird durch Linksmultiplikation mit der Matrix ι(c) definiert. Da H nicht
1 William Rowan Hamilton 1805 – 1865
7.2 Quaternionen 129

kommutativ ist, muß man auch Links- und Rechtsmultiplikation unterscheiden.


Als C-Vektorraum hat H die Standardbasis
   
1 0 0 1
(2.5) 1= und j =
0 1 −1 0
mit den Muliplikationsregeln
 
2 0 z
(2.6) j = −1 und zj = j z̄ =
−z̄ 0
für z ∈ C. Mit diesen Festlegungen und Identifizierungen gilt dann
 
a b
(2.7) = a + bj, a, b ∈ C.
−b̄ ā

(Genau genommen steht also rechts in (2.7) ι(a) + ι(b)j.) Der komplexe Vek-
torraum H trägt das unitäre Skalarprodukt

(2.8) s(a + bj, c + dj) = ac̄ + bd¯

und (2.5) ist dafür orthonormal.


Die Einbettung (2.4) liefert insbesondere die kanonische Einbettung R → H,
r 7→ r · 1. Als reeller Vektorraum hat H die Standardbasis
       
1 0 i 0 0 1 0 i
(2.9) 1= ,i= , j= .k=
0 1 0 −i −1 0 i 0
mit den Multiplikationsregeln
i2 = j 2 = k 2 = −1
ij = −ji = k
(2.10)
jk = −kj = i
ki = −ik = j.

Es ist (2.9) eine Orthonormalbasis bezüglich des euklidischen Skalarprodukts


h−, −i, das durch den Realteil von (2.8) gegeben wird. Eine Quaternion kann
man sich also als ein Element der Form

(2.11) a + bi + cj + dk = q, a, b, c, d ∈ R

vorstellen. Quaternionen werden dann komponentenweise addiert und unter


Verwendung von (2.10) multipliziert. Die Norm der Quaternion (2.11) im früher
definierten Sinne ist a2 + b2 + c2 + d2 . Die Elemente (2.11) mit a = 0 bilden
einen dreidimensionalen reellen Unterraum im H von H, dessen Elemente reine
Quaternionen heißen und den wir über die Basis (i, j, k) mit R3 identifizieren.
Wir haben dann eine kanonische orthogonale Zerlegung

(2.12) H = R ⊕ R3 , R3 = im H, q = Re(q) + im(q) ∈ H


130 7 Beispiele und Anwendungen

von H in den Unterkörper R und den euklidischen Raum der reinen Quater-
nionen. Wir nennen im(q) = bi + cj + dk auch den reinen oder imaginären Teil
der Quaternion (2.11).
Wir untersuchen nun Vertauschbarkeit in der Algebra H. Für a ∈ R, q ∈ H
gilt immer aq = qa. Wir betrachten deshalb das sogenannte Zentrum von H
Z(H) = {z ∈ H | für alle q ∈ H gilt zq = qz}
und behaupten
(7.2.1) Satz. Z(H) = R.
Ein Beweis von (7.2.1) folgt unmittelbar aus dem nächsten Satz.
(7.2.2) Satz. Sei A ∈ H r R, X ∈ H und gelte XA = AX. Dann ist X ∈
R + R · A, das heißt X = λ + µA mit λ, µ ∈ R.
Beweis. Genau dann ist XA = AX, wenn X im(A) = im(A)X ist. Wir dürfen
also A ∈ im H, A 6= 0 voraussetzen. Mittels (2.10) errechnet man für eine reine
Quaternion bi + cj + dk = A
(2.13) (bi + cj + dk)2 = −(b2 + c2 + d2 ) = −N (A) ∈ R.
Sei Y = im(X). Dann gilt auch Y A = AY . Falls Y 6= 0 ist, können wir, nach
Abänderung um einen rellen Faktor, wegen (2.13) annehmen, daß Y 2 = A2 =
−1 ist. Dann folgt
(Y − A)(Y + A) = Y 2 + Y A − AY − A2 = 0,
also Y = ±A. 2
Wir können auch den Teil im H von H durch die multiplikativen Eigenschaf-
ten von H charakterisieren.
(7.2.3) Satz. A ∈ im H genau dann, wenn A2 ∈ R, A2 ≤ 0.
Beweis. Ist A ∈ im H, so ist nach (2.13) A2 reell und nicht positiv.
Für den Beweis der Umkehrung sei A = r + Q, r ∈ R, Q ∈ im H angesetzt.
Dann ist A2 = r2 + 2rQ + Q2 genau dann reell, wenn rQ = 0 ist, also entweder
wenn r = 0 ist oder Q = 0. Ist Q = 0, so folgt aus A2 = r2 ≤ 0 aber auch
r = 0. 2
Die Anordnung in R kann ebenfalls durch die Körperstruktur beschrieben
werden, denn die nicht-negativen Elemente sind genau die Quadrate und a ≤ b
ist zu 0 ≤ b − a äquivalent. Folglich ist in (7.2.3) die Bedingung A2 ≤ 0
durch die Ringstruktur von H beschreibbar. Demnach ist auch die Zerlegung
A = Re(A) + im(A) und damit die Konjugation
A∗ = Re(A) − im(A)
und die euklidische Struktur ringtheoretisch (das heißt durch Aussagen über
plus“ und mal“) bestimmt.
” ”
7.3 Quaternionen und orthogonale Gruppen 131

(7.2.4) Satz. Ein Automorphismus α des Körpers R ist die Identität. Für
einen Automorphismus ϕ : H → H gelten ϕ(r) = r, falls r ∈ R, sowie ϕ(∗ A) =
ϕ(A)∗ und N (ϕ(A)) = N (A).

Beweis. Weil R+ = [0, ∞[ die Menge der Quadrate ist, gilt ϕ(R+ ) = R+ . Ist
a < b, so gilt b − a ∈ R+ also ϕ(b − a) = ϕ(b) − ϕ(a) ∈ R+ ; deshalb ist ϕ
monoton wachsend. Aus ϕ(1) = 1 folgt mittels Homomorphie ϕ(n) = n für
n ∈ Z, dann ϕ(r) = r für r ∈ Q und dann wegen der Monotonie ϕ(x) = x für
alle x ∈ R.
Ein Automorphismus ϕ bildet das Zentrum in das Zentrum ab, also ist
ϕ(R) ⊂ R und wegen der ersten Aussage ϕ(r) = r für r ∈ R. Es folgt dann
mittels (7.2.3) ϕ(im H) = im(H). Ist A = B + C die Zerlegung in Real- und
Imaginärteil, so ist

ϕ(A) = ϕ(B) + ϕ(C) = B + ϕ(C)

also
ϕ(A)∗ = B − ϕ(C) = ϕ(B − C) = ϕ(A∗ ).
Aus N (A) = A∗ · A ∈ R folgt dann

N (ϕ(A)) = ϕ(A)∗ ϕ(A) = ϕ(A∗ )ϕ(A) = ϕ(A∗ A)


= ϕ(N (A)) = N (A)

und damit die letzte Behauptung des Satzes. 2


Nach Definition der Norm ist N (X) = X · X ∗ · X = hX, Xi und folglich

1 1
(2.14) hX, Y i = (X · Y ∗ + Y · X ∗ ) = (X ∗ · Y + Y ∗ · X).
2 2
Aus 2hX ∗ , Y i = X ∗ · Y ∗ + Y X erhält man durch Rechtsmultiplikation mit Y
die
(7.2.5) Dreier-Identität. Y XY = 2hX ∗ , Y iY − hY, Y iX ∗ . 2

7.3 Quaternionen und orthogonale Gruppen


Nach unserer Darstellung der Quaternionenalgebra H durch die Matrizen der
Form (2.1) ist SU (2) ⊂ H genau die Untergruppe der Quaternionen der Norm 1.
Aus der Relation Āt A = det(A)I für A ∈ H folgt,
 daß für det(A)
 = N (A) = 1
a b
die Matrix A aus SU (2) ist. Ist umgekehrt ∈ SU (2), so ist
choosec d
132 7 Beispiele und Anwendungen

(c, d) orthogonal zu (a, b), also ein Vielfaches vom sicherlich zu (a, b) orthogo-
nalen Vektor (−b̄, ā). Dieses Vielfache muß wegen ad − bc = 1 dann (−b̄, ā)
selbs sein. Demnach ist SU (2) als topologischer Raum die dreidimensionale
Einheitssphäre. (Es ist eine bemerkenswerte Tatsache, daß nur die Sphären
S 0 , S 1 , S 3 eine stetige Gruppenmultiplikation tragen können.) Es war H ein
euklidischer Raum mit Skalarprodukt h−, −i, das durch hx, xi = N (x) für alle
x ∈ H charakterisiert war. Wir setzen wie üblich |x| = hx, xi1/2 und sprechen
in diesem Zusammenhang vom Betrag der Quaternion x.
(7.3.1) Notiz. Für A, B ∈ SU (2) sind die Abbildungen H → H, X 7→ AXB
und X 7→ X ∗ orthogonal.
Beweis. |AXB| = |A||X||B| = |X|, |X| = |X ∗ |. 2
Wir werden sehen, daß auf die in (7.3.1) genannte Weise alle orthogonalen
Abbildungen erhalten werden. Zur Vorbereitung dienen einige allgemeine Be-
merkungen über Spiegelungen in euklidischen Räumen V , h−, −i. Sei v ∈ V
und |v| = 1. Die lineare Abbildung

(3.1) sv : V → V, x 7→ x − 2hx, viv

heißt Spiegelung zu v. Es gilt sv (v) = −v und sv (x) = x, falls hx, vi = 0


ist. Demnach ist sv eine orthogonale Abbildung der Determinante −1, die als
Spiegelung an der zu v orthogonalen Hyperebene angesehen werden kann.
Wir hatten die Formel (2.14) 2hX, Y i = X · Y ∗ + Y · X ∗ . Für 1 ∈ H liefert
sie 2h1, Xi = X + X ∗ und deshalb

(3.2) s1 (X) = −X ∗

und für A ∈ SU (2)

sA s1 (X) = −sA (X ∗ ) = −X ∗ + 2hA, X ∗ iA


= 2hA, X ∗ iA − hA, AiX ∗ = AXA = pA (X)

nach der Dreier-Identität (7.2.5), also

(3.3) pA = sA ◦ s1 .

Schließlich gilt

sA ◦ sB = (sA ◦ s1 ) ◦ (s1 ◦ sB )
(3.4) = (sA ◦ s1 ) ◦ (s1 ◦ sB ◦ s−1
1 ) ◦ s1
= pA ◦ p−B ∗ .

Für das Letztere beachte man die Gleichung T ◦ sv ◦ T −1 = sT v für jede


orthogonale Abbildung T : V → V sowie (3.2).
7.3 Quaternionen und orthogonale Gruppen 133

Wir wollen jetzt diese Rechnungen zusammen mit der Erzeugbarkeit von
orthogonalen Abbildungen durch Spiegelungen verwenden. Für A, B ∈ SU (2)
setzen wir
q(A, B) : H → H, X 7→ A · X · B ∗ .
Dann gilt

q(A1 B1 )q(A, B)X = A1 (AXB ∗ )B1∗ = q(A1 A, B1 B).

Also ist

(3.5) q : SU (2) × SU (2) → O(H), (A, B) 7→ q(A, B)

ein Homomorphismus. Ist X ∈ R, so auch AXA∗ = X, und deshalb liefert


q(A, A) eine orthogonale Abbildung

π(A) : im H → im H, X 7→ AXA∗ ,

und wir erhalten einen Homomorphismus

(3.6) π : SU (2) → O(im H).

(7.3.2) Notiz. Die Bilder der Abbildungen (3.5) bzw. (3.6) liegen in SO(H)
bzw. SO(im H).
Beweis. Eine Matrix in SU (2) ist zu einer Matrix der Form Dia (λ, λ−1 ) kon-
jugiert. Es gibt komplexe Zahlen µ, die µ2 = λ erfüllen. Es folgt, daß jede
Matrix A ∈ SU (2) die Form A = B 2 für ein B ∈ SU (2) hat. Natürlich hat
π(A) = π(B)2 positive Determinate. Analog wird für q geschlossen. 2
(7.3.3) Satz. Die Homomorphismen q und π sind surjektiv. Es gilt Kern π =
{I, −I} und Kern q = {(I, I), (−I, −I)}.
Beweis. Es gilt q(A, A∗ ) = pA . Also liegen wegen (3.4) alle Elemente der Form
sA ◦sB im Bild von q. Jedes Element von SO(H) ∼ = SO(4) läßt sich als Produkt
von vier Spiegelungen darstellen. Also ist q surjektiv.
Sei f ∈ SO(im H) gegeben. Wir setzen f zu einer Abbildung f ∈ SO(H)
fort, indem wir Elemente aus R identisch abbilden. Da q surjektiv ist, gibt es
A, B ∈ SU (2) so, daß f = q(A, B). Wegen f (1) = 1 folgt aber AB = 1, also
B = A∗ . Daher ist π surjektiv.
Sei A ∈ Kern π, also AXA∗ = X für alle X ∈ im H und deshalb auch für
alle X ∈ H. Dann liegt aber wegen A∗ = A−1 das Element A im Zentrum R
von H und deshalb ist A ∈ SU (2) ∩ Zentrum = {I, −I}.
Sei (A, B) ∈ Kern q, also AXB ∗ = X für alle X ∈ H. Wir setzen X = 1 und
erkennen, A = B, A ∈ Kern π. Demnach hat Kern q die behauptete Gestalt. 2
Als leichte Folgerung erhalten wir:
134 7 Beispiele und Anwendungen

(7.3.4) Satz. Jede Abbildung f ∈ O(H) r SO(H) läßt sich mit geeigneten
A, B ∈ SU (2) in der Form X 7→ A · X ∗ · B schreiben. Jede Abbildung f ∈
O(im H)rSO(im H) hat für ein geeignetes A ∈ SU (2) die Form X 7→ −AXA∗ .
Beweis. Die Abbildung c : H → H, X 7→ X ∗ liegt in O(H) r SO(H) und erfüllt
c(X) = −X für X ∈ im H. Man wende nun (7.3.3) auf f ◦ c an. 2
im(H) ist genau der Vektorraum der schief-hermiteschen (2,2)-Matrizen
über C. Dabei heißt eine Matrix A schief-hermitesch, wenn At = −Ā gilt.
Ist s ∈ U (n) und A eine schief-hermitesche (n, n)-Matrix, so ist SAS −1 eben-
falls schief-hermitesch. Für S ∈ SU (2) ⊂ H ist S −1 = S ∗ . Damit läßt sich
der Homomorphismus π auch formulieren, ohne auf Quaternionen Bezug zu
nehmen.
In der Physik werden häufig stattdessen die hermiteschen Matrizen A ver-
wendet, die also At = Ā erfüllen. Ist A hermitesch, so iA schief-hermitesch. So
kann man die beiden Standpunkte vergleichen. Wir beschreiben die Situation
für hermitesche Matrizen der Vollständigkeit und Abwechslung halber ausführ-
lich. Der Satz (7.3.5) übersetzt ein Ergebnis aus (7.3.3).
Der weiteren Untersuchung dienen die folgenden allgemeinen Vorbemer-
kungen. Sei Mn := M (n, n; C) der Vektorraum der komplexen (n, n)-Matrizen.
Durch (A, B) 7→ Sp (At B̄) wird auf Mn eine positiv definite hermitesche Form
definiert. Sei
H(n) = {A ∈ Mn | At = Ā}
die Menge der hermiteschen (n, n)-Matrizen. Dann ist H(n) ein reeller Unter-
raum von Mn . Der Realteil Re Sp(At B̄) definiert ein Skalarprodukt auf dem
reellen Vektorraum Mn . Sind A, B ∈ H(n), so gilt Sp(At B̄) = Sp(At B t ) =
Sp((BA)t ) = Sp(AB). Deshalb können wir auf H(n) das Skalarprodukt durch
(A, B) 7→ Re Sp(AB) erklären. Sei U ∈ U (n), also tU Ū = I. Wegen
(U AU −1 )t (U BU −1 ) = Ū t AB̄ Ū −1
und der allgemeinen Relation Sp (XY X −1 ) = Sp (Y ) gilt
Sp((U AU −1 )t (U BU −1 )) = Sp(At B̄).
Die lineare Abbildung
LU : Mn → Mn , A 7→ U AU −1
ist deshalb unitär bezüglich der eben erklärten hermiteschen Form. Ist A ∈
H(n), so gilt U AU −1 = (U AU −1 )t , also U AU −1 ∈ H(n). Wir haben deshalb
eine induzierte lineare Abbildung LU : H(n) → H(n), die bezüglich des eben
definierten Skalarprodukts orthogonal ist.
Betrachten wir den Fall n = 2. Eine Matrix aus H(2) hat dann die Form
 
a c
a, b ∈ R, c ∈ C.
c̄ b
7.4 Quadriken 135

Also ist H(2) vierdimensional. Sei V ⊂ H(2) der Unterraum der Matrizen mit
Spur 0, also −a = b. Dieser dreidimensionale Unterraum ist bei LU invariant,
so daß LU : V → V eine orthogonale Abbildung ist. Die Norm von
 
a α + iβ
α − iβ −a
bezüglich des Skalarprodukts ist 2(a2 + α2 + β 2 ). Es handelt sich also in dieser
Koordinatendarstellung bis auf einen konstanten Faktor um das Standards-
kalarprodukt. Die orthogonale Gruppe von V wollen wir deshalb mit O(3)
identifizieren.
(7.3.5) Satz. Die Zuordnung U 7→ LU liefert einen surjektiven Homomorphis-
mus ϕ : SU (2) → SO(3). Der Kern ist {I, −I}. 2
Als Raum (das heißt einschließlich der Stetigkeitseigenschaften) ist SU (2)
die dreidimensionale Einheitssphäre S 3 ⊂ H, und deshalb lassen sich die Ele-
mente von SU (2) durch Quadrupel (a, b, c, d) ∈ R4 mit a2 +b2 +c2 +d2 = 1 para-
metrisieren. Man kann nun ausrechnen, welche Matrix das Bild bei π bezüglich
der Standardbasis in im H ist. Man erhält
 2
a + b2 + c2 − d2

−2ad + 2bc 2ac + 2bd
 2ad + 2bc a2 − b2 + c2 − d2 −2ab + 2cd+  .
−2ac + 2bd 2ab + 2cd a2 − b2 − c2 + d2
Die dadurch gegebene Parametrisierung von SO(3) war schon Euler bekannt.
Für SO(2) gibt es eine analoge Parametrisierung, nämlich durch Matrizen
der Form  2 2 
x −y 2xy
2 +y 2 x2 +y 2
x
.


−2xy x2 −y 2
x2 +y 2 x2 +y 2
Diese Formel ist die Grundlage für die Transformation von Integralen über
rationale Funktionen aus Sinus und Cosinus in Integrale über rationale Funk-
tionen. Vermöge der Surjektion π : SU (2) → SO(3) entsprechen die Elemente
von SO(3) den Paaren (X, −X) antipodischer Vektoren X ∈ S 3 . Diese Paa-
re entsprechen genau den eindimensionalen Unterräumen von R4 . Die Menge
dieser Unterräume ist der dreidimensionale reelle projektive Raum; also kann
SO(3) als dieser Raum aufgefaßt werden.

7.4 Quadriken
Sei K ein Körper der Charakteristik 6= 2. Wir betrachten Funktionen f : K n →
K, die durch quadratische Polynome gegeben sind:
Pn Pn
(4.1) f (x) = i,j=1 aij xi xj + i=1 bi xi + c
136 7 Beispiele und Anwendungen

x = (x1 , . . . , xn ) ∈ K n , aij , bi und c aus K. Wir können f in der Form

f (x) = xt Ax + Bx + c

schreiben, worin A die Matrix (aij ) ist und B = (b1 , . . . , bn ). Die Funktion f
wird nicht geändert, wenn man den Koeffizienten von xi xj durch 21 (aij + aji )
ersetzt. Deshalb können und wollen wir im folgenden die Matrix A als symme-
trisch voraussetzen. Außerdem soll A nicht die Nullmatrix sein. Die Menge

M = {x ∈ K n | f (x) = 0}

heißt die durch f bestimmte affine Quadrik (oder auch Hyperfläche zweiter
Ordnung, auch zweiten Grades).
Zur geometrischen Untersuchung der Quadriken nimmt man den Stand-
punkt ein, daß geometrische Eigenschaften durch (geeignete) Koordinatentrans-
formationen nicht verändert werden. Wie schon früher dargelegt, muß man
auch hier unterscheiden, ob man sich durch Koordinatentransformation eine
neue Funktion verschafft, deren Nullstellenquadrik man untersucht, oder ob
man die Nullstellenquadrik M von f abbildet und das Bild untersucht.
Die allgemeinsten Abbildungen (bzw. Koordinatentransformationen), die
wir in diesem Zusammenhang betrachten, sind die affinen:

ϕ : K n → K n , x 7→ Sx + t,

S ∈ GL(n, K), t ∈ K n . Gelegentlich will man aber die zugelassenen Matrizen


S einschränken, zum Beispiel im Fall K = R nur orthogonale verwenden. Das
kann wie folgt in einen allgemeinen Rahmen gestellt werden:
Sei G ⊂ GL(n, K) eine Untergruppe. Die Gesamtheit der affinen Abbildun-
gen ϕ mit S ∈ G bildet dann bezüglich Verkettung eine Gruppe A(G). Indem
man ϕ die Matrix S zuordnet, erhält man einen surjektiven Homomorphis-
mus A(G) → G, dessen Kern aus der zu (K n , +) isomorphen Untergruppe der
Translationen in A(G) besteht.
Sei zunächst ϕ(x) = Sx. Die Funktion g(x) = f (ϕ(x)) = xt S t ASx+BSx+c
gehört zur Matrix S t AS. Wir wissen, daß S t AS bei geeigneter Wahl von S eine
Diagonalmatrix ist: S t AS = Dia(λ1 , λ2 , . . . , λn ). Falls λk+1 = . . . = λn = 0 und
λj 6= 0 für j ≤ k (und das können wir nach geeigneter Wahl von S annehmen),
so hat g die Form
Pk 2
Pn
g(x) = i=1 λi xi + i=1 di xi + d
Pk 2
Pn 0
= i=1 λi (xi − ri ) + i=k+1 di xi + d .

(Letzteres nach geeigneter quadratischer Ergänzung). Durch Zusammensetzung


mit der Translation (xi ) 7→ (xi ) + (r1 , . . . , rk , 0, . . . , 0) erhalten wir eine Funk-
tion der Form Pk Pn
h(x) = i=1 λi x2i + i=k+1 di xi + d
7.4 Quadriken 137

(mit neuen di , d). Sind dk+1 , . . . , dn = 0, so hören wir auf zu denken. An-
dernfalls sei d` 6= 0 und ` mininal mit dieser
P Eigenschaft. Wir wählen neue
Koordinaten xi = ui für i 6= ` und u` = di xi . Die transformierte Funktion
hat die Gestalt
Pk
q(u) = i=1 λi u2i + λuk+1 + d.

Wir können kann noch λi um ein Quadrat abändern und uk+1 mit einer Kon-
stanten 6= 0 multiplizieren. Damit haben wir gewisse Normalformen von qua-
dratischen Funktionen bei affinen Koordinatentransformationen gewonnen.
Sei nun K = R der Körper der reellen Zahlen. Dann können wir zunächst
nach dem Satz über Hauptachsentransformationen die Matrix A durch eine or-
thogonale Matrix S diagonalisieren. Sodann können wir bei dem zuletzt durch-
geführten Übergang von x nach u etwas vorsichtiger sein und ein Vielfaches von
(dk+1 , . . . , dn ) im Raum der letzten (n − k) Koordinaten als Basisvektor einer
Orthonormalbasis verwenden, um diesen Übergang als orthogonale Abbildung
zu erhalten. Insgesamt erhalten wir:

(7.4.1) Satz. Durch Zusammensetzen mit einer Bewegung ϕ(x) = Sx + t, S ∈


SO(n) läßt sich f aus (4.1) (bis auf einen Faktor 6= 0) in eine der Funktionen

Pk Pk Pk
i=1 λi x2i , i=1 λi x2i − 1, i=1 λi x2i − 2xk+1

überführen (k ≥ 1, weil (aij ) 6= 0 vorausgesetzt). 2

Da ein konstanter Faktor irrelevant für die Untersuchung von f (x) = 0


ist und da eine Bewegung nach allgemeiner Ansicht die geometrische Gestalt
nicht verändert, ist also jede affine Quadrik durch Nullsetzen einer der Funk-
tionen in (7.4.1) gegeben. Zur qualitativen Veranschaulichung führen wir noch
Koordinatenstreckungen ϕ(xi ) = |λi |−1/2 xi durch. Es bleiben Gleichungen der
Gestalt

|x|2 − |y|2 = 0
(4.2) |x|2 − |y|2 = 1 x ∈ Rr , y ∈ Rs , z ∈ R .
|x|2 − |y|2 = 2z

Hierbei haben wir in x die Komponenten mit positivem λ, in y die mit ne-
gativem λ zusammengefaßt; es darf natürlich r oder s gleich Null sein. Die
Koordinaten, die in der Gleichung nicht vorkommen, sind frei wählbar.
Nun zur Veranschaulichung einige Beispiele. Wir gehen von den Gleichungen
(4.2) aus.
138 7 Beispiele und Anwendungen

(7.4.2) Quadriken im R2 . Für n = 2 gibt es die Fälle:

(1) −y 2 = 1
(2) x2 = 0 −y 2 = 0
(3) x2 = 1
2
(4) x − 2y = 0 −x2 − 2y = 0
(5) x2 − y 2 = 0
(6) x2 − y 2 = 1
(7) −x2 + y 2 = 0
(8) x2 + y 2 = 1.

Die zugehörigen Nullstellenmengen (Quadriken) sind: (1) leere Menge; (2) eine
Gerade ( doppelt zu zählen“); (3) ein Paar paralleler Geraden x = 1, x = −1;

(7) ein Punkt. Alle die Fälle sind mehr oder weniger degeneriert. (5) Zwei sich
schneidende Geraden. (4) Parabel. (6) Hyperbel. (8) Kreis (Ellipse). Die letzten
drei Fälle sind die regulären. 3
Für n = 3 sind die Quadriken, bis auf die degenerierten Fälle, Flächen im
Raum. Wir verwenden x, y, z als Koordinaten. Falls z in den Gleichungen nicht
vorkommt, so hat man die (x, y)-Lösungsmenge mit der z-Achse cartesisch zu
multiplizieren. So liefert x2 + y 2 = 1 einen Zylinder und x2 − y 2 = 0 zwei sich
schneidende Ebenen etc.
Wir betrachten deshalb nur die Fälle, in denen alle drei Unbestimmten in
den Gleichungen vorkommen“ und deren Lösungsmengen Flächen sind.

(7.4.3) Quadriken im R3 . Es bleiben folgende Fälle übrig:

(1) x2 + y 2 − z 2 = 0
(2) x2 + y 2 + z 2 = 1
(3) x2 + y 2 − z 2 = 1
(4) x2 − y 2 − z 2 = 1
(5) x2 + y 2 − 2z = 0
(6) x2 − y 2 − 2z = 0

Falls in einer solchen Gleichung x2 + y 2 vorkommt, lassen Drehungen um die z-


Achse die Figur invariant. Es handelt sich um eine Rotationsfläche, sie entsteht,
indem man die Lösungskurve in der (x, y)-Ebene um die z-Achse rotiert. Es
ergeben sich die folgenden Flächen:
(1) Doppelkegel
(2) Sphäre (Ellipsoid)
(3) Einschaliges Hyperboloid (Rotation einer Hyperbel)
(4) Zweischaliges Hyperboloid (Invariant bei Drehung um x-Achse)
(5) Rotationsparaboloid
Im Fall (6) liegt keine Rotationssymmetrie vor. In der (x, y)-Ebene hat
man eine nach oben gekrümmte Parabel, in der (y, z)-Ebene eine nach unten
7.4 Quadriken 139

gekrümmte. Die entstehende Fläche heißt Sattelfläche. Der Nullpunkt ist der
Sattelpunkt. Die beiden Geraden x = y, z = 0 und x = −y, z = 0 liegen in der
Fläche und gehen durch den Sattelpunkt. Schneidet man die Sattelfläche in der
Höhe z parallel zur (x, y)-Ebene, so entstehen als Höhenlinien Hyperbeln (für
z 6= 0) oder die beiden genannten Geraden.
Trotz ihrer augenfälligen Krummheit enthalten einige dieser Flächen ganze
Scharen von Geraden.
Die Sattelfläche z = x2 − y 2 = (x + y)(x − y) enthält die Geradenscharen I
und II:
I x + y = a, a(x − y) = z
II x − y = a, a(x + y) = z
Für festes a ∈ R definieren die beiden Gleichungen in I eine Gerade im R3 ,
denn die Matrix  
1 1 0
a −a −1
hat immer den Rang 2. Und durch Multiplikation dieser Gleichungen erkennt
man, daß die Geraden in der Fläche enthalten sind. Analog im Fall II. Für ver-
schiedene a ∈ R sind die zugehörigen Geraden disjunkt, denn zwei Gleichungen
x + y = a, x + y = b können für a 6= b nicht gleichzeitig bestehen. Jeder Punkt
der Fläche liegt auf genau einer der Geraden in jeder Schar, denn der Parameter
a der Schar läßt sich aus den Koordinaten des Punktes berechnen. Jede Gerade
der ersten Schar schneidet jede Gerade der zweiten in genau einem Punkt, denn
x + y = a, x − y = b hat immer genau eine Lösung und, einmal gelöst, errechnet
sich der zugehörige z-Wert. Man kann die Punkte der Fläche also durch die zu-
gehörigen Parameter (a, b) der (ersten, zweiten) Schar beschreiben. Die Fläche
läßt sich durch diese Koordinatisierung umkehrbar eindeutig (und stetig) auf
R × R abbilden.
In ähnlicher Weise läßt sich das einschalige Hyperboloid durch zwei Gera-
denscharen beschreiben. Wir beschreiben es durch die Gleichung

(x + z)(x − z) = x2 − z 2 = 1 − y 2 = (1 − y)(1 + y).

Es enthält jedenfalls die beiden Geraden


I x + z = 1 − y, x−z =1+y
II x + z = 1 + y, x−z =1−y
Aus jeder dieser Geraden geht durch Rotation um die z-Achse eine Gerade her-
vor, die auf dem Hyperboloid liegt. Rechnerisch kann man durch Einfügen von
Parametern in diese Aufteilung der Faktoren ähnlich wie bei der Sattelfläche
vorgehen. Betrachten wir die zu I gehörende Schar.
Für (λ, µ) ∈ R2 r 0 liefern die beiden Gleichungen

λ(x + z) = µ(1 − y), µ(x − z) = λ(1 + y)


140 7 Beispiele und Anwendungen

eine Gerade, denn die Matrix


 
λ µ λ
µ −λ −µ

hat immer den Rang 2. Natürlich liefern (λ, µ) und (αλ, αµ) für α 6= 0 dieselbe
Gerade. Für λµ 6= 0 sieht man durch Multiplikation der Gleichungen sofort,
daß die Geraden in der Fläche enthalten sind. Aber auch für etwa µ = 0 ist
die Gerade x + z = 0, 1 + y = 0 in der Fläche enthalten. Der Schnittpunkt der
(λ, µ)-Gerade mit der (x, y)-Ebene ist der Punkt

µ2 − λ2
 
2λµ
(x, y) = ,
µ2 + λ2 µ2 + λ2

auf dem Einheitskreis. Es liefern (λ, µ) und (λ0 , µ0 ) genau dann denselben Punkt
auf dem Einheitskreis, wenn α(λ, µ) = (λ0 , µ0 ) für ein α 6= 0 gilt. Demnach
ist die Gerade der Schar durch diesen Punkt bestimmt. Ähnlich wie bei der
Sattelfläche folgt nun: Jeder Punkt der Fläche liegt auf genau einer Geraden der
Schar, denn (λ, µ) kann bis auf einen konstanten Faktor durch die Koordinaten
(x, y, z) aus den Schargleichungen bestimmt werden.
Zu jeder Geraden der einen Schar gibt es eine der anderen, die dazu parallel
ist. Solche Ausnahmefälle kann man nur durch Hinzufügen unendlich ferner
Punkte beseitigen.

7.5 Quadratische Formen


Sei V ein Vektorraum über dem Körper K. Eine Abbildung q : V → K heißt
quadratische Form auf V , wenn sie die folgenden Eigenschaften hat:
(1) Für λ ∈ K und x ∈ V gilt q(λx) = λ2 q(x).
(2) Die Abbildung

sq : V × V → K, (x, y) 7→ q(x + y) − q(x) − q(y)

ist bilinear.
Die quadratischen Formen auf V bilden einen Vektorraum QF (V ), als Teilraum
von Abb(V, K). Ein Paar (V, q) mit einer quadratischen Form q auf V heißt
quadratischer Raum. Die zu q gehörende Form sq heißt Polarisierung von q.
Ist s : V × V → K eine Bilinearform, so ist qs : v 7→ s(v, v) eine quadratische
Form. Sei BF (V ) der Vektorraum der Bilinearformen auf V . Durch s 7→ qs
erhalten wir eine lineare Abbildung

Ω : BF (V ) → QF (V ).
7.5 Quadratische Formen 141

Durch st (x, y) = s(y, x) wird die zu s transponierte Bilinearform erklärt.


Transposition ist eine lineare Abbildung
τ : BF (V ) → BF (V ), s 7→ st
mit der Eigenschaft τ 2 = id (Involution). Die Formen s und st haben bei Ω
dasselbe Bild.
Wir bezeichnen noch mit SF (V ) ⊂ BF (V ) den Unterraum der symmetrsi-
chen Bilinearformen.
(7.5.1) Satz. Sei V ein endlichdimensionaler Vektorraum über K. Die Se-
quenz

0 / SF (V ) ⊂
/ BF (V ) 1−τ
/ BF (V ) Ω / QF (V ) /0

ist exakt.
Beweis. Die Exaktheit an den Stellen SF (V ) und dem linken BF (V ) folgt
unmittelbar aus den Definitionen; ebenso die Relation Ω ◦ (1 − τ ) = 0.
Für den Beweis der Surjektivität von Ω leiten wir eine Matrixbeschreibung
einer quadratischen Form q mit zugehöriger Bilinearform s = sq her. Seien
v1 , . . . , vn ∈ V und λ1 , . . . , λn ∈ K. Dann folgt aus den definierenden Eigen-
schaften (1), (2) einer quadratischen Form durch Induktion nach n
Pn Pn
q( j=1 λj vj ) = j=1 λ2j q(vj ) + i<j λi λj s(vi , vj ).
P

Ist (v1 , . . . , vn ) eine Basis von V , so betrachten wir zu gegebenem q die Biline-
arform s mit der Matrix S = (ai,j )

aii = q(vi )
aij = sq (vi , vj ) i < j
aij = 0 i > j.
Dann ist nach der obigen Formel q = qs . Folglich ist Ω surjektiv. Angenommen,
Ωs = 0, d. h. für alle x ∈ V gilt s(x, x) = 0. Daraus folgt s(x, y) = −s(y, x) für
alle x, y ∈ V . Definieren wir eine Bilinearform t durch die Matrix
t(vi , vi ) = 0
t(vi , vj ) = s(vi , vj ) i < j
t(vi , vj ) = 0 i > j,

so ist (1−τ )(t) = s. Damit sehen wir auch die Exaktheit am rechten BF (V ). 2
Das Bild von 1−τ in BF (V ) besteht aus den alternierenden Bilinearformen.
Oft werden quadratische Formen und symmetrische Bilinearformen mitein-
ander verglichen. Die linearen Abbildungen
Φ : QF (V ) → SF (V ), q 7→ sq
142 7 Beispiele und Anwendungen

Ψ : SF (V ) → QF (V ), s 7→ qs
erfüllen die Relationen

ΨΦ(q) = 2q, ΦΨ(s) = 2s.

Hat K nicht die Charakteristik 2, so sind Ψ und Φ Isomorphismen. Es besteht


dann kein wesentlicher Unterschied zwischen quadratischen Formen und sym-
metrischen Bilinearformen. Im allgemeinen sind aber Φ und Ψ weder injektiv
noch surjektiv. Gilt Φ(q) = s, so nennt man q eine quadratische Verfeinerung
von s.

7.6 Reelle und komplexe Strukturen


Wir untersuchen in diesem Abschnitt den Zusammenhang zwischen Vek-
torräumen über R und C.
Sei V ein C-Vektorraum. Indem wir dieselbe Menge und Vektoraddition
verwenden und die gegebene Skalarmultiplikation nur für Zahlen λ ∈ R ver-
wenden, erhalten wir einen R-Vektorraum, der mit VR bezeichnet werde. (Man
sagt, VR entsteht aus V durch Vergessen“ von Struktur.) Eine C-lineare Ab-

bildung f : V → W induziert dann eine R-lineare Abbildung fR : VR → WR ; es
handelt sich um dieselbe Abbildung der zugrundeliegenden Mengen.

(7.6.1) Satz. Sei v1 , . . . , vn eine C-Basis von V . Dann ist v1 , iv1 , . . . , vn , ivn
eine R-Basis von VR .

Beweis. Sei v ∈ V , v = λ1 v1 + · · · + λn vn , λj = aj + ibj mit aj , bj ∈ R. Dann ist


v = a1 v1 + b1 (iv1 ) + · · · + an + bn (ivn ), also bilden die genannten Elemente ein
Erzeugendensystem von VR . Ist v in dieser Darstellung gleich Null, so schließt
man aus der linearen Unabhängigkeit der v1 , . . . , vn auf aj = bj = 0 für alle j.
Deshalb sind die genannten Elemente auch linear unabhängig. 2
Die Aussage (7.6.1) über die Dimensionen schreiben wir so:

2 dimC V = dimR VR .

Ist U ein R-Vektorraum, so heißt eine lineare Abbildung J : U → U mit J 2 =


− id eine komplexe Struktur auf U . Wir können mittels J nämlich U zu einem
C-Vektorraum machen, indem wir dieselbe Vektoraddition verwenden, und die
Skalarmultiplikation für λ = a + bi mit a, b ∈ R und u ∈ U durch

λu = au + bJu
7.6 Reelle und komplexe Strukturen 143

definieren. Wegen J 2 = − id ist dann J : U → U in dieser neuen Vektorraum-


struktur die Multiplikation mit i. Sei (U, J) der so erhaltene (von J abhängige)
C-Vektorraum. Es gilt nach Konstruktion

(U, J)R = U.

Eine komplexe Struktur kann es auf U natürlich nur dann geben, wenn dimR U
gerade ist.
Ist V ein C-Vektorraum, so trägt U = VR eine komplexe Struktur J,
die durch Ju = iu gegeben wird, und es ist V = (U, J) nach Konstrukti-
on. Sind (U1 , J1 ) und (U2 , J2 ) R-Vektorräume mit komplexer Struktur und ist
f : U1 → U2 eine R-lineare Abbildung, die J2 f = f J1 erfüllt, so ist dieselbe
Mengenabbildung eine C-lineare Abbildung

f : (U1 , J1 ) → (U2 , J2 ).

Ist V ein C-Vektorraum, so gehört dazu der konjugierte C-Vektorraum V , der


dieselbe Vektoraddition wie V hat, dagegen die neue Skalarmultiplikation

(λ, v) 7→ λv.

Der zu (U, J) konjugierte Vektorraum ist (U, −J).


Ist U ein R-Vektorraum, so können wir auf V = U ⊕ U eine komplexe
Struktur durch J(u1 , u2 ) = (−u2 , u1 ) definieren, denn offenbar ist J 2 (u1 , u2 ) =
(−u1 , −u2 ). Den entstehenden C-Vektorraum (U ⊕ U, J) bezeichnen wir mit
UC und nennen ihn die Komplexifizierung von U . Ist f : U → U 0 eine R-lineare
Abbildung, so erfüllt
f ⊕ f : U ⊕ U → U0 ⊕ U0

(f ⊕ f )J(u1 , u2 ) = (f ⊕ f )(−u2 , u1 ) = (−f u2 , f u1 )


= J(f u1 , f u2 ) = J(f ⊕ f )(u1 , u2 )

und ist deshalb eine C-lineare Abbildung (U ⊕ U, J) → (U 0 ⊕ U 0 , J), die wir


mit
fC : UC → UC0
bezeichnen. Es gilt idC = id und (f ◦ g)C = fC ◦ gC . Es gilt

dimR U = dimC UC .

Ferner gilt (UC )R = U ⊕ U .


Sei V ein C-Vektorraum. Eine Abbildung f : V → V heißt konjugiert-linear,
wenn fR linear ist und wenn für λ ∈ C immer f (λx) = λf (x) gilt. Eine
konjugiert-lineare Abbildung ist also dasselbe wie eine C-lineare Abbildung
V → V . Eine konjugiert lineare Abbildung c : V → V heißt reelle Struktur auf
144 7 Beispiele und Anwendungen

V , wenn c2 = id ist. Ist V = Cn , so ist c(λ1 , . . . λn ) = (λ1 , . . . , λn ) eine reelle


Struktur. Unter einer reellen Struktur soll man sich also den Übergang zum
Konjugiertkomplexen vorstellen.
Sei c eine reelle Struktur auf V . Wir betrachten die Eigenräume von c zu
den Eigenwerten ±1:
V+ = {x ∈ V | cx = x}, V− = {x ∈ V | cx = −x}.
Da c konjugiert-linear ist, sind V+ und V− jedenfalls reelle Unterräume von V ,
das heißt Unterräume von VR .
(7.6.2) Satz. Es gilt VR = V+ ⊕ V− . Die Multiplikation mit i ∈ C liefert
Isomorphismen V+ → V− , V− → V+ von R-Vektorräumen.
Beweis. Sicherlich ist V+ ∩V− = {0}, wie immer bei verschiedenen Eigenwerten.
Es ist für jedes v
1 1
v+ = (v + cv) ∈ V+ , v− = (v − cv) ∈ V− ,
2 2
wie man mittels c2 = id nachrechnet. Wegen v = v+ + v− ist also auch V =
V+ + V− . Damit ist die erste Behauptung gezeigt. Sei v ∈ V+ . Da c konjugiert-
linear ist, gilt c(iv) = ic(v) = −iv, also iv ∈ V− . Analog ist für v ∈ V− auch
cv ∈ V+ . Die Abbildung V+ → V− , v 7→ iv ist ein Isomorphismus mit Inversem
w 7→ −iw. 2
Sei U ein R-Vektorraum. Dann hat UC eine kanonische reelle Struktur, die
durch c(u1 , u2 ) = (u1 , −u2 ) auf U ⊕ U gegeben ist. Mit der oben erklärten
komplexen Struktur J gilt nämlich cJ = −Jc, weshalb c als konjugiert-linear
erkannt wird. Die Eigenräume (UC )+ und (UC )− sind hier U ⊕ {0} und {0} ⊕U .
Das legt die folgende Überlegung nahe.
(7.6.3) Satz. Sei V ein C-Vektorraum mit reeller Struktur c. Dann gibt es
einen kanonischen Isomorphismus von C-Vektorräumen
α : (V+ )C → V,
der die eben auf (V+ )C definierte reelle Struktur in die gegebene Struktur c auf
V übersetzt.
Beweis. Wir setzen α(v1 , v2 ) = v1 + iv2 , für v1 , v2 ∈ V+ . Dann ist iv2 ∈ V− und
α offenbar ein R-linearer Isomorphismus (wegen (7.6.2)). Es ist α aber C-linear,
weil
αJ(v1 , v2 ) = α(−v2 , v1 ) = −v2 + iv1 = i(v1 + iv2 ) = iα(v1 , v2 )
ist. Es gilt α(v1 , −v2 ) = v1 − iv2 = cv1 − icv2 = cv1 + c(iv2 ) = c(v1 + iv2 ) =
cα(v1 , v2 ). Demnach ist α wie behauptet mit den reellen Strukturen verträglich.
2
7.6 Reelle und komplexe Strukturen 145

(7.6.4) Satz. Für jeden komplexen Vektorraum V gibt es einen kanonischen


Isomorphismus
(VR )C ∼
=V ⊕V.
Beweis. Die Abbildung

β : (VR )C → V ⊕ V , (v1 , v2 ) 7→ (v1 + iv2 , v1 − iv2 )

ist R-linear und offenbar injektiv, also ein R-Isomorphismus. Man rechnet nach,
daß sie mit den jeweiligen komplexen Strukturen verträglich ist. 2
(7.6.5) Bemerkung. Vektorräume gleicher Dimension über einem Körper
sind isomorph. Im allgemeinen kann man aber einen Isomorphismus nur durch
Auswahl von Basen herstellen. Gibt es einen ausgezeichneten, basisfrei definier-
ten Isomorphismus, so nennt man diesen kanonisch. Die Räume V und V (bzw.
V und V ∗ ) sind isomorph, aber nicht kanonisch. 3
Ist f : V → V 0 eine C-lineare Abbildung, sind c, c0 reelle Strukturen auf
V, V 0 und gilt f c = c0 f , so induziert f Abbildungen f+ : V+ → V+0 , f− : V− →
V−0 , die R-linear sind. Bezüglich der Isomorphismen in (7.6.3) wird (f+ )C in
f überführt. Ein Unterraum W von V heißt c-reell, wenn cW ⊂ W ist. Es
induziert dann c eine reelle Struktur auf W , und es gilt W+ = W ∩ V+ .
Wir geben nun noch einen zweiten Beweis für den Normalformensatz or-
thogonaler Matrizen, der darauf beruht, eine orthogonale Abbildung zunächst
als unitäre aufzufassen, diese dann zu diagonalisieren und das Ergebnis ins
Reelle zurückzurechnen. Zunächst behandeln wir den allgemeinen Fall von Ei-
genraumzerlegungen.
Endomorphismen reeller Vektorräume haben nicht immer Eigenwerte. In
diesem Fall betrachten wir zunächst die Komplexifizierung, zerlegen sie in Ei-
genräume und rechnen danach auf das Reelle zurück. Wir behandeln hier nur
den Fall, in dem eine Eigenraumzerlegung existiert.
(7.6.6) Satz. Sei V ein C-Vektorraum mit reeller Struktur c. Sei f : V → V
eine C-lineare Abbildung, die f c = cf erfüllt. Sei λ Eigenwert von f und V (λ)
der zugehörige Eigenraum. Sei U = V+ und h = f+ : U → U . Dann gilt:
(1) Ist λ reell, so ist V (λ) ein c-reller Unterraum von V ; es ist λ Eigenwert
von h und U (h, λ) = V (λ)+ .
(2) Ist λ nicht reell, so ist auch λ̄ Eigenwert. Es ist V (λ) ⊕ V (λ̄) c-
reeller Unterraum von V . Es induziert c einen R-linearen Isomorphis-
mus V (λ) → V (λ̄). Der Unterraum (V (λ) ⊕ V (λ̄))+ =: U {λ, λ̄} ⊂ U
wird durch h in sich abgebildet.
(3) Ist V direkte Summe der V (λ1 ), . . . , V (λr ), V (µ1 ), V (µ̄1 ), . . . , V (µs ),
V (µ̄s ) mit reellen λj und nicht-reellen µj , so ist U direkte Summe der

U (λ1 ), . . . , U (λr ), U {µ1 , µ̄1 }, . . . , U {µs , µ̄s }.


146 7 Beispiele und Anwendungen

Beweis. Sei x ∈ V (λ). Wegen f (c(x)) = cf (x) = c(λx) = λ̄c(x) ist also c(x) ∈
V (λ̄). Damit folgt (1) und (2). Ist allgemein V = V 0 ⊕V 00 eine direkte Zerlegung
in c-reelle Unterräume, so wird eine direkte Zerlegung V+ = V+0 ⊕ V+00 induziert.
Damit folgt (3). 2
Sei V direkte Summe von Eigenräumen. Ist b1 , . . . , bt Basis von V (λ), so ist
c(b1 ), . . . , c(bt ) Basis von V (λ̄). Wir können deshalb eine Zerlegung

V = V (1) ⊕ · · · ⊕ V (k) ⊕ W (1) ⊕ · · · ⊕ W (`)

in reelle Unterräume finden, die die folgenden Eigenschaften hat:


(1) Die V (1), . . . , V (k) sind eindimensional. Jedes V (j) ist in einem Eigen-
raum zum reellen Eigenwert λj enthalten.
(2) Die W (1), . . . , W (`) sind zweidimensional. Jedes W (j) hat eine Basis der
Form bj , cbj , mit f (bj ) = µj bj und µj ∈
/ R.
Der Raum U = V+ zerfällt dann dementsprechend nach (7.6.6)

U = V (1)+ ⊕ · · · ⊕ W (`)+
in reell ein- bzw. zweidimensionale Unterräume, die durch h = f+ in sich ab-
gebildet werden. Es hat W (j)+ die Basis
1 1
√ (bj + cbj ) = aj (1), √ (ibj − icbj ) = aj (2)
2 2
und bezüglich dieser Basis hat h : W (j)+ → W (j)+ die Matrix
 
αj −βj
, αj = Re µj , βj = Im µj .
βj αj

Der Basiswechsel von a(1), a(2) nach b, cb hat die Matrix


 
1 1 i
√ = S.
2 1 −i

Das ist eine unitäre Matrix.


Wir übersetzen jetzt die voranstehenden Ergebnisse in matrizentheoretische
Aussagen. Sei A eine reelle (n, n)-Matrix. Wir fassen A als Endomorphismus
h von U = Rn und als Endomorphismus f von V = Cn auf. Es trägt V
die reelle Struktur c(z1 . · · · , zn ) = (z̄1 , . . . , z̄n ), und es ist V+ = U = Rn der
Unterraum der reellen n-Tupel. Es ist dann h = f+ im eben verwendeten Sinn.
Angenommen V besitzt eine direkte Zerlegung in Eigenräume von f . Dann
finden wir nach den voranstehenden Überlegungen eine Basis von Rn , so daß
h darin eine Matrix der Blockdiagonalform

Dia(λ1 , . . . , λr , M1 , . . . , M` )
7.6 Reelle und komplexe Strukturen 147

hat, worin die λj die reellen Eigenwerte sind und


 
αj −βj
Mj =
βj αj

ist. Mit anderen Worten: Es gibt S ∈ GL(n, R), so daß SAS −1 diese Form hat.
Wir kommen nun zu den Anwendungen auf orthogonale Abbildungen. Sei
β : V × V → C eine hermitesche Form auf einem C-Vektorraum V . Dann ist
sβ = s : VR × VR → R, (u, v) 7→ Re β(u, v) eine symmetrische Bilinearform.
Ist β regulär, so auch sβ . Ist β positiv definit, so auch sβ . Ist v1 , . . . , vn eine
Orthonormalbasis bezüglich β, so ist v1 , iv1 , . . . , vn , ivn eine Orthonormalbasis
bezüglich s; denn β(vj , ivj ) = −iβ(vj , vj ) hat den Realteil 0. Ist f : V → V
unitär bezüglich β, so ist fR orthogonal bezüglich sβ . Deshalb wird ein Homo-
morphismus
r : U (n) → SO(2n)
induziert. Für n = 1 erhält man speziell einen Isomorphismus
 
iϕ cos ϕ − sin ϕ
r : U (1) → SO(2), e 7→ .
sin ϕ cos ϕ

Sei nun A ∈ O(n). Wie eben fassen wir A als Endomorphismus von Cn mit
reeller Struktur c(z1 , . . . , zn ) = (z̄1 , . . . , z̄n ) auf. Wir können A auch als unitäre
Matrix ansehen. Es gibt deshalb eine Orthonormalbasis des Cn bezüglich der
hermiteschen Standardform aus Eigenvektoren a1 , . . . , ak , b1 , cb1 , . . . , b` , cb` von
A. Die daraus nach dem eben beschriebenen Verfahren gebildete Basis

a1 , . . . , ak , a1 (1), a2 (2), . . . , a` (1), a` (2)

ist eine Orthonormalbasis des Rn bezüglich des Standardskalarprodukts. Die


Kästchen sind orthogonal, also aus SO(2). Damit haben wir erneut den Nor-
malformensatz für orthogonale Matrizen hergeleitet.
Kapitel 8

Anhang

8.1 Die Mengensprache


Mathematik ist Sprache. Sprache wird vereinbart. Vereinbart wird das Zweck-
mäßige. Für die Mitteilung mathematischer Gegenstände und Gedanken hat
sich weltweit die Mengensprache durchgesetzt. Die Mengensprache1 ist Teil der
natürlichen Umgangssprache, keiner weiteren Begründung nötig noch fähig,
erlernbar durch Gebrauch und Nachahmung. Erstaunlich, daß ein Arsenal von
wenigen Begriffen und wenigen Prinzipien ihrer Verarbeitung für die Mathe-
matik ausreicht. Da die natürliche Sprache mehrdeutig ist, sammeln wir hier
— ohne weitere inhaltliche Erklärung — das Vokabular und beschreiben seine
mathematische Verwendung. Wie üblich lebt die mathematische Schriftform
von abkürzenden Symbolen.
Eine Menge ist eine Zusammenfassung von Elementen zu einem neuen
Objekt. Das Symbol x ∈ A besagt, x ist ein Element der Menge A. Wir sagen
dafür auch, x ist in der Menge A enthalten. Wie wird eine Menge mitgeteilt?
Eine Möglichkeit ist, ihre Elemente in geschweiften Klammern einfach aufzu-
schreiben; so ist {1, 2, 3} die Menge mit den Elementen 1,2,3. Bei Mengen mit
unendlich vielen Elementen ist das natürlich unmöglich. Dann kann man etwa
folgende Mitteilungsart wählen: {x | x hat die Eigenschaft E} ist die Menge
aller Elemente mit der Eigenschaft E. Jedes Gedankending kann Element einer
Menge werden. So können Mengen selbst wieder Elemente einer Menge sein.
Eine Menge ist durch die in ihr enthaltenen Elemente bestimmt.
Ist jedes Element von A auch Element von B, so sagt man, A sei in B
enthalten, A sei Teilmenge, Untermenge von B und schreibt A ⊂ B oder
B ⊃ A dafür. Zwei Mengen sind genau dann gleich, wenn sie dieselben Elemente
enthalten, wenn also sowohl A ⊂ B als auch B ⊂ A gilt. Auf diesem Wege
1 Zu unterscheiden von der Mengenlehre, einer mathematischen Disziplin.
8.1 Die Mengensprache 149

beweist man auch die Gleichheit zweier Mengen.


Aus vorgegebenen Mengen A und B lassen sich neue Mengen bilden. Der
Durchschnitt oder Schnitt A ∩ B besteht aus den Elementen, die sowohl
in A als auch in B enthalten sind. Die Vereinigung A ∪ B besteht aus den
Elementen, die entweder in A oder in B oder in beiden enthalten sind. Das
cartesische Produkt A × B hat als Elemente alle geordneten Paare (a, b),
wobei a ∈ A und b ∈ B ist. Der Terminus geordnet“ bedeutet, daß es auf die

Reihenfolge ankommt, das heißt (a, b) ist von (b, a) zu unterscheiden.
Die vorstehenden Bildungen lassen sich für ein beliebiges System (Aj | j ∈
J) von Mengen Aj durchführen. Der Index j dient hier zur Kennzeichnung und
Unterscheidung der Mengen und kann zum Beispiel eine Nummer sein. Man
nennt in diesem Kontext J eine Indexmenge und (Aj | j ∈ J) eine durch J
indizierte Familie von T Mengen.
Der Durchschnitt j∈J S Aj besteht aus den Elementen, die in sämtlichen
Aj liegen. Die Vereinigung j∈J Aj besteht aus den Elementen, die in minde-
stens einer der Mengen Aj liegen. Damit man den Durchschnitt immer bilden
kann, ist es nützlich, die leere Menge ∅ zuzulassen, die überhaupt kein Ele-
ment hat und folglich Teilmenge jeder Menge ist. Gilt A ∩ B = ∅, so heißen A
und B disjunkt. Natürlich verwendet man Bezeichungen wie A1 ∩ A2 ∩ A3 für
den Durchschnitt der drei Mengen A1 , A2 , A3 . Analog für Vereinigungen und
bei mehreren Mengen.
Sind A und B Mengen, so bezeichnet A r B die Menge der Elemente von A,
die nicht in B enthalten sind (Differenzmenge oder das Komplement). Bei
dieser Bezeichung wird nicht unterstellt, daß B Teilmenge von A ist. Besteht
B nur aus dem Element b, so schreiben
Q wir auch kurz A r b.
Das cartesische Produkt j∈J Aj besteht aus allen Familien (aj | j ∈ J),
worin aj ∈ Aj ist. Auch hier gibt es Bezeichnungen wie A1 × A2 × A3 .
Seien A und B Mengen. Eine Abbildung von A nach B ist eine Vor-
schrift, die jedem a ∈ A ein b ∈ B zuordnet. Die Vorschrift wird meist durch
ein Funktionssymbol b = f (a) geschrieben. Man sagt auch, a werde auf f (a)
abgebildet. In Symbolen schreiben wir dann

f : A → B, a 7→ f (a) = f a.

Manchmal schreiben wir auch f neben oder über den Pfeil. Dabei heißt A der
Definitionsbereich oder die Quelle der Abbildung, B der Bildbereich oder
das Ziel der Abbildung. Die Vorschrift“ ist durch die Teilmenge

{(a, b) | b = f (a), a ∈ A} ⊂ A × B

bestimmt und kann mengentheoretisch mit ihr gleichgesetzt werden. Zu einer


Abbildung gehören also die drei Daten A, B und f , wenn man präzise sein will.
In der Praxis erlaubt man sich allerdings gewisse Freiheiten. Statt Abbildung
sagt man auch Funktion, insbesondere dann, wenn die Zielmenge aus Zahlen
150 8 Anhang

besteht. In einigen Fällen sind auch Worte wie Operator oder Funktional
gebräuchlich. Die Abbildung A × B → A, (a, b) 7→ a heißt Projektion auf
den Faktor A; analog hat man für ein beliebiges cartesisches Produkt die
Projektionen auf die Faktoren. Die Abbildung id(A) = id : A → A, a 7→ a
heißt die identische Abbildung von A. Zu einer Inklusion A ⊂ B gehört die
Abbildung i : A → B, a 7→ a, die wir ebenfalls Inklusion nennen und auch
mit i : A ⊂ B mißbräuchlich bezeichnen. Eine gegebene Abbildung f : B → Y
besitzt die Einschränkung f ◦ i : A → Y auf die Teilmenge A ⊂ B, die auch
f |A notiert wird.
Die Verkettung der Abbildungen f : A → B und g : B → C ist die Abbil-
dung A → C, die a auf g(f (a)) abbildet; sie wird mit gf oder g ◦ f bezeich-
net. Oft hat man eine größere Anzahl von Abbildungen und Verkettungen zu
notieren. Das geschieht übersichtlich in einem Diagramm, welches aus den
Abbildungspfeilen, ihren Quellen und Zielen besteht. Führen alle möglichen
Verkettungen zwischen festen Stellen in einem Diagramm immer zum gleichen
Ergebnis, so sagen wir, das Diagramm sei kommutativ oder es kommutiere.
Zum Beispiel ist ein Rechteck

A
f
/B
g h
 
C
i /D

kommutativ genau dann, wenn h ◦ f = i ◦ g gilt.


Zu f : A → B und f 0 : A0 → B 0 gehört das cartesische Produkt

f × f 0 : A × A0 → B × B 0 , (a, a0 ) 7→ (f (a), f 0 (a0 )).

Analog haben wir das cartesische Produkt


Q Q Q
j∈J fj : j∈J Aj → j∈J Bj

einer beliebigen Familie (fj : Aj → Bj | j ∈ J) von Abbildungen.


Eine Abbildung f : A → B heißt injektiv , wenn aus a1 6= a2 immer
f (a1 ) 6= f (a2 ) folgt, und surjektiv , wenn zu jedem b ∈ B ein a ∈ A mit
b = f (a) existiert. Sie heißt bijektiv , wenn sie sowohl surjektiv als auch in-
jektiv ist. Eine Abbildung f : A → B ist genau dann bijektiv, wenn sie eine
Umkehrabbildung g : B → A hat, das heißt wenn eine Abbildung g existiert
mit den Eigenschaften gf = id(A) und f g = id(B). Ist C ⊂ A, so heißt
f (C) = {b | es gibt c ∈ C mit b = f (c)} das Bild von C bei f . Ist D ⊂ B,
so heißt f −1 (D) = {a | f (a) ∈ D} das Urbild von D bei f . Das Urbild der
einelementigen Teilmenge {c} wird f −1 (c) geschrieben.
Zwei Mengen heißen gleichmächtig , wenn es eine Bijektion (= eine bi-
jektive Abbildung) zwischen ihnen gibt. Die Mächtigkeit einer Menge M ist
die Anzahl“ ihrer Elemente (was immer das für unendliche Mengen bedeuten

8.1 Die Mengensprache 151

mag); sie wird mit |M | bezeichnet. Eine Menge heißt abzählbar unendlich,
wenn es eine Bijektion zur Menge der natürlichen Zahlen gibt.
Eine Äquivalenzrelation auf einer Menge A ist eine Teilmenge R ⊂ A×A
mit den folgenden Eigenschaften:
(1) Für jedes a ∈ A ist (a, a) ∈ R.
(2) Ist (a, b) ∈ R, so ist auch (b, a) ∈ R.
(3) Ist (a, b) ∈ R und (b, c) ∈ R, so ist auch (a, c) ∈ R.
Ist R solch eine Äquivalenzrelation, so schreibt man a ∼ b für (a, b) ∈ R und
sagt in diesem Fall, a ist äquivalent zu b bezüglich oder modulo dieser Re-
lation. Die Menge K(a) = {b | a ∼ b} heißt die Äquivalenzklasse von a.
Genau dann gilt K(a) = K(b), wenn a ∼ b ist. Die Menge der Äquivalenz-
klassen wird mit A/R bezeichnet und A modulo R gelesen. Die Abbildung
p : A → A/R, a 7→ K(a) heißt die Quotientabbildung der Äquivalenzrelati-
on. Es ist eine surjektive Abbildung. Die Menge A ist die disjunkte Vereinigung
der Äquivalenzklassen. Ist irgendeine disjunkte Zerlegung von A in nichtleere
Teilmengen gegeben, so gibt es genau eine Äquivalenzrelation auf A, deren
Äquivalenzklassen genau die Mengen dieser Zerlegung sind. Ist f : A → B eine
surjektive Abbildung, so bilden die Urbilder der Elemente von B solch eine
disjunkte Zerlegung. Ein Element einer Äquivalenzklasse wird Repräsentant
dieser Klasse genannt. Ist p : A → A/R die Quotientabbildung einer Äqui-
valenzrelation und f : A → B eine Abbildung, so gibt es genau dann eine
Abbildung g : A/R → B mit der Eigenschaft g ◦ p = f , wenn f die Äquiva-
lenzklassen von R auf einelementige Mengen abbildet. Man definiert g durch
g(K(a)) = f (a) und sagt, die Definition sei unabhängig von der Auswahl des
Repräsentanten oder kurz und salopp: g ist wohldefiniert 2 . Es gibt also drei
im wesentlichen gleichwertige Erscheinungsformen von Äquivalenzrelationen:
Die Relation R, die disjunkte Zerlegung in Klassen, die surjektive Abbildung
auf die Menge der Klassen.
Der Durchschnitt von Äquivalenzrelationen auf A, aufgefaßt als Teilmengen
von A × A, ist wieder eine. Zu jeder beliebigen Teilmenge S ⊂ A × A gibt
es deshalb eine kleinste S umfassende Äquivalenzrelation, genannt die von S
erzeugte. Sind R1 und R2 Äquivalenzrelationen auf A und gilt R1 ⊂ R2 , so
heißt R1 feiner als R2 und R2 gröber als R1 . Die feinste Äquivalenzrelation
ist die Gleichheit; die zugehörige Teilmenge von A × A ist die Diagonale
{(a, a) | a ∈ A} von A × A.
Allgemein wird eine Teilmenge R ⊂ A × A als eine (zweistellige) Relation
auf A bezeichnet. Die Idee dabei ist, daß R diejenigen Paare (a, b) aussondert,
die in einer jeweils festgelegten Beziehung (Relation) zueinander stehen. Meist
haben Relationen ihre eigene Notation, zum Beispiel a < b, a kleiner als b. In
diesem Fall besteht R aus den Paaren (a, b), für die a < b gilt.

2 Damit ist wohldefiniert“ definiert.



Index

f -stabil, 22 baryzentrische Koordinaten, 104, 106


n-Fakultät, 56 Basen
Äquivalenzklasse, 151 gleich orientiert, 62
Äquivalenzrelation, 151 Basis, 14
feiner, 151 geordnete, 17
gröber, 151 negativ orientiert, 62
von einer Menge erzeugte, 151 positiv orientiert, 62
äquivalent, 151 Basiswechselmatrix, 42
Besselsche Ungleichung, 70
Abbildung Betrag
affine, 103 einer Quaternion, 132
duale, 23 bijektiv, 150
induzierte, 30 Bild, 150
Bildbereich, 149
lineare, 19
bilinear, 67, 83
orthogonal, 73
Bilinearform, 83
projektive, 112
alternierend, 85
selbstadjungiert, 87
geometrisch, 87
transponierte, 23
negativ definit, 89
unitär, 73
positiv definit, 89
Abbildung von A nach B, 149
regulär, 85
Abstand, 68, 72
schiefsymmetrisch, 85
orientierter, 72
symmetrisch, 67, 85
Abtragen eines Vektors, 101
Bilinearfrom
Abweichung von der Linearität, 66 alternierend, 141
abzählbar unendlich, 151 Blockmatrizen, 39
Additionstheoreme, 95
adjungierte Abbildung, 86 cartesische Produkt, 150
adjungierte lineare Abbildungen, 83 cartesisches Produkt, 149
Adjunkte, 60 Cauchy-Schwarzsche Ungleichung, 69
affine Abbildung, 103 charakteristisches
affiner Raum, 101, 102 cosinus hyperbolicus, 95
Standardraum, 101 Cramersche Regel, 60
affiner Unterraum, 50
affines Koordinatensystem, 104, 106 Definitionsbereich, 149
Algorithmus, 48 Determinante, 57
allgemeine lineare Determinante einer linearen Abbildung,
alternierende Gruppe, 55 59
anisotrop, 88 Determinantenform, 54
Antihomomorphismus, 128 Determinantenfunktion, 57
Austauschsatz von Steinitz, 16 Diagonale, 151
Automorphismus, 20 Diagonalmatrix, 38
INDEX 153

Diagramm, 150 euklidischer Vektorraum, 67


kommutativ, 150 exakte Sequenz, 24
Differenzmenge, 149 kurze, 24
Dimension, 17
eines projektiven Raumes, 106 Fahne, 39
Dimensionsformel, 21 Familie, 149
direkte Summe, 27 Funktion, 149
disjunkt, 149 Funktional, 150
Distributivgesetz, 10
Divisionsalgebra, 128 Gaußscher Algorithmus, 48
Doppelverhältnis, 114 Gerade
Drehachse, 78 projektive, 109
Drehmatrix, 74, 77, 80 Gleichheit, 151
Drehung, 77, 80 gleichmächtig, 150
Dreiecksmatrix, 39 Gleichung
obere, 39 homogen, 49, 50
untere, 39 inhomogen, 50
Dreiecksungleichung, 5, 69 Koeffizientenmatrix, 50
Dreier-Identität, 131 Graßmann-Identität3 , 126
Dualbasis, 23 Gruppe, 6
duale Abbildung, 23 abelsch, 6
Dualität, 85 allgemeine lineare, 38
Dualraum, 22 alternierende, 55
Durchschnitt, 149 kommutativ, 6
orthogonale, 73, 92
Ebene spezielle lineare, 59
projektive, 109 spezielle orthogonale, 73
Eigenraum, 22 symmetrische, 55
verallgemeinerter, 119 unitäre, 73
einfach transitiv, 101 Gruppenaddition, 6
Einheitsmatrix, 38 Gruppenmultiplikation, 6
Einheitsvektor, 68 Gruppenstruktur, 6
Einheitswurzel, 7
Einschränkung, 150 Höhenlinie, 139
Einselement, 6 Halbsystem, 55
Element, 148 Hauptachsen, 83
elementare Umformungen, 48 Hauptachsentransformation, 83
hermitesch, 79
Elementarmatrix, 50, 51
hermitesche Form, 67
Eliminationsverfahren, 48
Hessesche Normalform, 72
Endomorphismus, 20
Hilbert-Raum, 67
charakteristisches Polynom, 64
homogene Koordinaten, 107
nilpotent, 117
Homomorphismus, 7
zyklischer, 116
hyperbolische Form, 93
Entwicklung nach einer
Hyperebene
Entwicklung nach einer
Epimorphismus, 20 3 Hermann Günther Graßmann 1809 –

Erste Dimensionsformel, 24 1877


154 INDEX

affine, 29 linear abhängig


projektive, 107 von einer Menge, 14
unendlich ferne, 107 linear unabhängig von einer Menge, 14
lineare Abbildung, 19
identische Abbildung, 150 lineare Hülle, 13
imaginäre Einheit, 5 Linearform, 22, 54
Imaginärteil, 5 alternierend, 54
Index, 91 Linearkombination, 14
Indexmenge, 149 linksinvers, 23
injektiv, 150 Linksmultiplikation, 128
Inklusion, 150 Lorentz-Gruppe, 92, 98, 99
inneres Produkt, 67 kleine, 93
Inverses, 6 Lorentz-Transformation, 94, 98
Isometrie, 73, 85 orthochron, 98
isomorph, 7 Lot, 72
Isomorphismus, 7, 20
isotrop, 88 Mächtigkeit, 150
Matrix
Jacobi-Identität, 125 Adjunkte, 60
Jordan-Matrix, 119 Block, 39
charakteristisches Polynom, 63
Körper, 8 Diagonale, 38
Addition, 8 Diagonalelemente, 38
Charakteristik zwei, 89 diagonalisierbar, 64
Multiplikation, 8 Einträge, 32
Kartenabbildung, 107 Elemente, 32
Kleinsche Vierergruppe, 95 erweiterte, 50
Kodimension, 17 Hauptdiagonale, 38
kommutativ, 150 hermitesche, 68
Komplement, 149 invertierbar, 38
Komplement eines Unterraumes, 25 Nebendiagonale, 38
komplexe Struktru, 142 nilpotent, 39
konjugiert-linear, 143 normal, 82
konvex, 102 orthogonal, 73
konvexe Hülle, 102 positiv definit, 68
Koordinaten quadratisch, 38
baryzentrische, 104, 106 Rang, 46
bezüglich einer geordneten Basis, 18 regulär, 38
homogene, 107 Spalte, 33
Koordinatenabbildung, 44 Spaltenindex, 33
Koordinatentransformationen, 45 Spaltenrang, 45
Kronecker-Symbol, 38 Spaltenvektor, 33
Spur, 43
Länge, 68 symmetrische, 68
leere Menge, 149 transponierte, 40
Leibnizsche Formel, 56 unitär, 73
Lie-Klammer, 125 Zeile, 33
INDEX 155

Zeilenindex, 33 Permutationsgruppe, 55
Zeilenrang, 45 Polarsierung, 140
Zeilenstufenform, 51 positiv definit, 67, 80
Zeilenvektor, 33 Produkt von Vektorräumen, 26
Matrix von f bezüglich B, C, 34 Produktsatz für Determinanten, 59
Matrizen Projektion, 25
ähnlich, 42 Projektion auf den Faktor A, 150
äquivalent, 42 Projektionsoperator, 25
grob-äquivalent, 42 projektive Quadrik, 111
konjugiert, 42 projektive
Matrizenprodukt, 35 projektiver Raum, 106
Menge, 148 projektives Koordinatensystem, 113
linear abhängig, 14 Projektivität, 112
linear unabhängig, 14 Punkt
Minkowski-Raum, 92, 97 eines affinen Raumes, 101
Monomorphismus, 20 Punkte
in allgemeiner Lage, 113
Norm, 68, 72, 80 unabhängig, 113
Normalform
jordansche, 119 Quader, 61
Nullelement, 7 quadratische Form, 140
Nullmatrix, 38 quadratische Verfeinerung, 142
Nullraum, 12 quadratischer Raum, 140
Nullstelle, 63 Quadrik, 83
Nullvektor, 12 projektive, 111
Quaternionen, 128
Operator, 150 C-Standardbasis, 129
Ordnung eines Gruppenelementes, 9 R-Standardbasis, 129
Orientierung, 62 euklidisches Skalarprodukts, 129
kanonische, 62 Konjugation, 128
orthogonal, 87, 88 Multiplikationsregeln, 129
orthogonale Gruppe, 73 reine, 129
orthogonale Projektion, 71 unitäres Skalarprodukt, 129
orthogonale Summe, 88 Zentrum, 130
orthogonales Komplement, 71 Quelle, 149
Orthogonalsystem, 70 Quotientabbildung, 29, 151
Orthonormalbasis, 70, 89 Quotientraum, 30
Orthonormalisierungsverfahren, 70
Orthonormalsystem, 70 Radikal, 88
Rang einer linearen Abbildung, 21
Parsevalsche Ungleichung, 70 Rang einer Matrix, 46
Permutation, 55 Raum
gerade, 55 affiner, 101, 102
Signum, 55 projektiver, 106
Transposition, 55 Realteil, 5
ungerade, 55 rechtsinvers, 23
Vorzeichen, 55 reelle Struktur, 143
156 INDEX

Relation, 151 unitäre Gruppe, 73


Repräsentant, 151 unitärer Vektorraum, 67
Untergruppe, 7
Sattelfläche, 139 Unterkörper, 8
Sattelpunkt, 139 Untermatrix, 33
Satz des Pythagoras, 68 Untermenge, 148
schief-hermitesch, 134 Unterräume
Schiefkörper, 128 orthogonale, 68
schiefsymmetrisch, 125 Unterraum, 11
Schnitt, 149 c-reell, 145
selbstadjungiert, 79 affiner, 29, 50
Signatur, 91 Richtung, 29, 50
Simplex, 106 aufgespannt von einer Menge, 13
simultane Diagonalisierung, 76 Erzeugendensystem, 13
sinus hyperbolicus, 95 erzeugt von einer Menge, 13
Skalar, 10 negativ, 90
Skalarprodukt, 67 positiv, 90
Spaltenrang, 45 trivialer, 12
spezielle lineare Gruppe, 59 Untervektorraum, 11
Spiegelung, 78, 132 Urbild, 150
Spur, 43
Standardbasis, 15 Vektor, 10
Standardskalarprodukt, 66, 67 lineare Darstellung, 14
Standardvektor, 15 Vektoren
Standardvektorraum, 11 orthogonale, 68
Strecke, 102 Vektorprodukt, 124
Struktursatz für nilpotente Morphismen, Vektorräume
118 isomorph, 20
Stufe eines Vektors, 117 Vektorraum
Summe f -zyklisch, 116
orthogonale, 68 (interne) direkte Zerlegung, 25
Summe von Unterräumen, 24 Addition, 10
Summe von Vektorräume, 26 additive Gruppe, 11
Summenkonvention, 37 direkte Summe, 25
surjektiv, 150 euklidischer, 67
symmetrisch, 79 komplexer, 11
symmetrische Bilinearform, 67 konjugierter, 13
symmetrische Gruppe, 55 Multiplikation mit Skalaren, 10
normierter, 72
tangens hyperbolicus, 95 orientierter, 62
Teilmenge, 148 primärer Anteil zu einem
Trägheitssatz von Sylvester, 91 reeler, 11
Translation, 101 unitärer, 67
Transposition, 55 Vektorraum über einem Körper, 10
Vektorraumstruktur, 10
Umkehrabbildung, 150 Verbindungsstrecke, 102
unabhängig, 151 Verbindungsvektor, 101
INDEX 157

Vereinigung, 149
Vergangenheitskegel, 98
Verkettung, 150
Verknüpfung, 5
assoziativ, 5
kommutativ, 6
neutrales Element, 6
Vielfachheit, 63
Volumen, 62

Winkel, 69
wohldefiniert, 151

Zahl
Betrag, 5
komplexe, 5
Imaginärteil, 5
konjugierte, 5
Realteil, 5
Norm, 5
Zahlen, 4
ganze, 4
komplexe, 4
natürliche, 4
rationale, 4
reelle, 4
Zeilenrang, 45
Zeilenumformungen, 51
Zentralprojektion, 112
Zentrum, 130
Ziel, 149
Zukunftskegel, 98

Das könnte Ihnen auch gefallen