0% fanden dieses Dokument nützlich (0 Abstimmungen)
287 Ansichten278 Seiten

Lineare Algebra I: Wintersemester 2016/17 Universit at Regensburg Clara L Oh

Hochgeladen von

troeg ibaer
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
287 Ansichten278 Seiten

Lineare Algebra I: Wintersemester 2016/17 Universit at Regensburg Clara L Oh

Hochgeladen von

troeg ibaer
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Lineare Algebra I

Wintersemester 2016/17
Universität Regensburg

Clara Löh
Version vom 20. April 2017
[email protected]

©
Fakultät für Mathematik, Universität Regensburg, 93040 Regensburg
Clara Löh, 2016
Inhaltsverzeichnis

Literaturhinweise vii

0 Einführung 1
0.1 Was ist Mathematik? 1
0.2 Was ist Lineare Algebra? 2
0.3 Überblick über die Vorlesung 3

1 Grundlagen: Logik und Mengenlehre 5


1.1 Wozu Logik und Mengenlehre? 6
1.2 Logische Grundlagen 7
1.2.1 Aussagenlogik 8
1.2.2 Quantorenlogik 11
1.2.3 Was ist ein Beweis? 13
1.3 Mengentheoretische Grundlagen 16
1.3.1 Naive Mengenlehre 16
1.3.2 Abbildungen 20
1.3.3 Axiomatische Mengenlehre 27

2 Zählen, Zahlen, Körper 31


2.1 Die natürlichen Zahlen und Induktion 32
2.1.1 Zählen und Induktion 32
2.1.2 Arithmetische Operationen 34
2.2 Die ganzen Zahlen und Gruppen 37
2.2.1 Von den natürlichen zu den ganzen Zahlen 38
2.2.2 Gruppen 42
iv Inhaltsverzeichnis

2.3 Die rationalen Zahlen und Körper 45


2.3.1 Von den ganzen zu den rationalen Zahlen 45
2.3.2 Körper 47

3 Vektorräume 53
3.1 Vektorräume 54
3.1.1 Geometrie in Koordinaten 54
3.1.2 Vektorräume 57
3.1.3 Untervektorräume 60
3.1.4 Erzeugendensysteme 63
3.2 Lineare Unabhängigkeit 66
3.2.1 Linearkombinationen 66
3.2.2 Lineare Unabhängigkeit 67
3.2.3 Lineare (Un)Abhängigkeit und Darstellbarkeit 70
3.3 Basen 72
3.3.1 Basen 72
3.3.2 Endlich erzeugte Vektorräume 74
3.3.3 Exkurs: Das Zornsche Lemma 78
3.3.4 Allgemeine Vektorräume 80
3.3.5 Zusammenfassung 81
3.4 Dimension 82
3.4.1 Dimension von Vektorräumen 82
3.4.2 Dimensionsformeln für Vektorräume 83
3.4.3 Komplementäre Untervektorräume 86
3.4.4 Quotientenvektorräume 87

4 Lineare Abbildungen 91
4.1 Lineare Abbildungen 92
4.2 Lineare Abbildungen aus Matrizen 96
4.2.1 Matrizen 96
4.2.2 Multiplikation von Matrizen 98
4.2.3 Lineare Abbildungen aus Matrizen 102
4.3 Lineare Abbildungen und Basen 105
4.4 Kern und Bild 107
4.4.1 Kern und Bild 107
4.4.2 Isomorphismen von Vektorräumen 109
4.4.3 Die Dimensionsformel für lineare Abbildungen 112
4.4.4 Konsequenzen für lineare Gleichungssysteme 114
4.5 Homomorphismenräume 116

5 Matrizenkalkül 123
5.1 Darstellung von linearen Abbildungen 124
5.1.1 Invertierbare Matrizen 124
5.1.2 Darstellung von linearen Abbildungen 126
5.1.3 Basiswechsel 130
5.2 Das Gaußsche Eliminationsverfahren 132
5.2.1 Zeilenstufenform 133
5.2.2 Zeilenoperationen 135
Inhaltsverzeichnis v

5.2.3 Der Gaußsche Algorithmus 137


5.2.4 Gauß-Rezepte 140
5.3 Die Determinante 146
5.3.1 Die Determinantenfunktion 146
5.3.2 Die Determinante und Invertierbarkeit 151
5.3.3 Die Determinante von Endomorphismen 154
5.3.4 Die Leibniz-Formel für die Determinante 156

6 Normalformen I: Eigenwerte und Diagonalisierbar-


keit 161
6.1 Eigenwerte und Eigenvektoren 162
6.2 Diagonalisierbarkeit 168
6.3 Das charakteristische Polynom 173
6.3.1 Polynome 173
6.3.2 Das charakteristische Polynom 176
6.4 Ausblick: Die Jordansche Normalform 180
6.4.1 Ähnlichkeit von Matrizen 181
6.4.2 Die Jordansche Normalform 183
6.4.3 Die Jordansche Normalform in Dimension 2 185

A Anhang A1
A.1 Das griechische Alphabet A3
A.2 Konstruktion der natürlichen Zahlen A5
A.3 Das Spiel SET A7
A.4 Mächtigkeit von Mengen A9
A.5 Kategorien A 11
A.6 Elementare Analysis von Sinus und Kosinus A 15
A.7 Funktoren A 17
A.8 3D-Druck A 21
A.8.1 Fused Filament Fabrication A 21
A.8.2 Die Spezifikation dreidimensionaler Objekte A 21
A.8.3 Berechnung der Schnitte A 23

B Übungsblätter B1

C Fingerübungen C1

D Allgemeine Hinweise D1

Literaturverzeichnis C1
vi Inhaltsverzeichnis
Literaturhinweise

Die Vorlesung wird sich nicht an einer einzelnen Quelle orientieren – Sie
sollten also individuell je nach Thema und eigenen Vorlieben die Literatur
auswählen, die am besten zu Ihnen passt.

Lineare Algebra

ˆ S. Bosch. Lineare Algebra, fünfte Auflage, Springer Spektrum, 2014.


ˆ G. Fischer. Lineare Algebra, Eine Einführung für Studienanfänger,
18. Auflage, Springer Spektrum, 2013.
ˆ K. Jänich. Lineare Algebra, 11. Auflage, Springer, 2013.
ˆ S. Lang. Linear Algebra, Undergraduate Texts in Mathematics, 3. Auf-
lage, Springer, 1987.
ˆ J. Matoušek. Thirty-three miniatures. Mathematical and algorithmic
applications of linear algebra, Student Mathematical Library, 53. Ame-
rican Mathematical Society, 2010.

Logik und Mengenlehre

ˆ P.J. Cameron. Sets, Logic and Categories, Universitext, Springer, 1998.


ˆ H.-D. Ebbinghaus, J. Flum, W. Thomas. Einführung in die mathema-
tische Logik, 5. Auflage, Spektrum Akademischer Verlag, 2007.
ˆ R.M. Smullyan, M. Fitting. Set theory and the continuum problem,
überarbeitete Auflage, Dover, 2010.
viii Literaturhinweise

Sonstige Grundlagen
ˆ A. Beutelspacher. Das ist o.B.d.A. trivial!, neunte Auflage, Vieweg+-
Teubner, 2009.
http://link.springer.com/book/10.1007%2F978-3-8348-9599-8
ˆ A. Doxiadis, C. Papadimitriou, A. Papadatos, A. Di Donna, Logicomix:
An epic search for truth, Bloomsbury Publishing, 2009.
ˆ A.G. Konforowitsch. Logischen Katastrophen auf der Spur, zweite Auf-
lage, Fachbuchverlag Leipzig, 1994.
ˆ C. Löh, S. Krauss, N. Kilbertus. Quod erat knobelandum, Springer Spek-
trum, 2016.
ˆ G. Polya, J.H. Conway (Hrsg.). How to Solve it: A New Aspect of Ma-
thematical Method, Princeton Science Library, 2014.
ˆ T. Tao. Solving mathematical problems. A personal perspective, Oxford
University Press, 2006.
0
Einführung

0.1 Was ist Mathematik?


Mathematik ist grob gesagt die Wissenschaft des abstrakten Denkens, ins-
besondere des Studiums abstrakter Strukturen (wie z.B. Zahlen, Geometrie,
. . . ) und des Studiums von formalen Methoden. Das Wort Mathematik“ lei-

tet sich vom altgriechischen Wort µάϑηµα“ ab, das in etwa Lernen, Wissen,
” ”
Wissenschaft, . . .“ bedeutet.
Die Mathematik baut sich von den grundlegenden logischen und mengen-
theoretischen Axiomen Schritt für Schritt aus den folgenden Bausteinen auf:
ˆ Axiome legen die Spielregeln für das betrachtete Gebiet fest.
ˆ Definitionen führen neue Begriffe ein.
ˆ Sätze, Lemmata, Korollare formulieren Aussagen über mathematische
Objekte.
ˆ Beweise sind formale Begründungen für behauptete Aussagen. Man
beachte dabei, dass auch der Begriff des Beweises mathematisch präzise
definiert ist.
ˆ Beispiele veranschaulichen die Bedeutung und Tragweite der betrach-
teten Begriffe und Sätze.
Das Faszinierende an der Mathematik ist, dass sie einen exakten und ele-
ganten Rahmen liefert, der aber auch in der Praxis (z.B. in den Naturwis-
senschaften, in der Informatik, in der Wirtschaft, . . . ) erfolgreich eingesetzt
und angewendet werden kann.
2 0. Einführung

Diskrete Mathematik Stochastik


Was ist kombinatorisch? Was ist Zufall?

Algebra Analysis
Was sind Zahlen? Was ist Approximation?

Geometrie
Was ist Krümmung?

Logik Mengenlehre
Was ist ein Beweis? Was ist eine Menge?

Abbildung 0.1.: Schematischer Aufbau der Mathematik, stark vereinfacht

Ein grober schematischer Überblick über den Aufbau der Mathematik und
ihrer Teilgebiete findet sich in Abbildung 0.1; stellvertretend ist jeweils eine
zentrale Frage jedes Gebiets genannt, die andeutet, womit sich das Gebiet be-
fasst. Zwischen den Gebieten gibt es vielfältige Verbindungen und unzählige
Mischgebiete (z.B. algebraische Geometrie, diskrete Geometrie, stochastische
Geometrie, geometrische Analysis, . . . ).

0.2 Was ist Lineare Algebra?


Die Algebra befasst sich mit der abstrakten Struktur allgemeiner Zahlen-

bereiche“. Eine besonders einfache und zugängliche Art solcher Strukturen
sind lineare Strukturen, d.h. Vektorräume und lineare Abbildungen zwischen
Vektorräumen. Lineare Strukturen treten an vielen verschiedenen Stellen auf:

ˆ Lösung linearer Gleichungssysteme,

ˆ elementare ebene und räumliche Geometrie,

ˆ Computergeometrie und dreidimensionale Modellierung,

ˆ geschlossene Darstellung kombinatorischer Phänomene,

ˆ als zentraler Approximationsbaustein in der Analysis,

ˆ als erste Abstraktionsstufe in der Algebra,

ˆ ...
0.3. Überblick über die Vorlesung 3

Wie wir sehen werden, sind lineare Strukturen sehr gut verstanden und
können effizient bei Berechnungen eingesetzt werden. Daher versucht man
in vielen anderen Gebieten der Mathematik, kompliziertere Strukturen auf
lineare Strukturen zu reduzieren. Zum Beispiel ist der Ableitungsbegriff der
Analysis nichts anderes als eine lineare Approximation an kompliziertere
Funktionen.

0.3 Überblick über die Vorlesung


In den Vorlesungen Lineare Algebra I und II werden wir die Grundbegriffe
und Grundtechniken linearer algebraischer Strukturen studieren. Insbeson-
dere werden wir die folgenden Themen behandeln und an passender Stelle
auch Ausblicke auf Anwendungen geben:

ˆ Grundlagen: Logik und Mengenlehre

ˆ Grundlegende algebraische Strukturen

ˆ Vektorräume

ˆ Lineare Abbildungen und Matrizenkalkül,


insbesondere auch lineare Gleichungssysteme und Determinanten
ˆ Eigenwerte und Normalformen

ˆ Euklidische und unitäre Vektorräume

ˆ Multilineare Algebra

Anmerkung für Lehramtsstudenten. Auf ganz natürliche Weise werden wir


dabei Begriffen und Themen aus der Schulmathematik begegnen und diese
vertiefen sowie auch Aspekten der Mathematik, die in Zukunft Bestandteil
der Schulmathematik werden könnten. Wichtiger als die Beherrschung des
aktuellen Lehrplans ist es, ein solides Fundament zu erlernen, das es erlaubt,
Mathematik inhaltlich korrekt, nachvollziehbar und souverän zu lehren und
auf das der Unterricht im Rahmen des aktuellen und der zukünftigen Lehr-
pläne aufbauen kann.

Literaturaufgabe. Lesen Sie den Literaturhinweis aus dem Buch von Jänich [10,
Kapitel 1.4].
4 0. Einführung
1
Grundlagen:
Logik und Mengenlehre

Die mathematische Logik beschreibt die Spielregeln“, auf denen die Mathe-

matik basiert; die Mengenlehre beschreibt das Spielfeld“ bzw. die grundle-

genden Bausteine, aus denen mathematische Objekte konstruiert werden.
Der stringente simultane Aufbau von Logik und Mengenlehre als Grundla-
ge der modernen Mathematik ist zu aufwendig, um zu Beginn des Studiums
im Detail ausgeführt zu werden. Wir werden uns daher im folgenden auf ein
paar Einblicke beschränken, die die für den mathematischen Alltag wichtig-
sten Punkte behandeln.
Überblick über dieses Kapitel.

1.1 Wozu Logik und Mengenlehre? 6


1.2 Logische Grundlagen 7
1.3 Mengentheoretische Grundlagen 16
6 1. Grundlagen: Logik und Mengenlehre

1.1 Wozu Logik und Mengenlehre?


Um zu Verstehen, warum man zu Beginn ein bisschen Logik und Mengenleh-
re benötigt, um in die Mathematik einzusteigen, betrachten wir ein typisches
Beispiel für einen mathematischen Text, der sich mit grundlegenden alge-
braischen Strukturen (wie wir sie auch in der Linearen Algebra kennenlernen
werden), beschäftigt:

Definition 1.1.1 (Gruppe). Eine Gruppe ist ein Paar (G, · ), bestehend aus ei-
ner Menge G und einer Abbildung · : G×G −→ G (sogenannte Verknüpfung
der Gruppe) mit folgenden Eigenschaften:

ˆ Es gibt ein Element e ∈ G mit

∀g∈G g · e = g = e · g.

Wir bezeichnen dann e als neutrales Element der Gruppe.

ˆ Zu jedem g ∈ G gibt es ein h ∈ G mit

g · h = e = h · g.

Wir bezeichnen dann h als inverses Element von g und schreiben dafür
auch g −1 .

ˆ Die Verknüpfung · ist assoziativ, d.h.

∀g,h,k∈G (g · h) · k = g · (h · k).

Oft unterdrückt man in der Notation auch die Verknüpfung und sagt kurz
(aber etwas schlampig), dass G eine Gruppe“ ist.

Beispiel 1.1.2 (ganze Zahlen als Gruppe). Die ganzen Zahlen bilden eine Grup-
pe bezüglich Addition. Genauer: Das Paar (Z, +) ist eine Gruppe. Neutrales
Element ist 0; zu n ∈ Z ist −n das Inverse von n bezüglich +.
Die ganzen Zahlen bilden jedoch keine Gruppe bezüglich Multiplikation,
da z.B. 0 und auch 2 kein multiplikatives Inverses in Z besitzen.

Proposition 1.1.3 (Eindeutigkeit des neutralen Elements und von Inversen). Sei
(G, · ) eine Gruppe.

1. Sind e, f ∈ G neutrale Elemente von (G, · ), so folgt e = f .

2. Ist g ∈ G und sind h, k ∈ G inverse Elemente von g in (G, · ), so


folgt h = k.
1.2. Logische Grundlagen 7

Beweis. Zu 1. Seien e, f ∈ G neutrale Elemente. Dann folgt

e = f · e = f;

in der ersten Gleichung haben wir verwendet, dass f neutral ist und in der
zweiten, dass e neutral ist.
Zu 2. Sei g ∈ G und es seien h, k ∈ G inverse Elemente von g; sei e ∈ G
das neutrale Element von (G, · ). Dann folgt

h=h·e (da e neutral ist)


= h · (g · k) (da k invers zu g ist)
= (h · g) · k (da · “ assoziativ ist)

=e·k (da h invers zu g ist)
=k (da e neutral ist),

wie behauptet.

Um zu verstehen, was dieser Text besagt, müssen wir also verstehen, wie
mathematische Aussagen und Behauptungen formuliert bzw. bewiesen wer-
den können (mathematische Logik) und wie man mathematische Objekte
über Mengen beschreiben/konstruieren kann (Mengenlehre). Deshalb werden
wir, bevor wir in die eigentliche lineare Algebra einsteigen, zunächst logische
und mengentheoretische Grundlagen lernen.

1.2 Logische Grundlagen


Die mathematische Logik beschäftigt sich mit den folgenden (miteinander
zusammenhängenden) Fragen:

ˆ Wie kann man die mathematische Sprache formalisieren?

ˆ Was ist eine wahre“ mathematische Aussage?



ˆ Was ist ein Beweis?

ˆ Was kann man beweisen? Gibt es Grenzen der Beweisbarkeit?

ˆ Kann man beweisen, dass die Mathematik widerspruchsfrei ist?

Wir folgen dem allgemeinen Prinzip, mit einfachen Teilaspekten zu begin-


nen und dann Schritt für Schritt daraus komplexere Strukturen und Theorien
aufzubauen ( divide and conquer“).

8 1. Grundlagen: Logik und Mengenlehre

1.2.1 Aussagenlogik
Die Aussagenlogik ist ein einfaches logisches System, das die Grundlagen des
logischen Denkens formalisiert. Aussagenlogik besteht aus
ˆ einer syntaktischen Ebene (Wie dürfen Aussagen aussehen?) und
ˆ einer semantischen Ebene (Ist eine Aussage wahr?).
Wir beschreiben diese Ebenen im folgenden etwas detaillierter.
Zunächst definieren wir aussagenlogische Formeln – nach dem divide and

conquer“-Prinzip. Ausgehend von aussagenlogischen Variablen (das sind ein-
fach Symbole, z.B. Großbuchstaben) erklären wir wie man Schritt für Schritt
kompliziertere Formeln zusammensetzen kann:
Definition 1.2.1 (Syntax aussagenlogischer Formeln).
ˆ Aussagenlogische Variablen sind aussagenlogische Formeln.
ˆ Sind A und B aussagenlogische Formeln, so auch

(¬A), (A ∧ B), (A ∨ B), (A =⇒ B), (A ⇐⇒ B).

ˆ Keine weiteren Symbolketten sind aussagenlogische Formeln.


[Falls keine Missverständnisse möglich sind, setzt man zur besseren Lesbarkeit
manchmal Klammern etwas freizügiger.]
Anmerkung zum Lernen. Um mathematische Inhalte zu verstehen, ist es un-
erlässlich, sich alle in den Vorlesungen behandelten Definitionen präzise zu
merken. Sie sollten daher schon jetzt beginnen, sich systematisch waḧrend/nach
jeder Vorlesung, die neu eingeführten Begriffe einzuprägen (notfalls mit Kar-
teikarten)!
Um den Begriff der aussagenlogischen Formeln besser kennenzulernen, pro-
bieren wir ihn an ein paar einfachen Beispielen aus:
Beispiel 1.2.2. Seien A, B, C aussagenlogische Variablen.
ˆ Dann sind
  
¬(¬A) , A =⇒ (¬A) , A =⇒ (B =⇒ C)

aussagenlogische Formeln.
ˆ Aber A ∧ ∧B oder ∧A sind keine aussagenlogischen Formeln.
Anmerkung zum Lernen. Bei der Nachbereitung der Vorlesung helfen die
folgenden Fragen:
1.2. Logische Grundlagen 9

A ¬A
nicht“
” (insbesondere nehmen wir tertium non datur an)
w f
f w

A B A∧B A∨B A =⇒ B A ⇐⇒ B
und“ oder“ impliziert“ gilt genau dann, wenn“
” ” ” ”
wenn . . . , dann . . .“

w w w w w w
w f f w f f
f w f w w f
f f f f w w

Abbildung 1.1.: Die grundlegenden Wahrheitstafeln

ˆ Verstehe ich den Wortlaut der Definition?

ˆ Verstehe ich die Beispiele?

ˆ Kann ich selbst weitere, ähnliche, Beispiele erzeugen?

ˆ Verstehe ich den Zweck der Definition?

Bisher haben wir nur geklärt, wie aussagenlogische Formeln aussehen


dürfen. Als nächsten Schritt, werden wir beschreiben, wie solche Formeln
interpretiert werden können:

Definition 1.2.3 (Semantik aussagenlogischer Formeln).

ˆ Variablen können mit den Wahrheitswerten w ( wahr“) bzw. f ( falsch“)


” ”
belegt werden.

ˆ Belegen wir alle in einer aussagenlogischen Formel vorkommenden Va-


riablen mit w bzw. f (wobei verschiedene Auftreten derselben Variablen
in einer Formel denselben Wert erhalten müssen), so erhalten wir einen
Wahrheitswert, indem wir Schritt für Schritt die semantischen Regeln
( Wahrheitstafeln“) aus Abbildung 1.1 anwenden.

Bemerkung 1.2.4 (Anschauung der Wahrheitstafeln). Diese Definition der Se-


mantik kann man sich gut veranschaulichen, indem man aussagenlogische
Variablen durch gewöhnliche deutsche Sätze ersetzt: Zum Beispiel erhalten
wir durch

ˆ A: Die Erde ist eine Scheibe.

ˆ B: Regensburg liegt an der Donau.


10 1. Grundlagen: Logik und Mengenlehre

A B A =⇒ B B =⇒ A (A =⇒ B) ⇐⇒ (B =⇒ A)
w w
w f f w f (!)
f w
f f

Abbildung 1.2.: Wenn“ und dann“ dürfen nicht vertauscht werden!


” ”

die folgenden Aussagen und zugehörigen Übersetzungen:


ˆ A =⇒ B: Wenn die Erde eine Scheibe ist, dann liegt Regensburg an
der Donau.
ˆ ¬B =⇒ ¬A: Wenn Regensburg nicht an der Donau liegt, dann ist die
Erde keine Scheibe.
Der Wahrheitswert dieser zusammengesetzten Aussagen lässt sich dann mit
den obigen Wahrheitstafeln aus dem Wahrheitswert der eingesetzten Aussa-
gen bestimmen.
Definition 1.2.5 (Tautologie). Eine aussagenlogische Formel A ist eine (aus-
sagenlogische) Tautologie, wenn sich unter allen möglichen w/f-Belegungen
aller auftretenden aussagenlogischen Variablen in A der Wert w ergibt.
Beispiel 1.2.6 (wichtige Tautologien). Für alle aussagenlogischen Formeln A
und B sind

(A =⇒ B) ⇐⇒ (¬B =⇒ ¬A) Kontraposition



(A =⇒ B) ⇐⇒ (¬A) ∨ B

(¬A) =⇒ (B ∧ ¬B) =⇒ A reductio ad absurdum

¬(A ∧ B) ⇐⇒ (¬A) ∨ (¬B) de Morgansche Regeln

¬(A ∨ B) ⇐⇒ (¬A) ∧ (¬B) de Morgansche Regeln

aussagenlogische Tautologien (dies kann z.B. über entsprechende Wahrheits-


tafeln nachgewiesen werden).
Caveat 1.2.7 (Umdrehen der Implikationsrichtung). Sind A und B aussagen-
logische Variablen, so ist (A =⇒ B) ⇐⇒ (B =⇒ A) keine Tautologie! Dies
ist in umgangssprachlichen Interpretationen auch sofort ersichtlich – wenn“

und dann“ können im allgemeinen nicht vertauscht werden!

Formal kann man dies einsehen, indem man die zugehörigen Wahrheitsta-
feln betrachtet (Abbildung 1.2).

Caveat 1.2.8. Es gibt Zweige der Mathematik/Informatik, in denen das ter-


tium non datur nicht als Axiom angenommen wird; inbesondere steht in
1.2. Logische Grundlagen 11

solchen Kontexten der Widerspruchsbeweis (s.u.) nicht in derselben Form als


Beweistechnik zur Verfügung!

1.2.2 Quantorenlogik
Wir werden nun die Aussagenlogik etwas erweitern und verfeinern, um typi-
sche All- und Existenzaussagen besser formalisieren zu können. Zum Beispiel
würden wir gerne Aussagen wie
Für jede natürliche Zahl x gilt x + 0 = x.
formulieren und mit Wahrheitswerten belegen können.
Wie im Fall der Aussagenlogik besteht auch die Quantorenlogik aus einer
syntaktischen und einer semantischen Ebene. Da die exakten Definitionen je-
doch sehr aufwendig sind [7, 4], begnügen wir uns hier mit einer vereinfachten,
pragmatischen Darstellung.
Definition“ 1.2.9 (Syntax quantorenlogischer Aussagen). Sei T eine mathe-

matische Sprache/Theorie (z.B. die Sprache/Theorie der natürlichen Zahlen).
ˆ Atomare Aussagen“ aus der Theorie T sind quantorenlogische Aussa-

gen über T ; diese dürfen auch Variablen enthalten.
ˆ Ist A eine quantorenlogische Aussage über T und ist x eine (in A freie“)

Variable, so sind auch
 
∀x A(x) bzw. ∃x A(x)

quantorenlogische Aussagen über T .


ˆ Sind A und B quantorenlogische Aussagen über T , so auch

(¬A), (A ∧ B), (A ∨ B), (A =⇒ B), (A ⇐⇒ B).

ˆ Keine weiteren Symbolketten sind quantorenlogische Aussagen über T .


[Falls keine Missverständnisse möglich sind, setzt man zur besseren Lesbarkeit
manchmal Klammern etwas freizügiger.]
Wir gehen nun noch kurz auf die hier nicht präzise eingführten Begrif-
fe atomare Aussagen“ bzw. freie Variablen“ im Beispiel der Sprache der
” ”
natürlichen Zahlen ein:
Beispiel 1.2.10. In der Theorie der natürlichen Zahlen gibt es die Symbole 0,
1, +, =, . . . , und Variablen aus denen man atomare Aussagen bilden kann;
dabei ist zu berücksichtigen, dass diese Symbole nur auf bestimmte Weisen
kombiniert werden können. Zum Beispiel sind
12 1. Grundlagen: Logik und Mengenlehre

0 + 1 = 1, x+0=x

atomare Aussagen aus der Theorie der natürlichen Zahlen, aber 0 + +0“ ist

keine zulässige atomare Aussage.
Die Variable x ist frei in der Aussage x + 0 = x, da sie durch keinen
Quantor gebunden ist. Daher ist

∀x x + 0 = x

eine quantorenlogische Aussage über T .


Im Gegensatz dazu ist
 die Variable x nicht frei in der quantorenlogischen

Aussage ∀x x+ 0 = x , und somit ist ∃x ∀x x+ 0 = x keine zulässige
quantorenlogische Aussage.
Definition“ 1.2.11 (Semantik quantorenlogischer Aussagen). Sei T eine ma-

thematische Sprache/Theorie.
ˆ Die Semantik von ¬, ∧, ∨, =⇒, ⇐⇒ für quantorenlogische Aussagen
über T wird analog zur Aussagenlogik definiert.
ˆ Zusätzlich gelten die folgenden Interpretationen:
∀x A(x) gilt genau dann, wenn: für alle x gilt A(x)
∃x A(x) gilt genau dann, wenn: es existiert (mindestens) ein x mit A(x)
¬(∀x A(x)) gilt genau dann, wenn: ∃x ¬A(x) gilt
¬(∃x A(x)) gilt genau dann, wenn: ∀x ¬A(x) gilt

Man kann dabei quantorenlogische Aussagen über T i.a. nur dann auf einen
Wahrheitswert reduzieren, wenn sie keine freien Variablen enthalten!
Beispiel 1.2.12. Wir betrachten wie in Beispiel 1.2.10 die Sprache/Theorie
der natürlichen Zahlen. Die Aussage

∀x x + 0 = x

ist wahr; im Gegensatz dazu ist die Aussage

∃x ¬(x = x)

nicht wahr. Der Aussage x + 0 = 1 können wir keinen Wahrheitswert zuord-


nen, da diese Aussage eine freie Variable (nämlich x) enthält.
Caveat 1.2.13 (Reihenfolge der Quantoren). Im allgemeinen darf die Reihen-
folge von Quantoren nicht vertauscht werden! Man betrachte dazu zum Bei-
spiel die quantorenlogischen Aussagen

∀x ∃y A(x, y) bzw. ∃y ∀x A(x, y),

wobei A(x, y) bedeute, dass x eine Frau ist, y ein Mann und x eine Affäre
mit y hat.
1.2. Logische Grundlagen 13

Caveat 1.2.14 (Quantoren gehören nach vorne!). Formeln wie A(x) ∀x“

oder gar ∃x A(x, y) ∀y“ ergeben keinen Sinn (selbst wenn es die deutsche

Sprache manchmal nahelegt . . . )!

1.2.3 Was ist ein Beweis?


Wir beschreiben im folgenden den klassischen Beweiskalkül der Mathematik;
er ist eine Formalisierung der gängigen logischen Schlussweisen und erklärt,
welche Beweisschritte/Argumente zulässig sind. Wir geben zunächst die for-
male Definition und zeigen dann an einem Beispiel wie man in der Praxis
damit umgehen kann.
Gegeben seien

ˆ eine mathematische Sprache/Theorie T ,

ˆ Axiome/Voraussetzungen V (gegeben durch quantorenlogische Aussa-


gen über T ),

ˆ eine Behauptung B (d.h. eine quantorenlogische Aussage über T ).

Was bedeutet es nun, dass B logisch aus V folgt“? Bzw. wie kann man

nachweisen, dass B logisch aus V folgt“?

Der Nachweis, dass B logisch aus V folgt, wird in Form eines Beweises
gegeben:

Definition 1.2.15 (Beweis). Sei T eine mathematische Sprache/Theorie, seien


V Axiome über T und sei B eine quantorenlogische Aussage über T . Ein
Beweis von B aus V über T ist eine endliche Folge von quantorenlogischen
Aussagen über T mit folgenden Eigenschaften: Jede dieser Aussagen ist

ˆ ein Axiom (d.h. eine Aussage aus V ), 1

ˆ oder ein quantorenlogisches Axiom


[die quantorenlogischen Axiome sind:
– für alle Formeln t in T (die beim Einsetzen keine ungewollten“

Variablenbindungen erzeugen):

∀x A(x) =⇒ A(t)

– für alle quantorenlogischen Aussagen A und A0 :


 
∀x (A =⇒ A0 (x)) ⇐⇒ A =⇒ ∀x A0 (x)

(wobei x nicht frei in A vorkommen darf).],


1 oder ein identitätslogisches Axiom; darauf soll hier aber nicht eingegangen werden.
14 1. Grundlagen: Logik und Mengenlehre

ˆ oder eine aussagenlogische Tautologie über T


[d.h. eine aussagenlogische Tautologie, in der alle aussagenlogischen Va-
riablen durch quantorenlogische Aussagen über T ersetzt werden],

oder

ˆ man erhält sie aus vorherigen Aussagen des Beweises mit Hilfe des
Modus Ponens 2 : Enthalten die vorherigen Aussagen eine Aussage der
Form A =⇒ A0 und die Aussage A, so kann man A0 zum Beweis hin-
zufügen.

und die letzte Aussage ist B.

Diese Definition erklärt, wann eine Behauptung aus einem angenommenen


Axiomensysten folgt; ob das verwendete Axiomensystem sinnvoll ist oder
nicht, wird dabei nicht berücksichtigt.

Beispiel 1.2.16 (ein erster Beweis). Wir betrachten das folgende Axiomensy-
stem über die Theorie der Pinguine:

ˆ Axiome/Voraussetzungen:
À Pinguine, die bellen, beißen nicht.
D.h. es gilt ∀x A(x), wobei
 
A(x) := (x ist Pinguin) =⇒ (x bellt) =⇒ ¬(x beißt) .

Á Tux ist ein Pinguin.


 Tux beißt.

ˆ Behauptung: Tux bellt nicht.

ˆ Beweis.
– [Axiom À]
∀x A(x)

– [quantorenlogisches Axiom]

∀x A(x) =⇒ A(Tux)

– [Modus ponens]
A(Tux)
Ausformuliert bedeutet dies:

(Tux ist Pinguin) =⇒ (Tux bellt) =⇒ ¬(Tux beißt)
2 oder der Generalisierungsregel; auf diese soll hier aber nicht eingegangen werden. (Die
Generalisierungsregel beschreibt, wann der Allquantor ∀“ eingeführt werden darf.)

1.2. Logische Grundlagen 15

– [Axiom Á]
Tux ist ein Pinguin

– [Modus Ponens]

(Tux bellt) =⇒ ¬(Tux beißt)

– [Tautologie: (B =⇒ ¬C) =⇒ (C =⇒ ¬B)]



(Tux bellt) =⇒ ¬(Tux beißt)

=⇒ (Tux beißt) =⇒ ¬(Tux bellt)

– [Modus Ponens]

(Tux beißt) =⇒ ¬(Tux bellt)

– [Axiom Â]
Tux beißt

– [Modus ponens]
¬(Tux bellt)

Im Normalfall werden Beweise natürlich nicht in dieser Form aufgeschrieben,


sondern sprachlich poliert und vereinfacht:

ˆ Beweis. Da Tux nach Axiom Á ein Pinguin ist, erhalten wir mit Axi-
om À:
Wenn Tux bellt, beißt Tux nicht.
Mit Kontraposition folgt daraus:
Wenn Tux beißt, bellt Tux nicht.
Da Tux nach Axiom  beißt, liefert dies, dass Tux nicht bellt.

Der formale Zugang zu Beweisen ist jedoch nötig, um überhaupt einen be-
lastbaren Beweisbegriff einführen zu können und hat den zusätzlichen Vorteil,
dass explizit formalisierte Beweise maschinell überprüft werden können.

Anmerkung zum Lernen. Bei jedem Beweis, dem Sie begegnen, sollten Sie
kritisch hinterfragen, ob Sie wirklich alle Beweisschritte verstehen, ob der
Beweis vollständig ist, und was die grundlegende Idee dahinter ist. Sobald
Sie mehr Beweise kennen, sollten Sie außerdem überlegen, ob es sich um eine
Beweistechnik handelt, die in gleicher oder ähnlicher Form bereits in einer
anderen Situation verwendet wurde.

Bemerkung 1.2.17 (Beweisschemata). Häufig werden die folgenden Beweis-


schemata verwendet:
16 1. Grundlagen: Logik und Mengenlehre

ˆ Beweis von Äquivalenzen. Oft zerlegt man den Beweis von Aussagen der
Form Es gilt A genau dann, wenn B gilt.“ in den Beweis von Wenn
” ”
A gilt, dann gilt auch B.“ und Wenn B gilt, dann gilt auch A“. Dies

leitet sich von der aussagenlogischen Tautologie

(A ⇐⇒ B) ⇐⇒ (A =⇒ B) ∧ (B =⇒ A)

ab.

ˆ Widerspruchsbeweis. Kann man aus der Annahme, dass die Aussage ¬A


gilt, einen Widerspruch (also eine Aussage der Form B∧¬B) ableiten, so
folgt, dass A gilt. Dies leitet sich von der aussagenlogischen Tautologie

(¬A) =⇒ (B ∧ ¬B) =⇒ A

ab (reductio ad absurdum). Wird ein Widerspruchsbeweis geführt, so


ist die Widerspruchsannahme deutlich zu kennzeichnen (z.B. durch das
Schlüsselwort Angenommen, . . .“). Selbst wenn man als erstes einen

Widerspruchsbeweis für eine Behauptung findet, sollte man überprüfen,
ob es nicht ein (in vielen Fällen einfacheres!) direktes Argument gibt.

Literaturaufgabe. Lesen Sie das Buch Das ist o.B.d.A. trivial!“ von Beu-

telspacher [1].

1.3 Mengentheoretische Grundlagen


Die Mengenlehre beschreibt die grundlegenden Bausteine, aus denen alle ma-
thematischen Objekte aufgebaut sind:

ˆ Mengen und

ˆ Abbildungen

1.3.1 Naive Mengenlehre

Wir beginnen mit der sogenannten naiven Mengenlehre, die auf folgender
Begriffsbildung beruht:

Definition“ 1.3.1 (Cantor, 1895). Unter einer Menge verstehen wir jede Zu-

sammenfassung M von bestimmten wohlunterschiedenen Objekten m unserer
Anschauung oder unseres Denkens (welche Elemente von M genannt werden)
zu einem Ganzen.
1.3. Mengentheoretische Grundlagen 17

Caveat 1.3.2. Obige Definition“ ist keine Definition im mathematischen



Sinne, da einige der auftretenden Begriffe nicht erklärt sind (bzw. nicht er-
klärbar sind). Wir werden zunächst mit diesem naiven Mengenbegriff arbei-
ten und erst später auf einen exakten Zugang eingehen. Es wird sich dabei
insbesondere zeigen, dass man die naheliegende Frage
Was ist eine Menge?
besser durch die Frage
Wie kann man mit Mengen umgehen?
ersetzt.
Definition 1.3.3 (Gleichheit von Mengen). Zwei Mengen sind genau dann
gleich, wenn sie dieselben Elemente enthalten.
Bemerkung 1.3.4 (Beweis von Gleichheit von Mengen). Um zu beweisen, dass
zwei Mengen A und B gleich sind, ist also zu zeigen, dass
ˆ alle Elemente von A in B liegen und dass
ˆ alle Elemente von B in A liegen.

Notation 1.3.5 (Grundlegende Notationen in der Mengenlehre). Im folgenden


seien A und B Mengen. In Abbildung 1.3 sind die grundlegenden Notatio-
nen für Mengen und einfache Mengenkonstruktionen aufgelistet. Eine Veran-
schaulichung dieser Begriffe findet sich in Abbildung 1.4 bzw. 1.5.

Beispiel 1.3.6. Wir betrachten die Mengen (wobei wir 0, 1, 2 als Symbole
ansehen)
A := {0, 1} und B := {0, 2}.
Da Mengen genau dann gleich sind, wenn sie die gleichen Elemente enthalten,
folgt
A = {1, 0} = {1, 0, 1} = {0, 0, 0, 1, 1, 1, 0} = . . .
Es gilt nicht A ⊂ B (da 1 ∈ A aber 1 6∈ B); analog gilt auch nicht B ⊂ A.
Nach Definition ist

A ∩ B = {0}
A ∪ B = {0, 1, 2}
A \ B = {1}

P (A) = ∅, {0}, {1}, {0, 1}

P (B) = ∅, {0}, {2}, {0, 2}

A × B = (0, 0), (0, 2), (1, 0), (1, 2) .
18 1. Grundlagen: Logik und Mengenlehre

Notation Bedeutung/Definition
x∈A x ist ein Element von A
A⊂B A ist eine Teilmenge von B, d.h. alle Elemente
von A sind Elemente von B
{x, y, z, . . . } die Menge mit den Elementen x, y, z, . . .
{x | C(x)} die Menge aller x, für die C(x) gilt
A∩B die Schnittmenge von
A und B, d.h. die Menge
A ∩ B := x (x ∈ A) ∧ (x ∈ B)
A∪B die Vereinigung von A und B, d.h. die Menge
A ∪ B := x (x ∈ A) ∨ (x ∈ B)
A\B das Komplement von B in A (oder A ohne B),
d.h. die Menge 
A \ B := x (x ∈ A) ∧ (x 6∈ B)
∅ oder {} die leere Menge, d.h. die Menge, die keine Ele-
mente enthält
P (A) die Potenzmenge von A, d.h. die Menge aller
Teilmengen von A:
P (A) := {x | x ⊂ A}
A×B das (kartesische)
 Produkt
von A und B, d.h.
A × B := (x, y) (x ∈ A) ∧ (y ∈ B)
Dabei sind Paare (x, y) und (x0 , y 0 ) genau
dann gleich, wenn x = x0 und y = y 0 gilt.

Abbildung 1.3.: Grundlegende Notationen in der Mengenlehre. Hierbei be-


deutet x := y“, dass x durch y definiert wird. Die Notati-

on x 6∈ B“ ist eine Abkürzung für ¬(x ∈ B)“.
” ”

Bemerkung 1.3.7. Die Definition der Schnittmenge, der Vereinigung und des
Komplements von Mengen lässt erkennen, wie man eine Korrespondenz zwi-
schen logischen Operationen und Mengenkonstruktionen herstellen kann. Ins-
besondere liefert dies auch gut Eselsbrücken für die logischen Symbole ∧“

bzw. ∨“ über die geläufigeren Symbole ∪“ bzw. ∩“ aus der Mengenlehre.
” ” ”
Caveat 1.3.8. Es ist P (∅) = {∅} 6= ∅, denn {∅} enthält ein Element
(nämlich ∅), aber ∅ enthält keine Elemente.

Definition 1.3.9 (disjunkt). Mengen A und B heißen disjunkt, wenn A∩B = ∅.


Proposition 1.3.10 (Eigenschaften der Mengenoperationen). Seien A, B, C
Mengen.
1. Ist A ⊂ B und B ⊂ C, so folgt A ⊂ C.
2. Es gilt ( Kommutativität von ∪“ bzw. ∩“)
” ”
A∪B =B∪A und A ∩ B = B ∩ A.
1.3. Mengentheoretische Grundlagen 19

A B A B A B A B

A∩B A∪B A\B

Abbildung 1.4.: Grundlegende Notationen in der Mengenlehre, schematisch

B A×B
(x, y)
y

x A

Abbildung 1.5.: Kartesisches Produkt, schematisch

3. Es gilt ( Assoziativität von ∪“ bzw. ∩“)


” ”
(A ∪ B) ∪ C = A ∪ (B ∪ C) und (A ∩ B) ∩ C = A ∩ (B ∩ C).

4. Es gilt

(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C),
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C).

Beweis. Der Beweis dieser Proposition erfolgt, indem man die Behauptungen
elementweise überprüft (s. Analysis I) oder indem man geeignete aussagenlo-
gische Tautologien auf die definierenden Eigenschaften der Mengen anwendet.
Stellvertretend geben wir den Beweis des ersten Teils:
Zu 1. Es gelte A ⊂ B und B ⊂ C. Sei x ∈ A. Wegen A ⊂ B ist dann
auch x ∈ B. Wegen B ⊂ C ist somit x ∈ C.
Also gilt: Für alle x ∈ A ist x ∈ C. D.h. es gilt A ⊂ C.

Anmerkung zum Lernen. Ebenso wie die Definitionen, sollten Sie sich auch
die Aussagen der Propositionen, Sätze, Lemmata, . . . einprägen; wichtig ist
dabei nicht der genaue Wortlaut, sondern der genaue mathematische Inhalt!
Zusätzlich sollten Sie überprüfen, ob Sie die Aussage wirklich verstehen (z.B.,
indem Sie die Aussage an Beispielen ausprobieren), und ob Sie den Beweis
nachvollziehen können.
20 1. Grundlagen: Logik und Mengenlehre

Notation 1.3.11. Ist A eine Menge, so schreiben wir auch oft



∀x∈A . . .“ statt ∀x (x ∈ A) =⇒ . . . “
” ”
{x ∈ A | . . . }“ statt x (x ∈ A) ∧ . . . “.
” ”
Caveat 1.3.12 (Russellsches Paradoxon). Die Betrachtung von

{x | x ist eine Menge und x 6∈ x}

führt zu einem Widerspruch(!), denn:


Angenommen, A := {x | x ist eine Menge und x 6∈ x} ist eine Menge.
Dann gilt A ∈ A oder A 6∈ A.
À Ist A ∈ A, so gilt nach Definition von A, dass A 6∈ A ist, im Widerspruch
zu A ∈ A.
Á Ist A 6∈ A, so gilt nach Definition von A, dass A ∈ A ist, im Widerspruch
zu A 6∈ A.
Die Annahme, dass A eine Menge ist, führt somit zu einem Widerspruch.
Also kann diese Annahme somit nicht zutreffen und es folgt, dass A keine
Menge ist.
Dies ist ein ernsthaftes Problem, denn: Ein einziger Widerspruch genügt,
um die gesamte Mathematik zusammenstürzen zu lassen! Nach der Wahr-
heitstafel für =⇒“ kann nämlich aus falschen Aussagen alles gefolgert wer-

den.
Man darf also nicht wie in Cantors Definition“ von Mengen alle Kon-

strukte als Mengen zulassen. Der Knackpunkt in Russells Paradoxon ist eine
gewisse Selbstbezüglichkeit. Ein möglicher Ausweg ist, ein zweistufiges Sy-
stem einzuführen (Kapitel ??).

1.3.2 Abbildungen
Es ist ein allgemeines Prinzip in der Mathematik, nicht nur Objekte zu be-
trachten, sondern auch zu studieren, wie gewisse Objekte zueinander in Be-
ziehung stehen; im Fall der Mengenlehre sind die
ˆ Objekte Mengen und die
ˆ Beziehungen“ sind Abbildungen (bzw. allgemeiner Relationen).

Definition“ 1.3.13 (Abbildung, naive Definition). Seien X und Y Mengen.

Eine Abbildung X −→ Y ordnet jedem Element aus X genau ein Element
aus Y zu.
Caveat 1.3.14. Dies ist keine mathematische Definition, denn zuordnen“

besitzt keine mathematisch exakte Bedeutung!
1.3. Mengentheoretische Grundlagen 21

Y f X ×Y
(x, f (x))
f (x)

x X

Abbildung 1.6.: Abbildungen, mengentheoretisch

Eine saubere Definition erhält man zum Beispiel, indem man Abbil-
dungen mengentheoretisch durch ihre Abbildungsgraphen beschreibt (Ab-
bildung 1.6).
Definition 1.3.15 (Abbildung). Seien X und Y Mengen.
ˆ Eine Abbildung X −→ Y ist eine Teilmenge f ⊂ X × Y mit folgender
Eigenschaft: Für jedes x ∈ X gibt es genau ein y ∈ Y mit (x, y) ∈ f ;
man schreibt in diesem Fall f (x) := y oder x 7−→ y.
ˆ Zwei Abbildungen f, g : X −→ Y sind genau dann gleich, wenn die
zugehörigen Teilmengen von X ×Y gleich sind, d.h., wenn für alle x ∈ X
gilt, dass
f (x) = g(x).

Definition 1.3.16 (Identität). Sei X eine Menge. Die Identität (auf X) ist die
wie folgt definierte Abbildung idX :

idX : X −→ X
x 7−→ x.

(D.h. idX ist durch die diagonale“ Teilmenge {(x, x) | x ∈ X} ⊂ X × X



gegeben.)
Beispiel 1.3.17 (einfache Abbildungen). Sei X := {0, 1, 2} und Y := {0, 2}.
Dann sind 
f := (0, 0), (1, 2), (2, 2)
bzw. (in übersichtlicherer Notation)

f : X −→ Y
0 7−→ 0
1 7−→ 2
2 7−→ 2
22 1. Grundlagen: Logik und Mengenlehre

Y X ×Y
(x, y)
y
π2

π1

x X

Abbildung 1.7.: Die kanonischen Projektionen, schematisch

und 
g := (0, 0), (2, 2)
bzw.

g : Y −→ X
0 7−→ 0
2 7−→ 2

Abbildungen X −→ Y . Aber die Teilmenge {(0, 2), (0, 0)} von X × Y be-
schreibt keine Abbildung X −→ Y .

Definition 1.3.18 (kanonische Projektionen). Seien X und Y Mengen. Dann


definieren wir die kanonischen Projektionen

π1 : X × Y −→ X
(x, y) 7−→ x

bzw.

π2 : X × Y −→ Y
(x, y) 7−→ y

auf die Faktoren (Abbildung 1.7).

Wichtige Techniken um aus Abbildungen weitere Abbildungen zu Kon-


struieren sind Komposition und Restriktion:

Definition 1.3.19 (Komposition von Abbildungen). Seien X, Y , Z Mengen


und seien f : X −→ Y und g : Y −→ Z Abbildungen. Die Komposition von g
mit f ist die Abbildung ( g nach f“)

1.3. Mengentheoretische Grundlagen 23

g ◦ f : X −→ Z

x 7−→ g f (x) .

D.h. g ◦ f entspricht der Teilmenge {(x, z) | ((x, y) ∈ f ) ∧ ((y, z) ∈ g)}


von X × Z.

Beispiel 1.3.20. Für die Abbildungen f und g aus Beispiel 1.3.17 erhalten
wir die Kompositionen

g ◦ f : X −→ X
0 7−→ 0
1 7−→ 2
2 7−→ 2

und

f ◦ g : Y −→ Y
0 7−→ 0
2 7−→ 2,

d.h. f ◦ g = idY .

Bemerkung 1.3.21. Die Komposition von Abbildungen ist assoziativ, d.h.


für alle Abbildungen f : X −→ Y , g : Y −→ Z, h : Z −→ U gilt

(h ◦ g) ◦ f = h ◦ (g ◦ f ).

Außerdem gilt für alle Abbildungen f : X −→ Y , dass

f ◦ idX = f und idY ◦f = f.

Diese Eigenschaften der Abbildungskomposition lassen sich leicht element-


weise überprüfen.

Definition 1.3.22 (Einschränkung von Abbildungen). Seien X und Y Mengen,


sei f : X −→ Y eine Abbildung und sei A ⊂ X eine Teilmenge. Die Ein-
schränkung von f auf A ist die Abbildung f |A , die wie folgt definiert ist:

f |A : A −→ Y
x 7−→ f (x).

Wir nennen in diesem Fall auch f eine Fortsetzung von f |A auf X.

Oft ist es günstig, Abbildungen nicht nur auf Elemente, sondern auch auf
Teilmengen anwenden zu können. Dies führt zu den Begriffen Bild und Urbild
(Abbildung 1.8):
24 1. Grundlagen: Logik und Mengenlehre

X f −1 (B) X
A

f f

f (A) Y B Y

Abbildung 1.8.: Bilder/Urbilder von Abbildungen, schematisch

Definition 1.3.23 (Bild/Urbild). Seien X und Y Mengen und sei f : X −→ Y


eine Abbildung.

ˆ Ist A ⊂ X, so ist f (A) := f (x) x ∈ A ⊂ Y das Bild von A unter f .

ˆ Ist B ⊂ Y , so ist f −1 (B) := x ∈ X f (x) ∈ B ⊂ X das Urbild
von B unter f .

Beispiel 1.3.24. Wir betrachten die Abbildung f aus Beispiel 1.3.17. Dann
ist  
f {0, 1} = {0, 2} und f −1 {2} = {1, 2}.

Caveat 1.3.25. Bild-Nehmen verträgt sich im allgemeinen nicht gut mit


Mengenoperationen wie ∩“. Urbild-Nehmen ist jedoch kompatibel mit ∩“
” ”
und ∪“.

Zum Abschluss dieser Einführung in Abbildungen führen wir noch wichtige
Eigenschaften von Abbildungen ein:

Definition 1.3.26 (injektiv/surjektiv/bijektiv). Seien X und Y Mengen.

ˆ Eine Abbildung f : X −→ Y ist surjektiv, wenn f (X) = Y ist, d.h.,


wenn es zu jedem y ∈ Y ein x ∈ X mit f (x) = y gibt.

ˆ Eine Abbildung f : X −→ Y ist injektiv, wenn jedes Element aus Y


höchstens ein Urbild unter f besitzt, d.h., wenn für alle x, x0 ∈ X gilt:
Ist f (x) = f (x0 ), so ist x = x0 .

ˆ Eine Abbildung X −→ Y ist bijektiv, wenn sie injektiv und surjek-


tiv ist (d.h., wenn jedes Element aus Y genau ein Urbild unter dieser
Abbildung besitzt).

Caveat 1.3.27. Injektiv ist nicht das Gegenteil“ von surjektiv!



1.3. Mengentheoretische Grundlagen 25

Beispiel 1.3.28. Ist X eine Menge, so ist idX : X −→ X sowohl injektiv als
auch surjektiv und somit bijektiv.

Beispiel 1.3.29. Wir betrachten die Abbildungen f und g aus Beispiel 1.3.17.
Die Abbildung f ist surjektiv, aber nicht injektiv (denn f (1) = 2 = f (2)).
Die Abbildung g ist injektiv, aber nicht surjektiv (denn 1 besitzt kein Urbild
unter g). Die Abbildung g ◦ f : X −→ X ist weder injektiv noch surjektiv.

Definition 1.3.30 (Umkehrabbildung/inverse Abbildung). Seien X und Y Men-


gen und sei f : X −→ Y eine Abbildung. Eine Abbildung g : Y −→ X ist eine
Umkehrabbildung/inverse Abbildung von f , wenn

g ◦ f = idX und f ◦ g = idY .

Beispiel 1.3.31. Ist X eine Menge, so ist idX eine (bzw. sogar die) Umkehr-
abbildung von idX : X −→ X.

Proposition 1.3.32 (Umkehrabbildungen und Bijektivität). Seien X und Y


Mengen und sei f : X −→ Y eine Abbildung.

1. Ist f bijektiv, so besitzt f eine Umkehrabbildung; außerdem ist die Um-


kehrabbildung von f eindeutig bestimmt. Man schreibt dann auch f −1
für die Umkehrabbildung von f .

2. Besitzt f eine Umkehrabbildung, so ist f bijektiv.

Beweis. Zu 1. Sei f bijektiv.


Existenz einer Umkehrabbildung. Wir betrachten dann die Menge

g := (y, x) (x, y) ∈ X × Y und f (x) = y ⊂ Y × X.

Dann ist g eine Abbildung Y −→ X, denn: Sei y ∈ Y .

ˆ Da f : X −→ Y surjektiv ist, gibt es ein x ∈ X mit f (x) = y, und daher


mit (y, x) ∈ g.

ˆ Da f : X −→ Y injektiv ist, gibt es höchstens ein x ∈ X mit f (x) = y


bzw. (y, x) ∈ g.

Also ist g : Y −→ X eine Abbildung.


Nach Konstruktion gilt g ◦ f = idX und f ◦ g = idY . Also ist g eine
Umkehrabbildung von f .
Eindeutigkeit der Umkehrabbildung. Sei g 0 : Y −→ X auch eine Umkehr-
abbildung von f . Wir zeigen, dass dann g = g 0 gilt: Mit Bemerkung 1.3.21
erhalten wir
26 1. Grundlagen: Logik und Mengenlehre

g = g ◦ idY (Bemerkung 1.3.21)


= g ◦ (f ◦ g 0 ) (da g 0 zu f invers ist)
= (g ◦ f ) ◦ g 0 (Bemerkung 1.3.21)
0
= idX ◦g (da g zu f invers ist)
0
=g, (Bemerkung 1.3.21)

da g und g 0 invers zu f sind. Also ist g = g 0 .


Zu 2. Es gebe eine Umkehrabbildung g : Y −→ X von f .

ˆ Dann ist f surjektiv, denn: Sei y ∈ Y . Mit x := g(y) ∈ X und f ◦g = idY


folgt

f (x) = f g(y) = f ◦ g(y) = idY (y)
=y

Also ist f surjektiv.

ˆ Und f ist injektiv, denn: Seien x, x0 ∈ X mit f (x) = f 0 (x). Wegen


g ◦ f = idX folgt

x = idX (x) = g ◦ f (x) = g f (x)

= g f (x0 ) = g ◦ f (x0 ) = idX (x0 )
= x0 .

Also ist f injektiv.

Insgesamt folgt somit, dass f bijektiv ist.

Bemerkung 1.3.33 (Eindeutigkeit und Artikel). Da Umkehrabbildungen von


bijektiven Abbildungen nach Proposition 1.3.32 eindeutig sind, werden wir
im folgenden für Umkehrabbildungen immer den bestimmten Artikel (die
Umkehrabbildung) verwenden statt den unbestimmten (eine Umkehrabbil-
dung).

Bemerkung 1.3.34 (kommutative Diagramme). Gleichheit zwischen (Kompo-


sitionen von) Abbildungen lässt sich oft gut durch kommutative Diagramme
veranschaulichen: Ein kommutatives Diagramm ist ein sogenannter gerichte-
ter (Multi-)Graph, wobei die Knoten Mengen repräsentieren und die Kanten
Abbildungen zwischen den entsprechenden Knoten repräsentieren. Ein sol-
ches Diagramm heißt kommutativ, wenn folgendes gilt: Für alle Knoten X, Y
und alle gerichteten Wege von X nach Y stimmen die Kompositionen der Ab-
bildungen zu den Kanten (in der durch den Weg vorgegebenen Reihenfolge)
überein. Zum Beispiel ist das Diagramm
1.3. Mengentheoretische Grundlagen 27

f
X /Y
g
h 
Z

genau dann kommutativ, wenn h = g ◦ f ist.


Ist f : X −→ Y eine Abbildung, so ist eine Abbildung g : Y −→ X genau
dann die Umkehrabbildung von f , wenn die Diagramme

idX
X /X
> >X
g
f f
g
 
Y Y /Y
idY

beide kommutativ sind. Kürzer: Eine Abbildung g : Y −→ X ist genau dann


die Umkehrabbildung von f : X −→ Y , wenn das Diagramm

idX
X /X
>
f f
g
 
Y /Y
idY

kommutativ ist.

1.3.3 Axiomatische Mengenlehre


Was ist axiomatische Mengenlehre? Statt wie in Cantors Definition anzuge-
ben, was eine Menge ist, beschreibt man die Mengenlehre durch eine Liste
von Axiomen, die angeben, wie man mit Mengen umgehen kann.
Wir geben im folgenden die Axiome für die Mengenlehre nach von Neu-
mann, Bernays und Gödel an3 : Es gibt zwei Sorten von Objekten, Mengen
und Klassen; man sollte sich dabei Mengen als kleine Klassen“ vorstellen.

Nach dem Komprehensionsaxiom darf man Klassen sehr freizügig zusammen-
stellen – aber nicht jede Klasse ist eine Menge!
Axiome 1.3.35 (Axiome der Mengenlehre nach von Neumann, Bernays, Gödel).

ˆ Es gibt zwei Sorten von Objekten, Mengen und Klassen.


ˆ Jede Menge ist eine Klasse.
ˆ Elemente von Klassen sind Mengen.
3 Eineandere weitverbreitete Axiomatisierung stammt von Zermelo und Fraenkel; es ergibt
sich dabei dieselbe Mengenlehre (jedoch ohne Klassen).
28 1. Grundlagen: Logik und Mengenlehre

ˆ Extensionalität. Zwei Klassen sind genau dann gleich, wenn sie diesel-
ben Elemente enthalten.

ˆ Komprehension. Ist C eine quantorenlogische Aussage erster Stufe“ in



einer mengenwertigen Variablen und wird in C nicht über Klassenva-
riablen quantifiziert, so ist

x x ist eine Menge und es gilt C(x)

eine Klasse.

ˆ Die leere Klasse ∅ := {x | x ist eine Menge und x 6= x} ist eine Menge.

ˆ Jede Teilklasse einer Menge ist eine Menge; eine Klasse A ist eine Teil-
klasse einer Klasse B, wenn jedes Element von A ein Element von B
ist.

ˆ Paarmengenaxiom. Sind A und B Mengen, so ist auch {A, B} eine


Menge.

ˆ Vereinigungsaxiom. Ist A eine Menge, so ist auch


[ 
A := x ∃y ((x ∈ y) ∧ (y ∈ A))

eine Menge, die Vereinigungsmenge von A.

ˆ Potenzmengenaxiom. Ist A eine Menge, so ist auch P (A) := {x | x ⊂ A}


eine Menge, die Potenzmenge von A.

ˆ Ersetzungsaxiom. Ist F : X −→ Y eine Funktion zwischen den Klas-


sen X und Y und ist A ⊂ X eine Teilmenge, so ist auch F (A) eine
Menge.

ˆ Unendlichkeitsaxiom. Es gibt eine induktive Menge; eine Menge A heißt


induktiv, wenn ∅ ∈ A und wenn für alle x ∈ A auch x ∪ {x} ∈ A ist.

ˆ Auswahlaxiom. Ist A eine Menge mit ∅ 6∈ S


A, so gibt es eine Auswahlfunk-
tion für A, d.h. eine Funktion f : A −→ A mit folgender Eigenschaft:
Für alle x ∈ A ist f (x) ∈ x.

Caveat 1.3.36 (Widerspruchsfreiheit?). Man kann aus den Axiomen der Men-
genlehre nicht folgern, dass die Mengenlehre widerspruchsfrei ist! (Zweiter
Gödelscher Unvollständigkeitssatz). Die Mathematik beruht auf der Annah-
me, dass die Axiome der Mengenlehre widerspruchsfrei sind.

Proposition 1.3.37 (Existenz einer echten Klasse). Es gibt eine Klasse, die
keine Menge ist, nämlich zum Beispiel die Russellsche Klasse

{x | x ist eine Menge und x 6∈ x}.


1.3. Mengentheoretische Grundlagen 29

Beweis. Sei R := {x | x ist eine Menge und x 6∈ x}. Nach dem Komprehen-
sionsaxiom ist R eine Klasse.
Angenommen, R wäre eine Menge. Dann gilt R ∈ R oder R 6∈ R.
À Ist R ∈ R, so gilt nach Definition von R, dass R 6∈ R, im Widerspruch
zu R ∈ R.
Á Ist R 6∈ R, so gilt nach Definition von R, dass R ∈ R ist, im Widerspruch
zu R 6∈ R.
Also ist R keine Menge, und damit eine echte Klasse.
Eine naheliegende Frage ist, warum man das Russellsche Paradoxon nun
nicht einfach eine Ebene höher, also auf Klassenebene, reproduzieren kann,
indem man {x | x ist eine Klasse und x 6∈ x} betrachtet. Dabei ist jedoch
zu beachten, dass diese Konstruktion mit unserem Axiomensystem nicht
zulässig ist – denn Elemente von Klassen sind immer Mengen!
(Echte) Klassen, über die man in der Mathematik häufig spricht, sind zum
Beispiel
ˆ die Klasse aller Mengen,
ˆ die Klasse aller Gruppen,
ˆ die Klasse aller Vektorräume über einem gegebenen Grundkörper,
ˆ die Klasse aller topologischen Räume.
Wir gehen nun noch einmal kurz auf das Auswahlaxiom ein. Das Auswahl-
axiom scheint zunächst irgendwie offensichtlich zu sein: Ist A eine Menge und
gilt ∅ 6∈ A, so bedeutet dies gerade, dass es zu jedem x ∈ A ein yx ∈ x gibt.
Daher scheint es naheliegend, dass man durch x 7→ yx eine Auswahlfunkti-
on für A definieren kann. Das Problem dabei ist, dass Abbildungen Mengen
sind (nämlich Teilmengen des entsprechenden kartesischen Produktes) und
daher den Anforderungen an die Konstruktion von Mengen genügen müssen
(so wie sie durch die Axiome bereitgestellt werden). Dies ist in dem gerade
betrachteten Beispiel aber nicht klar. Genauer gilt sogar:
Caveat 1.3.38 (Unabhängigkeit des Auswahlaxioms). Das Auswahlaxiom ist
unabhängig“ von den anderen Axiomen der Mengenlehre (d.h. es kann weder

aus den übrigen Axiomen gefolgert noch widerlegt werden). Aufgrund der
nicht-konstruktiven Charakteristik und etwas ungewöhnlicher Konsequenzen
wird im Normalfall explizit angegeben, wenn ein Beweis das Auswahlaxiom
verwendet.
Als erste Anwendung des Auswahlaxioms geben wir eine nützliche Cha-
rakterisierung von Surjektivität:
Proposition 1.3.39 (Spalte und Surjektivität). Seien X, Y Mengen und sei
f : X −→ Y eine Abbildung. Dann sind folgende Aussagen äquivalent:
30 1. Grundlagen: Logik und Mengenlehre

1. Die Abbildung f : X −→ Y ist surjektiv.


2. Die Abbildung f : X −→ Y besitzt einen (Rechts)Spalt. Eine (Rechts)Spalt
von f ist dabei eine Abbildung s : Y −→ X mit

f ◦ s = idY .
4
Beweis (AC).
2 =⇒ 1“. Sei s : Y −→ X eine Abbildung mit f ◦ s = idY . Dann ist f

surjektiv, denn (s. Beweis von Proposition 1.3.32): Sei y ∈ Y . Für das
Element x := s(y) ∈ X erhalten wir dann

f (x) = f s(y) = f ◦ s(y) = idY (y) = y.

1 =⇒ 2“. Sei f : X −→ Y surjektiv. Dann besitzt f einen Spalt, denn: Wir



betrachten die Menge

A := f −1 ({y}) y ∈ Y .

Da f surjektiv ist, gilt für jedes y ∈ Y , dass f −1 ({y}) 6= ∅; also ist ∅ 6∈SA.
Nach dem Auswahlaxiom existiert somit eine Abbildung g : A −→ A
mit
∀z∈A g(z) ∈ z.
S
Nach Definition von A ist A = X. Daher ist

s : Y −→ X

y 7−→ g f −1 ({y})

eine Abbildung. Nach Konstruktion von g gilt dabei für alle y ∈ X,


dass 
f ◦ s(y) = f g f −1 ({y}) = y.
Also ist s ein Spalt von f .

Ausblick 1.3.40 (Verwandte des Auswahlaxioms). Wichtige, zum Auswahlaxi-


om äquivalente5 , Aussagen sind:
ˆ der Wohlordnungssatz,
ˆ das Zornsche Lemma (Satz 3.3.19),
ˆ der Satz von Tychonoff.

4 Die Abkürzung AC“ steht dabei für Axiom of Choice (Auswahlaxiom) und deutet an,

dass der Beweis das Auswahlaxiom verwendet.
5 D.h. diese Sätze sind äquivalent zum Auswahlaxiom, wenn man alle Axiome der Men-

genlehre bis auf das Auswahlaxiom annimmt


2
Zählen, Zahlen, Körper

Zentrale Objekte der Mathematik (und ihrer Anwendungen) sind Zahlen al-
ler Art. In diesem Kapitel werden wir Schritt für Schritt verschiedene Zah-
lenbereiche und ihre algebraische Struktur kennenlernen. Dazu erklären wir
zunächst den Zusammenhang zwischen Zählen“ und den natürlichen Zah-

len. Ausgehend von den natürlichen Zahlen werden wir dann die Konstruk-
tion der ganzen bzw. rationalen Zahlen durchführen. Gleichzeitig werden wir
dabei fundamentale Abstraktionsmechanismen kennenlernen und Gruppen
bzw. Körper einführen.

Überblick über dieses Kapitel.

2.1 Die natürlichen Zahlen und Induktion 32


2.2 Die ganzen Zahlen und Gruppen 37
2.3 Die rationalen Zahlen und Körper 45

Schlüsselbeispiel. natürliche Zahlen, ganze Zahlen, rationale Zahlen


32 2. Zählen, Zahlen, Körper

2.1 Die natürlichen Zahlen und Induktion


Die natürlichen Zahlen stellen eine Formalisierung des Zählens dar. Wir
werden zunächst diesen Zählbegriff erklären und dann daraus die grundle-
genden arithmetischen Operationen (Addition und Multiplikation) auf den
natürlichen Zahlen einführen.

2.1.1 Zählen und Induktion


Was ist wichtig beim Zählen? Zum Zählen benötigen wir

ˆ einen Startpunkt ( 0“),



ˆ das Weiterzählen ( +1“).

ˆ Zusätzlich ist es sinnvoll zu fordern, dass alle Anzahlen auf diese Weise
erreicht werden können.

Dies wird durch die Peano-Axiome formalisiert:

Axiome 2.1.1 (Peano-Axiome der natürlichen Zahlen). Ein Tripel1 (N, 0, s)


erfüllt die Peano-Axiome, wenn N eine Menge ist, 0 ∈ N ist und s : N −→ N
eine Abbildung ist, die die folgenden Eigenschaften besitzen:

À Es ist 0 6∈ s(N ).

Á Die Abbildung s : N −→ N ist injektiv.

 Induktionsprinzip. Ist A ⊂ N eine Teilmenge mit 0 ∈ A und s(A) ⊂ A,


so ist A = N .

Ist n ∈ N , so nennt man s(n) auch Nachfolger von n.

Es wird sich herausstellen, dass es bis auf kanonische, strukturerhaltende



Bijektionen“ genau ein Tripel gibt, das die Peano-Axiome erfüllt (Satz 2.1.4).
Das zentrale Axiom ist dabei das Induktionsprinzip. Etwas expliziter kann
es wie folgt formuliert werden:

Bemerkung 2.1.2 (Prinzip der vollständigen Induktion). Sei (N, 0, s) ein Tripel,
das die Peano-Axiome erfüllt. Sei E eine Eigenschaft“ von Elementen von N

(d.h. wir können E als Teilmenge von N auffassen), und es gelte:

ˆ Induktionsanfang. Das Element 0 hat die Eigenschaft E.


1 Tripel sind analog zu Paaren definiert, haben aber drei Komponenten. Analog erhält
man auch Qaudrupel, Quintupel, . . .
2.1. Die natürlichen Zahlen und Induktion 33

ˆ Induktionsschritt. Für alle n ∈ N gilt: Hat n die Eigenschaft E, so


auch s(n).
Dann haben alle Elemente von N die Eigenschaft E.
Mit Hilfe des Induktionsprinzips lassen sich auch Abbildungen induk-
tiv/rekursiv definieren:
Satz 2.1.3 (Rekursionssatz). Sei (N, 0, s) ein Tripel, das die Peano-Axiome
erfüllt. Sei A eine Menge, sei a ∈ A und sei g : A −→ A eine Abbildung.
Dann gibt es genau eine Abbildung f : N −→ A mit der Eigenschaft, dass
f (0) = a und, dass  
f s(n) = g f (n)
für alle n ∈ N gilt.

Beweisskizze. Mit Hilfe des Induktionsprinzips kann man sich vom vorgege-
benen Startwert 0 7−→ a Nachfolgerschritt für Nachfolgerschritt durch ganz N
hochhangeln“.

Satz 2.1.4 (Modelle der Peano-Axiome).
1. Es existiert ein Tripel, das die Peano-Axiome erfüllt.
2. Je zwei Tripel, die die Peano-Axiome erfüllen, sind kanonisch iso-
morph; genauer: Erfüllen (N, 0, s) und (N 0 , 00 , s0 ) die Peano-Axiome,
so gibt es genau eine Bijektion f : N −→ N 0 mit f (0) = 00 und der
Eigenschaft, dass für alle n ∈ N gilt, dass f (s(n)) = s0 (f (n)).
Der Beweis der ersten Aussage beruht auf dem Unendlichkeitsaxiom; der
Beweis der zweiten Aussage beruht auf dem Rekursionssatz. Eine Beweisskiz-
ze findet sich in Anhang A.2.
Definition 2.1.5 (Natürliche Zahlen). Das (bis auf kanonische Isomorphie) ein-
deutige Tripel, das die Peano-Axiome erfüllt, bezeichnen wir mit (N, 0, · + 1)
und nennen es natürliche Zahlen.
Notation 2.1.6. Im Normalfall bezeichnen wir natürliche Zahlen durch ihre
Dezimaldarstellung, d.h. N = {0, 1, 2, . . . } (und ignorieren auch den mengen-
theoretischen Standpunkt, dass Elemente von Mengen Mengen sind).
Caveat 2.1.7 (beginnen die natürlichen Zahlen mit 0 oder mit 1 ?). In manchen
Quellen wird die Konvention verwendet, dass die natürlichen Zahlen mit 1
beginnen. Achten Sie daher unbedingt darauf, welche Konvention jeweils ver-
wendet wird! Beide Konventionen haben ihre Vorzüge:
ˆ In der Analysis verwendet man oft Folgen wie (1/n)n∈N . An dieser Stelle
ist es günstig, wenn 0 keine natürliche Zahl ist (was soll 1/0 sein?!).
ˆ Vom algebraischen Standpunkt her ist es angenehmer, wenn 0 eine
natürliche Zahl ist, denn auf diese Weise enthalten die natürlichen Zah-
len ein neutrales Element bezüglich Addition.
34 2. Zählen, Zahlen, Körper

2.1.2 Arithmetische Operationen


Mithilfe des Rekursionssatzes können wir aus der Nachfolgerfunktion Schritt
für Schritt Addition, Multiplikation und Potenzen natürlicher Zahlen definie-
ren. Die Definition mag zunächst unnötig kompliziert erscheinen (denn das
Rechnen mit den natürlichen Zahlen ist doch offensichtlich“); es hilft an

dieser Stelle vielleicht, sich zu überlegen, wie man einem Kind die Addition
beibringen kann, wenn es nur Zählen kann . . .
Definition 2.1.8 (Addition/Multiplikation/Potenzen). Sei m ∈ N. Wir definie-
ren die Abbildungen m + · : N −→ N, m · · : N −→ N und m· : N −→ N mit
Hilfe des Rekursionssatzes wie folgt:
ˆ Addition. Es sei m + 0 := m und für alle n ∈ N sei

m + (n + 1) := (m + n) + 1.

ˆ Multiplikation. Es sei m · 0 := 0 und für alle n ∈ N sei

m · (n + 1) := m · n + m.

ˆ Potenzen. Es sei m0 := 1 und für alle n ∈ N sei

mn+1 := mn · m.

Proposition 2.1.9 (Eigenschaften von Addition/Multiplikation/Potenzen).


1. Neutrale Elemente. Für alle n ∈ N gilt

n+0=n=0+n und n · 1 = n = 1 · n.

2. Assoziativität. Für alle k, m, n ∈ N gilt

k + (m + n) = (k + m) + n und k · (m · n) = (k · m) · n.

3. Kommutativität. Für alle m, n ∈ N gilt

m+n=n+m und m · n = n · m.

4. Distributivität. Für alle k, m, n ∈ N gilt

(k + m) · n = k · m + m · n.

5. Potenzgesetze. Für alle k, m, n ∈ N gilt

(k · m)n = k n · mn , (k m )n = k m·n , k m · k n = k m+n .


2.1. Die natürlichen Zahlen und Induktion 35

Beweis. All diese Aussagen können per vollständiger Induktion gezeigt wer-
den. Wir beweisen hier nur stellvertretend die Assoziativität der Additi-
on. Genauer: Seien k, m ∈ N. Wir zeigen per Induktion über n ∈ N, dass
k + (m + n) = (k + m) + n gilt:

ˆ Induktionsanfang. Da 0 nach dem ersten Teil (bzw. nach der Definition


der Addition) das neutrale Element bezüglich Addition ist, folgt

k + (m + 0) = k + m = (k + 0) + m,

wie gewünscht.

ˆ Induktionsschritt. Sei n ∈ N und die Behauptung gelte für n (d.h. es


gelte k + (m + n) = (k + m) + n)). Wir zeigen, dass die Behauptung
dann auch für n + 1 gilt: Mit der Definition der Addition und der
Induktionsvoraussetzung erhalten wir

k + (m + (n + 1)) = k + ((m + n) + 1) (Definition der Addition)


= (k + (m + n)) + 1 (Definition der Addition)
= ((k + m) + n) + 1 (Induktionsvoraussetzung)
= (k + m) + (n + 1) (Definition der Addition)

wie gewünscht.

Mit dem Induktionsprinzip folgt: Für alle n ∈ N ist k +(m+n) = (k +m)+n.


Damit ist die Assoziativität der Addition gezeigt.

Bemerkung 2.1.10 (Varianten der vollständigen Induktion). Sind m, n ∈ N,


so schreiben wir m ≤ n, falls es ein k ∈ N mit m + k = n gibt. Zu n ∈ N
schreibt man auch kurz {0, . . . , n} := {m ∈ N | m ≤ n} und N≥n := {m ∈ N |
n ≤ m}. Damit können wir die folgenden Varianten des Induktionsprinzips
formulieren:

ˆ Sei m ∈ N. Ist A ⊂ N mit m ∈ A und der Eigenschaft

∀n∈A n + 1 ∈ A,

so folgt bereits N≥m ⊂ A.

ˆ Ist A ⊂ N mit 0 ∈ A und der Eigenschaft



∀n∈N {0, . . . , n} ⊂ A =⇒ n + 1 ∈ A ,

so folgt bereits A = N.

Beide Varianten lassen sich aus dem ursprünglichen Induktionsprinzip folgern


(indem man die Mengen {n ∈ N | m + n ∈ A} bzw. {n ∈ N | {0, . . . , n} ⊂ A}
betrachtet).
36 2. Zählen, Zahlen, Körper

Zum Beispiel können wir per Induktion/Rekursion auch die allgemeine


Summen-/Produktnotation einführen:
P Q
Notation 2.1.11 ( / ).
ˆ Sei X eine Menge zusammen mit einer assoziativen und kommuta-
tiven Addition + : X × X −→ X, die ein bezüglich Addition neu-
tralesPElement 0 enthält, und seien x0 , x1 , . . . ∈ X. Dann definieren
n
wir x “ für alle n ∈ N induktiv durch
” j=0 j
0
X
xj := x0
j=0

und X 
n+1
X n
xj := xj + xn+1
j=0 j=0
Pn
für alle n ∈ N. D.h. j=0 xj = x0 + · · · + xn“.

Pk+n
Ist k ∈ N, so definieren wir analog j=k xj = xk + xk+1 + · · · + xk+n“

(durch Induktion über n).
Pk0
Sind k, k 0 ∈ N und gibt es kein n ∈ N mit k+n = k 0 , so sei j=k xj := 0.
ˆ Analog: Sei X eine Menge zusammen mit einer assoziativen und kom-
mutativen Multiplikation · : X × X −→ X, die ein bezüglich Multipli-
kation neutralesQElement 1 enthält, und seien x0 , x1 , . . . ∈ X. Dann
n
definieren wir x “ für alle n ∈ N induktiv durch
” j=0 j
0
Y
xj := x0
j=0

und Y 
n+1
Y n
xj := xj · xn+1
j=0 j=0
Qn
für alle n ∈ N. D.h. xj = x0 · · · · · xn“.
j=0 ”
Qk+n
Ist k ∈ N, so definieren wir analog j=k xj = xk · xk+1 · · · · · xk+n“

(durch Induktion über n). Sind k, k 0 ∈ N und gibt es kein n ∈ N mit k +
Qk 0
n = k 0 , so sei j=k xj := 1.
Ist n ∈ N, so schreibt man auch kurz
n
Y
n! := j.
j=1

Insbesondere ist 0! = 1.
2.2. Die ganzen Zahlen und Gruppen 37

Wir werden in Zukunft den Vorgang des Addierens gerne umkehren“ wol-

len. Als Vorbereitung dafür werfen wir noch einmal einen Blick auf die Ei-
genschaften der Addition natürlicher Zahlen.
Proposition 2.1.12 (Addition auf N, Kürzungsregeln).
1. Es gilt die folgende Kürzungsregel: Für alle k, m, n ∈ N gilt: Ist k + n =
m + n, so ist bereits k = m.
2. Jede natürliche Zahl n ∈ N \ {0} besitzt einen Vorgänger, d.h. es gibt
ein m ∈ N mit m + 1 = n.
3. Für alle n, n0 ∈ N gilt: Ist n + n0 = 0, so ist n = 0 = n0 .
4. Für alle n, n0 ∈ N existiert ein m ∈ N mit n + m = n0 oder es existiert
ein m0 ∈ N mit n0 + m0 = n. Für alle n, n0 ∈ N gilt also n ≤ n0 oder
n0 ≤ n.

Beweis. Zu 1. Dies folgt durch vollständige Induktion über den zu kürzenden


Summanden n ∈ N.
Zu 2. Die Menge

{0} ∪ {n ∈ N | es gibt ein m ∈ N mit m + 1 = n}

erfüllt das Induktionsprinzip und stimmt somit mit N überein.


Zu 3. Dies folgt aus der Definition der Addition und der Tatsache, dass 0
keine Nachfolgerzahl ist.
Zu 4. Sei n0 ∈ N. Dann kann man die Behauptung
 
∀n∈N ∃m∈N n + m = n0 ∨ ∃m0 ∈N n0 + m0 = n

durch vollständige Induktion zeigen.

Literaturaufgabe. Lesen Sie das Buch Surreal numbers von Knuth [11].

2.2 Die ganzen Zahlen und Gruppen


Im allgemeinen ist für natürliche Zahlen n, m ∈ N die Gleichung

x+n=m

nicht mit x ∈ N lösbar (zum Beispiel gibt es kein x ∈ N mit x + 1 = 0). Wir
werden daher N um Lösungen solcher Gleichungen erweitern; dies führt zu
den ganzen Zahlen. Als Hilfsmittel für die Konstruktion verwenden wir dabei
sogenannte Äquivalenzrelationen bzw. den Übergang zu Äquivalenzklassen.
Nach der Konstruktion werden wir die additiven Eigenschaften der ganzen
Zahlen zum Konzept der Gruppe abstrahieren.
38 2. Zählen, Zahlen, Körper

2.2.1 Von den natürlichen zu den ganzen Zahlen


Wir wollen die ganzen Zahlen aus den natürlichen Zahlen konstruieren, indem
wir formale Differenzen“ von natürlichen Zahlen betrachten. Da gewisse

formale Differenzen aber derselben ganzen Zahl entsprechen sollen, werden
wir gewisse formale Differenzen als gleich ansehen wollen. Dies beschreibt
man mithilfe von (Äquivalenz)Relationen. Relation sind dabei einfach eine
Verallgemeinerung von Abbildungen zwischen Mengen.
Definition 2.2.1 (Relation, Äquivalenzrelation). Sei X eine Menge.
ˆ Teilmengen von X × X bezeichnet man auch als Relationen auf X. Ist
 ⊂ X × X eine Relation auf X und sind x, y ∈ X, so schreiben wir
genau dann x  y, wenn (x, y) ∈  ist.
ˆ Eine Relation  ⊂ X × X heißt
– reflexiv, wenn
∀x∈X x  x

– symmetrisch, wenn

∀x,y∈X (x  y ⇐⇒ y  x)

– transitiv, wenn

∀x,y,z∈X (x  y ∧ y  z =⇒ x  z).

ˆ Eine Relation auf X ist eine Äquivalenzrelation auf X, wenn sie reflexiv,
symmetrisch und transitiv ist.
ˆ Ist ∼ ⊂ X × X eine Äquivalenzrelation auf X und x ∈ X, so heißt

[x] := {y ∈ X | x ∼ y} ⊂ X

Äquivalenzklasse von x bezüglich ∼. Ist y ∈ [x], so nennt man y einen


Repräsentanten von [x]. Man schreibt X/ ∼ (gelesen: X modulo ∼“)

für die Menge 
X/ ∼ := [x] x ∈ X ⊂ P (X)
aller Äquivalenzklassen.
Beispiel 2.2.2.
ˆ Ist X eine Menge, so sind

{(x, x) | x ∈ X} und {(x, y) | x, y ∈ X}


2.2. Die ganzen Zahlen und Gruppen 39

Äquivalenzrelationen auf X. Erstere ist die Gleichheitsrelation, letztere


die Relation in der alle Elemente zueinander äquivalent sind.

ˆ Die Relation ≤“ aus Bemerkung 2.1.10 ist reflexiv und transitiv (nach-

rechnen!), aber nicht symmetrisch. Also handelt es sich hierbei nicht
um eine Äquivalenzrelation.

Proposition 2.2.3 (Eigenschaften von Äquivalenzklassen). Sei X eine Menge


und sei ∼ ⊂ X × X eine Äquivalenzrelation auf X. Dann gilt:

1. Für alle x, y ∈ X ist entweder [x] = [y] oder [x] ∩ [y] = ∅.


S
2. Es ist X = (X/ ∼) und diese Vereinigung ist disjunkt.

Beweis. Dies folgt, indem man sich sorgfältig und geduldig durch die Defini-
tionen hangelt (Übungsaufgabe).

Unsere Differenzen in spe von natürlichen Zahlen sollten die folgende Ei-
genschaft haben: Sind m, m0 , n, n0 ∈ N, so gilt genau dann m − n = m0 − n0 ,
wenn m + n0 = m0 + n ist. Letztere Darstellung hat den Vorteil, dass sie nur
Addition (und nicht die erst noch zu definierende Subtraktion!) verwendet
und somit in den natürlichen Zahlen formulierbar ist. Diese Darstellung ist
der Grund dafür, dass wir die folgende Relation betrachten werden:

Proposition 2.2.4 (formale Differenzen). Wir definieren auf N × N die Rela-


tion ∼“ durch


((m, n), (m0 , n0 )) ∈ (N × N) × (N × N) m + n0 = m0 + n .

1. Dann ist ∼“ eine Äquivalenzrelation auf N × N.



2. Ist x ∈ N × N, so gibt es ein k ∈ N mit

x ∼ (k, 0) oder x ∼ (0, k).

Beweis. Zu 1. Reflexivität. Ist (m, n) ∈ N × N, so gilt

m + n = m + n,

und damit (m, n) ∼ (m, n). Also ist ∼“ reflexiv.



Symmetrie. Sind (m, n), (m0 , n0 ) ∈ N × N mit (m, n) ∼ (m0 , n0 ), so gilt
m + n0 = m0 + n. Also gilt auch

m0 + n = m + n0 ,

und damit (m0 , n0 ) ∼ (m, n). Also ist ∼“ symmetrisch.



Transitivität. Seien (m, n), (m0 , n0 ), (m00 , n00 ) ∈ N×N) mit (m, n) ∼ (m0 , n0 )
und (m0 , n0 ) ∼ (m00 , n00 ). Also gilt m + n0 = m0 + n und m0 + n00 = m00 + n0 .
Damit folgt
40 2. Zählen, Zahlen, Körper

m + n00 + n0 = m + n0 + n00 (Kommutativität der Addition)


= m0 + n + n00 (da (m, n) ∼ (m0 , n0 ))
= m0 + n00 + n (Kommutativität der Addition)
00 0
=m +n +n (da (m0 , n0 ) ∼ (m00 , n00 ))
= m00 + n + n0 (Kommutativität der Addition)

Mit den Kürzungsregeln für die Addition auf N (Proposition 2.1.12) erhalten
wir daraus
m + n00 = m00 + n,
und damit (m, n) ∼ (m00 , n00 ). Also ist ∼“ transitiv.

Zu 2. Sei x = (m, n) ∈ N × N. Nach Proposition 2.1.12 gibt es ein k ∈ N
mit m + k = n oder n + k = m. Im ersten Fall gilt (m, n) ∼ (0, k), im zweiten
Fall gilt (m, n) ∼ (k, 0).

Wir haben nun die nötigen Vorarbeiten geleistet, um die Konstruktion


der ganzen Zahlen durchführen zu können; bei der Definition der Addition
bzw. Multiplikation orientieren wir uns daran, welches Verhalten wir uns von
formalen Differenzen erhoffen würden.

Satz 2.2.5 (die ganzen Zahlen). Sei ∼“ die Äquivalenzrelation der formalen

Differenzen aus Proposition 2.2.4. Dann definieren wir

Z := (N × N) ∼

und bezeichnen Z als Menge der ganzen Zahlen.

0. Die Abbildung

i : N −→ Z
 
n 7−→ (n, 0)

ist injektiv.

1. Addition. Die Abbildung

+ : Z × Z −→ Z
  
[(m, n)], [(m0 , n0 )] 7−→ (m + m0 , n + n0 )

ist wohldefiniert.

2. Multiplikation. Die Abbildung

· : Z × Z −→ Z
  
[(m, n)], [(m0 , n0 )] 7−→ (m · m0 + n · n0 , m · n0 + m0 · n)

ist wohldefiniert.
2.2. Die ganzen Zahlen und Gruppen 41

3. Die Addition auf Z ist assoziativ und kommutativ und hat [(0, 0)] als
neutrales Element.

4. Die Multiplikation auf Z ist assoziativ und kommutativ und hat [(1, 0)]
als neutrales Element.

5. Es gilt das Distributivgesetz, d.h. für alle x, y, z ∈ Z gilt

x · (y + z) = x · y + x · z.

Beweis. Zu 0. Seien n, n0 ∈ N mit i(n) = i(n0 ). Nach Definition von i bedeutet


dies gerade (n, 0) ∼ (n0 , 0). Nach Konstruktion von ∼“ folgt daraus aber

n = n + 0 = n0 + 0 = n0 .

Also ist i injektiv.


Zu 1. Was ist bei Wohldefiniertheit zu zeigen? Die Definition verwendet
konkrete Repräsentanten. Es ist aber sicherzustellen, dass die Äquivalenzklasse,
die wir als Ergebnis erhalten, nicht von der Wahl der Repräsentanten inner-
halb ihrer Äquivalenzklasse abhängt.
Seien also (m, n), (M, N ), (m0 , n0 ), (M 0 N 0 ) ∈ N × N mit (m, n) ∼ (M, N )
und (m0 , n0 ) ∼ (M 0 , N 0 ). Dann gilt auch (m+m0 , n+n0 ) ∼ (M +M 0 , N +N 0 ),
denn: Es gilt

m + m0 + N + N 0 = m + N + m0 + N 0 (Kommutativität der Addition)


0 0
=M +n+m +N (da (m, n) ∼ (M, N ))
0 0
=M +n+M +n (da (m0 , n0 ) ∼ (M 0 , N 0 ))
= M + M 0 + n + n0 (Kommutativität der Addition)

und damit (m + m0 , n + n0 ) ∼ (M + M 0 , N + N 0 ).
Zu 2. Man zeigt die Wohldefiniertheit der Multiplikation analog zum Fall
der Addition.
Zu 3., 4., 5. Diese Behauptungen folgen durch Nachrechnen aus den ent-
sprechenden Eigenschaften der arithmetischen Operationen auf den natürlichen
Zahlen.

Caveat 2.2.6 (Wohldefiniertheit). Im Gegensatz zur Addition bzw. Multipli-


kation ist

Z −→ N
[(m, n)] 7−→ m

nicht wohldefiniert! Denn zum Beispiel für (1, 0) bzw. (2, 1) erhält man die
verschiedenen Werte 1 bzw. 2, obwohl (1, 0) ∼ (2, 1) und somit [(2, 0)] =
[(1, 0)] gilt.
42 2. Zählen, Zahlen, Körper

Außerdem setzen die Addition bzw. Multiplikation auf Z die Verknüpfungen


von N fort und die ganzen Zahlen haben die gewünschte Eigenschaft der Um-
kehrbarkeit der Addition:

Proposition 2.2.7 (Lösbarkeit additiver Gleichungen in Z). Seien a, b ∈ Z.


Dann gibt es ein x ∈ Z mit
x + b = a.

Beweis. Seien (ma , na ), (mb , nb ) ∈ N × N Repräsentanten von a bzw. b. Wir


betrachten dann  
x := (ma + nb , na + mb ) ∈ Z.
Nach Definition der Addition auf Z und der Äquivalenzrelation ∼“ auf N×N

gilt
 
x + b = (ma + nb + mb , na + mb + nb )
 
= (ma , na )
= a,

wie gewünscht.

Notation 2.2.8. Da die obige Abbildung i : N −→ Z injektiv ist, fassen wir N


auch als Teilmenge von Z auf und verwenden entsprechend auch die Dezi-
maldarstellung für Elemente in i(N).

2.2.2 Gruppen
Wir konzentrieren uns nun auf die additiven Eigenschaften der ganzen Zah-
len (Satz 2.2.5, Proposition 2.2.7) und abstrahieren diese Eigenschaften zum
Begriff der Gruppe:2

Definition 2.2.9 (Gruppe). Eine Gruppe ist ein Paar (G, · ), bestehend aus ei-
ner Menge G und einer Abbildung · : G×G −→ G (sogenannte Verknüpfung
der Gruppe) mit folgenden Eigenschaften:

ˆ Es gibt ein Element e ∈ G mit

∀g∈G g · e = g = e · g.

Wir bezeichnen dann e als neutrales Element der Gruppe.

ˆ Zu jedem g ∈ G gibt es ein h ∈ G mit

g · h = e = h · g.
2 Insbesondere haben Sie nun bereits so viel gelernt, dass Sie den Text aus Kapitel 1.1
verstehen können!
2.2. Die ganzen Zahlen und Gruppen 43

Wir bezeichnen dann h als inverses Element von g und schreiben dafür
auch g −1 .

ˆ Die Verknüpfung · ist assoziativ, d.h.

∀g,h,k∈G (g · h) · k = g · (h · k).

Oft unterdrückt man in der Notation auch die Verknüpfung und sagt kurz
(aber etwas schlampig), dass G eine Gruppe“ ist.

Beispiel 2.2.10 (ganze Zahlen als Gruppe). Die ganzen Zahlen bilden eine
Gruppe bezüglich Addition. Genauer: Das Paar (Z, +) ist eine Gruppe. Neu-
trales Element ist 0; zu n ∈ Z schreiben wir auch −n für das Inverse von n
bezüglich + (die Existenz ist nach Proposition 2.2.7 gesichert).
Man kann sogar zeigen, dass die ganzen Zahlen die kleinste“ Gruppe sind,

die die additive Struktur der natürlichen Zahlen fortsetzen (wir gehen hier
aber nicht näher darauf ein).
Die ganzen Zahlen bilden jedoch keine Gruppe bezüglich Multiplikation,
da z.B. 0 und auch 2 kein multiplikatives Inverses in Z besitzen.

Proposition 2.2.11 (Eindeutigkeit des neutralen Elements und von Inversen).


Sei (G, · ) eine Gruppe.

1. Sind e, f ∈ G neutrale Elemente von (G, · ), so folgt e = f .

2. Ist g ∈ G und sind h, k ∈ G inverse Elemente von g in (G, · ), so


folgt h = k.

Bemerkung 2.2.12 (bestimmter Artikel). Insbesondere können wir in Grup-


pen von dem neutralen Element sprechen und von dem inversen Element
eines Gruppenelements!
In der Mathematik muss sehr sorgfältig mit bestimmten/unbestimmten
Aritkel umgegangen werden. Bestimmte Artikel können nur dann verwendet
werden, wenn das entsprechende Objekt im betrachteten Kontext eindeutig
ist!

Beweis. Zu 1. Seien e, f ∈ G neutrale Elemente. Dann folgt

e = f · e = f;

in der ersten Gleichung haben wir verwendet, dass f neutral ist und in der
zweiten, dass e neutral ist.
Zu 2. Sei g ∈ G und es seien h, k ∈ G inverse Elemente von g; sei e ∈ G
das neutrale Element von (G, · ). Dann folgt
44 2. Zählen, Zahlen, Körper

h=h·e (da e neutral ist)


= h · (g · k) (da k invers zu g ist)
= (h · g) · k (da · “ assoziativ ist)

=e·k (da h invers zu g ist)
= k, (da e neutral ist)

wie behauptet.
Anmerkung zum Lernen. Der Beweis des zweiten Teils ist ein alter Bekann-
ter! (Beweis von Proposition 1.3.32) Sie sollten beim Lernen versuchen, solche
Ähnlichkeiten zu finden, um sich das Thema leichter und besser zu erschlie-
ßen.
Definition 2.2.13 (abelsche Gruppe). Eine Gruppe (G, · ) heißt abelsch, wenn
die Verknüpfung kommutativ ist, d.h., wenn folgendes gilt:

∀g,h∈G g · h = h · g.

Beispiel 2.2.14. Die Gruppe (Z, +) ist abelsch.


Notation 2.2.15. In abelschen Gruppen verwendet man (in Anlehnung an
die ganzen Zahlen) häufig + als Notation für die Verknüpfung und −g als
Notation für das Inverse eines Gruppenelements g.
Im allgemeinen sind Gruppen jedoch nicht abelsch. Eine wichtige Klasse
von Gruppen sind die sogenannten symmetrischen Gruppen:
Proposition 2.2.16 (symmetrische Gruppen). Sei X eine Menge und sei SX
die Menge aller Bijektionen X −→ X.
1. Dann ist (SX , ◦) eine Gruppe, die symmetrische Gruppe von X.
2. Die Gruppe (SX , ◦) ist genau dann abelsch, wenn X höchstens zwei
verschiedene Elemente enthält.
Beweis. Der erste Teil folgt aus Bemerkung 1.3.21 und der Charakterisie-
rung von bijektiven Abbildungen durch die Existenz von Umkehrabbildungen
(Proposition 1.3.32); man beachte dabei insbesondere, dass die Verknüpfung
zweier Bijektionen wieder eine Bijektion ist!
Der zweite Teil folgt durch das Betrachten geeigneter Vertauschungsbijek-
tionen (Übungsaufgabe).
Ausblick 2.2.17 (Automorphismengruppen). Das Prinzip, das der Definition
von symmetrischen Gruppen unterliegt, lässt sich auch in vielen anderen Si-
tuationen einsetzen, um sogenannte Automorphismengruppen zu definieren.
Zum Beispiel werden wir uns später unter anderem auch mit Automorphis-
mengruppen von Vektorräumen beschäftigen. Außerdem ist dieses Konstruk-
tionsprinzip in einem gewissen Sinne universell – jede Gruppe kann in eine
symmetrische Gruppe eingebettet werden (Satz von Cayley).
2.3. Die rationalen Zahlen und Körper 45

Bemerkung 2.2.18 (Wozu Abstraktion?). Wir werden im folgenden vielen


weiteren Gruppen begegnen. Für jede dieser Gruppen gilt dann Proposi-
tion 2.2.11 – wir müssen also nicht jedesmal einzeln die Eindeutigkeit des
neutralen Elements bzw. von inversen Elementen nachweisen. Analog funk-
tioniert das für jeden Satz, der allgemein für Gruppen bewiesen ist.
Ein weiterer Vorzug der Abstraktion zur Gruppe ist, dass wir diesen Bau-
stein Gruppe“ nun auch verwenden können, um komplexere algebraische

Strukturen zu beschreiben, wie zum Beispiel Körper (Kapitel 2.3.2).

2.3 Die rationalen Zahlen und Körper


Im allgemeinen ist für ganze Zahlen a ∈ Z, b ∈ Z \ {0} die Gleichung

x·b=a

nicht mit x ∈ Z lösbar (zum Beispiel gibt es kein x ∈ Z mit x · 2 = 1).


Wir werden daher Z um Lösungen solcher Gleichungen erweitern; dies führt
zu den rationalen Zahlen. Analog zur Konstruktion von Z aus N werden wir
dabei wieder geeignete Äquivalenzklassen verwenden. Nach der Konstruktion
werden wir die additiven und multiplikativen Eigenschaften der rationalen
Zahlen zum Konzept des Körpers abstrahieren. Körper werden in der linearen
Algebra als zentrale Grundstruktur fungieren.

2.3.1 Von den ganzen zu den rationalen Zahlen

Wir wollen die rationalen Zahlen aus den ganzen Zahlen konstruieren, indem
wir formale Brüche“ von ganzen Zahlen betrachten. Da manche formalen

Brüche aber derselben rationalen Zahl entsprechen sollen, werden wir ge-
wisse formale Brüche als gleich ansehen wollen ( Hochmultiplizieren“ der

hypothetischen Nenner):

Proposition 2.3.1 (formale Brüche). Wir definieren auf Z := Z × (Z \ {0})


die Relation ∼“ durch


((a, b), (a0 , b0 )) ∈ Z × Z a · b0 = a0 · b .

Dann ist ∼“ eine Äquivalenzrelation auf Z.



Beweis. Dies folgt analog zum Fall der formalen Differenzen (Propositi-
on 2.2.4); für die Transitivität benötigt man dabei Kürzungsregeln für die
Multiplikation ganzer Zahlen, ähnlich zu den Kürzungsregeln für die Additi-
on natürlicher Zahlen (Proposition 2.1.12).
46 2. Zählen, Zahlen, Körper

Bei der Definition der Addition bzw. Multiplikation von formalen Brüchen
lassen wir uns von den gewünschten Rechenregeln mit Brüchen leiten (insbe-
sondere dürfen wir bei der Addition den gemeinsamen Nenner nicht verges-
sen!).
Satz 2.3.2 (die rationalen Zahlen). Sei ∼“ die Äquivalenzrelation der forma-

len Brüche aus Proposition 2.3.1. Dann definieren wir

Q := Z × (Z \ {0}) ∼

und bezeichnen Q als Menge der rationalen Zahlen.


0. Die Abbildung

Z −→ Q
 
a 7−→ (a, 1)

ist injektiv.
1. Addition. Die Abbildung

+ : Q × Q −→ Q
  
[(a, b)], [(a0 , b0 )] 7−→ (a · b0 + a0 · b, b · b0 )

ist wohldefiniert.
2. Multiplikation. Die Abbildung

· : Q × Q −→ Q
  
[(a, b)], [(a0 , b0 )] 7−→ (a · a0 , b · b0 )

ist wohldefiniert.
3. Es ist (Q, +) eine Gruppe, mit neutralem Element [(0, 1)].
4. Die Multiplikation auf Q ist assoziativ und kommutativ und hat [(1, 1)]
als neutrales Element. Außerdem ist (Q \ {[(0, 1)]}, · ) eine Gruppe.
5. Es gilt das Distributivgesetz, d.h. für alle x, y, z ∈ Q gilt

x · (y + z) = x · y + x · z.

Beweis. Der Beweis ist analog zum Fall der ganzen Zahlen (Satz 2.2.5, Pro-
position 2.2.7) und wir werden die Details hier nicht ausführen.
Notation 2.3.3. Da die obige Abbildung Z −→ Q injektiv und mit der Additi-
on bzw. Multiplikation auf Z bzw. Q verträglich ist, fassen wir Z im folgenden
auch als Teilmenge von Q auf. Wir werden in Notation 2.3.6 auch erklären,
wie man daraus eine gute Notation für alle rationalen Zahlen erhält.
2.3. Die rationalen Zahlen und Körper 47

2.3.2 Körper
Wir abstrahieren nun die Eigenschaften der rationalen Zahlen zum Begriff
des Körpers. Grob gesagt ist ein Körper eine algebraische Struktur mit einer
Addition und einer Multiplikation, die hinreichend gutartig sind und mitei-
nenander kompatibel sind – d.h. in Körpern kann man bequem rechnen“.

Definition 2.3.4 (Körper). Ein Körper ist ein Tripel (K, +, · ) bestehend
aus einer Menge K und Abbildungen +, · : K × K −→ K (Addition bzw.
Multiplikation) mit folgenden Eigenschaften:

ˆ Das Paar (K, +) bildet eine abelsche Gruppe. Sei 0 das neutrale Ele-
ment dieser Gruppe.

ˆ Das Paar (K \ {0}, · ) bildet eine abelsche Gruppe. Sei 1 das neutrale
Element dieser Gruppe.

ˆ Es gilt das Distributivgesetz, d.h. für alle x, y, z ∈ K gilt

x · (y + z) = x · y + x · z.

Bemerkung 2.3.5 (0 6= 1). Ist (K, +, · ) ein Körper, so gilt nach Definiti-
on 1 ∈ K \ {0} und somit insbesondere 0 6= 1.

Anmerkung zum Lernen. Es ist eine gute Übung, die obige Definition noch-
mal explizit zu expandieren, d.h. den Baustein Gruppe“ jeweils in explizite

Eigenschaften der Addition bzw. Multiplikation auszuformulieren.

An dieser Stelle können wir bereits den Wert der Abstraktion schätzen
lernen: Aus Proposition 2.2.11 wissen wir bereits, dass das neutrale Element
sowie inverse Elemente bezüglich Addition bzw. Multiplikation jeweils ein-
deutig sind.

Notation 2.3.6 (Brüche und Differenzen). Sei (K, +, · ) ein Körper und seien
x, y ∈ K. Dann verwenden wir die Differenznotation

x − y := x + (−y).

Ist y 6= 0, so verwenden wir die Bruchnotation


x
:= x · y −1 .
y
Insbesondere erhalten wir so auch eine bequeme Notation für rationale Zah-
len, nämlich als Brüche von ganzen Zahlen, für die uns wiederum die Dezi-
maldarstellung zur Verfügung steht.
48 2. Zählen, Zahlen, Körper

Abbildung 2.1.: Effiziente Notation rationaler Zahlen vs. Konstruktion ratio-


naler Zahlen

Hinweis für die geistige Gesundheit: Im Normalfall werden wir nur wis-
sen müssen, dass wir die rationalen Zahlen konstruieren können aber nicht
wie. Statt sich also vorzustellen, dass rationale Zahlen Äquivalenzklassen
von Paaren ganzer Zahlen sind, die wiederum Äquivalenzklassen von Paaren
natürlicher Zahlen sind, die wiederum induktiv aus der leeren Menge konstru-
ierte Mengen sind, ist es viel verünftiger, die obige Bruch-/Dezimaldarstellung
von rationalen Zahlen zu verwenden (Abbildung 2.1) und im Kopf zu behal-
ten, dass die rationalen Zahlen den kleinsten“ Körper bilden, der die ganzen

Zahlen enthält (dies wird im Rahmen der Algebra rigoros bewiesen).

Beispiel 2.3.7 (wichtige Körper).

ˆ Die rationalen Zahlen Q bilden einen Körper bezüglich der gewöhnlichen


Addition und Multiplikation.

ˆ Die ganzen Zahlen bilden keinen Körper bezüglich der gewöhnlichen


Addition und Multiplikation (dies war gerade der Ausgangspunkt der
Konstruktion der rationalen Zahlen).

ˆ Die reellen Zahlen R bilden einen Körper bezüglich der gewöhnlichen


Addition und Multiplikation.

ˆ Die komplexen Zahlen C bilden einen Kp̈rper bezüglich der gewöhnlichen


Addition und Multiplikation.
2.3. Die rationalen Zahlen und Körper 49

ˆ Die Menge F2 := {0, 1} bildet bezüglich der folgenden Addition und


Multiplikation einen Körper (wie man leicht nachrechnet):

+ 0 1 · 0 1
0 0 1 0 0 0
1 1 0 1 0 1

Man beachte, dass in diesem Körper 1+1 = 0 gilt. Insbesondere folgt 1+


1 6= 0 nicht aus den Körperaxiomen!
Dieser Körper liefert außerdem eine interessante Beziehung zu logischen
Operationen: Wenn wir 0 als wahr“ und 1 als falsch“ interpretieren,
” ”
so
– entspricht die Addition in F2 der logischen Äquivalenz ⇐⇒“,

– und die Multiplikation in F2 entspricht dem logischen Oder ∨“.

Bemerkung 2.3.8 (reelle Zahlen).
ˆ Der Übergang von den ganzen zu den rationalen Zahlen erfolgt durch
Hinzufügen von Brüchen.
ˆ Wie kann man aus den rationalen Zahlen die reellen Zahlen konstru-
ieren? Dieser Übergang ist analytischer und nicht algebraischer Na-
tur. Die reellen Zahlen erhält man als Vervollständigung der rationa-
len Zahlen, indem man geeignete Grenzwerte hinzufügt. Zum Beispiel
kann man die reellen Zahlen konstruieren, indem man eine geeignete
Äquivalenzrelation auf Cauchyfolgen von rationalen Zahlen betrachtet
und diese Äquivalenzrelation herausteilt.
ˆ Der Übergang von den reellen zu den komplexen Zahlen ist wieder ein
algebraischer Übergang; grob gesagt erhält man die komplexen Zahlen
aus den reellen Zahlen, indem man eine Lösung der Gleichung x·x = −1
hinzufügt. Körperkonstruktionen dieser Art werden systematisch in der
Algebra untersucht.
ˆ Die Menge √ √
Q( 2) := {a + b · 2 | a, b ∈ Q} ⊂ R
bildet mit der von R geerbten Addition bzw. Multiplikation einen
Körper (nachrechnen!). Auch

Q(i) := {a + i · b | a, b ∈ Q} ⊂ C

bildet mit der von C geerbten Addition bzw. Multiplikation einen


Körper (nachrechnen!). Auch wenn diese Körper zunächst so aussehen,
als ob sie für die Konstruktion analytische Eigenschaften benötigen,
kann man sie tatsächlich auf rein algebraischem Wege aus Q konstru-
ieren, indem man eine Lösung der Gleichung x · x = 2 bzw. x · x = −1
50 2. Zählen, Zahlen, Körper

durch eine geeignete Äquivalenzklassenkonstruktion zu Q hinzufügt.


Körperkonstruktionen dieser Art werden systematisch in der Algebra
untersucht.
Proposition 2.3.9 (Rechnen in Körpern). Sei (K, +, · ) ein Körper.
1. Für alle x ∈ K gilt x · 0 = 0.
2. Für alle x ∈ K gilt −x = (−1) · x. Insbesondere ist (−1) · (−1) = 1.
3. Nullteilerfreiheit. Für alle x, y ∈ K gilt: Ist x · y = 0, so folgt x = 0
oder y = 0.
Beweis. Zu 1. Sei x ∈ K und sei y ∈ K das additive Inverse von x · 0. Dann
gilt

0=x·0+y (da y zu x · 0 bzgl. + invers ist)


= x · (0 + 0) + y (0 ist neutral bzgl. +)
= (x · 0 + x · 0) + y (Distributivgesetz)
= x · 0 + (x · 0 + y) (Assoziatitvität der Addition)
=x·0+0 (da y zu x · 0 bzgl. + invers ist)
=x·0 (0 ist neutral bzgl. +)

Zu 2. Sei x ∈ K. Dann gilt

x + (−1) · x = 1 · x + (−1) · x (1 ist neutral bzgl. · )



= 1 + (−1) · x (Distributivgesetz)
=0·x (da −1 zu 1 bzgl. + invers ist)
=0 (nach dem ersten Teil)

Da die Addition kommutativ ist, folgt auch (−1) · x + x = 0. Also ist (−1) · x
das additive Inverse von x, d.h. es gilt −x = (−1) · x.
Insbesondere ist (−1) · (−1) = −(−1). Da −1 das additive Inverse von 1
ist, ist 1 das additive Inverse von −1. Also ist (−1) · (−1) = 1.
Zu 3. Dies folgt mit Kontraposition und Multiplikation mit Inversen.
Aus diesen Eigenschaften lassen sich noch viele weitere ableiten, unter
anderem zum Beispiel die gewöhnlichen Bruchrechenregeln.
Notation 2.3.10 (ganzzahlige Vielfache). Sei K ein Körper, sei x ∈ K und
sei n ∈ Z. Dann schreiben wir
( P
n
j=1 x falls n ∈ N ist
n · x :=
−(−n) · x falls −n ∈ N \ {0} ist.

Man beachte dabei, dass mindestens einer dieser beiden Fälle eintritt (Pro-
position 2.2.4.2) und dass nicht beide Fälle gleichzeitig eintreten können (dies
folgt aus der Kürzungsregel Proposition 2.1.12.3).
2.3. Die rationalen Zahlen und Körper 51

Caveat 2.3.11 (Charakteristik). Sei K ein Körper. Die Abbildung

N −→ K
n 7−→ n · 1

ist im allgemeinen nicht injektiv (z.B. für F2 ). Falls diese Abbildung injektiv
ist, so sagt man, dass K Charakteristik 0 hat. Ist diese Abbildung nicht
injektiv, so bezeichnet man die kleinste Zahl n ∈ N \ {0} mit n · 1 = 0 als
Charakteristik von K (dass eine Zahl n ∈ N \ {0} mit n · 1 = 0 mit nicht-
injektiven Fall existiert, folgt aus einer kleinen Rechnung; dass eine kleinste
solche Zahl existiert, folgt aus dem Induktions- bzw. Wohlordnungsprinzip). √
Zum Beispiel hat F2 die Charakteristik 2, aber die Körper Q, R, C, Q( 2),
Q(i) haben Charakteristik 0.
Literaturaufgabe. Lesen Sie das Buch Zahlen von Ebbinghaus [6].
52 2. Zählen, Zahlen, Körper
3
Vektorräume

Aufbauend auf dem Begriff des Körpers werden wir nun die grundlegenden
Objekte der linearen Algebra einführen: Vektorräume.
Einerseits dienen Vektorräume der bequemen Beschreibung des zwei- bzw.
dreidimensionalen Anschauungsraums. Andererseits gibt es auch viele weitere
natürlich auftretende Situationen in der Analysis, der Algebra, . . . und in den
Anwendungen, die sich gut durch Vektorräume modellieren lassen.
Wir werden uns dann mit den fundamentalen Handgriffen in Vektorräumen
vertraut machen und lineare Unabhängigkeit, Basen, Dimension sowie einfa-
che Konstruktionen von Vektorräumen betrachten.
Überblick über dieses Kapitel.

3.1 Vektorräume 54
3.2 Lineare Unabhängigkeit 66
3.3 Basen 72
3.4 Dimension 82

Schlüsselbeispiel. Vektorraum der n-Tupel über einem gegebenen Körper


54 3. Vektorräume

3.1 Vektorräume
Wir beginnen mit der Definition des Vektorraums. Als Vorbereitung dafür
werden wir einen kurzen Blick in die Geometrie werfen.

3.1.1 Geometrie in Koordinaten


Die Geometrie hat sich von ihren Anfängen in der Antike über viele Schritte
zu einem vielseitigen mathematischen Gebiet entwickelt, das mit allen ande-
ren Gebieten verbunden ist.
Eine der Revolutionen der Geometrie war die Erkenntnis von Descartes,
dass man geometrische Objekte (zum Beispiel Punkte, Geraden, . . . ) in der
ebenen und räumlichen Geometrie durch Koordinaten beschreiben kann und
damit viele geometrische Probleme rechnerisch lösen kann. Dies führt zu den
(nach Descartes benannten!) kartesischen Koordinatensystemen.
Definition 3.1.1 (Menge der n-Tupel). Sei K ein Körper. Wir schreiben

K 0 := {0} ⊂ K.

Für n ∈ N \ {0} definieren wir


  

 x1 


 x2  

n  
K :=  .  x1 , . . . , xn ∈ K

  ..  


 

xn

Die n-Tupel in K n werden auch als Spaltenvektoren bezeichnet. Ist x ∈ K n ,


so schreiben wir x1 , . . . , xn für die n Koordinaten (d.h. die Zeilen, in dieser
Reihenfolge) von x. Zwei n-Tupel x, y ∈ K n sind genau dann gleich, wenn

∀j∈{1,...,n} xj = yj

gilt.

Bemerkung 3.1.2 (Paare, Tripel, Tupel und die Mengenlehre). An dieser Stelle
ist es vielleicht angebracht, kurz über die Modellierung von Paaren, Tripeln
und allgemeineren Tupeln in der axiomatischen Mengenlehre nachzudenken.
ˆ Wie kann man Paare modellieren? Man kann nachrechnen, dass für alle
Mengen x, x0 , y, y 0 die Äquivalenz
 
{x}, {x, y} = {x0 }, {x0 , y 0 } ⇐⇒ (x = x0 ∧ y = y 0 )
3.1. Vektorräume 55

Á
 
x1
x2
x2

x1 À

Abbildung 3.1.: Punkte und Koordinaten in R2 , schematisch

gilt. Sind x und y Mengen, so kann man also



(x, y) := {x}, {x, y}

definieren.
ˆ Ist K ein Körper, so könnte man nun induktiv K 0 := {0}, K 1 := K
und
K n+1 := K n × K
für alle n ∈ N \ {0} definieren (und dann eine Tupelnotation einführen,
um die Notation zu vereinfachen).
Alternativ kann man (nachdem man Paare modelliert hat und da-
mit das kartesische Produkt und Abbildungen formalisieren kann)
für n ∈ N \ {0} auch K n als Menge aller Abbildungen {1, . . . , n} −→ K
definieren. Es gibt dann eine kanonische Bijektion zwischen dieser De-
finition und der im vorigen Absatz.
Wir werden uns im folgenden nicht weiter mit diesen Details auseinanderset-
zen und einfach die Notation und Eigenschaften aus Definition 3.1.1 verwen-
den.
Den Grund dafür, dass wir Elemente von K n als Spaltenvektoren anse-
hen wollen, wird sich später im Zusammenhang mit der Multiplikation von
Matrizen erschließen.
Beispiel 3.1.3 (Anschauungsraum der Geometrie). Den zweidimensionalen
Anschauungsraum kann man in dieser Notation als R2 modellieren (Abbil-
dung 3.1), den dreidimensionalen Anschauungsraum als R3 . Diese Sichtweise
spielt auch in der Computergraphik eine entscheidende Rolle – die Model-
lierung von zwei- bzw. dreidimensionalen Objekten erfolgt im Normalfall in
kartesischen Koordinaten.
Beispiele für grundlegende geometrische Operationen sind das Verschie-
ben von Objekten im Anschauungsraum und das Skalieren von Objekten im
Anschauungsraum (Abbildung 3.2).
56 3. Vektorräume
 
Á x 1 + v1 Á  
x 2 + v2 λ · x1
 
x1   λ · x2
x2 x1
x2
v

À À

Á Á

À À

Abbildung 3.2.: Verschieben und Skalieren in R2

Was bedeutet dies in kartesischen Koordinaten? Verschieben von Punkten


in R2 um v ∈ R2 wird durch die Abbildung

R2 −→ R2
   
x1 x 1 + v1
7−→
x2 x 2 + v2

Das Reskalieren von R2 um den Faktor λ ∈ R ist durch die Abbildung

R2 −→ R2
   
x1 λ · x1
7−→
x2 λ · x2

gegeben.
Diese grundlegenden geometrischen Operationen sind der Ursprung des
Vektorraumbegriffs. Insbesondere hängt das Reskalieren mit dem Begriff des
Skalars bzw. der Skalarmultiplikation zusammen und das Verschieben ist der
Ursprung des Begriffs des Vektors (von lateinisch vectare, was in etwa tragen,
transportieren bedeutet).
Es wird sich jedoch herausstellen, dass der Begriff des Vektorraums so gut
gewählt ist, dass sich viele weitere geometrische Transformationen und auch
viele weitere theoretische und praktische Situationen gut damit modellieren
lassen.
3.1. Vektorräume 57

3.1.2 Vektorräume
Inspiriert von der kartesischen Geometrie führt man den Begriff des Vektor-
raums folgendermaßen ein:
Definition 3.1.4 (Vektorraum). Sei K ein Körper. Ein K-Vektorraum ist ein
Tripel (V, +, · ), bestehend aus einer Menge V und Abbildungen + : V ×
V −→ V bzw. · : K × V −→ V , mit folgenden Eigenschaften:
ˆ Es ist (V, +) eine abelsche Gruppe.
ˆ Assoziativität. Für alle λ, µ ∈ K und alle v ∈ V gilt

(λ · µ) · v = λ · (µ · v).

ˆ Neutrale Skalarmultiplikation. Für alle v ∈ V gilt

1 · v = v.

ˆ Distributivität. Für alle λ, µ ∈ K und alle v, w ∈ V gilt

(λ + µ) · v = λ · v + µ · v und λ · (v + w) = λ · v + λ · w.

Die Elemente von V heißen Vektoren. Wir bezeichnen +“ als Addition auf V

und · : K × V −→ V als Skalarmultiplikation.
Oft unterdrückt man in der Notation auch die Verknüpfungen und sagt
kurz (aber etwas schlampig), dass V ein K-Vektorraum“ ist.

Anmerkung zum Lernen. Es ist eine gute Übung, sich in dieser Definition
genau zu überlegen, welche Addition/Multiplikation in K bzw. V stattfindet.
Caveat 3.1.5 (Multiplikation). Sei K ein Körper und sei (V, +, · ) ein K-
Vektorraum. Man beachte, dass die Skalarmultiplikation Skalare mit Vek-
toren multipliziert (was Vektoren liefert). Im allgemeinen können in einem
Vektorraum nicht zwei Vektoren sinnvoll“ miteinander multipliziert werden

(um wieder einen Vektor zu erhalten).

Proposition 3.1.6 (Vektorraum der n-Tupel). Sei K ein Körper und sei n ∈ N.
Dann bildet K n mit den Abbildungen

+ : K n × K n −→ K n · : K × K n −→ K n
          
x1 y1 x1 + y1 x1 λ · x1
 ..   ..   ..    ..   . 
 .  ,  .  7−→  .  λ,  .  7−→  .. 
xn yn xn + yn xn λ · xn

einen K-Vektorraum.
58 3. Vektorräume

Beweis. All diese Eigenschaften lassen sich komponentenweise nachrechnen


und sind dann Folgerungen der entsprechenden Eigenschaften von K. Wir
geben stellvertretend den Beweis für die Assoziativität der Skalarmultiplika-
tion: Seien also λ, µ ∈ K und x ∈ K n . Dann gilt
 
(λ · µ) · x1
 ..  n
(λ · µ) · x =  .  (Definition der Skalarmultiplikation in K )
(λ · µ) · xn
 
λ · (µ · x1 )
 .. 
= .  (Assoziativität der Multiplikation in K)
λ · (µ · xn )
 
µ · x1
 
= λ ·  ...  (Definition der Skalarmultiplikation in K n )
µ · xn
= λ · (µ · x) (Definition der Skalarmultiplikation in K n )

Also ist die Skalarmultiplikation auf K n assoziativ.

Man schreibt in dieser Situation kurz (und schlampig), dass K n ein K-


Vektorraum ist. Insbesondere erhalten wir auf diese Weise eine R-Vektor-
raumstruktur auf den Anschauungsräumen R2 und R3 . Auf einen wichtigen
Spezialfall sei noch explizit hingewiesen:

Beispiel 3.1.7 (triviale Vektorräume). Sei K ein Körper. Dann ist K 0 = {0}
ein K-Vektorraum (bezüglich der Addition/Multiplikation aus Propositi-
on 3.1.6); man bezeichnet diesen auch als Nullvektorraum (über K).

Anmerkung zum Lernen (triviale/repräsentative Beispiele). Es ist gut, für alle


Situationen passende Beispiele im Kopf zu haben; dabei ist es empfehlens-
wert, sowohl triviale“ Beispiele (wie zum Beispiel den Nullvektorraum) als

auch Beispiele, die genug Spielraum für generisches“ Verhalten (wie etwa R3 )

bieten, parat zu haben. Solche Beispiele helfen einerseits dabei, Aussagen
über abstrakte Begriffe besser zu verstehen, und ermöglichen es andererseits
auch, Hypothesen schnell an Beispielen zu überprüfen.

Beispiel 3.1.8 (Körpererweiterungen als Vektorräume). Sei L ein Körper und


sei K ⊂ L ein Teilkörper, d.h. die Addition und Multiplikation von L
schränken sich zu Verknüpfungen auf K ein und K bildet mit der von L
eingeschränkten Addition bzw. Multiplikation einen Körper.
Dann bildet L zusammen mit seiner Addition und der auf K × L −→ L
eingeschränkten Multiplikation einen K-Vektorraum.
Insbesondere ist also C in kanonischer Weise ein R-Vektorraum und R ist
in kanonischer Weise ein Q-Vektorraum (!).
3.1. Vektorräume 59

Beispiel 3.1.9 (Funktionenräume als Vektorräume). Sei K ein Körper, sei V


ein K-Vektorraum und sei X eine Menge. Dann ist

Abb(X, V ) := {f | f ist eine Abbildung X −→ V }

ein K-Vektorraum bezüglich der punktweisen Addition bzw. Skalarmultipli-


kation (nachrechnen!):

+ : Abb(X, V ) × Abb(X, V ) −→ Abb(X, V )



(f, g) 7−→ x 7→ f (x) + g(x)
· : K × Abb(X, V ) −→ Abb(X, V )

(λ, f ) 7−→ x 7→ λ · f (x)

Damit verwandte Vektorräume treten zum Beispiel in natürlicher Weise in


der Analysis auf (Beispiel 3.1.15).
Wir leiten nun aus den Vektorraumaxiomen erste Folgerungen für das
grundlegende Rechnen ab; der Vorzug dieser abstrakten Sichtweise ist wie-
der, dass alle Aussagen, die wir aus den Vektorraumaxiomen ableiten können,
für alle Vektorräume gelten (insbesondere auch für die oben genannten Bei-
spiele).
Proposition 3.1.10 (Rechnen in Vektorräumen). Sei K ein Körper und sei V
ein K-Vektorraum.
1. Für alle λ ∈ K gilt λ · 0 = 0. Dabei bezeichnet 0 auf beiden Seiten das
neutrale Element der Gruppe (V, +).
2. Für alle v ∈ V gilt 0 · v = 0. Dabei bezeichnet 0 auf der linken Seite
das neutrale Element von (K, +) und auf der rechten Seite das neutrale
Element von (V, +).
3. Für alle λ ∈ K, v ∈ V gilt

λ · v = 0 =⇒ (λ = 0 ∨ v = 0).

4. Für alle λ ∈ K, v ∈ V gilt

(−λ) · v = −(λ · v) = λ · (−v).

Beweis. Der Beweis beruht auf ähnlichen Argumenten wie der Beweis von
Proposition 2.3.9. Wir geben stellvertretend den Beweis für die dritte Aussa-
ge:
Zu 3. Seien λ ∈ K und v ∈ V mit λ · v = 0. Ist λ = 0, so ist nichts zu
zeigen. Wir können also annehmen, dass λ 6= 0 ist. Da K \ {0} bezüglich
Multiplikation ein Körper ist, besitzt λ ein multiplikatives Inverses λ−1 ∈ K.
Damit erhalten wir
60 3. Vektorräume

v =1·v (da 1 bezüglich Skalarmultiplikation neutral ist)


−1
= (λ · λ) · v (da λ−1 multiplikative invers zu λ ist)
= λ−1 · (λ · v) (Assoziativität der Skalarmultiplikation)
−1
=λ ·0 (nach Voraussetzung ist λ · v = 0)
=0 (nach dem ersten Teil)

wie gewünscht.
Literaturaufgabe (für Physiker). Lesen Sie das Kapitel Was sind Vektoren?
im Buch Lineare Algebra von Jänich [10, Kapitel 2.6].

3.1.3 Untervektorräume
In vielen Situationen ist es vorteilhaft, wenn man sich bei der Betrachtung,
auf einen kleinen Ausschnitt konzentrieren kann. Im Fall der Vektorräume
führt dies zum Begriff des Untervektorraums:
Definition 3.1.11 (Untervektorraum). Sei K ein Körper und sei (V, +, · ) ein
K-Vektorraum. Ein K-Untervektorraum von V ist eine Teilmenge U ⊂ V
mit folgenden Eigenschaften:
ˆ Die Abbildungen + : V × V −→ V und · : K × V −→ V schränken
sich zu Abbildungen + : U × U −→ U und · : K × U −→ U ein.
ˆ Die Menge U bildet bezüglich dieser eingeschränkten Addition bzw.
Skalarmultiplikation einen K-Vektorraum.
Anmerkung zum Lernen (Unter. . . ). Die Definition von Untervektorräumen
folgt einem allgemeinen Prinzip: Im Normalfall erhält man aus der Definition
von Irgendwas die Definition von Unter-Irgendwas, indem man eine geeig-
nete Teilmenge betrachtet und verlangt, dass sich die Struktur des großen
Irgendwas auf diese Teilmenge einschränkt und die Teilmenge mit dieser ein-
geschränkten Struktur die Bedingungen der Definition von Irgendwas erfüllt.
Auf diese Weise erhält man auch den Begriff Untergruppe, Untermodul, Un-
termannigfaltigkeit, Teilkörper, Teilraum (im Sinne der Topologie), . . .
Beispiel 3.1.12 (triviale Untervektorräume). Sei K ein Körper und sei V ein
K-Vektorraum. Dann sind {0} ⊂ V und V ⊂ V jeweils K-Untervektorräume
von V .
In der Praxis, ist es besser, die obigen Definition durch das folgende Kri-
terium zu ersetzen:
Proposition 3.1.13 (Charakterisierung von Unterräumen). Sei K ein Körper,
sei (V, +, · ) ein K-Vektorraum und sei U ⊂ V eine nicht-leere Teilmen-
ge. Dann ist U genau dann ein K-Untervektorraum von V , wenn folgende
Bedingungen beide erfüllt sind:
3.1. Vektorräume 61

À Für alle u, v ∈ U gilt u + v ∈ U .


Á Für alle λ ∈ K und alle u ∈ U gilt λ · u ∈ U .
Beweis. Ist U ein K-Untervektorraum von V , so sind die beiden Bedingungen
nach Definition erfüllt.
Es erfülle umgekehrt U ⊂ V die beiden obigen Bedingungen. Dann ist U
ein K-Untervektorraum von V , denn: Da die beiden Bedingungen À und Á
erfüllt sind, schränken sich Addition bzw. Skalarmultiplikation zu entspre-
chenden Verknüpfungen auf U ein.
1. Es ist 0 ∈ U , denn: Wegen U 6= ∅ gibt es ein u ∈ U . Aufgrund von
Proposition 3.1.10 (angewendet auf V ) und Á gilt

0 = 0 · u ∈ U.

2. Es ist U eine abelsche Gruppe bezüglich der eingeschränkten Addition,


denn:
ˆ Da 0 in (V, +) neutral ist, ist 0 insbesondere auch in (U, +) neutral.
Man beachte dabei, dass 0 nach dem ersten Schritt tatsächlich in U
liegt!
ˆ Ist v ∈ U , so ist −v = (−1) · v nach Proposition 3.1.10 und Á
in U . Da U die von V eingeschränkte Addition trägt, ist −v auch
in (U, +) das Inverse von v.
ˆ Die Addition auf U ist assoziativ, da sie die Einschränkung der
assoziativen Addition auf V ist.
3. Die Assoziativität und Neutralität der Skalarmultiplikation bzw. die
Distributivität vererben sich aufgrund der eingeschränkten Verknüpfungen
von V auf U .
Also ist U ein K-Untervektorraum von V .
Beispiel 3.1.14 (Geraden). Sei K ein Körper, sei V ein K-Vektorraum und
sei v ∈ V . Dann ist
K · v := {λ · v | λ ∈ K} ⊂ V
ein K-Untervektorraum von V (nachrechnen!). Ist v 6= 0, so bezeichnet man
diesen Untervektorraum als die von v aufgespannte Gerade in V . Man beachte
dabei, dass 0 ∈ K · v ist; im Anschauungsraum R2 bzw. R3 handelt es sich
dabei also um sogenannte Ursprungsgeraden (Abbildung 3.3). Ist v = 0, so
ist K · v = {0} (Proposition 3.1.10).

Beispiel 3.1.15 (Funktionenräume in der Analysis). Wir betrachten R = R1


als R-Vektorraum und den zugehörigen Vektorraum Abb(R, R). Dann sind
ˆ die Menge der stetigen Funktionen R −→ R,
62 3. Vektorräume

R·v

Abbildung 3.3.: Eine Gerade in R2

ˆ die Menge der differenzierbaren Funktionen R −→ R,


ˆ die Menge der stetig differenzierbaren Funktionen R −→ R,
ˆ die Menge der Polynomfunktionen R −→ R,
ˆ ...
R-Untervektorräume von Abb(R, R). Der Beweis verwendet dabei jeweils
(analytische) Eigenschaften der entsprechenden Sorte von Funktionen und
das Kriterium aus Proposition 3.1.13.
Proposition 3.1.16 (Durchschnitt von Untervektorräumen). Sei K ein Körper,
sei V ein K-Vektorraum und seien U, W ⊂ V K-Untervektorräume von V .
Dann ist auch U ∩ W ein K-Untervektorraum von V .
Allgemeiner gilt: Ist Z ⊂ P (V ) eine nicht-leere
T Menge von K-Untervek-
torräumen von V , so ist auch der Durchschnitt Z = {v | ∀U ∈Z v ∈ U }
ein K-Untervektorraum von V .
Beweis. Dies folgt, indem man nachweist, dass der Durchschnitt die Bedin-
gungen aus Proposition 3.1.13 erfüllt; man beachte dabeit, dass der Durch-
schnitt nicht-leer ist, da jeder Untervektorraum von V den Nullvektor 0
enthält.
Caveat 3.1.17 (Vereinigung von Untervektorräumen). Die Vereinigung von Un-
tervektorräumen ist im allgemeinen kein Untervektorraum! Zum Beispiel ist
das Koordinatenkreuz
      
1 0 x1
2
R· ∪R· = ∈ R x1 · x2 = 0
0 1 x2

in R2 kein R-Untervektorraum von R2 (denn diese Menge ist nicht bezüglich


Addition abgeschlossen).
In der Geometrie und anderen Anwendungen möchte man sich oft nicht auf
Ursprungsgeraden/-ebenen etc. einschränken. Man führt daher entsprechend
verschobene, affine, Begriffe ein:
3.1. Vektorräume 63

Á
w+R·v

w v

Abbildung 3.4.: Eine affine Gerade in R2

Definition 3.1.18 (affiner Unterraum). Sei K ein Körper und sei V ein K-
Vektorraum. Eine Teilmenge U ⊂ V ist ein affiner K-Unterraum von V ,
wenn es ein w ∈ V gibt, so dass

w + U := {w + u | u ∈ U } ⊂ V

ein K-Untervektorraum von V ist.


Beispiel 3.1.19 (affine Geraden). Sei K ein Körper, sei V ein K-Vektorraum
und seien v, w ∈ V . Dann ist

w + K · v = {w + λ · v | λ ∈ K} ⊂ V

ein affiner K-Unterraum von V (Abbildung 3.4). Ist v 6= 0, so bezeichnet man


diesen Unterraum auch als die von v in w aufgespannte affine Gerade in V .
Man beachte dabei, dass w ∈ w + K · v ist. Ist v = 0, so ist w + K · v = {w}.
Zum Beispiel kann man Fragen über das Spiel SET1 in Fragen über affine
Geraden in einem Vektorraum über dem Körper F3 übersetzen (Anhang A.3).

3.1.4 Erzeugendensysteme
Da die Spezifikation von Untervektorräumen, indem man die Menge aller
Elemente angibt, umständlich ist, verwendet man die folgende Konvention:
Definition 3.1.20 (Erzeugendensystem, erzeugter Untervektorraum). Sei K ein
Körper, sei V ein K-Vektorraum und sei E ⊂ V .
ˆ Dann heißt der K-Untervektorraum (Proposition 3.1.16)
\
SpanK (E) := U
U ∈UE (V )

1 SET ist eine Trademark von SET Enterprises, Inc.


64 3. Vektorräume

von E erzeugter K-Untervektorraum von V . Dabei bezeichnet UE (V ) ⊂


P (V ) die Menge aller K-Untervektorräume U von V mit E ⊂ U (ins-
besondere ist V ∈ UE (V )).
ˆ Ist SpanK (E) = V so ist E ein Erzeugendensystem von V .
Anmerkung zum Lernen (erzeugter Unter. . . ). Nach Definition ist in der obi-
gen Situation SpanK (E) ⊂ V der bezüglich Inklusion kleinste Untervektor-
raum von V , der die Menge E enthält. Nach dem selben Prinzip kann man
auch die von einer Teilmenge erzeugte Untergruppe bzw. den erzeugten Un-
terkörper etc. definieren.
Unter Benutzung der Summennotation (Notation 2.1.11) können wir den
von einer Teilmenge erzeugten Unterraum etwas expliziter wie folgt beschrei-
ben:
Proposition 3.1.21 (explizite Beschreibung erzeugter Untervektorräume). Sei
K ein Körper, sei V ein K-Vektorraum und sei E ⊂ V . Dann ist
Xn 

SpanK (E) =
λj · vj n ∈ N, v1 , . . . , vn ∈ E, λ1 , . . . , λn ∈ K .
j=1

Beweis. Es ist eine Gleichheit von Mengen zu zeigen; wir zeigen die beiden
Inklusionsrichtungen einzeln. Wir schreiben kurz W für die Menge auf der
rechten Seite.
Es gilt SpanK (E) ⊂ W , denn: Nach Definition von SpanK (E) genügt es
zu zeigen, dass W ∈ UE (V ) ist – denn dann folgt
\
SpanK (E) = UE (V ) ⊂ W.

Die Tatsache, dass W ∈ UE (V ) ist, kann man mithilfe der Definition von W
nachrechnen (Übungsaufgabe).
Außerdem gilt W ⊂ SpanK (E), denn: Nach Definition von SpanK (E)
genügt es dafür folgendes zu zeigen: Ist U ∈ UE (V ), so folgt W ⊂ U . Diese
Aussage folgt durch eine naheliegende Induktion (Übungsaufgabe).
In Vektorräumen der Form K n gibt es ein ausgezeichnetes Erzeugenden-
system, nämlich die Menge der Standardeinheitsvektoren.
Definition 3.1.22 (Standardeinheitsvektoren). Sei K ein Körper, sei n ∈ N>0 .
Ist j ∈ {1, . . . , n}, so schreiben wir
 
0
.. 
. 
 
ej := 
 1 (in der j-ten Zeile)  ∈ Kn

. 
.. 
0
3.1. Vektorräume 65

(d.h. in der j-ten Zeile steht 1, in allen anderen Zeilen steht 0) für den j-ten
Standardeinheitsvektor von K n .

Beispiel 3.1.23. Sei K ein Körper und sei n ∈ N. Dann ist {e1 , . . . , en } ein
Erzeugendensystem von K n , denn: Jedes x ∈ K n kann in der Form
 
x1 n
 ..  X
x= . = xj · ej
xn j=1

dargestellt werden.
Andererseits ist {e1 } kein Erzeugendensystem von K 2 , denn die zweite
Koordinate aller Elemente von SpanK ({e1 }) ist 0; insbesondere ist daher
auch e2 ∈ K 2 \ SpanK ({e1 }).

Beispiel 3.1.24. Sei K ein Körper und sei V ein K-Vektorraum. Aus der
Definition von erzeugten Untervektorräumen folgt

SpanK (∅) = {0} ⊂ V und SpanK (V ) = V.

Insbesondere ist V ein Erzeugendensystem von V (wenn auch kein besonders


sparsames).

Wir können mit diesen Begriffen einen ersten Schritt in Richtung Kom-
plexität von Vektorräumen gehen:

Definition 3.1.25 (endlich erzeugt). Ein Vektorraum ist endlich erzeugt, wenn
er ein endliches Erzeugendensystem besitzt.

Eine kurze Einführung in Endlichkeit und Mächtigkeit von Mengen findet


sich in Anhang A.4.

Beispiel 3.1.26. Sei K ein Körper und sei n ∈ N. Dann ist K n nach Bei-
spiel 3.1.23 endlich erzeugt.
Ist X eine unendliche Menge, so kann man zeigen, dass der Vektor-
raum Abb(X, K) nicht endlich erzeugt ist (wir werden später ein Hilfsmittel
kennenlernen, mit dem man das einfach zeigen kann).

Naheliegende Fragen sind nun:

ˆ Wie kann man effizient überprüfen, ob eine Teilmenge eines Vektor-


raums ein Erzeugendensystem dieses Vektorraums ist?

ˆ Wie klein können Erzeugendensysteme eines Vektorraums sein?

Wir werden beide Fragen im Laufe dieser Vorlesung beantworten.


66 3. Vektorräume

3.2 Lineare Unabhängigkeit


Auf der Suche nach geeigneten, kleinen“, Erzeugendensystemen von Un-

tervektorräumen stößt man auf natürliche Weise auf den Begriff der linearen
Unabhängigkeit. Geometrisch liefert lineare Unabhängigkeit eine Antwort auf
die Frage, welche Bedingung zwei Vektoren in R3 erfüllen müssen, damit sie
eine Ebene in R3 aufspannen und nicht nur eine Gerade oder gar nur {0}.

3.2.1 Linearkombinationen
Als Hilfsmittel für die Definition der linearen Unabhängigkeit führen wir
zunächst Familien und Linearkombinationen ein:
Definition 3.2.1 (Familie). Seien X und I Mengen. Eine (über I indizierte)
Familie (xi )i∈I in X ist eine Abbildung

I −→ X
i 7−→ xi .

Ist (xi )i∈I eine Familie in X, so ist eine Teilfamilie von (xi )i∈I eine Familie
der Form (xj )j∈J , wobei J ⊂ I eine Teilmenge von I ist. Eine Familie (xi )i∈I
ist endlich, wenn I endlich ist.
Man beachte, dass über N indizierte Familien dasselbe wie Folgen sind.
Bemerkung 3.2.2 ((Teil)Mengen vs. Familien). Seien X und I Mengen und sei
(xi )i∈I eine Familie in X. Im Unterschied zur Menge {xi | i ∈ I} ⊂ X können
in der Familie (xi )i∈I Elemente aus X mehrfach auftreten und bei (xi )i∈I
ist auch die Reihenfolge“ der Elemente relevant (d.h. welches Element zu

welchem Index aus I gehört).
Definition 3.2.3 (Linearkombination). Sei K ein Körper, sei V ein K-Vektor-
raum und sei (vi )i∈I eine Familie in V . Eine Linearkombination der (vi )i∈I
ist eine Summe der Form X
λj · vj ,
j∈J

wobei J ⊂ I eine endliche Teilmenge und (λj )j∈J eine Familie (sogenannter
Koeffizienten) in K ist. Man beachte dabei, dass diese Summe tatsächlich
wohldefiniert ist (dies folgt induktiv über |J|, da die Addition in V assoziativ
und kommutativ ist).
Ist (vi )i∈I eine Familie in einem K-Vektorraum, so ist SpanK ({vi | i ∈ I})
nach Proposition 3.1.21 die Menge der Linearkombinationen von (vi )i∈I .
3.2. Lineare Unabhängigkeit 67

3.2.2 Lineare Unabhängigkeit


Eine Familie von Vektoren ist linear unabhängig, wenn diese Vektoren keine
unnötigen“ linearen Abhängigkeiten untereinander besitzen. Dies lässt sich

bequem mit Linearkombinationen formalisieren:

Definition 3.2.4 (linear abhängig, linear unabhängig). Sei K ein Körper und
sei V ein K-Vektorraum.

ˆ Eine endliche Familie (vj )j∈J in V heißt linear


P unabhängig, wenn fol-
gendes gilt: Ist (λj )j∈J eine Familie in K mit j∈J λj · vj = 0, so folgt
bereits
∀j∈J λj = 0.

ˆ Eine Familie in V ist linear unabhängig, wenn jede endliche Teilfamilie


linear unabhängig ist.

ˆ Eine Familie in V ist linear abhängig, wenn sie nicht linear unabhängig
ist.

Bemerkung 3.2.5 (linear abhängig, explizit). Sei K ein Körper, sei V ein K-
Vektorraum und sei n ∈ N. Eine Familie (vj )j∈{1,...,n} (auch als (v1 , . . . , vn )
geschrieben) ist genau dann linear abhängig, wenn es λ1 , . . . , λn ∈ K gibt
mit
Xn
∃j∈{1,...,n} λj 6= 0 und λ j · vj = 0
j=1

(d.h., wenn es eine nicht-triviale“ Linearkombination der Familie gibt, die 0



ergibt).

Beispiel 3.2.6. Sei K ein Körper.

ˆ Die leere Familie ist in jedem K-Vektorraum linear unabhängig.

ˆ Die Familie, die nur aus 0 besteht, ist in jedem K-Vektorraum linear
abhängig, denn
1 6= 0 und 1 · 0 = 0.

ˆ Ist V ein K-Vektorraum, ist (vi )i∈I eine Familie in V und gibt es i, j ∈ I
mit i 6= j und vi = vj , so ist diese Familie linear abhängig, denn

1 6= 0 und 1 · vi + (−1) · vj = vi − vj = 0.

ˆ Sei n ∈ N. Dann ist die Familie P (e1 , . . . , en ) in K n linear unabhängig,


n
denn: Seien λ1 , . . . , λn ∈ K mit j=1 λj · ej = 0. Dann gilt nach Defi-
nition
68 3. Vektorräume

v
w = −2 · v w

spannen keine Ebene auf spannen eine Ebene auf

Abbildung 3.5.: Wann spannen zwei Vektoren in R3 ein geometrische Ur-


sprungsebene auf?

   
0 n λ1
 ..  X  .. 
. = 0 = λ j · ej =  .  .
0 j=1 λn
Also gilt für alle j ∈ {1, . . . , n}, dass λj = 0 ist.

ˆ Analog zeigt man: Ist X eine Menge, so ist die Familie (fi )i∈X im
Abbildungsraum Abb(X, K) linear unabhängig, wobei wir für i ∈ X
die Abbildung fi wie folgt definieren:

fi : X −→ K
(
1 falls x = i
x 7−→
0 6 i
falls x =

Beispiel 3.2.7 (Ebenen). Seien v, w ∈ R3 . Dann ist der von {v, w} erzeug-
te Untervektorraum von R3 genau dann geometrisch eine Ebene, wenn die
Familie (v, w) linear unabhängig ist (siehe auch Abbildung 3.5).

Beispiel 3.2.8 (RGB). Ein weitverbreitetes Modell zur Beschreibung von Far-
ben ist RGB (als Abkürzung für red, green, blue). Es handelt sich dabei um
ein additives Farbmodell (Wasserfarben und Farbdrucker hingegen mischen
subtraktiv), das an die Funktionsweise des menschlichen Auges angelehnt ist,
und z.B. in Computermonitoren und Bildsensoren für Digitalkameras verwen-
det wird. Farben im RGB-Modell werden durch Vektoren im Würfel
  
 r 
[0, 1]3 := g  r, g, b ∈ [0, 1] ⊂ R3
 
b
3.2. Lineare Unabhängigkeit 69

Abbildung 3.6.: Additive Farbmischung und der RGB-Würfel

spezifiziert (Abbildung 3.6). In diesem Modell entspricht dann


ˆ der Standardeinheitsvektor e1 der Farbe rot,
ˆ der Standardeinheitsvektor e2 der Farbe grün,
ˆ der Standardeinheitsvektor e3 der Farbe blau,
und allgemein beschreiben die drei Koordinaten die Beteiligung der drei
Grundfarben rot, grün, blau. Zum Beispiel erhalten wir die folgenden Ent-
sprechungen:
     
1 0 1
0 0 1
1 0 1

pink schwarz weiß


Das Farbmodell ist insofern vernünftig gewählt, dass die lineare Unabhängig-
keit der Familie (e1 , e2 , e3 ) in R3 der physikalischen und biologischen Be-
obachtung entspricht, dass sich die Farben rot, grün, blau im additiven Farb-
modell linear unabhängig verhalten. Zum Beispiel gibt es in diesem Farb-
modell nur genau ein Tripel, das die Farbe schwarz beschreibt, nämlich den
Nullvektor.

Caveat 3.2.9 (lineare Unabhängigkeit vs. paarweise lineare Unabhängigkeit). Ist


eine Familie von Vektoren paarweise linear unabhängig, so ist sie im allgemei-
nen nicht linear unabhängig. Zum Beispiel sind die Vektoren e1 , e1 + e2 , e2
in R2 paarweise linear unabhängig, aber die Familie (e1 , e1 + e2 , e2 ) ist line-
ar abhängig (nachrechnen!). Lineare Unabhängigkeit ist also eine globale“

Eigenschaft von Familien von Vektoren.
70 3. Vektorräume

3.2.3 Lineare (Un)Abhängigkeit und Darstellbarkeit


Linear abhängige Familien von Vektoren sind im folgenden Sinne redundant.

Proposition 3.2.10 (lineare Abhängigkeit und Darstellbarkeit). Sei K ein Kör-


per, sei V ein K-Vektorraum und sei (vi )i∈I eine Familie in V . Dann
sind die folgenden Aussagen äquivalent (d.h. diese Aussagen sind paarwei-
se äquivalent):

1. Die Familie (vi )i∈I ist linear abhängig.

2. Es gibt ein i ∈ I, eine endliche Menge J ⊂ I \ {i} und eine Fami-


lie (λj )j∈J in K mit X
vi = λ j · vj
j∈J

(d.h. einer der Vektoren aus der Familie ist als Linearkombination der
anderen darstellbar).

3. Es gibt ein i ∈ I mit


 
SpanK {vj | j ∈ I} = SpanK {vj | j ∈ I \ {i}} .

Beweis. Es genügt, die drei Implikationen


1.
=⇒

=⇒

2. =⇒ 3.

zu zeigen, da dann jede der drei Aussagen die anderen beiden impliziert; an
dieser Stelle geht die folgende aussagenlogische Tautologie ein:

(A =⇒ B) ∧ (B =⇒ C) =⇒ (A =⇒ C)

Zu 1. =⇒ 2. Die Familie (vi )i∈I sei linear abhängig. Insbesondere ist die
Familie somit nicht-leer und es existiert eine endliche Teilmenge J ⊂ I, eine
Familie (λj )j∈J in K mit X
λj · vj = 0,
j∈J

wobei es ein i ∈ J mit λi 6= 0 gibt. Dann ist


X λj
vi = − · vj
λi
j∈J\{i}

eine Linearkombination der gewünschten Form.


3.2. Lineare Unabhängigkeit 71

Zu 2. =⇒ 3. Es gebe ein i ∈ I, eine endliche Menge J ⊂ I \ {i} und eine


Familie (λj )j∈J in K mit X
vi = λ j · vj .
j∈J

Also ist (nach Proposition 3.1.21)


 
vi ∈ SpanK {vj | j ∈ J} = SpanK {vj | j ∈ I \ {i}} ,
 
und damit SpanK {vj | j ∈ I} ⊂ SpanK {vj | j ∈ I \ {i}} . Umgekehrt gilt
nach Definition
 
SpanK {vj | j ∈ I \ {i}} ⊂ SpanK {vj | j ∈ I} .
 
Also ist SpanK {vj | j ∈ I \ {i}} = SpanK {vj | j ∈ I} .
Zu 3. =⇒ 1. Es gebe ein i ∈ I mit
 
SpanK {vj | j ∈ I} = SpanK {vj | j ∈ I \ {i}} .

Insbesondere ist vi ∈ SpanK {vj | j ∈ I \ {i}} . Mit Proposition 3.1.21 folgt:
Es gibt eine endliche Teilmenge J ⊂ I \ {i} und eine Familie (λj )j∈J in K
mit X
vi = λ j · vj .
j∈J

Dann ist X
1 · vi + (−λj ) · vj = 0
j∈J

eine Linearkombination der gegebenen Familie, die 0 ergibt, und einer der
Koeffizienten (nämlich der von vi ) ist nicht 0. Also ist die Familie linear
abhängig.
Umgekehrt betrachtet sind linear unabhängige Familien von Vektoren ef-
fizient in dem Sinne, dass jeder Vektor auf höchstens eine Art als Linearkom-
bination einer gegebenen linear unabhängigen Familie geschrieben werden
kann:
Proposition 3.2.11 (lineare Unabhängigkeit und Darstellbarkeit). Sei K ein
Körper, sei V ein K-Vektorraum, sei n ∈ N und sei (v1 , . . . , vn ) eine Familie
in V . Dann sind die folgenden Aussagen äquivalent:
1. Die Familie (v1 , . . . , vn ) ist linear unabhängig.
2. Die folgende Abbildung ist injektiv:

K n −→ V
Xn
λ 7−→ λj · vj
j=1
72 3. Vektorräume

Beweis. Man kann dies aus Proposition 3.2.10 folgern oder die beiden Impli-
kationen ausgehend von den Definitionen ableiten (Übungsaufgabe).

Wir werden später einen Algorithmus kennenlernen, mit dem man effizient
überprüfen kann, ob eine Familie in K n linear unabhängig ist oder nicht.

3.3 Basen
Wir werden uns nun auf linear unabhängige Erzeugendensysteme, sogenannte
Basen, konzentrieren. Wir werden feststellen, dass jeder Vektorraum eine
Basis besitzt und dass je zwei Basen dieselbe Mächtigkeit haben. Dies führt
zum Begriff der Dimension eines Vektorraums.

3.3.1 Basen
Wir geben nun die präzise Definition von Basen in Vektorräumen:

Definition 3.3.1 (Basis). Sei K ein Körper und sei V ein K-Vektorraum. Eine
Familie (vi )i∈I in V ist eine Basis von V , wenn

ˆ die Familie (vi )i∈I linear unabhängig ist

ˆ und {vi | i ∈ I} ein Erzeugendensystem von V ist.

Notation 3.3.2. Ist (vi )i∈I eine Familie in einem Vektorraum V , so sagen wir
auch kurz (aber etwas schlampig), dass (vi )i∈I ein Erzeugendensystem von V
ist, wenn die zugehörige Menge {vi | i ∈ I} ein Erzeugendensystem von V
ist.

Beispiel 3.3.3 (Standardbasis). Sei K ein Körper und sei n ∈ N. Dann ist
(ej )j∈{1,...,n} eine Basis von K n , die sogenannte Standardbasis von K n .
Man beachte dabei aber, dass K n noch viele andere Basen besitzt: Zum
Beispiel ist für jedes λ ∈ K \ {0} auch (λ · ej )j∈{1,...,n} eine Basis von K n .
Eine weitere Basis von K n ist zum Beispiel (e1 + e2 , e2 , . . . , en ). Wir werden
später lernen, wie man alle Basen von K n beschreiben kann.
Andererseits ist (e1 , e2 , −e2 , . . . , en ) keine Basis von K n , da diese Familie
nicht linear unabhängig ist, und (e1 , . . . , en−1 ) ist keine Basis von K n , da
dies kein Erzeugendensystem ist (falls n > 0 ist).

Bemerkung 3.3.4 (eindeutige Darstellbarkeit durch Basen). Warum sind Basen


so gut geeignet, Vektorräume effizient zu beschreiben? Ist (v1 , . . . , vn ) eine
Basis eines K-Vektorraums V , so gilt: Zu jedem Vektor v gibt es eindeutig
bestimmte Koeffizienten λ1 , . . . , λn ∈ K mit
3.3. Basen 73

Á Á À

e2
v2
v1
e1 À

Abbildung 3.7.: Die Standardbasis von R2 und eine weitere Basis

n
X
v= λ j · vj
j=1

(die Existenz folgt, da {v1 , . . . , vn } ein Erzeugendensystem von V ist; die


Eindeutigkeit folgt mit Proposition 3.2.11 aus der linearen Unabhängigkeit
von (v1 , . . . , vn )). Analog können wir dies auch für unendliche Basen formu-
lieren.

Bemerkung 3.3.5 (Basen als Koordinatensysteme). Es ist daher vernünftig,


sich vorzustellen, dass Basen eine Verallgemeinerung des durch (e1 , . . . , en )
gegebenen Koordinatensystems in K n sind (Abbildung 3.7).

In manchen Situationen ist es günstig, Basen auch durch die folgenden


alternativen Charakterisierungen beschreiben zu können:

Satz 3.3.6 (alternative Charakterisierungen von Basen). Sei K ein Körper,


sei V ein K-Vektorraum und sei (vi )i∈I eine Familie in V . Dann sind die
folgenden Aussagen äquivalent:

1. Die Familie (vi )i∈I ist eine Basis von V .

2. Es ist (vi )i∈I eine maximale linear unabhängige Familie (d.h. diese Fa-
milie ist linear unabhängig und jede Familie in V , die diese Familie als
echte Teilfamilie enthält, ist linear abhängig).

3. Es ist {vi | i ∈ I} ein minimales Erzeugendensystem von V (d.h. diese


Menge ist ein Erzeugendensystem und ist J ⊂ I eine echte Teilmenge,
so ist {vj | i ∈ J} kein Erzeugendensystem von V ).

Beweis. Zu 1. =⇒ 2. Sei (vi )i∈I eine Basis von V . Nach Definition ist (vi )i∈I
somit linear unabhängig. Warum liegt Maximalität vor? Da {vi | i ∈ I} ein
74 3. Vektorräume

Erzeugendensystem von V ist, gilt dies auch für jede Familie, die (vi )i∈I als
echte Teilfamilie enthält. Mit Proposition 3.2.10 (genauer mit der Implikati-
on 3. =⇒ 1.“) folgt somit, dass jede solche echte Oberfamilie linear abhängig

ist.
Zu 2. =⇒ 3. Sei (vi )i∈I eine maximale linear unabhängige Familie. Dann
ist {vi | i ∈ I} ein Erzeugendensystem von V , denn: Sei v ∈ V . Fügt
man v zur gegebenen Familie hinzu, so ist die neue Familie (aufgrund
der Maximalität) linear abhängig. Mit Proposition 3.2.10 (genauer mit der
Äquivalenz 1. ⇐⇒ 2.“) erhalten wir somit, dass v als Linearkombination

der (vi )i∈I dargestellt werden kann. Mit Proposition 3.1.21 folgt daher, dass
v ∈ SpanK ({vi | i ∈ I}) ist. Also ist V = SpanK ({vi | i ∈ I}).
Außerdem ist dieses Erzeugendensystem von V aufgrund der linearen Un-
abhängigkeit minimal nach Proposition 3.2.10 (genauer nach der Kontrapo-
sition der Implikation 3. =⇒ 1.“).

Zu 3. =⇒ 1. Sei {vi | i ∈ I} ein minimales Erzeugendensystem von V .
Dann ist die Familie (vi )i∈I nach Proposition 3.2.10 (genauer nach der Kon-
traposition der Implikation 1. =⇒ 3.“) linear unabhängig.

Um sinnvoll mit Basen in Vektorräumen arbeiten zu können, sind die
folgenden Fragen zu beantworten:

ˆ Besitzt jeder Vektorraum eine Basis?

ˆ Welche Gemeinsamkeiten haben verschiedene Basen desselben Vektor-


raums?

Wir werden diese Fragen zunächst im endlich erzeugten Fall beantworten und
dann auf den nicht endlich erzeugten Fall eingehen.

3.3.2 Endlich erzeugte Vektorräume


Wir beginnen die Suche nach Basen in endlich erzeugten Vektorräumen:

Satz 3.3.7 (Existenz von Basen, endlich erzeugter Fall). Jeder endlich erzeugte
Vektorraum besitzt eine endliche Basis.

Beweis. Die Idee ist, die Charakterisierung von Basen als minimale Erzeu-
gendensysteme zu verwenden, und die folgende (etwas stärkere) Aussage zu
zeigen, indem wir so lange Vektoren aus einem endlichen Erzeugendensystem
entfernen, bis ein minimales Erzeugendensystem vorliegt:

Ist K ein Körper und ist V ein endlich erzeugter K-Vektorraum mit
endlichem Erzeugendensystem E, so gibt es eine Basis von V , die nur
aus Elementen von E besteht (insbesondere ist eine solche Basis also
auch endlich, da E nur endlich viele Elemente enthält und in einer Basis
keine Vektoren mehrfach vorkommen können).
3.3. Basen 75

Wir beweisen diese Aussage induktiv über die Anzahl |E| der Elemente
von E: Induktionsanfang. Ist |E| = 0, so ist E = ∅. Insbesondere ist E dann
linear unabhängig und somit eine Basis (von V = SpanK ∅ = {0}).
Induktionsschritt. Sei |E| > 0 und die Behauptung in allen Fällen mit
Erzeugendensystemen mit weniger Elementen bereits gezeigt. Da E endlich
ist, gibt es ein n ∈ N und (paarweise verschiedene) Vektoren v1 , . . . , vn ∈ V
mit E = {v1 , . . . , vn }. Wir unterscheiden nun zwei Fälle:
ˆ Ist E ein minimales Erzeugendensystem von V , so ist (v1 , . . . , vn ) nach
Satz 3.3.6 eine Basis.
ˆ Ist E kein minimales Erzeugendensystem von V , so gibt es also ein j ∈
{1, . . . , n} mit der Eigenschaft, dass E 0 := E \ {vj } ein Erzeugenden-
system von V ist. Wegen |E 0 | ≤ |E| − 1 < |E| können wir die Induk-
tionsvoraussetzung auf E 0 anwenden und finden somit eine Teilfamilie
von (v1 , . . . , vj−1 , vj+1 , . . . , vn ), die eine Basis von V ist.
Also gibt es eine Basis von V , die nur aus Elementen von E besteht.
Beispiel 3.3.8. Es gibt keinen F2 -Vektorraum, der genau 2016 Elemente
enthält (Übungsaufgabe).
Um Basen gut miteinander vergleichen zu können, gibt es zwei zentrale
Hilfsmittel, den Austauschsatz und den Ergänzungssatz.
Satz 3.3.9 (Austauschsatz). Sei K ein Körper, sei V ein endlich erzeugter
K-Vektorraum und sei (v1 , . . . , vn ) eine Basis von V . Ist w ∈ V \ {0}, so gibt
es ein j ∈ {1, . . . , n}, so dass

(v1 , . . . , vj−1 , w, vj+1 , . . . , vn )

eine Basis von V ist.


Genauer gilt: Ist k ∈ {1, . . . , n} und ist die Familie (v1 , . . . , vk , w) linear
unabhängig, so kann j > k gewählt werden.
Beweis. Da (v1 , . . . , vn ) als Basis ein Erzeugendensystem von V ist, gibt es
Koeffizienten λ1 , . . . , λn ∈ K mit
n
X
w= λr · vr .
r=1

Wegen w 6= 0 ist einer dieser Koeffizienten nicht 0; sei etwa j ∈ {1, . . . , n}


mit λj 6= 0 (für die Zusatzbehauptung beachte man, dass man hier j > k
wählen kann und dass aufgrund der Maximalität von Basen k < n ist).
Wir zeigen nun, dass die Familie

B := (v1 , . . . , vj−1 , w, vj+1 , . . . , vn )

eine Basis von V ist:


76 3. Vektorräume

ˆ Die B unterliegende Menge ist ein Erzeugendensystem von V , denn:


Nach Konstruktion von B genügt es zu zeigen, dass vj in SpanK (B)
liegt. Aus der obigen Gleichung für w erhalten wir
X −λr
vj = 1 · w + · vj ,
λj
r∈{1,...,n}\{j}

und damit vj ∈ SpanK (B).

ˆ Die Familie B ist linear unabhängig, denn: Seien µ, µ1 , . . . , µj−1 ,


µj+1 , . . . , µn ∈ K mit
X
µ·w+ µr · vr = 0.
r∈{1,...,n}\{j}

Indem wir die obige Gleichung für w in diese Gleichung einsetzen, er-
halten wir
X
µ · λ j · vj + (µ · λr + µr ) · vr = 0.
r∈{1,...,n}\{j}

Da (v1 , . . . , vn ) eine linear unabhängige Familie ist, liefert dies µ·λj = 0


und µ · λr + µr = 0 für alle r ∈ {1, . . . , n} \ {j}. Nach Konstruktion
ist λj 6= 0, und damit liefert die Gleichung µ · λj = 0, dass µ = 0. Aus
den anderen Gleichungen folgt dann µr = 0 für alle r ∈ {1, . . . , n} \ {j}.
Daher ist B linear unabhängig.

Also ist B eine Basis von V , wie behauptet.

Als Folgerung (Korollar2 ) erhalten wir durch iteriertes3 Anwenden des


Austauschsatzes die folgende Variante:

Korollar 3.3.10 (iterierter Austausch). Sei K ein Körper, sei V ein end-
lich erzeugter K-Vektorraum, sei (v1 , . . . , vn ) eine Basis von V und sei
(w1 , . . . , wm ) eine linear unabhängige Familie in V . Dann gibt es eine Teil-
menge J ⊂ {1, . . . , n}, so dass die zusammengesetzte Familie

w1 , . . . , wm , (vj )j∈J

eine Basis von V ist. Außerdem gilt m ≤ n.

Beweis. Wir können m-mal den Austauschsatz (Satz 3.3.9) anwenden und
erhalten so induktiv Basen
2 Das Wort Korollar leitet sich vom lateinischen Wort corollarium ab, das ursprünglich
Kränzchen oder Geschenk bedeutet. Ein Korollar ist also so etwas wie ein Geschenk,
das man zu einem Satz dazu bekommt . . .
3 Das Wort iterieren leitet sich vom lateinischen Wort iterare ab, das wiederholen bedeu-

tet.
3.3. Basen 77

w1 , eine Teilfamilie von (v1 , . . . , vn ) ,

w1 , w2 , eine Teilfamilie von (v1 , . . . , vn ) ,

w1 , w2 , w3 , eine Teilfamilie von (v1 , . . . , vn ) ,
..
.

w1 , . . . , wm , eine Teilfamilie von (v1 , . . . , vn ) ,

von V ; man beachte dabei, dass aufgrund der linearen Unabhängigkeit


von (w1 , . . . , wm ) wirklich in jedem Schritt gegen einen Vektor aus (v1 , . . . , vn )
und nicht gegen einen der bereits eingefügten Vektoren aus (w1 , . . . , wm ) ge-
tauscht wird.
Insbesondere ist m ≤ n und im letzten Schritt erhalten wir eine Basis
von V von der gewünschten Form.

Beispiel 3.3.11. Also ist jede Familie mit mindestens vier Vektoren im R-
Vektorraum R3 linear abhängig (da die Standardbasis von R3 nur drei Ele-
mente enthält).

Korollar 3.3.12 (alle Basen haben dieselbe Länge). Sei K ein Körper, sei V
ein endlich erzeugter K-Vektorraum und seien (v1 , . . . , vn ) und (w1 , . . . , wm )
Basen von V . Dann folgt n = m.

Beweis. Da Basen linear unabhängige Systeme sind, können wir den iterier-
ten Austauschsatz (Korollar 3.3.10) in beide Richtungen anwenden; auf diese
Weise erhalten wir m ≤ n und n ≤ m, und damit m = n.

Beispiel 3.3.13 (Basen von K n ). Ist K ein Körper und n ∈ N, so besteht jede
Basis von K n aus genau n Vektoren (da die Standardbasis dies erfüllt).

Korollar 3.3.14 (Ergänzungssatz). Sei K ein Körper, sei V ein endlich er-
zeugter K-Vektorraum und sei (w1 , . . . , wm ) eine linear unabhängige Fami-
lie in V . Dann gibt es ein n ∈ N≥m und Vektoren vm+1 , . . . , vn , so dass
(w1 , . . . , wm , vm+1 , . . . , vn ) eine Basis von V ist.

Beweis. Nach Satz 3.3.7 besitzt V eine endliche Basis. Auf eine solche Basis
und die gegebene linear unabhängige Familie (w1 , . . . , wm ) wenden wir den
iterierten Austauschsatz (Korollar 3.3.10) an und erhalten so eine Basis von V
von der gewünschten Form.

Außerdem liefert uns der iterierte Austauschsatz eine Möglichkeit nachzu-


weisen, dass gewisse Vektorräume nicht endlich erzeugt sind:

Korollar 3.3.15 (große linear unabhängiger Familien). Sei K ein Körper und
sei V ein endlich erzeugter K-Vektorraum. Dann enthält V keine unendliche
linear unabhängige Familie.
78 3. Vektorräume

Beweis. Da V endlich erzeugt ist, besitzt V eine endliche Basis (Satz 3.3.7),
etwa (v1 , . . . , vn ).
Angenommen, V enthält eine unendliche linear unabhängige Familie. Dann
enthält V auch eine linear unabhängige Folge (wm )m∈N (strenggenommen
benötigt man dafür Satz A.4.7). Für jedes m ∈ N ist (w1 , . . . , wm ) linear un-
abhängig und mit dem iterierten Austauschsatz (Korollar 3.3.10) folgt daher,
dass m ≤ n, was nicht sein kann.
Also enthält V keine unendliche linear unabhängige Familie.

Beispiel 3.3.16 (ein nicht endlich erzeugter Vektorraum). Ist K ein Körper und
ist X eine unendliche Menge, so ist also der K-Vektorraum Abb(X, K) nicht
endlich erzeugt, denn Abb(X, K) enthält eine unendliche linear unabhängige
Familie (Beispiel 3.2.6).

3.3.3 Exkurs: Das Zornsche Lemma

Um die Existenz von Basen in nicht notwendig endlich erzeugten Vek-


torräumen nachzuweisen, benötigen wir ein Hilfsmittel aus der Mengenlehre
– das Zornsche Lemma.

Definition 3.3.17 (partielle Ordnung, total geordnete Kette, obere Schranke,


maximales Element). Sei M eine Menge.

ˆ Eine partielle Ordnung auf M ist eine Relation ≤ auf M , die reflexiv,
transitiv und anti-symmetrisch ist, d.h.

∀x,y∈M (x ≤ y) ∧ (y ≤ x) =⇒ (x = y).

ˆ Eine partielle Ordnung ≤ auf M ist eine totale Ordnung, wenn

∀x,y∈M (x ≤ y) ∨ (y ≤ x).

ˆ Sei ≤ eine partielle Ordnung auf M . Wir nennen eine Teilmenge N ⊂ M


eine total geordnete Kette, wenn die Einschränkung von ≤ auf N eine
totale Ordnung ist.

ˆ Sei ≤ eine partielle Ordnung auf M und sei N ⊂ M . Ein Element m ∈


M ist eine obere Schranke von N , wenn

∀x∈N x ≤ m.

ˆ Sei ≤ eine partielle Ordnung auf M . Ein Element m ∈ M ist maximal


für M , wenn gilt: Für alle x ∈ M mit m ≤ x folgt bereits x = m.
3.3. Basen 79

{0, 1}

{0} {1}

Abbildung 3.8.: Die Inklusionsrelation auf der Potenzmenge von {0, 1}. Men-
gen, die weiter oben gezeichnet sind, sind größer als Mengen,
die weiter unten gezeichnet sind; Elemente, die vergleichbar
sind, sind dabei durch eine Linie verbunden.

Beispiel 3.3.18 (Inklusionsrelation). Sei X eine Menge und sei M := P (X).


Dann liefert die Inklusion von Mengen eine partielle Ordnung auf M (nach-
rechnen!). Im allgemeinen ist diese partielle Ordnung keine totale Ordnung
auf M .
Wir betrachten dazu den folgenden Spezialfall (Abbildung 3.8): Ist X =
{0, 1}, so gilt weder {0} ⊂ {1} noch {1} ⊂ {0}. Insbesondere ist in diesem
Fall auch {{0}, {1}} keine total geordnete Kette. Ein Beispiel für eine total
geordnete Kette ist {∅, {0}, {0, 1}}.
Jede total geordnete Kette N ⊂ M bestizt S eine obere Schranke in M ,
nämlich zum Beispiel die Vereinigungsmenge N oder einfach X. Außerdem
ist in diesem Fall X das einzige maximale Element.
Das Zornsche Lemma gibt ein Kriterium für die Existenz maximaler Ele-
mente:
Satz 3.3.19 (das Zornsche Lemma). Sei (M, ≤) eine nicht-leere partiell ge-
ordnete Menge, in der jede total geordnete Kette eine obere Schranke in M
besitzt. Dann besitzt (M, ≤) ein maximales Element in M .
Die Tatsache, dass dieser Satz das Wort Lemma“ im Titel trägt mag et-

was verwirrend sein. Tatsächlich hat das Wort Lemma“ über die Zeit seine

Bedeutung geändert: Ursprünglich handelte es sich dabei um einen wichtigen,
zentralen, Satz. Heutzutage verwendet man Lemma“ als Synonym für Hilfs-
” ”
satz“, also für einen kleinen Baustein, der für ein umfangreicheres Resultat
als Hilfsmittel benötigt wird.
Der Beweis des Zornschen Lemmas würde an dieser Stelle zu weit führen,
da man dafür weitere Techniken aus der Mengenlehre benötigt. Was man
sich allerdings merken sollte, ist, dass das Zornsche Lemma (aufbauend auf
den übrigen Axiomen der Mengenlehre) äquivalent zum Auswahlaxiom ist!
Insbesondere ist das Zornsche Lemma auch nicht konstruktiv – man erhält
nur die Existenz maximaler Elemente, aber keinen Hinweis darauf, wie man
solche maximalen Elemente konstruieren kann.
80 3. Vektorräume

Bemerkung 3.3.20 (das Zornsche Lemma für kleine Mengen). Sei (M, ≤) ei-
ne höchstens abzählbare nicht-leere partiell geordnete Menge, die die Vor-
aussetzungen im Zornschen Lemma erfüllt. Dann kann man induktiv (ohne
Auswahlaxiom!) zeigen, dass (M, ≤) ein maximales Element enthält.

3.3.4 Allgemeine Vektorräume


Wir werden nun das Zornsche Lemma verwenden, um Basen in unendlichdi-
mensionalen Vektorräumen zu untersuchen:

Satz 3.3.21 (Existenz von Basen, allgemeiner Fall). Jeder Vektorraum besitzt
eine Basis.

Beweis (AC). Die Idee ist, die Charakterisierung von Basen als maximale
linear unabhängige Familien zu verwenden, und die folgenden (etwas stärkere)
Aussage zu zeigen:

Sei K ein Körper, sei V ein K-Vektorraum und sei (vj )j∈J eine linear
unabhängige Familie in V . Dann gibt es eine Oberfamilie von (vj )j∈J ,
die eine Basis von V ist.

Die Behauptung des Satzes folgt dann, indem wir die leere Familie (die
bekanntlich linear unabhängig ist) in V betrachten.
Wir beweisen die obige Behauptung mit dem Zornschen Lemma. Wir er-
weitern zunächst die Familie (vj )j∈J zu einer Familie (vi )i∈I in V , die jeden
Vektor aus V enthält, und betrachten dann die Menge

M := A ⊂ I (vi )i∈A ist linear unabhängig und J ⊂ A .

Die Menge M ist bezüglich Inklusion partiell geordnet. Nach Definition


ist J ∈ M ; insbesondere ist M nicht-leer. Außerdem besitzt jede total ge-
ordnete Kette in M eine obere Schranke in M , denn: Sei N ⊂ M eine total
geordnete Kette in M ; ohne Einschränkung sei N 6= ∅ (sonst ist J eine obere
Schranke). Wir setzen [
A := N.
Wir zeigen, dass A ∈ M ist: Nach Konstruktion ist J ⊂ A und A enthält
jede der Mengen aus N . Die Familie (vi )i∈A ist linear unabhängig, denn:
Sei B ⊂ A endlich. Dann folgt induktiv, dass es ein A0 ∈ N mit B ⊂ A0
gibt (denn jedes Element b ∈ B ist in einer Menge Ab ∈ N enthalten; da
B endlich und N total geordnet ist, gibt es eine dieser Mengen Ab , die alle
anderen enthält). Da (vi )i∈A0 wegen A0 ∈ N ⊂ M linear unabhängig ist,
ist insbesondere auch die Teilfamilie (vi )i∈B linear unabhängig. Also sind
alle endlichen Teilfamilien von (vi )i∈A linear unabhängig; nach Definition ist
dann auch (vi )i∈A linear unabhängig. Damit ist A eine obere Schranke von N
in M .
3.3. Basen 81

Nach dem Zornschen Lemma besitzt M also ein maximales Element I 0 .


Aufgrund der Definition von M ist (vi )i∈I 0 dann eine maximale linear un-
abhängige Familie in V , und damit eine Basis (Satz 3.3.6). Nach Konstruktion
enthält diese Familie die gegebene Familie (vj )j∈J als Teilfamilie.
Satz 3.3.22 (alle Basen haben die gleiche Länge). Sei K ein Körper, sei V
ein K-Vektorraum und seien (vi )i∈I und (wj )j∈J Basen von V . Dann sind I
und J gleichmächtig.

Beweis (AC). Nach Korollar 3.3.12 und Korollar 3.3.15 bleibt nur der Fall
zu betrachten, dass I und J unendlich sind.
Die Idee ist, Gleichmächtigkeit mithilfe des Satzes von Schröder-Bernstein
(Satz A.4.4) zu zeigen. Es genügt also zu zeigen, dass es eine injektive Ab-
bildung J −→ I gibt (indem man die Rollen der beiden Basen vertauscht,
erhält man auch eine Injektion I −→ J).
Ist i ∈ I, so ist vi als Linearkombination einer endlichen Teilfamilie
von (wj )j∈J darstellbar; es gibt also eine endliche Teilmenge Ji ⊂ J mit

vi ∈ SpanK {wj | j ∈ Ji } .

Da (vi )i∈I ein Erzeugendensystem von V ist und (wj )j∈J als Basis ein mini-
males Erzeugendensystem von V ist (Satz 3.3.6), folgt
[
Ji = J.
i∈I

Da jedes Ji endlich ist, folgt aus dieser Gleichheit, dass es eine injektive
Abbildung
J −→ I × N
gibt. Andererseits ist aus der Mengelehre bekannt, dass I × N und I gleich-
mächtig sind, da I unendlich ist (an dieser Stelle geht das Auswahlaxiom
ein). Somit erhalten wir eine injektive Abbildung J −→ I.

3.3.5 Zusammenfassung
Wir haben also folgendes gesehen:
ˆ Jeder Vektorraum besitzt eine Basis.
ˆ Jede linear unabhängige Familie kann zu einer Basis erweitert werden.
ˆ Aus jedem Erzeugendensystem kann man eine Basis auswählen.
ˆ Je zwei Basen eines Vektorraums sind gleich groß.
Diese Eigenschaften bilden die Grundlage für den Dimensionsbegriff.
82 3. Vektorräume

3.4 Dimension
Wir können nun die Größe“ eines Vektorraums dadurch messen, dass wir

die Größe von Basen betrachten.

3.4.1 Dimension von Vektorräumen


Nach Satz 3.3.7, Korollar 3.3.12, Satz 3.3.21 und Satz 3.3.22 ist der folgen-
de Dimensionsbegriff wohldefiniert, d.h. unabhängig von den betrachteten
Basen:

Definition 3.4.1 (Dimension). Sei K ein Körper und sei V ein K-Vektorraum.

ˆ Ist V endlich erzeugt und ist (v1 , . . . , vn ) eine Basis von V , so definieren
wir die Dimension von V als

dimK (V ) := n.

In diesem Fall sagt man auch, dass V endlich-dimensional ist.

ˆ Ist V nicht endlich erzeugt, so definieren wir die Dimension von V als
die Mächtigkeit einer/jeder Basis von V . Wir schreiben dann oft auch
(etwas vereinfachend)
dimK (V ) := ∞
und sagen, dass V unendlich-dimensional ist.

Beispiel 3.4.2.

ˆ Ist K ein Körper und n ∈ N, so ist dimK K n = n, da die Standardbasis


von K n genau n Vektoren enthält. Insbesondere ist dimK {0} = 0.

ˆ Es gilt dimC C = 1, aber dimR C = 2.

ˆ Es gilt dimQ R = ∞; genauer: jede Q-Basis von R hat dieselbe Mächtigkeit


wie R.

ˆ Ist K ein Körper und ist X eine unendliche Menge, so gilt nach Bei-
spiel 3.3.16, dass dimK Abb(X, K) = ∞.

ˆ Für {e1 , e2 } ⊂ R3 gilt dimR SpanR ({e1 , e2 }) = 2 (Abbildung 3.9), da


(e1 , e2 ) eine Basis von SpanR ({e1 , e2 }) ist.
Allgemeiner entsprechen zweidimensionale Unterräume genau den geo-
metrischen Ebenen (durch 0) und eindimensionale Unterräume genau
den geometrischen Geraden (durch 0).
3.4. Dimension 83

e1
e2 À

Abbildung 3.9.: Der Untervektorraum SpanR ({e1 , e2 }) von R3

Bemerkung 3.4.3 (große Vektorräume). Es gibt Vektorräume mit beliebig


großer Dimension; genauer: Sei K ein Körper und sei X eine Menge. Dann
gibt es einen K-Vektorraum V mit dimK V ≥ |X|. Zum Beispiel kann man
zeigen, dass dimK Abb(X, K) ≥ |X| ist.

Proposition 3.4.4 (Dimension von Unterräumen). Sei K ein Körper, sei V ein
endlich-dimensionaler K-Vektorraum und sei U ⊂ V ein Untervektorraum.
Dann ist auch U endlich-dimensional. Ist U 6= V , so folgt dimK U < dimK V .

Beweis. Dies folgt aus den bereits bewiesenen Eigenschaften von Basen und
linear unabhängigen Familien (Übungsaufgabe).

3.4.2 Dimensionsformeln für Vektorräume


Wir werden uns im folgenden überlegen, wie man Dimensionen von Vek-
torräumen berechnen kann, wenn man die Dimensionen von gewissen Bau-
steinen kennt.
Wir beginnen mit der Summe von Untervektorräumen:

Definition 3.4.5 (Summe von Untervektorräumen). Sei K ein Körper, sei V


ein K-Vektorraum und seien U, W ⊂ V Untervektorräume von V . Dann
definieren wir die Summe von U und W als

U + W := {u + w | u ∈ U, w ∈ W } ⊂ V.

Eine einfache Rechnung zeigt, dass U + W = SpanK (U ∪ W ) ist; insbe-


sondere ist mit U und W auch U + W ein Untervektorraum von V .
84 3. Vektorräume

Die Dimension von Summenräumen lässt sich aus den Dimensionen der
Summanden berechnen – dabei ist jedoch zu berücksichtigen, dass man den
Durchschnitt der Summanden nicht doppelt zählen“ darf. Dies führt zur

folgenden Dimensionsformel:

Satz 3.4.6 (Dimensionsformel für Unterräume). Sei K ein Körper, sei V ein
endlich-dimensionaler K-Vektorraum und seien U, W ⊂ V Untervektorräume
von V . Dann gilt

dimK (U + W ) = dimK (U ) + dimK (W ) − dimK (U ∩ W ).

Beweis. Man beachte, dass der Durchschnitt U ∩ W ein Untervektorraum


von V ist (Proposition 3.1.16) und somit insbesondere eine wohldefinierte
Dimension besitzt.
Nach Proposition 3.4.4 sind U , W und U ∩ W endlich-dimensionale K-
Vektorräume. Sei etwa (v1 , . . . , vk ) eine Basis von U ∩ W . Diese können
wir zu Basen (v1 , . . . , vk , uk+1 , . . . , un ) bzw. (v1 , . . . , vk , wk+1 , . . . , wm ) von U
bzw. W ergänzen (Korollar 3.3.14).
Dann ist B := (v1 , . . . , vk , uk+1 , . . . , un , wk+1 , . . . , wm ) eine Basis der Sum-
me U + W denn:

ˆ Die Familie B ist ein Erzeugendensystem von U + W , denn: Da


(v1 , . . . , vk , uk+1 , . . . , un ) bzw. (v1 , . . . , vk , wk+1 , . . . , wm ) Erzeugenden-
systeme von U bzw. W sind, ist die zusammengesetzte Familie B ein
Erzeugendensystem von SpanK (U ∪ W ) = U + W .

ˆ Die Familie B ist linear unabhängig, denn: Seien λ1 , . . . , λn ∈ K und


µk+1 , . . . , µm ∈ K mit
k
X n
X m
X
λ j · vj + λj · uj + µj · wj = 0.
j=1 j=k+1 j=k+1

Dann folgt
k
X n
X m
X
λj · vj + λj · uj = (−µj ) · wj .
j=1 j=k+1 j=k+1

Da die linke Seite in U liegt und die rechte Seite in W liegt, liegen also
beide Seiten in U ∩ W . Nach Wahl unserer Basen bedeutet dies aber,
dass
λk+1 = · · · = λn = 0 und µk+1 = · · · = µm = 0.
Setzt man dies in die obige Gleichung ein, so folgt
k
X
λj · vj = 0.
j=1
3.4. Dimension 85

 Â

W
W0

U ∩W U U ∩ W0 U
À À

Á Á

Abbildung 3.10.: Untervektorräume von R3 und ihre Durchschnitte

Da (v1 , . . . , vk ) als Basis von U ∩ W eine linear unabhängige Familie


ist, erhalten wir auch
λ1 = · · · = λk = 0.
Also sind alle Koeffizienten 0, und daher folgt, dass B linear unabhängig
ist.

Also ist B eine Basis von U + W . Nach Konstruktion von B ist dann

dimK (U + W ) = k + (n − k) + (m − k) = n + m − k
= dimK (U ) + dimK (W ) − dimK (U ∩ W ),

wie behauptet.

Beispiel 3.4.7 (Unterräume von R3 ). Wir betrachten die folgenden Untervek-


torräume von R3 (Abbildung 3.10):

U := SpanR ({e1 , e2 }), W := SpanR ({e2 , e3 }), W 0 := SpanR ({e1 +e2 +e3 })

Dann gilt

dimR U = 2, dimR W = 2, dimR W 0 = 1

und

U + W = R3 , und U + W 0 = R3 .

Außerdem ist
86 3. Vektorräume

dimR (U ∩ W ) = dimR SpanR ({e2 }) = 1


dimR (U ∩ W 0 ) = dimR ({0}) = 0,

was alles mit der obigen Dimensionsformel zusammenpasst.

3.4.3 Komplementäre Untervektorräume


Insbesondere können wir die Dimensionsformel auf sogenannte komplementäre
Unterräume anwenden:
Definition 3.4.8 (komplementäre Untervektorräume). Sei K ein Körper und
sei V ein K-Vektorraum. Untervektorräume U und W von V heißen komple-
mentär, wenn
U + W = V und U ∩ W = {0}
gilt.
In Beispiel 3.4.7 sind U und W nicht komplementär, aber U und W 0 sind
komplementär.
Korollar 3.4.9 (Dimensionsformel für komplementäre Untervektorräume). Sei
K ein Körper, sei V ein endlich-dimensionaler K-Vektorraum und seien U
und W komplementäre Untervektorräume von V . Dann gilt

dimK V = dimK U + dimK W.

Beweis. Dies folgt direkt aus der Dimensionsformel für Untervektorräume


(Satz 3.4.6).
Bemerkung 3.4.10 (Existenz von komplementären Untervektorräumen). Sei K
ein Körper, sei V ein K-Vektorraum und sei U ⊂ V ein Untervektorraum
von V . Dann besitzt U einen komplementären Untervektorraum in V , denn:
Sei (vj )j∈J eine Basis von U . Dann können wir diese zu einer Basis (vi )i∈I
von V ergänzen. Eine einfache Rechnung zeigt dann, dass der Untervektor-
raum SpanK ({vi | i ∈ I \J}) zu U in V komplementär ist. Man beachte dabei,
dass es im allgemeinen aber viele solcher komplementären Untervektorräume
zu U in V gibt!
Umgekehrt kann man zu je zwei Vektorräumen einen Vektorraum konstru-
ieren, in dem diese komplementär sind:
Definition 3.4.11 (direkte Summe). Sei K ein Körper und U , W seien K-
Vektorräume. Die direkte Summe U ⊕W von U und W ist der K-Vektorraum,
dessen unterliegende Menge U × W ist und dessen Addition und Skalarmul-
tiplikation komponentenweise definiert ist.
Korollar 3.4.12 (Dimension einer direkten Summe). Sei K ein Körper und U ,
W seien endlich-dimensionale K-Vektorräume. Dann gilt
3.4. Dimension 87

dimK (U ⊕ W ) = dimK U + dimK W.

Beweis. Wir führen dies auf die obige Dimensionsformel zurück: Dazu be-
trachten wir die Untervektorräume

U 0 := U ⊕ {0} und W 0 := {0} ⊕ W

von U ⊕ W . Eine einfache Rechnung zeigt, dass U 0 + W 0 = U ⊕ W und dass


U 0 ∩ W 0 = {(0, 0)} ist. Also sind U 0 und W 0 in U ⊕ W komplementär.
Sei n := dimK U . Ist (u1 , . . . , un ) eine Basis von U , so erkennt man
leicht, dass ((u1 , 0), . . . , (un , 0)) eine Basis von U ⊕ {0} ist; insbesondere ist
dimK U = n = dimK U 0 . Analog folgt dimK W = dimK W 0 .
Mit der Dimensionsformel für komplementäre Untervektorräume (Korol-
lar 3.4.9) erhalten wir daher

dimK (U ⊕ W ) = dimK (U 0 + W 0 )
= dimK U 0 + dimK W 0
= dimK U + dimK W,

wie behauptet.

Den genauen Zusammenhang zwischen direkten Summen und komple-


mentären Untervektorräumen werden wir in Proposition 4.4.11 nochmal
näher untersuchen.

3.4.4 Quotientenvektorräume
Als nächsten Schritt werden wir sogenannte Quotientenräume betrachten.
Ist V ein Vektorraum und U ⊂ V ein Untervektorraum, so ist es manchmal
günstig, den Quotientenvektorraum V /U zu betrachten:

ˆ algebraische Motivation: Der Quotientenvektorraum V /U ist der Vek-


torraum, den man erhält, wenn man in V alles vergisst“, was in U

passiert.

ˆ geometrische Motivation: Der Quotientenvektorraum V /U ist der Vek-


torraum, den man erhält, wenn man alle zu U parallelen“ affinen Un-

terräume von V betrachtet.

Wir führen die Konstruktion ausgehend von der algebraischen Motivation


mithilfe einer geeigneten Äquivalenzrelation durch; die dritte Aussage zeigt,
dass dies auch geometrisch den richtigen Begriff liefert.

Proposition 3.4.13 (Quotienten nach Unterräumen). Sei K ein Körper, sei V


ein K-Vektorraum, sei U ⊂ V ein Untervektorraum und sei ∼U die Relation
auf V , die durch
88 3. Vektorräume

(v, w) ∈ V × V v − w ∈ U ⊂ V × V

definiert ist. Wir schreiben dann V /U := V / ∼U .

1. Für alle v, w ∈ V gilt

v ∼U w ⇐⇒ v + U = w + U

2. Die Relation ∼U ist eine Äquivalenzrelation auf V .

3. Ist v ∈ V , so ist die von v repräsentierte Äquivalenzklasse bezüglich ∼U


der affine Unterraum v + U .

Beweis. Zu 1. Seien v, w ∈ V . Gilt v ∼U w, so ist u := v − w ∈ U , und damit

v + U = (w + u) + U = w + (u + U ) = w + U.

Gilt umgekehrt v + U = w + U , so folgt insbesondere, dass es ein u ∈ U


mit v + 0 = w + u gibt. Dann ist aber

v − w = u ∈ U.

Zu 2. Reflexivität von ∼U ist klar. Symmetrie von ∼U folgt, da U als


Untervektorraum unter additiven Inversen abgeschlossen ist. Transitivität
ergibt sich, da U als Untervektorraum unter Addition abgeschlossen ist.
Zu 3. Dies ist eine einfach Rechnung (ähnlich zum ersten Teil).

Proposition 3.4.14 (Quotientenvektorraum). Sei K ein Körper, sei V ein K-


Vektorraum, sei U ⊂ V ein Untervektorraum.

1. Die Abbildungen

· : K × V /U −→ V /U
(λ, v + U ) 7−→ (λ · v) + U,
+ : V /U × V /U −→ V /U
(v + U, w + U ) 7−→ (v + w) + U

sind wohldefiniert.

2. Die Menge V /U bildet bezüglich der obigen Skalarmultiplikation und


Addition einen K-Vektorraum.

Man bezeichnet dann V /U mit dieser Struktur als Quotientenvektorraum


von V nach U oder auch als V modulo U .

Die Addition ist in Abbildung 3.11 illustriert – als Addition von affinen
Unterräumen.
3.4. Dimension 89

U v+U w+U (v + w) + U

v+w

Abbildung 3.11.: Quotientenvektorraum, schematisch

Beweis. Zu 1. Wir zeigen nur die Wohldefiniertheit der Addition (der Beweis
für die Skalarmultiplikation verläuft analog): Seien also v, w, v 0 , w0 ∈ V mit
v ∼U v 0 und w ∼U w0 . Dann ist (da die Addition in V kommutativ ist!)

(v + w) − (v 0 + w0 ) = v + w − v 0 − w0 = v − v 0 + w − w0 ∈ U,

da v − v 0 ∈ U und w − w0 ∈ U und U bezüglich Addition abgeschlossen ist.


Also gilt (v + w) ∼U (v 0 + w0 ). Somit ist die Addition unabhängig von den
gewählten Repräsentanten und daher wohldefiniert.
Zu 2. Die Vektorraumeigenschaften für V /U lassen sich leicht aus der Vek-
torraumstruktur von V ableiten (nachrechnen).

Beispiel 3.4.15. Wir betrachten den Unterraum U := SpanR ({e1 +e2 }) ⊂ R2 .


Dann gilt
     
2 −1 0
0+U = + U und +U = +U
2 1 2

und        
−1 0 −1
+U +2· +U = + U.
1 1 3

Satz 3.4.16 (Dimensionsformel für Quotientenvektorräume). Sei K ein Körper,


sei V ein endlich-dimensionaler K-Vektorraum und sei U ⊂ V ein Unter-
vektorraum. Dann gilt

dimK (V ) = dimK (U ) + dimK (V /U ).


90 3. Vektorräume

Beweis. Da V endlich-dimensional (und somit endlich erzeugt) ist, ist auch


V /U endlich erzeugt, denn: Ist E ⊂ V ein Erzeugendensystem von V , so zeigt
eine kleine Rechnung, dass {v + U | v ∈ E} ein Erzeugendensystem von V /U
ist. Sei (w1 + U, . . . , wm + U ) eine Basis von V /U .
Als Untervektorraum von V ist mit V auch U endlich-dimensional (Pro-
position 3.4.4). Sei etwa (u1 , . . . , un ) eine Basis von U .
Wir zeigen, dass dann B := (w1 , . . . , wm , u1 , . . . , un ) eine Basis von V ist:
ˆ Lineare Unabhängigkeit von B: Seien λ1 , . . . , λm , µ1 , . . . , µn ∈ K mit
m
X n
X
λj · wj + µj · uj = 0.
j=1 j=1
Pm
Insbesondere ist dann j=1 λj · wj ∈ U , und damit
m
X X
m 
λj · (wj + U ) = λj · wj + U = 0 + U.
j=1 j=1

Da (w1 + U, . . . , wm + U ) in V /U linear unabhängig ist, folgt λ1 =


·P · · = λm = 0. Eingesetzt in die Anfangsgleichung erhalten wir daraus
n
j=1 µk · uj = 0. Da (u1 , . . . , un ) linear unabhängig ist, ist somit µ1 =
· · · = µn = 0. Also ist B linear unabhängig.
ˆ Die Menge {w1 , . . . , wm , u1 , . . . , un } ist ein Erzeugendensystem von V ,
denn: Sei v ∈ V . Da (w1 + U, . . . , wm + U ) eine Basis von V /U ist, gibt
es λ1 , . . . , λm ∈ K mit
m
X X
m 
v+U = λj · (wj + U ) = λj · wj + U,
j=1 j=1

und damit
m
X
v− λj · wj ∈ U.
j=1

Da (u1 , . . . , un ) eine Basis von U ist, können wir diesen Vektor somit
als Linearkombination von (u1 , . . . , un ) schreiben. Durch Umstellen er-
halten wir so v als Linearkombination von (w1 , . . . , wm , u1 , . . . , un ).
Also ist B eine Basis von V und es folgt

dimK V = m + n = dimK V /U + dimK U.

Bemerkung 3.4.17. Wir werden im folgenden Kapitel sehen, wie man linea-
re Abbildungen nutzen kann, um die Dimensionsformel für Quotientenvek-
torräume aus der Dimensionsformel für komplementäre Untervektorräume
ableiten kann (Bemerkung 4.4.12).
4
Lineare Abbildungen

Wie jede mathematische Theorie besitzt die lineare Algebra neben grundle-
genden Objekten (den Vektorräumen) auch strukturerhaltende Morphismen
zwischen solchen Objekten. Dies sind die sogenannten linearen Abbildungen.
Geometrisch gehören neben den durch die Skalarmultiplikation gegebenen
Streckungen auch Spiegelungen, Rotationen und daraus zusammengesetzte
Abbildungen zu den linearen Abbildungen.
Außerdem treten lineare Abbildungen in vielen Anwendungen auf natür-
liche Weise auf und dienen als gut berechenbarer Approximationsbaustein in
der Analysis.

Überblick über dieses Kapitel.

4.1 Lineare Abbildungen 92


4.2 Lineare Abbildungen aus Matrizen 96
4.3 Lineare Abbildungen und Basen 105
4.4 Kern und Bild 107
4.5 Homomorphismenräume 116

Schlüsselbeispiel. elementare geometrische Transformationen, lineare Abbil-


dungen aus Matrizen
92 4. Lineare Abbildungen

4.1 Lineare Abbildungen


Mathematische Theorien bestehen im Normalfall aus
ˆ Objekten und
ˆ Morphismen (d.h. Abbildungen“, mit denen sich diese Objekte gut

vergleichen lassen).
Der Begriff des Morphismus leitet sich vom griechischen Wort morf  (Form,
Gestalt) ab. Dieser Rahmen wird durch den Begriff der Kategorie formalisiert
(Anhang A.5).
In algebraischen Situationen verwendet man auch das Wort Homomor-
phismus statt Morphismus, was sich aus Morphismus und dem griechischen
Wort åmìc (gleich, ähnlich) zusammensetzt und andeutet, dass solche Ab-
bildungen im Normalfall strukturerhaltend sein sollen. Im Fall der linearen
Algebra sind die Objekte Vektorräume und die Morphismen werden soge-
nannte lineare Abbildungen sein.
ˆ algebraische Motivation für lineare Abbildungen: Wir wollen Vektor-
räume (über demselben Grundkörper) miteinander vergleichen und in
Beziehung setzen und betrachten daher Abbildungen zwischen Vek-
torräumen, die mit der linearen Struktur (d.h. mit Addition und Ska-
larmultiplikation) verträglich sind.
ˆ geometrische Motivation für lineare Abbildungen: Wir wollen geometri-
sche Objekte nicht nur skalieren oder verschieben, sondern auch allge-
meinere Transformationen wie zum Beipsiel Spiegelungen und Rotatio-
nen betrachten.
Definition 4.1.1 (lineare Abbildung). Sei K ein Körper und seien V und W
Vektorräume über K. Eine K-lineare Abbildung von V nach W ist eine Ab-
bildung f : V −→ W mit folgenden Eigenschaften:
ˆ Für alle v, v 0 ∈ V gilt

f (v + v 0 ) = f (v) + f (v 0 )

ˆ und für alle v ∈ V und alle λ ∈ K gilt

f (λ · v) = λ · f (v).

Anmerkung zum Lernen (Homomorphismen in der Algebra). Ganz analog zum


Begriff der linearen Abbildungen erhält man durch Verträglichkeit mit den
passenden gegebenen Strukturen auch den Begriff des Gruppenhomomorphis-
mus, Körperhomomorphismus, . . .
4.1. Lineare Abbildungen 93

Beispiel 4.1.2 (generische Beispiele). Sei K ein Körper, seien V und W Vek-
torräume über K und sei U ⊂ V ein Untervektorraum. Dann sind

0 : V −→ W
v 7−→ 0,
idV : V −→ V
v 7−→ v,
i1 : V −→ V ⊕ W
v 7−→ (v, 0),
p1 : V ⊕ W −→ V
(v, w) 7−→ v,
iU : U −→ V
u 7−→ u,
πU : V −→ V /U
v 7−→ v + U

K-lineare Abbildungen.

Beispiel 4.1.3 (geometrische Beispiele). Wichtige Beispiele für lineare Abbil-


dungen sind Spiegelungen, Drehungen, Reskalierungen, . . . (Abbildung 4.1).
Die Abbildung

R −→ R
x 7−→ x2

ist jedoch nicht linear (denn z.B. (1 + 1)2 6= 12 + 12 ).

Beispiel 4.1.4 (analytische Beispiele). Sei Konv(N, R) ⊂ Abb(N, R) der Vek-


torraum der konvergenten Folgen in R.
Dann ist die Grenzwertabbildung lim : Konv(N, R) −→ R linear, aber die
Supremumsabbildung sup : Konv(N, R) −→ R ist nicht linear.
Die Differentiationsabbildung

C 1 (R, R) −→ C 0 (R, R)
f 7−→ f 0

und die Integrationsabbildung

C 0 ([0, 1], R) −→ R
Z 1
f 7−→ f (x) dx
0

sind R-linear.
94 4. Lineare Abbildungen

Á Á Identität
   
x1 1 0
x 7→
x2 0 1
À −→ À

Á Á Nullabbildung
   
0 0 0
x 7→
0 0 0
À −→ À

Á Á Spiegelung an R · e2
   
−x1 −1 0
x 7→
x2 0 1
À −→ À

Á Á Rotation um π/2
   
−x2 0 −1
x 7→
x1 1 0
À −→ À

Á Á Koordinatenvertauschung
   
x2 0 1
x 7→
x1 1 0
À −→ À

Á Á Zweite Koordinate ignorieren


   
x1 1 0
x 7→
0 0 0
À −→ À

Á Á Unterschiedliche Skalierung
   
2 · x1 2 0
x 7→
x2 0 1
À −→ À

Á Á Scherung
   
x1 + x2 1 1
x 7→
x2 0 1
À −→ À

Abbildung 4.1.: Beispiele für lineare Abbildungen R2 −→ R2 . Der Zu-


sammenhang mit den angegebenen Matrizen wird in Bei-
spiel 4.2.14 erklärt.
4.1. Lineare Abbildungen 95

Ist eine Abbildung f : R2 −→ R2 differenzierbar im Punkt x ∈ R2 (s. Ana-


lysis II), so ist die Ableitung f 0 (x) von f an der Stelle x die R-lineare Abbil-
dung R2 −→ R2 , die die Abbildung f an der Stelle x am besten“ approxi-

miert.
Proposition 4.1.5 (Rechnen mit linearen Abbildungen). Sei K ein Körper und
sei f : V −→ W eine lineare Abbildung zwischen K-Vektorräumen V und W .
1. Dann ist f (0) = 0.
2. Ist n ∈ N, ist (vj )j∈{1,...,n} eine Familie in V und ist (λj )j∈{1,...,n} eine
Familie in K, so gilt
X
n  n
X
f λ j · vj = λj · f (vj ).
j=1 j=1

Beweis. Zu 1. Da f linear ist, folgt

f (0) = f (0 · 0) = 0 · f (0) = 0.

Zu 2. Dies folgt per Induktion über die Anzahl der Summanden aus der
Definition von Linearität (nachrechnen).
Aus dem ersten Teil folgt insbesondere, dass die (nicht-trivialen) Ver-
schiebungsabbildungen in Vektorräumen nicht zu den linearen Abbildungen
zählen. Möchte man solche Abbildungen auch betrachten, so bietet es sich
an, zu den sogenannten affin-linearen Abbildungen überzugehen. Wir werden
uns im folgenden auf lineare Abbildungen konzentrieren.
Proposition 4.1.6 (Vererbungseigenschaften von linearen Abbildungen). Sei K
ein Körper und seien V , W , X Vektorräume über K.
1. Ist f : V −→ W linear und ist λ ∈ K, so ist auch λ·f : V −→ W linear.
Zur Erinnerung (Beispiel 3.1.9):

λ · f : V −→ W
v 7−→ λ · f (v).

2. Sind f, g : V −→ W linear, so ist auch f + g : V −→ W linear. Zur


Erinnerung (Beispiel 3.1.9):

f + g : V −→ W
v 7−→ f (v) + g(v).

3. Sind f : V −→ W und g : W −→ X linear, so ist auch g ◦ f : V −→ X


linear.
Beweis. Man kann diese Eigenschaften direkt anhand der Definition von Li-
nearität nachrechnen (Übungsaufgabe).
96 4. Lineare Abbildungen

4.2 Lineare Abbildungen aus Matrizen


Lineare Abbildungen zwischen den Standardvektorräumen K n lassen sich
bequem durch sogenannte Matrizen darstellen. Wir werden im folgenden die
Matrizenschreibweise und die grundlegenden Rechenoperationen für Matrizen
einführen und erklären wie man mithilfe von Matrizen lineare Abbildungen
der Form K n −→ K m beschreiben kann. Die algorithmischen Aspekte des
Matrizenkalküls folgen in Kapitel 5.

4.2.1 Matrizen
Eine Matrix ist nichts anderes als ein mit Zahlen aus dem Grundkörper
gefülltes Rechteck (Abbildung 4.2):

Definition 4.2.1 (Matrix). Sei K ein Körper und seien m, n ∈ N.

ˆ Eine m × n-Matrix über K ist eine {1, . . . , m} × {1, . . . , n}-indizierte


Familie (ajk )j,k in K:
 
a11 a12 ... a1n
 a21 a22 ... a2n 
 
 .. .. .. .. 
 . . . . 
am1 am2 ... amn

Die Konvention ist, in der ersten Koordinate die Zeilen (oben begin-
nend) und in der zweiten Koordinaten die Spalten (links beginnend) zu
indizieren.

ˆ Wir bezeichnen die Menge aller m×n-Matrizen über K mit Mm×n (K).

ˆ Ist A = (ajk )j.k ∈ Mm×n (K) und ist j ∈ {1, . . . , n}, so schreiben wir

Aj∗ := (aj1 , . . . , ajn ) ∈ M1×n (K)

für die j-te Zeile von A. Analog schreiben wir für k ∈ {1, . . . , m}
 
a1k
 
A∗k :=  ...  ∈ Mm×1 (K)
amk

für die k-te Spalte von A.

ˆ Wir identifizieren dabei Mm×1 (K) mit K m und M1×1 (K) mit K.
4.2. Lineare Abbildungen aus Matrizen 97

Abbildung 4.2.: Eine 2 × 2-Matrix

Beispiel 4.2.2 (Einheitsmatrix). SeiK ein Körper und sei n ∈ N. Dann ist
 
1 0 0 ... 0
0 1 0 . . . 0
 
 0 1 . . . 0
In := 0 
 .. .. .. 
. . .
0 0 0 ... 1

die n × n-Einheitsmatrix über K. Mithilfe des Kronecker-Deltas


(
1 falls j = k
δj,k :=
0 falls j 6= k

lässt sich die Einheitsmatrix kurz als In = (δj,k )j,k ∈ Mn×n (K) schreiben.

Beispiel 4.2.3 (Sudoku). Vollständig gelöste Sudoku-Puzzles können als Ma-


trizen in M9×9 (Q) angesehen werden. Auch viele weitere Puzzles und Rätsel
mit Zahlen in rechteckigen Gittern können in der Sprache der Matrizen for-
muliert (und manche sogar auch gelöst) werden.

Definition 4.2.4 (Addition und Skalarmultiplikation von Matrizen). Sei K ein


Körper und seien m, n ∈ N. Die Addition und K-Skalarmultiplikation von
Matrizen in Mm×n (K) ist komponentenweise definiert:

ˆ Für alle A = (ajk )j,k , B = (bjk )j,k ∈ Mm×n (K) sei

A + B := (ajk + bjk )j,k ∈ Mm×n (K).

ˆ Für alle λ ∈ K und alle A = (ajk )j,k ∈ Mm×n (K) sei

λ · A := (λ · ajk )j,k ∈ Mm×n (K).


98 4. Lineare Abbildungen

Caveat 4.2.5. Matrizen unterschiedllicher Größe oder über unterschiedlichen


Grundkörpern können nicht addiert werden!

In Mm×1 (K) stimmen diese Addition und Skalarmultiplikation mit der


gewöhnlichen Vektorraumstruktur auf K m überein. Allgemeiner gilt:

Proposition 4.2.6 (grundlegende Eigenschaften der Addition und Skalarmulti-


plikation von Matrizen). Sei K ein Körper und seien m, n ∈ N. Dann bildet
Mm×n (K) bezüglich der obigen Addition und Skalarmultiplikation einen K-
Vektorraum. Dabei gilt

dimK Mm×n (K) = m · n.

Beweis. Der Beweis der Vektorraumeigenschaften ist analog zum Beweis von
Proposition 3.1.6.
Wir bestimmen die Dimension von Mm×n (K), indem wir eine Basis an-
geben: Dazu betrachten wir die Elementarmatrizen; zu r ∈ {1, . . . , m},
s ∈ {1, . . . , n} ist die (r, s)-Elementarmatrix als

Er,s := (δr,j · δs,k )j,k ∈ Mm×n (K)

definiert (d.h. alle Einträge in Er,s sind 0, bis auf den Eintrag in der r-ten
Zeile und s-ten Spalte, welcher 1 ist).
Eine einfache Rechnung zeigt, dass (Er,s )(r,s)∈{1×m}×{1,...,n} eine Basis
von Mm×n (K) ist – analog zur Standardbasis von K m (nachrechnen!). Also
ist
dimK Mm×n (K) = {1, . . . , m} × {1, . . . , n} = m · n.

4.2.2 Multiplikation von Matrizen

Um zu erklären, wie man durch Matrizen lineare Abbildugen K n −→ K m


beschreiben kann, bietet es sich an, zunächst eine weitere Operation auf Ma-
trizen einzuführen. Matrizen können nämlich auf die folgende Weise multi-
pliziert werden:

Definition 4.2.7 (Matrixmultiplikation). Sei K ein Körper und m, n, p ∈ N.

ˆ Sind A = (a1j )j ∈ M1×n (K) und B = (bj1 )j ∈ Mn×1 (K), so definieren


wir
n
X
A · B := a1j · bj1 ∈ K = M1×1 (K).
j=1

ˆ Sind A ∈ Mm×n (K) und B ∈ Mn×p (K), so definieren wir

A · B := (Aj∗ · B∗k )j,k ∈ Mm×p (K).


4.2. Lineare Abbildungen aus Matrizen 99

k-te Spalte

j-te Zeile Koeffizient (j, k)

A A·B

Abbildung 4.3.: Multiplikation von Matrizen, schematisch

HAMMM!

Abbildung 4.4.: Multiplikation einer Zeile mit einer Spalte, schematisch

Wie kann man sich diesen Zahlensalat merken? Eine bewährte Methode ist,
sich die zu multiplizierenden Matrizen wie in Abbildung 4.3 aufzuschreiben
und die Multiplikation so wie dort angedeutet zu berechnen. Dabei werden
einzelne Zeilen mit Spalten wie im Zeilen/Spalten-Krokodil (Abbildung 4.4)
miteinander multipliziert.

Caveat 4.2.8. Matrizen können nur dann miteinander multipliziert werden,


wenn ihre Größen wie in der Definition angegeben zusammenpassen. Insbe-
sondere ergibt das Produkt zweier n × n-Matrizen wieder eine n × n-Matrix!

Beispiel 4.2.9 (Extraktion von Spalten/Zeilen durch Matrixmultiplikation). Sei


K ein Körper, seien m, n ∈ N und sei A ∈ Mm×n . Für alle k ∈ {1, . . . , n} ist

A · ek = A∗k ,
100 4. Lineare Abbildungen

wobei ek ∈ K n ist. Analog kann man Zeilen extrahieren, indem man von
links mit den entsprechenden Standardeinheitszeilenvektoren multipliziert.
Beispiel 4.2.10 (Fibonacci-Zahlen und Matrixmultiplikation). Die Folge (Fn )n∈N
der Fibonacci-Zahlen ist die rekursiv durch

F0 = 0
F1 = 1
∀n∈N Fn+2 = Fn + Fn+1

definierte Folge natürlicher Zahlen. Die ersten Folgenglieder sind also

0, 1, 1, 2, 3, 5, 8, 13, 21, 34, . . .

Fibonacci hat das Wachstum von Kaninchenpopulationen mithilfe dieser


Zahlenfolge modelliert und es gibt viele weitere Situationen, in denen die
Fibonacci-Zahlen natürlich auftreten.
Eine nützliche Beschreibung der Fibonacci-Zahlen erhält man mithilfe von
Matrizen: Dazu betrachten wir die Matrix
 
1 1
A := ∈ M2×2 (Q).
1 0

Mit vollständiger Induktion (über den Exponenten) erhalten wir nämlich,


dass  
Fn+1 Fn
An =
Fn Fn−1
für alle n ∈ N>0 gilt (Übungsaufgabe).
Proposition 4.2.11 (grundlegende Eigenschaften der Matrixmultiplikation). Sei
K ein Körper und seien m, n, p, q ∈ N.
1. Neutralität der Einheitsmatrizen. Für alle A ∈ Mm×n (K) gilt

A · In = A und Im · A = A.

2. Distributivität. Für alle A, A0 ∈ Mm×n (K) und alle B, B 0 ∈ Mn×p (K)


gilt

(A + A0 ) · B = A · B + A0 · B und A · (B + B 0 ) = A · B + A · B 0 .

3. Verträglichkeit mit Skalarmultiplikation. Für alle λ ∈ K und alle A ∈


Mm×n (K), B ∈ Mn×p (K) gilt

λ · (A · B) = (λ · A) · B = A · (λ · B).

4. Assoziativität. Für alle A ∈ Mm×n (K), B ∈ Mn×p (K), C ∈ Mp×q (K)


gilt
4.2. Lineare Abbildungen aus Matrizen 101

(A · B) · C = A · (B · C).

Beweis. Zu 1. Dies folgt aus der Definition der Matrixmultiplikation und


Beispiel 4.2.9. Man beachte dabei, dass die Spalten der Einheitsmatrix genau
die Standardeinheitsvektoren (in der richtigen Reihenfolge) sind.
Zu 2. Wir rechnen die Distributivität koeffizientenweise nach: Seien r ∈
{1, . . . , m} und s ∈ {1, . . . , p}. Dann gilt nach Definition der Matrixoperatio-
nen
n
X

(A + A0 ) · B r,s
= (A + A0 )r∗ · B∗s = (A + A0 )r,j · Bj,s
j=1
n
X n
X
= Ar,j · Bj,s + A0r,j · Bj,s
j=1 j=1
0
= (A · B)r,s + (A · B)r,s
= (A · B + A0 · B)r,s .

Analog zeigt man die zweite Distributivitätsgleichung.


Zu 3. Ähnlich wie im zweiten Fall (aber etwas einfacher) kann man die
Behauptung koeffizientenweise nachrechnen.
Zu 4. Auch diese Behauptung zeigen wir koeffizientenweise: Seien r ∈
{1, . . . , m} und s ∈ {1, . . . , q}. Dann gilt nach Definition der Matrixmultipli-
kation und nach Umordnung der beteiligten endlichen Summen, dass
p
X

(A · B) · C r,s
= (A · B)r,j · Cj,s (Multiplikation . . . · C)
j=1
Xp X
n 
= Ar,k · Bk,j · Cj,s (Multiplikation A · B)
j=1 k=1
Xp Xn
= Ar,k · Bk,j · Cj,s (Distributivität in K)
j=1 k=1
n
X p
X
= Ar,k · Bk,j · Cj,s (Umordnen, Distr. in K)
k=1 j=1
Xn
= Ar,k · (B · C)k,s (Multiplikation B · C)
k=1

= A · (B · C) r,s . (Multiplikation A · . . . )

Also ist Matrixmultiplikation assoziativ.

Anmerkung zum Lernen. Verfolgen Sie den Verlauf der Indizes nochmal ge-
nau in einer geeigneten schematischen Skizze von Matrizen.
102 4. Lineare Abbildungen

Caveat 4.2.12. Matrixmultiplikation ist im allgemeinen nicht kommutativ!


Dass dies noch nicht einmal für quadratische Matrizen gilt, zeigt das folgende
Beispiel:
           
1 0 1 2 1 2 1 0 1 2 1 0
· = 6= = ·
0 0 3 4 0 0 3 0 3 4 0 0

Anmerkung zum Lernen. Das Rechnen mit Matrizen sollte unbedingt von
Hand geübt werden, damit man ein Gespür dafür bekommt. Es bietet sich
jedoch an, die Ergebnisse mit einem Computeralgebrasystem zu überprüfen.

4.2.3 Lineare Abbildungen aus Matrizen


Aus Proposition 4.2.11 erhalten wir insbesondere, dass Matrizen lineare Ab-
bildungen liefern:

Korollar 4.2.13 (lineare Abbildungen aus Matrizen). Sei K ein Körper und
seien m, n, p ∈ N.

1. Ist A ∈ Mm×n (K), so ist

L(A) : K n −→ K m
x 7−→ A · x

eine K-lineare Abbildung.

2. Es gilt L(In ) = idK n : K n −→ K n .

3. Für alle A, B ∈ Mm×n (K) und alle λ ∈ K gilt

L(A + B) = L(A) + L(B) und L(λ · A) = λ · L(A).

4. Für alle A ∈ Mm×n (K), B ∈ Mn×p (K) gilt

L(A) ◦ L(B) = L(A · B).

Beweis. Alle Aussagen folgen direkt aus Proposition 4.2.11.

Der erste Teil dieser Proposition ist der Hauptgrund dafür, dass wir im
Normalfall mit Spaltenvektoren arbeiten – denn dann können wir bequem
durch Matrixmultiplikation von links lineare Abbildungen beschreiben.
Indem man die Standardeinheitsvektoren einsetzt, erhält man daher mit
Beispiel 4.2.9 die zentrale Einsicht, die dem Matrizenkalkül zugrundeliegt:

Die Spalten sind die Bilder der Standardeinheitsvektoren!


4.2. Lineare Abbildungen aus Matrizen 103

Á Á
e2

sin ϕ
ϕ cos ϕ
ϕ
cos ϕ À À
e1 − sin ϕ
Bild von e1 Bild von e2

Abbildung 4.5.: Zusammenhang zwischen Rotation und Rotationsmatrix

Genauer gilt: Für alle A ∈ Mm×n (K) und j ∈ {1, . . . , n} ist

L(A)(ej ) = A∗j .

Beispiel 4.2.14 (Matrizen für geometrische lineare Abbildungen). In Abbil-


dung 4.1 ist angegeben wie man die grundlegenden geometrischen Trans-
formationen aus Beispiel 4.1.3 mithilfe von Matrizen beschreiben kann.

Durch Matrizen können wir auch allgemeine Rotationen um 0 einfach be-


schreiben:

Beispiel 4.2.15 (Rotation). Sei ϕ ∈ R und sei


 
cos ϕ − sin ϕ
R(ϕ) := ∈ M2×2 (R).
sin ϕ cos ϕ

Dann ist L(R(ϕ)) : R2 −→ R2 Rotation um ϕ um den Nullpunkt (Abbil-


dung 4.5). Insbesondere ist L(R(2 · π)) = idR2 . Sind ϕ, ψ ∈ R, so zeigen die
Additionstheoreme (Anhang A.6, s. Analysis), dass

R(ϕ) · R(ψ) = R(ϕ + ψ).

Beispiel 4.2.16 (lineare Gleichungssysteme). Sei K ein Körper, seien m, n ∈ N


und seien A = (ajk )j,k ∈ Mm×n (K), b ∈ K m . Ist x ∈ K n mit A · x = b, so
hat diese Gleichung die explizite Form

a11 · x1 + · · · + a1n · xn = b1
..
.
am1 · x1 + · · · + amn · xn = bn .

In vielen praktischen Problemen ist die Lösungsmenge


104 4. Lineare Abbildungen

V (A, b) := {x ∈ K n | A · x = b} = {x ∈ K n | L(A)(x) = b}

des linearen Gleichungssystems zu A und b zu bestimmen. Die Theorie der li-


nearen Abbildungen und Vektorräume hilft dabei, diese Lösungsmengen bes-
ser zu verstehen. Andererseits werden wir sehen, wie die (algorithmische)
Bestimmung dieser Lösungsmenge erlaubt, viele Fragen über lineare Abbil-
dungen und Vektorräume zu beantworten.

Umgekehrt können wir jede lineare Abbildung K n −→ K m auf diese Weise


beschreiben:

Proposition 4.2.17 (Matrizen aus linearen Abbildungen). Sei K ein Körper


und seien m, n ∈ N.

1. Sei f : K n −→ K m linear. Dann gilt



f = L M (f ) ,

wobei M (f ) ∈ Mm×n (K) die Matrix ist, deren Spalten f (e1 ), . . . , f (en )
sind.

2. Ist A ∈ Mm×n (K), so gilt



M L(A) = A.

Beweis. Zu 1. Sei x ∈ K n . Dann ist (nach Proposition 4.1.5 und der Defini-
tion der Matrixmultiplikation)
X
n  n
X
f (x) = f xj · ej = xj · f (ej )
j=1 j=1

= M (f ) · x.

Zu 2. Es genügt zu zeigen, dass die beiden Matrizen dieselben Spalten


haben. Sei also j ∈ {1, . . . , n}. Dann ist
 
M L(A) ∗j = L(A) (ej ) = A · ej = A∗j .

Wir werden in Kapitel 5 sehen, wie man lineare Abbildungen zwischen


endlich-dimensionalen Vektorräumen (und nicht nur zwischen den Standard-
vektorräumen) durch Matrizen beschreiben kann.

Literaturaufgabe. Lesen Sie in der Dokumentation zu 3D-Software wie zum


Beispiel OpenGL, OpenSCAD, Povray, etc. nach wie dort jeweils geometri-
schen Operationen durch Matrizen repräsentiert werden.
4.3. Lineare Abbildungen und Basen 105

4.3 Lineare Abbildungen und Basen


Wir kehren nun zum allgemeinen Rahmen für lineare Abbildungen zurück
(erinnern uns aber daran, dass wir jetzt die Möglichkeit haben über Matrizen
viele Beispiele linearer Abbildungen zu konstruieren). Lineare Abbildungen
können allgemein durch die Vorgabe der Werte auf einer Basis konstruiert
werden, was man als Verallgemeinerung von Proposition 4.2.17 ansehen kann.

Satz 4.3.1 (universelle Eigenschaft von Basen). Sei K ein Körper, sei V ein K-
Vektorraum mit einer Basis (vi )i∈I und sei W ein K-Vektorraum. Dann gibt
es zu jeder Abbildung f : I −→ W genau eine K-lineare Abbildung F : V −→
W mit
∀i∈I F (vi ) = f (i).

Beweis. Sei f : I −→ W eine Abbildung.

ˆ Eindeutigkeit von linearen Abbildungen V −→ W , die f fortsetzen:


Seien F, F 0 : −→ W lineare Abbildungen mit

∀i∈I F (vi ) = f (i) = F 0 (vi ).

Wir zeigen, dass dann F = F 0 ist: Sei v ∈ V . Da (vi )i∈I eine Basis
von V (und somit insbesondere erzeugend!) ist, gibt es eine endliche
Teilmenge J ⊂ I und eine Familie (λj )j∈J in K mit
X
v= λj · vj .
j∈J

Da F und F 0 linear sind, erhalten wir dann (Proposition 4.1.5)


X  X X
F (v) = F λ j · vj = λj · F (vj ) = λj · f (j)
j∈J j∈J j∈J
X X 
= λj · F 0 (vj ) = F 0 λ j · vj
j∈J j∈J

= F 0 (v),

wie behauptet.

ˆ Existenz einer linearen Abbildung F : V −→ W , die f fortsetzt: Um die


Notation übersichtlich zu halten, führen wir den Beweis nur in dem Fall
durch, dass I endlich ist (der allgemeine Fall geht aber ganz analog). Sei
v ∈ V . Da (vi )i∈I eine Basis von V ist, gibt es genau eine Familie (λi )i∈I
in K mit X
v= λ i · vi
i∈I
106 4. Lineare Abbildungen

(Bemerkung 3.3.4). Wir defineren dann


X
F (v) := λi · f (i) ∈ W.
i∈I

Eine Rechnung zeigt nun, dass man auf diese Weise eine lineare Ab-
bildung F : V −→ W erhält (nachrechnen!). Nach Konstruktion gilt
dabei F (vi ) = f (i) für alle i ∈ I.

Bemerkung 4.3.2 (universelle Eigenschaft als Diagramm). Die obige univer-


selle Eigenschaft von Basen lässt sich kurz und knapp im folgenden kommu-
tativen Diagramm zusammenfassen:

∃!F (linear)
VO /W
:
i7→vi
f
I

Dabei bedeutet ∃! es existiert genau ein“. Gegebene Abbildungen werden



mit durchgezogenen Pfeilen dargestellt, die von der universellen Eigenschaft
versprochenen Abbildungen mit gestrichelten Pfeilen.

Korollar 4.3.3 (Basiswechselabbildung). Sei K ein Körper und seien V und W


Vektorräume, die Basen B := (vi )i∈I bzw. C := (wi )i∈I besitzen (mit dersel-
ben Indexmenge!). Dann gibt es genau eine lineare Abbildung TB,C : V −→ W
mit
∀i∈I TB,C (vi ) = wi .

Beweis. Dies folgt direkt aus der universellen Eigenschaft von Basen.

Analoge Aussagen gelten natürlich auch, wenn die Indexmengen der Basen
gleichmächtig sind (und nicht gleich).

Proposition 4.3.4 (lineare Abbildungen und lineare Unabhängigkeit bzw. Erzeu-


gendensysteme). Sei K ein Körper und sei f : V −→ W eine lineare Abbil-
dungen zwischen K-Vektorräumen V und W .

1. Ist (vi )i∈I eine Familie in V und ist die Bildfamilie (f (vi ))i∈I linear
unabhängig, so ist auch (vi )i∈I linear unabhängig.

2. Ist (vi )i∈I eine linear unabhängige Familie in V und ist f : V −→ W


injektiv, so ist auch die Bildfamilie (f (vi ))i∈I linear unabhängig.

3. Ist E ⊂ V ein Erzeugendensystem von V und ist f : V −→ W surjektiv,


so ist auch f (E) ein Erzeugendensystem von W .

Beweis. Diese Aussagen folgen aus Proposition 4.1.5. Wir beweisen hier stell-
vertretend die zweite Aussage (die anderen gehen analog):
4.4. Kern und Bild 107

Zu 2. Sei (vi )i∈I linear unabhängig und f injektiv. Dann ist auch (f (vi ))i∈I
linear unabhängig, denn: Sei J ⊂ I endlich und sei (λj )j∈J eine Familie in K
mit X
λj · f (vj ) = 0.
j∈J

Dann ist (nach Proposition 4.1.5)


X  X
f λj · vj = λj · f (vj ) = 0,
j∈J j∈J
P
und damit (da f injektiv und f (0) = 0 ist) j∈J λj · vj = 0. Da (vi )i∈I linear
unabhängig ist, folgt aus dieser Gleichung, dass λj = 0 für alle j ∈ J gilt.

4.4 Kern und Bild


Wir werden nun Injektivität und Surjektivität von linearen Abbildungen ge-
nauer untersuchen. Es wird sich herausstellen, dass man mithilfe des Di-
mensionsbegriffs messen kann wie sehr eine lineare Abbildung injektiv oder
surjektiv ist.

4.4.1 Kern und Bild


Wichtige Kenngrößen von linearen Abbildungen sind Kern, Bild und Rang:
Definition 4.4.1 (Kern, Bild, Rang). Sei K ein Körper und sei f : V −→ W
eine lineare Abbildung von K-Vektorräumen.
ˆ Dann ist ker f := {v ∈ V | f (v) = 0} ⊂ V der Kern von f .
ˆ Es ist im f := {f (v) | v ∈ V } ⊂ W das Bild von f .
ˆ Man nennt rg f := dimK (im f ) den Rang von f .
Bemerkung 4.4.2 (Kern und Bild sind Untervektorräume). Sei K ein Körper
und sei f : V −→ W eine lineare Abbildung von K-Vektorräumen. Dann ist
ker f ⊂ V ein Untervektorraum von V und im f ⊂ W ist ein Untervektorraum
von W . Dies folgt aus der Definition von Linearität und Proposition 3.1.13;
dabei sind ker f und im f wegen f (0) = 0 nicht-leer.
Beispiel 4.4.3. Wir betrachten die folgende Abbildung

f : R2 −→ R2
 
0
x 7−→ .
x2
108 4. Lineare Abbildungen

Dann ist ker f = SpanR ({e1 }) und im f = SpanR ({e2 }). Insbesondere ist also
rg f = 1.

Injektivität von linearen Abbildungen lässt sich wie folgt mithilfe des Kerns
charakterisieren:

Proposition 4.4.4 (Injektivität und Kern). Sei K ein Körper und sei f : V −→
W eine lineare Abbildung von K-Vektorräumen. Dann ist f genau dann in-
jektiv, wenn ker f = {0} ist.

Beweis. Sei f : V −→ W injektiv. Dann ist ker f = {0}, denn: Selbst-


verständlich ist 0 ∈ ker f . Sei umgekehrt v ∈ ker f ; dann ist v = 0, denn:
Nach Definition des Kerns gilt

f (v) = 0 = f (0).

Da f injektiv ist, folgt v = 0.


Sei umgekehrt ker f = {0}. Dann ist f injektiv, denn: Seien v, v 0 ∈ V
mit f (v) = f (v 0 ). Dann ist

f (v − v 0 ) = f (v) − f (v 0 ) = 0,

und damit v − v 0 ∈ ker f = {0}. Also ist v = v 0 .

Insbesondere misst also die Dimension des Kerns wie wenig injektiv eine
lineare Abbildung ist.
Umgekehrt lässt sich Surjektivität von linearen Abbildungen (nach De-
finition) durch das Bild charakterisieren; der Rang misst also wie surjektiv
eine lineare Abbildung ist. In Analogie zur Charakterisierung von surjekti-
ven Abbildungen von Mengen durch Spalte (Proposition 1.3.39) gilt auch die
folgende lineare Version:

Proposition 4.4.5 (lineare Spalte und Surjektivität). Sei K ein Körper und
sei f : V −→ W eine lineare Abbildung von K-Vektorräumen. Dann sind
folgende Aussagen äquivalent:

1. Die Abbildung f : V −→ W ist surjektiv.

2. Es gibt eine lineare Abbildung s : W −→ V mit

f ◦ s = idW .

Beweis (AC).

2 =⇒ 1“. Diese Richtung folgt bereits aus der entsprechenden Implikation



im Fall von Abbildungen von Mengen aus Proposition 1.3.39.
4.4. Kern und Bild 109

1 =⇒ 2“. Sei f : V −→ W surjektiv. Dann besitzt f einen Spalt, denn: Sei



(wi )i∈I eine Basis von W und sei Y := {wi | i ∈ I} ⊂ W bzw. X :=
f −1 (Y ) ⊂ V (zur Erinnerung: dabei ist f −1 (Y ) die Urbildmenge von Y
unter f ). Da f surjektiv ist, ist nach Konstruktion von X auch die
Abbildung
f |X : X −→ Y
surjektiv und besitzt somit einen Spalt s : Y −→ X (nach Propositi-
on 1.3.39). Mithilfe der universellen Eigenschaft von Basen (Satz 4.3.1)
erhalten wir daraus eine lineare Abbildung S : W −→ V , die s fortsetzt.
Nach Konstruktion gilt

f ◦ S(wi ) = f (s(i)) = wi = idW (wi ).

für alle i ∈ I. Wenden wir nun die universelle Eigenschaft von Basen
auf f ◦ S an, so erhalten wir f ◦ S = idW , wie gewünscht.

4.4.2 Isomorphismen von Vektorräumen


Eine besonders wichtige Klasse von linearen Abbildungen sind die sogenann-
ten Isomorphismen – sie erlauben es zu präzisieren, wann zwei Vektorräume
im wesentlichen gleich“ sind.

Definition 4.4.6 (spezielle Morphismen). Sei K ein Körper und f : V −→ W
sei eine lineare Abbildung von K-Vektorräumen.
ˆ Wir bezeichnen f als Isomorphismus (von K-Vektorräumen), falls es
eine K-lineare Abbildung g : W −→ V gibt mit

f ◦ g = idW und g ◦ f = idV .

ˆ Falls es einen Isomorphismus V −→ W gibt, nennen wir V und W


∼K W .
isomorph und schreiben dafür V =
ˆ Wir bezeichnen f als Monomorphismus (von K-Vektorräumen), falls f
injektiv ist.
ˆ Wir bezeichenn f als Epimorphismus (von K-Vektorräumen), falls f
surjektiv ist.
ˆ Lineare Abbildungen vom Typ V −→ V bezeichnet man auch als En-
domorphismen von V , Isomorphismen vom Typ V −→ V bezeichnet
man auch als Automorphismen von V .
Bemerkung 4.4.7 (griechische Bausteine für den Morphismen-Zoo). Man kann
sich die obigen Begriffe leicht merken, wenn man die griechischen Bausteine
kennt:
110 4. Lineare Abbildungen

griechisch deutsch Eselsbrücke


Òsoc gleich Isotop
mìnoc allein Monolog
âpÐ auf, darauf Epidermis
êndon innerhalb Endoskopie
aÎtìc selbst Automobil

Proposition 4.4.8 (Bijektivität vs. lineare Isomorphismen). Sei K ein Körper


und sei f : V −→ W eine lineare Abbildung von K-Vektorräumen. Dann sind
folgende Aussagen äquivalent:
1. Die Abbildung f : V −→ W ist ein Isomorphismus.
2. Die Abbildung f : V −→ W ist bijektiv.
3. Es gilt ker f = {0} und im f = W .
Beweis. Nach Proposition 4.4.4 sind die Aussagen 2. und 3. äquivalent. Au-
ßerdem gilt 1. =⇒ 2.“ denn jeder Isomorphimus ist bijektiv (Propositi-

on 1.3.32).
Es bleibt also noch 2. =⇒ 1.“ zu zeigen: Sei f : V −→ W bijektiv. Nach

Proposition 1.3.32 ist f dann als Abbildung von Mengen invertierbar; sei
g : W −→ V die inverse Abbildung. Es genügt also nachzuweisen, dass g
automatisch linear ist: Da f linear und g invers zu f ist, erhalten wir für
alle w, w0 ∈ W und alle λ ∈ K, dass

g(λ · w) = g λ · f (g(w)) (da f ◦ g = idW )

= g f (λ · g(w)) (da f linear ist)
= λ · g(w) (da g ◦ f = idV )

und analog
 
g(w + w0 ) = g f (g(w)) + f (g(w0 )) = g f (g(w) + g(w0 ))
= g(w) + g(w0 ).

Anmerkung zum Lernen. Viele Quellen verwenden als Definition für Isomor-
phismen zwischen Vektorräumen die zweite Charakterisierung (d.h. linear

und bijektiv“). In der Praxis verwendet man tatsächlich meist die zweite oder
dritte Charakterisierung. Konzeptionell gesehen trägt aber die Definition als
strukturerhaltend invertierbare strukturerhaltende Abbildung weiter.
Insbesondere besitzen Isomorphismen eindeutige inverse Isomorphismen
(Proposition 1.3.32) und Isomorphismen bilden Basen auf Basen ab (Propo-
sition 4.3.4). Genauer gilt sogar, dass die Dimension eine vollständige Iso-
morphieinvariante von Vektorräumen ist:
Proposition 4.4.9 (Invarianz der Dimension). Sei K ein Körper und seien V ,
W Vektorräume über K. Dann sind folgende Aussagen äquivalent:
4.4. Kern und Bild 111

1. Es gilt V ∼
=K W .
2. Es gilt dimK V = dimK W .
Insbesondere folgt: ist V ein endlich-dimensionaler K-Vektorraum, so ist
V ∼
=K K dimK V .
Beweis. Dies folgt aus Proposition 4.3.4 und der universellen Eigenschaft von
Basen (Satz 4.3.1) (Übungsaufgabe).
Beispiel 4.4.10 (geometrische lineare Abbildungen, Isomorphismen). In Bei-
spiel 4.1.3 sind die Spiegelungen, Rotationen, Streckungen und Scherungen
(je mit Skalierungsfaktor ungleich 0) Isomorphismen. Projektionen auf Quo-
tienten und Inklusionen von Untervektorräumen sind im allgemeinen jedoch
keine Isomorphismen.
Wir geben zwei generische Beispiele, die insbesondere im Kontext von
Dimensionsformel interessant sind:
Proposition 4.4.11 (komplementäre Untervektorräume und direkte Summen).
Sei K ein Körper, sei V ein K-Vektorraum und seien U, W ⊂ V Untervek-
torräume. Dann sind folgende Aussagen äquivalent:
1. Die Untervektorräume U und W sind komplementär in V .
2. Die Abbildung

f : U ⊕ W −→ V
(u, w) 7−→ u + w

ist ein Isomorphismus.


Beweis. Es ist im f = U + W und ker f = {(u, −u) | u ∈ U ∩ W }, woraus
mit Proposition 4.4.8 die Behauptung folgt.
Bemerkung 4.4.12 (Quotienten und komplementäre Untervektorräume). Sei K
ein Körper, sei V ein K-Vektorraum und sei U ⊂ V ein Untervektorraum.
Ist W ⊂ V ein zu U komplementärer Untervektorraum von V , so ist

πU |W : W −→ V /U
w 7−→ w + U

ein Isomorphismus von K-Vektorräumen (nachrechnen über Kern und Bild,


Übungsaufgabe). Auf diese Weise kann man die Dimensionsformel für Quo-
tientenvektorräume aus der Dimensionsformel für komplementäre Untervek-
torräume ableiten.
Man beachte dabei, dass es im allgemeinen jedoch viele zu U komple-
mentäre Untervektorräume in V gibt, d.h. es gibt keine ausgezeichnete Wahl
eines solchen Untervektorraums. Es ist daher im Normalfall besser, mit dem
abstrakten Quotientenvektorraum zu arbeiten.
112 4. Lineare Abbildungen

4.4.3 Die Dimensionsformel für lineare Abbildungen


Aus der Dimensionsformel für Quotientenvektorräume lässt sich die Dimen-
sionsformel für lineare Abbildungen ableiten; diese gibt eine Beziehung zwi-
schen der Dimension des Kerns, der Dimension des Bildes und der Dimen-
sion des Startraums einer linearen Abbildung. Als Vorbereitung stellen wir
zunächst einen Zusammenhang zwischen linearen Abbildungen und Quotien-
tenvektorräumen her:

Satz 4.4.13 (Homomorphiesatz für Vektorräume). Sei K ein Körper und sei
f : V −→ W eine lineare Abbildung von K-Vektorräumen. Dann ist

f : V / ker f −→ im f
v + ker f 7−→ f (v)

ein (wohldefinierter!) Isomorphismus von K-Vektorräumen.

Beweis. Nach Definition von ker f ist f wohldefiniert. Wegen Propositi-


on 4.4.8 genügt es zu zeigen, dass im f = im f und ker f = {0 + ker f }
gilt:

ˆ Bild von f : Nach Konstruktion ist im f = im f .

ˆ Kern von f : Es gilt

ker f = {v + ker f | f (v) = 0}


= {v + ker f | v ∈ ker f }
= {0 + ker f }.

Korollar 4.4.14 (Dimensionsformel für lineare Abbildungen). Sei K ein Körper,


sei V ein endlich-dimensionaler K-Vektorraum, sei W ein K-Vektorraum
und sei f : V −→ W eine K-lineare Abbildung. Dann gilt

dimK V = dimK ker f + dimK im f

bzw.
rg f = dimK V − dimK ker f.

Beweis. Mit dem Homomorphiesatz (Satz 4.4.13) und der Invarianz der Di-
mension (Proposition 4.4.9) folgt, dass

dimK im f = dimK V / ker f.

Mit der Dimensionsformel für Quotientenvektorräume (Satz 3.4.16) erhalten


wir daher
4.4. Kern und Bild 113

dimK im f = dimK V − ker f,


was die Behauptung liefert.
Abbildungen zwischen endlichen Mengen mit derselben Anzahl von Ele-
menten sind bereits bijektiv, wenn sie injektiv oder surjektiv sind. Mithilfe
der Dimension überträgt sich dies auf endlich-dimensionale Vektorräume:
Korollar 4.4.15 (Isomorphismen von endlich-dimensionalen Vektorräumen). Sei
K ein Körper und sei f : V −→ W eine lineare Abbildung von endlich-
dimensionalen K-Vektorräumen mit dimK V = dimK W . Dann sind die fol-
genden Aussagen äquivalent:
1. Die Abbildung f : V −→ W ist ein Isomorphismus.
2. Die Abbildung f : V −→ W ist bijektiv.
3. Die Abbildung f ist injektiv.
4. Es gilt dimK ker f = 0.
5. Die Abbildung f ist surjektiv.
6. Es gilt rg f = dimK W .
Beweis.
ˆ Aussagen 1. und 2. sind äquivalent nach Proposition 4.4.8.
ˆ Aussagen 3. und 4. sind äquivalent nach Proposition 4.4.4.
ˆ Aussagen 5. und 6. sind äquivalent nach Proposition 3.4.4.
ˆ Nach der Dimensionsformel für lineare Abbildungen (Korollar 4.4.14)
ist
dimK W = dimK V = dimK ker f + rg f.
Dies liefert die Äquivalenz von 4., 6., und 2.
Caveat 4.4.16. Injektive oder surjektive lineare Abbildungen zwischen un-
endlich-dimensionalen Vektorräumen sind im allgemeinen keine Isomorphis-
men!

Ausblick 4.4.17 (Exaktheit und Homologie). Sei K ein Körper und sei

fn+1 fn
... / Vn+1 / Vn / Vn−1 / ...

eine Folge von K-Vektorräumen und K-linearen Abbildungen. Wir bezeich-


nen eine solche Situation als exakte Sequenz, wenn für alle n ∈ Z gilt, dass

im fn+1 = ker fn .
114 4. Lineare Abbildungen

Zum Beispiel sind für jede lineare Abbildung f : V −→ W die Folgen

{0} / ker f Inkl. / V f


/ im f / {0}

{0} / ker f Inkl. / V f


/ V / ker f / {0}

exakte Sequenzen.
Gilt in obiger Sequenz für alle n ∈ Z, dass fn ◦ fn+1 = 0, so wird Nicht-
Exaktheit von dieser Sequenz durch die sogenannte Homologie gemessen: Für
alle n ∈ Z definiert man die n-te Homologie als den Quotienten

Hn (V∗ ) := ker fn+1 / im fn .

Nach Definition gilt genau dann Hn (V∗ ) ∼ =K {0} für alle n ∈ Z, wenn die
Sequenz exakt ist. Je größer die Homologie ist, desto weniger exakt ist also
die Sequenz.
Mithilfe von Homologie können viele geometrische Eigenschaften von geo-
metrischen Objekten algebraisch berechnet werden (z.B. in der Algebraischen
Topologie oder Algebraischen Geometrie). In der Algebraischen Topologie
liefert dann die Dimensionsformel für lineare Abbildungen einen wichtigen
Schritt in dem Beweis, dass die Euler-Charakteristik eine Homotopieinvari-
ante ist.

4.4.4 Konsequenzen für lineare Gleichungssysteme


Als Anwendung dieser Begriffe gehen wir auf die Konsequenzen für lineare
Gleichungssysteme ein:
Definition 4.4.18 (lineares Gleichungssystem). Sei K ein Körper, seien m, n ∈
N und seien A ∈ Mm×n (K) und b ∈ K m . Dann ist

Gesucht: alle x ∈ K n mit A · x = b

das lineare Gleichungssystem zu A und b. Man sagt, dass dieses lineare Glei-
chungssystem aus m Gleichungen in n Variablen besteht (siehe auch Bemer-
kung 4.2.16). Die Lösungsmenge ist

V (A, b) := {x ∈ K n | A · x = b}.

Man bezeichnet

Gesucht: alle x ∈ K n mit A · x = 0

als zugehöriges homogenes Gleichungssystem und die Elemente von V (A, 0)


als homogene Lösungen.
4.4. Kern und Bild 115

Proposition 4.4.19 (Struktur von Lösungsmengen linearer Gleichungssysteme).


Sei K ein Körper, seien m, n ∈ N und seien A ∈ Mm×n (K), b ∈ K m . Wir
betrachten das lineare Gleichungssystem zu A und b.

1. Die Lösungsmenge V (A, 0) des zugehörigen homogenen linearen Glei-


chungssystems ist ein Untervektorraum von K n . Dabei ist

dimK V (A, 0) = dimK ker L(A) .

2. Das lineare Gleichungssystem


Gesucht: alle x ∈ K n mit A · x = b
ist genau dann lösbar, wenn b ∈ im L(A) ist. Es ist genau dann eindeu-
tig lösbar, wenn b ∈ im L(A) und ker L(A) = {0} ist.

3. Ist x0 eine Lösung des linearen Gleichungssystems


Gesucht: alle x ∈ K n mit A · x = b
(also eine sogenannte spezielle Lösung), so gilt

V (A, b) = x0 + V (A, 0) = x0 + ker L(A).

Insbesondere ist V (A, b) ein affiner Unterraum von K n .

Beweis. Zu 1. Nach Definition ist V (A, 0) = ker L(A), woraus mit Bemer-
kung 4.4.2 die Behauptung folgt.
Zu 2. Es gilt

V (A, b) = {x ∈ K n | A · x = b} = {x ∈ K n | L(A)(x) = b}.

Damit folgt, dass V (A, b) genau dann nicht-leer ist, wenn b ∈ im L(A) ist.
Die Eindeutigkeitsaussage folgt aus dem dritten Teil.
Zu 3. Sei x0 ∈ K n eine spezielle Lösung. Ist x ∈ V (A, b), so ist x − x0 ∈
V (A, 0), denn

A · (x − x0 ) = A · x − A · x0 = b − b = 0.

Ist umgekehrt x ∈ V (A, 0), so ist x0 + x ∈ V (A, b), denn

A · (x0 + x) = A · x0 + A · x = b + 0 = b.

Also ist V (A, b) = b + V (A, 0).

Wie gibt man also Lösungen zu linearen Gleichungssystemen an? Da die


Lösungsmengen von homogenen linearen Gleichungssystemen Vektorräume
sind, gibt man in diesem Fall normalerweise eine Basis des Lösungsraumes
an. Im allgemeinen Fall gibt man (falls vorhanden) eine spezielle Lösung an
und eine Basis des Lösungsraums des zugehörigen homogenen Systems.
116 4. Lineare Abbildungen

In Kapitel 5 werden wir systematisch Berechnungen mithilfe des Matri-


zenkalküls durchführen und dabei insbesondere lernen, wie man lineare Glei-
chungssysteme explizit lösen kann.

4.5 Homomorphismenräume
Zum Abschluss unserer allgemeinen Betrachtungen von linearen Abbildungen
nehmen wir nochmal einen anderen Blickwinkel ein: Statt einzelne lineare
Abbildungen zu betrachten, studieren wir Mengen bzw. Vektorräume von
linearen Abbildungen. Insbesondere werden wir den sogenannten Dualraum
kennenlernen.

Proposition 4.5.1 (Homomorphismenräume). Sei K ein Körper und seien V


und W Vektorräume über K. Wir schreiben HomK (V, W ) ⊂ Abb(V, W ) für
die Menge aller K-linearen Abbildungen V −→ W . Dann ist HomK (V, W )
ein Untervektorraum von Abb(V, W ).

Beweis. Die Menge HomK (V, W ) ist nicht-leer, da sie die Nullabbildung
enthält. Nach Proposition 3.1.13 genügt es zu zeigen, dass HomK (V, W ) unter
Addition und Skalarmultiplikation abgeschlossen ist, d.h. dass die punktweise
Summe bzw. punktweise Skalierung von linearen Abbildungen wieder lineare
Abbildungen liefern. Dies folgt aus Proposition 4.1.6.

Den Übergang zwischen Matrizen und linearen Abbildungen K n −→ K m


bezüglich den Standardeinheitsvektoren können wir also wie folgt zusammen-
fassen:

Proposition 4.5.2 (Abbildungsräume und Matrizenräume). Sei K ein Körper


und seien m, n ∈ N. Dann sind

HomK (K n , K m ) −→ Mm×n (K)


f 7−→ M (f )
Mm×n (K) −→ HomK (K n , K m )
A 7−→ L(A)

zueinander inverse Isomorphismen von K-Vektorräumen. Insbesondere ist

dimK HomK (K n , K m ) = m · n.

Beweis. Dies folgt aus Korollar 4.2.13 und Proposition 4.2.17 (bzw. Proposi-
tion 4.4.8). Die Bestimmung der Dimension erfolgte in Proposition 4.2.6.

Ein interessanter Spezialfall der Homomorphismenräume ist der sogenann-


te Dualraum:
4.5. Homomorphismenräume 117

Definition 4.5.3 (Dualraum). Sei K ein Körper und sei V ein K-Vektorraum.
Dann bezeichnet man den K-Vektorraum

V ∗ := HomK (V, K)

als Dualraum von V . Die Elemente von V ∗ bezeichnet man auch als Linear-
formen auf V .
Satz 4.5.4 (Dualraum von endlich-dimensionalen Vektorräumen). Sei K ein
Körper und sei V ein endlich-dimensionaler K-Vektorraum. Dann gibt es
einen Isomorphismus V ∼=K V ∗ .
Beweis. Nach Proposition 4.5.2 ist dimK V ∗ = dimK V und somit V ∼ =K V ∗
(Proposition 4.4.9). Wir geben nun noch einen etwas expliziteren Beweis über
sogenannte duale Basen:
Sei n := dimK V und sei (v1 , . . . , vn ) eine Basis von V . Wir konstruie-
ren nun die zu (v1 , . . . , vn ) duale Basis von V ∗ : Zu j ∈ {1, . . . , n} bezeich-
ne vj∗ : V −→ K die eindeutige lineare Abbildung (universelle Eigenschaft
von Basen!) mit
∀k∈{1,...,n} vj∗ (vk ) = δj,k .
Dann ist (v1∗ , . . . , vn∗ ) eine Basis von V ∗ , denn:
ˆ Erzeugendensystem: Dass {v1∗ , . . . , vn∗ } den Dualraum V ∗ erzeugt, folgt
aus der universellen Eigenschaft von Basen (Satz 4.3.1).
ˆ Lineare Unabhängigkeit: Seien λ1 , . . . , λn ∈ K mit
n
X
λj · vj∗ = 0;
j=1

man beachte dabei, dass die Null auf der rechten Seite die Nullabbil-
dung V −→ K ist. Einsetzen der Basisvektoren v1 , . . . , vn liefert für
alle k ∈ {1, . . . , n}, dass
X
n 
0 = 0(vk ) = λj · vj∗ (vk ) = λk · vk∗ (vk ) = λk .
j=1

Also ist die Familie (v1∗ , . . . , vn∗ ) linear unabhängig.


Somit ist (v1∗ , . . . , vn∗ ) eine Basis von V ∗ . Daher ist dimK V ∗ = n = dimK V ,
und damit V ∗ ∼ =K V (Proposition 4.4.9).
Caveat 4.5.5. Der obige Satz gilt nicht für unendlich-dimensionale Vek-
torräume!
Man beachte, außerdem dass es im allgemeinen keinen kanonischen Iso-
morphismus V −→ V ∗ für endlich-dimensionale Vektorräume V gibt. Zum
Beispiel beruht der obige Beweis auf der Wahl einer Basis von V .
118 4. Lineare Abbildungen

Im Gegensatz dazu gibt es im endlich-dimensionalen Fall einen kanoni-


schen Isomorphismus zwischen Vektorräumen und ihrem Doppeldual:

Proposition 4.5.6 (Doppeldual). Sei K ein Körper und sei V ein K-Vektor-
raum. Dann ist die Abbildung

i : V −→ (V ∗ )∗

v 7−→ f 7→ f (v)

linear und injektiv. Insbesondere gilt: Ist V endlich-dimensional, so ist diese


Abbildung i : V −→ (V ∗ )∗ ein Isomorphismus.

Beweis. Eine einfache Rechnung zeigt, dass i linear ist. Dass i injektiv ist,
kann man zum Beispiel über Basisergänzung und die universelle Eigenschaft
von Basen zeigen (Übungsaufgabe).

Bemerkung 4.5.7 (Funktorialität des Dualraums). Sei K ein Körper und sei
W ein K-Vektorraum. Ist f : V −→ V 0 eine lineare Abbildung von K-
Vektorräumen, so ist

HomK (f, W ) : HomK (V 0 , W ) −→ HomK (V, W )


g 7−→ g ◦ f

eine linear Abbildung. Man beachte dabei, dass es sich bei HomK (f, W )
nur um eine Notation handelt; HomK (f, W ) ist eine lineare Abbildung,
kein Vektorraum. Die Notation kommt daher, dass man die Konstrukti-
on HomK ( · , W ) auf Vektorräume und auf lineare Abbildungen anwendet
(und so Vektorräume bzw. lineare Abbildungen erhält). Im Fall W = K
schreiben wir auch kurz

f ∗ := HomK (f, K) : V 0∗ −→ V ∗

und nennen dies die duale Abbildung von f .


Diese Konstruktion ist mit der Komposition von Abbildungen verträglich:
Sind f ∈ HomK (V, V 0 ) und f 0 ∈ HomK (V 0 , V 00 ), so folgt (nachrechnen!)

HomK (f 0 ◦ f, W ) = HomK (f, W ) ◦ HomK (f 0 , W ).

Diese Eigenschaft bezeichnet man auch als (kontravariante) Funktorialität


(Anhang A.7).

Homomorphismenräume geben auch die Möglichkeit, universelle Eigen-


schaften von Vektorraumkonstruktionen kurz zu formulieren. Wir zeigen dies
hier am Beispiel der Quotientenvektorräume.

Satz 4.5.8 (universelle Eigenschaft von Quotienten). Sei K ein Körper, sei V
ein K-Vektorraum und sei U ⊂ V ein Untervektorraum. Dann besitzt der
4.5. Homomorphismenräume 119

Quotientenraum V /U zusammen mit der kanonischen Projektion πU : V −→


V /U die folgende universelle Eigenschaft: Für jeden K-Vektorraum W und
jede lineare Abbildung f : V −→ W mit U ⊂ ker f gibt es genau eine lineare
Abbildung f : V /U −→ W mit

f ◦ πU = f.

f
V /W
=
πU
 ∃! f
V /U
In anderen Worten: Für jeden K-Vektorraum W ist die lineare Abbildung

HomK (πU , W ) : HomK (V /U, W ) −→ f ∈ HomK (V, W ) f |U = 0
g 7−→ g ◦ πU

bijektiv (und somit ein Isomorphismus).

Beweis. Sei f : V −→ W linear mit U ⊂ ker f .

ˆ Existenz von f : Die Abbildung

f : V /U −→ W
v + U 7−→ f (v)

ist wegen U ⊂ ker f wohldefiniert und außerdem linear (nachrechnen).


Nach Konstruktion ist f ◦ πU = f .

ˆ Eindeutigkeit von f : Die Eindeutigkeit folgt, da πU surjektiv ist.

Anmerkung zum Lernen (universelle Eigenschaften von Quotienten). Die Kon-


struktion von Quotientenvektorräumen erfordert natürlich Details aus der
Theorie der Vektorräume. Im Gegensatz dazu ist die universelle Eigenschaft
vielseitiger, da sie im wesentlichen nur auf dem Konzept von Abbildungen und
ihren Verknüpfungen beruht. Auf diese Weise erhält man einen konzeptionel-
len Zugang zu Quotienten, der sich auf viele andere Gebiete übertragen lässt.
Auch wenn universelle Eigenschaften zunächst etwas gewöhnungsbedürftig
sind, lohnt es sich auf jeden Fall, dieses Konzept besser zu verstehen, da
es in vielen anderen Situationen auch wieder auftreten wird (und dann mit
denselben Techniken verwendet werden kann).

Mit dem üblichen Trick für universelle Eigenschaften (Abbildung 4.6)


erhält man daraus in dieser Situation die folgende Eindeutigkeitsaussage:
Ist Q ein K-Vektorraum und ist π : V −→ Q eine lineare Abbildung mit
U ⊂ ker π und der Eigenschaft, dass
120 4. Lineare Abbildungen

Abbildung 4.6.: Eindeutigkeit via universelle Eigenschaft; Brüderchen, komm


tanz mit mir

(∗) Für jeden K-Vektorraum W und jede lineare Abbildung f : V −→ W


mit U ⊂ ker f gibt es genau eine lineare Abbildung f : Q −→ W mit f ◦
π = f.
gilt, so gibt es genau einen Isomorphismus f : Q −→ V /U mit

f ◦ π = πU .

Denn:
ˆ einmal hin“: Nach (∗), angewendet auf πU : V −→ V /U gibt es eine

lineare Abbildung f : Q −→ V /U mit

f ◦ π = πU .

ˆ einmal her“: Umgekehrt erhält man aus der universellen Eigenschaft



des Quotienten V /U (angewendet auf π : V −→ Q), dass es eine lineare
Abbildung g : V /U −→ Q mit

g ◦ πU = π

gibt. Also ist

(f ◦ g) ◦ πU = f ◦ π = πU = idV /U ◦πU , und


(g ◦ f ) ◦ π = g ◦ πU = π = idQ ◦π.

ˆ rundherum, das ist nicht schwer“: Wendet man nun noch einmal (∗)

bzw. die universelle Eigenschaften des Quotienten V /U auf π : V −→ Q
bzw. πU : V −→ V /U and, so folgt mit der Eindeutigkeitsaussage
4.5. Homomorphismenräume 121

f ◦ g = idV /U und g ◦ f = idQ .

Also ist f : Q −→ V /U der gesuchte Isomorphismus.


Zum Beispiel können wir die universelle Eigenschaft von Quotienten nut-
zen, um den Zusammenhang zwischen Abbildungen und den zugehörigen
dualen Abbildungen genauer zu untersuchen:

Korollar 4.5.9 (Kern und Rang dualer Homomorphismen). Sei K ein Körper
und sei f : V −→ W eine lineare Abbildung zwischen K-Vektorräumen. Dann
gibt es einen (kanonischen) Isomorphismus

ker(f ∗ ) ∼
=K (W/ im f )∗ .

Sind V und W endlich-dimensional, so folgt

dimK ker(f ∗ ) = dimK W − dimK im f und rg f ∗ = rg f.

Beweis. Es gilt

ker(f ∗ ) = {g ∈ W ∗ | g ◦ f = 0}
= {g ∈ W ∗ | im f ⊂ ker g}

=K (W/ im f )∗ ,

wobei wir in der letzten Gleichheit die universelle Eigenschaft des Quotien-
ten W/ im f verwendet haben.
Die zusätzlichen Aussagen folgen daraus mit der Dimensionsformel für
Quotientenvektorräume (Satz 3.4.16), der Dimensionsformel für lineare Ab-
bildungen (Korollar 4.4.14) und Satz 4.5.4.

Auch direkte Summen und direkte Produkte von Vektorräumen haben


charakteristische universelle Eigenschaften. Wir werden in der Linearen Al-
gebra II genauer darauf eingehen.
122 4. Lineare Abbildungen
5
Matrizenkalkül

Wir werden nun algorithmische Aspekte der Theorie der Vektorräume und
linearen Abbildungen untersuchen, indem wir den Matrizenkalkül entwickeln.
Als ersten Schritt überlegen wir uns, wie man lineare Abbildungen zwischen
allgemeinen endlich-dimensionalen Vektorräumen durch Matrizen darstellen
kann. Im zweiten Schritt werden wir sehen, wie man mit dem sogenannten
Gaußschen Eliminationsverfahren lineare Gleichungssysteme algorithmisch
lösen kann; insbesondere werden wir dadurch Kerne von linearen Abbildun-
gen, Durchschnitte von Untervektorräumen, etc. berechnen können. Im letz-
ten Schritt betrachten wir eine weitere Invariante, die in diesem Kontext eine
wichtige Rolle spielt, die Determinante.

Überblick über dieses Kapitel.

5.1 Darstellung von linearen Abbildungen 124


5.2 Das Gaußsche Eliminationsverfahren 132
5.3 Die Determinante 146

Schlüsselbeispiel. Basiswechselmatrizen, Zeilenoperationsmatrizen


124 5. Matrizenkalkül

5.1 Darstellung von linearen Abbildungen


Als ersten Schritt überlegen wir uns, wie man lineare Abbildungen zwischen
allgemeinen Vektorräumen durch Matrizen darstellen kann. Der Einfachheit
halber beschränken wir uns auf den endlich-dimensionalen Fall. Die Grundi-
dee ist, Basen im Start- und Zielraum zu wählen und die lineare Abbildung
so in eine lineare Abbildung zwischen Standardvektorräumen zu übersetzen.
Als Vorbereitung führen wir invertierbare Matrizen ein und untersuchen Ba-
siswechsel etwas genauer.

5.1.1 Invertierbare Matrizen


Matrizen sind invertierbar, wenn sie ein Inverses bezüglich Matrixmultiplika-
tion besitzen. Dieser Begriff ist nur für quadratische Matrizen sinnvoll (wie
man am Beweis von Proposition 5.1.4 und der Invarianz der Dimension ab-
lesen kann).

Definition 5.1.1 (invertierbare Matrix). Sei K ein Körper und sei n ∈ N. Eine
Matrix A ∈ Mn×n (K) heißt invertierbar, wenn es eine Matrix B ∈ Mn×n (K)
mit
A · B = In und B · A = In
gibt. Ist A invertierbar, so schreibt man auch A−1 für das (eindeutig be-
stimmte!) Inverse von A.

Bemerkung 5.1.2 (allgemeine lineare Gruppe). Ist K ein Körper und n ∈ N, so


bildet die Menge aller invertierbaren Matrizen in Mn×n (K) eine Gruppe, die
sogenannte allgemeine lineare Gruppe GLn (K) (nachrechnen); das neutrale
Element ist die Einheitsmatrix In . Insbesondere besitzt jede invertierbare
Matrix ein eindeutiges Inverses.

Beispiel 5.1.3. Die Matrix


 
0 1
∈ M2×2 (Q)
0 2

ist nicht invertierbar (man beachte die Nullspalte). In M2×2 (R) gilt
 −1  
1 1 2 −1
= ;
1 2 −1 1

auch wenn uns an dieser Stelle noch nicht unmittelbar klar ist, wie man
Matrizen auf Invertierbarkeit testen kann und wie man inverse Matrizen be-
5.1. Darstellung von linearen Abbildungen 125

stimmen kann, so können wir leicht durch Nachrechnen überprüfen, dass die
obigen beiden Matrizen tatsächlich invers zueinander sind.
Invertierbarkeit von Matrizen hängt wie folgt mit der Invertierbarkeit von
linearen Abbildungen zusammen:
Proposition 5.1.4 (Invertierbarkeit von linearen Abbildungen vs. Matrizen). Sei
K ein Körper, sei n ∈ N und sei f : K n −→ K n linear. Dann sind die
folgende Aussagen äquivalent:
1. Die Abbildung f : K n −→ K n ist ein Isomorphismus.
2. Die Matrix M (f ) ∈ Mn×n (K) ist invertierbar.
Beweis. Dies folgt aus dem Zusammenhang zwischen Matrixmultiplikati-
on und Komposition linearer Abbildungen (Korollar 4.2.13 und Propo-
sition 4.2.17). (Übungsaufgabe). Dabei ergibt sich im invertierbaren Fall
auch M (f )−1 = M (f −1 ).
Wir können daher auch Korollar 4.4.15 in die Welt der Matrizen übersetzen;
wir verwenden dafür den Rangbegriff für Matrizen:
Definition 5.1.5 (Rang einer Matrix). Sei K ein Körper und seien m, n ∈ N.
Der (Spalten)Rang einer Matrix A ∈ Mm×n (K) ist

rg A := rg L(A) ∈ N.

Korollar 5.1.6 (Invertierbarkeit und Spaltenrang). Sei K ein Körper, sei n ∈ N


und sei A ∈ Mn×n (K). Dann sind die folgenden Aussagen äquivalent:
1. Die Matrix A ist invertierbar.
2. Es gilt rg A = n.
3. Die Familie (A∗1 , . . . , A∗n ) der Spalten von A ist eine Basis von K n .
4. Die Familie (A∗1 , . . . , A∗n ) der Spalten von A ist linear unabhängig.
Beweis. Die Äquivalenz von 1. und 2. folgt aus der obigen Proposition 5.1.4
und Korollar 4.4.15. Dass 2. und die Aussagen 3. und 4. äquivalent sind, folgt
aus der Beobachtung, dass

rg L(A) = dimK SpanK {A∗1 , . . . , A∗n }

gilt (die Spalten sind die Bilder der Standardeinheitsvektoren, und Proposi-
tion 4.3.4) und grundlegenden Eigenschaften von Basen und Dimension.
Insbesondere liefern Basen invertierbare Matrizen:
Beispiel 5.1.7 (Matrix zu einer Basis). Sei K ein Körper und n ∈ N. Ist B =
(v1 , . . . , vn ) eine Basis von K n , so ist die Matrix MB , deren Spalten v1 , . . . , vn
(in dieser Reihenfolge) sind, invertierbar, d.h. MB ∈ GL(n, K).
126 5. Matrizenkalkül

Beispiel 5.1.8. Sei K ein Körper, sei n ∈ N und sei En := (e1 , . . . , en ) die
Standardbasis von K n . Dann ist

M En = I n .

Beispiel 5.1.9. Wir betrachten die Basis


   
1 1
B := ,
1 2

des R-Vektorraums R2 . Dann ist (siehe auch Beispiel 5.1.3)


   
1 1 −1 2 −1
MB = und MB = .
1 2 −1 1

Zum Beispiel lassen sich mithilfe dieser Matrizen auch die Basistransfor-
mationsabbildungen beschreiben:

Bemerkung 5.1.10 (Matrizen für Basistransformationen). Sei K ein Körper,


sei n ∈ N und seien B und C Basen von K n . Aus der universellen Eigenschaft
von Basen folgt

MB = M (TEn ,B ) und MC = M (TEn ,C )

(denn die Spalten sind die Bilder der Standardeinheitsvektoren!). Also ist

M (TB,C ) = M (TEn ,C ◦ TE−1


n ,B
)
= M (TEn ,C ) · M (TEn ,B )−1
= MC · MB−1 .

5.1.2 Darstellung von linearen Abbildungen


Wir stellen nun lineare Abbildungen zwischen endlich-dimensionalen Vek-
torräumen durch Matrizen dar, indem wir Basen des Start- und Zielraums
wählen und so den Start- bzw. Zielraum über Basistransformationen mit den
entsprechenden Standardvektorräumen identifizieren:

Definition 5.1.11 (assoziierte Matrix). Sei K ein Körper und sei f : V −→ W


eine lineare Abbildung von endlich-dimensionalen K-Vektorräumen mit n :=
dimK V und m := dimK W . Ist B eine Basis von V und C eine Basis von W ,
so definieren wir

fB,C := TE−1
m ,C
◦ f ◦ TEn ,B ∈ HomK (K n , K m )

und
MB,C (f ) := M (fB,C ) ∈ Mm×n (K).
5.1. Darstellung von linearen Abbildungen 127

Wir bezeichnen MB,C (f ) als Matrix zu f bezüglich der Basen B und C. Diese
Situation lässt sich durch das folgende kommutative Diagramm veranschau-
lichen:
f
VO /W
O
TEn ,B TEm ,C

Kn / Km
fB,C

Man beachte dabei, dass die Abbildungen der Form TX,Y Isomorphismen
sind; die universelle Eigenschaft von Basen zeigt nämlich, dass TY,X das In-
verse von TX,Y ist. Die Kommutativität des obigen Diagramms bedeutet
eigentlich, dass
TEm ,C ◦ fB,C = f ◦ TEn ,B
ist. Da die vertikalen“ Abbildungen TEm ,C und TEn ,B Isomorphismen sind,

ist dies aber äquivalent zu der definierenden Gleichung

fB,C = TE−1
m ,C
◦ f ◦ TEn ,B

bzw.
f = TEm ,C ◦ fB,C ◦ TE−1
n ,B
.

Anmerkung zum Lernen. Diese Definition mag etwas unübersichtlich erschei-


nen; es genügt jedoch völlig, sich das obige kommutative Diagramm zu mer-
ken – alles andere lässt sich daraus ableiten.
Nach Konstruktion sind die Spalten von MB,C (f ) die Bilder der Ba-
sisvektoren aus B unter f , ausgedrückt in der Basis C. Expliziter: Sei
B = (v1 , . . . , vn ) und C = (w1 , . . . , wm ). Ist k ∈ {1, . . . , n}, so gibt es eindeu-
tig bestimmte Koeffizienten λ1 , . . . , λm ∈ K mit
m
X
f (vk ) = λj · wj .
j=1

Dann ist  
λ1
 .. 
 . 
λm
die k-te Spalte von MB,C (f ). Kurz zusammengefasst:
Die Spalten sind die Bilder der Basisvektoren!
Bevor wir konkrete Beispiele für die Darstellung von linearen Abbildungen
durch Matrizen angeben, wollen wir uns vom prinzipiellen Nutzen dieser Dar-
stellung überzeugen (unter der Annahme, dass es uns später gelingen wird,
Fragen zu Matrizen algorithmisch zu beantworten):
128 5. Matrizenkalkül

ˆ Wie kann man in der Situation der Definition die Abbildung f aus der
Matrix MB,C (f ) zurückgewinnen? Für alle v ∈ V gilt (nach dem obigen
kommutativen Diagramm)

f (v) = TEm ,C MB,C (f ) · (TE−1
n ,B
(v)) .

ˆ Wie kann man den Kern von f aus MB,C (f ) bestimmen? Da TEn ,B
und TEm ,C Isomorphismen sind, gilt

ker f = v ∈ V f (v) = 0
 
= TEn ,B v ∈ K n fB,C (v) = 0

= TEn ,B V (MB,C (f ), 0) .

ˆ Wie kann man den Rang von f aus MB,C (f ) bestimmen? Da TEn ,B
und TEm ,C Isomorphismen sind, gilt

rg f = rg fB,C = rg MB,C (f ).

Außerdem kann man ein Analogon von Proposition 4.5.2 über den Zu-
sammenhang zwischen dem Abbildungsraum HomK (V, W ) und Mm×n (K)
herleiten.

Beispiel 5.1.12 (Basistransformationen). Sei K ein Körper und sei n ∈ N.


Sind B und C Basen von K n , so gilt (nach Definition)

MB,C (TB,C ) = In und MEn ,En (TB,C ) = M (TB,C ) = MC · MB−1 .

Beispiel 5.1.13 (Basiswechselwunder). Wir betrachten


 
3 −1
A := ∈ M2×2 (R)
2 0

und f := L(A) : R2 −→ R2 . Wir wollen f nun bezüglich einer anderen Basis


von R2 durch eine Matrix darstellen. Wir wählen die Basis
   
1 1
B := ,
1 2

von R2 (sowohl im Start- als auch im Zielraum). Dann erhalten wir (mit
Beispiel 5.1.9 und Beispiel 5.1.3 sowie etwas Geduld beim Rechnen)

MB,B (f ) = M (TE−1
2 ,B
◦ f ◦ TE2 ,B ) = MB−1 · A · MB
 
2 0
= .
0 1
5.1. Darstellung von linearen Abbildungen 129

Durch geschickte Wahl einer Basis konnten wir also eine deutlich einfachere
Darstellung unserer linearen Abbildung erreichen! Selbst für lineare Abbil-
dungen zwischen den Standardvektorräumen ist es daher unerlässlich auch
die Darstellung durch Matrizen bezüglich anderen Basen zu untersuchen.

Eine interessante Situation erhält man auch, wenn man duale Abbildun-
gen bezüglich dualen Basen darstellt: Dabei treten sogenannte transponierte
Matrizen auf; die transponierte Matrix erhält man, indem man die gegebene
Matrix an der Hauptdiagonalen spiegelt“:

Definition 5.1.14 (transponierte Matrix). Sei K ein Körper, seien m, n ∈ N
und A = (ajk )j,k ∈ Mm×n (K). Dann ist

AT := (ajk )(k,j)∈{1,...,n}×{1,...,m} ∈ Mn×m (K)

die transponierte Matrix zu A.

Durch das Transponieren werden also Zeilen zu Spalten und umgekehrt;


insbesondere vertauschen sich auch die Anzahlen der Zeilen bzw. Spalten.

Beispiel 5.1.15. Es gilt


 
 T 1 4
1 2 3
= 2 5
4 5 6
3 6

und
 T !T  
1 2 3 1 2 3
= .
4 5 6 4 5 6

Proposition 5.1.16 (Matrix der dualen Abbildung). Sei K ein Körper, seien
V, W endlich-dimensionale K-Vektorräume, seien B und C Basen von V
bzw. W und seien B ∗ bzw. C ∗ die zugehörigen dualen Basen von V ∗ bzw. W ∗ .
Ist f : V −→ W linear, so gilt

MC ∗ ,B ∗ (f ∗ ) = MB,C (f )T .

Beweis. Seien n := dimK V , m := dimK W und

B = (v1 , . . . , vn ) und C = (w1 , . . . , wm ).

Wir schreiben

B ∗ = (v1∗ , . . . , vn∗ ) und C ∗ = (w1∗ , . . . , wm



)

für die zugehörigen dualen Basen (Beweis von Satz 4.5.4) von V ∗ bzw. W ∗ .
Ist A := MB,C (f ) ∈ Mm×n (K) und k ∈ {1, . . . , n}, so ist (die Spalten sind
die Bilder der Basisvektoren)
130 5. Matrizenkalkül
n
X
f (vk ) = Ar,k · wr .
r=1

Wir bestimmen nun die Koeffizienten von MC ∗ ,B ∗ (f ∗ ), indem wir die Wer-
te f ∗ (w1∗ ), . . . , f ∗ (wm

) in der dualen Basis B ∗ darstellen: Sei j ∈ {1, . . . , m}.
Dann gilt
X
n 
 
∀k∈{1,...,n} f ∗ (wj∗ ) (vk ) = wj∗ f (vk ) = wj∗ Ar,k · wr = Aj,k ,
r=1

und somit (universelle Eigenschaft der Basis B von V )


n
X
f ∗ (wj∗ ) = Aj,k · vk∗ ∈ HomK (V, K) = V ∗ .
k=1

In anderen Worten: Die j-te Spalte von MC ∗ ,B ∗ (f ∗ ) stimmt mit der j-ten
Zeile von A überein. Also ist MC ∗ ,B ∗ (f ∗ ) = AT .

Als Anwendung der Theorie der linearen Abbildungen erhalten wir insbe-
sondere die folgende Tatsache über Matrizen:

Korollar 5.1.17 (Spaltenrang = Zeilenrang). Sei K ein Körper, seien m, n ∈ N


und sei A ∈ Mm×n (K). Dann stimmen Spaltenrang und Zeilenrang von A
überein, d.h. es gilt

rg A = dimK SpanK {A1∗ , . . . , Am∗ }.

Beweis. Nach Definition der transponierten Matrix gilt

dimK SpanK {A1∗ , . . . , Am∗ } = dimK SpanK {AT ∗1 , . . . , AT ∗m } = rg AT .

Wir verwenden nun den Zusammenhang mit (dualen) linearen Abbildungen:


Sei f := L(A) ∈ HomK (K n , K m ). Dann gilt nach Definition des Rangs von
Matrizen, Korollar 4.5.9 und Proposition 5.1.16, dass

rg A = rg f = rg f ∗ = rg AT .

5.1.3 Basiswechsel
Wir untersuchen nun systematischer, was passiert, wenn wir lineare Abbil-
dungen bezüglich unterschiedlichen Basen durch Matrizen darstellen. Die
Nützlichkeit solcher Basiswechsel haben wir bereits in Beispiel 5.1.13 gese-
hen. Auch z.B. in der Physik sind (affine) Basis-/Koordinatenwechsel allge-
genwärtig: Wollen wir die Bewegung des Mondes relativ zur Erde beschrei-
ben, bietet es sich an, ein geeignetes Koordinatensystem zu wählen, dessen
5.1. Darstellung von linearen Abbildungen 131

Ursprung im Erdmittelpunkt liegt; wollen wir die Bewegung der Planeten des
Sonnensystems relativ zur Sonne beschreiben, bietet es sich an, ein Koordi-
natensystem zu wählen, dessen Ursprung in der Sonne liegt. In der Compu-
tergraphik werden (affine) Koordinatenwechsel benötigt, um den Blick auf
3D-Modelle von verschiedenen Punkten/Richtungen zu berechnen.
Als erstes betrachten wir Basiswechselmatrizen, d.h. Matrizen die Koor-
dinaten bezüglich einer Basis in Koordinaten bezüglich einer anderen Basis
umrechnen:

Definition 5.1.18 (Basiswechselmatrix). Sei K ein Körper und sei V ein


endlich-dimensionaler K-Vektorraum der Dimension n. Sind B und C Ba-
sen von V , so definieren wir die zugehörige Basiswechselmatrix durch

MB,C := MB,C (idV ) ∈ GLn (K).

Man erhält die Koeffizienten von MB,C also, indem man die Elemente
aus B bezüglich der Basis C darstellt und die entsprechenden Koeffizienten
in die Spalten füllt.
Diese Basiswechselmatrizen sind tatsächlich invertierbar, da sie Matrizen
zu Isomorphismen sind. Genauer gilt in der Situation der obigen Definition,
−1
dass MB,C = MC,B ist (nachrechnen).

Beispiel 5.1.19. Sei K ein Körper und n ∈ N. Sind B und C Basen von K n ,
so gilt (nach Konstruktion)

MB,C = MC−1 · MB und MC,B = (MB,C )−1 = MB−1 · MC .

(Dies ist im allgemeinen nicht dasselbe wie M (TB,C ) = MC · MB−1 .) Man


beachte, dass in allgemeinen Vektorräumen eine Basis B nicht zu einer Ma-
trix MB führt; man kann im allgemeinen nur den Unterschied zwischen zwei
Basen B und C durch eine Matrix (nämlich MB,C ) beschreiben.

Proposition 5.1.20 (Basiswechsel und darstellende Matrizen). Sei K ein Körper


und sei f : V −→ W eine lineare Abbildung von endlich-dimensionalen K-
Vektorräumen. Seien B und B 0 Basen von V und seien C und C 0 Basen
von W . Dann gilt

MB 0 ,C 0 (f ) = (MC 0 ,C )−1 · MB,C (f ) · MB 0 ,B = MC,C 0 · MB,C (f ) · MB 0 ,B .

Beweis. Nach Definition der assoziierten Abbildungen bzw. Matrizen gilt


(siehe auch Abbildung 5.1)

fB 0 ,C 0 = TE−1
m ,C
0 ◦ f ◦ TEn ,B 0

= (TEm ,C ◦ (idW )C 0 ,C )−1 ◦ f ◦ (TEn ,B ◦ (idV )B 0 ,B )


= ((idW )C 0 ,C )−1 ◦ fB,C ◦ (idV )B 0 ,B
132 5. Matrizenkalkül

B0 B C C0
f

idV f idW '


VO /V
O
/W o
O WO
TEn ,B 0 TEn ,B TEm ,C EEm ,C 0

Kn / Kn / Km o
7 Km
(idV )B 0 ,B fB,C (idW )C 0 ,C

fB 0 ,C 0

Abbildung 5.1.: Basiswechsel und darstellende Matrizen

bzw.

MB 0 ,C 0 (f ) = (MC 0 ,C )−1 · MB,C (f ) · MB 0 ,B .

Die alternative Darstellung ergibt sich dann daraus, dass (MC 0 ,C )−1 = MC,C 0
gilt.

Betrachten wir bei Endomorphismen im Start- und Zielraum dieselbe Ba-


sis, so erhalten wir die folgende Charakterisierung für darstellende Matrizen:

Korollar 5.1.21 (Basiswechsel und identische Basen). Sei K ein Körper und sei
f : V −→ V ein linearer Endomorphismus eines endlich-dimensionalen K-
Vektorraums V mit n := dimK V . Ist B eine Basis und ist A ∈ Mn×n (K),
so sind die folgenden Aussagen äquivalent:

1. Es gibt eine Matrix S ∈ GLn (K) mit

A = S −1 · MB,B (f ) · S.

2. Es gibt eine Basis C von V mit A = MC,C (f ).

Beweis. Dies folgt aus Proposition 5.1.20 und der Korrespondenz zwischen
Basen und invertierbaren Matrizen (Übungsaufgabe).

5.2 Das Gaußsche Eliminationsverfahren


Wir werden nun untersuchen, wie man mithilfe des Gaußschen Eliminations-
verfahrens lineare Gleichungssysteme algorithmisch lösen kann. Insbesondere
werden wir dadurch Kerne von linearen Abbildungen, Inverse von Matrizen
5.2. Das Gaußsche Eliminationsverfahren 133

1 ... k1 k2 kr n

1 0 0 1 irgendwelche Elemente aus K

2 0 1
.. ...
.
r 1

Abbildung 5.2.: Zeilenstufenform einer Matrix

berechnen können, und damit auch Basiswechselmatrizen, Durchschnitte von


Untervektorräumen etc..
Die grundlegende Idee hinter dem Gaußschen Eliminationsverfahren ist,
systematisch Zeilenoperationen durchzuführen, um eine Zeilenstufenform zu
erhalten, an der man die Lösungen direkt ablesen kann.

5.2.1 Zeilenstufenform
Lineare Gleichungssysteme in Zeilenstufenform können durch Rückwärtsauf-

lösen“ von unten nach oben rekursiv gelöst werden. Die folgende Proposition
enthält die allgemeine Beschreibung dieses Verfahrens. Es empfiehlt sich je-
doch, sich nicht diese allgemeine Formulierung zu merken, sondern den dem
Verfahren unterliegenden (einfachen!) Mechanismus anhand von konkreten
Beispielen zu verstehen.

Proposition 5.2.1 (Zeilenstufenform). Sei K ein Körper, seien m, n ∈ N und


sei A in Zeilenstufenform, d.h. die Matrix A ist von der Gestalt in Abbil-
dung 5.2.
Dabei ist r ∈ {0, . . . , min(m, n)}, die Indizes k1 , . . . , kr ∈ {1, . . . , n} erfüllen
k1 < · · · < kr und der graue Bereich enthält nur Nullen. Man bezeichnet
dann die Spalten A∗,k1 , . . . , A∗,kr auch als Pivotspalten1 von A. Dann gilt:

1. Es ist
 n 
X
V (A, 0) = x ∈ K n ∀j∈{1,...,r} xkj = − Aj,k · xk .
k=kj +1

1 Pivot: Dreh- und Angelpunkt


134 5. Matrizenkalkül

Man beachte, dass man hierbei xj mit j ∈ {1, . . . , n} \ {k1 , . . . , kr }


frei in K wählen“ kann und dass man daraus xkr , . . . , xk1 rekursiv

(eindeutig) berechnen kann.
2. Ist r = 0, so ist A = 0 und V (A, 0) = K n . Ist r 6= 0, so ist
(vs )s∈{1,...n}\{k1 ,...,kr } eine Basis von V (A, 0) ⊂ K n , wobei für al-
le j ∈ {1, . . . , r} und alle s ∈ {kj + 1, . . . , kj+1 − 1} (mit kr+1 := n + 1)
der Vektor vs induktiv durch vs,s := 1 und

∀`∈{1,...,n}\{k1 ,...,kj ,s} vs,` := 0


vs,kj := −Aj,s
vs,kj−1 := −Aj−1,s − Aj−1,kj · vs,kj
..
. j
X
vs,k1 := −A1,s − A1,k` · vs,k`
`=2

gegeben ist (falls in den Pivotspalten über den Einsen der Treppenstufen
nur Nullen stehen, ist die hintere Summe jeweils Null!). Insbesondere
gilt dimK V (A, 0) = n − r und rg A = n − dimK V (A, 0) = r.
3. Sei b ∈ K m .
ˆ Gibt es ein j ∈ {r + 1, . . . , m} mit bj 6= 0, so ist V (A, b) = ∅.
ˆ Gilt bj = 0 für alle j ∈ {r + 1, . . . , m}, so ist x ∈ K n mit

∀j∈{1,...,n}\{k1 ,...,kr } xj := 0
xkr := br
xkr−1 := br−1 − Ar−1,kr · xkr
..
. Xr
xk1 := b1 − A1,kj · xkj
j=2

ein Element von V (A, b). Insbesondere ist V (A, b) = x + V (A, 0).
Beweis. Zu 1. Dass V (A, 0) die angegebene Gestalt hat, sieht man, indem
man das lineare Gleichungssystem

Gesucht: alle x ∈ K n mit A · x = 0

in Zeilenstufenform explizit von unten nach oben“ auflöst.



Zu 2. Es ist leicht zu sehen, dass die angegebene Familie linear unabhängig
ist (man beachte jeweils die s-te“ Koordinate). Außerdem sieht man an der

Darstellung aus dem ersten Teil, dass sie V (A, 0) erzeugt. Die Behauptung
über den Rang folgt aus der Dimensionsformel für L(A) (Korollar 4.4.14).
Zu 3. Dies folgt analog zum ersten Teil und Proposition 4.4.19.
5.2. Das Gaußsche Eliminationsverfahren 135

Beispiel 5.2.2 (Lösung eines linearen Gleichungssystems in Zeilenstufenform).


Wir betrachten die Matrix
 
1 1 3 0
A := 0 0 1 2 ∈ M3×4 (R),
0 0 0 0

(diese ist in Zeilenstufenform mit k1 = 1, k2 = 3 und r = 2) sowie die


Vektoren    
0 1
b := 0 ∈ R3 und c := 1 ∈ R3 .
1 0
Dann liefert rekursives Auflösen (von der vierten Variablen rückwärts bis zur
ersten) der zugehörigen linearen Gleichungssysteme

Gesucht: alle x ∈ R4 mit


1 · x1 + 1 · x2 + 3 · x3 = ...
1 · x3 + 2 · x4 = ...
0 = ...

dass
      

 −x2 + 6 · x4 
 6 −1
      
x  x2 , x4 ∈ R , mit Basis   ,  1 ,
0
V (A, 0) = 

2
    

 −2 · x 4 
 −2 0
 
x4 1 0
V (A, b) = ∅ (man beachte die letzte Gleichung),
   
−2 −2
 0  0
V (A, c) =    
 1 + V (A, 0), denn  1 ∈ V (A, c).
0 0

5.2.2 Zeilenoperationen
Das Gaußsche Eliminationsverfahren überführt eine gegebene Matrix in Zei-
lenstufenform und beruht auf drei grundlegenden Zeilenoperationen:

ˆ Dem Vertauschen zweier Zeilen,

ˆ der Addition eines Vielfachen einer Zeile zu einer anderen Zeile,

ˆ Multiplikation einer Zeile mit einem (multiplikativ invertierbaren) Ele-


ment aus dem Grundkörper.

Wir werden diese Zeilenoperationen nun genauer beschreiben:


136 5. Matrizenkalkül

Matrix Z Lineare Abbildung Zeilenoperation Inverses Z −1


x 7→ Z · x A Z ·A

Vj,k Vertauschung der Koordina- Vertauschung der j-ten und Vj,k


ten j und k k-ten Zeile
Notation: (j) ↔ (k)
Sj,k (λ) Scherung in der Koordinate- Addition des λ-fachen der k- Sj,k (−λ)
nebene j und k ten Zeile zur j-ten Zeile
Notation: (j) + λ · (k)
Mj (λ) Streckung der j-ten Koordi- Multiplikation der j-ten Zeile Mj (1/λ)
natenachse mit λ
Notation: λ · (j)

Abbildung 5.3.: Elementare Zeilenoperationen

Definition 5.2.3 (Elementarmatrizen). Sei K ein Körper und m ∈ N. Die


Elementarmatrizen auf m Zeilen sind:
ˆ Zu j, k ∈ {1, . . . , m} mit j 6= k sei

Vj,k := Im − Ej,j − Ek,k + Ej,k + Ek,j ∈ Mm×m (K).

ˆ Zu j, k ∈ {1, . . . , m} mit j 6= k und λ ∈ K sei

Sj,k (λ) := Im + λ · Ej,k ∈ Mm×m (K).

ˆ Zu j ∈ {1, . . . , m} und λ ∈ K \ {0} sei

Mj (λ) := Im − Ej,j + λ · Ej,j ∈ Mm×m (K).

Proposition 5.2.4 (elementare Zeilenoperationen). Sei K ein Körper und sei


m ∈ N. Dann sind die elementaren Elementarmatrizen auf m Zeilen inver-
tierbar, also in GLm (K).
Beweis. Dies kann man leicht nachrechnen und an der Tabelle in Abbil-
dung 5.3 ablesen.

Korollar 5.2.5 (elementare Zeilenoperationen und Lösungsmengen). Sei K ein


Körper, seien m, n, k ∈ N und seien Z1 , . . . , Zk ∈ Mm×m (K) Elementarma-
trizen sowie
Z := Zk · · · · · Z1 .
Sind A ∈ Mm×n (K) und b ∈ K m , so gilt

V (A, b) = V (Z · A, Z · b).
5.2. Das Gaußsche Eliminationsverfahren 137

Beweis. Da Z1 , . . . , Zk invertierbar sind (Proposition 5.2.4), ist auch das Pro-


dukt Z = Zk · · · · · Z1 invertierbar (mit dem Inversen Z1−1 · · · · · Zk−1 ). Also
gilt für alle x ∈ K m , dass

A · x = b =⇒ Z · A · x = Z · b

und

Z · A · x = Z · b =⇒ A · x = Z −1 · Z · A · x = Z −1 · Z · b = b.

Also ist V (A, b) = V (Z · A, Z · b).

Elementare Zeilenoperationen ändern somit die Lösungsmenge des be-


trachteten linearen Gleichungssystems nicht.

5.2.3 Der Gaußsche Algorithmus


Mithilfe der elementaren Zeilenoperationen können wir den Gaußschen Algo-
rithmus formulieren und seine Korrektheit beweisen. Der Gaußsche Algorith-
mus transformiert das betrachtete lineare Gleichungssystem in ein System
in Zeilenstufenform, dessen Lösungen man direkt ablesen kann (Propositi-
on 5.2.1).

Algorithmus 5.2.6 (das Gaußsche Eliminationsverfahren). Sei K ein Körper,


seien m, n ∈ N>0 und seien A ∈ Mm×n (K), b ∈ K m . Sei (A | b), die (rechts)
um die Spalte b erweiterte Matrix. Wir berechnen nun daraus wie folgt eine
erweiterte Matrix (die Notation ist in Abbildung 5.4 veranschaulicht):

ˆ Wir wenden Elimination ab Spalte 1 und Zeile 1 auf (A | b) an, wobei:

ˆ Elimination ab Spalte K ∈ {1, . . . , n} und Zeile M für (A | b): Wir


suchen die erste Spalte k in {K, . . . , n} (von links gezählt), die in einer
der Zeilen {M, . . . , m} einen Koeffizienten ungleich 0 enthält.
– Falls keine solche Spalte existiert, beenden wir den Algorithmus
und verwenden die bisher berechnete erweiterte Matrix als Ergeb-
nis.
– Falls eine solche Spalte k existiert, bestimmen wir eine neue er-
weiterte Matrix, deren neue Zeilen M, . . . , m wie folgt berechnet
werden:
1. Wir suchen die erste Zeile J ∈ {M, . . . , m} mit AJ,k 6= 0
(das sogenannte Pivotelement, d.h. den Dreh- und Angel-
punkt) und multiplizieren die J-te Zeile der erweiterten Ma-
trix mit 1/AJ,k .
[Die J-te Zeile beginnt somit nach den führenden Nullen in
Spalte k mit 1.]
138 5. Matrizenkalkül

1 ... K k n

1 0 0 1 irgendwelche Elemente aus K


.. 0 1
.
M 0 0

J AJ,k

Abbildung 5.4.: Das Gaußsche Eliminationsverfahren: Notation; als nächstes


wird AJ,k in 1 transformiert, die roten Punkte zu Nul-
len transformiert und anschließend die Zeilen J und M
getauscht.

2. Für jedes j ∈ {J + 1, . . . , m} addieren wir das −Aj,k -fache


dieser neuen J-ten Zeile zur j-ten Zeile der erweiterten Ma-
trix.
[In der k-ten Spalte stehen dann in den Zeilen {M, . . . , m} \
{J} nur Nullen; man kann an dieser Stelle noch gründlicher
sein und entsprechend auch in den Zeilen 1, . . . , M −1 in Spal-
te k Nullen erzeugen.]
3. Wir tauschen die J-te Zeile und die M -te Zeile dieser neuen
erweiterten Matrix (falls J 6= M ).
[Auf diese Weise sind die Stufen dicht gepackt.]
Wir erhalten so eine (erweiterte) Matrix (A0 | b0 ) und wenden
(rekursiv) Elimination ab Spalte k+1 und Zeile M +1 auf (A0 | b0 ).

Beispiel 5.2.7. Wir betrachten


     
0 0 1 2 0 1
A := 2 2 6 0  ∈ M3×4 (R), und b := 0 , c :=  2 ∈ R3 .
1 1 1 −4 1 −1

Wir führen nun das Gaußsche Eliminationsverfahren für (A | b) und (A | c)


durch. Um Zeit und Platz zu sparen, wenden wir das Verfahren simultan auf
beide Situationen an, indem wir die erweiterte erweiterte Matrix (A | b | c)
betrachten (und den linken 3 × 4-Block auf Zeilenstufenform bringen):
5.2. Das Gaußsche Eliminationsverfahren 139

0 0 1 2 0 1
Pivot? 2 2 6 0 0 2
1 1 1 −4 1 −1

1 0 0 1 2 0 1
2 · (2)
1 1 3 0 0 1
1 1 1 −4 1 −1

0 0 1 2 0 1
(3) − (2)
1 1 3 0 0 1
0 0 −2 −4 1 −2

1 1 3 0 0 1
(1) ↔ (2)
0 0 1 2 0 1
0 0 −2 −4 1 −2

1 1 3 0 0 1
Pivot?
0 0 1 2 0 1
0 0 −2 −4 1 −2

1 1 3 0 0 1
(3) + 2 · (2)
0 0 1 2 0 1
0 0 0 0 1 0

Der linke 3 × 4-Block ist nun in Zeilenstufenform.

Satz 5.2.8 (Analyse des Gaußschen Eliminationsverfahrens). Sei K ein Körper,


seien m, n ∈ N und seien A ∈ Mm×n (K), b ∈ K m .

1. Wendet man das Gaußsche Eliminationsverfahren auf A und b an, so


terminiert der Algorithmus und für die resultierende erweiterte Ma-
trix (A0 | b0 ) ist A0 in Zeilenstufenform.

2. Es gilt
V (A, b) = V (A0 , b0 ).
Insbesondere kann dann V (A, b) explizit wie in Proposition 5.2.1 be-
schrieben werden.

Beweis. Zu 1. Aus der Beschreibung des Algorithmus ist ersichtlich, dass der
Algorithmus nach endlich vielen Schritten terminiert (die Ausgangsmatrix
hat nur endlich viele Zeilen und Spalten, und die Anzahl der Zeilen bzw.
Spalten ändert sich nicht). Außerdem folgt induktiv, dass der Algorithmus
eine (erweiterte) Matrix in Zeilenstufenform liefert.
140 5. Matrizenkalkül

Zu 2. Da sich elementare Zeilenoperationen durch Elementarmatrizen be-


schreiben lassen, folgt der zweite Teil aus der Invertierbarkeit von Element-
armatrizen (Korollar 5.2.5).
Beispiel 5.2.9. Insbesondere können wir in Beispiel 5.2.7 Beschreibungen
von V (A, 0), V (A, b), V (A, c) aus der berechneten Zeilenstufenform able-
sen (wofür wir die zugehörigen Lösungsmengen in Beispiel 5.2.2 bestimmt
haben).
Ausblick 5.2.10 (Komplexität). Zu einer vollständigen Analyse eines Algo-
rithmus gehört im Normalfall auch eine Abschätzung der Komplexität bzw.
Laufzeit. Dies würde hier aber zu weit führen.
Anmerkung für Lehramtsstudenten. Das Lösen von linearen Gleichungssy-
stemen in der Schule wird normalerweise nach einem ähnlichen Prinzip (aber
evtl. etwas weniger systematisch) unterrichtet. Sie sollten auf jeden Fall die
unterrichteten Schemata mit dem Gaußschen Eliminationsverfahren verglei-
chen. Hilft Ihnen die hier entwickelte Theorie dabei, diese Verfahren besser
zu verstehen?

5.2.4 Gauß-Rezepte
Wir geben nun eine Auswahl von Standardsituationen an, die mit dem Gauß-
schen Eliminationsverfahren behandelt werden können:
Anmerkung zum Lernen. Typischerweise sind Berechnungen von Hand mit
dem Gaußschen Eliminationsverfahren recht fehleranfällig (s. Vorlesung . . . ).
Sie sollten Ihre Ergebnisse daher mit einem Computeralgebrasystem über-
prüfen oder zumindest stichprobenartig von Hand nachrechnen, dass das Er-
gebnis plausibel ist.
Rezept 5.2.11 (Lösung linearer Gleichungssysteme).
ˆ Gegeben sei ein Körper K, n, m ∈ N und A ∈ Mm×n (K), b ∈ K m .
ˆ Gesucht sei V (A, b), d.h. ein Element von V (A, b) und eine Basis
von V (A, 0).
ˆ Rezept: Man wendet das Gaußsche Eliminationsverfahren auf die er-
weiterte Matrix (A | b) an und liest dann die Lösung an der entstande-
nen Zeilenstufenform ab; dabei bestimmt man (jeweils durch rekursives
Rückwärtsauflösen)
– eine Basis von V (A, 0), sowie
– eine spezielle Lösung in V (A, b).
Am bequemsten lassen sich die Lösungen ablesen, wenn man die
gründliche Variante des Eliminationsverfahrens anwendet (also auch
über den Pivotelementen für Nullen sorgt).
5.2. Das Gaußsche Eliminationsverfahren 141

ˆ Begründung: Dies ist der Inhalt von Satz 5.2.8 und Proposition 5.2.1.
Rezept 5.2.12 (Bestimmung des Kerns einer linearen Abbildung).
ˆ Gegeben sei ein Körper K und eine lineare Abbildung f : V −→ W
zwischen endlich-dimensionalen K-Vektorräumen.
ˆ Gesucht sei eine Basis von ker f ⊂ V .
ˆ Rezept: Man wähle Basen B und C von V bzw. W und bestimme die
darstellende Matrix MB,C (f ) (im einfachsten Fall ist f bereits eine li-
neare Abbildung K n −→ K m von der Form L(A) mit A ∈ Mm×n (K)).
Dann bestimme man eine Basis D von V (MB,C (f ), 0) wie in Re-
zept 5.2.11. Man bildet nun D mit TEdimK V ,B nach V ab und erhält so
eine Basis von ker f .
ˆ Begründung: Es gilt (s. Seite 127)

ker f = TEdimK V ,B V (MB,C (0), 0)

und der Isomorphismus TEdimK V ,B bildet Basen auf Basen ab.


Rezept 5.2.13 (Bestimmung des Rangs einer linearen Abbildung).
ˆ Gegeben sei ein Körper K und eine lineare Abbildung f : V −→ W
zwischen endlich-dimensionalen K-Vektorräumen.
ˆ Gesucht sei der Rang von f .
ˆ Rezept: Man wähle Basen B und C von V bzw. W und bestimme die
darstellende Matrix MB,C (f ) (im einfachsten Fall ist f bereits eine li-
neare Abbildung K n −→ K m von der Form L(A) mit A ∈ Mm×n (K)).
Man überführt nun MB,C (f ) mit dem Gaußschen Eliminationsverfah-
ren in Zeilenstufenform, woran sich der Rang von MB,C (f ), und somit
auch von f , direkt ablesen lässt.
ˆ Begründung: Es gilt rg f = rg MB,C (f ) (s. Seite 127). Der Rang bleibt
unter elementaren Zeilenumformungen erhalten (da die Elementarma-
trizen invertierbar sind) und der Rang einer Matrix in Zeilenstufenform
lässt sich direkt ablesen (Proposition 5.2.1).
Rezept 5.2.14 (Test auf Invertierbarkeit).
ˆ Gegeben sei ein Körper K, n ∈ N und A ∈ Mn×n (K).
ˆ Gesucht sei die Antwort auf die Frage, ob A invertierbar ist.
ˆ Rezept: Man bestimmt den Rang von L(A) wie in Rezept 5.2.13. Dann
ist A genau dann invertierbar, wenn rg A = n ist.
ˆ Begründung: Dies folgt aus Korollar 5.1.6.
142 5. Matrizenkalkül

Rezept 5.2.15 (Berechnung von Inversen).


ˆ Gegeben sei ein Körper K, n ∈ N und A ∈ GLn (K).
ˆ Gesucht sei die inverse Matrix A−1 .
ˆ Rezept: Man löse für jedes j ∈ {1, . . . , n} das lineare Gleichungssystem
Gesucht: alle x ∈ K n mit A · x = ej
mithilfe des Gaußschen Eliminationsverfahrens. Da A invertierbar ist,
ist jedes dieser Gleichungssysteme eindeutig lösbar, und man erhält das
Inverse A−1 , indem man die Lösungen in die Spalten einer n×n-Matrix
schreibt.
Dies lässt sich geschickt organisieren, indem man diese n Gleichungs-
systeme simultan in der Form (A | In ) löst und die gründliche Version
des Eliminationsverfahrens anwendet (dann erscheint nämlich auf der
rechten Seite die inverse Matrix).
Auch den Test auf Invertierbarkeit kann man in diese Berechnung direkt
integrieren (da man den Rang wie in Rezept 5.2.14 an der Zeilenstu-
fenform ablesen kann).
ˆ Begründung: Ist A invertierbar, so genügt es, eine Matrix B ∈ Mn×n (K)
mit A · B = In zu finden (denn dann ist auch B · A = A−1 · A · B · A =
A−1 · In · A = In ). Betrachtet man die Spalten dieser Gleichung so
sieht man, dass die Bestimmung einer solchen Matrix B äquivalent
zum Lösen der n linearen Gleichungssysteme
Gesucht: alle x ∈ K n mit A · x = ej
mit j ∈ {1, . . . , n} ist.
Ist Z ∈ GLn (K) ein Produkt von Elementarmatrizen, das A in die
(gründliche) Zeilenstufenform In überführt, so gilt Z · A = In . Führt
man dieselben Zeilenumformungen rechts“ in (A | In ) auf In aus, so

erhält man
Z · In = Z.
Aus der Gleichung Z · A = In folgt jedoch (wie oben), dass A = Z −1
bzw. Z = A−1 ist. Somit liefert das gründliche Eliminationsverfahren
auf (A | In ) am Ende auf der rechten Seite A−1 .
Beispiel 5.2.16 (Berechnung der inversen Matrix). Wir betrachten die Matrix
 
0 1 6
A := 0 1 7 ∈ M3×3 (R).
1 6 0

Wir überprüfen nun, ob A invertierbar ist und bestimmen gegebenenfalls die


inverse Matrix: Dazu führen wir die gründliche Variante des Eliminationsver-
fahrens auf (A | In ) durch:
5.2. Das Gaußsche Eliminationsverfahren 143

0 1 6 1 0 0
Pivot? 0 1 7 0 1 0
1 6 0 0 0 1

1 6 0 0 0 1
(3) ↔ (1)
0 1 7 0 1 0
0 1 6 1 0 0

1 6 0 0 0 1
Pivot?
0 1 7 0 1 0
0 1 6 1 0 0

1 6 0 0 0 1
(3) − (2)
0 1 7 0 1 0
0 0 −1 1 −1 0

1 0 −42 0 −6 1
(1) − 6 · (2)
0 1 7 0 1 0
0 0 −1 1 −1 0

1 0 −42 0 −6 1
Pivot? 0 1 7 0 1 0
0 0 -1 1 −1 0

1 0 −42 0 −6 1
−1 · (3)
0 1 7 40 1 0
0 0 1 −1 1 0

1 0 0 −42 36 1
(1) + 42 · (3)
0 1 7 0 1 0
0 0 1 −1 1 0

1 0 0 −42 36 1
(2) − 7 · (3)
0 1 0 7 −6 0
0 0 1 −1 1 0
144 5. Matrizenkalkül

Also ist rg A = 3; insbesondere ist A invertierbar. Mit Rezept 5.2.15 erhalten


wir  
−42 36 1
A−1 =  7 −6 0 .
−1 1 0
Man sollte nach einer solchen Rechnung unbedingt auch die Probe machen
(wenigstens für ausgewählte Zeilen und Spalten)!
Der Vollständigkeit halber geben wir noch Verfahren an, mit denen man
Basen von gewissen Vektorräumen bestimmen kann. Der Einfachheit hal-
ber nehmen wir jeweils an, dass die Ausgangsdaten in einem der Stan-
dardvektorräume gegeben sind (im allgemeinen Fall verwendet man einfach
Isomorphismen der Form TX,Y , um die allgemeine Situation in Standard-
vektorräume zu übersetzen). Außerdem achten wir nicht unbedingt darauf,
möglichst effiziente Verfahren anzugeben – es gibt also durchaus noch einige
Optimierungsmöglichkeiten.
Rezept 5.2.17 (Auswahl einer Basis).
ˆ Gegeben sei ein Körper K, m, n ∈ N und Vektoren v1 , . . . , vn ∈ K m .
ˆ Gesucht sei eine linear unabhängige Teilfamilie von (v1 , . . . , vn ), die
SpanK {v1 , . . . , vn } erzeugt.
ˆ Rezept: Sei A ∈ Mm×n (K) die Matrix mit den Spalten v1 , . . . , vn (in
dieser Reihenfolge). Man wendet dann das Gaußsche Eliminationsver-
fahren auf A an. Seien k1 , . . . , kr die Indizes der Pivotspalten der entste-
henden Matrix in Zeilenstufenform. Dann ist (vk1 , . . . , vkr ) eine linear
unabhängige Teilfamilie, die SpanK {v1 , . . . , vn } erzeugt.
ˆ Begründung: Wendet man das Gaußsche Eliminationsverfahren auf die
kleinere Matrix an, die nur aus den Spalten vk1 , . . . , vkr besteht, so sieht
man, dass diese denselben Rang wie A hat (nämlich r); man beachte
dabei, dass das Eliminationsverfahren die Anordnung der Spalten nicht
ändert. Insbesondere ist die Familie (vk1 , . . . , vkr ) linear unabhängig.
Wegen SpanK {vk1 , . . . , vkr } ⊂ SpanK {v1 , . . . , vn } folgt daraus die Be-
hauptung.
Rezept 5.2.18 (Durchschnitt von Untervektorräumen).
ˆ Gegeben sei ein Körper K, m, n, r ∈ N und endliche Mengen {v1 , . . . , vr },
{vr+1 , . . . , vn } ⊂ K m .
ˆ Gesucht sei eine Basis von

U := SpanK {v1 , . . . , vr } ∩ SpanK {vr+1 , . . . , vn }.

ˆ Rezept: Sei A := (v1 | · · · | vr | vr+1 | · · · | vn ) ∈ Mm×n (K).


Man bestimmt eine Basis B = (u1 , . . . , us ) von V (A, 0) ⊂ K n mit
5.2. Das Gaußsche Eliminationsverfahren 145

dem Gaußschen Eliminationsverfahren. Man bildet dann die Men-


ge B 0 = {π(uj ) | j ∈ {1, . . . , s}} ⊂ K n−r , wobei π : K n −→ K n−r die
Projektion auf die letzten n−r Koordinaten ist. Bildet man nun Linear-
kombinationen der vr+1 , . . . , vn mithilfe der Koeffizienten der Vektoren
aus B 0 , so erhält man ein (endliches) Erzeugendensystem von U . Nun
wählt man mithilfe von Rezept 5.2.17 aus diesem Erzeugendensystem
eine Basis von U aus.
ˆ Begründung: Die Matrix A gehört zu dem linearen Gleichungssystem
Gesucht: alle x ∈ K n mit
r
X n
X
x j · vj = −xj · vj .
j=1 j=r+1

Die linke Seite parametrisiert dabei SpanK {v1 , . . . , vr } und die rechte
Seite parametrisiert SpanK {vr+1 , . . . , vn }. Die Lösungen dieses Glei-
chungssystems liefern also genau die Punkte in K m , die in beiden Un-
terräumen gleichzeitig (d.h. in U ) liegen. Man benötigt aber nur jeweils
eine der beiden Linearkombinationen um die Punkte von U zu beschrei-
ben; es genügen also z.B. die Koordinaten r + 1, . . . , n von x“.

Die Berechnung des Durchschnitts von Untervektorräumen ist zum Beispiel
in der Computergraphik und im 3D-Druck essentiell.
Rezept 5.2.19 (komplementäre Untervektorräume).
ˆ Gegeben sei ein Körper K, m, n ∈ N und Vektoren v1 , . . . , vn ∈ K m .
ˆ Gesucht sei eine Basis eines zu SpanK {v1 , . . . , vn } komplementären Un-
tervektorraums von K m .
ˆ Rezept: Man betrachtet die Matrix A ∈ Mm×(n+m) (K) mit den Spal-
ten v1 , . . . , vn , e1 , . . . , em (in dieser Reihenfolge) und wendet das Gauß-
sche Eliminationsverfahren auf A an. Die Standardeinheitsvektoren zu
den Pivotspalten in den rechten m Spalten liefern dann eine Basis eines
zu SpanK {v1 , . . . , vn } komplementären Untervektorraums von K m .
ˆ Begründung: Die Begründung ist analog zur Begründung von Re-
zept 5.2.17; auch hier ist es essentiell, dass die Ordnung der Spalten
während des Eliminationsverfahrens erhalten bleibt und dass der Eli-
minationsvorgang auf der linken Seite beginnt (dass also die Standard-
einheitsvektoren erst dann wirklich in Aktion treten, wenn die Zeilen-
stufenform der ersten n Spalten bereits erreicht ist).
Rezept 5.2.20 (Quotientenvektorräume).
ˆ Gegeben sei ein Körper K, m, n ∈ N und Vektoren v1 , . . . , vn ∈ K m .
Sei U := SpanK {v1 , . . . , vn } ⊂ K m .
146 5. Matrizenkalkül

ˆ Gesucht sei eine Basis des Quotientenvektorraums K m /U .


ˆ Rezept: Man bestimme eine Basis (u1 , . . . , ur ) eines zu U komple-
mentären Vektorraums in K m wie in Rezept 5.2.19. Dann ist die Fami-
lie (u1 + U, . . . , ur + U ) eine Basis von K m /U .
ˆ Begründung: Dies folgt aus Bemerkung 4.4.12.
Die Berechnung von Quotientenräumen ist zum Beispiel für die Berechnung
von Homologiegruppen (Ausblick 4.4.17) relevant.

5.3 Die Determinante


Wir werden nun eine weitere wichtige Invariante von Matrizen bzw. Endomor-
phismen kennenlernen, die sogenannte Determinante. Mithilfe des Gaußschen
Eliminationsverfahrens können wir bekanntlich Matrizen auf Invertierbarkeit
testen (Rezept 5.2.14); es ist daher naheliegend, dass es möglich sein soll-
te, aus den Koeffizienten einer quadratischen Matrix durch eine geeignete
Formel direkt auszurechnen, ob die Matrix invertierbar ist oder nicht. Eine
solche Formel erhält man aus der Determinante. Geometrisch kann man die
Determinante als Volumen interpretieren (dies werden wir im Kontext von
euklidischen Vektorräumen näher untersuchen).

5.3.1 Die Determinantenfunktion

Wir führen zunächst die Determinantenfunktion (axiomatisch) für Matrizen


ein.
Definition 5.3.1 (n-linear, alternierend). Sei K ein Körper und sei n ∈ N>0 .
ˆ Eine Abbildung f : Mn×n (K) −→ K heißt n-linear, wenn sie in jeder
Zeile linear ist, d.h.: Für jedes j ∈ {1, . . . , n} und alle Zeilenvekto-
ren v1 , . . . , vj−1 , vj+1 , . . . , vn ∈ M1×n (K) ist die Abbildung

M1×n (K) −→ K
 
v
 1 
 
 .. 
 . 
 
v 7−→ f  v 
 
 . 
 . 
 . 
vn

linear.
5.3. Die Determinante 147

ˆ Eine Abbildung f : Mn×n (K) −→ K heißt alternierend, wenn folgendes


gilt: Hat A ∈ Mn×n (K) zwei gleiche Zeilen, so gilt f (A) = 0.
ˆ Eine Abbildung f : Mn×n (K) −→ K ist antisymmetrisch, wenn folgen-
des gilt: Ist A ∈ Mn×n (K) und entsteht A0 ∈ Mn×n (K) aus A durch
Vertauschen zweier Zeilen von A, so gilt

f (A0 ) = −f (A).

Bemerkung 5.3.2 (alternierend vs. antisymmetrisch). Sei K ein Körper und


n ∈ N>0 . Jede alternierende n-lineare Abbildung f : Mn×n (K) −→ K ist an-
tisymmetrisch, denn: Seien v1 , . . . , vn ∈ M1×n (K) und seien j, k ∈ {1, . . . , n}
mit j < k. Um die Notation übersichtlich zu halten, schreiben wir f als
Funktion mit n-Argumenten (nämlich den n Zeilen). Dann ist

f (v1 , . . . , vn ) + f (v1 , . . . , vk , . . . , vj , . . . , vn )
= f (v1 , . . . , vn ) + f (v1 , . . . , vk , . . . , vk , . . . , vn )
+ f (v1 , . . . , vj , . . . , vj , . . . , vn ) + f (v1 , . . . , vk , . . . , vj , . . . , vn )
= f (v1 , . . . , vj + vk , . . . , vk , . . . , vn ) + f (v1 , . . . , vj + vk , . . . , vj , . . . , vn )
= f (v1 , . . . , vj + vk , . . . , vj + vk , . . . , vn )
=0

(im ersten und letzten Schritt haben wir verwendet, dass f alternierend ist, in
den anderen Schritten die n-Linearität). Die Umkehrung gilt im allgemeinen
nur, wenn die Charakteristik von K nicht 2 ist.
Satz 5.3.3 (Determinante). Sei K ein Körper und n ∈ N>0 . Ist c ∈ K, so gibt
es genau eine n-lineare und alternierende Abbildung ∆c : Mn×n (K) −→ K
mit ∆c (In ) = c.
Man bezeichnet det := ∆1 : Mn×n (K) −→ K als Determinante.
Anmerkung zum Lernen. Der Beweis dieses Satzes ist zwar recht lang in der
Durchführung; die unterliegenden Ideen sind jedoch einfach und übersichtlich:
ˆ Für die Eindeutigkeit überlegt man sich wie sich solche Abbildungen
unter Zeilenumformungen ändern und was man aus den geforderten Ei-
genschaften schon über die Werte auf (gründlichen) Zeilenstufenformen
weiß. Der Gaußsche Algorithmus fügt dann alles zusammen.
ˆ Für die Existenz zeigt man, dass man solche Funktionen rekursiv durch
Entwicklung nach der ersten Spalte“ konstruieren kann.

Beweis. Eindeutigkeit. Seien f, g : Mn×n (K) −→ alternierend, n-linear und
es gelte f (In ) = c = g(In ). Dann ist f = g, denn:
Wir überlegen uns zunächst, wie sich f und g unter Zeilenoperationen
verhalten: Sei dazu A ∈ Mn×n (K), j, k ∈ {1, . . . , n} mit j 6= k und sei
λ ∈ K.
148 5. Matrizenkalkül

ˆ Vertauschungen: Nach Voraussetzung sind f und g alternierend und


somit antisymmetrisch. Also gilt

f (Vj,k · A) = −f (A) und g(Vj,k · A) = −g(A).

ˆ Addition des Vielfachen einer Zeile zu einer anderen Zeile: Sei A0 die
Matrix, die man aus A erhält, indem man die j-te Zeile durch die k-te
Zeile von A ersetzt. Dann gilt (da f eine n-lineare Abbildung ist)

f (Sj,k (λ) · A) = f (A) + λ · f (A0 ).

Die Matrix A0 enthält zwei gleiche Zeilen; da f alternierend ist, ist


also f (A0 ) = 0, und damit

f (Sj,k (λ) · A) = f (A) und analog g(Sj,k (λ) · A) = g(A).

ˆ Multiplikation einer Zeile mit einem invertierbaren Element: Ist λ 6= 0,


so gilt wegen der n-Linearität

f (Mj (λ) · A) = λ · f (A) und g(Mk (λ) · A) = λ · g(A).

Induktiv folgt daher: Entsteht A0 durch elementare Zeilenumformungen aus A


und gilt f (A0 ) = g(A0 ), so ist auch f (A) = g(A).
Nach dem Gaußschen Algorithmus genügt es daher, zu zeigen, dass f und g
auf Matrizen A0 in Mn×n (K) in gründlicher Zeilenstufenform übereinstimmen.

ˆ Ist rg A0 < n, so besteht die n-te Zeile von A0 nur aus Nullen. Also ist
wegen der n-Linearität f (A0 ) = 0 = g(A0 ).

ˆ Ist rg A0 = n, so ist (wegen der gründlichen Zeilenstufenform) be-


reits A0 = In und damit f (A0 ) = c = g(A0 ).

Also ist f = g. Dies zeigt die Eindeutigkeit.


Existenz. Wir betrachten zunächst nur den Fall c = 1. Den allgemeinen
Fall erhält man dann, indem man die erhaltene Funktion punktweise mit c
multipliziert.
Wir konstruieren induktiv für jede Dimension n ∈ N>0 eine Determinan-
te fn : Mn×n (K) −→ K. Als Induktionsanfang definieren wir

f1 : M1×1 (K) −→ K
(a) 7−→ a,

was offensichtlich eine Determinante auf M1×1 (K) ist. Für den Induktions-
schritt sei n ∈ N>1 und eine/die Determinante fn−1 sei bereits konstruiert.
Dann definieren wir (sogenannte Entwicklung nach der ersten Spalte)
5.3. Die Determinante 149

A1,1 Aj,1

A[1, 1] A[j, 1]

Abbildung 5.5.: Die Matrizen A[j, 1]

fn : Mn×n (K) −→ K
n
X
A 7−→ (−1)j+1 · Aj1 · fn−1 (A[j, 1]).
j=1

Dabei bezeichnen wir mit A[j, 1] ∈ M(n−1)×(n−1) (K) die Matrix, die aus A
entsteht, wenn man die j-te Zeile und die erste Spalte streicht (Abbil-
dung 5.5).
Wir zeigen, dass dann fn eine Determinante ist:

ˆ Es gilt fn (In ) = 1, denn


n
X
fn (In ) = (−1)j+1 · δj,1 · fn (In [j, 1]) = 1 · fn (In−1 ) + 0 = 1;
j=1

im letzten Schritt haben wir dabei die Induktionsvoraussetzung in der


Form fn−1 (In−1 ) = 1 verwendet.

ˆ Die Abbildung fn : Mn×n (K) −→ K ist n-linear, denn: Wir zeigen


dies nur für die erste Zeile (die anderen Zeilen gehen analog, aber die
Notation wird etwas unübersichtlicher). Für alle A ∈ Mn×n (K) ist
n
X
fn (A) = A1,1 · fn−1 (A[1, 1]) + (−1)j+1 · fn−1 (A[j, 1]).
j=2

Wir untersuchen nun die beiden Teile getrennt:

– Erster Summand: Der Faktor A1,1 ist linear in der ersten Zeile
von A und die Matrix A[1, 1] ändert sich nicht, wenn sich die erste
Zeile von A ändert. Also ist die Abbildung
150 5. Matrizenkalkül

Mn×n (K) −→ K
A 7−→ A1,1 · fn−1 (A[1, 1])

linear in der ersten Zeile.


– Hintere Summe: Sei j ∈ {2, . . . , n}. Dann ändert sich Aj,1 nicht,
wenn sich die erste Zeile von A ändert. Der Faktor fn−1 (A[j, 1]) ist
nach Induktionsvoraussetzung in der ersten Zeile von A[j, 1] (und
somit auch von A) linear. Also ist die Abbildung

Mn×n (K) −→ K
A 7−→ Aj,1 · fn−1 (A[j, 1])

linear in der ersten Zeile.


Insgesamt folgt somit, dass fn−1 linear in der ersten Zeile ist.

ˆ Die Abbildung fn : Mn×n (K) −→ K ist alternierend, denn: Sei A ∈


Mn×n (K) und es gebe J ∈ {2, . . . , n} mit A1∗ = AJ∗ . Wir zeigen, dass
dann fn (A) = 0 ist (die anderen Zeilen gehen analog, aber die Notation
wird etwas unübersichtlicher). Dazu zerlegen wir fn (A) wieder in zwei
Teile; nach Konstruktion ist

fn (A) = A1,1 · fn−1 (A[j, 1]) + (−1)J+1 · AJ,1 · fn−1 (A[J, 1])
X
+ j ∈ {1, . . . , n} \ {1, J}(−1)j+1 · Aj,1 · fn−1 (A[j, 1]).

Wir betrachten diese beiden Teile getrennt:


– Hintere Summe: Ist j ∈ {1, . . . , n} \ {1, J}, so hat A[1, J] zwei
gleiche Zeilen. Nach Induktionsvoraussetzung ist fn−1 (A[j, 1]) =
0.
– Erste beide Summanden: Da die erste und die J-te Zeile von A
übereinstimmen, ist Aj,1 = AJ,1 . Außerdem kann man genau be-
schreiben, wie sich die beiden Matrizen A[1, 1] und A[J, 1] unter-
scheiden; die Matrix A[J, 1] entsteht nämlich aus A[1, 1], indem
man die J-te Zeile Zeile für Zeile bis ganz nach oben tauscht (was
genau J −2 Vertauschungen erfordert). Nach Induktionsvorausset-
zung ist fn−1 als alternierende Abbildung auch antisymmetrisch,
und somit

fn−1 (A[J, 1]) = (−1)J−2 · fn−1 (A[1, 1]).

Daher erhalten wir

A1,1 · fn−1 (A[j, 1]) + (−1)J+1 · AJ,1 · fn−1 (A[J, 1]) = 0.

Insgesamt ergibt sich damit fn (A) = 0 + 0 = 0, wie gewünscht.


5.3. Die Determinante 151

A11 A21 A31 A11 A21

A12 A22 A32 A12 A22

A13 A23 A33 A13 A23


− − − + + +

Abbildung 5.6.: Die Regel von Sarrus

Also ist fn eine Determinante auf Mn×n (K).

Bemerkung 5.3.4 (die Determinante in niedrigen Dimensionen). Sei K ein


Körper. Aus dem (konstruktiven) Existenzbeweis des vorigen Satzes erhalten
wir insbesondere die folgenden Formeln (nachrechnen):

det : M1×1 (K) −→ K


(a) 7−→ a

det : M2×2 (K) −→ K


 
a b
7−→ a · d − c · b
c d

det : M3×3 (K) −→ K


A 7−→ A11 · A22 · A33
+ A12 · A23 · A31
+ A13 · A21 · A32
− A31 · A22 · A13
− A32 · A23 · A11
− A33 · A21 · A12 .

Die Formel in Dimension 3 heißt auch Regel von Sarrus und lässt sich mit
dem Schema in Abbildung 5.6 leicht merken.

5.3.2 Die Determinante und Invertierbarkeit


Wir weisen nun nach, dass die Determinante tatsächlich Invertierbarkeit cha-
rakterisiert. Dies ist bereits implizit im Beweis von Satz 5.3.3 enthalten, wir
werden hier aber noch weitere Aspekte untersuchen. Als Vorbereitung zeigen
wir, dass die Determinante im folgenden Sinne multiplikativ ist:
152 5. Matrizenkalkül

Proposition 5.3.5 (Determinante und Produkt von Matrizen). Sei K ein


Körper und sei n ∈ N>0 . Dann gilt für alle A, B ∈ Mn×n (K), dass

det(A · B) = det A · det B.

Beweis. Sei B ∈ Mn×n (K). Es genügt (nach Satz 5.3.3) zu zeigen, dass die
Abbildung

f : Mn×n (K) −→ K
A 7−→ det(A · B)

alternierend und n-linear ist und f (In ) = det B gilt. Die letzte Bedingung ist
nach Konstruktion erfüllt.
Die Abbildung f ist alternierend, denn: Hat A zwei gleiche Zeilen, so hat
auch A · B zwei gleiche Zeilen. Da die Determinante alternierend ist, ist somit
auch f alternierend.
Die Abbildung f ist n-linear, denn: Linearkombinationen in den Zeilen
von A übersetzen sich in Linearkombinationen in den Zeilen von A · B. Daher
folgt die n-Linearität von f aus der n-Linearität der Determinante.
Da auch A 7→ det A · det B diese Eigenschaften besitzt, folgt mit der Ein-
deutigkeitsaussage aus Satz 5.3.3, dass det(A · B) = f (A) = det A · det B für
alle A ∈ Mn×n (K) gilt.

Satz 5.3.6 (die Cramersche Regel). Sei K ein Körper, sei n ∈ N>0 und sei
A ∈ Mn×n (K). Zu j, k ∈ {1, . . . , n} schreiben wir A[j, k] ∈ M(n−1)×(n−1) (K)
für die (n−1)×(n−1)-Matrix, die wir aus A erhalten, indem wir die j-te Zeile
und die k-te Spalte streichen. Sei B := ((−1)j+k ·det A[j, k])j,k T ∈ Mn×n (K).

1. Dann gilt
B · A = (det A) · In .

2. Insbesondere: Ist det A in K invertierbar, so ist auch A invertierbar


und es gilt
1
A−1 = · B.
det A
Bemerkung 5.3.7 (Entwicklung nach anderen Spalten). Analog zum Existenz-
beweis in Satz 5.3.3 kann man zeigen, dass man auch durch Entwicklung
nach anderen Spalten eine (und damit die!) Determinante konstruieren kann.
Insbesondere gilt somit: Ist K ein Körper, n ∈ N, k ∈ {1, . . . , n} und
A ∈ Mn×n (K), so gilt
n
X
det A = (−1)j+k Aj,k · det(A[j, k]).
j=1

Beweis (von Satz 5.3.6). Zu 1. Wir rechnen die behauptete Gleichung koef-
fizientenweise nach. Um die Notation übersichtlich zu halten, bestimmen wir
5.3. Die Determinante 153

nur Bj∗ · A∗1 für alle j ∈ {1, . . . , n}. Die Produkte mit den anderen Spal-
ten von A ergeben sich analog (unter Verwendung von Bemerkung 5.3.7).
Nach Konstruktion von B, der Definition der Matrixmultiplikation und der
Konstruktion der Determinante ist
n
X
B1∗ · A∗1 = (−1)k+1 · det(A[k, 1]) · Ak,1 = det A.
k=1

Ist j ∈ {2, . . . , n}, so betrachten wir die Matrix A0 , die aus A entsteht, wenn
man die j-te Spalte durch die erste Spalte von A ersetzt. Mit Bemerkung 5.3.7
erhalten wir dann
n
X
Bj∗ · A∗1 = (−1)k+j · det(A[k, j]) · Ak,1
k=1
Xn
= (−1)k+j · det(A0 [k, j]) · A0k,j
k=1
= (−1)j−1 · det A0 .

Nach Konstruktion besitzt A0 zwei identische Spalten. Daher ist rg A0 < n


und somit det A0 = 0 (Eindeutigkeitsbeweis in Satz 5.3.3). Also ist Bj∗ ·A∗1 =
0. Insgesamt folgt auf diese Weise

B · A = (det A) · In .

Zu 2. Der zweite Teil folgt aus dem ersten Teil, denn: Hat A ein linksseitiges
Inverses, so ist L(A) : K n −→ K n injektiv und damit nach Korollar 4.4.15
invertierbar. Also ist auch A invertierbar und in Rezept 5.2.15 wird erklärt,
warum jedes einseitige Inverse bereits ein beidseitiges Inverses ist.

Caveat 5.3.8 (Rundungsfehler). Es ist im allgemeinen nicht sinnvoll, das In-


verse einer Matrix mithilfe der Cramerschen Regel zu berechnen (da sich
zum Beispiel zu viele Rundungsfehler ergeben). Es gibt bessere numerische
Verfahren, um Inverse mithilfe eines Computers zu bestimmen.

Aus den bisherigen Resultaten können wir nun direkt ableiten, dass Inver-
tierbarkeit durch die Determinante charakterisiert wird:

Korollar 5.3.9 (Determinante und Invertierbarkeit). Sei K ein Körper, sei n ∈


N>0 und sei A ∈ Mn×n (K). Dann sind folgende Aussagen äquivalent:

1. Die Matrix A ist invertierbar.

2. Es gilt det A 6= 0.

Im invertierbaren Fall gilt dabei det(A−1 ) = 1/ det A.


154 5. Matrizenkalkül

Beweis. Dies ist bereits implizit im Beweis von Satz 5.3.3 enthalten. Wir
geben nun noch ein alternatives Argument mithilfe der Multiplikativität un
der Cramerschen Regel:
Sei A invertierbar. Dann ist det A 6= 0, denn: Sei B ∈ Mn×n (K) das Inverse
von A. Mit der Multiplikativität der Determinante (Proposition 5.3.5) folgt
dann
1 = det In = det A · B = det A · det B;
insbesondere ist det A 6= 0 bzw. det A−1 = det B = 1/ det A.
Sei det A 6= 0. Dann liefert die Cramersche Regel (Satz 5.3.6), dass A
invertierbar ist.
Korollar 5.3.10 (Invertieren von 2 × 2-Matrizen). Sei K ein Körper und
 
a b
A= ∈ M2×2 (K).
c d

Die Matrix A ist genau dann invertierbar, wenn a · d − c · b 6= 0 ist. Im


invertierbaren Fall gilt
 
−1 1 d −b
A = · .
a·d−c·b −c a

Beweis. Die Charakterisierung der Invertierbarkeit folgt aus dem allgemeinen


Determinantenkriterium (Korollar 5.3.9) und der Formel für die Determinan-
te von 2 × 2-Matrizen (Bemerkung 5.3.4). Die Darstellung des Inversen ergibt
sich dann direkt aus der Cramerschen Regel.

Bemerkung 5.3.11 (spezielle lineare Gruppe). Sei K ein Körper und n ∈ N>0 .
Dann ist 
A ∈ GLn (K) det A = 1
eine Gruppe bezüglich Matrixmultiplikation mit neutralem Element In (nach-
rechnen), die sogenannte spezielle lineare Gruppe SLn (K) über K. Zum Bei-
spiel spielt die Gruppe SL2 (R) eine wichtige Rolle in der hyperbolischen Geo-
metrie, der geometrischen Gruppentheorie und der Zahlentheorie.

Bemerkung 5.3.12 (Orientierungen). Mithilfe der Multiplikativität der Deter-


minante lässt sich auf endlich-dimensionalen reellen Vektorräumen ein Orien-
tierungsbegriff einführen, der mit dem anschaulichen Begriff von links- bzw.
rechtshändigen Koordinatensystemen übereinstimmt (Übungsaufgabe).

5.3.3 Die Determinante von Endomorphismen


Wir wollen nun den Determinantenbegriff von Matrizen auf Endomorphis-
men von endlich-dimensionalen Vektorräumen erweitern. Dies geschieht mit-
5.3. Die Determinante 155

hilfe von darstellenden Matrizen. Dabei ist jedoch folgendes Problem zu


berücksichtigen:

Caveat 5.3.13 (kanonisch). Der Standardvektorraum K n besitzt eine ausge-


zeichnete Basis, nämlich die Standardbasis En . Im Gegensatz dazu besitzen
allgemeine endlich-dimensionale Vektorräume V im allgemeinen keine aus-
gezeichnete Basis – es gibt viele Wahlen von Basen in V und diese sind alle
gleichberechtigt. Es gibt also im allgemeinen keinen ausgezeichneten Isomor-
phismus V ∼ =K K dimK V . Daher gibt es im allgemeinen auch für Endomor-
phismen f : V −→ V keine ausgezeichnete darstellende Matrix.
Im mathematischen Sprachgebrauch bezeichnet man die Standardbasis En
von K n auch als kanonische Basis (da sie von keinen weiteren Wahlen
abhängt). Allgemeiner bezeichnet man mathematische Objekte/Abbildungen
etc. als kanonisch, wenn sie direkt aus den gegebenen Daten (ohne weitere
Wahlen) eindeutig bestimmt sind (z.B. die kanonischen Projektionen aus Pro-
dukten, die kanonische Projektion auf Quotientenvektorräume, . . . ).

Daher liefert nicht jede Invariante von Matrizen eine Invariante von En-
domorphismen (die nicht von den gewählten Basen abhängt). Für die De-
terminante funktioniert das jedoch (wenn man für den Start- und Zielraum
dieselbe Basis wählt):

Satz 5.3.14 (Determinante eines Endomorphismus). Sei K ein Körper, sei


f : V −→ V ein Endomorphismus eines endlich-dimensionalen K-Vektor-
raums V mit n := dimK V > 0. Sind B und C Basen von V , so gilt

det MB,B (f ) = det MC,C (f ).

Man bezeichnet diese Zahl det f := det MB,B (f ) ∈ K als Determinante


von f .

Beweis. Sind B und C Basen von V , so folgt mit der Basiswechselformel


(Proposition 5.1.20) und der Multiplikativität der Determinante, dass
−1

det MC,C (f ) = det MC,B · MB,B (f ) · MC,B
= (det MC,B )−1 · det MB,B (f ) · det MC,B
= det MB,B (f ),

wie behauptet.

Korollar 5.3.15 (Determinante und Invertierbarkeit von Endormorphismen).


Sei K ein Körper, sei f : V −→ V ein Endomorphismus eines endlich-
dimensionalen K-Vektorraums V mit dimK V > 0. Dann sind äquivalent:

1. Der Endormorphismus f ist ein Isomorphismus V −→ V .

2. Es gilt det f 6= 0.
156 5. Matrizenkalkül

Beweis. Da die Invertierbarkeit von linearen Abbildungen zur Invertierbar-


keit von darstellenden Matrizen äquivalent ist, folgt dies aus der Charakte-
risierung der Invertierbarkeit von Matrizen über die Determinante (Korol-
lar 5.3.9).

5.3.4 Die Leibniz-Formel für die Determinante


Zum Abschluss der Diskussion von Determinanten wollen wir die rekursive
Beschreibung der Determinante durch Entwicklung nach einer Spalte zu einer
expliziten Formel erweitern:

Satz 5.3.16 (Leibniz-Formel für die Determinante). Sei K ein Körper und sei
n ∈ N>0 . Ist A ∈ Mn×n (K), so gilt

X n
Y
det A = sgn(σ) · Aj,σ(j) .
σ∈Sn j=1

Exkurs: Permutationen und das Signum


Um diese Formel zu verstehen, müssen wir uns auf einen kurzen Exkurs über
symmetrische Gruppen begeben: Ist n ∈ N, so schreiben wir

Sn := S{1,...,n}

für die symmetrische Gruppe von {1, . . . , n} (d.h. für die Gruppe aller Bijek-
tionen {1, . . . , n} −→ {1, . . . , n} bezüglich Komposition, Proposition 2.2.16).
Die Elemente von Sn bezeichnet man auch als Permutationen von {1, . . . , n}.
Die Gruppe Sn enthält genau n! Elemente (nachrechnen) und daher hat die
Leibniz-Formel n! Summanden.

Definition 5.3.17 (Signum, gerade/ungerade Permutation). Sei n ∈ N. Dann


definieren wir das Signum durch

sgn : Sn −→ {−1, 1}
Y σ(k) − σ(j)
σ 7−→ ,
k−j
(j,k)∈Jn

wobei Jn := {(j, k) | j, k ∈ {1, . . . , n} und j < k}. Permutationen σ ∈ Sn


mit sgn σ = 1 bezeichnet man als gerade Permutationen, die anderen als
ungerade Permutationen.

Werte −1 und 1 annimmt:


Man beachte, dass sgn tatsächlich nur die Q
Ist σ ∈ Sn , so haben die beiden Produkte (j,k)∈Jn (σ(k) − σ(j)) und
5.3. Die Determinante 157
Q
(j,k)∈Jn (k − j) bis auf das Vorzeichen dieselben Faktoren. Nach Definiti-
on misst das Signum wie sehr Permutation die Ordnung umkehren. Um das
Signum besser zu verstehen, betrachten wir zwei wichtige Eigenschaften:
Beispiel 5.3.18 (Signum von Transpositionen). Sei n ∈ N. Permutationen, die
einfach zwei (verschiedene) Elemente von {1, . . . , n} miteinander vertauschen,
bezeichnet man auch als Transpositionen. Sind J, K ∈ {1, . . . , n} mit J 6= K,
so schreibt man auch (J K) für die Transposition, die J und K vertauscht.
Dann gilt
sgn(J K) = −1,
denn: Sei ohne Einschränkung J < K; wir schreiben σ := (J K). Nach
Definition ist sgn(σ) = (−1)m , wobei m die Anzahl der Paare (j, k) ∈ Jn
ist, für die σ(k) < σ(j) ist. Im Fall der Transposition σ = (J K) sind dies
genau die folgenden Paare: Das Paar (J, K), sowie die Paare (J, k) mit k ∈
{J + 1, . . . , K − 1} und die Paare (j, K) mit j ∈ {J + 1, . . . , K − 1}. Also ist

sgn(σ) = (−1)1+K−1−J+K−1−J = −1.

Proposition 5.3.19 (Multiplikativität des Signums). Sei n ∈ N. Dann gilt für


alle σ, τ ∈ Sn , dass
sgn(σ ◦ τ ) = sgn(σ) · sgn(τ ).
Beweis. Seien σ, τ ∈ Sn . Dann gilt
Y σ ◦ τ (k) − σ ◦ τ (j)
sgn(σ ◦ τ ) =
k−j
(j,k)∈Jn
Y σ ◦ τ (k) − σ ◦ τ (j) τ (k) − τ (j)
= ·
τ (k) − τ (j) k−j
(j,k)∈Jn
 Y σ ◦ τ (k) − σ ◦ τ (j) 
= · sgn(τ )
τ (k) − τ (j)
(j,k)∈Jn
 Y σ(k) − σ(j) 
= · sgn(τ )
k−j
(j,k)∈Jn

= sgn(σ) · sgn(τ ).

Im vorletzten Schritt haben wir verwendet, dass τ : {1, . . . , n} −→ {1, . . . , n}


bijektiv ist, und die folgende Fallunterscheidung gemacht: Sei (j, k) ∈ Jn .
ˆ Ist τ (j) < τ (k), so ist (τ (j), τ (k)) ∈ Jn .
ˆ Ist τ (j) > τ (k), so ist (τ (k), τ (j)) ∈ Jn und

σ ◦ τ (k) − σ ◦ τ (j) σ ◦ τ (j) − σ ◦ τ (k)


= .
τ (k) − τ (j) τ (j) − τ (k)

Also ist sgn(σ ◦ τ ) = sgn(σ) · sgn(τ ).


158 5. Matrizenkalkül

Korollar 5.3.20 (gerade Permutationen sind gerade). Sei n ∈ N und σ ∈ Sn .


Es gebe d ∈ N und Transpositionen τ1 , . . . , τd ∈ Sn mit σ = τd ◦ · · · ◦ τ1 . Dann
sind die folgenden Aussagen äquivalent:

1. Die Permutation σ ist gerade.

2. Die Zahl d ist gerade.

Beweis. Per Induktion folgt aus Beispiel 5.3.18 und Propositon 5.3.19, dass
sgn(σ) = (−1)d ist.

Außerdem kann man sich leicht (induktiv) überlegen, dass sich jede Permu-
tation in Sn als Komposition endlich vieler Transpositionen schreiben lässt.
Die geraden Permutationen sind somit genau die Permutationen, die sich als
Komposition einer geraden Anzahl von Transpositionen schreiben lassen.

Bemerkung 5.3.21 (alternierende Gruppe). Sei n ∈ N. Die Menge An := {σ ∈


Sn | sgn(σ) = 1} ⊂ Sn der geraden Transpositionen bildet bezüglich Kom-
position eine Gruppe (nachrechnen), die sogenannte alternierende Gruppe
auf {1, . . . , n}. Ist τ ∈ Sn eine Transposition, so gilt (wegen der Multiplika-
tivität des Signums und τ 2 = id)

Sn = An ∪ An · τ und An ∩ An · τ = ∅.

Die alternierenden Gruppen haben sehr interessante gruppentheoretische Ei-


genschaften und sind in der Algebra ein wichtiges Hilfsmittel bei der Un-
tersuchung der Auflösbarkeit von polynomialen Gleichungen durch iterierte
Wurzeln.

Beweis der Leibniz-Formel


Mit diesen Vorbereitungen können wir nun die Leibniz-Formel aus Satz 5.3.16
verstehen und beweisen. Die verschiedenen Charakterisierungen bzw. die
Konstruktion der Determinante liefern verschiedene Beweisvarianten. Wir
werden die axiomatische“ Variante verwenden:

Beweis von Satz 5.3.16. Es genügt zu zeigen, dass die Abbildung

D : Mn×n (K) −→ K
X n
Y
A 7−→ sgn(σ) · Aj,σ(j)
σ∈Sn j=1

n-linear und alternierend ist und auf In den Wert 1 liefert (Satz 5.3.3).

ˆ Es gilt D(In ) = 1, denn: Nach Definition ist


5.3. Die Determinante 159

X n
Y
D(In ) = sgn(σ) δj,σ(j)
σ∈Sn j=1
X n
Y
=1+ sgn(σ) δj,σ(j) .
σ∈Sn \{id} j=1

Da es für jedes σ ∈ Sn \ {id} ein j ∈ {1, . . . , n} mit σ(j) 6= j gibt, ist


die hintere Summe gleich 0. Also ist D(In ) = 1.
ˆ Die Abbildung D ist n-linear, denn: Sei J ∈ {1, . . . , n}; wir zeigen nun
Linearität in der J-ten Zeile. Nach Definition gilt für alle A ∈ Mn×n (K)
X Y
D(A) = sgn(σ) · AJ,σ(J) · Aj,σ(j) .
σ∈Sn j∈{1,...,n}\{J}

Der erste Faktor in jedem der Summanden hängt linear von der J-ten
Zeile ab und die restlichen Faktoren hängen nicht von der J-ten Zeile
ab. Also ist D linear in der J-ten Zeile.
ˆ Die Abbildung D ist alternierend, denn: Sei A ∈ Mn×n (K) und es gebe
J, K ∈ {1, . . . , n} mit J 6= K und AJ∗ = AK∗ . Dann gilt D(A) = 0,
denn: Sei τ := (J K) ∈ Sn . Dann liefert die Definition von D und
Bemerkung 5.3.21, dass
X n
Y
D(A) = sgn(σ) · Aj,σ(j)
σ∈Sn j=1
X Yn X n
Y
= sgn(σ) · Aj,σ(j) + sgn(σ ◦ τ ) · Aj,σ◦τ (j) .
σ∈An j=1 σ∈An j=1

Da die J-te und die K-te Zeile von A übereinstimmen und τ = (J K)


ist, gilt für jedes σ ∈ Sn , dass
n
Y Y n
Y
Aj,σ(j) = AJ,σ(J) · AK,σ(K) · Aj,σ(j) = Aj,σ◦τ (j) .
j=1 j∈{1,...,n}\{J,K} j=1

Also erhalten wir


X n
Y X n
Y
D(A) = 1· Aj,σ(j) + (−1) · Aj,σ(j) = 0.
σ∈An j=1 σ∈An j=1

Somit stimmt D mit der Determinantenfunktion überein.


Korollar 5.3.22 (Determinante und transponierte Matrizen). Sei K ein Körper
und n ∈ N. Dann gilt
det A = det AT .
160 5. Matrizenkalkül

Beweis. Mit der Leibniz-Formel für die Determinante (Satz 5.3.16) erhalten
wir
X n
Y
T
det A = sgn(σ) · Aσ(j),j
σ∈Sn j=1
X Yn
= sgn(σ) · Aj,σ−1 (j)
σ∈Sn j=1
X n
Y
= sgn(σ −1 ) · Aj,σ(j) .
σ∈Sn j=1

Für σ ∈ Sn gilt aufgrund der Multiplikativität des Signums, dass sgn(σ −1 ) =


sgn(id{1,...,n} )/ sgn(σ). Wegen sgn(σ) ∈ {−1, 1} ist also sgn(σ −1 ) = sgn(σ).
Also ist
X n
Y
det AT = sgn(σ) · Aj,σ(j) = det A,
σ∈Sn j=1

wobei wir im letzten Schritt nochmal die Leibniz-Formel angewendet haben.

Insbesondere kann man die Determinante somit auch durch Zeilenentwick-


lung statt durch Spaltenentwicklung berechnen.
Außerdem liefert die Leibniz-Formel unmittelbar, dass die Determinante
polynomial“ in den Koeffizienten von Matrizen ist.

6
Normalformen I: Eigenwerte und
Diagonalisierbarkeit

Wir werden uns nun mit der Klassifikation von Endomorphismen von Vek-
torräumen auseinandersetzen. Wie wir bereits gesehen haben, kann man in
manchen Fällen Endomorphismen durch Basiswechsel auf eine einfacher zu
verstehende Form bringen. Es ist daher eine naheliegende Frage, auf welche
einfachen Formen man sich im allgemeinen Fall reduzieren kann.
Wir werden zunächst den Spezialfall untersuchen, in dem man den betrach-
teten Endomorphismus sogar auf Diagonalgestalt transformieren kann. Dies
führt zur Theorie der Eigenwerte und Eigenvektoren. Geometrisch betrach-
tet sind Eigenvektoren Vektoren auf denen der betrachtete Endomorphismus
besonders einfach (nämlich als Skalierung) wirkt.
Die Theorie der Eigenwerte und Eigenvektoren hat vielfältige Anwendun-
gen, z.B. in der Physik und der Kombinatorik.

Überblick über dieses Kapitel.

6.1 Eigenwerte und Eigenvektoren 162


6.2 Diagonalisierbarkeit 168
6.3 Das charakteristische Polynom 173
6.4 Ausblick: Die Jordansche Normalform 180

Schlüsselbeispiel. Jordanblöcke aller Art, Rotationsmatrizen


162 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

6.1 Eigenwerte und Eigenvektoren


Eigenvektoren sind (nicht-triviale) Vektoren, die durch einen gegebenen En-
domorphismus einfach nur skaliert werden:
Definition 6.1.1 (Eigenwert, Eigenvektor, Eigenraum). Sei K ein Körper, sei
V ein K-Vektorraum und sei f : V −→ V ein Endomorphismus von V . Sei
außerdem λ ∈ K.
ˆ Man nennt v ∈ V einen Eigenvektor zum Eigenwert λ, wenn v 6= 0 ist
und
f (v) = λ · v.

ˆ Man nennt λ einen Eigenwert von f , wenn f einen Eigenvektor zum


Eigenwert λ besitzt.
ˆ Man bezeichnet

Eigλ (f ) := {v ∈ V | f (v) = λ · v} = ker(f − λ · idV ) ⊂ V

als Eigenraum zum Eigenwert λ von f ; als Kern ist dies tatsächlich ein
Untervektorraum von V . Man nennt dimK Eigλ (f ) die geometrische
Vielfachheit von λ bezüglich f .
Diese Begriffe können wir auch auf quadratische Matrizen übertragen:
Definition 6.1.2 (Eigenwert, Eigenvektor, Eigenraum von Matrizen). Sei K ein
Körper, sei n ∈ N und sei A ∈ Mn×n (K). Eigenwerte, Eigenvektoren und
Eigenräume von L(A) : K n −→ K n bezeichnet man auch als Eigenwerte,
Eigenvektoren und Eigenräume von A.
Beispiel 6.1.3.
ˆ Die Identität (bzw. die Einheitsmatrix, jeweils im Falle nicht-trivialer
Vektorräume) haben 1 als einzigen Eigenwert, der Eigenraum ist der
ganze Raum (also sind alle Vektoren ungleich 0 Eigenvektoren zum
Eigenwert 1).
ˆ Ein Endomorphismus hat genau dann 0 als Eigenwert, wenn der Endo-
morphismus nicht injektiv ist.
ˆ Sei C ∞ (R, R) der R-Vektorraum der unendlich oft differenzierbaren
Funktionen R −→ R. Dann ist der Ableitungsoperator

D : C ∞ (R, R) −→ C ∞ (R, R)
f 7−→ f 0
6.1. Eigenwerte und Eigenvektoren 163

ein Endomorphismus von C ∞ (R, R). Sei λ ∈ R. Eigenvektoren von D


zum Eigenwert λ sind also genau die Funktionen f ∈ C ∞ (R, R) \ {0}
mit
f 0 = λ · f.
Aus der Analysis ist bekannt, dass

Eigλ (D) = {c · (x 7→ eλ·x ) | c ∈ R}

gilt. Diese Beobachtung spielt bei der Lösung linearer Differentialglei-


chungssysteme (in Kombination mit der Normalformentheorie von Ma-
trizen) eine entscheidende Rolle.
Ausblick 6.1.4 (Eigenwerte und Eigenvektoren in der Physik). In der Phsyik
treten Eigenwerte und Eigenvektoren an diversen Stellen auf. Zum Beispiel
werden in der Quantenmechanik physikalischen Größen durch Operatoren
modelliert; die Eigenwerte solcher Operatoren werden dann als die messba-
ren Größen interpretiert. Auf diese Weise erhält man auch eine Erklärung
der Heisenbergschen Unschärferelation durch Begriffe der linearen Algebra
(nämlich dadurch, dass der Orts- und Impulsoperator keine gemeinsamen Ei-
genvektoren besitzen). Auch Energieniveaus von Atomen, Eigenfrequenzen,
etc. können als Eigenwerte gewisser physikalisch motivierter linearer Abbil-
dungen angesehen werden.
Auch in vielen anderen Anwendungen spielt die Eigenwerttheorie eine
wichtige Rolle; z.B. treten im PageRank-Verfahren (Google) auf natürliche
Weise Eigenwertprobleme auf.
Proposition 6.1.5 (Charakterisierung von Eigenwerten). Sei K ein Körper, sei
f : V −→ V ein Endomorphismus eines K-Vektorraums V und sei λ ∈ K.
Dann sind folgende Aussagen äquivalent:
1. Es ist λ ein Eigenwert von f .
2. Es ist ker(f − λ · idV ) 6= {0}.
Ist V endlich-dimensional, so sind diese Aussagen außerdem äquivalent zu
den folgenden Aussagen:
3. Es ist rg(f − λ · idV ) < dimK V .
4. Es ist det(f − λ · idV ) = 0.
Beweis. Die Äquivalenz von 1. und 2. erhält man direkt aus der Definition
von Eigenwerten und der Tatsache, dass

∀v∈V f (v) = λ · v ⇐⇒ (f − λ · idV )(v) = 0 .

Im endlich-dimensionalen Fall liefern dann Korollar 5.3.9 und Korollar 4.4.15


die Äquivalenz aller vier Aussagen.
164 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

Bemerkung 6.1.6 (Bestimmung von Eigenwerten und Eigenräumen). Sei K ein


Körper, sei n ∈ N>0 und sei A ∈ Mn×n (K).

ˆ Wir können also die Eigenwerte von A bestimmen, indem wir alle λ ∈ K
bestimmen, die die Gleichung

det(A − λ · In ) = 0

erfüllen.

ˆ Den zugehörigen Eigenraum V (A − λ · In , 0) kann man dann gegebe-


nenfalls mit dem Gaußschen Algorithmus berechnen.

Es ist dabei zu beachten, dass sich die Lösungen λ ∈ K der Glei-


chung det(A−λ·In ) = 0 im allgemeinen nicht algorithmisch exakt bestimmen
lassen (sondern nur näherungsweise numerisch). Dies liegt daran, dass sich
polynomiale Gleichungen im allgemeinen nicht durch Radikale (d.h. durch
iteriertes Wurzelziehen) lösen lassen (s. Algebra).
Wie bestimmt man Eigenwerte und Eigenräume von Endomorphismen?
Sei f : V −→ V ein Endomorphismus eines endlich-dimensionalen K-Vektor-
raums V mit n := dimK V > 0. Man wählt nun eine Basis B von V und
bestimmt die zugehörige Darstellende Matrix A := MB,B (f ) ∈ Mn×n (K).

ˆ Für alle λ ∈ K ist



det(f − λ · idV ) = det MB,B (f − λ · idV )

= det MB,B (f ) − λ · MB,B (idV )
= det(A − λ · In ).

Man kann die Eigenwerte von f also bestimmen, indem man die Eigen-
werte von A bestimmt.

ˆ Außerdem ist

Eigλ (f ) = ker(f − λ · idV ) = TEn ,B V (A − λ · In , 0) .

Beispiel 6.1.7.

ˆ Sei  
0 −1
R := ∈ M2×2 (R).
1 0
Dann ist L(R) : R2 −→ R2 Rotation um π/2. Geometrisch würden wir
daher keine Eigenwerte erwarten. Für alle λ ∈ R gilt

det(R − λ · I2 ) = λ2 + 1 6= 0.

Also besitzt R tatsächlich keine Eigenwerte (in R).


6.1. Eigenwerte und Eigenvektoren 165

ˆ Sei  
−1 0
S := ∈ M2×2 (R).
0 1
Dann ist L(S) : R2 −→ R2 die Spiegelung an der zweiten Koordina-
tenachse. Geometrisch erwarten wir, dass dann e1 ein Eigenvektor zum
Eigenwert −1, dass e2 ein Eigenvektor zum Eigenwert 1 ist und dass
S keine weiteren Eigenwerte hat. Dies lässt sich wie folgt überprüfen:
Für alle λ ∈ R gilt
det(S − λ · I2 ) = λ2 − 1.
Also besitzt S genau die Eigenwerte 1 und −1. Nachrechnen zeigt au-
ßerdem, dass Eig1 (S) = R · e2 und Eig−1 (S) = R · e1 .

ˆ Sei  
2016 0
D := ∈ M2×2 (R).
0 2017
Für alle λ ∈ R gilt dann

det(D − λ · I2 ) = (2016 − λ) · (2017 − λ).

Also besitzt D genau die Eigenwerte 2016 und 2017. Dabei ist e1 ein
Eigenvektor zum Eigenwert 2016 und e2 ist ein Eigenvektor zum Ei-
genwert 2017.

ˆ Sei  
2 1
J := ∈ M2×2 (R).
0 2
Für alle λ ∈ R gilt dann

det(J − λ · I2 ) = (2 − λ) · (2 − λ).

Also ist 2 der einzige Eigenwert von J. Wegen

V (J − 2 · I2 , 0) = SpanR {e1 }

hat der Eigenwert 2 die geometrische Vielfachheit 1 bezüglich J.

ˆ Sei  
0 2
A := .
1 0
Für alle λ ∈ R ist
det(A − λ · I2 ) = λ2 − 2.
Fassen wir A als Matrix
√ in M√2×2 (R) auf, so besitzt A genau zwei Ei-
genwerte, nämlich 2 und − 2. Fassen wir A als Matrix
√ in M
√2×2 (Q)
auf, so besitzt A jedoch keine Eigenwerte (denn 2 und − 2 sind
irrationale Zahlen).
166 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

ˆ Sei  
0 2
B :=
−1 0
Für alle λ ∈ C ist
det(B − λ · I2 ) = λ2 + 2.
Fassen wir B als Matrix
√ in M2×2
√ (C) auf, so besitzt B genau zwei Eigen-
werte, nämlich i · 2 und −i · 2. Fassen wir B als Matrix in M2×2 (R)
oder M2×2 (Q(i)) auf, so besitzt B jedoch keine Eigenwerte.

Definition 6.1.8 (Spektrum). Sei K ein Körper und sei f : V −→ V ein En-
domorphismus eines K-Vektorraums. Dann bezeichnen wir

σK (f ) := {λ ∈ K | (f − λ · idV ) ist nicht invertierbar} ⊂ K

als Spektrum von f (über K). Ist n ∈ N und A ∈ Mn×n (K), so schreiben wir
auch 
σK (A) := σK L(A) ⊂ K
für das Spektrum von A (über K).

Bemerkung 6.1.9 (Spektrum und Eigenwerte). Jeder Eigenwert liegt im Spek-


trum des betrachteten Endomorphismus. Für Endomorphismen von endlich-
dimensionalen Vektorräumen stimmt das Spektrum sogar mit der Menge
der Eigenwerte überein (Proposition 6.1.5). Im unendlich-dimensionalen Fall
kann es jedoch Elemente des Spektrums geben, die keine Eigenwerte sind.

Proposition 6.1.10 (lineare Unabhängigkeit von Eigenvektoren). Sei K ein


Körper, sei f : V −→ V ein Endomorphismus eines K-Vektorraums V ,
sei n ∈ N und seien λ1 , . . . , λn ∈ K verschiedene Eigenwerte von f . Sind
v1 , . . . , vn Eigenvektoren von f zu den Eigenwerten λ1 , . . . , λn , so ist die Fa-
milie (v1 , . . . , vn ) linear unabhängig.

Beweis. Wir beweisen die Behauptung durch Induktion über n ∈ N:

ˆ Induktionsanfang. Ist n = 0, so handelt es sich um die leere Familie


(und diese ist linear unabhängig). Ist n = 1, so liegt eine einelementige
Familie, bestehend aus einem Eigenvektor von f , vor. Nach Definition
sind Eigenvektoren nicht der Nullvektor. Also ist auch in diesem Fall
die Familie linear unabhängig.

ˆ Induktionsschritt. Sei nun n ∈ N≥2 und die Behauptung sei bereits für
Familien mit höchstens n − 1 Eigenvektoren zu verschiedenen Eigen-
werten bereits bewiesen. Seien α1 , . . . , αn ∈ K mit
n
X
αj · vj = 0.
j=1
6.1. Eigenwerte und Eigenvektoren 167

Angenommen, einer der Koeffizienten α1 , . . . , αn ist ungleich 0; ohne


Einschränkung sei α1 6= 0. Dann folgt
n
1 X
v1 = − · αj · vj .
α1 j=2

Wenn wir nun f auf die ursprüngliche Gleichung anwenden und diese
Darstellung von v1 einsetzen, erhalten wir (da es sich um Eigenvektoren
handelt!)
X
n  n
X n
X
0 = f (0) = f αj · vj = αj · f (vj ) = αj · λj · vj
j=1 j=1 j=1
n n
1 X X
= −α1 · λ1 · · αj · vj + αj · λj · vj
α1 j=2 j=2
n
X
= αj · (λj − λ1 ) · vj .
j=2

Nach Induktionsvoraussetzung sind (v2 , . . . , vn ) linear unabhängig. Al-


so ist αj · (λ1 − λj ) = 0 für alle j ∈ {2, . . . , n}. Da die Eigenwerte alle
verschieden sind, folgt somit

∀j∈{2,...,n} αj = 0.

Nach der obigen Darstellung ist dann aber auch v1 = 0, im Widerspruch


dazu, dass v1 ein Eigenvektor von f ist. Also erhalten wir α1 = · · · =
αn = 0, was die lineare Unabhängigkeit von (v1 , . . . , vn ) liefert.

Da lineare Unabhängigkeit über die lineare Unabhängigkeit von endlichen


Teilfamilien definiert ist, gilt die analoge Aussage dann auch für unendliche
Familien von Eigenvektoren zu verschiedenen Eigenwerten.

Korollar 6.1.11 (Größe des Spektrums). Sei K ein Körper und sei f : V −→ V
ein Endomorphismus eines endlich-dimensionalen K-Vektorraums V . Dann
ist
σK (f ) ≤ dimK V.

Beweis. Dies folgt aus der Tatsache, dass das Spektrum σK (f ) von f ge-
nau aus den Eigenwerten von f besteht (Bemerkung 6.1.9) und der obigen
Proposition 6.1.10.
168 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

6.2 Diagonalisierbarkeit
Wir betrachten nun die einfachste Form, die ein Endomorphismus besitzen
kann, nämlich Diagonalgestalt. Manche Endomorphismen sind zwar nicht in
Diagonalgestalt gegeben, können aber in eine solche Diagonalgestalt transfor-
miert werden (Beispiel 5.1.13). Es wird sich jedoch herausstellen, dass nicht
jeder Endomorphismus auf eine solche Diagonalgestalt transformiert werden
kann. Dies führt zum Begriff der Diagonalisierbarkeit (die einer der Ursprünge
der Normalformentheorie ist).

Definition 6.2.1 (diagonalisierbar). Sei K ein Körper.

ˆ Sei f : V −→ V ein Endomorphismus eines K-Vektorraums. Dann ist f


diagonalisierbar (über K), wenn V eine Basis aus Eigenvektoren von f
besitzt.

ˆ Sei n ∈ N. Eine Matrix A ∈ Mn×n (K) heißt diagonalisierbar, wenn


L(A) : K n −→ K n diagonalisierbar ist.

Für Matrizen bzw. Endomorphismen von endlich-dimensionalen Vektor-


räumen hängt diese Definition wie folgt mit der Diagonalgestalt von Matrizen
zusammen:

Proposition 6.2.2 (Diagonalisierbarkeit von Matrizen). Sei K ein Körper


und A ∈ Mn×n (K). Dann ist A genau dann (über K) diagonalisierbar, wenn
es eine Matrix S ∈ GLn (K) gibt, so dass S −1 · A · S eine Diagonalmatrix ist.

Definition 6.2.3 (Diagonalmatrix). Sei K ein Körper und n ∈ N. Eine Ma-


trix A ∈ Mn×n (K) bezeichnet man als Diagonalmatrix, wenn

∀j,k∈{1,...,n} j 6= k =⇒ Aj,k = 0

gilt (d.h. wenn A keine nicht-trivialen Einträge außerhalb der Hauptdiago-


nalen besitzt).

Beweis (von Proposition 6.2.2). Sei zunächst A diagonalisierbar. Dann gibt


es eine Matrix S ∈ GLn (K) mit S −1 · A · S in Diagonalgestalt, denn: Da A
diagonalisierbar ist, besitzt K n eine Basis B aus Eigenvektoren von A. Dann
ist
M (TEn ,B )−1 · A · M (TEn ,B ) = M (TB,En ) · A · M (TEn ,B )
(die Spalten sind die Bilder der Einheitsvektoren!) in Diagonalgestalt. Also
hat S := M (TEn ,B ) ∈ GLn (K) die gewünschte Eigenschaft.
Umgekehrt gebe es eine Matrix S ∈ GLn (K), so dass S −1 · A · S in Diago-
nalgestalt ist. Dann ist A diagonalisierbar, denn: Seien v1 , . . . , vn die Spalten
von S. Da S invertierbar ist, ist somit B := (v1 , . . . , vn ) eine Basis von K n
und nach Konstruktion gilt S = M (TEn ,B ). Da
6.2. Diagonalisierbarkeit 169

M (TB,En ) · A · M (TEn ,B ) = M (TEn ,B )−1 · A · M (TEn ,B ) = S −1 · A · S

nach Voraussetzung in Diagonalgestalt ist, besteht B aus Eigenvektoren (die


Spalten sind die Bilder der Einheitsvektoren!).

Caveat 6.2.4 (schwache Diagonalisierbarkeit). Ist K ein Körper, n ∈ N und


ist A ∈ Mn×n (K), so gibt es immer S, T ∈ GLn (K) mit der Eigenschaft,
dass T · A · S in Diagonalgestalt ist (Übungsaufgabe). Der Unterschied zum
Diagonalisierbarkeitskriterium in Proposition 6.2.2 besteht darin, dass man
im allgemeinen nicht erreichen kann, dass T = S −1 gilt!

Korollar 6.2.5 (Diagonalisierbarkeit von Endomorphismen). Sei K ein Körper


und f : V −→ V ein Endomorphismus eines endlich-dimensionalen K-
Vektorraums. Dann ist f genau dann (über K) diagonalisierbar, wenn es
eine Basis B von V gibt, so dass MB,B (f ) eine Diagonalmatrix ist. (Man
beachte, dass man im Start- und Zielraum dieselbe Basis wählt!)

Beweis. Dies folgt aus Proposition 6.2.2 und Korollar 5.1.21 (über darstel-
lende Matrizen von Endomorphismen).

Proposition 6.2.6 (Diagonalisierbarkeit und geometrische Vielfachheiten). Sei


K ein Körper und f : V −→ V ein Endomorphismus eines endlich-dimensio-
nalen K-Vektorraums.

1. Dann ist X
dimK Eigλ (f ) ≤ dimK V.
λ∈σK (f )

2. Der Endomorphismus f ist genau dann (über K) diagonalisierbar, wenn


X
dimK Eigλ (f ) = dimK V
λ∈σK (f )

ist (d.h. wenn sich die geometrischen Vielfachheiten zur Dimension des
Vektorraums summieren).

Beweis. Zu 1. Aus Proposition 6.1.10 erhalten wir (nachrechnen!): Wählen


wir in jedem Eigenraum eine Basis und fügen diese Basen zu einer Familie B
zusammen, so ist B eine linear unabhängige Familie. Insbesondere ist
X
dimK Eigλ (f ) ≤ dimK V.
λ∈σK (f )

Zu 2. Sei f diagonalisierbar, d.h. V besitzt eine Basis aus Eigenvektoren


von f . Insbesondere folgt dann
X
dimK V ≤ dimK Eigλ (f ).
λ∈σK (f )
170 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

Zusammen mit der Ungleichung aus dem ersten Teil erhalten wir somit
Gleichheit. P
Es gelte umgekehrt λ∈σK (f ) dimK Eigλ (f ) = dimK V . Setzen wir Basen
der Eigenräume wie in der Vorüberlegung zu einer Familie B zusammen, so
erhalten wir eine linear unabhängige Familie B in V , die aus dimK V Vektoren
besteht. Also ist B eine Basis von V , was zeigt, dass f diagonalisierbar ist.
Korollar 6.2.7 (Gratis-Diagonalisierbarkeit). Sei K ein Körper und es sei
f : V −→ V ein Endomorphismus eines endlich-dimensionalen K-Vektor-
raums. Gibt es dimK V verschiedene Eigenwerte zu f , so ist f diagonalisier-
bar.
Beweis. Dies folgt direkt aus der vorherigen Proposition 6.2.6.
Aus den bisherigen Überlegungen erhalten wir, wie man Diagonalisierbar-
keit testen bzw. Transformationen auf Diagonalform berechnen kann:
Bemerkung 6.2.8 (Test auf Diagonalisierbarkeit und Diagonaltransformatio-
nen). Sei K ein Körper, sei n ∈ N>0 und sei A ∈ Mn×n (K). Wie können wir
feststellen, ob A diagonalisierbar ist? Und wie können wir A bei Vorliegen
von Diagonalisierbarkeit in eine Diagonalmatrix transformieren?
ˆ Zunächst bestimmt man wie in Bemerkung 6.1.6 die Eigenwerte von A,
d.h., man berechnet das Spektrum σK (A) von A.
ˆ Für jedes λ ∈ σK (A) bestimmt man dann wie in Bemerkung 6.1.6
die Dimensionen (bzw. sogar eine Basis) des Eigenraums Eigλ (A) =
V (A − λ · In , 0).
ˆ Nach Proposition 6.2.6 ist A genau dann diagonalisierbar, wenn
X
dimK Eigλ (A) = n
λ∈σK (A)

ist.
ˆ Falls A diagonalisierbar ist: Zu jedem λ ∈ σK (A) sei Bλ eine Basis
von Eigλ (A). Dann ist (nach dem Beweis von Proposition 6.2.6) die
kombinierte Familie B := (Bλ )λ∈σK (A) eine Basis von K n , die aus
Eigenvektoren von A besteht. Nach dem Beweis von Proposition 6.2.2
hat dann die Matrix
S := TEm ,B
(also die Matrix, die man erhält, indem man die Elemente von B als
Spalten der Matrix auffasst) die Eigenschaft, dass

S −1 · A · S

eine Diagonalmatrix ist; die Diagonaleinträge sind dabei die Eigenwerte


von A (jeweils so oft wie ihre geometrische Vielfachheit angibt).
6.2. Diagonalisierbarkeit 171

Beispiel 6.2.9. Wir betrachten Matrizen aus Beispiel 6.1.7.


ˆ Sei n ∈ N. Dann ist die Einheitsmatrix In diagonalisierbar (da sie
bereits in Diagonalgestalt ist bzw. da die Standardbasis von K n aus
Eigenvektoren von In besteht).
ˆ Die Matrix  
0 2
1 0
ist über R diagonalisierbar (da sie zwei verschiedene Eigenwerte be-
sitzt). Über Q ist sie jedoch nicht diagonalisierbar (da sie keine ratio-
nalen Eigenwerte besitzt).
ˆ Die Matrix  
0 −1
1 0
ist über R nicht diagonalisierbar (da sie keine reellen Eigenwerte be-
sitzt). Aber diese Matrix ist über C und über Q(i) diagonalisierbar, da
sie die beiden komplexen Eigenwerte i und −i besitzt.
ˆ Die Matrix  
2 1
0 2
ist noch nicht einmal über C diagonalisierbar, da die Summe der geo-
metrischen Vielfachheiten aller Eigenwerte nur 1 beträgt.
Bemerkung 6.2.10 (der Konjugationstrick). Sei K ein Körper, sei n ∈ N und
sei A ∈ Mn×n (K). In vielen Anwendungen ist es wichtig, effizient hohe Poten-
zen von A zu berechnen. Falls A diagonalisierbar ist, gibt es eine besonders
bequeme Möglichkeit: Ist A diagonalisierbar, so gibt es eine invertierbare
Matrix S ∈ GLn (K), so dass

D := S −1 · A · S

eine Diagonalmatrix ist (Proposition 6.2.2). Aus der Definition der Ma-
trixmultiplikation ist sofort ersichtlich, dass Potenzen von Diagonalmatrizen
einfach Diagonalmatrizen mit entsprechend potenzierten Diagonaleinträgen
sind. Wir können daher effizient Dk für jedes k ∈ N berechnen. Dies lie-
fert uns auch einen Zugang, um die Potenzen von A zu berechnen, denn für
alle k ∈ N ist

Ak = (S · D · S −1 )k (nach Definition von D)


k −1
=S·D ·S (die inneren“ S-Faktoren fressen sich auf).

Ausblick 6.2.11 (Spektralkalkül). Allgemeiner kann man Diagonalisierbarkeit


nutzen, um nicht nur Potenzen von Matrizen bzw. Endomorphismen zu be-
rechnen, sondern auch um allgemeinere Funktionen auf Endomorphismen
172 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

anwenden zu können. Eine Formalisierung dieser Methode (die besonders


gut unter geometrischen Zusatzbedingungen funktioniert), ist der sogenann-
te Spektralkalkül. Dieser wird im Rahmen der Funktionalanalysis im Detail
entwickelt und hat vielfältige Anwendungen bei der Lösung gewisser Diffe-
rentialgleichungen und in der Differentialgeometrie.
Der Konjugationstrick kann zum Beispiel verwendet werden, um lineare
Rekursionen in der Kombinatorik in explizite Formeln umzuwandeln. Zum
Beispiel kann man auf diese Weise eine explizite Formel für Fibonacci-Zahlen
erhalten:
Beispiel 6.2.12 (Fibonacci-Zahlen, explizit). Sei (Fn )n∈N = 0, 1, 1, 2, 3, 5, 8, . . .
die Folge der Fibonacci-Zahlen (Beispiel 4.2.10). Aus Beispiel 4.2.10 wissen
wir bereits, dass  
n Fn+1 Fn
A =
Fn Fn−1
für alle n ∈ N>0 gilt, wobei
 
1 1
A := .
1 0

Die Matrix A hat über R die beiden (verschiedenen!) Eigenwerte


√ √
1+ 5 1− 5
und
2 2
und ist somit über R diagonalisierbar. Durch explizites Diagonalisieren und
der Konjugationstrick (Bemerkung 6.2.10) erhalten wir daraus die explizite
(nicht rekursive) Formel
 √ √ 
1 1 + 5 n  1 − 5 n
Fn = √ · −
5 2 2

für alle n ∈ N (Übungsaufgabe). Die Zahl (1 + 5)/2 ist der sogenannte
goldene Schnitt, der an vielen Stellen in der Mathematik und Kunst auftritt.
Literaturaufgabe. Lesen Sie die Abschnitte zu linearen Rekursionen und er-
zeugenden Funktionen im Buch Concrete Mathematics von R.L. Graham,
D.E. Knuth und O. Patashnik [9].
Satz 6.2.13 (Spektralsatz für symmetrische Matrizen). Sei n ∈ N und sei
A ∈ Mn×n (R) eine symmetrische Matrix, d.h. A = AT . Dann ist A (über R)
diagonalisierbar. Genauer gilt sogar: Es gibt eine Matrix S ∈ GLn (R)
mit S −1 = S T mit der Eigenschaft, dass S −1 · A · S in Diagonalgestalt ist.
Beweis. Wir werden diesen Satz in der Linearen Algebra II im Kontext von
euklidischen und unitären Vektorräumen (mit von der Geometrie inspirierten
Argumenten) beweisen.
6.3. Das charakteristische Polynom 173

Symmetrische Matrizen treten zum Beispiel auf natürliche Weise in der


mehrdimensionalen Analysis auf (als Jacobi- oder Hesse-Matrizen gutartiger
Funktionen) oder in der algebraischen Topologie (im Kontext von Schnitt-
formen).

6.3 Das charakteristische Polynom


Wir betrachten nun zu einer n × n-Matrix A die für die Bestimmung der
Eigenwerte so zentrale Abbildung

K −→ K
λ 7−→ det(A − λ · In )

etwas genauer. Die Leibniz-Formel zeigt, dass diese Funktion polynomial“



in λ ist. Wir wollen dies etwas genauer untersuchen und insbesondere die
algebraischen Grundlagen zu Polynomen genauer kennenlernen. Dazu führen
wir den Polynomring K[T ] der Polynome in der Variablen T mit Koeffizienten
in K ein und definieren dann das sogenannte charakterstische Polynom von A
als
χA := det(T · In − A) ∈ K[T ].
(Man dreht dabei die Subtraktion um, um etwas bequemere Vorzeichen zu
erhalten.)

6.3.1 Polynome

Aus der Analysis sind wir mit Polynomfunktionen (z.B. linearen, quadra-
tischen, kubischen, . . . Funktionen) vom Typ R −→ R bzw. C −→ C
wohlvertraut. Im algebraischen Kontext möchte man natürlich auch ande-
re Grundkörper zulassen und das Augenmerk mehr auf algebraische (z.B.
Nullstellen, Teilbarkeit) statt auf analytische Eigenschaften (z.B. Stetigkeit)
richten.
Die Grundidee dabei ist, dass Polynome durch die Folge ihrer Koeffizi-
enten beschrieben werden. Diese Beschreibung genügt für alle algebraisch
relevanten Operationen.
Definition 6.3.1 (Polynomring). Sei K ein Körper. Der Polynomring K[T ]
über K in einer Variablen ist wie folgt definiert:
ˆ Als K-Vektorraum ist K[T ] der Untervektorraum


(an )n∈N ∈ Abb(N, K) ∃d∈N ∀n∈N≥d an = 0

von Abb(N, K).


174 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

ˆ Ist n ∈ N, so schreibt man kurz

T n := (δn,k )k∈N ∈ K[T ]

und T := T 1 ∈ K[T ].
ˆ Wir definieren auf K[T ] die Multiplikation durch

· : K[T ] × K[T ] −→ K[T ]


X
n 

(an )n∈N , (bn )n∈N 7−→ aj · bn−j
j=0 n∈N

Man beachte dabei, dass das Bild dieser Abbildung tatsächlich wieder
in K[T ] (und nicht nur in Abb(N, K)) liegt.
ˆ Ist p = (an )n∈N ∈ K[T ], so ist

deg p := sup{n ∈ N | an 6= 0} ∈ {−∞} ∪ N

der Grad von p. Dabei verwenden wir die Konvention sup ∅ := −∞;
insbesondere ist das Nullpolynom das einzige Polynom in K[T ] mit
Grad −∞.
Die Elemente von K[T ] bezeichnet man als Polynome in der Variablen T mit
Koeffizienten in K.
Notation 6.3.2. Sei K ein Körper. Die Familie (T n )n∈N ist eine Basis
von K[T ] (nachrechnen mithilfe von Beispiel 3.2.6). Ist p = (an )n∈N ∈ K[T ]
und d := deg p, so schreibt man daher dafür normalerweise
d
X
p= an · T n .
n=0

Die Definition der Multiplikation liefert T n · T m = T n+m für alle n, m ∈ N.


Die allgemeine Multiplikation von Polynomen erfolgt einfach durch beidseitig
lineares Ausmultiplizieren dieser Gleichung auf den Potenzen der Variablen T .
Bemerkung 6.3.3 (Ringe und Algebren). Sei K ein Körper. Dann hat die
Multiplikation auf K[T ] die folgenden Eigenschaften (nachrechnen):
ˆ Assoziativität. Für alle p, q, r ∈ K[T ] gilt p · (q · r) = (p · q) · r.
ˆ Kommutativität. Für alle p, q ∈ K[T ] gilt p · q = q · p.
ˆ Existenz eines neutralen Elements. Für alle p ∈ K[T ] gilt p · T 0 = p
und T 0 · p = p. Man schreibt daher auch einfach 1 für T 0 .
ˆ Distributivgesetz. Für alle p, q, r ∈ K[T ] gilt

p · (q + r) = p · q + p · r.
6.3. Das charakteristische Polynom 175

ˆ Verträglichkeit mit der Skalarmultiplikation. Für alle p, q ∈ K[T ] und


alle λ ∈ K gilt
λ · p = (λ · T 0 ) · p = T 0 · (λ · p).

Das einzige, was fehlt um K[T ] mit dieser Addition und Multiplikation als
Körper auffassen zu können, ist also die Existenz multiplikativer Inverser. Sol-
che algebraischen Strukturen bezeichnet man als (kommutative) Ringe (mit
Eins). Da sich die Multiplikation auf K[T ] außerdem mit der Skalarmultipli-
kation verträgt, bildet K[T ] sogar eine (kommutative) K-Algebra (mit Eins).
Wir werden diese Begriffe in der Linearen Algebra II genauer kennenlernen.
Beispiel 6.3.4 (Produkt von Polynomen). Sei K ein Körper. Mit der obigen
Notation gilt dann

(T + 1) · (T − 1) = (1 · T 1 + 1 · T 0 ) · (1 · T 1 − 1 · T 0 )
= 1 · T 2 + (1 − 1) · T 1 − 1 · T 0
= T2 − 1

in K[T ].
Durch Einsetzen“ erhalten wir die uns bekannten Polynomfunktionen:

Definition 6.3.5 (Polynomfunktion, Nullstelle). Sei K ein Körper und p =
Pd j
j=0 aj · T ∈ K[T ]. Die zugehörige Polynomfunktion ist als

fp : K −→ K
d
X
x 7−→ aj · xj
j=0

definiert. Ist x ∈ K, so werden wir im folgenden auch kurz p(x) := fp (x)


schreiben. Ist x ∈ K mit p(x) = 0, so ist x eine Nullstelle von p.
Auf diese Weise liefern Polynome aus R[T ] die Polynomfunktionen R −→ R
aus der Analysis.
Beispiel 6.3.6. Die Folge (1, 0, −2, 0, 0, . . . ) entspricht in R[T ] dem Poly-
nom 1 · T 0 − 2 · T 2 =: p. Die zugehörige Polynomfunktion ist

R −→ R
x 7−→ p(x) = −2 · x2 + 1.
√ √
Die (reellen) Nullstellen von p sind somit 2/2 und − 2/2.
Caveat 6.3.7 (Polynom vs. Polynomfunktion). Sei K ein Körper. Nach De-
finition sind Polynome p, q ∈ K[T ] genau dann gleich, wenn sie dieselben
Koeffizienten besitzen. Insbesondere sind dann auch die zugehörigen Poly-
nomfunktionen fp , fq : K −→ K gleich.
176 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

Die Umkehrung gilt jedoch im allgemeinen nicht: Zum Beispiel liefern das
Nullpolynom in F2 [T ] und das Polynom T 2 +T ∈ F2 [T ] beide die Nullfunktion
als Polynomfunktion F2 −→ F2 . Aber T 2 + T ist nicht das Nullpolynom.

Satz 6.3.8 (Fundamentalsatz der Algebra). Jedes Polynom in C[T ] vom Grad
mindestens 1 hat mindestens eine Nullstelle in C.

Obwohl die Formulierung des Satzes eine rein algebraische Angelegenheit


ist und er an vielen Stellen der Algebra eine zentrale Rolle spielt, erfordern
die meisten (eleganten) Beweise andere Methoden. Die prominentesten Be-
weise verwenden Methoden aus der Funktionentheorie (also der komplexen
Analysis) oder aus der algebraischen Topologie. Wir werden daher an dieser
Stelle keinen Beweis dieses Satzes liefern.
Umgekehrt kann man auch die Situation betrachten, dass man alle Poly-
nome an einer gegebenen Stelle auswertet.

Bemerkung 6.3.9 (Einsetzungshomomorphismus). Sei K ein Körper und sei


x ∈ K. Dann hat die Abbildung

evx : K[T ] −→ K
p 7−→ p(x)

die folgenden Eigenschaften:

ˆ Die Abbildung evx ist K-linear.

ˆ Für alle p, q ∈ K[T ] ist evx (p · q) = evx (p) · evx (q).

ˆ Es gilt evx (1) = 1.

Es handelt sich somit bei evx um einen sogenannten Ringhomomorphis-


mus bzw. K-Algebrenhomomorphismus, den Einsetzungshomomorphismus
zu x ∈ K. Ringtheoretisch betrachtet ist dies (bzw. die naheliegende Verall-
gemeinerung davon) die zentrale (universelle) Eigenschaft des Polynomrings.

6.3.2 Das charakteristische Polynom


Wir kehren nun zu Eigenwerten von Matrizen zurück. Um die zu Beginn
genannte Funktion als Polynom auffassen zu können, müssen wir die Deter-
minante auf Matrizen erweitern, deren Koeffizienten Polynome sind.

Bemerkung 6.3.10 (Matrizen und Determinanten über dem Polynomring).


Sei K ein Körper und n ∈ N. Analog zu Mn×n (K) definiert man den
K-Vektorraum Mn×n (K[T ]) der n × n-Matrizen, deren Koeffizienten Ele-
mente aus dem Polynomring K[T ] sind; man beachte, dass man Matrizen
aus Mn×n (K[T ]) koeffizientenweise nicht nur mit Skalaren aus K, sondern
6.3. Das charakteristische Polynom 177

sogar mit Polynomen aus K[T ] multiplizieren kann und dass man analog
zu Mn×n (K) eine Matrixmultiplikation Mn×n (K[T ]) × Mn×n (K[T ]) −→
Mn×n (K[T ]) erhält.
Analog zu Mn×n (K) können wir im Fall n > 0 inspiriert durch die Leibniz-
Formel die Determinantenfunktion

det : Mn×n (K[T ]) −→ K[T ]


X n
Y
A 7−→ sgn(σ) · Aj,σ(j)
σ∈Sn j=1

definieren. Man beachte dabei, dass die Summen und Produkte auf der rech-
ten Seite im Polynomring K[T ] stattfinden und dass dieser Term in K[T ]
wirklich Sinn ergibt.
Man kann nun analog zu Mn×n (K) nachrechnen, dass diese Determi-
nantenfunktion n-linear (sogar über K[T ]) und alternierend ist und die
Normierung det In = 1 erfüllt. In diesen Berechnungen geht essentiell ein,
dass die Multiplikation auf K[T ] kommutativ ist. Außerdem gilt für al-
le A, B ∈ Mn×n (K[T ]), dass

det(A · B) = det A · det B.

Diese Definitionen über Analogie mögen etwas holprig erscheinen. Mit ei-
nem kleinen algebraischen Trick kann man sich hier auch anders behelfen:
Analog zur Konstruktion von Q aus Z durch formale Brüche kann man auch
aus K[T ] einen Körper konstruieren, den sogenannten rationalen Funktio-
nenkörper K(T ), der K[T ] auf kanonische Weise enthält. Da K(T ) ein Körper
ist, wissen wir, was Matrizen, Determinanten, etc. über K(T ) sind. Diese De-
finitionen schränken sich dann zu den entsprechenden Definitionen von K[T ]
ein.

Wir können nun die Definition des charakteristischen Polynoms einer Ma-
trix wie geplant durchführen; der Name kommt daher, dass das charakteri-
stische Polynom bereits viele wichtige Informationen über die Normalformen
von Matrizen enthält (wie wir in der Linearen Algebra II sehen werden).

Definition 6.3.11 (charakteristisches Polynom). Sei K ein Körper, sei n ∈ N>0


und sei A ∈ Mn×n (K). Dann ist

χA := det(T · In − A) ∈ K[T ]

das charakteristische Polynom von A.

Bemerkung 6.3.12 (Determinante aus dem charakteristischen Polynom). Sei


K ein Körper, sei n ∈ N>0 und sei A ∈ Mn×n (K). Nach Definition gilt

χA (0) = det(−A) = (−1)n · det A.


178 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

Beispiel 6.3.13. Sei K ein Körper.


ˆ Ist n ∈ N>0 , so hat die Einheitsmatrix In ∈ Mn×n (K) das charakteri-
stische Polynom

χIn = det(T · In − In ) = det (T − 1) · In = (T − 1)n · det In = (T − 1)n .

ˆ Die Rotationsmatrix“

 
0 −1
R := ∈ M2×2 (K)
1 0

hat das charakteristische Polynom

χR = det(T · I2 − I2 ) = T 2 + 1 ∈ K[T ].

ˆ Sei λ ∈ K und sei


 
λ 1
A := ∈ M2×2 (K).
0 λ

Dann ist
 
T −λ −1
χA = det(T · In − A) = det = (T − λ)2 .
0 T −λ

Obwohl der Eigenwert λ nur die geometrische Vielfachheit 1 hat, tritt


der Faktor T − λ quadratisch im charakteristischen Polynom auf!
Pn−1
ˆ Sei p = T n + j=0 aj · T j ∈ K[T ] und sei
 
0 0 ... 0 −a0
1 0 ... 0 −a1 
 
 −a2 
A := 0 1 ... 0  ∈ Mn×n (K).
 .. .. .. .. .. 
. . . . . 
0 0 ... 1 −an−1

Dann gilt
χA = det(T · In − A) = p
(Übungsaufgabe). Man bezeichnet diese Matrix A auch als Begleitma-
trix zu p.
Die Bestimmung der Eigenwerte einer Matrix lässt sich nach Konstruktion
des charakteristischen Polynoms auch als Bestimmung der Nullstellen des
charakteristischen Polynoms formulieren:
Proposition 6.3.14 (Nullstellen des charakteristischen Polynoms). Sei K ein
Körper, sei n ∈ N>0 und sei A ∈ Mn×n (K). Dann gilt
6.3. Das charakteristische Polynom 179

σK (A) = {λ ∈ K | χA (λ) = 0} und deg χA = n.

Beweis. Aus der Definition des charakteristischen Polynoms über die Leib-
nizformel folgt
n
Y X n
Y
χA = (T − Aj,j ) + sgn(σ) · (δj,σ(j) · T − Aj,σ(j) ).
j=1 σ∈Sn \{id} j=1

Daran lässt sich deg χA = n ablesen (das erste Produkt hat Grad n und die
hintere Summe hat Grad kleiner als n).
Nach Konstruktion gilt für alle λ ∈ K, dass

χA (λ) = det(λ · In − A) = (−1)n · det(A − λ · In ).

Die Behauptung folgt somit aus Bemerkung 6.1.6.

Korollar 6.3.15. Ist n ∈ N>0 und A ∈ Mn×n (C), so hat A mindestens einen
Eigenwert.

Beweis. Dies folgt direkt aus dem Fundamentalsatz der Algebra (Satz 6.3.8)
und der vorigen Proposition.

Wir können den Begriff des charakteristischen Polynoms über darstellende


Matrizen auch auf Endomorphismen verallgemeinern:

Proposition 6.3.16 (Konjugationsinvarianz des charakteristischen Polynoms).


Sei K ein Körper, sei n ∈ N>0 und sei A ∈ Mn×n (K). Dann gilt für alle S ∈
GLn (K), dass
χA = χS −1 ·A·S .

Beweis. Mit den Eigenschaften der Determinante auf Mn×n (K[T ]) erhalten
wir für alle S ∈ GLn (K), dass

χS −1 ·A·S = det(T · In − S −1 · A · S)
= det(S −1 · T · In · S − S −1 · A · S)

= det S −1 · (T · In − A) · S
1
= · det(T · In − A) · det S
det S
= χA ,

wie behauptet.

Korollar 6.3.17 (charakteristisches Polynom eines Endomorphismus). Sei K ein


Körper und sei f : V −→ V ein Endomorphismus eines endlich-dimensionalen
K-Vektorraums V mit dimK V > 0. Für alle Basen B und C von V gilt

χMB,B (f ) = χMC,C (f ) .
180 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

Man bezeichnet daher χf := χMB,B (f ) als charakteristisches Polynom von f .

Beweis. Dies ist eine direkte Folgerung aus der Konjugationsinvarianz des
charakteristischen Polynoms (Proposition 6.3.16) und dem Zusammenhang
zwischen darstellenden Matrizen eines Endomorphismus (Korollar 5.1.21).

Zum Beispiel erhält man daraus auch die Unabhängigkeit der Spur von
der gewählten Basis:

Bemerkung 6.3.18 (Spur). Sei K ein Körper und sei n ∈ N. Die Spur (eng-
lisch: trace) einer Matrix A ∈ Mn×n (K) ist definiert als die Summe ihrer
Diagonaleintrage, d.h.
n
X
tr A := Aj,j ∈ K.
j=1

Mithilfe der Leibniz-Formel kann man nachrechnen, dass − tr A der Koeffizi-


ent von T n−1 in χA ist.
Mit Proposition 6.3.16 folgt somit, dass die Spur von Matrizen konjugati-
onsinvariant ist. Insbesondere gilt: Ist f : V −→ V ein Endomorphismus eines
endlich-dimensionalen K-Vektorraums V und sind B, C Basen von V , so gilt

tr MB,B (f ) = tr MC,C (f ).

Man bezeichnet daher tr f := tr MB,B (f ) als Spur von f .


Alternativ kann man die Konjugationsinvarianz der Spur wie folgt zeigen:
Nachrechnen mithilfe der Definition der Matrixmultiplikation zeigt, dass

tr(A · B) = tr(B · A)

für alle A, B ∈ Mn×n (K) gilt (sogenannte Spureigenschaft). Damit folgt für
alle A ∈ Mn×n (K) und alle S ∈ GLn (K), dass
 
tr(S −1 · A · S) = tr S · (S −1 · A) = tr (S · S −1 ) · A = tr(In · A) = tr A.

6.4 Ausblick: Die Jordansche Normalform


Zum Abschluss geben wir nun einen Ausblick auf die allgemeine Klassifika-
tion von Endomorphismen bzw. quadratischen Matrizen. Wir gehen dabei
insbesondere auf den Fall ein, dass der Grundkörper C ist; in diesem Fall ist
die Klassifikation durch die sogenannte Jordansche Normalform gegeben.
6.4. Ausblick: Die Jordansche Normalform 181

6.4.1 Ähnlichkeit von Matrizen


Es bietet sich an, die Klassifikation von Endomorphismen von endlich-
dimensionalen Vektorräumen mithilfe von Matrizen durchzuführen. Da ja
aber Endomorphismen keine kanonischen Matrizen zugeordnet werden können
(Wahl von Basen!), benötigen wir eine Klassifikation von Matrizen bis auf
Konjugation.

Definition 6.4.1 (ähnlich). Quadratische Matrizen heißen ähnlich zueinan-


der, wenn sie konjugiert sind. Genauer: Sei K ein Körper, sei n ∈ N. Ma-
trizen A, B ∈ Mn×n (K) sind ähnlich, wenn es eine Matrix S ∈ GLn (K)
mit
B = S −1 · A · S
gibt.

In dieser Terminologie ist eine Matrix also genau dann diagonalisierbar,


wenn sie zu einer Diagonalmatrix ähnlich ist.

Beispiel 6.4.2. Die Matrizen


   
1 0 2 0
und
0 2 0 1

in M2×2 (R) sind ähnlich zueinander, denn


   −1    
1 0 0 1 2 0 0 1
= · · .
0 2 1 0 0 1 1 0

Außerdem haben wir in Beispiel 5.1.13 gesehen, dass die zweite Matrix zu
 
3 −1
∈ M2×2 (R)
2 0

ähnlich ist. Diese drei Matrizen sind aber nicht ähnlich zur Nullmatrix oder
zur Einheitsmatrix I2 (nachrechnen).

Proposition 6.4.3 (Ähnlichkeit ist eine Äquivalenzrelation). Sei K ein Körper


und sei n ∈ N. Die Relation auf Mn×n (K), die durch Ähnlichkeit gegeben ist,
ist eine Äquivalenzrelation.

Beweis. Reflexivität erhält man durch Konjugation mit der Einheitsmatrix,


Symmetrie durch Konjugation mit Inversen, und Transitivität durch Konju-
gation mit Produkten (nachrechnen).

Proposition 6.4.4 (Ähnlichkeit und Basiswechsel). Sei K ein Körper und,


sei f : V −→ V ein Endomorpismus eines endlich-dimensionalen K-Vektor-
182 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

raums V und sei B eine Basis von V . Sei A ∈ MdimK V ×dimK V (K) Dann
sind folgende Aussagen äquivalent:

1. Die Matrix A ist ähnlich zu MB,B (f ).

2. Es gibt eine Basis C von V mit A = MC,C (f ).

Beweis. Dies ist einfach nur eine Umformulierung von Korollar 5.1.21.

Das Klassifikationsproblem für Endomorphismen von endlich-dimensionalen


Vektorräumen kann also mithilfe von Matrizen wie folgt formuliert werden:

Frage 6.4.5 (Klassifikation von Matrizen). Sei K ein Körper und n ∈ N. Wie
kann man den Quotienten

Mn×n (K) Ähnlichkeit

(d.h. die Menge aller Äquivalenzklassen von Matrizen in Mn×n (K) bezüglich
Ähnlichkeit) beschreiben?

Ein erster Schritt in Richtung Klassifikation sind Invarianten unter Ähnlich-


keit:

Bemerkung 6.4.6 (Invarianten). Sei X eine Menge und sei ∼“ eine Äquiva-

lenzrelation auf X. Sei Y ein Menge. Eine ∼“-Invariante auf X mit Werten

in Y ist eine Abbildung I : X/∼ −→ Y . Wie helfen Invarianten bei der Klassi-
fikation von X bezüglich ∼“? Sei I : X/ ∼−→ Y eine ∼“-Invariante auf X.
” ”
Sind x, y ∈ X mit I(x) 6= I(y), so folgt x 6∼ y. Man beachte aber, dass die
Umkehrung im allgemeinen nicht gilt! (Zum Beispiel kann man immer trivia-
le Invarianten in einelementigen Mengen betrachten . . . ). Die Kunst besteht
nun darin, eine Invariante zu finden, die

ˆ hinreichend viele Äquivalenzklassen unterscheiden kann

ˆ und trotzdem einigermaßen berechenbar ist.

Proposition 6.4.7 (Invarianten unter Ähnlichkeit). Sei K ein Körper, sei n ∈ N


und seien A, B ∈ Mn×n (K) ähnliche Matrizen. Dann gilt:

1. Es ist rg A = rg B.

2. Es ist σK (A) = σK (B) und für alle λ ∈ σK (A) gilt

dimK Eigλ (A) = dimK Eigλ (B).

3. Es gilt χA = χB und tr A = tr B.

Beweis. Dies ist nur eine Zusammenstellung bereits bewiesener Resultate.


6.4. Ausblick: Die Jordansche Normalform 183

Insbesondere folgt also: Haben Matrizen z.B. unterschiedliche charakteri-


stische Polynome, so sind sie nicht ähnlich.
Frage 6.4.8 (vollständige Invarianten?). Sei K ein Körper und n ∈ N. Durch
welche (einigermaßen berechenbare(n)) Invariante(n)) kann man den Quoti-
enten Mn×n (K)/Ähnlichkeit vollständig beschreiben?

6.4.2 Die Jordansche Normalform


Im Fall des Grundkörpers C löst die sogenannte Jordansche Normalform die-
ses Klassifikationsproblem. Die Bausteine dieser Normalform sind die Jor-
danblöcke.
Definition 6.4.9 (Jordanblock). Sei K ein Körper, sei n ∈ N und sei λ ∈ K.
Der Jordanblock der Größe n zum Eigenwert λ ist die Matrix
 
λ 1 0 ... 0
0 λ 1 . . . 0
 
 
Jn (λ) :=  0 0 . . . . . . ...  ∈ Mn×n (K).
 
0 0 . . . λ 1
0 0 ... 0 λ

Bemerkung 6.4.10 (Eigenwerte und geometrische Vielfachheit von Jordan-


blöcken). Sei K ein Körper, sei n ∈ N>0 und sei λ ∈ K. Dann besitzt Jn (λ)
genau einen Eigenwert, nämlich λ, und dieser hat die geometrische Vielfach-
heit 1 (nachrechnen; siehe auch Beispiel 6.1.7).
Satz 6.4.11 (Jordansche Normalform). Sei n ∈ N und sei A ∈ Mn×n (C).
Seien λ1 , . . . , λr ∈ C die Eigenwerte von A und seien

∀j∈{1,...,r} nj := dimC Eigλj (A)

die geometrischen Vielfachheiten der Eigenwerte von A. Dann gibt es zu je-


dem j ∈ {1, . . . , r} eindeutig bestimmte natürliche Zahlen

mj,1 ≤ · · · ≤ mj,nj

mit der Eigenschaft, dass A zu der Blockmatrix in Abbildung 6.1, bestehend


aus den Jordanblöcken

Jm1,1 (λ1 ), . . . , Jm1,n1 (λ1 ), Jm2,1 (λ2 ), . . . , Jmr,nr (λr ),

ähnlich ist (in Mn×n (C)). Dabei gilt


r
Y Pnk
mj,k
χA = (T − λj ) k=1 .
j=1
184 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

Jm1,1 (λ1 )

sonst nur Nullen

Jm1,2 (λ1 )

..
.

Jm1,n1 (λ1 )

Jm2,1 (λ2 )

..
.
sonst nur Nullen

Jmr,nr (λr )

Abbildung 6.1.: Jordansche Normalform

In anderen Worten: Die Eigenwerte, geometrischen Vielfachheiten und die


Größen der Jordanblöcke zu den entsprechenden Eigenwerten bilden zusam-
men eine vollständige Invariante für Mn×n (C)/Ähnlichkeit.
Bei einer diagonalisierbaren Matrix haben alle Jordanblöcke das For-
mat 1 × 1. Umgekehrt zeigt der obige Satz, in welchem Sinne jede Matrix
in Mn×n (C) fast“ diagonalisierbar ist.

Eines der Hauptziele der Linearen Algebra II wird es sein, diesen Satz
über die Jordansche Normalform zu beweisen. Der Beweis beruht auf dem
Fundamentalsatz der Algebra und einer geschickten Anwendung der etwas
allgemeineren Modultheorie über dem Polynomring C[T ].

Caveat 6.4.12. Nicht jede reelle Matrix besitzt eine Jordansche Normalform
mit reellen Jordanblöcken (zum Beispiel Rotationsmatrizen zu nicht-trivialen
Winkeln).
6.4. Ausblick: Die Jordansche Normalform 185

Die Jordansche Normalform ist nicht nur aus Sicht der Linearen Algebra an
sich interessant, sondern ist auch in vielen Anwendungen essentiell. So liefert
die Jordansche Normalform zum Beispiel den Schlüssel zur Lösung linearer
Differentialgleichungssysteme (Analysis II). Wir werden daher in der Linea-
ren Algebra II nicht nur den Beweis für die Jordansche Normalform liefern,
sondern uns auch überlegen, wie man die Jordansche Normalform (und zu-
gehörige Ähnlichkeitstransformationen) einer gegebenen Matrix bestimmen
kann.

6.4.3 Die Jordansche Normalform in Dimension 2


Wir geben im folgenden einen elementaren Beweis des Satzes über die Jordan-
sche Normalform in Dimension 2: Sei A ∈ M2×2 (C).

1. Dann gibt es λ1 , λ2 ∈ C mit χA = (T − λ1 ) · (T − λ2 ), denn: Nach


Definition ist

χA = det(T · I2 − A)
 
T − A11 −A12
= det
−A21 T − A22
= (T − A11 ) · (T − A22 ) − A21 · A12
= T 2 − (A11 + A22 ) · T + A11 · A22 − A21 · A12 .

Eine elementare Rechnung zeigt nun (Mitternachtsformel für komplexe


Zahlen . . . ), dass es λ1 , λ2 ∈ C gibt mit

χA = (T − λ1 ) · (T − λ2 ).

Insbesondere ist σC (A) = {λ1 , λ2 }.

2. Wir begeben uns nun in eine Fallunterscheidung:


ˆ Falls λ1 6= λ2 ist, so hat die 2 × 2-Matrix A zwei verschiedene
komplexe Eigenwerte und ist somit (über C) diagonalisierbar und
zur Matrix  
λ1 0
0 λ2
ähnlich.
ˆ Falls λ1 = λ2 ist: Wir schreiben λ := λ1 = λ2 .
– Falls der Eigenwert λ die geometrische Vielfachheit 2 besitzt,
ist A diagonalisierbar und zur Matrix
 
λ 0
λ · I2 =
0 λ
186 6. Normalformen I: Eigenwerte und Diagonalisierbarkeit

ähnlich.
– Falls der Eigenwert λ die geometrische Vielfachheit 1 besitzt:
Sei v ∈ C2 ein Eigenvektro zum Eigenwert λ von A. Dann
ergänzen wir v zu einer Basis B := (v, w) von C2 ; insbesondere
gibt es dann auch α, β ∈ C mit

A · w = α · v + β · w.

Da die geometrische Vielfachheit des Eigenwerts λ von A


gleich 1 ist, da v und w linear unabhängig sind und da A kei-
ne weiteren Eigenwerte besitzt, ist w kein Eigenvektor von A.
Also ist α 6= 0. Außerdem gilt (die Spalten sind die Bilder der
Basisvektoren . . . )
 
−1 λ α
MB · A · MB = .
0 β

Wegen der Konjugationsinvarianz des charakteristischen Po-


lynoms erhalten wir

(T − λ) · (T − β) = χM −1 ·A·MB = χA = (T − λ)2 ,
B

und damit (Nullstellen . . . ), dass β = λ. Die obige konjugier-


te Matrix von A hat also bereits fast die richtige Form. Wir
definieren nun
1
w0 := · w.
α
Dann ist B 0 := (v, w0 ) eine Basis von C2 und
α 1
A · w0 = · v + · λ · w = v + λ · w0 .
α α
Somit folgt (die Spalten . . . )
 
λ 1
MB−10 · A · MB 0 = = J2 (λ).
0 λ

Insbesondere ist A zu J2 (λ) ähnlich.


Wir haben damit gezeigt, dass A ähnlich zu einer Blockmatrix mit
Jordanblöcken ist. Dass die Größen und Eigenwerte der Jordan-
blöcke eindeutig bestimmt sind, folgt in diesem Fall bereits daraus,
dass Eigenwerte und geometrische Vielfachheiten Ähnlichkeits-
Invarianten sind (da gar kein Platz für andere Jordanblock-Kon-
stellationen ist).
A
Anhang

Überblick über dieses Kapitel.

A.1 Das griechische Alphabet A3


A.2 Konstruktion der natürlichen Zahlen A5
A.3 Das Spiel SET A7
A.4 Mächtigkeit von Mengen A9
A.5 Kategorien A 11
A.6 Elementare Analysis von Sinus und Kosinus A 15
A.7 Funktoren A 17
A.8 3D-Druck A 21
A2 A. Anhang
A.1. Das griechische Alphabet A3

A.1 Das griechische Alphabet

Symbol Name TEX-/LATEX-Kommando

A α alpha A \alpha
B β beta B \beta
Γ γ gamma \Gamma \gamma
∆ δ delta \Delta \delta
E ε,  epsilon E \varepsilon , \epsilon
Z ζ zeta Z \zeta
H η eta H \eta
Θ ϑ, θ theta \Theta \vartheta , \theta
I ι iota I \iota
K κ kappa K \kappa
Λ λ lambda \Lambda \lambda
M µ my M \mu
N ν ny N \nu
Ξ ξ xi \Xi \xi
O o omikron O o
Π π pi \Pi \pi
P %, ρ rho P \varrho , \rho
Σ σ, ς sigma \Sigma \sigma , \varsigma
T τ tau T \tau
Y υ ypsilon Y \upsilon
Φ ϕ, φ phi \Phi \varphi , \phi
X χ chi X \chi
Ψ ψ psi \Psi \psi
Ω ω omega \Omega \omega
A4 A. Anhang
A.2. Konstruktion der natürlichen Zahlen A5

A.2 Konstruktion der natürlichen Zahlen


Wir skizzieren kurz einen Beweis der Konstruktion bzw. Eindeutigkeit der
natürlichen Zahlen, aufbauend auf der axiomatischen Mengenlehre und den
Peano-Axiomen.
Satz A.2.1 (Modelle der Peano-Axiome).
1. Es existiert ein Tripel, das die Peano-Axiome erfüllt.
2. Je zwei Tripel, die die Peano-Axiome erfüllen, sind kanonisch iso-
morph; genauer: Erfüllen (N, 0, s) und (N 0 , 00 , s0 ) die Peano-Axiome,
so gibt es genau eine Bijektion f : N −→ N 0 mit f (0) = 00 und der
Eigenschaft, dass für alle n ∈ N gilt, dass f (s(n)) = s0 (f (n)).
Beweis. Existenz. Wir betrachten
\
N := {A | A ist eine induktive Menge},

also sozusagen die kleinste induktive Menge“. Nach dem Unendlichkeitsaxi-



om gibt es mindestens eine induktive Menge; insbesondere ist ∅ ∈ N und
somit ist N nicht-leer. Nach dem Teilmengenaxiom ist N eine Menge und
aus der Definition von N folgt leicht, dass N induktiv ist.
Wir definieren nun 0 als das Element ∅ ∈ N und

s : N −→ N
x 7−→ x ∪ {x}

(letztere Definition funktioniert, da N eine induktive Menge ist).


Durch sorgfältiges Nachrechnen kann man nun zeigen, dass dieses Tri-
pel (N, 0, s) tatsächlich die Peano-Axiome erfüllt.
Eindeutigkeit. Erfüllen (N, 0, s) und (N 0 , 00 , s0 ) die Peano-Axiome, so de-
finieren wir mithilfe des Rekursionssatzes Abbildungen f : N −→ N 0 und
f 0 : N 0 −→ N durch
ˆ f (0) := 00 und f (s(n)) := s0 (f (n)) für alle n ∈ N ,
ˆ f 0 (00 ) := 00 und f 0 (s0 (n)) := s(f 0 (n)) für alle n ∈ N 0 .
Dann erfüllen f 0 ◦ f bzw. f ◦ f 0 die Rekursion für idN bzw. idN 0 . Aus der
Eindeutigkeitsaussage im Rekursionssatz folgt daher f 0 ◦ f = idN und auch
f ◦ f 0 = idN 0 . Also ist f : N −→ N 0 bijektiv und nach Konstruktion mit s
bzw. s0 verträglich. Außerdem folgt mit der Eindeutigkeitsaussage aus dem
Rekursionssatz auch, dass es nur eine solche strukturerhaltende Bijektion
geben kann.
A6 A. Anhang
A.3. Das Spiel SET A7

A.3 Das Spiel SET


Das Kartenspiel SET1 wird mit 81 Karten gespielt. Jede der Karten zeigt
vier Attribute, wobei die Attribute die folgenden Werte annehmen können:

Typ mögliche Werte


Anzahl 1, 2, 3
Schattierung gefüllt, gestreift, leer
Farbe rot, grün, violett
Form Oval, Schlange, Raute

Zu jeder Werte-Kombination der vier Attribute gibt es genau eine Karte.


Ziel des Spieles ist es, unter den ausliegenden Karten ein sogenanntes SET
von drei Karten zu finden, d.h. drei Karten zu finden, so dass die Karten
bezüglich jedem der vier Attribute entweder alle gleich oder alle unterschied-
lich sind.
Beispiel A.3.1. Die folgenden drei Karten bilden ein SET:

Andererseits bilden die folgende Karten kein SET:

Zu Beginn des Spiels werden zwölf Karten offen auf den Tisch gelegt.
Alle Spieler betrachten diese Karten gleichzeitig; wer ein SET entdeckt, ruft
SET!“ und entfernt die entsprechenden drei Karten. Daraufhin werden die

offenen Karten auf dem Tisch durch drei neue Karten ergänzt, etc.
Es kann aber passieren, dass es unter den ausliegenden Karten kein SET
gibt. In diesem Fall werden so lange weitere offene Karten hinzugefügt bis ein
SET auffindbar ist. In diesem Zusammenhang stellt sich die folgende Frage:
Frage A.3.2. Was ist die maximale Anzahl an Karten, die kein SET enthält?
Wir geben nun eine Übersetzung dieser Frage in lineare Algebra an: Dazu
betrachten wir den F3 -Vektorraum F43 , wobei F3 der folgende Körper ist:
1 SET ist eine Trademark von SET Enterprises, Inc.
A8 A. Anhang

Bemerkung A.3.3 (der Körper F3 ). Sei F3 := {0, 1, 2}. Dann bildet F3 mit
der folgenden Addition und der folgenden Multiplikation einen Körper (nach-
rechnen!):

+ 0 1 2 · 0 1 2
0 0 1 2 0 0 0 0
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1

Dabei handelt es sich um Addition bzw. Multiplikation modulo“ 3, d.h.



um die Addition bzw. Multiplikation von Resten bei Division durch 3. Der
Körper F3 hat nach Konstruktion Charakteristik 3.
Die vier Koordinaten-Achsen von F43 entsprechen dabei den vier Attribu-
ten, die Koordinaten-Einträge aus F3 den drei jeweils möglichen Werten des
Attributs. Der F3 -Vektorraum F43 hat also genau 34 = 81 Elemente.
Man stellt nun leicht fest, dass eine drei-elementige Teilmenge von F43 ge-
nau dann ein SET bildet, wenn sie eine affine Gerade in F43 ist. Wir betrachten
dazu eine einzelne Koordinate (d.h. ein Attribut). Eine einfache Rechnung
zeigt, dass

{x + F3 · y | x, y ∈ F3 } = {x} x ∈ F3 ∪ {F3 }

gilt. Der erste Teil der Menge auf der rechten Seite entspricht dann dem Fall,
dass die Werte dieses Attributs bei allen drei Karten gleich sind; der zweite
Teil entspricht dem Fall, dass die Werte des betrachteten Attributs bei allen
drei Karten verschieden sind.
Frage A.3.2 ist also äquivalent zur folgenden Frage:

Frage A.3.4. Wieviele Elemente kann eine Teilmenge von F43 höchstens be-
sitzen, die keine affine Gerade enthält?
Man kann mit elementaren Mitteln der linearen Algebra und der Kombina-
torik zeigen, dass die Antwort auf diese Frage 20 ist [5]; die Formulierung als
geometrisches Problem hilft in diesem Fall dabei, die Argumente übersichtlich
zu organisiern. Je 21 SET-Karten enthalten also mindestens ein SET.
A.4. Mächtigkeit von Mengen A9

A.4 Mächtigkeit von Mengen


Wir stellen im folgenden kurz vor, wie man die Größe“ von Mengen angeben

bzw. vergleichen kann:
Definition A.4.1 (gleichmächtig). Mengen X und Y heißen gleichmächtig,
wenn es eine Bijektion X −→ Y gibt. Wenn X und Y gleichmächtig sind,
sagt man auch, dass X und Y dieselbe Kardinalität haben und schreibt in
diesem Fall |X| = |Y |.
Bemerkung A.4.2. Gleichmächtig zu sein ist reflexiv, symmetrisch und tran-
sitiv (wie man leicht an der Charakterisierung von Bijektivität über Umkehr-
abbildungen in Proposition 1.3.32 sehen kann).
Beispiel A.4.3 (Potenzmengen sind groß“). Ist X eine Menge, so ist

X −→ P (X)
x 7−→ {x}

eine injektive Abbildung. Aber es gibt keine bijektive Abbildung X −→ P (X)


(Übungsaufgabe). Insbesondere ist |X| = 6 |P (X)|.
Satz A.4.4 (Satz von Schröder-Bernstein). Sind X und Y Mengen und gibt es
injektive Abbildungen X −→ Y und Y −→ X, so gilt bereits |X| = |Y |.
Beweis. Dies kann zum Beispiel mit einem geeigneten Fixpunktsatz für mo-
notone mengenwertige Abbildungen gezeigt werden (Übungsaufgabe).
Proposition A.4.5 (kleine Mengen und Mächtigkeit). Sei n ∈ N.
1. Ist m ∈ N und gibt es eine injektive Abbildung {1, . . . , m} −→ {1, . . . , n},
so folgt m ≤ n.
2. Ist m ∈ N und gibt es eine surjektive Abbildung {1, . . . , m} −→
{1, . . . , n}, so folgt n ≤ m.
3. Insbesondere gilt: Ist m ∈ N und sind {1, . . . , m} und {1, . . . , n}
gleichmächtig, so folgt m = n.
Beweis. Die ersten beiden Aussagen folgen durch eine geschickte Induktion.
Der dritte Teil ist eine direkte Folgerung aus den ersten beiden Teilen.
Definition A.4.6 (endlich, unendlich).
ˆ Eine Menge X ist endlich, wenn es ein n ∈ N mit |X| = |{1, . . . , n}|
gibt. In diesem Fall schreibt man auch |X| = n (dies ist nach Proposi-
tion A.4.5 wohldefiniert).
A 10 A. Anhang

ˆ Eine Menge ist unendlich, wenn sie nicht endlich ist.

Man beachte, dass die leere Menge endlich ist, da

∅ = {k ∈ N | 1 ≤ k ∧ k ≤ 0} = {1, . . . , 0}.

Nach obiger Definition ist dabei |∅| = 0.


Satz A.4.7 (Unendlichkeit und N). Sei X eine Menge. Dann ist X genau dann
unendlich, wenn es eine injektive Abbildung N −→ X gibt.

Beweisskizze (AC). Falls es eine injektive Abbildung N −→ X gibt, so folgt


mit Proposition A.4.5, dass X nicht endlich (und somit unendlich) ist.
Ist umgekehrt X eine unendliche Menge, so kann man induktiv (mithilfe
des Rekursionssatzes und einer geeigneten Variante des Auswahlaxioms) eine
injektive Abbildung N −→ X konstruieren.
Definition A.4.8 (abzählbar unendlich, höchstens abzählbar, überabzählbar).

ˆ Eine Menge X heißt abzählbar unendlich, wenn |X| = |N| gilt.

ˆ Eine Menge heißt höchstens abzählbar, wenn sie endlich oder abzählbar
unendlich ist.
ˆ Eine Menge heißt überabzählbar unendlich, wenn sie unendlich aber
nicht abzählbar unendlich ist.
Beispiel A.4.9. Die Menge N × N ist abzählbar unendlich (diagonales Zick-
zack!), die Menge Q ist abzählbar unendlich, aber die Menge R ist nicht
abzählbar unendlich (Cantorsches Diagonalargument).
Caveat A.4.10 (Kontinuumshypothese). Ob es eine Menge X gibt, die nicht
abzählbar unendlich ist, und für die es keine injektive Abbildung R −→ X
gibt, ist unabhängig von den Axiomen der Mengenlehre(!). Diese Aussage
kann also weder aus den Axiomen der Mengenlehre gefolgert noch widerlegt
werden.
A.5. Kategorien A 11

A.5 Kategorien
Mathematische Theorien bestehen aus Objekten (z.B. Gruppen, reelle Vek-
torräume, topologische Räume, messbare Räume, . . . ) und strukturerhalten-
den Abbildungen (z.B. Gruppenhomomorphismen, R-lineare Abbildungen,
stetige Abbildungen, messbare Abbildungen, . . . ) dazwischen. Dies abstra-
hiert man zum Begriff der Kategorie [13, 3]:

Definition A.5.1 (Kategorie). Eine Kategorie C besteht aus den folgenden


Komponenten:

ˆ Eine Klasse Ob(C); die Elemente von Ob(C) heißen Objekte von C.

ˆ Zu je zwei Objekten X, Y ∈ Ob(C) einer Menge MorC (X, Y ); die Ele-


mente von MorC (X, Y ) heißen Morphismen von X nach Y in C. (Dabei
wird implizit angenommen, dass die Morphismenmengen zwischen ver-
schiedenen Objektpaaren disjunkt sind.)

ˆ Zu je drei Objekten X, Y, Z ∈ Ob(C) einer Verknüpfung

◦ : MorC (Y, Z) × MorC (X, Y ) −→ MorC (X, Z)


(g, f ) 7−→ g ◦ f

von Morphismen.

Dabei müssen folgende Bedingungen erfüllt sein:

ˆ Für jedes Objekt X in C gibt es einen Morphismus idX ∈ MorC (X, X)


mit folgender Eigenschaft: Für alle Y ∈ Ob(C) und alle Morphis-
men f ∈ MorC (X, Y ) bzw. g ∈ MorC (Y, X) gilt

f ◦ idX = f und idX ◦g = g.

(Dadurch ist idX eindeutig bestimmt und heißt Identitätsmorphismus


von X in C.)

ˆ Die Verknüpfung von Morphismen ist assoziativ: Für alle Objekte W ,


X, Y , Z in C und alle Morphismen f ∈ MorC (W, X), g ∈ MorC (X, Y )
und h ∈ MorC (Y, Z) gilt

h ◦ (g ◦ f ) = (h ◦ g) ◦ f.

Caveat A.5.2. Das Konzept der Morphismen und Verknüpfungen ist nach
dem Beispiel der Abbildungen zwischen Mengen und der gewöhnlichen Ab-
bildungskomposition modelliert. Im allgemeinen muss es sich bei Morphismen
A 12 A. Anhang

aber nicht um Abbildungen zwischen Mengen und bei der Verknüpfung nicht
um Abbildungskomposition handeln!
Beispiel A.5.3 (leere Kategorie). Die leere Kategorie ist die (eindeutig be-
stimmte) Kategorie, deren Objektklasse die leere Menge ist.
Beispiel A.5.4 (Gruppen als Kategorien). Sei G eine Gruppe. Dann erhalten
wir wie folgt eine Kategorie CG :
ˆ Objekte: Die Kategorie CG besitze genau ein Objekt, etwa 0.
ˆ Morphismen: Es sei MorC (0, 0) := G.
ˆ Verknüpfungen: Die Verknüpfung sei wie folgt gegeben:

MorC (0, 0) × MorC (0, 0) −→ MorC (0, 0)


(g, h) 7−→ g · h.

Beispiel A.5.5 (Mengenlehre). Die Kategorie Set der Mengen besteht aus:
ˆ Objekte: Es sei Ob(Set) die Klasse(!) aller Mengen.
ˆ Morphismen: Sind X und Y Mengen, so sei MorSet (X, Y ) die Menge
aller mengentheoretischen Abbildungen X −→ Y .
ˆ Verknüpfungen: Sind X, Y und Z Mengen, so sei die Verknüpfung
MorSet (Y, Z) × MorSet (X, Y ) −→ MorSet (X, Z) die gewöhnliche Abbil-
dungskomposition.
Es ist klar, dass die Verknüpfung assoziativ ist. Ist X eine Menge, so ist die
gewöhnliche Identitätsabbildung

X −→ X
x 7−→ x

der Identitätsmorphismus idX von X in Set.


Beispiel A.5.6 (lineare Algebra). Die Kategorie VectR der R-Vektorräume be-
steht aus:
ˆ Objekte: Es sei Ob(VectR ) die Klasse aller R-Vektorräume.
ˆ Morphismen: Sind V und W reelle Vektorräume, so sei MorVectR (V, W )
die Menge aller lineare Abbildungen V −→ W .
ˆ Verknüpfungen: Die Verknüpfung sei durch die gewöhnliche Abbil-
dungskomposition gegeben.
Analog erhält man auch die Kategorie Group der Gruppen, die Kategorie Ab
der abelschen Gruppen, . . .
A.5. Kategorien A 13

Beispiel A.5.7 (Topologie). Die Kategorie Top der topologischen Räume be-
steht aus:
ˆ Objekte: Es sei Ob(Top) die Klasse aller topologischen Räume.

ˆ Morphismen: Sind X und Y topologische Räume, so sei

map(X, Y ) := MorTop (X, Y )

die Menge aller stetigen Abbildungen X −→ Y .

ˆ Verknüpfungen: Die Verknüpfung sei durch die gewöhnliche Abbil-


dungskomposition gegeben.
Alle Begriffe, die sich durch Objekte und (Komposition von) Morphismen
ausdrücken lassen, lassen sich zu entsprechenden Begriffen in allgemeinen
Kategorien verallgemeinern. Ein erstes Beispiel ist der Isomorphiebegriff:

Definition A.5.8 (Isomorphismus). Sei C eine Kategorie. Objekte X, Y ∈


Ob(C) sind isomorph in C, wenn es Morphismen f ∈ MorC (X, Y ) und
g ∈ MorC (Y, X) mit

g ◦ f = idX und f ◦ g = idY

gibt. In diesem Fall sind f und g Isomorphismen in C und wir schreiben


X∼ =C Y (oder wenn die Kategorie aus dem Kontext klar ist: X ∼
= Y ).
Beispiel A.5.9 (Isomorphismenbegriffe).
ˆ Objekte in Set sind genau dann isomorph, wenn sie gleichmächtig sind.

ˆ Objekte in Group, Ab, VectR , . . . sind genau dann im obigen Sinne


isomorph, wenn sie im gewöhnlichen algebraischen Sinne isomorph sind.
ˆ Objekte in Top sind genau dann isomorph, wenn sie homöomorph sind.

Definition A.5.10 (Automorphismengruppe). Sei C eine Kategorie und sei


X ∈ Ob(C). Dann bildet die Menge Aut(X) aller Isomorphismen X −→ X
in C bezüglich der Komposition von Morphismen in C eine Gruppe, die Au-
tomorphismengruppe von X in C.
A 14 A. Anhang
A.6. Elementare Analysis von Sinus und Kosinus A 15

A.6 Elementare Analysis von Sinus und Kosinus


Im folgenden ist der analytische Zugang zu Sinus, Kosinus und π kurz zu-
sammengefasst. Der Zusammenhang mit der Anschauung zu Winkeln am
Kreisbogen ergibt sich daraus erst durch Berechnung der Länge geeigneter
Kreisbögen (s. Analysis I/II).
Definition A.6.1 (Sinus, Kosinus). Die Funktionen Sinus und Kosinus sind
durch die folgenden (überall absolut konvergenten!) Potenzreihen gegeben:

cos : R −→ R
X∞
(−1)n 2n
x 7−→ ·x
n=0
(2n)!
sin : R −→ R
X∞
(−1)n
x 7−→ · x2n+1 .
n=0
(2n + 1)!

Graphische Darstellung. Auswertung der obigen Ausdrücke an vielen Punk-


ten ergibt die graphische Darstellung von cos bzw. sin in Abbildung A.1.

1
cos

1
sin

Abbildung A.1.: Graphische Darstellung von cos und sin

Symmetrie. Nach Definition gilt für alle x ∈ R, dass

cos(−x) = cos(x) und sin(−x) = − sin(x).

Differenzierbarkeit/Ableitungen. Aus allgemeinen Eigenschaften von Po-


tenzreihen erhalten wir: Die Funktionen cos und sin sind glatt und für die
Ableitungen gilt (gliedweises Differenzieren!)

cos0 = − sin und sin0 = cos .


A 16 A. Anhang

Quadratsumme. Es gilt
cos2 + sin2 = 1,
denn (cos2 + sin2 )0 = 0 und cos2 (0) + sin2 (0) = 1.
Die Zahl π und ihre Hälfte. Eine sorgfältige Abschätzung von Hand der
Potenzreihe zeigt, dass sin(x) > 0 für alle x ∈ (0, 2] gilt; also ist cos we-
gen cos0 = − sin auf [0, 2] streng monoton fallend. Außerdem zeigt eine
Abschätzung von Hand, dass cos(2) < 0 ist. Also hat cos in [0, 2] genau
eine Nullstelle x0 . Wir definieren

π := 2 · x0 .

Nach Definition ist cos(π/2) = 0. Aus der Quadratsumme und der Positivität
von sin auf [0, 2] folgt sin(π/2) = 1.
Additionstheoreme. Mithilfe des Cauchyprodukts von Potenzreihen kann
man nachrechnen, dass

cos(x + y) = cos x · cos y − sin x · sin y,


sin(x + y) = sin x · cos y + cos x · sin y

für alle x, y ∈ R gilt. Insbesondere erhält man daraus aus den bereits bekann-
ten Werten, dass

cos(π) = −1, sin(π) = 0, cos(2 · π) = 1, sin(2 · π) = 0.

Periodizität. Aus den Additionstheoremen und den bereits berechneten spe-


ziellen Werten ergibt sich

cos(x + 2 · π) = cos(x)
sin(x + 2 · π) = sin(x)
 π
cos x − = sin(x)
2
für alle x ∈ R.
Invertierbarkeit. Aus den bereits gezeigten Positivitäts- und Symmetrieei-
genschaften sowie den bereits berechneten Werten folgt, dass

cos : [0, π] −→ [−1, 1]


sin : [−π/2, π/2] −→ [−1, 1]

Homöomorphismen sind; die inversen Funktionen bezeichnet man mit arccos


bzw. arcsin.
A.7. Funktoren A 17

A.7 Funktoren
Die Übersetzung zwischen mathematischen Theorien (d.h. zwischen Katego-
rien) erfolgt durch sogenannte Funktoren. Grob gesagt handelt es sich dabei
um strukturerhaltende Abbildungen zwischen Kategorien“.

Definition A.7.1 (Funktor). Seien C und D Kategorien. Ein (kovarianter)
Funktor F : C −→ D besteht aus folgenden Komponenten:
ˆ Einer Abbildung F : Ob(C) −→ Ob(D).
ˆ Zu je zwei Objekten X, Y ∈ Ob(C) einer Abbildung

F : MorC (X, Y ) −→ MorC F (X), F (Y ) .

Dabei müssen folgende Bedingungen erfüllt sein:


ˆ Für alle X ∈ Ob(C) ist F (idX ) = idF (X) .
ˆ Für alle X, Y, Z ∈ Ob(C) und alle f ∈ MorC (X, Y ), g ∈ MorC (Y, Z)
gilt
F (g ◦ f ) = F (g) ◦ F (f ).

Beispiel A.7.2 (Identitätsfunktor). Sei C eine Kategorie. Dann ist der Iden-
titätsfunktor IdC : C −→ C wie folgt definiert:
ˆ Auf Objekten betrachten wir die Abbildung

Ob(C) −→ Ob(C)
X 7−→ X.

ˆ Auf Morphismen: Für alle X, Y ∈ Ob(C) betrachten wir

MorC (X, Y ) −→ MorC (X, Y )


f 7−→ f.

Beispiel A.7.3 (Vergissfunktor). Der Vergissfunktor VectR −→ Set ist wie folgt
definiert:
ˆ Auf Objekten betrachten wir die Abbildung Ob(VectR ) −→ Ob(Set),
die einem R-Vektorraum die unterliegende Menge zuordnet.
ˆ Auf Morphismen: Für alle R-Vektorräume X, Y betrachten wir

MorTop (X, Y ) = HomR (X, Y ) −→ MorSet (X, Y )


f 7−→ f.
A 18 A. Anhang

Analog erhält man Vergissfunktoren Top −→ Set, VectR −→ Ab, . . .


Beispiel A.7.4 (basierte Vektorräume). Man kann die Mengenlehre über den
folgenden Funktor F : Set −→ VectR in die lineare Algebra übersetzen:
ˆ Auf Objekten definieren wir

F : Ob(Set) −→ Ob(VectR )
M
X 7−→ R.
X
L
(Dabei ist X R eine Verallgemeinerung der direkten Summe zweier
Vektorräume (s. Lineare Algebra II). Wir betrachten eine
LMenge X in
kanonischer Weise als Teilmenge, bzw. sogar Basis, von X R.)
ˆ Auf Morphismen definieren wir F wie folgt: Sind X, YLMengen und L ist
f : X −→ Y eine Abbildung, so definieren wir F (f ) : X R −→ Y R
als die eindeutig
L bestimmte R-lineare Abbildung, die f von der Basis X
auf ganz X R fortsetzt.
Dies liefert tatsächlich einen Funktor. Dabei gilt für alle Mengen X und alle
R-Vektorräume V , dass

MorVectR F (X), V −→ MorSet (X, V )
f −→ f |X

eine Bijektion ist (universelle Eigenschaft von Basen).


In vielen Situationen benötigt man Funktoren, die die Richtung der Pfeile

umdrehen“, also sogenannte kontravariante Funktoren:
Definition A.7.5 (kontravarianter Funktor). Seien C und D Kategorien. Ein
kontravarianter Funktor F : C −→ D besteht aus folgenden Komponenten:
ˆ Einer Abbildung F : Ob(C) −→ Ob(D).
ˆ Zu je zwei Objekten X, Y ∈ Ob(C) einer Abbildung

F : MorC (X, Y ) −→ MorC F (Y ), F (X) .

Dabei müssen folgende Bedingungen erfüllt sein:


ˆ Für alle X ∈ Ob(C) ist F (idX ) = idF (X) .
ˆ Für alle X, Y, Z ∈ Ob(C) und alle f ∈ MorC (X, Y ), g ∈ MorC (Y, Z)
gilt
F (g ◦ f ) = F (f ) ◦ F (g).

Beispiel A.7.6 (Dualraum). Man kann die Konstruktion des Dualraums als
kontravarianten Funktor · ∗ : VectR −→ VectR auffassen:
A.7. Funktoren A 19

ˆ Auf Objekten verwenden wir

Ob(VectR ) −→ Ob(VectR )
X 7−→ X ∗ = HomR (X, R).

ˆ Auf Morphismen: Für alle R-Vektorräume X, Y betrachten wir

MorVectR (X, Y ) = HomR (X, Y ) −→ HomR (Y ∗ , X ∗ )


f 7−→ f ∗ .

Allgemeiner liefern Objekte in Kategorien Funktoren, die beschreiben wie


die entsprechende Kategorie aus dem Blickwinkel dieses Objekts aussieht:
Beispiel A.7.7 (darstellbare Funktoren). Sei C eine Kategorie und X ∈ Ob(C).
Dann erhalten wir einen kontravarianten Funktor

MorC ( · , X) : C −→ Set,

den von X dargestellten kontravarianten Funktor. Dieser Funktor ist wie folgt
definiert:
ˆ Auf Objekten: Sei

MorC ( · , X) : Ob(C) −→ Ob(Set)


Y 7−→ MorC (Y, X).

ˆ Auf Morphismen: Sind Y, Z ∈ Ob(C), so definieren wir



MorC ( · , X) : MorC (Y, Z) −→ MorSet MorC (Z, X), MorC (Y, X)
f 7−→ (g 7→ g ◦ f ).

Analog erhält man einen kovarianten Funktor MorC (X, · ) : C −→ Set.


In der Linearen Algebra II werden wir noch weitere Funktoren (z.B. Ten-
sorprodukte) kennenlernen.
Eine wesentliche Eigenschaft von (kovarianten wie kontravarianten) Funk-
toren ist, dass sie – da sie mit Verknüpfungen und Identitätsmorphismen
verträglich sind – Isomorphie erhalten und somit ein geeignetes Konzept für
Invarianten liefern:
Proposition A.7.8 (Funktoren erhalten Isomorphie). Seien C, D Kategorien,
sei F : C −→ D ein Funktor und seien X, Y ∈ Ob(C).
1. Ist f ∈ MorC (X, Y ) ein Isomorphismus in C, so ist der übersetzte
Morphismus F (f ) ∈ MorD (F (X), F (Y )) ein Isomorphismus in D.
2. Insbesondere: Ist X ∼=C Y , so folgt F (X) ∼
=D F (Y ). Bzw.: Ist F (X) ∼
6 D
=

6 C Y.
F (Y ), so ist X =
A 20 A. Anhang

Beweis. Der erste Teil folgt direkt aus den definierenden Eigenschaften von
Funktoren. Der zweite Teil ist eine unmittelbare Folgerung aus dem ersten
Teil.

Geeignete Funktoren können also helfen zu zeigen, dass gewisse Objekte


nicht isomorph sind.
Caveat A.7.9. Die Umkehrung gilt im allgemeinen nicht! D.h. Objekte, die
unter einem Funktor auf isomorphe Objekte abgebildet werden, sind im all-
gemeinen nicht isomorph.
A.8. 3D-Druck A 21

A.8 3D-Druck
Die Technologie des 3D-Drucks ermöglicht es, kostengünstig Prototypen bzw.
Einzelstücke herzustellen; je nach Drucker können dabei Kunststoffe, Me-
talle, . . . verarbeitet werden. Zum Beispiel kann 3D-Druck zur Herstellung
passgenauer Prothesen oder zur Herstellung von Ersatzteilen auf der ISS ver-
wendet werden. Die Anwendungsmöglichkeiten sind äußerst vielfältig und der
3D-Druck wird im Laufe der nächsten Jahre unseren und den industriellen
Alltag maßgeblich verändern.
Wir geben einen kurzen Ausblick, wie 3D-Druck funktioniert und warum
Lineare Algebra dabei hilft.

A.8.1 Fused Filament Fabrication


Das Grundprinzip des 3D-Drucks ist, dass dreidimensionale Objekte gedruckt
werden, indem man

ˆ Schicht

ˆ für Schicht

ˆ für Schicht

ˆ für Schicht

ˆ für Schicht

ˆ ...

Material aufträgt.
Abbildung A.2 zeigt dieses Verfahren schematisch, wenn es von Hand aus-
geführt wird. Eine maschinelle Variante dieses Verfahrens ist Fused Filament
Fabrication, wobei z.B. Kunstoff geschmolzen und schichtweise aufgetragen
wird (Abbildung A.3).

A.8.2 Die Spezifikation dreidimensionaler Objekte


Dreidimensionale Objekte werden im Kontext von 3D-Druck normalerweise
beschrieben, indem ihre Oberfläche spezifiziert wird. Dazu wird die Ober-
fläche (die etwas lokal zweidimensionales ist), durch hinreichend kleine Drei-
ecke approximiert und modelliert (Abbildung A.4). Dabei werden Dreiecke
mit Koordinaten in R3 durch die Koordinaten ihrer Eckpunkte definiert.
A 22 A. Anhang

−→

Abbildung A.2.: 3D-Druck, von Hand

Abbildung A.3.: Fused Filament Fabrication (schematisch und Prusa i3


(Reprap))
A.8. 3D-Druck A 23

Abbildung A.4.: Beschreibung eines Rings durch Dreiecke

Genauer gesagt beschreibt man die Oberfläche dreidimensionaler Objek-


te im sogenannten STL-Format. Das Dateiformat ASCII STL (eine lesbare
Version davon) ist wie folgt aufgebaut:

ˆ solid name
ˆ Es folgt die Liste der Dreiecke, wobei jedes Dreieck wie folgt definiert
ist:
facet normal n1 n2 n3 äußerer Einheitsnormalenvektor
outer loop
vertex u1 u2 u3 erster Eckpunkt des Dreiecks
vertex v1 v2 v3 zweiter Eckpunkt des Dreiecks
vertex w1 w2 w3 dritter Eckpunkt des Dreiecks
endloop
endfacet.
ˆ endsolid name

Zusätzlich wird verlangt, dass die Orientierung des Dreiecks mit der Rich-
tung des Normalenvektors kompatibel ist; daher ist die Angabe von facet
normal redundant.
In der Praxis beschreibt man natürlich nicht jedes dieser Dreiecke einzeln,
sondern spezifiziert das dreidimensionale Objekt in einer höheren Sprache
(z.B. OpenSCAD) und generiert dann eine entsprechende STL-Datei. Bei
der Beschreibung dreidimensionaler Objekte ist ein Hintergrund in Linearer
Algebra und der Geometrie des R-Vektorraums R3 sehr hilfreich.

A.8.3 Berechnung der Schnitte


Im nächsten Schritt muss aus dem STL-Format eine schrittweise Druckanlei-
tung für den Drucker erstellt werden (z.B. gcode), die dem Drucker angibt,
wie die einzelnen Schichten aussehen. Auch an dieser Stelle ist Lineare Alge-
bra hilfreich: Die Oberfläche des Objekts ist durch Dreiecke gegeben. Für jede
Schicht wird nun der Schnitt der Druckschichtebene mit jedem der Dreiecke
A 24 A. Anhang

berechnet (dies ist ein Problem aus der Linearen Algebra!). Falls die STL-
Datei eine sinnvolle Oberfläche eines dreidimensionalen Objekts beschreibt,
ist dieser Schnitt für jede Schicht eine endliche Menge von Polygonen, die
dann von dem Druckkopf auf die bereits gedruckten Schichten aufgemalt“

wird.
Im Detail ist das Verfahren natürlich etwas komplizierter, da die Bewegung
des Druckkopfs noch angemessen optimiert werden sollte . . .
Literaturaufgabe. Theoretischer 3D-Druck kommt aber nicht an praktischen
3D-Druck heran. Man sollte daher unbedingt einem 3D-Drucker bei der Ar-
beit zusehen, zum Beispiel:
https://www.youtube.com/watch?v=nk 8IcBVkRA
https://www.youtube.com/watch?v=dKPxJW65IQg
B
Übungsblätter
Übungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 0 vom 20. Oktober 2016

Aufgabe 1 (aussagenlogische Tautologien). Sind die folgenden aussagenlogischen


Formeln Tautologien? (Hierbei bezeichnen A, B, C aussagenlogische Variablen.)
Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes Gegenbei-
spiel)!

1. (A =⇒ B) ⇐⇒ (¬A ∨ B)
2. ¬(A ∧ B) ⇐⇒ (¬A ∧ ¬B)

3. (¬A) =⇒ (B ∧ ¬B) =⇒ A

4. (A =⇒ B) ∧ (B =⇒ C) =⇒ (A =⇒ C)
Aufgabe 2 (Negation). Formalisieren Sie die folgenden Aussagen im Stile der
Quantorenlogik und negieren Sie die Aussagen; versuchen Sie dabei, die Nega-
tionen auch wieder sprachlich sauber zu formulieren.
1. Alle Vöglein sind schon da.
[Volkslied]
2. Veranstaltungen mit Kraftfahrzeugen bedürfen der Erlaubnis, wenn sie die
Nachtruhe stören können.
[StVO]
3. Verkehrshindernisse sind, wenn nötig, mit eigener Lichtquelle zu beleuch-
ten oder durch andere zugelassene lichttechnische Einrichtungen kenntlich
zu machen.
[StVO]
4. Wenn Du einen Schneck behauchst
Schrumpft er ins Gehäuse, [und]
Wenn Du ihn in Kognak tauchst,
Sieht er weiße Mäuse.
[Ringelnatz, Überall]

Hinweis. Da die deutsche Sprache viele Mehrdeutigkeiten besitzt und nicht je-
der Satz auf eine eindeutige Art und Weise als quantorenlogische Formel forma-
lisiert werden kann, kann es verschiedene vernünftige Lösungen dieser Aufgabe
geben.

Aufgabe 3 (Folgerungen aus Axiomen). Beweisen Sie, dass die Aussage


Der Mond besteht aus Quantoren.
logisch aus den folgenden Axiomen folgt:
À Tux ist ein Pinguin.

Á Tux ist kein Pinguin.

Bitte wenden
Aufgabe 4 (Implikationsumkehr). Was ist falsch am nachfolgenden Beweis“?

Geben Sie genau an, an welcher Stelle etwas schiefgeht und erklären Sie den
Fehler!

Behauptung. Wenn A und B quantorenlogische Aussagen sind und A =⇒ B


gilt, so gilt auch B =⇒ A
Beweis. Seien A und B quantorenlogische Aussagen und es gelte A =⇒ B.
Angenommen, es gilt nicht B =⇒ A, d.h. es gilt B =⇒ ¬A. Wegen der
Voraussetzung A =⇒ B erhalten wir daraus aber auch A =⇒ ¬A, was
nicht sein kann. Also muss die Annahme falsch gewesen sein, und damit
gilt B =⇒ A.
Bonusaufgabe (Zerstreuung). Professor Pirkheimer geht bestens vorbereitet gen
Hörsaal; leider hat er vergessen, ob die Vorlesung in H31 oder H32 stattfindet.
Vor den Türen trifft er einen Studenten. Glücklicherweise wissen alle Studen-
ten, in welchem der beiden Hörsäle die Vorlesung von Professor Pirkheimer
stattfindet. Studenten, die keine Spaßvögel sind, sagen immer die Wahrheit,
wohingegen Studenten, die Spaßvögel sind, nie die Wahrheit sagen. Professor
Pirkheimer kann nicht ohne weiteres erkennen, zu welcher Sorte der Student
gehört.
Wie kann Professor Pirkheimer mit einer einzigen Ja/Nein-Frage an den
Studenten den richtigen Hörsaal identifizieren?

keine Abgabe; diese Aufgaben werden in den Übungen


in der zweiten Vorlesungswoche besprochen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 1 vom 20. Oktober 2016

Aufgabe 1 (aussagenlogische Tautologien). Sind die folgenden aussagenlogischen


Formeln Tautologien? (Hierbei bezeichnen A, B, C aussagenlogische Variablen.)
Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes Gegenbei-
spiel)!
1. A =⇒ (A ∨ B)
2. A =⇒ (A ∧ B)
3. (A ∧ ¬A) =⇒ B
 
4. (A =⇒ B) =⇒ C ⇐⇒ A =⇒ (B =⇒ C)
Aufgabe 2 (Wer war’s?). Professor Pirkheimer wird tot in der Bibliothek seines
Anwesens aufgefunden.
À Als Täter kommen nur der Gärtner, der Frisör oder der Außerirdische
infrage.
Á Nur der Gärtner und der Frisör haben eine Schere und es gibt keine Tasse,
die nicht im Schrank ist.
 Wenn die Frisur von Professor Pirkheimer wohlgeordnet ist, hatte der
Frisör keine Zeit für den Mord oder der Frisör hat dem Außerirdischen
das Frisieren beigebracht.
à Wenn der Außerirdische den Professor erlegt hat, sind nicht mehr alle
Tassen im Schrank.
Ä Wenn alle Tassen im Schrank sind, ist auch Professor Pirkheimers Frisur
wohlgeordnet.
Å Professor Pirkheimer wurde mit einer Schere erdolcht.
Æ Der Außerirdische kann nicht Frisieren.
Wer war’s? Formulieren Sie eine geeignete Behauptung und beweisen Sie
diese logisch aus den obigen Axiomen!
Aufgabe 3 (logische Operatoren). In der Programmiersprache C¬¬ gibt es die
Wahrheitswerte wahr“ (w) und falsch“ (f) sowie die logischen binären Ope-
” ”
ratoren ⊗“ und C“. Die Semantik dieser Operatoren ist durch die folgenden
” ”
Wahrheitstabellen gegeben:
A B A⊗B ACB
w w f f
w f w w
f w w f
f f w w
Wie kann man durch diese beiden logischen Operatoren die Semantik der
gewöhnliche logischen binären Operatoren ∧“ bzw. =⇒“ simulieren? Formu-
” ”
lieren Sie eine geeignete Behauptung und beweisen Sie diese!
Bitte wenden
Aufgabe 4 (Nix gilt mehr!). Was ist falsch am nachfolgenden Beweis“? Geben

Sie genau an, an welcher Stelle etwas schiefgeht und erklären Sie den Fehler!

Behauptung. Wenn A und B quantorenlogische Aussagen sind und A =⇒ B


gilt, so gilt auch ¬B.
Beweis. Seien A und B quantorenlogische Aussagen und es gelte A =⇒ B. Also
gilt ¬(A =⇒ (¬B)). Wegen
 
¬ A =⇒ (¬B) ⇐⇒ ¬ A ∨ (¬(¬B))

und den de Morganschen Regeln gilt dann auch (¬A)∧(¬B); insbesondere


gilt daher ¬B.
Bonusaufgabe (Die Schule von Athen).

1. Woher kennen Sie dieses Bild?


2. Wo sind auf diesem Bild Platon, Aristoteles, Pythagoras und Euklid dar-
gestellt?

3. Warum ist Hilbert (der Mathematiker mit Hut) nicht abgebildet?

Abgabe bis zum 27. Oktober 2016, 10:00 Uhr, in die Briefkästen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 2 vom 27. Oktober 2016

Aufgabe 1 (Bild und Urbild). Welche der folgenden Aussagen sind für alle Ab-
bildungen f : X −→ Y von Mengen wahr? Begründen Sie Ihre Antwort (durch
einen Beweis oder ein geeignetes Gegenbeispiel)!

1. Es gilt für alle A ⊂ X, dass f −1 f (A) ⊂ A.

2. Es gilt für alle B ⊂ Y , dass f f −1 (B) ⊂ B.
Aufgabe 2 (Injektivität für alle!). Was ist falsch am nachfolgenden Beweis“? Ge-

ben Sie genau an, an welcher Stelle etwas schiefgeht und erklären Sie den Fehler
(indem Sie ein Gegenbeispiel für den entsprechenden Beweisschritt angeben)!
Behauptung. Ist f : X −→ Y eine Abbildung, so ist f injektiv.
Beweis. Seien x, x0 ∈ X mit x 6= x0 . Also ist {x} ∩ {x0 } = ∅ und wir erhalten
  
f {x} ∩ f {x0 } = f {x} ∩ {x0 } = f (∅) = ∅.
Insbesondere ist somit f (x) 6= f (x0 ). Mit Kontraposition folgt daraus, dass
die Abbildung f injektiv ist.
Aufgabe 3 (Potenzmengen sind groß“). Sei X eine Menge. Zeigen Sie, dass es

keine surjektive Abbildung X −→ P (X) gibt.
Hinweis. Sei f : X −→ P (X) eine Abbildung. Liegt {x ∈ X | x 6∈ f (x)} im
Bild von f ?! Argumentieren Sie wie im Russellschen Paradoxon . . .

Aufgabe 4 (universelle Eigenschaft des kartesischen Produkts). Seien X1 und


X2 Mengen. Wir sagen, dass eine Menge P zusammen mit den Abbildun-
gen p1 : P −→ X1 und p2 : P −→ X2 die universelle Eigenschaft des kartesischen
Produktes von X1 und X2 erfüllt, wenn folgendes gilt: Für jede Menge Z und
alle Abbildungen f1 : Z −→ X1 und f2 : Z −→ X2 gibt es genau eine Abbil-
dung f : Z −→ P mit
p1 ◦ f = f1 und p2 ◦ f = f2 .
Kurz und knapp lässt sich dies im Diagramm

f1 8 XO 1
p1
∃!f
Z /P
p
f2 &  2
X2
veranschaulichen (dabei ist ∃!“ eine gebräuchliche Abkürzung für es existiert
” ”
genau ein . . .“).
1. Zeigen Sie, dass X1 × X2 zusammen mit den beiden kanonischen Pro-
jektionen π1 : X1 × X2 −→ X1 und π2 : X1 × X2 −→ X2 die universelle
Eigenschaft des kartesischen Produktes von X1 und X2 erfüllt.
Hinweis. Don’t panic! Lesen Sie die Definition noch einmal in Ruhe durch.
Was ist gegeben? Was ist zu zeigen? Was heißt genau eine“?

2. Zeigen Sie: Erfüllt die Menge P mit den Abbildungen p1 : P −→ X1
und p2 : P −→ X2 die universelle Eigenschaft des kartesischen Produk-
tes von X1 und X2 , so gibt es genau eine Bijektion f : P −→ X1 × X2
mit
π1 ◦ f = p1 und π2 ◦ f = p2 .
Hinweis. Setzen Sie für Z“ als Testmenge P bzw. X1 × X2 ein und

Verwenden Sie die Charakterisierung von Bijektivität durch Umkehrab-
bildungen . . .
Bitte wenden
Bonusaufgabe (Der Satz von Schröder-Bernstein). Seien X und Y Mengen. Zei-
gen Sie: Gibt es injektive Abbildungen X −→ Y und Y −→ X, so gibt es bereits
eine bijektive Abbildung X −→ Y .
Hinweis. Eine Abbildung h : P (X) −→ P (X) heißt monoton wachsend, wenn
für alle Teilmengen A, B ⊂ X mit A ⊂ B gilt, dass

h(A) ⊂ h(B).

Eine S
Teilmenge
 A ⊂ X ist ein Fixpunkt
 von h, wenn h(A) = A gilt. Zeigen Sie,
dass B ⊂ X B ⊂ h(B) = x ∃B∈P (X) (B ⊂ h(B)) ∧ (x ∈ B) ein
Fixpunkt von h ist.
Betrachten Sie dann zu f : X −→ Y und g : Y −→ X die Abbildung

h : P (X) −→ P (X)

A 7−→ X \ g Y \ f (A) .

Zeigen Sie, dass h monoton wachsend ist und betrachten Sie einen Fixpunkt . . .

Abgabe bis zum 3. November 2016, 10:00 Uhr, in die Briefkästen


Übungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 3 vom 3. November 2016

Aufgabe 1 (Relationen). Welche der folgenden Aussagen sind wahr? Begründen


Sie Ihre Antwort (durch einen Beweis oder ein geeignetes Gegenbeispiel)!
1. Jede symmetrische Relation ist transitiv.

2. Jede transitive Relation ist reflexiv.


Aufgabe 2 (Vererbung von Surjektivität). Seien X, Y , Z Mengen und seien
f : X −→ Y , g : Y −→ Z Abbildungen. Zeigen Sie die Behauptung
Ist g ◦ f : X −→ Z surjektiv, so ist auch g : Y −→ Z surjektiv.

auf die folgenden beiden Arten:


1. Zeigen Sie diese Aussage zunächst elementweise.
2. Zeigen Sie die Aussage dann nochmal über die Charakterisierung von Sur-
jektivität durch die Existenz eines Spalts.

Aufgabe 3 (Kommutativität der Addition). Zeigen Sie wie folgt die Kommutati-
vität der induktiv definierten Addition auf N; Sie dürfen dabei verwenden, dass
wir die Assoziativität bereits bewiesen haben. Bearbeiten Sie zwei der folgenden
drei Aufgabenteile:

1. Zeigen Sie: Für alle n ∈ N gilt 0 + n = n.


2. Zeigen Sie: Für alle n ∈ N gilt n + 1 = 1 + n.
3. Zeigen Sie: Für alle m, n ∈ N gilt m + n = n + m.
Aufgabe 4 (Äquivalenzklassen). Sei X eine Menge und sei ∼“ eine Äquivalenz-

relation auf X.
1. Was ist falsch am nachfolgenden Beweis“? Geben Sie genau an, an welcher

Stelle etwas schiefgeht und erklären Sie den Fehler!
Behauptung. Für alle x ∈ X ist [x] = X.
Beweis. Wegen [x] ⊂ X genügt es zu zeigen, dass X ⊂ [x] ist. Sei y ∈ X.
Wir zeigen, dass y ∈ [x] gilt: Sei dazu A := [x] ∩ [y] und sei z ∈ A.
Nach Definition gilt dann x ∼ z und y ∼ z. Da die Relation ∼“ sym-

metrisch ist, folgt z ∼ y. Mit der Transitivität erhalten wir aus x ∼ z
und z ∼ y, dass x ∼ y. Also ist y ∈ [x].
2. Zeigen Sie: Für alle x, y ∈ X gilt [x] = [y] oder [x] ∩ [y] = ∅. Illustrieren
Sie Ihre Argumente mit geeigneten Skizzen!
S
3. Zeigen Sie: Es gilt (X/ ∼) = X.

Bitte wenden
Bonusaufgabe (Infinisudoku). Zeigen Sie: Man kann das nach rechts und oben
unendliche Gitter

.. .
. ..

...

so mit natürlichen Zahlen füllen, dass in jeder Zeile und in jeder Spalte jede
natürliche Zahl genau einmal auftritt.
Hinweis. Versuchen Sie zunächst, das Problem systematisch für kleine Qua-
drate zu lösen!

Abgabe bis zum 10. November 2016, 10:00 Uhr, in die Briefkästen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 4 vom 10. November 2016

Aufgabe 1 (Rechnen in Gruppen). Welche der folgenden Aussagen sind in allen


Gruppen (G, · ) wahr? Begründen Sie Ihre Antwort (durch einen Beweis oder
ein geeignetes Gegenbeispiel)!
1. Für alle g, h ∈ G gilt (g · h)−1 = h−1 · g −1 .
2. Für alle g, h ∈ G und alle n ∈ N gilt (g · h · g −1 )n = g · hn · g −1 .
Hinweis. Ist k ∈ G, so definieren wir k 0 als neutrales Element von G und
induktiv k n+1 := k n · k für alle n ∈ N.

Aufgabe 2 (symmetrische Gruppen). Sei X eine Menge. Zeigen Sie, dass die
symmetrische Gruppe SX genau dann abelsch ist, wenn X höchstens zwei ver-
schiedene Elemente enthält.
Hinweis. Es ist eine Äquivalenz ( genau dann . . . , wenn . . .“) zu zeigen. In

welche beiden Teilprobleme zerlegt sich die Aufgabe daher auf natürliche Weise?
Rechnen Sie zunächst ein paar Beispiele, um der allgemeinen Lösung auf die
Spur zu kommen!
Aufgabe 3 (Wurzelkörper). Sei

K := {a + i · 2016 · b | a, b ∈ Q} ⊂ C.
1. Was ist falsch am nachfolgenden Beweis“? Geben Sie genau an, an welcher

Stelle etwas schiefgeht und erklären Sie den Fehler!
Behauptung. Die Menge K bildet bezüglich der von C auf K eingeschränk-
ten Addition und Multiplikation einen Körper.
Beweis. Nach Konstruktion ist 0 ∈ K und 1 ∈ K.
Einfaches Nachrechnen zeigt, dass
∀x,y∈K x + y ∈ K.
√ √
Wegen i · 2016 · i · 2016 = −2016 folgt außerdem durch Ausmul-
tiplizieren, dass
∀x,y∈K x · y ∈ K.
Also schränken sich Addition und Multiplikation von C tatsächlich
zu Verknüpfungen K × K −→ K ein.
Da C ein Körper ist und K ⊂ C gilt, folgt somit, dass sich die
Körpereigenschaften von C auf K vererben. Also ist auch K ein
Körper.
2. Zeigen Sie, dass K tatsächlich ein Körper ist.
Aufgabe 4 (kleiner Körper). Zeigen Sie, dass es einen Körper gibt, der genau
vier Elemente enthält.
Hinweis. Die Charakteristik eines solchen Körpers ist 2. Versuchen Sie, Schritt
für Schritt die Verknüpfungstabellen für Addition bzw. Multiplikation zu füllen.
Beginnen Sie mit den Teilen, die direkt aus den Axiomen folgen, und hangeln
Sie sich dann vorwärts, um einen geeigneten Kandidaten zu finden.
Beim Aufschreiben der Lösung sollten Sie jedoch umgekehrt vorgehen: Prä-
sentieren Sie Ihre fertigen Verknüpfungstabellen und begründen Sie dann, warum
diese tatsächlich die Körperaxiome erfüllen.
Bitte wenden
Bonusaufgabe (Zauberwürfel). Erklären Sie, wie man die zulässigen Züge am
Zauberwürfel (https://eu.rubiks.com/about/the-history-of-the-rubiks-cube) durch
eine Gruppe beschreiben kann.

Bonusaufgabe (Zahlen; nur für Lehrämtler! (als optionale Alternative zum Zau-
berwürfel)).

1. Wie werden in der Schule (Gymnasium, Bayern) die natürlichen, ganzen,


rationalen, reellen Zahlen eingeführt?
2. Welche Gemeinsamkeiten und Unterschiede gibt es im Vergleich zu unse-
rem Vorgehen?
Es genügt, wenn Sie die wesentlichen Punkte kurz skizzieren!

Abgabe bis zum 17. November 2016, 10:00 Uhr, in die Briefkästen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 5 vom 17. November 2016

Aufgabe 1 (Rechnen in Vektorräumen). Sei K ein Körper, sei V ein K-Vektor-


raum. Welche der folgenden Aussagen sind in dieser Situation immer wahr?
Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes Gegenbei-
spiel)!
1. Für jedes λ ∈ K \ {0} und alle a, b ∈ V gibt es genau ein x ∈ V mit
λ · x + b = a.

2. Für alle a, b ∈ V \ {0} gibt es genau ein λ ∈ K mit


λ · b = a.

Aufgabe 2 (der Körper K n ?!). Sei K ein Körper und sei n ∈ N \ {0}.
1. Was ist falsch am nachfolgenden Beweis“? Geben Sie genau an, an welcher

Stelle etwas schiefgeht und erklären Sie den Fehler!
Behauptung. Dann ist K n bezüglich der folgenden Addition und Multi-
plikation ein Körper:
+ : K n × K n −→ K n · : K n × K n −→ K n
           
x1 y1 x1 + y1 x1 y1 x1 · y1
 ..   ..   ..   ..   ..   . 
 .  ,  .  7−→  .   .  ,  .  7−→  .. 
xn yn xn + yn xn yn xn · yn
Beweis. Wir wissen bereits, dass (K n , +) eine abelsche Gruppe ist. Kom-
ponentenweises Nachrechnen zeigt, dass diese Multiplikation auf K n
kommutativ und assoziativ ist, dass der Vektor
 
1
 .. 
.
1
das neutrale Element bezüglich dieser Multiplikation ist, und dass
das Distributivgesetz gilt. Es genügt also zu zeigen, dass jedes Ele-
ment x ∈ K n \ {0} ein multiplikatives Inverses hat. Wegen x 6= 0 gilt
für die Koordinaten von x, dass xj 6= 0 für alle j ∈ {1, . . . , n}. Dann
rechnet man koordinatenweise nach, dass
 −1 
x1
 .. 
 . 
x−1
n

multiplikativ invers zu x ist. Also ist (K n , +, · ) ein Körper.


2. Zeigen Sie: Ist K n bezüglich der obigen Addition und Mulitplikation ein
Körper, so ist n = 1.
Bitte wenden
Aufgabe 3 (erzeugte Unterräume). Sei K ein Körper, sei V ein K-Vektorraum,
sei E ⊂ V und sei
X n 

W :=
λj · vj n ∈ N, v1 , . . . , vn ∈ E, λ1 , . . . , λn ∈ K
j=1

Beweisen Sie die folgenden beiden Aussagen:


1. Es ist W ein K-Untervektorraum von V und E ⊂ W .
2. Ist U ⊂ V ein K-Untervektorraum von V mit E ⊂ U , so folgt W ⊂ U .
Hinweis. Man beachte, dass die leere Summe gleich 0 ist!
Aufgabe 4 (Simplizes). Zu n ∈ N definieren wir das n-Simplex durch
 n+1 
X
∆n := x ∈ Rn+1 für alle j ∈ {1, . . . , n + 1} ist xj ≥ 0 und xj = 1 ;
j=1

insbesondere ist ∆n eine Teilmenge von Rn+1 .


1. Skizzieren Sie ∆0 ⊂ R1 , ∆1 ⊂ R2 und ∆2 ⊂ R3 .
2. Zeigen Sie: Ist n ∈ N, so gibt es Vektoren v0 , . . . , vn ∈ Rn+1 mit

∆n ⊂ v0 + SpanR {v1 , . . . , vn } .

Hinweis. Es ist hilfreich, sich zunächst eine Lösung für n ∈ {0, 1, 2} zu


überlegen.
Bonusaufgabe (OpenSCAD). OpenSCAD (http://www.openscad.org) ist Soft-
ware (Open Source, GPLv2) zur Modellierung von dreidimensionalen Objekten
(zum Beispiel als Vorstufe für 3D-Druck).
1. Was haben translate([x,y,z]) und scale([x,x,x]) mit der gewöhnlichen R-Vek-
torraumstruktur auf R3 zu tun?
2. Wie kann man basierend auf dem Würfel cube([1,1,1]) auf einfache Weise
einen Turm der folgenden Form beschreiben?

Abgabe bis zum 24. November 2016, 10:00 Uhr, in die Briefkästen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 6 vom 24. November 2016

Aufgabe 1 (Vererbung von Erzeugendensystemen und linearer Unabhängigkeit).


Sei K ein Körper, sei V ein K-Vektorraum. Welche der folgenden Aussagen
sind in dieser Situation immer wahr? Begründen Sie Ihre Antwort (durch einen
Beweis oder ein geeignetes Gegenbeispiel)!
1. Ist E ⊂ V ein Erzeugendensystem von V , so ist jede Teilmenge von E
auch ein Erzeugendensystem von V .
2. Ist (vi )i∈I eine linear unabhängige Familie in V , so ist jede Teilfamilie
von (vi )i∈I auch linear unabhängig.
Aufgabe 2 (eine Basis von R2 ). Wir betrachten den Vektor
 
2016
v1 :=
2017
in R2 .
1. Geben Sie einen Vektor v2 ∈ R2 an, so dass die Familie (v1 , v2 ) eine Basis
von R2 bildet (und begründen Sie, warum es sich dabei um eine Basis
handelt).
2. Bestimmen Sie die Menge
  
2016
(λ1 , λ2 ) ∈ R × R λ1 · v1 + λ2 · v2 =
2018
(und begründen Sie Ihre Antwort).
Hinweis. Wenn Sie sich geschickt anstellen, werden Sie fast gar nichts rechnen
müssen!
Aufgabe 3 (Irrationalität). Wir betrachten R auf kanonische Weise als Q-Vektor-
raum. Sei α ∈ R. Zeigen Sie, dass α genau dann irrational ist (d.h. α ∈ R \ Q),
wenn die Familie  2016 

2017
im Q-Vektorraum R linear unabhängig ist.
Aufgabe 4 (lineare Unabhängigkeit und Darstellbarkeit). Sei K ein Körper, sei V
ein K-Vektorraum, sei n ∈ N und sei (v1 , . . . , vn ) eine Familie in V . Zeigen Sie,
dass dann die folgenden Aussagen äquivalent sind:
1. Die Familie (v1 , . . . , vn ) ist linear unabhängig.
2. Die Abbildung
K n −→ V
 
λ1 n
 ..  X
 .  −
7 → λ j · vj
λn j=1

ist injektiv.
Bitte wenden
Bonusaufgabe (Polynomfunktionen). Sei Poly(R, R) ⊂ Abb(R, R) die Menge
aller Polynomfunktionen R −→ R; diese Menge ist ein R-Untervektorraum
von Abb(R, R). Dabei ist eine Funktion f : R −→ R eine Polynomfunktion,
wenn es n ∈ N und a0 , . . . , an ∈ R gibt mit
n
X
∀x∈R f (x) = aj · xj .
j=0

Zu n ∈ N betrachten wir die Polynomfunktion

fn : R −→ R
x 7−→ xn .

Zeigen Sie, dass (fn )n∈N eine Basis von Poly(R, R) ist.
Hinweis. Die lineare Unabhängigkeit lässt sich auf verschiedene Arten nach-
weisen; es kann an dieser Stelle nützlich sein, Methoden aus der Analysis zu
verwenden.

Abgabe bis zum 1. Dezember 2016, 10:00 Uhr, in die Briefkästen


Übungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 7 vom 1. Dezember 2016

Aufgabe 1 (Dimensionen von Durchschnitten). Welche der folgenden Aussagen


sind wahr? Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes
Gegenbeispiel)!

1. Es gibt zweidimensionale Untervektorräume U, W von R3 mit

dimR (U ∩ W ) = 0.

2. Es gibt zweidimensionale Untervektorräume U, W von R3 mit

dimR (U ∩ W ) = 2.

Aufgabe 2 (kleine Vektorräume?!). Zeigen Sie, dass es keinen F2 -Vektorraum


gibt, der genau 2016 Elemente enthält.
Hinweis. Im Falle eine Falles, löst eine Basis wirklich alles.

Aufgabe 3 (Untervektorraum von R3 ). Wir betrachten die Teilmenge


  
 x1 

U := x2  ∈ R3 x1 = x3
 
x3

von R3 .
1. Skizzieren Sie diese Teilmenge von R3 und zeigen Sie, dass es sich dabei
um einen Untervektorraum von R3 handelt.
2. Was ist dimR U ? Begründen Sie Ihre Antwort!
Hinweis. Wenn man die Resultate aus der Vorlesung geschickt einsetzt,
muss man fast gar nichts rechnen.
Aufgabe 4 (Dimension von Untervektorräumen). Sei K ein Körper, sei V ein
endlich erzeugter K-Vektorraum und sei U ⊂ V ein Untervektorraum.
1. Zeigen Sie, dass U endlich erzeugt ist.

2. Zeigen Sie: Ist U 6= V , so gilt dimK U < dimK V .


Hinweis. Sie können das Ergebnis des ersten Teils natürlich für die Lösung
des zweiten Teils verwenden, auch wenn Sie den ersten Teil nicht gelöst
haben.

Hinweis. Es handelt sich hierbei um Proposition 3.4.4 aus der Vorlesung; diese
Proposition dürfen Sie also natürlich nicht für die Lösung der Aufgabe verwen-
den.

Bitte wenden
Bonusaufgabe (Vereinigungen von Unterräumen). Sei K ein unendlicher Körper
und sei V ein K-Vektorraum. Zeigen Sie, dass V nicht als Vereinigung von
endlich vielen echten Untervektorräumen geschrieben werden kann.

Bonusaufgabe (Nikolausaufgabe). Der Nikolaus möchte sein zweidimensionales


Haus

3 5

2 1

etwas höherdimensional gestalten, damit endlich auch sein üppiger Bauch rein-
passt. Er überlegt daher, was die maximal mögliche Dimension ist, ohne die
Auflagen des Denkmalschutzes zu verletzen . . .
Sei K ein Körper und sei V ein K-Vektorraum. Eine Menge

{v12 , v13 , v15 , v23 , v25 , v34 , v35 , v45 } ⊂ V

von Vektoren in V ist eine Nikolaushausmenge, wenn die Gleichungen

v12 + v23 = v13


v12 + v25 = v15
v23 + v35 = v25
v13 + v35 = v15
v34 + v45 = v35

in V erfüllt sind.
1. Was haben diese Gleichungen mit dem Haus des Nikolaus zu tun?
2. Was ist die maximal mögliche Dimension dimK SpanK N für Nikolaus-
hausmengen N ? Begründen Sie Ihre Antwort!

Abgabe bis zum 8. Dezember 2016, 10:00 Uhr, in die Briefkästen


Übungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 8 vom 8. Dezember 2016

Aufgabe 1 (Linearität vs. Bijektivität). Welche der folgenden Aussagen sind wahr?
Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes Gegenbei-
spiel)!
1. Jede lineare Abbildung zwischen Vektorräumen ist bijektiv.
2. Jede bijektive Abbildung zwischen Vektorräumen ist linear.
Aufgabe 2 (Vererbungseigenschaften linearer Abbildungen). Sei K ein Körper und
seien V , W , X Vektorräume über K.
1. Zeigen Sie: Sind f, g : V −→ W lineare Abbildungen, so ist auch die punkt-
weise Summe f + g : V −→ W linear.
2. Zeigen Sie: Sind f : V −→ W und g : W −→ X lineare Abbildungen, so
ist auch die Komposition g ◦ f : V −→ X linear.
Aufgabe 3 (komplementäre Untervektorräume und lineare Abbildungen). Wir be-
trachten den Untervektorraum
     
 1 0 1 
U := SpanR  1 ,  1 , −1 
 
1 −1 3

des R-Vektorraums R3 .
1. Bestimmen Sie einen zu U komplementären Untervektorraum in R3 (und
begründen Sie Ihre Antwort). Illustrieren Sie diese Situation durch eine
geeignete Skizze.
2. Geben Sie eine lineare Abbildung f : R3 −→ R an, die nicht die Nullab-
bildung ist, aber
∀u∈U f (u) = 0
erfüllt (und begründen Sie Ihre Antwort).
Aufgabe 4 (ein X für ein U?!). Wir betrachten die Teilmengen

Á Á

À À
X := {t · (e1 + e2 ) | t ∈ [0, 1]} ∪ {e1 + t · (e2 − e1 ) | t ∈ [0, 1]}
U := {t · e1 | t ∈ [0, 1]} ∪ {t · e2 | t ∈ [0, 1]} ∪ {e1 + t · e2 | t ∈ [0, 1]}
im R-Vektorraum R2 . Zeigen Sie, dass es keine lineare Abbildung f : R2 −→ R2
mit f (X) = U gibt.
Hinweis. Was machen lineare Abbildungen mit (affinen) Geraden? Welche (af-
finen) Geraden sollte man wohl betrachten?
Bitte wenden
Bonusaufgabe (Nullfolgen vergessen!). Sei V die Menge aller Cauchyfolgen in Q;
diese Menge bildet bezüglich punktweiser Addition und Skalarmultiplikation
einen Q-Vektorraum, genauer gesagt einen Untervektorraum von Abb(N, Q).
Sei U die Menge aller Nullfolgen in Q. Diese Menge ist ein Untervektorraum
des Q-Vektorraums V . Somit erhalten wir den zugehörigen Quotientenvektor-
raum V /U .
1. Zeigen Sie, dass die Abbildung

• : V /U × V /U −→ V /U

(an )n∈N , (bn )n∈N 7−→ (an · bn )n∈N

wohldefiniert ist.
2. Zeigen Sie, dass (V /U, +, •) ein Körper ist. Es genügt, wenn Sie den Beweis
für die Existenz von multiplikativen Inversen im Detail angeben und für
die anderen Eigenschaften nur eine kurze Begründung angeben.

Hinweis. Diese Konstruktion ist eine Möglichkeit, Grenzwerte zu Q hinzu-



zufügen“. Man kann diesen Körper mit einer geeigneten Anordnung versehen
und erhält auf diese Weise dann eine Konstruktion von R aus Q.

Abgabe bis zum 15. Dezember 2016, 10:00 Uhr, in die Briefkästen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 9 vom 15. Dezember 2016

Aufgabe 1 (Potenzen von linearen Abbildungen). Welche der folgenden Aussagen


sind wahr? Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes
Gegenbeispiel)!
1. Es gibt eine lineare Abbildung f : R2 −→ R2 mit f 6= idR2 und f ◦f 6= idR2 ,
aber f ◦ f ◦ f = idR2 .
2. Ist f : R2 −→ R2 linear und f ◦ f = 0, so ist f die Nullabbildung.
Hinweis. Können Sie die entsprechenden Fragen für Matrizen beantworten?
Aufgabe 2 (Matrixmultiplikation). Sei K ein Körper und seien a, b, c, d, λ ∈ K.
1. Berechnen Sie die Matrizen (in M2×2 (K))
       
0 1 a b 1 λ a b
· und · .
1 0 c d 0 1 c d
2. Was passiert mit den Zeilen? Beschreiben Sie die Ergebnisse des ersten
Teils jeweils in einem einprägsamen Satz.
Aufgabe 3 (Fibonacci-Zahlen). Die Folge (Fn )n∈N der Fibonacci-Zahlen ist die
rekursiv durch F0 = 0, F1 = 1 und
∀n∈N Fn+2 = Fn + Fn+1
definierte Folge natürlicher Zahlen. Die ersten Folgenglieder sind also 0, 1, 1, 2,
3, 5, 8, 13, 21, 34, . . . Zeigen Sie: Für alle n ∈ N>0 gilt (in M2×2 (Q))
 n  
1 1 Fn+1 Fn
= .
1 0 Fn Fn−1
Aufgabe 4 (fiat lux?). Wir betrachten eine 4 × 4-Anordnung von Lampen; es
gibt Lichtschalter, mit denen man alle Lampen in einer Zeile, Spalte oder (Ne-
ben)Diagonalen umschalten kann. Wir modellieren den Zustand der Lampen
durch eine Matrix in M4×4 (F2 ). Dabei bedeute 0 als Koeffizient, dass die ent-
sprechende Lampe aus ist, und 1, dass die entsprechende Lampe leuchtet.
1. Wie kann man den Effekt der Lichtschalter durch Addition mit geeigneten
Matrizen aus M4×4 (F2 ) beschreiben?
2. Bestimmen Sie I(S) für alle Lichtschaltermatrizen S aus dem ersten Teil,
wobei
I : M4×4 (F2 ) −→ F2
A 7−→ A12 + A13 + A21 + A31 + A42 + A43 + A24 + A34 .

3. Kann man in der abgebildeten Situation mit diesen Lichtschaltern errei-


chen, dass alle Lampen gleichzeitig leuchten? Begründen Sie Ihre Antwort!

Hinweis. Verwenden Sie I !


Bitte wenden
Bonusaufgabe (Adjazenzmatrizen). Ein Graph ist ein Paar (V, E), bestehend
aus einer Menge V (den sogenannten Knoten) und einer Menge E von zweiele-
mentigen Teilmengen von V (den sogenannten Kanten). Zum Beispiel können
wir den Nikolaushausgraphen

{1, . . . , 5}, {{1, 2}, {1, 3}, {1, 5}, {2, 3}, {2, 5}, {3, 4}, {3, 5}, {4, 5}}

wie folgt veranschaulichen (der Verlauf der Kanten ist nicht relevant; wichtig ist
nur, welche Knoten durch Kanten verbunden sind und welche nicht):

4 4

3 5 3 5
oder

2 1 2 1

Sei n ∈ N und sei X = ({1, . . . , n}, E) ein Graph mit Knotenmenge {1, . . . , n}.
Dann wird die Adjazenzmatrix (ajk )j,k ∈ Mn×n (R) von X durch
(
1 falls {j, k} ∈ E
ajk :=
0 sonst

für alle j, k ∈ {1, . . . , n} definiert. Die Adjazenzmatrix von X beschreibt also,


welche Knoten in X durch eine Kante verbunden sind und welche nicht.
1. Bestimmen Sie die Adjazenzmatrix des Nikolaushausgraphen.

2. Sei A ∈ Mn×n (R) die Adjazenzmatrix eines Graphen mit der Knoten-
menge {1, . . . , n} und sei d ∈ N. Welche geometrische Bedeutung hat das
Produkt Ad ? Begründen Sie Ihre Antwort!

Abgabe bis zum 22. Dezember 2016, 10:00 Uhr, in die Briefkästen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 10 vom 22. Dezember 2016

Aufgabe 1 (Isomorphismen). Sei K ein Körper und f : V −→ W , g : W −→ X


seien lineare Abbildungen von K-Vektorräumen. Welche der folgenden Aussagen
sind in dieser Situation immer wahr? Begründen Sie Ihre Antwort (durch einen
Beweis oder ein geeignetes Gegenbeispiel)!
1. Sind f und g Isomorphismen, so auch g ◦ f .
2. Ist g ◦ f ein Isomorphismus, so auch f und g.
Aufgabe 2 (Invarianz der Dimension). Sei K ein Körper und seien V und W
Vektorräume über K. Zeigen Sie, dass dann folgendes gilt:
dimK V = dimK W ⇐⇒ V ∼
=K W.
Aufgabe 3 (komplementäre Untervektorräume und Quotienten). Sei K ein Körper,
sei V ein K-Vektorraum und seien U, W ⊂ V komplementäre Untervektorräume
von V . Zeigen Sie, dass dann
πU |W : W −→ V /U
w 7−→ w + U
ein Isomorphismus von K-Vektorräumen ist.
Aufgabe 4 (magische Quadrate). Sei K ein Körper und sei n ∈ N. Ein magisches
Quadrat über K der Kantenlänge n ist ein n × n-Quadrat mit Einträgen aus K
und folgender Eigenschaft: Es gibt ein m ∈ K (die magische Zahl ) mit:
• In jeder Zeile ist die Summe der Elemente m.
• In jeder Spalte ist die Summe der Elemente m.
• In der Haupt- bzw. Antidiagonalen ist jeweils die Summe m.
Zum Beispiel ist
2 0 1 6
6 1 0 2
0 2 6 1
1 6 2 0

ein magisches Quadrat über Q der Kantenlänge 4 mit magischer Zahl 9. Sei
MQn (K) die Menge aller magischen Quadrate über K mit Kantenlänge n und
magischer Zahl 0.
1. Bestimmen Sie alle Elemente von MQ2 (R).
2. Bestimmen Sie alle Elemente von MQ2 (F2 ).
3. Zeigen Sie, dass MQn (K) bezüglich kästchenweiser Addition bzw. Skalar-
multiplikation einen K-Vektorraum bildet.
Hinweis. Falls Sie nicht rechnen möchten: Man kann MQn (K) als Kern
einer geeigneten linearen Abbildung schreiben.
4. Zeigen Sie, dass dimR MQ3 (R) = 2 ist.
Hinweis. Bestimmen Sie den Rang der linearen Abbildung aus dem vo-
rigen Teil und verwenden Sie die Dimensionsformel . . .
Bitte wenden
Bonusaufgabe (Eilenberg-Schwindel). In Professor Pirkheimers Nachlass finden
sich unzählige Akten. Pirkheimers Ordnungsdrang hat ihn dazu verleitet, die
Akten als Vektorraum zu organisieren. Sehr zum Ärgernis seiner Nachlassver-
walter hat er es geschafft, einen nicht-trivialen Vektorraum zu verwenden, der
doppelt so groß ist wie er selbst ( Sonst hat man ja nie genug Platz für all die

wichtigen Notizen!“). Zeigen Sie, dass es zu jedem Körper K tatsächlich einen
Vektorraum V mit V 6∼ =K {0} und

V ∼
=K V ⊕ V

gibt!
Die folgenden Aufgaben bieten die Gelegenheit, den bisher gelernten Stoff zu
Vektorräumen und linearen Abbildungen wiederholen und zu vertiefen; für jede
dieser Aufgaben können Sie bis zu vier Zusatzpunkte bekommen.

Bonusaufgabe (Lösungsmengen). Welche der folgenden Aussagen sind wahr?


Begründen Sie Ihre Antwort!
1. Die Menge {x ∈ R3 | x1 + x2 = x3 } ist ein Untervektorraum von R3 .
2. Die Menge {x ∈ R3 | x1 · x2 = x3 } ist ein Untervektorraum von R3 .
3. Die Menge {x ∈ R2 | x2 = x1 2 } ist ein Untervektorraum von R2 .
4. Die Menge {x ∈ F2 2 | x2 = x1 2 } ist ein Untervektorraum von F2 2 .
Bonusaufgabe (lineare Unabbhängigkeit). Für welche λ, µ ∈ F2 bilden die fol-
genden Vektoren in F2 3 eine linear unabhängige Familie?
     
0 λ+µ µ
λ ,  λ + 1  , µ
µ 0 µ

Begründen Sie Ihre Antwort!


Bonusaufgabe (Invertierbarkeit). Sei K ein Körper, n ∈ N und sei f : K n −→ K n
linear. Zeigen Sie, dass die folgenden Aussagen äquivalent sind:
1. Die Abbildung f : K n −→ K n ist ein Isomorphismus.
2. Die Matrix M (f ) ∈ Mn×n (K) ist invertierbar.
Hinweis. Eine Matrix A ∈ Mn×n (K) heißt invertierbar, wenn es eine Ma-
trix B ∈ Mn×n (K) mit A · B = In und B · A = In gibt.
Bonusaufgabe (Doppeldual). Sei K ein Körper und sei V ein K-Vektorraum.
Zeigen Sie, dass die Abbildung

V −→ (V ∗ )∗

v 7−→ f 7→ f (v)

linear und injektiv ist.


Noch eine Seite!
Bonusaufgabe (FerwandlunX). Schreiben Sie ein LATEX-Makro \Ferwandlung mit
vier Argumenten und folgender Eigenschaft: Der Aufruf

\Ferwandlung{a}{b}{c}{d}

stellt den Effekt der linearen Abbildung


 
a b
L : R2 −→ R2
c d

auf den Buchstaben F“ graphisch dar und zeigt auch noch die entsprechende

Gleichung an. Zum Beispiel liefert dann \Ferwandlung{1}{2}{1}{0} so etwas
wie

Á Á

1 1
À À
1 1

R2 7−→ R2
   
x1 + 2 · x2 1 2
x 7−→ = ·x
x1 1 0

Drucken Sie auch das Ergebnis der folgenden Aufrufe aus:


• \Ferwandlung{0}{1}{2}{0}

• \Ferwandlung{1}{−1}{0}{1}
• \Ferwandlung{0}{0}{1}{1}
• \Ferwandlung{1}{2}{2}{1}
Hinweis. Bei Graphiken in LATEX hilft z.B. das Paket tikz.

Bonusaufgabe (Skript). Finden Sie so viele Fehler im Skript wie möglich!

Abgabe bis zum 12. Januar 2017, 10:00 Uhr, in die Briefkästen

Frohe Weihnachten und ein Gutes Neues Jahr!


Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 11 vom 12. Januar 2017

Aufgabe 1 (lineare Gleichungssysteme). Sei K ein Körper, seien n, m ∈ N und


seien A ∈ Mm×n (K) sowie b ∈ K m . Sei (A | b) die Matrix, die entsteht, wenn
wir rechts an A noch die Spalte b hinzufügen. Welche der folgenden Aussagen
sind in dieser Situation immer wahr? Begründen Sie Ihre Antwort (durch einen
Beweis oder ein geeignetes Gegenbeispiel)!
1. Ist V (A, b) 6= ∅, so gilt rg(A | b) = rg A.
2. Ist rg(A | b) = rg A, so gilt V (A, b) 6= ∅.
Aufgabe 2 (diskrete Heisenberggruppe). Sei
  
 1 x z 
H := 0 1 y  x, y, z ∈ Z ⊂ M3×3 (R).
 
0 0 1
Zeigen Sie, dass H bezüglich Matrixmultiplikation eine Gruppe bildet (die so-
genannte diskrete Heisenberggruppe).
Aufgabe 3 (Basiswechsel und Konjugation). Sei K ein Körper, sei f : V −→ V
ein Endomorphismus eines endlich-dimensionalen K-Vektorraums V und sei B
eine Basis von V . Sei n := dimK V und A ∈ GLn (K). Zeigen Sie, dass die
folgenden Aussagen äquivalent sind:
1. Es gibt eine Basis C von V mit MC,C (f ) = A.
2. Es gibt eine Matrix S ∈ GLn (K) mit
A = S −1 · MB,B (f ) · S.

Aufgabe 4 (Blorx-O-Color). Commander Blorx sieht Farben im Blorx-O-Color-


Farbmodell, das aus einer additiven Mischung der drei Grundfarben urx (u: ),
platsch (p: ) und oink (o: ) besteht. In RGB (Beispiel 3.2.8) lassen sich
diese Farben wie folgt spezifizieren:
     
1.00 0.12 1.00
u = 0.72 , p = 0.69 , o = 0.75 .
0.06 0.67 0.80
Genauer gesagt sieht Blorx nur Farben im RGB-Würfel, die durch positive Bei-
träge der Grundfarben urx, platsch und oink gemischt werden. Kann Blorx die
RGB-Farbe  
0.26
= 0.49
0.27
sehen? Gehen Sie wie folgt vor:
1. Formulieren Sie dieses Frage geeignet als ein Problem in Linearer Algebra.
2. Lösen Sie dieses Problem in Linearer Algebra.
Bonusaufgabe (invertierbare Matrizen über F2 ). Sei n ∈ N. Bestimmen Sie die
Anzahl der Elemente von GLn (F2 ).
Hinweis. Wieviele Basen gibt es in F2 n ?

Abgabe bis zum 19. Januar 2017, 10:00 Uhr, in die Briefkästen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 12 vom 19. Januar 2017

Aufgabe 1 (Determinante). Sei K ein Körper und n ∈ N>0 . Welche der folgenden
Aussagen sind in dieser Situation immer wahr? Begründen Sie Ihre Antwort
(durch einen Beweis oder ein geeignetes Gegenbeispiel)!
1. Für alle Matrizen A, B ∈ Mn×n (K) gilt det(A + B) = det A + det B.
2. Für alle A ∈ Mn×n (K) und alle λ ∈ K gilt det(λ · A) = λn · det A.
Aufgabe 2 (Matrizenkalkül). Sei
f : Q4 −→ Q3
 
x2 + 2 · x3 − x4
x 7−→ −x1 + 3 · x2 + 2 · x4 
2 · x1 + x3 − 2 · x4
Lösen Sie die folgenden Aufgaben mithilfe des Gaußschen Eliminationsverfah-
rens:
1. Bestimmen Sie eine Basis von ker f .
Hinweis. Überprüfen Sie auch, ob Ihr Ergebnis korrekt ist!
2. Für welche x ∈ Q4 gilt f (x) = e1 ?
Aufgabe 3 (XOR-SAT). Das exklusive Oder ⊕ ist durch die folgende Wahrheits-
tabelle definiert (und offenbar assoziativ):

A B A⊕B
w w f
w f w
f w w
f f f
Wir betrachten nun das folgende Problem: Kann man die aussagenlogischen
Variablen A, B, C, D so mit Wahrheitswerten belegen, dass die Formel
  
A ⊕ B ⊕ C ∧ A ⊕ (¬B) ⊕ D ∧ B ⊕ (¬C) ⊕ (¬D)
den Wahrheitswert w liefert? Gehen Sie wie folgt vor (dies ist im allgemeinen
Fall effizienter als alle Kombinationen durchzuprobieren):
1. Wenn wir 0 ∈ F2 als wahr“ und 1 ∈ F2 als falsch“ interpretieren, welche
” ”
algebraische Beschreibung besitzt dann ⊕ ?
2. Übersetzen Sie die obige Formel in ein lineares Gleichungssystem über F2
mit vier Variablen und drei Gleichungen (so dass die Lösungen dieses Glei-
chungssystems genau den Wahrheitsbelegungen entsprechen, unter denen
die obige Formel den Wahrheitswert w liefert).
3. Lösen Sie dieses lineare Gleichungssystem mit dem Gaußschen Eliminati-
onsverfahren.
4. Was bedeutet dies für das ursprüngliche Problem?
Bitte wenden
Aufgabe 4 (schwache Diagonalisierung). Sei K ein Körper, seien m, n ∈ N und
sei A ∈ Mm×n (K). Zeigen Sie: Dann gibt es S ∈ GLm (K) und T ∈ GLn (K)
mit folgender Eigenschaft: Ist

B := S · A · T,

so gilt für alle (j, k) ∈ {1, . . . , m} × {1, . . . , n} mit j 6= k, dass

Bj,k = 0.

Hinweis. Führen Sie erst das gründliche Gaußsche Eliminationsverfahren durch


und betrachten Sie dann geeignete Spaltenoperationen. Oder Sie verwenden die
Theorie der linearen Abbildungen und Basen.
Bonusaufgabe (Homologie von Graphen). Sei X := (V, E) ein Graph mit endli-
cher Knotenmenge V (Bonusaufgabe von Blatt 9). Dann definieren wir

C0 (X) := Abb(V, F2 ) und C1 (X) := Abb(E, F2 )

und die linearen Abbildungen

∂0 := 0 : C0 (X) −→ {0}
∂1 : C1 (X) −→ C0 (X)
f{v,w} 7−→ fw − fv = fw + fv
∂2 := 0 : {0} −→ C1 (X);

dabei ist ∂1 durch die universelle Eigenschaft von Basen definiert (vgl. Bei-
spiel 3.2.6) und man beachte, dass in F2 Subtraktion und Addition überein-
stimmen. Man bezeichnet dann die Quotientenvektorräume
 
H0 (X) := ker ∂0 im ∂1 und H1 (X) := ker ∂1 im ∂2

als Homologie von X. Wir betrachten nun den Graphen



X := {1, 2, 3, 4, 5}, {{1, 2}, {2, 3}, {3, 1}, {1, 4}} .

1. Bestimmen Sie eine Basis von H0 (X).


2. Welche geometrische Bedeutung hat dimF2 H0 (X) ?
3. Bestimmen Sie eine Basis von H1 (X).
4. Welche geometrische Bedeutung hat dimF2 H1 (X) ?

Abgabe bis zum 26. Januar 2017, 10:00 Uhr, in die Briefkästen
Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 13 vom 26. Januar 2017

Aufgabe 1 (Eigenwerte und Eigenvektoren). Sei K ein Körper, sei n ∈ N und seien
A, B ∈ Mn×n (K). Welche der folgenden Aussagen sind in dieser Situation immer
wahr? Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes
Gegenbeispiel)!
1. Ist λ ∈ K ein Eigenwert von A, so ist 2017 · λ ein Eigenwert von 2017 · A.
2. Sind v und w Eigenvektoren von A, so ist v + w ein Eigenvektor von A.
Aufgabe 2 (Orientierungen). Sei V ein endlich-dimensionaler R-Vektorraum und
sei n := dimR V > 0. Wir definieren wie folgt eine Relation ∼“ auf der Menge

der Basen von V : Sind B und C Basen von V , so gelte genau dann B ∼ C,
wenn det(TB,C ) > 0 ist.
1. Zeigen Sie, dass ∼“ eine Äquivalenzrelation ist. Die Äquivalenzklassen

von Basen von V bezüglich ∼“ bezeichnet man als Orientierungen von V .

2. Zeigen Sie, dass die Basen
           
1 0 0 0 1 0
0 , 1 , 0 und 1 , 0 , 0
0 0 1 0 0 1
verschiedene Orientierungen von R3 repräsentieren.
3. Was hat der zweite Teil mit der linken bzw. rechten Hand zu tun? Illus-
trieren Sie Ihre Antwort geeignet!
4. Zeigen Sie, dass V genau zwei Orientierungen besitzt.

Aufgabe 3 (Determinanten von Blockmatrizen). Sei K ein Körper, n1 , n2 ∈ N>0


und seien A ∈ Mn1 ×n1 (K), B ∈ Mn1 ×n2 (K), D ∈ Mn2 ×n2 (K). Zeigen Sie, dass
 
A B
det = det A · det D.
0 D
Dabei ist die linke Matrix in M(n1 +n2 )×(n1 +n2 ) (K) wie angegeben aus den
Blöcken A, B, D zusammengesetzt.
Hinweis. Viele Wege führen nach Rom! Naheliegende Möglichkeiten sind Ent-
wicklung nach der ersten Spalte und Induktion über n1 oder die axiomatische
Beschreibung der Determinante, angewendet auf eine geeignete Funktion.
Bitte wenden
Aufgabe 4 (Fibonacci-Zahlen, explizit). Die Folge (Fn )n∈N der Fibonacci-Zahlen
ist die rekursiv durch F0 = 0, F1 = 1 und

∀n∈N Fn+2 = Fn + Fn+1

definierte Folge natürlicher Zahlen (Aufgabe 3 von Blatt 9). Wir betrachten
außerdem die Matrix  
1 1
A := ∈ M2×2 (R).
1 0
1. Zeigen Sie, dass A genau zwei reelle Eigenwerte λ1 und λ2 besitzt.
2. Bestimmen Sie je einen Eigenvektor zu den Eigenwerten λ1 bzw. λ2 von A.
3. Finden Sie eine Matrix S ∈ GL2 (R) mit
 
−1 λ1 0
S ·A·S = .
0 λ2

4. Verwenden Sie das Ergebnis des dritten Aufgabenteils, um für n ∈ N eine


explizite (nicht-rekursive) Formel für die n-te Fibonacci-Zahl zu finden
(und zu beweisen).
Hinweis. Hier hilft Aufgabe 3 von Blatt 9 und der Konjugationstrick (wie
kann man mithilfe von S die Potenzen An gut berechnen?).
Bonusaufgabe (Momentenkurve). Sei n ∈ N und sei
  
 t 

 

t2  
 
Mn := .  t ∈ R ⊂ Rn
.. 
 

 n
 

t

die sogenannte Momentenkurve. Zeigen Sie: Sind v1 , . . . , vn ∈ Mn \{0} paarweise


verschiedene Punkte auf Mn , so ist die Familie (v1 , . . . , vn ) linear unabhängig.
Hinweis. Betrachten Sie eine geeignete Determinante!
Bonusaufgabe (Eigenwerte; für Physiker etc. (als optionale Alternative zur Mo-
mentenkurve)). Beschreiben Sie eine physikalische Situation, in der Eigenwerte
auftreten. Welcher Vektorraum und welcher Endomorphismus wird betrachtet
(sowohl mathematisch als auch physikalisch)? Was modellieren dann die Eigen-
werte bzw. Eigenvektoren?

Abgabe bis zum 2. Februar 2017, 10:00 Uhr, in die Briefkästen


Übungen zur Linearen Algebra I
Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 14 vom 2. Februar 2017

Aufgabe 1 (3 × 3-Matrizen und Eigenwerte). Welche der folgenden Aussagen


sind wahr? Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes
Gegenbeispiel)!
1. Jede Matrix in M3×3 (C) ist (über C) diagonalisierbar.
2. Jede Matrix in M3×3 (R) hat mindestens einen Eigenwert (in R).
Aufgabe 2 (Diagonalisierbarkeit). Untersuchen Sie für die beiden folgenden Ma-
trizen jeweils, ob Diagonalisierbarkeit über C bzw. F2 vorliegt. Begründen Sie
Ihre Antwort!    
0 0 −1 2 1 0
0 1 0  , −1 0 1
1 0 −1 0 0 1
Aufgabe 3 (Omnidiagonalisierbarkeit). Sei K ein Körper und n ∈ N. Eine Ma-
trix A ∈ Mn×n (K) heißt omnidiagonalisierbar, wenn für jedes S ∈ GLn (K) die
Matrix S −1 · A · S in Diagonalgestalt ist. Bestimmen Sie alle omnidiagonalisier-
baren Matrizen in Mn×n (K) (und begründen Sie Ihre Antwort).
Aufgabe 4 (Begleitmatrix eines Polynoms). Sei K ein Körper, sei n ∈ N>0 , seien
Pn−1
a0 , . . . , an−1 ∈ K und sei p := T n + j=0 aj · T j ∈ K[T ]. Wir betrachten dann
die Matrix  
0 0 ... 0 −a0
1 0 . . . 0 −a1 
 
0 1 . . . 0 −a2 
Mp :=   ∈ Mn×n (K).
 .. . . . . .. .. 
. . . . . 
0 0 . . . 1 −an−1
Zeigen Sie, dass χMp = p ist.
Hinweis. Dies lässt sich bequem per vollständiger Induktion über n zeigen.
Bonusaufgabe (Turmbau). Baumeister Babel verfügt über die folgenden Sorten
von Bausteinen (mit den Abmessungen 1 × 2 und 2 × 2):

Daraus möchte er Türme der Form n × 2 mit n ∈ N bauen. Zum Beispiel sind

Babeltürme der Höhe 4 bzw. 6. Finden Sie eine explizite (nicht rekursive) Formel
für die Anzahl der Babeltürme gegebener Höhe.
Hinweis. Was hat das mit Linearer Algebra zu tun?

Freiwillige Abgabe (bis zum 9. Februar 2017, 10:00, in die Briefkästen)


Übungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 15 vom 9. Februar 2017

Aufgabe 1 (Jordansche Normalform). Sei K ein Körper, sei n ∈ N>0 und seien
A, B ∈ Mn×n (K). Welche der folgenden Aussagen sind in dieser Situation immer
wahr? Begründen Sie Ihre Antwort (durch einen Beweis oder ein geeignetes
Gegenbeispiel)!

1. Gilt χA = χB , so haben A und B dieselbe Jordansche Normalform.


2. Haben A und B dieselbe Jordansche Normalform, so gilt χA = χB .
Aufgabe 2 (Ähnlichkeit). Klassifizieren Sie die folgenden Matrizen (in M3×3 (R))
bis auf Ähnlichkeit:
       
2 0 1 3 0 1 2 0 0 2 0 0
0 2 7 , 0 2 7 , 0 2 1 , 1/2 2 −1
0 0 2 0 0 2 0 0 2 1/2 0 3

Aufgabe 3 (großspurig). Sei A ∈ SL2 (C) mit | tr A| > 2. Zeigen Sie, dass A
diagonalisierbar ist.

Aufgabe 4 (charakteristisches Polynom und Diagonalisierbarkeit). Sei K ein Körper,


sei n ∈ N>0 und sei A ∈ Mn×n (K). Zeigen Sie, dass die folgenden Aussagen
äquivalent sind:
1. Die Matrix A ist (über K) diagonalisierbar.
2. Es gilt Y
χA = (T − λ)dimK Eigλ (A) .
λ∈σK (A)

Bonusaufgabe (Würfel). Schreiben Sie von Hand ein STL-Modell eines Würfels.
Wie sehen die (horizontalen) Schnitte davon aus?

Bonusaufgabe (Skript). Finden Sie möglichst viele Fehler im Skript!

keine Abgabe
B 32 B. Übungsblätter
C
Fingerübungen
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 0 vom 17. Oktober 2016

Aufgabe 1 (griechische Buchstaben). Lernen Sie die griechischen Buchstaben!


(s. Anhang A.1 des Skripts)
Aufgabe 2 (griechische Formeln lesen). Lesen Sie die folgenden Formeln laut vor:

1. λ + α · (η + ε)
ϑβ
2. ϕ·ψ +∆−Γ·Π
δ
3. ζ(κ + ι) − χ − %(γ)

4. µ · Φ(ξ + ν) + Ω(ω) − Λ(π)


Aufgabe 3 (griechische Formeln schreiben). Schreiben Sie Formeln, die zu den
folgenden Texten passen:
1. beta plus zeta mal tau

2. phi durch rho plus xi hoch chi


3. groß-theta von my plus alpha mal psi
4. omega mal sigma minus groß-sigma von eta
Aufgabe 4 (etc.). Formulieren und lösen Sie weitere Aufgaben vom selben Typ!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 1 vom 24. Oktober 2016

Aufgabe 1 (Mengenoperationen). Sei

A := {0, 1, 2}, B := {0, 2, 3, 4}, C := {0, 3, 5}.

Berechnen Sie die folgenden Mengen:


1. (A ∪ B) ∩ C
2. (A \ C) \ B
3. A ∩ (C \ A)

4. C ∪ B) ∩ (A ∩ C) ∪ B
Aufgabe 2 (Abbildungen). Seien X := {0, 1, 2} und Y := {0, 1, 2, 3} und

f : X −→ Y g : X −→ Y
0 7−→ 2 bzw. 0 7−→ 1
1 7−→ 1 1 7−→ 3
2 7−→ 2 2 7−→ 0
gegeben.
1. Skizzieren Sie f und g als Teilmengen von X × Y .
2. Wie finden Sie in Ihrer Skizze alle x ∈ X mit f (x) = 2 ?
3. Wie finden Sie in Ihrer Skizze alle x ∈ X mit g(x) ∈ {0, 1} ?
4. Ist die Aussage

∀y∈Y ∃x∈X f (x) = y ∨ g(x) = y

wahr?
Aufgabe 3 (Abbildungskompositionen). Wir betrachten die Abbildung

f : {0, 1, 2, 3} −→ {0, 1, 2, 3}
0 7−→ 1
1 7−→ 0
2 7−→ 3
3 7−→ 1.

Bestimmen Sie die Kompositionen f ◦ f , f ◦ (f ◦ f ) und f ◦ (f ◦ (f ◦ f )).


Aufgabe 4 (etc.). Formulieren und lösen Sie weitere Aufgaben vom selben Typ!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 2 vom 31. Oktober 2016

Aufgabe 1 (surjektiv, injektiv). Seien X, Y Mengen und sei f : X −→ Y eine


Abbildung. Welche der folgenden Formeln sind äquivalent zur Injektivität bzw.
Surjektivität von f ? Was bedeuten die anderen Formeln?

1. ∃x∈X ∀y∈Y f (x) = y


2. ∀y∈Y ∃x∈X f (x) = y

3. ∀x∈X ∀x0 ∈X (f (x) = f (x0 )) =⇒ (x = x0 )

4. ∀x∈X ∀x0 ∈X (f (x) 6= f (x0 )) =⇒ (x = x0 )
Aufgabe 2 (kommutative Diagramme). Welche Gleichung gehört zu welchem
kommutativen Diagramm?

f f f f
X /Y X /Y
O Xo Y XO /Y
O
g h g h g h g h
    
Z /W Z /W Zo W Z /W
k k k k

1. k ◦ h = g ◦ f
2. h ◦ k ◦ g = f
3. h ◦ f = k ◦ g
4. f ◦ g = h ◦ k

Aufgabe 3 (Rekursionen). Welche einfachen Beschreibungen haben die Abbil-


dungen f : N −→ N, die durch die folgenden Rekursionen definiert sind?

1. f (0) := 0 und f (n + 1) := f (n) für alle n ∈ N.


2. f (0) := 1 und f (n + 1) := 2 · f (n) für alle n ∈ N.
3. f (0) := 2016 und f (n + 1) := f (n) + 1 für alle n ∈ N.
4. f (0) := 1 und f (n + 1) := f (n) · 2 · n für alle n ∈ N.

Aufgabe 4 (etc.). Formulieren und lösen Sie weitere Aufgaben vom selben Typ!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 3 vom 3. November 2016

Aufgabe 1 (umgangssprachliche Relationen). Untersuchen Sie die folgenden um-


gangssprachlichen Relationen auf Personen auf Reflexivität, Symmetrie, Tran-
sitivität. Welche dieser Relationen sind Äquivalenzrelationen?

1. hat dieselbe Schuhgröße wie


2. ist älter als
3. ist verheiratet mit
4. ist verwandt mit

Aufgabe 2 (kleine Relationen). Sei X := {0, 1, 2, 3}. Wir betrachten die folgen-
den Relationen auf X:

(0, 0), (0, 1), (1, 1), (1, 2), (2, 2), (2, 3), (3, 3)

(0, 0), (0, 2), (1, 1), (1, 3), (2, 0), (2, 2), (3, 1), (3, 3)
1. Skizzieren Sie diese Teilmengen in X × X.
2. Überprüfen Sie, ob diese Relationen reflexiv, symmetrisch, transitiv sind.

3. Welche dieser Eigenschaften lassen sich gut anhand der Skizze überprüfen?
Aufgabe 3 (eine größere Relation). Wir betrachten die Relation

(m, n) ∈ N × N ∃k∈N (m + 7 · k = n) ∨ (n + 7 · k = m)

auf N.
1. Überlegen Sie sich, warum es sich dabei um eine Äquivalenzrelation han-
delt (Transitivität ist etwas unangenehm zu überprüfen).
2. Bestimmen Sie die Äquivalenzklassen dieser Relation.

3. Wo tritt diese Relation im täglichen Leben auf?


Aufgabe 4 (etc.). Formulieren und lösen Sie weitere Aufgaben vom selben Typ!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 4 vom 7. November 2016

Aufgabe 1 (symmetrische Gruppe). Sei X := {1, 2, 3, 4} und seien

f : X −→ X g : X −→ X
1 7−→ 2 1 7−→ 2
bzw.
2 7−→ 1 2 7−→ 3
3 7−→ 3 3 7−→ 4
4 7−→ 4 4 7−→ 1
gegeben.
1. Zeigen Sie, dass f und g Elemente der symmetrischen Gruppe SX sind.

2. Berechnen Sie f ◦ g und g ◦ f .


3. Berechnen Sie f ◦ g ◦ f −1 .
Aufgabe 2 (Rechnen in den komplexen Zahlen). Berechnen Sie in den komplexen
Zahlen C (d.h., Sie sollten das Ergebnis durch Real- bzw. Imaginärteil aus-
drücken):

1. (2016 + i) · (2016 − i)
2. 1/i + i
3. (1 + i)4
2017−i
4. 2016+i

Aufgabe 3 (Aussagen in Körpern). Sei (K, +, · ) ein Körper. Negieren Sie die
folgenden Aussagen korrekt:
1. ∃x∈K x 6= 0

2. ∀n∈N n · 1 = 0 =⇒ n = 0

3. ∀x,y∈K x · y = 0 =⇒ (x = 0 ∨ y = 0)

4. 1 = 0 =⇒ ∀x∈K x = x2
Welche dieser Aussagen gelten in jedem Körper?
Aufgabe 4 (etc.). Formulieren und lösen Sie weitere Aufgaben vom selben Typ!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 5 vom 13. November 2016

Aufgabe 1 (Koordinaten in R2 ).
1. Zeichnen Sie die folgenden Punkte in R2 :
       
3 3 −3 −3
, , , .
1 −1 1 −1

2. Lesen Sie die Koordinaten für die Punkte in der folgenden Skizze ab:

1
À
1

Aufgabe 2 (Koordinaten in R3 ). Betrachten Sie eine der Ecken Ihres Zimmers


als Nullpunkt in R3 und die drei angrenzenden Kanten als Koordinatenachsen
in R3 .
1. Geben Sie dann die Koordinaten markanter Punkte in Ihrem Zimmer an
(als Einheit bieten sich Meter an).
2. Welche Koordinaten hat das Haustürschloss?
3. Welche Koordinaten hat die Spitze des Doms?
4. Welche Koordinaten hat die Uhr in H 32?
Aufgabe 3 (Vektorrechnung). Sei K ein Körper, sei V ein K-Vektorraum und
seien λ ∈ K \ {0}, v ∈ V \ {0}. Welche der folgenden Ausdrücke sind sinnvoll?
Welche nicht?
1
1. λ ·v
2. v · λ
1
3. λ · v

4. λ + v
Aufgabe 4 (etc.). Formulieren und lösen Sie weitere Aufgaben vom selben Typ!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Prem Blatt 6 vom 21. November 2016

Aufgabe 1 (Linearkombinationen). Wir betrachten in R2 die Vektoren


     
1 0 −2
v1 := , v2 := , v3 := .
1 3 −2

Bestimmen Sie den Wert folgender Linearkombinationen:

1. 2 · v1 + 0 · v2 + 1 · v3
2. 3 · v1 − 1 · v2 + 0 · v3
P3
3. j=1 1 · vj
P3
4. j=1 j · vj
Aufgabe 2 (eine affine Ebene). Zeichnen Sie den affinen Unterraum
     
2 −1 −1
0 + SpanR  1 ,  0
0 0 1

in R3 .
Aufgabe 3 (Vektorentrio in R2 ). Wir betrachten die folgenden Vektoren in R2 :
     
0 1 2
v1 := , v2 := , v3 :=
1 1 0

1. Handelt es sich bei {v1 , v2 , v3 } um ein Erzeugendensystem von R2 ?


2. Handelt es sich bei {v1 , v2 } um ein Erzeugendensystem von R2 ?

3. Handelt es sich bei (v1 , v2 , v3 ) um eine linear unabhängige Familie in R2 ?


4. Handelt es sich bei (v1 , v2 ) um eine linear unabhängige Familie in R2 ?
Aufgabe 4 (Wiederholung). Wiederholen Sie das Material über Quantorenlogik,
das Induktionsprinzip und über Gruppen. Fallen Ihnen die Übungsaufgaben
dazu jetzt leichter? Wie können Sie dieses Material im Kontext von Erzeugen-
densystemen und linearer Unabhängigkeit verwenden?

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 7 vom 28. November 2016

Aufgabe 1 (Koordinatengitter). Wir betrachten die Vektoren


   
3 2
v1 := , v2 :=
1 2

in R2 .
1. Zeigen Sie, dass (v1 , v2 ) eine Basis von R2 ist.
2. Zeichnen Sie das Koordinatengitter“ zu dieser Basis.

3. Bestimmen Sie λ1 , λ2 , µ1 , µ2 ∈ R mit

e1 = λ1 · v1 + λ2 · v2 ,
e2 = µ1 · v1 + µ2 · v2 .

Aufgabe 2 (eine Basis von R3 ). Wir betrachten die Vektoren


     
0 1 1
v1 := 1 , v2 := 0 , v3 := 1
0 1 0

in R3 . Zeigen Sie, dass (v1 , v2 , v3 ) eine Basis von R3 ist.


Aufgabe 3 (Austauscherei). Wir betrachten die Basis (v1 , v2 , v3 ) von R3 aus
Aufgabe 2 und die Vektoren
   
2 0
w1 := 2 , w2 := 2
2 2

in R3 . Finden Sie ein j ∈ {1, 2, 3} mit der Eigenschaft, dass (w1 , w2 , vj ) eine
Basis von R3 ist.
Aufgabe 4 (Wiederholung). Wiederholen Sie das Material über Äquivalenzrela-
tionen, Körper und die Grundlagen von Vektorräumen. Fallen Ihnen die Übungs-
aufgaben dazu jetzt leichter?

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 8 vom 5. Dezember 2016

Aufgabe 1 (Dimensionsausdrücke). Wir betrachten die Standardeinheitsvekto-


ren e1 , e2 , e3 ∈ R3 . Welche der folgenden Ausdrücke ergeben überhaupt einen
Sinn? Welcher Zahlenwert ergibt sich dabei dann?

1. dimR {e1 , e3 }

2. dimR SpanR ({e1 , e3 })

3. dimR SpanR ({e1 , e3 } \ {e3 })

4. dimR SpanR ({e1 , e3 }) \ SpanR ({e3 })
Aufgabe 2 (komplementäre Unterräume). Welche der folgenden Untervektorräume
von R3 sind komplementär zueinander?
1. SpanR ({e1 , e2 , e3 }) und {0}

2. SpanR ({e1 }) und SpanR ({e3 })


3. SpanR ({e2 }) und SpanR ({e1 , e3 })
4. SpanR ({e1 + e2 }) und SpanR ({e2 , e3 })

Aufgabe 3 (Quotientenvektorräume). Sei U := SpanR ({e1 , e2 }) ⊂ R3 .


1. Gilt e1 ∼U e2 ?
2. Gilt e1 ∼U e3 ?
3. Was ist (e1 + U ) + (e2 + U ) in R3 /U ?

4. Was ist (e1 + U ) + (e3 + U ) in R3 /U ?


Aufgabe 4 (Wiederholung). Wiederholen Sie das Material über lineare Unab-
hängigkeit und Untervektorräume. Fallen Ihnen die Übungsaufgaben dazu jetzt
leichter?

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 9 vom 12. Dezember 2016

Aufgabe 1 (Multiplikation von Zeilen/Spalten). Berechnen Sie die folgenden Ma-


trizen in M1×1 (R) = R bzw. M2×2 (R):
   
 3 3 
1 2 · und · 1 2
4 4

Aufgabe 2 (Potenzen von Matrizen). Wir betrachten die Matrizen


   
0 1 0 −1
A := B :=
0 0 1 0

in M2×2 (R).
1. Berechnen Sie A2 , A3 , A4 .

2. Berechnen Sie B 2 , B 3 , B 4 .
3. Vollziehen Sie diese Rechnungen auch geometrisch nach, indem Sie die
linearen Abbildungen L(A), L(B) : R2 −→ R2 betrachten.
Aufgabe 3 (Noch mehr Produkte von Matrizen). Wir betrachten
     
1 2 1 1 1 0
A := , B := , C :=
3 4 0 1 0 2

in M2×2 (R).
1. Berechnen Sie A · B.
2. Berechnen Sie B · A.
3. Berechnen Sie A · C.

4. Berechnen Sie C · A.
5. Berechnen Sie (A · B) · C.
6. Berechnen Sie A · (B · C).

7. Überprüfen Sie Ihre Ergebnisse mit einem Computeralgebrasystem!


Aufgabe 4 (Wiederholung). Wiederholen Sie das Material über Abbildungen von
Mengen, Basen und Dimension. Fallen Ihnen die Übungsaufgaben dazu jetzt
leichter?

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 10 vom 19. Dezember 2016

Aufgabe 1 (Ferwandlung). Beschreiben Sie die folgenden linearen Abbildun-


gen R2 −→ R2 explizit und durch eine geeignete Matrix in M2×2 (R):

Á Á

1 1
À À
1 1

Á Á

1 1
À À
1 1

Aufgabe 2 (Isomorphismen?). Beantworten Sie für jede der Matrizen A (über Q)


       
2 0 2 0 1 2 3 4 1
, , ,
1 6 1 0 5 6 7 8 2

die folgenden Fragen:


1. Welchen Start- und Zielraum hat die lineare Abbildung L(A) ?
2. Ist L(A) ein Isomorphismus?
Aufgabe 3 (Kern und Bild). Seien
 
  1 2
1 0 3
A := ∈ M2×3 (R), B := 0 0 ∈ M3×2 (R).
2 0 6
3 6

Bestimmen Sie Kern und Bild (und die Dimensionen dieser Vektorräume) der
linearen Abbildungen L(A) : R3 −→ R2 bzw. L(B) : R2 −→ R3 .
Aufgabe 4 (Zusammenfassung). Verfassen Sie eine kurze Zusammenfassung des
bisher behandelten Materials. Welche Aspekte sollten Sie in den nächsten Wo-
chen nochmal besonders intensiv wiederholen?

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 11 vom 9. Januar 2017

Aufgabe 1 (Invertierbarkeit). Welche der folgenden Matrizen in M2×2 (Q) sind


invertierbar? Bestimmen Sie gegebenenfalls auch die inverse Matrix!
       
1 2017 0 1 2 0 0 0
, , ,
0 1 1 0 1 7 1 7

Aufgabe 2 (Basen und Matrizen). Wir betrachten die folgenden Basen von R2 :
       
1 1 0 1
B := , und C := ,
2 1 1 0

1. Bestimmen Sie die Matrizen M (TB,C ) und M (TC,B ).

2. Bestimmen Sie die Matrizen MB,C und MC,B .


Hinweis. Diese Matrizen werden am Donnerstag eingeführt.
Aufgabe 3 (lineare Abbildungen und Matrizen). Wir betrachten die lineare Ab-
bildung

f : R2 −→ R
x 7−→ x1 + 3 · x2 .

Bestimmen Sie jeweils die darstellende Matrix MB,C (f ) für die folgenden Ba-
sen B und C von R2 bzw. R:
B C
E2 E1
 E2  (5)
0 1
, E1
1 0
   
1 1
, (3)
1 2

Aufgabe 4 (CAS). Überprüfen Sie Ihre Rechnungen mit einem Computeralge-


brasystem!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 12 vom 16. Januar 2017

Aufgabe 1 (Zeilenstufenform). Wir betrachten die Matrizen


     
0 1 2 3 2 0 1 7 9 6 0 0
A1 := , A2 := , A3 :=
0 0 0 1 0 0 2 0 0 0 4 2

über R. Bestimmen Sie Basen von V (A1 , 0), V (A2 , 0), V (A3 , 0).
Aufgabe 2 (Invertierbarkeit). Testen Sie die folgenden Matrizen in M3×3 (R) auf
Invertierbarkeit und bestimmen Sie gegebenenfalls die inverse Matrix:
     
1 2 3 2 0 −1 −1 0 2
2 3 4 , 6 3 0  ,  0 1 0 
3 4 5 4 4 2 4 0 −3

Aufgabe 3 (lineare Gleichungssysteme). Lösen Sie die folgenden linearen Glei-


chungssysteme mit dem Gaußschen Eliminationsverfahren. In welcher Form gibt
man Lösungen solcher Gleichungssysteme überhaupt an?

Gesucht: alle x ∈ R4 mit


x1 + x2 − x3 = 0
x1 + x3 = 1
x1 − x2 = 0

Gesucht: alle x ∈ F32 mit

x1 + x2 − x3 = 0
x1 + x3 = 1
x1 − x2 = 0

Aufgabe 4 (CAS). Überprüfen Sie Ihre Rechnungen mit einem Computeralge-


brasystem!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 13 vom 23. Januar 2017

Aufgabe 1 (Determinante). Berechnen Sie für die folgenden Matrizen in M3×3 (R)
die Determinante:
       
1 0 0 1 2 3 1 0 0 1 1 1
0 2 0 , 1 2 3 , 1 2 3 , 2 0 3 .
0 0 3 1 2 3 3 2 1 1 0 1

Hinweis. Berechnen Sie die Determinante zunächst (rekursiv) durch Entwick-


lung nach der ersten Spalte. Versuchen Sie dann, auch alternative, geschicktere,
Rechenwege zu finden.
Aufgabe 2 (Determinante und Invertierbarkeit). Sei
 
2 0 0
A := 0 1 −6 ∈ M3×3 (C).
0 7 1

Bestimmen Sie mit dem Invertierbarkeitskriterium der Determinante alle λ ∈ C,


für die die Matrix A − λ · I3 ∈ M3×3 (C) invertierbar ist.

Aufgabe 3 (Leibniz-Formel). Sei K ein Körper.


1. Schreiben Sie alle Elemente von S2 auf; bestimmen Sie das Signum aller
Elemente von S2 .
2. Schreiben Sie die Leibniz-Formel für det : M2×2 (K) −→ K explizit aus.

3. Schreiben Sie alle Elemente von S3 auf; bestimmen Sie das Signum aller
Elemente von S3 .
4. Schreiben Sie die Leibniz-Formel für det : M3×3 (K) −→ K explizit aus.
5. Vergleichen Sie Ihr Ergebnis mit den bereits bekannten Formeln für 2 × 2-
bzw. 3 × 3-Matrizen.
Hinweis. Die Gruppe S2 enthält genau zwei Elemente, die Gruppe S3 genau
sechs Elemente.
Aufgabe 4 (CAS). Überprüfen Sie Ihre Rechnungen mit einem Computeralge-
brasystem!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 14 vom 30. Januar 2017

Aufgabe 1 (Nullstellen). Bestimmen Sie für jede der folgenden Gleichungen die
Menge aller λ ∈ Q (bzw. R, Q(i), C, F2 ), die die Gleichung lösen:
1. λ2 + 1 = 0

2. λ2 − 1 = 0
3. λ2 + 2 · λ + 3 = 0
4. λ3 + λ2 − 2 = 0

Aufgabe 2 (Eigenwerte und Eigenräume). Bestimmen Sie für die folgenden Ma-
trizen in M2×2 (C) alle Eigenwerte (in C) und alle Eigenräume (in C2 ):
     
0 2 2 −i −1 −9
, ,
−2 0 −i 0 0 2

Aufgabe 3 (Diagonalisierbarkeit). Welche der folgenden Matrizen sind über Q


diagonalisierbar?
     
2 0 0 1 1 1 1 1 1
0 3 1 , 0 1 1 , 0 2 1
0 0 3 0 0 1 0 0 2

Aufgabe 4 (CAS). Überprüfen Sie Ihre Rechnungen mit einem Computeralge-


brasystem!

keine Abgabe!
Fingerübungen zur Linearen Algebra I

Prof. Dr. C. Löh/D. Fauser/J. Witzig Blatt 15 vom 6. Februar 2017

Aufgabe 1 (Polynome). Berechnen Sie in C[T ] die folgenden Produkte:


1. (T − 1) · (T 3 + T 2 + T + 1)

2. (T 2 + 2 · T + 1) · (T 2 − 2 · T + 1)
3. (T 2016 − 1) · (T 2017 − 1)
4. (T 2 + i · T − i) · (i · T 2 − T + 2017)
Aufgabe 2 (Polynomfunktionen). Betrachten Sie die Polynomfunktionen zu den
Polynomen
T 3 − T 2 − 2 · T und T 2 + T
über R bzw. F2 . Wie sehen die zugehörigen Polynomfunktionen aus? Welche
Nullstellen haben diese Polynome?
Aufgabe 3 (charakteristische Polynome). Bestimmen Sie jeweils das charakteris-
tische Polynom der folgenden Matrizen (in M3×3 (C)).
       
1 0 0 2 1 0 1 0 0 2 4 0
0 2 0 , 0 2 1 , 0 2 3 , 3 5 0
0 0 3 0 0 2 0 4 5 0 0 1

Aufgabe 4 (CAS). Überprüfen Sie Ihre Rechnungen mit einem Computeralge-


brasystem!

keine Abgabe!
C 18 C. Fingerübungen
D
Allgemeine Hinweise
Lineare Algebra I im WS 2016/17
Organisatorisches
Prof. Dr. C. Löh/D. Fauser/J. Prem Oktober 2016

Homepage. Alle aktuellen Informationen zur Vorlesung, zu den Übungen, zu


Sprechstunden, Literaturangaben, sowie die Übungsblätter finden Sie
auf der Homepage zur Vorlesung bzw. in GRIPS:

http://www.mathematik.uni-regensburg.de/loeh/teaching/linalg1 ws1617
https://elearning.uni-regensburg.de

Vorlesung. Die Vorlesung findet jeweils montags (10:15–12:00; H 32) und don-
nerstags (10:15–12:00; H 32) statt. Ausnahme: am 17. Oktober in H 20.
Es wird ein (Kurz)Skript zur Vorlesung geben, das eine Übersicht
über die wichtigsten Themen der Vorlesung enthält. Dieses Skript wird
jeweils auf den obigen Homepages aktualisiert. Beachten Sie bitte, dass
dieses Kurzskript keineswegs geeignet ist, den Besuch der Vorlesung
oder der Übungen zu ersetzen!
Übungen. Die neuen Übungsaufgaben werden wöchentlich donnerstags späte-
stens um 10:00 Uhr auf den obigen Homepages online gestellt und sind
bis zum Donnerstag eine Woche später um 10:00 Uhr in die entspre-
chenden Briefkästen in der Mathematik abzugeben.
Auf jedem Übungsblatt gibt es vier reguläre Aufgaben (je 4 Punkte)
und herausforderndere Bonusaufgaben (je 4 Bonuspunkte).
Sie dürfen (und sollen) die Aufgaben in kleinen Gruppen bearbeiten;
aber die Lösungen müssen individuell ausformuliert und aufgeschrieben
werden (andernfalls werden die Punkte aberkannt). Sie dürfen (müssen
aber nicht!) Lösungen zu zweit abgeben; in diesem Fall müssen selbst-
verständlich jeweils beide Autoren in der Lage sein, alle der Zweier-
gruppe abgegebenen Lösungen an der Tafel zu präsentieren (andernfalls
werden die Punkte aberkannt).
Die Übungen beginnen in der zweiten Vorlesungswoche; in diesen
ersten Übungen wird das Einführungsblatt, Blatt 0, besprochen.

Zentralübung. Zusätzlich zur Vorlesung und den Übungen bietet die Zentral-
übung die Gelegenheit, Fragen zu stellen und den Stoff der Vorlesung zu
wiederholen und zu vertiefen. Die Zentralübung findet jeweils montags
(14:15–16:00; H 32) statt und wird von Daniel Fauser und Johannes
Prem geleitet; die Zentralübung beginnt in der zweiten Vorlesungswo-
che.
Außerdem werden wir auf der Homepage Fingerübungen anbieten,
mit denen grundlegende Begriffe, Handgriffe und Rechentechniken ein-
geübt werden können. Diese Aufgaben werden nicht abgegeben bzw.
korrigiert.

1
Einteilung in die Übungsgruppen. Die Einteilung in die Übungsgruppen er-
folgt über GRIPS:

https://elearning.uni-regensburg.de

Sie können sich bis Mittwoch, den 19. Oktober 2016, um 10:00 Uhr
für die Übungen anmelden; Sie können dort Ihre Präferenzen für die
Übungstermine auswählen und wir werden versuchen, diese Wünsche
zu erfüllen. Bitte beachten Sie jedoch, dass es sein kann, dass wir nicht
alle Wünsche erfüllen können.
Falls Sie noch keine Kennung des Rechenzentrums haben, wenden
Sie sich bitte an Daniel Fauser oder Johannes Prem.
Die endgültige Einteilung der Übungsgruppen wird spätestens am
Freitag, den 21. Oktober 2016, in GRIPS bekanntgegeben. Ein Wechsel
in volle Übungsgruppen ist dann nur durch Tausch mit einem Tausch-
partner möglich.
Bei Fragen zur Einteilung der Übungsgruppen und zum Übungsbe-
trieb wenden Sie sich bitte an Daniel Fauser ([email protected]) oder
Johannes Prem ([email protected]).
Leistungsnachweise. Diese Vorlesung kann wie in den einzelnen Modulkatalo-
gen spezifiziert in die Studiengänge eingebracht werden.

• Studienleistung: Regelmäßige und aktive Teilnahme an den Übun-


gen, mindestens 50% der (in den regulären Aufgaben) möglichen
Punkte, mindestens einmal zufriedenstellend vorrechnen.
• Prüfungsleistung (für den Leistungsnachweis zur Linearen Alge-
bra I): Zweistündige Klausur (s.u.). Die Modulnote ergibt sich wie
im jeweiligen Modulkatalog angegeben.

Im Bachelorstudiengang Mathematik ist für das Modul BGLA zusätz-


lich noch eine (mündliche) Modulabschlussprüfung über die Inhalte der
Vorlesungen Lineare Algebra I und II abzulegen. Details zu diesen Prüfun-
gen werden am Ende der Linearen Algebra II bekanntgegeben.

Klausur. Die Klausur findet am Dienstag, den 14. Februar 2017, von 9:00 bis
11:00 Uhr, statt. Die Wiederholungsklausur ist voraussichtlich am Ende
der Semesterferien; der genaue Termin wird so bald wie möglich be-
kanntgegeben.
Sie müssen sich in FlexNow für die Studienleistung und die Prüfungs-
leistung anmelden. Bitte informieren Sie sich frühzeitig. Wir werden
rechtzeitig Einträge in FlexNow vorbereiten. Berücksichtigen Sie bit-
te auch (implizite) Fristen der entsprechenden Prüfungsordnungen bis
wann (Wiederholungs-)Prüfungen abgelegt werden müssen.
Wichtige Informationen im Krankheitsfall finden Sie unter:

http://www.uni-regensburg.de/mathematik/fakultaet/studium/studierende-und-studienanfaenger/index.html

2
Hinweise für Wiederholer. Studenten, die bereits in einem vorangegangenen
Semester die Klausurzulassung erhalten haben, aber im entsprechenden
Semester die Klausur nicht bestanden haben oder nicht an der Klausur
teilgenommen haben, können mit dieser Zulassung auch an den oben
genannten Klausurterminen teilnehmen. Informieren Sie sich rechtzei-
tig über den Stoffumfang dieser Vorlesung (z.B. über das Kurzskript).
Außerdem kann es je nach Kenntnisstand sinnvoll sein, nochmal an den
Übungen oder der Vorlesung teilzunehmen.
Für den Drittversuch besteht alternativ zur Klausur auch wahlweise
die Möglichkeit, die Prüfung als mündliche Prüfung abzulegen.
Falls Sie an den Übungen teilnehmen möchten, ohne dass Ihre Lösun-
gen korrigiert werden sollen, schreiben Sie bitte eine email an Daniel
Fauser oder Johannes Prem mit Ihren Wunschterminen (damit die Übungs-
gruppen einigermaßen gleichmäßig besucht sind).
Ansprechpartner.

• Bei Fragen zur Organisation des Übungsbetriebs wenden Sie sich


bitte an Daniel Fauser oder Johannes Prem (Büro M 205):
[email protected]
[email protected]
• Bei Fragen zu den Übungsaufgaben wenden Sie sich bitte an Ihren
Übungsleiter oder an Daniel Fauser oder Johannes Prem.
• Bei mathematischen Fragen zur Vorlesung wenden Sie sich bitte
an Ihren Übungsleiter, an Daniel Fauser, Johannes Prem oder an
Clara Löh.
• Bei Fragen zur Planung Ihres Studiums bzw. zur Prüfungsordnung
wenden Sie sich bitte an die zuständige Studienberatung oder das
zuständige Prüfungsamt:
http://www.uni-regensburg.de/mathematik/fakultaet/studium/ansprechpersonen/index.html

Bei vielen Fragen kann Ihnen auch die Fachschaft weiterhelfen:

http://www-cgi.uni-regensburg.de/Studentisches/FS MathePhysik/cmsms/

3
Lineare Algebra I im WS 2016/17
Hinweise zur Prüfungsvorbereitung
Prof. Dr. C. Löh/D. Fauser/J. Prem Oktober 2016

Ziel der Prüfungsvorbereitung. Hauptziel der Prüfungsvorbereitung ist die sou-


veräne Beherrschung des behandelten Fachgebiets. Die Prüfung sichert
ab, dass dies tatsächlich der Fall ist, ist aber nicht das eigentliche in-
haltliche Ziel der Vorlesung.
Beherrscht werden sollten also:
• aktive Kenntnis der Fachbegriffe und Formalisierungsmethoden
• Verständnis der Ideen, die zu diesen Fachbegriffen und Formalisie-
rungen führen
• wichtige Probleme und Fragestellungen, die das Gebiet maßgeblich
beeinflusst haben bzw. die durch das Gebiet gelöst werden können
• wichtige Resultate und Zusammenhänge innerhalb des Gebiets
• wichtige Beweis- und Lösungsstrategien
• repräsentative Beispiele
• Anwendungen des Gebiets und Interaktion mit anderen Gebieten
• Fähigkeit, auf all diesen Kenntnissen weiter aufzubauen.
Erreichen dieses Ziels. Während der Vorlesungszeit:

• aktive Auseinandersetzung mit den Übungsaufgaben


• Erlernen des Fachwissens (Definitionen, Sätze), notfalls mit Kar-
teikarten
• weiteres aktives Üben mit zusätzlichen Aufgaben und Vertiefung
der Kenntnisse durch Selbststudium (Bibliothek!)
• Bei Fragen: Betreuungsangebote nutzen!
Kurz vor der Prüfung:
• Kann ich mein Wissen präzise und verständlich präsentieren? (Das
kann man einfach an anderen Kommilitonen ausprobieren . . . )
• Was könnten typische Prüfungsfragen sein? Was sind gute Lösun-
gen zu diesen Fragen?
• Wie belastbar sind meine Fähigkeiten? Was muss ich noch verbes-
sern?
Bewertungskriterien. In der Prüfung werden folgende Fähigkeiten abgeprüft:

• Fachwissen (Definitionen, Sätze, Beweise, Beispiele, Anschauung,


Zusammenhänge, Anwendungen, . . . )
• präzises und korrektes, logisch schlüssiges, Formulieren und Argu-
mentieren
• Lösen von Standardproblemen
• Kreativität bei der Lösung von Problemen

Viel Erfolg bei der Prüfung!


Lineare Algebra I im WS 2016/17
Hinweise zu den Übungsaufgaben
Prof. Dr. C. Löh/D. Fauser/J. Prem Oktober 2016

Ziel der Übungsaufgaben. Ziel der Übungsaufgaben ist, sich aktiv mit den be-
handelten Definitionen, Sätzen, Beispielen und Beweistechniken ausein-
anderzusetzen und zu lernen, damit umzugehen.
Wie bearbeitet man eine Übungsaufgabe?
• Beginnen Sie mit der Bearbeitung an dem Tag, an dem das Übungs-
blatt erscheint – manche Dinge brauchen einfach ein paar Tage
Zeit.
• Lesen Sie sich alle Aufgaben gründlich durch. Kennen Sie alle auf-
tretenden Begriffe? Verstehen Sie, was in den Aufgaben verlangt
wird?
• Was sind die Voraussetzungen? Was ist zu zeigen? Wie könnten
diese Dinge zusammenhängen? Gibt es Sätze aus der Vorlesung,
die auf diese Situation passen?
• Welche Lösungsstrategien bzw. Beweisstrategien passen auf die
Aufgabe? Kann man einfach direkt mit den Definitionen arbeiten
und so zum Ziel gelangen?
• Ist die Aufgabe plausibel? Versuchen Sie die behaupteten Aussa-
gen, an einfachen Beispielen nachzuvollziehen!
• Falls Sie die Aufgabe unplausibel finden, können Sie versuchen, sie
zu widerlegen und untersuchen, woran dieses Vorhaben scheitert.
• Kann man die Situation durch eine geeignete Skizze graphisch dar-
stellen?
• Versuchen Sie, das Problem in kleinere Teilprobleme aufzuteilen.
Können Sie diese Teilprobleme lösen?
• Verwenden Sie viel Schmierpapier und geben Sie sich genug Zeit, an
der Aufgabe herumzuexperimentieren! Selbst wenn Sie die Aufgabe
nicht vollständig lösen, werden Sie auf diese Weise viel lernen, da
Sie sich aktiv mit den Begriffen und Sätzen auseinandersetzen.
• Wenn Sie nicht weiterwissen, diskutieren Sie die Aufgabe mit Kom-
militonen. Lassen Sie sich aber auf keinen Fall dazu verleiten, ein-
fach Lösungen irgendwo abzuschreiben. Mathematik kann man nur
lernen, wenn man aktiv damit arbeitet und seine Gedanken selbst
formuliert!

Wie schreibt man eine Lösung auf?


• Gliedern Sie Ihre Lösung sauber in Voraussetzung, Behauptung
und Beweis.
• Teilen Sie Ihre Beweise in sinnvolle Zwischenschritte auf.
• Achten Sie darauf, dass Sie verständlich formulieren und dass die
Argumente logisch aufeinander aufbauen.
• Ist Ihre Argumentationskette wirklich lückenlos? Seien Sie miss-
trauisch gegenüber Ihrer eigenen Lösung und versuchen Sie, alle
potentiellen Schwachpunkte ausfindig zu machen!
• Wenn Sie einzelne Beweisschritte nicht vollständig durchführen
können, können Sie in Ihrer Lösung darauf hinweisen – die restliche
Lösung kann trotzdem Punkte erhalten!
• Achten Sie darauf, dass Sie alle Bezeichner einführen und dass Sie
mathematische Symbole und Fachbegriffe korrekt verwenden.
• Versuchen Sie, sich so präzise wie möglich auszudrücken!
• Versuchen Sie, indirekte Argumente so weit wie möglich zu vermei-
den.
• Überprüfen Sie am Ende, ob Sie wirklich das bewiesen haben, was
Sie ursprünglich behauptet haben.
• Oft ist es auch hilfreich zu überprüfen, ob/wie alle in der Aufgabe
gegebenen Voraussetzungen verwendet wurden.
• Würden Sie Ihre Lösung verstehen, wenn Sie sie zum ersten Mal
lesen würden?
• Alles, was Sie abgeben, müssen Sie eigenständig formuliert und
auch verstanden haben.
• Geben Sie Literaturangaben an, wenn Sie zusätzliche Quellen ver-
wendet haben.
Bewertungskriterien. Bei der Bewertung der abgegebenen Lösungen wird auf
folgendes geachtet:

• Wurde die gestellte Aufgabe vollständig gelöst?


• Wurden Voraussetzung, Behauptung, Beweis deutlich voneinander
getrennt?
• Stimmen die Voraussetzungen? Sind sie sauber formuliert?
• Stimmen die Behauptungen/Zwischenbehauptungen? Sind sie sau-
ber formuliert?
• Ist die Argumentationskette der Beweisschritte vollständig?
• Sind die Beweisschritte präzise formuliert und verständlich?
• Sind alle Bezeichner eingeführt?
• Werden mathematische Symbole und Fachbegriffe korrekt einge-
setzt?
• Ist an jeder Stelle des Beweises klar, was passiert?
• Werden die neu erlernten Begriffe und Techniken passend einge-
setzt?

Viel Erfolg und viel Spass bei den Übungen!


D8 D. Allgemeine Hinweise
Literaturverzeichnis

Bitte beachten Sie, dass das Literaturverzeichnis im Laufe der Vor-


lesung wachsen wird und sich daher auch die Nummern der Quellen
ändern werden!
[1] A. Beutelspacher. Das ist o.B.d.A. trivial!, neunte Auflage, Vieweg+-
Teubner, 2009.
http://link.springer.com/book/10.1007%2F978-3-8348-9599-8 Zitiert
auf Seite: 16
[2] S. Bosch. Lineare Algebra, fünfte Auflage, Springer Spektrum, 2014.
Zitiert auf Seite:
[3] M. Brandenburg. Einfhrung in die Kategorientheorie: Mit ausfhrlichen
Erklrungen und zahlreichen Beispielen, Springer-Spektrum, 2015. Zi-
tiert auf Seite: A 11
[4] P.J. Cameron. Sets, Logic and Categories, Universitext, Springer, 1998.
Zitiert auf Seite: 11
[5] B.L. Davis, D. MacLagan. The card game SET, The Mathematical In-
telligencer 25(3), S. 33–40, Juni 2003. Zitiert auf Seite: A 8
[6] H.-D. Ebbinghaus et. al.. Zahlen, Springer, 1992. Zitiert auf Seite: 51
[7] H.-D. Ebbinghaus, J. Flum, W. Thomas. Einführung in die mathema-
tische Logik, 5. Auflage, Spektrum Akademischer Verlag, 2007. Zitiert
auf Seite: 11
[8] A. Engel. Problem Solving Strategies, Problem Books in Mathematics,
Springer, 1998. Zitiert auf Seite:
C2 Literaturverzeichnis

[9] R.L. Graham, D.E. Knuth, O. Patashnik. Concrete Mathematics. A


Foundation for Computer Science, zweite Auflage, Addison-Wesley,
1994. Zitiert auf Seite: 172

[10] K. Jänich. Lineare Algebra, 11. Auflage, Springer, 2013. Zitiert auf
Seite: 3, 60
[11] D.E. Knuth. Surreal numbers, Addison-Wesley, 1974. Zitiert auf Sei-
te: 37
[12] C. Löh, S. Krauss, N. Kilbertus. Quod erat knobelandum, Springer Spek-
trum, 2016. Zitiert auf Seite:
[13] S. MacLane. Categories for the Working Mathematician, zweite Auf-
lage, Springer, 1998. Zitiert auf Seite: A 11

Das könnte Ihnen auch gefallen