0% fanden dieses Dokument nützlich (0 Abstimmungen)
4K Ansichten509 Seiten

Siegfried Bosch

Das Dokument stellt ein Lehrbuch über Lineare Algebra vor. Es enthält eine Einführung in das Thema sowie Kapitel über Vektorräume, lineare Abbildungen, Matrizen, lineare Gleichungssysteme und Determinanten. Zusätzlich werden Methoden wie die Eigenwert- und Normalformtheorie behandelt.

Hochgeladen von

ayanabi8753
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
4K Ansichten509 Seiten

Siegfried Bosch

Das Dokument stellt ein Lehrbuch über Lineare Algebra vor. Es enthält eine Einführung in das Thema sowie Kapitel über Vektorräume, lineare Abbildungen, Matrizen, lineare Gleichungssysteme und Determinanten. Zusätzlich werden Methoden wie die Eigenwert- und Normalformtheorie behandelt.

Hochgeladen von

ayanabi8753
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Siegfried Bosch

Lineare
Algebra
Ein Grundkurs mit Aufgabentrainer
6. Auflage
Lineare Algebra
Siegfried Bosch

Lineare Algebra
Ein Grundkurs mit Aufgabentrainer
6. Auflage
Siegfried Bosch
Mathematisches Institut
Westfälische Wilhelms-Universität
Münster, Deutschland

ISBN 978-3-662-62615-3 ISBN 978-3-662-62616-0 (eBook)


[Link]

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detail-
lierte bibliografische Daten sind im Internet über [Link] abrufbar.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2001, 2003, 2006, 2008, 2014, 2021
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem
Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung
unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen
Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und
Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.

Planung/Lektorat: Annika Denkert


Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil
von Springer Nature.
Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort

Die Lineare Algebra gehört neben der Differential- und Integralrech-


nung zu den allgemeinen Grundlagen, die in nahezu allen Teilen der
Mathematik eine tragende Rolle spielen. Demgemäß beginnt das Ma-
thematikstudium an Universitäten mit einer soliden Ausbildung in die-
sen beiden Gebieten, meist in zwei getrennten Vorlesungen. Ein zen-
trales Thema der Linearen Algebra ist das Lösen linearer Gleichungen
bzw. von Systemen solcher Gleichungen. Das sind Beziehungen mittels
rationaler Operationen zwischen bekannten Größen, den sogenannten
Koeffizienten, und den unbekannten Größen, die zu bestimmen sind.
Linear bedeutet dabei, dass die unbekannten Größen separiert und
lediglich in erster Potenz vorkommen. Nach der Entdeckung von Koor-
dinaten im anschaulichen Raum durch Descartes konnten lineare Glei-
chungen auch zur Charakterisierung einfacher geometrischer Objek-
te wie Geraden und Ebenen sowie deren Schnitten genutzt werden.
Damit ergab sich insbesondere die Möglichkeit, Methoden der Linea-
ren Algebra im Rahmen geometrischer Problemstellungen einzusetzen.
Heute bildet die Lineare Algebra ein eigenständiges Gebiet innerhalb
der Algebra, dessen Bedeutung weit über die Möglichkeit geometri-
scher Anwendungen hinausreicht. In der Tat, im Laufe der Zeit ha-
ben sich aus den verschiedensten anwendungsorientierten Methoden
gewisse einheitliche Grundmuster herauskristallisiert, die in der ersten
Hälfte des vergangenen Jahrhunderts zum axiomatischen Aufbau ei-
ner Linearen Algebra modernen Stils genutzt wurden. In Verbindung
mit einer adäquaten Sprache führte dies zu einer Verschlankung und
besseren Handhabbarkeit der Theorie, mit der Folge grundlegender
neuer Erkenntnisse und der Eröffnung zusätzlicher Anwendungsfelder,
die vorher nicht denkbar gewesen waren.
VI Vorwort

Der Text des vorliegenden Buches repräsentiert das Pensum ei-


ner zweisemestrigen Einführungsvorlesung in die Lineare Algebra, eine
Vorlesung, die ich mehrfach an der Universität Münster gehalten habe.
Die meisten Studierenden verfügen bereits über gewisse Vorkenntnisse
zur Linearen Algebra, wenn sie sich für ein Mathematikstudium ent-
scheiden, etwa was die Vektorrechnung oder das Lösen linearer Glei-
chungssysteme angeht. Sie sind dagegen aller Erfahrung nach weniger
mit den allgemeinen Begriffsbildungen der Linearen Algebra vertraut,
die diese Theorie so universell einsatzfähig machen. So ist es nicht ver-
wunderlich, dass diese abstrakte Seite der Linearen Algebra für viele
Studierende neue und ungewohnte Schwierigkeiten aufwirft. Ich habe
mich dafür entschieden, diese Schwierigkeiten nicht zu kaschieren, son-
dern ihre Überwindung gezielt in den Vordergrund zu stellen. Deshalb
wird in diesem Text von Anfang an großer Wert auf eine klare und
systematische, aber dennoch behutsame Entwicklung der in der Linea-
ren Algebra üblichen theoretischen Begriffsbildungen gelegt. Ad-hoc-
Lösungen, die bei späteren Überlegungen oder Verallgemeinerungen
revidiert werden müssten, werden nach Möglichkeit vermieden. Erst
wenn die theoretische Seite eines Themenkomplexes geklärt ist, erfolgt
die Behandlung der zugehörigen Rechenverfahren, unter Ausschöpfung
des vollen Leistungsumfangs.
Nun ist allerdings eine Theorie wie die Lineare Algebra, die sich
in beträchtlichem Maße von ihren ursprünglichen geometrischen und
anderweitigen Wurzeln entfernt hat, nur schwerlich zu verdauen, wenn
nicht gleichzeitig erklärt wird, warum man in dieser oder jener Weise
vorgeht, was die zugehörige Strategie ist, oder an welche Hauptanwen-
dungsfälle man denkt. Um auf solche Fragen einzugehen, wird in einer
Vorlesung neben der rein stofflichen Seite in erheblichem Maße auch
das zugehörige motivierende Umfeld erläutert. In Lehrbüchern ist die-
se Komponente oftmals nur in geringem Maße realisiert, da ansonsten
ein permanenter Wechsel zwischen der logisch-stringenten mathemati-
schen Vorgehensweise und mehr oder weniger heuristisch-anschaulichen
Überlegungen erforderlich wäre, was jedoch für die Einheitlichkeit und
Übersichtlichkeit der Darstellung nicht förderlich ist. Im vorliegenden
Text wird nun jedes Kapitel mit einer Einführung unter dem Titel
Überblick und Hintergrund begonnen, mit dem Ziel, das motivierende
Umfeld des jeweiligen Kapitels zu beleuchten. Ausgehend vom momen-
tanen Kenntnisstand innerhalb des Buches werden die zu behandelnden
Vorwort VII

Hauptfragestellungen erklärt, einschließlich des zugehörigen geometri-


schen Hintergrunds (soweit gegeben). Darüber hinaus werden mögliche
Lösungsansätze und Lösungsstrategien diskutiert, wie auch die Art des
letztendlich ausgewählten Zugangs. Es wird empfohlen, diese Einfüh-
rungen während des Studiums eines Kapitels je nach Bedarf mehrfach
zu konsultieren, um größtmöglichen Nutzen aus ihnen zu ziehen.
Im Zentrum des Buches stehen Vektorräume und ihre linearen
Abbildungen, sowie Matrizen. Behandelt werden insbesondere linea-
re Gleichungssysteme und deren Lösung unter Nutzung des Gaußschen
Eliminationsverfahrens, wie auch Determinanten. Weitere Schwerpunk-
te bilden die Eigen- und Normalformentheorie für lineare Selbstabbil-
dungen von Vektorräumen sowie das Studium von Skalarprodukten
im Rahmen euklidischer und unitärer Vektorräume, einschließlich der
Hauptachsentransformation und des Sylvesterschen Trägheitssatzes.
Ein Abschnitt über äußere Produkte (mit einem Stern * gekennzeich-
net), in dem als Anwendung der allgemeine Laplacesche Entwicklungs-
satz für Determinanten hergeleitet wird, ist optional. Als Besonderheit
wurde die Elementarteilertheorie für Moduln über Hauptidealringen
mit aufgenommen, die eine sehr effektive Handhabung und explizite
Bestimmung von Normalformen quadratischer Matrizen gestattet. Mo-
duln, sozusagen Vektorräume über Ringen als Skalarenbereich, werden
allerdings erst zu Beginn von Abschnitt 6.3 eingeführt. Wer sich hier
auf die elementare Seite der Normalformentheorie beschränken möchte,
kann im Anschluss an die Abschnitte 6.1 (Eigenwerte und Eigenvekto-
ren) und 6.2 (Minimalpolynom und charakteristisches Polynom) auch
gleich zu den euklidischen und unitären Vektorräumen in Kapitel 7
übergehen.
Wie üblich enthält auch dieses Buch zu jeder thematischen Ein-
heit eine Auswahl an speziell abgestimmten Übungsaufgaben, deren
Zweck es ist, die Ausführungen in den einzelnen Abschnitten intensi-
ver zu verarbeiten. Darüber hinaus sollen die Aufgaben Gelegenheit
bieten, die dargebotenen theoretischen Überlegungen, Methoden und
Verfahren bei der Lösung spezieller Probleme anzuwenden. Um die ei-
genständige Bearbeitung der Aufgaben effektiver zu gestalten, wird in
einem zusätzlichen Kapitel 8 ein neuartig entwickelter Aufgabentrai-
ner vorgestellt. Hier geht es zunächst um eine allgemeine Diskussion
gewisser Grundsätze und Strategien zum Lösen von Übungsaufgaben.
Sodann werden für jeden Abschnitt die kompletten Lösungen einiger
VIII Vorwort

ausgewählter Probleme mittels Aufgabentrainer exemplarisch erarbei-


tet. Ich hoffe, dass dieses Konzept, das wesentlich über die Präsenta-
tion sogenannter Musterlösungen hinausgeht, weiterhin auf Interesse
stößt und bei der Bearbeitung von Übungsaufgaben Hilfestellung bie-
ten wird! In Verbindung mit den motivierenden Kapiteleinführungen
und mit einer textlichen Darstellung der Lerninhalte, die keinerlei spe-
zielle Vorkenntnisse erfordert, ist das Buch bestens zur Begleitung jeg-
licher Vorlesung über Lineare Algebra geeignet, darüber hinaus aber
auch zum Selbststudium und zur Prüfungsvorbereitung.
Für die vorliegende Neuauflage wurde der Text nochmals einer kri-
tischen Revision unterzogen. Dies gilt insbesondere im Hinblick auf das
gleichzeitig realisierte handlichere Seitenlayout, welches erhöhte An-
forderungen an den Textfluss und die Präsentation der Formeln stellt.
Oberstes Ziel war es dabei, eine bestmögliche Lesbarkeit und Übersicht
zu erreichen, insbesondere bei den mathematischen Formelausdrücken.
Neu hinzugekommen ist im Anhang ein historischer Abschnitt zur Ge-
schichte der Linearen Algebra sowie, hiermit verbunden, ein Literatur-
verzeichnis.
Schließlich bleibt mir noch die angenehme Aufgabe, allen meinen
Studierenden, Lesern, Mitarbeitern und Kollegen nochmals Dank zu
sagen für die vielen Rückmeldungen, die mich seit Erscheinen meiner
Linearen Algebra erreicht haben. Auch in dieser Neuauflage konnten
wiederum einige davon berücksichtigt werden. Nicht zuletzt gebührt
mein Dank dem Springer-Verlag und seinem Team, welches wie immer
für eine mustergültige Ausstattung und Herstellung des Buches gesorgt
hat.

Münster, im Dezember 2020 Siegfried Bosch


Inhalt

1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . 12
1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4 Vektorräume und lineare Unterräume . . . . . . . . . . 34
1.5 Linear unabhängige Systeme und Basen . . . . . . . . . 42
1.6 Direkte Summen . . . . . . . . . . . . . . . . . . . . . 58

2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 65
2.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . 73
2.2 Quotientenvektorräume . . . . . . . . . . . . . . . . . . 83
2.3 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . 96

3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.1 Lineare Abbildungen und Matrizen . . . . . . . . . . . 114
3.2 Gauß-Elimination und der Rang einer Matrix . . . . . 125
3.3 Matrizenringe und invertierbare Matrizen . . . . . . . . 138
3.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . 147
3.5 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . 151

4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . 167
4.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . 171
4.2 Determinantenfunktionen . . . . . . . . . . . . . . . . . 178
4.3 Determinanten von Matrizen und Endomorphismen . . 183
4.4 Die Cramersche Regel . . . . . . . . . . . . . . . . . . 194
4.5 Äußere Produkte* . . . . . . . . . . . . . . . . . . . . . 198
X Inhalt

5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
5.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
5.2 Teilbarkeit in Integritätsringen . . . . . . . . . . . . . . 226
5.3 Nullstellen von Polynomen . . . . . . . . . . . . . . . . 238

6 Normalformentheorie . . . . . . . . . . . . . . . . . . . 243
6.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . 247
6.2 Minimalpolynom und charakteristisches Polynom . . . 255
6.3 Der Elementarteilersatz . . . . . . . . . . . . . . . . . . 265
6.4 Endlich erzeugte Moduln über Hauptidealringen . . . . 282
6.5 Allgemeine und Jordansche Normalform für Matrizen . 289

7 Euklidische und unitäre Vektorräume . . . . . . . . . 311


7.1 Sesquilinearformen . . . . . . . . . . . . . . . . . . . . 315
7.2 Orthogonalität . . . . . . . . . . . . . . . . . . . . . . 322
7.3 Sesquilinearformen und Matrizen . . . . . . . . . . . . 331
7.4 Die adjungierte Abbildung . . . . . . . . . . . . . . . . 338
7.5 Isometrien, orthogonale und unitäre Matrizen . . . . . 345
7.6 Selbstadjungierte Abbildungen . . . . . . . . . . . . . . 357

8 Aufgabentrainer . . . . . . . . . . . . . . . . . . . . . . . 367
8.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . 370
8.2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . 391
8.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 406
8.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . 428
8.5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . 440
8.6 Normalformentheorie . . . . . . . . . . . . . . . . . . . 449
8.7 Euklidische und unitäre Vektorräume . . . . . . . . . . 466

Anhang: Historische Anmerkungen . . . . . . . . . . . . . 481

Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485

Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . 487

Namen- und Sachverzeichnis . . . . . . . . . . . . . . . . . 493


1. Vektorräume

Überblick und Hintergrund

Das Studium konkreter geometrischer Probleme in der Ebene oder


im drei-dimensionalen Raum hat oftmals zu richtungsweisenden ma-
thematischen Entwicklungen Anlass gegeben. Zur Behandlung solcher
Probleme bieten sich zunächst geometrische Konstruktionsverfahren
an, beispielsweise mittels Zirkel und Lineal. Eine gänzlich andere Stra-
tegie hingegen besteht darin, die geometrische Situation in ein rech-
nerisches Problem umzusetzen, um dann durch “Ausrechnen” zu einer
Lösung zu gelangen. Dies ist das Vorgehen der analytischen Geometrie,
die 1637 von René Descartes [6] mit seiner berühmten Abhandlung “La
Géométrie” begründet wurde. Noch heute benutzen wir verschiedent-
lich die Bezeichnung kartesisch, etwa im Zusammenhang mit Koordi-
natensystemen, die auf Renatus Cartesius, die lateinische Version von
Descartes’ Namen, hinweist. Ein Großteil der rechnerischen Methoden
der analytischen Geometrie wird heute in erweiterter Form unter dem
Begriff der Linearen Algebra zusammengefasst.
Wir wollen im Folgenden etwas näher auf die grundlegenden Ide-
en des Descartes’schen Ansatzes eingehen. Hierzu betrachten wir eine
Ebene E (etwa in dem uns umgebenden drei-dimensionalen Raum),
zeichnen einen Punkt von E als sogenannten Nullpunkt 0 aus und
wählen dann ein Koordinatensystem mit Koordinatenachsen x und y,
die sich im Nullpunkt 0 schneiden. Identifizieren wir die Achsen x und
y jeweils noch mit der Menge R der reellen Zahlen (was wir weiter
unten noch genauer diskutieren werden), so lassen sich die Punkte P
von E als Paare reeller Zahlen interpretieren:

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, [Link]
2 1. Vektorräume

y

y1 ❜P = (x1 , y1 )


x1 x
In der Tat, ist P ein Punkt in E, so konstruiere man die Parallele zu y
durch P . Diese schneidet die Achse x in einem Punkt x1 . Entsprechend
schneidet die Parallele zu x durch P die Achse y in einem Punkt y1 ,
so dass man aus P das Koordinatenpaar (x1 , y1 ) erhält. Umgekehrt
lässt sich P aus dem Paar (x1 , y1 ) in einfacher Weise zurückgewin-
nen, und zwar als Schnittpunkt der Parallelen zu y durch x1 und der
Parallelen zu x durch y1 . Genauer stellt man fest, dass die Zuord-
nung P ✲ (x1 , y1 ) eine umkehrbar eindeutige Beziehung zwischen
den Punkten von E und den Paaren reeller Zahlen darstellt und man
deshalb wie behauptet eine Identifizierung
E = R2 = Menge aller Paare reeller Zahlen
vornehmen kann. Natürlich hängt diese Identifizierung von der Wahl
des Nullpunktes 0 sowie der Koordinatenachsen x und y ab. Wir haben
in obiger Abbildung ein rechtwinkliges (kartesisches) Koordinatensys-
tem angedeutet. Im Prinzip brauchen wir jedoch an dieser Stelle noch
nichts über Winkel zu wissen. Es genügt, wenn wir als Koordinaten-
achsen zwei verschiedene Geraden x und y durch den Nullpunkt 0 ver-
wenden, so wie es auch von Descartes vorgeschlagen wurde. Insofern
hat Descartes selbst die nach ihm benannten kartesischen Koordina-
tensysteme noch nicht wirklich genutzt. Im Übrigen werden wir das
Transformationsverhalten der Koordinaten bei Wechsel des Koordina-
tensystems später noch genauer analysieren, und zwar im Rahmen der
Einführung zu Kapitel 2.
Es soll nun auch die Identifizierung der beiden Koordinatenachsen
x und y mit der Menge R der reellen Zahlen noch etwas genauer be-
leuchtet werden. Durch Festlegen des Nullpunktes ist auf x und y je-
weils die Streckungsabbildung mit Zentrum 0 und einer reellen Zahl als
Streckungsfaktor definiert. Wählen wir etwa einen von 0 verschiedenen
Punkt 1x ∈ x aus und bezeichnen mit α · 1x das Bild von 1x unter der
Überblick und Hintergrund 3

Streckung mit Faktor α, so besteht x gerade aus allen Punkten α · 1x ,


wobei α die reellen Zahlen durchläuft. Genauer können wir sagen, dass
die Zuordnung α ✲ α · 1x eine umkehrbar eindeutige Beziehung zwi-
schen den reellen Zahlen und den Punkten von x erklärt. Nach Auswahl
je eines von 0 verschiedenen Punktes 1x ∈ x und entsprechend 1y ∈ y
sind daher x und y auf natürliche Weise mit der Menge R der reellen
Zahlen zu identifizieren, wobei die Punkte 0, 1x ∈ x bzw. 0, 1y ∈ y den
reellen Zahlen 0 und 1 entsprechen. Die Möglichkeit der freien Aus-
wahl der Punkte 1x ∈ x und 1y ∈ y wie auch die Verwendung nicht
notwendig rechtwinkliger Koordinatensysteme machen allerdings auf
ein Problem aufmerksam: Der Abstand von Punkten in E wird un-
ter der Identifizierung E = R2 nicht notwendig dem auf R2 üblichen
euklidischen Abstand entsprechen, der für Punkte P1 = (x1 , y1 ) und
P2 = (x2 , y2 ) durch
p
d(P1 , P2 ) = (x1 − x2 )2 + (y1 − y2 )2

gegeben ist. Eine korrekte Charakterisierung von Abständen auf E


ist jedoch mit Hilfe der später noch zu diskutierenden Skalarprodukte
möglich.
In der Mathematik ist man stets darum bemüht, bei der Analy-
se von Phänomenen und Problemen, für die man sich interessiert, zu
gewissen “einfachen Grundstrukturen” zu gelangen, die für das Bild,
das sich dem Betrachter bietet, verantwortlich sind. Solchermaßen als
wichtig erkannte Grundstrukturen untersucht man dann oftmals los-
gelöst von der eigentlichen Problematik, um herauszufinden, welche
Auswirkungen diese haben; man spricht von einem Modell, das man
untersucht. Modelle haben den Vorteil, dass sie in der Regel leichter
zu überschauen sind, aber manchmal auch den Nachteil, dass sie den
eigentlich zu untersuchenden Sachverhalt möglicherweise nur in Teil-
aspekten beschreiben können.
In unserem Falle liefert der Descartes’sche Ansatz die Erkenntnis,
dass Punkte von Geraden, Ebenen oder des drei-dimensionalen Raums
mittels Koordinaten zu beschreiben sind. Hierauf gestützt können wir,
wie wir gesehen haben, die Menge R2 aller Paare reeller Zahlen als
Modell einer Ebene ansehen. Entsprechend bildet die Menge R3 aller
Tripel reeller Zahlen ein Modell des drei-dimensionalen Raums, sowie
natürlich R = R1 ein Modell einer Geraden. Die Untersuchung solcher
4 1. Vektorräume

Modelle führt uns zum zentralen Thema dieses Kapitels, nämlich zu


den Vektorräumen. Vektorräume beinhalten als fundamentale Struk-
tur zwei Rechenoperationen, zum einen die Multiplikation von Skala-
ren (in unserem Falle reellen Zahlen) mit Vektoren, was man sich als
einen Streckungsprozess vorstellen kann, und zum anderen die Addi-
tion von Vektoren. Wir wollen dies mit den zugehörigen geometrischen
Konsequenzen einmal am Beispiel einer Ebene E und ihrem Modell R2
erläutern.
Wir beginnen mit der skalaren Multiplikation. Für

α ∈ R, P = (x1 , y1 ) ∈ R2

bezeichnet man mit

α · P = α · (x1 , y1 ) := (αx1 , αy1 )

das Produkt von α und P , wobei sich in E folgendes Bild ergibt:

y

αy1 ❜
α·P

y1 ❜
P


x1 αx1 x

Die Multiplikation von Punkten P ∈ E mit einem Skalar α ∈ R ist


folglich zu interpretieren als Streckungsabbildung mit Streckungszen-
trum 0 und Streckungsfaktor α. Besonders instruktiv lässt sich dies
beschreiben, wenn man die Punkte P ∈ E als “Vektoren” im Sinne

gerichteter Strecken 0P auffasst. Vektoren sind somit charakterisiert

durch ihre Länge und ihre Richtung (außer für den Nullvektor 00, der

keine bestimmte Richtung besitzt). Der Vektor α · 0P geht dann aus

0P hervor, indem man ihn mit α streckt, d. h. seine Länge mit α (oder,
besser, mit dem Betrag |α|) multipliziert und ansonsten die Richtung
des Vektors beibehält bzw. invertiert, je nachdem ob α ≥ 0 oder α < 0
gilt:
Überblick und Hintergrund 5

y

αy1 ✲

α · 0P
y1 ✲

0P

x1 αx1 x

Als weitere Rechenoperation betrachten wir die Addition von


Punkten in R2 . Für
P1 = (x1 , y1 ), P2 = (x2 , y2 ) ∈ R2
setzt man
P1 + P2 := (x1 + x2 , y1 + y2 ),
was in E mittels folgender Skizze verdeutlicht werden möge:

y

P1 + P2
y1 +y2 ✥✥❜
✥ ✥✥✥✥ ✑✂
✥ ✑ ✂
P❜✥ 2 ✥✥✥
✥✥✥ ✑ ✂
y2 ✑
✂ ✑ ✂
✂ ✑ ✂

✂ ✑ ✂
✂ ✑ ✂

✂ ✑ ✂
y1 ✂ ✑ ✂
✑ ✥✥ ✥
✥ P1
✂ ✑ ✥✥✥

✂ ✑✑✥✥✥✥✥
✂✥✥✥
✑ ✲
x2 x1 x1 + x2 x

Auch die Beschreibung der Addition in E gestaltet sich instruktiver,


wenn man den Vektorstandpunkt im Sinne gerichteter Strecken zu-
grunde legt. Allerdings sollte man dabei zulassen, dass Vektoren als
gerichtete Strecken parallel zu sich selbst verschoben und somit vom
Koordinatenursprung als ihrem natürlichen Fußpunkt gelöst werden
# « # «
können. Die Summe der Vektoren 0P1 und 0P2 ergibt sich dann als

Vektor 0P , wobei P derjenige Endpunkt ist, den man erhält, indem
# «
man beide Vektoren miteinander kombiniert, also den Vektor 0P1 in 0
# « # «
anlegt und den Vektor 0P2 im Endpunkt P1 von 0P1 , etwa wie folgt:
6 1. Vektorräume

y

y1 +y2
✸ P

✑ ✂✂✍
✑ ✂


# « # « # « ✑ # « ✂✂
0P = 0P1 + 0P2✑✑ 0P2

✑ ✂

✑ ✂

y1 ✑ ✲ ✂P1

✑ # «
✑ 0P1
✑ ✲
x1 x1 + x2 x

Dabei zeigt die obige Parallelogrammkonstruktion, dass sich das Er-


# «
gebnis der Addition nicht ändert, wenn man alternativ den Vektor 0P2
# « # «
in 0 anlegt und anschließend den Vektor 0P1 im Endpunkt von 0P2 .
Die Addition von Vektoren hängt daher nicht von der Reihenfolge der
Summanden ab, sie ist kommutativ.
Es mag etwas verwirrend wirken, wenn wir die Elemente des R2
einerseits als Punkte, sowie andererseits auch als (verschiebbare) Vek-
toren im Sinne gerichteter Strecken interpretieren. Im Prinzip könnte
man eine begriffliche Trennung zwischen Punkten und Vektoren vor-
nehmen, indem man den einem Punkt P ∈ R2 zugeordneten Vektor

0P als Translation Q ✲ P + Q interpretiert, d. h. als Abbildung
von R nach R , die einem Element Q ∈ R2 das Element P + Q als
2 2

Bild zuordnet. Wir wollen von dieser Möglichkeit allerdings keinen Ge-
brauch machen, da eine Trennung der Begriffe für unsere Zwecke keine
Vorteile bringt und die Dinge lediglich komplizieren würde.
Als Nächstes wollen wir besprechen, dass die Addition von Punkten
und Vektoren in R2 bzw. E auf natürliche Weise auch eine Subtraktion
nach sich zieht. Für P0 = (x0 , y0 ) ∈ R2 setzt man

−P0 = −(x0 , y0 ) := (−1) · (x0 , y0 ) = (−x0 , −y0 )

und nennt dies das negative oder inverse Element zu P0 . Dieses ist
in eindeutiger Weise charakterisiert als Element Q ∈ R2 , welches
der Gleichung P0 + Q = 0 genügt. Die Subtraktion zweier Elemen-
te P1 = (x1 , y1 ) und P0 = (x0 , y0 ) in R2 wird dann in naheliegender
Weise auf die Addition zurückgeführt, und zwar durch
Überblick und Hintergrund 7

P1 − P0 := P1 + (−P0 ) = (x1 − x0 , y1 − y0 ).

Legen wir wieder den Vektorstandpunkt in E zugrunde, so entsteht also


# « # «
−0P0 aus dem Vektor 0P0 durch Invertieren seiner Richtung, wobei
# « # «
die Länge erhalten bleibt, mit anderen Worten, es gilt −0P0 = P0 0.
# « # «
Infolgedessen ergibt sich die Differenz zweier Vektoren 0P1 und 0P0 ,
# «
indem man den Vektor 0P1 in 0 anlegt und in dessen Endpunkt den
# «
Vektor P0 0, wie folgt:

y✻

y1
✑✑ ✸✂✍ P1
✑ ✂
✑ ✂
P1 − P0 # « ✑
✲ −0P0 ✑ ✂
✂✍ ✑ ✂

✂ ✑ ✂# « # «
✂# « ✑ ✂ 0P1 − 0P0
# « ✑
✂ 0P1 − 0P0 ✑# « ✂
✂ ✑ 0P1 ✂

✂ ✑ ✂
✂ ✑ ✂

y0 ✂ ✑ ✲✂P
✂ ✑
✑ 0
✂ ✑ # «
✂ ✑✑ 0P0

✂ ✲
x0 x1 x

# «
Insbesondere erkennt man, dass die Summe der Vektoren 0P0 und
# « # « # «
0P1 − 0P0 gerade den Vektor 0P1 ergibt, was eine sinnvoll definierte
Addition bzw. Subtraktion natürlich ohnehin leisten sollte. Allgemei-
ner kann man Summen des Typs
#« # « # « # «
0P = 0P0 + α · (0P1 − 0P0 )

mit unterschiedlichen Skalaren α ∈ R bilden. Der Punkt P liegt dann


für P0 6= P1 stets auf der Geraden G, die durch die Punkte P0 und P1
festgelegt ist, und zwar durchläuft P ganz G, wenn α ganz R durch-
läuft:
8 1. Vektorräume

y G
✻ ✂

y1
✸✂ P1

✑ ✂✂✍
✑ ✂

✑ ✂
# « ✑ ✂ 0P
# « # «
0P✑1 ✑ 1 − 0P0

✑ ✂

✑ ✂

y0 ✑ ✲ ✂P0
✑ ✂
✑ # «

✑ 0P0
✑ ✂ ✲
✂ x0 x1 x

#« ✂
0P ✲✂
✂P

Die Gerade in E bzw. R2 , welche die gegebenen Punkte P0 und P1


enthält, wird daher durch die Gleichung

G = P0 + t · (P1 − P0 ) ; t ∈ R

beschrieben. Sind zwei solche Geraden



G = P0 + t · (P1 − P0 ) ; t ∈ R}, G′ = {P0′ + t · (P1′ − P0′ ) ; t ∈ R

mit P0 6= P1 und P0′ 6= P1′ gegeben, so sind diese genau dann parallel,
wenn P1 − P0 ein skalares Vielfaches von P1′ − P0′ ist, bzw. umgekehrt,
wenn P1′ − P0′ ein skalares Vielfaches von P1 − P0 ist. Ist Letzteres nicht
der Fall, so besitzen G und G′ genau einen Schnittpunkt, wobei eine
Berechnung dieses Schnittpunktes auf die Lösung eines sogenannten
linearen Gleichungssystems führt, welches aus 2 Gleichungen mit 2
Unbekannten, nämlich den Koordinaten des Schnittpunktes von G und
G′ besteht. Die Lösung von Gleichungssystemen dieses Typs wird uns
in allgemeinerem Rahmen noch ausführlich in Kapitel 3 beschäftigen.
Die vorstehenden Überlegungen lassen sich ohne Probleme auf den
drei-dimensionalen Raum und sein Modell R3 verallgemeinern. Bei-
spielsweise ist für zwei verschiedene Punkte P0 , P1 ∈ R3 wiederum

G = P0 + t · (P1 − P0 ) ; t ∈ R
Überblick und Hintergrund 9

die durch P0 und P1 bestimmte Gerade im R3 . Entsprechend kann man


für Punkte P0 , P1 , P2 ∈ R3 mit P1′ := P1 − P0 und P2′ := P2 − P0 das
Gebilde 
E = P0 + s · P1′ + t · P2′ ; s, t ∈ R
betrachten:

✁ E ✁✁

✁ ✲ P2 ✁
✁ ✁

P1
✁ P0 ✁


✁ ✁
✁ ✁

0
Wenn P1′ kein Vielfaches von P2′ und P2′ kein Vielfaches von P1′ ist,
die Vektoren in 0 angetragen also nicht auf einer Geraden durch 0
liegen, so bezeichnet man P1′ und P2′ als linear unabhängig. In diesem
Falle erkennt man E als Ebene, ansonsten als Gerade oder auch nur
als Punkt. Da die Vektoren P1′ und P2′ hier eine entscheidende Rolle
spielen, sollten wir auch das Gebilde

E ′ = s · P1′ + t · P2′ ; s, t ∈ R

betrachten, welches durch Verschieben von E um den Vektor −0P
entsteht:

✁ E ′ ✁✁

✁ ✲ P2′ ✁
✁ ✁


P1′ 0 ✁
✁ ✁
✁ ✁

Im Rahmen der Vektorräume nennt man E ′ den von P1′ und P2′ auf-
gespannten oder erzeugten linearen Unterraum von R3 . Allgemeiner
10 1. Vektorräume

kann man im R3 den von beliebig vielen Vektoren Q1 , . . . , Qr erzeug-


ten linearen Unterraum

U = t1 Q1 + . . . + tr Qr ; t1 , . . . , tr ∈ R

betrachten. Für einen Vektor Q ∈ R3 sagt man, dass Q linear von


Q1 , . . . , Qr abhängt, falls Q ∈ U gilt. Folgende Fälle sind möglich: Für
Q1 = . . . = Qr = 0 besteht U nur aus dem Nullpunkt 0. Ist aber
einer der Vektoren Q1 , . . . , Qr von 0 verschieden, etwa Q1 6= 0, so ent-
hält U zumindest die durch Q1 gegebene Gerade G = {tQ1 ; t ∈ R}.
Gehören auch Q2 , . . . , Qr zu G, d. h. sind Q2 , . . . , Qr linear abhän-
gig von Q1 , so stimmt U mit G überein. Ist Letzteres nicht der Fall
und gilt zum Beispiel Q2 6∈ G, so spannen Q1 und Q2 die Ebene
E = {t1 Q1 + t2 Q2 ; t1 , t2 ∈ R} auf, so dass U zumindest diese Ebene
enthält. Im Falle Q3 , . . . , Qr ∈ E, also wenn Q3 , . . . , Qr linear von
Q1 , Q2 abhängen, stimmt U mit E überein. Ansonsten gibt es einen die-
ser Vektoren, etwa Q3 , der nicht zu E gehört. Die Vektoren Q1 , Q2 , Q3
bilden dann sozusagen ein Koordinatensystem im R3 , und man sieht
dass U mit ganz R3 übereinstimmt, dass also alle Vektoren im R3 line-
ar von Q1 , Q2 , Q3 abhängen. Insbesondere ergibt sich, dass ein linearer
Unterraum im R3 entweder aus dem Nullpunkt, aus einer Geraden
durch 0, aus einer Ebene durch 0 oder aus ganz R3 besteht.
Das soeben beschriebene Konzept der linearen Abhängigkeit von
Vektoren ist ein ganz zentraler Punkt, der in diesem Kapitel ausführ-
lich im Rahmen der Vektorräume behandelt werden wird. Dabei nennt
man ein System von Vektoren Q1 , . . . , Qr linear unabhängig, wenn kei-
ner dieser Vektoren von den restlichen linear abhängt. Die oben durch-
geführte Überlegung zeigt beispielsweise, dass linear unabhängige Sys-
teme im R3 aus höchstens 3 Elementen bestehen. Insbesondere werden
uns linear unabhängige Systeme, so wie wir sie im obigen Beispiel für li-
neare Unterräume des R3 konstruiert haben, gestatten, den Begriff des
Koordinatensystems oder der Dimension im Kontext der Vektorräume
zu präzisieren. Als Verallgemeinerung linear unabhängiger Systeme von
Vektoren werden wir schließlich noch sogenannte direkte Summen von
linearen Unterräumen eines Vektorraums studieren.
Wir haben bisher im Hinblick auf Vektorräume lediglich die Mo-
delle Rn mit n = 1, 2, 3 betrachtet, wobei unser geometrisches Vorstel-
lungsvermögen in erheblichem Maße bei unseren Argumentationen mit
Überblick und Hintergrund 11

eingeflossen ist. Bei der Behandlung der Vektorräume in den nachfol-


genden Abschnitten werden wir jedoch grundsätzlicher vorgehen, in-
dem wir eine Reihe von Verallgemeinerungen zulassen und uns bei der
Entwicklung der Theorie lediglich auf gewisse axiomatische Grundla-
gen stützen. Zunächst beschränken wir uns bei dem zugrunde liegenden
Skalarenbereich nicht auf die reellen Zahlen R, sondern lassen beliebige
Körper zu. Körper sind zu sehen als Zahlsysteme mit gewissen Axio-
men für die Addition und Multiplikation, die im Wesentlichen den Re-
geln für das Rechnen mit den reellen Zahlen entsprechen. So kennt man
neben dem Körper R der reellen Zahlen beispielsweise den Körper Q
der rationalen Zahlen wie auch den Körper C der komplexen Zahlen. Es
gibt aber auch Körper, die nur aus endlich vielen Elementen bestehen.
Die Axiome eines Körpers bauen auf denen einer Gruppe auf, denn
ein Körper bildet mit seiner Addition insbesondere auch eine Gruppe.
So werden wir in diesem Kapitel nach gewissen Vorbereitungen über
Mengen zunächst Gruppen studieren, ausgehend von den zugehörigen
Gruppenaxiomen. Wir beschäftigen uns dann weiter mit Körpern und
deren Rechenregeln und gelangen anschließend zu den Vektorräumen.
Vektorräume sind immer in Verbindung mit einem entsprechenden Ska-
larenbereich zu sehen, dem zugehörigen Körper; man spricht von einem
Vektorraum über einem Körper K oder von einem K-Vektorraum. Ein
K-Vektorraum V ist ausgerüstet mit einer Addition und einer skala-
ren Multiplikation, d. h. für a, b ∈ V und α ∈ K sind die Summe
a + b sowie das skalare Produkt α · a als Elemente von V erklärt.
Addition und skalare Multiplikation genügen dabei den sogenannten
Vektorraumaxiomen, welche bezüglich der Addition insbesondere die
Gruppenaxiome enthalten. Prototyp eines K-Vektorraums ist für eine
gegebene natürliche Zahl n die Menge

K n = (a1 , . . . , an ) ; a1 , . . . , an ∈ K

aller n-Tupel mit Komponenten aus K, wobei Addition und skalare


Multiplikation durch

(a1 , . . . , an ) + (b1 , . . . , bn ) := (a1 + b1 , . . . , an + bn ),


α · (a1 , . . . , an ) := (αa1 , . . . , αan )

gegeben sind.
12 1. Vektorräume

Insbesondere wird mit dieser Definition die oben angesprochene


Reihe von Modellen Rn für n = 1, 2, 3 auf beliebige Dimensionen n
verallgemeinert. Dies hat durchaus einen realen Hintergrund, denn um
beispielsweise ein Teilchen im drei-dimensionalen Raum in zeitlicher
Abhängigkeit zu beschreiben, benötigt man neben den 3 räumlichen
Koordinaten noch eine zusätzliche zeitliche Koordinate, so dass man
sich im Grunde genommen im Vektorraum R4 bewegt. In analoger
Weise lassen sich Paare von Punkten im drei-dimensionalen Raum als
Punkte des R6 charakterisieren.

1.1 Mengen und Abbildungen

Normalerweise müsste man hier mit einer streng axiomatischen Be-


gründung der Mengenlehre beginnen. Da dies jedoch einen unverhält-
nismäßig großen Aufwand erfordern würde, wollen wir uns an dieser
Stelle mit einem naiven Standpunkt begnügen und unter einer Menge
lediglich eine Zusammenfassung gewisser Objekte verstehen, der soge-
nannten Elemente dieser Menge. Eine Menge X ist somit in eindeuti-
ger Weise durch ihre Elemente festgelegt, wobei wir x ∈ X schreiben,
wenn x ein Element von X ist, bzw. x 6∈ X, wenn dies nicht der Fall
ist. Insbesondere werden wir folgende Mengen in natürlicher Weise als
gegeben annehmen:

∅ = leere Menge,
N = {0, 1, 2, . . .} natürliche Zahlen,
Z = {0, ±1, ±2, . . .} ganze Zahlen,
Q = {p/q ; p, q ∈ Z, q 6= 0} rationale Zahlen,
R = reelle Zahlen.

Es sei angemerkt, dass bei einer Menge, sofern wir sie in aufzählen-
der Weise angeben, etwa X = {x1 , . . . , xn }, die Elemente x1 , . . . , xn
nicht notwendig paarweise verschieden sein müssen. Diese Konvention
gilt auch für unendliche Mengen; man vergleiche hierzu etwa die obige
Beschreibung von Q.
Um Widersprüche zu vermeiden, sind die Mengenaxiome so ausge-
legt, dass die Bildung von Mengen gewissen Restriktionen unterworfen
1.1 Mengen und Abbildungen 13

ist. Beispielsweise darf eine Menge niemals sich selbst als Element ent-
halten, so dass insbesondere die Gesamtheit aller Mengen nicht als
Menge angesehen werden kann, da sie sich selbst als Element enthal-
ten würde. Einen Hinweis auf die hiermit verbundene Problematik lie-
fert das folgende Paradoxon von Russel: Wir nehmen einmal in naiver
Weise an, dass man die Gesamtheit aller Mengen, die sich nicht selbst
enthalten, also
X = {Mengen A mit A 6∈ A},
als Menge betrachten kann. Fragt man sich dann, ob X ∈ X oder
X 6∈ X gilt, so erhält man im Falle X ∈ X nach Definition von X
sofort X 6∈ X und im Falle X 6∈ X entsprechend X ∈ X. Es ergibt
sich also X ∈ X und X 6∈ X zugleich, was keinen Sinn macht.
Wichtig für die Handhabung von Mengen sind die erlaubten Pro-
zesse der Mengenbildung, auf die wir nachfolgend eingehen.
(1) Teilmengen. – Es sei X eine Menge und P (x) eine Aussage,
deren Gültigkeit (wahr oder falsch) man für Elemente x ∈ X testen
kann. Dann nennt man Y = {x ∈ X ; P (x) ist wahr} eine Teilmenge
von X und schreibt Y ⊂ X. Dabei ist auch Y = X zugelassen. Gilt
allerdings Y 6= X, so nennt man Y eine echte Teilmenge von X. Bei-
spielsweise ist R>0 := {x ∈ R ; x > 0} eine (echte) Teilmenge von R.
Für eine gegebene Menge X bilden die Teilmengen von X wiederum
eine Menge, die sogenannte Potenzmenge P(X).
(2) Vereinigung und Durchschnitt. – Es sei X eine Menge und I
eine Indexmenge, d. h. eine Menge, deren Elemente wir als Indizes
verwenden wollen. Ist dann für jedes i ∈ I eine Teilmenge Xi ⊂ X
gegeben, so nennt man
[
Xi := {x ∈ X ; es existiert ein i ∈ I mit x ∈ Xi }
i∈I

die Vereinigung der Mengen Xi , i ∈ I, sowie


\
Xi := {x ∈ X ; x ∈ Xi für alle i ∈ I}
i∈I

den Durchschnitt dieser Mengen, wobei wir in beiden Fällen wiederum


eine Teilmenge von X erhalten. Im Falle einer endlichenSIndexmenge
I = {1, . . . , n} schreibt man auch X1 ∪ . . . ∪ Xn statt i∈I Xi sowie
14 1. Vektorräume

T
X1 ∩ . . . ∩ Xn statt i∈I Xi . Die Vereinigung von zwei Teilmengen
X ′ , X ′′ ⊂ X lässt sich insbesondere in der Form

X ′ ∪ X ′′ = {x ∈ X ; x ∈ X ′ oder x ∈ X ′′ }

beschreiben, indem man ein mathematisches oder verwendet, das nicht


ausschließend ist, also auch den Fall erlaubt, dass sowohl x ∈ X ′ als
auch x ∈ X ′′ und damit x ∈ X ′ ∩ X ′′ gilt. Weiter werden die Teilmen-
gen X ′ , X ′′ ⊂ X als disjunkt bezeichnet, wenn ihr Durchschnitt leer
ist, also X ′ ∩X ′′ = ∅ gilt. Als Variante zur Vereinigung
` von Mengen Xi ,
i ∈ I, kann man deren disjunkte Vereinigung i∈I Xi bilden. Hierun-
ter versteht man die Gesamtheit aller Elemente, die in irgendeiner der
Mengen Xi enthalten sind, wobei man allerdings für verschiedene In-
dizes i, j ∈ I die Elemente von Xi als verschieden von allen Elementen
aus Xj ansieht.
(3) Differenz von Mengen. – Sind X1 , X2 Teilmengen einer Menge
X, so heißt
X1 − X2 := {x ∈ X1 ; x 6∈ X2 }
die Differenz von X1 und X2 . Auch dies ist wieder eine Teilmenge von
X, sogar von X1 .
(4) Kartesisches Produkt von Mengen. – Es seien X1 , . . . , Xn Men-
gen. Dann heißt
n
Y 
Xi := (x1 , . . . , xn ) ; x1 ∈ X1 , . . . , xn ∈ Xn
i=1

das kartesische Produkt der Mengen X1 , . . . , Xn , wobei man für dieses


Produkt auch die Notation X1 × . . . × Xn verwendet bzw. X n , falls
X1 = . . . = Xn = X gilt. Die Elemente (x1 , . . . , xn ) werden als n-Tupel
mit Komponenten xi ∈ Xi , i = 1, . . . , n, bezeichnet. Es gilt genau
dann (x1 , . . . , xn ) = (x′1 , . . . , x′n ) für zwei n-Tupel, wenn man xi = x′i
für i = 1, . . . , n hat. In ähnlicher
Q Weise lässt sich für eine Indexmenge
I das kartesische Produkt i∈I Xi von gegebenen Mengen Xi , i ∈ I,
bilden. Man schreibt die Elemente eines solchen Produktes als Familien
(xi )i∈I von Elementen xi ∈ Xi und meint damit Tupel, deren Einträge
mittels I indiziert werden. Sind die Q Xi Exemplare ein und derselben
Menge X, so verwendet man statt i∈I Xi auch die Notation X I . Eine
1.1 Mengen und Abbildungen 15

Familie (xi )i∈∅ , welche durch die leere Indexmenge I = ∅ indiziert ist,
Q als leer bezeichnet. Demgemäß bestehen die kartesischen Produk-
wird
te i∈I Xi und X I im Falle I = ∅ aus genau einem Element, nämlich
der leeren Familie.
Als Nächstes kommen wir auf den Begriff der Abbildung zwischen
Mengen zu sprechen.

Definition 1. Eine Abbildung f : X ✲ Y zwischen zwei Mengen


X und Y ist eine Vorschrift, welche jedem x ∈ X ein wohlbestimmtes
Element y ∈ Y zuordnet, das dann mit f (x) bezeichnet wird ; man
schreibt hierbei auch x ✲ f (x). Dabei heißt X der Definitionsbereich
und Y der Bild- oder Wertebereich der Abbildung f .

Zu einer Menge X gibt es stets die sogenannte identische Abbildung


idX : X ✲ X, x ✲ x. Im Übrigen kann man beispielsweise ein
kartesisches Produkt des Typs X I auch als Menge aller Abbildungen
I ✲ X interpretieren.
Im Folgenden sei f : X ✲ Y wieder eine Abbildung zwischen
zwei Mengen. Ist g : Y ✲ Z eine weitere Abbildung, so kann man f
mit g komponieren; man erhält als Resultat die Abbildung

g◦f: X ✲ Z, x ✲ g f (x) .

Für Teilmengen M ⊂ X und N ⊂ Y bezeichnet man



f (M ) := y ∈ Y ; es existiert ein x ∈ M mit y = f (x)

als das Bild von M unter f sowie



f −1 (N ) := x ∈ X ; f (x) ∈ N

als das Urbild von N unter f ; es handelt sich hierbei um Teilmengen


von Y bzw. X. Besteht N aus nur einem einzigen Element y, also
N = {y}, so schreibt man f −1 (y) anstelle von f −1 ({y}). Weiter nennt
man f injektiv, wenn aus x, x′ ∈ X mit f (x) = f (x′ ) stets x = x′ folgt,
und surjektiv, wenn es zu jedem y ∈ Y ein x ∈ X mit f (x) = y gibt.
Schließlich heißt f bijektiv, wenn f injektiv und surjektiv zugleich ist.
Man kann sagen, dass f genau dann injektiv ist, wenn das Urbild
f −1 (y) eines jeden Punktes y ∈ Y entweder leer ist oder aus genau
16 1. Vektorräume

einem Punkt x ∈ X besteht. Weiter ist f genau dann surjektiv, wenn


für jedes y ∈ Y das Urbild f −1 (y) nicht leer ist. Somit ist f genau
dann bijektiv, wenn für jedes Element y ∈ Y das Urbild f −1 (y) aus
genau einem Punkt x besteht. Man kann dann zu f die sogenannte
Umkehrabbildung g : Y ✲ X betrachten. Sie ordnet einem Punkt
y ∈ Y das eindeutig bestimmte Element x ∈ f −1 (y) zu, und es gilt
g ◦ f = idX sowie f ◦ g = idY . Zu einer Abbildung f : X ✲Y
bezeichnet man die Umkehrabbildung, sofern diese existiert, meist mit
f −1 : Y ✲ X.

Aufgaben

1. Es seien A, B, C Teilmengen einer Menge X. Man zeige (AT 370):


(i) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(ii) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
(iii) A − (B ∪ C) = (A − B) ∩ (A − C)
(iv) A − (B ∩ C) = (A − B) ∪ (A − C)
2. Es sei f : X ✲ Y eine Abbildung zwischen Mengen. Man zeige für
Teilmengen M1 , M2 ⊂ X und N1 , N2 ⊂ Y :
(i) f (M1 ∪ M2 ) = f (M1 ) ∪ f (M2 )
(ii) f (M1 ∩ M2 ) ⊂ f (M1 ) ∩ f (M2 )
(iii) f −1 (N1 ∪ N2 ) = f −1 (N1 ) ∪ f −1 (N2 )
(iv) f −1 (N1 ∩ N2 ) = f −1 (N1 ) ∩ f −1 (N2 )
Gilt in (ii) sogar Gleichheit?
f g
3. Es seien X ✲ Y ✲ X Abbildungen von Mengen mit g ◦ f = id.
Man zeige, dass f injektiv und g surjektiv ist.
4. (i) Gibt es eine bijektive Abbildung N ✲ Z?
(ii) Gibt es für n ∈ N eine bijektive Abbildung N ✲ N × {1, . . . , n}?
(iii) Gibt es eine bijektive Abbildung N ✲ N × N?
(iv) Gibt es eine bijektive Abbildung N ✲ Q?

5. Es sei X eine Menge und f : X ✲ P(X) eine Abbildung von X in die


zugehörige Potenzmenge. Man zeige, dass f nicht surjektiv sein kann.
(AT 371)
1.2 Gruppen 17

1.2 Gruppen

Unter einer inneren Verknüpfung auf einer Menge M versteht man


eine Abbildung f : M × M ✲ M . Sie ordnet jedem Paar (a, b) von
Elementen aus M ein Element f (a, b) ∈ M zu. Um den Charakter einer
Verknüpfung auch in der Notation zum Ausdruck kommen zu lassen,
werden wir anstelle von f (a, b) meist a · b schreiben. Bei kommutativen
Verknüpfungen, also solchen, die f (a, b) = f (b, a) für alle a, b ∈ M
erfüllen, verwenden wir auch die additive Schreibweise a + b.

Definition 1. Eine Menge G zusammen mit einer inneren Verknüp-


fung G × G ✲ G, (a, b) ✲ a · b, heißt eine Gruppe, wenn die
folgenden Eigenschaften erfüllt sind :
(i) Die Verknüpfung ist assoziativ, d. h. es gilt (a · b) · c = a · (b · c)
für alle a, b, c ∈ G.
(ii) Es existiert ein neutrales Element e in G, d. h. ein Element
e ∈ G mit e · a = a · e = a für alle a ∈ G.1
(iii) Zu jedem a ∈ G gibt es ein inverses Element, d. h. ein Element
b ∈ G mit a · b = b · a = e. Dabei ist e das in (ii) geforderte neutrale
Element von G.
Die Gruppe heißt kommutativ oder abelsch, falls die Verknüpfung
kommutativ ist, d. h. falls zusätzlich gilt:
(iv) a · b = b · a für alle a, b ∈ G.

In der obigen Situation sagt man gewöhnlich einfach, G sei eine


Gruppe, ohne die Verknüpfung “·” explizit zu erwähnen. Beispiele für
Gruppen sind:
(1) Z mit der Addition “+”
(2) Q mit der Addition “+” und Q∗ := Q − {0} mit der Multipli-
kation “·”
(3) R mit der Addition “+” und R∗ := R − {0} mit der Multipli-
kation “·”
(4) Für eine Menge X ist die Menge Bij(X, X) der bijektiven
Selbstabbildungen X ✲ X eine Gruppe unter der Komposition von

1
Das neutrale Element e ist, wie wir sogleich sehen werden, durch seine defi-
nierende Eigenschaft eindeutig bestimmt.
18 1. Vektorräume

Abbildungen als Verknüpfung. Man prüft leicht nach, dass diese Grup-
pe nicht kommutativ ist, sofern X mindestens 3 verschiedene Elemente
enthält.
Wie bereits behauptet, ist in einer Gruppe G das neutrale Element
e eindeutig bestimmt. Ist nämlich e′ ∈ G ein weiteres neutrales Ele-
ment, so folgt e = e′ · e = e′ . Auf ähnliche Weise zeigt man, dass das
zu einem Element a ∈ G gehörige inverse Element b ∈ G eindeutig
bestimmt ist. Hat man nämlich ein weiteres inverses Element b′ ∈ G
zu a, so folgt

b = e · b = (b′ · a) · b = b′ · (a · b) = b′ · e = b′ .

Die gerade durchgeführten Schlüsse benötigen (neben den Eigenschaf-


ten von e und b) lediglich, dass e′ links-neutral ist, d. h. die Eigen-
schaft e′ · a = a für alle a ∈ G besitzt, sowie dass b′ links-invers zu a
ist, d. h. die Gleichung b′ · a = e erfüllt. Entsprechend kann man für
rechts-neutrale bzw. rechts-inverse Elemente schließen. In einer Grup-
pe stimmt daher jedes links- (bzw. rechts-) neutrale Element mit dem
eindeutigen neutralen Element e ∈ G überein, ist also insbesondere
auch rechts- (bzw. links-) neutral. In ähnlicher Weise sieht man, dass
links-inverse Elemente auch rechts-invers bzw. rechts-inverse Elemente
auch links-invers sind. Wir können sogar noch einen Schritt weiterge-
hen und die definierenden Bedingungen einer Gruppe in diesem Sinne
abschwächen:

Bemerkung 2. Es genügt, in Definition 1 anstelle von (ii) und (iii)


lediglich die Existenz eines Elementes e ∈ G mit folgenden Eigenschaf-
ten zu fordern:
(ii′ ) e ist links-neutral in G, d. h. es gilt e · a = a für alle a ∈ G.
(iii′ ) Zu jedem a ∈ G existiert ein bezüglich e links-inverses Element
in G, d. h. ein Element b ∈ G mit b · a = e.

Beweis. Es sei G eine Menge mit einer multiplikativ geschriebenen


Verknüpfung und einem Element e ∈ G, so dass die Bedingungen (i),
(ii′ ) und (iii′ ) erfüllt sind. Um zu sehen, dass G eine Gruppe ist, haben
wir zu zeigen, dass die Bedingungen (ii) und (iii) von Definition 1
gelten. Wir zeigen zunächst für Elemente a ∈ G, dass jedes Element
b ∈ G, welches links-invers zu a bezüglich e ist, auch rechts-invers zu a
1.2 Gruppen 19

bezüglich e ist. Gelte also b · a = e, und sei c ein links-inverses Element


zu b, so dass also c · b = e gilt. Hieraus folgt
 
a · b = (e · a) · b = (c · b) · a · b = c · (b · a) · b
= (c · e) · b = c · (e · b) = c · b = e,

so dass b rechts-invers zu a bezüglich e ist. Es bleibt noch zu zeigen, dass


das links-neutrale Element e auch rechts-neutral ist. Sei also a ∈ G.
Ist dann b ∈ G links-invers zu a bezüglich e, so ist b, wie wir gesehen
haben, auch rechts-invers zu a bezüglich e, und es folgt
a · e = a · (b · a) = (a · b) · a = e · a = a,

also ist e rechts-neutral. 

Gewöhnlich wird das neutrale Element e einer Gruppe G bei mul-


tiplikativer Schreibweise der Verknüpfung als Einselement bezeichnet,
und man schreibt 1 anstelle von e. Für das inverse Element zu a ∈ G
benutzt man die Schreibweise a−1 . Im Übrigen ist es bei multiplika-
tiv geschriebenen Gruppenverknüpfungen üblich, das Verknüpfungszei-
chen “·” zu unterdrücken, sofern dies nicht zu Verwechslungen führt.
Für endlich viele Elemente a1 , . . . , an ∈ G definiert man das Produkt
dieser Elemente durch
n
Y
ai := a1 · . . . · an .
i=1

Eine spezielle Klammerung ist hierbei aufgrund des Assoziativgesetzes


nicht notwendig; auf einen detaillierten Beweis dieser “offensichtlichen”
Tatsache verzichten wir jedoch an dieser Stelle. Wir werden im Folgen-
den endliche Folgen a1 , . . . , an ∈ G meist für Indizes n ∈ N betrachten,
so dass hier insbesondere auch der Fall n = 0 zugelassen ist. Es han-
delt sich dann um die leere Folge, und man erklärt das zugehörige leere
Produkt durch
Y0
ai := 1.
i=1
Wie schon gesagt verwendet man bei kommutativen Verknüpfun-
gen meist die additive Schreibweise. Das neutrale Element einer kom-
mutativen Gruppe wird dann als Nullelement 0 geschrieben und das
20 1. Vektorräume

Inverse zu einem Element a ∈ G als −a. Statt a + (−a′ ) verwendet


man üblicherweise die Notation a − a′ . Endliche Summen
P von Elemen-
. , n, schreibt man in der Form ni=1 ai , wobei die
ten ai ∈ G, i = 1, . . P
leere Summe durch 0i=1 ai := 0 definiert ist.

Definition 3. Es sei G eine Gruppe. Eine Teilmenge H ⊂ G heißt


Untergruppe von G, wenn gilt:2
(i) a, b ∈ H =⇒ ab ∈ H,
(ii) 1 ∈ H,
(iii) a ∈ H =⇒ a−1 ∈ H.

Ist nun H ⊂ G eine Untergruppe, so beschränkt sich die Gruppen-


verknüpfung G × G ✲ G zu einer Verknüpfung H × H ✲ H, und
H ist mit dieser Verknüpfung selbst wieder eine Gruppe. Umgekehrt,
ist Letzteres der Fall, so kann man leicht zeigen, dass H eine Unter-
gruppe von G ist. Im Übrigen sieht man sofort ein, dass eine nicht-leere
Teilmenge H ⊂ G bereits dann eine Untergruppe von G ist, wenn die
Bedingung a, b ∈ H =⇒ ab−1 ∈ H erfüllt ist. Eine Gruppe G enthält
stets die trivialen Untergruppen {1} und G.
Als Nächstes wollen wir einige elementare Rechenregeln für das
Rechnen in Gruppen behandeln. Für Elemente a, b, c ∈ G gilt:
ab = ac =⇒ b = c
(1) (Kürzungsregeln)
ac = bc =⇒ a = b
(2) (a−1 )−1 = a
(3) (ab)−1 = b−1 a−1
Zum Nachweis von (1) multipliziere man von links mit a−1 bzw. von
rechts mit c−1 . Im Falle (2) schließe man wie folgt. (a−1 )−1 ist, wie wir
gesehen haben, dasjenige eindeutig bestimmte Element in G, welches
(von links oder rechts) mit a−1 multipliziert 1 ergibt. Wegen a−1 a = 1
ergibt sich (a−1 )−1 = a. Entsprechend erhält man (ab)−1 = b−1 a−1 , da
(b−1 a−1 )(ab) = b−1 (a−1 a)b = b−1 b = 1 gilt.
Abschließend wollen wir noch eine spezielle Charakterisierung von
Gruppen geben.
2
Nachfolgend steht =⇒ für die sogenannte Implikation. Für Aussagen A und B
schreibt man A =⇒ B oder B ⇐= A, wenn B aus A folgt. Entsprechend bedeutet
A ⇐⇒ B, dass A und B äquivalent sind.
1.2 Gruppen 21

Satz 4. Eine nicht-leere Menge G bildet zusammen mit einer Ver-


knüpfung (a, b) ✲ a · b genau dann eine Gruppe, wenn gilt:
(i) Die Verknüpfung ist assoziativ.
(ii) Zu a, b ∈ G gibt es stets Elemente x, y ∈ G mit x · a = b und
a · y = b.
Sind diese Bedingungen erfüllt, so sind die Elemente x, y in (ii)
eindeutig durch a, b bestimmt.

Beweis. Ist G eine Gruppe, so multipliziere man die Gleichungen in (ii)


von rechts bzw. links mit a−1 . Es folgt, dass x = ba−1 bzw. y = a−1 b
die eindeutig bestimmten Lösungen sind. Seien nun umgekehrt die Be-
dingungen des Satzes erfüllt, und sei a ∈ G. Dann existiert nach (ii)
ein Element e ∈ G mit ea = a. Zu b ∈ G existiert weiter ein y ∈ G mit
ay = b, und es folgt
eb = eay = ay = b,
also ist e links-neutral. Weiter folgt die Existenz links-inverser Elemen-
te nach (ii). Somit ist G eine Gruppe nach Bemerkung 2. 

Aufgaben
1. Für eine Menge X betrachte man die Menge Bij(X, X) der bijektiven
Selbstabbildungen. Man prüfe nach, dass Bij(X, X) unter der Kompo-
sition von Abbildungen eine Gruppe bildet und zeige, dass diese nicht
kommutativ ist, sofern X mindestens 3 verschiedene Elemente besitzt.
2. Es sei G eine Gruppe und H ⊂ G eine Teilmenge. Man zeige, dass H
genau dann eine Untergruppe von G ist, wenn die Gruppenverknüpfung
von G eine Verknüpfung auf H induziert (d. h. wenn für a, b ∈ H stets
ab ∈ H gilt) und wenn H mit dieser Verknüpfung selbst wieder eine
Gruppe ist.
3. Es sei G eine Gruppe und H ⊂ G eine Teilmenge. Man zeige, dass H
genau dann eine Untergruppe von G ist, wenn gilt:
(i) H 6= ∅
(ii) a, b ∈ H =⇒ ab−1 ∈ H
4. Es sei G eine Gruppe mit Untergruppen H1 , H2 ⊂ G. Man zeige, dass
H1 ∪ H2 genau dann eine Untergruppe von G ist, wenn H1 ⊂ H2 oder
H2 ⊂ H1 gilt. (AT 372)
22 1. Vektorräume

5. Für eine Gruppe G betrachte man die durch g ✲ g −1 gegebene Ab-


bildung i : G ✲ G und zeige:
(i) i ist bijektiv.
(ii) Ist A ⊂ G eine Teilmenge mit i(A) ⊂ A, so gilt bereits i(A) = A;
man nennt A dann symmetrisch.
(iii) Für jede Teilmenge A ⊂ G sind A∪i(A) und A∩i(A) symmetrisch.
6. Es sei G eine Gruppe mit a2 = 1 für alle a ∈ G. Man zeige, dass G
abelsch ist.
Q 2 = 1.
7. Es sei G eine endliche abelsche Gruppe. Dann gilt g∈G g
(AT 373)
8. Für ein n ∈ N − {0} betrachte man die Teilmenge Rn = {0, 1, . . . , n − 1}
von N. Es sei π : Z ✲ Rn die Abbildung, welche einer ganzen Zahl
aus Z jeweils deren nicht-negativen Rest bei Division durch n zuordnet.
Man zeige:
(i) Es existiert eine eindeutig bestimmte Verknüpfung (a, b) ✲ a+b
auf Rn , so dass für x, y ∈ Z stets π(x + y) = π(x) + π(y) gilt.
(ii) Rn ist mit dieser Verknüpfung eine abelsche Gruppe.
9. Es sei G eine Gruppe. Auf der Potenzmenge P(G) betrachte man die
durch
(A, B) ✲ A · B = {a · b ∈ G ; a ∈ A, b ∈ B}
gegebene Verknüpfung. Man zeige, dass diese Verknüpfung assoziativ
ist und ein neutrales Element besitzt. Ist P(G) mit dieser Verknüpfung
sogar eine Gruppe? Falls nein, zu welchen Elementen A ∈ P(G) gibt es
inverse Elemente?

1.3 Körper

Ein Körper ist eine additiv geschriebene abelsche Gruppe, auf der zu-
sätzlich eine Multiplikation mit gewissen Eigenschaften definiert ist,
nach dem Vorbild der rationalen oder der reellen Zahlen. Genauer:

Definition 1. Ein Körper ist eine Menge K mit zwei inneren Ver-
knüpfungen, geschrieben als Addition “+” und Multiplikation “·”, so
dass folgende Bedingungen erfüllt sind :
1.3 Körper 23

(i) (a + b) + c = a + (b + c) für a, b, c ∈ K. (Assoziativgesetz der


Addition)
(ii) Es existiert ein Element 0 in K mit 0 + a = a für alle a ∈ K.
(Neutrales Element der Addition)
(iii) Zu a ∈ K existiert ein Element b ∈ K mit b + a = 0, wobei 0
wie in (ii) gewählt ist. (Inverses Element der Addition)
(iv) a + b = b + a für a, b ∈ K. (Kommutativgesetz der Addition)
(v) (a · b) · c = a · (b · c) für a, b, c ∈ K. (Assoziativgesetz der
Multiplikation)
(vi) Es existiert ein Element 1 ∈ K mit 1 · a = a für alle a ∈ K.
(Neutrales Element der Multiplikation)
(vii) Zu a ∈ K − {0} existiert ein Element b ∈ K mit b · a = 1, wobei
1 wie in (vi) gewählt ist. (Inverses Element der Multiplikation)
(viii) a·b = b·a für a, b ∈ K. (Kommutativgesetz der Multiplikation)
(ix) a · (b + c) = a · b + a · c und (a + b) · c = a · c + b · c für a, b, c ∈ K.
(Distributivgesetze)
(x) 1 6= 0.

Bei den Distributivgesetzen (ix) hätten wir eigentlich auf der rech-
ten Seite die Terme a · b, a · c, b · c jeweils in Klammern setzen müssen.
Man vereinbart jedoch, dass die Multiplikation “·” Vorrang vor der
Addition “+” hat, so dass Klammerungen dann entbehrlich sind. Auch
sei darauf hingewiesen, dass das Multiplikationszeichen “·”, ähnlich wie
im Falle von Gruppen, vielfach nicht ausgeschrieben wird. Die Elemen-
te 0, 1 ∈ K sind eindeutig bestimmt, man nennt 0 das Nullelement und
1 das Einselement von K.
Als Nächstes wollen wir einige simple Rechenregeln für das Rech-
nen in Körpern K behandeln.
(1) 0a = a0 = 0 für a ∈ K, denn es gilt

0 = 0a − 0a = (0 + 0)a − 0a = 0a + 0a − 0a = 0a.

(2) (−1)a = −a für a ∈ K, denn

a + (−1)a = 1a + (−1)a = (1 − 1)a = 0a = 0.

(3) (−a)b = a(−b) = −ab , (−a)(−b) = ab für a, b ∈ K; dies ergibt


sich unter Benutzung von (2).
24 1. Vektorräume

(4) Für a, b ∈ K folgt aus ab = 0 bereits a = 0 oder b = 0. Denn


aus ab = 0 mit a 6= 0 6= b würde sich sonst als Widerspruch

1 = abb−1 a−1 = 0b−1 a−1 = 0

ergeben.
Man kann also in Körpern in etwa so rechnen, wie man dies von
den rationalen oder reellen Zahlen her gewohnt ist. Doch sei schon
an dieser Stelle auf Unterschiede zum Vorbild vertrauter Zahlbereiche
hingewiesen. Für eine natürliche Zahl n ∈ N und ein Element a ∈ K
ist es üblich, die n-fache Summe von a mit sich selbst als n · a zu
bezeichnen, wobei dann insbesondere n · a = 0 für n = 0 oder a = 0
gilt. Weiter setzt man n · a = (−n) · (−a) für negative ganze Zahlen n.
Es folgt jedoch aus n · a = 0 nicht notwendig n = 0 oder a = 0, wie
wir an konkreten Beispielen noch feststellen werden.
Unter Verwendung des Gruppenbegriffs lassen sich Körper in über-
sichtlicher Weise wie folgt charakterisieren:

Bemerkung 2. Die Bedingungen (i) - (x) in Definition 1 sind äqui-


valent zu den folgenden Bedingungen:
(i) K ist eine abelsche Gruppe bezüglich der Addition.
(ii) K ∗ = K − {0} ist eine abelsche Gruppe bezüglich der Multipli-
kation.
(iii) Es gelten die Distributivgesetze (ix) aus Definition 1.

Beweis. Zunächst ist klar, dass die Bedingungen (i) - (iv) aus Defi-
nition 1 diejenigen einer kommutativen additiven Gruppe sind. Wei-
ter folgt aus obiger Regel (4), dass für einen Körper K die Teilmenge
K ∗ = K − {0} abgeschlossen unter der Multiplikation ist und dass mit
einem Element a ∈ K ∗ wegen a · a−1 = 1 auch dessen inverses a−1 zu
K ∗ gehört. Somit sieht man, dass K ∗ eine abelsche Gruppe bezüglich
der Multiplikation ist, und es implizieren die Bedingungen aus Defini-
tion 1 die Bedingungen von Bemerkung 2.
Seien nun umgekehrt die Bedingungen aus Bemerkung 2 erfüllt.
Um hieraus die Bedingungen von Definition 1 abzuleiten, braucht man
lediglich zu wissen, dass in der Situation von Bemerkung 2 die Bezie-
hung 0a = 0 = a0 für alle a ∈ K gilt. Diese kann man jedoch mit Hilfe
1.3 Körper 25

der Distributivgesetze auf gleiche Weise herleiten, wie wir dies bereits
oben bei den Rechenregeln getan haben. 

Ähnlich wie bei Gruppen hat man auch bei Körpern den Begriff
des Unter- oder Teilkörpers.

Definition 3. Es sei K ein Körper. Eine Teilmenge L ⊂ K heißt ein


Teilkörper von K, wenn gilt:
(i) a, b ∈ L =⇒ a + b, a · b ∈ L.
(ii) 0, 1 ∈ L.
(iii) a ∈ L =⇒ −a ∈ L.
(iv) a ∈ L, a 6= 0 =⇒ a−1 ∈ L.

Es ist klar, dass eine Teilmenge L ⊂ K genau dann ein Teilkörper


von K ist, wenn Addition und Multiplikation auf K sich zu Verknüp-
fungen L × L ✲ L einschränken und wenn L unter diesen Verknüp-
fungen selbst ein Körper ist. Bekannte Beispiele für Körper sind die
rationalen Zahlen Q und die reellen Zahlen R, wobei Q ein Teilkörper
von R ist. Ein Körper enthält mindestens 2 verschiedene Elemente,
nämlich das neutrale Element der Addition und das neutrale Element
der Multiplikation, also 0 und 1. Andererseits gibt es aber auch einen
Körper K, der aus genau 2 Elementen besteht. Man betrachte nämlich
die Teilmenge {0, 1} ⊂ Z und setze:

0 + 0 = 0, 0 + 1 = 1 + 0 = 1, 1 + 1 = 0,
0 · 0 = 0, 0 · 1 = 1 · 0 = 0, 1 · 1 = 1.

Eine Verifikation der Körperaxiome zeigt, dass diese Verknüpfungen


auf {0, 1} in der Tat die Struktur eines Körpers definieren; man be-
zeichnet diesen meist mit F2 . Natürlich ist F2 kein Teilkörper von Q
oder R, denn es gilt 2 · 1 = 1 + 1 = 0, wobei 2 als natürliche Zahl, nicht
aber als Element von F2 aufzufassen ist.
Als Nächstes
√ wollen wir den kleinsten Teilkörper von R konstruie-
ren, der 2 enthält, also diejenige positive reelle Zahl, die mit sich
selbst
√ multipliziert 2 ergibt. Dieser Körper wird üblicherweise mit
Q 2 bezeichnet. Zunächst zeigen wir:

Lemma 4. 2 6∈ Q.
26 1. Vektorräume

Beweis. Wir
√ führen den Beweis
√ indirekt, also durch Widerspruch, und
nehmen 2 ∈ Q an, etwa 2 = p/q mit p, q ∈ Z − {0}. Den Bruch p/q
können wir als gekürzt annehmen. Insbesondere sind dann p und q nicht
beide durch 2 teilbar. Aus der Gleichung p2 /q 2 = 2 ergibt sich p2 = 2q 2
und damit, dass p2 gerade ist. Da das Quadrat einer ungeraden Zahl
stets ungerade ist, muss auch p gerade sein, etwa p = 2p̃ mit einem
Element p̃ ∈ Z. Es folgt 2q 2 = 4p̃2 bzw. q 2 = 2p̃2 und damit wie
soeben, dass 2 ein Teiler von q ist. Damit ist 2 sowohl ein Teiler von
p wie auch√von q. Dies hatten wir jedoch zuvor ausgeschlossen. Die
Annahme 2 ∈ Q führt √ daher zu einem Widerspruch, ist folglich nicht
haltbar, und es gilt 2 6∈ Q. 

Als Folgerung erhalten wir:

Lemma 5. Für a, b ∈ Q gilt



a + b 2 6= 0 ⇐⇒ a 6= 0 oder b 6= 0.

Beweis. Die Implikation “=⇒” ist trivial. Um die Umkehrung “⇐=” zu


zeigen, gehen wir wieder
√ indirekt vor und nehmen an, es gäbe Zahlen
a, b ∈ Q mit a + b 2 = 0, wobei a und b nicht beide√ verschwinden
mögen. Dann folgt notwendig a 6= 0 6= b und somit 2 = −ab−1 ∈ Q
im Widerspruch zu Lemma 4. 
√ 
Wir definieren nun Q 2 als Teilmenge von R durch
√   √
Q 2 = a + b 2 ; a, b ∈ Q .
√ 
Satz 6. Q 2 ist ein echter Teilkörper von R, der wiederum Q als
√ 
echten Teilkörper enthält. Es ist Q 2 der kleinste Teilkörper von R,

der 2 enthält.
√ 
Beweis. Zunächst soll gezeigt werden, dass Q 2 ein Teilkörper von R
√ 
ist. Um nachzuweisen, dass Q 2 abgeschlossen ist unter der Addition
√ √ √ 
und Multiplikation, wähle man Elemente a + b 2, a′ + b′ 2 ∈ Q 2
mit a, b, a′ , b′ ∈ Q. Dann folgt
1.3 Körper 27
√  √  √ √ 
a + b 2 + a′ + b′ 2 = (a + a′ ) + (b + b′ ) 2 ∈Q 2 ,
√  √  √ √ 
a + b 2 · a′ + b′ 2 = (aa′ + 2bb′ ) + (ab′ + a′ b) 2 ∈Q 2 ,

d. h. Bedingung (i) aus Definition


√ 3√ ist erfüllt. Dasselbe√ gilt für√Be-

dingung (ii), denn 0 = 0 + 0 2 ∈ Q 2 und 1 = 1 + 0 2 ∈ Q 2 .
√ √ √
Weiter ist mit a + b 2 auch −(a + b 2) √ = (−a)
 + (−b) 2 als inver-
ses Element bezüglich der Addition in Q 2 enthalten, so dass auch
Bedingung (iii) aus Definition 3 erfüllt ist.
Etwas schwieriger
√ istBedingung (iv) aus Definition 3 nachzuwei-

sen. Sei a + b 2 ∈ Q 2 von Null verschieden, also a 6= 0 oder b 6= 0

nach Lemma 5. Dann gilt a − b 2 6= 0, ebenfalls nach Lemma 5, und
wir können schreiben:

1 a−b 2 a b √ √ 
√ = 2 = − 2 ∈ Q 2 .
a+b 2 a − 2b2 a2 − 2b2 a2 − 2b2
√ 
Insgesamt ergibt sich, dass Q 2 ein Teilkörper von R ist, und zwar
√ √ 
ein echter Teilkörper, da beispielsweise 3 nicht zu Q 2 gehört.
Letzteres zeigt man, indem man ähnlich√ argumentiert wie im Beweis
zu Lemma 4. Im Übrigen enthält Q 2 den Körper der rationalen

Zahlen als echten Teilkörper wegen 2√6∈Q.
Es bleibt noch zu zeigen, dass Q 2 der kleinste Teilkörper von

R ist, der 2 enthält. Ist zunächst K ein beliebiger Teilkörper von R,
so enthält K notwendig alle Elemente der Form n · 1 mit n ∈ Z, es
gilt also Z ⊂ K. Dann muss K aber auch alle Brüche der Form p/q
mit p, q ∈ Z, q 6= 0, und damit
√ Q enthalten. Folglich ist Q der kleinste
Teilkörper von R. Gilt nun√ 2 ∈ K, so enthält K notwendig√  auch alle
Ausdrücke der Form a + b 2 mit a, b ∈ Q und damit Q 2 . Also ist
√  √
Q 2 der (eindeutig bestimmte) kleinste Teilkörper von R, der 2
enthält. 

Als Nächstes wollen wir von dem Körper R der reellen Zahlen aus-
gehen und diesen zum Körper C der komplexen Zahlen erweitern. Man
setze

C := R × R = (a, a′ ) ; a, a′ ∈ R
und definiere Addition bzw. Multiplikation auf C durch
28 1. Vektorräume

(a, a′ ) + (b, b′ ) := (a + b, a′ + b′ ),
(a, a′ ) · (b, b′ ) := (ab − a′ b′ , ab′ + a′ b).

Man prüft leicht nach, dass C mit diesen Verknüpfungen einen Körper
bildet. Dabei ist 0C = (0, 0) das Nullelement sowie −(a, a′ ) = (−a, −a′ )
das inverse Element bezüglich der Addition zu (a, a′ ) ∈ C. Weiter ist
1C = (1, 0) das Einselement von C, und das inverse Element bezüglich
der Multiplikation zu einem Element (a, a′ ) 6= 0C wird gegeben durch
 
′ −1 a a′
(a, a ) = ,− .
a2 + a′2 a2 + a′2
Exemplarisch wollen wir das Assoziativgesetz der Multiplikation nach-
weisen. Für (a, a′ ), (b, b′ ), (c, c′ ) ∈ C rechnet man

(a, a′ )(b, b′ ) (c, c′ ) = (ab − a′ b′ , ab′ + a′ b)(c, c′ )
= (abc − a′ b′ c − ab′ c′ − a′ bc′ , abc′ − a′ b′ c′ + ab′ c + a′ bc)

sowie

(a, a′ ) (b, b′ )(c, c′ ) = (a, a′ )(bc − b′ c′ , bc′ + b′ c)
= (abc − ab′ c′ − a′ bc′ − a′ b′ c, abc′ + ab′ c + a′ bc − a′ b′ c′ ),

d. h. es gilt
 
(a, a′ )(b, b′ ) (c, c′ ) = (a, a′ ) (b, b′ )(c, c′ ) .

Man stellt weiter fest, dass die Elemente der Form (a, 0) einen Teil-
körper K ⊂ C bilden. Es gilt nämlich 0C , 1C ∈ K sowie für Elemente
(a, 0), (b, 0) ∈ K

(a, 0) + (b, 0) = (a + b, 0) ∈ K,
(a, 0) · (b, 0) = (a · b, 0) ∈ K,
−(a, 0) = (−a, 0) ∈ K,
(a, 0)−1 = (a−1 , 0) ∈ K, falls a 6= 0.

Man kann nun durch a ✲ (a, 0) eine natürliche Identifikation zwi-


schen den Elementen von R und denen von K erklären. Da diese Iden-
tifikation auch die Körperstrukturen von R bzw. K respektiert, lässt
1.3 Körper 29

sich R sogar als Körper mit dem Teilkörper K ⊂ C identifizieren. So-


mit können wir nun R als Teilkörper von C auffassen und brauchen
nicht mehr zwischen dem Null- bzw. Einselement in R und C zu un-
terscheiden.
Üblicherweise bezeichnet man das Element (0, 1) ∈ C als komplexe
Zahl i; diese besitzt die Eigenschaft i2 = −1, ist also zu interpretieren
als Quadratwurzel aus −1. Komplexe Zahlen z = (a, a′ ) lassen sich
sodann in der Form

z = (a, 0) + (0, a′ ) = (a, 0) + (a′ , 0) · (0, 1) = a + a′ i

schreiben. Dabei wird a = Re(z) als Realteil und a′ = Im(z) als Ima-
ginärteil von z bezeichnet. Es gelten die Formeln

(a + a′ i) + (b + b′ i) = (a + b) + (a′ + b′ )i,
(a + a′ i) · (b + b′ i) = (ab − a′ b′ ) + (ab′ + a′ b)i,
−(a + a′ i) = −a − a′ i,
a a′
(a + a′ i)−1 = 2 − i,
a + a′2 a2 + a′2
letztere unter der Voraussetzung a + a′ i 6= 0, also a 6= 0 oder a′ 6= 0.
Als Beispiel für das Rechnen in Körpern wollen wir schließlich noch
die binomische Formel herleiten. Sei also K ein beliebiger Körper. Für
a ∈ K und n ∈ N definiert man üblicherweise an als das n-fache Pro-
dukt von a mit sich selbst. Dabei ist a0 das leere Produkt, also a0 = 1.
Außerdem kann man a−n für a 6= 0 durch (a−1 )n erklären, so dass
dann an für ganzzahlige Exponenten n definiert ist. Für das Rechnen
mit solchen Potenzen gelten die gewöhnlichen Potenzgesetze.
Seien a, b ∈ K, und sei n ∈ N eine natürliche Zahl. Zur Berechnung
von (a+b)n wählen wir zunächst eine kombinatorische Methode. Hierzu
stellen wir uns (a + b)n als n-faches Produkt vor:

(a + b)n = (a + b) · . . . · (a + b)

Die rechte Seite kann man unter sukzessiver Benutzung der Distributiv-
gesetze ausrechnen, indem man aus jeder Klammer einen Summanden
auswählt (also jeweils a oder b), das Produkt über die ausgewählten
Elemente bildet und schließlich alle Produkte dieses Typs zu verschie-
denen Wahlen summiert. Somit folgt
30 1. Vektorräume

n
X
n
(a + b) = α(i)an−i bi ,
i=0

wobei α(i) gleich der Anzahl der Möglichkeiten ist, den Summanden
b genau i-mal aus den n Klammern (a + b) auszuwählen, mit anderen
Worten, gleich der Anzahl der i-elementigen Teilmengen in {1, . . . , n}.
Will man i Elemente in {1, . . . , n} auswählen, so gibt es für das erste
Element n Wahlmöglichkeiten, für das zweite n − 1 und so weiter,
schließlich für das i-te Element noch n− i + 1 Möglichkeiten. Insgesamt
haben wir daher
n(n − 1) . . . (n − i + 1)
Möglichkeiten für diesen Auswahlprozess. Nun ist aber zu berücksich-
tigen, dass eine i-elementige Teilmenge {t1 , . . . , ti } von {1, . . . , n}, die
in einem solchen Prozess konstruiert wird, nicht davon abhängt, in
welcher Reihenfolge die Elemente t1 , . . . , ti ausgewählt werden. Wir
müssen daher die obige Anzahl noch durch die Anzahl der Mög-
lichkeiten dividieren, die Elemente t1 , . . . , ti in ihrer Reihenfolge zu
vertauschen, also durch die Anzahl der bijektiven Selbstabbildungen
π : {1, . . . , i} ✲ {1, . . . , i}. Will man eine solche Abbildung π defi-
nieren, so hat man zur Festsetzung von π(1) zunächst i Möglichkei-
ten, für π(2) noch i − 1 Möglichkeiten usw. Die Anzahl der bijektiven
Selbstabbildungen von {1, . . . , i} ist deshalb i! = 1 · . . . · i, wobei das
Rufzeichen “ ! ” als Fakultät gelesen wird, und es ergibt sich
n(n − 1) . . . (n − i + 1)
α(i) = .
1 · 2 · ... · i

Für diesen Ausdruck verwendet man die Schreibweise ni , gelesen n
über i, also
 
n n(n − 1) . . . (n − i + 1) n!
= = , 0 ≤ i ≤ n.
i 1 · 2 · ... · i i!(n − i)!
In den Extremfällen i = 0 bzw. i = n erweist sich unsere Konvention
bezüglich leerer Produkte
 als sinnvoll, es gilt 0! = 1 sowie n0 = 1 = nn
und insbesondere 00 = 1. Insgesamt folgt die bekannte binomische
Formel n  
X n n−i i
n
(a + b) = a b,
i=0
i
1.3 Körper 31


wobei die Koeffizienten ni ∈ N als Binomialkoeffizienten bezeichnet
werden.
Wir wollen noch einen präziseren Beweis für diese Formel geben,
wobei wir die Gelegenheit nutzen, um das Prinzip der vollständigen
Induktion zu erklären. Wenn man zeigen will, dass eine Aussage A(n)
für alle natürlichen Zahlen n ∈ N gültig ist, so genügt es nach diesem
Prinzip, Folgendes zu zeigen:
(1) Es gilt A(0) (Induktionsanfang).
(2) Für beliebiges n ∈ N kann man aus der Gültigkeit der Aussage
A(n) (Induktionsvoraussetzung) auf die Gültigkeit der Aussage A(n+1)
schließen (Induktionsschluss).
Natürlich kann man die vollständige Induktion statt bei n = 0
auch bei einer anderen Zahl n = n0 ∈ N oder sogar bei einer Zahl
n = n0 ∈ Z beginnen. Führt man den Induktionsschluss dann für
ganze Zahlen n ≥ n0 durch, so ergibt sich die Gültigkeit von A(n) für
alle ganzen Zahlen n ≥ n0 . Als Variante dieses Prinzips darf man beim
Induktionsschluss zum Nachweis von A(n+1) zusätzlich benutzen, dass
die Aussage A(m) bereits für alle m mit n0 ≤ m ≤ n gilt, wobei der
Induktionsanfang wiederum bei n = n0 liegen möge. In unserem Fall
soll die Aussage A(n) aus zwei Teilen bestehen und für n ∈ N wie folgt
lauten:
 
n
∈ N für 0 ≤ i ≤ n,
i
X n  
n n n−i i
(a + b) = a b;
i=0
i

n

die Binomialkoeffizienten i
sind dabei wie oben durch
 
n n(n − 1) . . . (n − i + 1) n!
= =
i 1 · 2 · ... · i i!(n − i)!

gegeben. Der Induktionsanfang


 bei n = 0 ist leicht
 durchzuführen;
0 0 0 0
denn man hat 0 = 1 ∈ N und (a + b) = 1 = 0 a b , d. h. A(0) ist
0

richtig. Zum Induktionsschluss betrachten wir ein beliebiges n ∈ N und


nehmen an, dass A(n) richtig ist. Dann können wir wie folgt rechnen:
32 1. Vektorräume

n  
X
n+1 n n
(a + b) = (a + b) · (a + b) = (a + b) · an−i bi
i=0
i
n  
X n  
X
n n
= an+1−i bi + an−i bi+1
i=0
i i=0
i
n  
X n−1  
X
n+1 n n+1−i i n
=a + a b + an−i bi+1 + bn+1
i=1
i i=0
i
Xn 
 n  
n+1 n n+1−i i X n
=a + a b + an+1−i bi + bn+1
i=1
i i=1
i − 1
Xn    
n n
= an+1 + + an+1−i bi + bn+1
i=1
i i − 1

Nun hat man aber für 1 ≤ i ≤ n


   
n n n! n!
+ = +
i i−1 i!(n − i)! (i − 1)!(n − i + 1)!
n!(n − i + 1) + n!i n!(n + 1)
= =
i!(n − i + 1)! i!(n − i + 1)!
 
(n + 1)! n+1
= = ,
i!(n + 1 − i)! i
so dass sich wie gewünscht
n+1 
X 
n+1n + 1 n+1−i i
(a + b) = a b
i=0
i
 n 
ergibt. Außerdem folgt aus ni , i−1 ∈ N, dass auch n+1i
eine natürli-
che Zahl ist. Die binomische Formel ist daher per Induktion bewiesen.

Aufgaben
1. Es sei K eine endliche Menge mit zwei Verknüpfungen “+” und “·”,
welche den Bedingungen (i) – (x) von Definition 1 genügen, wobei jedoch
die Bedingung (vii) ersetzt sei durch
(vii′ ) Für a, b ∈ K − {0} gilt ab ∈ K − {0}.
Man zeige, dass K ein Körper ist.
1.3 Körper 33

2. Es sei K ein endlicher Körper. Für Elemente n ∈ N und a ∈ K bezeichne


n · a = a + . . . + a die n-fache Summe von a mit sich selber. Man zeige
(AT 374):
(i) Es existiert ein n ∈ N − {0}, so dass na = 0 für alle a ∈ K gilt.
(ii) Wählt man n wie vorstehend minimal, so ist n eine Primzahl, die
sogenannte Charakteristik von K.
3. Man betrachte für n ∈ N − {0} die Menge Rn aus Abschnitt 1.2, Aufga-
be 8 mit der dort erklärten Addition, welche auf Rn die Struktur einer
additiven abelschen Gruppe definiert. Man zeige:
(i) Auf Rn lässt sich in eindeutiger Weise eine Multiplikation erklä-
ren, so dass alle Bedingungen von Definition 1, mit eventueller
Ausnahme von (vii) erfüllt sind.
(ii) Ist p eine Primzahl, so ist Rp sogar ein Körper; dieser wird auch
mit Fp bezeichnet.
4. Man konstruiere einen Körper mit 4 Elementen.
√ √ 
5. Man weise nach, dass 3 nicht zu Q 2 gehört. (AT 376)
6. Man bestimme den kleinsten Teilkörper von C, welcher die komplexe
Zahl i enthält.
7. Für eine Aussage A(n), die für n ∈ N definiert ist, betrachte man fol-
gende Bedingungen:
(i) A(0) ist wahr.
(ii) Für alle n ∈ N gilt: Ist A(n) wahr, so auch A(n + 1).
(iii) Für alle n ∈ N gilt: Ist A(i) für alle i ∈ N mit i ≤ n wahr, so auch
A(n + 1).
Man zeige mittels eines formalen Schlusses, dass das Induktionsprinzip,
welches die Bedingungen (i) und (ii) umfasst, äquivalent zu demjenigen
ist, das die Bedingungen (i) und (iii) umfasst.
8. Es sei A(m, n) eine Aussage, die für m, n ∈ N erklärt sei. Die folgenden
Aussagen seien wahr:
(i) A(0, 0)
(ii) A(i, j) =⇒ A(i + 1, j) für i, j ∈ N.
(iii) A(i, j) =⇒ A(i, j + 1) für i, j ∈ N.
Man zeige, dass dann A(i, j) für alle i, j ∈ N wahr ist (Prinzip der
Doppelinduktion). Lassen sich die Bedingungen (ii) bzw. (iii) noch ab-
schwächen?
34 1. Vektorräume

9. Für n ∈ N und Elemente q 6= 1 eines Körpers K leite man die Formel


für die geometrische Reihe her:
n
X 1 − q n+1
qi =
1−q
i=0

10. Man beweise für k, n ∈ N mit n ≥ k ≥ 1 :


n−1
X    
i n
=
k−1 k
i=k−1

11. Man zeige, dass die Menge {(a1 , . . . , an ) ∈ Nn ; a1 + . . . + an = k} für


n, k ∈ N, n ≥ 1, genau  
k+n−1
n−1
Elemente besitzt. (AT 377)

1.4 Vektorräume und lineare Unterräume

Wir wollen nun die eingangs angedeutete Vektorrechnung auf eine


axiomatische Grundlage stellen, indem wir Vektorräume über Körpern
betrachten. Vektoren werden wir im Folgenden stets mit lateinischen
Buchstaben a, b, c, . . . bezeichnen, Skalare aus dem zugehörigen Körper
dagegen mit griechischen Buchstaben α, β, γ,. . .

Definition 1. Es sei K ein Körper. Ein K-Vektorraum ist eine Menge


V mit einer inneren Verknüpfung V × V ✲ V , (a, b) ✲ a + b,
genannt Addition, und einer äußeren Verknüpfung K × V ✲ V,
genannt skalare Multiplikation, so dass gilt:
(i) V ist eine abelsche Gruppe bezüglich der Addition “+”.
(ii) (α + β) · a = α · a + β · a, α · (a + b) = α · a + α · b für alle
α, β ∈ K, a, b ∈ V , d. h. Addition und Multiplikation verhalten sich
distributiv.
(iii) (α · β) · a = α · (β · a) für alle α, β ∈ K, a ∈ V , d. h. die skalare
Multiplikation ist assoziativ.
(iv) 1 · a = a für das Einselement 1 ∈ K und alle a ∈ V .
1.4 Vektorräume und lineare Unterräume 35

Elemente eines Vektorraums werden auch als Vektoren bezeichnet.


Wie jede Gruppe enthält ein K-Vektorraum mindestens ein Element,
nämlich den Nullvektor 0 als neutrales Element. Andererseits kann
man eine einelementige Menge V = {0} stets zu einem K-Vektorraum
machen, indem man 0 + 0 = 0 und α · 0 = 0 für α ∈ K definiert.
Man nennt V dann den Nullraum und schreibt in suggestiver Wei-
se V = 0, wobei man streng genommen zwischen 0 als Nullelement
und 0 als Nullraum zu unterscheiden hat. Ist L ein Körper und K ein
Teilkörper, so kann man L stets als K-Vektorraum auffassen. Als Vek-
torraumaddition auf L nehme man die gegebene Körperaddition und
als skalare Multiplikation K × L ✲ L die Einschränkung der Kör-
permultiplikation L × L√ ✲ L. Insbesondere ist C auf diese Weise ein
Vektorraum über Q, Q( 2) oder R. Im Übrigen ist jeder Körper K ein
Vektorraum über sich selbst.
Für das Rechnen mit Vektoren gelten die gewöhnlichen Rechenre-
geln, die wir im Folgenden auflisten. Dabei haben wir an dieser Stelle
der Deutlichkeit halber 0K für das Nullelement von K und 0V für den
Nullvektor in V geschrieben, eine Unterscheidung, die wir im Weiteren
allerdings nicht mehr machen werden.

(1) α · 0V = 0V für alle α ∈ K.

(2) 0K · a = 0V für alle a ∈ V .

(3) (−α) · a = α · (−a) = −(α · a) für alle α ∈ K, a ∈ V .

(4) Aus α · a = 0V für α ∈ K und a ∈ V folgt bereits α = 0K oder


a = 0V .

Die Regeln (1) - (3) beweist man genauso wie die entsprechenden
Regeln für das Rechnen in Körpern. Gleiches gilt für (4), wobei wir
hier die Argumentation noch einmal ausführen wollen. Gilt nämlich
α · a = 0 mit α 6= 0, so ergibt sich

a = (α−1 · α) · a = α−1 · (α · a) = α−1 · 0V = 0V .

Als weitere Regeln führen wir noch die allgemeinen Distributivgesetze


auf; es seien α, αi , βi ∈ K sowie a, ai ∈ V für i = 1, . . . , n.
36 1. Vektorräume

n
X n
X
α· ai = αai
i=1 i=1
X
n  n
X
αi · a = αi a
i=1 i=1
n
X n
X Xn
αi ai + βi ai = (αi + βi )ai
i=1 i=1 i=1

Definition 2. Es sei V ein K-Vektorraum. Eine Teilmenge U ⊂ V


heißt ein K-Untervektorraum oder linearer Unterraum von V , wenn
gilt:
(i) U 6= ∅
(ii) a, b ∈ U =⇒ a + b ∈ U
(iii) α ∈ K, a ∈ U =⇒ αa ∈ U

Für einen Vektor a ∈ V ist


K · a := {αa ; α ∈ K}
stets ein linearer Unterraum von V . In Falle a 6= 0 kann man hier
von einer “Geraden” sprechen, für a = 0 ist K · a der Nullraum. Jeder
Vektorraum enthält folglich den Nullraum und sich selbst als lineare
Unterräume. Fassen wir√ weiter etwa C als Q-Vektorraum auf, so er-
kennt man R und Q 2 als lineare Unterräume. Im Übrigen ist die
Bezeichnung K-Untervektorraum in Definition 2 gerechtfertigt, denn
es gilt:

Bemerkung 3. Eine Teilmenge U eines K-Vektorraums V ist genau


dann ein K-Untervektorraum, wenn U abgeschlossen unter der Addi-
tion und der skalaren Multiplikation mit Elementen aus K ist, und
wenn U mit diesen Verknüpfungen selbst ein K-Vektorraum ist.

Beweis. Die behauptete Äquivalenz ist in einfacher Weise zu verifizie-


ren. Wir wollen hier nur zeigen, dass jeder lineare Unterraum U ⊂ V
die in Bemerkung 3 genannten Bedingungen erfüllt. Sei also U ⊂ V wie
in Definition 2. Zunächst besagen die Bedingungen (ii) und (iii), dass U
abgeschlossen unter der Addition und der skalaren Multiplikation ist.
Weiter übertragen sich allgemeine Eigenschaften der Verknüpfungen
1.4 Vektorräume und lineare Unterräume 37

wie Assoziativität, Kommutativität, Distributivität usw. in direkter


Weise von V auf U . Nach Voraussetzung gilt U 6= ∅. Es enthält U da-
her ein Element a. Dann gehört auch −a = (−1)a zu U und damit der
Nullvektor 0 = a − a. Also ist klar, dass U eine additive Untergruppe
von V und insgesamt mit den von V induzierten Verknüpfungen ein
K-Vektorraum ist. 

Als wichtigstes Beispiel eines Vektorraums über einem Körper K


wollen wir das n-fache kartesische Produkt

K n = (α1 , . . . , αn ) ; αi ∈ K für i = 1, . . . , n

betrachten, wobei n ∈ N sei. Die Addition K n × K n ✲ K n werde


erklärt durch

(α1 , . . . , αn ) + (β1 , . . . , βn ) = (α1 + β1 , . . . , αn + βn ),

sowie die skalare Multiplikation K × K n ✲ K n durch

α · (α1 , . . . , αn ) = (α · α1 , . . . , α · αn ).

Das n-Tupel (0, . . . , 0) ∈ K n definiert den Nullvektor in K n , den wir


üblicherweise wieder mit 0 bezeichnen. Weiter ist (−α1 , . . . , −αn ) für
ein Element (α1 , . . . , αn ) ∈ K n das inverse Element bezüglich der Addi-
tion. Im Falle n = 0 ist K n als einelementige Menge anzusehen, welche
nur aus dem leeren Tupel besteht; K 0 ist somit der Nullraum. Im Üb-
rigen lässt sich K m für m ≤ n in kanonischer3 Weise als linearer Unter-
raum von K n auffassen, indem man die Elemente (α1 , . . . , αm ) ∈ K m
mit denen des Typs (α1 , . . . , αm , 0, . . . , 0) ∈ K n identifiziert.
Anschaulich können wir den Vektorraum K n für K = R und n = 2
als Modell einer Ebene und für n = 3 als Modell des gewöhnlichen
dreidimensionalen Raumes ansehen. Als Untervektorräume der Ebene
R2 gibt es, wie wir noch sehen werden, außer den trivialen linearen
Unterräumen 0 und R2 lediglich die Geraden des Typs Ra zu von Null
verschiedenen Vektoren a ∈ R2 .
3
Die Bezeichnung “kanonisch” werden wir im Folgenden noch häufiger verwen-
den. Wir meinen hiermit eine Möglichkeit, die sich in naheliegender Weise als die
einfachste Lösung anbietet.
38 1. Vektorräume

Die obige Konstruktion des Vektorraums K n lässt sich allgemeiner


für einen K-Vektorraum V anstelle von K durchführen. Man erhält
dann das n-fache kartesische Produkt V n von V als K-Vektorraum mit
komponentenweiser Addition und skalarer Multiplikation. Darüber hin-
aus kann man für eine beliebige Q Familie von K-Vektorräumen (Vi )i∈I
das kartesische Produkt V = i∈I Vi als K-Vektorraum auffassen, wie-
derum mit komponentenweisen Verknüpfungen, indem man also für
α ∈ K und (vi )i∈I , (vi′ )i∈I ∈ V setzt:

(vi )i∈I + (vi′ )i∈I = (vi + vi′ )i∈I , α · (vi )i∈I = (α · vi )i∈I .

Viele interessante Vektorräume sind als Räume von Abbildungen


oder Funktionen zu sehen. Sei etwa K ein Körper und X eine Menge.
Dann bildet die Menge V = Abb(X, K) aller Abbildungen von X nach
K auf natürliche Weise einen K-Vektorraum. Man erkläre nämlich die
Summe zweier Elemente f, g ∈ V als Abbildung

f + g: X ✲ K, x ✲ f (x) + g(x),

sowie das skalare Produkt eines Elementes α ∈ K mit einem Element


f ∈ V durch
αf : X ✲ K, x ✲ αf (x).
Es ist leicht nachzurechnen, dass V mit diesen Verknüpfungen einen
K-Vektorraum bildet, den sogenannten Vektorraum der K-wertigen
Funktionen auf X (der im Übrigen mit dem kartesischen Produkt K X
übereinstimmt, dessen Faktoren K durch die Elemente der Menge X
indiziert werden). Die Nullabbildung

0: X ✲ K, x ✲ 0

ist das Nullelement, und das negative Element zu einem f ∈ V wird


gegeben durch

−f : X ✲ K, x ✲ − f (x) .

Setzt man beispielsweise K = R und X = {α ∈ R ; 0 ≤ α ≤ 1}, so ist


V = Abb(X, R) der R-Vektorraum aller reellwertigen Funktionen auf
dem Einheitsintervall in R. Lineare Unterräume werden gebildet von
den stetigen Funktionen, den differenzierbaren Funktionen bzw. von
den Polynomfunktionen.
1.4 Vektorräume und lineare Unterräume 39

Im Folgenden sei K stets ein Körper. Wir wollen uns etwas genauer
mit dem Problem der Konstruktion von linearen Unterräumen in einem
K-Vektorraum V beschäftigen.

Lemma 4. Es sei V ein K-VektorraumTund (Ui )i∈I eine Familie von


linearen Unterräumen. Dann ist U = i∈I Ui ebenfalls ein linearer
Unterraum von V .

Beweis. Um zu sehen, dass U ein linearer Unterraum von V ist, ve-


rifizieren wir die Bedingungen von Definition 2. Da 0 ∈ Ui für alle i
gilt, folgt auch 0 ∈ U . Seien nun α ∈ K und a, b ∈ U . Dann ergibt
sich a, b ∈ Ui für alle i, also a + b, αa ∈ Ui und somit a + b, αa ∈ U .
Folglich erfüllt U die definierenden Eigenschaften eines linearen Unter-
raums von V . 

Satz und Definition 5. Es sei V ein K-Vektorraum und A ⊂ V eine


Teilmenge. Dann ist
Xr 
hAi := αi ai ; r ∈ N, αi ∈ K, ai ∈ A für i = 1, . . . , r
i=1

ein linearer Unterraum von V , und dieser stimmt überein mit dem
linearen Unterraum \
U ⊂ V,
A⊂U

den man gemäß Lemma 4 erhält, wenn man den Durchschnitt über alle
linearen Unterräume U in V bildet, die A enthalten.
Folglich ist hAi der kleinste lineare Unterraum in V , der A enthält,
was bedeutet, dass jeder lineare Unterraum U ⊂ V , der A enthält, auch
bereits hAi enthalten muss. Man nennt hAi den von A in V erzeugten
linearen Unterraum oder auch die lineare Hülle von A in V .

In ähnlicher Weise definiert man für eine Familie A = (ai )i∈I von
Elementen aus V den von A erzeugten linearen Unterraum hAi ⊂ V
durch hAi = hAi mit A = {ai ; i ∈ I}. Aus der Definition in Kombi-
nation mit obigem Satz ergeben sich in direkter Weise die folgenden
elementaren Eigenschaften für erzeugte lineare Unterräume in einem
Vektorraum V :
40 1. Vektorräume

(1) h∅i = 0
(2) A ⊂ hAi für eine Teilmenge A ⊂ V .
(3) hU i = U für einen linearen Unterraum U ⊂ V .
(4) A ⊂ B =⇒ hAi ⊂ hBi und A ⊂ hBi =⇒ hAi ⊂ hBi für
Teilmengen A, B ⊂ V .
Nun zum Beweis von Satz 5. Wir zeigen zunächst, dass hAi ein
linearer Unterraum von V ist.
P0 Es gilt hAi =6 ∅, denn der Nullvektor 0
lässt sich als leere Summe i=1 αi ai schreiben (oder für A 6= ∅ auch
als entsprechende echte Summe mit Koeffizienten αi = 0), gehört also
zu hAi. Seien weiter α ∈ K sowie
r
X s
X
a= αi ai , b= βj bj
i=1 j=1

Elemente von hAi. Dann folgt


r
X
αa = (ααi )ai ∈ hAi
i=1

sowie
r
X s
X r+s
X
a+b= αi ai + βj bj = αi ai ∈ hAi,
i=1 j=1 i=1

wenn wir αr+j = βj und ar+j = bj für j = 1, . . . , s setzen. Somit ist


hAi ein linearer Unterraum von V .
Ist U ein beliebiger linearer Unterraum von V , der A enthält,
so muss U aufgrund der definierenden Eigenschaften Pr eines linearen
Unterraums auch alle Linearkombinationen i=1 αi ai mit Elementen
a1 , . . . , ar ∈ A und Koeffizienten α1 , . . .T, αr ∈ K enthalten. Somit er-
gibt sich hAi ⊂ U und damit hAi ⊂ A⊂U U . Andererseits schließt
man aus der Gleichung a = 1 · a für a ∈ A natürlich A ⊂ hAi, so dass
auch hAi zu der Menge aller linearen Unterräume T U ⊂ V gehört, die A
enthalten. Insbesondere ergibt sich hAi = A⊂U U , und man erkennt
hAi als kleinsten linearen Unterraum von V , der A enthält. 

Definition 6. Es sei V ein K-Vektorraum. Eine Familie A = (ai )i∈I


von Elementen aus V heißt ein Erzeugendensystem von V , wenn jedes
1.4 Vektorräume und lineare Unterräume 41

P
a ∈ V eine Darstellung a = i∈I αi ai mit Koeffizienten αi ∈ K besitzt,
wobei αi = 0 für fast alle i ∈ I gilt, d. h. für alle i ∈ I, bis auf endlich
viele Ausnahmen. Mit anderen Worten, A ist ein Erzeugendensystem
von V , wenn V = hAi gilt. Weiter nennt man V endlich erzeugt, wenn
V ein endliches Erzeugendensystem a1 , . . . , an besitzt.

Jeder K-Vektorraum V besitzt ein Erzeugendensystem, denn es


gilt beispielsweise hV i = V . Weiter gilt:
V = h1i für V = Q als Q-Vektorraum,
√ √ 
V = 1, 2 für V = Q 2 als Q-Vektorraum,
V = h1, ii für V = C als R-Vektorraum,
V = he1 , . . . , en i für V = K n als K-Vektorraum.
Dabei sei ei ∈ K n für i = 1, . . . , n der i-te Einheitsvektor, also
ei = (0, . . . , 0, 1, 0, . . . , 0),
wobei die 1 genau an der i-ten Stelle steht. Auf präzisere Weise können
wir
ei = (δ1i , . . . , δni )
schreiben unter Verwendung des Kronecker -Symbols
(
1 für h = i
δhi = .
0 sonst

Aufgaben
K sei stets ein Körper.
1. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unterraum. Für
welche Elemente a ∈ V ist a + U := {a + u ; u ∈ U } wiederum ein
linearer Unterraum von V ? (AT 380)
2. Es sei V ein K-Vektorraum und A = (Ai )i∈I eine Familie von Teilmen-
gen von V . Die Familie A möge folgende Bedingung erfüllen: Zu je zwei
Indizes i, j ∈ I existiert stets ein Index k ∈ I mit Ai ∪ Aj ⊂ Ak . Man
zeige [  [
Ai = hAi i.
i∈I i∈I
Gilt diese Beziehung auch ohne die Voraussetzung an die Familie A?
42 1. Vektorräume

3. Es sei V ein endlich erzeugter K-Vektorraum. Dann lässt sich jedes belie-
bige Erzeugendensystem von V zu einem endlichen Erzeugendensystem
verkleinern.
4. Es sei K Teilkörper eines Körpers L und V ein L-Vektorraum. Ist
dann x1 , . . . , xn ein Erzeugendensystem von V als L-Vektorraum und
α1 , . . . , αm ein Erzeugendensystem von L, aufgefasst als K-Vektorraum,
so bilden die Produkte αi xj mit i = 1, . . . , m und j = 1, . . . , n ein Er-
zeugendensystem von V als K-Vektorraum.
5. Es seien x, y ∈ R2 Punkte, die nicht gemeinsam auf einer Geraden durch
den Nullpunkt 0 ∈ R2 liegen, d. h. es gelte x 6= 0 6= y sowie αx 6= βy für
alle α, β ∈ R∗ . Man zeige, dass x, y bereits ein Erzeugendensystem von
R2 bilden. Gilt eine entsprechende Aussage auch, wenn man R durch
einen beliebigen Körper K ersetzt? (AT 381)
Q
6. Man betrachte das kartesische Produkt QN = i∈N Q als Q-Vektorraum.
Kann dieser Vektorraum ein abzählbares Erzeugendensystem besitzen,
d. h. ein Erzeugendensystem des Typs (xi )i∈N ?

1.5 Linear unabhängige Systeme und Basen

Sind a1 , . . . , an Vektoren eines K-Vektorraums V , so sagt man, wie


bereits zu Beginn dieses Kapitels erwähnt, der Vektor an hänge linear
von a1 , . . . , an−1 ab, wenn
Pn−1 für gewisse Koeffizienten α1 , . . . , αn−1 ∈ K
eine Gleichung an = i=1 αi ai besteht, wenn also an ∈ ha1 , . . . , an−1 i
gilt. Man sagt in diesem Falle auch, an lasse sich aus den Vektoren
a1 , . . . , an−1 linear kombinieren oder an sei eine Linearkombination von
a1 , . . . , an−1 . Wenn man für ein System von Vektoren a1 , . . . , an weiß,
dass irgendeiner dieser Vektoren von den übrigen linear abhängt, so
bezeichnet man das System gemeinhin als linear abhängig. (System
ist hier im Sinne von Familie gemeint; das System der a1 , . . . , an wä-
re präziser als Familie (ai )i=1...n zu notieren.) Andererseits heißt das
System der a1 , . . . , an linear unabhängig, wenn keiner dieser Vektoren
von den übrigen linear abhängt. Der Begriff der linearen Abhängigkeit
bzw. Unabhängigkeit von Vektoren ist in der Linearen Algebra von
fundamentaler Wichtigkeit. Für eine formelmäßige Handhabung dieses
Begriffes ist folgende (äquivalente) Definition besonders geeignet, auf
die wir uns im Weiteren stets stützen werden.
1.5 Linear unabhängige Systeme und Basen 43

Definition 1. Ein System von Vektoren a1 , . . . , an eines K-Vektor-


raums
Pn V heißt linear unabhängig, wenn aus einer Gleichung des Typs
i=1 αi ai = 0 mit gegebenen Koeffizienten α1 , . . . , αn ∈ K notwendig
α1 = . . . = αn = 0 folgt, wenn sich also der Nullvektor 0 ∈ V nur
in trivialer Weise als Linearkombination der Vektoren a1 , . . . , an dar-
stellen lässt. Ist diese Bedingung nicht gegeben, so bezeichnet man das
System a1 , . . . , an als linear abhängig.

Ein System von Vektoren a1 , . . . , an ist also genau Pndann linear


abhängig, wenn es Koeffizienten α1 , . . . , αn ∈ K mit i=1 αi ai = 0
gibt, wobei die αi nicht sämtlich verschwinden. Dies ist äquivalent
zu der bereits oben erwähnten Bedingung, dass einer der Vektoren
a
P 1 , . . . , an eine Linearkombination der restlichen ist,P denn die Gleichung
n −1
α
i=1 i i a = 0 ist für α i0 6
= 0 äquivalent zu ai0 = − i6=i0 αi0 αi ai . Bei-
spielsweise bildet der Nullvektor 0 ∈ V ein linear abhängiges System,
aber auch jedes System von Vektoren, in dem einer der Vektoren mehr-
fach vorkommt, ist linear abhängig. Dagegen ist ein System, welches
aus genau einem Vektor a 6= 0 besteht, stets linear unabhängig. Ähn-
lich wie bei der Konvention der leeren Summe betrachtet man Systeme
von Vektoren a1 , . . . , an auch im Falle n = 0 und meint damit dann
das leere System. Auch das leere System erkennt man in naheliegender
Weise als linear unabhängig.
Um die Sprache zu vereinfachen, erwähnt man in der Situation
von Definition 1 meist nur die zu betrachtenden Vektoren a1 , . . . , an ,
ohne besonders darauf hinzuweisen, dass das System dieser Vektoren
gemeint ist. So sagt man etwa in unpräziser Ausdrucksweise, die Vek-
toren a1 , . . . , an seien linear unabhängig, womit man natürlich nicht
meint, dass jeder der Vektoren ai für sich genommen ein linear unab-
hängiges System bildet (was lediglich ai 6= 0 bedeuten würde), sondern
dass das System (ai )i=1...n linear unabhängig ist.

Mit
√  1.3/5 sehen wir beispielsweise, dass die Elemente 1, √ 2 von
Q 2 ein linear unabhängiges System bilden, wenn wir Q 2 als
Q-Vektorraum auffassen. Entsprechendes gilt für die Elemente 1, i
in C als R-Vektorraum. Wichtig ist auch, dass für n ∈ N die Ein-
heitsvektoren e1 , . . . , en ∈ K n , die zum Ende des vorigen Abschnitts
definiert wurden, ein linear unabhängiges System bilden. Denn für
α1 , . . . , αn ∈ K gilt
44 1. Vektorräume

r
X
αi ei = (α1 , . . . , αn ),
i=1

und es folgt, dass diese Summe genau dann verschwindet, wenn das
Element (α1 , . . . , αn ) verschwindet, d. h. wenn αi = 0 für i = 1, . . . , n
gilt.
Wir haben die lineare Abhängigkeit bzw. Unabhängigkeit in Defi-
nition 1 der Einfachheit halber nur für endliche Systeme von Vektoren
formuliert. Die Begriffe übertragen sich aber in naheliegender Weise
auf beliebige Systeme (ai )i∈I , wenn man vereinbart,
P dass eine Linear-
kombination der ai ein Ausdruck der Form i∈I αi ai mit Koeffizienten
αi ∈ K ist, wobei die αi für fast alle i ∈ I verschwinden, d. h. für alle
i ∈ I bis auf endlich viele Ausnahmen. Eine solche Linearkombination
ist daher in Wahrheit eine endliche Linearkombination, stellt also ein
Element in V dar. Man bezeichnet ein System (ai )i∈I von Vektoren aus
V als linear unabhängig, wenn aus demPVerschwinden einer Linearkom-
bination der ai , also einer Gleichung i∈I αi ai = 0, notwendig αi = 0
für alle i ∈ I folgt. Das System (ai )i∈I ist daher genau dann linear
unabhängig, wenn jedes endliche Teilsystem von (ai )i∈I linear unab-
hängig im Sinne von Definition 1 ist. Entsprechend ist (ai )i∈I genau
dann linear abhängig, wenn es ein endliches Teilsystem gibt, welches
linear abhängig im Sinne von Definition 1 ist.

Satz 2. Es seien a1 , . . . , an Vektoren eines K-Vektorraums V . Dann


ist äquivalent:
(i) Die Vektoren a1 , . . . , an sind linear
Pn unabhängig.
(ii) Sei a ∈ ha1 , . . . , an i und sei a = i=1 αi ai eine Darstellung mit
Koeffizienten α1 , . . . , αn ∈ K. Dann sind die Koeffizienten αi eindeutig
durch a bestimmt.

Beweis. Wir nehmen zunächst Bedingung (i) als gegeben an. Sind dann
n
X n
X
a= αi ai = αi′ ai
i=1 i=1

zwei Darstellungen
Pn von a als Linearkombination der ai , so erhalten
wir mit i=1 (αi − αi′ )ai eine Linearkombination, die den Nullvektor
0 darstellt. Mit (i) folgt αi − αi′ = 0, also αi = αi′ für alle i, d. h. die
Darstellung von a als Linearkombination der ai ist eindeutig.
1.5 Linear unabhängige Systeme und Basen 45

Sei nun umgekehrt Bedingung (ii) gegeben. Um die lineare Unab-


hängigkeit des Systems der ai zu zeigen, betrachten wir eine Gleichung
P n
Pni=1 αi ai = 0 mit Koeffizienten α1 , . . . , αn ∈ K. Da trivialerweise
i=1 0 · ai = 0 gilt, ergibt sich αi = 0 für alle i, wenn man (ii) benutzt.


Sind die Bedingungen des Satzes erfüllt, so nennt man das System
der ai eine Basis des linearen Unterraums ha1 , . . . , an i von V . Man
vereinbart nämlich:

Definition 3. Ein System von Vektoren a1 , . . . , an eines K-Vektor-


raums V wird als (endliche) Basis von V bezeichnet, wenn gilt:
(i) Die Vektoren a1 , . . . , an bilden ein Erzeugendensystem von V ;
d. h. man hat V = ha1 , . . . , an i.
(ii) Das System der Vektoren a1 , . . . , an ist linear unabhängig.
Allgemeiner heißt ein (nicht notwendig endliches) System von Vek-
toren eines Vektorraums V eine Basis, wenn es sich um ein Erzeugen-
densystem handelt, welches linear unabhängig ist.

Mit Satz 2 ergibt sich sofort:

Bemerkung 4. Vektoren a1 , . . . , an eines K-Vektorraums V bilden


genau
Pdann eine Basis, wenn gilt: Jedes a ∈ V besitzt eine Darstellung
n
a = i=1 αi ai mit eindeutig bestimmten Koeffizienten α1 , . . . , αn ∈ K.

Fassen wir die bisher betrachteten Beispiele von Erzeugendensys-


temen und linear unabhängigen Systemen zusammen, so ergibt sich:
(1) Das leere System bildet eine Basis des Nullraums über einem
gegebenen Körper K, also des K-Vektorraums V = 0.
√ √ 
(2) Die Elemente 1, 2 bilden eine Basis von Q 2 als Q-Vektor-
raum.
(3) Die Elemente 1, i bilden eine Basis von C als R-Vektorraum.
(4) Für einen Körper K und n ∈ N bilden die Einheitsvektoren
e1 , . . . , en eine Basis des K-Vektorraums K n , die sogenannte kanoni-
sche Basis.
46 1. Vektorräume

Die Kenntnis von Basen in Vektorräumen ist verantwortlich da-


für, dass man etwa Fragen zur linearen Unabhängigkeit von Vektoren
auf das Lösen linearer Gleichungssysteme zurückführen kann. Wir wol-
len dies am Beispiel des K-Vektorraums K n und der Basis e1 , . . . , en
einmal demonstrieren. Gegeben seien Vektoren a1 , . . . , ar ∈ K n , etwa
n
X
aj = (α1j , . . . , αnj ) = αij ei , j = 1, . . . , r.
i=1

Die Frage, ob a1 , . . . , ar linear abhängig sind oder nicht, ist dann äqui-
der Frage, ob es ein nicht-triviales r-Tupel (ξ1 , . . . , ξr ) ∈ K r
valent zuP
gibt mit rj=1 ξj aj = 0, d. h. ob das lineare Gleichungssystem
ξ1 α11 + . . . + ξr α1r = 0
...
ξ1 αn1 + . . . + ξr αnr = 0
eine nicht-triviale Lösung (ξ1 , . . . , ξr ) ∈ K r besitzt. Techniken zur Lö-
sung solcher Gleichungssysteme werden wir im Abschnitt 3.5 kennen-
lernen.
Als Nächstes wollen wir ein technisches Lemma beweisen, welches
insbesondere für die Handhabung und Charakterisierung von Vektor-
raumbasen von großem Nutzen ist.

Lemma 5. Für Vektoren a1 , . . . , an eines K-Vektorraums V ist äqui-


valent:
(i) a1 , . . . , an sind linear abhängig.
(ii) Einer der Vektoren a1 , . . . , an ist eine Linearkombination der
restlichen, d. h. es existiert ein Index p ∈ {1, . . . , n}, so dass der Vektor
ap zu ha1 , . . . , ap−1 , ap+1 , . . . , an i gehört.
(iii) Es existiert ein p ∈ {1, . . . , n} mit
ha1 , . . . , an i = ha1 , . . . , ap−1 , ap+1 , . . . , an i.

Sind die Vektoren a1 , . . . , ar für ein r < n linear unabhängig, so folgen


aus (i) die Bedingungen (ii) und (iii) bereits für ein p ∈ {r + 1, . . . , n}.

Beweis. Wir beginnen mit der Implikation von (i) nach (ii). Seien al-
so a1 , . . . , an linear abhängig. Man wähle dann r ∈ {0, . . . , n} ma-
ximal mit der Eigenschaft, dass das System der Vektoren a1 , . . . , ar
1.5 Linear unabhängige Systeme und Basen 47

linear unabhängig ist; im Falle r = 0 sei hiermit das leere System


gemeint, welches stets linear unabhängig ist. Insbesondere gilt r < n
aufgrund der Voraussetzung in (i), und a1 , .P . . , ar+1 sind linear ab-
r+1
hängig. Es existiert folglich eine Gleichung i=1 αi ai = 0 mit Ko-
effizienten αi ∈ K, die nicht sämtlich verschwinden. Dabei gilt not-
wendigerweise
Pr αr+1 6= 0, denn anderenfalls hätte man die Gleichung
i=1 αi ai = 0, wobei die Koeffizienten nicht sämtlich verschwinden
würden, die a1 , . . . , ar also linear abhängig wären. Die erstere Pr Gleichung
−1
lässt sich daher nach ar+1 auflösen, man erhält ar+1 = − i=1 αr+1 αi ai
und damit ar+1 ∈ ha1 , . . . , ar i, wie in (ii) und der Zusatzaussage be-
hauptet.
Sei nun Bedingung (ii) erfüllt, d. h. es gelte für ein p ∈ {1, . . . , n}
die Beziehung ap ∈ ha1 , . . . , ap−1 , ap+1 , . . . , an i. Man hat dann

a1 , . . . , an ∈ ha1 , . . . , ap−1 , ap+1 , . . . , an i

und somit

(∗) ha1 , . . . , an i ⊂ ha1 , . . . , ap−1 , ap+1 , . . . , an i,

denn ha1 , . . . , an i ist der kleinste lineare Unterraum von V , der die
Vektoren a1 , . . . , an enthält. Da die umgekehrte Inklusion trivialerweise
erfüllt ist, ergibt sich Bedingung (iii).
Der Vollständigkeit halber wollen wir hier auch noch darauf hin-
weisen, dass sich die Inklusion (∗)Pleicht durch direktes Nachrechnen
herleiten lässt. Es gelte etwa ap = i6=p αi ai mit KoeffizientenPn αi ∈ K.
Für jedes b ∈ ha1 , . . . , an i mit einer Darstellung b = i=1 βi ai und
Koeffizienten βi ∈ K ergibt sich dann
X X X
b= βi ai + βp αi ai = (βi + βp αi )ai ,
i6=p i6=p i6=p

also b ∈ ha1 , . . . , ap−1 , ap+1 , . . . , an i, und somit

ha1 , . . . , an i ⊂ ha1 , . . . , ap−1 , ap+1 , . . . , an i.

Sei schließlich Bedingung (iii) gegeben, für ein p ∈ {1, . . . , n} gelte


also
ha1 , . . . , an i = ha1 , . . . , ap−1 , ap+1 , . . . , an i.
48 1. Vektorräume

Dann folgt insbesondere P ap ∈ ha1 , . . . , ap−1 , ap+1 , . . . , an i, und es be-


steht eine Gleichung ap = i6=p αi ai mit P gewissen Koeffizienten αi ∈ K,
die wir auch in der Form (−1)ap + i6=p αi ai = 0 schreiben können.
Somit sind die Vektoren a1 , . . . , an linear abhängig, und es wird klar,
dass die Bedingungen (i), (ii) und (iii) äquivalent sind.
Sind nun die Vektoren a1 , . . . , ar für ein gegebenes r < n linear
unabhängig, a1 , . . . , an aber insgesamt linear abhängig, so gilt, wie wir
gesehen haben, Bedingung (ii) für ein p ∈ {r+1, . . . , n}. Für dieses p ist
dann auch Bedingung (iii) erfüllt, so dass die zusätzliche Behauptung
ebenfalls bewiesen ist. 
Das gerade bewiesene Lemma lässt einige interessante Schlussfol-
gerungen zu.

Satz 6. Jeder endlich erzeugte K-Vektorraum besitzt eine Basis, und


jede solche Basis ist endlich.

Beweis. Es sei a1 , . . . , an ein Erzeugendensystem des betrachteten


K-Vektorraums V , d. h. es gelte V = ha1 , . . . , an i. Indem wir dieses
System verkleinern, können wir a1 , . . . , an als minimales Erzeugenden-
system voraussetzen. Die Äquivalenz der Bedingungen (i) und (iii) in
Lemma 5 zeigt dann, dass die Vektoren a1 , . . . , an linear unabhängig
sind, also eine Basis bilden.
Ist nun (bj )j∈J eine weitere Basis von V , so lässt sich jeder der
Vektoren a1 , . . . , an als Linearkombination von endlich vielen der Vek-
toren bj , j ∈ J, darstellen. Es existiert deshalb eine endliche Teilmenge
J ′ ⊂ J mit
V = ha1 , . . . , an i ⊂ hbj ; j ∈ J ′ i ⊂ V.
Das System (bj )j∈J ′ bildet somit ein Erzeugendensystem von V . Die-
ses ist als Teilsystem von (bj )j∈J sogar linear unabhängig und stellt
deshalb, ebenso wie (bj )j∈J , eine Basis dar. Dann folgt aber notwendig
J = J ′ , und man erkennt J als endlich. 

Satz 7. Es sei V ein K-Vektorraum und a1 , . . . , an ein System von


Vektoren aus V . Dann ist äquivalent:
(i) a1 , . . . , an bilden eine Basis von V .
(ii) a1 , . . . , an ist ein maximales linear unabhängiges System in V .
(iii) a1 , . . . , an ist ein minimales Erzeugendensystem von V .
1.5 Linear unabhängige Systeme und Basen 49

Beweis. Sei zunächst Bedingung (i) als gegeben angenommen, sei also
a1 , . . . , an eine Basis von V . Für beliebiges a ∈ V gilt dann
V = ha1 , . . . , an i = ha, a1 , . . . , an i,
und man schließt aus der Äquivalenz (i) ⇐⇒ (iii) von Lemma 5, dass
das System a, a1 , . . . , an linear abhängig ist. Also ist a1 , . . . , an ein ma-
ximales linear unabhängiges System in V .
Als Nächstes gehen wir von Bedingung (ii) aus, sei also a1 , . . . , an
ein maximales linear unabhängiges System in V . Ist dann a ∈ V be-
liebig, so ist das System a1 , . . . , an , a linear abhängig, und es existiert
eine nicht-triviale Linearkombination mit Koeffizienten aus K
n
X
αa + αi ai = 0,
i=1

welche die Null darstellt. Aus der linearen Unabhängigkeit der Vekto-
ren a1 , . . . , an ergibt sich mittels Lemma 5 (man vergleiche den Beweis
der Implikation (i) =⇒ (ii) in Lemma 5), dass zumindest der Koeffi-
zient α nicht verschwindet. Folglich lässt sich vorstehende Gleichung
nach a auflösen, und man erhält a ∈ ha1 , . . . , an i, d. h. a1 , . . . , an ist
ein Erzeugendensystem von V . Weiter folgt aus der linearen Unab-
hängigkeit der a1 , . . . , an , indem man die Äquivalenz (i) ⇐⇒ (iii) aus
Lemma 5 benutzt, dass a1 , . . . , an ein minimales Erzeugendensystem
von V ist.
Nehmen wir schließlich a1 , . . . , an wie in Bedingung (iii) als mini-
males Erzeugendensystem an, so zeigt die Äquivalenz (i) ⇐⇒ (iii) aus
Lemma 5, dass a1 , . . . , an dann notwendig ein linear unabhängiges Sys-
tem ist, also eine Basis, da es bereits ein Erzeugendensystem ist. 

Satz 8 (Basisergänzungssatz). In einem K-Vektorraum V betrachte


man ein linear unabhängiges System a1 , . . . , ar sowie ein Erzeugenden-
system b1 , . . . , bm . Dann lässt sich das System der ai durch Elemente
des Systems der bj zu einer Basis von V ergänzen, d. h. es existieren
paarweise verschiedene Indizes ι(r + 1), . . . , ι(n) ∈ {1, . . . , m} mit der
Eigenschaft, dass die Vektoren
a1 , . . . , ar , bι(r+1) , . . . , bι(n)
eine Basis von V bilden.
50 1. Vektorräume

Beweis. Für n ≥ r betrachte man paarweise verschiedene Indizes

ι(r + 1), . . . , ι(n) ∈ {1, . . . , m},

so dass

(∗) V = ha1 , . . . , ar , bι(r+1) , . . . , bι(n) i

gilt. Die Gleichung ist für n = r + m erfüllt, wenn man ι(r + j) = j für
j = 1, . . . , m setzt. Man betrachte nun eine Gleichung vom Typ (∗), für
die n ≥ r minimal gewählt sei. Dann ist a1 , . . . , ar , bι(r+1) , . . . , bι(n) ein
linear unabhängiges Erzeugendensystem und stellt somit eine Basis von
V dar, wie wir sogleich sehen werden. Anderenfalls wäre dieses System
nämlich linear abhängig, und man könnte es aufgrund der Äquivalenz
(i) ⇐⇒ (iii) aus Lemma 5 zu einem echt kleineren Erzeugendensystem
verkürzen. Da die Vektoren a1 , . . . , ar jedoch linear unabhängig sind,
ergibt sich mit Lemma 5, dass man einen der Vektoren bι(r+1) , . . . , bι(n)
fortlassen kann, was aber wegen der Minimalität von n ausgeschlossen
ist. Das Erzeugendensystem a1 , . . . , ar , bι(r+1) , . . . , bι(n) ist daher linear
unabhängig und damit eine Basis.
Wir wollen noch auf einen zweiten Beweis eingehen, der den Vorteil
hat, dass er im Hinblick auf nicht-endliche Basen verallgemeinerungs-
fähig ist. Hierzu betrachten wir Indizes

ι(r + 1), . . . , ι(n) ∈ {1, . . . , m},

nunmehr aber mit der Bedingung, dass die Vektoren

a1 , . . . , ar , bι(r+1) , . . . , bι(n)

linear unabhängig sind. Wir dürfen n als maximal gewählt annehmen.


Mit Lemma 5 ergibt sich dann

b1 , . . . , bm ∈ ha1 , . . . , ar , bι(r+1) , . . . , bι(n) i

und folglich

V = hb1 , . . . , bm i ⊂ ha1 , . . . , ar , bι(r+1) , . . . , bι(n) i,

so dass a1 , . . . , ar , bι(r+1) , . . . , bι(n) ein Erzeugendensystem und damit


eine Basis von V bilden. 
1.5 Linear unabhängige Systeme und Basen 51

Theorem 9. In einem K-Vektorraum V mögen gegebene Elemente


a1 , . . . , an eine Basis sowie b1 , . . . , bm ein Erzeugendensystem bilden.
Dann gilt n ≤ m. Weiter ist b1 , . . . , bm genau dann eine Basis, wenn
n = m gilt. Je zwei Basen eines endlich erzeugten K-Vektorraums V
bestehen folglich aus gleichviel Elementen.

Beweis. Aufgrund des Basisergänzungssatzes 8 lässt sich das Sys-


tem a2 , . . . , an durch Elemente des Systems b1 , . . . , bm zu einer Basis
bι(1) , . . . , bι(r1 ) , a2 , . . . , an ergänzen, wobei natürlich r1 ≥ 1 gelten muss;
vgl. Lemma 5. Lässt man bei dieser Basis das Element a2 fort, so kann
man das entstehende System wiederum durch Elemente des Systems
b1 , . . . , bm zu einer Basis von V ergänzen, etwa zu

bι(1) , . . . , bι(r1 ) , bι(r1 +1) , . . . , bι(r1 +r2 ) , a3 , . . . , an .

Fährt man auf diese Weise fort, so gelangt man nach n Schritten
zu einer Basis bι(1) , . . . , bι(r1 +...+rn ) von V , wobei natürlich die Indi-
zes ι(1), . . . , ι(r1 + . . . + rn ) ∈ {1, . . . , m} paarweise verschieden sind.
Es folgt r1 + . . . + rn ≤ m und wegen ri ≥ 1 insbesondere n ≤ m, wie
behauptet.
Ist nun b1 , . . . , bm bereits eine Basis, so kann man die Rolle der
ai und bj vertauschen und erhält auf diese Weise m ≤ n, also insbe-
sondere m = n. Bildet andererseits b1 , . . . , bm mit m = n ein Erzeu-
gendensystem von V , so kann man dieses System zu einem minimalen
Erzeugendensystem von V verkleinern, also zu einer Basis; vgl. Satz 7.
Da wir aber schon wissen, dass Basen in V aus genau n Elementen
bestehen, folgt, dass b1 , . . . , bm notwendig eine Basis von V ist.
Da endlich erzeugte K-Vektorräume gemäß Satz 6 lediglich endli-
che Basen besitzen, ergibt sich insbesondere, dass je zwei Basen eines
solchen Vektorraums aus gleichviel Elementen bestehen. 

Für ein System a1 , . . . , an von Elementen bezeichnet man die na-


türliche Zahl n als die Länge dieses Systems. Gelegentlich werden wir
auch unendlichen Systemen (ai )i∈I , also Systemen mit unendlicher In-
dexmenge I, eine Länge zuordnen, nämlich die Länge ∞. Wir werden
dabei nicht zwischen verschiedenen Graden der Unendlichkeit unter-
scheiden, etwa abzählbar unendlich (z. B. I = N) oder überabzählbar
unendlich (z. B. I = R).
52 1. Vektorräume

Definition 10. Es sei V ein K-Vektorraum. Besitzt dann V eine Basis


endlicher Länge n, so bezeichnet man n als die Dimension von V , in
Zeichen dimK V = n. Gibt es andererseits in V keine Basis endlicher
Länge, also kein endliches maximales linear unabhängiges System, so
sagen wir, die Dimension von V sei unendlich, dimK V = ∞.

Aufgrund von Theorem 9 ist die Dimension eines Vektorraums


wohldefiniert. Der Nullraum V = 0 hat die Dimension 0, jeder K-Vek-
torraum V 6= 0 eine Dimension > 0. Wir wollen noch einige weitere
Eigenschaften der Dimension eines Vektorraums zusammenstellen, die
sich auf einfache Weise aus den bisher gewonnenen Ergebnissen folgern
lassen.

Korollar 11. Es sei V ein K-Vektorraum und n ∈ N. Dann ist äqui-


valent:
(i) dimK V = n.
(ii) Es existiert in V ein linear unabhängiges System von n Vekto-
ren, und jeweils n + 1 Vektoren sind linear abhängig.

Beweis. Sei zunächst Bedingung (i) gegeben. Jede Basis von V bildet
dann ein linear unabhängiges System bestehend ans n Vektoren. Ist
andererseits y1 , . . . , yn+1 ein System von n + 1 Vektoren aus V und
nehmen wir an, dass dieses linear unabhängig ist, so können wir das
System gemäß Satz 8 zu einer Basis von V ergänzen. Man hätte dann
dimK V ≥ n + 1 im Widerspruch zu unserer Voraussetzung. Aus (i)
ergibt sich folglich (ii).
Ist umgekehrt Bedingung (ii) gegeben, so gibt es in V ein maxi-
males linear unabhängiges System bestehend aus n Vektoren. Dieses
bildet eine Basis, und es folgt dimK V = n. 

Korollar 12. Es sei V ein K-Vektorraum und n ∈ N. Dann ist äqui-


valent:
(i) dimK V ≥ n.
(ii) Es existiert in V ein linear unabhängiges System von n Vekto-
ren.
1.5 Linear unabhängige Systeme und Basen 53

Beweis. Bedingung (i) impliziert trivialerweise Bedingung (ii), auch


im Falle unendlicher Dimension, da dann keine endlichen Basen, also
keine endlichen maximalen linear unabhängigen Systeme in V exis-
tieren können. Gehen wir umgekehrt von (ii) aus, so ist nur im Falle
dimK V < ∞ etwas zu zeigen. Jedes linear unabhängige System von
Vektoren a1 , . . . , an ∈ V lässt sich dann gemäß Satz 8 zu einer Basis
von V ergänzen, und es folgt wie gewünscht dimK V ≥ n. 

Korollar 13. Für einen K-Vektorraum V ist äquivalent:


(i) dimK V = ∞.
(ii) Es existiert eine Folge von Vektoren a1 , a2 , . . . ∈ V , so dass für
jedes n ∈ N das System a1 , . . . , an linear unabhängig ist.
(iii) Es existiert eine Folge von Vektoren a1 , a2 , . . . ∈ V , so dass das
System (ai )i∈N linear unabhängig ist.
(iv) Zu jedem n ∈ N gibt es ein linear unabhängiges System, beste-
hend aus n Vektoren von V .

Beweis. Wir gehen aus von Bedingung (i). Sei also dimK V = ∞. Dann
gibt es in V keine endlichen Basen und somit keine endlichen maxi-
malen linear unabhängigen Systeme. Als Konsequenz ist es möglich,
eine Folge von Vektoren a1 , a2 , . . . ∈ V wie in (ii) gewünscht zu kon-
struieren. Weiter folgt aus (ii) unmittelbar Bedingung (iii), da zu jeder
endlichen Teilmenge I ⊂ N ein n ∈ N existiert mit I ⊂ {1, . . . , n}. Die
Implikation (iii) =⇒ (iv) ist trivial, und (iv) =⇒ (i) schließlich ergibt
sich mit Korollar 12. 

Korollar 14. Es sei V ein K-Vektorraum und U ⊂ V ein linearer


Unterraum. Dann gilt:
(i) dimK U ≤ dimK V . Besitzt daher V eine endliche Basis, so
auch U .
(ii) Aus dimK U = dimK V < ∞ folgt bereits U = V .

Beweis. Die erste Behauptung folgt mittels Korollar 12 aus der Tat-
sache, dass ein linear unabhängiges System von Vektoren aus U auch
in V linear unabhängig ist. Die zweite Behauptung gilt, da man in ei-
nem endlich-dimensionalen K-Vektorraum V ein linear unabhängiges
54 1. Vektorräume

System, beispielsweise eine Basis von U , stets zu einer Basis von V


ergänzen kann. 

Wir wollen nun noch einige Beispiele betrachten.


(1) Ist K ein Körper, n ∈ N, so folgt dimK K n = n.
(2) dimR C = 2
√ 
(3) dimQ Q 2 = 2
(4) dimQ R = ∞. Dies zeigt man am einfachsten mit Hilfe eines
Abzählbarkeitsarguments. Jeder endlich-dimensionale Q-Vektorraum
ist, ebenso wie Q, abzählbar, jedoch ist R nicht abzählbar.
(5) Sei K ein Körper, X eine Menge und V = Abb(X, K) der
K-Vektorraum der K-wertigen Funktionen auf X. Besteht X dann aus
n < ∞ Elementen, so gilt dimK V = n, wohingegen man für unendli-
ches X die Gleichung dimK V = ∞ hat. Wir wollen dies im Folgenden
begründen. Für x ∈ X bezeichne fx : X ✲ K diejenige Funktion, die
durch fx (x) = 1 und fx (y) = 0 für y 6= x gegeben ist. Dann ist für je-
weils endlich viele paarweise verschiedene Elemente x1 , . . . , xn ∈ X das
System fx1 , . . . , fxn linear unabhängig in V , denn aus einer Gleichung
P n
i=1 αi fxi = 0 mit Koeffizienten α1 , . . . , αn ∈ K folgt
X
n 
0= αi fxi (xj ) = αj
i=1

für j = 1, . . . , n. Hieraus ergibt sich bereits dimK V = ∞, wenn X


unendlich viele Elemente besitzt. Da wir andererseits für endliches X
jedes f ∈ V in der Form
X
f= f (x)fx
x∈X

schreiben können, ist das System (fx )x∈X in diesem Falle ein Erzeu-
gendensystem und somit eine Basis von V , so dass man dimK V = n
hat, wenn X aus n < ∞ Elementen besteht.
Abschließend soll noch angedeutet werden, wie die Theorie die-
ses Abschnitts aussieht, wenn man sich nicht auf endlich erzeugte
K-Vektorräume beschränkt. Man muss dann auch unendliche Basen
1.5 Linear unabhängige Systeme und Basen 55

zulassen, wie sie in Definition 3 mit eingeschlossen sind. Man prüft


leicht nach, dass die in Satz 2 und Lemma 5 gegebenen Charakteri-
sierungen linearer Abhängigkeit bzw. Unabhängigkeit sinngemäß auch
für beliebige Systeme von Vektoren gelten. Als Folgerung übertragen
sich die Resultate von Bemerkung 4 und Satz 7 auf den Fall nicht
notwendig endlicher Basen.
Etwas problematischer ist der Beweis des Analogons zu Satz 6,
dass nämlich jeder K-Vektorraum V eine Basis oder, in äquivalenter
Sprechweise, ein maximales linear unabhängiges System besitzt. Die
Existenz eines solchen Systems zeigt man am einfachsten mit Hilfe des
sogenannten Zornschen Lemmas, welches dem Gebiet der Mengenlehre
zuzuordnen ist. Das Lemma geht von einer teilweise geordneten Menge
M aus, wobei teilweise geordnet bedeutet, dass zwischen gewissen Ele-
menten von M eine Relation “ ≤ ” besteht, und zwar mit den folgenden
Eigenschaften:

x ≤ x für alle x ∈ M
x ≤ y, y ≤ z =⇒ x ≤ z
x ≤ y, y ≤ x =⇒ x = y

Man nennt eine Teilmenge N ⊂ M streng geordnet, wenn für je zwei


Elemente x, y ∈ N stets x ≤ y oder y ≤ x gilt. Weiter heißt ein
Element z ∈ M eine obere Schranke von N , wenn x ≤ z für alle x ∈ N
gilt. Das Lemma von Zorn lautet nun wie folgt:

Lemma 15 (Zorn). Ist M eine teilweise geordnete Menge und besitzt


jede streng geordnete Teilmenge von M eine obere Schranke in M , so
existiert in M ein maximales Element.4

Dabei heißt ein Element z ∈ M maximal, wenn aus z ≤ x mit


x ∈ M stets x = z folgt. In unserer konkreten Situation definiere man
M als die Menge aller Teilmengen von V , deren Elemente ein linear
unabhängiges System von Vektoren in V bilden. Für zwei solche Men-
gen A, B ⊂ V setze man A ≤ B, falls A ⊂ B gilt. Die Voraussetzungen
des Lemmas von Zorn sind dann für M erfüllt, als obere Schranke einer
4
Man beachte: Die leere Teilmenge in M ist streng geordnet und besitzt daher
aufgrund der Voraussetzung des Lemmas eine obere Schranke in M . Insbesondere
wird auf diese Weise M 6= ∅ gefordert.
56 1. Vektorräume

streng geordneten Teilmenge N ⊂ M dient beispielsweise die Vereini-


gung aller Teilmengen A ∈ N , also
[
A ⊂ V.
A∈N

Man erhält somit aus dem Zornschen Lemma die Existenz eines ma-
ximalen Elementes in V , d. h. eines maximalen linear unabhängigen
Systems von Vektoren in V und damit einer Basis von V , wobei man
Satz 7 benutze.
Wie wir gesehen haben, lässt sich die Existenz maximaler line-
ar unabhängiger Systeme problemlos mit Hilfe des Zornschen Lemmas
beweisen. Ähnliches kann man für minimale Erzeugendensysteme nicht
behaupten, und dies ist der Grund dafür, dass die im Beweis zu Satz 6
benutzte Idee, Basen durch Minimieren von Erzeugendensystemen zu
konstruieren, im Allgemeinfall nicht zum Ziel führt. Auch der Basis-
ergänzungssatz 8 lässt sich mit Hilfe des Zornschen Lemmas auf den
Fall unendlicher Systeme verallgemeinern, wenn man die im Beweis
zu Satz 8 gegebene Argumentation im Sinne maximaler linear unab-
hängiger Systeme mit dem Zornschen Lemma kombiniert. Man kann
sogar die Aussage von Theorem 9, dass nämlich je zwei Basen (ai )i∈I
und (bj )j∈J eines K-Vektorraums V aus “gleichvielen” Elementen beste-
hen, auf unendlich-dimensionale Vektorräume verallgemeinern. Dabei
ist “gleichviel” in dem Sinne zu präzisieren, dass es eine bijektive Ab-
bildung I ✲ J gibt. Man nennt I und J bzw. die Basen (ai )i∈I und
(bj )j∈J dann auch gleichmächtig 5. Die Mächtigkeitsklasse einer solchen
Basis könnten wir als Dimension von V bezeichnen, jedoch wollen wir
im Sinne von Definition 10 nicht zwischen verschiedenen unendlichen
Dimensionen unterscheiden.
Schließlich sei noch angemerkt, dass man in Korollar 14 (ii) nicht
auf die Bedingung dimK V < ∞ verzichten kann. Um dies einzuse-
hen, betrachte man einen K-Vektorraum V von unendlicher Dimension
und ein abzählbar unendliches linear unabhängiges System (ai )i∈N von
Vektoren in V . Dann ist einerseits (a2·i )i∈N gleichmächtig zu (ai )i∈N ,
5
Dass je zwei Basen eines K-Vektorraums gleichmächtig sind, beweist man wie
in [1], Abschnitt 7.1. Die dortige Argumentation im Sinne von Transzendenzbasen
und algebraischer Unabhängigkeit überträgt sich in direkter Weise auf den Fall von
Vektorraumbasen und linearer Unabhängigkeit.
1.5 Linear unabhängige Systeme und Basen 57

andererseits aber ha0 , a2 , a4 , . . .i ein echter linearer Unterraum von


ha0 , a1 , a2 , . . .i.

Aufgaben

1. Man betrachte R3 als R-Vektorraum und überprüfe folgende Systeme


von Vektoren auf lineare Abhängigkeit bzw. lineare Unabhängigkeit:
(i) (1, 0, −1), (1, 2, 1), (0, −3, 2)
(ii) (1, 1, 1), (1, 1, 0), (1, 0, 0)
(iii) (9, 1, 5), (17, 11, 14), (9, 1, 5)
(iv) (1, 2, 3), (4, 5, 6), (6, 9, 12)
(v) (1, 9, 7), (2, 3, 4), (9, 7, 6), (6, 6, 6)
(vi) (1, α, 0), (α, 1, 0), (0, α, 1), wobei α eine reelle Zahl sei.
2. Seien U, U ′ lineare Unterräume eines K-Vektorraums V mit U ∩ U ′ = 0.
Man zeige: Bilden x1 , . . . , xr ∈ U und y1 , . . . , ys ∈ U ′ linear unabhängige
Systeme, so auch die Vektoren x1 , . . . , xr , y1 , . . . , ys in V . (AT 382)
3. Für welche natürlichen Zahlen n ∈ N gibt es in Rn eine unendliche
Folge von Vektoren a1 , a2 , . . . mit der Eigenschaft, dass je zwei Vektoren
dieser Folge linear unabhängig über R sind, also ein linear unabhängiges
System im R-Vektorraum Rn bilden? (AT 383)
4. Man betrachte den R-Vektorraum aller Funktionen ✲ R, die
Pr p : R i
durch polynomiale Ausdrücke der Form p(x) = i=1 αi x mit Koeffi-
zienten αi ∈ R und variablem r ∈ N gegeben sind. Man gebe eine Basis
dieses Vektorraums an. (Hinweis: Man darf benutzen, dass nicht-triviale
reelle Polynome höchstens endlich viele Nullstellen haben.)
5. Es sei x1 , . . . , xn eine Basis eines K-Vektorraums V . Für gegebene
P Ko-
effizienten αij ∈ K, 1 ≤ i < j ≤ n setze man yj = xj + i<j αij xi ,
j = 1, . . . , n, und zeige, dass dann auch y1 , . . . , yn eine Basis von V
bilden.
6. Es sei F ein endlicher Körper mit q Elementen und V ein F-Vektorraum
der Dimension n.
(i) Man bestimme die Anzahl der Elemente von V .
(ii) Man bestimme die Anzahl der Teilmengen in V , deren Elemente
jeweils eine Basis von V bilden.
58 1. Vektorräume

7. Es sei X = X1 ∐ . . . ∐ Xn eine Menge mit einer endlichen Zerle-


gung in nicht-leere paarweise disjunkte Teilmengen. Für einen Körper
K betrachte man den K-Vektorraum V aller K-wertigen Funktionen
X ✲ K, sowie den linearen Unterraum U derjenigen Funktionen, die
auf jedem der Xi konstant sind. Man berechne dimK U .
Welche Dimension erhält man, wenn
S die Xi nicht notwendig paarweise
disjunkt sind und lediglich X = ni=1 Xi gilt?
8. Es sei K ein Körper. Für gegebene Elemente γ1 , . . . , γn ∈ K betrachte
man die Teilmenge
 n
X 
U = (α1 , . . . , αn ) ∈ K n ; αi γi = 0 .
i=1
Man zeige, dass U ein linearer Unterraum von K n ist, und berechne
dimK U . (AT 384)

1.6 Direkte Summen

Zu Vektoren a1 , . . . , ar eines K-Vektorraums V kann man die linearen


Unterräume Kai = hai i, i = 1, . . . , r, betrachten. Bilden die ai ein
Erzeugendensystem
P von V , so lässt sich jedes Element b ∈ V in der
Form b = ri=1 bi schreiben mit Vektoren bi ∈ Kai ; wir werden sagen,
dass V die Summe der linearen Unterräume Kai ist. Bilden a1 , . . . , ar
sogar eine Basis von V , so überlegt man leicht mit 1.5/4, dass in einer
solchen Darstellung die Vektoren bi ∈ Kai eindeutig durch b bestimmt
sind. Wir werden sagen, dass V die direkte Summe der Kai ist. Im
Folgenden sollen Summe und direkte Summe für den Fall beliebiger
linearer Unterräume von V erklärt werden.

Definition 1. Es seien U1 , . . . , Ur lineare Unterräume eines K-Vek-


torraums V . Dann wird die Summe dieser Unterräume erklärt durch
Xr X r 
Ui = bi ; bi ∈ Ui für i = 1, . . . , r .
i=1 i=1
P
Es ist unmittelbar klar, dass ri=1 Ui wieder ein linearer Unter-
raum von V ist, nämlich der von U1 , . . . , Ur erzeugte lineare Unter-
raum hU1 ∪ . . . ∪ Ur i ⊂ V . Insbesondere sieht man, dass die Summe
von linearen Unterräumen in V assoziativ ist.
1.6 Direkte Summen 59

Pr
Satz 2. Für eine Summe U = i=1 Ui von linearen Unterräumen
U1 , . . . , Ur eines K-Vektorraums V sind folgendeP Aussagen äquivalent:
r
(i) Jedes b ∈ U hat eine Darstellung b = i=1 bi mit eindeutig
bestimmten Vektoren bi ∈ Ui , P i = 1, . . . , r.
r
(ii) Aus einer Gleichung i=1 bi = 0 mit Vektoren bi ∈ Ui folgt
bi = 0 für i = 1, . . . , r. P
(iii) Für p = 1, . . . , r gilt Up ∩ i6=p Ui = 0.

Beweis. Bedingung (i) impliziert trivialerweise (ii). Um (iii) aus (ii)


herzuleiten,
P betrachte man einen
P Index p ∈ {1, . . . , r} und einen Vektor
b ∈ UpP∩ i6=p Ui , etwa b = i6=p bi mit Summanden bi ∈ Ui . Dann gilt
−b + i6=pP bi = 0, und es folgt aus (ii) insbesondere b = 0. Somit hat
man Up ∩ i6=p Ui = 0.
Sei nun Bedingung (iii) gegeben, und sei b ∈ V auf zwei Weisen als
Summe von Vektoren bi , b′i ∈ Ui dargestellt, also
r
X r
X
b= bi = b′i .
i=1 i=1
Pr
Dann folgt − b′i ) = 0 und somit
i=1 (bi
X X
bp − b′p = − (bi − b′i ) ∈ Up ∩ Ui = 0, p = 1, . . . , n.
i6=p i6=p

Insbesondere ergibt sich bi = b′i für i = 1, . . . , r, d. h. (i) ist erfüllt. 


P
Definition 3. Es sei U = ri=1 Ui eine Summe von linearen Unter-
räumen U1 , . . . , Ur eines K-Vektorraums
L V . Dann heißt U die direkte
Summe der Ui , in Zeichen U = ri=1 Ui , wenn die äquivalenten Be-
dingungen von Satz 2 erfüllt sind.

SindPr U1 , . . . , Ur lineare Unterräume in V , so wird deren Summe


U = i=1 Ui auch mit U1 + . . . + Ur bezeichnet, und man schreibt
U1 ⊕ . . . ⊕ Ur , falls diese Summe direkt ist. Eine Summe U1 + U2
zweier linearer Unterräume U1 , U2 ⊂ V ist genau dann direkt, wenn
U1 ∩ U2 = 0 gilt. Wie schon angedeutet, ist die Direktheit einer Sum-
me von linearen Unterräumen anzusehen als Verallgemeinerung der
linearen Unabhängigkeit eines Systems von Vektoren. Für Vektoren
a1 , . . . , ar ∈ V ist nämlich
60 1. Vektorräume

r
M
ha1 , . . . , ar i = Kai , ai 6= 0 für i = 1, . . . , r
i=1

äquivalent zur linearen Unabhängigkeit von a1 , . . . , ar .


Eine leichte Variante der gerade definierten direkten Summe stellt
die sogenannte konstruierte direkte Summe dar. Man geht hierbei
von gegebenen K-Vektorräumen V1 , . . . , Vr aus und konstruiert einen
K-Vektorraum V , in dem sich die Vi als lineare Unterräume auffassen
lassen,Lund zwar derart, dass V die direkte Summe der Vi ist, also
r
V = i=1 Vi im Sinne von Definition 3 Q gilt. Dabei wird V als das
kartesische Produkt der Vi definiert, V = ri=1 Vi , und man fasst die-
ses Produkt als K-Vektorraum mit komponentenweiser Addition und
skalarer Multiplikation auf. In V bilden dann die Teilmengen

Vi′ = (v1 , . . . , vr ) ∈ V ; vj = 0 für j 6= i , i = 1, . . . , r,
lineare Unterräume, und man stellt unschwer fest, dass V die direkte
Summe der Vi′ ist. Da die natürliche Abbildung
(
✲ V ′,
v für j = i
ιi : V i i v ✲ (v1 , . . . , vr ) mit vj = ,
0 für j 6= i

für i = 1, . . . , r jeweils bijektiv ist und zudem die Vektorraumstruk-


turen auf Vi und Vi′ respektiert, können wir jeweils Vi mit Vi′ unter ιi
identifizieren und auf diese Weise V als direkte L Summe der linearen
Unterräume V1 , . . . , Vr auffassen, in Zeichen V = ri=1 Vi . Wir nennen
V die konstruierte direkte Summe der Vi . Hierbei ist jedoch ein wenig
Vorsicht geboten. Ist beispielsweise ein K-Vektorraum V die (nicht not-
wendig direkte)P Summe gewisser linearer Unterräume U1 , . . . , Ur ⊂ V ,
r
gilt also
Lr V = i=1 Ui , so kann man zusätzlich die direkte Summe
U = i=1 Ui konstruieren. Mit Hilfe der nachfolgenden Dimensions-
formeln kann man dann dimK U ≥ dimK V zeigen, wobei Gleichheit
nur dann gilt, wenn V bereits die direkte Summe der Ui ist. Im Allge-
meinen wird daher U wesentlich verschieden von V sein.

Satz 4. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unter-


raum. Dann existiert ein linearer Unterraum U ′ ⊂ V mit V = U ⊕ U ′ .
Für jedes solche U ′ gilt
dimK V = dimK U + dimK U ′ .
1.6 Direkte Summen 61

Man nennt U ′ in dieser Situation ein Komplement zu U . Kom-


plemente von linearen Unterräumen sind abgesehen von den trivialen
Fällen U = 0 und U = V nicht eindeutig bestimmt.

Beweis zu Satz 4. Ist V von endlicher Dimension, so wähle man eine


Basis a1 , . . . , ar von U und ergänze diese durch Vektoren ar+1 , . . . , an
gemäß 1.5/8 zu einer Basis von V . Dann gilt
n
M r
M
V = Kai , U= Kai ,
i=1 i=1
Ln
und es ergibt sich V = U ⊕ U ′ mit U ′ = i=r+1 Kai .
Ist V nicht notwendig von endlicher Dimension, so können wir im
Prinzip genauso schließen, indem wir nicht-endliche Basen zulassen
und die Ausführungen am Schluss von Abschnitt 1.5 beachten. Wir
können dann eine Basis (ai )i∈I von U wählen und diese mittels des
Basisergänzungssatzes durch ein System (a′j )j∈J von Vektoren zu einer
Basis von V ergänzen. Es folgt V = U ⊕ U ′ mit U ′ = h(a′j )j∈J i.
Zum Beweis der Dimensionsformel betrachte man ein Komplement
U zu U . Sind U und U ′ von endlicher Dimension, so wähle man eine

Basis b1 , . . . , br von U bzw. br+1 , . . . , bn von U ′ . Dann bilden b1 , . . . , bn


eine Basis von V , und es folgt

dimK V = n = r + (n − r) = dimK U + dimK U ′ ,

wie gewünscht. Ist mindestens einer der beiden Räume U und U ′ von
unendlicher Dimension, so gilt dies erst recht für V , und die Dimen-
sionsformel ist trivialerweise erfüllt. 

Als Anwendung wollen wir noch eine Dimensionsformel für Unter-


vektorräume beweisen.

Satz 5. Es seien U , U ′ lineare Unterräume eines K-Vektorraums V .


Dann gilt

dimK U + dimK U ′ = dimK (U + U ′ ) + dimK (U ∩ U ′ ).

Beweis. Zunächst seien U und U ′ von endlicher Dimension. Dann ist


U + U ′ endlich erzeugt und damit nach 1.5/6 ebenfalls von endlicher
62 1. Vektorräume

Dimension. Man wähle nun gemäß Satz 4 ein Komplement W von


U ∩ U ′ in U , sowie ein Komplement W ′ von U ∩ U ′ in U ′ , also mit

U = (U ∩ U ′ ) ⊕ W, U ′ = (U ∩ U ′ ) ⊕ W ′ .

Dann gilt
U + U ′ = (U ∩ U ′ ) + W + W ′ ,
und wir behaupten, dass diese Summe direkt ist. In der Tat, hat man
a + b + b′ = 0 für gewisse Elemente a ∈ U ∩ U ′ , b ∈ W , b′ ∈ W ′ , so
ergibt sich
b = −(a + b′ ) ∈ (U ∩ U ′ ) + W ′ = U ′
und wegen b ∈ W ⊂ U sogar

b ∈ (U ∩ U ′ ) ∩ W = 0,

da U die direkte Summe der linearen Unterräume U ∩ U ′ und W ist.


Man erhält also b = 0 und auf entsprechende Weise auch b′ = 0.
Damit folgt aber auch a = 0, was bedeutet, dass U + U ′ die direkte
Summe der linearen Unterräume U ∩U ′ , W und W ′ ist. Die behauptete
Dimensionsformel ergibt sich dann mittels Satz 4 aus der Rechnung

dim(U + U ′ )
= dim(U ∩ U ′ ) + dim W + dim W ′
 
= dim(U ∩ U ′ ) + dim W + dim(U ∩ U ′ ) + dim W ′ − dim(U ∩ U ′ )
= dim U + dim U ′ − dim(U ∩ U ′ ).

Abschließend ist noch der Fall zu betrachten, wo (mindestens) einer


der linearen Unterräume U, U ′ nicht von endlicher Dimension ist. Gilt
etwa dimK U = ∞, so folgt hieraus insbesondere dimK (U + U ′ ) = ∞,
und wir haben dimK U +dimK U ′ wie auch dimK (U +U ′ )+dimK (U ∩U ′ )
als ∞ zu interpretieren. Die behauptete Dimensionsformel ist also auch
in diesem Fall gültig. 

Korollar 6. Es seien U , U ′ endlich-dimensionale lineare Unterräume


eines K-Vektorraums V . Dann ist äquivalent:
(i) U + U ′ = U ⊕ U ′ .
(ii) dimK (U + U ′ ) = dimK U + dimK U ′ .
1.6 Direkte Summen 63

Beweis. Aufgrund von Satz 5 ist (ii) äquivalent zu dimK (U ∩ U ′ ) = 0,


also zu U ∩ U ′ = 0 und damit zu Bedingung (i). 

Aufgaben
1. Man bestimme Komplemente zu folgenden linearen Unterräumen des
R3 bzw. R4 :
(i) U = (1, 2, 3), (−2, 3, 1), (4, 1, 5)

(ii) U = (x1 , x2 , x3 , x4 ) ∈ R4 ; 3x1 − 2x2 + x3 + 2x4 = 0
P
2. Man betrachte eine Zerlegung V = ni=1 Ui eines endlich-dimensionalen
K-Vektorraums V in Untervektorräume Ui ⊂ V und zeige, P dass die
Summe der Ui genau dann direkt ist, wenn dimK V = ni=1 dimK Ui
gilt.
Ln
3. Man betrachte eine direkte Summenzerlegung V = i=1 Ui eines
K-Vektorraums V in lineare Unterräume Ui ⊂ V , sowie für jedes
i = 1, . . . , n eine Familie (xij )j∈Ji von Elementen xij ∈ Ui . Man zei-
ge:
(i) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , bilden genau dann ein Er-
zeugendensystem von V , wenn für jedes i = 1, . . . , n die Elemente
xij , j ∈ Ji , ein Erzeugendensystem von Ui bilden.
(ii) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , sind genau dann linear
unabhängig in V , wenn für jedes i = 1, . . . , n die Elemente xij ,
j ∈ Ji , linear unabhängig in Ui sind.
(iii) Die Elemente xij , i = 1, . . . , n, j ∈ Ji , bilden genau dann eine
Basis von V , wenn für jedes i = 1, . . . , n die Elemente xij , j ∈ Ji ,
eine Basis von Ui bilden.
4. Es seien U1 , U2 , U3 lineare Unterräume eines K-Vektorraums V . Man
zeige (AT 387):
dimK U1 + dimK U2 + dimK U3

= dimK (U1 + U2 + U3 ) + dimK (U1 + U2 ) ∩ U3 + dimK (U1 ∩ U2 )

5. Es sei U1 ⊂ U2 ⊂ . . . ⊂ Un eine Folge linearer Unterräume eines


K-Vektorraums V mit dimK V < ∞. Man zeige, dass es jeweils ein
Komplement Ui′ zu Ui gibt, i = 1, . . . , n, mit U1′ ⊃ U2′ ⊃ . . . ⊃ Un′ .
6. Es sei U ein linearer Unterraum eines endlich-dimensionalen K-Vektor-
raums V . Unter welcher Dimensionsbedingung gibt es lineare Unterräu-
me U1 , U2 in V mit U ( Ui ( V , i = 1, 2, und U = U1 ∩ U2 ?
64 1. Vektorräume

7. Es seien U, U ′ zwei lineare Unterräume eines endlich-dimensionalen


K-Vektorraums V . Unter welcher Dimensionsbedingung besitzen U und
U ′ ein gemeinsames Komplement in V ?
8. Es sei U ein linearer Unterraum eines endlich-dimensionalen K-Vektor-
raums V . Unter welcher DimensionsbedingungPkann manL Komplemen-
r r
te U1 , . . . , Ur zu U in V finden, derart dass i=1 Ui = i=1 Ui gilt?
(AT 388)
2. Lineare Abbildungen

Überblick und Hintergrund

In Kapitel 1 haben wir Vektorräume über einem Körper K als Mengen


eingeführt, die mit einer gewissen Struktur ausgestattet sind, nämlich
einer Addition und einer skalaren Multiplikation mit Elementen aus K,
wobei die Gültigkeit gewisser Axiome (Rechenregeln) gefordert wird.
Unberührt blieb dabei zunächst die Frage, wann zwei K-Vektorräume
V und V ′ als “gleich” oder “im Wesentlichen gleich” anzusehen sind.
Es gibt eine natürliche Methode, um dies festzustellen: Man versuche,
die Elemente von V mittels einer bijektiven Abbildung f : V ✲ V′

mit denjenigen von V zu identifizieren, und zwar in der Weise, dass
dabei die Addition und die skalare Multiplikation von V und V ′ in
Übereinstimmung gebracht werden. Für die Abbildung f erfordert dies
die Gleichungen

f (a + b) = f (a) + f (b), f (αa) = αf (a),

für alle a, b ∈ V und alle α ∈ K. Lässt sich eine solche bijektive Ab-
bildung f finden, so kann man die Vektorräume V und V ′ als “im
Wesentlichen gleich” ansehen, und man nennt f in diesem Falle einen
Isomorphismus zwischen V und V ′ . Allgemeiner betrachtet man auch
nicht notwendig bijektive Abbildungen f : V ✲ V ′ mit den oben
genannten Verträglichkeitseigenschaften und bezeichnet diese als Ho-
momorphismen oder lineare Abbildungen von V nach V ′ . Die Untersu-
chung von Abbildungen dieses Typs ist das zentrale Thema des vorlie-
genden Kapitels.
Im Rahmen der Einführung zu Kapitel 1 hatten wir erläutert, wie
man R2 , die Menge aller Paare reeller Zahlen, als Modell einer gege-

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, [Link]
66 2. Lineare Abbildungen

benen anschaulichen Ebene E auffassen kann, und zwar indem man


in E ein Koordinatensystem auszeichnet. Wir wollen hier noch etwas
genauer untersuchen, in welcher Weise dieses Modell von der Wahl des
Koordinatensystems abhängt, wobei wir R2 unter der komponentenwei-
sen Addition und skalaren Multiplikation als R-Vektorraum auffassen.
Wir wählen also einen Nullpunkt 0 ∈ E und ein Koordinatensystem in
0 mit den Achsen x und y; in den nachfolgenden Skizzen ist dieses Sys-
tem der besseren Übersicht halber als rechtwinkliges Koordinatensys-
tem gezeichnet, was aber keinesfalls erforderlich ist. Indem wir einem
Punkt P ∈ E das Paar (x1 , y1 ) ∈ R2 bestehend aus den Koordinaten
von P bezüglich x und y zuordnen, erhalten wir eine bijektive Abbil-
dung ϕ : E ✲ R2 , welche wir in der Einführung zu Kapitel 1 jeweils
als Identifizierung angesehen hatten. Für ein zweites Koordinatensys-
tem in 0 mit den Koordinatenachsen u und v ergibt sich entsprechend
eine bijektive Abbildung ψ : E ✲ R2 , was mittels folgender Skizze
verdeutlicht werden möge:
y
✻ ϕ
✲ (x1 , y1 )
y1 ❜P ψ
✲ (u1 , v1 )
v


v1 u1 u


x1 x

Der Übergang vom ersten zum zweiten Modell wird somit durch
die Abbildung
f = ψ ◦ ϕ−1 : R2 ✲ R2

beschrieben, und wir wollen plausibel machen, dass es sich hierbei um


einen Isomorphismus von R-Vektorräumen in dem oben beschriebe-
nen Sinne handelt. Zunächst einmal ist die Abbildung f bijektiv, da
ϕ und ψ beide bijektiv sind. Es bleibt also lediglich noch zu zeigen,
dass f mit der Vektorraumstruktur von R2 verträglich ist. Wir be-
trachten daher ein Paar (x1 , y1 ) ∈ R2 , den zugehörigen Punkt P ∈ E
mit ϕ(P ) = (x1 , y1 ), sowie das Paar (u1 , v1 ) := ψ(P ). Folglich besitzt
P die Koordinaten x1 , y1 bezüglich der Achsen x, y und entsprechend
die Koordinaten u1 , v1 bezüglich u, v. Nach Konstruktion gilt dann
Überblick und Hintergrund 67

f (x1 , y1 ) = (u1 , v1 ), und es ergibt sich für Skalare α ∈ R folgendes


Bild:
y

αy1 ❜ αP

v y1

❜P

αu1 u
αv1
v1 u1


x1 αx1 x
Dabei sei αP ∈ E derjenige Punkt, der aus P durch Streckung mit
Zentrum 0 und Faktor α entsteht. Mittels des Strahlensatzes folgt
dann, dass die Koordinaten von αP bezüglich der Achsen x, y bzw.
u, v ebenfalls durch Streckung mit Faktor α aus den entsprechenden
Koordinaten von P hervorgehen. Dies bedeutet
ϕ(αP ) = (αx1 , αy1 ) = α(x1 , y1 ), ψ(αP ) = (αu1 , αv1 ) = α(u1 , v1 ),
und damit
  
f α(x1 , y1 ) = ψ ϕ−1 α(x1 , y1 ) = ψ(αP ) = α(u1 , v1 ) = αf (x1 , y1 ) ,
d. h. f ist verträglich mit der skalaren Multiplikation von R2 .
Um auch die Verträglichkeit mit der Addition nachzuweisen, be-
trachten wir zunächst folgende Skizze:
P1 ❜+ P2
✧✧
✧ ❇❇

✧ ❇

✧ ❇
✧ ❇

✧ ❇ ∆


v
✲ P2 ✧ ✧
❇❜
✧ ✲

❇ ✧ P1
❇ ✧ u
❇ ✧ u1 + u2
✧ u1
❇ ✧
❇ ✧

❇ ∆✧

❇✧ u2
68 2. Lineare Abbildungen

Der Übersichtlichkeit halber haben wir uns hier auf ein einziges (schief-
winkliges) Koordinatensystem mit den Achsen u und v beschränkt.
Ausgehend von den Punkten P1 , P2 ∈ E sei der Punkt P1 + P2 mit-
tels der üblichen Parallelogrammkonstruktion definiert. Die Dreiecke ∆
und ∆′ , die jeweils die gestrichelten Strecken enthalten, erkennt man
dann als kongruent, und es folgt, dass sich die u-Koordinate von P1 +P2
als Summe der u-Koordinaten von P1 und P2 ergibt. Entsprechendes
gilt für die v-Koordinaten und in gleicher Weise für die Koordinaten
bezüglich anderer Koordinatensysteme.
Gehen wir nun von zwei Punkten (x1 , y1 ), (x2 , y2 ) ∈ R2 aus und
betrachten die zugehörigen Punkte P1 , P2 ∈ E mit ϕ(Pi ) = (xi , yi )
für i = 1, 2, so ergibt sich mit ψ(Pi ) = (ui , vi ) aufgrund vorstehender
Beobachtung

ϕ(P1 + P2 ) = (x1 + x2 , y1 + y2 ) = (x1 , y1 ) + (x2 , y2 ),


ψ(P1 + P2 ) = (u1 + u2 , v1 + v2 ) = (u1 , v1 ) + (u2 , v2 ).

Die gewünschte Verträglichkeit von f mit der Addition auf R2 folgt


dann aus der Gleichung
 
f (x1 , y1 ) + (x2 , y2 ) = ψ ϕ−1 (x1 , y1 ) + (x2 , y2 ) = ψ(P1 + P2 )
 
= (u1 , v1 ) + (u2 , v2 ) = f (x1 , y1 ) + f (x2 , y2 ) ,

und man erkennt f : R2 ✲ R2 , wie behauptet, als Isomorphismus


von R-Vektorräumen.
Die vorstehende Überlegung hat eine wichtige Konsequenz. Zeich-
net man in der Ebene E einen Punkt 0 als Nullpunkt aus, so lässt sich
E auf ganz natürliche Weise mit der Struktur eines R-Vektorraums ver-
sehen. Man wähle nämlich ein Koordinatensystem in 0 und fasse die
zugehörige Bijektion ϕ : E ✲ R2 , welche einem Punkt P ∈ E die zu-
gehörigen Koordinaten zuordnet, als Identifizierung auf. Die so von R2
auf E übertragene Vektorraumstruktur ist unabhängig von der Wahl
des Koordinatensystems von E in 0. In der Tat, ist ψ : E ✲ R2
eine Bijektion, die zu einem weiteren Koordinatensystem von E in
0 korrespondiert, so haben wir gerade gezeigt, dass die Komposition
ψ ◦ ϕ−1 : R2 ✲ R2 ein Isomorphismus ist. Dies besagt aber, dass
die mittels ϕ von R2 auf E übertragene Addition und skalare Multi-
plikation jeweils mit derjenigen übereinstimmt, die mittels ψ von R2
Überblick und Hintergrund 69

auf E übertragen werden kann. Wir können daher mit gutem Recht
sagen, dass eine punktierte Ebene, also eine Ebene mit einem als Null-
punkt ausgezeichneten Punkt 0, auf natürliche Weise die Struktur ei-
nes R-Vektorraums besitzt und dass dieser Vektorraum im Grunde
genommen nichts anderes als das wohlbekannte Modell R2 ist, ge-
nauer, dass E als R-Vektorraum zu R2 isomorph ist. Entsprechendes
gilt natürlich auch für eine Gerade und R1 als Modell, sowie für den
drei-dimensionalen anschaulichen Raum und R3 als Modell. Es ist all-
gemeiner auch möglich, die Abhängigkeit der Modelle von der Wahl
des Nullpunktes zu vermeiden. Anstelle linearer Abbildungen hat man
dann sogenannte affine Abbildungen zu betrachten, die sich als Kom-
position linearer Abbildungen mit Translationen darstellen.
Beispiele für Isomorphismen f : R2 ✲ R2 gibt es zur Genüge,
etwa die Streckung

f : R2 ✲ R2 , (x1 , y1 ) ✲ (α1 x1 , β1 y1 ),

mit fest vorgegebenen Konstanten α1 , β1 ∈ R∗ , die Drehung um 0 ∈ R2


mit einem gewissen Winkel ϑ
y

f (P )

.......
.......
......
.....
....
.....
....
....
....
....
...
...
...
...
...
...
....... ...

P
.... ..
.... ..
ϑ
...
... ❜
..


...
..

x
oder die Spiegelung an einer Geraden G, die den Nullpunkt 0 ∈ R
enthält:
y

❜ f (P ) G

❜P

x
70 2. Lineare Abbildungen

Ein einfaches Beispiel einer linearen Abbildung, die nicht bijektiv


und damit kein Isomorphismus ist, stellt die sogenannte Projektion

f : R2 ✲ R, (x1 , y1 ) ✲ x1 ,

dar. Diese Abbildung beschreibt sich in der Tat als (Parallel-) Projek-
tion auf die x-Achse, indem man einen Punkt P ∈ R2 auf den Schnitt-
punkt der x-Achse mit der Parallelen zur y-Achse durch P abbildet:
y

❜P

❜❄ ✲
f (P ) x
Man kann auch parallel zu einer anderen Achse v projizieren, etwa in
der folgenden Weise:
y

v
✲ ❜P

❜✛ ✲
f (P ) x
Im Prinzip erhält man hier keine wesentlich andere lineare Abbildung,
denn diese wird bezüglich der Koordinatenachsen x, v wiederum durch

f : R2 ✲ R, (x1 , v1 ) ✲ x1 ,

beschrieben. Ähnliche Beispiele für Isomorphismen oder, allgemeiner,


lineare Abbildungen, lassen sich auch für höher-dimensionale Vektor-
räume Rn angeben.
Im vorliegenden Kapitel wollen wir zunächst einmal einige all-
gemeine Eigenschaften linearer Abbildungen untersuchen, wobei wir
wiederum Vektorräume über einem beliebigen Körper K betrachten.
Überblick und Hintergrund 71

Zum Beispiel werden wir sehen, dass die Dimension des Bildes V ′ ei-
ner surjektiven linearen Abbildung f : V ✲ V ′ , man spricht hier
vom Rang von f , höchstens gleich der Dimension von V sein kann. So-
mit ist die Existenz beispielsweise einer surjektiven linearen Abbildung
R2 ✲ R3 ausgeschlossen. Allgemeiner werden Phänomene dieser Art
durch die sogenannte Dimensionsformel für lineare Abbildungen gere-
gelt. Auch wird sich zeigen, dass eine lineare Abbildung f : V ✲ V′

bereits eindeutig durch die Bilder f (xi ) ∈ V einer vorgegebenen Basis
(xi )i∈I von V festgelegt ist, ja dass man sogar eine lineare Abbildung
f: V ✲ V ′ eindeutig definieren kann, indem man lediglich die Bilder
f (xi ) in V ′ (in beliebiger Weise) vorgibt. Diese Eigenschaft ist wichtig
für die Beschreibung linearer Abbildungen mittels Matrizen (das sind
rechteckige Koeffizientenschemata mit Einträgen aus dem Grundkör-
per K) und damit für die rechnerische Handhabung linearer Abbildun-
gen. Eine tiefergehende Betrachtung von Matrizen wird allerdings erst
in Kapitel 3 erfolgen.
Ein weiteres Problem, das wir in diesem Kapitel lösen werden, be-
schäftigt sich mit der Konstruktion linearer Abbildungen mit bestimm-
ten vorgegebenen Eigenschaften. Für eine Abbildung f : V ✲ V′
bezeichnet man die Urbilder f −1 (a′ ) ⊂ V zu Elementen a′ ∈ V ′ als
die Fasern von f . Natürlich ist eine Faser f −1 (a′ ) genau dann nicht
leer, wenn a′ zum Bild von f gehört. Die nicht-leeren Fasern von f
werden daher (eventuell in mehrfacher Aufzählung) durch die Men-
gen f −1 (f (a)) beschrieben, wobei a in V variiere. Für eine lineare
Abbildung f : V ✲ V ′ gilt stets f (0) = 0′ , wenn 0 und 0′ die
Nullvektoren in V und V ′ bezeichnen. Insbesondere enthält die Fa-
ser f −1 (0′ ) = f −1 (f (0)) stets den Nullvektor 0 ∈ V . Genauer sieht
man leicht ein, dass f −1 (0′ ) sogar einen linearen Unterraum U ⊂ V
bildet, den sogenannten Kern von f , der mit ker f bezeichnet wird.
Weiter zeigt man

f −1 f (a) = a + U = {a + u ; u ∈ U }
für a ∈ V . Man erhält daher alle nicht-leeren Fasern von f , indem man
den linearen Unterraum U = ker f mit allen Vektoren a ∈ V parallel
verschiebt, wobei man jeden solchen parallel verschobenen Unterraum
A = a + U als einen zu U gehörigen affinen Unterraum von V be-
zeichnet. Im Falle V = R2 und für eine Gerade U ⊂ R2 ergibt sich
beispielsweise folgendes Bild:
72 2. Lineare Abbildungen

y


a


x
U a+U

Umgekehrt werden wir zu einem linearen Unterraum U ⊂ V die Menge


V /U aller zu U gehörigen affinen Unterräume betrachten und diese
auf natürliche Weise zu einem K-Vektorraum machen, indem wir für
a, b ∈ V und α ∈ K

(a + U ) + (b + U ) := (a + b) + U, α(a + U ) := αa + U

setzen. Dass man auf diese Weise tatsächlich einen Vektorraum erhält,
den sogenannten Quotienten- oder Restklassenvektorraum V /U , bedarf
einiger Verifizierungen, die wir im Einzelnen durchführen werden. Ins-
besondere werden wir sehen, dass dann die kanonische Abbildung

π: V ✲ V /U, a ✲ a + U,

eine lineare Abbildung mit ker π = U ergibt, deren Fasern also gerade
die zu U gehörigen affinen Unterräume von V sind. Die Abbildung π
erfüllt eine wichtige, sogenannte universelle Eigenschaft, die wie folgt
lautet: Ist f : V ✲ V ′ eine lineare Abbildung mit einem Kern, der
U = ker π ⊂ ker f erfüllt, so zerlegt sich f in eine Komposition
π f
f: V ✲ V /U ✲ V′

mit einer eindeutig bestimmten linearen Abbildung f : V /U ✲ V ′;


dies ist im Wesentlichen die Aussage des Homomorphiesatzes für linea-
re Abbildungen.
Die Definition eines Vektorraums als Menge mit einer Addition
und skalaren Multiplikation macht keinerlei Vorschriften über die Art
der Elemente dieser Menge. Wir nutzen dies insbesondere bei der De-
finition des Restklassenvektorraums V /U aus, dessen Elemente affine
2.1 Grundbegriffe 73

Unterräume von V und damit Teilmengen von V sind. Ein weiteres


Beispiel eines Vektorraums, der zu einem gegebenen K-Vektorraum V
konstruiert werden kann, ist der Dualraum V ∗ . Seine Elemente sind
lineare Abbildungen, und zwar die linearen Abbildungen V ✲ K.
Zwischen V und V ∗ bestehen enge symmetrische Beziehungen; man
spricht von einer Dualität zwischen V und V ∗ , daher auch der Name
Dualraum. Beispielsweise lässt sich V im Falle endlicher Dimension
selbst wieder als Dualraum von V ∗ interpretieren. Mit dem Dualraum
eines Vektorraums V decken wir in einem gewissen Sinne die linearen
Eigenschaften von V auf einem höheren Niveau auf. Die zu bewei-
senden Ergebnisse werden es uns in gewissen Fällen ermöglichen, an-
sonsten erforderliche konventionelle Rechnungen durch konzeptionelle
Argumente zu ersetzen.

2.1 Grundbegriffe

Zu Vektoren a1 , . . . , an eines K-Vektorraums V kann man stets die


Abbildung
n
X
f: K n ✲ V, (α1 , . . . , αn ) ✲ αi ai ,
i=1

betrachten. Die Einheitsvektoren ei = (δ1i , . . . , δni ) ∈ K n , i = 1, . . . , n,


welche die kanonische Basis von K n bilden, genügen dann den Glei-
chungen f (ei ) = ai , und wir können in äquivalenter Weise sagen, dass
f durch die Vorschrift
X n  X n
f αi ei = αi ai
i=1 i=1

beschrieben wird. Bilden nun die Vektoren a1 , . . . , an sogar eine Basis


von V , so hat
Pn jedes Element a ∈ V eine eindeutig bestimmte Darstel-
lung a = i=1 αi ai mit Koeffizienten αi ∈ K, und man sieht, dass
die Abbildung f in diesem Falle bijektiv ist. Weiter ist f verträglich
mit den Vektorraumstrukturen auf K n und V , denn es gilt offenbar
f (a + b) = f (a) + f (b) für a, b ∈ K n sowie f (αa) = αf (a) für α ∈ K,
a ∈ K n . Folglich können wir V als K-Vektorraum nach Auswahl der
74 2. Lineare Abbildungen

Basis a1 , . . . , an mit K n identifizieren, und zwar unter Verwendung


der Abbildung f . Dies zeigt insbesondere, dass Abbildungen zwischen
Vektorräumen, welche die Vektorraumstrukturen respektieren, von In-
teresse sind.

Definition 1. Eine Abbildung f : V ✲ V ′ zwischen K-Vektorräumen


V, V ′ heißt K-Homomorphismus oder K-lineare Abbildung, falls gilt:
(i) f (a + b) = f (a) + f (b) für a, b ∈ V .
(ii) f (αa) = αf (a) für α ∈ K, a ∈ V .

Die Bedingungen (i) und (ii) lassen sich zusammenfassen, indem


man für α, β ∈ K, a, b ∈ V in äquivalenter Weise fordert:
f (αa + βb) = αf (a) + βf (b)
Als einfache Rechenregeln prüft man leicht nach:
f (0) = 0
f (−a) = −f (a) für a ∈ V

Im Übrigen ist die Komposition linearer Abbildungen wieder linear.


Wir wollen einige einfache Beispiele linearer Abbildungen anschauen.
(1) Die Abbildung C ✲ C, z ✲ z = Re(z) − iIm(z), ist
R-linear, nicht aber C-linear.
(2) Für einen K-Vektorraum V bildet die identische Abbildung
id : V ✲ V, a ✲ a, stets eine K-lineare Abbildung, ebenso die
Nullabbildung 0 : V ✲ 0, welche jedes Element a ∈ V auf 0 abbildet.
Weiter ist für einen linearen Unterraum U ⊂ V die Inklusionsabbildung
U ⊂ ✲ V ein Beispiel einer K-linearen Abbildung.
(3) Es sei K ein Körper. Zu m, n ∈ N betrachte man ein System
 
λ11 . . . λ1n
(λij )i=1,...,m =  . . . . . 
j=1,...,n
λm1 . . . λmn
von Elementen aus K; man spricht von einer Matrix. Dann wird durch
X
n n
X 
K n ✲K ,m
(α1 , . . . , αn ) ✲ λ1j αj , . . . , λmj αj ,
j=1 j=1
2.1 Grundbegriffe 75

eine K-lineare Abbildung gegeben. Wir werden sogar im Weiteren se-


hen, dass jede lineare Abbildung K n ✲ K m von dieser Gestalt ist,
also durch eine Matrix von Elementen aus K beschrieben werden kann.
Allerdings werden wir dann Vektoren in K n bzw. K m in konsequenter
Weise als Spaltenvektoren und nicht mehr wie bisher als Zeilenvektoren
schreiben, da dies besser mit dem dann einzuführenden Matrizenpro-
dukt harmoniert.
Man nennt eine K-lineare Abbildung f : V ✲ V ′ zwischen Vek-
torräumen einen Monomorphismus, falls f injektiv ist, einen Epimor-
phismus, falls f surjektiv ist, und einen Isomorphismus, falls f bijektiv
ist.

Bemerkung 2. Ist f : V ✲ V ′ ein Isomorphismus zwischen K-Vek-


torräumen, so existiert die Umkehrabbildung f −1 : V ′ ✲ V , und diese
ist K-linear, also wiederum ein Isomorphismus.

Beweis. Es ist nur die K-Linearität der Umkehrabbildung f −1 zu zei-


gen. Seien also a′ , b′ ∈ V ′ gegeben. Für a = f −1 (a′ ) und b = f −1 (b′ ) hat
man dann a′ = f (a) und b′ = f (b), sowie a′ + b′ = f (a + b) aufgrund
der Linearität von f . Folglich gilt
f −1 (a′ + b′ ) = a + b = f −1 (a′ ) + f −1 (b′ ).
Für α ∈ K gilt weiter αa′ = f (αa) und daher
f −1 (αa′ ) = αa = αf −1 (a′ ),
d. h. f −1 ist K-linear. 

Isomorphismen schreiben wir häufig in der Form V ∼✲ V ′ . Im


Falle V = V ′ bezeichnet man eine K-lineare Abbildung f : V ✲V
auch als einen Endomorphismus von V , und man versteht unter einem
Automorphismus von V einen bijektiven Endomorphismus.

Bemerkung 3. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwi-


schen Vektorräumen. Dann sind

ker f = f −1 (0) = a ∈ V ; f (a) = 0 und

im f = f (V ) = f (a) ; a ∈ V
76 2. Lineare Abbildungen

lineare Unterräume von V bzw. V ′ . Diese werden als Kern bzw. Bild
von f bezeichnet.

Der Beweis ist einfach zu führen. Für a, b ∈ ker f hat man

f (a + b) = f (a) + f (b) = 0 + 0 = 0,

also a + b ∈ ker f . Weiter gilt f (αa) = αf (a) = α0 = 0 und damit


αa ∈ ker f für α ∈ K und a ∈ ker f . Da ker f 6= ∅ wegen 0 ∈ ker f ,
erkennt man ker f als linearen Unterraum von V .
Ähnlich sieht man, dass im f ein linearer Unterraum von V ′ ist.
Wegen 0 ∈ im f ist jedenfalls im f nicht leer. Seien weiter α ∈ K,
a′ , b′ ∈ im f , etwa a′ = f (a), b′ = f (b) mit a, b ∈ V . Dann folgt
αa′ = f (αa) sowie a′ + b′ = f (a + b), d. h. αa′ , a′ + b′ ∈ im f . Also ist
auch im f ein linearer Unterraum von V ′ . 

Bemerkung 4. Eine K-lineare Abbildung f : V ✲ V ′ zwischen


Vektorräumen ist genau dann injektiv, wenn ker f = 0 gilt.

Beweis. Sei zunächst f injektiv. Dann besteht insbesondere der Kern


ker f = f −1 (0) aus höchstens einem Element, und wegen 0 ∈ f −1 (0)
folgt ker f = 0. Sei nun umgekehrt die Beziehung ker f = 0 gegeben,
und seien a, b ∈ V mit f (a) = f (b). Dann ergibt sich

f (a − b) = f (a) − f (b) = 0,

also a − b ∈ ker f = 0 und damit a = b, d. h. f ist injektiv. 

Wir wollen weiter untersuchen, wie sich Erzeugendensysteme sowie


linear abhängige bzw. unabhängige Systeme unter Anwendung linearer
Abbildungen verhalten.

Bemerkung 5. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwi-


schen Vektorräumen.
(i) Für Teilmengen A ⊂ V gilt f (hAi) = hf (A)i.
(ii) Es seien die Vektoren a1 , . . . , an ∈ V linear abhängig. Dann
sind auch deren Bilder f (a1 ), . . . , f (an ) ∈ V ′ linear abhängig. Die Um-
kehrung hierzu gilt, wenn f injektiv ist.
2.1 Grundbegriffe 77

(iii) Es seien a1 , . . . , an ∈ V Vektoren, deren Bilder f (a1 ), . . . , f (an )


linear unabhängig in V ′ sind. Dann sind a1 , . . . , an linear unabhängig
in V . Die Umkehrung hierzu gilt, wenn f injektiv ist.

Der Beweis kann durch einfache Verifikation der Definitionen ge-


führt werden. Die entsprechenden Rechnungen seien jedoch dem Leser
überlassen. Als Konsequenz von Aussage (iii) vermerken wir noch:

Bemerkung 6. Für eine K-lineare Abbildung f : V ✲ V ′ zwischen


Vektorräumen gilt dimK f (V ) ≤ dimK V .

Eine wichtige Eigenschaft linearer Abbildungen besteht darin, dass


sie bereits durch die Werte, die sie auf einer Basis des Urbildraums
annehmen, festgelegt sind.

Satz 7. Es sei V ein K-Vektorraum mit Erzeugendensystem a1 , . . . , an .


Sind dann a′1 , . . . , a′n beliebige Vektoren eines weiteren K-Vektorraums
V ′ , so gilt:
(i) Es gibt höchstens eine K-lineare Abbildung f : V ✲ V ′ mit
f (ai ) = a′i , i = 1, . . . , n.
(ii) Ist a1 , . . . , an sogar eine Basis von V , so existiert genau eine
K-lineare Abbildung f : V ✲ V ′ mit f (ai ) = a′ für i = 1, . . . , n.
i

Beweis. Wir beginnen mit der Eindeutigkeitsaussage (i). Sei also


f: V ✲ V ′ eine K-lineare Abbildung mit f (ai ) = a′ , i = 1, . . . , n,
i P
und sei a ∈ V . Dann besitzt a eine Darstellung der Form a = ni=1 αi ai
mit Koeffizienten αi ∈ K. Aufgrund der Linearität von f folgt
X
n  n
X
f (a) = f αi ai = αi f (ai ),
i=1 i=1

was bedeutet, dass f (a) durch die Werte f (ai ), i = 1, . . . , n, eindeutig


bestimmt ist.
Bilden nun a1 , . . . , an im Falle (ii) eine Basis P
von V , so sind für
a ∈ V die Koeffizienten αi in der Darstellung a = ni=1 αi ai eindeutig
bestimmt, und man kann eine Abbildung f : V ✲ V ′ erklären, indem
man setzt:
78 2. Lineare Abbildungen

n
X
f (a) = αi a′i
i=1

Diese Abbildung
P ist K-linear,
Pwie wir sogleich sehen werden. Sind näm-
lich a = ni=1 αi ai und b = ni=1 βi ai zwei Elemente von V , so gilt
n
X
a+b= (αi + βi )ai .
i=1

Da dies die (eindeutig bestimmte) Darstellung von a + b als Linear-


kombination von a1 , . . . , an ist, ergibt sich
n
X n
X n
X
f (a + b) = (αi + βi )a′i = αi a′i + βi a′i = f (a) + f (b).
i=1 i=1 i=1

Entsprechend rechnet man für α ∈ K


Xn  X n n
X

f (αa) = f ααi ai = ααi ai = α αi a′i = αf (a),
i=1 i=1 i=1

und man sieht, dass f : V ✲ V ′ wie behauptet K-linear ist. Es


existiert also eine K-lineare Abbildung f : V ✲ V ′ mit f (ai ) = a′ ,
i
und diese ist eindeutig bestimmt, wie wir in (i) gesehen haben. 

Für zwei K-Vektorräume V und V ′ bilden die K-linearen Abbil-


dungen f : V ✲ V ′ einen K-Vektorraum, sozusagen den Vektorraum
aller K-linearen V ′ -wertigen Funktionen auf V ; dieser wird meist mit
HomK (V, V ′ ) bezeichnet, also

HomK (V, V ′ ) = f : V ✲ V ′ ; f K-linear .

Dabei ist für f, g ∈ HomK (V, V ′ ) die Summe f + g durch

f + g: V ✲ V ′, x ✲ f (x) + g(x),

erklärt und entsprechend für α ∈ K das Produkt α · f durch



α·f: V ✲ V ′, x ✲ α · f (x) .

Dass f + g und α · f wiederum K-lineare Abbildungen von V nach V ′


darstellen, ist mit leichter Rechnung nachzuprüfen. Der Sachverhalt
2.1 Grundbegriffe 79

von Aussage (ii) in Satz 7 ist dann präziser so zu formulieren, dass für
eine Basis a1 , . . . , an von V die Zuordnung f ✲ (f (a1 ), . . . , f (an ))
einen Isomorphismus von K-Vektorräumen HomK (V, V ′ ) ∼✲ (V ′ )n
definiert.
Diese Korrespondenz kann man noch konkreter beschreiben, wenn
man neben der Basis a1 , . . . , an von V auch in V ′ eine Basis fixiert. Sei
also b1 , . . . , bm eine Basis von V ′ , wobei wir V ′ als endlich-dimensional
[Link] besitzt jeder Vektor a′ ∈ V ′ eine eindeutige Darstel-
lung a′ = m i=1 λi bi , ist also durch das Koeffiziententupel (λ1 , . . . , λm )
auf umkehrbar eindeutige Weise bestimmt. Eine lineare Abbildung
f: V ✲ V ′ korrespondiert daher zu n solchen Koeffiziententupeln
(λ1j , . . . , λmj ), j = 1, . . . , n, die wir als Spalten interpretieren und zu
einer Matrix zusammenfügen:
 
λ11 . . . λ1n
(λij )i=1,...,m =  . . . . . 
j=1,...,n
λm1 . . . λmn
Man nennt dies die zu der linearen Abbildung f gehörige Matrix, wobei
diese Bezeichnung natürlich relativ zu den in V und V ′ fixierten Basen
zu verstehen ist. Die lineare Abbildung f lässt sich aus der Matrix (λij )
mit Hilfe der Gleichungen
m
X
f (aj ) = λij bi , j = 1, . . . , n.
i=1

bzw. X
n  m X
n 
X
f αj aj = λij αj bi
j=1 i=1 j=1

rekonstruieren.

Satz 8. Es seien V, V ′ zwei K-Vektorräume.


(i) Falls es einen Isomorphismus f : V ∼✲ V ′ gibt, so stimmen
die Dimensionen von V und V ′ überein, also dimK V = dimK V ′ .
(ii) Umgekehrt existiert im Falle dimK V = dimK V ′ < ∞ stets ein
Isomorphismus f : V ∼✲ V ′ .

Beweis. Ist f : V ∼✲ V ′ ein Isomorphismus, so sieht man mit Be-


merkung 5, dass ein System von Vektoren a1 , . . . , an ∈ V genau dann
80 2. Lineare Abbildungen

linear unabhängig ist, wenn die Bilder f (a1 ), . . . , f (an ) ∈ V ′ linear


unabhängig sind. Dies bedeutet aber dimK V = dimK V ′ .
Gilt umgekehrt dimK V = dimK V ′ = n < ∞, so wähle man zwei
Basen a1 , . . . , an ∈ V und a′1 , . . . , a′n ∈ V ′ . Nach Satz 7 (ii) existiert
dann eine eindeutig bestimmte K-lineare Abbildung f : VP ✲ V ′ mit
f (ai ) = a′i für i = 1, . . . , n. Ist nun
Pn a ∈ ker f , etwa a = ni=1 αi ai mit
Koeffizienten αi ∈ K, so folgt i=1 αi a′i = f (a) = 0 und wegen der
linearen Unabhängigkeit von a′1 , . . . , a′n bereits αi = 0 für alle i, also
a = 0. Damit ist f injektiv. Aber f ist auch Psurjektiv. Denn Elemente
′ ′ ′ n ′
a ∈ V kann man stets in der Form aP= i=1 αi ai mit Koeffizienten
αi ∈ K darstellen, und es gilt dann f ( ni=1 αi ai ) = a′ . 

Korollar 9. Ist V ein K-Vektorraum der Dimension n < ∞, so gibt


es einen Isomorphismus V ∼✲ K n .

Dies bedeutet, dass es bis auf Isomorphie als endlich-dimensionale


K-Vektorräume nur die Vektorräume K n gibt. Wir wollen abschließend
noch die sogenannte Dimensionsformel für K-lineare Abbildungen be-
weisen.

Satz 10. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwischen


Vektorräumen. Dann gilt

dimK V = dimK (ker f ) + dimK (im f ).

Anstelle von dimK (im f ), also für die Dimension des Bildraums
f (V ), schreibt man häufig auch rg f und nennt dies den Rang von f .

Beweis zu Satz 10. Ist einer der Vektorräume ker f oder im f von
unendlicher Dimension, so auch V ; falls dimK (im f ) = ∞, so folgt
dies aus Bemerkung 5. Wir dürfen daher ker f und im f als endlich-
dimensional ansehen. Man wähle dann Vektoren a1 , . . . , am in V , so
dass deren Bilder f (a1 ), . . . , f (am ) eine Basis von im f bilden. Weiter
wähle man eine Basis am+1 , . . . , an von ker f . Es genügt dann nachzu-
weisen, dass a1 , . . . , an eine Basis von V bilden. Hierzu betrachte
Pm man
einen Vektor a ∈ V . Es existiert eine Darstellung f (a) = i=1 αi f (ai )
mit Koeffizienten αi ∈ K, da f (a1 ), . . . , f (am ) den Vektorraum im f
2.1 Grundbegriffe 81

P
erzeugen. Weiter liegt der Vektor a − m i=1 αi ai im Kern von f , und,
da dieser
P von am+1 P,n. . . , an erzeugt wird, gibtPes αm+1 , . . . , αn ∈ K mit
a− m α
i=1 i ia = i=m+1 i iα a , also mit a = n
i=1 αi ai . Dies zeigt, dass
a1 , . . . , an ein Erzeugendensystem von V bilden.
Um zu sehen, dassP a1 , . . . , an auch linear unabhängig sind, betrach-
te man eine Relation ni=1 αi ai = 0 mit Koeffizienten αi ∈ K. Hieraus
ergibt sich
X n  X n Xm
0=f αi ai = αi f (ai ) = αi f (ai )
i=1 i=1 i=1

und damit α1 = .P . . = αm = 0, da f (a1 ), . . . , f (am ) linear unabhängig


sind. Dann folgt ni=m+1 αi ai = 0 und weiter αm+1 = . . . = αn = 0,
da am+1 , . . . , an linear unabhängig sind. Die Koeffizienten α1 , . . . , αn
verschwinden daher sämtlich, und wir sehen, dass a1 , . . . , an linear un-
abhängig sind. 

Korollar 11. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwischen


Vektorräumen mit dimK V = dimK V ′ < ∞. Dann ist äquivalent:
(i) f ist ein Monomorphismus.
(ii) f ist ein Epimorphismus.
(iii) f ist ein Isomorphismus.

Beweis. Sei zunächst Bedingung (i) erfüllt, also f ein Monomorphis-


mus. Dann gilt ker f = 0, und es folgt mittels der Dimensionsformel
dimK V ′ = dimK V = dimK (ker f ) + dimK (im f )
von Satz 10, dass der lineare Unterraum im f ⊂ V ′ dieselbe (endliche)
Dimension wie V ′ besitzt. Mit 1.5/14 (ii) ergibt sich im f = V ′ , d. h.
f ist ein Epimorphismus, und (ii) ist erfüllt.
Sei nun f mit Bedingung (ii) als Epimorphismus vorausgesetzt.
Die Dimensionsformel in Satz 10 ergibt dann wegen im f = V ′ und
dimK V ′ = dimK V notwendig ker f = 0, d. h. f ist injektiv und erfüllt
damit Bedingung (iii). Dass schließlich (iii) die Bedingung (i) impli-
ziert, ist trivial. 

Auch hier sei darauf hingewiesen, dass Korollar 11 ähnlich wie


1.5/14 (ii) nicht auf den Fall unendlich-dimensionaler Vektorräume
82 2. Lineare Abbildungen

zu verallgemeinern ist, da ein unendlich-dimensionaler K-Vektorraum


stets echte lineare Unterräume unendlicher Dimension besitzt.

Aufgaben
1. Für einen Körper K und ein n ∈ N betrachte man K n als K-Vektorraum.
Es bezeichne pi : K n ✲ K für i = 1, . . . , n jeweils die Projektion auf
die i-te Komponente. Man zeige:
(i) Die Abbildungen pi sind K-linear.
(ii) Eine Abbildung f : V ✲ K n von einem K-Vektorraum V nach
n
K ist genau dann K-linear, wenn alle Kompositionen pi ◦ f
K-linear sind.
2. Gibt es R-lineare Abbildungen R4 ✲ R3 die die folgenden Vekto-
ren ai ∈ R4 jeweils auf die angegebenen Vektoren bi ∈ R3 abbilden?
(AT 391)
(i) a1 =(1, 1, 0, 0), a2 =(1, 1, 1, 0), a3 =(0, 1, 1, 1), a4 =(0, 0, 1, 1)
b1 =(1, 2, 3), b2 =(2, 3, 1), b3 =(3, 1, 2), b4 =(2, 0, 4)
(ii) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1)
b1 , b2 , b3 wie in (i)
(iii) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1), a4 =(−1, 1, 0, 0)
b1 , b2 , b3 , b4 wie in (i)
(iv) a1 =(0, 1, 1, 1), a2 =(1, 0, 1, 1), a3 =(1, 1, 0, 1), a4 =(0, 2, 0, 1)
b1 , b2 , b3 , b4 wie in (i)
3. Man bestimme alle R-linearen Abbildungen R ✲ R.
√  √ 
4. Man bestimme alle Körperhomomorphismen f : Q 2 ✲ Q 2 ,
d. h. alle Q-linearen Abbildungen, die zusätzlich f (αβ) = f (α)f (β)
erfüllen.
5. Es sei V ein K-Vektorraum und f : V ✲ V ein Endomorphismus mit
2
f = f . Man zeige V = ker f ⊕ im f . (AT 395)
6. Für lineare Unterräume U, U ′ eines K-Vektorraums V betrachte man
die Abbildung

ϕ: U × U′ ✲ V, (a, b) ✲ a − b.

(i) Man zeige, dass ϕ eine K-lineare Abbildung ist, wenn man U × U ′
mit komponentenweiser Addition und skalarer Multiplikation als
K-Vektorraum auffasst.
2.2 Quotientenvektorräume 83

(ii) Man berechne dimK (U × U ′ ).


(iii) Man wende die Dimensionsformel für lineare Abbildungen auf ϕ an
und folgere die Dimensionsformel für lineare Unterräume von V ,
nämlich

dimK U + dimK U ′ = dimK (U + U ′ ) + dimK (U ∩ U ′ ).

7. Für zwei K-Vektorräume V, V ′ bestimme man dimK HomK (V, V ′ ), also


die Dimension des Vektorraums aller K-linearen Abbildungen von V
nach V ′ .
f g
8. Es seien V1 ✲ V2 ✲ V3 zwei K-lineare Abbildungen zwischen end-
lich-dimensionalen K-Vektorräumen. Man zeige (AT 396):

rg f + rg g ≤ rg(g ◦ f ) + dim V2

2.2 Quotientenvektorräume

Neben den linearen Unterräumen von Vektorräumen V , also den Un-


tervektorräumen im Sinne von 1.4/2, wollen wir in diesem Abschnitt
auch sogenannte affine Unterräume von V betrachten. Diese entste-
hen im Wesentlichen aus den linearen Unterräumen durch Translation
(oder Parallelverschiebung) um Vektoren a ∈ V .

Definition 1. Es sei V ein K-Vektorraum und A ⊂ V eine Teilmenge.


Man bezeichnet A als affinen Unterraum von V , wenn A leer ist, oder
wenn es ein Element a ∈ V und einen linearen Unterraum U ⊂ V gibt
mit
A = a + U := {a + u ; u ∈ U }.

In der Situation der Definition ergibt sich für a 6∈ U insbesondere


0 6∈ a + U , und man sieht, dass A = a + U in diesem Fall kein linearer
Unterraum von V sein kann. Ziel dieses Abschnittes ist es zu zeigen,
dass die Menge aller affinen Unterräume des Typs a + U , a ∈ V , in
naheliegender Weise einen K-Vektorraum bildet. Wir werden diesen
Vektorraum mit V /U (man lese V modulo U ) bezeichnen und zeigen,
dass die Zuordnung a ✲ a + U eine surjektive K-lineare Abbildung
V ✲ V /U definiert, welche U als Kern besitzt.
84 2. Lineare Abbildungen

Um das Problem etwas weiter zu verdeutlichen, wollen wir zu-


nächst einmal die Existenz einer surjektiven K-linearen Abbildung
f: V ✲ V ′ mit ker f = U als gegeben annehmen. Für a′ ∈ V ′
nennt man f −1 (a′ ) die Faser von f über a′ .

Bemerkung 2. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwi-


schen Vektorräumen mit ker f = U . Dann erhält man für a ∈ V als
Faser von f über f (a) gerade den affinen Unterraum a + U , d. h.
f −1 (f (a)) = a + U .

Beweis. Für u ∈ U gilt f (a + u) = f (a) und damit a + U ⊂ f −1 (f (a)).


Umgekehrt folgt aus a′ ∈ f −1 (f (a)) die Beziehung f (a′ ) = f (a) bzw.
f (a′ − a) = 0. Dies impliziert a′ − a ∈ ker f = U bzw. a′ ∈ a + U , was
f −1 (f (a)) ⊂ a+U und folglich die Gleichheit beider Mengen zeigt. 

Wir können also vermerken, dass die Fasern einer surjektiven


K-linearen Abbildung f : V ✲ V ′ mit ker f = U gerade aus
den affinen Unterräumen a + U , a ∈ V , bestehen. Da über jedem
a′ ∈ f (V ) = V ′ genau eine Faser liegt, nämlich f −1 (a′ ), können wir
die Menge der affinen Unterräume des Typs a + U ⊂ V mit V ′ iden-
tifizieren und zu einem K-Vektorraum V /U machen, indem wir die
Vektorraumstruktur von V ′ übernehmen. Man addiert dann zwei Fa-
sern f −1 (f (a)) = a + U , f −1 (f (b)) = b + U , indem man die Faser über
f (a) + f (b) = f (a + b) bildet, also

(a + U ) + (b + U ) = (a + b) + U.

Entsprechend multipliziert man eine Faser f −1 (f (a)) = a+U mit einem


Skalar α ∈ K indem man die Faser über αf (a) = f (αa) bildet, also
α(a+U ) = αa+U . Schließlich ist klar, dass die Abbildung V ✲ V /U ,
a ✲ a + U , ebenso wie f : V ✲ ′
V , eine surjektive K-lineare
Abbildung mit Kern U ist.
Die vorstehende Überlegung zeigt, dass das Problem, die Menge der
affinen Unterräume des Typs a + U ⊂ V zu einem K-Vektorraum zu
machen, eine natürliche Lösung besitzt, wenn man über eine surjektive
lineare Abbildung f : V ✲ V ′ mit ker f = U verfügt. Eine solche
Abbildung kann man sich aber leicht verschaffen. Man wähle nämlich
gemäß 1.6/4 ein Komplement U ′ zu U , also einen linearen Unterraum
2.2 Quotientenvektorräume 85

U ′ ⊂ V mit V = U ⊕ U ′ . Dann lässt sich jedes a ∈ V auf eindeutige


Weise in der Form a = u + u′ mit u ∈ U und u′ ∈ U ′ schreiben. Indem
wir a jeweils den Summanden u′ zuordnen, erhalten wir wie gewünscht
eine surjektive K-lineare Abbildung p : V ✲ U ′ mit Kern U . Man
nennt p die Projektion von U ⊕ U ′ auf den zweiten Summanden.
Wir wollen im Folgenden jedoch den Quotientenvektorraum V /U
auf eine andere Art konstruieren. Die verwendete Methode hat den
Vorteil, dass sie nicht auf speziellen Eigenschaften von Vektorräumen
(Existenz eines Komplements zu einem linearen Unterraum) beruht,
sondern auch noch in anderen Situationen anwendbar ist.

Definition 3. Eine Relation auf einer Menge M besteht aus einer


Teilmenge R ⊂ M × M ; man schreibt a ∼ b für (a, b) ∈ R und
spricht von der Relation “ ∼ ”. Eine Relation “ ∼ ” auf M heißt eine
Äquivalenzrelation, wenn sie folgende Eigenschaften besitzt:
(i) Reflexivität: a ∼ a für alle a ∈ M .
(ii) Symmetrie: a ∼ b =⇒ b ∼ a.
(iii) Transitivität: a ∼ b, b ∼ c =⇒ a ∼ c.

Ist “ ∼ ” eine Äquivalenzrelation auf einer Menge M , so nennt man


zwei Elemente a, b ∈ M äquivalent, wenn für diese die Relation a ∼ b
gilt. Weiter bezeichnet man
⌈⌊a⌉⌋ = {b ∈ M ; b ∼ a}
als die Äquivalenzklasse des Elementes a in M . Um ein einfaches Bei-
spiel zu geben, betrachte man eine K-lineare Abbildung f : V ✲ V′
zwischen Vektorräumen und setze für a, b ∈ V
a ∼ b :⇐⇒ f (a) = f (b).
Es ist dann unmittelbar klar, dass f auf diese Weise eine Äquivalenzre-
lation auf V induziert und dass ⌈⌊a⌉⌋ = f −1 (f (a)) die Äquivalenzklasse
eines Elementes a ∈ V ist.
Im Falle einer Äquivalenzrelation “ ∼ ” auf einer Menge M heißt
jedes Element b einer Äquivalenzklasse ⌈⌊a⌉⌋ ein Repräsentant dieser
Klasse. Aufgrund von Definition 3 (i) ist ein Element a ∈ M stets
Repräsentant der Klasse ⌈⌊a⌉⌋. Äquivalenzklassen sind daher stets nicht-
leer. Wir wollen zeigen, dass zwei Elemente a, b ∈ M genau dann die-
selbe Äquivalenzklasse induzieren, dass also ⌈⌊a⌉⌋ = ⌈⌊b⌉⌋ gilt, wenn a, b
86 2. Lineare Abbildungen

zueinander äquivalent sind oder, alternativ, wenn sie beide zu einem


dritten Element c ∈ M äquivalent sind. Dies impliziert insbesondere,
dass die Äquivalenzrelation auf M eine Unterteilung von M in disjunk-
te Äquivalenzklassen induziert.

Satz 4. Es sei “ ∼ ” eine Äquivalenzrelation auf einer Menge M . Für


Elemente a, b ∈ M ist dann gleichbedeutend :
(i) a ∼ b
(ii) ⌈⌊a⌉⌋ = ⌈⌊b⌉⌋
(iii) ⌈⌊a⌉⌋ ∩ ⌈⌊b⌉⌋ =
6 ∅
Insbesondere ist M die disjunkte Vereinigung der zu “ ∼ ” gehöri-
gen Äquivalenzklassen.

Beweis. Gelte zunächst (i), also a ∼ b. Für c ∈ M mit c ∼ a folgt


aus a ∼ b bereits c ∼ b und somit ⌈⌊a⌉⌋ ⊂ ⌈⌊b⌉⌋. Die umgekehrte Inklu-
sion verifiziert man entsprechend, so dass sich insgesamt die Gleichung
⌈⌊a⌉⌋ = ⌈⌊b⌉⌋ in (ii) ergibt. Da Äquivalenzklassen stets nicht-leer sind, ist
weiter (iii) eine Konsequenz aus (ii). Ist schließlich Bedingung (iii) ge-
geben, so wähle man ein Element c ∈ ⌈⌊a⌉⌋ ∩ ⌈⌊b⌉⌋. Dann gilt c ∼ a, bzw.
a ∼ c aufgrund der Symmetrie, sowie c ∼ b und damit aufgrund der
Transitivität auch a ∼ b , d. h. (i). 

Definiert man nun M/∼ als Menge der Äquivalenzklassen in M , so


kann man die kanonische Abbildung

M ✲ M/∼, a ✲ ⌈⌊a⌉⌋,

betrachten, welche ein Element a ∈ M auf die zugehörige Äquiva-


lenzklasse ⌈⌊a⌉⌋ ⊂ M abbildet. Dabei ist ⌈⌊a⌉⌋ nach Satz 4 die eindeutig
bestimmte Äquivalenzklasse in M , die a enthält. Im Folgenden sollen
nun Äquivalenzrelationen auf Vektorräumen studiert werden.

Bemerkung 5. Es sei V ein K-Vektorraum und U ⊂ V ein linearer


Unterraum. Dann wird durch

a ∼ b :⇐⇒ a − b ∈ U

eine Äquivalenzrelation auf V erklärt, auch als Kongruenz modulo U


bezeichnet. Es gilt ⌈⌊a⌉⌋ = a + U für die Äquivalenzklasse ⌈⌊a⌉⌋ zu einem
2.2 Quotientenvektorräume 87

Element a ∈ V . Zwei Äquivalenzklassen ⌈⌊a⌉⌋ = a + U und ⌈⌊b⌉⌋ = b + U


stimmen genau dann überein, wenn a ∼ b, also a − b ∈ U gilt.

Beweis. Für alle a ∈ V gilt a−a = 0 ∈ U und damit a ∼ a; die Relation


ist also reflexiv. Als Nächstes zeigen wir die Symmetrie. Gelte a ∼ b,
d. h. a − b ∈ U . Dann folgt b − a = −(a − b) ∈ U , was aber b ∼ a
bedeutet. Schließlich überprüfen wir die Transitivität. Gelte a ∼ b und
b ∼ c, also a − b, b − c ∈ U . Dann ergibt sich

a − c = (a − b) + (b − c) ∈ U,

also a ∼ c.
Im Übrigen berechnet sich die Äquivalenzklasse ⌈⌊a⌉⌋ eines Vektors
a ∈ V zu

⌈⌊a⌉⌋ = {b ∈ V ; b ∼ a} = {b ∈ V ; b − a ∈ U } = a + U,

wie behauptet. Schließlich stimmen zwei Äquivalenzklassen ⌈⌊a⌉⌋ und ⌈⌊b⌉⌋


gemäß Bemerkung 5 genau dann überein, wenn a ∼ b, also a − b ∈ U
gilt. 

Für a ∈ V bezeichnet man die Äquivalenzklasse ⌈⌊a⌉⌋ = a+U genau-


er als die Restklasse von a modulo U oder auch als die Nebenklasse von
a bezüglich U . Zur Definition des Quotientenvektorraums V /U haben
wir auf der Menge dieser Restklassen eine Struktur als K-Vektorraum
zu definieren. Um dies zu bewerkstelligen, leiten wir einige Regeln für
das Rechnen mit Restklassen her, wobei wir aus Gründen der Über-
sichtlichkeit Restklassen a + U noch einmal in der Form von Äquiva-
lenzklassen ⌈⌊a⌉⌋ schreiben.

Bemerkung 6. Auf einem K-Vektorraum V betrachte man die zu ei-


nem linearen Unterraum U ⊂ V gehörige Äquivalenzrelation der Kon-
gruenz modulo U . Es gelte ⌈⌊a⌉⌋ = ⌈⌊a′ ⌉⌋ und ⌈⌊b⌉⌋ = ⌈⌊b′ ⌉⌋ für Vektoren
a, a′ , b, b′ ∈ V . Dann folgt ⌊⌈a + b⌉⌋ = ⌈⌊a′ + b′ ⌉⌋ sowie ⌈⌊αa⌉⌋ = ⌈⌊αa′ ⌉⌋ für
α ∈ K.

Beweis. Aus ⌈⌊a⌉⌋ = ⌈⌊a′ ⌉⌋, ⌈⌊b⌉⌋ = ⌈⌊b′ ⌉⌋ ergibt sich a − a′ , b − b′ ∈ U und
damit (a + b) − (a′ + b′ ) = (a − a′ ) + (b − b′ ) ∈ U , also ⌈⌊a + b⌉⌋ = ⌈⌊a′ + b′ ⌉⌋.
Weiter folgt αa − αa′ = α(a − a′ ) ∈ U , also ⌈⌊αa⌉⌋ = ⌈⌊αa′ ⌉⌋. 
88 2. Lineare Abbildungen

Die Bildung der Äquivalenzklassen ⌈⌊a⌉⌋ zu Vektoren a ∈ V ist also


mit der Vektorraumstruktur von V verträglich. Bezeichnen wir mit
V /U die Menge der Äquivalenzklassen ⌈⌊a⌉⌋ = a + U , wobei a in V
variiert, so kann man unter Benutzung von Bemerkung 6 eine Addition

V /U × V /U ✲ V /U, ⌈⌊a⌉⌋, ⌈⌊b⌉⌋ ✲⌈
⌊a + b⌉⌋,

sowie eine skalare Multiplikation



K × V /U ✲ V /U, α, ⌈⌊a⌉⌋ ✲ ⌈⌊αa⌉⌋,

auf V /U definieren, wobei in beiden Fällen nachzuprüfen ist, dass die


Verknüpfung wohldefiniert ist. Genau genommen besagt etwa die Ab-
bildungsvorschrift im Falle der Addition: Man betrachte zwei Äquiva-
lenzklassen A, B ⊂ V , wähle Repräsentanten a ∈ A, b ∈ B, so dass
man A = ⌈⌊a⌉⌋, B = ⌈⌊b⌉⌋ schreiben kann, und bilde dann das Paar (A, B)
auf die Äquivalenzklasse ⌈⌊a + b⌉⌋ ab. Man muss dabei wissen, dass das
Resultat ⌈⌊a + b⌉⌋ nicht von der Wahl der Repräsentanten a ∈ A, b ∈ B
abhängt; Letzteres war aber in Bemerkung 6 gezeigt worden. Entspre-
chend schließt man im Falle der skalaren Multiplikation.
Man prüft nun leicht unter Benutzung der Vektorraumstruktur von
V nach, dass V /U mit den genannten Verknüpfungen ein K-Vektor-
raum ist und dass die kanonische Abbildung

π: V ✲ V /U, a ✲ ⌈⌊a⌉⌋,

K-linear und damit ein Epimorphismus ist. Somit können wir formu-
lieren:

Satz 7. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unter-


raum. Dann ist
V /U = {a + U ; a ∈ V },
also die Menge der Restklassen modulo U , ein K-Vektorraum unter
der Addition

V /U × V /U ✲ V /U, (a + U, b + U ) ✲ (a + b) + U,

sowie der skalaren Multiplikation

K × V /U ✲ V /U, (α, a + U ) ✲ αa + U.
2.2 Quotientenvektorräume 89

Die kanonische Abbildung π : V ✲ V /U ist ein Epimorphismus, des-


sen Fasern gerade die Restklassen modulo U in V sind. Insbesondere
gilt ker π = U und damit

dimK V = dimK U + dimK (V /U )

aufgrund der Dimensionsformel 2.1/10.

Man nennt V /U den Quotienten- oder Restklassenvektorraum von


V modulo U . Die Konstruktion dieses Vektorraums zeigt insbesonde-
re, dass es zu einem linearen Unterraum U ⊂ V stets einen Epimor-
phismus p : V ✲ V ′ mit ker p = U gibt. Umgekehrt hatten wir zu
Beginn gesehen, dass jede solche Abbildung benutzt werden kann, um
die Menge V /U aller Restklassen modulo U in V mit der Struktur ei-
nes K-Vektorraums zu versehen, derart dass man auf natürliche Weise
einen Epimorphismus V ✲ V /U mit Kern U erhält. Wir wollen
diesen Sachverhalt hier weiter präzisieren, indem wir den Homomor-
phiesatz beweisen, welcher die sogenannte universelle Abbildungseigen-
schaft für Quotientenvektorräume beinhaltet.

Satz 8 (Homomorphiesatz). Es sei U ein linearer Unterraum eines


K-Vek tor raums V und π : V ✲ V der kanonische Epimorphismus
auf den Restklassenvektorraum V = V /U oder, allgemeiner, ein Epi-
morphismus mit ker π = U . Dann existiert zu jeder K-linearen Ab-
bildung f : V ✲ V ′ mit U ⊂ ker f genau eine K-lineare Abbildung
f: V ✲ V ′ , so dass das Diagramm

V
f
✲ V′
❅ ✒
π❅ f


V
kommutiert, d. h. so dass f = f ◦ π gilt. Weiter ist f genau dann in-
jektiv, wenn U = ker f gilt und genau dann surjektiv, wenn f surjektiv
ist.

Beweis. Zunächst zeigen wir die Eindeutigkeitsaussage und betrachten


eine K-lineare Abbildung f : V ✲ V ′ mit f = f ◦ π. Ist dann a ∈ V
−1
ein Vektor und a ∈ π (a) ein (beliebiges) Urbild, so folgt π(a) = a
90 2. Lineare Abbildungen

und daher f (a) = f (π(a)) = f (a). Damit ist f (a) eindeutig durch a
bestimmt.
Zum Nachweis der Existenz einer K-linearen Abbildung f mit den
geforderten Eigenschaften betrachte man einen Vektor a ∈ V sowie
zwei Urbilder a, b ∈ π −1 (a). Es folgt dann
a − b ∈ ker π = U ⊂ ker f
und damit f (a) = f (b). Der Wert f (a) ist also unabhängig von der spe-
ziellen Wahl eines Urbildes a ∈ π −1 (a), und wir können eine Abbildung
f: V ✲ V ′ durch a ✲ f (a) erklären, wobei wir mit a jeweils (ir-
gend)ein π-Urbild zu a meinen. Insbesondere gilt dann f (a) = f (π(a))
für a ∈ V , d. h. die geforderte Beziehung f = f ◦ π ist erfüllt. Schließ-
lich ist f auch K-linear. Zu a, b ∈ V betrachte man nämlich π-Urbilder
a, b ∈ V . Dann ist a + b ein π-Urbild zu a + b sowie αa für α ∈ K ein
π-Urbild zu αa, und es gilt
f (a + b) = f (a + b) = f (a) + f (b) = f (a) + f (b),
f (αa) = f (αa) = αf (a) = αf (a).
Es bleiben noch die zusätzlich behaupteten Eigenschaften von
f nachzuweisen. Sei zunächst f injektiv. Für a ∈ ker f folgt dann
f (π(a)) = f (a) = 0, also π(a) = 0 bzw. a ∈ ker π aufgrund der In-
jektivität von f . Dies bedeutet aber ker f ⊂ ker π = U und, da die
entgegengesetzte Inklusion ohnehin gilt, bereits U = ker f . Ist umge-
kehrt diese Gleichung gegeben, so betrachte man ein Element a ∈ ker f
sowie ein Urbild a ∈ π −1 (a). Man hat dann f (a) = f (π(a)) = f (a) = 0
und damit a ∈ ker f = U . Wegen U = ker π ergibt sich dann aber
a = π(a) = 0, also insgesamt ker f = 0 und damit die Injektivität
von f .
Ist f surjektiv, so ist auch f als Komposition der surjektiven Ab-
bildungen π und f surjektiv. Umgekehrt folgt aus der Surjektivität von
f = f ◦ π, dass auch f surjektiv sein muss. 

Wir wollen einen häufig verwendeten Fall des Homomorphiesatzes


gesondert formulieren:

Korollar 9. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwi-


schen Vektorräumen. Dann induziert f einen kanonischen Isomor-
2.2 Quotientenvektorräume 91

phismus V / ker f ∼✲ im f , also einen kanonischen Isomorphismus


V / ker f ∼✲ V ′ , falls f surjektiv ist.

Beweis. Gemäß Satz 8 existiert ein kommutatives Diagramm K-linearer


Abbildungen
V
f
✲ V′
❅ ✒
π❅ f


V / ker f ,
wobei f wegen ker π = ker f injektiv ist. Es definiert also f einen
Isomorphismus von V / ker f auf den linearen Unterraum im f ⊂ V ′ ,
und letzterer stimmt überein mit im f . 

Wir wollen schließlich noch die Ergebnisse dieses Abschnitts zur


Charakterisierung affiner Unterräume von Vektorräumen verwenden.
Dabei wollen wir zunächst bemerken, dass jeder nicht-leere affine Un-
terraum eines K-Vektorraums V in eindeutiger Weise einen zugehöri-
gen linearen Unterraum bestimmt.

Bemerkung 10. Es sei V ein K-Vektorraum und A ⊂ V ein nicht-


leerer affiner Unterraum, d. h. eine Teilmenge der Form a + U mit
einem Vektor a ∈ V und einem linearen Unterraum U ⊂ V . Dann ist
U eindeutig durch A bestimmt.

Beweis. Gilt etwa a + U = A = a′ + U ′ für Elemente a, a′ ∈ V und


lineare Unterräume U, U ′ ⊂ V , so folgt

U = (a′ − a) + U ′ .

Wegen 0 ∈ U bedeutet dies, dass a′ − a ein inverses Element in U ′


besitzt und daher selbst zu U ′ gehört. Dies aber impliziert U = U ′ , wie
behauptet. 

Insbesondere kann man daher nicht-leeren affinen Unterräumen ei-


nes Vektorraums V eine Dimension zuordnen, nämlich die Dimension
des zugehörigen linearen Unterraums von V . Beispielsweise nennt man
einen affinen Unterraum von V der Dimension 1 eine Gerade, der Di-
92 2. Lineare Abbildungen

mension 2 eine Ebene oder der Dimension n − 1 eine Hyperebene, wenn


n = dimK V < ∞.

Satz 11. Es sei V ein K-Vektorraum und A ⊂ V eine Teilmenge.


Dann ist äquivalent:
(i) A ist ein affiner Unterraum von V , d. h. A ist leer, oder es
existieren ein Vektor a ∈ V sowie ein linearer Unterraum U ⊂ V mit
A = a + U.
(ii) Es existiert eine K-lineare Abbildung f : V ✲ V ′ , so dass A
eine Faser von f ist, d. h. es existiert ein a′ ∈ V ′ mit A = f −1 (a′ ).
(iii) Für jeweils endlich viele
Pr Elemente a0 , .P
. . , ar ∈ A sowie Koeffi-
zienten α0 , . . . , αr ∈ K mit i=0 αi = 1 folgt ri=0 αi ai ∈ A.

Beweis. Der Fall A = ∅ ist trivial, da sich die leere Menge stets als Faser
einer linearen Abbildung f : V ✲ V ′ realisieren lässt. Man betrachte

etwa V := V × K als K-Vektorraum mit komponentenweiser Addition
und skalarer Multiplikation. Dann ist
f: V ✲ V ′, v ✲ (v, 0),
eine K-lineare Abbildung mit f −1 (0, 1) = ∅.
Wir dürfen also im Folgenden A 6= ∅ voraussetzen. Sei zunächst
Bedingung (i) gegeben, also A ein affiner Unterraum von V , etwa
A = a + U . Betrachtet man dann den kanonischen Epimorphismus
π: V ✲ V /U , so gilt A = π −1 (π(a)) nach Bemerkung 2, d. h. A ist
Faser einer K-linearen Abbildung und erfüllt damit Bedingung (ii).
Sei nun (ii) gegeben, also A = f −1 (a′ ) mit einem Element a′ ∈ V ′ ,
und seien endlich viele Elemente
P a0 , . . . , ar ∈ A fixiert. Für Koeffizien-
ten α0 , . . . , αr ∈ K mit ri=0 αi = 1 gilt dann
Xr  Xr X r 
f αi ai = αi f (ai ) = αi · a′ = a′
i=0 i=0 i=0
Pr
und damit i=0 αi ai ∈ f −1 (a′ ) = A. Bedingung (iii) ist also erfüllt.
Sei schließlich (iii) gegeben. Wir wählen dann ein Element a0 ∈ A
aus und behaupten, dass ∆A = {a−a0 ; a ∈ A} ein linearer Unterraum
von V ist. In der Tat, wir haben 0 ∈ ∆A und damit ∆A 6= ∅. Sind
weiter a, b ∈ ∆A, also a = a1 − a0 , b = b1 − a0 mit a1 , b1 ∈ A, so folgt
a1 + (−1)a0 + b1 ∈ A gemäß (iii) und damit
2.2 Quotientenvektorräume 93

a + b = (a1 − a0 + b1 ) − a0 ∈ ∆A.
Für α ∈ K gilt weiter αa1 + (1 − α)a0 ∈ A, ebenfalls unter Benutzung
von (iii), also

αa = αa1 + (1 − α)a0 − a0 ∈ ∆A.
Folglich ist ∆A ein linearer Unterraum in V , und es zeigt sich, dass
A = a0 + ∆A ein affiner Unterraum von V ist. 

Wir wollen noch zeigen, wie man affine Unterräume von Vektor-
räumen in konkreter Weise erzeugen kann. Hierzu betrachte man einen
K-Vektorraum V sowie Vektoren a0 , . . . , ar ∈ V , r ≥ 0. Dann existiert
ein kleinster affiner Unterraum A ⊂ V , der diese Vektoren enthält,
nämlich
 X r 
A = a0 + αi (ai − a0 ) ; α1 , . . . , αr ∈ K .
i=1
Um dies einzusehen, stellen wir zunächst fest, dass A ein affiner Un-
terraum in V ist, der die Vektoren a0 , . . . , ar enthält; der zugehörige
lineare Unterraum U ⊂ V mit A = a0 +U wird von Pden Vektoren ai −a0 ,
r
i = 1, . . . , r, erzeugt.
P Da man eine PSumme a0 + i=1 αi (ai − a0 ) auch
in der Form (1 − ri=1 αi ) · a0 + ri=1 αi ai schreiben kann, erhält man
weiter
Xr r
X 
A= αi ai ; α0 , . . . , αr ∈ K mit αi = 1 .
i=0 i=0

Hieraus folgt unter Benutzung von Satz 11 (iii), dass A wie behaup-
tet der kleinste affine Unterraum von V ist, der a0 , . . . , ar enthält.
Beispielsweise kann man die durch zwei verschiedene Punkte a, b ei-
nes K-Vektorraums bestimmte affine Gerade betrachten. In gewohnter
Weise ergibt sich
 
G = a + α(b − a) ; α ∈ K = αa + βb ; α, β ∈ K mit α + β = 1 .

Aufgaben
1. Man betrachte folgende Mengen M mit der jeweils angegebenen Relation
∼ und entscheide, ob es sich um eine Äquivalenzrelation handelt. Falls
möglich gebe man die Äquivalenzklassen an.
(i) M = R, a ∼ b :⇐⇒ |a| = |b|
94 2. Lineare Abbildungen

(ii) M = R, a ∼ b :⇐⇒ |a − b| < 1


(iii) M = Z, a ∼ b :⇐⇒ a − b wird von p geteilt (d. h. es existiert
eine Zerlegung a − b = c · p mit einem c ∈ Z), wobei p eine fest
vorgegebene ganze Zahl ist.
2. Es seien V, V ′ Vektorräume über einem Körper K und A ⊂ V sowie
A′ ⊂ V ′ affine Unterräume. Man zeige:
(i) Für eine lineare Abbildung f : V ✲ V ′ ist f (A) ein affiner Un-
′ −1 ′
terraum von V und f (A ) ein affiner Unterraum von V .
(ii) Für V = V ′ sind A + A′ = {a + a′ ; a ∈ A, a′ ∈ A′ } und A ∩ A′
affine Unterräume von V .
(iii) Es ist A × A′ ein affiner Unterraum von V × V ′ , wobei man V × V ′
mit komponentenweiser Addition und skalarer Multiplikation als
K-Vektorraum auffasse.
3. Seien A, A′ affine Unterräume eines K-Vektorraums V , wobei 1 + 1 6= 0
in K gelte. Man zeige, A ∪ A′ ist genau dann ein affiner Unterraum von
V , wenn A ⊂ A′ oder A′ ⊂ A gilt.
4. Es sei V ein K-Vektorraum und A ⊂ V eine Teilmenge. Man zeige, dass
es eine kleinste Teilmenge A′ ⊂ V mit A ⊂ A′ gibt, so dass die durch

a ∼ b :⇐⇒ a − b ∈ A′

definierte Relation eine Äquivalenzrelation auf V definiert. Man bestim-


me A′ unter der Voraussetzung, dass A abgeschlossen unter der skalaren
Multiplikation ist, dass also aus α ∈ K, a ∈ A stets αa ∈ A folgt.
(AT 398)
5. Für eine Matrix (λij )i=1,...,m mit Koeffizienten aus einem Körper K und
j=1,...,n
für Elemente δ1 , . . . , δm ∈ K zeige man, dass durch
 Xn 
A = (α1 , . . . , αn ) ∈ K n ; λij αj = δi , i = 1, . . . , m
j=1

ein affiner Unterraum im K n erklärt wird. Ist jeder affine Unterraum des
K n von dieser Bauart? (Hinweis: Man vermeide “unnötiges Rechnen”,
indem man geeignete lineare Abbildungen betrachtet. Man beginne mit
dem Fall m = 1.)
6. Für Vektoren a0 , . . . , ar eines K-Vektorraums V betrachte man den von
den ai erzeugten affinen Unterraum A ⊂ V sowie den von den ai erzeug-
ten linearen Unterraum U ⊂ V . Man zeige A ⊂ U und weiter:
2.2 Quotientenvektorräume 95
(
dimK U falls 0 ∈ A
dimK A =
dimK U − 1 falls 0 ∈
6 A

7. Eine Abbildung f : V ✲ V ′ zwischen K-Vektorräumen heiße affin,


wenn es ein Element x0 ∈ V ′ gibt, so dass die Abbildung

V ✲ V ′, a ✲ f (a) − x0 ,

K-linear ist. Man zeige: Eine Abbildung f : V ✲ V ′ ist genau dann af-
fin, wenn für jeweils Pendlich viele Vektoren a0 , . . . , ar ∈ V und Elemente
α0 , . . . , αr ∈ K mit ri=0 αi = 1 stets
X
r  r
X
f αi ai = αi f (ai )
i=0 i=0

gilt.
8. Erster Isomorphiesatz : Für zwei lineare Unterräume U, U ′ eines K-Vek-
torraums V betrachte man die kanonischen Abbildungen U ⊂ ✲ U + U ′
sowie U + U ′ ✲ (U + U ′ )/U ′ . Man zeige, dass deren Komposition
U ∩ U ′ als Kern besitzt und einen Isomorphismus

U/(U ∩ U ′ ) ∼✲ (U + U ′ )/U ′

induziert. (AT 400)


9. Zweiter Isomorphiesatz : Es seien V ein K-Vektorraum und U ⊂ U ′ ⊂ V
lineare Unterräume. Man zeige:
(i) Die kanonische Abbildung U ′ ⊂ ✲ V ✲ V /U besitzt U als Kern
und induziert einen Monomorphismus U ′ /U ⊂ ✲ V /U . Folglich
lässt sich U ′ /U mit seinem Bild in V /U identifizieren und somit
als linearer Unterraum von V /U auffassen.
(ii) Die Projektion V ✲ V /U ′ faktorisiert über V /U , d. h. lässt
π f
sich als Komposition V ✲ V /U ✲ V /U ′ schreiben, mit einer
linearen Abbildung f und der kanonischen Projektion π.
(iii) f besitzt U ′ /U als Kern und induziert einen Isomorphismus

(V /U )/(U ′ /U ) ∼✲ V /U ′ .

10. Für lineare Unterräume U1 , U2 eines K-Vektorraums V betrachte man


die kanonischen Projektionen πi : V ✲ V /Ui , i = 1, 2, sowie die Ab-
bildung
96 2. Lineare Abbildungen


(π1 , π2 ) : V ✲ V /U1 × V /U2 , x ✲ π1 (x), π2 (x) .

Man zeige:
(i) (π1 , π2 ) ist K-linear, wenn man V /U1 × V /U2 mit komponen-
tenweiser Addition und skalarer Multiplikation als K-Vektorraum
auffasst.
(ii) (π1 , π2 ) ist genau dann injektiv, wenn U1 ∩ U2 = 0 gilt.
(iii) (π1 , π2 ) ist genau dann surjektiv, wenn V = U1 + U2 gilt.
(iv) (π1 , π2 ) ist genau dann bijektiv, wenn V = U1 ⊕ U2 gilt.
11. Man konstruiere ein Beispiel eines K-Vektorraums V mit einem linearen
Unterraum 0 ( U ⊂ V , so dass es einen Isomorphismus V /U ∼✲ V
gibt. Gibt es ein solches Beispiel im Falle dimK V < ∞? (AT 401)
f g h
12. Es seien V1 ✲ V2 ✲ V3 ✲ V4 drei K-lineare Abbildungen zwi-
schen endlich-dimensionalen K-Vektorräumen. Man zeige:

rg(g ◦ f ) + rg(h ◦ g) ≤ rg(h ◦ g ◦ f ) + rg g

2.3 Der Dualraum

Für zwei K-lineare Abbildungen f, g : V ✲ V ′ zwischen K-Vektor-


räumen hatten wir in Abschnitt 2.1 deren Summe durch

f + g: V ✲ V ′, a ✲ f (a) + g(a),

und für eine Konstante α ∈ K das Produkt αf durch



αf : V ✲ V ′, a ✲ α f (a) ,

definiert. Man rechnet ohne Schwierigkeiten nach, dass f + g und αf


wieder K-linear sind und dass die K-linearen Abbildungen V ✲ V′
mit diesen Verknüpfungen einen K-Vektorraum bilden; dieser wird mit
HomK (V, V ′ ) bezeichnet. Speziell werden wir in diesem Abschnitt für
V ′ als K-Vektorraum den Körper K selbst betrachten. K-lineare Ab-
bildungen V ✲ K werden auch als Linearformen bezeichnet.

Definition 1. Es sei V ein K-Vektorraum. Dann heißt der K-Vek-


torraum HomK (V, K) aller Linearformen auf V der Dualraum zu V .
Dieser wird mit V ∗ bezeichnet.
2.3 Der Dualraum 97

Beispielsweise ist für n ∈ N − {0} die Abbildung

Kn ✲ K, (α1 , . . . , αn ) ✲ α1 ,

eine Linearform auf K n . Betrachten wir allgemeiner einen K-Vektor-


raum V mit Basis a1 , . . . , an , so können wir aus 2.1/7 ablesen, dass es
zu gegebenen Elementen λ1 , . . . , λn ∈ K stets eine eindeutig bestimmte
Linearform ϕ ∈ V ∗ mit ϕ(ai ) = λi , i = 1, . . . , n, gibt. Die Linearfor-
men auf V korrespondieren folglich in bijektiver Weise zu den n-Tupeln
von Konstanten aus K, wobei diese Zuordnung genauer einen Isomor-
phismus V ∗ ∼✲ K n darstellt. Legen wir etwa im Falle V = K n die
kanonische Basis e1 , . . . , en zugrunde, so werden dementsprechend die
Linearformen auf K n gerade durch die Abbildungen
n
X
K n ✲ K, (α1 , . . . , αn ) ✲ λ i αi ,
i=1

zu n-Tupeln (λ1 , . . . , λn ) ∈ K n gegeben. Insbesondere ist der Dualraum


des Nullraums wieder der Nullraum.

Satz 2. Es sei f : U ✲ V eine K-lineare Abbildung zwischen Vek-


torräumen. Dann ist die Abbildung

f∗ : V ∗ ✲ U ∗, ϕ ✲ ϕ ◦ f,

K-linear ; man nennt f ∗ die duale Abbildung zu f . Ist g : V ✲W


eine weitere K-lineare Abbildung zwischen Vektorräumen, so gilt die
Verträglichkeitsbeziehung (g ◦ f )∗ = f ∗ ◦ g ∗ .

Man kann sich die Definition des Bildes f ∗ (ϕ) = ϕ ◦ f anhand des
folgenden kommutativen Diagramms verdeutlichen:
f
U ✲ V

ϕ
f ∗ (ϕ) ✲ ❄
K
Es wird die Linearform ϕ sozusagen unter der Abbildung f ∗ zu einer
Linearform auf U zurückgezogen, indem man mit f komponiert.
98 2. Lineare Abbildungen

Nun zum Beweis von Satz 2. Für ϕ, ψ ∈ V ∗ sowie für α ∈ K ergibt


sich in naheliegender Weise

f ∗ (ϕ + ψ) = (ϕ + ψ) ◦ f = (ϕ ◦ f ) + (ψ ◦ f ) = f ∗ (ϕ) + f ∗ (ψ),
f ∗ (αϕ) = (αϕ) ◦ f = α(ϕ ◦ f ) = αf ∗ (ϕ)

und damit die K-Linearität von f ∗ . Um die Formel für die Komposition
dualer Abbildungen nachzuweisen, betrachte man für eine Linearform
ϕ ∈ W ∗ das kommutative Diagramm:
f g
U ✲ V ✲ W

g ∗ (ϕ)
ϕ
(g◦f )∗ (ϕ)
✲ ❄
✲ K
Es ergibt sich

(g ◦ f )∗ (ϕ) = ϕ ◦ (g ◦ f ) = (ϕ ◦ g) ◦ f
 
= g ∗ (ϕ) ◦ f = f ∗ g ∗ (ϕ) = (f ∗ ◦ g ∗ )(ϕ)

und damit die gewünschte Relation (g ◦ f )∗ = f ∗ ◦ g ∗ , indem man ϕ


in W ∗ variieren lässt. 

Im Folgenden wollen wir einige Zusammenhänge zwischen linearen


Abbildungen und den zugehörigen dualen Abbildungen untersuchen.
Wir schließen dabei auch den Fall unendlich-dimensionaler Vektorräu-
me mit ein, beschränken uns bei den Beweisen aus technischen Grün-
den aber meist auf den Fall endlich-dimensionaler Vektorräume.

Satz 3. Es sei f : V ✲ W eine K-lineare Abbildung zwischen Vek-


torräumen sowie f : W ∗
∗ ✲ V ∗ die zugehörige duale Abbildung.
(i) Ist f ein Monomorphismus, so ist f ∗ ein Epimorphismus.
(ii) Ist f ein Epimorphismus, so ist f ∗ ein Monomorphismus.

Beweis. Wir beginnen mit Aussage (i). Sei also f injektiv. Um zu se-
hen, dass f ∗ surjektiv ist, zeigen wir, dass jede Linearform ψ ∈ V ∗
ein Urbild ϕ ∈ W ∗ besitzt, dass also zu ψ eine Linearform ϕ ∈ W ∗
2.3 Der Dualraum 99

mit ψ = ϕ ◦ f existiert. Hierzu schreiben wir f als Komposition zwei-


er K-linearer Abbildungen, nämlich der von f induzierten Abbildung
f1 : V ✲ im f , sowie der Inklusionsabbildung f2 : im f ⊂ ✲ W . Da-
bei ist f1 aufgrund der Injektivität von f ein Isomorphismus. Sodann
betrachte man das Diagramm
f1 f2
V ✲ im f ⊂ ✲ W

ψ′ ϕ
ψ

❄✛

K
wobei die Linearformen ψ ′ : im f ✲ K und ϕ : W ✲ K noch zu
konstruieren sind, und zwar so, dass das Diagramm kommutiert. Da
f1 ein Isomorphismus ist, können wir ψ ′ = ψ ◦ f1−1 setzen. Dann bleibt
noch das Problem, die Linearform ψ ′ : im f ✲ K zu einer Linearform
ϕ: W ✲ K fortzusetzen.
Um dies zu bewerkstelligen, wählen wir gemäß 1.6/4 ein Komple-
ment W ′ zu im f in W , also einen Untervektorraum W ′ ⊂ W mit
W = (im f ) ⊕ W ′ . Jedes w ∈ W hat dann eine eindeutige Zerle-
gung w = w1 ⊕ w2 mit w1 ∈ im f und w2 ∈ W ′ . Setzt man je-
weils ϕ(w) = ψ ′ (w1 ), so erhält man wie gewünscht eine Linearform
ϕ: W ✲ K, die ψ ′ fortsetzt und damit f ∗ (ϕ) = ψ erfüllt.
Zum Nachweis von (ii) setze man f : V ✲ W als surjektiv voraus.
∗ ∗ ∗
Weiter seien ϕ, ϕ ∈ W mit f (ϕ) = f (ϕ ), also mit ϕ ◦ f = ϕ′ ◦ f .
′ ′

Ist dann w ∈ W beliebig gewählt und v ∈ V ein Urbild unter f , so gilt


 
ϕ(w) = ϕ f (v) = (ϕ ◦ f )(v) = (ϕ′ ◦ f )(v) = ϕ′ f (v) = ϕ′ (w).

Hieraus folgt ϕ = ϕ′ , wenn man w in W variieren lässt. 

Die Aussage von Satz 3 lässt sich mittels sogenannter exakter Se-
quenzen allgemeiner formulieren. Unter einer Sequenz wollen wir eine
Kette
fn−2
... ✲ Vn−1 fn−1
✲ Vn fn✲ Vn+1 fn+1 ✲ ...

von K-linearen Abbildungen verstehen, wobei der Index n einen end-


lichen oder unendlichen Abschnitt in Z durchlaufe. Man sagt, dass
die Sequenz bei Vn die Eigenschaft eines Komplexes besitzt, wenn
100 2. Lineare Abbildungen

fn ◦ fn−1 = 0 oder, äquivalent hierzu, im fn−1 ⊂ ker fn gilt. Weiter


heißt die Sequenz exakt bei Vn , wenn sogar im fn−1 = ker fn gilt. Er-
füllt die Sequenz die Komplex-Eigenschaft an allen Stellen Vn (natür-
lich außer bei solchen Vn , die die Sequenz möglicherweise terminieren),
so spricht man von einem Komplex. Entsprechend heißt die Sequenz
exakt, wenn sie an allen Stellen exakt ist. Beispielsweise ist für eine
K-lineare Abbildung f : V ′ ✲ V die Sequenz

f
0 ✲ V′ ✲ V

genau dann exakt, wenn f injektiv ist; dabei ist 0 der Nullvektorraum
sowie 0 ✲ V ′ (als einzig mögliche K-lineare Abbildung von 0 nach
V ′ ) die Nullabbildung. Entsprechend ist die Sequenz
f
V′ ✲ V ✲ 0

genau dann exakt, wenn f surjektiv ist; auch hierbei ist V ✲ 0


(zwangsläufig) die Nullabbildung. Exakte Sequenzen des Typs
f g
0 ✲ V′ ✲ V ✲ V ′′ ✲ 0

werden auch als kurze exakte Sequenzen bezeichnet. Die Exaktheit ei-
ner solchen Sequenz ist äquivalent zu den folgenden Bedingungen:
(1) f ist injektiv,
(2) im f = ker g,
(3) g ist surjektiv.
Bei einer kurzen exakten Sequenz können wir daher V ′ unter f als
Untervektorraum von V auffassen, und es folgt mit dem Homomorphie-
satz 2.2/9, dass g einen kanonischen Isomorphismus V /V ′ ∼✲ V ′′
induziert. Umgekehrt kann man zu jedem Untervektorraum U ⊂ V in
kanonischer Weise die exakte Sequenz

0 ✲ U ✲ V ✲ V /U ✲ 0

betrachten. Ein weiteres Beispiel einer kurzen exakten Sequenz wird


für K-Vektorräume V1 und V2 und deren (konstruierte) direkte Summe
V1 ⊕ V2 durch die Abbildungen
2.3 Der Dualraum 101

0 ✲ V1 ✲ V1 ⊕ V2 ✲ V2 ✲ 0

gegeben, wobei V1 ✲ V1 ⊕V2 , v1 ✲ (v1 , 0), die kanonische Inklusion


und V1 ⊕ V2 ✲ V2 , (v1 , v2 ) ✲ v2 , die kanonische Projektion sei.

Satz 4. Es sei
fn−1 fn
... ✲ Vn−1 ✲ Vn ✲ Vn+1 ✲ ...

eine exakte Sequenz von K-Vektorräumen. Dann ist auch die zugehö-
rige duale Sequenz
fn−1∗ ∗
... ✛ ∗ ✛
Vn−1
f ∗ ✛
Vn∗ ✛ n Vn+1 ...

exakt.

Formulieren wir Satz 3 im Sinne exakter Sequenzen um, so sieht


man, dass für eine exakte Sequenz 0 ✲ U ✲ V auch die zugehörige
duale Sequenz V ∗ ✲ U∗ ✲ 0 exakt ist; vgl. Satz 3 (i). Entspre-
chend besagt Satz 3 (ii), dass für eine exakte Sequenz U ✲ V ✲0
die zugehörige duale Sequenz 0 ✲ V ∗ ✲ U ∗ exakt ist. Satz 4 ist
daher eine Verallgemeinerung von Satz 3.

Beweis zu Satz 4. Es genügt zu zeigen, dass für eine exakte Sequenz


f g
U ✲ V ✲ W

die zugehörige duale Sequenz


g∗ f∗
W∗ ✲ V∗ ✲ U∗

exakt ist. Zunächst folgt aus g ◦ f = 0 für beliebiges ϕ ∈ W ∗ die


Beziehung (f ∗ ◦ g ∗ )(ϕ) = ϕ ◦ g ◦ f = 0, d. h. es gilt f ∗ ◦ g ∗ = 0
und damit im g ∗ ⊂ ker f ∗ . Um auch die umgekehrte Inklusion zeigen
zu können, betrachte man ein Element ϕ ∈ ker f ∗ , also eine Linear-
form ϕ : V ✲ K mit ϕ ◦ f = 0. Dann haben wir ϕ(im f ) = 0 und
wegen der Exaktheit von U ✲V ✲ W auch ϕ(ker g) = 0; Letz-
teres bedeutet ker g ⊂ ker ϕ. Um nun ϕ ∈ im g ∗ zu zeigen, haben wir
eine Linearform ψ ∈ W ∗ mit ϕ = ψ ◦ g zu konstruieren. Hierzu zer-
legen wir g : V ✲ W ähnlich wie im Beweis zu Satz 3 in die von g
102 2. Lineare Abbildungen

induzierte surjektive Abbildung g1 : V ✲ im g sowie die Inklusion


g2 : im g ⊂ ✲ W . Aufgrund des Homomorphiesatzes 2.2/8 existiert
dann eine Linearform ϕ′ : im g ✲ K mit ϕ = ϕ′ ◦ g1 . Weiter lässt
sich ϕ′ , wie im Beweis zu Satz 3 gezeigt oder unter Benutzung von
Satz 3 (i), zu einer Linearform ψ : W ✲ K ausdehnen, d. h. mit

ψ ◦ g2 = ϕ . Dann gilt
g ∗ (ψ) = ψ ◦ g = ψ ◦ g ◦ g = ϕ′ ◦ g = ϕ,
2 1 1

also ist ψ ein Urbild zu ϕ unter g ∗ . Hieraus folgt ker f ∗ ⊂ im g ∗ bzw.


ker f ∗ = im g ∗ , so dass sich die Sequenz W ∗ ✲ V∗ ✲ U ∗ als
exakt erweist. 

Als Nächstes wollen wir für endlich-dimensionale K-Vektorräume


und ihre Dualräume Basen zueinander in Beziehung setzen. Insbeson-
dere wollen wir zeigen, dass ein Vektorraum und sein Dualraum diesel-
be Dimension besitzen. Wir erinnern dabei nochmals an das Kronecker-
Symbol δij , welches für Indizes i, j aus einer vorgegebenen Menge er-
klärt ist. Und zwar gilt δij = 1 für i = j und δij = 0 sonst.

Satz 5. Es sei V ein K-Vektorraum mit Basis a1 , . . . , an . Erklärt man


dann Linearformen ϕ1 , . . . , ϕn ∈ V ∗ gemäß 2.1/7 durch ϕi (aj ) = δij ,
so bilden diese eine Basis von V ∗ , und zwar die sogenannte duale Basis
zu a1 , . . . , an .

Beweis. Wir überprüfen zunächst, dass ϕ1 , P


. . . , ϕn linear unabhängig
sind. Hierzu betrachte man eine Gleichung ni=1 αi ϕi = 0 mit Koeffi-
zienten αi ∈ K. Einsetzen von aj liefert
n
X
αj = αi ϕi (aj ) = 0, j = 1, . . . , n,
i=1

d. h. ϕ1 , . . . , ϕn sind linear unabhängig. Ist andererseits ϕ ∈ V ∗ gege-


ben, so gilt
n
X
ϕ(aj ) = ϕ(ai )ϕi (aj ), j = 1, . . . , n,
i=1
Pn
was ϕ = i=1 ϕ(ai )ϕi gemäß 2.1/7 impliziert. ϕ1 , . . . , ϕn erzeugen also
V ∗ und bilden damit sogar eine Basis von V ∗ . 
2.3 Der Dualraum 103

Korollar 6. Es sei V ein endlich-dimensionaler K-Vektorraum. Dann


gilt dimK V = dimK V ∗ . Insbesondere existiert ein Isomorphismus
V ∼✲ V ∗ .

Man beachte, dass sich die Aussage von Satz 5 nicht auf unendlich-
dimensionale K-Vektorräume verallgemeinern lässt. Ist nämlich (ai )i∈I
eine unendliche Basis, so erkläre man wiederum durch ϕi (aj ) = δij ein
System (ϕi )i∈I von Linearformen auf V . Wie im Beweis zu Satz 5 er-
gibt sich, dass dieses linear unabhängig ist und dass der von den ϕi
erzeugte lineare Unterraum von V ∗ gerade aus denjenigen Linearfor-
men ϕ : V ✲ K besteht, für die ϕ(ai ) = 0 für fast alle i ∈ I gilt.
Andererseits kann man aber Linearformen V ✲ K definieren, indem
man die Bilder der Basisvektoren ai beliebig vorgibt. Insbesondere gibt
es Linearformen ϕ ∈ V ∗ mit ϕ(ai ) 6= 0 für unendlich viele Indizes i ∈ I.
Somit kann (ϕi )i∈I im Falle einer unendlichen Indexmenge I kein Er-
zeugendensystem und damit auch keine Basis von V sein.
Als Nächstes wollen wir für lineare Abbildungen f : V ✲ W den
Rang rg f , also die Dimension des Bildes von f , mit dem Rang der
zugehörigen dualen Abbildung f ∗ : W ∗ ✲ V ∗ vergleichen.

Satz 7. Ist f : V ✲ W eine K-lineare Abbildung end lich-di mensio-


naler Vektorräume und f ∗ : W ∗ ✲ V ∗ die zugehörige duale Abbil-
dung, so gilt rg f = rg f ∗ .

Beweis. Wir spalten f : V ✲ W auf in die induzierte surjektive linea-


re Abbildung f1 : V ✲ im f , sowie die Inklusion f2 : im f ⊂ ✲ W .
Nach Satz 2 ist dann f ∗ : W ∗ ✲ V ∗ die Komposition der dualen
Abbildungen f2∗ : W ∗ ✲ (im f )∗ und f1∗ : (im f )∗ ✲ V ∗ . Nun ist
f2∗ surjektiv nach Satz 3 (i) und f1∗ injektiv nach Satz 3 (ii). Es wird
daher (im f )∗ unter f1∗ isomorph auf das Bild im f ∗ abgebildet, und
man erhält mit Korollar 6

rg f = dimK (im f ) = dimK (im f )∗ = dimK (im f ∗ ) = rg f ∗ .

Abschließend wollen wir noch den doppelt dualen Vektorraum


V ∗∗ = (V ∗ )∗ zu einem K-Vektorraum V betrachten. Man hat stets
104 2. Lineare Abbildungen

eine kanonische Abbildung


Φ: V ✲ V ∗∗ , a ✲ a∗ ,
wobei a∗ für a ∈ V gegeben ist durch
a∗ : V ∗ ✲ K, ϕ ✲ ϕ(a).

Satz 8. Ist V ein endlich-dimensionaler K-Vektorraum, so ist die


vorstehend beschriebene Abbildung Φ : V ✲ V ∗∗ ein Isomorphismus
von K-Vektorräumen.

Beweis. Wir zeigen zunächst, dass Φ eine K-lineare Abbildung ist.


Seien a, b ∈ V und α ∈ K. Dann stimmen die Abbildungen
(a + b)∗ : V ∗ ✲ K, ϕ ✲ ϕ(a + b) = ϕ(a) + ϕ(b),
a∗ + b∗ : V ∗ ✲ K, ϕ ✲ ϕ(a) + ϕ(b),
überein, d. h. es gilt Φ(a + b) = Φ(a) + Φ(b). Entsprechend hat man
(αa)∗ : V ∗ ✲ K, ϕ ✲ ϕ(αa) = αϕ(a),
αa∗ : V ∗ ✲ K, ϕ ✲ αϕ(a),
d. h. es folgt Φ(αa) = αΦ(a). Insgesamt ergibt sich die K-Linearität
von Φ.
Bilden nun a1 , . . . , an eine Basis von V und ist ϕ1 , . . . , ϕn die hierzu
duale Basis, so ist a∗1 , . . . , a∗n die duale Basis zu ϕ1 , . . . , ϕn ; denn es gilt
a∗i (ϕj ) = ϕj (ai ) = δij für i, j = 1, . . . , n.
Unter Φ wird also eine Basis von V auf eine Basis des Bildraums V ∗∗
abgebildet. Dies bedeutet dann, dass Φ notwendig ein Isomorphismus
ist. 

Aufgaben
1. Man prüfe, ob die folgenden Linearformen ϕi : R5 ✲ R ein linear
unabhängiges System in (R5 )∗ bilden:
(i) ϕ1 : (α1 , . . . , α5 ) ✲ α1 + α2 + α3 + α4 + α5
ϕ2 : (α1 , . . . , α5 ) ✲ α1 + 2α2 + 3α3 + 4α4 + 5α5
ϕ3 : (α1 , . . . , α5 ) ✲ α1 − α2
2.3 Der Dualraum 105

(ii) ϕ1 : (α1 , . . . , α5 ) ✲ α1 + 7α2 + 7α3 + 7α4 + α5


ϕ2 : (α1 , . . . , α5 ) ✲ α1 + 2α2 + 3α3 + 4α4 + 5α5
ϕ3 : (α1 , . . . , α5 ) ✲ 12α1 + 7α2 + 13α3 + 8α4 + 9α5
ϕ4 : (α1 , . . . , α5 ) ✲ 10α1 − 2α2 + 3α3 − 3α4 + 3α5
2. Für einen Körper K und ein n ∈ N betrachte man K n als K-Vektorraum.
Es sei pi : K n ✲ K, i = 1, . . . , n, jeweils die Projektion auf die i-te
Koordinate. Man zeige, dass p1 , . . . , pn eine Basis des Dualraums (K n )∗
bilden, und zwar die duale Basis zur kanonischen Basis e1 , . . . , en ∈ K n ,
bestehend aus den Einheitsvektoren ei = (δ1i , . . . , δni ).
Im Falle K = R und n = 4 fixiere man

(1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)

als Basis von R4 und bestimme die hierzu duale Basis von (R4 )∗ , indem
man deren Elemente als Linearkombinationen der pi angibt. (AT 402)
3. Es seien V, W zwei K-Vektorräume. Man zeige, dass die Abbildung

HomK (V, W ) ✲ HomK (W ∗ , V ∗ ), f ✲ f ∗,

K-linear ist, was bedeutet, dass für Elemente α ∈ K und K-lineare Ab-
bildungen f, g : V ✲ W stets (f +g)∗ = f ∗ +g ∗ sowie (αf )∗ = α · f ∗
gilt.
4. Man betrachte einen K-Vektorraum V und zu einem Element a ∈ V
das induzierte Element a∗ ∈ V ∗∗ , welches definiert ist durch

a∗ : V ∗ ✲ K, ϕ ✲ ϕ(a).

Man zeige (AT 404):


(i) Die Abbildung ι : V ✲ HomK (K, V ), welche einem Element
a ∈ V die Abbildung α ✲ α · a zuordnet, ist ein Isomorphismus
von K-Vektorräumen.
(ii) Man identifiziere V unter ι mit HomK (K, V ) und entsprechend K
als K-Vektorraum mit seinem Dualraum HomK (K, K). Dann ist
für a ∈ V das Element a∗ ∈ V ∗∗ zu interpretieren als die duale
Abbildung zu a = ι(a).
5. Es sei V ein endlich-dimensionaler K-Vektorraum und V ∗ sein Dual-
raum. Für lineare Unterräume U ⊂ V und U ⊂ V ∗ setze man
1 2

U1⊥ = ϕ ∈ V ∗ ; ϕ(U1 ) = 0 ,

U2⊥ = a ∈ V ; ϕ(a) = 0 für alle ϕ ∈ U2 .
106 2. Lineare Abbildungen

Man zeige für lineare Unterräume U, U ′ ⊂ V bzw. U, U ′ ⊂ V ∗ :


(i) (U + U ′ )⊥ = U ⊥ ∩ U ′⊥
(ii) (U ⊥ )⊥ = U
(iii) (U ∩ U ′ )⊥ = U ⊥ + U ′⊥
(iv) dimK U + dimK U ⊥ = dimK V
6. Es sei f : V ✲ V ′ eine K-lineare Abbildung zwischen K-Vektorräumen
und f ∗ : V ′∗ ✲ V ∗ die zugehörige duale Abbildung. Man konstruiere
auf kanonische Weise einen Isomorphismus

coker f ∗ ∼✲ (ker f )∗ ,

wobei man mit coker f ∗ den Cokern von f ∗ , d. h. den Quotienten


V ∗ / im f ∗ bezeichnet. (AT 405)
f g
7. Es sei 0 ✲ V′ ✲ V ✲ V ′′ ✲ 0 eine kurze exakte Sequenz
von K-Vektorräumen. Man zeige, dass eine solche Sequenz stets spaltet,
d. h. dass es eine K-lineare Abbildung g̃ : V ′′ ✲ V mit g ◦ g̃ = idV ′′
gibt. Die Wahl einer solchen Abbildung g̃ hat folgende Konsequenzen:
(i) g̃ ist injektiv, und es gilt V = ker g ⊕ im g̃ bzw. V = V ′ ⊕ V ′′ , wenn
wir V ′ unter f mit ker g = im f identifizieren und entsprechend
V ′′ unter g̃ mit im g̃.
(ii) Es existiert eindeutig eine K-lineare Abbildung f˜: V ✲ V ′ mit
˜ ˜
f ◦ f = idV ′ und f ◦ g̃ = 0.
f ˜ g̃
(iii) Es ist 0 ✛ V′ ✛ V ✛ V ′′ ✛ 0 eine kurze exakte Sequenz.
8. Man betrachte eine exakte Sequenz von endlich-dimensionalen K-Vek-
torräumen
f1 fn−1
0 ✲ V1 ✲ ... ✲ Vn ✲ 0

und zeige
n
X
(−1)i dimK Vi = 0.
i=1
3. Matrizen

Überblick und Hintergrund

Bisher haben wir uns im Wesentlichen mit der Untersuchung von


grundsätzlichen Eigenschaften bei Vektorräumen und linearen Abbil-
dungen sowie der hiermit verbundenen Konstruktionen beschäftigt.
Wir wollen nun verstärkt auf den rechnerischen Standpunkt eingehen
und in diesem Kapitel zeigen, wie man konkret gegebene Probleme
der Linearen Algebra in effektiver Weise rechnerisch lösen kann. Im
Zentrum stehen hier Matrizen und das sogenannte Gaußsche Elimina-
tionsverfahren, insbesondere in der Version zur Lösung linearer Glei-
chungssysteme.
Als Beispiel gehen wir von der folgenden geometrischen Situation
aus:

y
G′ ❍ ✻
❍❍
❍❍ P2 ✘✘
❍❍
P ′
P ✘✘ ✘✘❜✘
❍❍❜1 ❜1 ✘
❍✘✘✘✘✘
✘❍❍
✘✘✘✘✘ ❍❍

G ✘✘✘ ❍❍ P ′
❍❍❜2
❍❍
❍❍


x
Gegeben seien zwei Geraden G, G′ ⊂ R2 , wobei G durch die (verschie-
denen) Punkte P1 , P2 ∈ R2 festgelegt sei und entsprechend G′ durch

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, [Link]
108 3. Matrizen

die (verschiedenen) Punkte P1′ , P2′ ∈ R2 . Man untersuche dann in Ab-


hängigkeit von P1 , P2 , P1′ , P2′ , ob G und G′ Schnittpunkte, also gemein-
same Punkte, besitzen und, wenn ja, wie sich diese aus den Punkten
P1 , P2 , P1′ , P2′ berechnen lassen. Wie wir bereits in der Einführung zu
Kapitel 1 gesehen haben, gelten für G und G′ die Parametrisierungen
 
G = P1 + t(P2 − P1 ) ; t ∈ R , G′ = P1′ + t′ (P2′ − P1′ ) ; t′ ∈ R ,

und Schnittpunkte S ∈ G ∩ G′ sind offenbar dadurch charakterisiert,


dass es Parameter t, t′ ∈ R mit

P1 + t(P2 − P1 ) = S = P1′ + t′ (P2′ − P1′ )

gibt. Mit anderen Worten, zur Ermittlung der Schnittpunkte von G


und G′ haben wir alle Paare (t, t′ ) ∈ R2 zu bestimmen, die der Glei-
chung

(∗) t(P2 − P1 ) + t′ (P1′ − P2′ ) = P1′ − P1

genügen, oder, in Komponentenschreibweise mit

P2 − P1 = (α11 , α21 ), P1′ − P2′ = (α12 , α22 ), P1′ − P1 = (β1 , β2 ),

die den Gleichungen

tα11 + t′ α12 = β1
(∗∗)
tα21 + t′ α22 = β2

genügen. Es ist also ein Gleichungssystem bestehend aus 2 Gleichun-


gen mit den beiden Unbekannten t und t′ und den gegebenen Kon-
stanten αij , βi ∈ R zu lösen. Dabei handelt es sich um ein lineares
Gleichungssystem, womit wir meinen, dass die Unbekannten t, t′ sepa-
riert in höchstens erster Potenz auftreten.
Um die Gleichung (∗) zu lösen, nehmen wir zunächst einmal an,
dass die beiden Vektoren P2 − P1 und P1′ − P2′ linear abhängig sind,
was in diesem Fall zur Folge hat, dass jeder der beiden Vektoren ein
skalares Vielfaches des anderen ist; geometrisch bedeutet dies, dass G
und G′ parallel sind. Es ist also P1′ − P2′ ein skalares Vielfaches von
P2 − P1 , etwa P1′ − P2′ = γ(P2 − P1 ), und wir können die Gleichung (∗)
zu
Überblick und Hintergrund 109

P1′ = P1 + (t + γt′ )(P2 − P1 )


umschreiben. Somit ist die Existenz von Lösungen t, t′ äquivalent zu
P1′ ∈ G, was aber dann bereits G = G′ impliziert. Es können daher
lediglich folgende Fälle auftreten, die sich gegenseitig ausschließen:
(1) P2 − P1 und P1′ − P2′ sind linear abhängig, G = G′ .

(2) P2 − P1 und P1′ − P2′ sind linear abhängig, G 6= G′ ; dann gilt


G ∩ G′ = ∅.

(3) P2 − P1 und P1′ − P2′ sind linear unabhängig; dann besitzen G


und G′ genau einen Schnittpunkt (was anschaulich klar ist), den
wir sogleich berechnen wollen.
Wir nehmen nun gemäß (3) an, dass die Vektoren P2 − P1 = (α11 , α21 )
und P1′ − P2′ = (α12 , α22 ) linear unabhängig sind. Insbesondere gilt
P2 −P1 6= 0, und es sei etwa α11 6= 0. Dann können wir das System (∗∗)
in äquivalenter Weise umformen, indem wir das αα11 21
-fache der ersten
Gleichung von der zweiten subtrahieren, so dass wir in der zweiten
Gleichung die Unbekannte t “eliminieren”:

tα11 + t′ α12 = β1
 α  α21
21
t′ α22 − α12 = β2 − β1
α11 α11
α21
Nun gilt aber α22 − α
α11 12
6= 0, denn anderenfalls würde sich
α12 α12
α12 = α11 , α22 = α21
α11 α11
ergeben, und P1′ −P2′ wäre linear abhängig von P2 −P1 , was aber unserer
Annahme widerspricht. Somit können wir die zweite Gleichung weiter
äquivalent umformen zu
α21

β2 − β
α11 1 α11 β2 − α21 β1
t = α21
= ,
α22 − α α11 α22 − α21 α12
α11 12

und wir erhalten aus der ersten Gleichung


1  α11 β2 − α21 β1  β1 α22 − β2 α12
t= β1 − α12 = .
α11 α11 α22 − α21 α12 α11 α22 − α21 α12
110 3. Matrizen

Dabei haben wir unter der Annahme von α11 6= 0 die Gleichungen in
äquivalenter Weise umgeformt, so dass t, t′ auch tatsächlich Lösungen
von (∗∗) sind. Es bleibt nun aber noch der Fall α11 = 0 zu betrachten.
In diesem Fall ist allerdings α21 6= 0, und wir können eine entsprechen-
de Rechnung unter dieser Annahme machen. Das Ergebnis für t, t′ lässt
sich formal aus dem vorstehenden ableiten, indem wir in den Vektoren
(α11 , α21 ), (α12 , α22 ), (β1 , β2 ) jeweils die Reihenfolge der Komponenten
vertauschen, was einer Vertauschung der beiden Gleichungen des Sys-
tems (∗∗) entspricht. Da sich aber das vorstehende Ergebnis bei dieser
Vertauschung nicht ändert, wie man leicht feststellt, erhalten wir
β1 α22 − β2 α12 α11 β2 − α21 β1
t= , t′ =
α11 α22 − α21 α12 α11 α22 − α21 α12
als Lösung der Gleichung (∗) bzw. des linearen Gleichungssystems (∗∗)
im Falle nicht-paralleler Geraden G, G′ . Insbesondere besteht G ∩ G′
aus genau einem Schnittpunkt, und dieser berechnet sich zu
β1 α22 − β2 α12 α11 β2 − α21 β1
S = P1 + (P2 − P1 ) = P1′ + (P ′ − P1′ ),
α11 α22 − α21 α12 α11 α22 − α21 α12 2
jeweils als Punkt von G bzw. G′ .
In ähnlicher Weise führt das Problem, den Schnitt zweier Ebenen
im R3 , oder allgemeiner, den Schnitt zweier affiner Unterräume im
K n zu bestimmen, auf ein lineares Gleichungssystem. Im ersten Falle
handelt es sich beispielsweise um ein System von 3 Gleichungen mit
4 Unbekannten, von denen im Allgemeinfall eine frei wählbar ist, so
dass der Schnitt dann als Gerade parametrisiert wird. Im zweiten Fall
hat man ein System von n Gleichungen mit r + s Unbekannten zu
betrachten, wobei r und s die Dimensionen der betrachteten affinen
Unterräume im K n sind.
Aber auch direkte Fragen über Vektoren in Vektorräumen können
auf lineare Gleichungssysteme führen. Über einem Körper K betrachte
man beispielsweise Vektoren ai = (α1i , . . . , αni ) ∈ K n , i = 1, . . . , r, und
teste, ob diese linear abhängig sind. Wir müssen dann also überprüfen,
ob es Elemente t1 , . . . , tr ∈ K gibt, die nicht alle verschwinden, so dass
t1 a1 + . . . + tr ar = 0
gilt, oder, nach Übergang zu den einzelnen Komponenten, ob das li-
neare Gleichungssystem
Überblick und Hintergrund 111

t1 α11 + . . . + tr α1r = 0
t1 α21 + . . . + tr α2r = 0
...
t1 αn1 + . . . + tr αnr = 0

eine nicht-triviale Lösung t1 , . . . , tr ∈ K besitzt. Alternativ können


wir eine lineare Abbildung f : K r ✲ K n betrachten, welche die ka-
nonische Basis bestehend aus den Einheitsvektoren e1 , . . . , er ∈ K r
auf Vektoren a1 , . . . , ar ∈ K n abbildet, und danach fragen, ob ein ge-
gebener Vektor b = (β1 , . . . , βn ) zum Bild von f gehört, also zu dem
Unterraum, der von den Vektoren ai = f (ei ), i = 1, . . . , r erzeugt wird.
Zu testen ist daher, ob die Gleichung

t1 a1 + . . . + tr ar = b,

bzw. für ai = (α1i , . . . , αni ), i = 1, . . . , r, ob das lineare Gleichungssys-


tem

t1 α11 + . . . + tr α1r = β1
t1 α21 + . . . + tr α2r = β2
...
t1 αn1 + . . . + tr αnr = βn

eine Lösung zulässt.


Die Anordnung der Koeffizienten in obigem Gleichungssystem legt
es nahe, die Vektoren a1 , . . . , an , b nicht mehr als Zeilenvektoren zu
schreiben, sondern als Spaltenvektoren, also
     
α11 α1r β1
 ..   ..   .. 
a1 =  .  , . . . , ar =  .  , b =  .  .
αn1 αnr βn

Im Übrigen werden wir das rechteckige Koeffizientenschema


 
α11 . . . α1r
 α21 . . . α2r 
A = (a1 , . . . , ar ) = 
 . ... . 

αn1 . . . αnr
112 3. Matrizen

betrachten und dies als Koeffizientenmatrix des Gleichungssystems be-


zeichnen. Wir entschließen uns auch, die Unbekannten t1 , . . . , tr zu ei-
nem Spaltenvektor zusammenzufassen, und können dann das obige li-
neare Gleichungssystem, ähnlich wie im Falle einer Gleichung mit einer
Unbekannten, in der übersichtlichen Form
     
α11 . . . α1r t β
 α21 . . . α2r   .1   .1 
  ·  ..  =  .. 
 . ... . 
αn1 . . . αnr tr βn

schreiben, wobei das Produkt der Koeffizientenmatrix mit dem Vektor


der Unbekannten durch
     Pr 
α11 . . . α1r t1 α 1j tj
j=1
 α21 . . . α2r   .  ..
  ·  ..  := 



 . ... .  Pr .
αn1 . . . αnr tr j=1 αnj tj

definiert wird. Nach wie vor lautet das Gleichungssystem dann


r
X
αij tj = βi , i = 1, . . . , n,
j=1

wobei wir, wie hier geschehen, die Koeffizienten αij in Zukunft immer
links von den Unbekannten tj schreiben werden.
Die Bedeutung von Matrizen als rechteckige Koeffizientenschema-
ta ist nicht auf lineare Gleichungssysteme beschränkt. Matrizen tre-
ten in der Linearen Algebra überall dort auf, wo es darum geht,
Skalare zu katalogisieren, die von zwei Index-Parametern abhängen.
So betrachte man etwa eine lineare Abbildung f : V ✲ W zwi-
schen zwei K-Vektorräumen V, W mit Basen X = (x1 , . . . , xr ) und
Y = (y1 , . . . , yn ). Es ist f dann vollständig charakterisiert durch die
Bilder f (x1 ), . . . , f (xr ) der Basis X. Jedes dieser Bilder f (xj ) wieder-
um ist vollständig durch die Angabe seiner Koordinaten bezüglich Y
charakterisiert, d. h. der Koeffizienten α1j , . . . , αnj ∈ K, die man be-
nötigt, um f (xj ) als Linearkombination der Basis Y darzustellen, etwa
n
X
f (xj ) = αij yi , j = 1, . . . , r.
i=1
Überblick und Hintergrund 113

Somit ist f eindeutig charakterisiert durch die Angabe der Matrix


 
α11 . . . α1r
 α21 . . . α2r 
Af,X,Y = 
 .
,
... . 
αn1 . . . αnr

und man nennt dies die Matrix, die f bezüglich der Basen X von V und
Y von W beschreibt. Die Korrespondenz f ✲ Af,X,Y besitzt sehr gu-
te Eigenschaften, wie wir noch sehen werden. Beispielsweise lässt sich
der Übergang von einem Vektor x ∈ V zu seinem Bild f (x) ∈ W auf
dem Niveau der Koordinaten bezüglich X bzw. Y als Multiplikation
von Af,X,Y mit dem sogenannten Koordinatenspaltenvektor von x be-
züglich X interpretieren. Weiter entspricht die Komposition linearer
Abbildungen bei Verwendung geeigneter Basen dem noch zu definie-
renden Produkt der beschreibenden Matrizen.
Im Spezialfall V = W und f = id stellt die Matrix Aid,X,Y gerade
diejenigen Koeffizienten bereit, die man benötigt, um die Elemente der
Basis X als Linearkombinationen der Basis Y darzustellen. Insbeson-
dere sehen wir, dass der Wechsel zwischen verschiedenen Basen eines
Vektorraums ebenfalls mittels Matrizen beschrieben wird. Ein weiteres
Anwendungsfeld für Matrizen stellen die in Kapitel 7 zu behandelnden
Skalarprodukte dar.
Wir studieren in diesem Kapitel zunächst die Korrespondenz zwi-
schen linearen Abbildungen f und den zugehörigen beschreibenden
Matrizen Af,X,Y genauer. Sodann besprechen wir das Gaußsche Elimi-
nationsverfahren, und zwar zuerst als Verfahren, welches mittels soge-
nannter elementarer Zeilenumformungen den Zeilenrang einer Matrix
bestimmt, d. h. die Dimension des von den Zeilen der Matrix erzeugten
Vektorraums. In analoger Weise lässt sich der Spaltenrang einer Matrix
betrachten. Es ist leicht einzusehen, dass dieser im Falle einer Matrix
Af,X,Y , die zu einer linearen Abbildung f gehört, mit dem Rang von
f , also der Dimension des Bildes von f , übereinstimmt. Dass der Spal-
tenrang einer Matrix stets auch mit deren Zeilenrang übereinstimmt,
ist hingegen ein nicht-triviales Resultat.
Als Nächstes behandeln wir die Invertierbarkeit von (quadrati-
schen) Matrizen. Eine quadratische Matrix A heißt invertierbar, wenn
es eine quadratische Matrix B mit A · B = B · A = E gibt, wobei
114 3. Matrizen

E die sogenannte Einheitsmatrix bezeichnet, deren Diagonaleinträge


alle 1 sind und die ansonsten nur aus Nullen besteht. Wir werden ins-
besondere sehen, dass die Eigenschaft einer linearen Abbildung, ein
Isomorphismus zu sein, auf der Seite der Matrizen der Invertierbarkeit
entspricht. Im Übrigen verwenden wir das Gaußsche Eliminationsver-
fahren, um konkret gegebene Matrizen auf Invertierbarkeit zu über-
prüfen und, falls möglich, zu invertieren. Es folgt die Interpretation
invertierbarer Matrizen im Rahmen von Basiswechselmatrizen.
Schließlich kommen wir dann noch ausführlich auf lineare Glei-
chungssysteme zu sprechen. Wir ordnen diese in den Zusammenhang
linearer Abbildungen ein und zeigen insbesondere, wie man die Lösung
konkret gegebener Gleichungssysteme mittels des Gaußschen Elimina-
tionsverfahrens formalisieren kann.

3.1 Lineare Abbildungen und Matrizen

Wir hatten bereits in Abschnitt 2.1 gesehen, dass man mit Hilfe von
Matrizen lineare Abbildungen definieren kann und dass man umge-
kehrt lineare Abbildungen bezüglich gewählter Basen durch Matrizen
beschreiben kann. Dieser Sachverhalt soll in diesem Abschnitt genauer
studiert werden. Wie immer sei K ein Körper.

Definition 1. Es seien m, n ∈ N. Eine (m × n)-Matrix mit Koef-


fizienten aus K ist ein System von Elementen αij ∈ K mit Indizes
(i, j) ∈ {1, . . . , m} × {1, . . . , n}, also
 
α11 . . . α1n
A = (αij )i=1,...,m = . ... . .
j=1,...,n
αm1 . . . αmn

Dabei heißt i der Zeilenindex von A; dieser ist bei den Schreibweisen

A = (αij )i=1,...,m bzw. A = (αij )i,j


j=1,...,n

daran zu erkennen, dass er außerhalb der umschließenden Klammern


an erster Stelle aufgeführt wird. Entsprechend ist j als zweiter Index
3.1 Lineare Abbildungen und Matrizen 115

der Spaltenindex von A. Mithin besteht A aus m Zeilen und n Spalten.


Für m = 0 oder n = 0 ist A eine sogenannte leere Matrix.1

Wir bezeichnen die Menge aller (m×n)-Matrizen mit K m×n . Dabei


lässt sich K m×n unter der Zuordnung
 
α11 . . . α1n
 . ... .  ✲ (α11 , . . . , α1n , α21 , . . . , α2n , . . . , αm1 , . . . , αmn )
αm1 . . . αmn

mit K m·n identifizieren. Insbesondere können wir K m×n , ebenso wie


K m·n , als K-Vektorraum auffassen. Damit ist für Matrizen

A = (αij )i,j , B = (βij )i,j ∈ K m×n

deren Summe gegeben durch

A + B = (αij + βij )i,j ,

sowie das Produkt von A mit einem Skalar λ ∈ K durch

λA = (λαij )i,j .

Das Nullelement 0 ∈ K m×n ist die sogenannte Nullmatrix, deren Koef-


fizienten αij sämtlich verschwinden. Insbesondere ergibt sich als ne-
gatives Element zu einer Matrix A = (αij )i,j ∈ K m×n die Matrix
−A = (−αij )i,j . Die kanonische Basis von K m×n wird gegeben durch
die Matrizen

Eij = (δiµ δjν )µ=1,...,m , i = 1, . . . , m, j = 1, . . . , n,


ν=1,...,n

wobei Eij genau am Schnittpunkt der i-ten Zeile mit der j-ten Spalte
eine 1 stehen hat und ansonsten aus lauter Nullen besteht. Beispiels-
weise gilt für eine Matrix (αij )i,j ∈ K m×n
1
Zur Vermeidung von Sonderfällen im Zusammenhang mit linearen Abbildun-
gen ist es praktisch, leere Matrizen nicht von den Betrachtungen auszuschließen.
Wir werden insbesondere für m = 0 leere Matrizen unterschiedlicher Spaltenan-
zahlen n betrachten, sowie im Falle n = 0 leere Matrizen unterschiedlicher Zeilen-
anzahlen m.
116 3. Matrizen
X
A= αij Eij .
i=1,...,m
j=1,...,n

Im Zusammenhang mit Matrizen ist es üblich, Vektoren a ∈ K m


nicht wie bisher als Zeilenvektoren a = (α1 , . . . , αm ) zu schreiben,
sondern als Spaltenvektoren:
 
α1
 .. 
a= . 
αm

Insbesondere kann man aus n solchen Vektoren a1 , . . . , an ∈ K m ei-


ne Matrix A = (a1 , . . . , an ) ∈ K m×n aufbauen. Ist W ein endlich-
dimensionaler K-Vektorraum mitP Basis Y = (y1 , . . . , ym ), so besitzt
jedes a ∈ W eine Darstellung a = m i=1 αi yi mit eindeutig bestimmten
Koeffizienten αi ∈ K. Wir bezeichnen
 
α1
 .. 
aY =  .  ∈ K m
αm

als den zu a ∈ W gehörigen Koordinatenspaltenvektor bezüglich der


Basis Y von W .

Bemerkung 2. Es seien W ein K-Vektorraum und Y = (y1 , . . . , ym )


eine Basis von W . Dann ist die Abbildung

κY : W ✲ K m, a ✲ aY ,

ein Isomorphismus von K-Vektorräumen.

Beweis. Man prüft sofort nach, dass κY linear ist und die Basis Y von
W auf die kanonische Basis von K m abbildet. Somit ist κY notwendi-
gerweise ein Isomorphismus. 

Unter Verwendung von Koordinatenspaltenvektoren können wir die


bereits in Abschnitt 2.1 angedeutete Zuordnung einer Matrix zu einer
linearen Abbildung in einfacher Weise charakterisieren:
3.1 Lineare Abbildungen und Matrizen 117

Definition 3. Seien V , W zwei K-Vektorräume und X = (x1 , . . . , xn )


sowie Y = (y1 , . . . , ym ) Basen von V bzw. W . Ist dann f : V ✲W
eine K-lineare Abbildung, so heißt

A = Af,X,Y = f (x1 )Y , . . . , f (xn )Y ∈ K m×n

die zu f gehörige Matrix bezüglich der Basen X und Y .

Die zu f gehörige Matrix Af,X,Y besteht also gerade aus den


Koordinatenspaltenvektoren bezüglich Y , die sich aus den Bildern
f (x1 ), . . . , f (xn ) der Basis x1 , . . . , xn von V ergeben. Um Af,X,Y in ex-
pliziter Weise aufzuschreiben, stelle man also die Bilder von x1 , . . . , xn
mit Hilfe der Basis Y dar, etwa
m
X
f (xj ) = αij yi , j = 1, . . . , n,
i=1

und es folgt dann:


 
α11 . . . α1n
Af,X,Y = . ... . 
αm1 . . . αmn

Beispielsweise ist die zur Nullabbildung 0 : V ✲ W gehörige Matrix


m×n
A0,X,Y gerade die Nullmatrix 0 ∈ K . Betrachtet man andererseits
für V = W und X = Y die identische Abbildung id : V ✲ V , so ist
die zugehörige Matrix Aid,X,X die sogenannte (m×m)-Einheitsmatrix :
 
1 0 0 ... 0
0 1 0 . . . 0
 
E := Em := (δij )i,j=1,...,m =  
0 0 1 . . . 0 ∈ K
m×m

. . . . . . .
0 0 0 ... 1

Wir wollen nun die Zuordnung f ✲ Af,X,Y genauer untersu-


chen und erinnern daran, dass die Menge aller K-linearen Abbildun-
gen eines K-Vektorraums V in einen K-Vektorraum W wiederum
einen K-Vektorraum bildet, der mit HomK (V, W ) bezeichnet wird.
Die Summe zweier Elemente f, g ∈ HomK (V, W ) ist definiert durch
118 3. Matrizen

(f + g)(a) = f (a) + g(a) und das skalare Vielfache von f mit einem
Element α ∈ K durch (αf )(a) = αf (a), jeweils für a ∈ V .

Satz 4. Es seien V, W endlich-dimensionale K-Vektorräume mit ge-


gebenen Basen X = (x1 , . . . , xn ) und Y = (y1 , . . . , ym ). Dann ist die
Abbildung

Ψ : HomK (V, W ) ✲ K m×n , f ✲ Af,X,Y ,

ein Isomorphismus von K-Vektorräumen.

Beweis. Wir prüfen zunächst nach, dass Ψ eine K-lineare Abbildung


ist. Dabei verwenden wir den Isomorphismus W ✲ K m, a ✲ aY ,
und benutzen insbesondere, dass diese Abbildung K-linear ist. Für
f, g ∈ HomK (V, W ), α ∈ K gilt

Af +g,X,Y = (f + g)(x1 )Y , . . . , (f + g)(xn )Y
   
= f (x1 ) + g(x1 ) Y , . . . , f (xn ) + g(xn ) Y

= f (x1 )Y + g(x1 )Y , . . . , f (xn )Y + g(xn )Y
 
= f (x1 )Y , . . . , f (xn )Y + g(x1 )Y , . . . , g(xn )Y
= Af,X,Y + Ag,X,Y ,

sowie

A(αf ),X,Y = (αf )(x1 )Y , . . . , (αf )(xn )Y
 
  
= α f (x1 ) , . . . , α f (xn )
Y Y
   
= α f (x1 ) Y , . . . , α f (xn ) Y

= α f (x1 )Y , . . . , f (xn )Y
= α · Af,X,Y ,

also Ψ (f + g) = Ψ (f ) + Ψ (g), Ψ (αf ) = αΨ (f ), d. h. Ψ ist K-linear.


Weiter ist Ψ injektiv aufgrund von 2.1/7 (i) und surjektiv aufgrund
von 2.1/7 (ii). 
3.1 Lineare Abbildungen und Matrizen 119

Korollar 5. Für endlich-dimensionale K-Vektorräume V, W gilt


dimK HomK (V, W ) = dimK V · dimK W.

Als Nächstes wollen wir das Produkt von Matrizen definieren und
zeigen, dass dieses der Komposition linearer Abbildungen entspricht.
Für natürliche Zahlen m, n, p ∈ N kann man Matrizen A ∈ K m×n
mit Matrizen B ∈ K n×p multiplizieren und erhält dabei Matrizen aus
K m×p , und zwar ist für
A = (αij )i=1,...,m ∈ K m×n , B = (βjk )j=1,...,n ∈ K n×p
j=1,...,n k=1,...,p

das Produkt A · B erklärt durch:


n
!
X
A·B = αij · βjk
j=1 i=1,...,m
k=1,...,p

Das Produkt kann also nur dann gebildet werden, wenn die Spalten-
anzahl von A gleich der Zeilenanzahl von B ist. Ein einfacher Fall eines
Matrizenprodukts liegt vor, wenn man eine Zeile aus K 1×m mit einer
Spalte aus K m×1 multipliziert:
 
β1
 .. 
(α1 , . . . , αm ) ·  .  = (α1 β1 + . . . + αm βm )
βm
Es entsteht eine (1 × 1)-Matrix, wobei wir diese unter Fortlassen der
Klammern mit dem entsprechenden Element von K identifizieren wol-
len. So kann man sagen, dass für Matrizen A ∈ K m×n , B ∈ K n×p das
Produkt A · B = (γik )i,k aus allen Produkten von Zeilen von A mit
Spalten von B besteht, und zwar ist das Element γik in der i-ten Zeile
und k-ten Spalte von A · B gerade das Produkt der i-ten Zeile von A
mit der k-ten Spalte von B. Andererseits beachte man, dass das Pro-
dukt einer Spalte aus K m×1 mit einer Zeile aus K 1×n eine Matrix aus
K m×n ergibt:
   
α1 α1 β1 . . . α1 βn
 .. 
 .  · (β1 , . . . , βn ) =  . ... . 
αm αm β1 . . . αm βn
120 3. Matrizen

Bemerkung 6. Das Matrizenprodukt ist assoziativ, d. h. für natürliche


Zahlen m, n, p, q ∈ N und Matrizen A ∈ K m×n , B ∈ K n×p , C ∈ K p×q
gilt stets
(A · B) · C = A · (B · C).

Beweis. Mit

A = (αij )i=1,...,m , B = (βjk )j=1,...,n , C = (γkℓ )k=1,...,p


j=1,...,n k=1,...,p ℓ=1,...,q

erhält man
n
! p n
!
X X X
(A · B) · C = αij βjk ·C = αij βjk γkl ,
j=1 i,k k=1 j=1 i,l

p
! p
n X
!
X X
A · (B · C) = A · βjk γkl = αij βjk γkl ,
k=1 j,l j=1 k=1 i,l

also wie gewünscht (A · B) · C = A · (B · C). 

Wir wollen nun Matrizen im Sinne linearer Abbildungen interpre-


tieren. Zunächst ist festzustellen, dass jede Matrix A = (αij )i,j ∈ K m×n
Anlass zu einer Abbildung

f : Kn ✲ K m, x ✲ A · x,

gibt, wobei wir K n mit K n×1 und K m mit K m×1 identifizieren. In


ausführlicher Schreibweise lautet die Abbildungsvorschrift
   Pn 
ξ1 j=1 α1j ξj
 ..  ✲  .. 
.  . ,
Pn
ξn j=1 αmj ξj

und man sieht unmittelbar, dass f eine K-lineare Abbildung ist. Es ist
A offenbar gerade die im Sinne von Definition 3 zu f gehörige Matrix,
wenn man in K n und K m jeweils die aus den Einheitsvektoren beste-
hende kanonische Basis zugrunde legt. Wir wollen zeigen, dass dieses
Beispiel in gewissem Sinne schon den Allgemeinfall beschreibt:
3.1 Lineare Abbildungen und Matrizen 121

Satz 7. Sei f : V ✲ W eine K-lineare Abbildung zwischen Vektor-


räumen V und W mit Basen X = (x1 , . . . , xn ) und Y = (y1 , . . . , ym ).
Dann gilt für a ∈ V
f (a)Y = Af,X,Y · aX .

Beweis. Hat man Af,X,Y = (αij )i,j und aX = (ξj ), so gilt


m
X
f (xj ) = αij yi , j = 1, . . . , n,
i=1
Pn
sowie a = j=1 ξj xj . Dies ergibt
n
X n
X m
X m X
X n 
f (a) = ξj f (xj ) = ξj αij yi = αij ξj yi ,
j=1 j=1 i=1 i=1 j=1

also wie gewünscht f (a)Y = Af,X,Y · aX . 

Die Formel aus Satz 7 lässt sich insbesondere auf den Fall V = W
und die identische Abbildung id : V ✲ V anwenden. Sie beschreibt
dann einen Basiswechsel und zeigt, wie sich Koordinatenvektoren be-
züglich der Basis X in solche bezüglich der Basis Y umrechnen lassen:
aY = Aid,X,Y · aX
Um die Aussage von Satz 7 noch etwas genauer zu interpretie-
ren, führen wir die Abbildungen κX : V ✲ K n, a ✲ aX , und
κY : W ✲ K ,b
m ✲ bY , ein, welche einem Vektor jeweils den zuge-
hörigen Koordinatenspaltenvektor zuordnen; κX , κY sind nach Bemer-
kung 2 Isomorphismen von K-Vektorräumen. Weiter betrachten wir
die K-lineare Abbildung f˜: K n ✲ K m, x ✲ Af,X,Y · x. Dann
besagt die Formel in Satz 7 gerade:

Korollar 8. In der vorstehenden Situation ist das Diagramm


f
V ✲ W
≀ κX ≀ κY
❄ f˜

Kn ✲ Km
kommutativ.
122 3. Matrizen

Fassen wir daher die Abbildungen κX , κY als Identifizierungen auf,


so geht f in f˜ über und ist nichts anderes als die Multiplikation mit
der Matrix Af,X,Y .
Als Nächstes wollen wir zeigen, dass das Matrizenprodukt als Kom-
position linearer Abbildungen interpretiert werden kann.

Satz 9. Es seien U, V, W endlich-dimensionale K-Vektorräume mit


Basen X, Y, Z. Für lineare Abbildungen f : U ✲ V und g : V ✲W
gilt dann
Ag◦f,X,Z = Ag,Y,Z · Af,X,Y .

Beweis. Auch diese Formel ist leicht nachzurechnen. Gelte

X = (x1 , . . . , xp ), Y = (y1 , . . . , yn ), Z = (z1 , . . . , zm )

sowie
Af,X,Y = (αjk )j=1,...,n , Ag,Y,Z = (βij )i=1,...,m .
k=1,...,p j=1,...,n
Pn
Dann folgt f (xk ) = j=1 αjk yj für k = 1, . . . , p und somit
n
X
g ◦ f (xk ) = αjk g(yj )
j=1
n
X m
X
= αjk βij zi
j=1 i=1
m X
X n 
= βij αjk · zi ,
i=1 j=1

also !
n
X
Ag◦f,X,Z = βij αjk = Ag,Y,Z · Af,X,Y ,
j=1 i,k

wie gewünscht.
Wir können den Beweis aber auch anders führen und uns dabei
jegliche Rechnung ersparen. Man hat nämlich nach Korollar 8 ein kom-
mutatives Diagramm
3.1 Lineare Abbildungen und Matrizen 123

f g
U ✲ V ✲ W
≀ κX ≀ κY ≀ κZ
❄ f˜
❄ g̃

Kp ✲ Kn ✲ Km
wobei f˜ durch x ✲ Af,X,Y · x und g̃ durch y ✲ Ag,Y,Z · y erklärt
ist. Mit Bemerkung 6 sieht man dann, dass Ag◦f,X,Z und Ag,Y,Z · Af,X,Y
zwei Matrizen sind, die die K-lineare Abbildung g ◦ f bezüglich der
Basen X und Z beschreiben. Unter Benutzung von Satz 4 ergibt sich
daraus Ag◦f,X,Z = Ag,Y,Z · Af,X,Y . 

Wir wollen abschließend noch einige Regeln für das Rechnen mit
Matrizen auflisten, die sich leicht durch direkte Verifikation nachrech-
nen lassen; vgl. auch Bemerkung 6. Sei α ∈ K und seien A, B, C Matri-
zen mit Koeffizienten aus K. Weiter bezeichne 0 eine Nullmatrix und
E eine (quadratische) Einheitsmatrix. Dann gelten die Formeln

A + B = B + A,
A + 0 = A,
EA = A, BE = B,
(αA)B = A(αB) = α(AB),
A(B + C) = AB + AC,
(A + B)C = AC + BC,
(AB)C = A(BC),

wobei wir in den einzelnen Gleichungen verlangen, dass die Zeilen- bzw.
Spaltenanzahlen so gewählt sind, dass die aufgeführten Summen und
Produkte auch gebildet werden können. Mit Matrizen kann man daher,
was die Addition und Multiplikation angeht, (fast) wie gewohnt rech-
nen. Allerdings darf man in einem Produkt A · B die Faktoren nicht
vertauschen, selbst dann nicht, wenn für Matrizen A, B die Produk-
te A · B und B · A beide erklärt sind; man betrachte etwa den Fall
einer Zeile A und einer Spalte B, jeweils mit n Komponenten. Sogar
für quadratische Matrizen, also solche, bei denen die Zeilenzahl mit
der Spaltenzahl übereinstimmt, ist das Produkt A · B im Allgemeinen
verschieden von B · A, wie man an einfachen Beispielen nachprüfen
kann.
124 3. Matrizen

Aufgaben
1. Man berechne die Produkte AB und BA für die Matrizen
   
1 2 2 0
A= , B= ∈ R2×2 .
3 −1 1 1

2. Man wähle in den angegebenen K-Vektorräumen V eine kanonische Ba-


sis X und bestimme zu den linearen Abbildungen f : V ✲ V jeweils
die zugehörige Matrix Af,X,X .
(i) V = R2 , K = R, f Drehung um 90◦ im mathematisch positiven
Sinn.
(ii) V = R2 , K = R, f Spiegelung an der Geraden y = x.
√  √
(iii) V = Q 2 , K = Q, f Multiplikation mit α + β 2 für α, β ∈ Q.
3. Es sei K ein Körper. Man zeige, dass die Abbildung
 
✲ 2×2 ✲ 1 x
f: K K , x
0 1

injektiv ist und für x, y ∈ K die Beziehung f (x + y) = f (x) · f (y) erfüllt.


4. Es sei f : V ✲ W eine K-lineare Abbildung zwischen endlich-
dimensionalen K-Vektorräumen mit rg f = r. Man zeige: Es existieren
Basen X von V und Y von W , so dass die zu f gehörige Matrix Af,X,Y
die folgende Gestalt besitzt:
 
Er 0
Af,X,Y =
0 0

Dabei bezeichnet Er die (r×r)-Einheitsmatrix, sowie 0 jeweils geeignete


Nullmatrizen. (AT 406)
5. Für m1 , m2 , n1 , n2 , r ∈ N − {0} betrachte man Matrizen

A ∈ K m1 ×n1 , B ∈ K m1 ×n2 , C ∈ K m2 ×n1 , D ∈ K m2 ×n2 ,


E ∈ K n1 ×r , F ∈ K n2 ×r

und zeige     
A B E AE + BF
= ,
C D F CE + DF
wobei man diese Gleichung in naheliegender Weise als Gleichung zwi-
schen Matrizen in K (m1 +m2 )×r auffasse.
3.2 Gauß-Elimination und der Rang einer Matrix 125

6. Es sei V ein endlich-dimensionaler K-Vektorraum und f : V ✲ V ein


Endomorphismus. Man zeige:
(i) Es existiert genau dann ein nicht-trivialer linearer Unterraum U
in V mit  f (U ) ⊂ U , wenn es in V eine Basis X gibt, so dass
∗ ∗
Af,X,X = gilt.
0 ∗
(ii) Es existieren genau dann nicht-triviale lineare Unterräume U1 , U2
in V mit V = U1 ⊕ U2 und f (Ui ) ⊂ Ui für
 i = 1, 2, wenn es in V
∗ 0
eine Basis X gibt mit Af,X,X = .
0 ∗
Dabei stehen die Symbole 0 für Nullmatrizen geeigneten Typs, weiter ∗
für eine geeignete rechteckige Matrix, sowie ∗ für nicht-leere quadrati-
sche Matrizen, jeweils mit (unspezifizierten) Koeffizienten aus K.
7. Es sei V ein nicht-trivialer K-Vektorraum mit Basis X und f : V ✲ V
ein Endomorphismus, so dass gilt:
 
0 1 1 1 ... 1
0 0 1 1 . . . 1
 
0 0 0 1 . . . 1
Af,X,X = . . . . . . . .

 
0 0 0 0 . . . 1
0 0 0 0 ... 0

Man berechne dimK (ker f ). (AT 408)


8. Für ein m ≥ 1 betrachte man die Einheitsmatrix E ∈ K m×m sowie eine
weitere Matrix N = (αij )i,j=1,...,m ∈ K m×m mit αij = 0 für i ≥ j. Man
zeige (AT 409):
(i) N m = 0.
(ii) Die Matrix B = E + N ist invertierbar, d. h. es existiert eine
Matrix C in K m×m mit BC = CB = E. (Hinweis: Man versuche,
die Formel für die geometrische Reihe anzuwenden.)

3.2 Gauß-Elimination und der Rang einer Matrix

Es sei A = (αij )i,j ∈ K m×n eine (m×n)-Matrix und

f : Kn ✲ K m, x ✲ Ax,
126 3. Matrizen

die durch A definierte lineare Abbildung. Wie wir in Abschnitt 3.1 be-
merkt haben, ist A die zu f gehörige Matrix, wenn man in K n und
K m jeweils die aus den Einheitsvektoren bestehende kanonische Basis
zugrunde legt. In Abschnitt 2.1 hatten wir den Rang einer linearen
Abbildung f als die Dimension des Bildes im f erklärt. In unserer kon-
kreten Situation wird das Bild im f von den Bildern f (e1 ), . . . , f (en )
der kanonischen Basis e1 , . . . , en von K n erzeugt, also von den Spalten-
vektoren der Matrix A. Der Rang von f ist daher gleich der Dimension
des von den Spalten von A in K n erzeugten linearen Unterraums. Man
bezeichnet diese Dimension auch als den Spaltenrang von A. In ähnli-
cher Weise besitzt A einen Zeilenrang.

Definition 1. Es sei A = (αij )i,j ∈ K m×n eine Matrix. Dann nennt


man die Dimension des von den Spalten
   
α11 α1n
 ..   .. 
 . , ...,  . 
αm1 αmn

von A erzeugten Unterraums in K m den Spaltenrang von A; dieser


wird mit rgs A bezeichnet. Entsprechend heißt die Dimension des von
den Zeilen

(α11 , . . . , α1n ), ..., (αm1 , . . . , αmn )

von A erzeugten Unterraums in K n (wobei wir die Elemente von K n


hier als Zeilenvektoren auffassen) der Zeilenrang von A; dieser wird
mit rgz A bezeichnet.

Als wichtiges Resultat werden wir zeigen, dass Spaltenrang und


Zeilenrang einer Matrix stets übereinstimmen. Man schreibt dann ein-
fach rg A anstelle von rgs A oder rgz A und nennt dies den Rang von
A. Zunächst wollen wir jedoch die oben erwähnte Beziehung zwischen
dem Rang einer linearen Abbildung K n ✲ K m und dem Rang der
zugehörigen Matrix auf beliebige lineare Abbildungen ausdehnen.

Bemerkung 2. Es sei f : V ✲ W eine K-lineare Abbildung zwi-


schen endlich-dimensionalen Vektorräumen mit Basen X bzw. Y und
3.2 Gauß-Elimination und der Rang einer Matrix 127

mit beschreibender Matrix Af,X,Y . Dann gilt rg f = rgs Af,X,Y . Ins-


besondere hängt der Spaltenrang der f beschreibenden Matrix Af,X,Y
nicht von der Wahl der Basen X und Y ab.

Beweis. Man betrachte das kommutative Diagramm


f
V ✲ W
≀ κX ≀ κY
❄ f˜

Kn ✲ Km
aus 3.1/8, wobei κX (bzw. κY ) gerade derjenige Isomorphismus ist, der
einem Vektor aus V (bzw. W ) den zugehörigen Koordinatenspalten-
vektor bezüglich X (bzw. Y ) zuordnet. Weiter ist f˜ die Multiplikation
mit Af,X,Y . Es wird dann im f unter κY isomorph auf im f˜ abgebildet,
und es folgt

rg f = dimK (im f ) = dimK (im f˜) = rg f˜,

wobei, wie eingangs festgestellt, rg f˜ gerade der Spaltenrang der Matrix


Af,X,Y ist. 

Wir wollen nun das Gaußsche Eliminationsverfahren besprechen,


welches es erlaubt, den Zeilen- bzw. Spaltenrang von Matrizen mittels
elementarer Rechnung zu bestimmen, und zwar werden wir uns hier
speziell mit der Bestimmung des Zeilenrangs beschäftigen. Zu diesem
Zwecke interpretieren wir die Vektoren in K n als Zeilenvektoren und
bauen dementsprechend Matrizen aus K m×n aus m solcher Zeilenvek-
toren auf. Wir schreiben also Matrizen A ∈ K m×n in der Form
   
a1 α11 . . . α1n
A =  ..  =  .. . . . .. 
am αm1 . . . αmn

mit den Zeilenvektoren ai = (αi1 , . . . , αin ) ∈ K n , i = 1, . . . , m. Auf


solche Matrizen wollen wir sogenannte elementare Zeilenumformungen
anwenden, auch als elementare Zeilentransformationen bezeichnet, die,
wie wir noch sehen werden, den Zeilenrang nicht ändern. Umformun-
gen dieser Art lassen sich alternativ auch durch Multiplikation von
128 3. Matrizen

links mittels geeigneter Elementarmatrizen realisieren. Wir wollen da-


her einige quadratische Matrizen einführen, die wir zur Beschreibung
der Elementarmatrizen benötigen. Für i, j = 1, . . . , m sei Eij ∈ K m×m
diejenige (m × m)-Matrix, die am Schnittpunkt der i-ten Zeile und
j-ten Spalte eine 1 stehen hat und ansonsten aus lauter Nullen be-
steht. Weiter bezeichne E = (δij )i,j ∈ K m×m die Einheitsmatrix,
Pmwobei
δij das Kronecker-Symbol ist. Für diese Matrix gilt also E = i=1 Eii ,
sie besteht auf der Diagonalen aus Einsen und ansonsten aus Nullen.
Die Matrix E heißt Einheitsmatrix, da E · A = A für jede Matrix
A ∈ K m×n und B · E = B für jede Matrix B ∈ K n×m gilt. Folgende
Typen elementarer Zeilenumformungen werden wir verwenden:
Typ I. Man multipliziere eine Zeile von A, etwa die i-te, mit einem
Skalar α ∈ K ∗ , also:
   
.. ..
 ..   .. 
   
ai  ✲ α · ai 
   
 ..   .. 
.. ..

Diese Umformung von A kann man auch erreichen, indem man A von
links mit der Elementarmatrix E + (α − 1)Eii multipliziert. Letztere
Matrix unterscheidet sich von der Einheitsmatrix E dadurch, dass auf
der Diagonalen an der Stelle (i, i) statt einer 1 der Faktor α steht.
Typ II. Man addiere zu einer Zeile von A, etwa der i-ten, eine
weitere Zeile von A, etwa die j-te, wobei i 6= j gelte, also:
   
.. ..
 ai  ai + aj 
   
 ..  ✲  .. 
   
aj   aj 
.. ..

Diese Umformung kann man auch erreichen, indem man A von links
mit der Elementarmatrix E + Eij multipliziert.
Typ III. Man addiere zu einer Zeile von A, etwa der i-ten, ein
Vielfaches einer weiteren Zeile von A, etwa der j-ten, wobei i 6= j
gelte, also:
3.2 Gauß-Elimination und der Rang einer Matrix 129
   
.. ..
 ai  ai + αaj 
   
 ..  ✲  .. 
   
aj   aj 
.. ..
mit α ∈ K. Diese Umformung kann man auch erreichen, indem man
A von links mit der Elementarmatrix E + αEij multipliziert.
Typ IV. Man vertausche zwei Zeilen von A, etwa die i-te und die
j-te, also:    
.. ..
 ai  aj 
   
 ..  ✲  .. 
   
aj   ai 
.. ..
Diese Umformung kann man auch erreichen, indem man A von links
mit der Elementarmatrix E −Eii −Ejj +Eij +Eji multipliziert. Letztere
Matrix erhält man aus der Einheitsmatrix, indem man die i-te und j-te
Zeile (oder, alternativ, Spalte) miteinander vertauscht.
Wie man leicht sehen kann, sind die Typen III und IV Kombina-
tionen der Typen I und II.

Satz 3. Es sei A ∈ K m×n eine Matrix und B ∈ K m×n eine weitere, die
mittels elementarer Zeilentransformationen aus A hervorgeht. Dann
erzeugen die Zeilenvektoren von A den gleichen linearen Unterraum
in K n wie die Zeilenvektoren von B. Insbesondere ist der Zeilenrang
einer Matrix invariant unter elementaren Zeilentransformationen.

Beweis. Es seien a1 , . . . , am Vektoren eines K-Vektorraums V . Wählt


man dann α ∈ K ∗ und i, j ∈ {1, . . . , m}, i 6= j, so gilt offenbar für den
von a1 , . . . , am erzeugten Unterraum

ha1 , . . . , ai , . . . , aj , . . . , am i = ha1 , . . . , αai , . . . , aj , . . . , am i,


ha1 , . . . , ai , . . . , aj , . . . , am i = ha1 , . . . , ai + aj , . . . , aj , . . . , am i,
ha1 , . . . , ai , . . . , aj , . . . , am i = ha1 , . . . , ai + αaj , . . . , aj , . . . , am i,
ha1 , . . . , ai , . . . , aj , . . . , am i = ha1 , . . . , aj , . . . , ai , . . . , am i.
130 3. Matrizen

Indem wir vorstehende Überlegung iterativ auf die Situation V = K n


anwenden, folgt die Behauptung. 

Theorem 4 (Gauß-Elimination). Jede Matrix A ∈ K m×n lässt sich


mittels elementarer Zeilentransformationen auf Zeilenstufenform brin-
gen, d. h. auf die Form
 
0 . . . 0 β1 . . . ∗ ∗ . . . ∗ ... ∗ ... ∗ ∗ ... ∗
0 . . . 0 0 . . . 0 β2 . . . ∗ ... ∗ ... ∗ ∗ ... ∗
 
0 ... 0 0 ... 0 0 ... 0 ... ∗ ... ∗ ∗ ... ∗
 
 ... ... ... ... ... ... 
 
B= 
0 ... 0 0 ... 0 0 ... 0 ... 0 . . . 0 βr . . . ∗ 
 
0 ... 0 0 ... 0 0 ... 0 ... 0 ... 0 0 ... 0
 
 ... ... ... ... ... ... 
0 ... 0 0 ... 0 0 ... 0 ... 0 ... 0 0 ... 0

mit Koeffizienten β1 , . . . , βr ∈ K ∗ an den Positionen (1, j1 ), . . . , (r, jr ),


wobei r ≥ 0 und j1 < . . . < jr gelte. Die ersten r Zeilen von B bilden
dann eine Basis des von den Zeilenvektoren von A in K n erzeugten
linearen Unterraums. Insbesondere gilt

rgz A = rgz B = r.

Beweis. Es seien b1 , . . . , bm die Zeilen der obigen Matrix B. Wir wollen


zunächst zeigen, dass b1 , . . . , br linear unabhängig sind und damit eine
Basis des linearen Unterraums

hb1 , . . . , br i = hb1 , . . . , bm i ⊂ K n

bilden. Wenn wir A mittels elementarer Zeilentransformationen in B


überführen können (was wir weiter unten zeigen werden), so handelt es
sich gemäß Satz 3 bei diesem Unterraum gerade um den von den Zei-
lenvektoren von A erzeugten linearen Unterraum von K n . Insbesondere
ergibt sich rgz AP
= rgz B = r.
Gelte etwa ri=1 αi bi = 0 für gewisse Koeffizienten αi ∈ K. Hat
man dann B = (βij )i,j , also mit βi,ji = βi für i = 1, . . . , r, so erhält
man die Gleichungen
3.2 Gauß-Elimination und der Rang einer Matrix 131

α1 β1 = 0,
α1 β1,j2 + α2 β2 = 0,
α1 β1,j3 + α2 β2,j3 + α3 β3 = 0,
... ...
α1 β1,jr + α2 β2,jr + α3 β3,jr + ... + αr βr = 0,

woraus sich zunächst α1 = 0, dann α2 = 0 usw. bis schließlich αr = 0


ergibt. Es folgt die lineare Unabhängigkeit von b1 , . . . , br .
Es bleibt noch zu zeigen, dass sich jede Matrix A ∈ K m×n , etwa
A = (αij )i,j , auf Zeilenstufenform bringen lässt. Hierzu gehe man wie
folgt vor. Da die Nullmatrix bereits Zeilenstufenform besitzt, darf man
A 6= 0 annehmen. Man wähle einen minimalen Index j = j1 , so dass es
ein i mit αij 6= 0 gibt, vertausche die erste mit der i-ten Zeile und setze
β1 = αi,j1 . Durch m − 1 Umformungen des Typs III, welche die erste
Zeile invariant lassen, kann man dann erreichen, dass alle Elemente in
der j1 -ten Spalte unterhalb β1 zu Null werden. Die resultierende Matrix
hat folgende Gestalt:
 
0 . . . 0 β1 ∗ . . . ∗
 0 ... 0 0 
 
 . ... . . A (1) 
0 ... 0 0

Man kann nun dasselbe Verfahren in einem zweiten Schritt auf A(1)
anstelle von A anwenden. Indem man die für A(1) benötigten Transfor-
mationen als Zeilentransformationen der Gesamtmatrix interpretiert
und das Verfahren genügend oft wiederholt, lässt sich in rekursiver
Weise die behauptete Zeilenstufenform realisieren. Erhält man dabei
in einem r-ten Schritt erstmalig A(r) als Null- oder leere Matrix, so ist
die Konstruktion beendet. 

Wir wollen ein Beispiel zur Transformation einer Matrix auf Zei-
lenstufenform betrachten:
       
0 0 2 0 1 1 0 1 1 0 1 1
0 2 4 ✲ 0 2 4 ✲ 0 0 2 ✲ 0 0 2
0 1 1 0 0 2 0 0 2 0 0 0
132 3. Matrizen

Das Gaußsche Eliminationsverfahren kann man insbesondere ver-


wenden, um die Dimension eines von gewissen gegebenen Vektoren
erzeugten linearen Unterraums U = ha1 , . . . , am i ⊂ K n zu berechnen
bzw. um eine Basis von U anzugeben. In Verbindung mit der Dimen-
sionsformel 1.6/5 ist es dann möglich, die Dimension des Schnittes
U ∩ U ′ zweier linearer Unterräume U, U ′ ⊂ K n zu ermitteln. Weiter
kann man natürlich zu einer linearen Abbildung f : K n ✲ K m eine
Basis des Bildes und damit insbesondere den Rang rg f bestimmen (wo-
bei man Vektoren in K m am besten als Zeilenvektoren interpretiert).
Aus der Dimensionsformel 2.1/10 ergibt sich dann auch die Dimension
des Kerns von f . Dass das Gaußsche Eliminationsverfahren überdies
dazu geeignet ist, eine Basis von ker f anzugeben, werden wir genau-
er noch im Abschnitt 3.5 über lineare Gleichungssysteme sehen. Bei
der Lösung dieser Gleichungssysteme führt das Gaußsche Verfahren zu
einer sukzessiven Reduzierung des Systems der unbekannten Größen,
bis man schließlich ein Restsystem von Größen erhält, deren Werte frei
gewählt werden können. Einige der unbekannten Größen werden also
entfernt (eliminiert), so dass die Bezeichnung Eliminationsverfahren
plausibel wird.
In Analogie zu den elementaren Zeilenumformungen kann man na-
türlich auch elementare Spaltenumformungen bzw. Spaltentransforma-
tionen von Matrizen erklären. Solche Umformungen lassen sich als Mul-
tiplikation von rechts mit geeigneten Elementarmatrizen interpretieren,
und man kann ähnlich wie in Theorem 4 zeigen, dass sich jede Matrix
auf Spaltenstufenform transformieren lässt. Man braucht sich dies aber
nicht in allen Details zu überlegen, denn wir wollen als Nächstes das
Transponieren von Matrizen behandeln. Unter diesem Prozess gehen
elementare Zeilenumformungen über in elementare Spaltenumformun-
gen und umgekehrt. Ähnliches gilt für Matrizen in Zeilenstufenform
bzw. Spaltenstufenform.

Definition 5. Es sei
A = (αij )i=1,...,m ∈ K m×n .
j=1,...,n

Dann heißt
At = (αij )j=1,...,n ∈ K n×m
i=1,...,m

die zu A transponierte Matrix.


3.2 Gauß-Elimination und der Rang einer Matrix 133

Die Zeilen von At werden somit durch j = 1, . . . , n parametrisiert


und die Spalten durch i = 1, . . . , m, wobei At an der Position (j, i),
also dem Schnittpunkt von j-ter Zeile und i-ter Spalte, das Element
αij als Koeffizient besitzt, das sich in A an der Position (i, j) befin-
det. Mit anderen Worten, At geht aus A hervor, indem man Spalten-
und Zeilenindex miteinander vertauscht. Dies entspricht einer Spiege-
lung von A an der Hauptdiagonalen, die durch die Positionen (i, i),
i = 1, . . . , min(m, n), charakterisiert ist. Somit ergeben die Zeilenvek-
toren von A die Spaltenvektoren von At und entsprechend die Spal-
tenvektoren von A die Zeilenvektoren von At . Unmittelbar ersichtlich
ist:

Bemerkung 6. Die Abbildung K m×n ✲ K n×m , A ✲ At , ist ein


Isomorphismus von K-Vektorräumen. Insbesondere gilt
(A + B)t = At + B t , (αA)t = αAt
für A, B ∈ K m×n , α ∈ K.

Bemerkung 7. Für A ∈ K m×n gilt (At )t = A sowie rgz A = rgs At


und rgs A = rgz At .

Bemerkung 8. Es gilt (A · B)t = B t · At für zwei komponierbare


Matrizen A, B.

Wir wollen nur den Beweis zu Bemerkung 8 angeben. Für


A = (αij )i,j ∈ K m×n , B = (βjk )j,k ∈ K n×p
ergibt sich
X  t X 
t
(A · B) = αij βjk = αij βjk
i,k k,i
j j
X 
= βjk αij = B t · At ,
j k,i

wie behauptet. 

Als Nächstes zeigen wir, dass das Transponieren von Matrizen dem
Dualisieren linearer Abbildungen entspricht.
134 3. Matrizen

Satz 9. Es sei f : V ✲ W eine lineare Abbildung zwischen endlich-


dimensionalen K-Vektorräumen mit Basen X von V und Y von W .
Ist dann X ∗ (bzw. Y ∗ ) die duale Basis zu X (bzw. Y ), und bezeichnet
f∗ : W∗ ✲ V ∗ die zu f duale lineare Abbildung, so gilt

Af ∗ ,Y ∗ ,X ∗ = (Af,X,Y )t .

Beweis. Es sei
X = (x1 , . . . , xn ), Y = (y1 , . . . , ym ),
X ∗ = (x∗1 , . . . , x∗n ), Y ∗ = (y1∗ , . . . , ym
∗ ),

wobei man also x∗j (xν ) = δjν und yi∗ (yµ ) = δiµ hat. Insbesondere wird
dann für ϕ ∈ V ∗ die eindeutig bestimmte P Darstellung als Linearkom-
bination der Basis X ∗ durch ϕ = nj=1 ϕ(xj )x∗j gegeben. Dies ist eine
Konsequenz von 2.1/7, wie wir bereits im Beweis zu 2.3/5 gesehen hat-
ten. Somit lässt sich die zu f ∗ gehörige Matrix wie folgt beschreiben:
∗ ) ∗  = f ∗ (y ∗ )(x )
Af ∗ ,Y ∗ ,X ∗ = f ∗ (y1∗ )X ∗ , . . . , f ∗ (ym X i j j=1,...,n
i=1,...,m

Ist nun die Matrix zu f gegeben durch


m
X
Af,X,Y = (αij )i=1,...,m , d. h. durch f (xj ) = αµj yµ ,
j=1,...,n
µ=1

so erhält man für i = 1, . . . , m


n
X n
X
f ∗ (y ∗ ) =
i f ∗ (yi∗ )(xj ) · x∗j = (yi∗ ◦ f )(xj ) · x∗j
j=1 j=1
Xn n
X X
m 

= yi∗ f (xj ) · x∗j = y∗
i αµj yµ · x∗j
j=1 j=1 µ=1
Xn
= αij · x∗j ,
j=1

und dies bedeutet


Af ∗ ,Y ∗ ,X ∗ = (αij )j=1,...,n = (Af,X,Y )t ,
i=1,...,m

wie behauptet. 
3.2 Gauß-Elimination und der Rang einer Matrix 135

Benutzen wir nun 2.3/7, dass nämlich in der Situation von Satz 9
die Abbildungen f und f ∗ den gleichen Rang besitzen, so ergibt sich
mit den Bemerkungen 2 und 7 die Beziehung

rgs Af,X,Y = rg f = rg f ∗ = rgs Af ∗ ,Y ∗ ,X ∗



= rgs (Af,X,Y )t = rgz Af,X,Y ,

d. h. der Spaltenrang von Af,X,Y stimmt mit dem Zeilenrang dieser


Matrix überein. Da man Matrizen aber stets als lineare Abbildungen
realisieren kann, erhält man als Folgerung zu Satz 9:

Korollar 10. Für Matrizen A ∈ K m×n gilt rgs A = rgz A , d. h.


Spalten- und Zeilenrang stimmen überein.

Wie bereits angedeutet, werden wir von nun an rg A anstelle von


rgs A bzw. rgz A schreiben und diese Zahl als den Rang der Matrix
A bezeichnen. Die Übereinstimmung von Spalten- und Zeilenrang bei
Matrizen ist ein nicht-triviales Resultat, das wir hier auf einfache Weise
als Anwendung der Theorie dualer Abbildungen gewonnen haben. Man
kann dieses Resultat aber auch anders herleiten, indem man benutzt,
dass sich der Zeilen- bzw. Spaltenrang einer Matrix A nicht ändert,
wenn man A von links oder rechts mit sogenannten invertierbaren Ma-
trizen multipliziert; vgl. Abschnitt 3.4.
Schließlich wollen wir unter Benutzung von Korollar 10 noch zei-
gen, dass die in Theorem 4 beschriebene Transformation einer Matrix
A auf Zeilenstufenform auch Rückschlüsse auf die Spaltenvektoren die-
ser Matrix zulässt. Letzteres ist insbesondere dann von Vorteil, wenn
man aus einem gegebenen System von Spaltenvektoren ein maximales
linear unabhängiges Teilsystem auswählen möchte. Ein wesentlicher
Punkt bei diesen Überlegungen besteht in der Beobachtung, dass der
Prozess der Transformation einer Matrix A mittels elementarer Zeilen-
umformungen zu einer Matrix B kompatibel ist mit dem Vertauschen
von Spalten in A und entsprechend in B, oder auch mit dem Streichen
von Spalten dieser Matrizen.

Satz 11. Es sei A = (a1 , . . . , an ) ∈ K m×n eine Matrix mit den Spalten
a1 , . . . , an ∈ K m , welche sich mittels elementarer Zeilenumformungen
auf Zeilenstufenform
136 3. Matrizen

 
0 . . . 0 β1 . . . ∗ ∗ . . . ∗ ... ∗ ... ∗ ∗ ... ∗
0 . . . 0 0 . . . 0 β2 . . . ∗ ... ∗ ... ∗ ∗ ... ∗
 
0 ... 0 0 ... 0 0 ... 0 ... ∗ ... ∗ ∗ ... ∗
 
 ... ... ... ... ... ... 
 
B= 
0 ... 0 0 ... 0 0 ... 0 ... 0 . . . 0 βr . . . ∗ 
 
0 ... 0 0 ... 0 0 ... 0 ... 0 ... 0 0 ... 0
 
 ... ... ... ... ... ... 
0 ... 0 0 ... 0 0 ... 0 ...
0 ... 0 0 ... 0
bringen lässt. Dabei sei für i = 1, . . . , r das Element βi ∈ K ∗ jeweils
in der Spalte mit Index ji positioniert, mit 1 ≤ j1 < . . . < jr ≤ n.
Dann sind die Vektoren aj1 , . . . , ajr linear unabhängig, und es gilt
ha1 , . . . , aj i = haj1 , . . . , aji i, j = 1, . . . , n,
wenn i ≤ r jeweils maximal mit ji ≤ j gewählt ist.

Beweis. Verkleinert man die Matrix A zu einer Matrix A′ , indem


man gewisse Spalten mit Indizes j verschieden von j1 , . . . , jr streicht,
oder alle Spalten mit einem Index j ≥ j0 für ein fest gewähltes
j0 ∈ {1, . . . , n}, so erhält man eine zugehörige Zeilenstufenform von
A′ , indem man B durch Streichen der entsprechenden Spalten zu einer
Matrix B ′ verkleinert. Es folgt dann
rgz B ′ = rgz A′ = rgs A′ ,
so dass die Dimension des von den Spalten von A′ erzeugten linea-
ren Unterraums gerade gleich dem Rang von B ′ ist. Insbesondere er-
gibt sich mit diesem Argument die lineare Unabhängigkeit des Systems
aj1 , . . . , ajr ∈ K m und mittels 1.5/14 (ii) auch die behauptete Gleich-
heit linearer Unterräume. 

Aufgaben
1. Man bringe die Matrix
 
1 2 1 2 1 2
2 5 4 5 4 5
A= 1
 ∈ R4×6
4 6 6 6 6
2 5 6 9 7 11
auf Zeilenstufenform.
3.2 Gauß-Elimination und der Rang einer Matrix 137

2. Man berechne den Zeilenrang der Matrix


 
1 1 3 2
A= 1  1 2 3 ∈ K 3×4 ,
1 1 0 0

jeweils für die Körper K = Q und K = F5 ; dabei ist F5 der Körper mit
5 Elementen aus Abschnitt 1.3, Aufgabe 3. (AT 411)
3. Man prüfe, ob das System der folgenden Vektoren ∈ R5 linear unabhän-
gig ist:

(5, 4, 3, 2, 1), (1, 2, 3, 4, 5), (2, 2, 2, 2, 1), (1, 0, 0, 1, 1), (1, 0, 1, 0, 1)

4. Es sei U ⊂ R4 der lineare Unterraum, der von den Vektoren

(1, 2, 1, 2), (2, 5, 4, 5), (1, 4, 6, 6), (2, 5, 6, 9), (2, 6, 7, 8), (1, 1, 0, 3)

erzeugt wird. Man berechne dimR U und gebe eine Basis von U an.
5. Es seien in R5 die folgenden linearen Unterräume gegeben:

U = (1, 0, 1, 0, 1), (2, 3, 4, 1, 2), (0, 3, 2, 1, 0)


U ′ = (1, −1, 1, 0, 2), (1, 3, 3, 1, 1), (1, 2, 3, 1, 2)

Man berechne dimR U und dimR U ′ und zeige U ⊂ U ′ . (AT 412)


6. Man betrachte in R6 die linearen Unterräume

U = (1, 1, 1, 0, 1, 1), (2, 3, 4, 0, 2, 1), (0, 3, 2, 1, 1, 1) ,


U ′ = (2, 6, 6, 2, 2, 1), (0, 9, 4, 3, 0, 1), (1, 2, 3, 1, 2, 1)

und berechne dimR (U ∩ U ′ ).


7. Man betrachte die Linearformen

f1 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (α2 + α3 + α4 + α5 )

f2 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (α1 + 2α2 − α3 − α4 )

f3 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (5α1 + 2α2 − α3 + 2α4 − 2α5 )

f4 : R5 ✲ R, (α1 , . . . , α5 ) ✲ (α1 − α2 + α4 − α5 )

und prüfe, ob diese ein linear unabhängiges System im Dualraum (R5 )∗


definieren.
138 3. Matrizen

8. Die Linearformen f1 , f2 , f3 , f4 seien wie in Aufgabe 7. Für die R-lineare


Abbildung

f : R5 ✲ R4 , x ✲ f1 (x), f2 (x), f3 (x), f4 (x) ,

bestimme man dimR ker f und dimR im f . Weiter gebe man eine Basis
von im f an.
9. Es sei F2 der Körper mit 2 Elementen. Im F2 -Vektorraum F22000 sei eine
Familie von Vektoren (vi )i=1,...,2000 definiert durch


0 falls 4 ∤ i,
vi = (1 + δij )j=1,...,2000 falls 4|i, aber 8 ∤ i,


(1 + δi−1,j + δi+1,j )j=1,...,2000 falls 8|i.

Dabei bedeutet 4|i bzw. 4 ∤ i, dass 4 die Zahl i teilt bzw. nicht teilt,
entsprechend für 8|i und 8 ∤ i. Man betrachte den von den vi erzeugten
linearen Unterraum U ⊂ F22000 , bestimme dimF2 U und gebe eine Basis
von U an. (AT 414)

3.3 Matrizenringe und invertierbare Matrizen

Für n ∈ N ist auf der Menge K n×n aller (n×n)-Matrizen ähnlich wie
bei einem Körper neben der Addition eine Multiplikation gegeben, die
für n ≥ 2 allerdings nicht kommutativ ist. Dabei zeigen Gleichungen
des Typs    
1 0 0 0
· = 0,
0 0 1 0
dass es für n ≥ 2 nicht-triviale Nullteiler in K n×n gibt. Eine Matrix
A ∈ K n×n heißt ein Nullteiler, wenn es eine von Null verschiedene
Matrix B ∈ K n×n mit A · B = 0 oder B · A = 0 gibt.

Definition 1. Eine Menge R mit zwei Verknüpfungen “ + ” (Addition)


und “ · ” (Multiplikation) heißt ein Ring, wenn folgende Bedingungen
erfüllt sind :
(i) R ist eine abelsche Gruppe bezüglich der Addition.
(ii) Die Multiplikation ist assoziativ, d. h. für a, b, c ∈ R gilt

(a · b) · c = a · (b · c).
3.3 Matrizenringe und invertierbare Matrizen 139

(iii) Addition und Multiplikation verhalten sich distributiv, d. h. für


a, b, c ∈ R gilt

a · (b + c) = a · b + a · c, (a + b) · c = a · c + b · c.

Das neutrale Element bezüglich der Addition 0 wird als Nullele-


ment von R bezeichnet. Der Ring R heißt kommutativ, wenn die Mul-
tiplikation kommutativ ist. Weiter nennt man ein Element e ∈ R ein
Einselement, wenn e · a = a = a · e für alle a ∈ R gilt; man schreibt
dann auch 1 anstelle von e.

Natürlich ist ein Einselement eines Ringes, sofern es existiert, ein-


deutig bestimmt. Das einfachste Beispiel eines Ringes ist der Null-
ring 0. Dieser besteht aus einem einzigen Element 0 mit den Verknüp-
fungen 0 + 0 = 0 und 0 · 0 = 0; hier ist also 0 sowohl das Nullelement
wie auch das Einselement. Wir wollen aber noch einige interessantere
Beispiele anführen.
(1) Der Ring Z der ganzen Zahlen ist ein kommutativer Ring mit
Eins unter der gewöhnlichen Addition und Multiplikation.
(2) Jeder Körper, etwa Q, R oder C, ist ein kommutativer Ring
mit Eins.
(3) Es sei V ein K-Vektorraum und R = HomK (V, V ) der K-Vek-
torraum der Endomorphismen von V . Dann ist R ein Ring, der soge-
nannte Endomorphismenring von V , wenn man in R als Addition die
gewöhnliche Addition linearer Abbildungen sowie als Multiplikation
die Komposition linearer Abbildungen betrachtet. Dieser Ring wird
mit EndK (V ) bezeichnet. Er enthält die Nullabbildung 0 : V ✲V
als Nullelement, sowie die identische Abbildung id : V ✲ V als Eins-
element. Man kann sich überlegen, dass EndK (V ) für dimK V ≥ 2 nicht
kommutativ ist.
(4) Für n ∈ N ist der K-Vektorraum K n×n der quadratischen
n-reihigen Matrizen ein Ring unter der in Abschnitt 3.1 eingeführten
Addition und Multiplikation von Matrizen. Es ist K 0×0 der Nullring
und K 1×1 ein Ring, den wir in kanonischer Weise mit dem Körper K
identifizieren können. Weiter ist die Multiplikation in K n×n für n ≥ 2
nicht mehr kommutativ. Die Matrix E = (δij )i,j ∈ K n×n , oftmals auch
mit 1 bezeichnet, ist ein Einselement in K n×n und wird als n-reihige
140 3. Matrizen

Einheitsmatrix bezeichnet. Wie wir bereits zu Beginn gesehen haben,


enthält K n×n für n ≥ 2 nicht-triviale Nullteiler.
Die Beispiele (3) und (4) sind verwandt, wie man mit Hilfe der
Resultate aus Abschnitt 3.1 einsieht. Genauer gilt:

Satz 2. Es sei V ein K-Vektorraum und X = (x1 , . . . , xn ) eine Basis


von V . Dann ist die Abbildung

Ψ : EndK (V ) ✲ K n×n , f ✲ Af,X,X ,

ein Isomorphismus von Ringen, d. h. eine bijektive Abbildung mit

Ψ (f + g) = Ψ (f ) + Ψ (g), Ψ (f ◦ g) = Ψ (f ) · Ψ (g)

für alle Elemente f, g ∈ EndK (V ).

Beweis. Aufgrund von 3.1/4 ist Ψ eine bijektive Abbildung, die mit
der Addition verträglich ist. Die Verträglichkeit mit der Multiplikation
folgt aus 3.1/9. 

Ist a ein Element eines Ringes R mit Eins, so heißt ein Element
b ∈ R invers zu a, wenn a · b = 1 = b · a gilt. Das inverse Element
zu a ∈ R ist, falls es existiert, stets eindeutig bestimmt. Sind nämlich
zwei Elemente b, b′ ∈ R invers zu a, oder genauer, ist b invers zu a und
gilt lediglich a · b′ = 1 (bzw. alternativ b′ · a = 1), so folgt

b = b · 1 = b · (a · b′ ) = (b · a) · b′ = 1 · b′ = b′ ,

bzw.
b = 1 · b = (b′ · a) · b = b′ · (a · b) = b′ · 1 = b′ .
Man schreibt a−1 für das inverse Element zu a und nennt a in diesem
Fall invertierbar oder eine Einheit. In einem Körper ist jedes Element
a 6= 0 eine Einheit. Andererseits gibt es in Matrizenringen K n×n für
n ≥ 2 stets nicht-triviale Nullteiler, und solche Matrizen können keine
Einheiten sein. Ist nämlich A ∈ K n×n eine Einheit und B ∈ K n×n eine
Matrix mit A · B = 0, so folgt notwendig B = A−1 · A · B = 0 mit der
inversen Matrix A−1 zu A.
3.3 Matrizenringe und invertierbare Matrizen 141

Bemerkung 3. In jedem Ring R mit Eins ist die Menge R∗ aller


Einheiten eine Gruppe bezüglich der Multiplikation.

Diese Aussage ergibt sich unmittelbar aus den definierenden Ei-


genschaften eines Ringes bzw. einer Einheit.

Bemerkung 4. Es sei V ein K-Vektorraum und f ∈ EndK (V ). Dann


ist äquivalent:
(i) Es existiert ein Element g ∈ EndK (V ) mit f ◦ g = idV = g ◦ f ,
d. h. f ist eine Einheit in EndK (V ).
(ii) f ist ein Automorphismus von V .

Beweis. Die Beziehung f ◦ g = idV impliziert, dass f surjektiv ist, und


entsprechend g ◦ f = idV , dass f injektiv ist. Aus Bedingung (i) ergibt
sich somit (ii), und umgekehrt folgert man aus (ii) auch (i), wenn man
g als Umkehrabbildung zu f erklärt. 

Die Einheitengruppe des Endomorphismenrings EndK (V ) besteht


also gerade aus allen Automorphismen von V . Wir bezeichnen diese
Gruppe mit AutK (V ) und nennen sie die Automorphismengruppe von
V . Die Einheitengruppe des Matrizenrings K n×n wird mit GL(n, K)
bezeichnet; man spricht hier von der allgemeinen linearen Gruppe (gen-
eral linear group). Die Elemente von GL(n, K) heißen invertierbare
(oder umkehrbare, bzw. reguläre, bzw. nicht-singuläre, bzw. nicht-
ausgeartete) Matrizen.

Satz 5. Es sei V ein K-Vektorraum und X = (x1 , . . . , xn ) eine Basis


von V . Dann beschränkt sich der Isomorphismus
Ψ : EndK (V ) ∼✲ K n×n , f ✲ Af,X,X ,

aus Satz 2 zu einem Isomorphismus


AutK (V ) ∼✲ GL(n, K)
der zugehörigen Einheitengruppen, d. h. zu einer bijektiven Abbildung,
welche die jeweiligen Gruppenstrukturen respektiert.

Beweis. Ψ bildet die identische Abbildung idV ∈ EndK (V ) auf die


Einheitsmatrix E ∈ K n×n ab, also das Einselement von EndK (V ) auf
142 3. Matrizen

das Einselement von K n×n . Hieraus ergibt sich unmittelbar, dass Ψ


Einheiten in Einheiten überführt. Da die Umkehrabbildung Ψ −1 ent-
sprechende Eigenschaften besitzt, folgt die Behauptung. 

Wir wollen den Inhalt des Satzes noch in einem etwas allgemeineren
Rahmen formulieren.

Satz 6. Es sei f : V ✲ W eine K-lineare Abbildung zwischen Vek-


torräumen mit Basen X = (x1 , . . . , xn ) und Y = (y1 , . . . , yn ). Die
beschreibende Matrix A = Af,X,Y ist genau dann invertierbar, wenn f
ein Isomorphismus ist.

Beweis. Man überlegt sich wie im Beweis zu Bemerkung 4, dass f genau


dann bijektiv ist, wenn es eine K-lineare Abbildung g : W ✲ V mit
f ◦ g = idW und g ◦ f = idV gibt. Letzteres ist aber aufgrund von
3.1/4 und 3.1/9 äquivalent zu der Existenz einer Matrix B ∈ K n×n
mit Af,X,Y · B = 1 und B · Af,X,Y = 1. 

Korollar 7. Für eine Matrix A ∈ K n×n ist äquivalent:


(i) A ist invertierbar.
(ii) Es existiert eine Matrix B ∈ K n×n mit B · A = 1.
(iii) Es existiert eine Matrix B ∈ K n×n mit A · B = 1.
(iv) rg A = n.

Beweis. Wir realisieren A als lineare Abbildung, etwa als Abbildung

f : Kn ✲ K n, x ✲ A · x.

Dann ist A die zu f gehörige Matrix bezüglich der kanonischen Basis


auf K n . Indem wir Satz 5 sowie 3.2/2 benutzen, genügt es zu zeigen,
dass die folgenden Bedingungen äquivalent sind:
(i′ ) f ist ein Automorphismus.
(ii′ ) Es existiert eine K-lineare Abbildung g : K n ✲ K n , derart
dass g ◦ f = id gilt.
(iii′ ) Es existiert eine K-lineare Abbildung g : K n ✲ K n , derart
dass f ◦ g = id gilt.
(iv′ ) rg f = n.
3.3 Matrizenringe und invertierbare Matrizen 143

Ist f ein Automorphismus, so folgen natürlich die Bedingungen


(ii ), (iii′ ) und (iv′ ). Umgekehrt, hat man (ii′ ), so ist f injektiv und

nach 2.1/11 ein Automorphismus. Unter den Bedingungen (iii′ ) bzw.


(iv′ ) schließlich ist f surjektiv und damit ebenfalls ein Automorphismus
aufgrund von 2.1/11. 

Bedingung (iv) aus Korollar 7 gibt uns ein nützliches Kriterium für
die Invertierbarkeit einer Matrix A ∈ K n×n , insbesondere deshalb, weil
wir den Rang einer Matrix mittels elementarer Zeilenumformungen in
expliziter Weise bestimmen können; vgl. 3.2/4. So sieht man etwa, dass
für i, j ∈ {1, . . . , n}, i 6= j, und α ∈ K ∗ die Elementarmatrizen

E + (α − 1)Eii , E + αEij , E − Eii − Ejj + Eij + Eji

aus K n×n invertierbar sind; dabei sei E wie in Abschnitt 3.2 die Ein-
heitsmatrix in K n×n sowie Eij = (δiµ δjν )µ,ν . Die Elementarmatrizen
gehen nämlich durch elementare Zeilenumformungen aus der Einheits-
matrix E hervor, haben also denselben Rang wie diese, also n; vgl.
3.2/3. Weiter unten werden wir die Inversen zu den aufgeführten Ele-
mentarmatrizen (die sich im Übrigen leicht “erraten” lassen) auch noch
explizit bestimmen.
Wir können die gerade beschriebene Argumentation dazu nutzen,
um das in Abschnitt 3.2 behandelte Gaußsche Eliminationsverfahren
auf die Invertierung von Matrizen auszudehnen. Man gehe etwa aus
von einer Matrix A ∈ K n×n . Dann kann man A gemäß 3.2/4 mit-
tels elementarer Zeilenumformungen auf Zeilenstufenform B bringen.
Nehmen wir nun A als invertierbar an, so gilt rg A = rg B = n ge-
mäß Korollar 7, und es stehen in der Situation von 3.2/4 die Elemente
β1 , . . . , βn gerade auf der Hauptdiagonalen, also:
 
β1 ∗ ∗ . . . ∗
 0 β2 ∗ . . . ∗ 
 
B= . . .
. . ∗
0 0 . . . 0 βn

Man kann nun für i = 1, . . . , n jeweils die i-te Zeile mit βi−1 mul-
tiplizieren und dementsprechend annehmen, dass alle βi den Wert 1
haben. Sodann kann man Vielfache der n-ten Zeile von den übrigen
144 3. Matrizen

Zeilen subtrahieren und auf diese Weise erreichen, dass alle Elemen-
te in der n-ten Spalte oberhalb von βn zu Null werden. Entsprechend
kann man die übrigen Spalten behandeln, und es folgt, dass sich A im
Falle der Invertierbarkeit mittels elementarer Zeilenumformungen in
die Einheitsmatrix E überführen lässt. Jede solche Zeilenumformung
lässt sich interpretieren als Multiplikation mit einer Elementarmatrix
von links, wie wir in Abschnitt 3.2 gesehen haben. Wir finden daher
Elementarmatrizen S1 , . . . , Sr ∈ K n×n mit
Sr · . . . · S1 · A = E,
und Multiplikation mit A−1 von rechts ergibt A−1 = Sr · . . . · S1 . Indem
wir
A−1 = Sr · . . . · S1 · E
schreiben, sehen wir Folgendes: Diejenigen elementaren Zeilenumfor-
mungen, die A in die Einheitsmatrix E überführen, führen E selbst in
die Matrix A−1 über!
Das Verfahren zur Invertierung von Matrizen kann man daher wie
folgt beschreiben: Man bringe A mittels einer Folge elementarer Zeilen-
umformungen auf Zeilenstufenform und führe bei jedem Schritt die ent-
sprechende Zeilenumformung auch an der Einheitsmatrix durch. Wenn
man dann an der Zeilenstufenform rg A = n ablesen kann, ist A inver-
tierbar, und man fahre fort, bis man A in die Einheitsmatrix überführt
hat. Die aus der Einheitsmatrix durch die entsprechenden Umformun-
gen gewonnene Matrix ist dann die zu A inverse Matrix A−1 . Beispiels-
weise erkennt man auf diese Weise für α ∈ K, i 6= j:
−1
E + (α − 1)Eii = E + (α−1 − 1)Eii
(E + αEij )−1 = E − αEij
(E − Eii − Ejj + Eij + Eji )−1 = E − Eii − Ejj + Eij + Eji

Als Nebenprodukt dieses Verfahrens können wir noch vermerken:

Satz 8. Jede invertierbare Matrix A ∈ GL(n, K) ist ein Produkt von


Elementar matri zen des Typs
E + (α − 1)E , ii α ∈ K ∗ , i = 1, . . . , n,
E + Eij , i 6= j, 1 ≤ i, j ≤ n.

Dabei ist E ∈ K n×n die Einheitsmatrix und Eij = (δµi δνj )µ,ν .
3.3 Matrizenringe und invertierbare Matrizen 145

Beweis. Wir haben gerade gesehen, dass A mittels elementarer Zeilen-


umformungen des Typs I – IV aus Abschnitt 3.2 in die Einheitsmatrix
überführt werden kann und dass A−1 das Produkt der entsprechenden
Elementarmatrizen ist. Nun kann man aber eine elementare Zeilenum-
formung des Typs III, also Addition des α-fachen der j-ten Zeile zur
i-ten Zeile für α ∈ K ∗ und gewisse Indizes i 6= j, auch als eine Folge
von elementaren Zeilenumformungen der Typen I und II interpretieren:
Man multipliziere die j-te Zeile mit α, addiere sie zur i-ten Zeile und
multipliziere die j-te Zeile anschließend wieder mit α−1 . Entsprechend
kann man auch eine elementare Zeilenumformung des Typs IV, also
das Vertauschen von i-ter und j-ter Zeile für gewisse Indizes i 6= j, als
eine Folge von Umformungen der Typen I und II interpretieren: Man
addiere die j-te Zeile zur i-ten Zeile, multipliziere die j-te Zeile mit −1,
addiere die i-te Zeile zur j-ten Zeile und subtrahiere schließlich die j-te
Zeile von der i-ten Zeile. Dabei ist der letzte Schritt eine Umformung
vom Typ III, also zerlegbar in eine Folge von Umformungen der Typen
I und II.
Indem wir vorstehende Überlegung auf A−1 anstelle von A anwen-
den, sehen wir, dass A wie behauptet ein Produkt von Elementarma-
trizen ist, die zu den elementaren Zeilenumformungen der Typen I und
II korrespondieren. 

Möchte man zu einer gegebenen Matrix A ∈ GL(n, K) deren Zer-


legung in Elementarmatrizen konkret bestimmen, so verfährt man am
besten wie folgt: Man überführt A mittels elementarer Zeilenumfor-
mungen in die Einheitsmatrix und erhält auf diese Weise eine Zerlegung
der Form A−1 = Sr · . . . · S1 mit Elementarmatrizen S1 , . . . , Sr . Inver-
senbildung liefert dann A = S1−1 · . . . · Sr−1 , wobei es sich bei den Si−1 ,
wie oben beschrieben, wiederum um Elementarmatrizen handelt. Will
man sich auf die in Satz 8 genannten Elementarmatrizen beschränken,
so sind die Si−1 gegebenenfalls noch weiter zu zerlegen.

Aufgaben
1. Es sei X eine Menge und R ein Ring mit 1. Man zeige, dass die Menge
Abb(X, R) aller Abbildungen X ✲ R unter der gewöhnlichen Addi-
tion bzw. Multiplikation R-wertiger Funktionen einen Ring bildet. Man
beschreibe die Einheitengruppe dieses Ringes.
146 3. Matrizen

2. Man gebe einen K-Vektorraum V mit Nichteinheiten f, g ∈ EndK (V )


an, so dass f ◦ g = idV gilt.
3. Es sei f : U ✲ U ein Endomorphismus eines endlich-dimensionalen
K-Vektorraums. Dann ist äquivalent: (AT 415)
(i) rg f < dimK U .
(ii) f ist ein Links-Nullteiler in EndK (V ), d. h. es existiert ein Endo-
morphismus g ∈ EndK (V ), g 6= 0, mit f ◦ g = 0.
(iii) f ist ein Rechts-Nullteiler in EndK (V ), d. h. es existiert ein Endo-
morphismus g ∈ EndK (V ), g 6= 0, mit g ◦ f = 0.
Insbesondere ist ein Links-Nullteiler in EndK (V ) auch Rechts-Nullteiler
und umgekehrt. Entsprechendes gilt im Matrizenring K n×n .
4. Man überprüfe folgende Matrizen auf Invertierbarkeit und gebe gegebe-
nenfalls die inverse Matrix an:
   
1 2 3 2 4 1 1 1 2 0
1 1 2 2 4  1 0 2 1 0
   
1 3 4 3 7 , 1 1 1 2 1 ∈ R5×5
   
2 3 5 3 8  0 1 2 1 0
0 0 1 0 1 1 1 1 2 0

5. Falls möglich schreibe man die folgenden Matrizen als Produkt von Ele-
mentarmatrizen:
   
1 0 0 1 1 1 1 1
1 1 0 3  0 1 1 1
    4×4
1 1 1 4 , 0 0 1 1 ∈ R
1 0 1 2 0 0 0 1

6. Für A ∈ GL(n, K) zeige man (A−1 )t = (At )−1 .


7. Für m, r, s ∈ N − {0} betrachte man Matrizen

A ∈ K m×m , B ∈ K m×s , C ∈ K r×m , D ∈ K r×s

mit  
A B
rg = m,
C D

wobei A invertierbar sei. Man zeige D = C · A−1 · B. (AT 417)


3.4 Basiswechsel 147

3.4 Basiswechsel

Wir haben gesehen, dass man K-lineare Abbildungen zwischen Vektor-


räumen bei Fixierung von Basen durch Matrizen beschreiben kann. In
diesem Abschnitt soll insbesondere untersucht werden, wie sich die be-
schreibende Matrix ändert, wenn man die zugehörigen Basen wechselt.
Wir beginnen mit einer Charakterisierung von Basen.

Bemerkung 1. Sei V ein K-Vektorraum Pn und X = (x1 , . . . , xn ) eine


Basis von V . Zu n Elementen yj = i=1 αij xi ∈ V , j = 1, . . . , n, mit
Koeffizienten αij ∈ K betrachte man die Matrix A = (αij )i,j ∈ K n×n ,
also die Matrix Af,X,X der durch xj ✲ yj erklärten K-linearen Ab-
bildung f : V ✲ V . Dann ist äquivalent:
(i) Y = (y1 , . . . , yn ) ist eine Basis von V .
(ii) rg A = n.
(iii) A ∈ GL(n, K), d. h. A ist invertierbar.

Beweis. Ist Y eine Basis von V , so ist f ein Isomorphismus, und es


folgt rg A = rg f = dimK V = n mit 3.2/2. Gilt weiter rg A = n, so
hat man A ∈ GL(n, K) nach 3.3/7. Aus letzter Bedingung wiederum
ergibt sich mit 3.3/6, dass f ein Isomorphismus ist, und folglich, dass
Y eine Basis ist. 

Ist Y in der Situation von Bemerkung 1 eine Basis von V , so be-


zeichnen wir A = (αij )i,j als Matrix eines Basiswechsels. Man kann
dann, und dies werden wir zur Präzisierung der Art des Basiswech-
sels stets so handhaben, A auch als Matrix zur identischen Abbil-
dung id : V ✲ V bezüglich der Basen Y und X interpretieren, also
A = Aid,Y,X . Insbesondere ergibt sich aus Bemerkung 1, dass sich bei
fixierter Basis X von V jede Matrix A ∈ GL(n, K) als Basiswechselma-
trix der Form Aid,Y,X mit einer geeigneten Basis Y von V interpretieren
lässt. Aus der Gleichung

Aid,Y,X · Aid,X,Y = Aid,X,X = 1,

vgl. 3.1/9, lesen wir ab:


148 3. Matrizen

Bemerkung 2. Es sei V ein K-Vektorraum mit endlichen Basen X


und Y . Dann ist die Basiswechselmatrix Aid,Y,X invertierbar, und ihr
Inverses wird gegeben durch die Basiswechselmatrix Aid,X,Y .

Weiter folgt aus 3.1/7:

Bemerkung 3. Es sei V ein K-Vektorraum mit endlichen Basen X


und Y . Für a ∈ V bezeichne aX bzw. aY den Koordinatenspaltenvektor
von a bezüglich X bzw. Y . Dann gilt

aX = Aid,Y,X · aY , aY = Aid,X,Y · aX .

Als Nächstes soll untersucht werden, wie sich die beschreibende


Matrix einer linearen Abbildung unter Basiswechsel verhält.

Satz 4. Es sei f : V ✲ W eine K-lineare Abbildung zwischen end-


lich-dimensionalen K-Vektorräumen. Sind dann X, X ′ Basen von V
und Y, Y ′ Basen von W , so gilt

Af,X ′ ,Y ′ = (Aid,Y ′ ,Y )−1 · Af,X,Y · Aid,X ′ ,X .

Beweis. Indem man 3.1/9 auf f = idW ◦f ◦ idV anwendet, erhält man

Af,X ′ ,Y ′ = Aid,Y,Y ′ · Af,X,Y · Aid,X ′ ,X ,

mit Aid,Y,Y ′ = (Aid,Y ′ ,Y )−1 . 

Korollar 5. Es sei f : V ✲ V ein Endomorphismus eines endlich-


dimensionalen K-Vektorraums V mit Basen X, X ′ . Dann gilt

Af,X ′ ,X ′ = (Aid,X ′ ,X )−1 · Af,X,X · Aid,X ′ ,X .

Wir wollen nun noch einige Anwendungen zum Rang einer Matrix
geben.

Satz 6. Für Matrizen S ∈ GL(m, K), A ∈ K m×n und T ∈ GL(n, K)


gilt
rg(S · A · T ) = rg A.
3.4 Basiswechsel 149

Beweis. Zu A betrachte man die lineare Abbildung

f : Kn ✲ K m, a ✲ A · a.

Dann ist A die zu f gehörige Matrix, wenn man in K n und K m jeweils


die kanonische Basis zugrunde legt. Interpretiert man dann S −1 als
Matrix eines Basiswechsels in K m und T als Matrix eines Basiswechsels
in K n , so ergibt sich

rg(S · A · T ) = rg f = rg A

mit 3.2/2 und Satz 4. 

Lemma 7. Es sei f : V ✲ W eine K-lineare Abbildung zwischen


Vektorräumen mit dimK V = n und dimK W = m. Sei r = rg f .
Dann existiert eine Basis X = (x1 , . . . , xn ) von V sowie eine Basis
Y = (y1 , . . . , ym ) von W mit
 
Er 0
Af,X,Y = ,
0 0

wobei Er die (r × r)-Einheitsmatrix ist und 0 jeweils geeignete (mögli-


cherweise auch leere) Bereiche mit Koeffizienteneinträgen 0 bezeichnet.

Beweis. Man wähle eine Basis y1 , . . . , yr von im f und ergänze diese zu


einer Basis Y = (y1 , . . . , ym ) von W . Seien weiter x1 , . . . , xr f -Urbilder
zu y1 , . . . , yr . Diese sind linear unabhängig, vgl. 2.1/5, und lassen sich,
wie im Beweis zu 2.1/10 gezeigt, durch Elemente xr+1 , . . . , xn ∈ ker f
zu einer Basis X von V ergänzen. Sodann gilt
(
yj für j = 1, . . . , r,
f (xj ) =
0 für j = r + 1, . . . , n,

d. h. Af,X,Y ist von der gewünschten Form. 

Satz 8. Es sei A ∈ K m×n mit rg A = r. Dann existieren invertierbare


Matrizen S ∈ GL(m, K) und T ∈ GL(n, K) mit
 
Er 0
S·A·T = ,
0 0
150 3. Matrizen

wobei Er die (r × r)-Einheitsmatrix ist und 0 jeweils geeignete (mögli-


cherweise auch leere) Bereiche mit Koeffizienteneinträgen 0 bezeichnet.

Beweis. Wir betrachten die lineare Abbildung

f : Kn ✲ K m, a ✲ A · a,

deren Matrix bezüglich der kanonischen Basen in K n und K m durch


A gegeben wird. Nach Lemma 7 gibt es dann Basen X von K n und Y
von K m , so dass Af,X,Y von der behaupteten Gestalt ist. Nach Satz 4
gilt Af,X,Y = S · A · T mit Basiswechselmatrizen, also invertierbaren
Matrizen S und T . 

Abschließend wollen wir noch andeuten, wie man die Überlegun-


gen dieses Abschnitts dazu benutzen kann, um zu zeigen, dass bei
einer Matrix stets der Spalten- mit dem Zeilenrang übereinstimmt.
Wir hatten dieses Resultat bereits in 3.2/10 hergeleitet, und zwar un-
ter Verwendung der Theorie dualer Abbildungen. Sei also A ∈ K m×n .
Dann können wir A als Matrix Af,X,Y zu einer K-linearen Abbildung
f: V ✲ W bezüglich einer Basis X von V bzw. Y von W interpre-
tieren, wobei sich der Spaltenrang von A nach 3.2/2 zu rgs A = rg f
berechnet. Invertierbare Matrizen S ∈ GL(m, K), T ∈ GL(n, K) kön-
nen als Basiswechselmatrizen aufgefasst werden, so dass mit Satz 4 die
Gleichung rgs (S · A · T ) = rg f folgt. Sodann ergibt sich

rgs (S · A · T ) = rgs A

für beliebige Matrizen S ∈ GL(m, K), T ∈ GL(n, K). Diese Gleichung


ist aber auch für den Zeilenrang richtig, denn es gilt

rgz (S · A · T ) = rgs (S · A · T )t = rgs (T t · At · S t ) = rgs At = rgz A.

Man benötigt hierfür außer den Resultaten 3.2/7 und 3.2/8 lediglich,
dass mit S ∈ GL(m, K) auch S t invertierbar ist, entsprechend für
T , was aber unmittelbar klar ist. Wählt man nun S und T so, dass
S · A · T die in Satz 8 angegebene einfache Gestalt besitzt, so gilt
natürlich rgs (S · A · T ) = rgz (S · A · T ), und es folgt die gewünschte
Beziehung

rgs A = rgs (S · A · T ) = rgz (S · A · T ) = rgz A.


3.5 Lineare Gleichungssysteme 151

Aufgaben
1. Man zeige, dass die folgenden Systeme von Vektoren

X = (1, 1, 1, 2, 0), (1, 0, 2, 1, 0), (1, 1, 1, 2, 1), (1, 1, 2, 1, 0), (0, 1, 1, 2, 0) ,

Y = (1, 2, 3, 4, 4), (1, 1, 2, 3, 4), (1, 3, 4, 6, 7), (2, 3, 5, 6, 8), (0, 0, 1, 1, 1)

jeweils eine Basis von R5 bilden. Wie lauten die Basiswechselmatrizen


Aid,X,Y und Aid,Y,X ? (AT 420)
2. Es sei V ein K-Vektorraum endlicher Dimension n > 0. Man beschreibe
alle Basiswechselmatrizen A ∈ K n×n , welche eine gegebene Basis X
von V , abgesehen von der Reihenfolge der Basisvektoren, wieder in sich
selbst überführen.
3. Es sei V ein K-Vektorraum endlicher Dimension n > 0. Für gegebene
Matrizen A, B ∈ K n×n beweise man die Äquivalenz folgender Bedin-
gungen:
(i) Es existiert eine Matrix S ∈ GL(n, K) mit B = S −1 AS.
(ii) Es existieren f ∈ EndK (V ) und Basen X, Y von V mit Af,X,X = A
und Af,Y,Y = B.
4. Für Matrizen A, B ∈ K m×n schreibe man A ∼ B, falls es S ∈ GL(m, K)
und T ∈ GL(n, K) gibt mit B = SAT . Man zeige, dass die Relation “ ∼ ”
eine Äquivalenzrelation ist, beschreibe die zugehörigen Äquivalenzklas-
sen und gebe insbesondere deren Anzahl an. (AT 424)
5. Es sei V 6= 0 ein endlich-dimensionaler K-Vektorraum mit den Basen
X, Y und V ∗ sein Dualraum mit den dualen Basen X ∗ , Y ∗ . Man zei-
ge, dass für die Basiswechselmatrizen A = Aid,X,Y und Aid,X ∗ ,Y ∗ die
Relation Aid,X ∗ ,Y ∗ = (A−1 )t gilt.

3.5 Lineare Gleichungssysteme

Für eine Matrix A = (αij )i,j ∈ K m×n und einen Vektor b = (b1 , . . . , bm )t
aus K m , den wir als Spaltenvektor auffassen wollen, nennt man

α11 x1 + . . . + α1n xn = b1
α21 x1 + . . . + α2n xn = b2
...
αm1 x1 + . . . + αmn xn = bm
152 3. Matrizen

oder, in Matrizenschreibweise,
A·x=b
ein lineares Gleichungssystem mit Koeffizienten αij ∈ K und den “Un-
bekannten” x1 , . . . , xn , bzw. x = (x1 , . . . , xn )t . Genauer versteht man
hierunter das Problem, alle x ∈ K n zu bestimmen, die die Gleichung
A · x = b erfüllen. Im Falle b = 0 heißt das Gleichungssystem homogen,
ansonsten inhomogen. Wir wollen eine spezielle Bezeichnung für den
Raum der Lösungen eines linearen Gleichungssystems einführen.

Definition 1. Für eine Matrix A ∈ K m×n und einen Spaltenvektor


b ∈ K m bezeichnen wir die Menge

MA,b = x ∈ K n ; A · x = b
als den Lösungsraum des linearen Gleichungssystems A · x = b.

Wir können sofort eine triviale, aber sehr wichtige Feststellung tref-
fen, die Informationen über die Struktur solcher Lösungsräume liefert:

Bemerkung 2. Zu einem linearen Gleichungssystem A · x = b


mit A ∈ K m×n , b ∈ K m betrachte man die K-lineare Abbildung
f : Kn ✲ K m, a ✲ A · a. Dann gilt

MA,b = f −1 (b).
Der Lösungsraum des Gleichungssystems ist daher ein affiner Unter-
raum von K n ; vgl. 2.2/11.
Für b = 0 folgt insbesondere MA,0 = ker f . In diesem Falle ist der
Lösungsraum sogar ein linearer Unterraum von K n .

Wir wollen zunächst homogene lineare Gleichungssysteme, also li-


neare Gleichungssysteme des Typs A · x = 0 genauer studieren. Der
Lösungsraum MA,0 ist dann ein linearer Unterraum von K n , enthält
stets die triviale Lösung 0 ∈ K n und ist folglich nicht leer.

Satz 3. Für A ∈ K m×n ist der Lösungsraum MA,0 des homogenen


linearen Gleichungssystems A · x = 0 ein linearer Unterraum von K n
mit Dimension dimK (MA,0 ) = n − rg A.
3.5 Lineare Gleichungssysteme 153

Beweis. Die lineare Abbildung f : K n ✲ K m, a ✲ A · a, besitzt


MA,0 als Kern, und die Dimensionsformel 2.1/10 liefert die Relation
n = dimK (ker f ) + rg f , also dimK (MA,0 ) = n − rg A. 

Lemma 4. Für A ∈ K m×n und S ∈ GL(m, K) haben die linearen


Gleichungssysteme A · x = 0 und (S · A) · x = 0 dieselben Lösungen,
d. h. MA,0 = MSA,0 .

Beweis. Gilt x ∈ MA,0 , also A · x = 0, so folgt mittels Multiplikation


mit S von links S · A · x = 0, also x ∈ MSA,0 . Umgekehrt, hat man
x ∈ MSA,0 , also S · A · x = 0, so ergibt sich durch Multiplikation mit
S −1 von links A · x = 0, also x ∈ MA,0 . 

Die Aussage des Lemmas ist von besonderem Nutzen, wenn man
ein konkret gegebenes homogenes lineares Gleichungssystem der Form
A · x = 0 explizit lösen möchte. Man kann nämlich das Gaußsche Eli-
minationsverfahren anwenden und A gemäß 3.2/4 mittels elementarer
Zeilenumformungen auf Zeilenstufenform bringen. Da solche Umfor-
mungen auch als Multiplikation von links mit Elementarmatrizen, also
invertierbaren Matrizen, interpretiert werden können, ändert sich der
Lösungsraum des betrachteten homogenen linearen Gleichungssystems
dabei nicht. Man darf daher ohne Beschränkung der Allgemeinheit an-
nehmen, dass A Zeilenstufenform besitzt. Um unsere Bezeichnungen
übersichtlich zu gestalten, wollen wir von A zu einer weiteren Matrix
A′ in Zeilenstufenform übergehen, bei der die einzelnen Stufen auf der
Hauptdiagonalen liegen, d. h. zu einer Matrix
 
α11 . . . . . . . . . . . . . . . . . . . . . . α1n
 α22 . . . . . . . . . . . . . . . . . α2n 
 
 . . . 
 
 ... 

A =  
0 α . . . α 
 rr rn 
 0 ... 0 
 
 ... 
0 ... 0

mit Koeffizienten α11 , . . . , αrr ∈ K ∗ , r = rg A. Eine solche Zeilen-


stufenform kann man aus einer Zeilenstufenform allgemeinen Typs A
154 3. Matrizen

durch Vertauschen von Spalten, also durch eine gewisse Umnumme-


rierung der Spalten von A herstellen. Bezeichnet man mit x′ das ent-
sprechend umnummerierte Tupel der Unbekannten x = (x1 , . . . , xn ),
so sieht man mittels explizitem Ausschreiben der linearen Gleichungs-
systeme Ax = 0 und A′ x′ = 0, dass beide Systeme äquivalent sind.
Genauer, man erhält die Lösungen von Ax = 0 aus den Lösungen
von A′ x′ = 0, indem man die zuvor durchgeführte Umnummerierung
der Komponenten bei den Lösungen von A′ x′ = 0 wieder rückgängig
macht. Eine ausführliche Analyse dieses Prozesses mittels sogenann-
ter Permutationsmatrizen wird weiter unten in den Aufgaben 7 und 8
durchgeführt.
Wir können somit annehmen, dass unsere Matrix A die oben be-
schriebene Zeilenstufenform A′ besitzt. Durch Ausführen weiterer ele-
mentarer Zeilenumformungen kann man dann αii = 1 für i = 1, . . . , r
erreichen und außerdem, dass alle Elemente in der i-ten Spalte ober-
halb von αii verschwinden. Wir erreichen damit, dass die Matrix A von
der Form  
1 α1,r+1 . . . α1,n
 1 α2,r+1 . . . α2,n 
 
 .. .. .. 
 
 .. .. .. 
 
 1 αr,r+1 . . . αr,n 
 
0 . . . . . . . . . . . . . 0 
 
0 . . . . . . . . . . . . . 0 
 
.. .. 
0 . . . . . . . . . . . . . 0
ist, wobei sich in der linken oberen Ecke die (r × r)-Einheitsmatrix
befindet. Somit ist folgendes Gleichungssystem zu lösen:
n
X
xi + αij xj = 0, i = 1, . . . , r
j=r+1

Dies ist ohne Aufwand möglich, da man die Werte xr+1 , . . . , xn ∈ K


beliebig vorgeben darf und sich die Werte von x1 , . . . , xr hieraus zu
n
X
xi = − αij xj , i = 1, . . . , r,
j=r+1
bestimmen.
3.5 Lineare Gleichungssysteme 155

Die Arbeit beim Lösen des linearen Gleichungssystems A · x = 0


reduziert sich damit auf das Herstellen der oben angegebenen speziel-
len Zeilenstufenform von A. Insbesondere wird deutlich, warum dieses
nach Gauß benannte Verfahren als Eliminationsverfahren bezeichnet
wird. Aus der ersten Gleichung ergibt sich x1 in Abhängigkeit von
xr+1 , . . . , xn , aus der zweiten x2 in Abhängigkeit von xr+1 , . . . , xn usw.
Es werden also nach und nach unbekannte Größen eliminiert, bis man
zu einem Restsystem von Größen gelangt, deren Werte frei wählbar
sind. Dies äußert sich darin, dass die Projektion

Kn ✲ K n−r , (a1 , . . . , an )t ✲ (ar+1 , . . . , an )t ,

einen Isomorphismus MA,0 ∼✲ K n−r induziert. Insbesondere sehen


wir nochmals dimK MA,0 = n − r ein, und es wird klar, dass man durch
Liften einer Basis von K n−r , etwa der kanonischen, eine Basis von MA,0
erhält. In obiger Notation besteht diese dann aus den Vektoren

vj = (−α1j , . . . , −αrj , δr+1j , . . . , δnj )t , j = r + 1, . . . , n.

Das Verfahren zur Bestimmung einer Basis des Lösungsraums MA,0


eines homogenen linearen Gleichungssystems A · x = 0 gestaltet sich
daher wie folgt:
Man transformiere A auf die spezielle oben beschriebene Zeilenstu-
fenform. Für j = r + 1, . . . , n sei vj ∈ K n derjenige Vektor, dessen
Komponenten mit Index i = 1, . . . , r jeweils aus dem Negativen der
entsprechenden Komponenten der j-ten Spalte der Zeilenstufenform
von A bestehen und dessen Komponenten mit Index i = r + 1, . . . , n
gerade diejenigen des (j −r)-ten Einheitsvektors aus K n−r seien. Dann
bilden vr+1 , . . . , vn eine Basis von MA,0 .
Im Prinzip behält diese Regel auch dann ihre Gültigkeit, wenn
wir bei der Herstellung der Zeilenstufenform von A auf Spaltenvertau-
schungen und damit auf ein Umnummerieren der Unbekannten verzich-
ten. Die Rolle der Indizes i = 1, . . . , r (bzw. i = r + 1, . . . , n) wird, was
die Spaltenindizes der Zeilenstufenform von A wie auch die Indizes der
Komponenten der vj angeht, in diesem Falle von denjenigen Spalten-
indizes übernommen, bei denen die Zeilenstufenform “springt” (bzw.
nicht “springt”). Hiermit meinen wir diejenigen Spalten, die im Sinne
156 3. Matrizen

der Notation von 3.2/4 eines (bzw. keines) der dort positionierten Ele-
mente β1 , . . . , βr ∈ K ∗ enthalten. Um die Lösungen auch in diesem
Falle formelmäßig zu beschreiben, gehen wir von der entsprechenden
speziellen Zeilenstufenform von A aus, die nunmehr die Gestalt

1 j1 j2 ⊳ Spaltenindex ⊲ jr n
 
0 ... 0 1 ∗ ... ∗ 0 ∗ ... ∗ ... ∗ ... ∗ 0 ∗ ... ∗
0 ... 0 0 0 ... 0 1 ∗ ... ∗ ... ∗ ... ∗ 0 ∗ ... ∗
 
0 ... 0 0 0 ... 0 0 0 ... 0 ... ∗ ... ∗ 0 ∗ ... ∗
 
 ... ... ... ... ... ... 
 
 
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 1 ∗ ... ∗
 
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 0 0 ... 0
 
 ... ... ... ... ... ... 
0 ... 0 0 0 ... 0 0 0 ... 0 ... 0 ... 0 0 0 ... 0

besitzt. Bezeichnet dann J ′ das Komplement der Menge der Spalten-


indizes in {1, . . . , n}, bei denen die Zeilenstufenform A “springt”, also
J ′ = {1, . . . , n} − {j1 , . . . ., jr }, so ist das lineare Gleichungssystem
X
x ji + αij ′ xj ′ = 0, i = 1, . . . , r,
j ′ ∈J ′

zu lösen. Wiederum kann man die Werte der xj ′ ∈ K für j ′ ∈ J ′ beliebig


vorgeben und die Werte der xji für i = 1, . . . , r daraus berechnen. Die
Projektion

Kn ✲ K n−r , (a1 , . . . , an )t ✲ (aj ′ )tj ′ ∈J ′ ,

liefert daher einen Isomorphismus MA,0 ∼✲ K n−r , und durch Lif-


ten der kanonischen Basis von K n−r erhält man eine Basis von MA,0
bestehend aus den Vektoren

vj ′ = (ξ1j ′ , . . . , ξnj ′ )t , j ′ ∈ J ′,

mit
(
−αij ′ für i′ = ji mit i ∈ {1, . . . , r},
ξ
i′ j ′ = .
δi′ j ′ für i′ ∈ J ′
3.5 Lineare Gleichungssysteme 157

Wir wollen ein Beispiel betrachten. Sei K = R, m = 3, n = 4 und


 
0 0 1 2

A= 1 2 1 3 .
1 2 2 5
Das lineare Gleichungssystem A · x = 0 schreibt sich dann ausführlich
in der Form:

x3 + 2x4 = 0
x1 + 2x2 + x3 + 3x4 = 0
x1 + 2x2 + 2x3 + 5x4 = 0

Bringen wir nun A mittels elementarer Zeilenumformungen auf die


spezielle Zeilenstufenform, also
     
1 2 1 3 1 2 1 3 1 2 0 1
A ✲  0 0 1 2  ✲ 0 0 1 2 ✲  0 0 1 2 ,
1 2 2 5 0 0 1 2 0 0 0 0
so “springt” diese Stufenform genau bei den Spaltenindizes 1 und 3.
Wir lesen daher nach der oben beschriebenen Regel als Basis des Lö-
sungsraums MA,0 ab:

v2 = (−2, 1, 0, 0)t , v4 = (−1, 0, −2, 1)t

Argumentieren wir etwas ausführlicher, so bleibt das lineare Glei-


chungssystem

x1 + 2x2 + x4 = 0,
x3 + 2x4 = 0

zu lösen. Die Projektion

K4 ✲ K 2, (a1 , . . . , a4 )t ✲ (a2 , a4 )t ,

liefert einen Isomorphismus MA,0 ∼✲ K 2 , und wir liften die kanoni-


sche Basis von K 2 zu einer Basis von MA,0 :

x2 = 1, x4 = 0 =⇒ x1 = −2, x3 = 0
x2 = 0, x4 = 1 =⇒ x1 = −1, x3 = −2
158 3. Matrizen

Insbesondere gilt dimK MA,0 = 2, und wir erkennen, wie bereits oben
angegeben,
MA,0 = (−2, 1, 0, 0)t , (−1, 0, −2, 1)t .
Als Nächstes wollen wir den Allgemeinfall behandeln, also inhomo-
gene lineare Gleichungssysteme des Typs A·x = b, wobei der Fall b = 0
nicht explizit ausgeschlossen werden soll. Im Folgenden bezeichnen wir
mit (A, b) ∈ K m×(n+1) diejenige Matrix, die aus A durch Hinzufügen
von b als (n + 1)-ter Spalte entsteht.

Satz 5. Zu A ∈ K m×n und Spaltenvektoren b ∈ K m betrachte man das


lineare Gleichungssystem A · x = b.
(i) A · x = b ist genau dann lösbar (d. h. besitzt mindestens eine
Lösung), wenn rg A = rg(A, b) gilt.
(ii) A · x = b ist genau dann universell lösbar (d. h. besitzt für jedes
b ∈ K m mindestens eine Lösung), wenn rg A = m gilt.
(iii) A · x = b besitzt genau dann für alle b ∈ K m höchstens eine
Lösung, wenn rg A = n gilt.

Beweis. Es sei f : K n ✲ K m, a ✲ A · a, die durch A gegebe-


ne lineare Abbildung. Dann gilt MA,b = f −1 (b) für den Lösungsraum
zu A · x = b; vgl. Bemerkung 2. Somit ist MA,b genau dann nicht
leer, wenn b zum Bild von f gehört. Sind a1 , . . . , an ∈ K m die Spal-
ten von A, so gilt im f = ha1 , . . . , an i, und es ist b ∈ im f äquivalent
zu ha1 , . . . , an i = ha1 , . . . , an , bi. Da aber ha1 , . . . , an i stets ein linea-
rer Unterraum von ha1 , . . . , an , bi ist, kann man mit 1.5/14 (ii) bereits
dann auf die Gleichheit beider Räume schließen, wenn ihre Dimensio-
nen übereinstimmen. Die Dimensionen sind aber gerade die Ränge der
Matrizen A bzw. (A, b). Somit sehen wir, dass MA,b 6= ∅ äquivalent zu
rg A = rg(A, b) ist, wie in (i) behauptet.
Wegen MA,b = f −1 (b) ist A · x = b genau dann universell lösbar,
wenn f surjektiv ist, also im f = K m gilt. Letzteres ist äquivalent zu
rg f = m und somit zu rg A = m, wie in (ii) behauptet.
Die eindeutige Lösbarkeit von A · x = b schließlich, wie in (iii)
betrachtet, ist äquivalent zur Injektivität von f . Indem man die Di-
mensionsformel 2.1/10 für f benutzt, also

n = dimK (ker f ) + rg f,
3.5 Lineare Gleichungssysteme 159

sieht man, dass die Injektivität von f äquivalent zu rg f = n bzw.


rg A = n ist. 

Gilt m = n in der Situation von Satz 5, so ist die universelle


Lösbarkeit in Bedingung (ii) äquivalent zu der höchstens eindeutigen
Lösbarkeit in Bedingung (iii). Mit 3.3/7 folgt daher:

Korollar 6. Für eine Matrix A ∈ K n×n ist äquivalent:


(i) Das lineare Gleichungssystem A·x = b ist universell für b ∈ K n
lösbar.
(ii) Das lineare Gleichungssystem A · x = 0 besitzt nur die triviale
Lösung.
(iii) A ist invertierbar.

Wir wollen noch etwas genauer auf die Struktur von Lösungsräu-
men inhomogener linearer Gleichungssysteme eingehen. Das nachfol-
gende Resultat zeigt dabei nochmals, dass es sich bei solchen Lösungs-
räumen um affine Unterräume handelt.

Satz 7. Für A ∈ K m×n und b ∈ K m habe man eine Lösung v0 ∈ MA,b


des linearen Gleichungssystems A · x = b. Dann gilt MA,b = v0 + MA,0 .
Mit anderen Worten, die Gesamtheit aller Lösungen des inhomogenen
Systems A·x = b erhält man in der Form v0 +v, wobei v0 eine beliebige,
sogenannte partikuläre Lösung dieses Systems ist und v alle Lösungen
des zugehörigen homogenen Systems A · x = 0 durchläuft.

Beweis. Wir betrachten wieder die durch A gegebene lineare Abbildung

f : Kn ✲ K m, x ✲ A · x,

wobei MA,b = f −1 (b) gilt. Für v0 ∈ MA,b folgt dann mit 2.2/2

MA,b = f −1 f (v0 ) = v0 + ker f = v0 + MA,0 ,

wie behauptet. 

Wir wollen nun noch zeigen, wie man mit Hilfe des Gaußschen Eli-
minationsverfahrens auch inhomogene lineare Gleichungssysteme lösen
160 3. Matrizen

kann. Zunächst eine nützliche Beobachtung, die als Verallgemeinerung


von Lemma 4 zu sehen ist:

Lemma 8. Für A ∈ K m×n , b ∈ K m und S ∈ GL(m, K) haben die


linearen Gleichungssysteme A · x = b und (S · A) · x = S · b dieselben
Lösungen, d. h. MA,b = MSA,Sb .

Beweis. Indem man mit S bzw. S −1 von links multipliziert, sieht man,
dass A · x = b für x ∈ K n äquivalent zu S · A · x = S · b ist. 

Man darf also zur Lösung eines linearen Gleichungssystems der


Form A · x = b die Matrix A mittels elementarer Zeilenumformungen
beliebig abändern, wenn man gleichzeitig diese Umformungen auch bei
b, aufgefasst als (m×1)-Matrix, durchführt; solche Umformungen las-
sen sich nämlich als Multiplikation von links mit Elementarmatrizen,
also invertierbaren Matrizen auffassen. Am einfachsten ist es dann, A
und b zu der Matrix (A, b) zusammenzufügen und diese Matrix mittels
elementarer Zeilenumformungen zu verändern. Solche Umformungen
sind kompatibel mit der Beschränkung auf einzelne Spalten. Sie wir-
ken insbesondere separat auf die Matrix A und die Spalte b, d. h. es
gilt S · (A, b) = (SA, Sb) für S ∈ GL(m, K).
Wie im homogenen Fall transformiere man nun (A, b) zunächst auf
Zeilenstufenform. Nach eventueller Umnummerierung der Unbekann-
ten x1 , . . . , xn können wir annehmen, dass die transformierte Matrix
die Gestalt
 
1 α1,r+1 . . . α1,n β1
 1 α2,r+1 . . . α2,n β2 
 
 .. .. .. .. 
 
 .. .. .. .. 
 
 1 αr,r+1 . . . αr,n βr 
 
0 . . . . . . . . . . . . . 0 βr+1 
 
0 . . . . . . . . . . . . . 0 0 
 
.. .. .. 
0 . . . . . . . . . . . . . 0 0

SA Sb
3.5 Lineare Gleichungssysteme 161

besitzt, wobei sich in der linken oberen Ecke die (r×r)-Einheitsmatrix


befindet und S das Produkt der benötigten Elementarmatrizen andeu-
tet. Wie im homogenen Fall folgt r = rg A, und man sieht, dass die
Bedingung rg A = rg(A, b) bzw. rg(SA) = rg(SA, Sb) äquivalent zu
βr+1 = 0 ist. Das System A · x = b ist also genau dann lösbar, wenn in
obiger Zeilenstufenform βr+1 = 0 gilt. Ist Letzteres der Fall, so ergibt
sich n
X
xi + αij xj = βi , i = 1, . . . , r,
j=r+1

als transformiertes Gleichungssystem. Indem man xr+1 , . . . , xn = 0


setzt, gelangt man zu einer partikulären Lösung v0 mit den Kompo-
nenten (
βj für j = 1, . . . , r
ξj = .
0 für j = r + 1, . . . , n

Bestimmt man nun noch, wie bereits vorgeführt, den Lösungsraum


MA,0 des homogenen Systems A·x = 0, so ergibt sich MA,b = v0 + MA,0
gemäß Satz 7. Insgesamt lässt sich feststellen, dass sich die Lösung v0 ,
wie auch eine Basis vr+1 , . . . , vn des Lösungsraums MA,0 in direkter
Weise aus der hergeleiteten speziellen Zeilenstufenform der Ausgangs-
matrix (A, b) ablesen lassen. Ähnlich wie im Falle homogener linearer
Gleichungssysteme gilt dies auch dann, wenn man keine Umnummerie-
rung der Unbekannten zulässt und stattdessen die Indizes i = 1, . . . , r
durch diejenigen Spaltenindizes j1 , . . . , jr ersetzt, bei denen die Zeilen-
stufenform von A “springt”. Es ist dann das Gleichungssystem
X
x ji + αij ′ xj ′ = βi , i = 1, . . . , r,
j ′ ∈J ′

mit J ′ = {1, . . . , n} − {j1 , . . . , jr } zu lösen. Eine partikuläre Lösung


v0 ∈ MA,b wird in diesem Falle durch den Vektor v0 = (ξ1 , . . . , ξn )t ∈ K n
mit den Komponenten
(
βi für j = ji mit i ∈ {1, . . . , r}
ξj =
0 sonst

gegeben.
162 3. Matrizen

Als Beispiel wollen wir für K = R das System A · x = b lösen mit


   
0 0 1 2 1
A = 1 2 1 3 , b = 1 .
1 2 2 5 3

Den Lösungsraum MA,0 des zugehörigen homogenen Systems hatten


wir bereits bestimmt. Wir bringen zunächst die Matrix (A, b) auf spe-
zielle Zeilenstufenform, also
     
1 2 1 3 1 1 2 1 3 1 1 2 0 1 0
(A, b) 7→ 0 0 1 2 1 7→ 0 0 1 2 1 7→  0 0 1 2 1 ,
1 2 2 5 3 0 0 1 2 2 0 0 0 0 1

woraus man rg(A, b) = 3 > 2 = rg A entnimmt. Das System A · x = b


besitzt daher keine Lösung, d. h. es gilt MA,b = ∅.
Alternativ wollen wir das obige Gleichungssystem auch noch für
b = (1, 1, 2)t betrachten. Die Transformation von (A, b) auf spezielle
Zeilenstufenform liefert dann
     
1 2 1 3 1 1 2 1 3 1 1 2 0 1 0
(A, b) 7→ 0 0 1 2 1 7→ 0 0 1 2 1 7→  0 0 1 2 1 .
1 2 2 5 2 0 0 1 2 1 0 0 0 0 0

In diesem Fall gilt rg A = rg(A, b) = 2, und man liest v0 = (0, 0, 1, 0)


als partikuläre Lösung ab.
In ausführlicherer Argumentation ist das System

x1 + 2x2 + x4 = 0
x3 + 2x4 = 1

zu betrachten. Um eine partikuläre Lösung zu berechnen, setzen wir


x2 = x4 = 0 und erhalten x1 = 0, x3 = 1, also (0, 0, 1, 0)t ∈ MA,b .
Da wir bereits gezeigt haben, dass die Vektoren (−2, 1, 0, 0)t und
(−1, 0, −2, 1)t eine Basis von MA,0 bilden, ergibt sich

MA,b = (0, 0, 1, 0)t + (−2, 1, 0, 0)t , (−1, 0, −2, 1)t .


3.5 Lineare Gleichungssysteme 163

Aufgaben

1. Für eine Matrix und Vektoren


     
1 1 1 1 1 1 1
1 0 1 0 1 1  1
A= 2 3 4
 ∈ R4×5 , b=  4
1 ∈ R , b′ =  
 1 ∈ R
4
5 6
0 2 2 4 4 1 −1

bestimme man alle Lösungen


(i) des homogenen linearen Gleichungssystems A · x = 0,
(ii) des inhomogenen linearen Gleichungssystems A · x = b,
(iii) des inhomogenen linearen Gleichungssystems A · x = b′ .
2. Für reelle Matrizen
     
1 1 1 1 1 1 1 1 1 1 1 1
1 2 3  1 2 3 4  1 2 3 4 5 
A=    
1 4 9 , B = 1 4 9 16, C = 1

4 9 16 25 
1 8 27 1 8 27 64 1 8 27 64 125

und Vektoren b ∈ R4 untersuche man die linearen Gleichungssysteme


A · x = b, B · x = b und C · x = b auf universelle bzw. höchstens
eindeutige Lösbarkeit in x ∈ R3 , bzw. x ∈ R4 , bzw. x ∈ R5 . Sind diese
Systeme speziell für b = (1, 0, 0, 0)t lösbar?
3. Man betrachte eine Matrix A ∈ K m×n sowie verschiedene Spaltenvek-
toren b ∈ K m und zeige:
(i) Das lineare Gleichungssystem Ax = b ist genau dann universell
lösbar, wenn es eine Matrix B ∈ K n×m mit A · B = Em gibt.
(ii) Das lineare Gleichungssystem Ax = b ist genau dann höchstens
eindeutig lösbar, wenn es eine Matrix B ∈ K n×m mit B · A = En
gibt.
Dabei seien Em ∈ K m×m und En ∈ K n×n die jeweiligen Einheitsmatri-
zen.
4. Man zeige, dass jeder affine Unterraum in K n Lösungsraum eines geeig-
neten linearen Gleichungssystems mit Koeffizienten aus K ist.
5. Es sei f : V ✲ W eine R-lineare Abbildung, die bezüglich geeigneter
Basen X von V und Y von W durch die Matrix
164 3. Matrizen
 
1 1 2 4 8
1 2 1 2 1
Af,X,Y =
2
 ∈ R4×5
2 2 2 1
1 2 2 2 2

gegeben sei. Man bestimme eine Basis von ker f . (AT 426)
6. Man betrachte in R6 die linearen Unterräume

U = (1, 1, 1, 0, 1, 1), (2, 3, 4, 0, 2, 1), (0, 3, 2, 1, 1, 1) ,


U ′ = (2, 6, 6, 2, 2, 1), (0, 9, 4, 3, 0, 1), (1, 2, 3, 1, 2, 1)

und bestimme U ∩ U ′ durch Angabe einer Basis.


7. Es sei A = (a1 , . . . , an ) ∈ K m×n eine Matrix, wobei a1 , . . . , an ∈ K m die
Spalten von A bezeichnen. Sei b ∈ K m ein weiterer Spaltenvektor und
S ∈ GL(n, K) eine invertierbare Matrix. Man zeige MA,b = SMAS,b für
die Lösungsräume der linearen Gleichungssysteme Ax = b und ASy = b.
(AT 427)
8. Es sei S in der Situation von Aufgabe 7 speziell eine Permutations-
matrix. Dies bedeutet, dass es eine Umnummerierung (Permutation)
(π1 , . . . , πn ) der Indizes (1, . . . , n) gibt, so dass S = (eπ1 , . . . , eπn ) gilt.
Dabei bezeichnen e1 , . . . , en ∈ K n die kanonischen Einheitsspaltenvek-
toren. Man zeige:
(i) AS = (aπ1 , . . . , aπn ).
(ii) S t x = (xπ1 , . . . , xπn )t für Spaltenvektoren x = (x1 , . . . , xn )t ∈ K n .
(iii) S t S = E mit der Einheitsmatrix E = (e1 , . . . , en ), also S −1 = S t .
Man benutze nun die Gleichung MA,b = SMAS,b aus Aufgabe 7, um
erneut einzusehen, dass man zum Lösen des linearen Gleichungssystems
Ax = b die Spalten von A und die Komponenten von x = (x1 , . . . , xn )t
umnummerieren darf (d. h. man ersetze A durch AS und x durch
y = S t x), sofern man dies bei den erhaltenen Lösungen wieder rück-
gängig macht (durch Multiplikation der Lösungen von ASy = b mit
S = (S t )−1 von links).
9. Es sei f : V ✲ W eine K-lineare Abbildung zwischen (endlich-
dimensionalen) K-Vektorräumen und f ∗ : W ∗ ✲ V ∗ die zugehörige
duale Abbildung. Man zeige für b ∈ W , dass die “lineare Gleichung”
f (x) = b genau dann in x ∈ V lösbar ist, wenn ϕ(b) = 0 für alle
ϕ ∈ ker f ∗ gilt. (AT 427)
3.5 Lineare Gleichungssysteme 165

10. Zu einem K-Vektorraum V endlicher Dimension n betrachte man Line-


arformen ϕ1 , . . . , ϕm ∈ V ∗ und zeige:
(i) Es gilt dimK hϕ1 , . . . , ϕm i = rg f , wobei f : V ✲ K m definiert
sei durch x ✲ (ϕ1 (x), . . . , ϕm (x)).
(ii) Das “lineare Gleichungssystem” ϕi (x) = bi , i = 1, . . . , m, hat genau
dann für alle Wahlen von Elementen b1 , . . . , bm ∈ K eine Lösung
x ∈ V , wenn die Linearformen ϕ1 , . . . , ϕm linear unabhängig sind.
11. Es seien V ein endlich-dimensionaler K-Vektorraum, ϕ1 , . . . , ϕm ∈ V ∗
Linearformen und b1 , . . . , bm ∈ K. Man zeige: Das “lineare Gleichungs-
system”
ϕi (x) = bi , i = 1, . . . , m,
ist genau dann in x ∈ V lösbar, wenn folgende
Pm Bedingung erfüllt ist:
Sind
Pm α1 , . . . , αm ∈ K Koeffizienten mit i=1 αi ϕi = 0, so folgt auch
i=1 αi bi = 0.
4. Determinanten

Überblick und Hintergrund

Jeder quadratischen Matrix A mit Koeffizienten aus einem Körper K


kann man mittels einer gewissen Rechenvorschrift eine Invariante zu-
ordnen, die sogenannte Determinante. Diese ist genau dann von Null
verschieden, wenn die Spalten oder, alternativ, die Zeilen von A linear
unabhängig sind, d. h. genau dann, wenn A invertierbar ist.
Um einen Eindruck davon zu bekommen, wie man in mehr oder
weniger zwangsläufiger Weise auf die Bildung der Determinante geführt
wird, betrachten wir eine Matrix
 
α11 α12
A= ∈ K 2×2
α21 α22
und untersuchen, welche Anforderungen die Koeffizienten αij erfüllen
müssen, damit die Spalten von A linear abhängig werden. Im Falle
A = 0 sind die Spalten von A natürlich trivialerweise linear abhängig.
Es sei deshalb A 6= 0, etwa α11 6= 0. Dann ist der erste Spaltenvektor
von A nicht Null, und die beiden Spalten von A sind genau dann linear
abhängig, wenn es ein c ∈ K mit
α12 = cα11 , α22 = cα21
gibt. Hieraus folgt
α12 α12
c= , α22 = α21
α11 α11
und damit die Beziehung
(∗) α11 α22 − α21 α12 = 0.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, [Link]
168 4. Determinanten

Ein Zurückverfolgen der Rechnung zeigt, dass die Spalten von A unter
der Bedingung α11 6= 0 genau dann linear abhängig sind, wenn der Aus-
druck in (∗) verschwindet. Man kann nun exakt die gleiche Rechnung
durchführen
• für α21 6= 0, wenn man die beiden Zeilen von A vertauscht,
• für α12 6= 0, wenn man die beiden Spalten von A vertauscht,
• für α22 6= 0, wenn man die beiden Spalten und Zeilen von A
vertauscht.
Da bei allen diesen Vertauschungen der Ausdruck in (∗) bis auf das
Vorzeichen unverändert bleibt und da dieser natürlich auch im Falle
A = 0 verschwindet, können wir aus unserer Rechnung ablesen:
Eine (beliebige) Matrix A = (αij ) ∈ K 2×2 hat genau dann maxi-
malen Rang, wenn der Ausdruck det(A) := α11 α22 − α21 α12 , den man
als Determinante von A bezeichnet, nicht verschwindet.
Gegenüber konventionellen Betrachtungen bietet die Determinante
det(A) den ganz wesentlichen Vorteil, dass mit ihrer Hilfe die Maxi-
malität des Rangs von A in direkter Weise von den Koeffizienten αij
der Matrix A abgelesen werden kann, ohne dass Fallunterscheidungen
zu beachten sind. Dieses Phänomen haben wir schon im Rahmen der
Einführung zu Kapitel 3 beobachten können. Dort hatten wir für
   
α11 α12 2×2 β1
A= ∈K , b= ∈ K 2,
α21 α22 β2

wobei A maximalen Rang habe, und einen Vektor von Unbekannten


t = tt12 das Gleichungssystem A · t = b studiert und eine Lösung
erhalten, die sich unter Verwendung der oben definierten Determinante
in der Form
   
β1 α12 α11 β1
det det
β2 α22 α21 β2
t1 =   , t2 =  
α11 α12 α11 α12
det det
α21 α22 α21 α22

schreiben lässt. Auch hier waren bei der Herleitung Fallunterscheidun-


gen notwendig, obwohl sich das Ergebnis am Ende als fallunabhängig
herausstellte. Es handelt sich um den einfachsten Fall der Cramerschen
Regel, die wir in allgemeiner Form in diesem Kapitel beweisen werden.
Überblick und Hintergrund 169

Historisch ist die Einführung von Determinanten in der Tat im


Zusammenhang mit der Lösung linearer Gleichungssysteme zu sehen,
und zwar mit der Entdeckung der nach Cramer benannten Regel. Um
dies etwas genauer zu erläutern, betrachten wir als Beispiel ein System
von 3 linearen Gleichungen mit 3 Unbekannten:

α11 t1 + α12 t2 + α13 t3 = β1


α21 t1 + α22 t2 + α23 t3 = β2
α31 t1 + α32 t2 + α33 t3 = β3

Die Koeffizientenmatrix A = (αij )i,j=1,2,3 habe den Rang 3. Dann


hat die Matrix A′ = (αij )i=1,2,3;j=2,3 noch Rang 2, wobei wir mit-
tels Vertauschung der Reihenfolge der Gleichungen annehmen können,
dass (αij )i=1,2;j=2,3 Rang 2 hat. Wir bemühen uns nun, Koeffizienten
c1 , c2 ∈ K zu finden, derart dass bei Addition des c1 -fachen der ersten
Zeile und des c2 -fachen der zweiten Zeile zur dritten Zeile unseres Glei-
chungssystems die Unbekannten t2 und t3 in der letzten Zeile eliminiert
werden. Dies ist möglich, da nach Annahme die beiden ersten Zeilen
von A′ linear unabhängig sind. Wir müssen hierzu das Gleichungssys-
tem

α12 c1 + α22 c2 = −α32


α13 c1 + α23 c2 = −α33

lösen und erhalten gemäß der Cramerschen Regel für (2×2)-Matrizen


   
−α32 α22 α22 α23
det det
−α33 α23 α32 α33
c1 =   =  ,
α12 α22 α12 α13
det det
α13 α23 α22 α23
   
α12 −α32 α12 α13
det det
α13 −α33 α32 α33
c2 =   =−  ,
α12 α22 α12 α13
det det
α13 α23 α22 α23
 
α12 α13
wobei det nicht verschwindet. Somit ergibt sich als dritte
α22 α23
Gleichung unseres ursprünglichen Systems
170 4. Determinanten

(α11 c1 + α21 c2 + α31 )t1 = β1 c1 + β2 c2 + β3


mit einem Faktor α11 c1 +α21 c2 +α31 , der nicht verschwindet, da sich der
Rang der Koeffizientenmatrix des ursprünglichen Gleichungssystems
nicht geändert hat. Dann aber können wir durch diesen Koeffizienten
dividieren, und es folgt
     
α22 α23 α12 α13 α12 α13
β1 det − β2 det + β3
α32 α33 α32 α33 α22 α23
t1 =      .
α22 α23 α12 α13 α12 α13
α11 det − α21 det + α31
α32 α33 α32 α33 α22 α23
Wir haben diese Formel für t1 unter der Annahme hergeleitet, dass
die beiden ersten Zeilen der Matrix A′ = (αij )i=1,2,3;j=2,3 linear unab-
hängig sind, ein Fall, den wir durch Vertauschen der Reihenfolge der
Gleichungen unseres Systems stets herstellen können. Um zu sehen,
dass die Formel für t1 auch im Allgemeinfall gültig ist, bleibt noch
zu zeigen, dass diese invariant gegenüber solchen Vertauschungen ist.
Dies ist aber leicht nachzuprüfen, wenn man benutzt, dass die Determi-
nante (einer (2×2)-Matrix) invariant unter Transponieren ist und das
Vorzeichen wechselt, wenn man zwei Spalten oder Zeilen der Matrix
vertauscht.
In der Formel für t1 erkennt man, dass Zähler und Nenner nach
dem gleichen Bildungsgesetz aus den Matrizen
   
β1 α12 α13 α11 α12 α13
β2 α22 α23  , α21 α22 α23 
β3 α32 α33 α31 α32 α33
hervorgehen. In Kenntnis der Determinantentheorie würde man sagen,
dass im Zähler und Nenner von t1 jeweils die Determinanten dieser
Matrizen stehen, und zwar in Form ihrer Entwicklung nach der ersten
Spalte. Man kann nun den Ausdruck im Zähler bzw. Nenner von t1 als
Definition der Determinante einer (3×3)-Matrix nehmen, wobei diese
Definition dann Bezug nimmt auf die Kenntnis von Determinanten von
(2×2)-Matrizen.
Das gerade vorgestellte Verfahren funktioniert in induktiver Wei-
se allgemeiner für Systeme von n linearen Gleichungen mit n Unbe-
kannten, sofern die Koeffizientenmatrix maximalen Rang hat. Es er-
gibt sich eine Formel für t1 ähnlich wie oben, wobei im Zähler und
4.1 Permutationen 171

Nenner jeweils eine Summe von Vielfachen von Determinanten von


((n − 1) × (n − 1))-Matrizen steht, in Form der Entwicklung der De-
terminante einer (n×n)-Matrix nach ihrer ersten Spalte. Die gewon-
nenen Ausdrücke kann man zur Definition der Determinante einer
(n × n)-Matrix erheben, wodurch man dann insgesamt eine rekursive
Definition der Determinante einer Matrix erhält.
Man beachte allerdings, dass das obige Verfahren zwar für t1 auf
die Entwicklung der Determinante einer (n×n)-Matrix nach ihrer ers-
ten Spalte führt, für beliebiges tj mit 1 ≤ j ≤ n jedoch auf die Ent-
wicklung nach der j-ten Spalte. Dies sieht man etwa, indem man die
Unbekannten t1 und tj vertauscht. Will man also die Cramersche Re-
gel beweisen und gleichzeitig dabei Determinanten einführen, so hat
man bei jedem Rekursionsschritt auch einige allgemeine Eigenschaf-
ten von Determinanten mitzubeweisen, etwa die Möglichkeit, Deter-
minanten nach beliebigen Spalten (oder Zeilen) zu entwickeln. Wir
werden natürlich nicht in dieser Weise vorgehen. Stattdessen begin-
nen wir mit dem Studium sogenannter Determinantenfunktionen, in
deren Kontext sich automatisch eine allgemeine nicht-rekursive Defi-
nition für Determinanten ergeben wird. Dabei werden einige Fakten
über Permutationen benötigt, die wir zu Beginn des Kapitels zusam-
menstellen. Erst nach Klärung der Definition und der Eigenschaften
von Determinanten beweisen wir schließlich die Cramersche Regel und
im Zusammenhang hiermit auch die Möglichkeit, Determinanten nach
Spalten oder Zeilen zu entwickeln. In einem optionalen Abschnitt geht
es schließlich noch um äußere Produkte, in deren Zusammenhang wir
auch den sogenannten allgemeinen Laplaceschen Entwicklungssatz für
Determinanten herleiten.

4.1 Permutationen

Wir hatten in Abschnitt 1.2 gesehen, dass für eine Menge X die bijek-
tiven Selbstabbildungen X ✲ X eine Gruppe G bilden, wenn man
die Komposition von Abbildungen als Verknüpfung nimmt. Die iden-
tische Abbildung id ∈ G ist das Einselement, und das inverse Element
zu einem Element f : X ✲ X von G wird gegeben durch die inverse
−1
Abbildung f : X ✲ X.
172 4. Determinanten

Wir wollen hier für eine natürliche Zahl n speziell die Menge
X = {1, . . . , n} betrachten, wobei wir X im Falle n = 0 als die leere
Menge annehmen. Für die zugehörige Gruppe der bijektiven Selbstab-
bildungen von X schreibt man dann Sn und nennt dies die symmetri-
sche Gruppe oder die Permutationsgruppe zum Index n. Die Elemente
von Sn heißen Permutationen der Zahlen 1, . . . , n, da sie sozusagen
diese Elemente in ihrer Reihenfolge vertauschen. Gilt für eine Permu-
tation σ ∈ Sn etwa σ(i) = ai für i = 1, . . . , n, so schreibt man auch
 
1 ... n
σ= .
a1 . . . an

Die Permutationsgruppen S0 und S1 enthalten lediglich das Einsele-


ment, welches die identische Abbildung auf X = ∅ bzw. X = {1} re-
präsentiert. Weiter ist S2 eine Gruppe von 2 Elementen und damit
insbesondere abelsch, wohingegen Sn für n ≥ 3 nicht mehr abelsch ist.
Für    
1 2 3 1 2 3
σ= , τ=
1 3 2 2 3 1
gilt beispielsweise
   
1 2 3 1 2 3
σ◦τ = , τ ◦σ = .
3 2 1 2 1 3

Wir wollen die Anzahl der Elemente vonQSn bestimmen. Hierzu


bezeichnen wir für n ∈ N die natürliche Zahl ni=1 i mit n!, wobei das
Rufzeichen “ ! ” als Fakultät gelesen wird. Insbesondere gilt 0! = 1! = 1
sowie 2! = 2.

Bemerkung 1. Es besteht Sn aus genau n! Elementen.

Beweis. Will man eine bijektive Selbstabbildung

σ : {1, . . . , n} ✲ {1, . . . , n}

erklären, so kann man schrittweise vorgehen und zunächst σ(1) festle-


gen, dann σ(2) und so weiter, bis man schließlich σ(n) festlegt. Dabei
genügt es, eine injektive Abbildung zu konstruieren; diese ist wegen der
Endlichkeit der Menge {1, . . . , n} automatisch bijektiv. Für die Wahl
4.1 Permutationen 173

von σ(1) hat man zunächst n Möglichkeiten, denn für σ(1) kann man
jedes Element aus {1, . . . , n} nehmen. Für die Wahl von σ(2) verblei-
ben dann noch n − 1 Möglichkeiten, denn man muss σ(2) ∈ {1, . . . , n}
verschieden von σ(1) wählen, da man eine injektive Abbildung kon-
struieren möchte. Bei der Festlegung von σ(3) hat man noch n − 2
Möglichkeiten und so weiter, bis man schließlich bei der Wahl von σ(n)
lediglich noch eine Möglichkeit hat. Indem man das Produkt
Q über die
einzelnen Anzahlen bildet, erhält man insgesamt n! = ni=1 i als An-
zahl der Möglichkeiten, eine injektive Selbstabbildung von {1, . . . , n}
zu erklären. 

Definition 2. Eine Permutation τ ∈ Sn heißt Transposition, wenn es


zwei verschiedene Zahlen i, j ∈ {1, . . . , n} mit τ (i) = j, τ (j) = i sowie
τ (k) = k für alle restlichen Zahlen k ∈ {1, . . . , n} gibt. Man schreibt
dann auch τ = (i, j).

Die Transposition τ = (i, j) vertauscht also gerade die Zahlen i und


j und lässt ansonsten alle Elemente von {1, . . . , n} fest. Insbesondere
gilt τ 2 = id, d. h. τ ist zu sich selbst invers. Es besteht S2 gerade aus
der identischen Abbildung und der Transposition (1, 2), wohingegen
die Gruppen S0 und S1 keine Transpositionen enthalten.

Satz 3. Jedes π ∈ Sn ist ein Produkt von Transpositionen.

Beweis. Wir schließen mit fallender Induktion nach r(π), wobei r(π)
maximal in {0, 1, . . . , n} gewählt sei mit der Eigenschaft π(i) = i für
i = 1, . . . , r(π). Für r(π) = n gilt π = id, und dies ist ein leeres
Produkt von Transpositionen. Gilt andererseits r = r(π) < n, so folgt
notwendig π(r + 1) > r + 1. Setzen wir τ1 = (r + 1, π(r + 1)), so bildet
das Produkt τ1 π die Elemente 1, . . . , r + 1 identisch auf sich selbst ab,
erfüllt also r(τ1 π) > r(π), und ist somit nach Induktionsvoraussetzung
ein Produkt von Transpositionen, etwa τ1 π = τ2 . . . τs . Multiplikation
mit τ1 = τ1−1 von links liefert dann wie gewünscht π = τ1 . . . τs . 

Man nennt eine Permutation π ∈ Sn gerade oder ungerade, je


nachdem ob sich π als ein Produkt einer geraden oder ungeraden An-
zahl von Transpositionen darstellen lässt. Dabei wollen wir zeigen, dass
174 4. Determinanten

eine Permutation π nicht gerade und ungerade zugleich sein kann. Als
Hilfsmittel führen wir das sogenannte Signum von π ein.

Definition 4. Sei π ∈ Sn . Dann heißt


Y π(j) − π(i)
sgn π =
1≤i<j≤n
j−i

das Signum der Permutation π.

Im Grunde genommen erstreckt sich die Produktbildung bei der


Definition des Signums einer Permutation π ∈ Sn über alle zwei-
elementigen Teilmengen von {1, . . . , n}. Genauer meinen wir hiermit:

Bemerkung 5. Es sei M eine Menge ganzzahliger Indexpaare (i, j)


mit 1 ≤ i, j ≤ n, so dass die Zuordnung (i, j) ✲ {i, j} eine Bijektion
von M auf die Menge der zwei-elementigen Teilmengen von {1, . . . , n}
erklärt. Dann gilt
Y π(j) − π(i)
sgn π =
j−i
(i,j)∈M

Beweis. Zunächst ist {{i, j} ; 1 ≤ i < j ≤ n} eine Beschreibung der


Menge aller zwei-elementigen Teilmengen von {1, . . . , n}. Berücksich-
tigt man dann noch die Gleichung

π(j) − π(i) π(i) − π(j)


=
j−i i−j

so folgt die Behauptung. 

Wir wollen einige Folgerungen aus dieser Bemerkung ziehen.

Satz 6. Sei π ∈ Sn . Dann gilt sgn π = (−1)s , wobei s die Anzahl


aller Fehlstände in der Folge π(1), . . . , π(n) ist, d. h. die Anzahl aller
Paare (π(i), π(j)), 1 ≤ i < j ≤ n, mit π(i) > π(j). Insbesondere folgt
sgn π = ±1. Für eine Transposition π ∈ Sn berechnet sich das Signum
zu sgn π = −1.
4.1 Permutationen 175

Beweis. Jede Permutation π ∈ Sn bildet zwei-elementige Teilmengen


von {1, . . . , n} wieder auf ebensolche Teilmengen ab und induziert auf
diese Weise eine bijektive Selbstabbildung auf der Menge der zwei-
elementigen Teilmengen von {1, . . . , n}. Daher gilt
Y Y 
(j − i) = ± π(j) − π(i)
1≤i<j≤n 1≤i<j≤n

und folglich sgn π = ±1. Genauer erhält man sgn π = (−1)s , wobei s
gleich der Anzahl der Faktoren auf der rechten Seite ist, die negativ
sind, also gleich der Anzahl der Fehlstände in der Folge π(1), . . . , π(n).
Für eine Transposition π = (i, j) mit i < j, also
 
1 ... i − 1 i i + 1 ... j − 1 j j + 1 ... n
π= ,
1 ... i − 1 j i + 1 ... j − 1 i j + 1 ... n

gibt es in der Folge π(1), . . . , π(n) genau j − i Fehlstände der Form


(j, ∗) sowie j − i Fehlstände der Form (∗, i). Da wir dabei (j, i) als
Fehlstand in zweifacher Weise berücksichtigt haben, ergibt sich

sgn π = (−1)2(j−i)−1 = −1,

wie behauptet. 

Satz 7. Die Abbildung sgn : Sn ✲ {1, −1} ist ein Gruppenhomo-


morphismus, d. h. es gilt sgn(σ ◦ τ ) = sgn σ · sgn τ für σ, τ ∈ Sn ; dabei
fasse man {1, −1} als Gruppe bezüglich der Multiplikation auf.

Beweis. Mit Bemerkung 5 können wir wie folgt rechnen:


 
Y σ τ (j) − σ τ (i)
sgn(σ ◦ τ ) =
i<j
j−i
 
Y σ τ (j) − σ τ (i) Y τ (j) − τ (i)
= ·
i<j
τ (j) − τ (i) i<j
j−i
= sgn σ · sgn τ


176 4. Determinanten

Korollar 8. Ist π ∈ Sn darstellbar als ein Produkt von s Transposi-


tionen, so gilt sgn π = (−1)s .

Wir sehen damit, dass eine Permutation π ∈ Sn genau dann ge-


rade, also ein Produkt einer geraden Anzahl von Transpositionen ist,
wenn sgn π = 1 gilt. Entsprechend ist π genau dann ungerade, al-
so ein Produkt einer ungeraden Anzahl von Transpositionen, wenn
sgn π = −1 gilt.
In Satz 7 haben wir von einem Gruppenhomomorphismus gespro-
chen. Allgemein nennt man eine Abbildung f : G ✲ G′ zwischen
zwei Gruppen G und G′ einen Gruppenhomomorphismus, wenn f mit
der Produktbildung in G und G′ verträglich ist, wenn also für g, h ∈ G
stets f (g · h) = f (g) · f (h) folgt. Dann gilt f (1) = 1 für die Einsele-
mente in G und G′ , sowie f (g −1 ) = f (g)−1 für g ∈ G. Man kann sich
leicht überlegen, dass der Kern von f , also ker f = f −1 (1), eine Unter-
gruppe von G ist, sogar ein Normalteiler. Hierunter versteht man eine
Untergruppe N ⊂ G mit g −1 · h · g ∈ N für alle g ∈ G und h ∈ N .
Letzteres ist natürlich nur für nicht-kommutative Gruppen eine echte
Bedingung; in einer kommutativen Gruppe ist jede Untergruppe ein
Normalteiler.
In der Situation von Satz 7 ist also sgn ein Gruppenhomomorphis-
mus von Sn in die multiplikative Gruppe {1, −1}. Der Kern dieses
Homomorphismus besteht aus allen geraden Permutationen aus Sn .
Diese bilden einen Normalteiler und insbesondere eine Untergruppe
An ⊂ Sn . Man nennt An die alternierende Gruppe zum Index n. Zu-
sammenfassend können wir sagen:

Bemerkung 9. Die geraden Permutationen in Sn bilden einen Nor-


malteiler

An = π ∈ Sn ; sgn π = 1 ⊂ Sn .
Weiter besteht

Sn − An = π ∈ Sn ; sgn π = −1

aus allen ungeraden Permutationen in Sn , und es gilt

Sn − An = τ An = An τ
4.1 Permutationen 177

für jede ungerade Permutation τ ∈ Sn . Dabei bezeichnet τ An die Men-


ge aller Produkte τ ◦ π mit π ∈ An , entsprechend für An τ .

Beweis. Es ist nur zeigen, dass sich die ungeraden Permutationen aus
Sn in der Form τ An bzw. An τ beschreiben lassen. Ist τ ungerade, so
sieht man mittels Satz 7, dass τ An und An τ in Sn − An enthalten sind.
Ist umgekehrt π ∈ Sn − An , so sind τ −1 ◦ π und π ◦ τ −1 gerade, woraus
π ∈ τ An bzw. π ∈ An τ folgt. 

Aufgaben

1. Man bestimme das Signum der folgenden Permutationen:


   
1 2 3 4 5 1 2 3 4 5 6 7 8
∈ S5 , ∈ S8
5 4 3 2 1 2 3 1 5 6 8 4 7

2. Eine Permutation π ∈ Sn heißt ein r-Zyklus, wenn es paarweise ver-


schiedene Elemente a1 , . . . , ar ∈ {1, . . . , n} gibt mit

π(ai ) = ai+1 für i = 1, . . . , r − 1,


π(ar ) = a1 ,

und π alle übrigen Elemente von {1, . . . , n} fest lässt. Man bestimme
sgn π für einen r-Zyklus π ∈ Sn . (AT 428)
3. Man zeige, dass jedes Element π ∈ Sn endliche Ordnung besitzt, d. h.
dass es ein r ∈ N − {0} gibt mit π r = 1.
4. Man zeige: Ist N ⊂ Sn ein Normalteiler, der eine Transposition enthält,
so gilt bereits N = Sn . (AT 430)
5. Man bestimme die Anzahl der Elemente der alternierenden Gruppe An .
6. Man zeige für eine Gruppe G und eine Untergruppe N ⊂ G, dass N
bereits dann ein Normalteiler in G ist, wenn gN ⊂ N g für alle g ∈ G
gilt.
7. Für eine Gruppe G bezeichne S(G) die Menge aller bijektiven Abbil-
dungen von G nach G. Man zeige:
(i) S(G) ist eine Gruppe unter der Komposition von Abbildungen.
(ii) Es existiert ein injektiver Gruppenhomomorphismus G ✲ S(G).
178 4. Determinanten

4.2 Determinantenfunktionen

In diesem Abschnitt fixieren wir einen K-Vektorraum V endlicher Di-


mension n und betrachten Abbildungen ∆ : V n ✲ K, sozusagen
K-wertige Funktionen von n Argumenten aus V , wobei V n im Falle
n = 0 nur aus dem leeren Tupel besteht. Eine solche Abbildung heißt
multilinear, wenn sie linear in jedem Argument ist. Dabei nennt man
∆ linear im i-ten Argument, wenn für a1 , . . . , an , a′i ∈ V und α, α′ ∈ K
stets
∆(a1 , . . . , ai−1 , αai + α′ a′i , ai+1 , . . . an )
= α · ∆(a1 , . . . , ai−1 , ai , ai+1 , . . . an )
+ α′ · ∆(a1 , . . . , ai−1 , a′i , ai+1 , . . . an )
gilt. Weiter heißt ∆ alternierend, wenn ∆(a1 , . . . , an ) verschwindet,
sobald zwei der Vektoren a1 , . . . , an übereinstimmen.

Definition 1. Es sei V ein K-Vektorraum endlicher Dimension n.


Eine Determinantenfunktion auf V ist eine alternierende multilineare
Abbildung ∆ : V n ✲ K. Man bezeichnet ∆ als nicht-trivial, wenn ∆
nicht die Nullabbildung ist.

Ähnlich wie K-lineare Abbildungen kann man Determinantenfunk-


tionen addieren oder mit Skalaren aus K multiplizieren, um neue sol-
che Funktionen zu erhalten. Die Determinantenfunktionen auf V bilden
folglich einen K-Vektorraum, und wir werden im Folgenden sehen, dass
dessen Dimension 1 ist, unabhängig von der Dimension von V . Doch
zunächst wollen wir einige elementare Eigenschaften von Determinan-
tenfunktionen angeben.

Bemerkung 2. Zu einem K-Vektorraum V der Dimension n betrachte


man eine multilineare Abbildung ∆ : V n ✲ K. Dann ist äquivalent:
(i) ∆ ist alternierend und damit eine Determinantenfunktion.
(ii) Für jedes linear abhängige System von Vektoren a1 , . . . , an ∈ V
gilt ∆(a1 , . . . , an ) = 0.

Beweis. Es ist nur die Implikation (i)=⇒ (ii) zu zeigen. Seien al-
so a1 , . . . , an linear abhängig. Dann lässt sich einer dieser Vekto-
4.2 Determinantenfunktionen 179

ren, etwa
Pn a1 , als Linearkombination der restlichen darstellen, also
a1 = i=2 βi ai , und es folgt aus (i) unter Benutzung der Multilineari-
tät von ∆
n
X
∆(a1 , . . . , an ) = βi ∆(ai , a2 , . . . , an ) = 0.
i=2

Bemerkung 3. Es sei ∆ eine Determinantenfunktion auf V . Für
Vektoren a1 , . . . , an ∈ V und Indizes 1 ≤ i < j ≤ n gilt dann:
(i) ∆( . . . ai . . . aj . . . ) = −∆( . . . aj . . . ai . . . ), d. h. ∆ ändert
bei Vertauschung zweier verschiedener Argumente das Vorzeichen.
(ii) ∆(aπ(1) , . . . , aπ(n) ) = sgn π · ∆(a1 , . . . , an ) für π ∈ Sn .
(iii) ∆( . . . ai + αaj . . . aj . . . ) = ∆( . . . ai . . . aj . . . ) für α ∈ K,
d. h. ∆ bleibt invariant, wenn man zum i-ten Argument ein skalares
Vielfaches eines weiteren Arguments addiert.

Beweis. Unter Ausnutzung der Eigenschaften einer Determinanten-


funktion können wir wie folgt rechnen:

0= ∆( ... ai + aj . . . ai + aj . . . )
= ∆( ... ai . . . ai + aj . . . ) + ∆( . . . aj . . . ai + aj . . . )
= ∆( ... ai . . . ai . . . ) + ∆( . . . ai . . . aj . . . )
+ ∆( ... aj . . . ai . . . ) + ∆( . . . aj . . . aj . . . )
= ∆( ... ai . . . aj . . . ) + ∆( . . . aj . . . ai . . . )

Dabei mögen die explizit aufgeschriebenen Argumente immer an den


Stellen i und j stehen, wobei an den übrigen Stellen stets a1 , . . . , ai−1
bzw. ai+1 , . . . , aj−1 bzw. aj+1 , . . . , an als Argumente einzusetzen sind.
Aus der Rechnung folgt dann Aussage (i). Weiter ist (ii) eine Folgerung
von (i), da jede Permutation nach 4.1/3 ein Produkt von Transpositio-
nen ist und da man nach 4.1/8 sgn π = (−1)s hat, wenn π ein Produkt
von s Transpositionen ist. Aussage (iii) schließlich ergibt sich aus fol-
gender Rechnung:
∆( . . . ai + αaj . . . aj . . . )
= ∆( . . . ai . . . aj . . . ) + α∆( . . . aj . . . aj . . . )
= ∆( . . . ai . . . aj . . . )

180 4. Determinanten

Eine multilineare Abbildung ∆ : V n ✲ K, die nach unserer Defi-


nition alternierend ist, ist also insbesondere alternierend in dem Sinne,
dass sie das Vorzeichen bei Vertauschung zweier ihrer Argumente än-
dert; daher die Bezeichnung alternierend. Man beachte jedoch, dass die
Umkehrung hierzu nur dann richtig ist, wenn 1 6= −1 in K gilt.
Als Nächstes wollen wir ein nicht-triviales Beispiel einer Determi-
nantenfunktion auf dem Vektorraum V = K n konstruieren.

Lemma 4. Für Matrizen A = (αij )i,j ∈ K n×n definiere man die De-
terminante von A durch
X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n .
π∈Sn

Dann ist det, aufgefasst als Funktion in den n Spalten der Matrix A,
eine Determinantenfunktion auf V = K n , und es gilt det(E) = 1 für
die Einheitsmatrix E ∈ K n×n . Insbesondere ist die Determinanten-
funktion det nicht-trivial.
Beweis. Zunächst ist die Funktion det multilinear in den Spalten der
Matrix A, da ein Produkt c1 · . . . · cn linear in jedem seiner Faktoren ist.
Weiter ist zu zeigen, dass det(A) = 0 gilt, sofern zwei Spalten in A iden-
tisch sind. Seien also a1 , . . . , an die Spalten von A. Gilt dann ai = aj
für zwei Indizes i 6= j, so kann man die Transposition τ = (i, j) ∈ Sn
betrachten. Durchläuft π die geraden Permutationen in Sn , so durch-
läuft π ◦ τ nach 4.1/9 alle ungeraden Permutationen in Sn . Daher folgt

det(a1 , . . . , ai , . . . , aj , . . . , an )
X
= απ(1),1 · . . . · απ(i),i · . . . · απ(j),j · . . . · απ(n),n
π∈An
X
− απ◦τ (1),1 · . . . · απ◦τ (i),i · . . . · απ◦τ (j),j · . . . · απ◦τ (n),n
π∈An

= 0,

denn es gilt
απ◦τ (i),i = απ(j),i = απ(j),j .
απ◦τ (j),j = απ(i),j = απ(i),i ,

sowie απ◦τ (k),k = απ(k),k für k 6= i, j.


4.2 Determinantenfunktionen 181

Schließlich verifiziert man leicht det(E) = 1. In diesem Falle ver-


schwinden nämlich in der definierenden Summe für det(E) alle Terme
bis auf denjenigen zur Identität id ∈ Sn . 

Im Übrigen werden wir in 7.2/9 und 7.2/10 sehen, dass der Betrag
der Determinante det(A) geometrisch als das Volumen des von den
Spaltenvektoren von A in K n aufgespannten Parallelotops interpretiert
werden kann.
Als Nächstes wollen wir einsehen, dass das soeben gegebene Bei-
spiel einer Determinantenfunktion auf ganz natürliche Weise entsteht.

Lemma 5. Man betrachte eine Determinantenfunktion ∆ auf V und


eine Basis X = (x1 , . . . , xn ) von V . Für beliebige Vektoren a1 , . . . , an
aus V gilt dann:

∆(a1 , . . . , an ) = det(a1,X , . . . , an,X ) · ∆(x1 , . . . , xn ).

Dabei bezeichnet aj,X ∈ K n für j = 1, . . . , n den Koordinatenspalten-


vektorPvon aj bezüglich der Basis X, also aj,X = (α1j , . . . , αnj )t , wenn
aj = ni=1 αij xi gilt.

Beweis. Unter Benutzung der Eigenschaften einer Determinantenfunk-


tion ergibt sich:

∆(a1 , . . . , an )
Xn
= αi1 ,1 . . . αin ,n · ∆(xi1 , . . . , xin )
i1 ,...,in =1
X
= απ(1),1 . . . απ(n),n · ∆(xπ(1) , . . . , xπ(n) )
π∈Sn
X
= sgn π · απ(1),1 . . . απ(n),n · ∆(x1 , . . . , xn )
π∈Sn

= det(a1,X , . . . , an,X ) · ∆(x1 , . . . , xn )

Wir können nun in einfacher Weise einige Folgerungen aus den


beiden Lemmata ziehen.
182 4. Determinanten

Satz 6. Es sei X = (x1 , . . . , xn ) eine Basis eines K-Vektorraums V


und weiter ∆ eine Determinantenfunktion auf V . Dann ist äquivalent:
(i) ∆ ist trivial.
(ii) ∆(x1 , . . . , xn ) = 0.

Beweis. Es ist nur die Implikation (ii) =⇒ (i) zu begründen, und diese
ergibt sich aus der Formel in Lemma 5. 

Satz 7. Es sei ∆ eine nicht-triviale Determinantenfunktion auf einem


n-dimensionalen K-Vektorraum V . Für n Vektoren x1 , . . . , xn ∈ V ist
dann äquivalent:
(i) x1 , . . . , xn sind linear abhängig.
(ii) ∆(x1 , . . . , xn ) = 0.

Beweis. Die Implikation (i) =⇒ (ii) ergibt sich aus Bemerkung 2. Um


die umgekehrte Implikation zu zeigen, gehen wir indirekt vor und neh-
men an, dass x1 , . . . , xn linear unabhängig sind, also eine Basis X von
V bilden. Nach Satz 6 ist ∆ dann trivial, im Widerspruch zu unserer
Voraussetzung. 

Satz 8. Es sei V ein K-Vektorraum mit einer Basis X = (x1 , . . . , xn ).


Bezeichnet aX für Vektoren a ∈ V jeweils den Koordinatenspaltenvek-
tor von a zur Basis X, so wird durch

detX (a1 , . . . , an ) = det(a1,X , . . . , an,X )

eine Determinantenfunktion mit detX (x1 , . . . , xn ) = 1 auf V erklärt.


Der K-Vektorraum der Determinantenfunktionen auf V wird von detX
erzeugt und besitzt folglich die Dimension 1.

Beweis. Indem man den Isomorphismus V ∼✲ K n , a ✲ aX ,


verwendet, kann man sehen, dass detX die Eigenschaften einer nicht-
trivialen Determinantenfunktion mit detX (x1 , . . . , xn ) = 1 besitzt, da
det die entsprechenden Eigenschaften hat; vgl. Lemma 4. Im Übrigen
zeigt Lemma 5, dass jede weitere Determinantenfunktion ∆ auf V ein
skalares Vielfaches von detX ist. Der Vektorraum der Determinanten-
funktionen auf V besitzt also die Dimension 1. 
4.3 Determinanten von Matrizen und Endomorphismen 183

Korollar 9. Seien ∆, ∆′ Determinantenfunktionen auf einem K-Vek-


torraum V . Ist dann ∆ nicht-trivial, so existiert ein eindeutig bestimm-
tes Element α ∈ K mit ∆′ = α · ∆.

Aufgaben
1. Es seien V ein n-dimensionaler K-Vektorraum, U ⊂ V ein r-dimensio-
naler linearer Unterraum und xr+1 , . . . , xn ein fest gegebenes System
von Vektoren in V . Für eine Determinantenfunktion ∆ : V n ✲ K
zeige man, dass sich durch

∆U (a1 , . . . , ar ) := ∆(a1 , . . . , ar , xr+1 , . . . , xn )

eine Determinantenfunktion ∆ : U r ✲ K definieren lässt. Wann ist


∆U nicht-trivial?
2. Es sei ∆ : V n ✲ K eine nicht-triviale Determinantenfunktion auf
einem n-dimensionalen K-Vektorraum V und x1 , . . . , xn−1 ein line-
ar unabhängiges System von Vektoren in V . Man zeige: Es existiert
ein xn ∈ V mit ∆(x1 , . . . , xn ) = 1, wobei die Restklasse von xn in
V /hx1 , . . . , xn−1 i eindeutig bestimmt ist. (AT 430)
3. Für einen n-dimensionalen K-Vektorraum V mit einer gegebenen Basis
X = (x1 , . . . , xn ) betrachte man den K-Vektorraum W aller multilinea-
ren Abbildungen V n ✲ K. Man bestimme dimK W und gebe eine
Basis von W an.

4.3 Determinanten von Matrizen und Endomorphis-


men

Für eine Matrix A = (αij )i,j ∈ K n×n haben wir in 4.2/4 deren Deter-
minante durch die Formel
X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n
π∈Sn

erklärt. Diese Formel ergibt für n = 0 als Determinante der leeren Ma-
trix den Wert 1. Im Folgenden wollen wir nun allgemeiner die Deter-
minante von Endomorphismen endlich-dimensionaler K-Vektorräume
einführen.
184 4. Determinanten

Bemerkung 1. Es sei f : V ✲ V ein Endomorphismus eines


K-Vektorraums V endlicher Dimension n. Weiter sei ∆ eine nicht-
triviale Determinantenfunktion auf V ; eine solche existiert stets nach
4.2/8. Dann gilt:
(i) Auf V wird durch

∆f (a1 , . . . , an ) = ∆ f (a1 ), . . . , f (an ) , a1 , . . . , an ∈ V,

eine Determinantenfunktion ∆f definiert.


(ii) Es existiert ein eindeutig bestimmtes Element αf ∈ K mit
∆f = αf · ∆.
(iii) Ist X = (x1 , . . . , xn ) eine Basis von V , so folgt

αf = det f (x1 )X , . . . , f (xn )X = det(Af,X,X ),

wobei f (xi )X der Koordinatenspaltenvektor von f (xi ) bezüglich der Ba-


sis X und Af,X,X die Matrix von f bezüglich der Basis X sei. Insbe-
sondere erkennt man, dass αf unabhängig von der Wahl der Determi-
nantenfunktion ∆ ist.

Beweis. Die Funktion ∆f ist offenbar multilinear, da ∆ diese Eigen-


schaft hat und f linear ist. Sind weiter a1 , . . . , an linear abhängig, so
gilt Gleiches für f (a1 ), . . . , f (an ), und es folgt ∆f (a1 , . . . , an ) = 0. Folg-
lich ist ∆f eine Determinantenfunktion. Nach 4.2/9 gibt es dann eine
eindeutig bestimmte Konstante αf ∈ K mit ∆f = αf ∆. Betrachten
wir schließlich eine Basis X = (x1 , . . . , xn ) von V , so ergibt sich mit
4.2/5

αf · ∆(x1 , . . . , xn ) = ∆f (x1 , . . . , xn ) = ∆ f (x1 ), . . . , f (xn )

= det f (x1 )X , . . . , f (xn )X · ∆(x1 , . . . , xn ),

wobei ∆(x1 , . . . , xn ) 6= 0 wegen 4.2/7 und folglich



αf = det f (x1 )X , . . . , f (xn )X

gilt. 

Definition 2. Es sei f : V ✲ V ein Endomorphismus eines end-


lich-dimensionalen K-Vektorraums V . Dann nennt man det(f ) := αf ,
4.3 Determinanten von Matrizen und Endomorphismen 185

wobei αf wie in Bemerkung 1 bestimmt ist, die Determinante des En-


domorphismus f . Es gilt

det(f ) = det(Af,X,X )

für jede Matrix Af,X,X , die f bezüglich einer Basis X von V beschreibt.
Insbesondere erhält man det(f ) = 1 im Falle V = 0.

Wir wollen zunächst einige grundlegende Eigenschaften von Deter-


minanten herleiten.

Satz 3. Sei V ein K-Vektorraum endlicher Dimension n und EndK (V )


der Endomorphismenring von V . Dann gilt für f, g ∈ EndK (V ) und
α ∈ K:
(i) det(id) = 1 für die Identität id ∈ EndK (V ).
(ii) det(αf ) = αn · det(f ).
(iii) det(f ◦ g) = det(f ) · det(g).
(iv) det(f ) 6= 0 ⇐⇒ f invertierbar.
(v) det(f −1 ) = det(f )−1 , falls f invertierbar ist.
(vi) det(f ∗ ) = det(f ) mit der dualen Abbildung f ∗ : V ∗ ✲ V∗
zu f .

Bevor wir zum Beweis kommen, formulieren wir die entsprechenden


Aussagen auch noch für Determinanten von Matrizen.

Satz 4. Für A, B ∈ K n×n und α ∈ K gilt:


(i) det(E) = 1 für die Einheitsmatrix E ∈ K n×n .
(ii) det(αA) = αn · det(A).
(iii) det(A · B) = det(A) · det(B).
(iv) det(A) 6= 0 ⇐⇒ A invertierbar.
(v) det(A−1 ) = det(A)−1 , falls A invertierbar ist.
(vi) det(At ) = det(A) für die transponierte Matrix At zu A.

Beweis zu den Sätzen 3 und 4. Indem wir zwischen Endomorphis-


men und zugehörigen Matrizen wechseln, vgl. Abschnitt 3.1 sowie
Satz 3.2/9, genügt es, alternativ entweder die Aussagen aus Satz 3
oder Satz 4 zu beweisen. Zudem ist nur der Fall n = dim V > 0 von
Interesse.
186 4. Determinanten

(i) det(E) = 1 haben wir bereits in 4.2/4 gezeigt.


(ii) Man benutze die Multilinearität von Determinantenfunktionen:
Sind a1 , . . . , an die Spalten einer Matrix A ∈ K n×n , so folgt

det(αA) = det(αa1 , . . . , αan ) = αn det(a1 , . . . , an ) = αn det(A).

(iii) Für diese Aussage ist es günstiger, im Sinne von Determinanten


von Endomorphismen zu argumentieren. Man wähle eine nicht-triviale
Determinantenfunktion ∆ auf V sowie eine Basis X = (x1 , . . . , xn ) von
V . Dann gilt

det(f ◦ g) · ∆(x1 , . . . , xn ) = ∆ f ◦ g(x1 ), . . . , f ◦ g(xn )

= det(f ) · ∆ g(x1 ), . . . , g(xn )
= det(f ) · det(g) · ∆(x1 , . . . , xn )

und damit det(f ◦ g) = det(f ) · det(g) wegen ∆(x1 , . . . , xn ) 6= 0.


(iv) Eine Matrix A ∈ K n×n ist genau dann invertierbar, wenn ihr
Rang n ist, vgl. 3.3/7, d. h. genau dann, wenn die Spalten von A linear
unabhängig sind. Damit ergibt sich die Aussage als Konsequenz von
4.2/4 und 4.2/7.
(v) Für A ∈ GL(n, K) gilt nach (i) und (iii)

det(A) · det(A−1 ) = det(A · A−1 ) = det(E) = 1.

(vi) Für A = (αij )i,j ∈ K n×n gilt


X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n
π∈Sn
X
= sgn π · α1,π−1 (1) · . . . · αn,π−1 (n)
π∈Sn
X
= sgn π −1 · α1,π−1 (1) · . . . · αn,π−1 (n)
π∈Sn
X
= sgn π · α1,π(1) · . . . · αn,π(n)
π∈Sn

= det(At ).
4.3 Determinanten von Matrizen und Endomorphismen 187

Korollar 5. Es sei A ∈ K m×n eine Matrix vom Rang r. Dann lässt


sich aus A durch Streichen von Spalten und Zeilen eine quadratische
Untermatrix A′ ∈ K r×r mit det(A′ ) 6= 0 konstruieren, und es ist r
maximal mit dieser Eigenschaft.

Beweis. Gemäß 3.2/10 dürfen wir den Rang von Matrizen wahlweise
als Spalten- oder Zeilenrang interpretieren. Insbesondere können wir
in A ein linear unabhängiges System von r Spalten auswählen. Durch
Streichen der restlichen Spalten entsteht eine Untermatrix A1 ∈ K m×r
von A mit Rang r. Entsprechend können wir in A1 ein linear unabhän-
giges System von r Zeilen auswählen. Indem wir die restlichen Zeilen
von A1 streichen, entsteht eine quadratische Untermatrix A′ ∈ K r×r
von A1 bzw. A mit Rang r. Diese ist nach 3.3/7 invertierbar und erfüllt
det(A′ ) 6= 0 gemäß Satz 4.
Ist andererseits A′ ∈ K s×s eine quadratische Untermatrix von A
mit einer Spaltenzahl s > r = rg A, so sind die Spalten von A′ notwen-
digerweise linear abhängig, denn jeweils s Spalten von A sind linear
abhängig. Es folgt dann det(A′ ) = 0, ebenfalls mit Satz 4. 

Wir gehen schließlich noch auf die Berechnung der Determinanten


spezieller Matrizen A ∈ K n×n ein und untersuchen zunächst, wie sich
die Determinante ändert, wenn man auf A elementare Zeilen- oder
Spaltentransformationen anwendet.

Satz 6. Es seien α ∈ K, A ∈ K n×n , sowie i, j zwei verschiedene


Indizes mit 1 ≤ i, j ≤ n.
(i) det(A) ändert sich nicht, wenn man zu der i-ten Zeile (bzw.
Spalte) von A das α-fache der j-ten Zeile (bzw. Spalte) addiert.
(ii) det(A) ändert das Vorzeichen, wenn man in A die i-te mit der
j-ten Zeile (bzw. Spalte) vertauscht.
(iii) det(A) multipliziert sich mit α, wenn man die i-te Zeile (bzw.
Spalte) von A mit α multipliziert.

Beweis. Nach Satz 4 gilt det(A) = det(At ). Wir können uns daher auf
die Betrachtung elementarer Spaltenumformungen beschränken. Dann
188 4. Determinanten

ergeben sich die behaupteten Aussagen jedoch unmittelbar aus der


Tatsache, dass det(A) eine Determinantenfunktion in den Spalten von
A ist; vgl. 4.2/3 und 4.2/4. 

Der obige Satz bietet eine natürliche Möglichkeit, Determinanten


von Matrizen A ∈ K n×n explizit zu berechnen: Man bestimme zunächst
mittels des Gaußschen Eliminationsverfahrens den Rang r = rg A.
Für r < n folgt dann det(A) = 0 gemäß 4.2/2. Im Falle r = n je-
doch lässt sich A, wie wir in Abschnitt 3.3 gesehen haben, mittels
elementarer Zeilenumformungen in die Einheitsmatrix E überführen,
wobei det(E) = 1 gilt. Benötigt man s solcher Umformungen (wo-
bei man elementare Zeilen- und Spaltenumformungen gemischt ver-
wenden darf), so ändert sich der Wert der Determinante bei jedem
Schritt um einen gewissen Faktor ασ , σ = 1, . . . , s, und es ergibt sich
det(A) = α1−1 . . . αs−1 .
Wir wollen einige Beispiele zur Berechnung spezieller Determinan-
ten geben und dabei auch zeigen, wie das gerade beschriebene Verfah-
ren in konkreten Situationen angewendet werden kann.
(1) Sei A = (αij )i,j ∈ K n×n mit αij = 0 für i > j, also
 
α11 ........ ∗
 0 α22 . . . ∗ 
A=  ..
.
. . . . . . . . .. 
0 . . . . . . . . αnn
Qn
Dann gilt det(A) = i=1 αii . In der Tat, betrachten wir einen Term
der Summe
X
det(A) = sgn π · απ(1),1 · . . . · απ(n),n
π∈Sn

zu einer Permutation π ∈ Sn , so verschwindet dieser aufgrund unserer


Voraussetzung über die αij , sofern es einen Index i ∈ {1, . . . , n} mit
π(i) > i gibt. Da andererseits aber π(i) ≤ i, i = 1, . . . , n, nur für
die identische Permutation gilt, reduziert sich obige Summe auf einen
Term, und zwar auf α11 · . . . · αnn .
Alternativ können wir im Sinne elementarer Zeilenumformungen
argumentieren. Gilt αii = 0 für einen Index i ∈ {1, . . . , n}, so sind die
4.3 Determinanten von Matrizen und Endomorphismen 189

Spalten mit den Indizes 1, . . . , i offenbar linear abhängig, und es gilt


det(A) = 0. Ansonsten multipliziere man für i = 1, . . . , n die i-te Zeile
von A mit αii−1 , wobei sich die Determinante jeweils um den Faktor
αii−1 ändert. Die resultierende Matrix lässt sich dann in die Einheits-
matrix überführen, indem man für i = 2, . . . , n geeignete Vielfache
der i-ten Zeile zu den vorhergehenden Zeilen addiert. Der Wert der
Determinante bleibt dabei unverändert, so dass man wie gewünscht
det(A) = α11 . . . αnn erhält.
(2) Zu Zahlen m, n ∈ N betrachte man Matrizen A11 ∈ K m×m ,
A12 ∈ K m×n , A22 ∈ K n×n sowie die Nullmatrix 0 ∈ K n×m . Für die
zusammengesetzte Matrix
 
A11 A12
A=
0 A22

erhält man det(A) = det(A11 ) · det(A22 ). Um dies nachzuweisen, neh-


men wir A von der Form (αij )i,j=1,...,m+n an. Es gilt dann αij = 0 für
m + 1 ≤ i ≤ m + n, 1 ≤ j ≤ m. In der Summe
X
det(A) = sgn π · απ(1),1 · . . . · απ(m+n),m+n
π∈Sm+n

haben wir daher nur Terme zu solchen Permutationen π ∈ Sn zu


berücksichtigen, welche π(i) ≤ m für i = 1, . . . , m erfüllen. Dann
gilt automatisch m + 1 ≤ π(i) ≤ m + n für i = m + 1, . . . , m + n,
und es “zerfällt” π in Permutationen σ von {1, . . . , m} und τ von
{m + 1, . . . , m + n}, wobei sgn(π) = sgn(σ) · sgn(τ ) gilt. Da auf diese
Weise die zu betrachtenden Permutationen π ∈ Sm+n bijektiv den Paa-
ren (σ, τ ) ∈ Sm × Sn entsprechen, ergibt sich mit A22 = (βij )i,j=1,...,n
X
det(A) = sgn(σ) sgn(τ )ασ(1),1 . . . ασ(m),m · βτ (1),1 . . . βτ (n),n
σ∈Sm ,τ ∈Sn
X X
= sgn(σ)ασ(1),1 . . . ασ(m),m · sgn(τ )βτ (1),1 . . . βτ (n),n
σ∈Sm τ ∈Sn

= det(A11 ) · det(A22 ),

wie behauptet.
190 4. Determinanten

Alternativ kann man dieses Resultat allerdings auch ohne größere


Rechnung erhalten, indem man die Theorie der Determinantenfunktio-
nen verwendet. Seien Em ∈ K m×m und En ∈ K n×n die Einheitsmatri-
zen. Zunächst lesen wir aus 4.2/4 ab, dass
 
A11 A12
det(A) = det
0 A22

insbesondere eine Determinantenfunktion in den Spalten von A11 ist,


wenn wir diese für einen Moment als variabel ansehen. Mit 4.2/5 folgt
daher die Gleichung
   
A11 A12 Em A12
det = det(A11 ) · det .
0 A22 0 A22

Entsprechend können wir schließen, dass


 
Em A12
det
0 A22

eine Determinantenfunktion in den Zeilen von A22 ist, wenn wir diese
als variabel ansehen und benutzen, dass die Determinante einer Matrix
gleich der Determinante ihrer Transponierten ist. Mit 4.2/5 folgt daher
die Gleichung
   
Em A12 Em A12
det = det(A22 ) · det .
0 A22 0 En

Da die Matrix  
Em A12
0 En
nach Beispiel (1) die Determinante 1 besitzt, folgt wie gewünscht

det(A) = det(A11 ) · det(A22 ).

Schließlich wollen wir noch zeigen, wie man mittels elementarer


Umformungen argumentieren kann. Gilt rg A11 < m, so kann A nicht
maximalen Rang besitzen, da dann die ersten m Spalten von A linear
abhängig sind. Entsprechendes gilt für rg A22 < n, da in diesem Fal-
le die letzten n Zeilen von A linear abhängig sind. Insgesamt ergibt
4.3 Determinanten von Matrizen und Endomorphismen 191

sich det(A) = 0 = det(A11 ) · det(A22 ), falls mindestens eine der Matri-


zen A11 und A22 nicht invertierbar ist. Sind jedoch A11 und A22 beide
invertierbar, so wende man auf die ersten m Zeilen von A elementare
Zeilenumformungen an, welche die Untermatrix A11 in die Einheitsma-
trix überführen. Die Determinante von A ändert sich hierbei offenbar
um den Faktor det(A11 )−1 . Entsprechend wende man auf die letzten
n Zeilen von A elementare Zeilenumformungen an, die die Unterma-
trix A22 in die Einheitsmatrix überführen. Dies bewirkt eine Änderung
der Determinante um den Faktor det(A22 )−1 . Die resultierende Matrix
besitzt dann die in Beispiel (1) betrachtete Form, wobei die Diago-
nalelemente alle den Wert 1 haben. Somit ist die Determinante dieser
Matrix 1, und es folgt det(A) = det(A11 ) · det(A22 ).

(3) Ein berühmtes Beispiel einer konkret gegebenen Determinante


ist die sogenannte Vandermondesche Determinante
 
1 1 ... 1
 α1 α2 ... αn 
 2 
V (α1 , α2 , . . . , αn ) = det  α
 1 α 2
2 ... αn2 ,
 · · ... · 
n−1 n−1
α1 α2 ... αnn−1

welche zu Elementen α1 , α2 , . . . , αn ∈ K gebildet wird. Wir wollen


induktiv die Formel
Y
V (α1 , α2 , . . . , αn ) = (αj − αi )
i<j

herleiten. Für n = 1 ist die Behauptung trivial. Für n > 1 subtrahiere


man in obiger Matrix von der n-ten Zeile das α1 -fache der (n − 1)-ten
Zeile usw. bis schließlich von der 2. Zeile das α1 -fache der 1. Zeile.
Dann gilt
 
1 1 ... 1
0 α2 − α1 ... αn − α1 
 
V (α1 , α2 , . . . , αn ) = det 
 0 α 2 (α2 − α1 ) . . . αn (αn − α1 )  ,
.. ... ... ... 
n−2
0 α2 (α2 − α1 ) . . . αnn−2 (αn − α1 )
192 4. Determinanten

und es folgt mit obigem Beispiel (2)


Y 
V (α1 , α2 , . . . , αn ) = (αi − α1 ) V (α2 , . . . , αn ).
i>1

Per Induktion ergibt sich daraus die Behauptung.


Schließlich wollen wir für Matrizen A = (αij )i,j ∈ K n×n , n ≤ 3,
noch deren Determinanten explizit angeben.

n=1: det(A) = α11


n=2: det(A) = α11 α22 − α21 α12
n=3: det(A) = α11 α22 α33 + α21 α32 α13 + α31 α12 α23
− α11 α32 α23 − α31 α22 α13 − α21 α12 α33

Letztere Formel entspricht der Auflistung


(     
1 2 3 1 2 3 1 2 3
S3 = , , ,
1 2 3 2 3 1 3 1 2
     )
1 2 3 1 2 3 1 2 3
, ,
1 3 2 3 2 1 2 1 3

Die Art der Summanden kann man sich dabei an folgendem Schema
(bezeichnet als Regel von Sarrus) in Erinnerung bringen:

α11 α12 α13 α11 α12


α21 α22 α23 α21 α22
α31 α32 α33 α31 α32

Man hat also zur Berechnung von det(αij )i,j=1,2,3 die Produkte über die
Elemente der 3 von links oben nach rechts unten verlaufenden Diago-
nalen zu addieren und davon die Produkte über die Elemente der 3 von
links unten nach rechts oben verlaufenden Diagonalen zu subtrahieren.

Aufgaben
1. Für A ∈ K n×n mit At = −A und ungeradem n zeige man: Es gilt
det(A) = 0 oder 1 + 1 = 0 in K.
4.3 Determinanten von Matrizen und Endomorphismen 193

2. Für Matrizen A ∈ K n×n lasse man folgende Zeilenoperationen zu:


(i) Vertauschen zweier verschiedener Zeilen und gleichzeitiges Multi-
plizieren einer Zeile mit −1.
(ii) Multiplizieren einer Zeile mit einer Konstanten α ∈ K ∗ und gleich-
zeitiges Multiplizieren einer weiteren Zeile mit α−1 .
(iii) Addieren eines Vielfachen einer Zeile zu einer anderen.
Man zeige, dass sich invertierbare Matrizen A ∈ K n×n mittels solcher
Zeilenumformungen in Diagonalmatrizen des Typs
 
1 ... 0 0
.. . . . .. ..
 
0 . . . 1 0
0 ... 0 d
überführen lassen, wobei d = det(A) gilt.
3. Sei A = (αij ) ∈ K n×n mit


 1 für i < j
αij = 0 für i = j


−1 für i > j
und n gerade. Man zeige det(A) = 1. (AT 431)
4. Man berechne die Determinante der Matrix
 
2 1 1 ... 1
1 2 1 . . . 1
 
1 1 2 . . . 1 n×n
 ∈R .
.. .. .. . . . ..
1 1 1 ... 2
5. Es sei V ein n-dimensionaler K-Vektorraum und f : V ✲ V ein En-
domorphismus. Für ein x ∈ V gelte V = hx, f (x), . . . , f n−1 (x)i sowie
f n (x) = αn−1 f n−1 (x) + . . . + α1 f (x) + α0 x
mit Koeffizienten α0 , . . . , αn−1 ∈ K. Man zeige det(f ) = (−1)n+1 α0 .
(AT 433)
6. Es seien α1 , . . . , αn , β1 , . . . , βn ∈ K Konstanten mit αi + βj 6= 0 für alle
i, j. Man zeige (Cauchysche Determinante):
  Q
(α1 + β1 )−1 . . . (α1 + βn )−1 (α − αi )(βj − βi )
det  ... ...  = i<jQ j
(αn + β1 )−1 . . . (αn + βn )−1 i,j (αi + βj )
194 4. Determinanten

4.4 Die Cramersche Regel

Wir wollen zunächst zu einer Matrix A = (αij )i,j ∈ K n×n die soge-
nannte adjungierte Matrix Aad erklären. Hierzu konstruieren wir für
beliebige Indizes i, j ∈ {1, . . . , n} eine (n × n)-Matrix Aij aus A, in-
dem wir alle Elemente αi1 , . . . , αin der i-ten Zeile und alle Elemente
α1j , . . . , αnj der j-ten Spalte von A durch 0 ersetzen, bis auf das Ele-
ment αij im Schnittpunkt von i-ter Zeile und j-ter Spalte, welches wir
zu 1 abändern, also:
 
α11 . . . α1,j−1 0 α1,j+1 . . . α1n
 .. ... .. .. .. ... .. 
 
αi−1,1 . . . αi−1,j−1 0 αi−1,j+1 . . . αi−1,n 
 
Aij =  0 . . . 0 1 0 . . . 0 

α . . . α 0 α . . . α 
 i+1,1 i+1,j−1 i+1,j+1 i+1,n 
 .. ... .. .. .. ... .. 
αn1 . . . αn,j−1 0 αn,j+1 . . . αnn

Weiter werde die Matrix A′ij ∈ K (n−1)×(n−1) durch Streichen der i-ten
Zeile und der j-ten Spalte von Aij erklärt.

Bemerkung 1. Es sei A ∈ K n×n eine Matrix mit den Spalten


a1 , . . . , an ∈ K n . Dann gilt für Indizes 1 ≤ i, j ≤ n:
(i) det(Aij ) = (−1)i+j · det(A′ij ).
(ii) det(Aij ) = det(a1 , . . . , aj−1 , ei , aj+1 , . . . , an ), wobei der Spalten-
vektor ei = (δ1i , . . . , δni )t der i-te Einheitsvektor in K n ist.

Beweis. Für i = j = 1 ist Aij von der Gestalt


 
1 0
A11 = ,
0 A′11

und wir erhalten, wie in Abschnitt 4.3 berechnet,

det(A11 ) = 1 · det(A′11 ).

Den Allgemeinfall von (i) führt man leicht hierauf zurück, indem man
in Aij die i-te Zeile mit allen vorhergehenden Zeilen sowie die j-te Spal-
te mit allen vorhergehenden Spalten vertauscht. Dies sind insgesamt
4.4 Die Cramersche Regel 195

(i − 1) + (j − 1) Vertauschungen, so dass sich die Determinante der


neuen Matrix dabei von det(Aij ) um den Faktor (−1)i+j unterscheidet.
Weiter ergibt sich (ii) aus 4.3/6 (i), da sich die Matrix mit den
Spalten a1 , . . . , aj−1 , ei , aj+1 , . . . , an in die Matrix Aij überführen lässt,
indem man geeignete Vielfache der j-ten Spalte ei von den restlichen
subtrahiert. 

Definition 2. Für eine Matrix A = (αij )i,j ∈ K n×n und für Indizes
1 ≤ i, j ≤ n bilde man die Matrizen Aij , A′ij wie vorstehend beschrie-
ben. Dann heißt

α̃ij = det(Aij ) = (−1)i+j · det(A′ij )

der Cofaktor von A zum Indexpaar (i, j) oder, in nicht ganz korrekter
Sprechweise, der Cofaktor von A zum Koeffizienten αij . Die Matrix
à = (α̃ij )i,j wird als Matrix der Cofaktoren von A bezeichnet und

Aad := Ãt = (α̃ji )i,j

als die zu A adjungierte Matrix (oder die zu A gehörige Komplemen-


tärmatrix).

Als Nächstes wollen wir eine fundamentale Beziehung zwischen ei-


ner Matrix A und ihrer adjungierten Aad beweisen, welche im weiteren
Sinne als sogenannte Cramersche Regel bezeichnet wird.

Satz 3. Sei A = (αij )i,j ∈ K n×n , und sei E ∈ K n×n die Einheitsma-
trix. Dann gilt
Aad · A = A · Aad = det(A) · E.
In ausführlicher Schreibweise bedeutet diese Identität:
n
X
α̃ji αjk = δik · det(A),
j=1
Xn
αij α̃kj = δik · det(A),
j=1

für 1 ≤ i, k ≤ n.
196 4. Determinanten

Beweis. Es seien a1 , . . . , an die n Spalten von A. Dann rechnet man


unter Ausnutzung von Bemerkung 1
n
X n
X
α̃ji αjk = αjk · det(Aji )
j=1 j=1
Xn
= αjk · det(a1 , . . . , ai−1 , ej , ai+1 , . . . , an )
j=1

= det(a1 , . . . , ai−1 , ak , ai+1 , . . . , an )


= δik · det(A),

d. h. es gilt Ãt · A = det(A) · E. Um zu sehen, dass dies auch gleich


A · Ãt ist, benutze man die gerade bewiesene Beziehung für At anstelle
von A, also
ft )t · At = det(At ) · E.
(A
ft = Ãt hat, ergibt sich
Da man offenbar A
à · At = det(A) · E
unter Benutzung von det(At ) = det(A), vgl. 4.3/4. Transponieren lie-
fert dann wie gewünscht
A · Ãt = det(A) · E.

Wir wollen einige Folgerungen aus diesem Satz ziehen. Zunächst
erhält man als Spezialfall der Gleichungen in Satz 3 den nach Laplace
benannten Satz zum Entwickeln einer Determinante nach einer Zeile
oder Spalte.

Korollar 4. Sei A = (αij )i,j ∈ K n×n . Dann gilt:


n
X n
X
det(A) = αij · det(Aij ) = (−1)i+j · αij · det(A′ij ), j = 1, . . . , n,
i=1 i=1
n
X n
X
det(A) = αij · det(Aij ) = (−1)i+j · αij · det(A′ij ), i = 1, . . . , n.
j=1 j=1

Dies sind die sogenannten Formeln zur Entwicklung von det(A) nach
der j-ten Spalte bzw. i-ten Zeile.
4.4 Die Cramersche Regel 197

Für invertierbare Matrizen kann man die Formeln in Satz 3 zur


Berechnung der inversen Matrix benutzen.

Korollar 5. Für A ∈ GL(n, K) gilt A−1 = det(A)−1 · Aad .

Des Weiteren wollen wir noch die Cramersche Regel im engeren


Sinne herleiten, die sich auf die Lösung linearer Gleichungssysteme
bezieht.

Korollar 6. Für eine Matrix A ∈ GL(n, K) und einen Spaltenvektor


b ∈ K n betrachte man das lineare Gleichungssystem A · x = b. Dann ist
x = A−1 · b die eindeutige Lösung dieses Systems. Sind a1 , . . . , an die
Spalten von A, so wird die i-te Komponente von A−1 · b gegeben durch

det(A)−1 · det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ).

Beweis. Wir benutzen die Formel A−1 = det(A)−1 · Ãt aus Korol-
lar 5. Dann berechnet sich die i-te Komponente von A−1 · b für
b = (β1 , . . . , βn )t mittels Bemerkung 1 zu
n
X n
X
−1 −1
det(A) · α̃ji βj = det(A) · det(Aji )βj
j=1 j=1
n
X
= det(A)−1 · det(a1 , . . . , ai−1 , βj ej , ai+1 , . . . , an )
j=1
−1
= det(A) · det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ).

Aufgaben
1. Man löse das folgende lineare Gleichungssystem mittels Cramerscher
Regel:

2x1 + 2x2 + 4x3 = 1


2x1 − 3x2 + 2x3 = 0
5x1 + 4x2 + 3x3 = 1
198 4. Determinanten

2. Es sei A = (αij ) ∈ GL(n, R) eine invertierbare Matrix mit Koeffizienten


αij ∈ Z. Man zeige (AT 434):
(i) A−1 hat Koeffizienten in Q.
(ii) A−1 hat genau dann Koeffizienten in Z, wenn det(A) = ±1 gilt.
3. Man zeige für invertierbare Matrizen A, B ∈ GL(n, K) und α ∈ K:
(i) (αA)ad = αn−1 Aad
(ii) (At )ad = (Aad )t
(iii) (AB)ad = B ad Aad
(iv) det(Aad ) = det(A)n−1
(v) (Aad )ad = det(A)n−2 A
(vi) (Aad )−1 = (A−1 )ad
Bemerkung: Alle vorstehenden Beziehungen, mit Ausnahme der letzten,
bleiben auch für beliebige Matrizen aus K n×n gültig. Um dies aus dem
Fall invertierbarer Matrizen zu folgern, sind allerdings Konstruktionen
erforderlich, die im Moment noch nicht zur Verfügung stehen.
P
4. Es gelte ni=1 αi ai = b für Spaltenvektoren a1 , . . . , an , b ∈ K n und Ko-
effizienten α1 , . . . , αn ∈ K. Man zeige
det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ) = αi · det(a1 , . . . , an ), i = 1, . . . , n,
und folgere hieraus die Aussage von Korollar 6. (AT 435)

4.5 Äußere Produkte*

In Abschnitt 4.2 haben wir alternierende Multilinearformen in n Varia-


blen auf einem n-dimensionalen K-Vektorraum V studiert. Wir wollen
nun allgemeiner auf einem beliebigen K-Vektorraum V alternierende
multilineare Abbildungen in einer gewissen Anzahl r von Variablen
mit Werten in einem K-Vektorraum W betrachten. Dabei heißt eine
Abbildung Φ : V r ✲ W, (a1 , . . . , ar ) ✲ Φ(a1 , . . . , ar ), multiline-
ar, wenn Φ linear in jedem Argument ist, sowie alternierend, wenn
Φ(a1 , . . . , ar ) = 0 gilt, sofern zwei der Vektoren a1 , . . . , ar ∈ V über-
einstimmen. Entsprechend wie in 4.2/2 bzw. 4.2/3 zeigt man:

Bemerkung 1. Für K-Vektorräume V, W und r ∈ N betrachte man


eine alternierende multilineare Abbildung Φ : V r ✲ W . Dann gilt für
Vektoren a1 , . . . , ar ∈ V :
4.5 Äußere Produkte* 199

(i) Φ(a1 , . . . , ar ) = 0, sofern a1 , . . . , ar linear abhängig sind.


(ii) Φ(aπ(1) , . . . , aπ(r) ) = sgn π · Φ(a1 , . . . , ar ) für jede Permutation
π ∈ Sr .

Insbesondere folgt aus (i), dass es im Falle r > dimK V nur triviale
multilineare alternierende Abbildungen V r ✲ W gibt. Wir wollen
V
im Folgenden zu V und r ∈ N einen K-Vektorraum r V konstruieren,
derart dass die alternierenden multilinearen Abbildungen V r ✲W
in einen beliebigen K-Vektorraum
Vr W hinein in bijektiver Weise den
K-linearen Abbildungen V ✲ W entsprechen.

Satz 2. Zu einem K-Vektorraum V und einer natürlichen Zahl r ∈ N


gibt es stets einen K-Vektorraum D mit einer multilinearen alternie-
renden Abbildung σ : V r ✲ D, welche folgende universelle Eigen-
schaft besitzt:
Ist Φ : V r ✲ W eine alternierende multilineare Abbildung in
einen K-Vektorraum W , so existiert eindeutig eine K-lineare Abbil-
dung ϕ : D ✲ W mit Φ = ϕ ◦ σ, so dass also das Diagramm
σ
Vr ✲ D

Φ❅ ϕ

❅ ✠
W
kommutiert.
Das Paar (D, σ) ist durch diese Abbildungseigenschaft bis auf ka-
nonische Isomorphie eindeutig bestimmt.

Dass in der Situation des Satzes zwei Paare (D, σ) und (D′ , σ ′ ),
welche die genannte universelle Abbildungseigenschaft besitzen, in ka-
nonischer Weise isomorph sind, kann man leicht einsehen. Es gibt dann
nämlich eine eindeutig bestimmte K-lineare Abbildung ι : D ✲ D′

mit σ = ι ◦ σ, sowie eine eindeutig bestimmte K-lineare Abbildung
ι′ : D ′ ✲ D mit σ = ι′ ◦ σ ′ . Also hat man

σ = ι′ ◦ σ ′ = ι′ ◦ ι ◦ σ, σ ′ = ι ◦ σ = ι ◦ ι′ ◦ σ ′ ,
und damit
idD ◦σ = (ι′ ◦ ι) ◦ σ, idD′ ◦σ ′ = (ι ◦ ι′ ) ◦ σ ′ .
200 4. Determinanten

Deshalb sind idD , ι′ ◦ ι : D ✲ D zwei K-lineare Abbildungen, die


durch Komposition mit σ : V r ✲ D dieselbe alternierende multili-
neare Abbildung V r ✲ D ergeben. Die Eindeutigkeitsaussage in der
Abbildungseigenschaft für (D, σ) ergibt dann ι′ ◦ι = idD . Entsprechend
erhält man ι ◦ ι′ = idD′ , und es folgt, dass ι und ι′ zueinander inver-
se Isomorphismen sind, eben die kanonischen Isomorphismen, deren
Existenz im Satz behauptet wird.
In der Situation von Satz 2, dessen Beweis wir weiter unten fort-
führen werden, nennt man den K-Vektorraum D das r-fache äußere
Produkt oder Vdie r-fache äußere Potenz von V und benutzt hierfür
die Notation r V . Das Bild eines Tupels (a1 , . . . , arV
) ∈ V r unter der
multilinearen alternierenden Abbildung σ : V r ✲ r
V wird mit
a1 ∧ . . . ∧ ar
bezeichnet, wobei man hier auch von dem äußeren oder Dachprodukt
der Elemente a1 , . . . , ar spricht. Diese Produktbildung ist linear und
alternierend in den einzelnen Faktoren, d. h. es gilt für einen festen
Index i ∈ {1, . . . , r} und Elemente α, β ∈ K, a1 , . . . , ar , bi ∈ V
a1 ∧ . . . ∧ (αai + βbi ) ∧ . . . ∧ ar
= α · (a1 ∧ . . . ∧ ai ∧ . . . ∧ ar ) + β · (a1 ∧ . . . ∧ bi ∧ . . . ∧ ar ),
sowie a1 ∧ . . . ∧ ar = 0, falls die Vektoren a1 , . . . , ar nicht paarweise
verschieden [Link] Wir können sogar aus der universellen Abbildungsei-
genschaft von V folgende Information ableiten:
V
Bemerkung 3. Der K-Vektorraum r V wird von den Elementen
a1 ∧ . . . ∧ ar mit a1 , . . . , ar ∈ V erzeugt.
V
Beweis. Es sei D′ ⊂ r V der lineare Unterraum, der von allen Elemen-
V
ten des Typs a1 ∧. . .∧ar erzeugt wird. Da das Bild von σ : V r ✲ r V
in D′ liegt, führt jede Zerlegung
V
Φ : V r σ✲ r V
ϕ✲
W
einer multilinearen alternierenden Abbildung Φ : V r ✲ W automa-
tisch zu einer Zerlegung
σ✲ ϕ′✲
Φ: V r D′ W
4.5 Äußere Produkte* 201

mit ϕ′ = ϕ|D′ . Nun ist ϕ′ aufgrund der Gleichung Φ = ϕ′ ◦ σ notwendi-


gerweise eindeutig bestimmt auf dem Bild im σ, also auch auf dem von
im σ erzeugten linearen Unterraum von D′ , d. h. auf D′ selbst. Somit
erfüllt D′ zusammen mit σ die universelle Eigenschaft eines äußeren V
Produkts, und man sieht wie oben, dass die Abbildung D′ ⊂ ✲ r V
ein Isomorphismus ist, als Inklusion also die Identität darstellt. Somit
bilden die Elemente
V des Typs a1 ∧ . . . ∧ ar in der Tat ein Erzeugenden-
system von D′ = r V . 

Wir erleben hier zum ersten


V Mal, dass mathematische Objekte,
nämlich der K-Vektorraum r V und die alternierende multilineare
Abbildung


Vr ✲
σ: V r V, (a1 , . . . , ar ) a1 ∧ . . . ∧ ar ,

nicht in konkreter Weise, sondern nur bis auf kanonische Isomorphie


definiert werden. Natürlich muss noch gezeigt werden, dass Objekte mit
den spezifizierten Eigenschaften auch wirklich existieren. Wir werden
hierfür ein explizites Konstruktionsverfahren verwenden, das jedoch
wegen seiner allgemeinen Natur nur von untergeordnetem Interesse sein
kann. Stattdessen ist die charakterisierende universelle Eigenschaft
V das
entscheidende Hilfsmittel zur Handhabung des Vektorraums r V .
Um nun den Beweis zu Satz 2 abzuschließen, bleibt noch die Exis-
tenz eines K-Vektorraums D zusammen mit einer alternierenden mul-
tilinearen Abbildung σ : V r ✲ D nachzuweisen, welche die behaup-
tete universelle Abbildungseigenschaft besitzt. Hierzu betrachten wir,
motiviert durch die Aussage von Bemerkung 3, den freien von allen
Symbolen v ∈ V r erzeugten K-Vektorraum, nämlich

D̂ = (αv )v∈V r ; αv ∈ K, αv = 0 für fast alle v ,
r
den wir als linearen Unterraum des kartesischen Produkts K V auffas-
sen. Das System der Elemente

ev = (δv,v′ )v′ ∈V r , v ∈ V r,

bildet eine Basis von D̂, wobei wir für Tupel v = (a1 , . . . , ar ) ∈ V r
anstelle von ev auch ausführlicher e(a1 ,...,ar ) schreiben werden.
202 4. Determinanten

Sei R ⊂ D̂ der lineare Unterraum, der von allen Elementen der


Gestalt

e(...,αa+βb,...) − α · e(...,a,...) − β · e(...,b,...) ,


e(...,a,...,a,...)

mit α, β ∈ K, a, b ∈ V erzeugt wird (wobei bei den Elementen ersteren


Typs die Einträge an einer festen Stelle i stehen und die restlichen
Einträge in allen drei Termen jeweils unverändert sind). Man setze
dann D = D̂/R und bezeichne die Restklasse eines Basiselementes
e(a1 ,...,ar ) ∈ D̂ mit a1 ∧ . . . ∧ ar . Dann ist nach Definition von R die
Abbildung

σ: V r ✲ D, (a1 , . . . , ar ) ✲ e(a1 ,...,ar ) ✲ a1 ∧ . . . ∧ ar ,

sozusagen erzwungenermaßen multilinear und alternierend. Um zu er-


kennen, dass σ die behauptete universelle Abbildungseigenschaft be-
sitzt, betrachte man eine beliebige alternierende multilineare Abbil-
dung Φ : V r ✲ W mit Werten in einem K-Vektorraum W . Dann
kann man eine Abbildung ϕ̂ : D̂ ✲ W erklären, indem man die Bil-
der der kanonischen Basis (ev )v∈V r von D̂ vorgibt, und zwar durch

ϕ̂(e(a1 ,...,ar ) ) = Φ(a1 , . . . , ar ), (a1 , . . . , ar ) ∈ V r .

Man vergleiche hierzu Satz 2.1/7 (ii), den man in einer Version für
nicht notwendig endliche Basen benötigt. Es entsteht somit das folgen-
de kommutative Diagramm, wobei die Existenz der Abbildung ϕ noch
zu begründen ist:

✒ ❅
ϕ̂ ❅
σ


Vr ✲ D = D̂/R

Φ❅ ϕ
❘ ❄✠

W
Aus der Eigenschaft, dass Φ multilinear und alternierend ist, ergibt
sich sofort, dass ker ϕ̂ alle erzeugenden Elemente von R, also R selbst
enthält. Mittels des Homomorphiesatzes 2.2/8 folgt dann, dass ϕ̂ über
4.5 Äußere Produkte* 203

den Quotienten D = D̂/R faktorisiert, sich also als Komposition der


Projektion D̂ ✲ D und einer K-linearen Abbildung ϕ : D ✲W
schreiben lässt, wobei ϕ die Gleichung

(∗) ϕ(a1 ∧ . . . ∧ ar ) = Φ(a1 , . . . , ar )

für (a1 , . . . , ar ) ∈ V r erfüllt; dies bedeutet aber Φ = ϕ ◦ σ.


Es bleibt nun noch nachzuweisen, dass ϕ als K-lineare Abbildung
durch die Gleichung Φ = ϕ ◦ σ eindeutig bestimmt ist. Gilt diese Glei-
chung, d. h. gilt (∗) für alle Tupel in V r , so ist ϕ jedenfalls eindeutig
bestimmt auf dem linearen Unterraum von D, der von allen Elementen
des Typs a1 ∧ . . . ∧ ar erzeugt wird; vgl. 2.1/7. Dieser Unterraum ist
aber identisch mit D, da die Elemente e(a1 ,...,ar ) nach unserer Konstruk-
tion eine Basis von D̂ bilden, die Elemente a1 ∧ . . . ∧ ar also immerhin
noch den Quotientenvektorraum D erzeugen. 

Die vorstehende Konstruktion V0 ergibt im Fall r = 0 einen eindimen-


sionalen K-Vektorraum V , der von dem Bild des leeren Tupels aus
0
V erzeugt [Link] solche Situation lässt sich natürlich konkretisie-
ren: Man setzt 0 V := K, wobei man vereinbart, dass das Produkt
a1 ∧ . . . ∧ ar für r = 0 leer ist und demgemäß den Wert 1 hat.
Als Nächstes wollen wir überlegen, wie man, ausgehend von ei-
ner
Vr Basis X = (x1 , . . . , xn ) eines K-Vektorraums V eine Basis von
n
V erhalten kann. Hierzu bezeichne Zr für n, r ∈ N die Menge aller
r-elementigen TeilmengenVvon {1, . . . , n}. Weiter werde für Elemente
H ∈ Zrn der Vektor xH ∈ r V durch xH = xh1 ∧ . . . ∧ xhr erklärt, wo-
bei man H = {h1 , . . . , hr }Pmit h1 < . . . < hr schreibe. Für Elemente
a1 , . . . , ar ∈ V , etwa aj = ni=1 αij xi mit Koeffizienten αij ∈ K, setzen
wir dann noch
X
detX,H (a1 , . . . , ar ) = sgn(π) · αhπ(1) ,1 . . . αhπ(r) ,r .
π∈Sr

Es ist also detX,H (a1 , . . . , ar ), abgesehen vielleicht von dem trivialen


Fall r = 0, die Determinante derjenigen (r×r)-Matrix, die man aus der
(n×r)-Matrix (a1,X , . . . , ar,X ) erhält, indem man alle Zeilen mit einem
Index i 6∈ H streicht; dabei ist aj,X jeweils der Koordinatenspaltenvek-
tor von aj bezüglich der Basis X, j = 1, . . . , r. Insbesondere ergibt sich,
dass detX,H : V r ✲ K eine alternierende multilineare Abbildung ist.
204 4. Determinanten

Satz 4. Wie vorstehend beschrieben betrachte man einen K-Vektor-


raumVV mit einer Basis X = (x1 , . . . , xn ), sowie das r-te äußere Pro-
dukt r V . Vr
(i) Die ElementeVr xH , H n∈ Zr , bilden eine Basis von
n
V . Insbe-
sondere gilt dimK ( V ) = (r ).
(ii) Für beliebige Elemente a1 , . . . , ar ∈ V gilt
X
a1 ∧ . . . ∧ ar = detX,H (a1 , . . . , ar )xH .
H∈Zrn

Beweis. Der Fall r = 0 ist trivial; sei also r > 0. Als alternierende mul-
tilineare Abbildung faktorisiert detX,H : V r ✲ K über eine K-lineare
Abbildung V
dX,H : r V ✲ K,

und es gilt dX,H (xH ′ ) = δH,H ′ für H, H ′ ∈ Zrn , wie man leicht ein-
sieht. Letztere Gleichungen können aber nur dann bestehen, wenn die
Elemente xH , H ∈ Zrn , linear unabhängig sind. Dass weiter V die xH
ein Erzeugendensystem und damit insgesamt eine Basis von r V bil-
den, folgt dann aus (ii), da die Elemente des Typs a1 ∧ . . . ∧ ar ein
Erzeugendensystem bilden. P
Es bleibt also noch Aussage (ii) nachzuweisen. Für aj = ni=1 αij xi ,
j = 1, . . . , r, mit Koeffizienten αij ∈ K kann man wie folgt rechnen:
n
X
a1 ∧ . . . ∧ ar = αi1 ,1 . . . αir ,r · xi1 ∧ . . . ∧ xir
i1 ,...,ir =1
X X
= sgn(π)αhπ(1) ,1 . . . αhπ(r) ,r · xH
H∈Zrn π∈Sr
X
= detX,H (a1 , . . . , ar ) · xH .
H∈Zrn

Der gerade gegebene Beweis zeigt im Übrigen, dass die von den
alternierenden multilinearen Abbildungen : Vr ✲ K indu-
Vr detX,H✲
zierten K-linearen
Vr ∗Abbildungen dX,H : V K eine Basis des
Dualraums
V ( V ) bilden, nämlich gerade die duale Basis zu der Ba-
sis von r V , die von den Elementen xH gebildet wird.
4.5 Äußere Produkte* 205

Ist f : V ✲ W eine lineare Abbildung zwischen K-Vektorräu-


men, so gibt es für r ∈ N eine eindeutig bestimmte K-lineare Abbildung
Vr Vr Vr
f : V ✲ W
mit Vr
f (a1 ∧ . . . ∧ ar ) = f (a1 ) ∧ . . . ∧ f (ar ).
V
Da die Elemente des Typs a1 ∧V. . . ∧ ar den Vektorraum r V erzeu-
gen, ist die Eindeutigkeit von r f klar. Zum Nachweis der Existenz
betrachte man im Falle r > 0 die alternierende multilineare Abbildung

Vr
Vr W, (a1 , . . . , ar ) ✲ f (a1 ) ∧ . . . ∧ f (ar ),
V
und nutze aus, dass diese über r V faktorisiert.

Korollar 5. Es sei f : V ✲ V ein Endomorphismus eines K-Vek-


torraums V endlicher Dimension n. Dann ist der zugehörige Endo-
morphismus Vn V Vn
f: nV ✲ V
gerade die Multiplikation mit det(f ) ∈ K.

Beweis. Man wähle eine Basis X = (x1 , . . . , xn ) von V . Dann gilt


V
( n f )(x1 ∧ . . . ∧ xn ) = f (x1 ) ∧ . . . ∧ f (xn ),
sowie nach Satz 4
f (x1 ) ∧ . . . ∧ f (xn ) = det(f (x1 )X , . . . , f (xn )X ) · x1 ∧ . . . ∧ xn .
V
Da x1 ∧ . . . ∧ xn eine Basis von n V bildet, folgt die Behauptung. 

Wir wollen nun noch zeigen, dass man das Dachprodukt “ ∧ ” als
Produkt in einem geeigneten Ring auffassen kann.

Lemma 6. Es sei V ein K-Vektorraum. Zu r, s ∈ N existiert dann


eine K-bilineare Abbildung
V V Vr+s
∧: r V × s V ✲ V,
(a1 ∧ . . . ∧ ar , b1 ∧ . . . ∧ bs ) ✲ a1 ∧ . . . ∧ ar ∧ b1 ∧ . . . ∧ bs ,
welche durch die angegebene Abbildungsvorschrift eindeutig charakteri-
siert ist.
206 4. Determinanten

Beweis. Man betrachte die alternierende multilineare Abbildung


V
Φ : V r+s ✲ r+s V,
(a1 , . . . , ar , b1 , . . . , bs ) ✲ a1 ∧ . . . ∧ ar ∧ b1 ∧ . . . ∧ bs ,

wobei wir r, s > 0 annehmen. Die Fälle r = 0 oder s = 0 sind in ähnli-


cher Weise zu behandeln, unter Verwendung der Konvention, dass leere
Produkte den Wert 1 haben. Für fest gewählte Elemente a1 , . . . , ar ∈ V
ergibt sich eine alternierende multilineare Abbildung

Vr+s
Vs V,
(b1 , . . . , bs ) ✲ a1 ∧ . . . ∧ ar ∧ b1 ∧ . . . ∧ bs ,
V
welche durch s V faktorisiert. Es induziert Φ daher eine Abbildung
V V
Φ′ : V r × s V ✲ r+s V,
 X  X
a1 , . . . , ar , bj1 ∧ . . . ∧ bjs ✲ a1 ∧ . . . ∧ ar ∧ bj1 ∧ . . . ∧ bjs ,
j j
und man sieht, da Dachprodukte der Form a1 ∧ . . . ∧ ar ∧ b1 ∧ . . . ∧ bs
multilinear und alternierend in V den einzelnen Faktoren sind, dass der
Ausdruck Φ (·, b) für festes b ∈ s V multilinear und alternierend auf

V r ist. Folglich induziert Φ′ eine Abbildung


V V Vr+s
Φ′′ : r V × s V ✲ V,
X X  X
ai1 ∧. . .∧air , bj1 ∧. . .∧bjs ✲ ai1 ∧. . .∧air ∧bj1 ∧. . .∧bjs ,
i j ij
′′
Vs
derart,
Vr dass Φ (·, b) für alle b ∈ V eine K-lineare Abbildung auf
V ist. Die Rechenregeln für Dachprodukte zeigen dann, dass Φ′′
sogar, wie gewünscht, K-bilinear ist. Dass Φ′′ durch die angegebene
Abbildungsvorschrift eindeutig charakterisiert ist, folgt daraus, Vdass
die Elemente des Typs a1 ∧ . . . V ∧ ar ein Erzeugendensystem von r V
bilden und Entsprechendes für s V gilt. 

Man kann nun zu einem K-Vektorraum V die (konstruierte) direkte


Summe V L V
V = r∈N r V
aller äußeren Potenzen bilden, womit Q
man V
ähnlich wie in 1.6 denjeni-
gen Teil des kartesischen Produktes r∈N r V meint, der aus allen
4.5 Äußere Produkte* 207

Vr
Familien (λr )r∈N
V mit λ r ∈ V sowie λr = 0 für fast alle r ∈ N be-
steht. Es ist V in natürlicher Weise ein K-Vektorraum, und man
kann
Vr zeigen,
Vs dass die in LemmaV6 betrachteten Abbildungen des Typs
Vr+s
V × VV ✲ V auf V eine MultiplikationVdefinieren, der-
0
art dass V ein Ring wird. Dabei V erkennt man K = V in kanoni-
scher Weise als UnterringVvon V und spricht von einer K-Algebra.
Genauer bezeichnet man V als die äußere Algebra zu V .
Wir wollen hier die Produktbildung aus Lemma 6 lediglich da-
zu benutzen, um den sogenannten allgemeinen Laplaceschen Entwick-
lungssatz für Determinanten herzuleiten. Wir betrachten dazu wieder
einen K-Vektorraum V mit Basis X = (x1 , . . . , xn ) und verwenden
eine Notation wie in Satz 4, insbesondere sei an die alternierenden
multilinearen Abbildungen detX,H : V r ✲ K zu Elementen H ∈ Z n
r
erinnert. Dabei stimmt detX,{1,...,n} mit der in 4.2/8 eingeführten De-
terminantenfunktion detX überein. Weiter sei H † ∈ Zn−r n
für H ∈ Zrn
erklärt als Komplement {1, . . . , n} − H, und man setze ρH = (−1)ν ,
wobei ν die Anzahl aller Paare (h, h† ) ∈ H ×H † mit h > h† bezeichnet.

Satz 7. Sei V ein K-Vektorraum mit Basis X = (x1 , . . . , xn ) und


Vektoren a1 , . . . , an ∈ V . Mit obiger Notation gilt dann für 1 ≤ r < n:
X
detX (a1 , . . . , an ) = ρH · detX,H (a1 , . . . , ar ) · detX,H † (ar+1 , . . . , an )
H∈Zrn

Beweis. Unter Verwendung von Satz 4 und Lemma 6 kann man wie
folgt rechnen:
detX (a1 , . . . , an ) · x1 ∧ . . . ∧ xn = a1 ∧ . . . ∧ an
= (a1 ∧ . . . ∧ ar ) ∧ (ar+1 ∧ . . . ∧ an )
X   X 
= detX,H (a1 , . . . , ar ) · xH ∧ detX,H (ar+1 , . . . , an ) · xH
H∈Zrn n
H∈Zn−r
X
= detX,H (a1 , . . . , ar ) · detX,H † (ar+1 , . . . , an ) · xH ∧ xH †
H∈Zrn
X
= ρH · detX,H (a1 , . . . , ar ) · detX,H † (ar+1 , . . . , an ) · x1 ∧ . . . ∧ xn
H∈Zrn
V
Da x1 ∧ . . . ∧ xn eine Basis von n V bildet, insbesondere also von Null
verschieden ist, ergibt sich die gewünschte Beziehung. 
208 4. Determinanten

Wenden wir Satz 7 auf V = K n und die kanonische Basis an, so


beschreibt die hergeleitete Formel die Entwicklung der Determinante
einer (n×n)-Matrix nach den ersten r Spalten. Durch Spaltenvertau-
schung und Berücksichtigung entsprechender Vorzeichen gewinnt man
einen Entwicklungssatz nach r beliebig vorgegebenen Spalten. Weiter
kann man durch Transponieren hieraus einen Entwicklungssatz nach
vorgegebenen r Zeilen gewinnen.

Aufgaben
1. Es sei V ein K-Vektorraum und U ⊂ V ein linearer Unterraum. Man
formuliere eine universelle Eigenschaft, die den Quotientenvektorraum
V /U charakterisiert.
2. Es sei V ein K-Vektorraum. Man zeige, Vektoren a1 , . . . , ar ∈ V Vsind
genau dann linear unabhängig, wenn das Element a1 ∧ . . . ∧ ar ∈ r V
nicht trivial ist. (AT 436)
3. Es sei f : V ✲ W eine lineare Abbildung zwischen K-Vektorräumen.
Man zeige für r ∈ N, dass die Abbildung
Vr V Vr
f: rV ✲ W

injektiv bzw. surjektiv ist, sofern f diese Eigenschaft besitzt.


4. Es sei V ein K-Vektorraum der Dimension n < ∞. Man bestimme
L V 
dim r∈N r V .

5. Es sei K ein Körper der Charakteristik 0, d. h. für n ∈ N verschwin-


det die n-fache Summe n · 1K des Einselementes 1K ∈ K genau dann,
wenn n = 0 gilt. WeiterVbetrachte man einen K-Vektorraum V und
dessen äußeres Produkt 2 V , bestehend aus allen endlichen V2 Summen
über Produkte der Form x ∧ y mit x, y ∈ V . Für z ∈ PV sei rg z
das Minimum aller r ∈ N, so dass es eine Zerlegung z = ri=1 xi ∧ yi
mit xi , yV
i ∈ V gibt; rg z wird als der Rang von z bezeichnet. Man zeige
für z ∈ 2 V und r ∈ N, dass die folgenden Aussagen äquivalent sind
(AT 438):
(i) rg z = r
(ii) zVr =
6 0 und z r+1 = 0, wobei die Potenzen in der äußeren Algebra
V zu V zu bilden sind.
Hinweis: Man darf Aufgabe 2 benutzen.
4.5 Äußere Produkte* 209

6. Symmetrische Produkte: Es sei V ein K-Vektorraum, und r ∈ N.


Eine Abbildung Φ : V r ✲ W in einen K-Vektorraum W heißt
symmetrisch, wenn Φ(aπ(1) , . . . , aπ(r) ) = Φ(a1 , . . . , ar ) für alle r-Tupel
(a1 , . . . , ar ) ∈ V r und alle Permutationen π ∈ Sr gilt. Man zeige: Es
existiert ein K-Vektorraum P mit einer symmetrischen multilinearen
Abbildung σ : V r ✲ P , welche folgende universelle Eigenschaft er-
füllt:
Zu jeder symmetrischen multilinearen Abbildung Φ : V r ✲ W in
einen K-Vektorraum W existiert eindeutig eine K-lineare Abbildung
ϕ: P ✲ W mit der Eigenschaft Φ = ϕ ◦ σ.
Man nennt P die r-te symmetrische Potenz von V .
5. Polynome

Überblick und Hintergrund

Für einen K-Vektorraum V der Dimension n < ∞ bilden die Endo-


morphismen τ : V ✲ V einen Ring EndK (V ), der gemäß 3.3/2 als
K-Vektorraum von der Dimension n2 ist. Betrachtet man daher zu ei-
2
nem Endomorphismus τ von V dessen Potenzen τ n , . . . , τ 0 = id, so
sind diese linear abhängig. Folglich existiert in EndK (V ) eine Gleichung
der Form

(∗) τ r + c1 τ r−1 + . . . + cr = 0

mit Konstanten ci ∈ K und einer natürlichen Zahl r ≤ n2 , wobei man


stets r ≤ n wählen kann, wie genauere Überlegungen später zeigen
werden. Es handelt sich also um eine Gleichung r-ten Grades mit Ko-
effizienten aus K, eine sogenannte algebraische Gleichung von τ über
K. Diese kann genau dann linear gewählt werden (d. h. mit r = 1),
wenn τ ein skalares Vielfaches der Identität ist, so dass im Allgemei-
nen r > 1 gelten wird. Nun ist die Theorie algebraischer Gleichungen
allerdings nicht mehr der Linearen Algebra zuzurechnen, sie gehört
thematisch eher zu dem umfassenderen Bereich der Algebra.
Dennoch sind Gleichungen des Typs (∗) für unsere Zwecke sehr
wichtig, da man aus ihnen wertvolle Informationen zur Struktur des
Endomorphismus τ ablesen kann. All dies werden wir im Kapitel 6 über
die Normalformentheorie von Endomorphismen genauestens erläutern.
Dabei sind jedoch gewisse Grundkenntnisse über solche Gleichungen
und insbesondere über die zugehörigen Polynome

(∗∗) tr + c1 tr−1 + . . . + cr

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2021


S. Bosch, Lineare Algebra, [Link]
212 5. Polynome

erforderlich, wobei das zu (∗) gehörige Polynom (∗∗) einen Ausdruck


darstellt, in dem man τ durch eine sogenannte Variable t ersetzt hat,
die bei Bedarf unterschiedliche Werte annehmen kann.
Wir werden in diesem Kapitel insbesondere den Ring aller Polyno-
me mit Koeffizienten aus einem gegebenen Körper K betrachten und
zeigen, dass dieser in Bezug auf Teilbarkeitseigenschaften sehr große
Ähnlichkeiten mit dem Ring Z der ganzen Zahlen aufweist. Beispiels-
weise werden wir für Polynomringe den Satz von der eindeutigen Prim-
faktorzerlegung herleiten.

5.1 Ringe

Bereits im Abschnitt 3.3 hatten wir Ringe betrachtet, und zwar zu einer
natürlichen Zahl n ∈ N den Matrizenring K n×n über einem Körper K,
sowie zu einem K-Vektorraum V den Endomorphismenring EndK (V ).
Um bestimmte Eigenschaften von Elementen in K n×n oder EndK (V )
genauer zu beschreiben, ist es zweckmäßig, wie oben angedeutet, so-
genannte Polynomringe zu verwenden. Das Studium dieser Ringe ist
zentrales Thema im vorliegenden Abschnitt. Wir beginnen jedoch mit
der Zusammenstellung einiger Eigenschaften allgemeiner Ringe, wobei
wir uns grundsätzlich auf Ringe mit Eins beschränken. Wenn wir also
im Folgenden von einem Ring sprechen, so ist damit stets ein Ring mit
Eins im Sinne von 3.3/1 gemeint. Mit anderen Worten, wir werden mit
der folgenden Definition eines Ringes arbeiten:

Definition 1. Eine Menge R mit zwei Verknüpfungen “ + ” (Addition)


und “ · ” (Multiplikation) heißt ein Ring, wenn folgende Bedingungen
erfüllt sind :
(i) R ist eine abelsche Gruppe bezüglich der Addition.
(ii) Die Multiplikation ist assoziativ, d. h. es gilt

(a · b) · c = a · (b · c) für a, b, c ∈ R.

(iii) Es existiert ein Einselement in R, also ein Element 1 ∈ R, so


dass 1 · a = a = a · 1 für alle a ∈ R gilt.
(iv) Addition und Multiplikation verhalten sich distributiv, d. h. für
a, b, c ∈ R gilt
5.1 Ringe 213

a · (b + c) = a · b + a · c, (a + b) · c = a · c + b · c.

Der Ring R heißt kommutativ, wenn die Multiplikation kommutativ


ist.

Es ist klar, dass das Einselement 1 eines Ringes durch seine definie-
rende Eigenschaft eindeutig bestimmt ist. Als naheliegendes Beispiel
eines kommutativen Rings kann man den Ring Z der ganzen Zahlen
betrachten. Im Übrigen ist jeder Körper, also insbesondere Q, R oder
C, ein kommutativer Ring. Wie schon in Abschnitt 3.3 definiert, heißt
ein Element a eines Ringes R eine Einheit, wenn es ein Element b ∈ R
mit ab = ba = 1 gibt. Die Menge R∗ aller Einheiten von R bildet eine
Gruppe bezüglich der Multiplikation. Für 1 6= 0 gilt R∗ ⊂ R − {0},
wobei dies im Allgemeinen eine echte Inklusion ist. Genauer ist die
Gleichung R∗ = R − {0} äquivalent zu der Bedingung, dass R ein Kör-
per ist, zumindest wenn man R als kommutativen Ring voraussetzt. Als
triviales Beispiel eines Rings hat man den sogenannten Nullring 0. Die-
ser besteht nur aus einem Element 0 mit den Verknüpfungen 0 + 0 = 0
und 0 · 0 = 0. Hier ist das Element 0 ein Null- und Einselement zu-
gleich, so dass wir 1 = 0 schreiben können. Der Nullring ist der einzige
Ring, in dem diese Gleichung gilt.
Bei dem Matrizenring K n×n über einem Körper K bzw. dem En-
domorphismenring EndK (V ) eines K-Vektorraums V handelt es sich
für n ≥ 2 bzw. dimK (V ) ≥ 2 um nicht-kommutative Ringe; vgl.
Abschnitt 3.3. Als weiteres Beispiel kann man für einen Ring R des-
sen n-faches kartesisches Produkt Rn als Ring betrachten, indem man
Addition und Multiplikation komponentenweise erklärt:

(α1 , . . . , αn ) + (β1 , . . . , βn ) = (α1 + β1 , . . . , αn + βn )


(α1 , . . . , αn ) · (β1 , . . . , βn ) = (α1 · β1 , . . . , αn · βn )

Es ist dann 0 = (0, . . . , 0) das Nullelement und 1 = (1, . . . , 1) das


Einselement. Im Falle R 6= 0 und n ≥ 2 zeigt die Gleichung

(1, 0, . . . , 0) · (0, . . . , 0, 1) = (0, . . . , 0),

dass dieser Ring nicht-triviale Nullteiler besitzt. Dabei heißt ein Ele-
ment a eines Rings ein Nullteiler, wenn es ein Element b 6= 0 dieses
Rings mit a · b = 0 oder b · a = 0 gibt. Man nennt einen kommutativen
214 5. Polynome

Ring R mit 1 6= 0 einen Integritätsring, wenn R keine nicht-trivialen


Nullteiler besitzt, wenn also für a, b ∈ R − {0} stets a · b 6= 0 gilt.
Als wichtiges Beispiel wollen wir nunmehr den Polynomring R⌈⌊T ⌉⌋
über einem kommutativen Ring R in einer Variablen T konstruieren.
Um unsere Intentionen klarzulegen, gehen wir dabei zunächst in nai-
ver Weise vor und P erklären R⌈⌊T ⌉⌋ als Menge aller formal gebildeten
Summen des Typs m i=0 ai T , mit Koeffizienten ai ∈ R und variabler
i

oberer Grenze m ∈ N. Addiert und multipliziert man solche Ausdrücke


“wie gewöhnlich”, so erkennt man R⌈⌊T ⌉⌋ als kommutativen Ring. Dabei
stelle man sich T als eine “variable” bzw. “allgemeine” Größe vor, für
die man nach Bedarf Elemente z. B. aus R einsetzen darf. Wichtig ist,
dass Addition und Multiplikation in R⌈⌊T ⌉⌋ bei einem solchen Erset-
zungsprozess in die entsprechenden Verknüpfungen von R übergehen.
Man rechnet daher mit T in gleicher Weise wie mit einer “konkreten”
Größe, etwa aus R.
Der Polynomring R⌈⌊T ⌉⌋ soll nun aber auch noch auf präzise Weise
konstruiert werden. Wir setzen R⌈⌊T ⌉⌋ = R(N) und verstehen hierunter
die Menge aller Folgen (ai )i∈N von Elementen ai ∈ R, für die ai = 0
für fast alle i ∈ N gilt, also für alle i ∈ N, bis auf endlich viele Ausnah-
men. Addition und Multiplikation solcher Folgen seien erklärt durch
die Formeln

(ai )i∈N + (bi )i∈N := (ai + bi )i∈N ,


(ai )i∈N · (bi )i∈N := (ci )i∈N ,

wobei ci jeweils durch den Ausdruck

X i
X
ci := aµ bν = aµ bi−µ
i=µ+ν µ=0

gegeben sei. Indem man die Ringeigenschaften von R benutzt, kann


man leicht nachrechnen, dass R(N) mit diesen Verknüpfungen einen
kommutativen Ring (mit Eins) bildet. Das Nullelement wird gege-
ben durch die Folge 0 = (0, 0, . . .), das Einselement durch die Folge
1 = (1, 0, 0, . . .).
Wir wollen exemplarisch nur das Assoziativgesetz der Multiplika-
tion nachrechnen. Für (ai )i , (bi )i , (ci )i ∈ R(N) gilt
5.1 Ringe 215
X 

(ai )i · (bi )i · (ci )i = aλ bµ · (ci )i
λ+µ=i i
X X    X 
= aλ bµ · cν = aλ bµ cν ,
κ+ν=i λ+µ=κ i λ+µ+ν=i i

sowie in entsprechender Weise


X 

(ai )i · (bi )i · (ci )i = (ai )i · bµ cν
µ+ν=i i
X  X   X 
= aλ · bµ cν = aλ bµ cν .
λ+κ=i µ+ν=κ i λ+µ+ν=i i

Um schließlich die Elemente


P<∞ von R(N) wie gewohnt als Polynome,
also Ausdrücke der Form i=0 ai T i , zu schreiben, betrachte man das
Element
T = (0, 1, 0, . . .) ∈ R(N) .
Für n ∈ N gilt T n = (δin )i∈N , wobei dies insbesondere für n = 0 auf-
grund unserer Konvention über das leere Produkt richtig ist. Identifi-
zieren wir nun die Elemente a ∈ R mit den entsprechenden Elementen
(a, 0, 0, . . .) ∈ R(N) , so ist diese Identifizierung mit den Verknüpfungen
in R und R(N) verträglich. Wir können also R sozusagen als “Unterring”
von R(N) auffassen. Elemente f = (ai )i∈N ∈ R(N) lassen sich dann als
Polynome in T mit Koeffizienten aus R schreiben, nämlich in der Form
X X X
f = (ai )i∈N = (ai δij )j∈N = ai (δij )j∈N = ai T i ,
i∈N i∈N i∈N
P
wobei die Koeffizienten ai ∈ R in der Darstellung f = i∈N ai T i jeweils
eindeutig bestimmt sind; man nennt ai den Koeffizienten von f zum
Grad i.
Wir werden von nun an für den gerade konstruierten Polynomring
stets die Notation
P R⌈⌊T ⌉⌋ verwenden und dessen Elemente als Polynome
der Form i∈N ai T i mit Koeffizienten ai ∈ R schreiben (wobei anstel-
le von T natürlich auch ein anderer Buchstabe zur Bezeichnung der
Variablen zugelassen ist). Dabei sei immer stillschweigend vorausge-
setzt, dass die Koeffizienten ai für fast alle Indizes i ∈ N verschwinden,
die vorstehende Summe also jeweils als endliche Summe Sinn macht.
216 5. Polynome

Addition und Multiplikation in R⌈⌊T ⌉⌋ beschreiben sich dann durch die


bekannten Formeln
X  X  X
i i
ai T + bi T = (ai + bi )T i ,
i∈N i∈N i∈N
X  X  X X 
i i
ai T · bi T = aµ bν · T i .
i∈N i∈N i∈N µ+ν=i
P
Ist für ein Polynom f = i∈N ai T i ∈ R⌈ P⌊T ⌉⌋ ein n ∈ N bekannt mit
ai = 0 für i > n, so können wir auch f = ni=0 ai T i schreiben. Gilt zu-
dem an 6= 0, so nennt man an den höchsten Koeffizienten von f , und es
wird n als Grad von f bezeichnet, n = grad f . Jedes nicht-triviale Po-
lynom f ∈ R⌈⌊T ⌉⌋ besitzt einen wohlbestimmten Grad. Darüber hinaus
trifft man die Konvention, dem Nullpolynom 0 den Grad −∞ zuzu-
ordnen.

Satz 2. Es sei R ein kommutativer Ring und R⌈⌊T ⌉⌋ der Polynomring


einer Variablen über R. Für f, g ∈ R⌈⌊T ⌉⌋ gilt dann
grad(f + g) ≤ max{grad f, grad g},
grad(f · g) ≤ grad f + grad g.
Ist R ein Integritätsring, so gilt sogar
grad(f · g) = grad f + grad g.

Beweis. Die Behauptung ist problemlos zu verifizieren, falls f oder g


das Nullpolynom ist. Wir dürfen daher f und g als nicht-trivialP
anneh-
men,Palso m = grad f ≥ 0 sowie n = grad g ≥ 0. Sei etwa f = ai T i ,
g = bi T i . Dann folgt ai = 0 für i > m und bi = 0 für i > n und
damit ai + bi = 0 für i > max{m, P n}, also grad(f + g) ≤ max{m, n}.
Auf ähnliche Weise sieht man µ+ν=i aµ bν = 0 für i > m + n, und dies
bedeutet grad(f · g) ≤ m + n. Insbesondere ist
X
am bn = aµ bν
µ+ν=m+n

der Koeffizient in f · g vom Grad m + n und damit der höchste Koeffi-


zient, falls er nicht verschwindet. Ist nun R ein Integritätsring, so gilt
am bn 6= 0 wegen am 6= 0 6= bn , und man erkennt grad(f ·g) = m+n. 
5.1 Ringe 217

Korollar 3. Ist R ein Integritätsring, so auch der Polynomring R⌈⌊T ⌉⌋.

Beweis. Seien f, g ∈ R⌈⌊T ⌋⌉ zwei nicht-triviale Polynome. Dann folgt


grad f ≥ 0, grad g ≥ 0 und somit grad(f · g) = grad f + grad g ≥ 0
unter Benutzung von Satz 2. Dies zeigt f · g 6= 0, d. h. R⌈⌊T ⌉⌋ ist ein
Integritätsring. 

Wir wollen im Weiteren spezielle Werte für die Variable T eines


Polynomrings R⌈⌊T ⌉⌋ einsetzen. Hierzu ist es von Nutzen, neben Homo-
morphismen von Ringen auch sogenannte Algebren und deren Homo-
morphismen zu betrachten.

Definition 4. Eine Abbildung ϕ : R ✲ R′ zwischen Ringen R, R′


heißt ein Homomorphismus, genauer ein Ringhomomorphismus, wenn
gilt:
(i) ϕ(a + b) = ϕ(a) + ϕ(b) für a, b ∈ R.
(ii) ϕ(a · b) = ϕ(a) · ϕ(b) für a, b ∈ R.
(iii) ϕ(1R ) = 1R′ , d. h. ϕ bildet das Einselement 1R ∈ R auf das
Einselement 1R′ ∈ R′ ab.

Wie bei Vektorraumhomomorphismen spricht man von einem Mo-


no-, Epi - bzw. Isomorphismus, wenn ϕ injektiv, surjektiv bzw. bijektiv
ist. Weiter wird ein Homomorphismus ϕ : R ✲ R auch als Endomor-
phismus von R bezeichnet, bzw. als Automorphismus, wenn dieser ein
Isomorphismus ist.

Definition 5. Es sei R ein kommutativer Ring. Eine R-Algebra be-


steht aus einem (nicht notwendig kommutativen) Ring A und einem
Ringhomomorphismus ϕ : R ✲ A, derart dass alle Elemente aus
ϕ(R) mit den Elementen aus A vertauschbar sind, also ϕ(r)a = aϕ(r)
für alle r ∈ R, a ∈ A gilt.

Häufig spricht man einfach von A als R-Algebra, ohne den Homo-
morphismus ϕ : R ✲ A explizit zu erwähnen. Entsprechend schreibt
man r · a anstelle von ϕ(r) · a für Elemente r ∈ R, a ∈ A, wobei der
definierende Homomorphismus R ✲ A dann durch r ✲ r · 1A
gegeben ist. Wenn dieser nicht injektiv ist, so darf man allerdings statt
218 5. Polynome

r · 1A keinesfalls wieder r schreiben, denn es ist dann nicht möglich, die


Elemente r ∈ R mit ihren Bildern r · 1A ∈ A zu identifizieren. Als Bei-
spiel merken wir an, dass R und der Polynomring R⌈⌊T ⌉⌋ auf kanonische
Weise R-Algebren sind, indem man die identische Abbildung R ✲ R
bzw. die Inklusionsabbildung R ⊂ ✲ R⌈⌊T ⌉⌋ betrachtet. Weiter definiert
für einen Vektorraum V über einem Körper K die Abbildung
K ✲ EndK (V ), α ✲ α · idV ,
den Endomorphismenring EndK (V ) als K-Algebra. Entsprechend ist
der Matrizenring K n×n für n ∈ N − {0} unter der Abbildung
K ✲ K n×n , α ✲ α · En ,
eine K-Algebra, wobei En die Einheitsmatrix in K n×n bezeichne.
Ist A eine R-Algebra, so kann man neben der Addition und Mul-
tiplikation des Ringes A auch noch die äußere Multiplikation
R×A ✲ A, (r, a) ✲ r · a,
mit Elementen aus R betrachten. Diese Multiplikation erfüllt Eigen-
schaften, wie sie etwa in 1.4/1 für die skalare Multiplikation eines Vek-
torraums gefordert werden. In der Tat wird A im Falle eines Körpers
K = R unter der äußeren Multiplikation zu einem K-Vektorraum,
wobei wir für EndK (V ) und K n×n jeweils die auch früher schon be-
trachteten K-Vektorraumstrukturen erhalten. Im Übrigen sei darauf
hingewiesen, dass die äußere Multiplikation mit der inneren Multipli-
kation auf A verträglich ist, d. h. es gilt
r · (a · b) = (r · a) · b = a · (r · b) für r ∈ R, a, b ∈ A.
Homomorphismen zwischen R-Algebren werden in natürlicher Wei-
se als Ringhomomorphismen erklärt, die zusätzlich die äußere Multi-
plikation mit R respektieren:

Definition 6. Es seien A, B Algebren über einem kommutativen Ring


R. Ein Homomorphismus von R-Algebren Φ : A ✲ B ist ein Ring-
homomorphismus, so dass Φ(ra) = rΦ(a) für alle r ∈ R, a ∈ A gilt.

Sind R ✲ A und R ✲ B die definierenden Homomorphis-


men der betrachteten R-Algebren, so ist ein Ringhomomorphismus
5.1 Ringe 219

Φ : A ✲ B genau dann ein Homomorphismus von R-Algebren, wenn


das Diagramm
Φ
A ✲ B

■ ✒


R
kommutiert.

Satz 7. Es sei R ein kommutativer Ring, R⌈⌊T ⌉⌋ der Polynomring einer


Variablen über R, sowie A eine beliebige R-Algebra. Zu jedem t ∈ A
gibt es dann einen eindeutig bestimmten R-Algebrahomomorphismus
Φ : R⌈⌊T ⌉⌋ ✲ A mit Φ(T ) = t. Dieser wird beschrieben durch
X X
ai T i ✲ ai ti
i∈N i∈N

oder, in suggestiver Schreibweise, durch

f ✲ f (t),

wobei dann insbesondere

(f + g)(t) = f (t) + g(t), (f · g)(t) = f (t) · g(t)

für f, g ∈ R⌈⌊T ⌉⌋ gilt. Man nennt Φ auch den Einsetzungshomomor-


phismus, der t anstelle von T einsetzt.

Beweis. P
Ist Φ ein R-Algebrahomomorphismus der geforderten Art, so
gilt für i∈N ai T i ∈ R⌈⌊T ⌉⌋
X  X X X
i
Φ ai T = Φ(ai T i ) = ai Φ(T )i = ai ti .
i∈N i∈N i∈N i∈N

Dies zeigt die Eindeutigkeit von Φ. Um auch die Existenz nachzuweisen,


erkläre man Φ durch
X  X
i
Φ ai T = ai ti .
i∈N i∈N
220 5. Polynome

Man sieht dann unmittelbar, dass Φ ein R-Algebrahomomorphismus


ist. Beispielsweise ergibt sich die Verträglichkeit von Φ mit der Multi-
plikation aufgrund folgender Rechnung:
X X  X X   X X 
i i i
Φ ai T · bi T = Φ aµ bν ·T = aµ bν ·ti
i∈N i∈N i∈N µ+ν=i i∈N µ+ν=i
X X X  X 
µ ν i i
= (aµ t )·(bν t ) = ai t · bi t
i∈N µ+ν=i i∈N i∈N
X  X 
=Φ ai T i ·Φ bi T i
i∈N i∈N

Man beachte dabei, dass wir die Vertauschbarkeit von t mit den (Bil-
dern der) Koeffizienten bi in A benutzt haben. 

Betrachten wir beispielsweise zu einem K-Vektorraum V dessen


Endomorphismenring A = EndK (V ) als K-Algebra, so können wir für
jeden Endomorphismus τ : V ✲ V den K-Algebrahomomorphismus
X X
Φτ : K⌈⌊T ⌉⌋ ✲ EndK (V ), ai T i ✲ ai τ i ,
i∈N i∈N

bilden, der τ anstelle von T einsetzt. Dabei ist τ i natürlich erklärt als
i-fache Komposition
P τ ◦ . . . ◦ τ von τ mit sich selber, und das Bild eines
Polynoms i∈N ai T ∈ K⌈⌊T ⌉⌋ unter Φτ ergibt sich als Endomorphismus
i

X X
ai τ i : V ✲ V, v ✲ ai τ i (v).
i∈N i∈N

Wir werden den Homomorphismus Φτ insbesondere zur Definition


des sogenannten Minimalpolynoms von τ verwenden; vgl. 6.2/9 und
6.2/10. Anstelle des Endomorphismenrings eines Vektorraums kann
man natürlich auch den Matrizenring K n×n betrachten. Zu jeder Ma-
trix C ∈ K n×n erhält man dann einen K-Algebrahomomorphismus
X X
ΦC : K⌈⌊T ⌉⌋ ✲ K n×n , ai T i ✲ ai C i ,
i∈N i∈N

der C anstelle von T einsetzt.


5.1 Ringe 221

Wir wollen ein weiteres Beispiel betrachten. Es sei K ein Körper


und Abb(K, K) die Menge aller Abbildungen K ✲ K oder, mit an-
deren Worten, die Menge aller K-wertigen Funktionen auf K. Zu jedem
Polynom f ∈ K⌈⌊T ⌉⌋ lässt sich dann die zugehörige Polynomfunktion
t ✲ f (t) als Element von Abb(K, K) betrachten. Diese ordnet einem
Element t ∈ K den Wert f (t) ∈ K zu, den man erhält, indem man t
anstelle von T in f einsetzt. Auf diese Weise ergibt sich eine Abbildung

Ψ : K⌈⌊T ⌉⌋ ✲ Abb(K, K), f ✲ t ✲ f (t) ,

die wir im Folgenden als Homomorphismus von K-Algebren deuten


wollen. Um A = Abb(K, K) als K-Algebra zu erklären, betrachten wir
die gewöhnliche Addition und Multiplikation K-wertiger Funktionen,
gegeben durch

p + q: K ✲ K, t ✲ p(t) + q(t),
p · q: K ✲ K, t ✲ p(t) · q(t).

Mit diesen Verknüpfungen ist A ein kommutativer Ring, in dem die


Nullfunktion 0 das Nullelement und die Funktion 1A , die identisch 1
ist, das Einselement bilden. Für α ∈ K kann man weiter das α-fache
eines Elementes p ∈ A durch

α · p: K ✲ K, t ✲ α · p(t) ,

erklären. In diesem Sinne ist dann

K ✲ A, α ✲ α · 1A ,

ein Ringhomomorphismus, der A zu einer K-Algebra macht. Mit Satz 7


folgt leicht, dass die Abbildung Ψ , die einem Polynom f ∈ K⌈⌊T ⌉⌋ die
zugehörige Polynomfunktion t ✲ f (t) zuordnet, tatsächlich ein Ho-
momorphismus von K-Algebren ist. Gleiches gilt, wenn man allgemei-
ner anstelle von K einen kommutativen Ring R zugrunde legt. Die
Homomorphie-Eigenschaft für Ψ besagt insbesondere, dass man mit
dem Element T in gleicher Weise rechnet, wie man es mit konkreten
Werten t anstelle von T tun würde. Dies rechtfertigt die Bezeichnung
von T als “Variable”.
Enthält der Körper K unendlich viele Elemente, so ist die Abbil-
dung Ψ injektiv, wie wir später aus 5.3/2 ablesen können. Man könnte
222 5. Polynome

dann Polynome aus K⌈⌊T ⌉⌋ mit ihren zugehörigen Polynomfunktionen


K ✲ K identifizieren. Für einen endlichen Körper K = {α1 , . . . , αq }
jedoch ist beispielsweise

f = (T − α1 ) . . . (T − αq ) ∈ K⌈⌊T ⌉⌋

ein nicht-triviales Polynom, das als Polynomfunktion K ✲ K iden-


tisch verschwindet, so dass also Ψ (f ) = 0 gilt. Die Abbildung Ψ ist
daher im Allgemeinen nicht injektiv, und dies ist einer der Gründe
dafür, dass wir Polynome nicht als konkrete Funktionen, sondern als
formale Ausdrücke unter Zuhilfenahme einer “Variablen” erklärt haben.

Wir wollen nun noch Ideale und Unterringe von Ringen einfüh-
ren, Begriffe, die im Zusammenhang mit Ringhomomorphismen von
Bedeutung sind.

Definition 8. Es sei R ein Ring (mit Eins). Ein Unterring von R


besteht aus einer Teilmenge S ⊂ R, derart dass gilt:
(i) a, b ∈ S =⇒ a − b, a · b ∈ S.
(ii) 1 ∈ S.

S ist dann mit den von R induzierten Verknüpfungen selbst wieder


ein Ring, und die Inklusionsabbildung S ⊂ ✲ R ist ein Ringhomomor-
phismus. Man überlegt sich leicht, dass das Bild ϕ(R) eines Ringho-
momorphismus ϕ : R ✲ R′ stets ein Unterring von R′ ist.

Definition 9. Es sei R ein Ring. Eine Teilmenge a ⊂ R heißt Ideal,


falls gilt:
(i) a ist additive Untergruppe von R, d. h. man hat a 6= ∅, und aus
a, b ∈ a folgt a − b ∈ a.
(ii) Aus a ∈ a, r ∈ R folgt ra, ar ∈ a.

Man rechnet leicht nach, dass für jeden Ringhomomorphismus


ϕ : R ✲ R′ dessen Kern

ker ϕ = a ∈ R ; ϕ(a) = 0

ein Ideal ist, wobei ϕ genau dann injektiv ist, wenn ker ϕ mit dem
Nullideal übereinstimmt, d. h. nur aus dem Nullelement besteht. Ist R
5.1 Ringe 223

ein beliebiger Ring, so kann man zu einem Element a ∈ R, welches mit


allen übrigen Elementen von R vertauschbar ist, das hiervon erzeugte
Hauptideal 
(a) = Ra = ra ; r ∈ R
bilden. Speziell besteht für R = Z das Ideal (2) aus allen geraden
Zahlen, das Ideal (12) aus allen durch 12 teilbaren Zahlen. In jedem
Ring gibt es die sogenannten trivialen Ideale, nämlich das Einheitsideal
(1) = R sowie das Nullideal (0), welches man meist mit 0 bezeichnet.
Ein Körper besitzt außer den trivialen keine weiteren Ideale. Umge-
kehrt kann man zeigen, dass ein kommutativer Ring, der genau zwei
Ideale hat, ein Körper ist.
Ist a ein Ideal eines Ringes R, so kann man ähnlich wie in Ab-
schnitt 2.2 den Quotienten- oder Restklassenring R/a konstruieren.
Da man auf diese Weise interessante Ringe und sogar Körper erhalten
kann, wollen wir die Konstruktion hier kurz besprechen. Man erklärt
eine Relation “ ∼ ” auf R, indem man für a, b ∈ R setzt:

a ∼ b ⇐⇒ a − b ∈ a

Man sieht dann ohne Probleme, dass “ ∼ ” eine Äquivalenzrelation


ist. Für a ∈ R hat man a ∼ a wegen a − a = 0 ∈ a. Die Relation
ist daher reflexiv. Gilt weiter a ∼ b, so folgt a − b ∈ a und damit
auch b − a = −(a − b) ∈ a. Letzteres bedeutet b ∼ a, und es folgt
die Symmetrie von “ ∼ ”. Zum Nachweis der Transitivität schließlich
nehme man a ∼ b und b ∼ c für Elemente a, b, c ∈ R an. Dann gilt
a − b, b − c ∈ a, und man erhält

a − c = (a − b) + (b − c) ∈ a,

d. h. a ∼ c. Es ist “ ∼ ” also eine Äquivalenzrelation, und wir können


zu einem Element a ∈ R die zugehörige Äquivalenzklasse

⌈⌊a⌉⌋ := {b ∈ R ; b ∼ a} = a + a

bilden, wobei a + a als Nebenklasse von a bezüglich a, also als Menge


aller Summen des Typs a + a′ mit a′ ∈ a zu interpretieren ist. Gemäß
2.2/4 sind zwei Äquivalenzklassen ⌈⌊a⌉⌋, ⌈⌊b⌉⌋ entweder disjunkt oder aber
identisch (im Falle a ∼ b). Insbesondere ist R die disjunkte Vereinigung
aller Äquivalenzklassen.
224 5. Polynome

Man bezeichne nun die Menge aller Nebenklassen bezüglich a mit


R/a. Um R/a zu einem Ring zu machen, werden folgende Verknüpfun-
gen erklärt:

⌈⌊a⌉⌋ + ⌈⌊b⌉⌋ = ⌈⌊a + b⌉⌋, ⌈⌊a⌉⌋ · ⌈⌊b⌉⌋ = ⌈⌊a · b⌉⌋

Dabei ist zu verifizieren, dass die Klasse ⌈⌊a + b⌉⌋ bzw. ⌈⌊a · b⌉⌋ nicht
von der Wahl der Repräsentanten a und b der betrachteten Klassen
⌈⌊a⌉⌋, ⌈⌊b⌉⌋ abhängt. Gelte etwa ⌈⌊a⌉⌋ = ⌈⌊a′ ⌉⌋ und ⌈⌊b⌉⌋ = ⌈⌊b′ ⌉⌋. Dann folgt
a − a′ , b − b′ ∈ a und damit

(a + b) − (a′ + b′ ) ∈ a, ab − a′ b′ = a(b − b′ ) + (a − a′ )b′ ∈ a,

also a + b ∼ a′ + b′ und ab ∼ a′ b′ . Addition und Multiplikation in


R/a sind daher wohldefiniert, und man sieht unmittelbar aufgrund der
Ringeigenschaften von R, dass auch R/a ein Ring ist, und zwar derart,
dass die Abbildung

π: R ✲ R/a, a ✲ ⌈⌊a⌉⌋,

ein surjektiver Ringhomomorphismus mit Kern a ist. Man bezeichnet


R/a als Restklassen- oder Quotientenring von R modulo a. Ähnlich
wie in 2.2/8 gilt folgender Homomorphiesatz:

Satz 10. (Homomorphiesatz für Ringe). Es sei ϕ : R ✲ R′ ein Ring-


homomorphismus, a ⊂ R ein Ideal mit a ⊂ ker ϕ und π : R ✲ R/a
die natürliche Projektion. Dann existiert ein eindeutig bestimmter
Ringhomomorphismus ϕ : R/a ✲ R′ , so dass das Diagramm
ϕ
R ✲ R′
❅ ✒
π❅ ϕ


R/a

kommutiert. Dabei ist ϕ genau dann injektiv, wenn a = ker ϕ gilt und
genau dann surjektiv, wenn ϕ surjektiv ist.

Beweis. Da man die Argumentation aus 2.2/8 mutatis mutandis über-


nehmen kann, wollen wir uns hier kurz fassen und nur auf die Definition
5.1 Ringe 225

von ϕ eingehen. Um ϕ(a) für ein Element a ∈ R/a zu erklären, wähle


man ein π-Urbild a ∈ R und setze ϕ(a) = ϕ(a). Dabei ist natürlich
zu verifizieren, dass das Element ϕ(a) unabhängig von der Wahl des
π-Urbildes a zu a ist. Letzteres folgt aus der Bedingung a ⊂ ker ϕ. 

Aufgaben
R sei stets ein kommutativer Ring.
1. Es sei t ∈ R und Φ : R⌈⌊T ⌉⌋ ✲ R, f ✲ f (t), derjenige Homomor-
phismus, der t anstelle der Variablen T einsetzt. Man zeige (AT 440):

ker Φ = R⌈⌊T ⌉⌋ · (T − t)

(Hinweis: Man reduziere auf den Fall t = 0, indem man den Einset-
zungshomomorphismus R⌈⌊T ⌉⌋ ✲ R⌈⌊T ⌉⌋ betrachtet, der T durch T + t
ersetzt.)
2. Es sei V ein nicht-trivialer Vektorraum über einem Körper K. Zu einem
Endomorphismus ϕ ∈ EndK (V ) betrachte man den Einsetzungshomo-
morphismus Φ : K⌈⌊T ⌉⌋ ✲ EndK (V ), der ϕ anstelle von T einsetzt.
Man bestimme ker Φ in den Fällen ϕ = id und ϕ = 0. (AT 442)
3. Es bezeichne RN die Menge aller Folgen (ai )i∈N von Elementen ai ∈ R.
(i) Man verwende die gleichen Formeln wie im Falle des Polynomrings
einer Variablen über R, um anstelle von R(N) auf RN die Struktur
eines Ringes zu erklären. Dieser Ring wird mit R⌈⌊⌈⌊T ⌋⌉⌋⌉ bezeichnet
und heißt Ring der formalen Potenzreihen einer Variablen P∞ überi
R. Seine Elemente lassen sich als unendliche Reihen i=0 ai T
darstellen.
P
(ii) Es sei q ∈ R⌈⌊⌈⌊T ⌉⌋⌉⌋ · T . Man zeige, dass ∞ n
n=0 q zu einem wohlde-
finierten Element f ∈ R⌈⌊⌈⌊T ⌉⌋⌉⌋ Anlass gibt und dass f · (1 − q) = 1
gilt.
(iii) Man bestimme die Gruppe aller Einheiten in R⌈⌊⌈⌊T ⌉⌋⌋⌉.
4. Es seien a, b ⊂ R Ideale. Man zeige, dass die folgenden Teilmengen von
R wiederum Ideale bilden:
(i) a + b = {a + b ; a ∈ a, b ∈ b}
(ii) a · b = Menge aller endlichen Summen von Produkten a · b mit
a ∈ a und b ∈ b
(iii) a ∩ b
226 5. Polynome

5. Man zeige, dass R genau dann ein Körper ist, wenn R genau zwei ver-
schiedene Ideale besitzt.
6. Für ein Ideal a ⊂ R zeige man, dass die Menge aller Elemente a ∈ R,
zu denen es ein n ∈ N mit an ∈ a gibt, ebenfalls wieder ein Ideal in R
bildet. Dieses wird mit rad a bezeichnet und heißt das Nilradikal von a.
(AT 443)
7. Für eine Familie (ai )i∈I von Elementen in R zeige man:
(i) Es existiert ein kleinstes Ideal a ⊂ R mit ai ∈ a für alle i ∈ I.
P
(ii) Es gilt a = { i∈I ri ai ; ri ∈ R, ri = 0 für fast alle i ∈ I}.
Man nennt a das von den Elementen ai , i ∈ I, in R erzeugte Ideal.
8. (Isomorphiesatz ) Es seien a ⊂ b ⊂ R Ideale. Man zeige:

(i) Die kanonische Abbildung b ⊂ ✲ R ✲ R/a besitzt a als Kern


und induziert eine Injektion b/a ⊂ ✲ R/a, wobei man b/a zu-
nächst als Menge der Restklassen b + a mit b ∈ b erkläre. Weiter
lässt sich b/a mit seinem Bild in R/a identifizieren und als Ideal
in R/a auffassen.
(ii) Die Projektion R ✲ R/b faktorisiert über R/a, d. h. lässt sich
π✲ f✲
als Komposition R R/a R/b schreiben, mit einem
Ringhomomorphismus f und der kanonischen Projektion π.
(iii) f besitzt b/a als Kern und induziert einen Isomorphismus

(R/a)/(b/a) ∼✲ R/b.

5.2 Teilbarkeit in Integritätsringen

In diesem Abschnitt seien alle Ringe als Integritätsringe und damit


insbesondere als kommutativ vorausgesetzt. Im Wesentlichen interes-
sieren wir uns für den Polynomring K⌈⌊T ⌉⌋ in einer Variablen T über
einem Körper K, für den wir Teilbarkeits- und Faktorisierungsaussagen
herleiten wollen. Als Ring mit ganz analogen Eigenschaften soll aber
auch der Ring Z der ganzen Zahlen betrachtet werden. Grundlegend
ist in beiden Ringen das Verfahren der Division mit Rest, welches wir
insbesondere benutzen wollen, um den Satz über die eindeutige Prim-
faktorzerlegung in Polynomringen herzuleiten. Zunächst erinnern wir
5.2 Teilbarkeit in Integritätsringen 227

an dieses Verfahren, wobei wir davon ausgehen, dass die Division mit
Rest im Ring Z der ganzen Zahlen wohlbekannt ist.

Satz 1. Zu a, b ∈ Z mit b > 0 existieren eindeutig bestimmte Zahlen


q, r ∈ Z mit
a = qb + r, 0 ≤ r < b.

Satz 2. Zu Polynomen f, g ∈ K⌈⌊T ⌉⌋, g 6= 0, mit Koeffizienten aus


einem Körper K existieren eindeutig bestimmte Polynome q, r ∈ K⌈⌊T ⌉⌋
mit
f = qg + r, grad r < grad g.

Beweis zu Satz 2. Wir beginnen mit der Existenzaussage. Im Falle


grad f < grad g gilt die gewünschte Zerlegung trivialerweise mit q = 0
und r = f . Hat man andererseits

m = grad f ≥ grad g = n,

so sei a (bzw. b) der höchste Koeffizient von f (bzw. g), und man setze
a
q1 := · T m−n , f1 := f − q1 g.
b
Dann gilt

grad(q1 g) = grad q1 + grad g = (m − n) + n = m = grad f

nach 5.1/2, und die höchsten Koeffizienten von q1 g und f stimmen


überein. Insbesondere gibt es ein Polynom f1 ∈ K⌈⌊T ⌉⌋ mit

f = q1 g + f1 , grad f1 < grad f.

Im Falle grad f1 < grad g erhält man die gewünschte Zerlegung mit
q = q1 und r = f1 . Falls aber grad f1 ≥ grad g gilt, so kann man nach
dem gerade beschriebenen Verfahren fortfahren und eine Zerlegung

f1 = q2 g + f2 , grad f2 < grad f1 ,

finden usw. Nach endlich vielen Schritten gelangt man schließlich zu


einer Zerlegung
fk−1 = qk g + fk
228 5. Polynome

mit grad fk < grad g. Dann ist

f = (q1 + . . . + qk )g + fk

die gewünschte Zerlegung von f .


Um nun auch die Eindeutigkeitsaussage herzuleiten, betrachte man
Zerlegungen
f = qg + r = q ′ g + r′
mit grad r, grad r′ < grad g. Sodann hat man

0 = (q − q ′ )g + (r − r′ ) bzw. (q − q ′ )g = r′ − r.

Gilt nun q − q ′ 6= 0, so folgt grad(q − q ′ ) ≥ 0 und damit gemäß 5.1/2



grad (q − q ′ )g = grad(q − q ′ ) + grad g ≥ grad g.

Andererseits hat man aber


grad(r′ − r) ≤ max{grad r′ , grad r} < grad g,
was der vorhergehenden Abschätzung widerspricht. Also folgt q = q ′
und damit r = r′ . 

Ringe, in denen eine Division wie in den Sätzen 1 oder 2 möglich


ist, werden als euklidische Ringe bezeichnet, genauer:

Definition 3. Ein Integritätsring R heißt ein euklidischer Ring, wenn


es eine Abbildung δ : R − {0} ✲ N (eine sogenannte Gradfunktion)
mit folgender Eigenschaft gibt: Zu a, b ∈ R, b 6= 0, existieren jeweils
(nicht notwendig eindeutig bestimmte) Elemente q, r ∈ R mit
a = qb + r,
wobei r = 0 oder δ(r) < δ(b) gilt.

Wir können daher feststellen:

Korollar 4. Der Ring Z der ganzen Zahlen und der Polynomring


K⌈⌊T ⌉⌋ über einem Körper K sind euklidische Ringe. Als Gradfunktion
nehme man im ersten Fall den Absolutbetrag, im zweiten den gewöhn-
lichen Grad von Polynomen.
5.2 Teilbarkeit in Integritätsringen 229

Definition 5. Ein Integritätsring R heißt Hauptidealring, wenn jedes


Ideal a ⊂ R ein Hauptideal ist, also die Gestalt a = (a) mit einem
Element a ∈ R besitzt.

Satz 6. Es sei R ein euklidischer Ring. Dann ist R auch ein Haupt-
idealring.

Beweis. Es sei a ⊂ R ein Ideal. Um zu zeigen, dass a ein Hauptideal


ist, dürfen wir a 6= 0 annehmen, denn anderenfalls gilt a = 0 = (0). Sei
nun a ∈ a − {0} ein Element, für das δ(a) minimal ist, wobei δ eine
Gradfunktion von R bezeichne. Wir behaupten, dass dann a = (a) gilt.
Natürlich gilt (a) ⊂ a. Um auch die umgekehrte Inklusion zu zeigen,
wählen wir ein Element a′ ∈ a. Da R euklidisch unter δ ist, gibt es
Elemente q, r ∈ R mit a′ = qa + r, wobei r entweder verschwindet
oder δ(r) < δ(a) erfüllt. Nun hat man aber r = a′ − qa ∈ a, so dass
aufgrund der Wahl von a notwendig r = 0 und damit a′ = qa ∈ (a)
folgt. Es gilt daher a ⊂ (a), insgesamt also a = (a), und R ist ein
Hauptidealring. 

Korollar 7. Der Ring Z der ganzen Zahlen und der Polynomring


K⌈⌊T ⌉⌋ über einem Körper K sind Hauptidealringe.

Wir wollen als Nächstes den Teilbarkeitsbegriff in Integritätsringen


einführen.

Definition 8. Es seien a, b Elemente eines Integritätsrings R.


(i) Man sagt, a teile b oder a sei ein Teiler von b, in Zeichen a | b,
wenn es ein c ∈ R mit ac = b gibt. Ist a kein Teiler von b, so schreibt
man a ∤ b.
(ii) a und b heißen assoziiert, wenn es eine Einheit e ∈ R∗ mit
ae = b gibt.

Es ist also a genau dann ein Teiler von b, wenn b ∈ (a) bzw.
(b) ⊂ (a) gilt. Beispielsweise teilt T + 1 das Polynom T 2 − 1 in K⌈⌊T ⌉⌋,
und man hat a | b sowie b | a, falls a und b assoziiert sind. Genauer kann
man feststellen:
230 5. Polynome

Bemerkung 9. Für Elemente a, b eines Integritätsrings R ist äquiva-


lent:
(i) a | b und b | a.
(ii) (a) = (b).
(iii) a und b sind assoziiert.

Beweis. Wir zeigen lediglich, dass aus (ii) Bedingung (iii) folgt, alle
anderen Implikationen ergeben sich mittels direkter Verifikation aus
Definition 8. Gelte also (a) = (b). Dann gibt es Elemente c, d ∈ R mit
ac = b und a = bd. Hieraus folgt a = bd = acd, also a · (1 − cd) = 0.
Gilt nun a 6= 0, so folgt cd = 1, da R ein Integritätsring ist, und es sind
c, d Einheiten in R. Folglich sind a und b assoziiert. Gleiches gilt aber
auch im Falle a = 0, denn man hat dann insbesondere b = ac = 0. 

Definition 10. Es sei R ein Integritätsring und p ∈ R ein Element,


welches keine Einheit und von Null verschieden ist.
(i) p heißt irreduzi