100% fanden dieses Dokument nützlich (4 Abstimmungen)
4K Ansichten461 Seiten

Mathematik Für Informatiker

Das Dokument beschreibt ein Lehrbuch für Mathematik für Informatiker. Es enthält Kapitel zu Algebra, Analysis und diskreten Strukturen. Das Buch richtet sich an Studierende der Informatik und soll ihnen ein breites mathematisches Grundwissen vermitteln.

Hochgeladen von

labirynth111
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
100% fanden dieses Dokument nützlich (4 Abstimmungen)
4K Ansichten461 Seiten

Mathematik Für Informatiker

Das Dokument beschreibt ein Lehrbuch für Mathematik für Informatiker. Es enthält Kapitel zu Algebra, Analysis und diskreten Strukturen. Das Buch richtet sich an Studierende der Informatik und soll ihnen ein breites mathematisches Grundwissen vermitteln.

Hochgeladen von

labirynth111
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

eXamen.

press
[Link] ist eine Reihe, die Theorie und
Praxis aus allen Bereichen der Informatik für
die Hochschulausbildung vermittelt.
Bernd Kreußler · Gerhard Pfister

Mathematik für Informatiker


Algebra, Analysis, Diskrete Strukturen

123
Dr. Bernd Kreußler Prof. Dr. Gerhard Pfister
Mary Immaculate College Fachbereich Mathematik
South Circular Road Technische Universität Kaiserslautern
Limerick 67653 Kaiserslautern
Irland Deutschland
[Link]@[Link] pfister@[Link]

ISBN 978-3-540-89106-2 e-ISBN 978-3-540-89107-9

DOI 10.1007/978-3-540-89107-9

[Link] ISSN 1614-5216

Bibliografische Information der Deutschen Nationalbibliothek


Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;
detaillierte bibliografische Daten sind im Internet über [Link] abrufbar.


c 2009 Springer-Verlag Berlin Heidelberg

Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der
Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funk-
sendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in
Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Ver-
vielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der
gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. Septem-
ber 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwider-
handlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes.

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk be-
rechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der
Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann
benutzt werden dürften.

Satz: Datenerstellung durch die Autoren unter Verwendung eines Springer LaTeX-Makropakets
Einbandgestaltung: KünkelLopka, Heidelberg

Gedruckt auf säurefreiem Papier

987654321

[Link]
Für Andrea, Manja, Jana
B. K.

Für Marlis, Alexander, Jeannette


G. P.
Vorwort

Dieses Buch richtet sich vor allem an Informatikstudenten der ersten Semes-
ter. Es ist hervorgegangen aus Vorlesungen, die von den Autoren an der TU
Kaiserslautern gehalten wurden. Der Inhalt und Stoffumfang wurden mehr-
fach in der Praxis erprobt. Da in Kaiserslautern sowohl im Frühjahr als auch
im Herbst ein Studieneinstieg möglich ist, beginnen dort einige Studenten
mit Algebra (Kapitel 1 und 2), andere jedoch mit Analysis und Diskreter
Mathematik (Kapitel 3–5). Der Text ist so aufgebaut, dass dies möglich ist.
Ein guter Informatiker benötigt ein breites mathematisches Grundwissen.
Dabei geht es nicht vordergründig um Formeln und Fakten, sondern um die
Fähigkeit, abstrakte Strukturen zu erkennen und zu verstehen. Bevor ein
Rechner ein kompliziertes Problem lösen kann, muss es in der Regel vom
Menschen (Informatiker) bearbeitet werden. Die besten Ergebnisse werden
dabei erzielt, wenn die dem Problem innewohnenden abstrakten Strukturen
erkannt und ausgenutzt werden.
Die Konzeption dieses Lehrbuches unterscheidet sich von vielen anderen Ma-
thematikbüchern vor allem in den folgenden drei Punkten:
• Jedes Kapitel beginnt mit konkreten, dem Leser vertrauten Begriffen oder
Situationen. Davon ausgehend wird schrittweise abstrahiert bis hin zu den
gebräuchlichen abstrakten Begriffen der modernen Mathematik.
• In jedem Kapitel werden viele interessante Situationen des Alltagslebens
beschrieben, in denen die zuvor eingeführten abstrakten Begriffe und die
bewiesenen Ergebnisse zum Einsatz kommen. Dabei stehen Anwendungen
im Mittelpunkt, die einen engen Bezug zur Informatik besitzen.
• Das Kapitel über Mengenlehre ist am Ende des Buches zu finden. Es kann
jederzeit unabhängig vom restlichen Text gelesen werden.
Dieses Lehrbuch besteht aus drei Teilen, die jeweils zwei Kapitel enthalten
und weitgehend voneinander unabhängig sind. Sie sind so angelegt, dass sie
im Wesentlichen einzeln verstanden werden können:
Teil I – Algebra Teil II – Analysis Teil III – Diskrete Strukturen.

vii
viii Vorwort

Teil I besteht aus den zwei Kapiteln Zahlen und Lineare Algebra. Besonderer
Wert wird auf die Vermittlung wichtiger Beweistechniken und der Methode
der Abstraktion (Äquivalenzklassenbildung) gelegt.
Im ersten Kapitel werden, ausgehend von den ganzen Zahlen, die wichti-
gen algebraischen Strukturen Gruppe, Ring und Körper erklärt. Als Anwen-
dung werden die Grundlagen der modernen Kryptographie und das RSA Ver-
schlüsselungsverfahren erläutert. Man findet auch die zur Zeit größte bekann-
te Primzahl. Im Zusammenhang mit dem Gruppenbegriff wird erläutert, was
es mit Geldscheinnummern, der ISBN und der EAN auf sich hat. Es kommt
auch der Rubik-Würfel und seine Interpretation als Gruppe vor. Im zweiten
Kapitel wird die Lineare Algebra dargestellt. Sie beschäftigt sich nicht nur
mit Verfahren zur Bestimmung von Lösungsmengen linearer Gleichungssys-
teme, sondern auch mit strukturellen Eigenschaften solcher Lösungsmengen.
Als Anwendung findet man fehlerkorrigierende Codes und deren Bedeutung
für die gute Qualität der Musikwiedergabe eines CD-Spielers.

Der Teil II enthält die Kapitel Reelle Zahlen und Folgen und Funktionen.
Zunächst werden die Grundlagen der Differential- und Integralrechnung be-
handelt. Darauf aufbauend werden verschiedene Möglichkeiten der Approxi-
mation von Funktionen diskutiert. Dies umfasst die Approximation stetiger
Funktionen durch Polynome und die Approximation periodischer Funktio-
nen durch Fourier-Reihen. Das führt schließlich zu den schnellen Fourier-
Transformationen und deren Anwendung bei der Bildkompression (JPEG-
Verfahren) und Audiokompression (MP3-Verfahren). Weitere Anwendungen,
die in diesem Kapitel besprochen werden, sind verschiedene Methoden zur
Berechnung der Zahl π und die näherungsweise Berechnung von n! für sehr
große natürliche Zahlen n.

Die Kapitel im Teil III heißen Diskrete Mathematik und Grundlagen der
Mathematik. In der Diskreten Mathematik werden die elementaren Grund-
lagen der Kombinatorik, Wahrscheinlichkeitstheorie und Graphentheorie be-
handelt. Als Anwendungen werden einerseits die Funktionsweise von Spam-
filtern und die Verwaltung großer Datenmengen mit Hashtabellen diskutiert.
Andererseits wird erklärt, wie Suchmaschinen effizient Informationen im In-
ternet finden und wie ein Routenplaner einen optimalen Weg bestimmt. Es
wir auch der mathematische Hintergrund eines Sudokus erklärt. Schließlich
werden effiziente Primzahltests, die auf Methoden der Wahrscheinlichkeits-
theorie beruhen, vorgestellt.
Das Kapitel über die Grundlagen der Mathematik beschäftigt sich mit Aus-
sagenlogik, Mengenlehre und Relationen. Darin wird das Standardvokabular
der modernen Mathematik erläutert. Es ist so angelegt, dass es mehr als nur
eine trockene, kurze und knappe Sprachschulung ist. Durch die Darstellung
einiger Bezüge zur Arbeit mit Datenbanken wird der Versuch unternommen,
die Relevanz der Grundbegriffe der Mathematik in der Informatik den Lesern
nahezubringen. Dieses Kapitel kann jeder Zeit unabhängig vom übrigen Teil
dieses Buches gelesen werden.
Vorwort ix

Am Ende dieses Buches ist neben einem Symbolverzeichnis, einem Stichwort-


verzeichnis und einem Verzeichnis der erwähnten Personen auch ein Anhang
zu finden, der die Lösungen aller Übungsaufgaben enthält. Dadurch ist das
vorliegende Buch auch sehr gut zum Selbststudium geeignet.
Hinweise für Studierende
Die drei Teile dieses Lehrbuches sind unabhängig voneinander lesbar. Wir
empfehlen, Kapitel 6 über die Grundlagen der Mathematik frühzeitig we-
nigstens zu überfliegen und nach dem Studium von Teil I oder Teil II bzw.
bei Bedarf nochmals für ein tieferes Studium zu Kapitel 6 zurückzukehren.
Das Ziel des Kurses besteht im Verständnis von Konzepten, Begriffsbildungen
und von Methoden zur Problemlösung. Ohne aktive Mitarbeit des Lesers ist
dieses Ziel nicht erreichbar. Das Konsumieren des Textes beziehungsweise der
Vorlesung als reiner Zuschauer ist bei weitem nicht ausreichend. Daher legen
wir jedem Leser ans Herz, alle Übungsaufgaben selbständig zu lösen oder dies
zumindest ernsthaft zu versuchen. Die Lösungen im Anhang dienen nur zur
Kontrolle, ob die eigene Lösung korrekt ist.
Hinweise für Vorlesende
Auf der Grundlage dieses Buches kann man zwei 4-stündige Vorlesungen (je-
weils ein Semester mit etwa 13–15 Wochen) gestalten. Erprobt wurde, in
einem Semester die Kapitel 1, 2 und 6, und im anderen die Kapitel 3, 4 und 5
zu behandeln. Dabei muss man in Abhängigkeit von der konkreten Situation
eventuell etwas kürzen. Die beiden Vorlesungen können so gestaltet werden,
dass sie unabhängig und damit in ihrer Reihenfolge vertauschbar sind.
Die regelmäßige wöchentliche Abgabe eigener schriftlicher Lösungsversuche
der Studenten und begleitende Übungsstunden mit sachkundiger Betreuung
scheinen den Autoren wesentlich für den Erfolg des Kurses.
Dankesworte
Durch zahlreiche Diskussionen mit unseren Kollegen Magdalena Schweigert
und Klaus Wirthmüller und dadurch, dass sie uns Einsicht in ihre Vorle-
sungsmanuskripte gewährt haben, sind ihre langjährigen Erfahrungen bei
der Mathematikausbildung von Informatikstudenten sehr wesentlich in die-
ses Lehrbuch mit eingeflossen. Dafür und für die konstruktive und kritische
Durchsicht unseres Manuskripts möchten wir uns an dieser Stelle bedanken.
Wir bedanken uns bei Carsten Damm, Christian Eder, Ralf Korn, Thomas
Markwig, Stefan Steidel und Rolf Wiehagen, die durch viele sehr nützliche
Hinweise nach der Lektüre eines vorläufigen Manuskripts zur Verbesserung
des vorliegenden Textes beigetragen haben. Wir danken Petra Bäsell, die Teile
des Manuskriptes getippt hat, und Oliver Wienand, der uns bei schwierigen
LATEX-Problemen beraten hat.
Schließlich danken wir unseren Frauen, Andrea und Marlis, für die Geduld,
die sie während der Entstehung dieses Buches mit uns hatten.

Kaiserslautern und Limerick, Bernd Kreußler


im November 2008 Gerhard Pfister
Inhaltsverzeichnis

Teil I Algebra

1 Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1 Rechnen mit ganzen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Restklassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4 Ringe und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.5 Kryptographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

2 Lineare Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.2 Vektorräume und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 93
2.3 Anwendungen des Gaußschen Algorithmus . . . . . . . . . . . . . . . . . 110
2.4 Quadratische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2.5 Fehlerkorrigierende Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Teil II Analysis

3 Reelle Zahlen und Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165


3.1 Reelle und komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
3.2 Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
3.3 Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
3.4 Zahlen im Computer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
3.5 Asymptotische Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200

4 Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
4.1 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
4.2 Differentialrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
4.3 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
4.4 Integralrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
4.5 Approximation von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

xi
xii Inhaltsverzeichnis

Teil III Diskrete Strukturen

5 Diskrete Mathematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281


5.1 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
5.2 Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
5.3 Graphentheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
5.4 Primzahltests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348

6 Grundlagen der Mathematik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359


6.1 Aussagenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
6.2 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
6.3 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378

Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397

Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443

Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445

Personenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447

Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
Teil I
Algebra
Kapitel 1
Zahlen

Die klassische Algebra der Ägypter, Babylonier und Griechen beschäftigte


sich vorwiegend mit dem Lösen von Gleichungen. Im Zentrum der Untersu-
chungen der modernen Algebra liegen hingegen algebraische Operationen, wie
zum Beispiel die Addition und die Multiplikation ganzer Zahlen. Das Ziel die-
ses Kapitels besteht darin, die wichtigsten Grundbegriffe der Algebra darzu-
stellen. Dazu ist es notwendig, sich in eine abstrakte Begriffswelt zu begeben.
Um dies zu erleichtern, beginnen wir mit einem Studium der grundlegenden
Eigenschaften ganzer Zahlen. Besonderer Wert wird auch auf die Vermitt-
lung wichtiger Beweistechniken gelegt. Die Bildung von Äquivalenzklassen
ist eine fundamentale mathematische Konstruktionsmethode und wird daher
ausführlich erläutert. Viele der hier vorgestellten praktischen Anwendungen
beruhen darauf. Als informatikbezogene Anwendung wird am Ende des Ka-
pitels erläutert, wie die Grundbegriffe der Algebra für sinnvolle und praxis-
relevante Prüfzeichen- und Chiffrierverfahren eingesetzt werden.

1.1 Rechnen mit ganzen Zahlen

Die ganzen Zahlen dienen als Modell für alle weiteren algebraischen Struktu-
ren, die wir in diesem Kapitel untersuchen. Als Vorbereitung auf die axioma-
tische Einführung abstrakterer Begriffe konzentrieren wir uns auf die grundle-
genden Eigenschaften der Rechenoperationen mit ganzen Zahlen. Außerdem
lernen wir das Prinzip der vollständigen Induktion und den Euklidischen
Algorithmus kennen. Das sind wichtige Werkzeuge für den Alltagsgebrauch
eines Informatikers.
Auf eine axiomatische Einführung der natürlichen Zahlen wird hier bewusst
verzichtet. Der interessierte Leser findet eine solche in [EbZ].
Für die Gesamtheit aller ganzen Zahlen hat sich das Symbol Z eingebürgert:

Z = {. . . , −3, −2, −1, 0, 1, 2, 3, . . .} .

3
4 1 Zahlen

Die Summe, das Produkt und die Differenz (jedoch nicht der Quotient) zweier
ganzer Zahlen ist stets eine ganze Zahl. Die Addition und die Multiplikati-
on sind die Operationen auf die sich das algebraische Studium der ganzen
Zahlen gründet. Wir listen hier in aller Ausführlichkeit ihre wesentlichen Ei-
genschaften auf. Das hilft uns später, abstraktere Begriffe wie Gruppe, Ring
und Körper besser zu verstehen. Für beliebige ganze Zahlen a, b, c ∈ Z gilt:

Kommutativgesetz der Addition a+b=b+a (1.1)


Assoziativgesetz der Addition (a + b) + c = a + (b + c) (1.2)
Gesetz vom additiven neutralen Element a+0=a (1.3)
Gesetz vom additiven inversen Element a + (−a) = 0 (1.4)
Kommutativgesetz der Multiplikation a·b = b·a (1.5)
Assoziativgesetz der Multiplikation (a · b) · c = a · (b · c) (1.6)
Gesetz vom multipl. neutralen Element 1·a= a (1.7)
Distributivgesetz a · (b + c) = a · b + a · c (1.8)

Das Gesetz vom inversen Element (1.4) ist folgendermaßen zu lesen:


Zu jeder ganzen Zahl a gibt es eine ganze Zahl −a, für die a + (−a) = 0 ist.
Es wird hier nicht gesagt, dass −a durch die gegebene Zahl a eindeutig fest-
gelegt ist. Ein erstes Indiz dafür, welches Potenzial in diesen acht Gesetzen
steckt ist, dass sie die Eindeutigkeit von −a erzwingen. Das sehen wir wie
folgt: Wenn wir annehmen, dass x, y ∈ Z Zahlen sind, für die a + x = 0 und
a + y = 0 gilt, dann folgt mit (1.3), (1.2) und (1.1)

x = x + 0 = x + (a + y) = (x + a) + y = 0 + y = y .

Wir haben also unter alleiniger Benutzung der Gesetze (1.1), (1.2) und (1.3)
gezeigt, dass die Gleichung a + x = 0 höchstens eine Lösung besitzen kann.
Das Gesetz (1.4) beinhaltet nun die Aussage, dass es eine solche Lösung
tatsächlich gibt. Ein weiteres Beispiel der ausschließlichen Benutzung der
Gesetze (1.1)–(1.8) ist die folgende Herleitung der wohlbekannten Gleichung
(−1) · (−1) = 1:

1 = 1 + 0 · (−1) wegen (1.3)



= 1 + 1 + (−1) · (−1) wegen (1.4)

= 1 + 1 · (−1) + (−1) · (−1) wegen (1.8)

= 1 + (−1) + (−1) · (−1) wegen (1.2) und (1.7)
= (−1) · (−1) wegen (1.3) und (1.4).

Bei der ersten Umformung benutzen wir, dass für alle ganzen Zahlen a die
Gleichung 0 · a = 0 gilt. Um dies aus den Grundregeln abzuleiten, bemerken
wir zunächst, dass die Gleichungen a · 0 = a · (0 + 0) = a · 0 + a · 0 aus
1.1 Rechnen mit ganzen Zahlen 5

(1.3) und (1.8) folgen. Nach Addition von −(a · 0) ergibt sich daraus, unter
Benutzung von (1.4) und (1.2), die Gleichung 0 = a · 0. Kommutativität der
Multiplikation (1.5) liefert schließlich 0 · a = 0.
Derartig elementare Rechnungen sind wichtig, weil wir sie auf abstraktem
Niveau wiederholen können. Im Verlauf dieses Kapitels werden wir lernen, mit
mathematischen Strukturen umzugehen, bei denen nur noch die algebraischen
Operationen an unsere konkrete Erfahrung mit ganzen Zahlen angelehnt sind,
nicht aber die Objekte, mit denen wir operieren. In Beweisen können wir dann
ausschließlich auf Grundregeln wie (1.1)–(1.8) zurückgreifen. Diese werden als
Axiome (das heißt zu Beginn vorgegebene, charakteristische Eigenschaften)
der betrachteten Struktur bezeichnet.
Die Fähigkeit, Argumentationen auf der Grundlage einer kleinen Zahl klar
vorgegebener Regeln zu führen, ist für die exakten Wissenschaften so wich-
tig, dass sie von Anfang an und kontinuierlich trainiert werden muss. Wenn
Sie die bisher angegebenen Beweise elementarer Aussagen nur überflogen ha-
ben, dann empfehlen wir Ihnen deshalb, dass Sie sich vor dem Weiterlesen
nochmals etwas intensiver damit beschäftigen.
Solche Begriffe wie Teiler und Primzahl sind dem Leser vermutlich bereits
vertraut. Wir werden sie hier kurz wiederholen, um von vornherein mit kla-
ren und einheitlichen Begriffen zu operieren. Eine derartige Vorgehensweise
ist in Mathematik und Informatik von prinzipieller Wichtigkeit, um Miss-
verständnisse, nicht funktionierende Software oder gar Milliardenverluste zu
vermeiden.
Eine ganze Zahl b heißt Teiler der ganzen Zahl a, falls es eine ganze Zahl c
gibt, so dass bc = a gilt. Wir schreiben dann b | a (sprich: b teilt a).
So hat zum Beispiel a = 6 die Teiler −6, −3, −2, −1, 1, 2, 3, 6. Die Zahl a = 0
ist die einzige ganze Zahl, die unendlich viele Teiler besitzt. Entsprechend
unserer Definition ist sie durch jede ganze Zahl teilbar. Jede ganze Zahl a
hat mindestens die Teiler −a, −1, 1, a, und wenn a 6= ±1, 0 ist, sind dies vier
verschiedene Teiler. Außer a = 0 besitzt keine ganze Zahl den Teiler 0.
Wir nennen eine Zahl a ∈ Z zusammengesetzt, wenn es ganze Zahlen b 6= ±1,
c 6= ±1 gibt, so dass a = bc. Eine von ±1 verschiedene Zahl, die nicht zusam-
mengesetzt ist, nennt man Primzahl . Da 0 = 0 · 2 gilt, ist 0 zusammengesetzt,
also keine Primzahl. Da 2 = 1 · 2 und 2 = (−1) · (−2) bis auf die Reihenfolge
der Faktoren die einzigen Darstellungen von a = 2 als Produkt zweier ganzer
Zahlen sind, ist 2 eine Primzahl.
Eine Zahl c heißt gemeinsamer Teiler von a und b falls c | a und c | b. Wir
nennen zwei Zahlen teilerfremd , wenn 1 und −1 die einzigen gemeinsamen
Teiler dieser Zahlen sind.
Definition 1.1.1. Seien a 6= 0, b 6= 0 ganze Zahlen. Wir nennen eine posi-
tive ganze Zahl d > 0 größten gemeinsamen Teiler von a und b, wenn die
folgenden beiden Bedingungen erfüllt sind:
(i) (gemeinsamer Teiler) d | a und d | b;
(ii) (Maximalität) Für jedes c ∈ Z gilt: Wenn c | a und c | b, dann gilt c | d.
6 1 Zahlen

Wenn diese Eigenschaften erfüllt sind, schreiben wir d = ggT(a, b).


Beachten Sie hier, dass die Bedingung (ii) nicht lautet d ist die größte ganze

Zahl, die (i) erfüllt“. Vergleichen Sie dies jedoch mit Aufgabe 1.2.
Diese Definition führt zu unseren ersten mathematischen Problemen:
Gibt es für beliebige a, b ∈ Z stets einen größten gemeinsamen Teiler?
Wenn ja, ist dieser dann eindeutig bestimmt?
Wie kann man ihn berechnen?
Die Antworten sind Ihnen vermutlich bekannt. Wir wollen diese Fragen hier
jedoch nicht nur beantworten, sondern unsere Antworten auch begründen.
Wir werden die Existenz und Eindeutigkeit des größten gemeinsamen Teilers
beweisen. Die Existenz werden wir mit Hilfe des Euklidischen Algorithmus
nachweisen, der uns außerdem ein effektives Mittel für seine Berechnung in die
Hand gibt. Ohne eine Berechnungsmethode zu kennen und ohne den Nachweis
der Existenz geführt zu haben, werden wir zunächst die Eindeutigkeit des
größten gemeinsamen Teilers beweisen.

Satz 1.1.2 Zu gegebenen ganzen Zahlen a 6= 0, b 6= 0 gibt es höchstens einen


größten gemeinsamen Teiler.

Beweis. Angenommen d und d′ seien größte gemeinsame Teiler von a und b


im Sinne von Definition 1.1.1. Dann gilt
(1) d | a und d | b;
(2) d′ | a und d′ | b;
(3) Wenn c ∈ Z, so dass c | a und c | b, dann gilt c | d und c | d′ .
Aus (1) und (3) mit c = d ergibt sich d | d′ . Ebenso folgt aus (2) und (3)
mit c = d′ , dass d′ | d gilt. Daher gibt es ganze Zahlen r, s mit d′ = d · r und
d = d′ · s. Das heißt d = d · r · s und somit r · s = 1. Also muss r = s = 1 oder
r = s = −1 gelten. Da aber d und d′ positive ganze Zahlen sind, ist r = s = 1
und wir erhalten d = d′ . ⊓

Der Euklidische 1 Algorithmus ist einer der ältesten und grundlegendsten Al-
gorithmen der Mathematik. Uns dient er hier sowohl als Beweistechnik als
auch als Methode für konkrete Rechnungen. Sein mathematisches Kernstück
ist die Division mit Rest. Darunter verstehen wir die folgende Eigenschaft
ganzer Zahlen, die sich nicht aus den Grundregeln (1.1)–(1.8) ergibt, da die
Ordnungsrelation < darin auftritt:
Wenn a, b ∈ Z mit b 6= 0, dann gibt es ganze Zahlen r und n,
so dass a = nb + r und 0 ≤ r < |b| gilt.
1 Euklid von Alexandria wirkte um 300 v.u.Z. in Alexandria, genaue Lebensdaten und

sichere Information, ob es sich wirklich um eine einzelne Person handelt, sind nicht bekannt.
Vgl. Fußnote auf Seite 76.
1.1 Rechnen mit ganzen Zahlen 7

Die Zahl r heißt Rest von a bei Division durch b. Hier und im Folgenden
bezeichnet |b| den Betrag der ganzen Zahl b, das heißt |b| = b wenn b ≥ 0
und |b| = −b wenn b ≤ 0. Verallgemeinerungen des hier vorgestellten Euklidi-
schen Algorithmus, etwa für Polynome oder Gaußsche ganze Zahlen, beruhen
jeweils auf einer entsprechend angepassten Version der Division mit Rest.

Der Euklidische Algorithmus

Als Eingabedaten seien zwei positive ganze Zahlen a, b mit a > b gegeben.
Am Ende wird ggT(a, b) ausgegeben.
Jeder Schritt des Algorithmus besteht aus einer Division mit Rest, gefolgt von
einem Test, in dem entschieden wird, ob das Ende bereits erreicht wurde.
Initialisierung: A := a, B := b
Division: Bestimme N ∈ Z, so dass 0 ≤ A − N · B < B.
C := A − N · B ist der Rest von A bei Division durch B.
Test: Wenn C = 0, dann Ausgabe von ggT(a, b) := B und stopp.
Wenn C > 0, dann Division mit Rest für A := B, B := C.
Wie bei jedem Algorithmus sind zunächst folgende Fragen zu klären:
Endet dieser Algorithmus stets nach endlich vielen Schritten?
Liefert er wirklich den größten gemeinsamen Teiler?
Um diese Fragen zu beantworten, schauen wir uns den Algorithmus Schritt
für Schritt an. Wir setzen a1 := a, b1 := b. Bei jedem Schritt wird ein neues
Paar von Zahlen (ak , bk ) produziert. Das neue Paar (ak , bk ) ergibt sich für
jedes k ≥ 1 aus dem vorherigen durch folgende Formeln:

bk+1 = ak − nk bk
ak+1 = bk .

Hier ist nk eine geeignete ganze Zahl und es gilt stets 0 ≤ bk+1 < bk . Nach
dem k-ten Schritt liegt uns das Paar (ak+1 , bk+1 ) vor. Nach dem N -ten Schritt
stoppt der Algorithmus genau dann, wenn bN +1 = 0 gilt. In diesem Fall ist
0 = aN − nN · bN und für die Korrektheit des Algorithmus wäre zu beweisen,
dass bN = ggT(a, b) gilt. Schauen wir uns zunächst ein Beispiel an.
k (ak , bk ) ak − n k b k = bk+1
1 (287, 84) 287 − 3 · 84 = 35
2 (84, 35) 84 − 2 · 35 = 14
3 (35, 14) 35 − 2 · 14 = 7
4 (14, 7) 14 − 2 · 7 = 0
Wir haben hier N = 4, b4 = 7 und es gilt tatsächlich ggT(287, 84) = 7.
Bemerkung 1.1.3. Pro Schritt produziert der Algorithmus nicht zwei, son-
dern nur eine neue Zahl, nämlich bk+1 . Wenn wir b0 := a1 setzen, dann
8 1 Zahlen

können wir die Berechnung in jedem Schritt des Algorithmus auch in der
Form
bk+1 = bk−1 − nk bk
schreiben. Dabei soll wieder 0 ≤ bk+1 < bk gelten. Der Algorithmus termi-
niert, sobald bk+1 = 0 ist.

Da b1 > b2 > . . . > bn ≥ 0 und die bi ganze Zahlen sind, ist nach maxi-
mal b1 Schritten sicher die Bedingung bk+1 = 0 erfüllt. Die Endlichkeit des
Algorithmus ist damit garantiert.
Die Korrektheit des Euklidischen Algorithmus wird mittels vollständiger In-
duktion bewiesen. Da diese Beweistechnik häufig verwendet wird und hier
zum ersten Mal auftritt, stellen wir sie sehr ausführlich dar.

Satz 1.1.4 Der Euklidische Algorithmus berechnet den größten gemeinsa-


men Teiler.

Beweis. Sei N die Zahl der Schritte im Euklidischen Algorithmus, das heißt

0 = aN − n N b N und b1 > b2 > . . . > bN > bN +1 = 0 .

Zu zeigen ist bN = ggT(a1 , b1 ). Die Induktion wird über N , die Anzahl der
Schritte, durchgeführt.
Induktionsanfang: Als erstes beweisen wir den Satz für den Fall N = 1.
Dazu müssen wir prüfen, ob b1 die Bedingungen der Definition 1.1.1 erfüllt.
Wegen N = 1 gilt a1 = n1 · b1 und somit b1 | a1 . Zusammen mit b1 | b1 ist
das gerade die Bedingung (i) der Definition. Wenn eine ganze Zahl c Teiler
von a1 und b1 ist, dann gilt offenbar c | b1 , also ist auch die Bedingung (ii)
erfüllt. Damit haben wir gezeigt, dass b1 = ggT(a1 , b1 ), wenn N = 1 ist.
Induktionsschritt: Wir setzen voraus, dass die Behauptung des Satzes für
einen festen Wert N ≥ 1 wahr ist und wollen daraus schließen, dass sie auch
für N + 1 gilt.
Voraussetzung. Für jedes Zahlenpaar (a, b), für welches der Euklidische Al-
gorithmus nach N Schritten terminiert (d.h. 0 = aN − nN bN ), liefert uns der
Algorithmus den größten gemeinsamen Teiler, d.h. es gilt bN = ggT(a, b).
Behauptung. Für jedes Zahlenpaar (a, b), für welches der Euklidische Algo-
rithmus nach N + 1 Schritten terminiert, liefert uns dieser Algorithmus den
größten gemeinsamen Teiler.
Beweis. Sei (a, b) = (a1 , b1 ) ein Paar positiver ganzer Zahlen mit a > b, so dass
der Euklidische Algorithmus nach N +1 Schritten terminiert. Dann endet der
Euklidische Algorithmus für das Paar (a2 , b2 ) bereits nach N Schritten. Wir
können daher die Induktionsvoraussetzung auf das Paar (a2 , b2 ) anwenden
und erhalten bN +1 = ggT(a2 , b2 ). Man beachte hier die verschobene Num-
merierung. Der Erste Schritt des Algorithmus liefert uns die Gleichungen
1.1 Rechnen mit ganzen Zahlen 9

b 2 = a1 − n 1 b 1
(1.9)
a2 = b 1 ,

oder äquivalent dazu

a1 = b 2 + n 1 a2
(1.10)
b 1 = a2 .

Wir setzen zur Abkürzung d = bN +1 = ggT(a2 , b2 ). Dann gilt d | a2 und


d | b2 . Mit Hilfe von (1.10) ergibt sich daraus d | a1 und d | b1 . Daher erfüllt
d die Bedingung (i) aus Definition 1.1.1 des größten gemeinsamen Teilers von
a1 und b1 . Wenn nun c ein gemeinsamer Teiler von a1 und b1 ist, dann folgt
aus (1.9) c | a2 und c | b2 . Da d = ggT(a2 , b2 ) hat dies c | d zur Folge. Damit
erfüllt d in der Tat die definierenden Eigenschaften des größten gemeinsamen
Teilers von a1 und b1 . Also d = ggT(a1 , b1 ), was die Behauptung war. ⊓

Somit ist die Korrektheit und die Endlichkeit des Euklidischen Algorithmus
bewiesen. Mit Hilfe dieses Algorithmus lässt sich der größte gemeinsame Tei-
ler zweier ganzer Zahlen relativ schnell berechnen. Wenn die Zahlen zu groß
werden, stößt er jedoch an seine Grenzen und um in akzeptabler Zeit ein
Ergebnis zu erhalten, sind weitere Ideen notwendig. Einige davon werden wir
am Ende dieses Kapitels kennenlernen.
Von mathematischem Interesse ist der Euklidische Algorithmus für uns aber
auch deshalb, weil er die Existenz des größten gemeinsamen Teilers liefert.
Darüber hinaus kann er für weitere interessante Anwendungen genutzt wer-
den, von denen wir uns eine zunächst an einem Beispiel anschauen.
Beispiel 1.1.5. Der Euklidische Algorithmus für das Paar (104,47) lautet
k (ak , bk ) ak − n k b k = bk+1
1 (104, 47) 104 − 2 · 47 = 10
2 (47, 10) 47 − 4 · 10 = 7
3 (10, 7) 10 − 1 · 7 = 3
4 (7, 3) 7−2·3 = 1
5 (3, 1) 3−3·1 = 0
Nun setzen wir, mit dem größten gemeinsamen Teiler 1 beginnend, die Re-
chenergebnisse rückwärts wieder ein. Zur besseren Übersicht sind die Zahlen
bk unterstrichen.

1 = 7−2·3
= 7 − 2 · (10 − 1 · 7) = 3 · 7 − 2 · 10
= 3 · (47 − 4 · 10) − 2 · 10 = 3 · 47 − 14 · 10
= 3 · 47 − 14 · (104 − 2 · 47) = (−14) · 104 + 31 · 47 .

Wir haben damit den größten gemeinsamen Teiler d = 1 der beiden Zahlen
a = 104 und b = 47 in der Gestalt d = r · a + s · b dargestellt. Dabei sind
10 1 Zahlen

r = −14 und s = 31 ganze Zahlen. Dies ist ganz allgemein möglich und man
kann damit sogar den größten gemeinsamen Teiler charakterisieren.

Satz 1.1.6 Seien a 6= 0, b 6= 0 ganze Zahlen. Eine Zahl d > 0 ist genau
dann der größte gemeinsame Teiler von a und b, wenn die folgenden beiden
Bedingungen erfüllt sind:
(1) Es gibt ganze Zahlen r, s, für die d = ra + sb gilt.
(2) Jede ganze Zahl der Gestalt ra + sb ist durch d teilbar.

Beweis. Weil die Behauptung besagt, dass zwei unterschiedliche Charakteri-


sierungen des größten gemeinsamen Teilers äquivalent sind, muss der Beweis
aus zwei Teilen bestehen.
Teil I. Es ist zu zeigen, dass ggT(a, b) die Bedingungen (1) und (2) erfüllt.
Teil II. Umgekehrt muss gezeigt werden, dass eine Zahl d, welche die Bedin-
gungen (1) und (2) erfüllt, auch die Bedingung (i) und (ii) aus Definition
1.1.1 erfüllt, woraus sich dann d = ggT(a, b) ergibt.
Beweis von I. Ohne Beschränkung der Allgemeinheit können wir a ≥ b >
0 annehmen, denn ggT(−a, b) = ggT(a, −b) = ggT(a, b) = ggT(b, a). Sei
d = ggT(a, b). Da d gemeinsamer Teiler von a und b ist, gilt d | ra + sb für
beliebige ganze Zahlen r, s ∈ Z. Die Eigenschaft (2) wird also von d erfüllt.
Zum Beweis von (1) führen wir wieder eine Induktion über N , die Anzahl
der Schritte im Euklidischen Algorithmus, durch.
Induktionsanfang: Falls N = 1, so ist d = b = b1 und a = a1 = n1 b1 .
Damit können wir r = 0, s = 1 wählen um d = ra + sb zu erhalten.
Induktionsschritt: Wenn der Euklidische Algorithmus für (a, b) = (a1 , b1 )
aus N +1 Schritten besteht, so sind es für (a2 , b2 ) nur N Schritte. Wir können
also die Induktionsvoraussetzung auf (a2 , b2 ) anwenden. Diese besagt, dass es
ganze Zahlen r′ , s′ gibt, für die d = r′ a2 + s′ b2 gilt. Außerdem gelten wieder
die Gleichungen (1.9) und (1.10) und, wie gewünscht, erhalten wir

d = r′ b1 + s′ (a1 − n1 b1 ) = s′ a1 + (r′ − s′ n1 )b1 .

Beweis von II. Sei nun d = ra+ sb > 0 eine ganze Zahl, welche die Bedingung
(2) erfüllt. Außerdem sei d′ = ggT(a, b). Nach dem bereits gezeigten Teil I
gibt es r′ , s′ ∈ Z mit d′ = r′ a + s′ b und d′ erfüllt die Bedingung (2). Da
d = ra + sb folgt daraus d′ | d. Weil d′ = r′ a + s′ b und d nach Voraussetzung
die Bedingung (2) erfüllt, folgt d | d′ . Daraus ergibt sich, wie bereits zuvor,
d = d′ . ⊓

Das bisher erworbene Verständnis über den größten gemeinsamen Teiler wen-
den wir nun an, um eine nützliche Charakterisierung von Primzahlen zu ge-
ben.
1.1 Rechnen mit ganzen Zahlen 11

Satz 1.1.7 (a) Für a, b, c ∈ Z mit ggT(a, b) = 1 und a | bc gilt stets a | c.


(b) Eine Zahl p 6= 0, 1, −1 ist genau dann eine Primzahl, wenn folgende
Bedingung erfüllt ist: Für beliebige ganze Zahlen a, b folgt aus p | ab stets
p | a oder p | b.

Beweis. (a) Da ggT(a, b) = 1, gibt es nach Satz 1.1.6 ganze Zahlen r, s mit
ra+ sb = 1. Also ist c = c·(ra+ sb) = a·rc+ bc·s. Da wir a | bc vorausgesetzt
haben, folgt daraus a | c.
(b) Der Beweis der behaupteten Äquivalenz zweier Eigenschaften zerfällt er-
neut in zwei Teile:
Teil I. Zunächst nehmen wir an, dass die Zahl p die Bedingung erfüllt, dass
aus p | ab stets p | a oder p | b folgt. Es ist zu zeigen, dass p eine Primzahl
im Sinne unserer Definition auf Seite 5 ist. Dazu nehmen wir an, dass p
als Produkt p = ab geschrieben werden kann. Dann gilt p | ab, also nach
Voraussetzung p | a oder p | b. Wir können annehmen b = rp. Der Fall p | a
erledigt sich in gleicher Weise. Wir erhalten p = ab = arp, woraus, wegen
p 6= 0, ar = 1 folgt. Daher muss a = r = 1 oder a = r = −1 gelten. Also ist
p eine Primzahl.
Teil II. Sei nun p eine Primzahl. Wir haben zu zeigen, dass aus p | ab stets p | a
oder p | b folgt. Seien dazu a, b ganze Zahlen, für die p | ab gilt. Wir nehmen
an p ist kein Teiler von a, sonst wären wir ja fertig. Da p eine Primzahl ist,
hat p nur die beiden positiven Teiler 1 und p. So kann ggT(p, a) nur 1 oder
p sein. Da aber p kein Teiler von a ist, muss ggT(p, a) = 1 sein. Wir können
nun Teil (a) des Satzes 1.1.7 anwenden und erhalten p | b. ⊓

Unter Benutzung dieser Charakterisierung von Primzahlen können wir jetzt
den folgenden Satz beweisen. Er bringt zum Ausdruck, dass die Primzahlen
die Grundbausteine der ganzen Zahlen bezüglich ihrer multiplikativen Struk-
tur sind.

Satz 1.1.8 (Eindeutige Primfaktorzerlegung) Jede ganze Zahl n 6= 0


lässt sich auf genau eine Weise in der Form n = u · p1 · p2 · . . . · pk schreiben,
wobei u = ±1 das Vorzeichen von n ist und 1 < p1 ≤ p2 ≤ · · · ≤ pk
Primzahlen sind. Der Fall k = 0 ist dabei auch zugelassen und wir meinen
dann n = u.

Beweis. Wenn n < 0 ist, wählen wir u = −1, sonst sei u = 1. Es genügt,
den Fall n > 0 zu untersuchen, der Rest lässt sich durch Multiplikation mit
(−1) darauf zurückführen. Zu beweisen ist für jede ganze Zahl n ≥ 2 die
Existenz und Eindeutigkeit einer Darstellung n = p1 · . . . · pk mit Primzahlen
1 < p1 ≤ · · · ≤ pk . Die Beweise werden wieder induktiv geführt.
Existenzbeweis: (Vollständige Induktion über n.)
Induktionsanfang: n = 2. Da p1 = 2 eine Primzahl ist, sind wir fertig.
12 1 Zahlen

Induktionsschritt: Wir nutzen eine leicht veränderte Version des Prinzips


der vollständigen Induktion. Die Induktionsvoraussetzung umfasst hier die
Gültigkeit der zu beweisenden Aussage für alle Werte n ≤ N . Daraus ist
die Gültigkeit der Aussage für n = N + 1 abzuleiten. Das heißt, wir setzen
voraus, dass jede ganze Zahl n mit 2 ≤ n ≤ N eine Darstellung als Produkt
von Primzahlen besitzt.
Wir wollen dies nun für die Zahl N + 1 zeigen. Wenn N + 1 eine Primzahl ist,
dann setzen wir p1 = N + 1 und sind fertig. Wenn N + 1 keine Primzahl ist,
so gibt es nach der Definition des Begriffes der Primzahl ganze Zahlen a ≥ 2,
b ≥ 2, für die N + 1 = ab gilt. Da a und b kleiner als N + 1 sind, lassen sich
beide Zahlen nach Induktionsvoraussetzung als Primzahlprodukt schreiben.
Damit ist die Existenzaussage bewiesen.
Eindeutigkeitsbeweis: (Induktion über k, die Anzahl der Primfaktoren.)
Induktionsanfang: k = 1 bedeutet hier, dass n = p1 eine Primzahl ist.
Wenn außerdem p1 = n = p′1 · . . . · p′r gilt, dann muss r = 1 und p1 = p′1
gelten. Dies folgt aus der Definition des Begriffes der Primzahl.
Induktionsschritt: Wir nehmen an, dass jede Darstellung mit k Faktoren
eindeutig ist, also wenn n = p1 · . . . · pk mit Primzahlen p1 ≤ · · · ≤ pk und
n = p′1 · . . . · p′r mit Primzahlen p′1 ≤ · · · ≤ p′r geschrieben werden kann, dann
ist k = r und pi = p′i .
Sei n eine Zahl mit k + 1 Primfaktoren, also n = p1 · . . . · pk+1 mit Primzahlen
p1 ≤ · · · ≤ pk+1 . Wenn n = p′1 · . . . · p′r eine weitere Zerlegung von n in
Primfaktoren p′1 ≤ · · · ≤ p′r ist, dann gilt pk+1 | p′1 · . . . · p′r . Wegen Satz 1.1.7
ergibt sich daraus pk+1 | p′i für ein i. Da beides positive Primzahlen sind,
muss pk+1 = p′i gelten. Daher ist p1 · . . . · pk = p′1 · . . . · p′i−1 · p′i+1 · . . . · p′r
| {z }
r−1 Faktoren
und die Induktionsvoraussetzung liefert k = r − 1 und pj = p′j für j < i
bzw. pj = p′j+1 für j ≥ i. Da pk+1 ≥ pk gilt, ist p′i ≥ p′r . Da wir p′i ≤ p′r
vorausgesetzt hatten, gilt p′i = p′r und wir können i = r wählen. Es folgt
dann k + 1 = r und pj = p′j für alle j. ⊓

Zum Abschluss dieses Abschnittes beweisen wir einen sehr wichtigen Satz,
der bereits vor über 2000 Jahren im antiken Griechenland bekannt war – der
Beweis ist bereits bei Euklid2 zu finden.

Satz 1.1.9 Es gibt unendlich viele verschiedene Primzahlen.

Beweis. Der Beweis wird indirekt geführt, das bedeutet, wir nehmen an, dass
das (streng mathematische) Gegenteil der Behauptung wahr wäre. Daraus
versuchen wir durch logische Schlüsse einen Widerspruch herzuleiten. Wenn
uns das gelingt, muss unsere Annahme (nämlich, dass die Behauptung des
Satzes nicht gelten würde) falsch sein. Die Behauptung des Satzes ist dann
2 Vgl. Fußnote auf Seite 6.
1.1 Rechnen mit ganzen Zahlen 13

bewiesen. Dies ist ein zweites wichtiges Beweisprinzip, welches wir häufig
benutzen werden. Die Theorie dazu befindet sich im Kapitel 6: Satz 6.1.1
und nachfolgende Erläuterungen.
Nun zum Beweis: Wir nehmen an, es gäbe nur endlich viele Primzahlen. Qn Dies
seien die Zahlen p1 , p2 , . . . , pn . Nun untersuchen wir die Zahl a := 1+ i=1 pi .
Da wir (nach Satz 1.1.8) diese Zahl in Primfaktoren zerlegen können und a >
1 ist (da uns ja p1 = 2 schon als Primzahl bekannt ist), gibt es eine Primzahl
p > 1, welche a teilt. Diese muss, wegen unserer Annahme der Endlichkeit, Qn
unter den Zahlen p1 , . . . , pQ n vorkommen. Daher teilt p das Produkt i=1 pi
n
und somit auch 1 = a − i=1 pi . Dies ist aber für eine Zahl p > 1 nicht
möglich. Damit haben wir den gewünschten Widerspruch erhalten und der
Beweis ist vollständig. ⊓

Für die angekündigten Anwendungen in der Kryptographie (siehe Abschnitt


1.5) werden wir die folgende zahlentheoretische Funktion benötigen.

Definition 1.1.10. Für jede positive ganze Zahl n bezeichnet ϕ(n) die An-
zahl der zu n teilerfremden Zahlen k, für die 1 ≤ k < n gilt. Diese Funktion
ϕ heißt Eulerfunktion 3 oder Eulersche ϕ-Funktion.
In Kurzschreibweise: ϕ(n) = |{k | 1 ≤ k < n, ggT(k, n) = 1}|. Hier und
im Folgenden wird durch |A| die Kardinalität, also die Anzahl der Elemente,
einer Menge A bezeichnet, vgl. Beispiel 6.3.15.

Die im folgenden Satz zusammengefassten Eigenschaften erleichtern die Be-


rechnung der Werte der Eulerfunktion.

Satz 1.1.11 Sei p eine Primzahl und seien k, m, n positive ganze Zahlen.
Dann gilt:
(1) ϕ(p) = p − 1;
(2) ϕ(pk ) = pk−1 (p − 1) = pk − pk−1 ;
(3) Wenn ggT(m, n) = 1, dann ist ϕ(mn) = ϕ(m)ϕ(n).

Beweis. Die Aussage (1) ist klar, da unter den Zahlen 1, 2, . . . , p − 1 keine
durch p teilbar ist.
Es ist genau dann ggT(a, pk ) 6= 1, wenn p | a gilt. Unter den Zah-
len 1, 2, . . . , pk sind genau die folgenden pk−1 Vielfachen von p enthalten:
1 · p, 2 · p, . . . , pk−1 · p. Also bleiben pk − pk−1 Zahlen, die zu pk teilerfremd
sind.
Den Beweis von (3) können wir leicht führen, wenn wir einige Grundbegriffe
der Gruppentheorie kennengelernt haben (siehe Satz 1.3.34). Daher verzich-
ten wir an dieser Stelle auf einen Beweis. Dem Leser wird jedoch empfohlen,
einen Beweis mit elementaren Mittels selbst auszuarbeiten. ⊓

3 Leonard Euler (1707–1783), Schweizer Mathematiker.
14 1 Zahlen

Beispiel 1.1.12. (i) ϕ(2) = 1, ϕ(4) = 2, ϕ(8) = 4, ϕ(2n ) = 2n−1 .


(ii) ϕ(3) = 2, ϕ(9) = 6, ϕ(27) = 18, ϕ(3n ) = 2 · 3n−1 .
(iii) ϕ(6) = ϕ(2)ϕ(3) = 1 · 2 = 2. Unter den Zahlen 1, 2, 3, 4, 5, 6 sind nur 1
und 5 teilerfremd zu 6.
(iv) ϕ(12) = ϕ(22 ) · ϕ(3) = 2 · 2 = 4 und die zu 12 teilerfremden Zahlen sind
1, 5, 7, 11.
(v) ϕ(18) = ϕ(2) · ϕ(32 ) = 1 · 3 · 2 = 6 und wir finden 1, 5, 7, 11, 13, 17 als
Zahlen, die zu 18 teilerfremd sind.

Auf der Grundlage von Satz 1.1.11 ist es sehr leicht, für jede ganze Zahl,
deren Primfaktorzerlegung uns bekannt ist, den Wert der Eulerfunktion zu
bestimmen. Die Faktorisierung einer Zahl in Primfaktoren ist jedoch ein re-
chenaufwändiges Problem und somit auch die Berechnung von ϕ. Man könnte
zwar mit dem Euklidischen Algorithmus für jede Zahl k zwischen 1 und n
testen, ob sie zu n teilerfremd ist oder nicht, aber auch dies ist ziemlich re-
chenaufwändig. Diese Schwierigkeit ist die Grundlage des RSA-Verfahrens,
das im Abschnitt 1.5 behandelt wird.

Aufgaben

Übung 1.1. Berechnen Sie mit Hilfe des Euklidischen Algorithmus für jedes
der folgenden Zahlenpaare (a, b) den größten gemeinsamen Teiler d und finden
Sie ganze Zahlen r, s, so dass d = ra + sb gilt.

(i) (12345, 54321) (ii) (338169, 337831) (iii) (98701, 345)

Übung 1.2. Beweisen Sie, dass Definition 1.1.1 für d > 0 äquivalent ist zu
(i) d | a und d | b;
(ii’) Für c ∈ Z gilt: Wenn c | a und c | b, dann gilt auch c ≤ d.

Übung 1.3. Benutzen Sie vollständige Induktion zum Beweis der folgenden
Formel:  2
Xn
3 n(n + 1)
k = .
2
k=1

Übung 1.4. Versuchen Sie mittels vollständiger Induktion die folgenden bei-
den Formeln für jede ganze Zahl n ≥ 0 zu beweisen. Dabei ist q 6= 1 eine
reelle Zahl und wir setzen stets q 0 = 1 (auch für q = 0).
n
X n
X
q n+1 − q 2 + q − 1 q n+1 − q 2 + q − 1
qk = + q, qk =
q−1 q−1
k=0 k=0

Welche Formel ist richtig? Welcher Schritt im Beweis funktioniert nicht?


1.1 Rechnen mit ganzen Zahlen 15

Übung
 1.5. Wir definieren hier für ganze Zahlen n ≥ 0 und k die Symbole
n
k durch folgende rekursive Vorschrift (Pascalsches4 Dreieck, siehe S. 283):

• 00 = 1, 
• wenn k < 0 oder k > n, dann ist nk = 0 und
  
• wenn 0 ≤ k ≤ n, dann ist nk = n−1 k−1 +
n−1
k .

Beweisen Sie unter Benutzung dieser Definition und mittels vollständiger


Induktion für n ≥ 0 und beliebige reelle Zahlen a, b die binomische Formel :
n  
X n k n−k
(a + b)n = a b .
k
k=0

Übung 1.6. Zeigen Sie mittels vollständiger Induktion und unter Benutzung
der Definition in Aufgabe 1.5 für 0 ≤ k ≤ n die folgende explizite Formel:
 
n n!
= ,
k k! · (n − k)!

wobei 0! := 1 und n! := n · (n − 1)!


 rekursiv definiert ist. Benutzen Sie diese
Formel, um zu zeigen, dass p | kp für jede Primzahl p und 1 ≤ k ≤ p − 1 gilt.

Übung 1.7. Benutzen Sie die Methode der vollständigen Induktion, um zu


beweisen, dass für jedes n > 1, für jede Primzahl p und für beliebige ganze
Zahlen a1 , . . . , an folgendes gilt:
Wenn p | a1 · . . . · an , dann gibt es ein i mit 1 ≤ i ≤ n und p | ai .
Sie können dafür den Satz 1.1.7 benutzen, in dem der Fall n = 2 behandelt
wurde.

Übung 1.8. Beweisen Sie, dass 26 irrational ist, das heißt, sich nicht als
Quotient zweier ganzer Zahlen darstellen lässt.

Übung 1.9. (a) Beweisen Sie (ohne die allgemeinere Eigenschaft (3) aus Satz
1.1.11 zu benutzen), dass für Primzahlen p 6= q stets gilt:
ϕ(pq) = ϕ(p)ϕ(q) = (p − 1)(q − 1).
(b) Berechnen Sie: ϕ(101), ϕ(141), ϕ(142), ϕ(143), ϕ(169), ϕ(1024).
(c) Für welche Zahlen n gilt n = 2 · ϕ(n)?

Übung 1.10. Gilt für jede ungerade Zahl n, dass das um eins verminder-
te Quadrat dieser Zahl, also n2 − 1, durch 8 teilbar ist? Beweisen Sie Ihre
Antwort.
4 Blaise Pascal (1623–1662), französischer Mathematiker.
16 1 Zahlen

1.2 Restklassen

Abstraktion ist eine wichtige Methode zur Beschreibung und Analyse kom-
plexer Situationen. Das betrifft sowohl mathematische Sachverhalte als auch
Gegenstände und Vorgänge der realen Welt. Bei einer Abstraktion ignoriert
man einige als unwesentlich betrachtete Merkmale und konzentriert sich da-
durch auf eine geringere Zahl einfacher strukturierter Aspekte. Dabei können
jedoch bestimmte Vorgänge oder Gegenstände ununterscheidbar werden, ob-
wohl sie in Wirklichkeit verschieden sind. Wenn wir zum Beispiel von Bäumen
sprechen und es uns dabei vor allem darauf ankommt, diese von Blumen,
Steinen, Tieren und Wolken zu unterscheiden, dann haben wir bereits ab-
strahiert. Wir unterscheiden in diesem Moment nicht zwischen Ahorn, Birke,
Buche, Eiche, Kiefer, Lärche und Weide oder gar konkreten Exemplaren sol-
cher Gewächse.
Um Abstraktionen mit mathematischer Präzision durchführen zu können,
wird die Sprache der Mengen, Relationen und Abbildungen benutzt. Eine
Einführung in diese mathematischen Grundbegriffe befindet sich im Kapi-
tel 6, in den Abschnitten 6.2 und 6.3. Die Zusammenfassung verschiedener
Objekte deren wesentliche Merkmale übereinstimmen, wird in der Mathe-
matik durch die Bildung von Äquivalenzklassen realisiert. Wir werden diese
Methode in diesem Abschnitt am Beispiel der Restklassen ganzer Zahlen il-
lustrieren.
Der Nutzen dieser Begriffsbildungen zeigt sich dann in den Anwendungen:
Wir beweisen einige Teilbarkeitsregeln und beschäftigen uns mit Prüfziffern
als Mittel zur Erkennung von Datenübertragungsfehlern.
Bevor wir die allgemeine Definition geben, betrachten wir ein Beispiel. Hierzu
stellen wir uns vor, dass wir uns nur dafür interessieren, ob das Ergebnis einer
Rechenoperation gerade oder ungerade ist. Wir benutzen dazu die folgende
Schreibweise für ganze Zahlen a:

a ≡ 0 mod 2, wenn a gerade,


a ≡ 1 mod 2, wenn a ungerade.

Für a = 17 601 000 und b = 317 206 375 gilt a ≡ 0 mod 2 und b ≡ 1
mod 2. Diese Schreibweise drückt aus, dass a den Rest 0 und b den Rest 1
bei Division durch 2 lässt.
Um zu entscheiden, welche Reste a + b und a · b bei Division durch 2 las-
sen, muss man die Summe oder das Produkt nicht wirklich ausrechnen. Wir
erhalten leicht a + b ≡ 1 mod 2 und a · b ≡ 0 mod 2. Wir bekommen
dieses Resultat, indem wir die gewünschte Rechenoperation mit den Resten
0, 1 durchführen:

a+b≡0+1≡1 mod 2 und


a·b ≡ 0·1 ≡0 mod 2 .
1.2 Restklassen 17

Das ist wesentlich schneller als die Rechnung mit den großen Zahlen a, b. Wir
erhalten das gleiche Resultat, wenn wir a durch eine beliebige andere gerade
Zahl und b durch eine beliebige ungerade Zahl ersetzen. Wir können also mit
den Resten, oder besser den Restklassen rechnen. Um dies zu formalisieren,
bezeichnen wir mit [0] die Menge aller geraden Zahlen und mit [1] die Menge
aller ungeraden Zahlen. Diese Mengen nennt man Restklassen.
Es gilt a ∈ [0], b ∈ [1] und unsere Rechnung hat jetzt die folgende einfache
Form: a + b ∈ [0 + 1] = [1] und a · b ∈ [0 · 1] = [0]. Das führt uns dazu, Summe
und Produkt der Restklassen [0], [1] folgendermaßen zu definieren:

[0] + [0] = [0], [0] + [1] = [1] + [0] = [1], [1] + [1] = [0],
[0] · [0] = [0] · [1] = [1] · [0] = [0], [1] · [1] = [1] .

Es ist leicht nachzuprüfen, dass diese Addition und Multiplikation der Rest-
klassen [0], [1] die Grundgesetze (1.1)–(1.8) des Rechnens mit ganzen Zahlen
erfüllen. Für das Rechnen mit Resten gelten dieselben Regeln wie beim Rech-
nen mit ganzen Zahlen.
Um dieses Beispiel zu verallgemeinern, benutzen wir den Begriff der Äquiva-
lenzrelation (Definition 6.3.12). Im obigen Beispiel liegen zwei ganze Zahlen
in derselben Restklasse, wenn sie entweder beide gerade oder beide ungerade
sind. Da zwei Zahlen genau dann dieselbe Parität haben, wenn ihre Differenz
gerade ist, ist die zugehörige Äquivalenzrelation ∼ durch a ∼ b ⇐⇒ 2 | a − b
gegeben. Üblicherweise schreibt man in dieser Situation a ≡ b mod 2 statt
a ∼ b, also
a ≡ b mod 2 ⇐⇒ 2|a−b.
Wenn wir die Zahl 2 durch eine beliebige ganze Zahl n ≥ 0 ersetzen, erhalten
wir die folgende Definition.
Definition 1.2.1. a ≡ b mod n ⇐⇒ n | a − b.
Dadurch ist auf der Menge Z aller ganzen Zahlen eine Äquivalenzrelation
definiert. Wenn a ≡ b mod n, dann sagen wir: a ist kongruent b modulo n.
Unter Benutzung der Division mit Rest erhalten wir a = ra + ka · n und
b = rb + kb · n, wobei ka , kb ∈ Z und 0 ≤ ra < n, 0 ≤ rb < n. Dann ist
a − b = (ra − rb ) + (ka − kb ) · n und es ergibt sich

a ≡ b mod n ⇐⇒ ra = rb .

Daher ist a genau dann kongruent b modulo n, wenn a und b den gleichen Rest
bei Division durch n lassen. Die Äquivalenzklassen dieser Äquivalenzrelation
nennen wir Restklassen modulo n. Die Restklasse modulo n, in der a ∈ Z
enthalten ist, wird mit [a]n , oder wenn keine Verwechslungen möglich sind
mit [a], bezeichnet. Für festes n ≥ 0 liegt nach Satz 6.3.16 jede ganze Zahl in
genau einer Restklasse modulo n. Jedes Element b ∈ [a] heißt Repräsentant
der Restklasse [a]. Wenn b ein Repräsentant von [a] ist, dann gilt [a] = [b]. Die
18 1 Zahlen

Menge aller Restklassen modulo n bezeichnen wir mit Z/nZ, vgl. Definition
6.3.13.

Bemerkung 1.2.2. Wenn n > 0 ist, dann gibt es genau n verschiedene Rest-
klassen modulo n, dies sind [0], [1], . . . , [n − 1], d.h.

Z/nZ = [0], [1], . . . , [n − 1] .

Man nennt daher die Zahlen 0, 1, 2, . . . , n − 2, n − 1 ein vollständiges Restsys-


tem modulo n. Da [a]n = [a + kn]n für beliebiges k ∈ Z, gibt es auch andere
vollständige Restsysteme, z.B. ist nicht nur 0, 1, 2 sondern auch −1, 0, 1 ein
vollständiges Restsystem modulo 3.
Im Fall n = 0 treffen wir eine völlig andere Situation an, denn a ≡ b mod 0
ist äquivalent zu a = b. Daher ist in jeder Restklasse modulo 0 genau eine
Zahl enthalten und es gibt unendlich viele solche Restklassen: Z/0Z = Z.

Wie im Fall n = 2 möchten wir ganz allgemein mit den Restklassen modulo
n rechnen.
Definition 1.2.3. Auf der Menge Z/nZ definieren wir eine Addition und
eine Multiplikation durch [a] + [b] := [a + b] und [a] · [b] := [a · b].
Dies besagt, dass wir Restklassen addieren oder multiplizieren, indem wir
diese Operationen mit Repräsentanten dieser Restklassen durchführen. Um
zu klären, ob eine solche Definition sinnvoll ist, müssen wir beweisen, dass
wir stets dasselbe Resultat erhalten, ganz gleich welche Repräsentanten wir
gewählt haben. Es ist daher zu zeigen, dass aus [a] = [a′ ] und [b] = [b′ ] stets
[a] + [b] = [a′ ] + [b′ ] und [a] · [b] = [a′ ] · [b′ ] folgt. Da, wie leicht einzusehen
ist, die Addition und die Multiplikation von Restklassen kommutativ sind,
ergibt sich dies aus zweimaliger Anwendung der Implikation

[a] = [a′ ] =⇒ [a] + [b] = [a′ ] + [b] und [a] · [b] = [a′ ] · [b].

Um dies zu beweisen, bemerken wir zuerst, dass [a] = [a′ ] genau dann gilt,
wenn a ≡ a′ mod n, das heißt a′ = a + kn für ein k ∈ Z. Daraus erhalten
wir a′ + b = a + kn + b und somit

[a′ ] + [b] = [a′ + b] = [a + kn + b] = [a + b] = [a] + [b].

Ebenso ergibt sich a′ · b = (a + kn) · b = a · b + kb · n und

[a′ ] · [b] = [a′ · b] = [a · b + kb · n] = [a · b] = [a] · [b].

Für die Zukunft halten wir fest: Wenn wir mathematische Operationen oder
Abbildungen auf Mengen von Äquivalenzklassen definieren, dann müssen
wir immer sicherstellen, dass die Definition nicht von der Wahl der Re-
präsentanten abhängt. Man spricht dann von Wohldefiniertheit der Operation
oder Abbildung.
1.2 Restklassen 19

Der folgende Satz sagt, dass das Rechnen mit Restklassen genauso funktio-
niert wie mit ganzen Zahlen.

Satz 1.2.4 Die Gesetze (1.1)–(1.8) für das Rechnen in (Z, +, ·) gelten auch
in (Z/nZ, +, ·).

Beweis. Wenn wir [0], [1] als neutrale Elemente für die Addition bzw. Multi-
plikation verwenden und −[a] := [−a] setzen, dann ergeben sich diese Gesetze
unmittelbar aus denen, die wir für Z formuliert hatten, indem wir dort a, b, c
durch [a], [b], [c] ersetzen. ⊓

Bemerkung 1.2.5. Jeder ist gewissen Rechnungen modulo n bereits im rea-


len Leben begegnet. Zum Beispiel bei der Uhrzeit. Der Stundenzeiger jeder
analogen Uhr zeigt uns Zahlen modulo 12 an. Überlegungen wie diese sind
jedem vertraut: Jetzt ist es 10 Uhr, also ist es in 3 Stunden 1 Uhr. In ma-
thematischer Sprache: 10 + 3 ≡ 1 mod 12. Ebenso sind wir daran gewöhnt,
dass der Minutenzeiger modulo 60 rechnet.

Bevor wir weitere, etwas verstecktere Beispiele des Rechnens in Z/nZ aus
dem Alltagsleben kennenlernen, befassen wir uns mit der Division in Z/nZ.
Dabei werden wir Erkenntnisse aus Abschnitt 1.1 aus einem neuen Blickwin-
kel betrachten und die mathematischen Grundlagen für die angekündigten
Anwendungen bereitstellen.
Bei der Division in Z/nZ geht es darum, für gegebene a, b ∈ Z die Gleichung
a · x ≡ b mod n zu lösen. Es ist sinnvoll, zunächst die einfachere Gleichung

a·x ≡1 mod n (1.11)

zu studieren. Unter Benutzung des Euklidischen Algorithmus haben wir im


Satz 1.1.6 gezeigt, dass es genau dann ganze Zahlen r, s mit ra + sn = 1 gibt,
wenn ggT(a, n) = 1 gilt. Mit Hilfe von Kongruenzen und Restklassen kann
man diesen Sachverhalt folgendermaßen5 ausdrücken

ggT(a, n) = 1 ⇐⇒ ∃ r ∈ Z : r · a ≡ 1 mod n
⇐⇒ ∃ [r] ∈ Z/nZ : [r] · [a] = [1] .

Der Euklidische Algorithmus liefert also eine Methode, mit der wir Gleichun-
gen der Form (1.11) lösen können. Die Eindeutigkeit einer solchen Lösung
wird im folgenden Satz geklärt.

Satz 1.2.6 Wenn a, n teilerfremde ganze Zahlen sind, dann gibt es genau
eine Restklasse [r] ∈ Z/nZ mit [r] · [a] = [1], d.h. r · a ≡ 1 mod n.

5 Der Existenzquantor ∃ und der Allquantor ∀ sind in Abschnitt 6.1 ab S. 360 erklärt.
20 1 Zahlen

Beweis. Die Existenz haben wir bereits gezeigt (Satz 1.1.6). Angenommen,
für r, r′ ∈ Z gilt r · a ≡ 1 mod n und r′ · a ≡ 1 mod n. Dann folgt ra ≡ r′ a
mod n und somit n | a(r − r′ ). Da nach Voraussetzung ggT(a, n) = 1, liefert
Satz 1.1.7, dass n ein Teiler von r − r′ ist. Damit ist r ≡ r′ mod n also
[r] = [r′ ]. ⊓

Beispiel 1.2.7. Wenn n = 11 und a = 3 ist, dann erhalten wir mittels


Euklidischem Algorithmus: 11 − 3 · 3 = 2 und 3 − 2 = 1. Rückwärts Einsetzen
ergibt 1 = 3 − 2 = 3 − (11 − 3 · 3) = 4 · 3 − 1 · 11. Daraus erhalten wir
4 · 3 ≡ 1 mod 11, das heißt [3] · [4] = [1] in Z/11Z. Ebenso erhält man
[1] · [1] = [2] · [6] = [3] · [4] = [5] · [9] = [7] · [8] = [10] · [10] = [1] in Z/11Z.
Die Restklasse [0] ∈ Z/11Z ist die einzige, die dabei nicht auftritt. Die Glei-
chung x · [0]n = [1]n hat für kein n ≥ 2 eine Lösung x ∈ Z/nZ.

Wenn n eine Primzahl ist, ergibt sich als Spezialfall aus Satz 1.2.6:

Folgerung 1.2.8. Wenn a ∈ Z und n eine Primzahl ist, so dass [a] 6= [0] ∈
Z/nZ, dann gibt es genau ein [r] ∈ Z/nZ, für das [r] · [a] = [1] in Z/nZ gilt.

Falls n eine Primzahl und [a] 6= [0] in Z/nZ ist, genügt das, um jede Gleichung
der Gestalt
ax ≡ b mod n (1.12)
zu lösen. Dazu schreiben wir die Kongruenz (1.12) in der Form [a] · [x] = [b]
und erhalten unter Benutzung von [r] · [a] = [1]

[r] · [b] = [r] · ( [a] · [x] ) = ( [r] · [a] ) · [x] = [x] .

Also ist [x] = [r · b] die gesuchte und einzige Lösung. Die Menge aller ganz-
zahligen Lösungen der Kongruenz (1.12) ist daher [r · b]n = {rb + kn | k ∈ Z}.
Falls n keine Primzahl ist, dann gibt es zu jeder Lösung x ∈ Z der Kongruenz
(1.12) eine ganze Zahl s ∈ Z, so dass ax + sn = b gilt. Aus Satz 1.1.6 erhalten
wir, dass dies genau dann möglich ist, wenn d = ggT(a, n) ein Teiler von b ist.
Das ist die Lösbarkeitsbedingung für die Kongruenz (1.12). Wenn sie erfüllt
ist, dann sind a′ = ad , b′ = db und n′ = nd ganze Zahlen und x ∈ Z ist genau
dann Lösung von (1.12), wenn

a′ x ≡ b ′ mod n′ .

Da ggT(a′ , n′ ) = 1, finden wir mit der oben angegebenen Methode alle


Lösungen dieser Kongruenz und damit auch die von (1.12).
Erste Anwendungen der Rechenoperationen in Z/nZ betreffen die Bestim-
mung von Endziffern sehr großer Zahlen und Teilbarkeitsregeln.

Beispiel 1.2.9. Mit welcher Ziffer endet die Zahl 999 ?


1.2 Restklassen 21

Die letzte Ziffer d einer Zahl a ∈ Z ist dadurch charakterisiert, dass 0 ≤ d ≤ 9


und dass es eine ganze Zahl k gibt, für die a = 10k + d gilt. Daher ist d ≡ a
mod 10.
Da 9 ≡ −1 mod 10, erhalten wir 999 ≡ (−1)99 ≡ −1 mod 10. Da d = 9 die
einzige Ziffer ist, die kongruent −1 modulo 10 ist, endet 999 auf 9. Es ist kein
Problem, dies mit einem Taschenrechner nachzuprüfen.
9 11
Wie sieht es jedoch bei 9(9 ) oder bei 9(10 ) aus? Da versagt eine direkte
Rechnung mit einem gewöhnlichen Taschenrechner. Die Rechnung mit Kon-
gruenzen kann aber wieder im Kopf durchgeführt werden.
Zunächst bemerken wir, dass der Exponent 99 ungerade ist, da 9 ≡ 1 mod 2
9 9
und somit 99 ≡ 19 ≡ 1 mod 2. Damit erhalten wir nun 9(9 ) ≡ (−1)(9 ) ≡ −1
9
mod 10 und auch 9(9 ) endet mit der Ziffer 9.
In analoger Weise sehen wir, dass 1011 ≡ 011 ≡ 0 mod 2, der Exponent also
11 11
gerade ist, woraus wir 9(10 ) ≡ (−1)(10 ) ≡ 1 mod 10 erhalten. Daraus
11
schließen wir, dass 9(10 ) mit der Ziffer 1 endet.
Mit geringem Mehraufwand kann man auf diese Weise per Hand die letzten
zwei oder drei Ziffern all dieser relativ großen Zahlen bestimmen. Effektiver
geht das mit dem kleinen Satz von Fermat, Satz 1.3.24. Weitere Methoden,
die das Rechnen mit großen Zahlen erleichtern, werden wir nach Satz 1.4.23
kennenlernen, siehe Bemerkung 1.4.26.

Beispiel 1.2.10 (Teilbarkeit durch 3). Viele kennen die 3-er Regel: Eine
ganze Zahl ist genau dann durch drei teilbar, wenn ihre Quersumme durch
drei teilbar ist. Als Quersumme einer Zahl bezeichnet man die Summe ihrer
Ziffern.
Unter Verwendung von Kongruenzen lässt sich die Richtigkeit dieser Regel
sehr elegant beweisen. Da eine Zahl a genau dann durch 3 teilbar ist, wenn
a ≡ 0 mod 3 gilt, genügt es zu zeigen, dass jede ganze Zahl kongruent ihrer
Quersumme modulo 3 ist. P
Wenn eine Zahl a die Ziffern ak ak−1 . . . a1 a0 hat, dann ist a = ki=0 ai 10i
Pk
und i=0 ai ist die Quersumme dieser Zahl. Da 10 ≡ 1 mod 3 ergibt sich
k
X k
X k
X
a= ai · 10i ≡ ai · 1 i ≡ ai mod 3 .
i=0 i=0 i=0

Damit ist die 3-er Regel bewiesen. Da 10 ≡ 1 mod 9, gilt die gleiche Regel
auch für Teilbarkeit durch 9.

Beispiel 1.2.11 (Teilbarkeit durch 11). Da 10 ≡ −1 mod 11 folgt aus


Pk Pk
a = i=1 ai 10i die Kongruenz a ≡ i=1 (−1)i ai mod 11. Daraus sehen wir,
dass a genau dann durch 11 teilbar ist, wenn die alternierende Quersumme
von a durch 11 teilbar ist.
Zum Beispiel ist 317 206 375 nicht durch 11 teilbar, da die alternierende Quer-
summe 3 − 1 + 7 − 2 + 0 − 6 + 3 − 7 + 5 = 2 nicht durch 11 teilbar ist.
22 1 Zahlen

Nach dem gleichen Muster lassen sich weitere, zum Teil weniger bekannte
Teilbarkeitsregeln herleiten und beweisen. Unsere Beweise beruhen stets auf
einer Kongruenz der Gestalt 10r ≡ ±1 mod n. Das funktioniert für solche
n, die Teiler einer Zahl der Gestalt 10r ± 1 sind.
Beispiel 1.2.12 (Teilbarkeit durch 101). Die Zahl 101 ist eine Primzahl
und es gilt 100 ≡ −1 mod 101. Zur Beschreibung einer Teilbarkeitsregel
teilen wir deshalb die Ziffern einer Zahl a in Zweiergruppen. Wir beginnen
dabei am Ende der Zahl. Wenn Ak , Ak−1 , . . . , A1 , A0 diese Zweiergruppen
Pk
sind, dann ist 0 ≤ Ai ≤ 99 und a = i=1 Ai 102i . Damit ergibt sich
k
X
a≡ (−1)i Ai mod 101 .
i=1

Also ist a genau dann durch 101 teilbar, wenn die alternierende Summe der
am Ende beginnend gebildeten 2-er Gruppen durch 101 teilbar ist.
Die 2-er Gruppen unserer Beispielzahl 317 206 375 lauten A4 = 03, A3 =
17, A2 = 20, A1 = 63, A0 = 75. Da 3 − 17 + 20 − 63 + 75 = 18 nicht durch 101
teilbar ist, ist auch 317 206 375 nicht durch 101 teilbar.
Beispiel 1.2.13 (Teilbarkeit durch 7 und 13). Der Ausgangspunkt ist
die Gleichung 1001 = 7 · 11 · 13. Daraus erhalten wir 1000 ≡ −1 mod 7
und 1000 ≡ −1 mod 13. Daher können wir die Teilbarkeit durch 7 und 13
durch Betrachtung der alternierenden Summe der 3-er Gruppen (am Ende
beginnend) testen.
Für die uns bereits vertraute Zahl 317 206 375 erhalten wir als alternierende
Summe der Dreiergruppen 317 − 206 + 375 = 486. Da 486 ≡ −4 mod 7 und
486 ≡ 5 mod 13 gilt, ist weder 13 noch 7 ein Teiler von 317 206 375.
Bei der Übermittlung von Informationen können Fehler oder Datenverlus-
te auftreten. Oft ist es wichtig, dass solche Fehler erkannt oder sogar kor-
rigiert werden. Bei der menschlichen Sprache erlernen wir diese Fähigkeit
frühzeitig, wodurch es uns oft möglich ist, auch mit einer Person zu kommu-
nizieren, die nuschelt oder einen unvertrauten Dialekt spricht. Wenn es sich
bei der übermittelten Information jedoch um eine Zahl handelt, zum Beispiel
eine Kontonummer, Artikelnummer, Kreditkartennummer oder Ähnliches,
dann ist es für ein menschliches Wesen nicht so einfach, Fehler zu erkennen.
Das Anhängen einer sogenannten Prüfziffer ist die einfachste Methode, eine
Fehlererkennung zu ermöglichen. In den folgenden beiden Beispielen werden
zwei weltweit praktizierte Prüfzifferverfahren vorgestellt. In beiden Fällen
wird die Prüfziffer durch eine Rechnung modulo n bestimmt. Im Kapitel 2.5
werden wir uns mit Methoden beschäftigen, die eine Korrektur von Fehlern
ermöglicht.
Beispiel 1.2.14 (EAN – European Article Number). In vielen Su-
permärkten werden an der Kasse die auf den Waren aufgedruckten Strich-
codes gelesen, woraus dann die Rechnung für den Kunden und eine Übersicht
1.2 Restklassen 23

über den Lagerbestand erstellt wird. Der Strichcode spiegelt in einer be-
stimmten Weise die 13-stellige EAN wieder. Davon tragen die ersten 12 Zif-
fern a1 , . . . , a12 die Information, die 13. Ziffer a13 ist eine Prüfziffer. Die
ersten 12 Ziffern sind in drei Gruppen unterteilt. Die erste Zifferngruppe ist
eine Länderkennung, sie umfasst die ersten drei Ziffern. Die Nummern 400–
440 sind Deutschland, 760–769 der Schweiz und Liechtenstein und 900–919
Österreich zugeordnet. Aus den ersten drei Ziffern kann man in der Regel nur
auf den Firmensitz des Herstellers schließen, nicht aber auf das Land in dem
der Artikel tatsächlich hergestellt wurde.
Die zweite Gruppe besteht meist aus vier, manchmal aber auch aus fünf
oder sechs Ziffern. Sie codiert das produzierende Unternehmen, welches die
verbleibenden Ziffern als Artikelnummer frei vergeben kann. Bei der EAN

4 399148 405508
sieht die Einteilung in Zifferngruppen folgendermaßen aus:
4 3 9 9 1 4 8 4 0 5 5 0 8
a a a a a a a a a9 a10 a11 a12 a
| 1 {z2 3} | 4 5{z 6 7} |8 {z } 13
|{z}
Land Hersteller Artikel Prüfziffer

Bereits 1973 wurde in den USA ein 12-stelliger Produktcode eingeführt, der
kurz darauf in Europa zur EAN erweitert wurde. Seit die 13-stellige EAN auch
in Nordamerika verwendet wird, spricht man von der International Article
Number . Die Prüfziffer ergibt sich aus den ersten 12 Ziffern wie folgt:

a13 ≡ −(a1 + 3a2 + a3 + 3a4 + · · · + 3a12 ) mod 10.

Jede gültige EAN muss daher die folgende Prüfgleichung erfüllen:

a1 + 3a2 + a3 + 3a4 + · · · + a11 + 3a12 + a13 ≡ 0 mod 10. (1.13)

Im obigen Beispiel gilt tatsächlich

4+3·3+9+3·9+1+3·4+8+3·4+0+3·5+5+3·0+8 ≡ 0 mod 10.

Wenn genau eine der 13 Ziffern fehlt oder unleserlich ist, dann lässt sie sich
mit Hilfe der Prüfgleichung (1.13) rekonstruieren. Das ist offensichtlich, wenn
die fehlende Ziffer mit Faktor 1 in der Prüfgleichung auftritt. Wenn sie mit
dem Faktor 3 versehen ist, dann nutzen wir die Kongruenz 3 · 7 ≡ 1 mod 10
um sie zu bestimmen.

Beispiel 1.2.15 (ISBN – International Standard Book Number). Al-


le im Handel erhältlichen Bücher sind heutzutage mit einer ISBN versehen.
Von 1972 bis Ende 2006 bestand sie aus zehn Zeichen, heute ist sie 13-stellig.
24 1 Zahlen

Zur Unterscheidung dieser beiden Typen spricht man von der ISBN-10 und
der ISBN-13. Jeder ISBN-10 ist in eindeutiger Weise eine ISBN-13 zugeord-
net, nicht aber umgekehrt.
Die ISBN-13 eines Buches ist identisch mit seiner EAN. Die Prüfziffer wird
nach der Vorschrift im Beispiel 1.2.14 bestimmt. Bei der ISBN-10 erfolgt die
Berechnung des Prüfzeichens auf eine mathematisch interessantere Art.
Ähnlich zur Struktur der EAN, sind die 10 Zeichen einer ISBN-10 in vier
Gruppen unterteilt. Die einzelnen Gruppen repräsentieren das Land bzw.
den Sprachraum, den Verlag, eine verlagsinterne Nummer des Buches, sowie
das Prüfzeichen. Details sind durch die Norm DIN ISO 2108 geregelt. Die
erste Zifferngruppe besteht oft nur aus einer, kann aber bis zu fünf Ziffern
umfassen. Der deutsche Sprachraum entspricht der Ziffer 3. In der ISBN
dieses Buches finden Sie die Verlagsnummer 540 des Springer-Verlags vor.
Auch die Verlagsnummern können aus unterschiedlich vielen Ziffern bestehen.
Wenn wir die einzelnen Zeichen einer ISBN-10, von links beginnend, mit
a1 , a2 , . . . , a9 , a10 bezeichnen, dann lautet die Prüfgleichung:
10
X
i · ai ≡ 0 mod 11 . (1.14)
i=1

Da 10 · a10 ≡ −a10 mod 11, ist der Wert des Prüfzeichens


P9 a10 gleich der
kleinsten nicht-negativen ganzen Zahl, die kongruent i=1 i · ai modulo 11
ist. Der mögliche Wert 10 wird in Anlehnung an die entsprechende römische
Ziffer durch das Symbol X wiedergegeben. Daher sprechen wir von einem
Prüfzeichen statt von einer Prüfziffer. Das Symbol X ist nur als Prüfzeichen,
also an der letzten Stelle und auch nur bei der ISBN-10 zugelassen.
Für die ISBN 3-528-77217-4 erhalten wir

3 + 2 · 5 + 3 · 2 + 4 · 8 + 5 · 7 + 6 · 7 + 7 · 2 + 8 · 1 + 9 · 7 ≡ 4 mod 11

und das ist tatsächlich die angegebene Prüfziffer.


Um aus einer ISBN-10 die zugehörige ISBN-13 zu gewinnen, wird zuerst das
Prüfzeichen entfernt, dann das Präfix 978 vorangestellt und schließlich nach
den Regeln der EAN die neue Prüfziffer berechnet. In unserem Beispiel:

9+3·7+8+3·3+5+3·2+8+3·7+7+3·2+1+3·7 ≡2 mod 10.

Damit erhalten wir 8 als neue Prüfziffer und die zu 3-528-77217-4 gehörige
ISBN-13 lautet 9783528772178. Auf Büchern, die vor dem 1. Januar 2007
gedruckt wurden, sind in der Regel beide Nummern vorzufinden:
1.3 Gruppen 25

ISBN 3-528-77217-4

9 783528 772178
Außer 978 ist auch das Präfix 979 im Gebrauch, wodurch sich die Zahl der
prinzipiell möglichen Buchnummern verdoppelt. Die ISBN-13, die gleichzeitig
auch die EAN darstellt, gibt ein Beispiel dafür, dass aus den ersten drei Ziffern
einer EAN nicht das Herkunftsland des Artikels bestimmt werden kann, es
sei denn, man ist der Ansicht, dass alle Bücher aus Buchland“ kommen.

Aufgaben

P
2000
Übung 1.11. Zeigen Sie, dass k 13 = 113 + 213 + · · · + 199913 + 200013
k=1
durch 2001 teilbar ist.

Übung 1.12. Vor geraumer Zeit empfahl mir ein guter Freund zwei Bücher.
Aus Bequemlichkeit sandte er mir lediglich die folgenden beiden ISBN-10:
3-423-62015-3 und 3-528-28783-6. Beim Versuch diese Bücher zu kaufen,
musste ich leider feststellen, dass eine der beiden Nummern fehlerhaft war.
Überprüfen Sie unter Benutzung der Prüfgleichung (1.14) die Gültigkeit bei-
der ISBN’s. Geben Sie alle Möglichkeiten an, die fehlerhafte ISBN-10 an
genau einer Stelle so zu verändern, dass die Prüfgleichung erfüllt ist.
Übertragen Sie die so gefundenen korrigierten ISBN-10 in das ISBN-13-
Format und ermitteln Sie (z.B. mit Hilfe einer Internetrecherche) welche da-
von tatsächlich zu einem Buch gehört.

1.3 Gruppen

Zu Beginn des vorigen Abschnittes haben wir die Wichtigkeit der Methode
der Abstraktion hervorgehoben. Als wichtigstes Beispiel eines Abstraktions-
prozesses diente uns dort der Übergang von ganzen Zahlen zu Restklassen.
Wir nehmen nun den scheinbar wenig spektakulären Satz 1.2.4 als Ausgangs-
punkt für unsere weiteren Überlegungen. Er sagt, dass die Grundgesetze des
Rechnens beim Übergang zu Restklassen nicht verloren gehen. In diesem Sin-
ne gehören die Axiome (1.1)–(1.8) zu den wesentlichen Merkmalen, welche
sich bei der Abstraktion herauskristallisiert haben. Auf dem neuen Abstrak-
tionsniveau, auf das wir uns in diesem Abschnitt begeben, sind solche Re-
chengesetze das Einzige, was wir noch als wesentlich betrachten wollen. Die
26 1 Zahlen

Konzentration auf Rechengesetze, oder allgemeiner auf strukturelle Eigen-


schaften algebraischer Operationen, gehört zu den wichtigsten Charakteris-
tiken der modernen Algebra. Als erstes Beispiel werden wir den Begriff der
Gruppe kennenlernen und studieren. Weitere Begriffe wie Ring und Körper
bilden den Gegenstand von Abschnitt 1.4. Wie bereits zuvor beschränken
wir uns auch hier nicht auf abstrakte Definitionen, sondern illustrieren die
eingeführten Begriffe durch viele konkrete Beispiele bis hin zu Anwendungen
aus dem Alltag.

Definition 1.3.1. Eine nichtleere Menge G zusammen mit einer Abbildung


∗ : G × G → G, die jedem Paar (a, b) ∈ G × G ein Element a ∗ b ∈ G zuordnet,
heißt Gruppe, wenn Folgendes gilt:

(Assoziativgesetz) ∀ a, b, c ∈ G : a ∗ (b ∗ c) = (a ∗ b) ∗ c. (1.15)
(neutrales Element) ∃ e ∈ G ∀ a ∈ G : e ∗ a = a. (1.16)
(inverses Element) ∀ a ∈ G ∃ a′ ∈ G : a′ ∗ a = e. (1.17)

Wenn zusätzlich noch das

(Kommutativgesetz) ∀ a, b ∈ G : a ∗ b = b ∗ a, (1.18)

gilt, dann nennen wir G eine abelsche 6 Gruppe.

Zur Vermeidung von Unklarheiten sprechen wir oft von der Gruppe (G, ∗)“

und nicht nur von der Gruppe G“. Das Symbol ∗ dient uns zur allgemeinen

Bezeichnung der Verknüpfung in einer Gruppe. In Beispielen ersetzen wir
nicht nur G durch eine konkrete Menge, sondern oft auch den ∗ durch eines
der gebräuchlichen Verknüpfungssymbole wie etwa +, ·, ◦ oder ×.
Wenn + als Verknüpfungsymbol verwendet wird sprechen wir von einer ad-
ditiven Gruppe. Dann schreiben wir 0 statt e und das additive Inverse a′ von
a bezeichnen wir mit −a.
Wenn · als Verknüpfungsymbol verwendet wird, sprechen wir von einer mul-
tiplikativen Gruppe. In diesem Fall wird das neutrale Element durch 1 statt
durch e bezeichnet. Für das multiplikative Inverse hat sich die Bezeichnung
a−1 eingebürgert.

Beispiel 1.3.2. (i) (Z, +), (Q, +), (R, +) und (C, +) sind abelsche Grup-
pen. Hier und im Folgenden bezeichnet Q die Menge der rationalen Zah-
len, R die Menge der reellen Zahlen und C die Menge der komplexen
Zahlen, vgl. Beispiel 1.4.20 und Abschnitt 3.1.
(ii) Aus Satz 1.2.4 ergibt sich, dass (Z/nZ, +) eine abelsche Gruppe ist.
(iii) (Q r {0}, ·) und (R r {0}, ·) sind abelsche Gruppen. Die Zahl 0 mussten
wir wegen (1.17) entfernen, da sie kein multiplikatives Inverses besitzt.
6 Niels Henrik Abel (1802–1829), norwegischer Mathematiker.
1.3 Gruppen 27

(iv) Im Gegensatz dazu ist (Z r {0}, ·) keine Gruppe, denn keine von ±1
verschiedene ganze Zahl hat ein multiplikatives Inverses in Z. Die größte
multiplikative Gruppe, die nur ganze Zahlen enthält, ist daher {1, −1}.
(v) Aus Satz 1.2.6 folgt, dass (Z/nZ)∗ := {[a] ∈ Z/nZ | ggT(a, n) = 1} eine
Gruppe bezüglich Multiplikation ist.
(vi) Auf dem kartesischen Produkt G × H (siehe Abschnitt 6.2) zweier Grup-
pen (G, ∗) und (H, ·) erhalten wir die Struktur einer Gruppe (G × H, ◦)
indem wir (g, h) ◦ (g ′ , h′ ) := (g ∗ g ′ , h · h′ ) definieren. Das ist jedem von
der additiven Gruppe R2 – Vektoren in der Ebene – vertraut.

Beispiel 1.3.3. Als Verknüpfung der symmetrischen Gruppe einer Menge M

sym(M ) := {f : M → M | f ist eine bijektive7 Abbildung}

verwenden wir die Komposition von Abbildungen. Wenn f, g : M → M zwei


 Komposition f ◦ g : M → M für alle m ∈ M
Abbildungen sind, dann ist ihre
durch (f ◦ g)(m) := f g(m) definiert.
Das neutrale Element ist die identische Abbildung IdM : M → M , die durch
IdM (m) = m gegeben ist. Die zu f : M → M inverse Abbildung g = f −1
hat folgende Beschreibung. Da f bijektiv ist, gibt es zu jedem m ∈ M genau
ein n ∈ M mit f (n) = m. Die inverse Abbildung ist dann durch g(m) := n
gegeben. Sie ist durch g ◦ f = f ◦ g = IdM charakterisiert.
Wenn M eine endliche Menge mit n Elementen ist, können wir durch Num-
merierung der Elemente die Menge M mit {1, 2, . . . , n} identifizieren. In
dieser Situation hat sich die Bezeichnung Sn für die Gruppe (sym(M ), ◦)
eingebürgert. Die Elemente von Sn nennt man Permutationen. Jede Permu-
tation σ ∈ Sn ist eine Bijektion

σ : {1, 2, . . . , n} → {1, 2, . . . , n}

und eine solche lässt sich durch Angabe einer Wertetabelle beschreiben. Dazu
werden einfach die Zahlen 1, 2, . . . , n und deren Bilder unter der Abbildung
σ ∈ Sn in zwei Zeilen übereinander angeordnet
 
1 2 ... n
.
σ(1) σ(2) . . . σ(n)

Die Gruppe S3 besteht aus den folgenden sechs Elementen


           
123 123 123 123 123 123
, , , , , .
123 213 321 132 231 312

Die Anzahl der Elemente der Gruppe Sn beträgt n! = n · (n − 1) · . . .· 2 · 1. Die


Zahl n!, ausgesprochen als n Fakultät“, ist mathematisch exakter rekursiv

definiert: man setzt 0! := 1 und n! := n · (n − 1)! für alle n ≥ 1.
7 Siehe Definition 6.3.3.
28 1 Zahlen

Durch die folgende Rechnung erkennen wir, dass S3 nicht abelsch ist:
           
123 123 123 123 123 123
◦ = 6= = ◦ .
213 321 312 231 321 213

Besonders für größere n ist die Benutzung von Wertetabellen ziemlich


aufwändig. Es ist dann günstiger, die platzsparendere Zyklenschreibweise zu
verwenden. Um die Zerlegung einer Permutation σ in ein Produkt von Zy-
klen zu bestimmen, startet man mit irgendeinem Element k ∈ {1, . . . , n}
und schreibt die iterierten Bilder dieser Zahl hintereinander in eine Liste
(k, σ(k), σ(σ(k)), . . . ). Die Liste wird mit einer schließenden Klammer been-
det, sobald man wieder auf das Startelement k trifft. So ist zum Beispiel
 
123456
= (2 4 5) = (4 5 2) = (5 2 4) .
143526

Diesen Zyklus kann man sich etwa wie im folgenden Bild vorstellen:

5 4

Jede durch die Permutation σ nicht veränderte Zahl k, d.h. k = σ(k), wird
nicht aufgeschrieben. Jedes von σ veränderte Element der Menge {1, . . . , n}
muss jedoch betrachtet werden. Im Allgemeinen werden wir daher ein Pro-
dukt mehrerer Zyklen erhalten:
 
123456
= (1 6) ◦ (2 4 5) .
643521

Der Vorteil der effektiveren Schreibweise wird mit einer Mehrdeutigkeit er-
kauft. So kann zum Beispiel der Zyklus (1 2) jeder der folgenden Wertetabellen
entsprechen:
         
12 123 1234 12345 123456
, , , , , etc.
21 213 2134 21345 213456

je nachdem in welchem Sn wir gerade arbeiten. Das ist jedoch nicht weiter
dramatisch, da Sn−1 auf natürliche Weise als Untergruppe in Sn enthalten
ist, siehe Beispiel 1.3.14.
Die sechs Elemente der Gruppe S3 haben in Zyklenschreibweise die Gestalt
1.3 Gruppen 29
     
12 3 12 3 12 3
Id = , (1 2) = , (1 3) = ,
12 3 21 3 32 1
     
12 3 12 3 12 3
(2 3) = , (1 2 3) = , (1 3 2) = .
13 2 23 1 31 2

Alle Elemente dieser Gruppe sind einfache Zyklen. Ab n ≥ 4 gibt es Elemente


in Sn , die keine einfachen Zyklen sind, zum Beispiel (12)(34) = ( 12 21 34 43 ...
... ).

Beispiel 1.3.4. Obwohl wir uns dem Gruppenbegriff durch Abstraktion von
den ganzen Zahlen genähert haben, liegt sein historischer Ursprung in der
Geometrie. Viele Menschen sind von Symmetrien in Natur, Kunst und Wis-
senschaft fasziniert. Das mathematische Studium von Symmetrien führt un-
ausweichlich zum Begriff der Symmetriegruppe. Die elementarsten Beispiele
erhält man als Menge aller Symmetrien einer ebenen Figur wie etwa eines
Kreises oder eines Dreiecks. Unter einer Symmetrie wollen wir hier eine Kon-
gruenztransformation einer solchen Figur verstehen, also eine Verschiebung,
Drehung oder Spiegelung, unter der diese Figur auf sich selbst abgebildet
wird.
Die Menge aller Symmetrien eines regelmäßigen ebenen n-Ecks (n ≥ 3)
bezeichnet man mit Dn . Sie heißt Diedergruppe (auch Di-edergruppe oder
Diëdergruppe). Zur Illustration betrachten wir hier den Fall n = 5 (Abb. 1.1).

P0 = P5
b

t
P1 b b P4

b b

P2 P3

Abb. 1.1 Geometrische Bedeutung der Gruppe D5

Es gibt keine Verschiebung, welche ein Fünfeck in sich selbst überführt. Als
Symmetrien kommen also nur Drehungen und Spiegelungen in Frage. Jede
Drehung mit Zentrum im Mittelpunkt des Fünfecks um einen Winkel der
30 1 Zahlen

Größe k · 2π5 , k ∈ Z, bildet das Fünfeck auf sich selbst ab. Mit t ∈ D5 be-
zeichnen wir die Drehung um 2π 5 entgegen dem Uhrzeigersinn. Die weiteren
Drehungen sind dann t2 , t3 , t4 und t5 = Id.
Jede Kongruenztransformation ist durch ihr Wirken auf der Menge der Eck-
punkte {P0 , P1 , P2 , P3 , P4 } vollständig festgelegt. Daher ist t ∈ D5 durch
t(Pi ) = Pi+1 gegeben, wobei wir die Indizes als Elemente von Z/5Z auffas-
sen, also P5 = P0 setzen. Diese bequeme Vereinbarung nutzen wir auch im
Folgenden.
Als weitere Symmetrien kommen noch die Spiegelungen an den Verbindungs-
geraden des Mittelpunktes mit den Eckpunkten des Fünfecks in Betracht. Sei
zum Beispiel s die Spiegelung an der Achse durch P0 , siehe Abb. 1.1. Dann
gilt s(Pi ) = P5−i und s, st, st2 , st3 , st4 ist eine komplette Liste aller Spiege-
lungen, die das Fünfeck auf sich selbst abbilden. Das ergibt:

D5 = {1, t, t2 , t3 , t4 , s, st, st2 , st3 , st4 } .

Offenbar gilt t5 = 1 und s2 = 1. Außerdem prüft man durch Berechnung der


Wirkung auf den Eckpunkten die Identität tst = s leicht nach. Aus ihr folgt
ts = st−1 und wegen t−1 = t4 sehen wir daraus, dass D5 nicht abelsch ist.
Ausgehend von diesen Relationen kann man alle Produkte in D5 berechnen.
Für allgemeines n ≥ 3 ist die Beschreibung von Dn analog. Die Gruppe
Dn besteht aus den 2n Elementen 1, t, t2 , . . . , tn−1 , s, st, st2 , . . . , stn−1 . Jedes
beliebige Produkt lässt sich unter Verwendung der Relationen tn = 1, s2 = 1
und tst = s berechnen.

Satz 1.3.5 In jeder Gruppe (G, ∗) gilt:


(a) Es gibt genau ein neutrales Element e ∈ G.
(b) Für alle a ∈ G gilt a ∗ e = a.
(c) Zu jedem a ∈ G gibt es genau ein a′ mit a′ ∗ a = e.
(d) Wenn a′ ∗ a = e, dann gilt auch a ∗ a′ = e.
(e) In G kann man kürzen, das heißt aus a ∗ b = a ∗ c folgt stets b = c und
aus b ∗ a = c ∗ a folgt stets b = c.

Beweis. Wir beginnen mit (d). Sei a′′ ein inverses Element zu a′ , welches
nach (1.17) in Definition 1.3.1 existiert und a′′ ∗ a′ = e erfüllt. Wir erhalten

a ∗ a′ = e ∗ (a ∗ a′ ) = (a′′ ∗ a′ ) ∗ (a ∗ a′ )
(1.16)

= a′′ ∗ (a′ ∗ a) ∗ a′ = a′′ ∗ (e ∗ a′ )
(1.15) (1.17)

= a′′ ∗ a′ = e, wie gewünscht.


(1.16)

Damit folgt (b): a ∗ e = a ∗ (a′ ∗ a) = (a ∗ a′ ) ∗ a = e ∗ a = a.


(1.17) (1.15) (d) (1.16)
1.3 Gruppen 31

Als Nächstes zeigen wir (a). Dazu nehmen wir an, dass ē ein weiteres neutrales
Element ist. Das heißt nach (1.16), dass für jedes a ∈ G die Gleichung ē∗a = a
erfüllt ist, insbesondere e = ē ∗ e. Wenn wir in (b) a = ē einsetzen, erhalten
wir ē ∗ e = ē und somit die gewünschte Eindeutigkeit e = ē.
Nun können wir (c) beweisen. Wenn ā′ ein weiteres Inverses zu a ist, dann gilt
ā′ ∗a = e. Es ergibt sich ā′ = ā′ ∗e = ā′ ∗(a∗a′ ) = (ā′ ∗a)∗a′ = e∗a′ = a′ .
(b) (d) (1.15) (1.16)
Schließlich folgt (e) durch Multiplikation mit a′ von links (bzw. rechts). ⊓

Bemerkung 1.3.6. Die Aussage (d) in Satz 1.3.5 besagt nicht, dass die
Gruppe G abelsch ist. Sie besagt nur, dass ein von links zu multiplizierendes
Inverses mit dem von rechts zu multiplizierenden Inversen übereinstimmt.
Bemerkung 1.3.7. Aus Satz 1.3.5 (c) folgt (a−1 )−1 = a und (a ∗ b)−1 =
b−1 ∗ a−1 in jeder multiplikativ geschriebenen Gruppe.
Definition 1.3.8. (1) Eine nichtleere Teilmenge U ⊂ G einer Gruppe (G, ∗)
heißt Untergruppe von G, wenn für alle a, b ∈ U stets a ∗ b ∈ U und
a−1 ∈ U gilt.
(2) Eine Abbildung f : G → H zwischen zwei Gruppen (G, ∗) und (H, ◦)
heißt Gruppenhomomorphismus, wenn für alle a, b ∈ G stets f (a ∗ b) =
f (a) ◦ f (b) gilt.
(3) Ein bijektiver8 Gruppenhomomorphismus heißt Isomorphismus. Wenn es
hervorzuheben gilt, dass f : G → H ein Isomorphismus ist, dann schrei-

ben wir f : G −−→ H.
Bemerkung 1.3.9. Wenn U ⊂ G eine Untergruppe ist, dann ist (U, ∗) eine
Gruppe, wobei ∗ die Einschränkung der Verknüpfung ∗ von G auf U ist.
Bemerkung 1.3.10. Da jede Untergruppe U ⊂ G nichtleer ist, gibt es min-
destens ein Element a ∈ U . Die Definition besagt, dass damit auch a−1 ∈ U
und e = a−1 ∗ a ∈ U sein muss. Daher ist das neutrale Element e ∈ G in je-
der Untergruppe enthalten. Man kann also in Definition 1.3.8 die Bedingung
U 6= ∅ durch die gleichwertige Forderung e ∈ U ersetzen.
Bemerkung 1.3.11. Wenn f : (G, ∗) → (H, ◦) ein Gruppenhomomorphis-
mus ist und eG ∈ G, eH ∈ H die neutralen Elemente bezeichnen, dann gilt
f (eG ) = eH , denn eH ◦ f (eG ) = f (eG ) = f (eG ∗ eG ) = f (eG ) ◦ f (eG ), woraus
wegen Satz 1.3.5 (e) eH = f (eG ) folgt.
Ferner gilt f (a−1 ) = f (a)−1 für alle a ∈ G, was wegen der Eindeutigkeit des
Inversen, Satz 1.3.5 (c), aus eH = f (eG ) = f (a−1 ∗ a) = f (a−1 ) ◦ f (a) folgt.
Bemerkung 1.3.12. Wenn f : G → H ein Isomorphismus ist, dann ist auch
f −1 : H → G ein Isomorphismus.
Beispiel 1.3.13. 2Z := {2n | n ∈ Z} ⊂ Z ist Untergruppe von (Z, +). Die
ungeraden Zahlen {2n + 1 | n ∈ Z} ⊂ Z bilden keine Untergruppe, zum
Beispiel weil 0 nicht darin enthalten ist.
8 Siehe Definition 6.3.3.
32 1 Zahlen

Beispiel 1.3.14. Die Abbildung f : Sn → Sn+1 , die durch


(
σ(k) 1 ≤ k ≤ n
f (σ)(k) :=
n+1 k =n+1

definiert ist, ist ein Gruppenhomomorphismus. In der Sprache der Werteta-


bellen operiert dieser Homomorphismus wie folgt, wenn wir ik = σ(k) setzen:
   
1 2 3 ... n 1 2 3 ... n n + 1
7→ .
i1 i2 i3 . . . in i1 i2 i3 . . . in n + 1

Wenn wir f auf Zyklen anwenden, sehen wir keine Veränderung in der
Schreibweise, es ändert sich nur die Interpretation. Das Bild der Abbildung f
ist die Untergruppe f (Sn ) = Un := {σ ′ ∈ Sn+1 | σ ′ (n + 1) = n + 1} ⊂ Sn+1

und f definiert einen Isomorphismus f : Sn −−→ Un . Daher können wir Sn
als Untergruppe von Sn+1 auffassen. Dadurch ist die scheinbar ungenaue Zy-
klenschreibweise mathematisch gerechtfertigt, bei der z.B. (1 2) als Element
in jedem Sn aufgefasst werden kann.

Beispiel 1.3.15. Da eine Kongruenztransformation eines regelmäßigen ebe-


nen n-Ecks (n ≥ 3) durch die Bildpunkte der Ecken des n-Ecks festgelegt
ist, können wir, nachdem wir die Ecken nummeriert haben, Dn ⊂ Sn als
Untergruppe auffassen.

Beispiel 1.3.16. Die Drehungen {1, t, t2 , t3 , t4 } ⊂ D5 bilden eine Untergrup-


pe. Allgemeiner, wenn (G, ∗) eine Gruppe und g ∈ G irgendein Element ist,
dann ist die Teilmenge

hgi := {g k | k ∈ Z} = {. . . , g −3 , g −2 , g −1 , eG , g, g 2 , g 3 , . . .}

stets Untergruppe von G.

Definition 1.3.17. Eine Gruppe G heißt zyklisch, wenn es ein g ∈ G gibt,


so dass hgi = G ist. Wir sagen dann, g erzeugt die Gruppe G.

Für jedes n ∈ Z ist hni = nZ = {kn | k ∈ Z} ⊂ Z eine zyklische Untergruppe


von (Z, +) mit Erzeuger n. Hier ist zu beachten, dass wir wegen der additiven
Schreibweise kn statt nk schreiben.

Satz 1.3.18 Zu jeder Untergruppe U ⊂ Z von (Z, +) gibt es ein n ∈ Z mit


U = nZ.

Beweis. Sei U + := {k ∈ U | k ≥ 1}. Wenn U + = ∅, dann ist U = {0}, denn


mit k ∈ U ist auch −k ∈ U . In diesem Fall folgt die Behauptung mit n = 0.
Sei nun U + 6= ∅. Dann gibt es eine kleinste Zahl n ∈ U + . Jedes a ∈ U lässt
sich als a = r + s · n mit ganzen Zahlen r, s schreiben, so dass 0 ≤ r < n
1.3 Gruppen 33

(Division mit Rest). Da die Untergruppe U sowohl a als auch n enthält, ist
auch r = a − sn ∈ U . Da n das kleinste Element von U + und r < n ist, folgt
r 6∈ U + . Daher ist r = 0 und somit a = s · n. Daraus ergibt sich U = nZ. ⊓

Beispiel 1.3.19. Die Abbildung f : Z → Z mit f (k) := n · k (fixiertes n) ist
ein Gruppenhomomorphismus, denn f (k + l) = n · (k + l) = n · k + n · l =
f (k) + f (l).
Die durch f (k) := k 2 definierte Abbildung ist hingegen kein Gruppenho-
momorphismus Z → Z der additiven Gruppen, denn f (2) = 4 6= 1 + 1 =
f (1) + f (1).
Wenn (G, ∗) eine Gruppe ist und a ∈ G, (a 6= e), dann ist durch f (g) := a ∗ g
kein Gruppenhomomorphismus f : G → G definiert, da f (e) = a ∗ e = a 6= e.
Wenn U ⊂ G eine Untergruppe einer Gruppe (G, ∗) ist, dann liefert uns
die folgende Definition eine Äquivalenzrelation (siehe Abschnitt 6.3) auf der
Menge G:
a ∼ b ⇐⇒ a−1 ∗ b ∈ U . (1.19)
Reflexivität: Da U ⊂ G eine Untergruppe ist, gilt a−1 ∗ a = e ∈ U für alle
a ∈ G. Daher folgt a ∼ a.
Symmetrie: Wenn a ∼ b, dann gilt a−1 ∗ b ∈ U und somit (a−1 ∗ b)−1 ∈ U .
Unter Verwendung von Bemerkung 1.3.7 folgt daraus (a−1 ∗ b)−1 = b−1 ∗
(a−1 )−1 = b−1 ∗ a ∈ U , also b ∼ a.
Transitivität: Wenn a ∼ b und b ∼ c, dann gilt a−1 ∗ b ∈ U und b−1 ∗ c ∈ U .
Also ist a−1 ∗ c = (a−1 ∗ b) ∗ (b−1 ∗ c) ∈ U und damit a ∼ c.
Aus der Definition folgt unmittelbar, dass die Äquivalenzklassen die Beschrei-
bung [a] = a ∗ U := {a ∗ b | b ∈ U } besitzen. Die Abbildung U → a ∗ U , die b
auf a ∗ b abbildet, ist bijektiv, ihr Inverses bildet c auf a−1 ∗ c ab.
Die Mengen a ∗ U nennt man Linksnebenklassen. Für die Äquivalenz-
klassenmenge G/ ∼ schreiben wir G/U und nennen sie die Menge der Links-
nebenklassen. Den Spezialfall U = nZ ⊂ G = Z haben wir ausführlich im
Abschnitt 1.2 studiert.

Satz 1.3.20 (Lagrange9 ) Wenn (G, ∗) eine endliche Gruppe und U ⊂ G


eine Untergruppe von G ist, dann gilt:

|G| = |U | · |G/U | .

Beweis. Da die Abbildung U → a ∗ U , die b ∈ U auf das Element a ∗ b ∈


a ∗ U abbildet, bijektiv ist, haben alle Nebenklassen die gleiche Zahl von
Elementen, nämlich |U |. Da nach Satz 6.3.16 jedes Element aus G in genau
einer Nebenklasse liegt, ist die Zahl der Elemente von G gleich der Zahl der
Nebenklassen |G/U | multipliziert mit |U |. ⊓

9 Joseph Louis Lagrange (1736–1813), französisch-italienischer Mathematiker.
34 1 Zahlen

Definition 1.3.21. (1) Die Anzahl der Elemente ord(G) := |G| einer Gruppe
G heißt Ordnung der Gruppe G.
(2) Für jedes Element g ∈ G einer Gruppe G heißt ord(g) := ord(hgi) Ord-
nung des Elements g.
Obwohl diese Definition auch für Gruppen mit unendlich vielen Elementen
gültig ist, werden wir uns hier vorrangig mit Ordnungen in endlichen Grup-
pen befassen. Die Ordnung eines Elements einer endlichen Gruppe ist stets
eine positive ganze Zahl. Die Definition der Ordnung eines Elements g ∈ G
übersetzt sich in

ord(g) = m ⇐⇒ hgi = {e, g, g 2, . . . , g m−1 } .

Insbesondere gilt ord(g) = 1 ⇐⇒ g = e. Die Ordnung von g ∈ G ist die


kleinste positive ganze Zahl m, für die g m = e ist. Im Fall einer additiven
Gruppe ist ord(g) = min{k ≥ 1 | k · g = 0}.
Beispiel 1.3.22. (i) ord(Z) = ∞, ord(Sn ) = n!, ord(Dn ) = 2n.
(ii) In (Z, +) gilt: ord(0) = 1 und ord(n) = ∞ für n 6= 0.
(iii) Sei [0] 6= [a] ∈ (Z/nZ, +), dann ist ord([a]) = n/ggT(a, n). Wenn n eine
Primzahl ist, gilt folglich für [a] 6= [0] stets ord([a]) = n in (Z/nZ, +).

Satz 1.3.23 Sei (G, ∗) eine endliche Gruppe.


(1) Wenn U ⊂ G Untergruppe ist, so ist ord(U ) ein Teiler von ord(G).
(2) Für jedes g ∈ G ist ord(g) ein Teiler von ord(G).
(3) Für alle g ∈ G gilt g ord(G) = e.

Beweis. Die Aussage (1) ergibt sich unmittelbar aus dem Satz 1.3.20 unter
Benutzung des neu eingeführten Begriffes der Ordnung. Aussage (2) ergibt
sich aus (1), denn ord(g) = ord(hgi).
Da es nach (2) eine ganze Zahl k gibt, für die ord(G) = k · ord(g) gilt, ergibt
k
sich g ord(G) = g k·ord(g) = g ord(g) = ek = e. ⊓

Zur Anwendung dieses Satzes auf die multiplikative Gruppe (Z/nZ)∗ erinnern
wir uns an die Eulerfunktion (Definition 1.1.10):

ϕ(n) = k ∈ Z 1 ≤ k < n, ggT(k, n) = 1 = ord ((Z/nZ)∗ ) .

Satz 1.3.24 (kleiner Satz von Fermat10 ) (1) Für jede Primzahl p und
jede ganze Zahl a, die nicht durch p teilbar ist, gilt: ap−1 ≡ 1 mod p.
(2) Wenn a, n teilerfremde ganze Zahlen sind, dann gilt aϕ(n) ≡ 1 mod n.

10 Pierre de Fermat (1601–1665), französischer Mathematiker.


1.3 Gruppen 35

Beweis. Da ϕ(p) = p− 1 für jede Primzahl p und ϕ(n) = ord ((Z/nZ)∗ ), folgt
die Behauptung aus Satz 1.3.23 (3). ⊓

Beispiel 1.3.25. (i) Wenn ggT(a, 10) = 1, dann ist a4 ≡ 1 mod 10, da
ϕ(10) = ϕ(5) · ϕ(2) = 4. Mit anderen Worten: die vierte Potenz jeder
ungeraden Zahl, die nicht auf 5 endet, hat als letzte Ziffer eine 1. Aus
dieser Kongruenz ergibt sich auch, dass für jede ganze Zahl a, die zu
10 teilerfremd ist, die letzte Ziffer einer beliebigen Potenz am gleich der
letzten Ziffer von ar ist, sobald r ≡ m mod 4. Dies ergibt sich aus m =
4k + r und am ≡ a4k+r ≡ (a4 )k · ar ≡ 1k · ar ≡ ar mod 10.
(ii) Ebenso lässt sich der Rechenaufwand für die Bestimmung von zwei oder
mehr Endziffern großer Zahlen verringern. Bei der Berechnung der letzten
zwei Ziffern kann man wegen ϕ(100) = ϕ(52 · 22 ) = 5 · 4 · 2 = 40 die
Exponenten modulo 40 reduzieren. Da 99 ≡ 9 mod 40, folgt zum Beispiel
9
9(9 ) ≡ 99 mod 100. Ohne technische Hilfsmittel berechnet man leicht
9
99 ≡ 89 mod 100. Die letzten beiden Ziffern von 9(9 ) lauten also 89.

Als Nächstes werden wir den Prozess der Vererbung der Addition von Z auf
Z/nZ (Definition 1.2.3) für Gruppen verallgemeinern.

Satz 1.3.26 Sei (G, ∗) eine abelsche Gruppe und U ⊂ G eine Untergruppe.
Dann ist auf der Menge der Linksnebenklassen G/U durch [a] ∗ [b] := [a ∗ b]
die Struktur einer abelschen Gruppe definiert.

Beweis. Das Hauptproblem ist hier, ebenso wie bei Satz 1.2.4, die Wohl-
definiertheit. Dazu ist zu zeigen, dass aus [a] = [a′ ] und [b] = [b′ ] stets
[a′ ∗ b′ ] = [a ∗ b] folgt. Entsprechend der in (1.19) gegebenen Definition bedeu-
ten [a] = [a′ ] und [b] = [b′ ], dass es r, s ∈ U gibt, so dass a′ = a∗r und b′ = b∗s
gilt. Damit ergibt sich a′ ∗ b′ = (a ∗ r) ∗ (b ∗ s) = a ∗ (r ∗ b ∗ s) = a ∗ (b ∗ r ∗ s).
Für die letzte Gleichung haben wir benutzt, dass G abelsch ist. Da U eine
Untergruppe ist, gilt r ∗ s ∈ U und es folgt a′ ∗ b′ = (a ∗ b) ∗ (r ∗ s) ∈ (a ∗ b) ∗ U ,
also tatsächlich [a′ ∗ b′ ] = [a ∗ b]. Die Gruppeneigenschaften übertragen sich
nun unmittelbar von G auf G/U . ⊓

Da die Gruppen Sn und Dn nicht abelsch sind, entsteht die Frage, ob für
solche Gruppen die Vererbung der Gruppenstruktur auf Linksnebenklassen-
mengen ebenfalls möglich ist. Als Beispiel betrachten wir die Untergruppe
{1, s} ⊂ D5 . Sie besitzt die folgenden 5 = ord(D5 )/2 Nebenklassen

[1] = {1, s}, [t] = {t, ts}, [t2 ] = {t2 , t2 s}, [t3 ] = {t3 , t3 s}, [t4 ] = {t4 , t4 s} .

Um die Gruppenstruktur wie in Satz 1.3.26 vererben zu können, ist es wegen


[t] = [ts] notwendig, dass auch [t2 ] = [t] · [t] = [ts] · [t] = [tst] gilt. Da
tst = s ist, müsste dann [t2 ] = [s] sein. Ein Blick auf die Liste der fünf
Nebenklassen verrät, dass t2 und s in verschiedenen Nebenklassen liegen. Die
36 1 Zahlen

Gruppenstruktur vererbt sich daher nicht auf D5 /{1, s}. Beim Umgang mit
nicht-abelschen Gruppen ist also Vorsicht geboten.
Bei genauerer Betrachtung des Beweises von Satz 1.3.26 sehen wir, dass nur
an einer Stelle benutzt wurde, dass G abelsch ist, nämlich beim Beweis von
a ∗ (r ∗ b ∗ s) ∈ (a ∗ b) ∗ U . Diesen Beweisschritt kann man jedoch auch
ausführen, wenn es ein Element r′ ∈ U gibt, so dass r ∗ b = b ∗ r′ , denn dann
folgt a ∗ (r ∗ b ∗ s) = a ∗ (b ∗ r′ ∗ s) ∈ (a ∗ b) ∗ U .
Eine Untergruppe U ⊂ G, welche die Eigenschaft hat, dass für jedes b ∈ G
und jedes r ∈ U ein r′ ∈ U mit r ∗ b = b ∗ r′ existiert, nennt man einen
Normalteiler. Mit anderen Worten: Eine Untergruppe U ⊂ G ist genau dann
Normalteiler, wenn b ∗ U = U ∗ b für alle b ∈ G. Mit dem gleichen Beweis wie
von Satz 1.3.26 erhalten wir nun, dass sich die Gruppenstruktur von G auf
G/U vererbt, sobald U ⊂ G ein Normalteiler ist.
Wenn G abelsch ist, dann ist jede Untergruppe U ⊂ G ein Normalteiler, da
stets r ∗ b = b ∗ r. In nicht-abelschen Gruppen gibt es im Allgemeinen jedoch
Untergruppen, die nicht Normalteiler sind. Zum Beispiel ist {1, s} ⊂ D5 kein
Normalteiler, da ts 6∈ {t, st} in D5 .

Bemerkung 1.3.27. Wenn U ⊂ G Normalteiler, dann ist für jedes a ∈ U


die Nebenklasse [a] ∈ G/U das neutrale Element der Gruppe G/U .

Die Begriffe Untergruppe und Homomorphismus sind die wichtigsten Werk-


zeuge zur Untersuchung von Gruppen, die wir bisher kennengelernt haben. Im
Folgenden beschäftigen wir uns damit, wie sie miteinander zusammenhängen.
Als wichtigstes Resultat werden wir den Homomorphiesatz beweisen. Er er-
laubt uns, unter geeigneten Voraussetzungen präzise Information über die
Struktur bestimmter Gruppen herauszufinden.

Definition 1.3.28. Für jeden Gruppenhomomorphismus f : G → H heißt

ker(f ) := {g ∈ G | f (a) = eH } ⊂ G der Kern von f und


im(f ) := {f (a) | a ∈ G} ⊂ H das Bild von f.

Bemerkung 1.3.29. Ein Gruppenhomomorphismus f : G → H ist genau


dann surjektiv, wenn im(f ) = H.

Satz 1.3.30 Sei f : G → H ein Gruppenhomomorphismus. Dann gilt:


(1) ker(f ) ⊂ G ist eine Untergruppe.
(2) im(f ) ⊂ H ist eine Untergruppe.
(3) f ist genau dann injektiv11 , wenn ker(f ) = {eG }.

11 Siehe Definition 6.3.3.


1.3 Gruppen 37

Beweis. (1) Da f (eG ) = eH , ist eG ∈ ker(f ) und damit ker(f ) 6= ∅. Wenn


a, b ∈ ker(f ), dann ist f (a) = eH und f (b) = eH . Daraus ergibt sich f (a∗b) =
f (a) ∗ f (b) = eH ∗ eH = eH und f (a−1 ) = f (a)−1 = e−1 H = eH . Also gilt
a ∗ b ∈ ker(f ) und a−1 ∈ ker(f ), das heißt ker(f ) ist Untergruppe von G.
(2) Da G 6= ∅, ist auch im(f ) 6= ∅. Wenn a′ = f (a) ∈ im(f ) und b′ = f (b) ∈
im(f ), dann ist a′ ∗ b′ = f (a) ∗ f (b) = f (a ∗ b) ∈ im(f ) und (a′ )−1 = f (a)−1 =
f (a−1 ) ∈ im(f ). Somit ist im(f ) eine Untergruppe von H.
(3) Wenn f injektiv ist, dann ist ker(f ) = {eG }. Wenn umgekehrt ker(f ) =
{eG } und f (a) = f (b), dann folgt eH = f (a) ∗ f (b)−1 = f (a ∗ b−1 ), d.h.
a ∗ b−1 ∈ ker(f ) = {eG }. Damit ist a ∗ b−1 = eG , d.h. a = b, und f ist
injektiv. ⊓

Bemerkung 1.3.31. Für jeden Gruppenhomomorphismus f : G → H ist
ker(f ) ⊂ G ein Normalteiler , denn für a ∈ G, b ∈ ker(f ) ist f (a ∗ b ∗ a−1 ) =
f (a) ∗ f (b) ∗ f (a)−1 = f (a) ∗ f (a)−1 = eH , also a ∗ b ∗ a−1 ∈ ker(f ) und somit
a ∗ b = b′ ∗ a für ein b′ ∈ ker(f ).

Satz 1.3.32 (Homomorphiesatz) Sei f : G → H ein Gruppenhomomor-


phismus und G/ ker(f ) mit
 der von G vererbten Gruppenstruktur versehen.
Dann ist die durch f¯ [a] := f (a) definierte Abbildung ein Isomorphismus

f¯ : G/ ker(f ) −→ im(f ) .

Beweis. Nach Bemerkung 1.3.31 ist ker(f ) ⊂ G stets Normalteiler, also wird
die Gruppenstruktur von G auf G/ ker(f ) vererbt. Die Wohldefiniertheit von
f¯ sehen wir wie folgt: Sei [a] = [a′ ] ∈ G/ ker(f ), dann gibt es ein b ∈ ker(f ) ⊂
G mit a′ = a ∗ b. Damit erhalten wir f (a′ ) = f (a ∗ b) = f (a) ∗ f (b) =
f (a)∗ eH = f (a), wie gewünscht. Aus der Definition von f¯ folgt sofort, dass f¯
ein surjektiver Gruppenhomomorphismus ist. Für den Beweis der Injektivität
betrachten wir [a] ∈ ker(f¯) ⊂ G/ ker(f ). Dann ist f (a) = f¯([a]) = eH , d.h.
a ∈ ker(f ) und somit [a] = eG/ ker(f ) . Wegen Satz 1.3.30 (3) ist f¯ injektiv
und daher ein Isomorphismus. ⊓

Als erste Anwendung erhalten wir den folgenden Satz.

Satz 1.3.33 Sei G eine Gruppe und g ∈ G ein Element der Ordnung n.
Dann gibt es einen Isomorphismus Z/nZ → hgi.

Beweis. Durch f (k) := g k ist ein Homomorphismus f : Z → G definiert.


Offenbar ist im(f ) = hgi und ker(f ) = nZ, wobei n = ord(g). Daher ist nach
Satz 1.3.32 die induzierte Abbildung f¯ : Z/nZ → hgi ein Isomorphismus. ⊓ ⊔
Als weitere Anwendung des Homomorphiesatzes können wir nun die bereits
im Satz 1.1.11 angekündigte Formel für die Eulersche ϕ-Funktion beweisen.
38 1 Zahlen

Für Anwendungen praktischer Art ist allerdings der im Abschnitt 1.4 gege-
bene konstruktive Beweis von größerer Bedeutung, vgl Satz 1.4.23.

Satz 1.3.34 Wenn


 m, n zwei teilerfremde ganze Zahlen sind, dann ist der
durch f [a]mn := [a]m , [a]n gegebene Gruppenhomomorphismus

f : Z/mnZ → Z/mZ × Z/nZ

ein Isomorphismus. Er bildet die Menge (Z/mnZ)∗ ⊂ Z/mnZ bijektiv


auf (Z/mZ)∗ × (Z/nZ)∗ ab. Insbesondere gilt ϕ(mn) = ϕ(m)ϕ(n), falls
ggT(m, n) = 1.


Beweis. Sei g : Z → Z/mZ × Z/nZ der durch g(a) := [a]m , [a]n definierte
Gruppenhomomorphismus. Dann ist

ker(g) = {a ∈ Z | a ≡ 0 mod m und a ≡ 0 mod n} .

Daraus sehen wir mnZ ⊂ ker(g). Es gilt aber auch ker(g) ⊂ mnZ, denn jedes
a ∈ ker(g) ist durch m und n teilbar. Das heißt, es gibt k ∈ Z, so dass a = kn
ist und da ggT(m, n) = 1 folgt dann m | k aus Satz 1.1.7. Damit ist a durch
mn teilbar und somit ker(g) ⊂ mnZ, also schließlich ker(g) = mnZ. Der
Homomorphiesatz besagt dann, dass g einen Isomorphismus ḡ : Z/mnZ →
im(g) induziert. Das zeigt, dass ord(im(ḡ)) = ord (Z/mnZ) = mn gilt. Weil
(Z/mZ)×(Z/nZ) ebenfalls von Ordnung mn ist, muss im(ḡ) = Z/mZ×Z/nZ
gelten, und es folgt, dass f = ḡ ein Isomorphismus ist.
Für die Aussage über (Z/mnZ)∗ wechseln wir von der additiven zur mul-
tiplikativen Struktur von Z/mnZ. Obwohl wir erst im Abschnitt 1.4, bei
der Beschäftigung mit Ringen, Addition und Multiplikation gleichzeitig be-
trachten werden, können wir bereits an dieser Stelle einen direkten Beweis

geben. Wir benutzen dazu, dass für [a] ∈ Z/nZ die Eigenschaft
 [a] ∈ (Z/nZ)

12
zu ggT(a, n) = 1 äquivalent ist . Daher ist f [a]mn = [a]m , [a]n ge-
∗ ∗
nau dann in Z/mZ × Z/nZ enthalten, wenn ggT(a, m) = 1 und
ggT(a, n) = 1 gilt. Für solche a gibt es ganze Zahlen r, s, r′ , s′ , so dass
ra + sn = 1 und r′ a + s′ m = 1. Daraus erhalten wir ram + smn = m und
1 = r′ a + s′ (ram + smn) = (r′ + s′ rm)a + (s′ s)mn.
 Somit ist ggT(a, mn) = 1,
d.h. [a]mn ∈ (Z/mnZ)∗ . Also ist f (Z/mnZ)∗ = (Z/mZ)∗ × (Z/nZ)∗ und
wegen der Injektivität von f folgt die Behauptung. ⊓

Bemerkung 1.3.35. Man kann zeigen, dass jede endliche abelsche Gruppe
isomorph zu einer Gruppe der Gestalt

Z/n1 Z × Z/n2 Z × · · · × Z/nk Z


12 Beispiel 1.3.2 (v), Seite 26
1.3 Gruppen 39

ist. Durch Anwendung von Satz 1.3.34 kann man immer erreichen, dass die
ni Primzahlpotenzen sind.

Zum Abschluss dieses Abschnittes wenden wir uns nochmals der Fehlererken-
nung zu. Wir beginnen mit einer genaueren Analyse der Güte der Prüfzeichen
bei EAN und ISBN, die wir am Ende von Abschnitt 1.2 betrachtet hatten.
Anschließend benutzen wir den in diesem Abschnitt eingeführten Begriff der
Gruppe, um diese Beispiele zu verallgemeinern. Das erlaubt es uns schließlich,
die Prüfgleichung, die bei der Nummerierung ehemaliger deutscher Bankno-
ten verwendet wurde, zu verstehen.
Sowohl EAN als auch P ISBN-13 bestehen aus 13 Ziffern a1 , . . . , a13 , welche
die Prüfgleichung 13 i=1 wi ai ≡ 0 mod 10 erfüllen. Dabei haben wir wi =
2 + (−1)i gesetzt, oder im Klartext
(
1 falls i ungerade,
wi =
3 falls i gerade.

Eine ISBN-10 besteht dagegen aus 10 Zeichen a1 , . . . , a10 , die aus der Menge
{0, 1, . . . , 9, X} sind. Das Symbol X wird als [10] ∈ Z/11Z interpretiert und
P10
ist nur als a10 zugelassen. Die Prüfgleichung lautet i=1 iai ≡ 0 mod 11.
In beiden Situationen finden wir eine Prüfgleichung der Gestalt
k
X
wi ai ≡ c mod n (1.20)
i=1

vor, wobei die ai Repräsentanten von Elementen von Z/nZ sind, die mit
sogenannten Gewichten“ wi ∈ Z zu multiplizieren sind.

Wir können ganz allgemein mit einem endlichen Alphabet starten und
Prüfgleichungen für Worte fester Länge untersuchen. Dazu werden die Ele-
mente des Alphabets nummeriert, wodurch wir eine Bijektion zwischen einem
n Symbole enthaltenden Alphabet und Z/nZ erhalten. Wenn die Wortlänge
gleich k ist, dann wählen wir k Gewichte [wi ] ∈ Z/nZ, i = 1, . . . , k und fi-
xieren ein Element [c] ∈ Z/nZ. In dieser Situation messen wir die Güte der
Prüfgleichung (1.20) durch die Zahl der Fehler, die durch sie erkannt werden.
Bei der manuellen Übermittlung von Daten sind typische Fehler:
Einzelfehler: Genau eines der ai ist falsch.
Transposition: Zwei benachbarte Symbole ai und ai+1 sind vertauscht.
Um festzustellen, ob die Prüfgleichung (1.20) diese Fehler erkennt, nehmen
wir an, das korrekte Wort lautet a1 a2 . . . ak und das möglicherweise fehlerhaft
übermittelte ist b1 b2 . . . bk .
Über das korrekte Wort, welches uns als Empfänger des Wortes b1 b2 . . . bk ja
nicht wirklich bekannt ist, wissen wir lediglich, dass die Prüfgleichung
40 1 Zahlen

k
X
wi ai ≡ c mod n
i=1

Pk
gilt. Als weitere Information können wir die Summe i=1 wi bi berechnen.
Deshalb kennen wir auch die Diskrepanz
k
X k
X
δ := wi (ai − bi ) ≡ c − wi bi mod n .
i=1 i=1

Bei Vorliegen eines Einzelfehlers bzw. einer Transposition heißt das konkret:
Einzelfehler: Wenn nur aj falsch ist, dann ist δ ≡ wj (aj − bj ) mod n;
Transposition: Wenn bj+1 = aj und bj = aj+1 , ansonsten aber alles korrekt
übermittelt wurde, dann ist δ ≡ (wj − wj+1 ) · (aj − aj+1 ) mod n.
Pk
Ein Fehler wird erkannt, wenn die Prüfsumme i=1 wi bi nicht kongruent c
modulo n ist, also genau dann, wenn die Diskrepanz δ von Null verschieden
ist. Das führt auf folgende Bedingungen zur Fehlererkennung:
Einzelfehler: Ein Fehler liegt vor, wenn [aj ] 6= [bj ]. Er wird erkannt, wenn
dies [wj ] · ( [aj ] − [bj ] ) 6= [0] zur Folge hat.
Transposition: Ein Fehler liegt vor, wenn [aj ] 6= [aj+1 ]. Er wird erkannt,
wenn dann auch ( [wj ] − [wj+1 ] )( [aj ] − [aj+1 ] ) 6= [0] gilt.
Um jeden Einzelfehler erkennen zu können, muss [wj ] ein multiplikatives
Inverses besitzen, das heißt [wj ] ∈ (Z/nZ)∗ . Diese Bedingung ist für EAN
und ISBN-10 erfüllt.
Zur Erkennung aller Transpositionen muss [wj ] − [wj+1 ] ∈ (Z/nZ)∗ sein. Bei
der EAN ist jedoch [wj ] − [wj+1 ] = ±[2] 6∈ (Z/10Z)∗ , denn ggT(±2, 10) = 2.
Daher werden Transpositionen zweier Zahlen, deren Differenz fünf ist, durch
die Prüfsumme nicht erkannt. Die Übermittlung von 61 statt 16 bleibt zum
Beispiel unbemerkt. Dagegen wird die fehlerhafte Übermittlung von 26 statt
62 erkannt. Bei der ISBN-10 ist wj = j, also [wj ]− [wj+1 ] = [−1] ∈ (Z/11Z)∗ .
Damit werden in diesem Fall alle Transpositionen erkannt.
Daran sehen wir, dass die Prüfgleichung der inzwischen abgeschafften ISBN-
10 derjenigen der EAN und der neuen ISBN-13 bei der Fehlererkennung
überlegen war. Beim maschinellen Lesen von Strichcodes sind allerdings
Transpositionsfehler von untergeordneter Bedeutung, so dass diese Schwäche
kaum praktische Relevanz haben sollte.
Der Nachteil der Prüfgleichung der ISBN-10 war die Notwendigkeit der
Einführung eines elften Symbols X“. Wenn wir ein Alphabet mit zehn

Symbolen bevorzugen, dann führt uns die geschilderte Methode auf eine

Prüfgleichung in Z/10Z. Da Z/10Z = {±1, ±3}, sind auf diese Weise keine
wesentlichen Verbesserungen der EAN möglich. Um bessere Fehlererkennung
zu erreichen, kann man versuchen, die additive Gruppe Z/10Z durch eine
andere Gruppe zu ersetzen. Man kann zeigen, dass jede Gruppe der Ordnung
10 zu Z/10Z oder D5 isomorph ist.
1.3 Gruppen 41

Doch zunächst sei ganz allgemein (G, ∗) eine Gruppe mit n Elementen und
c ∈ G fixiert. Statt einer Multiplikation mit Gewichten wi erlauben wir nun
beliebige Permutationen σi ∈ sym(G), 1 ≤ i ≤ k. Das führt zur Prüfgleichung

σ1 (a1 ) ∗ σ2 (a2 ) ∗ . . . ∗ σk (ak ) = c .

Zur Vereinfachung der Analyse wählen wir eine einzige Permutation σ ∈


sym(G) und setzen σi := σ i ∈ sym(G) für 1 ≤ i ≤ k. Bei korrektem Wort
a1 . . . ak und empfangenem Wort b1 . . . bk ist dann

c = σ 1 (a1 ) ∗ σ 2 (a2 ) ∗ . . . ∗ σ k (ak ) und e


c = σ 1 (b1 ) ∗ σ 2 (b2 ) ∗ . . . ∗ σ k (bk ) .

c−1 ∈ G. Ein Fehler wird erkannt, wenn δ 6= e.


Die Diskrepanz ist nun δ = c ∗ e

Q
Satz 1.3.36 Eine Prüfgleichung der Form ki=1 σ i (ai ) = c erkennt alle Ein-
zelfehler. Wenn für x 6= y ∈ G stets x ∗ σ(y) 6= y ∗ σ(x) gilt, dann werden
auch alle Transpositionen erkannt.

Beweis. Da δ = σ 1 (a1 )∗σ 2 (a2 )∗. . .∗σ k (ak )∗σ k (bk )−1 ∗. . .∗σ 2 (b2 )−1 ∗σ 1 (b1 )−1 ,
kann ein Einzelfehler an Position j nur dann unerkannt bleiben, wenn e =
σ j (aj ) ∗ σ j (bj )−1 , also σ j (aj ) = σ j (bj ) gilt. Da σ j bijektiv ist, ist das nur
möglich, wenn aj = bj , also überhaupt kein Fehler vorliegt. Damit ist die
Erkennung aller Einzelfehler gesichert.
Wenn an den Positionen i und i + 1 statt (a, b) das Paar (b, a) übermittelt
wurde, dann wird dies durch die Prüfgleichung genau dann erkannt, wenn
σ i (a) ∗ σ i+1 (b) 6= σ i (b) ∗ σ i+1 (a) gilt. Mit x := σ i (a) 6= σ i (b) =: y folgt dies
aus der Voraussetzung x ∗ σ(y) 6= y ∗ σ(x). ⊓

Beispiel 1.3.37. Sei jetzt G = D5 = {1, t, t2 , t3 , t4 , s, st, st2 , st3 , st4 }. Wir
nummerieren die Elemente dieser Gruppe, indem wir jede der Ziffern 0, . . . , 9
in der Form 5i + j schreiben und dann dem Element tj si ∈ D5 zuordnen. Das
führt zu folgender Tabelle
0 1 2 3 4 5 6 7 8 9
1 t t2 t3 t4 s st4 st3 st2 st
Dadurch kann die Permutation
 
0123456789
σ = (0 1 5 8 9 4 2 7) ◦ (3 6) = ∈ S10
1576283094

als Permutation der Elemente der Gruppe D5 aufgefasst werden. Man erhält
x 1 t t2 t3 t4 s st st2 st3 st4
σ(x) t s st3 st4 t2 st2 t4 st 1 t3
Es gilt tatsächlich xσ(y) 6= yσ(x) für x 6= y ∈ D5 , siehe Aufgabe 1.23.
42 1 Zahlen

Die im Beispiel 1.3.37 beschriebene Permutation wurde tatsächlich bei der


Prüfgleichung für die Nummern auf den seit Herbst 1990 ausgegebenen und
bis zur Einführung des Euro-Bargelds zu Beginn des Jahres 2002 in Umlauf
befindlichen DM-Banknoten angewandt.
Die elfstelligen Nummern auf diesen Banknoten hatten an den Stellen 1, 2 und
10 einen Buchstaben statt einer Ziffer. Die Buchstaben entsprachen Ziffern
nach folgendem Schema:
Ziffer 0 1 2 3 4 5 6 7 8 9
Buchstabe A D G K L N S U Y Z
Die benutzte Prüfgleichung lautete
10
Y
a11 σ i (ai ) = 1 .
i=1

Aus Satz 1.3.36 erhalten wir, dass dadurch alle Einzelfehler und Transposi-
tionen erkannt werden konnten. Da an der Position 10 ein Buchstabe und an
Position 11 eine Ziffer verwendet wurde, ist es nicht nötig, den Beweis an die
leicht veränderte Prüfgleichung anzupassen.

Abb. 1.2 Eine ehemalige 10-DM Banknote mit Nummer DS1170279G9 vom 1. 10. 1993

Beispiel 1.3.38. Um festzustellen, ob die Nummer der in Abb. 1.2 abge-


bildeten 10 DM Banknote wirklich die Prüfgleichung erfüllt, gehen wir fol-
gendermaßen vor: Zuerst ersetzen wir D durch 1, S durch 6 und G durch
2. Dann wenden wir die entsprechende Potenz σ i von σ an. Die Rechnung
vereinfacht sich, wenn wir σ 8 = Id benutzen. Schließlich ersetzen wir die so
erhaltenen Ziffern durch ihre entsprechenden Elemente in D5 und bilden de-
ren Produkt. Auf diese Weise erhalten wir Tabelle 1.1. Unter Verwendung
1.3 Gruppen 43

Position i 1 2 3 4 5 6 7 8 9 10 11
Ziffer a 1 6 1 1 7 0 2 7 9 2 9
Potenz von σ σ σ2 σ3 σ4 σ5 σ6 σ7 Id σ σ2 Id
σi (a) 5 6 9 4 9 2 4 7 4 0 9
Element in D5 s st4 st t4 st t2 t4 st3 t4 1 st
Tabelle 1.1 Überprüfung der Nummer einer ehemaligen Banknote

von stk stk= 1 und tst 4 4 2 4 3 4


 = s ergibt sich s · st · st · t · st · t · t · st · t · 1 · st =
4 4 7 7
s st · st t st · st st = 1, die Prüfgleichung ist erfüllt.

Die Verwendung von Prüfziffern erlaubt uns, Einzelfehler zu erkennen. Eine


Korrektur ist in der Regel jedoch nur dann möglich, wenn bekannt ist, an
welcher Stelle der Fehler auftrat. Im Normalfall muss man sich mit der Er-
kenntnis der Fehlerhaftigkeit begnügen. Dies ist in Situationen ausreichend,
in denen die Originalquelle leicht erreichbar ist, wie etwa bei einer fehler-
haft gescannten EAN an der Kasse eines Supermarktes. Im Fall der Bankno-
tennummern genügt die Feststellung der Fehlerhaftigkeit, eine Korrektur ist
nicht nötig.
Bei der Übertragung von Daten innerhalb von oder zwischen Computern
über ein Netzwerk ist eine Fehlerkorrektur jedoch nötig und erwünscht. Wir
befassen uns mit fehlerkorrigierenden Codes im Abschnitt 2.5.
Wir wollen schließlich durch ein letztes Beispiel zeigen, wie ein in den achtzi-
ger Jahren des letzten Jahrhunderts weltweit verbreitetes Spielzeug der Ma-
thematik ernsthafte Probleme stellen kann. Im Jahr 1975 ließ der ungarische
Professor für Architektur Erno Rubik den sogenannten Zauberwürfel (Abb.
1.3) patentieren. Von diesem Würfel wurden mehr als 100 Millionen Exem-
plare verkauft. Noch heute kann man ihn in den Geschäften finden.

Abb. 1.3 Der Rubik-Würfel


44 1 Zahlen

Der Würfel besteht aus 26 zusammenhängenden kleinen farbigen Würfeln,


die sich schichtweise in einer Ebene gegeneinander drehen lassen. Dadurch
werden die einzelnen Würfel umgeordnet.
Bei den kleinen Würfeln gibt es 8 Ecksteine, deren 3 Außenflächen mit 3 ver-
schiedenen Farben versehen sind. Es gibt 12 Kantensteine mit 2 verschiedenen
Farben und 6 Mittelsteine, die jeweils eine der Farben blau, rot, gelb, grün,
braun und weiß haben. Die kleinen Würfel sind so gefärbt, dass der Würfel in
einer Stellung (Grundstellung) auf jeder Seite eine einheitliche Farbe besitzt.
Mathematisch gesehen kann der Würfel als Permutationsgruppe W aufgefasst
werden. Auf den 6 Seiten des Würfels gibt es durch die Unterteilung in die
kleinen Würfel je 9 farbige Quadrate (insgesamt 54). Die 6 Quadrate der
Mittelsteine gehen bei den Drehungen des Würfels in sich über, so dass man
das Verdrehen des Würfels als Permutation der 48 ( beweglichen“) Quadrate

auffassen kann. Das ergibt eine Untergruppe der Permutationsgruppe S48 . Sie
1
hat die Ordnung 12 ·8!·38 ·12!·212 ≈ 4,3 ·1019 . Diese Untergruppe wird durch
6 Permutationen V, H, R, L, O, U erzeugt, die den Drehungen der 6 Seiten
(Vorderseite, Hinterseite, rechte Seite, linke Seite, obere Seite, untere Seite)
um 90 Grad entsprechen. Sei B0 = {V, H, R, L, O, U }, dann ist W = hB0 i.
Oft versteht man unter einer einzelnen Drehung auch die Drehung einer Seite
um 180 oder 270 Grad. Daher setzen wir B = {Dk | D ∈ B0 , k = 1, 2, 3}.
Wenn man den Würfel als Spielzeug benutzt, kommt es darauf an, ihn aus ei-
ner beliebig verdrehten Stellung in möglichst kurzer Zeit in die Grundstellung
zurückzudrehen. Das ist gar nicht so einfach. Es gab regelrechte Wettbewerbe
und die Besten schafften das durchschnittlich in weniger als einer Minute. Der
Weg zur Grundstellung ist natürlich nicht eindeutig bestimmt. Mathematisch
stellt sich die Frage nach der folgenden Schranke:

M := min{k | ∀σ ∈ W ∃σ1 , . . . , σk ∈ B, so dass σ = σ1 ◦ . . . ◦ σk } ,

d.h. M ist die kleinstmögliche Zahl, für die sich der Würfel aus jeder belie-
bigen Stellung mit höchstens M Drehungen wieder in Grundstellung bringen
lässt. Anfang der achtziger Jahre wurde gezeigt, dass 18 ≤ M ≤ 52 ist. Bis
heute ist die Zahl M nicht bekannt. Man weiß jetzt, dass 20 ≤ M ≤ 22 gilt.
Dieses Ergebnis geht auf Tomas Rokicki (USA) zurück, der das Problem auf
aufwändige Rechnungen mit Nebenklassen einer geeigneten Untergruppe von
W zurückführte, die er dann von Computern durchführen ließ, siehe [Rok].

Aufgaben

Übung 1.13. Zeigen Sie, dass die durch f (x, y) := x − y gegebene Abbil-
dung f : Z × Z → Z ein Gruppenhomomorphismus bezüglich der additiven
Gruppenstruktur (vgl. Bsp. 1.3.2 (vi)) ist. Bestimmen Sie ker(f ) und im(f ).
1.3 Gruppen 45

Übung 1.14. Bestimmen Sie die Ordnung von jedem der sechs Elemente der
symmetrischen Gruppe S3 .

Übung 1.15. Zeigen Sie: ord([a]) = n/ ggT(a, n) für [0] 6= [a] ∈ (Z/nZ, +).

Übung 1.16. (a) Welche der Gruppen D5 , S3 , Z/5Z, (Z/5Z) ist zyklisch?
(b) Beweisen Sie, dass jede endliche Gruppe, deren Ordnung eine Primzahl
ist, eine zyklische Gruppe ist.

Übung 1.17. Zeigen Sie, dass die durch g([a]) := [7a ] definierte Abbildung

g : Z/16Z → (Z/17Z) ein Isomorphismus von Gruppen ist.

Übung 1.18. Sei f : G → H ein Gruppenisomorphismus. Beweisen Sie, dass


für jedes Element a ∈ G stets ord(a) = ord(f (a)) gilt. Gilt dies auch für
beliebige Gruppenhomomorphismen?

Übung 1.19. Beweisen Sie, dass es keinen Isomorphismus zwischen den


Gruppen Z/4Z und Z/2Z × Z/2Z gibt. Gibt es einen Isomorphismus zwi-
schen Z/6Z und Z/2Z × Z/3Z?

Übung 1.20. Sei (G, ∗) eine Gruppe und g ∈ G irgendein Element. Beweisen
Sie, dass die durch K(x) = g ∗ x ∗ g −1 gegebene Abbildung K : G → G ein
Isomorphismus von Gruppen ist.

Übung 1.21. Sei U ⊂ G eine Untergruppe einer endlichen Gruppe G, so


dass ord(G) = 2 ord(U ). Zeigen Sie, dass U ⊂ G ein Normalteiler ist.

Übung 1.22. Geben Sie sämtliche Untergruppen der symmetrischen Gruppe


S3 an, und bestimmen Sie diejenigen unter ihnen, die Normalteiler sind.

Übung 1.23. Zeigen Sie, dass die im Beispiel 1.3.37 angegebene Permutation
σ tatsächlich die im Satz 1.3.36 für die Erkennung von Transpositionsfehlern
angegebene Bedingung erfüllt.

Übung 1.24. Überprüfen Sie, ob GL0769947G2 eine gültige Nummer für


eine ehemalige DM-Banknote sein könnte.

Übung 1.25. Bestimmen Sie die fehlende letzte Ziffer der Nummer einer
ehemaligen DM-Banknote DY3333333Z?.

Übung 1.26. Sei (G, ∗) eine Gruppe mit neutralem Element e ∈ G. Wir
nehmen an, dass für jedes a ∈ G die Gleichung a ∗ a = e gilt. Beweisen Sie,
dass G eine abelsche Gruppe ist.
46 1 Zahlen

1.4 Ringe und Körper

In den Abschnitten 1.2 und 1.3 wurde die Methode der Abstraktion anhand
des konkreten Beispiels der Restklassen ganzer Zahlen und des allgemeinen
Begriffes der Gruppe illustriert. Ein Vergleich der Gruppenaxiome (Def. 1.3.1)
mit der Liste der Eigenschaften ganzer Zahlen im Abschnitt 1.1 zeigt jedoch,
dass der Gruppenbegriff nicht alle Aspekte des Rechnens mit ganzen Zahlen
reflektiert. Wir benötigen eine mathematische Struktur mit zwei Rechen-
operationen: einer Addition und einer Multiplikation. Das führt uns zu den
Begriffen Ring und Körper. Diese Begriffe umfassen sowohl die uns vertrau-
ten Zahlbereiche als auch Polynomringe. Letztere besitzen verblüffend große
strukturelle Ähnlichkeit zum Ring der ganzen Zahlen.
Als Anwendung werden wir im folgenden Abschnitt 1.5 erste Schritte in der
Kryptographie unternehmen.

Definition 1.4.1. Eine nichtleere Menge K, auf der zwei Verknüpfungen + :


K × K → K und · : K × K → K gegeben sind, heißt Körper , wenn

(K, +) eine abelsche Gruppe mit neutralem Element 0 ∈ K ist, (1.21)


∗ ∗
(K , · ) eine abelsche Gruppe ist, wobei K := K r {0}, und das (1.22)
Distributivgesetz gilt: ∀ a, b, c ∈ K : a · (b + c) = a · b + a · c. (1.23)

Beispiel 1.4.2. (i) R, Q sind Körper, aber Z ist kein Körper.


(ii) (Z/pZ, +, ·) ist ein Körper, falls p eine Primzahl ist. Um ihn von der
additiven Gruppe Z/pZ zu unterscheiden, wird er mit Fp bezeichnet.

In jedem Körper K bezeichnet 1 ∈ K ∗ das neutrale Element der multiplika-


tiven Gruppe (K ∗ , · ). Da 0 6∈ K ∗ , muss stets 0 6= 1 gelten.
Mit den gleichen Beweisen wie zu Beginn von Abschnitt 1.1 erhält man fol-
gende Aussagen in einem beliebigen Körper K:

Für alle a ∈ K gilt 0 · a = 0. (1.24)


Aus a · b = 0 folgt a = 0 oder b = 0. (1.25)
Für a, b ∈ K gilt a · (−b) = −(a · b) und (−a) · (−b) = a · b. (1.26)

Wenn n keine Primzahl ist, dann ist Z/nZ kein Körper, denn die Eigenschaft
(1.25) ist für zusammengesetztes n verletzt. Zum Beispiel gilt [2] · [3] = [0] in
Z/6Z. Echte Teiler von n haben kein multiplikatives Inverses modulo n und
somit ist (Z/nZ) r {[0]} keine Gruppe bezüglich der Multiplikation. Daher
ist es notwendig, den etwas allgemeineren Begriff des Ringes einzuführen.

Definition 1.4.3. Eine Menge R, auf der zwei Verknüpfungen + : R×R → R


und · : R × R → R gegeben sind, heißt kommutativer Ring mit Eins, wenn
folgende Bedingungen erfüllt sind:
1.4 Ringe und Körper 47

(R, +) ist eine abelsche Gruppe mit neutralem Element 0 ∈ R. (1.27)


Die Multiplikation in R ist assoziativ, kommutativ und
(1.28)
es gibt ein neutrales Element 1 ∈ R.
Das Distributivgesetz gilt. (1.29)

Wenn im Folgenden von einem Ring die Rede ist, dann meinen wir stets einen
kommutativen Ring mit Eins. In anderen Lehrbüchern wird bei dem Begriff
des Ringes mitunter in (1.28) auf die Kommutativität der Multiplikation oder
auf die Existenz eines neutralen Elements
 1 ∈ R verzichtet.
Die Menge aller 2×2-Matrizen ac db mit ganzzahligen Einträgen a, b, c, d ∈ Z
bilden einen Ring bezüglich der gewöhnlichen Addition von Matrizen und der
Matrizenmultiplikation (Def. 2.2.22) als Produkt. Die Einheitsmatrix ( 10 01 )
ist das Einselement dieses Ringes und die Matrix, deren Einträge sämtlich
gleich Null sind, ist das Nullelement dieses Ringes. Da
           
01 00 10 00 00 01
◦ = 6= = ◦ ,
00 10 00 01 10 00

ist dieser Ring nicht kommutativ. Er wird also in diesem Buch nicht weiter
auftauchen.
Der einzige Unterschied zwischen den Definitionen der Begriffe Ring und
Körper ist, dass für einen Ring nicht gefordert wird, dass zu jedem r ∈ R mit
r 6= 0 ein multiplikatives Inverses existiert. Allerdings ist deshalb in einem
Ring nicht mehr automatisch 1 6= 0. Wenn jedoch in einem Ring 0 = 1 gilt,
dann sind alle Elemente dieses Ringes gleich 0. Mit anderen Worten: Der
einzige Ring, in dem 0 = 1 ist, ist der Nullring R = {0}. In jedem anderen
Ring gilt 1 6= 0. In allen Ringen gelten weiterhin (1.24) und (1.26). Die
Aussage (1.25) gilt in allgemeinen Ringen jedoch nicht.

Beispiel 1.4.4. (i) Jeder Körper, insbesondere R und Q, aber auch die
Menge der ganzen Zahlen Z sind Ringe.
(ii) Für jedes n ∈ Z ist Z/nZ ein Ring.
(iii) Wenn R und R′ Ringe sind, dann ist das kartesische Produkt R × R′ mit
den Verknüpfungen

(r, r′ ) + (s, s′ ) := (r + s, r′ + s′ )
(r, r′ ) · (s, s′ ) := (r · s, r′ · s′ )

ebenfalls ein Ring. Selbst wenn R und R′ Körper sind, ist R × R′ kein
Körper. Das liegt daran, dass stets (1, 0) · (0, 1) = (0, 0) = 0 gilt.

Beispiel 1.4.5 (Polynomringe). Sei R ein Ring. Dann definieren wir den
Polynomring R[X] wie folgt. Die zugrunde liegende Menge enthält alle Poly-
nome in der Unbestimmten X mit Koeffizienten aus dem Ring R:
48 1 Zahlen
( )
n
X

R[X] = ai X i n ≥ 0, ai ∈ R .

i=0

Ein Polynom ist somit ein formaler Ausdruck, in dem die Unbestimmte“ X

auftritt. Zwei solche Ausdrücke sind genau dann gleich, wenn ihre Koeffizien-
ten ai übereinstimmen. Polynome sind nicht dasselbe wie Polynomfunktio-
nen, die man durch das Einsetzen von Elementen x ∈ K für X aus Polynomen
erhält, vgl. Aufgabe 1.35. Die Addition ist komponentenweise definiert:

n m max(m,n)
X X X
ai X i + bj X j := (ai + bi )X i
i=0 j=0 i=0

wobei wir ai = 0 für i > n und bj = 0 für j > m setzen.


Die Multiplikation ist so definiert, dass aX i · bX j = (a · b)X i+j ist und das
Distributivgesetz gilt. Ausführlicher bedeutet das:

n
! m 
n+m k
!
X X X X
ai X i ·  bj X j  = ai bk−i X k .
i=0 j=0 k=0 i=0

Konkret erhalten wir für X 2 +1, 2X−3 ∈ Z[X] folgende Summe und Produkt:

(X 2 + 1) · (2X − 3) = 2X 3 − 3X 2 + 2X − 3, sowie
(X 2 + 1) + (2X − 3) = X 2 + 2X − 2 .

Jedem Polynom ist sein Grad zuordnet. Wenn


n
X
f= ai X i = a0 + a1 X + a2 X 2 + . . . + an−1 X n−1 + an X n
i=0

und an 6= 0, dann heißt deg(f ) := n der Grad des Polynoms f . Es ist


zweckmäßig dem Nullpolynom den Grad −∞ zuzuordnen. Wenn deg(f ) = n,
dann nennen wir an den Leitkoeffizienten von f und an X n den Leitterm des
Polynoms f .
Definition 1.4.6. (1) Sei R ein Ring und R′ ⊂ R eine Teilmenge, so dass R′
Untergruppe bezüglich der Addition ist, 1 ∈ R′ und für a, b ∈ R′ stets
a · b ∈ R′ gilt. Dann heißt R′ Unterring von R.
(2) Ein Unterring L ⊂ K eines Körpers K heißt Teilkörper , wenn für jedes
0 6= a ∈ L auch a−1 ∈ L ist.
(3) Eine Abbildung f : R → R′ zwischen zwei Ringen R und R′ heißt Ring-
homomorphismus, falls f (1) = 1 ist und f (a + b) = f (a) + f (b) und
f (a · b) = f (a) · f (b) für alle a, b ∈ R gilt. Wenn R und R′ Körper sind,
dann spricht man auch von einem Körperhomomorphismus.
Beispiel 1.4.7. (i) Z ⊂ Q ⊂ R sind Unterringe, Q ⊂ R ist Teilkörper.
1.4 Ringe und Körper 49

(ii) R ⊂ R[X] ist Unterring.


(iii) Für fixiertes a ∈ R ist die durch fa (h) := h(a) definierte
Pn Abbildung
i
fa : R[X] → Pn R ein Ringhomomorphismus. Wenn h = i=0 ai X , dann
i
ist h(a) := i=0 ai a ∈ R. Wir nennen fa den Einsetzungshomomorphis-
mus.
(iv) f : Z → Z/nZ mit f (a) := [a] ist ein Ringhomomorphismus.
(v) Z[X] ⊂ Q[X] ist ein Unterring.
(vi) Die Abbildung Z[X] → (Z/nZ)[X], bei der jeder Koeffizient durch seine
Restklasse ersetzt wird, ist ein Ringhomomorphismus. Allgemeiner ist
für jeden Ringhomomorphismus f : R → R′ ein Ringhomomorphismus
R[X] → R′ [X] definiert, indem f auf die Koeffizienten angewendet wird.

Der Polynomring K[X] über einem Körper K weist viel Ähnlichkeit mit dem
in Abschnitt 1.1 studierten Ring der ganzen Zahlen auf. Die Ursache dafür
besteht im Vorhandensein eines Euklidischen Algorithmus für Polynome, der
auf der folgenden Division mit Rest basiert.

Satz 1.4.8 Zu gegebenen Polynomen f, g ∈ K[X] mit deg(f ) ≥ deg(g) gibt


es ein h ∈ K[X], so dass deg(f − gh) < deg(g) gilt.

Beweis. Der Beweis erfolgt per Induktion über k := deg(f )− deg(g) ≥ 0. Der
Induktionsanfang (k = 0) und der Induktionsschritt (Schluss von k auf k + 1)
ergeben sich aus der folgenden Überlegung, bei der k ≥ 0 beliebig ist. Sei
f = aX n+k + . . . und g = bX n + . . ., wobei nur die Terme höchsten Grades
(Leitterme) aufgeschrieben sind. Die Leitkoeffizienten sind a 6= 0 und b 6= 0.
Es gilt also deg(f ) = n + k und deg(g) = n. Dann ist
 
deg f − ab · X k · g < n + k = deg(f ),

denn der Leitterm von f wird durch Subtraktion von ab X k g entfernt. ⊓ ⊔

Beispiel 1.4.9. (i) Sei f = X 3 + 1 und g = X − 1. Die Leitterme von f


und g sind X 3 bzw. X. Daher müssen wir g mit X 2 multiplizieren. Wir
erhalten f − X 2 g = X 3 + 1 − X 2 (X − 1) = X 2 + 1. Da dies vom Grad
2 > deg(g) ist, müssen wir fortfahren und nun Xg subtrahieren. Der
Faktor X ergibt sich wieder als Quotient der Leitterme. Damit erhalten
wir f −(X 2 +X)g = X 2 +1−X(X −1) = X +1. Dieses Ergebnis hat Grad
1 ≥ deg(g) und somit ist ein weiterer Schritt notwendig. Wir subtrahieren
nun g und erhalten schließlich f − (X 2 + X + 1)g = X + 1 − (X − 1) = 2.
(ii) Sei f = X 3 − 3X 2 + 2X und g = X 2 − 1. Die Leitterme sind hier X 3 und
X 2 , daher subtrahieren wir zunächst Xg von f und erhalten f − Xg =
−3X 2 +3X. Nun ist 3g zu addieren und wir erhalten f −(X−3)g = 3X−3.
50 1 Zahlen

Der Euklidische Algorithmus in Polynomringen

Als Eingabedaten seien zwei Polynome f, g ∈ K[X] mit deg(f ) ≥ deg(g)


gegeben. Am Ende wird ggT(f, g) ausgegeben.
Jeder Schritt des Algorithmus besteht aus einer Division mit Rest, gefolgt von
einem Test, in dem entschieden wird, ob das Ende bereits erreicht wurde. Um
die Division mit Rest stets ausführen zu können, setzen wir voraus, dass K
ein Körper ist.
Initialisierung: A := f , B := g
Division: Bestimme N ∈ K[X], so dass deg(A − N · B) < deg(B).
C := A − N · B ist der Rest von A bei Division durch B.
Test: Wenn C = 0, dann Ausgabe von ggT(a, b) := B und stopp.
Wenn C 6= 0, dann Division mit Rest für A := B, B := C.
Der Ausgabewert ist, bis auf die Normierung des Leitkoeffizienten, der größte
gemeinsame Teiler von f und g. Die Definition des Begriffes größter gemein-
samer Teiler lässt sich fast wörtlich aus Z auf Polynomringe übertragen.
Der wesentliche Unterschied besteht darin, dass wir die Normierung d > 0“

durch Leitkoeffizient ist gleich 1“ zu ersetzen haben. Wie bereits in Ab-

schnitt 1.1 beginnen wir mit den Definitionen der Begriffe Teilbarkeit und
größter gemeinsamer Teiler.
Definition 1.4.10. Ein Element b eines Ringes R heißt Teiler des Elements
a ∈ R, falls es ein c ∈ R gibt, so dass b · c = a gilt. Wir schreiben dann b | a.
Definition 1.4.11. Seien f, g ∈ K[X] von Null verschiedene Polynome. Ein
Polynom d ∈ K[X] heißt genau dann größter gemeinsamer Teiler von f und
g, wenn die folgenden drei Bedingungen erfüllt sind:
(i) (Normierung) Der Leitkoeffizient von d ist gleich 1.
(ii) (gemeinsamer Teiler) d | f und d | g.
(iii) (Maximalität) ∀ c ∈ K[X]: Wenn c | f und c | g, dann gilt c | d.
Beispiel 1.4.12. (i) Wir bestimmen den größten gemeinsamen Teiler von

f = X 4 − 1 und g = X 3 − 1 .

Es sind zwei Divisionen mit Rest durchzuführen:

(X 4 − 1) − X · (X 3 − 1) = X − 1
(X 3 − 1) − (X 2 + X + 1)(X − 1) = 0 .

Das ergibt: ggT(X 4 − 1, X 3 − 1) = X − 1.


(ii) Für f = X 3 − 3X 2 + 2X und g = X 2 − 1 erhalten wir

f − (X − 3)g = 3X − 3 und
1
(X 2 − 1) − (X + 1)(3X − 3) = 0 .
3
1.4 Ringe und Körper 51

Damit ist ggT(X 3 − 3X 2 + 2X, X 2 − 1) = X − 1, denn das Polynom


3X − 3 ist noch durch 3 zu teilen, um den Leitkoeffizienten zu normieren.

Der Beweis, dass dieser Algorithmus stets nach endlich vielen Schritten endet
und tatsächlich den größten gemeinsamen Teiler berechnet, ist fast wörtlich
derselbe wie für den Euklidischen Algorithmus in Z. Daher wird er hier weg-
gelassen. Alle Eigenschaften der ganzen Zahlen, die mit Hilfe des Euklidischen
Algorithmus bewiesen wurden, lassen sich auch für Polynomringe K[X] mit
Koeffizienten in einem Körper K beweisen. Die Beweise übertragen sich aus
Abschnitt 1.1 fast wörtlich.

Satz 1.4.13 (1) Für f, g, h ∈ K[X] gilt genau dann h = ggT(f, g), wenn es
Polynome r, s ∈ K[X] gibt, so dass h = rf + sg und wenn jedes andere
Polynom dieser Gestalt durch h teilbar ist.
(2) Wenn f, g, h ∈ K[X] Polynome sind, für die ggT(f, h) = 1 und f | g · h
gilt, dann folgt f | g.
(3) Ein Polynom f heißt irreduzibel, wenn aus f = g · h stets g ∈ K oder
h ∈ K folgt. Dies ist äquivalent dazu, dass aus f | gh stets f | g oder
f | h folgt.
(4) Jedes Polynom 0 6= f ∈ K[X] hat eine, bis auf die Reihenfolge eindeutige,
Darstellung f = u·p1 ·p2 ·. . .·pk , wobei u ∈ K ∗ und pi ∈ K[X] irreduzible
Polynome mit Leitkoeffizient 1 sind.

Da der Ring K[X] in seiner Struktur dem Ring Z so sehr ähnlich ist, entsteht
die Frage, ob es auch für Polynomringe möglich ist, auf Restklassenmengen
in ähnlicher Weise wie auf Z/nZ eine Ringstruktur zu definieren. Das führt
allgemeiner auf die Frage, für welche Teilmengen I ⊂ R eines beliebigen
Ringes R sich die beiden Rechenoperationen + und · auf R/I vererben. Dafür
ist nicht ausreichend, dass Summen und Produkte von Elementen aus I stets
in I sind. Eine Analyse des Wohldefiniertheitsproblems führt auf die folgende
Definition.

Definition 1.4.14. Sei R ein Ring und I ⊂ R eine nichtleere Teilmenge. Wir
nennen I ein Ideal 13 , falls die folgenden beiden Bedingungen erfüllt sind:

Für alle a, b ∈ I gilt a + b ∈ I. (1.30)


Für alle r ∈ R und a ∈ I gilt r · a ∈ I. (1.31)

Aus (1.30) und (1.31) folgt, dass I ⊂ R ist eine Untergruppe bezüglich der
Addition ist.
13 Der deutsche Mathematiker Richard Dedekind (1831–1916) führte den Begriff des

Ideals ein, um für bestimmte Erweiterungen des Ringes der ganzen Zahlen eine Verallge-
meinerung der in der Formulierung von Satz 1.1.8 dort nicht mehr gültigen eindeutigen
Primfaktorzerlegung zu erhalten.
52 1 Zahlen

Beispiel 1.4.15. (i) Die Ideale in Z sind genau die Teilmengen nZ ⊂ Z.


Jede Untergruppe von (Z, +) ist nach Satz 1.3.18 von der Gestalt nZ.
Da für r ∈ Z und a = ns ∈ nZ stets r · a = nrs ∈ nZ gilt, sind die
Mengen nZ tatsächlich Ideale.
(ii) Wenn a1 , . . . , ak ∈ R beliebige Elemente sind, dann ist
( k )
X

ha1 , . . . , ak i := ri ai ri ∈ R ⊂ R

i=1

ein Ideal. Für k = 1 erhalten wir hai = a · R = {ra | r ∈ R}. Dies verall-
gemeinert die Ideale nZ ⊂ Z. Ideale der Gestalt hai heißen Hauptideale.
(iii) Stets ist h1i = R ein Ideal. Es ist das einzige Ideal, das ein Unterring ist.

Satz 1.4.16 Sei R ein Ring, I ⊂ R ein Ideal. Dann wird auf der additiven
Gruppe R/I durch [a] · [b] := [a · b] die Struktur eines Ringes definiert.

Beweis. Um die Wohldefiniertheit der Multiplikation einzusehen, starten wir


mit r, s ∈ I und betrachten a′ = a + r, b′ = b + s. Dann ist a′ · b′ =
(a+ r)·(b + s) = ab + as+ rb + rs. Wegen (1.30) und (1.31) ist as+ br + rs ∈ I.
Das heißt [a′ b′ ] = [ab], die Multiplikation auf R/I ist also wohldefiniert. Die
Ringeigenschaften übertragen sich nun leicht. ⊓

Satz 1.4.17 Wenn K ein Körper ist, dann ist K[X] ein Hauptidealring.
Das heißt, für jedes Ideal I ⊂ K[X] gibt es ein f ∈ K[X], so dass I = hf i.

Beweis. Der Beweis ist analog zum Beweis von Satz 1.3.18. Sei I ⊂ K[X] ein
Ideal. Wenn I = {0}, dann können wir f = 0 wählen und sind fertig. Sei von
nun an I 6= {0}. Da für g 6= 0 der Grad deg(g) ≥ 0 stets eine nicht-negative
ganze Zahl ist, gibt es mindestens ein Element f ∈ I von minimalem Grad.
Das heißt, für jedes 0 6= g ∈ I ist deg(f ) ≤ deg(g). Jedes 0 6= g ∈ I lässt
sich als g = r + h · f mit r, h ∈ K[X] schreiben, so dass deg(r) < deg(f )
(Division mit Rest). Da I ein Ideal ist, muss r = g − hf ∈ I sein. Wegen der
Minimalität des Grades von f folgt r = g − hf = 0, d.h. g ∈ hf i und somit
I = hf i. ⊓

Definition 1.4.18. (1) Ein Element a ∈ R eines Ringes R heißt Nullteiler,
wenn ein 0 6= b ∈ R mit a · b = 0 existiert.
(2) Ein Element a ∈ R heißt Einheit, wenn ein b ∈ R mit a · b = 1 existiert.
(3) Ein Ring R heißt nullteilerfrei, wenn 0 ∈ R der einzige Nullteiler ist.
Bei der Benutzung dieser Begriffe ist Vorsicht geboten, denn für jedes a ∈
R gilt a | 0, auch wenn a kein Nullteiler ist. Ein Ring R ist genau dann
nullteilerfrei, wenn aus a · b = 0 stets a = 0 oder b = 0 folgt. Das heißt, dass
1.4 Ringe und Körper 53

wir in nullteilerfreien Ringen wie gewohnt kürzen können: Falls c 6= 0, dann


folgt aus a · c = b · c in nullteilerfreien Ringen a = b. In einem Ring, der echte
Nullteiler hat, kann man so nicht schließen.

Beispiel 1.4.19. (i) Die Einheiten eines Ringes sind genau die Elemente,
die ein multiplikatives Inverses besitzen. Daher ist die Menge aller Ein-
heiten
R∗ := {a ∈ R | a ist Einheit in R}
eine multiplikative Gruppe.
Es gilt (Z/nZ)∗ = {[a] ∈ Z/nZ | ggT(a, n) = 1}. Für jeden Körper K ist
K ∗ = K r {0}. Ein Ring R ist genau dann Körper, wenn R∗ = R r {0}.
(ii) Wenn n ≥ 2, dann ist in Z/nZ jedes Element entweder Nullteiler oder
Einheit (vgl. Aufg. 1.32), denn

[a] ∈ Z/nZ ist Nullteiler ⇐⇒ ggT(a, n) 6= 1 , (1.32)


[a] ∈ Z/nZ ist Einheit ⇐⇒ ggT(a, n) = 1 . (1.33)

(iii) Der einzige Nullteiler in Z ist 0, also ist Z nullteilerfrei. Außerdem gilt
Z∗ = {1, −1}. In dem Ring Z ist somit jedes von 0, 1 und −1 verschiedene
Element weder Nullteiler, noch Einheit.
(iv) Für beliebige Ringe R, S gilt (R × S)∗ = R∗ × S ∗ .

Beispiel 1.4.20 (Komplexe Zahlen). Der Körper C der komplexen Zahlen


spielt eine wichtige Rolle bei der Lösung nichtlinearer Gleichungen. Das liegt
daran, dass der Prozess des Lösens von Polynomgleichungen in C – zumindest
theoretisch – immer erfolgreich abgeschlossen werden kann, wogegen dies in
den kleineren Körpern Q und R nicht immer möglich ist. Als Prototyp einer
solchen Polynomgleichung dient X 2 + 1 = 0. Obwohl die Koeffizienten dieser
Gleichung aus Q sind, hat sie weder in Q noch in R eine Lösung. Die beiden
Lösungen dieser Gleichung sind erst in C zu finden.
Die additive Gruppe von C ist die Menge R × R aller Paare reeller Zahlen.
Die Addition ist komponentenweise definiert und die Multiplikation ist durch
die folgende Formel gegeben

(a, b) · (a′ , b′ ) := (aa′ − bb′ , ab′ + ba′ ) .

Man sieht leicht ein, dass 0 = (0, 0) und 1 = (1, 0) gilt, womit man die in der
Definition eines Körpers geforderten Eigenschaften leicht nachrechnen kann.
Der interessanteste Teil dieser recht ermüdenden Rechnungen ist die Angabe
eines multiplikativen Inversen für (a, b) 6= (0, 0):
 
a −b
(a, b)−1 = , .
a2 + b 2 a2 + b 2

Zur Vereinfachung ist es üblich i = (0, 1) zu schreiben. Statt (a, b) wird dann
a + bi geschrieben. Dadurch lässt sich die oben angegebene Definition der
54 1 Zahlen

Multiplikation durch die Gleichung i2 = −1 charakterisieren. Die vollständige


Formel ergibt sich damit
√ aus dem Distributivgesetz. Der Betrag einer komple-
xen Zahl |a+bi| = a2 + b2 ist der Abstand des Punktes (a, b) vom Ursprung
(0, 0) in der reellen Ebene.
Durch die Abbildung x 7→ (x, 0) wird R ⊂ C Teilkörper. Dies wird durch die
Schreibweise (x, 0) = x + 0 · i = x direkt berücksichtigt. Hier ein Rechenbei-
spiel:

2 + 3i (2 + 3i)(1 + i) 2 + 2i + 3i − 3 −1 + 5i 1 5
= = = =− + i.
1−i (1 − i)(1 + i) 1+1 2 2 2

Die graphische Darstellung14 der komplexen Zahlen in der reellen Ebene und
die geometrische Interpretation der Addition und Multiplikation (Abb. 1.4)
sind nützliche Hilfsmittel. Dadurch lässt sich die algebraische Struktur, die
wir dadurch auf den Punkten der reellen Ebene erhalten, zur Lösung von
Problemen der ebenen Geometrie anwenden.

• z1 + z2 •z1 · z2

z2 •

z2 r2 z1

• z1 z1

0 1 r2 = |z2 |

Abb. 1.4 Addition und Multiplikation komplexer Zahlen

Die wichtigste Eigenschaft des Körpers C ist im folgenden Satz festgehalten,


den wir hier ohne Beweis angeben.

Satz 1.4.21 (Fundamentalsatz der Algebra) Jedes von Null verschie-


dene Polynom f ∈ C[X] lässt sich als Produkt linearer Polynome schreiben:

14 Die früheste, heute bekannte Publikation der Idee, komplexe Zahlen durch Punkte einer

Ebene zu repräsentieren, erschien im Jahre 1799. Sie stammt von dem norwegisch-dänischen
Mathematiker Caspar Wessel (1745–1818), blieb aber damals weitgehend unbemerkt.
Zum Allgemeingut wurde diese Idee durch ein kleines Büchlein, welches im Jahre 1806 vom
Schweizer Buchhalter und Amateurmathematiker Jean-Robert Argand (1768–1822) in
Paris veröffentlicht wurde. In der englischsprachigen Literatur spricht man daher von der
Argand Plane, in der französischen dagegen manchmal von der plan de Cauchy. Der deut-
sche Mathematiker Carl Friedrich Gauß (1777–1855) trug durch eine Publikation im
Jahre 1831 zur Popularisierung dieser Idee bei. Daher spricht man in der deutschsprachigen
Literatur von der Gaußschen Zahlenebene.
1.4 Ringe und Körper 55

f = c · (X − a1 ) · (X − a2 ) · . . . · (X − an ) .

Dabei ist c ∈ C∗ der Leitkoeffizient, n = deg(f ) der Grad und die ai ∈ C sind
die Nullstellen von f .

Eine komplexe Zahl a ∈ C ist genau dann Nullstelle von f , wenn f (a) = 0 gilt.
Jedes Polynom f ∈ C[X] von positivem Grad hat mindestens eine Nullstelle
in C. Für Teilkörper von C ist dies nicht der Fall.
Bevor wir uns den versprochenen Anwendungen der bisher entwickelten Theo-
rie zuwenden können, müssen noch zwei sehr nützliche Werkzeuge behandelt
werden. Es handelt sich um den Homomorphiesatz und um den Chinesischen
Restsatz.

Satz 1.4.22 (Homomorphiesatz für Ringe) Sei ϕ : R → R′ ein Ring-


homomorphismus. Dann
 ist ker(ϕ) ⊂ R ein Ideal, im(ϕ) ⊂ R′ ein Unterring
und die durch ϕ [r] := ϕ(r) definierte Abbildung

ϕ : R/ ker(ϕ) → im(ϕ)

ist ein Isomorphismus von Ringen.

Beweis. Um zu sehen, dass ker(ϕ) ⊂ R ein Ideal ist, betrachten wir a, b ∈


ker(ϕ). Das heißt ϕ(a) = ϕ(b) = 0 und somit ϕ(a + b) = ϕ(a) + ϕ(b) = 0, also
a + b ∈ ker(ϕ). Wenn a ∈ ker(ϕ) und r ∈ R, dann ist ϕ(ra) = ϕ(r) · ϕ(a) = 0
und es ergibt sich ra ∈ ker(ϕ). Daher ist ker(ϕ) ⊂ R ein Ideal.
Nun zeigen wir, dass im(ϕ) ⊂ R′ ein Unterring ist. Nach Satz 1.3.30 ist
im(ϕ) ⊂ R′ eine additive Untergruppe. Aus ϕ(1) = 1 folgt 1 ∈ im(ϕ). Da
sich aus ϕ(a) ∈ im(ϕ) und ϕ(b) ∈ im(ϕ) auch ϕ(a) · ϕ(b) = ϕ(ab) ∈ im(ϕ)
ergibt, folgt schließlich, dass im(ϕ) ein Unterring von R′ ist.
Wir wissen aus Satz 1.3.32, dass ϕ ein  wohldefinierter
 Isomorphismus der
additiven
 Gruppen
 ist. Da
 ϕ [a] · [b] = ϕ [ab] = ϕ(ab) = ϕ(a) · ϕ(b) =
ϕ [a] · ϕ [b] und ϕ [1] = ϕ(1) = 1, ist ϕ ein Ringisomorphismus. ⊓

Satz 1.4.23 (Chinesischer15 Restsatz) Seien m1 , . . . , mk paarweise tei-


lerfremde ganze Zahlen, sei m := m1 · . . . · mk deren Produkt und seien
a1 , . . . , ak ganze Zahlen. Dann gibt es eine Lösung x ∈ Z der simultanen
Kongruenzen:

x ≡ a1 mod m1 , x ≡ a2 mod m2 , ... x ≡ ak mod mk

und dieses x ist eindeutig bestimmt modulo m.


56 1 Zahlen

Beweis. Die Beweisidee besteht darin, das Problem in einfachere Teilproble-


me zu zerlegen, aus deren Lösung wir die gesuchte Lösung x zusammensetzen
können. Wir bestimmen zunächst ganze Zahlen x1 , . . . , xk , für die
(
1 mod mi
xi ≡ (1.34)
0 mod mj , falls j 6= i,
P
gilt. Aus solchen xi ergibt sich dann x = ki=1 xi ai mod m als Lösung der
gegebenen simultanen Kongruenzen. Da die Differenz zweier Lösungen durch
sämtliche mi teilbar ist und die mi paarweise teilerfremd sind, folgt die be-
hauptete Eindeutigkeit.
Da die mi paarweise teilerfremd sind, gilt für eine ganze
Q Zahl xi genau dann
m
xi ≡ 0 mod mj für alle j 6= i, wenn xi durch pi := j6=i mj = m i
teilbar
ist. Weil pi und mi teilerfremd sind, liefert uns der Euklidische Algorithmus
ganze Zahlen r und s, so dass rpi + smi = 1. Die Zahl xi := rpi = rm/mi ist
dann eine Lösung der simultanen Kongruenzen (1.34). ⊓

Folgerung 1.4.24. Seien m1 , . . . , mk paarweise teilerfremde ganze Zahlen,


d.h. ggT(mi , mj ) = 1 für i 6= j, und sei m := m1 · . . . · mk . Dann gilt:
(a) Durch die Zuordnung [a]m 7→ ([a]m1 , . . . , [a]mk ) ist ein Isomorphismus
von Ringen definiert:

Z/mZ −−→ Z/m1 Z × Z/m2 Z × . . . × Z/mk Z .

(b) Der Isomorphismus aus (a) induziert einen Isomorphismus abelscher


Gruppen

(Z/mZ)∗ −−→ (Z/m1 Z)∗ × . . . × (Z/mk Z)∗ .
Insbesondere gilt für die Eulersche ϕ-Funktion: ϕ(m) = ϕ(m1 ) · . . . · ϕ(mk ).

Beweis. Der Teil (a) ist lediglich eine andere Formulierung von 1.4.23. Statt
des angegebenen konstruktiven Beweises kann man (a) aber auch per In-
duktion aus Satz 1.3.34 gewinnen. Dazu muss man noch bemerken, dass für
beliebige k ∈ Z stets [ab]k = [a]k · [b]k und [1]k = 1 im Ring Z/kZ gilt, und
dass somit der Gruppenhomomorphismus in Satz 1.3.34 sogar ein Ringiso-
morphismus ist.
Da nach Beispiel 1.4.19 (iv) für beliebige Ringe Ri die Einheitengruppe von
R = R1 × . . . × Rk gleich R∗ = R1∗ × . . . × Rk∗ ist, folgt (b) aus (a). ⊓

15 In einem chinesischen Mathematiklehrbuch, welches vermutlich etwa im dritten Jahr-

hundert u.Z. geschrieben wurde, wird nach einer Zahl x gefragt, welche die drei Kongru-
enzen x ≡ 2 mod 3, x ≡ 3 mod 5 und x ≡ 2 mod 7 erfüllt. Die Lösung wurde dort mit
der gleichen Methode ermittelt, die auch dem hier angegebenen Beweis zugrunde liegt. Es
handelt sich dabei um die früheste bekannte Quelle, in der ein solches Problem behandelt
wurde, daher der Name des Satzes.
1.4 Ringe und Körper 57

Es folgt ein Anwendungsbeispiel für den Chinesischen Restsatz.


Beispiel 1.4.25 (Die defekte Waschmaschine). Es war einmal ein Haus,
in dem sieben Personen wohnten. Jede von ihnen besaß eine Waschmaschine.
All diese Waschmaschinen befanden sich im Waschraum im Keller des Hauses.
Eines Tages stellte sich heraus, dass eine der Maschinen defekt ist. Da sich
die Mieter jedoch sehr gut verstanden und in unterschiedlichen Abständen
ihre Wäsche wuschen, einigten sie sich darauf, dass jeder eine jede der noch
funktionierenden Waschmaschinen benutzen darf. Ein Problem war erst dann
zu erwarten, wenn alle am selben Tag ihre Wäsche waschen wollten.
Die Mieter einigten sich an einem Sonntag auf dieses liberale Nutzungsverhal-
ten. Dabei stellten sie überrascht fest, dass jeder von ihnen für die kommende
Woche einen anderen Tag als Waschtag eingeplant hatte. Von da an wollte je-
de dieser sieben Personen in regelmäßigen Abständen seine Wäsche waschen.
Die Häufigkeit der Waschmaschinenbenutzung ist aus Tabelle 1.2 zu ersehen,

Wochentag Mo Di Mi Do Fr Sa So
Häufigkeit 2 3 4 1 6 5 7
Person P1 P2 P3 P4 P5 P6 P7
Tabelle 1.2 Häufigkeit der Waschmaschinenbenutzung

in der diese Häufigkeit dem Wochentag zugeordnet ist, an dem die betref-
fende Person in der ersten Woche ihre Wäsche zu waschen beabsichtigte. So
wäscht zum Beispiel der Mieter der am Montag wäscht jeden zweiten Tag
seine Wäsche, danach dann am Mittwoch, am Freitag, am Sonntag u.s.w.
Wie lange hatten die Hausbewohner Zeit, die Waschmaschine reparieren
zu lassen, ohne dass jemand seinen Rhythmus ändern musste?
Zur Beantwortung dieser Frage gilt es herauszufinden, wann erstmalig alle
Mieter am selben Tag waschen wollten. Dazu nummerieren wir die Tage fort-
laufend, beginnend mit 1 am Montag nach der Zusammenkunft der Mieter.
Die Mieter bezeichnen wir mit P1 , P2 , . . . , P7 , so dass Pi am Tag i wäscht. Die
Waschhäufigkeit mi von Pi ist der Eintrag in der mittleren Zeile von Tabelle
1.2. Die Person Pi wäscht somit genau dann am Tag mit der Nummer x, wenn
x ≡ i mod mi gilt. Zur Lösung des Problems suchen wir daher die kleinste
ganze Zahl x > 0, welche sämtliche der folgenden Kongruenzen erfüllt:

x ≡ 1 mod 2 x ≡ 2 mod 3 x≡3 mod 4 x≡4 mod 1


x ≡ 5 mod 6 x ≡ 6 mod 5 x≡7 mod 7 .

Dies können wir vereinfachen. Da für jedes x ∈ Z die Kongruenz x ≡ 4


mod 1 erfüllt ist, können wir sie streichen. Da Z/6Z ∼
= Z/2Z×Z/3Z nach dem
Chinesische Restsatz, ist x ≡ 5 mod 6 äquivalent zu den zwei Kongruenzen
x ≡ 1 mod 2 und x ≡ 5 mod 3. Da 5 ≡ 2 mod 3, treten beide Kongruenzen
bereits auf, wir können somit x ≡ 5 mod 6 ersatzlos streichen. Da schließlich
58 1 Zahlen

eine Zahl x, für die x ≡ 3 mod 4 gilt, ungerade ist, können wir die Kongruenz
x ≡ 1 mod 2 ebenfalls streichen. Es verbleiben die folgenden Kongruenzen:

x≡2 mod 3 x≡3 mod 4


(1.35)
x≡1 mod 5 x≡0 mod 7 .

Da 3 · 4 · 5 · 7 = 420, verspricht uns der Chinesische Restsatz eine Lösung,


die modulo 420 eindeutig bestimmt ist. Zu beachten ist hier, dass 3, 4, 5, 7
tatsächlich paarweise teilerfremd sind. Das war bei den ursprünglichen Wer-
ten 2, 3, 4, 1, 6, 5, 7 nicht der Fall, ist aber eine wichtige Voraussetzung für die
Anwendung des Chinesischen Restsatzes.
Wenn wir die Methode des Beweises von Satz 1.4.23 auf die Kongruenzen
(1.35) aus dem Waschmaschinenproblem anwenden, dann rechnen wir mit
den Zahlen m1 = 3, m2 = 4, m3 = 5, m4 = 7 und a1 = 2, a2 = 3, a3 = 1, a4 =
0. Es ergibt sich m = m1 m2 m3 m4 = 420 und p1 = 140, p2 = 105, p3 =
84, p4 = 60. Der Euklidische Algorithmus liefert uns die folgenden Ausdrücke
der Gestalt rpi + smi = 1:

i=1: 2 · 140 − 93 · 3 = 1 =⇒ x1 = 280


i=2: 1 · 105 − 26 · 4 = 1 =⇒ x2 = 105
i=3: 4 · 84 − 67 · 5 = 1 =⇒ x3 = 336
i=4: 2 · 60 − 17 · 7 = 1 =⇒ x4 = 120

Wenn man die Gleichung rpi + smi = 1 als Kongruenz rpi ≡ 1 mod mi
schreibt und pi durch Reduktion modulo mi verkleinert, dann verringert sich
der Rechenaufwand ein wenig. Die Ergebnisse xi ändern sich dadurch jedoch
nicht. Als Lösung der simultanen Kongruenzen (1.35) ergibt sich
4
X
x= ai xi = 2 · 280 + 3 · 105 + 1 · 336 + 0 · 120 = 1211 .
i=1

Die allgemeine Lösung hat daher die Gestalt 1211 + n · 420 mit n ∈ Z und die
kleinste positive Lösung ist 1211 − 2 · 420 = 371. Die Hausbewohner haben
also 371 Tage – mehr als ein Jahr – Zeit, die Waschmaschine reparieren zu
lassen, vorausgesetzt keine weitere Waschmaschine fällt aus und keiner der
Mieter ändert seinen Waschrhythmus.

Eine genaue Betrachtung des oben beschriebenen Algorithmus zur Lösung si-
multaner Kongruenzen zeigt, dass in jeder Teilaufgabe mit den relativ großen
Zahlen pi gerechnet wird. Wenn eine hohe Anzahl von Kongruenzen vorliegt
kann dies durchaus zu beträchtlichem Rechenaufwand führen. Durch eine
schrittweise Berechnung der Lösung x kann man hier eine Verbesserung errei-
chen. Die Idee besteht darin, dass man induktiv aus der allgemeinen Lösung
1.4 Ringe und Körper 59

der ersten t Kongruenzen die allgemeine Lösung der ersten t+1 Kongruenzen
bestimmt.
Als Induktionsanfang können wir x = a1 wählen. Sei xt eine Lösung der
ersten t Kongruenzen: xt ≡ ai mod mi für 1 ≤ i ≤ t. Dann gilt für jede
Lösung xt+1 der ersten t + 1 Kongruenzen

xt+1 = xt + y · m1 · . . . · mt und xt+1 ≡ at+1 mod mt+1 .

Um xt+1 zu bestimmen, müssen wir alle ganzen Zahlen y ermitteln, für die

xt + ym1 · . . . · mt ≡ at+1 mod mt+1

gilt. Die Lösung ist

y ≡ (at+1 − xt ) · (m1 · . . . · mt )−1 mod mt+1 .

Das Inverse (m1 · . . . · mt )−1 existiert in Z/mt+1 Z, da die mi paarweise tei-


lerfremd sind. Mit diesem y erhalten wir dann xt+1 .
Die Lösung der simultanen Kongruenzen (1.35) ergibt sich mit diesem Algo-
rithmus wie folgt:

x1 = 2 y ≡ (a2 − x1 )m−1
1 mod m2
−1
y ≡ (3 − 2)3 mod 4
y ≡ 3 mod 4
x2 = x1 + 3y = 11 y ≡ (a3 − x2 )(m1 m2 )−1 mod m3
−1
y ≡ (1 − 11)12 mod 5
y ≡ 0 mod 5
x3 = x2 + 12y = 11 y ≡ (a4 − x3 )(m1 m2 m3 )−1 mod m4
−1
y ≡ (0 − 11)60 mod 7
y ≡ 6 mod 7
x4 = x3 + 60y = 371 =⇒ x = 371 .

Bemerkung 1.4.26. Beim Rechnen mit sehr großen ganzen Zahlen kommt
der Chinesische Restsatz in der Informatik zur Anwendung. Nehmen wir
an, ein polynomialer Ausdruck P (a1 , . . . , ar ) soll für konkret gegebene, aber
sehr große ai ∈ Z berechnet werden. Bei bekanntem Polynom P kann man
zunächst leicht eine obere Schranke für das Ergebnis berechnen. Sei m ∈ Z
so, dass |P (a1 , . . . , ar )| < m/2 gilt. Dann genügt es, die Rechnung in Z/mZ
durchzuführen. Wenn m sehr groß ist, mag das noch keine bemerkenswerte
Verbesserung bringen. An dieser Stelle kann der Chinesischen Restsatz helfen.
Dazu wählen wir relativ kleine paarweise teilerfremde Zahlen mi , deren Pro-
dukt m = m1 · m2 · . . . · mk sich als Schranke wie zuvor eignet. Bei der
Berechnung von P (a1 , . . . , ar ) mod mi treten nun keine sehr großen Zahlen
mehr auf. Mit Hilfe des obigen Algorithmus zur Lösung simultaner Kongruen-
60 1 Zahlen

zen können wir aus diesen Zwischenergebnissen dann P (a1 , . . . , ar ) mod m


ermitteln. Da |P (a1 , . . . , ar )| < m
2 , ist P (a1 , . . . , ar ) gleich dem eindeutig
 be-
stimmten Repräsentanten dieser Restklasse im Intervall − m ,
2 2
m
. Auf diese
Weise ist es sogar möglich, dass die Berechnung der k verschiedenen Wer-
te P (a1 , . . . , ar ) mod mi parallel durchgeführt wird, wodurch ein weiterer
Zeitgewinn erzielt werden kann. Diese Methode kommt zum Beispiel in der
Kryptographie zum Einsatz, wo momentan mit Zahlen, die mehr als 200 De-
zimalstellen besitzen, gerechnet wird.

Zum Abschluss dieses Abschnittes wenden wir uns einem sowohl theoretisch
als auch praktisch sehr nützlichen Resultat zu. Mit seiner Hilfe kann man
Multiplikationen im Körper Fp für große Primzahlen p wesentlich schneller
ausführen. Bei der Implementierung mancher Programmpakete der Compu-
teralgebra macht man sich dies tatsächlich zu Nutze.

Satz 1.4.27 F∗p ist eine zyklische Gruppe.

Beweis. Der Beweis besteht aus fünf Schritten.


Schritt 1: Sei G eine zyklische Gruppe, m = ord(G) und d > 0 ein Teiler
von m. Dann ist die Anzahl der Elemente von Ordnung d in G gleich ϕ(d).
Nach Satz 1.3.33 ist G isomorph zur additiven Gruppe Z/mZ. Es sind also die
Elemente von Ordnung d in dieser Gruppe zu zählen. Aus Beispiel 1.3.22 (iii)
(siehe auch Aufgabe 1.15) ist bekannt, dass ein Element [a] ∈ Z/mZ genau
m
dann die Ordnung d hat, wenn ggT(a, m) = . Dies ist genau dann der Fall,
d
m
wenn wir a = b · mit einem zu d teilerfremden b ∈ Z schreiben können.
d
Daher gibt es ebenso viele Restklassen [a] ∈ Z/mZ der Ordnung d wie es
Elemente [b] ∈ (Z/dZ)∗ gibt. Die Behauptung folgt nun aus ord ((Z/dZ)∗ ) =
ϕ(d). P
Schritt 2: Für jede ganze Zahl m ≥ 1 ist m = d|m ϕ(d), wobei sich die
Summation über alle positiven Teiler von m erstreckt.
Da nach Satz 1.3.23 ord([a]) Teiler von m = ord (Z/mZ) ist, folgt diese
Gleichung aus Schritt 1, indem man die m Elemente von Z/mZ nach ihrer
Ordnung gruppiert zählt.
Schritt 3: Ein Polynom f ∈ K[X] vom Grad n ≥ 1 hat höchstens n Null-
stellen im Körper K.
Sei 0 6= f ∈ K[X] und a ∈ K. Wenn wir f durch X − a mit Rest dividieren
(Satz 1.4.8), erhalten wir h ∈ K[X] und r ∈ K, so dass f − h · (X − a) = r.
Wenn a eine Nullstelle von f ist, dann folgt r = 0 durch Einsetzen von a für
X, das heißt f = h · (X − a). Da K nullteilerfrei ist, ergibt sich daraus mittels
vollständiger Induktion: Wenn a1 , . . . , ak paarweise verschiedene Nullstellen
von f ∈ K[X] sind, dann gibt es ein Polynom g ∈ K[X], so dass f =
(X −a1 )·. . .·(X −ak )·g gilt. Da K ein Körper ist, addieren sich die Grade von
Polynomen bei der Multiplikation. Daher gilt n = deg(f ) = k + deg(g) ≥ k.
1.4 Ringe und Körper 61

Das Polynom f kann also höchstens n = deg(f ) verschiedene Nullstellen in


K besitzen.
Schritt 4: Die Gruppe F∗p enthält höchstens ϕ(d) Elemente der Ordnung d.
Sei Ud := {a ∈ F∗p | ad = 1} ⊂ F∗p und Gd := {a ∈ F∗p | ord(a) = d} ⊂ F∗p .
Dann ist Ud ⊂ F∗p Untergruppe und Gd ⊂ Ud Teilmenge. Die Menge Ud
enthält genau die Nullstellen des Polynoms X d −1 in Fp und deshalb folgt aus
Schritt 3 die Ungleichung ord(Ud ) ≤ d. Wenn Gd = ∅, dann ist die behauptete
Aussage klar. Wenn es wenigstens ein Element g in Gd gibt, dann erzeugt
dieses eine Untergruppe hgi ⊂ Ud der Ordnung d. Wegen ord(Ud ) ≤ d folgt
daraus hgi = Ud , diese Gruppe ist also zyklisch. Die Menge Gd besteht genau
aus den Elementen der Ordnung d der zyklischen Gruppe Ud , sie enthält
somit nach Schritt 1 genau ϕ(d) Elemente.
Schritt 5: Die Gruppe F∗p ist zyklisch.
Wir zählen nun die m := pP − 1 Elemente der Gruppe F∗p nach ihrer Ordnung
gruppiert. Das ergibt m = d|m |Gd |. Aus Schritt 4 erhalten wir |Gd | ≤ ϕ(d),
woraus wir unter Benutzung von Schritt 2 die Ungleichungskette
X X
m= |Gd | ≤ ϕ(d) = m
d|m d|m

erhalten. Das ist nur möglich, wenn jede der Ungleichungen |Gd | ≤ ϕ(d) eine
Gleichung ist. Insbesondere muss |Gm | = ϕ(m) ≥ 1 sein, das heißt, in der
multiplikativen Gruppe F∗p gibt es ein Element der Ordnung m = p − 1. ⊓ ⊔

Bemerkung 1.4.28. Der gleiche Beweis zeigt, dass für jeden endlichen
Körper K die multiplikative Gruppe K ∗ zyklisch ist.

Beispiel 1.4.29. F∗5 ist eine zyklische Gruppe der Ordnung 4. Da ϕ(4) = 2
ist, gibt es zwei Erzeuger. Dies sind [2] und [3], denn

[2]1 = [2], [2]2 = [4], [2]3 = [3]


[3]1 = [3], [3]2 = [4], [3]3 = [2] .

Dagegen sind [1] und [4] keine Erzeuger. Es gilt ord([1]) = 1 und ord([4]) = 2.

Folgerung 1.4.30. Für jede ganze Zahl e ≥ 1 und jede Primzahl p > 2 ist

(Z/pe Z) eine zyklische Gruppe.

Beweis. Der Fall e = 1 wurde in Satz 1.4.27 behandelt. Sei nun e ≥ 2 und
w ∈ Z eine ganze Zahl, so dass [w]p ein Erzeuger der zyklischen Gruppe

(Z/pZ) ist. Wir werden zeigen, dass
e−1
z := wp · (1 + p) mod pe
62 1 Zahlen

ein Element der Ordnung (p − 1)pe−1 in (Z/pe Z)∗ ist. Daraus folgt die Be-

hauptung, denn ord (Z/pe Z) = (p − 1)pe−1 . Nach Satz 1.3.23 (2) kommen
j
nur Zahlen der Gestalt k · p mit k | p − 1 und 0 ≤ j ≤ e − 1 als Ordnung
von z in Frage.
Nach dem kleinen Satz von Fermat (Satz 1.3.24) gilt wp ≡ w mod p, woraus
j j+e−1
z kp ≡ wp k
≡ wk mod p folgt. Weil [w]p die Ordnung p hat, ist somit
j j
z kp 6≡ 1 mod p für 0 < k < p − 1. Daher gilt auch z kp 6≡ 1 mod pe und es
folgt ord(z) = (p − 1)pj für ein 0 ≤ j ≤ e − 1.
e−1 j
Wegen Satz 1.3.23 (3) gilt wp (p−1) ≡ 1 mod pe , woraus wir z (p−1)p ≡
j
(1 + p)(p−1)p mod pe erhalten. Die Behauptung der Folgerung folgt daher,
wenn wir per Induktion über e ≥ 2 gezeigt haben, dass
e−2
(1 + p)(p−1)p 6≡ 1 mod pe (1.36)

gilt. Dabei werden wir benutzen, dass wegen Satz 1.3.23 (3) für alle e ≥ 1
gilt:
e−1
(1 + p)(p−1)p ≡ 1 mod pe . (1.37)
Für den Induktionsanfang bei e = 2 verwenden wir die Binomische Formel
(vgl. Aufgabe 1.5) und erhalten
 
p−1 2
(1 + p)p−1 = 1 + (p − 1)p + p + . . . + pp−1 ≡ 1 − p 6≡ 1 mod p2 .
2

Die Voraussetzung für den Induktionsschritt ist die Gültigkeit von (1.36) für
e−1
ein festes e ≥ 2. Wir haben zu zeigen, dass (1 + p)(p−1)p 6≡ 1 mod pe+1
gilt. Nach (1.37) besagt die Voraussetzung gerade, dass es eine ganze Zahl c
e−2
mit c 6≡ 0 mod p gibt, so dass (1 + p)(p−1)p = 1 + cpe−1 gilt.
Die Binomische Formel ergibt hier
p  
X
e−1 p p k k(e−1)
(1 + p)(p−1)p = 1 + cpe−1 = c p
k
k=0
 
p 2 2(e−1)
= 1 + cpe + c p + . . . + cp pp(e−1) .
2

Da kp für 1 ≤ k ≤ p − 1 durch p teilbar ist (vgl. Aufgabe 1.6), und für
e≥ 2 die Ungleichungen 1 + k(e − e+1
1) ≥ e + 1 und p(e − 1) ≥ e + 1 gelten, ist
p k k(e−1)
k c p für 1 ≤ k ≤ p durch p teilbar. Daraus folgt
e−1
(1 + p)(p−1)p ≡ 1 + cpe 6≡ 1 mod pe+1 ,

da c 6≡ 0 mod p. Damit ist (1.36) für alle e ≥ 2 bewiesen. ⊓



1.4 Ringe und Körper 63

Aufgaben

Übung 1.27. Bestimmen Sie den größten gemeinsamen Teiler der Polynome
f = X 5 − X 3 − X 2 + 1 ∈ Q[X] und g = X 3 + 2X − 3 ∈ Q[X].
Übung 1.28. Dividieren Sie f = X 5 + X 3 + X 2 + 1 durch g = X + 2 mit
Rest in F3 [X].
Übung 1.29. Beweisen Sie, dass die Menge I = {f ∈ Z[X] | f (1) = 0}, aller
Polynome f ∈ Z[X], die 1 ∈ Z als Nullstelle haben, ein Ideal ist. Ist I ein
Hauptideal?
Übung 1.30. Sei K ein Körper und f ∈ K[X] ein irreduzibles Polynom
(vgl. 1.4.13). Beweisen Sie, dass der Ring K[X]/hf i ein Körper ist.
Übung 1.31. Beweisen Sie, dass F2 [X]/hX 2 +X +1i ein Körper ist. Wie viel
Elemente enthält dieser Körper? Beschreiben Sie die multiplikative Gruppe
dieses Körpers. Ist sie zyklisch?
Übung 1.32. Beweisen Sie für jede ganze Zahl n > 1, dass jedes Element
des Ringes Z/nZ entweder eine Einheit oder ein Nullteiler ist.
Übung 1.33. Bestimmen sie die kleinste positive ganze Zahl x, welche das
folgende System simultaner Kongruenzen erfüllt:

x≡2 mod 7, x≡3 mod 8, x≡4 mod 9.

Zusatz: Denken Sie sich eine möglichst realistische Textaufgabe (aus dem
Alltagsleben oder aus Wissenschaft und Technik) aus, die auf ein System
simultaner Kongruenzen führt.
Übung 1.34. Bestimmen Sie alle ganzen Zahlen x, welche das folgende Sys-
tem simultaner Kongruenzen erfüllen:

x ≡ 5 mod 7, x ≡ 7 mod 11, x ≡ 11 mod 13.

Übung 1.35. Finden Sie für jede Primzahl p ein Polynom 0 6= f ∈ Fp [X],
welches jedes Element des Körpers Fp als Nullstelle hat.
Finden Sie ein Polynom vom Grad 2 in F5 [X], welches in F5 keine Nullstelle
besitzt. Versuchen Sie das auch für alle anderen Körper Fp !
Übung 1.36. Sei K ein Körper und N+ := {n ∈ Z | n > 0}. Auf der Menge
I(K) := {f | f : N+ → K ist eine Abbildung} definieren wir eine Addition
und eine Multiplikation wie folgt:
X n
(f + g)(n) := f (n) + g(n) und (f · g)(n) := f (d)g .
d
d|n

Dabei erstreckt sich die Summe über alle positiven Teiler von n. Das Element
e ∈ I(K) sei durch e(1) = 1 und e(n) = 0 für n > 1 gegeben. Zeigen Sie:
64 1 Zahlen

(a) I(K) ist ein Ring mit dem Einselement e.


(b) f ∈ I(K) ist genau dann eine Einheit, wenn f (1) ∈ K ∗ .
(c) Sei u ∈ I(K) durch u(n) = 1 für alle n ∈ N+ gegeben und ϕ wie üblich
die Eulerfunktion. Berechnen Sie das Produkt u · ϕ in I(K).

Übung 1.37. Geben Sie alle Erzeuger der multiplikativen Gruppe F∗17 an
und berechnen Sie die Ordnung jedes Elements dieser Gruppe.

Übung 1.38. Bestimmen Sie die Nullstellen a, b ∈ C des Polynoms

2X 2 − 2X + 5
a
und berechnen Sie die komplexen Zahlen a + b, a · b, a − b und .
b

1.5 Kryptographie

Kryptographie ist die Wissenschaft von der Verschlüsselung von Nachrichten.


Dabei geht es darum, aus einem gegebenen Klartext ein sogenanntes Krypto-
gramm (Geheimtext) zu erzeugen, aus dem nur ein bestimmter Personenkreis
– die rechtmäßigen Empfänger – den gegebenen Klartext rekonstruieren kann.
Statt verschlüsseln“ bzw. Rekonstruktion des Klartextes“ sagt man auch
” ”
chiffrieren bzw. dechiffrieren.
Wir konzentrieren uns in diesem Abschnitt auf die einfachsten mathemati-
schen Grundlagen der Kryptographie. Nach einer kurzen Erwähnung klassi-
scher Chiffrierverfahren und einer knappen Erläuterung des Diffie-Hellman-
Schlüsselaustausches widmen wir uns hauptsächlich der Beschreibung des
RSA-Verfahrens. Dabei kommen Kenntnisse aus den vorigen Abschnitten zur
Anwendung.
Die Verschlüsselung von Informationen ist bei jeder Übermittlung von ver-
traulichen Daten über ein öffentlich zugängliches Datennetzwerk notwen-
dig. Wenn Sie zum Beispiel bei einer online-Buchhandlung ein Buch kaufen
möchten und dies mit Ihrer Kreditkarte bezahlen, dann muss gesichert sein,
dass Unbefugte nicht an ihre Kreditkartendaten kommen. Außerdem gibt es
seit Jahrtausenden im militärischen Bereich ein starkes Bedürfnis nach ge-
heimer Übermittlung von Nachrichten.
Durch den griechischen Historiker Plutarch (ca. 46–120 u.Z.) ist es überliefert,
dass bereits vor etwa 2500 Jahren die Regierung von Sparta zur Übermittlung
geheimer Nachrichten an ihre Generäle folgende Methode benutzte:
Sender und Empfänger besaßen identische zylinderförmige Holzstäbe, soge-
nannte Skytale. Zur Chiffrierung wurde ein schmales Band aus Pergament
spiralförmig um den Zylinder gewickelt. Dann wurde der Text parallel zur
Achse des Stabes auf das Pergament geschrieben. Der Text auf dem abgewi-
ckelten Band schien dann völlig sinnlos. Nach dem Aufwickeln auf seine Sky-
tale konnte der Empfänger den Text jedoch ohne große Mühe lesen. Hierbei
1.5 Kryptographie 65

handelt es sich um eine Permutationschiffre: Die Buchstaben des Klartextes


werden nach einer bestimmten Regel permutiert.
Eine weitere, seit langem bekannte Methode der Chiffrierung ist die Ver-
schiebechiffre. Dabei werden die Buchstaben des Klartextes nach bestimmten
Regeln durch andere Buchstaben ersetzt. Die älteste bekannte Verschiebechif-
fre wurde von dem römischen Feldherrn und Diktator Julius Cäsar (100–44
v.u.Z.) benutzt. Es existieren vertrauliche Briefe von Cäsar an Cicero, in
denen diese Geheimschrift benutzt wird.
Die Methode ist denkbar einfach. Jeder Buchstabe wird durch den Buchsta-
ben des Alphabets ersetzt, der drei Stellen weiter links im Alphabet steht.
Zur praktischen Realisierung schreibt man das Alphabet jeweils gleichmäßig
auf zwei kreisförmige Pappscheiben unterschiedlichen Radius (Abb. 1.5). Die
Scheiben werden an ihren Mittelpunkten drehbar miteinander verbunden.
Für Cäsars Chiffre muss man einfach das A“ der einen Scheibe mit dem D“
” ”
der anderen in Übereinstimmung bringen. Dadurch erhält man eine Tabel-

E F G
D H
C
A B C D E
B

Z
I
Y

F
X Y Z A

J
G
U VWX

K L M N
H I J K O


T
W

L
S

R M
V

N O
P Q P
Q R S T U

Abb. 1.5 Cäsars Chiffre

le, mit der man chiffrieren und dechiffrieren kann. Mit dem heutigen Wissen
bietet eine solche Chiffrierung keinerlei Sicherheit mehr. Weitere Verfahren
dieser Art findet man zum Beispiel im Buch von A. Beutelspacher [Beu]. Ein
sehr schönes Beispiel einer Kryptoanalyse eines chiffrierten Textes, bei der die
Buchstaben des Alphabets durch andere Zeichen ersetzt wurden, kann man
in der Kurzgeschichte Der Goldkäfer“ des amerikanischen Autors E.A. Poe

(1809–1849) nachlesen.
Die Sicherheit der bisher beschriebenen Verfahren ist nach heutigen Maß-
stäben sehr gering. Ein bekanntes Verfahren, welches perfekte Sicherheit
bietet, geht auf Vigenère16 zurück. Anstelle einer festen Regel benutzt es
für die Ersetzung der Klartextbuchstaben eine zufällige und beliebig lange
Buchstabenfolge, einen sogenannten Buchstabenwurm. Die Sicherheit die-
ses Verfahrens hängt davon ab, dass Sender und Empfänger irgendwann
16 Blaise de Vigenère (1523–1596), französischer Diplomat.
66 1 Zahlen

über einen sicheren Kanal den Schlüssel und damit die Details für den Al-
gorithmus, ausgetauscht haben. Dies kann beispielsweise durch persönliche
Übergabe erfolgen. Für die Anwendung in Computernetzwerken ist dies je-
doch nur unter besonderen Umständen praktikabel. Für den Alltagsgebrauch,
wie zum Beispiel beim online-Buchkauf, benötigt man andere Methoden für
den Schlüsselaustausch.
Moderne Methoden beruhen auf einer bahnbrechenden Idee, die erstmals
1976 von Diffie und Hellman [DH] veröffentlicht wurde. Sie besteht darin,
sogenannte Einwegfunktionen zu benutzen. Das sind Funktionen, die leicht
berechenbar sind, deren inverse Abbildung aber nur für den Besitzer von
Zusatzinformationen leicht zu berechnen ist. Ohne Zusatzinformation ist die
Berechnung des Inversen so aufwändig und langwierig, dass praktisch Sicher-
heit gegeben ist, zumindest für eine begrenzte Zeit.
Beispiele solcher Einwegfunktionen sind das Produkt zweier Primzahlen und

die diskrete Exponentialabbildung Z/ϕ(n)Z → (Z/nZ) , die bei vorgegebener
Basis s durch x 7→ sx definiert ist. Für sehr große ganze Zahlen ist die Be-
rechnung der Inversen – die Faktorisierung in Primzahlen bzw. der diskrete
Logarithmus – sehr zeitaufwändig.
Der Schlüsselaustausch nach Diffie-Hellman geschieht wie folgt: Die Personen
A und B wollen einen Schlüssel in Form eines Elements von Z/pZ vereinba-
ren, ohne dass ein Dritter dies in Erfahrung bringen kann. Dazu wird eine
große Primzahl p und eine ganze Zahl 0 < s < p öffentlich ausgetauscht.
Nun wählt A eine ganze Zahl a ∈ Z und B eine ganze Zahl b ∈ Z, so dass
0 < a, b < p − 1. Diese Information wird von beiden geheim gehalten. Dann
berechnet A den Wert sa mod p in Z/pZ und übermittelt ihn B. Ebenso
sendet B den Wert sb mod p an A. Schließlich berechnen beide den gleichen
Wert (sb )a ≡ sa·b ≡ (sa )b mod p. Auf diese Weise ist beiden Personen (und
keinem Dritten) der gemeinsame Schlüssel sa·b mod p in Z/pZ bekannt.
Zur praktischen Anwendung würde die Online-Buchhandlung eine Primzahl
p, eine ganze Zahl 0 < s < p und sb mod p veröffentlichen. Es ist günstig,
wenn s ein Erzeuger der multiplikativen Gruppe F∗p ist. Die Zahl b bleibt
geheim und ist nur dem Buchhändler bekannt. Für die Sicherheit der Daten
ist die Einweg-Eigenschaft des diskreten Logarithmus entscheidend.
Der Kunde wählt nun zufällig eine Zahl a und berechnet (sb )a mod p in
Z/pZ, das ist der Schlüssel für seine Transaktion. Diesen benutzt er, um mit
Hilfe eines vom Buchhändler bekanntgegebenen Verfahrens seine Daten zu
chiffrieren. In der von Taher ElGamal im Jahre 1985 veröffentlichten Ar-
beit [EG] wurde als Chiffrierverfahren einfach die Multiplikation mit dem
Schlüssel in Z/pZ vorgeschlagen, dies wird heute als ElGamal-Verfahren be-
zeichnet. Die Chiffrierung kann jedoch auch auf jede andere, vorher verein-
barte Art erfolgen. Zusätzlich zum chiffrierten Text übermittelt er auch sa
mod p, woraus der Buchhändler den Schlüssel (sa )b mod p berechnen kann.
Die Vorgehensweise beim RSA-Verfahren ist eine völlig andere. Es beruht
darauf, dass die Produktabbildung {Primzahl} × {Primzahl} → Z eine Ein-
wegfunktion ist. Es ist nach seinen Entdeckern R. Rivest, A. Shamir, L. Adle-
1.5 Kryptographie 67

man [RSA] benannt. Das Grundprinzip ist das Folgende: Zu einer natürlichen
Zahl n wird ein öffentlicher Schlüssel e ∈ Z mit ggT(e, ϕ(n)) = 1 gewählt.
Durch das Lösen der Gleichung [e] · [d] = 1 in Z/ϕ(n)Z wird der geheime
Schlüssel d ∈ Z bestimmt.
Jeder, der das Paar (n, e) kennt, kann eine Nachricht chiffrieren. Dies ge-
schieht, indem eine Kongruenzklasse m ∈ Z/nZ zu me ∈ Z/nZ verschlüsselt
wird. Um dies zu dechiffrieren benutzt man den Satz 1.3.24. Er liefert
(me )d = me·d = m in Z/nZ. Dazu ist die Kenntnis der Zahl d nötig. Daher
muss man d geheim halten, wogegen die Zahlen n und e öffentlich bekannt-
gegeben werden.
Die Sicherheit dieses Verfahrens beruht darauf, dass die Berechnung von d bei
Kenntnis von n und e ohne weitere Zusatzinformationen ein sehr aufwändiges
Problem ist. Die Methoden von Abschnitt 1.2 erlauben uns, den geheimen
Schlüssel d mit Hilfe des Euklidischen Algorithmus zu berechnen. Dazu muss
allerdings auch die Zahl ϕ(n) bekannt sein. Wenn die Faktorisierung von n
in ein Produkt von Primzahlen bekannt ist, dann ist die Berechnung von
ϕ(n) mit Hilfe von Satz 1.3.34 oder Folgerung 1.4.24 sehr leicht. Für große n
(das heißt momentan mit 200 bis 400 Dezimalstellen) ist das Auffinden der
Zerlegung in Primfaktoren ein sehr aufwändiges Problem.
Zur praktischen Durchführung beschafft man sich zunächst zwei verschiedene,
relativ große Primzahlen p und q. Dann berechnet man n = pq und ϕ(n) =
(p − 1)(q − 1). Letzteres ist die Geheiminformation, die man nicht preisgeben
darf und die nach der Berechnung von d nicht mehr benötigt wird.
Vor einigen Jahren galten dabei 100-stellige Primzahlen als hinreichend si-
cher. Man muss allerdings mit der Entwicklung von Technik und Algorithmen
ständig Schritt halten. Heute ist es kein Problem, eine 430-Bit Zahl inner-
halb einiger Monate mit einem einzigen PC zu faktorisieren. Durch die Ent-
wicklung der Hardware und durch die Entdeckung besserer Algorithmen zur
Faktorisierung großer Zahlen wird die Größe der Zahlen, die in erträglicher
Zeit faktorisierbar sind, in naher Zukunft wachsen. Wer Verantwortung für
Datensicherheit übernimmt, sollte sich daher regelmäßig über den aktuellen
Stand der Entwicklung informieren.
Die Firma RSA-Security hatte im Jahre 1991 eine Liste von Zahlen veröffent-
licht, für deren Faktorisierung Preisgelder in unterschiedlicher Höhe ausge-
setzt wurden ( Factoring Challenge“). Im Jahre 2001 wurde diese Liste wegen

der rasanten Erfolge durch eine neue ersetzt. Die größte Zahl auf dieser Liste
heißt RSA-2048. Sie hat 2048 Ziffern in Binärdarstellung und 617 Dezimalzif-
fern. Es war ein Preisgeld in Höhe von 200 000 US$ auf ihre Faktorisierung
ausgesetzt. Sämtliche Zahlen dieser Liste sind Produkt zweier Primzahlen.
Die Faktorisierung der 129-stelligen Zahl RSA-129 im April 1994 hatte damals
das öffentliche Interesse auf diese sogenannten RSA-Zahlen gelenkt. Diese
Zahl wurde im Jahre 1977 von R. Rivest, A. Shamir, und L. Adleman zur
Verschlüsselung einer der ersten Nachrichten mit dem RSA-Verfahren be-
nutzt. Zur Zeit der Veröffentlichung der verschlüsselten Nachricht glaubte
man, dass es Millionen von Jahren dauern wird, bis diese Nachricht ent-
68 1 Zahlen

schlüsselt sein wird. Die 1994 gefundene Entschlüsselung lautete: The magic

words are squeamish ossifrage“ [Fr].
Die Faktorisierung dieser 129-stelligen Zahl gelang unter anderem durch Par-
allelisierung der Rechnung, einer Idee, der wir bereits in Bemerkung 1.4.26
begegnet sind.
Anfang Dezember 2003 wurde bekanntgegeben, dass eine weitere Zahl aus
der erwähnten Liste faktorisiert wurde. Es handelte sich dabei um RSA-576,
deren Faktorisierung mit 10 000 US$ dotiert war. Die Binärdarstellung dieser
Zahl besitzt 576 Ziffern. In Dezimaldarstellung handelt es sich um die 174-
ziffrige Zahl
1881988129206079638386972394616504398071635633794173827007
6335642298885971523466548531906060650474304531738801130339
6716199692321205734031879550656996221305168759307650257059
Die Faktorisierung wurde von einem von Prof. Jens Franke (Mathemati-
sches Institut der Universität Bonn) geleiteten Team durchgeführt. Diese Zahl
konnte unter Benutzung eines Algorithmus aus der algebraischen Zahlentheo-
rie, den man das Zahlkörpersieb nennt, in zwei Primzahlen mit je 87 Ziffern
zerlegt werden. Dadurch wurde deutlich, dass nunmehr keine Hochleistungs-
rechner mehr nötig sind, um solch eine Aufgabe zu lösen: Die wesentlichen
Rechnungen wurden auf gewöhnlichen PC’s, die in besonderer Weise vernetzt
waren, durchgeführt und dauerten etwa 3 Monate.
Die Bonner Gruppe um J. Franke hat dann im Mai 2005 die Zahl RSA-200
(200 Ziffern im Dezimalsystem, siehe Abb. 1.6) und im November 2005 auch
die 193-ziffrige Zahl RSA-640 faktorisiert. Auf die letztere war ein Preisgeld
von 20 000 US$ ausgesetzt. Obwohl damit noch nicht das Ende der Liste der
Firma RSA-Security erreicht war, wurde der Wettbewerb um die Faktorisie-
rung dieser Zahlen im Frühjahr 2007 für beendet erklärt.

27997833911221327870829467638722601621070446786955
42853756000992932612840010760934567105295536085606
18223519109513657886371059544820065767750985805576
13579098734950144178863178946295187237869221823983
=
35324619344027701212726049781984643686711974001976
25023649303468776121253679423200058547956528088349
×
79258699544783330333470858414800596877379758573642
19960734330341455767872818152135381409304740185467

Abb. 1.6 Faktorisierung von RSA-200


1.5 Kryptographie 69

Die Electronic Frontier Foundation17 hat einen Preis von 100 000 US$ für die-
jenigen ausgesetzt, die eine Primzahl mit mehr als 10 000 000 Ziffern finden.
Solche Zahlen wurden im Sommer 2008 gefunden. Wer eine Primzahl mit min-
destens 108 Ziffern findet, auf den warten nun 150 000 US$. Die größte bisher
gefundene Primzahl hat 12 978 189 Ziffern. Das ist die Zahl 243112609 − 1. Es
handelt sich dabei um eine sogenannte Mersenne-Primzahl18, d.h. eine Prim-
zahl der Form Mn := 2n − 1. Es ist leicht zu sehen, dass 2n − 1 nur Primzahl
sein kann, wenn n selbst eine Primzahl ist. Mersenne behauptete, dass für
n = 2, 3, 5, 7, 13, 17, 19, 31, 67, 127, 257 die Zahl Mn eine Primzahl ist. Für
M67 und M257 erwies sich das später als falsch. So fand F. Cole19 die Fak-
toren von M67 . Bis heute sind 46 Mersenne-Primzahlen bekannt. Es ist auch
nicht klar, ob es unendlich viele gibt. Die Mersenne-Zahlen kann man verall-
n
gemeinern und Zahlen vom Typ bb−1 −1
betrachten. Diese Zahlen zeichnen sich
dadurch aus, dass sie in der b-adischen Darstellung (vgl. Kapitel 3.4) genau n
Einsen haben. Insbesondere hat 2n − 1 im Dualsystem genau n Einsen. Wenn
n
b = 10 ist, erhält man eine sogenannte Repunit 20 Rn := 10 9−1 . Die Zahl
R1031 wurde im Jahre 1986 von H. Williams und H. Dubner als Primzahl
identifiziert. Sie besteht aus 1031 Ziffern, die alle gleich 1 sind, siehe [WD].
Mancher Leser mag sich fragen, wie man die bisher besprochene Ver-
schlüsselung von Elementen aus Z/nZ auf die Verschlüsselung realer Texte
anwenden kann. Eine mögliche Antwort ist die Folgende.
Der aus Schriftzeichen bestehende Klartext wird zunächst in eine Zahl
umgewandelt. Dazu kann man den ASCII-Code benutzen. ASCII ist eine
Abkürzung für American Standard Code for Information Interchange. Die-
ser Code, der zu Beginn der 1960-er Jahre entwickelt wurde, ordnet jedem
Buchstaben des englischen Alphabets und einigen Sonderzeichen eine 7-Bit
Zahl zu. In der heutigen Zeit stehen normalerweise 8 Bits zur Speicherung
und Verarbeitung von 7-Bit ASCII-Zeichen zur Verfügung. Das zusätzliche
Bit könnte als Paritätsbit zur Fehlererkennung genutzt werden (vgl. Beispiel
2.5.6), es wird jedoch heute meist mit Null belegt.
Auf den ASCII-Code bauen viele andere Codierungen auf, die zur Digitalisie-
rung anderer Zeichen in nicht-englischen Sprachräumen entwickelt wurden.
Das gilt auch für den in den 1990-er Jahren entwickelten Unicode-Standard,
der die Codierungsvielfalt abgelöst hat. Der Unicode-Standard erlaubt die
Codierung tausender Symbole und Schriftzeichen aus verschiedensten Kultu-
ren der Welt.
Die 26 Großbuchstaben entsprechen im ASCII-Code den in Tabelle 1.3 an-
gegebenen Dezimal- bzw. Hexadezimalzahlen. Durch Addition von 32 (bzw.
20 hexadezimal) ergibt sich der Wert des entsprechenden Kleinbuchstabens.
17 [Link]
18 Marin Mersenne (1588–1648), französischer Mathematiker und Theologe.
19 Frank Nelson Cole (1861–1926), US-amerikanischer Mathematiker.
20 aus dem Englischen von repeated unit.
70 1 Zahlen

Buchstabe A B C D E F G H I J K L M
ASCII (dezimal) 65 66 67 68 69 70 71 72 73 74 75 76 77
ASCII (hex) 41 42 43 44 45 46 47 48 49 4A 4B 4C 4D

Buchstabe N O P Q R S T U V W X Y Z
ASCII (dezimal) 78 79 80 81 82 83 84 85 86 87 88 89 90
ASCII (hex) 4E 4F 50 51 52 53 54 55 56 57 58 59 5A
Tabelle 1.3 ASCII-Code für Großbuchstaben

Da beim RSA-Verfahren in Z/nZ gerechnet wird, muss der Text in entspre-


chende Abschnitte zerlegt werden, so dass die durch die ASCII-Codierung
entstehende Zahl kleiner als n ist.
Um mittelfristige Datensicherheit zu gewährleisten, wird heute empfohlen,
dass bei praktischer Anwendung des RSA-Verfahrens, die Zahl n mindestens
eine 2048-Bit Zahl ist. Diese haben bis zu 617 Ziffern in Dezimaldarstellung.
Der zu verschlüsselnde Text ist dann in Blöcke zu je 256 Zeichen zu zerlegen,
da 8 · 256 = 2048. Jeder so gewonnene Textblock wird mit Hilfe des ASCII-
Codes in eine Zahl 0 < m < n übersetzt, die zur Verschlüsselung zur e-ten
Potenz erhoben wird: me mod n.
Der Empfänger der Nachricht, der als Einziger den geheimen Schlüssel d
kennt, dechiffriert diese Nachricht, indem er zunächst jede der empfangenen
Zahlen in die d-te Potenz modulo n erhebt. Als Binärzahl geschrieben sind
die 8-er Blöcke der so erhaltenen Zahlen dann der ASCII-Code der Zeichen
der ursprünglichen Textblöcke.

Beispiel 1.5.1. Sei p = 1373 und q = 2281, dann ist n = pq = 3131813 und
ϕ(n) = 3128160. Da 221 = 2097152 < n können wir drei 7-Bit ASCII Sym-
bole am Stück verarbeiten. Zur Chiffrierung der drei Zeichen R S A können
wir deren Hexadezimalwerte 52 53 41 aus Tabelle 1.3 als Folge von 7-Bit
Zahlen schreiben: 1010010 1010011 1000001. Für die Rechnung per Hand
ist es jedoch einfacher mit den Dezimalwerten 82 83 65 zu rechnen. Die obige
21-Bit Zahl hat den Wert 82 ·214 + 83 ·27 + 65 = 1354177. Wird der öffentliche
Schlüssel e = 491 benutzt, dann ist 1354177491 mod 3131813 zu berechnen.
Dies ist kongruent 992993 modulo 3131813. Da 992993 = 60 ·214 + 77 ·27 + 97,
besteht der verschlüsselte Text aus den Zeichen der ASCII-Tabelle mit den
Nummern 60 77 97, das sind: < M a. Wir hatten Glück, dass die Chiffrie-
rung auf druckbare Zeichen geführt hat. Die Zeichen mit den Nummern 0–
31 und 127 in der ASCII-Tabelle sind nicht-druckbare Sonderzeichen, daher
wird man auf dem hier begangenen Weg nicht immer zu einem druckba-
ren verschlüsselten Text gelangen. Das ist kein Mangel, denn allein aus den
Zahlenwerten lässt sich der Originaltext mit Hilfe des geheimen Schlüssels
rekonstruieren. Eine Betrachtung des Textes in verschlüsselter Form ist in
der Regel wenig informativ.
Da wir die Zerlegung von n in Primfaktoren und daher auch ϕ(n) kennen,
können wir Hilfe des Euklidischen Algorithmus den geheimen Schlüssel d =
1.5 Kryptographie 71

6371 bestimmen. Es ist eine nützliche Übung, die Dechiffrierung von < M a
mit dieser Zahl d konkret durchzuführen.

Mit Hilfe des RSA-Verfahrens kann man auch eine sogenannte digitale Unter-
schrift erzeugen. Zu diesem Zweck muss der Absender A der Nachricht einen
öffentlichen Schlüssel bekanntgegeben haben. Wenn (nA , eA ) der öffentliche
Schlüssel und dA der geheime Schlüssel von A sind, dann wird eine un-
verschlüsselte Nachricht m durch Anhängen von mdA mod nA unterschrie-
eA
ben. Jeder kann jetzt durch Berechnung von mdA mod nA feststellen,
ob der angehängte chiffrierte Teil tatsächlich mit dem gesendeten Klartext
übereinstimmt. In der Realität wird nicht die gesamte Nachricht, sondern nur
der Wert einer Hashfunktion chiffriert (vgl. Seite 312).
Wenn auch der Empfänger E einen öffentlichen Schlüssel (nE , eE ) bekanntge-
geben hat, dann kann A ihm eine elektronisch unterschriebene und chiffrierte
Nachricht senden. Dies geschieht, indem zuerst der Klartext wie beschrieben
signiert und anschließend mit dem öffentlichen Schlüssel von E chiffriert wird.
Der Empfänger geht nun umgekehrt vor. Zuerst dechiffriert er die Nachricht
mit Hilfe seines geheimen Schlüssels dE , dann prüft er die Unterschrift durch
Anwendung des öffentlichen Schlüssels von A.
In der modernen Kryptographie werden heute algebraische Strukturen ver-
wendet, die weit über den Rahmen dieses einführenden Kapitels hinausgehen.
Zum Beispiel basiert die Verwendung von elliptischen Kurven auf Methoden
der algebraischen Geometrie. Wer interessiert ist, findet in [Bau], [Beu], [Ko1],
[Ko2], [BSW] und [We] Material unterschiedlichen Schwierigkeitsgrades für
das weitere Studium.
Zum Abschluss dieses Abschnittes möchten wir nochmals die Warnung aus-
sprechen, dass wir uns hier auf die Darlegung der mathematischen Grundide-
en der modernen Kryptographie beschränkt haben. In der angegebenen Form
weisen die beschriebenen Verfahren beträchtliche Sicherheitslücken auf. Um
wirkliche Datensicherheit zu erreichen, ist eine genaue Analyse der bekannten
Angriffe auf die benutzten Kryptosysteme notwendig.

Aufgaben

Übung 1.39. Bestimmen Sie den geheimen Schüssel d für jedes der folgenden
Paare (n, d) von öffentlichen RSA-Schlüsseln:
(i) (493, 45) (ii) (10201, 137) (iii) (13081, 701) (iv) (253723, 1759)

Übung 1.40. Sei p = 31991 und s = 7.


(a) Sei a = 27 und b = 17. Bestimmen Sie sa mod p, sb mod p und den
Diffie-Hellman Schlüssel sa·b mod p.
(b) Versuchen Sie den Schlüssel zu finden, den zwei Personen durch Austausch
der beiden Zahlen 4531 und 13270 vereinbart hatten.
72 1 Zahlen

Übung 1.41. Mit dem öffentlichen RSA-Schlüssel (n, e) = (9119, 17) sollen
Nachrichten chiffriert werden. In diesen Texten werden nur solche Zeichen
zugelassen, deren ASCII-Code einen Dezimalwert zwischen 32 und 90 hat.
Der Nachrichtentext wird in Paare von Zeichen zerlegt. Die zweiziffrigen De-
zimaldarstellungen dieser beiden Zeichen werden jeweils zu einer vierstelligen
Dezimalzahl nebeneinandergestellt. Auf diese Weise wird aus dem Buchsta-
benpaar BK die Dezimalzahl m = 6675.
Die Chiffrierung erfolgt nach dem RSA-Verfahren durch die Berechnung von
me mod n. Für m = 6675 erhält man 4492 mod 9119. An den Empfänger
der verschlüsselten Nachricht wird nicht diese Zahl, sondern die entsprechen-
de ASCII-Zeichenkette übermittelt. Im Fall von 4492 finden wir in der ASCII-
Tabelle zu den Dezimalzahlen 44 und 92 die Symbole ,\
Finden Sie den aus 6 Buchstaben bestehenden Klartext, der mit diesem Ver-
fahren zu dem Geheimtext +TT&@/ wurde.
Kapitel 2
Lineare Algebra

Die Begriffe und Verfahren der linearen Algebra gehören zu den wichtigsten
Werkzeugen eines jeden Mathematikers, Naturwissenschaftlers und Informa-
tikers. Ohne Grundkenntnisse aus diesem Gebiet ist es oft nicht möglich,
mathematische Probleme aus anderen Wissensbereichen zu lösen.
Die lineare Algebra beschäftigt sich mit Systemen linearer Gleichungen. Da-
bei geht es auf der einen Seite um Verfahren zur Bestimmung der Lösungen
solcher Gleichungssysteme und auf der anderen Seite um eine Strukturtheorie
dieser Lösungsmengen: die Theorie der Vektorräume und linearen Abbildun-
gen.
Zur Motivation der abstrakten Begriffsbildungen beginnen wir mit der Dar-
stellung des Gaußschen Algorithmus als wichtigstem Verfahren zur Lösung li-
nearer Gleichungssysteme. Eine Analyse der erhaltenen Lösungsmengen führt
dann in natürlicher Weise auf die Begriffe Vektorraum und lineare Abbildung.
Im Hauptteil dieses Kapitels werden die wichtigsten Resultate und Methoden
der linearen Algebra entwickelt. Zum Abschluss sehen wir anhand des Bei-
spiels der Codierungstheorie, wie die zuvor entwickelte Theorie unmittelbare
Anwendung in der Informatik findet.

2.1 Lineare Gleichungssysteme

Neben der Vorstellung des Gaußschen Algorithmus ist es ein Hauptanlie-


gen dieses Abschnittes, den Zusammenhang zwischen Algebra und Geometrie
transparent zu machen. Im Unterschied zu den abstrakten Begriffsbildungen
in Kapitel 1 bietet die lineare Algebra die Möglichkeit, die Begriffe und Zu-
sammenhänge geometrisch zu interpretieren. Die Beziehung zwischen linearer
Algebra und unserer geometrischen Anschauung entsteht durch die Verwen-
dung von Koordinaten. Die heute oft verwendeten kartesischen1 Koordinaten,
1 René Descartes (1596–1650), franz. Mathematiker und Philosoph.

73
74 2 Lineare Algebra

waren bereits im 17. Jahrhundert bekannt. Die Idee besteht darin, den Punk-
ten unserer Anschauungsräume Paare bzw. Tripel von Zahlen zuzuordnen,
mit denen dann algebraische Operationen ausgeführt werden können.
Zur Erleichterung des Einstiegs beschäftigen wir uns in diesem einführenden
Abschnitt ausschließlich mit reellen Vektorräumen, da diese unserer Anschau-
ung am nächsten liegen. Im Abschnitt 2.5, bei der Beschäftigung mit fehler-
korrigierenden Codes, müssen wir jedoch auch andere Zahlen“ als nur reelle

Zahlen zulassen. Dazu zählen insbesondere die im Abschnitt 1.4 eingeführten
endlichen Körper Fp . Daher ist es wichtig, die Theorie in den Abschnitten
2.2 und 2.3 für beliebige Körper zu formulieren.
Unter einem Vektor wollen wir ein Element aus dem Raum

Rn = {(x1 , x2 , . . . , xn ) | xi ∈ R, 1 ≤ i ≤ n}

verstehen, wobei n ≥ 1 eine ganze Zahl ist.


Wenn n = 1 ist, dann heißt der Raum R1 = R die reelle Zahlengerade:

−4 −3 −2 −1 0 1 2 3 4 5

In unserer Vorstellung sollte diese Gerade jedoch kein Ende besitzen und
alle reellen Zahlen (d.h. alle Punkte), nicht nur die benannten, beinhalten.
Die genaue Bedeutung dieser Aussage wird im Abschnitt 3.1 mathematisch
präzisiert.
Im Fall n = 2 spricht man von der reellen Ebene R2 , siehe Abb. 2.1.

(−1, 3)
b
3
(4, 2)
2 b

−1 1 2 3 4 5
−1 b

(3, −1)

Abb. 2.1 Die reelle Ebene mit drei Punkten

Auch der dreidimensionale Raum R3 ist unserer Anschauung direkt zugäng-


lich, für n ≥ 4 sind unsere Mittel der konkreten Vorstellung jedoch sehr
2.1 Lineare Gleichungssysteme 75

begrenzt. Wir müssen uns dann auf die Algebra einlassen, können aber noch
bedingt auf unsere niederdimensionale Anschauung zurückgreifen.2
Bisher haben wir Paare oder Tripel von Zahlen als Punkt in der Ebene oder im
Raum interpretiert. Die korrekte geometrische Anschauung für ein n-Tupel
reeller Zahlen x = (x1 , . . . , xn ) ∈ Rn im Rahmen der Linearen Algebra ist
jedoch die des Vektors. Man stellt sich einen Vektor als Pfeil vor, der durch
seine Richtung und Länge bestimmt ist. Bei dieser Interpretation ist zu be-
achten, dass nur Richtung und Länge, nicht aber der Anfangspunkt des Pfeils
von Bedeutung sind. Statt eines einzelnen Pfeils gibt es unendlich viele Pfeile,
die den gleichen Vektor darstellen. Jeder der Pfeile in Abb. 2.2 repräsentiert
den Vektor (2, 1) ∈ R2 . Wem diese Erklärung Schwierigkeiten bereitet, der
kann sich einen Vektor auch als Verschiebung der Ebene, bzw. des Raumes
vorstellen. Dies ist in der Tat die beste Interpretation. Der mathematisch in-
teressierte Leser findet den Hintergrund dazu im Kapitel über affine Räume
in [Kow].

−1 1 2 3 4 5
−1

Abb. 2.2 Der Vektor (2, 1)

Die Menge der Vektoren erhält eine algebraische Struktur, indem wir die
Addition zweier Vektoren durch

(x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn )

und die Multiplikation eines Vektors mit einer Zahl λ ∈ R durch

λ · (x1 , . . . , xn ) := (λx1 , . . . , λxn )


2 Ein bemerkenswerter Versuch den Dimensionsbegriff in Form eines Romans einem allge-

meinen Publikum nahezubringen, wurde bereits im Jahre 1884 von Edwin A. Abbott unter
dem Titel Flatland [Abb] unternommen. Inzwischen gibt es einen auf diesem sozialsatiri-
schen Roman basierenden Animationsfilm, siehe [Link] Auf der
DVD wird auch über Möglichkeiten der Darstellung einer vierten Dimension gesprochen.
76 2 Lineare Algebra

definieren. Abb. 2.3 beschreibt die anschauliche Bedeutung dieser Definition


für den Fall n = 2.
Die Addition auf der Menge Rn haben wir bereits in Kapitel 1 studiert. In der
dort verwendeten Begriffswelt ist (Rn , +) eine abelsche Gruppe, nämlich das
n-fache kartesische Produkt (R, +)×(R, +)×. . .×(R, +) der additiven Gruppe
(R, +). Die Multiplikation mit einer Zahl λ ∈ R ist hingegen eine neuartige
Operation, denn für n ≥ 2 handelt es sich dabei nicht um eine Operation,
die zwei Elementen aus Rn ein Element aus Rn zuordnet. Vektoren werden
nicht miteinander multipliziert, sondern nur mit Skalaren, das sind einfache
Zahlen.

−u
u+v
v

u
u+v 2u u

v
− 12 u
u
u

Abb. 2.3 Addition und skalare Multiplikation von Vektoren

Der Nullvektor 0 = (0, 0, . . . , 0) ∈ Rn besitzt als einziger Vektor keine Rich-


tung. Aus der Definition erhalten wir 0 · u = 0 für jedes u ∈ Rn . Hier ist
zu beachten, dass das Symbol 0 in zwei verschiedenen Bedeutungen benutzt
wird: Auf der linken Seite dieser Gleichung handelt es sich um die reelle Zahl
0 ∈ R, auf der rechten Seite um den Nullvektor 0 = (0, 0, . . . , 0) ∈ Rn .
In der klassischen ebenen Geometrie werden Punkte und Geraden als ele-
mentare Objekte des Studiums betrachtet. Zu den Grundannahmen der eu-
klidischen3 Geometrie gehört, dass es durch zwei verschiedene Punkte stets
genau eine Gerade gibt. Diesen Sachverhalt können wir in eine algebraisch
beschriebene Aussage im Raum Rn übersetzen. Starten wir dazu mit zwei
Punkten x = (x1 , x2 ) und y = (y1 , y2 ) ∈ R2 in der Ebene. Die zu diesen
Punkten gehörigen Ortsvektoren bezeichnen wir ebenfalls mit x bzw. y. Sie
verbinden den Nullpunkt mit dem jeweiligen Punkt. Der Vektor w := y − x
3 Euklid von Alexandria ist vor allem durch die Elemente berühmt. In diesem

mehrbändigen Werk sind die damaligen geometrischen Ergebnisse und Anschauungen auf
streng logische Weise dargestellt, vgl. auch Fußnote auf Seite 6.
2.1 Lineare Gleichungssysteme 77

gibt dann die Richtung der Geraden L an, die durch die Punkte x und y
verläuft. Wenn wir alle Punkt der Gestalt x + λw, λ ∈ R betrachten, dann
erhalten wir die gesamte Gerade L (Abb.2.4), d.h.

L = {x + λw | λ ∈ R} ⊂ R2 .

Eine derartige Beschreibung nennt man Parameterdarstellung der Geraden


L. Jede solche Darstellung entspricht einer Abbildung f : R → R2 der Gestalt
f (λ) := x + λw. Die Bildmenge f (R) dieser Abbildung ist die Gerade L.

x + λw L
x + 2w
y = x+w

x − 0.8w w

Abb. 2.4 Parameterdarstellung einer Geraden

Außer durch eine Parametrisierung lässt sich eine Gerade in der Ebene auch
durch eine lineare Gleichung a1 x1 + a2 x2 = b beschreiben. Bei einer solchen
Beschreibung stimmt die Gerade mit der Lösungsmenge

Lös(a1 , a2 | b) := {(x1 , x2 ) ∈ R2 | a1 x1 + a2 x2 = b}

überein. Die Koeffizienten a1 , a2 und die Zahl b sind dabei als feste, gegebene
Größen zu betrachten.
Unter dem Lösen der Gleichung a1 x1 + a2 x2 = b verstehen wir das Auffinden
einer Parametrisierung f : R → R2 der Lösungsmenge Lös(a1 , a2 | b). Die
Parametrisierung soll die Gestalt f (λ) = v +λw haben, sie ist also vollständig
bekannt, wenn die Vektoren v und w bestimmt sind.
Dies wird nicht in jedem Fall gelingen. Wenn zum Beispiel a1 = a2 = 0 und
b 6= 0 ist, dann gibt es kein (x1 , x2 ) ∈ R2 , welches a1 x1 + a2 x2 = b erfüllt.
Die Lösungsmenge Lös(0, 0| b) = ∅ ist dann leer, vorausgesetzt b 6= 0. Ein
weiteres Beispiel ist die Lösungsmenge Lös(0, 0| 0) = R2 , auch dies ist keine
Gerade. In allen anderen Fällen ist Lös(a1 , a2 | b) eine Gerade. Um dies zu
sehen, nehmen wir zunächst a1 6= 0 an. Unter dieser Voraussetzung erhalten
wir aus der gegebenen Gleichung x1 = ab1 − aa21 · x2 und wir können für x2
jedes beliebige λ ∈ R einsetzen. Es ergibt sich
     
b a2 b a2
(x1 , x2 ) = − λ, λ = , 0 + λ − , 1 ∈ Lös(a1 , a2 | b) .
a1 a1 a1 a1
78 2 Lineare Algebra
 
b
Dies ist die gewünschte Parametrisierung f (λ) = v + λw mit v = ,0
  a1
a2
und w = − , 1 . Falls a1 = 0 und a2 6= 0, geht alles analog.
a1
Um die geometrische Anschauung weiter zu fördern, erhöhen wir jetzt die
Dimension. Auch im dreidimensionalen Raum R3 ist eine Gerade durch zwei
ihrer Punkte festgelegt und wir können sie durch eine Parametrisierung f :
R → R3 der Gestalt f (λ) := v + λw beschreiben. Hierbei ist w 6= 0 und
v, w ∈ R3 . Jede Menge der Gestalt L = {v + λw | λ ∈ R} ⊂ R3 mit v, w ∈ R3
und w 6= 0 ist eine Gerade.
Zur Beschreibung einer Geraden im R3 reicht es jedoch nicht aus, eine einzige
lineare Gleichung anzugeben. Schauen wir dazu eine lineare Gleichung

a1 x1 + a2 x2 + a3 x3 = b

an, in der a3 6= 0 ist. Dann ergibt sich x3 = ab3 − aa31 x1 − aa32 x2 und wir können
für x1 und x2 beliebige Werte λ1 ∈ R und λ2 ∈ R einsetzen. Wir erhalten
dann (λ1 , λ2 , ab3 − aa31 λ1 − aa23 λ2 ) = (0, 0, ab3 )+λ1 ·(1, 0, − aa31 )+λ2 ·(0, 1, − aa32 ) als
Element in Lös(a1 , a2 , a3 | b) := {(x1 , x2 , x3 ) ∈ R3 | a1 x1 + a2 x2 + a3 x3 = b}.
In diesem Fall gibt es zwei freie Parameter λ1 , λ2 ∈ R in den Lösungen,
die Parametrisierung ist daher eine Abbildung f : R2 → R3 der Gestalt
f (λ1 , λ2 ) = u + λ1 v + λ2 w. Wie zuvor ist f (R2 ) = Lös(a1 , a2 , a3 | b). Die
Lösungsmenge einer linearen Gleichung ist also eine Ebene im R3 . Um eine
Gerade zu beschreiben, benötigen wir zwei lineare Gleichungen, die beide
gleichzeitig zu erfüllen sind. Die Gerade ist dann der Durchschnitt der beiden
Ebenen, die durch diese Gleichungen definiert werden.
Es folgt ein konkretes Beispiel:

2x1 − x2 + x3 = 2 (I)
−x1 − 4x2 + x3 = 2 . (II)

Um die graphische Darstellung zu erleichtern, formen wir zunächst die zweite


Gleichung um, indem wir von ihr die erste Gleichung subtrahieren und das
Ergebnis durch −3 teilen. Wir erhalten die folgenden beiden Gleichungen:

2x1 − x2 + x3 = 2 (I)
x1 + x2 = 0 . (II′ )

Die Ebenen (I), (II′ ) und ihr Durchschnitt L sind in Abb. 2.5 dargestellt.
Da man durch Addition der Gleichung (I) zum (−3)-fachen von (II′ ) die
Gleichung (II) zurückerhält, hat sich beim Übergang von (I) und (II) zu
(I) und (II′ ) die Lösungsmenge nicht verändert. Geometrisch entspricht die
Ersetzung von (II) durch (II′ ) einer Drehung der Ebene (II) um die Achse L,
wie in Abb. 2.6 angedeutet.
2.1 Lineare Gleichungssysteme 79

x3
x2

Ebene I
2x1 − x2 + x3 = 2

x1

Ebene II′
x1 + x2 = 0

Abb. 2.5 Geometrie der Lösung zweier Gleichungen

Ebene II
−x1 − 4x2 + x3 = 2

Ebene II′

Abb. 2.6 Ersetzung der Gleichung II durch die Gleichung II′


80 2 Lineare Algebra

Um eine Parametrisierung der Geraden L zu erhalten, nutzen wir die Glei-


chung (II′ ) in der Form x2 = −x1 , um in Gleichung (I) die Variable x2 zu
eliminieren. Das ergibt

x3 = 2 − 2x1 + x2 = 2 − 3x1 .

Für x1 können wir beliebige Werte λ ∈ R einsetzen und erhalten schließlich

(x1 , x2 , x3 ) = (λ, −λ, 2 − 3λ) = (0, 0, 2) + λ(1, −1, −3)

als Parametrisierung der Geraden L.


Auch hier kann es passieren, dass durch zwei lineare Gleichungen keine Ge-
rade im R3 definiert wird. Dies ist der Fall, wenn beide Gleichungen dieselbe
Ebene beschreiben. Dann definiert das entsprechende Gleichungssystem eine
Ebene. Beide Ebenen können auch parallel sein, dann ist ihr Schnitt und
somit auch die Lösungsmenge leer.
Als abschließendes geometrisches Beispiel schauen wir uns ein System von
drei linearen Gleichungen im R3 an.

x1 + x2 + x3 = 2 (I)
2x1 + 3x2 + x3 = 4 (II)
x1 + 3x2 =3 (III)

Wie zuvor bilden wir Gleichungen (II′ ) = (II) − 2 · (I) und (III′ ) = (III) − (I)

x1 + x2 + x3 = 2 (I)
x2 − x3 = 0 (II′ )
2x2 − x3 = 1 (III′ )

Nun eliminieren wir x2 aus der Gleichung (III′ ), indem wir (III′′ ) = (III′ ) −
2(II′ ) bilden:

x1 + x2 + x3 = 2 (I)
x2 − x3 = 0 (II′ )
x3 = 1 (III′′ )

Indem wir von unten nach oben einsetzen, erhalten wir x2 = x3 = 1 und
x1 = 2 − x2 − x3 = 0. Damit hat das gegebene lineare Gleichungssystem
genau eine Lösung, nämlich (x1 , x2 , x3 ) = (0, 1, 1).
Die Lösungsmenge eines Systems mit drei Gleichungen und drei Variablen
kann leer, oder ein einzelner Punkt, eine Gerade, eine Ebene oder gar der
gesamte R3 sein.
Um auch bei einer größeren Zahl von Variablen oder Gleichungen eine
übersichtliche Beschreibung zu ermöglichen, hat es sich eingebürgert, die Ko-
2.1 Lineare Gleichungssysteme 81

effizienten in Form einer Matrix zu schreiben. Durch seine Position in der


Matrix ist für jeden Koeffizienten klar, vor welcher Variablen er steht. Im
letzten Beispiel hat die Koeffizientenmatrix die Gestalt
   
111 1112
2 3 1 bzw.  2 3 1 4  ,
130 1303

wenn wir die rechten Seiten der Gleichungen noch hinzufügen, um die erwei-
terte Koeffizientenmatrix zu erhalten.

Nach dieser konkreten und geometrisch-anschaulichen Einführung wenden


wir uns nun dem allgemeinen Fall zu. Um mit beliebig großen Zahlen von
Variablen und Gleichungen umgehen zu können, benutzen wir einfach in-
dizierte Buchstaben x1 , x2 , x3 , . . . für die Variablen und doppelt indizierte
Buchstaben aij zur Bezeichnung der Koeffizienten. Dabei gibt i die Num-
mer der Gleichung und j die Nummer der zugehörigen Variablen xj an. Die
Koeffizientenmatrix für das Gleichungssystem aus m Gleichungen mit n Va-
riablen:
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
.. .. .. .. (2.1)
. . . .
am1 x1 + am2 x2 + . . . + amn xn = bm
hat die Gestalt  
a11 a12 . . . a1n
 ..  ,
A =  ... ..
. . 
am1 am2 . . . amn
wofür abkürzend A = (aij )i,j geschrieben wird, wenn m und n aus dem
Kontext klar sind. Die i-te Zeile enthält den Vektor (ai1 , ai2 , . . . , ain ).
Die erweiterte Koeffizientenmatrix für das Gleichungssystem (2.1) lautet:
 
a11 a12 . . . a1n b1
 .. ..  .
(A| b) =  ... ..
. . . 
am1 am2 . . . amn bm

Eine Matrix mit m Zeilen und n Spalten nennt man auch m × n-Matrix. Um
das Gleichungssystem (2.1) platzsparend notieren zu können, vereinbaren
wir, die Koeffizienten bi und die Unbestimmten xj jeweils als Spaltenvektor
zu schreiben ! !
b1 x1
b := .. und x := .. .
. .
bm xn

Das Produkt einer Matrix A = (aij )i,j mit einem Spaltenvektor, dessen Länge
gleich der Zahl der Spalten der Matrix ist, ist durch folgende Formel definiert:
82 2 Lineare Algebra

 
a11 x1 + a12 x2 + . . . + a1n xn
 a21 x1 + a22 x2 + . . . + a2n xn 
 
A · x :=  . .. ..  .
 .. . . 
am1 x1 + am2 x2 + . . . + amn xn
Das Ergebnis ist ein Vektor, der soviel Einträge hat, wie die Matrix A Zeilen
besitzt. Zur Bestimmung der i-ten Komponente dieses Vektors genügt es, die
i-te ZeilePder Matrix A und den Vektor x zu kennen, denn sie ist gleich der
n
Summe j=1 aij xj . Unter Benutzung dieses Produktes ist A · x = b eine
Abkürzung für das System (2.1) und dessen Lösungsmenge wird mit

Lös(A| b) := {x ∈ Rn | A · x = b}

bezeichnet. Hierbei wird x ∈ Rn als Spaltenvektor aufgefasst.


Unser nächstes Ziel ist es, einen Algorithmus zu beschreiben, mit dessen Hilfe
man jedes System der Gestalt (2.1) lösen kann. Unter einer Lösung wollen
wir auch hier eine Parametrisierung f : Rs → Rn mit f (Rs ) = Lös(A| b)
verstehen. Die Bestimmung der Zahl s ist Teil des Algorithmus. Wir beginnen
mit dem Studium eines Spezialfalls, auf den wir später den allgemeinen Fall
zurückführen werden.

Definition 2.1.1. Eine Matrix besitzt Zeilenstufenform, wenn sie die in


Abb. 2.7 angedeutete Gestalt hat. Dabei steht an jeder der mit ⋆ gekennzeich-

j1 j2 j3 ....... jr n
⋆ 1
⋆ 2
⋆ 3
.. ..
. .
Hier alles gleich 0 ⋆ r

Abb. 2.7 Zeilenstufenform

neten Stellen eine von Null verschiedene reelle Zahl und der untere Bereich
ist völlig mit Nullen ausgefüllt.

Etwas formaler – und somit genauer – heißt dies, dass A = (aij )i,j genau
dann Zeilenstufenform besitzt, wenn die folgenden Bedingungen erfüllt sind:
(i) Es gibt eine ganze Zahl r mit 0 ≤ r ≤ m, so dass die Zeilen mit Nummer
i > r nur Nullen enthalten.
2.1 Lineare Gleichungssysteme 83

(ii) Wenn ji := min{j | aij 6= 0} die kleinste Spaltennummer ist, deren


Eintrag in Zeile i nicht Null ist, dann gilt 1 ≤ j1 < j2 < . . . < jr ≤ n.
Man beachte, dass hier r = 0 zugelassen ist. In diesem Fall ist A die Nullma-
trix, das ist die Matrix deren sämtliche Einträge gleich 0 sind.
In jedem Fall nennen wir r den Rang von A und schreiben r = rk(A). Da
eine Vertauschung der Spalten der Matrix A lediglich einer Umbenennung der
Variablen xi entspricht, können wir zur Erläuterung der allgemeinen Theorie
annehmen, dass ji = i, also j1 = 1, j2 = 2, . . . , jr = r gilt. Eine Matrix in
dieser speziellen Zeilenstufenform vom Rang r > 0 erfüllt dann

a11 6= 0, a22 6= 0, . . . , arr 6= 0 und aij = 0 falls i > j oder i > r.

Sie hat daher die in Abb. 2.8 angedeutete Gestalt.

1 2 3 ....... r n
⋆ 1
⋆ 2
⋆ 3
.. ..
. .
⋆ r

Hier alles gleich 0


m

Abb. 2.8 Spezielle Zeilenstufenform

Sei nun A = (aij )i,j eine Matrix vom Rang r in spezieller Zeilenstufenform.
Wenn es ein j > r gibt mit bj 6= 0, dann hat A · x = b offenbar keine Lösung,
d.h. Lös(A| b) = ∅. Für die Existenz einer Lösung des linearen Gleichungs-
systems A · x = b ist somit

br+1 = br+2 = . . . = bm = 0 (2.2)

notwendig. Diese Bedingung ist auch hinreichend, denn wenn sie erfüllt ist,
können wir die Variablen xr+1 , . . . , xn mit beliebigen Werten λ1 , λ2 , . . . , λn−r
belegen. Man nennt sie daher freie Variablen. Durch sukzessives Einsetzen
von unten nach oben erhält man aus den Gleichungen dann die Werte der
gebundenen Variablen x1 , . . . , xr . Dazu startet man mit der letzten nichttri-
vialen Gleichung ar,r xr + ar,r+1 xr+1 + . . . + ar,n xn = br . Nach Einsetzen der
λi ergibt sich daraus der Wert von xr
84 2 Lineare Algebra

br 1
xr = − · (ar,r+1 λ1 + . . . + ar,n λn−r )
arr arr
n−r
br 1 X
= − · ar,r+k λk .
arr arr
k=1

Wenn bereits xj+1 , . . . , xr berechnet wurden, dann ergibt sich aus der j-ten
Gleichung
1
xj = (bj − aj,j+1 xj+1 − . . . − aj,n xn ) .
ajj
Nach Einsetzen der bereits berechneten Werte enthält der Ausdruck auf der
rechten Seite keine Unbekannten mehr, sondern nur die gegebenen Koeffizi-
enten und die Parameter λk .
In dem wichtigen Spezialfall r = n gibt es keine freien Variablen. Wenn die
Lösbarkeitsbedingung (2.2) erfüllt ist, dann gibt es genau eine Lösung für
das lineare Gleichungssystem Ax = b.
Wenn sogar r = n = m, dann ist jede Zeilenstufenform auch eine spezielle
Zeilenstufenform und die Lösbarkeitsbedingung ist stets erfüllt. Das Glei-
chungssystem besitzt dann genau eine Lösung.
Wenn r = n und b = 0, dann ist die Lösbarkeitsbedingung ebenfalls erfüllt
und x = 0 ist die eindeutig bestimmte Lösung von Ax = b.
Wenn allgemeiner A eine Matrix in (nicht spezieller) Zeilenstufenform ist,
dann sind lediglich die Formeln für die gebundenen Variablen anzupassen,
alles andere bleibt unverändert richtig.

Beispiel 2.1.2.  
02 0 −1 −2 0 3 13
0 0 1 2 3 6 0 7 
(A | b) =  
0 0 0 0 0 3 1 3 
00 0 0 0 00 0
Die freien Variablen sind hier x1 = λ1 , x4 = λ2 , x5 = λ3 und x7 = λ4 . Die
dritte Gleichung ergibt 3x6 = 3 − λ4 . Daraus erhalten wir x6 = 1 − 13 λ4 . Aus
der zweiten Gleichung ergibt sich x3 = 7−2x2 −3x5 −6x6 = 1−2λ2 −3λ3 +2λ4
und aus der ersten x2 = 13 1 3
2 + 2 λ2 + λ3 − 2 λ4 . Der Lösungsvektor x hat somit
die Gestalt
 λ1
  0  0
13 1 3
 0  1  0
+ λ 2 +λ3 − λ4 13 1
1 −3
 1−2λ
2 2 2
2 −3λ3 +2λ4 
 2 0 2
 −2   22 
  1   0  −3 
 λ2  =  0  +λ1  0  +λ2   
 10 +λ3  01  +λ4  00 

 λ3  0 0
0
1− 31 λ4 1 0 0 1
−3
0 0 0 0
λ4 1

und wir haben die gewünschte Parametrisierung der Lösung gefunden.

Die Idee für den allgemeinen Fall, wenn die Matrix nicht in Zeilenstufenform
gegeben ist, besteht darin, die gegebene Matrix A schrittweise in Zeilenstu-
2.1 Lineare Gleichungssysteme 85

fenform zu transformieren, so dass bei keinem der Schritte die Lösungsmenge


verändert wird.
Das im Folgenden beschriebene Eliminationsverfahren, zusammen mit der
Bestimmung der Parametrisierung aus der Zeilenstufenform, wird auch als
Gauß-Verfahren4 oder Gaußscher Algorithmus bezeichnet. Die Grundbau-
steine dieses Algorithmus sind die folgenden beiden elementaren Zeilenum-
formungen, die auf die erweiterte Koeffizientenmatrix (A| b) angewendet wer-
den.
(Z1) Vertauschung zweier Zeilen.
(Z2) Addition des λ-fachen der k-ten Zeile zur i-ten Zeile, i 6= k und λ ∈ R.

 
Satz 2.1.3 Wenn A e eb aus (A| b) durch endlich viele elementare Zeilen-
 
e eb .
umformungen hervorgeht, dann ist Lös (A| b) = Lös A

Beweis. Mittels vollständiger Induktion über die Anzahl der elementaren Zei-
lenumformungen können wir das Problem darauf reduzieren, den Satz für
den Fall einer einzigen elementaren Zeilenumformung zu beweisen. Da die
Lösungsmenge durch die Reihenfolge der Gleichungen nicht beeinflusst wird,
ändert sich durch eine Zeilenvertauschung nichts. Bei einer Umformung vom
Typ (Z2) bleiben alle Zeilen außer der i-ten Zeile unverändert. Daher genügt
es zu zeigen, dass die Lösungsmenge des aus zwei Gleichungen bestehenden
Systems
ai1 x1 + ai2 x2 + . . . + ain xn = bi
(2.3)
ak1 x1 + ak2 x2 + . . . + akn xn = bk
mit der Lösungsmenge des Systems

(ai1 + λak1 )x1 + (ai2 + λak2 )x2 + . . . + (ain + λakn )xn = bi + λbk
(2.4)
ak1 x1 + ak2 x2 + . . . + akn xn = bk

übereinstimmt. Man erhält (2.4), wenn man zur ersten Gleichung von (2.3)
das λ-fache der zweiten Gleichung hinzufügt. Daher ist jede Lösung von (2.3)
auch Lösung von (2.4). Umgekehrt entsteht das System (2.3) dadurch, dass
man zur ersten Gleichung von (2.4) das (−λ)-fache der zweiten Gleichung
addiert, also ist jede Lösung von (2.4) auch Lösung von (2.3). ⊓

4 Carl Friedrich Gauß (1777–1855), deutscher Mathematiker.
Das Gaußsche Eliminationsverfahren findet man in einem alten Chinesischen Mathemati-
klehrbuch, welches vermutlich bereits 200 v.u.Z. vorlag. Das Verfahren wurde von Gauß
in seinem Studium der Bahn des Asteroiden Pallas verwendet. Seine zwischen 1803 und
1809 gemachten Beobachtungen führten ihn auf ein System von sechs linearen Gleichungen
mit ebenso vielen Unbekannten, welches er mit dem beschriebenen Eliminationsverfahren
systematisch löste.
86 2 Lineare Algebra

Der Nutzen von Satz 2.1.3 wird durch den folgenden Satz offensichtlich, des-
sen Beweis uns überdies einen Algorithmus zur Konstruktion einer Para-
metrisierung der Lösungsmenge eines beliebigen linearen Gleichungssystems
liefert.

Satz 2.1.4 Jede Matrix A lässt sich durch endlich viele elementare Zeilen-
umformungen in Zeilenstufenform bringen.

Beweis. Wenn A = 0 die Nullmatrix ist, dann ist nichts zu zeigen. Sei also
A 6= 0. Wir nehmen an, dass A eine m × n-Matrix ist und führen den Beweis
per Induktion über n ≥ 1, die Zahl der Spalten. Wenn n = 1 ist, können
wir durch Permutation der Zeilen erreichen, dass der oberste Eintrag  a11
ai1
nicht gleich 0 ist. Wenn wir dann für jedes 2 ≤ i ≤ m das − a11 -fache
dieser ersten Zeile zur Zeile i addieren, dann erhalten wir die gewünschte
Zeilenstufenform. Das beweist den Induktionsanfang.
Für den Induktionsschritt nehmen wir an, dass die Behauptung des Satzes
bereits für Matrizen mit bis zu n−1 Spalten bewiesen ist. Sei nun j die kleins-
te Nummer einer nichttrivialen Spalte von A, also einer Spalte die nicht nur
Nullen enthält. Da wir A 6= 0 angenommen haben, gibt es ein solches j mit
1 ≤ j ≤ n. In dieser Spalte gibt es einen Eintrag aij 6= 0. Wenn es mehrere
gibt, wählen wir eines davon aus. Man nennt es das Pivotelement . Für die
numerische Stabilität des Verfahrens ist die Auswahl des betragsgrößten Ein-
trags als Pivotelement am günstigsten. Durch Vertauschung derZeilen 1 und
a
i erreichen wir a1j 6= 0. Nun addieren wir für jedes k > 1 das − akj 1j
-fache
der ersten Zeile zur k-ten Zeile. Wir erhalten dadurch eine Matrix der Gestalt
 
0 . . . 0 a1j . . . . . . . .
0 ... 0 0 
 
 .. .. ..  .
. . . B 
0 ... 0 0

Da die Zahl der Spalten von B gleich n − j < n ist, können wir nach Induk-
tionsvoraussetzung die Matrix B durch endlich viele elementare Zeilenopera-
tionen in Zeilenstufenform bringen. Da in den Zeilen 2 bis m links von B in
der großen Matrix nur Nullen auftreten, ändert sich nichts an der Struktur
von A außerhalb des Bereiches von B, wenn elementare Zeilenumformungen
auf die Zeilen 2 bis m angewendet werden. Das ergibt dann insgesamt eine
Zeilenstufenform für die gesamte Matrix, womit der Satz bewiesen ist. ⊓

Damit erhalten wir folgende Beschreibung des Gaußschen Algorithmus:
(G1) Erweiterte Koeffizientenmatrix (A| b) aufschreiben.
(G2) Erzeugung einer Zeilenstufenform für A, wie im Beweis von Satz 2.1.4.
Die elementaren Zeilenoperationen werden auf (A| b) angewendet, es
wird jedoch kein Pivotelement in der Spalte b gesucht.
2.1 Lineare Gleichungssysteme 87

(G3) Mit dem Lösbarkeitskriterium (2.2) stelle man fest, ob es Lösungen


gibt. Wenn ja, dann berechne man eine Parametrisierung für Lös (A| b)
in der zuvor erläuterten Weise.

Beispiel 2.1.5. (G1) Die erweiterte Koeffizientenmatrix des Gleichungssys-


tems
 
x1 + 2x2 + x3 = −1 1 2 1 −1
3x1 + 4x2 + 4x3 = −4 lautet (A | b) =  3 4 4 −4  .
x1 + 2x3 = −2 1 0 2 −2

(G2) Das Pivotelement wurde bereits gekennzeichnet, es ist der Eintrag a11 .
Nun führen wir zwei elementare Zeilenumformungen vom Typ (Z2) durch,
nämlich (Zeile II)−3·(Zeile I) und (Zeile III)−(Zeile I). Dabei wird immer die
zuerst genannte Zeile durch das erhaltene Ergebnis ersetzt. Es ergibt sich
 
1  2 1 −1
 0 −2 1 −1  .
 
0 −2 1 −1

Das neue Pivotelement ist wieder gekennzeichnet. Durch die elementare Zei-
lenoperation (Zeile III)−(Zeile II) erhalten wir Zeilenstufenform:
 
1 2 1 −1
 0 −2 1 −1  .
0 0 0 0

(G3) Jetzt könnte man in der zuvor beschriebenen Weise vorgehen. Statt
dessen werden wir mit Hilfe von elementaren Zeilenumformungen auch noch
oberhalb der Pivotelemente Nullen erzeugen. Danach ist das Ablesen der
Lösungen wesentlich weniger aufwändig. In unserem Beispiel ist dazu nur
noch die elementare Zeilenoperation (Zeile I)+(Zeile II) durchzuführen. Das
ergibt:  
1 0 2 −2
 0 −2 1 −1  .
0 0 0 0
Die Lösbarkeitsbedingung (2.2) ist erfüllt. Die einzige freie Variable ist x3 , sie
wird durch den Parameter λ ersetzt. Aus der ersten Gleichung erhalten wir
x1 = −2 − 2x3 = −2 − 2λ und aus der zweiten Gleichung −2x2 = −1 − x3 =
−1 − λ. Das liefert schließlich die folgende Lösung des Gleichungssystems,
wobei λ ∈ R beliebig ist:
       
x1 −2 − 2λ −2 −2
x2  = 1/2 + λ/2 = 1/2 + λ · 1/2 .
x3 λ 0 1
88 2 Lineare Algebra

Bemerkung 2.1.6. Für die praktische Durchführung von Schritt (G3) im


Gaußschen Algorithmus empfiehlt es sich, so wie im Beispiel praktiziert,
durch elementare Zeilenoperationen oberhalb der Pivotelemente auch noch
Nullen zu erzeugen. Dazu beginnt man mit dem untersten Pivotelement und
wendet elementare Zeilenoperationen (Z2) an, wie bei der Erzeugung der Nul-
len unterhalb der Pivotelemente. Dies ändert die Zeilenstufenstruktur nicht,
da links vom Pivotelement nur Nullen stehen und von unten nach oben ge-
arbeitet wird. Das auf diese Weise komplettierte Verfahren wird manchmal
auch als Gauß-Jordan-Verfahren5 bezeichnet.

Nachdem wir nun ein Verfahren kennengelernt haben, welches uns zu jedem
linearen Gleichungssystem A · x = b eine Parametrisierung f : Rr → Rn der
Lösungsmenge Lös(A| b) ⊂ Rn liefert, kehren wir nochmals zur analytischen
Geometrie zurück.

Definition 2.1.7. Eine Teilmenge U ⊂ Rn heißt affiner Raum, falls es Vek-


toren u, v1 , . . . , vr ∈ Rn gibt, so dass U = {u + λ1 v1 + · · · + λr vr | λi ∈ R}
gilt. Das minimale r, für welches eine solche Darstellung möglich ist, heißt
Dimension von U . Wir schreiben dann r = dim U .

Wenn dim U = 0, dann besteht U nur aus einem Punkt. Wenn dim U = 1,
dann heißt U Gerade, und falls dim U = 2, so nennt man U eine Ebene. Dies
stimmt mit der zu Beginn des Kapitels eingeführten Begriffsbildung im Fall
r = 2 und r = 3 überein.
Mit Hilfe des Gaußschen Algorithmus sehen wir, dass die Lösungsmenge
Lös(A| b) ⊂ Rn jedes linearen Gleichungssystems A · x = b ein affiner Raum
ist. Die Zahl r, also die Anzahl der von 0 verschiedenen Zeilen in der Zei-
lenstufenform von A, hat die geometrische Bedeutung n − r = dim Lös(A| b),
denn n − r ist gerade die Anzahl der freien Variablen. Um zu sehen, dass
diese Definition der Dimension korrekt ist, zeigen wir später, wenn etwas
mehr von der allgemeinen Theorie entwickelt wurde, dass jede beliebige Zei-
lenstufenform, die wir mit endlich vielen elementaren Zeilenoperationen aus
A erhalten, denselben Rang r besitzt.
In vielen Bereichen der Mathematik, vor allem in der Algebra einschließlich
der linearen Algebra, erzielt man wesentliche Fortschritte und tiefe Einsichten
durch das strukturelle Studium der Untersuchungsgegenstände. Das gilt auch
für das Studium der Lösungsmenge Lös(A| b) eines linearen Gleichungssys-
tems Ax = b. Die folgenden drei Beobachtungen dienen als Grundlage für die
im nächsten Abschnitt durchgeführte Abstraktion – sie sollen den Übergang
dorthin vorbereiten.
Beobachtung 1: Wenn u, v ∈ Lös(A| b), dann u − v ∈ Lös(A| 0), s. Abb. 2.9.

Wenn u, v ∈ Lös(A| b), dann gilt Au = b und Av = b. Subtraktion dieser


Gleichungen ergibt A(u − v) = 0, d.h. u − v ∈ Lös(A| 0). Um dies einzusehen,
5 Camille Jordan (1838–1922), französischer Mathematiker.
2.1 Lineare Gleichungssysteme 89

x2

u−v
Lös(A| b)

u
v

x3

Lös(A| 0)

u−v

x1

Abb. 2.9 Differenz u − v ∈ Lös(A| 0)

erinnern wir uns an die Definition des Produktes


! A ·! u. Wenn (ai1 , . . . , ain )
u1 v1
die i-te Zeile der Matrix A und u = .. , v = .. ist, dann ist der i-te
. .
un vn
Pn Pn
Eintrag von A · u gleich
Pn uk und der vonPA · v ist gleich k=1 aik vk .
k=1 aikP
n n
Ihre Differenz ist k=1 aik uk − k=1 aik vk = k=1 aik (uk − vk ), und dies
ist der i-te Eintrag des Vektors A · (u − v).
Beobachtung 2: Für jedes u ∈ Lös(A| b) gilt, siehe Abb. 2.10,

Lös(A| b) = u + Lös(A| 0) = {u + v | v ∈ Lös(A| 0)} .


90 2 Lineare Algebra

Die affinen Unterräume der Gestalt Lös(A| 0) ⊂ Rn sind genau die, welche
den Nullvektor 0 enthalten. Diese nennt man auch lineare Unterräume des
Rn . Da man die Addition eines Vektors auch als Parallelverschiebung inter-
pretieren kann, besagt diese Beobachtung, dass alle affinen Unterräume durch
Parallelverschiebung aus linearen Unterräumen hervorgehen.

x2

Lös(A| b′ ) = u′ + Lös(A| 0)
Lös(A| b) = u + Lös(A| 0)

x3

u′

Lös(A| 0)

x1

Abb. 2.10 affine Unterräume Lös(A| b) = u + Lös(A| 0)

Dies ist in gewissem Sinne die Umkehrung der Beobachtung 1, denn aus dieser
erhalten wir die Inklusion Lös(A| b) ⊂ u+Lös(A| 0). Um auch die umgekehrte
Inklusion und damit die behauptete Gleichheit einzusehen, betrachten wir
u ∈ Lös(A| b) und v ∈ Lös(A| 0). Dann ist Au = b und Av = 0 und durch
Addition ergibt sich A(u + v) = b, wie gewünscht.
Beobachtung 3: Für u, v ∈ Lös(A| 0) und λ ∈ R gilt, siehe Abb. 2.11,
2.1 Lineare Gleichungssysteme 91

u + v ∈ Lös(A| 0) und λ · u ∈ Lös(A| 0) .

Das bedeutet, dass die Lösungsmenge Lös(A| 0) dieselben formalen Eigen-


schaften wie der Rn besitzt. Das wird im Abschnitt 2.2 zum Begriff des
Vektorraumes verallgemeinert. Zum Beweis können wir erneut die beiden

x2

x3

u
−v
2 u+v

x1
v

Lös (A| 0)

Abb. 2.11 Wenn u, v ∈ Lös(A| 0), dann λ · u, u + v ∈ Lös(A| 0)

Gleichungen Au = 0 und Av = 0 addieren und erhalten A(u + v) = 0. Ein


ausführliches Hinschreiben der Definition des Produktes Au liefert λ · (Au) =
A · (λu), woraus sich λu ∈ Lös(A| 0) ergibt.

Bemerkung 2.1.8. Der Gaußsche Algorithmus beschreibt den linearen Un-


terraum Lös (A| 0) in der Form
( s )
X

Lös (A| 0) = λk vk λk ∈ R ,

k=1

wobei v1 , . . . , vs ∈ Lös(A| 0) sind. Hierbei tritt kein konstanter (d.h. parame-


terfreier) Summand auf, da die bi = 0 sind. Eine solche Menge von Vektoren
v1 , . . . , vs ∈ Lös(A| 0) werden wir später Basis dieses linearen Unterraumes
nennen, vorausgesetzt s = n − r besitzt die durch den Algorithmus gesicherte
Minimalitätseigenschaft.

Wer bereits das Kapitel 1 studiert hat, mag sich beim Lesen dieses Abschnit-
tes gefragt haben, ob es möglich wäre, den Gaußschen Algorithmus durch-
92 2 Lineare Algebra

zuführen, wenn wir die reellen Zahlen R durch eine der im Kapitel 1 studierten
algebraischen Strukturen ersetzen würden.
Da in einer linearen Gleichung Ausdrücke der Gestalt aij · xj summiert wer-
den, benötigen wir zwei Verknüpfungsoperationen, um lineare Gleichungs-
systeme überhaupt formulieren zu können. Unter den in Kapitel 1 studierten
algebraischen Strukturen waren Ringe und Körper mit zwei Verknüpfungen
ausgestattet. Da jeder Körper auch Ring ist, gehen wir zunächst der Frage
nach, wie weit wir alles in diesem Abschnitt Gesagte wiederholen können,
wenn die reellen Zahlen R durch einen beliebigen Ring R ersetzt werden.
Unter dieser Annahme kann man lineare Gleichungssysteme weiterhin mit
Hilfe von Matrizen in der Gestalt A · x = b beschreiben. Die Einträge aij
der Matrix A und die Komponenten bi des Vektors b sind dann Elemente des
Ringes R. Die beiden elementaren Zeilenoperationen (Z1) und (Z2) lassen
sich für einen beliebigen Ring R formulieren. Der Beweis, dass sich Lös(A| b)
unter (Z1) und (Z2) nicht ändert, bleibt richtig.
Die erste Stelle, an der wir nicht weiterkommen, befindet sich im Beweis
von Satz 2.1.4. Dort mussten wir durch das Pivotelement teilen, um die
nötigen Nullen zu erzeugen. Das ist in allgemeinen Ringen jedoch nicht im-
mer möglich. Das gleiche Problem hindert uns daran, aus einer Zeilenstufen-
form eine Parametrisierung der Lösung hinzuschreiben. Um alles unverändert
übernehmen zu können, müssen wir durch beliebige, von Null verschiedene
Elemente des Ringes R dividieren können. Dies ist genau dann der Fall,
wenn der Koeffizientenbereich ein Körper ist. Wenn wir an einer Parame-
trisierung von Lös(A| b) interessiert sind, dann sollten die Koeffizienten aus
einem Körper K sein. Alles was in diesem Abschnitt gesagt wurde, bleibt
dann richtig.

Aufgaben

Übung 2.1. Lösen Sie das folgende lineare Gleichungssystem.

x2 + 2x3 + 3x4 = 4
x1 + 2x2 + 3x3 + 4x4 = 5
2x1 + 3x2 + 4x3 + 5x4 = 6
3x1 + 4x2 + 5x3 + 6x4 = 7

Übung 2.2. Lösen Sie das folgende lineare Gleichungssystem.

x1 + x2 = 10
x1 + x2 + x3 = 17
x2 + x3 + x4 = 20
x3 + x4 = 12
2.2 Vektorräume und lineare Abbildungen 93

Übung 2.3. Ermitteln Sie alle t ∈ R, für die das durch die folgende erwei-
terte Koeffizientenmatrix gegebene lineare Gleichungssystem lösbar ist und
bestimmen Sie im Fall der Lösbarkeit die Lösungsmenge:
 
2 4 2 12t
 2 12 7 12t + 7 

1 10 6 7t + 8

Übung 2.4. Zeichnen Sie in der reellen Ebene R2 mit den Koordinaten x1 , x2
für jede der folgenden Gleichungen die Lösungsmenge.
(I) 3x2 = 6.
(II) 2x1 = 6.
(III) 2x1 + 4x2 = b für zwei verschiedene Werte von b ∈ R.
(IV) Die durch II − a · I“ definierte Menge für zwei verschiedene Werte

a ∈ R mit a 6= 1, a 6= 0.

Übung 2.5. In dieser Aufgabe sind alle Zahlen als Elemente des Körpers F2
zu interpretieren, insbesondere auch xi ∈ F2 . Lösen Sie das folgende lineare
Gleichungssystem und geben Sie eine vollständige Liste aller Lösungen (ohne
Benutzung von Parametern) an.

x3 + x4 =0
x1 + x2 + x3 + x4 + x5 + x6 =0
x2 + x3 + x5 =1
x1 + x3 + x6 =1
x2 + x4 + x5 =1
x1 + x6 =1

Übung 2.6. Lösen Sie das folgende System von Kongruenzen.

x + 2y ≡4 mod 7
x+ y + z ≡4 mod 7
3y + 2z ≡ 6 mod 7

2.2 Vektorräume und lineare Abbildungen

Die angekündigte Strukturtheorie basiert auf den Begriffen des Vektorrau-


mes und der linearen Abbildung. In diesen Begriffen sind die wesentlichen
Eigenschaften von Systemen linearer Gleichungen und deren Lösungsmengen
festgehalten. Es handelt sich hier um eine Abstraktion, ähnlich zur Vorge-
hensweise in den Abschnitten 1.2 und 1.3.
Zur Vorbereitung der Anwendungen in der Codierungstheorie trennen wir
uns von der unnötigen Einschränkung, nur reelle Zahlen als Skalare zu ver-
wenden. Wie am Ende des vorigen Abschnittes bemerkt, können wir Skalare
94 2 Lineare Algebra

aus einem beliebigen Körper zur Multiplikation mit Vektoren zulassen. Zur
Formulierung der allgemeinen Theorie fixieren wir einen Körper K. Als kon-
kretes Beispiel können wir dafür die im Kapitel 1 studierten Körper Q, R, C,
und Fp einsetzen.

Definition 2.2.1. Eine nichtleere Menge V , die mit zwei Verknüpfungen,

einer Addition, +:V ×V →V und


einer skalaren Multiplikation, ·:K ×V →V

ausgestattet ist, heißt Vektorraum über dem Körper K (kurz K-Vektorraum),


falls die folgenden Bedingungen erfüllt sind:

(V, +) ist eine abelsche Gruppe (2.5)

und für beliebige v, w ∈ V und λ, µ ∈ K gilt

(λµ) · v = λ · (µ · v) (2.6)
(λ + µ) · v = λ · v + µ · v (2.7)
λ · (v + w) = λ · v + λ · w (2.8)
1·v = v . (2.9)

Das neutrale Element 0 der additiven abelschen Gruppe (V, +) nennt man
den Nullvektor. Das additive Inverse eines Vektors v ∈ V wird wie üblich mit
−v bezeichnet. Dieser Vektor ist durch die Gleichung v + (−v) = 0 festge-
legt. Unter ausschließlicher Benutzung der in Definition 2.2.1 aufgeführten
Eigenschaften können wir
(−1) · v = −v
zeigen. Dazu nutzen wir zunächst (2.5) und (2.7), um zu erkennen, dass

0 · v = (0 + 0) · v = 0 · v + 0 · v

gilt. Mit Hilfe von (2.5) ergibt sich daraus 0 · v = 0. Daher ist

v + (−1) · v = 1 · v + (−1) · v wegen (2.9)


= (1 + (−1)) · v wegen (2.7)
= 0·v = 0 .

Wegen der Eindeutigkeit des additiven Inversen folgt daraus die gewünschte
Gleichung (−1) · v = −v. Auf ähnliche Weise erhält man λ · 0 = 0 für alle
λ ∈ K. So kann man auch zeigen, dass nur dann λ · v = 0 gelten kann, wenn
λ = 0 oder v = 0.
2.2 Vektorräume und lineare Abbildungen 95

Definition 2.2.2. Eine nichtleere Teilmenge U ⊂ V eines K-Vektorraumes


heißt Untervektorraum (kurz: Unterraum), wenn für alle v, w ∈ U und alle
λ ∈ K stets v + w ∈ U und λ · v ∈ U gilt.

Wenn U ⊂ V ein Unterraum ist, dann ist U mit der von V geerbten Addition
und skalaren Multiplikation ein K-Vektorraum.

Beispiel 2.2.3. (i) Für jede ganze Zahl n ≥ 1 ist die Menge der n-Tupel
K n := {(x1 , . . . , xn ) | xi ∈ K} ein K-Vektorraum, wenn wir die Additi-
on und skalare Multiplikation durch die folgenden Formeln definieren:

(x1 , . . . , xn ) + (y1 , . . . , yn ) := (x1 + y1 , . . . , xn + yn ) und


λ · (x1 , . . . , xn ) := (λx1 , . . . , λxn ) .

Es ist üblich, die Elemente von K n als Spaltenvektoren zu denken. In


diesem Buch sind sie zur Platzersparnis jedoch oft auch als Zeilenvekto-
ren gedruckt.
Falls K = R, dann sind das genau die im Abschnitt 2.1 studierten Vek-
torräume. Wenn n = 0 ist, setzt man K 0 = {0}. Dies ist der Vektorraum,
der nur aus dem Nullvektor besteht.
(ii) Die komplexen Zahlen C bilden einen R-Vektorraum. Anwendungen der
linearen Algebra beim Studium von Körpern beruhen auf der Beobach-
tung, dass jeder Körper F als Vektorraum über jedem seiner Teilkörper
K ⊂ F aufgefasst werden kann. So ist zum Beispiel R ein Q-Vektorraum,
da Q ⊂ R ein Teilkörper ist.
(iii) Der Polynomring K[X] ist ein K-Vektorraum, dessen Addition und ska-
lare Multiplikation bereits in der Ringstruktur enthalten sind.
(iv) Die Menge Mat(m × n, K) aller m × n-Matrizen mit Einträgen aus K ist
ein K-Vektorraum. Die Addition und skalare Multiplikation sind kom-
ponentenweise definiert. Das heißt, wenn wir abkürzend
 
a11 . . . . a1n
 ..  = (a )
A =  ... .  ij
am1 . . . . amn

schreiben und B = (bij ) von derselben Größe wie A ist, dann ist die
Summe A + B = (aij + bij ) und das skalare Vielfache λ · A = (λaij ).
Die Bezeichnung ist immer so gewählt, dass aij in Zeile i und Spalte j
steht.
(v) Wenn K = R und A ∈ Mat(m × n, R), dann ist Lös(A| 0) ⊂ Rn ein
Unterraum des R-Vektorraumes Rn .
Für 0 6= b ∈ Rm ist jedoch Lös(A| b) ⊂ Rn kein Untervektorraum, zum
Beispiel weil dann 0 6∈ Lös(A| b).
(vi) Die Menge I := {f ∈ K[X] | f (1) = 0} ⊂ K[X] ist ein Untervektor-
raum. Allgemeiner gilt, dass jedes Ideal in K[X] ein Unterraum ist.
96 2 Lineare Algebra

(vii) Die Menge K[X]≤d ⊂ K[X] aller Polynome, deren Grad höchstens gleich
d ist, ist ein K-Unterraum.
Definition 2.2.4. Ein Vektor v ∈ V in einem K-Vektorraum V heißt Line-
arkombination der Vektoren v1 , v2 , . . . , vr ∈ V , wenn es λ1 , . . . , λr ∈ K gibt,
so dass
X r
v= λi vi
i=1
Pr
gilt. Die Menge Lin(v1 , . . . , vr ) := { i=1 λi vi | λi ∈ K} aller Linearkombina-
tionen der Vektoren v1 , . . . , vr heißt lineare Hülle dieser Menge von Vektoren.
Bemerkung 2.2.5. Die Menge Lin(v1 , . . . , vr ) ⊂ V ist der kleinste Unter-
raum, der die Vektoren v1 , . . . , vr enthält, denn für jeden Unterraum W ⊂ V ,
der v1 , v2 , . . . , vr enthält, ist nach Definition 2.2.2 sicher Lin(v1 , . . . , vr ) ⊂ W .
Dass Lin(v1 , . . . , vr ) ⊂ V selbst ein Unterraum ist, folgt ebenso leicht aus De-
finition 2.2.2. Diese Eigenschaft rechtfertigt, dass man Lin(∅) := {0} setzt.
Beispiel 2.2.6. (i) Sei ei = (0, . . . , 0, 1, 0, . . . , 0) ∈ K n der Vektor mit ei-
ner 1 an der Stelle i und Nullen an allen anderen Pn Stellen. Dann ist
Lin(e1 , e2 , . . . , en ) = K n , denn (x1 , . . . , xn ) = i=1 xi ei .
(ii) Für den R-Vektorraum C gilt Lin(1) = R ⊂ C und Lin(1, i) = C, denn
jede komplexe Zahl hat die Form a + bi = a · 1 + b · i, wobei a, b ∈ R.
Wenn wir C als C-Vektorraum auffassen, dann gilt jedoch Lin(1) = C.
Daher wäre es angebracht, hier LinC (1) = C und zuvor LinR (1) = R ⊂ C
zu schreiben. Wenn derartige Verwechslungsmöglichkeiten bestehen, dann
werden wir LinK (v1 , . . . , vr ) statt Lin(v1 , . . . , vr ) schreiben.
Im Abschnitt 2.1 hat sich gezeigt, dass man Lösungsmengen linearer Glei-
chungssysteme sehr bequem mit Hilfe von Linearkombinationen von Vektoren
beschreiben kann. Das legt nahe, im Kontext dieses Abschnittes ganz allge-
mein der Frage nachzugehen, wann jeder Vektor eines Vektorraumes V als
Linearkombination gegebener Vektoren v1 , . . . , vr dargestellt werden kann,
und wann eine solche Darstellung eindeutig ist. Dazu sind die folgenden Be-
griffsbildungen nützlich.
Definition 2.2.7. Sei V ein K-Vektorraum und v1 , . . . , vr ∈ V Vektoren,
die nicht notwendigerweise paarweise verschieden sind. Die aus r Vektoren
bestehende Liste (v1 , . . . , vr ) heißt:
der Nullvektor nur mit λ1 = λ2 = · · · = λr = 0
(1) linear unabhängig, fallsP
r
als Linearkombination i=1 λi vi dargestellt werden kann. Mit anderen
Worten:
r
X
∀ λ1 , . . . , λr ∈ K : λi vi = 0 =⇒ λ1 = λ2 = · · · = λr = 0 .
i=1

(2) linear abhängig, wenn sie nicht linear unabhängig ist.


2.2 Vektorräume und lineare Abbildungen 97

(3) Erzeugendensystem von V , falls Lin(v1 , . . . , vr ) = V gilt.

Bemerkung 2.2.8. Wir sprechen in Definition 2.2.7 von einer Liste von Vek-
toren und nicht von einer Menge, um hervorzuheben, dass zum Beispiel die
Listen (v) und (v, v) voneinander verschieden sind. Wenn v 6= 0, dann ist
die erste linear unabhängig, die zweite jedoch nicht. Es wäre falsch von einer
Menge statt einer Liste von Vektoren zu sprechen, denn {v} = {v, v} und so-
mit wäre der Unterschied zwischen den Listen (v) und (v, v) verschwunden.
Bei der Definition des Begriffes Erzeugendensystem spielt diese Unterschei-
dung jedoch keine Rolle. Außerdem beeinflusst eine Permutation der Elemen-
te in einer Liste nicht die Eigenschaft, linear unabhängig zu sein. Schließlich
wird die Definition dadurch ergänzt, dass wir auch die leere Liste als linear
unabhängig betrachten.

Wenn (v1 , . . . , vr ) ein Erzeugendensystem


Pr von V ist, dann lässt sich jeder
Vektor aus V als Linearkombination i=1 λi vi schreiben. Diese Darstellung
muss allerdings nicht eindeutig sein.
Wenn (v1 , . . . , vr ) eine linear unabhängige Liste ist, dann gibt esPfür jedes
r
v ∈ Lin(v1 , . . . , vrP
) ⊂ V genau P eine Darstellung der Gestalt
Pr v = i=1 λi vi ,
r r
denn wenn v = i=1 λi vi = i=1 µi vi , dann gilt i=1 (λi − µi )vi = 0,
woraus wegen der Definition der linearen Unabhängigkeit λi = µi für alle i
folgt.
Wenn (v1 , . . . , vr ) ein linear unabhängiges Erzeugendensystem
Pr ist, dann
können wir jeden Vektor aus V eindeutig in der Form i=1 λi vi schreiben.
Das führt zu folgender Definition.

Definition 2.2.9. Eine Liste (v1 , . . . , vr ) von Vektoren aus V heißt Basis des
K-Vektorraumes V , falls es sich um ein linear unabhängiges Erzeugendensys-
tem von V handelt.

Beispiel 2.2.10. (i) Falls v ∈ V , dann ist die einelementige Liste (v) genau
dann linear unabhängig, wenn v 6= 0 gilt.
(ii) Sobald in einer Liste (v1 , . . . , vr ) ein Element vi = 0 ist, ist sie linear
abhängig. Das gleiche gilt, wenn für ein Paar von verschiedenen Indizes
i 6= j die entsprechenden Vektoren vi = vj gleich sind.
(iii) (e1 , . . . , en ) ist Basis von K n .
(iv) (1, x, x2 , . . . , xd ) ist Basis von K[X]≤d .
(v) (1, i) ist Basis von C als R-Vektorraum.
(vi) Für jeden Körper K, betrachtet als K-Vektorraum, ist (1) eine Basis.
Das ist Beispiel (iii) für n = 1.

Wir nennen eine linear unabhängige Liste von Vektoren (v1 , . . . , vr ) nicht ver-
längerbar oder maximal, falls für jeden Vektor v ∈ V die Liste (v1 , . . . , vr , v)
linear abhängig ist. Ein Erzeugendensystem (v1 , . . . , vr ) wollen wir un-
verkürzbar oder minimal nennen, wenn nach Weglassen eines der Vektoren
vi aus dieser Liste kein Erzeugendensystem mehr vorliegt.
98 2 Lineare Algebra

Satz 2.2.11 Sei V ein K-Vektorraum und (v1 , . . . , vr ) eine Liste von Vek-
toren aus V . Folgende Aussagen sind äquivalent:
(a) (v1 , . . . , vr ) ist Basis von V ,
(b) (v1 , . . . , vr ) ist eine nicht verlängerbare linear unabhängige Liste,
(c) (v1 , . . . , vr ) ist ein unverkürzbares Erzeugendensystem.

Beweis. Wir beweisen die Implikationen (a) ⇒ (b) ⇒ (c) ⇒ (a), woraus
dann schließlich die Äquivalenz der drei Aussagen folgt. Dieser bequemen
Beweismethode werden wir noch mehrmals begegnen.
(a) ⇒ (b): Sei (v1 , . . . , vr ) eine Basis von V . Dann ist diese Liste auch linear
unabhängig und wir müssen nur noch zeigen, dass sie nicht verlängerbar ist.
Sei dazuP v ∈ V beliebig. Da die gegebene Liste eine Basis ist, gibt es λi ∈ K
r
mit v = i=1 λi vi und das liefert 0 = (−1) · v + λ1 v1 + · · · + λr vr . Somit ist
(v1 , . . . , vr , v) linear abhängig, was zu beweisen war.
(b) ⇒ (c): Sei (v1 , . . . , vr ) eine linear unabhängige Liste, die nicht verlänger-
bar ist. Das heißt, dass für jedes v ∈ V Skalare λi ∈ K und λ ∈ K mit
λv + λ1 v1 + · · · + λr vr = 0 existieren, die nicht sämtlich gleich 0 sind. Wäre
λ = 0, so müssten auch alle λi = 0 sein, da (v1 , . . . , vr ) linear unabhängig ist.
Daher ist λ 6= 0 und v = − λλ1 v1 − . . . − λλr vr . Also ist (v1 , . . . , vr ) ein Erzeu-
gendensystem. Wäre es verkürzbar, so könnte man einen der Vektoren vi als
Linearkombination der restlichen darstellen, was der linearen Unabhängigkeit
von (v1 , . . . , vr ) widerspräche. Das zeigt, dass (v1 , . . . , vr ) ein unverkürzbares
Erzeugendensystem ist.
(c) ⇒ (a): Sei (v1 , . . . , vr ) ein unverkürzbares Erzeugendensystem. Wäre die-
se Liste linear abhängig, so gäbe es λi ∈ K, die nicht sämtlich 0 sind, mit
P r
i=1 λi vi = 0. Nach geeigneter Umnummerierung können wir annehmen,
dass λr 6= 0 ist. Dann wäre vr = − λλ1r v1 − . . . − λλr−1 r
vr−1 , woraus sich
ergäbe, dass bereits (v1 , . . . , vr−1 ) ein Erzeugendensystem ist. Dies wider-
spräche jedoch der angenommenen Unverkürzbarkeit des Erzeugendensys-
tems (v1 , . . . , vr ). Somit ist (v1 , . . . , vr ) linear unabhängig, also eine Basis.


Der Begriff der Basis eines Vektorraumes ist das entscheidende Bindeglied
zwischen der allgemeinen Theorie der Vektorräume und konkreten Rechnun-
gen und damit auch zu unserer geometrischen Anschauung. Um eine Ver-
bindung der allgemeinen Theorie zu konkreten Rechnungen zu ermöglichen,
benötigen wir die grundlegende Tatsache, dass alle Basen eines Vektorraumes
dieselbe Anzahl von Elementen besitzen. Der folgende Satz dient zur Vorbe-
reitung des Beweises dieser wichtigen und nicht offensichtlichen Tatsache.

Satz 2.2.12 Wenn (v1 , . . . , vr ) eine Basis und (w1 , . . . , ws ) eine linear un-
abhängige Liste von Vektoren eines K-Vektorraumes V ist, dann gilt r ≥ s.
2.2 Vektorräume und lineare Abbildungen 99

Beweis. Da (v1 , . . . , vr ) eine Basis und damit auch Erzeugendensystem


Pr ist,
gibt es für jedes 1 ≤ j ≤ s Elemente aij ∈ K mit i=1 aij vi = wj . Wir
betrachten nun das lineare Gleichungssystem A · x = 0 mit der Matrix
A = (aij ) ∈ Mat(r × s, K) und dem Vektor x ∈ K s mit Komponenten
xi . Wie am Ende von Abschnitt 2.1 bemerkt, sind die dortigen Resultate
nicht nur für K = R, sondern für beliebige Körper K gültig. Insbesondere
können wir A mittels elementarer Zeilentransformationen in Zeilenstufenform
Ae überführen. Es gilt dann Lös(A| 0) = Lös(A|
e 0). Die Lösbarkeitsbedingung
e
ist für A erfüllt, da die rechte Seite der Gleichung der Nullvektor ist. Wäre
nun, im Gegensatz zur Behauptung des Satzes, r < s, so hätte A e mehr
Spalten als Zeilen. Es gäbe also mindestens eine freie Variable. Das hat
s
zur Folge, dass es eine Lösung Ps0 6= x ∈ K gibt. Sei x = (λ1 , . . . , λs ) ei-
ne solche Lösung. Dann gilt j=1 aij λj = 0 für 1 ≤ i ≤ r und das ergibt
P P P P P
0 = ri=1 ( sj=1 aij λj ) · vi = sj=1 ( ri=1 aij vi )λj = sj=1 λj wj im Wider-
spruch zur linearen Unabhängigkeit der Liste (w1 , . . . , ws ). Damit muss, wie
behauptet, r ≥ s sein. ⊓

Satz 2.2.13 Sei V ein K-Vektorraum, welcher ein endliches Erzeugenden-


system besitzt. Dann besitzt V eine Basis, die aus endlich vielen Vektoren
besteht. Außerdem haben alle Basen von V dieselbe Anzahl von Elementen.

Beweis. Durch Streichung endlich vieler Elemente eines beliebigen endlichen


Erzeugendensystems erhält man ein unverkürzbares Erzeugendensystem, wel-
ches nur endlich viele Elemente enthält. Nach Satz 2.2.11 ist dies dann eine
Basis.
Seien (v1 , . . . , vr ) und (w1 , . . . , ws ) zwei Basen. Da beide Listen auch linear
unabhängig sind, können wir zweimal, jeweils mit vertauschten Rollen, den
Satz 2.2.12 auf diese beiden Listen anwenden, und erhalten sowohl s ≥ r als
auch r ≥ s, das heißt r = s. ⊓

Dieser Satz garantiert die Korrektheit der folgenden Definition.

Definition 2.2.14. Sei V ein K-Vektorraum. Wenn V ein endliches Erzeu-


gendensystem besitzt, dann heißt die Zahl der Elemente einer (und somit je-
der) Basis von V die Dimension von V . Wir schreiben für diese Zahl dimK V .
Wenn es kein endliches Erzeugendensystem für V gibt, sagen wir V ist un-
endlichdimensional und schreiben dimK V = ∞.

Bemerkung 2.2.15. Mit Hilfe von Satz 2.2.11 lässt sich zeigen, dass ein K-
Vektorraum V genau dann unendlichdimensional ist, wenn für jede natürliche
Zahl n ≥ 0 eine linear unabhängige Liste existiert, die genau n Elemente aus
V enthält.

Beispiel 2.2.16. (i) Es gilt dimK K n = n, insbesondere dimK {0} = 0.


(ii) Es ist dimR C = 2 und dimC C = 1.
100 2 Lineare Algebra

(iii) Es gilt dimK K[X] = ∞, aber dimK K[X]≤d = d + 1.


(iv) Wir erhalten dimK Mat(m × n, K) = m · n, indem wir eine Basis dieses
Vektorraumes angeben. Dazu definieren wir Matrizen Eij ∈ Mat(m ×
n, K), deren einziger von Null verschiedener Eintrag in Zeile i P
und Spalte
j auftritt und gleich 1 ist. Da jede m × n-Matrix (aij ) als i,j aij Eij
geschrieben werden kann, ist die Liste (Eij | 1 ≤ i ≤ m, 1 ≤ j ≤ n)
tatsächlich eine Basis von Mat(m × n, K).
(v) Wenn V ⊂ W Unterraum und dimK V = dimK W , dann ist V = W .
Dies erhält man aus Satz 2.2.11 (b).

Der aufmerksame Leser wird bemerkt haben, dass die Beobachtungen, die wir
am Ende von Abschnitt 2.1 gemacht hatten, besagen, dass die Lösungsmenge
eines linearen Gleichungssystems der Gestalt Ax = 0 ein Vektorraum ist.
Um nicht nur die Lösungsmenge, sondern auch das Gleichungssystem selbst
in einem allgemeinen Begriff zu fassen, befassen wir uns nun mit struktur-
erhaltenden Abbildungen zwischen Vektorräumen. Das ist analog zu den im
Kapitel 1 studierten Begriffen der Homomorphismen von Gruppen, Ringen
und Körpern. Zur Vermeidung von Schwierigkeiten, die von einem ersten
Verständnis der Grundbegriffe ablenken würden, betrachten wir ab jetzt nur
noch solche Vektorräume, die ein endliches Erzeugendensystem besitzen und
somit von endlicher Dimension sind.

Definition 2.2.17. Seien V, W zwei K-Vektorräume.


(1) Eine Abbildung f : V → W heißt linear (oder Vektorraumhomomorphis-
mus), falls für alle u, v ∈ V und λ ∈ K gilt:

f (u + v) = f (u) + f (v) und (2.10)


f (λ · u) = λ · f (u) . (2.11)

(2) Die Menge aller linearen Abbildungen f : V → W bezeichnen wir


mit HomK (V, W ). Dies wird ein K-Vektorraum, wenn wir die Summe
f + g und das skalare Vielfache λf von linearen Abbildungen f, g ∈
HomK (V, W ) für alle v ∈ V durch die Vorschriften

(f + g)(v) := f (v) + g(v) und



(λf )(v) := λ · f (v) definieren.

(3) Die Menge


ker(f ) := {v ∈ V | f (v) = 0} ⊂ V
heißt Kern von f und die Menge

im(f ) := {f (v) | v ∈ V } ⊂ W

heißt Bild von f .


(4) Für w ∈ W nennen wir die Menge
2.2 Vektorräume und lineare Abbildungen 101

f −1 (w) = {v ∈ V | f (v) = w} ⊂ V

die Faser von f über w (vergleiche Definition 6.3.9).

Satz 2.2.18 Sei f : V → W eine lineare Abbildung. Dann gilt:


(1) ker(f ) ⊂ V ist ein Unterraum.
(2) im(f ) ⊂ W ist ein Unterraum.
(3) f ist surjektiv6 ⇐⇒ im(f ) = W .
(4) f ist injektiv ⇐⇒ ker(f ) = {0}.
(5) Wenn f bijektiv ist, dann ist auch die inverse Abbildung f −1 linear.
(6) Für jede lineare Abbildung g : U → V ist f ◦ g : U → W linear.

Beweis. Da jede lineare Abbildung auch ein Homomorphismus der additiven


Gruppen der beteiligten Vektorräume ist, können wir Satz 1.3.30 anwenden.
Aus diesem Satz folgt die Aussage (4) und aus Bemerkung 1.3.29 folgt (3).
Zum Beweis von (1) und (2) ist nur noch zu zeigen, dass für λ ∈ K, v ∈
ker(f ) und w ∈ im(f ) stets λv ∈ ker(f ) und λw ∈ im(f ) gilt. Das ist eine
Konsequenz von f (λv) = λf (v).
Für bijektives f folgt aus Bem. 1.3.12, dass f −1 ein Homomorphismus der
additiven Gruppen ist. Da für v ∈ V und w ∈ W genau dann f −1 (w) = v
gilt, wenn f (v) = w ist, folgt aus f (λv) = λ · f (v) = λw auch f −1 (λw) =
λv = λ · f −1 (w). Das beweist (5). Die Aussage (6) erhält man durch direktes
Nachrechnen, denn für u, u′ ∈ U und λ ∈ K gilt:

(f ◦ g)(u + u′ ) = f (g(u + u′ )) = f (g(u) + g(u′ ))


= f (g(u)) + f (g(u′ )) = (f ◦ g)(u) + (f ◦ g)(u′ ) und
(f ◦ g)(λu) = f (g(λu)) = f (λg(u)) = λf (g(u)) = λ ((f ◦ g)(u)) .



Definition 2.2.19. Eine bijektive lineare Abbildung nennt man Isomorphis-
mus von Vektorräumen. Wenn es einen Isomorphismus V → W gibt, dann
sagen wir V und W sind isomorph und schreiben V ∼ = W . Um hervorzuhe-
ben, dass eine lineare Abbildung f : V → W ein Isomorphismus ist, schreiben

wir oft f : V −
→ W.
Beispiel 2.2.20. (i) Die durch pri (x1 , . . . , xn ) := xi definierte Abbildung
pri : K n → K ist für jedes 1 ≤ i ≤ n linear. Die Abbildung pri heißt
Projektion auf die i-te Komponente.
(ii) Wenn U ⊂ V ein Unterraum ist, dann definiert die Inklusion von U in
V eine lineare Abbildung U → V . Im Fall U = V bezeichnen wir diese
Abbildung mit 1V : V → V und nennen sie identische Abbildung, weil
1V (v) = v für alle v ∈ V .
6 Siehe Definition 6.3.3.
102 2 Lineare Algebra

(iii) Jede m × n-Matrix A = (aij ) ∈ Mat(m × n, K) definiert eine lineare


Abbildung fA : K n → K m durch die Formel
 
Xn n
X
fA (x1 , . . . , xn ) :=  a1j xj , . . . , amj xj  .
j=1 j=1

Das ist nichts anderes als die Multiplikation einer Matrix mit einem Vek-
tor fA (x) = A · x, siehe Seite 82. Da fA (ej ) = fA (0, . . . , 0, 1, 0, . . . , 0) =
(a1j , a2j , . . . , amj ) die j-te Spalte von A ist, können wir die Matrix
A aus der linearen Abbildung fA rekonstruieren. Einer beliebigen li-
nearen Abbildung f : K n → K m kann man auf diese Weise eine
Matrix A zuordnen. Pn Sie hat den Vektor f (ej ) als j-te Spalte. Weil
f (x1 , . . . , xn ) = j=1 xj f (ej ), ist dann f = fA und somit ist die Zu-
ordnung A 7→ fA eine Bijektion

Mat(m × n, K) → HomK (K n , K m ) .

Da diese Abbildung linear ist, handelt es sich um einen Isomorphismus


von Vektorräumen. Falls m = n, dann entspricht die identische Abbil-
dung 1K n unter diesem Isomorphismus der Einheitsmatrix 1n , für deren
Einträge aij gilt: aii = 1 und aij = 0 wenn i 6= j. Konkret heißt dies:
 
  1000
  100
10 0 1 0 0
11 = (1), 12 = , 13 = 0 1 0 , 14 =  
0 0 1 0 e.t.c.
01
001
0001

(iv) Wenn F = (v1 , . . . , vr ) eine


Prbeliebige Liste von Vektoren in V ist, dann ist
durch ΦF (x1 , . . . , xr ) := i=1 xi vi eine lineare Abbildung ΦF : K r → V
definiert. Offenbar gilt im(ΦF ) = Lin(v1 , . . . , vr ). Aus den Definitionen
ergibt sich unmittelbar:

F ist Erzeugendensystem von V ⇐⇒ ΦF ist surjektiv


F ist linear unabhängig ⇐⇒ ΦF ist injektiv
F ist eine Basis von V ⇐⇒ ΦF ist ein Isomorphismus.

Definition 2.2.21. Ein Koordinatensystem eines K-Vektorraumes V ist ein



Isomorphismus S : V −→ K r . Die linearen Abbildungen xi := pri ◦S : V → K
heißen Koordinatenfunktionen. Wenn B = (v1 , . . . , vr ) eine Basis von V ist,

dann nennen wir den Isomorphismus SB := Φ−1 B : V − → K r das zur Basis B
gehörige Koordinatensystem.
Ganz konkret bedeutet dies das Folgende. Wenn v ∈ P V bezüglich der Ba-
r
sis B = (v1 , . . . , vr ) die eindeutige Darstellung v = i=1 λi vi hat, dann
ist
Pr S B (v) = (λ1 , . . . , λr ) und xi (v) = λi . Das führt zu den Formeln v =
i=1 xi (v) · vi und SB (vi ) = ei .
2.2 Vektorräume und lineare Abbildungen 103


Zu jedem Koordinatensystem S : V − → K r gehört genau eine Basis B, so dass
S = SB gilt. Die Basisvektoren vi sind durch S(vi ) = ei eindeutig festgelegt.
Die Wahl einer Basis ist daher gleichwertig mit der Angabe eines Koordina-
tensystems. Etwas mathematischer ausgedrückt: Die Abbildung B 7→ SB ist
eine Bijektion zwischen der Menge aller Basen von V und der Menge aller
Koordinatensysteme von V . Wegen Satz 2.2.13 gilt genau dann dimK V = n,
wenn V ∼ = K n . Die Angabe eines solchen Isomorphismus entspricht der Aus-
wahl einer Basis von V .
In Verallgemeinerung des Beispiels 2.2.20 (iii) können wir jeder linearen Ab-
bildung f : V → W eine Matrix zuordnen. Diese Matrix hängt jedoch von der
Wahl einer Basis A = (v1 , . . . , vn ) von V und einer Basis B = (w1 , . . . , wm )
von W ab. Die Einträge aij der Matrix MBA (f ) ∈ Mat(m × n, K), die wir
Matrixdarstellung von f bezüglich der Basen A und B nennen, definieren wir
durch
m
X
f (vj ) = aij wi .
i=1

In Kurzform zum Einprägen:


Die Spalten sind die Koordinaten der Bilder der Basisvektoren.
Wenn uns die Basen A = (v1 , . . . , vn ) und B = (w1 , . . . , wm ) bekannt sind,
dann können wir aus der Matrix MBA (f ) die lineare Abbildung f : V → W
wieder zurückgewinnen.
Pn Denn für jeden Vektor v ∈ V gibt es eine eindeutige
Darstellung v = j=1 λj vj und somit ist
   
n
X n
X m
X n
X
f (v) = f  λj vj  = λj f (vj ) =  λj aij  wi .
j=1 j=1 i=1 j=1

Wenn wir mit Koordinatensystemen statt mit Basen arbeiten, wird al-
les noch übersichtlicher: Seien S : V → K n und T : W → K m die
zu A und B gehörigen Koordinatensysteme. Dann ist die lineare Abbil-
dung T ◦ f ◦ S −1 : K n → K m genau die, die unter dem Isomorphismus

Mat(m × n, K) − → HomK (K n , K m ) aus Beispiel 2.2.20 (iii) der Matrix
A
MB (f ) entspricht. Das kann man sich sehr einprägsam durch ein kommutati-
ves Diagramm veranschaulichen, in dem wir MBA (f ) statt fMBA (f ) schreiben:

f
V −−−−→ W
 
 
Sy yT (2.12)
n m
K −−−−→ K .
A (f )
MB

Von einem kommutativen Diagramm spricht man, wenn alle Abbildungen


zwischen zwei Punkten des Diagramms übereinstimmen, die man durch Kom-
104 2 Lineare Algebra

position verschiedener Pfeile des Diagramms erhalten kann. Im obigen Bei-


spiel ist das die Übereinstimmung von T ◦ f und fMBA (f ) ◦ S.
Zur Berechnung der Komposition g ◦ f : U → W zweier linearer Abbildungen
f g
U− →V − → W müssen wir verstehen, wie man aus den Matrizen MBA (f ) und
MCB (g) die Matrix MCA (g ◦ f ) erhält. Dazu dient die folgende Definition.
Definition 2.2.22. Für zwei Matrizen B = (bij ) ∈ Mat(m × n, K) und A =
(akl ) ∈ Mat(n × r, K) ist das Produkt B ◦ A ∈ Mat(m × r, K) die Matrix
deren Eintrag an der Position (i, j) gleich
n
X
bik akj
k=1

ist. Die j-te Spalte von B ◦ A ist das Produkt der Matrix B mit dem j-ten
Spaltenvektor von A (siehe Seite 82).
f g
Wenn U − → V − → W lineare Abbildungen und A = (u1 , . . . , ur ), B =
(v1 , . . . , vn ), C = (w1 , . . . , wm ) Basen von U, V bzw. W sind, dann gilt

MCA (g ◦ f ) = MCB (g) ◦ MBA (f ) .

Um dies zu beweisen, setzen wir MBA (f )P= (aij ) und  MCP


B
(g) = (bkl ). Wir
n n
erhalten (g ◦ f )(uj ) = g (f (uj )) = g 
k=1 a kj vk = k=1 akj g(vk ) =
Pn Pm Pm Pn
a
k=1 kj b w
i=1 ik i = i=1 b a
k=1 ik kj wi . In diesem Sinne entspricht
das Matrizenprodukt genau der Komposition von Abbildungen.

Definition 2.2.23. Die Transponierte einer Matrix A = (aij ) ∈ Mat(m ×


n, K) ist die Matrix At ∈ Mat(n × m, K), deren Eintrag an Position (i, j)
gleich aji ist. Das heißt, dass die j-te Spalte von At mit der j-ten Zeile von
A übereinstimmt.

Satz 2.2.24 Seien A, A′ ∈ Mat(m × n, K), B, B ′ ∈ Mat(n × r, K), C ∈


Mat(r × s, K) und λ ∈ K, dann gilt:
(1) A ◦ (B + B ′ ) = A ◦ B + A ◦ B ′ und (A + A′ ) ◦ B = A ◦ B + A′ ◦ B.
(2) A ◦ (λB) = (λA) ◦ B = λ · (A ◦ B).
(3) (A ◦ B) ◦ C = A ◦ (B ◦ C).
(4) A ◦ 1n = A und 1n ◦ B = B.
t
(5) (A ◦ B) = B t ◦ At .

Beweis. Einfaches Nachrechnen. ⊓


Definition 2.2.25. Eine Matrix A ∈ Mat(n × n, K) heißt invertierbar, falls


eine Matrix A′ ∈ Mat(n × n, K) existiert, so dass A ◦ A′ = A′ ◦ A = 1n gilt.
Die Menge
2.2 Vektorräume und lineare Abbildungen 105

GL(n, K) := {A ∈ Mat(n × n, K) | A ist invertierbar}

heißt allgemeine lineare Gruppe.

Satz 2.2.26 Die Menge GL(n, K) ist mit dem Matrizenprodukt eine Gruppe.

Beweis. Seien A, B ∈ GL(n, K), dann gibt es Matrizen A′ , B ′ ∈ Mat(n ×


n, K), für die A ◦ A′ = A′ ◦ A = B ◦ B ′ = B ′ ◦ B = 1n gilt. Damit erhalten
wir

(A ◦ B) ◦ (B ′ ◦ A′ ) = A ◦ (B ◦ B ′ ) ◦ A′ = A ◦ 1n ◦ A′ = A ◦ A′ = 1n und

(B ′ ◦ A′ ) ◦ (A ◦ B) = B ′ ◦ (A′ ◦ A) ◦ B = B ′ ◦ 1n ◦ B = B ′ ◦ B = 1n .
Somit gilt für beliebige A, B ∈ GL(n, K) stets A ◦ B ∈ GL(n, K). Die Grup-
penaxiome folgen nun sehr leicht aus Satz 2.2.24 und der Definition. ⊓

Wie für Gruppen üblich, schreiben wir A−1 statt A′ und sprechen von der
inversen Matrix. Aus den vorangegangenen Betrachtungen ist nun klar, dass
eine Matrix A ∈ Mat(n × n, K) genau dann in GL(n, K) liegt, wenn fA ein
Isomorphismus ist.

Definition 2.2.27. (1) Sei f : V → W eine lineare Abbildung, dann ist der
Rang der Abbildung f die Zahl rk(f ) := dimK im(f ).
(2) Sei A ∈ Mat(m × n, K), dann ist der Rang rk(A) der Matrix A die
maximale Anzahl linear unabhängiger Spalten von A.

Wenn fA : K n → K m die zu A gehörige lineare Abbildung ist, dann ist


rk(fA ) = rk(A). Wenn f : V → W eine lineare Abbildung und A, B Basen
von V und W sind, dann ist rk(f ) = rk MBA (f ) . Beide Aussagen folgen aus
Satz 2.2.11.

Satz 2.2.28 (Dimensionsformel) Für jede lineare Abbildung f : V → W


und jede Matrix A ∈ Mat(m × n, K) gilt

dim V = rk(f ) + dimK ker(f )


n = rk(A) + dimK Lös(A| 0) .

Beweis. Zunächst beweisen wir die Aussage für lineare Abbildungen f . Sei
r = rk(f ) = dimK im(f ) und (w1 , . . . , wr ) eine Basis von im(f ) ⊂ W . Sei
außerdem s := dimK ker(f ) und (v1 , . . . , vs ) eine Basis von ker(f ) ⊂ V . Wir
wählen beliebige Vektoren vs+1 , . . . , vs+r ∈ V , für die f (vs+i ) = wi gilt.
Dann ist (v1 , . . . , vs+r ) eine Basis von V . Um dies zu beweisen, zeigen wir,
dass diese Liste linear unabhängig und ein Erzeugendensystem ist.
106 2 Lineare Algebra
Ps+r
Zum Beweis der linearen Unabhängigkeit nehmen wir an j=1 λj vj = 0.
Ps+r
Daraus folgt j=s+1 λj f (vj ) = 0, da f (vj ) = 0 für 1 ≤ j ≤ s. Da für 1 ≤ i ≤
r die Vektoren f (vi+s ) = wi nach Voraussetzung linear unabhängig sind, folgt
λ
Ps+1 = . . . = λs+r = 0. Aus der ursprünglichen Gleichung erhalten wir daher
s
j=1 λj vj = 0. Da v1 , . . . , vs linear unabhängig sind, folgt λ1 = . . . = λs = 0.
Um zu zeigen, dass (v1 , . . . , vs+r ) ein Erzeugendensystem von V ist, wählen
Pbeliebigen Vektor v ∈ V . Dann
wir einen P∈ K, so dass
P gibt es λs+1 , . . . , λs+r
f (v) = ri=1 λs+i wi gilt. Da f (v − ri=1 λs+i vs+i ) = f (v) − ri=1 λs+i wi =
Ps+r
0, ist v − j=s+1 λj vj ∈ ker(f ). Da (v1 , . . . , vs ) eine Basis von ker(f ) ist,
P Ps
gibt es λ1 , . . . , λs ∈ K, so dass v − s+r j=s+1 λj vj = j=1 λj vj gilt, d.h.
Pr+s
v = j=1 λj vj .
Die Aussage für Matrizen A folgt aus dem bereits Gezeigten, da rk(A) =
rk(fA ) und Lös(A| 0) = ker(fA ). ⊓

Folgerung 2.2.29. Sei f : V → W linear und dimK V = dimK W . Dann


sind die folgenden drei Aussagen äquivalent:
(i) f ist ein Isomorphismus
(ii) f ist injektiv
(iii) f ist surjektiv.
Für jede Matrix A ∈ Mat(n × n, K) sind die folgenden drei Aussagen
äquivalent:
(i) rk(A) = n
(ii) A ∈ GL(n, K)
(iii) At ∈ GL(n, K).

Beweis. Für den ersten Teil genügt es zu zeigen, dass f genau dann injek-
tiv ist, wenn f surjektiv ist. Mit Hilfe der Dimensionsformel (Satz 2.2.28)
erhalten wir:

f ist injektiv ⇐⇒ dimK ker(f ) = 0 ⇐⇒ rk(f ) = dimK V


⇐⇒ dimK im(f ) = dimK W ⇐⇒ im(f ) = W
⇐⇒ f ist surjektiv.

Die Äquivalenz (i) ⇐⇒ (ii) im zweiten Teil folgt aus dem bereits Gezeigten.
Zum Beweis von (ii) ⇒ (iii) sei A ∈ GL(n, K). Dann gilt A ◦ A−1 = 1n und
t
A−1 ◦ A = 1n . Da 1n t = 1n , erhalten wir aus Satz 2.2.24 (5) (A−1 ) ◦ At = 1n
t t
und At ◦ (A−1 ) = 1n , daher gilt At ∈ GL(n, K). Da (At ) = A, ergibt sich
auch die umgekehrte Implikation (iii) ⇒ (ii). ⊓

t
Bemerkung 2.2.30. Aus dem Beweis sehen wir (At )−1 = (A−1 ) .
2.2 Vektorräume und lineare Abbildungen 107

Definition 2.2.31. Sei U ⊂ V ein Unterraum. Der Quotientenraum V /U


besteht aus den Äquivalenzklassen [v] ⊂ V bezüglich der Äquivalenzrelation
v ∼ w ⇐⇒ v − w ∈ U . Dies sind die additiven Nebenklassen von U in V
(vgl. Seite 33 und Abschnitt 1.2), es ist also [v] = [w] ⇐⇒ v − w ∈ U . Die
Elemente von V /U sind genau die zu U parallelen affinen Unterräume in V .
Durch [v] + [w] = [v + w] und λ · [v] = [λv] erhält V /U die Struktur eines
Vektorraumes. Die Abbildung V → V /U , die v auf [v] abbildet, ist linear und
surjektiv. Sie heißt kanonische Abbildung.

Folgerung 2.2.32. (1) Jeder Unterraum U ⊂ V ist der Kern der kanoni-
schen Abbildung V → V /U und es gilt dimK V /U = dimK V − dimK U .
(2) (Homomorphiesatz) Wenn f : V → W eine lineare Abbildung ist,

dann ist durch f¯([v]) := f (v) ein Isomorphismus f¯ : V / ker(f ) −
→ im(f )
definiert.

Beweis. Die Aussage (1) ist wegen der Surjektivität der kanonischen Abbil-
dung und Satz 2.2.28 klar. Zum Beweis von (2) können wir Satz 1.3.32 anwen-
den und erhalten, dass f¯ ein Isomorphismus der zugrunde liegenden additiven
Gruppen ist. Da außerdem f¯(λ[v]) = f¯([λv]) = f (λv) = λf (v) = λf¯([v]), ist
f¯ linear und somit ein Isomorphismus von Vektorräumen. ⊓

Satz 2.2.33 (1) Seien lineare Abbildungen


∼ ∼
V ′ −−−−→ V −−−−→ W −−−−→ W ′
ϕ f ψ

gegeben, wobei ϕ und ψ Isomorphismen sind. Dann gilt

rk(f ) = rk(ψ ◦ f ◦ ϕ) .

(2) Sei A ∈ Mat(m × n, K), P ∈ GL(m, K), Q ∈ GL(n, K). Dann gilt

rk(A) = rk(P ◦ A ◦ Q) und


t
rk(A) = rk(A ) .

Für jede Matrix stimmt die maximale Zahl linear unabhängiger Zeilen
mit der maximalen Zahl linear unabhängiger Spalten überein.

Beweis. (1) Da ϕ : V ′ → V ein Isomorphismus ist, ist im(f ) = im(f ◦ ϕ).


Da ψ : W → W ′ ein Isomorphismus ist, liefert er uns einen Isomorphismus

ψ : im(f ) = im(f ϕ) −
→ im(ψ ◦ f ◦ ϕ). Daraus folgt die behauptete Gleichung
dimK im(f ) = dimK im(ψ ◦ f ◦ ϕ).
(2) Wenn wir die Matrizen A, P, Q als lineare Abbildungen interpretieren,
dann folgt rk(A) = rk(P ◦ A ◦ Q) aus (1). Sei nun A ∈ Mat(m × n, K)
108 2 Lineare Algebra

und fA : K n → K m die zugehörige lineare Abbildung. Wir wählen eine


Basis (w1 , . . . , wr ) für im(fA ) ⊂ K m und Vektoren v1 , . . . , vr ∈ K n mit
fA (vi ) = wi . Dann ist r = rk(A). Außerdem sei (vr+1 , . . . , vn ) eine Basis
von ker(fA ) ⊂ K n . Dann ergibt sich, genau wie im Beweis von Satz 2.2.28,
dass (v1 , . . . , vn ) eine Basis von K n ist. Schließlich wählen wir Vektoren
wr+1 , . . . , wm ∈ K m , so dass (w1 , . . . , wm ) eine Basis von K m ist, das heißt,
wir ergänzen (w1 , . . . , wr ) zu einer nicht verlängerbaren linear unabhängigen
Liste. Dann ist die Matrixdarstellung M (fA ) bezüglich dieser Basen eine Ma-
trix, die in der linken oberen Ecke einen Block der Gestalt 1r und sonst nur
t
Nullen enthält. Offenbar ist dann rk(M (fA )) = rk(M (fA ) ) = r. Wenn T, S
die zu den gewählten Basen gehörigen Koordinatensysteme sind, dann erhal-
ten wir T ◦ fA ◦ S −1 = fM(fA ) aus (2.12). Wenn wir die Matrixdarstellungen
∼ ∼
der Isomorphismen T : K m − → K m und S : K n − → K n bezüglich der Stan-
dardbasen ebenfalls mit T und S bezeichnen, dann können wir dies in der
Form T ◦A◦S −1 = M (fA ) schreiben. Unter Verwendung von Teil (1) erhalten
wir schließlich:

rk(A) = rk(T AS −1 ) = rk(M (fA )) =


 t
 
t
= rk(M (fA ) ) = rk (T AS −1 ) = rk (S t )−1 ◦ At ◦ T t =
= rk(At ) .


Aufgaben

Übung 2.7. Welche der folgenden Mengen sind Untervektorräume in den


jeweiligen Vektorräumen?
(a) {(x1 , x2 , x3 ) | x1 = 2x2 = 3x3 } ⊂ R3 .
(b) {(x1 , x2 ) | x21 + x22 = 4} ⊂ R2 .
(c) Die Menge der Matrizen A ∈ Mat(m×n, R), deren erste und letzte Spalte
übereinstimmen.
(d) Die Menge der Matrizen A ∈ Mat(m × n, F2 ), für die die Anzahl der von
Null verschiedenen Einträge in jeder Spalte gerade ist.
Übung 2.8. Sei V ein K-Vektorraum und v1 , . . . , vr ∈ V . Beweisen Sie, dass
Lin(v1 , . . . , vr ) ⊂ V ein Untervektorraum ist.
Übung 2.9. Sind die Vektoren (0, 3, 13), (1, 5, 21), (8, 34, 144) ∈ Q3 linear
unabhängig?
Übung 2.10. Finden Sie alle Primzahlen p, für welche die drei Vektoren aus
Aufgabe 2.9, interpretiert als Vektoren im Fp -Vektorraum F3p , linear abhängig
sind.
2.2 Vektorräume und lineare Abbildungen 109

Übung 2.11. Sei f : R3 → R4 die durch die Matrix


 
123
2 3 4
A= 
2 4 7
136

gegebene lineare Abbildung. Berechnen Sie die Matrix MBA (f ) bezüglich der
Basen A = (a1 , a2 , a3 ) von R3 und B = (b1 , b2 , b3 , b4 ) von R4 , wobei

a1 = (1, −1, 1), a2 = (0, 2, −1), a3 = (−1, 1, 0) und

b1 = (1, 1, 0, 0), b2 = (1, 1, 1, 0), b3 = (0, 1, 1, 1), b4 = (0, 0, 1, 1).

Übung 2.12. Sei g : R4 → R2 die durch die Matrix


 
1 −1 −1 0
B=
0 1 1 −1

gegebene lineare Abbildung und f : R3 → R4 wie in Aufgabe 2.11.


(a) Bestimmen Sie dimR (ker(f )) und dimR (im(f )).
(b) Berechnen Sie die Matrix (bezüglich der Standardbasen), welche die li-
neare Abbildung g ◦ f : R3 → R2 definiert.

Übung 2.13. Finden Sie Beispiele für Matrizen A, B ∈ Mat(n × n, K), für
die A ◦ B = 0, jedoch A 6= 0 und B 6= 0 ist. Können Sie auch ein Beispiel
angeben, in dem kein Eintrag von A oder von B gleich 0 ist? Wählen Sie
mindestens n ≥ 3.

Übung 2.14. Finden Sie Beispiele für Matrizen A, B ∈ Mat(n × n, K), für
die A ◦ B 6= B ◦ A gilt.

Übung 2.15. Sei T ⊂ GL(n, K) die Teilmenge aller invertierbaren oberen


Dreiecksmatrizen, das sind diejenigen A = (aij )i,j ∈ GL(n, K), für die aij = 0
für alle i > j. Beweisen Sie: T ⊂ GL(n, K) ist eine Untergruppe.

Übung 2.16. Für die Faschingsfeier soll ein leicht alkoholhaltiges Mischge-
tränk hergestellt werden. Findige Studenten haben bei einem Großhändler
extrem preisgünstige Angebote für drei verschiedene No-Name-Produkte aus-
findig gemacht. Obwohl die Namen der Getränke nicht bekannt sind, ist durch
eine Analyse deren Zusammensetzung ermittelt worden. Der prozentuale An-
teil von Alkohol, Wasser und sonstiger Bestandteile kann der folgenden Ta-
belle entnommen werden:
Alkohol Wasser Sonstiges
Getränk 1 20 20 60
Getränk 2 20 70 10
Getränk 3 0 50 50
110 2 Lineare Algebra

Ist es möglich, daraus ein Getränk (wie auch immer es dann schmecken mag)
zu mischen, in dem 10% Alkohol und 40% Wasser enthalten sind? Falls ja,
bestimmen Sie die Menge jeder Getränkesorte, die man benötigt, um 100
Liter dieser Mischung herzustellen.

2.3 Anwendungen des Gaußschen Algorithmus

Das Ziel dieses Abschnittes ist es, die Rechenverfahren von Abschnitt 2.1 im
Kontext der allgemeinen Theorie von Vektorräumen und linearen Abbildun-
gen zu benutzen. Wir werden mit Hilfe elementarer Zeilenoperationen die
folgenden Aufgaben lösen:
• Bestimmung einer maximalen linear unabhängigen Liste als Teil einer ge-
gebenen Liste von Vektoren.
• Ergänzung einer gegebenen linear unabhängigen Liste zu einer Basis.
• Berechnung der Inversen A−1 einer Matrix A.
• Bestimmung eines Gleichungssystems zu vorgegebener Lösungsmenge.
• Berechnung des Durchschnittes zweier Unterräume.
• Berechnung der Summe zweier Unterräume.
Zur Vorbereitung übersetzen wir die Zeilenumformungen des Gaußschen Al-
gorithmus in die Sprache der Matrizen. Dazu erinnern wir uns daran, dass
dieser Algorithmus auf zwei Typen elementarer Zeilenumformungen beruht:
(Z1) Vertauschung von Zeile i mit Zeile j.
(Z2) Addition des λ-fachen von Zeile k zu Zeile i.
Diese Umformungen lassen sich mit Hilfe der folgenden Elementarmatrizen
P (i, j) ∈ Mat(m × m, K) und Qλ (i, k) ∈ Mat(m × m, K) beschreiben.

P (i, j) := 1m − Eii − Ejj + Eij + Eji und


Qλ (i, k) := 1m + λEik für i 6= k.

Die einzigen von Null verschiedenen Einträge der Matrix P (i, j) sind akk = 1
wenn k 6= i oder k 6= j und aij = aji = 1. Die Matrix Qλ (i, k) unterscheidet
sich von der Einheitsmatrix nur dadurch, dass sie in der i-ten Zeile und k-ten
Spalte den Eintrag λ hat. So ist zum Beispiel im Fall m = 5
   
10000 10000
0 0 0 1 0  0 0 0 0 1
   
 0 0 1 0 0   
P (2, 4) = P (4, 2) =   , P (5, 2) = P (2, 5) = 0 0 1 0 0
0 1 0 0 0  0 0 0 1 0
00001 01000

und
2.3 Anwendungen des Gaußschen Algorithmus 111
   
1 00 0 0 100 00
0 1 0 −1 0 0 1 0 0 0
   
Q−1 (2, 4) = 
0 0 1 0 0 , Qλ (4, 2) 
0 0 1 0 0
 .
0 0 0 1 0 0 λ 0 1 0
0 00 0 1 000 01
Wenn A ∈ Mat(m × n, K), dann ist P (i, j) ◦ A genau die Matrix, die man
aus A durch Anwendung von (Z1) erhält, und Qλ (i, k) ◦ A ist die Matrix, die
durch Anwendung von (Z2) aus A entsteht. Interessant ist nun:

P (i, j) ◦ P (i, j) = 1m und falls i 6= k


Qλ (i, k) ◦ Q−λ (i, k) = 1m .

Daher gilt sogar P (i, j) ∈ GL(m, K) und Qλ (i, k) ∈ GL(m, K). Aus Satz
2.2.33 (2) erhalten wir damit, dass die elementaren Zeilenumformungen (Z1)
und (Z2) den Rang einer Matrix nicht verändern und dass dieser Rang gleich
der Zahl der von Null verschiedenen Zeilen einer Zeilenstufenform ist.
Unter Benutzung des bisher Gesagten liefert der Gaußsche Algorithmus den
folgenden Satz.

Satz 2.3.1 Für jede Matrix A ∈ Mat(m × n, K) gibt es eine invertierbare


Matrix P ∈ GL(m, K), die sich als Produkt von Elementarmatrizen schreiben
lässt, so dass P ◦ A Zeilenstufenform besitzt.

Bemerkung 2.3.2. Wie in Bemerkung 2.1.6 erwähnt, kann man durch ele-
mentare Zeilenumformungen auch oberhalb der Pivotelemente Nullen erzeu-
gen. Wenn wir zusätzlich noch die Multiplikation einer Zeile mit einem Fak-
tor λ 6= 0 zulassen, dann können wir sogar die sogenannte reduzierte Zei-
lenstufenform herstellen, bei der alle Pivotelemente gleich 1 sind. Da auch
die Multiplikation einer Zeile mit einem Faktor λ 6= 0 durch die Multipli-
kation mit einer invertierbaren Matrix von links beschrieben werden kann,
bleibt Satz 2.3.1 wahr, wenn wir darin Zeilenstufenform durch reduzierte
Zeilenstufenform ersetzen und zusätzlich zu den Elementarmatrizen auch
noch solche invertierbare Matrizen zulassen, die aus der Einheitsmatrix durch
Multiplikation einer Zeile mit einem von Null verschiedenen λ ∈ K her-
vorgehen. Der Vorteil der reduzierten Zeilenstufenform besteht darin, dass
man eine Parametrisierung der Lösungsmenge des zugehörigen linearen Glei-
chungssystems unmittelbar ablesen kann. In der Sprache von Abschnitt 2.2
heißt das, dass wir aus der reduzierten Zeilenstufenform leicht eine Basis von
ker(fA ) = ker(fP ◦A ) = Lös(P ◦ A| 0) = Lös(A| 0) ablesen können.
112 2 Lineare Algebra

Maximale linear unabhängige Teillisten

Häufig ist man mit der Aufgabe konfrontiert, aus einer Liste (u1 , u2 , . . . , un )
von Vektoren uj ∈ K m eine maximale Liste linear unabhängiger Vekto-
ren auszuwählen. Zur Lösung dieser Aufgabe betrachtet man die Matrix
A ∈ Mat(m×n, K), deren Spalten die gegebenen Vektoren uj sind. Da für je-
de Matrix P ∈ GL(m, K) die Gleichung (P ◦A)·x = 0 dieselbe Lösungsmenge
wie die Gleichung A · x = 0 hat, ist eine Teilliste der ursprünglich gegebenen
Vektoren genau dann linear unabhängig, wenn dies für die entsprechenden
Spalten von P ◦ A gilt. Wenn P ◦ A Zeilenstufenform hat, was wir wegen Satz
2.3.1 immer erreichen können, dann bilden die Spalten, in denen die Pivot-
elemente stehen, offenbar eine maximale Liste linear unabhängiger Spalten.

Beispiel 2.3.3. Seien die uj ∈ K 4 die sechs Vektoren der Gestalt er + es ,


r 6= s. Dann ist  
101 01 0
0 1 0 11 0
A= 0 1 1
 .
00 1
100 10 1
Durch elementare Zeilentransformationen erhält man daraus nacheinander
     
10 1 0 1 0 10 1 0 1 0 101 0 1 0
0 1 0 1 1 0    0 1 0 1 1 0 
  , 0 1 0 1 1 0 und  
0 1 1 0 0 1  0 0 1 −1 −1 1 0 0 1 −1 −1 1 .
0 0 −1 1 −1 1 0 0 −1 1 −1 1 0 0 0 0 −2 2

Das zeigt, dass die erste, zweite, dritte und fünfte Spalte von A eine maximale
linear unabhängige Liste bilden. Die ersten vier Spalten bilden dagegen keine
solche Liste.

Basisergänzung

Eine verwandte Aufgabe besteht darin, eine gegebene linear unabhängige


Liste zu einer Basis zu ergänzen. Dabei kann man zwei unterschiedlichen
Aufgabenstellungen begegnen. Auf der einen Seite kann die Aufgabe darin
bestehen, dass man gegebene Vektoren (u1 , u2 , . . . , un ) zu einer Basis von
K m ergänzen soll. Andererseits kann auch eine Basis (v1 , . . . , vr ) eines Un-
terraumes U gegeben sein, der die Vektoren uj enthält. In diesem Fall mag
man an einer Basis von U interessiert sein, in der die gegebenen uj vorkom-
men. Die zuerst geschilderte Aufgabenstellung ist ein Spezialfall der zweiten
mit U = K m und vi = ei .
Zur Lösung dieses Problems bildet man eine Matrix (u1 , . . . , un | v1 , . . . , vr ),
deren Spalten die gegebenen Vektoren sind. Dabei ist es wichtig, dass die
2.3 Anwendungen des Gaußschen Algorithmus 113

Vektoren uj zuerst aufgeführt werden. Da sie als linear unabhängig voraus-


gesetzt sind, wird bei Anwendung des Gauß-Verfahrens in jeder der ersten
n Spalten ein Pivotelement stehen. Nach Ermittlung einer Zeilenstufenform
erhalten wir mit der weiter oben geschilderten Methode eine maximale linear
unabhängige Liste, in der sicher die ersten n Spaltenvektoren vorkommen. Da
die Spalten der betrachteten Matrix ein Erzeugendensystem von U bilden,
ist ihr Rang gleich der Dimension von U . Daher bildet die so erhaltene linear
unabhängige Liste eine Basis von U .

Beispiel 2.3.4. Die beiden Vektoren (1, 0, 0, 1) und (0, 1, 1, 0) sind linear un-
abhängig. Um eine Basis von K 4 zu finden, in der diese beiden Vektoren
auftreten, überführen wir die Matrix
 
101000
0 1 0 1 0 0 
 
0 1 0 0 1 0 
100001

wie folgt in Zeilenstufenform


     
10 1 000 1 0 1 0 0 0 10 1 0 0 0
0 1 0 1 0 0  0 1 0 1 0 0 0 1 0 1 0 0
      .
0 1 0 0 1 0 7→ 0 0 0 −1 1 0
7→ 0 0 −1 0 0 1
0 0 −1 0 0 1 0 0 −1 0 0 1 0 0 0 −1 1 0

Daraus sehen wir, dass die beiden gegebenen Vektoren zusammen mit e1 und
e2 eine Basis bilden. Zusammen mit e2 und e3 bilden sie dagegen keine Basis.

Berechnung der inversen Matrix

Eine quadratische Matrix A ∈ Mat(n × n, K) ist genau dann invertierbar,


wenn rk(A) = n, siehe Folgerung 2.2.29. Dies ist genau dann der Fall, wenn
die durch den Gaußschen Algorithmus erzeugte Zeilenstufenform in jeder Zei-
le ein Pivotelement enthält. Die entsprechende reduzierte Zeilenstufenform
ist dann die Einheitsmatrix 1n . Das Produkt der Matrizen, die den durch-
geführten Zeilenumformungen entsprechen, ist eine Matrix P ∈ GL(n, K), für
die P ◦A = 1n gilt, das heißt P = A−1 . Wenn wir die Zeilenumformungen, die
A in 1n überführen, auf die um die Einheitsmatrix erweiterte Matrix (A| 1n )
anwenden, dann ergibt sich (P ◦ A| P ◦ 1n ) = (1n | A−1 ).

Beispiel 2.3.5. Um die inverse Matrix von


   
302 302100
A = 3 2 3 zu berechnen, starten wir mit  3 2 3 0 1 0  .
647 647001
114 2 Lineare Algebra

Wir führen die folgenden Schritte durch


 
3 0 2 1 0 0
(Zeile II) − (Zeile I) 0 2 1 −1 1 0
(Zeile III) − 2(Zeile I) 0 4 3 −2 0 1
 
3 0 2 1 0 0
0 2 1 −1 1 0

(Zeile III) − 2(Zeile II) 0 0 1 0 −2 1
 
(Zeile I) − 2(Zeile III) 3 0 0 1 4 −2
(Zeile II) − (Zeile III) 0 2 0 −1 3 −1
0 0 1 0 −2 1
 
(Zeile I)/3 1 0 0 13 34 − 23
(Zeile II)/2 0 1 0 − 1 3 − 1 
2 2 2
0 0 1 0 −2 1

und erhalten somit


 1 4
  
− 32 2 8 −4
3
− 1
3 1
A−1 = 2
3
2− 21  = −3 9 −3 .
6
0 −2 1 0 −12 6

Der Leser prüfe bitte nach, dass tatsächlich A ◦ A−1 = 13 gilt.

Lineare Gleichungen zu vorgegebener Lösungsmenge

Das Umkehrproblem zum Gaußschen Algorithmus besteht darin, ein Glei-


chungssystem zu bestimmen, welches einen gegebenen linearen Unterraum
U ⊂ K m als Lösungsmenge besitzt. Wir nehmen dabei an, dass U durch eine
Basis oder ein Erzeugendensystem u1 , u2 , . . . , us gegeben ist.
Ein Vektor x ∈ K m liegt genau dann in U , wenn !es λ1 , λ2 , . . . , λs !∈ K
u1j x1
Ps .. ..
gibt, so dass x = j=1 λj uj . Wenn wir uj = . und x = . als
umj xm
Spaltenvektoren schreiben, dann ist die Bedingung x ∈ U zur Existenz einer
Lösung des linearen Gleichungssystems
    
u11 . . . u1s λ1 x1
 .. ..   ..  =  .. 
 . .  .   . 
um1 . . . ums λs xm
2.3 Anwendungen des Gaußschen Algorithmus 115

äquivalent. Uns interessiert daher die Lösbarkeitsbedingung des Gleichungs-


systems mit erweiterter Koeffizientenmatrix
 
u11 · · · u1s x1
 .. .. ..  .
 . . . 
um1 · · · ums xm

Um diese durch Gleichungen in den Variablen xi auszudrücken, stellen wir


mittels Gaußschem Algorithmus Zeilenstufenform her. Wir beachten dabei,
dass die uij gegebene Elemente aus K, die xj jedoch Variablen sind. Da diese
Variablen nur in der letzten Spalte auftreten, beeinflussen sie den Ablauf des
Algorithmus nicht. Nach Erreichung der Zeilenstufenform haben die unteren
Zeilen der Matrix die Gestalt

(0 0 . . . 0 | Li (x)) ,
Pm
wobei Li (x) eine Linearkombination j=1 aij xj der Variablen xj ist. Falls
U 6= K m , dann gibt es mindestens eine solche Zeile. Wenn n ≥ 1 solche Zeilen
in der Zeilenstufenform auftreten, dann lautet die Lösbarkeitsbedingung für
das obige Gleichungssystem
m
X
aij xj = 0 für 1 ≤ i ≤ n .
j=1

Dieses neue Gleichungssystem hat als Lösungsmenge genau den gegebenen


Unterraum U .

Beispiel 2.3.6. Gegeben sei der Unterraum U = Lin(u1 , u2 , u3 ) ⊂ R5 , der


von den drei Vektoren
     
0 −1 1
1 0 0
     
u1 =      
0 , u2 =  3  , u3 =  1 
1 0 0
2 −3 −1

erzeugt wird. Wir starten mit der erweiterten Koeffizientenmatrix


 
0 −1 1 x1
1 0 0 x2 
 
0 3 1 x3 
 
1 0 0 x4 

2 −3 −1 x5

und führen nacheinander die aufgelisteten elementaren Zeilenoperationen


durch. Das Ergebnis ist die rechts angegebene Matrix:
116 2 Lineare Algebra
 
Vertausche (Zeile I) und (Zeile II) 10 0 x2
(Zeile IV) − (Zeile I) 0 1 −1 −x1 
 
(Zeile V) − 2(Zeile I) + (Zeile III) 0 0 4 x3 + 3x1 
  .
(Zeile II) × (−1) 0 0 0 x4 − x2 
(Zeile III) − 3(Zeile II) 00 0 x5 − 2x2 + x3

Die Lösbarkeitsbedingung für das entsprechende Gleichungssystem ist das


Verschwinden der beiden linearen Ausdrücke unterhalb der horizontalen Li-
nie. Der Unterraum U ist somit die Lösungsmenge des Gleichungssystems

−x2 +x4 =0
−2x2 +x3 +x5 = 0 ,

dessen zugehörige Koeffizientenmatrix die folgende Gestalt hat


 
0 −1 0 1 0
.
0 −2 1 0 1

Als Übungsaufgabe empfehlen wir dem Leser, mit Hilfe des Gaußschen Al-
gorithmus eine Basis der Lösungsmenge dieses Gleichungssystems zu be-
stimmen und dann festzustellen, ob diese Lösungsmenge tatsächlich mit U
übereinstimmt.

Durchschnitt zweier Unterräume

Die Schwierigkeiten bei der Bestimmung des Durchschnittes U ∩V zweier Un-


terräume U, V ⊂ K n hängen davon ab, in welcher Form die Unterräume gege-
ben sind. Wenn die Unterräume durch Gleichungssysteme gegeben sind, dann
ist der Durchschnitt durch die Vereinigung dieser Gleichungen bestimmt. Die
Matrix des zugehörigen Gleichungssystems erhalten wir, indem wir die Zeilen
der beiden gegebenen Matrizen als Zeilen einer einzigen Matrix schreiben. Mit
Hilfe des Gaußschen Algorithmus kann man daraus eine Basis bestimmen.
Interessanter ist der Fall, in dem beide Unterräume durch Basen gegeben
sind. Sei (u1 , . . . , ur ) eine Basis von U und (v1 , . . . , vs ) eine Basis von V .
Mit dem oben erläuterten Verfahren bestimmen wir zunächst ein lineares
Gleichungssystem für V , das heißt eine Matrix A ∈ Mat(m × n, K) mit
Lös(A| 0) = V P . Die Vektoren aus U ∩ V sind diejenigen x ∈ V , die sich in
der Form x = rj=1 yj uj schreiben lassen. Ein solcher Vektor ist genau dann
u1j !

in V , wenn A · x = 0. Wenn uj = .. , dann ist x = Pr y u . Mit


. i j=1 j ij
unj
der Matrix B ∈ Mat(n ! × r, K), deren j-te Spalte der Vektor uj ist, und
y1
der Abkürzung y = .. schreibt sich das als x = B · y. Die Lösungen des
.
yr
2.3 Anwendungen des Gaußschen Algorithmus 117

Gleichungssystems (A◦B)·y = 0 beschreiben genau die Linearkombinationen


der Basisvektoren u1 , . . . , ur von U , die in V liegen. Wenn w1 , . . . , wt ∈ K r
eine Basis für Lös(A◦B| 0) ist, dann ist Bw1 , . . . , Bwt eine Basis für U ∩V . Für
diese Rechnungen genügt es, dass Erzeugendensysteme von U und V gegeben
sind. Allerdings ist es möglich, dass wir am Ende nur ein Erzeugendensystem
von U ∩ V erhalten, wenn die Vektoren v1 , . . . , vs linear abhängig waren. Wie
zuvor beschrieben, kann man daraus eine Basis von U ∩ V gewinnen.
Bei dem im Folgenden beschriebenen alternativen Verfahren wird die Bestim-
mung der Matrix A vermieden. Wegen der Größe der auftretenden Matrizen
wird man darauf wohl eher bei einer Implementierung als bei einer Rechnung
per Hand zurückgreifen. Sei jetzt C ∈ Mat(n×s, K) die Matrix, deren Spalten
die Vektoren vj sind. Für die Lösungen des linearen Gleichungssystems
 
  λ1
1n B 0  . 
. =0 gilt
1n 0 C  . 
λn+r+s
       
λ1 λn+1 λ1 λn+r+1
 ..   .   ..   . 
 .  = −B  ..  und  .  = −C  ..  .
λn λn+r λn λn+r+s
Daher sind die aus den ersten n Komponenten von Lösungsvektoren λ ∈
K n+r+s gebildeten Vektoren genau die Vektoren, die in U ∩V liegen. Eine
 Ba-

1n B 0 0
sis von U ∩ V ergibt sich somit, wenn wir eine Basis von Lös
1n 0 C 0
bestimmen und von jedem Basisvektor nur die ersten n Komponenten
(λ1 , . . . , λn ) übernehmen.
Beispiel 2.3.7. Gegeben seien die beiden Unterräume
           
0 −1 1 2 1 4
1  0   0  3 2  0 
           
U = Lin             
0 ,  3  ,  1  und V = Lin 1 , 0 , −1
1  0   0  3 2  0 
2 −3 −1 3 2 3

im R5 . Wir haben in Beispiel 2.3.6 eine Matrix A bestimmt, deren Kern gleich
U ist. Unter Benutzung der zuvor eingeführten Bezeichnung ist somit
 
21 4
  3 2 0 
0 −1 0 1 0  
A= und B =   1 0 −1
 .
0 −2 1 0 1 3 2 0 
32 3
118 2 Lineare Algebra
 
0 0 0
Wir erhalten A ◦ B = . Die reduzierte Zeilenstufenform dieser
−2 −2 2
1 1 −1
Matrix hat die Gestalt , woraus wir als Basis des zugehörigen
00 0
Lösungsraumes die beiden Vektoren (−1, 1, 0) und (1, 0, 1) erhalten. Dies sind
noch nicht die gesuchten Basisvektoren, sondern deren Koordinaten bezüglich
(v1 , v2 , v3 ). Als Basis für den Durchschnitt U ∩ V ergeben sich daraus die bei-
den Vektoren
 
−1
B  1  = −v1 + v2 = (−1, −1, −1, −1, −1) und
0
 
1
B 0 = v1 + v3 = (6, 3, 0, 3, 6) .
1

Summe zweier Unterräume

Wenn U, V ⊂ W Unterräume eines Vektorraumes W sind, dann ist auch

U + V := {u + v | u ∈ U, v ∈ V } ⊂ W

ein Unterraum. Dies ist der kleinste Unterraum, der U und V enthält.
Wenn (u1 , . . . , ur ) Basis von U und (v1 , . . . , vs ) Basis von V ist, dann ist
offenbar (u1 , . . . , ur , v1 , . . . , vs ) ein Erzeugendensystem von U + V . Im Allge-
meinen wird dies jedoch keine Basis sein.
Nach der Wahl von Koordinatensystemen können wir annehmen W = K n .
Aus der Zeilenstufenform der Matrix, deren Spalten die Koordinaten der ge-
gebenen Vektoren sind, kann man auf zuvor beschriebene Weise eine Basis von
U + V ablesen. Alternativ kann man eine (r + s)× n-Matrix bilden, deren Zei-
len die Koordinaten der Vektoren u1 , . . . , ur , v1 , . . . , vs sind. Durch elemen-
tare Zeilenumformungen können wir auch diese Matrix in Zeilenstufenform
überführen. Die von 0 verschiedenen Zeilen dieser Zeilenstufenform bilden
dann eine Basis von U + V . Der Rang dieser Matrix ist gleich der Dimension
von U + V . Daraus sehen wir, dass im Allgemeinen nur dimK (U + V ) ≤ r + s
gilt. Die Situation wird durch den folgenden Satz vollständig geklärt.

Satz 2.3.8 Wenn U, V ⊂ W lineare Unterräume sind, dann gilt

dimK (U + V ) + dimK (U ∩ V ) = dimK U + dimK V .

Beweis. Sei (w1 , . . . , wt ) eine Basis von U ∩ V . Diese können wir zu einer
nicht verlängerbaren linear unabhängigen Liste (w1 , . . . , wt , ut+1 , . . . , ur ) von
2.3 Anwendungen des Gaußschen Algorithmus 119

U ergänzen. Nach Satz 2.2.11 ist das eine Basis von U . Ebenso finden wir
eine Basis der Gestalt (w1 , . . . , wt , vt+1 , . . . , vs ) von V .
Wir behaupten nun, dass (w1 , . . . , wt , ut+1 , . . . , ur , vt+1 , . . . , vs ) eine Basis
von U + V ist, woraus die gewünschte Gleichung

dim(U + V ) = t + (r − t) + (s − t) = r + s − t = dim U + dim V − dim(U ∩ V )

folgt. Die angegebene Liste bildet ein Erzeugendensystem von U + V . Zum


Beweis der linearen Unabhängigkeit nehmen wir an
t
X r−t
X s−t
X
λi wi + αi ut+i + βi vt+i = 0 .
i=1 i=1 i=1

Daraus ergibt sich


t
X r−t
X s−t
X
λi wi + αi ut+i = − βi vt+i ∈ U ∩ V .
i=1 i=1 i=1

Da (w1 , . . . , wi ) Basis von U ∩ V ist, muss es Elemente µi ∈ K geben, für die


t
X s−t
X
µi wi = − βi vt+i
i=1 i=1

gilt. Wegen der linearen Unabhängigkeit der Liste (w1 , . . . , wt , vt+1 , . . . , vs )


erhalten wir daraus für alle i, dass µi = 0 und βi = 0 ist. Das liefert jetzt
t
X r−t
X
λi wi + αi ut+i = 0 ,
i=1 i=1

was wegen der linearen Unabhängigkeit von (w1 , . . . , wt , ut+1 , . . . , ur ) zur


Folge hat, dass λi = 0 und αi = 0 für alle i gilt. Damit ist gezeigt, dass
(w1 , . . . , wt , ut+1 , . . . , ur , vt+1 , . . . , vs ) eine Basis von U + V ist. ⊓

Aufgaben

Übung 2.17. Bestimmen Sie eine Basis des durch die Spalten der Matrix
 
1 2 2 8 3 3
1 2 1 5 1 3
 
−1 −2 0 −2 2 −4
2 4 3 13 6 4

aufgespannten Unterraumes von R4 .


120 2 Lineare Algebra

Übung 2.18. Bestimmen sie eine Basis (v1 , v2 , v3 , v4 , v5 ) von R5 , so dass

v2 = (1, 1, 1, 1, 2) und v4 = (1, 1, 1, 1, 4) .

Übung 2.19. Berechnen Sie die Inverse A−1 ∈ GL(4, R) der Matrix
 
1100
1 1 1 0
A= 
0 1 1 1 ∈ GL(4, R) .
0011

Übung 2.20. Berechnen Sie die Inverse B −1 ∈ GL(3, F13 ) der Matrix
 
12 1
B = 0 1 0  ∈ GL(3, F13 ) .
1 0 −1

Übung 2.21. Sei A ∈ Mat(n×n, K) eine Matrix mit der Eigenschaft A2 = 0.


Beweisen Sie, dass die Matrix 1n − A invertierbar ist. Geben Sie ein Beispiel
einer solchen Matrix A für den Fall n = 4 an, bei dem möglichst wenige
Einträge der Matrix gleich 0 sind.
Ist 1n − A auch dann invertierbar, wenn nur bekannt ist, dass es eine ganze
Zahl k ≥ 2 gibt, für die Ak = 0 gilt?

Übung 2.22. Sei U ⊂ Q5 der Unterraum U = Lin(u1 , u2 , u3 ), der durch


die Vektoren u1 = (2, 4, 6, 8, 0), u2 = (1, 1, 2, 2, 1), u3 = (0, 7, 8, 17, −6) auf-
gespannt ist. Bestimmen Sie ein lineares Gleichungssystem, dessen Lösungs-
menge gleich U ist.

Übung 2.23. Sei U ⊂ Q3 die durch die beiden Vektoren (1, 2, 1), (27, 0, 3)
aufgespannte Ebene und sei V ⊂ Q3 die Ebene, die durch die beiden Vek-
toren (2, 1, 2), (41, 28, 1) aufgespannt wird. Bestimmen Sie eine Basis für den
Durchschnitt U ∩ V .

Übung 2.24. Seien e1 , . . . , en ∈ Rn die Standardbasisvektoren und e0 :=


0, en+1 := 0. Für 1 ≤ i ≤ n definieren wir vi := ei−1 + ei + ei+1 . Für welche
n ≥ 1 ist (v1 , . . . , vn ) eine Basis von Rn ? Falls Sie dies schwierig finden,
untersuchen Sie diese Frage zunächst für n = 3, 4, 5.

2.4 Quadratische Matrizen

Man nennt eine Matrix quadratisch, wenn sie ebenso viele Zeilen wie Spalten
besitzt. Solche Matrizen treten vor allem beim Studium von Symmetrien und
inneren Strukturen von Vektorräumen auf. Es gibt mindestens zwei Gründe,
weshalb ihnen ein eigener Abschnitt gewidmet ist. Auf der einen Seite sind
2.4 Quadratische Matrizen 121

hier spezielle Methoden und Begriffsbildungen im Zusammenhang mit qua-


dratischen Matrizen zu behandeln: Determinanten, Skalarprodukte und Ei-
genwerte. Andererseits wird damit Grundlagenwissen für Anwendungen in
der Computergraphik und bei der Informationssuche in großen Datennet-
zen bereitgestellt. Im Abschnitt 5.3, bei der Vorstellung der Suchstrategien
der populären Suchmaschine von Google, werden wir eine sehr praktische und
nützliche Anwendung von Eigenwerten quadratischer Matrizen kennenlernen.

Determinanten

Definition 2.4.1. Die Determinante einer quadratischen Matrix A = (aij ) ∈


Mat(n × n, K) ist auf rekursive Weise durch die Formel
n
X
det(A) = (−1)i+1 ai1 det(Ai1 )
i=1

definiert. Dabei bezeichnet Ai1 ∈ Mat((n − 1) × (n − 1), K) die Matrix, die


durch Entfernung der ersten Spalte und i-ten Zeile aus der Matrix A entsteht.
Im Fall n = 1 ist det(a) = a.

Beispiel 2.4.2. Für n = 2 und n = 3 ergibt sich aus dieser Definition explizit
 
ab
det = ad − bc und
cd
 
a11 a12 a13      
a a a a a a
deta21 a22 a23  = a11 det 22 23 −a21 det 12 13 +a31 det 12 13
a32 a33 a32 a33 a22 a23
a31 a32 a33
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
Der letzte Ausdruck lässt sich mittels folgender Graphiken leichter einprägen:

a11 a12 a13 a11 a12

a21 a22 a23 a21 a22

a31 a32 a33 a31 a32


• • • • • •




• • • − •
• •




• • • • • •
122 2 Lineare Algebra

Wir werden auf den folgenden Seiten ein Verfahren zur Berechnung von De-
terminanten kennenlernen, welches weitaus effizienter ist als die rekursive
Anwendung der Definition. Es beruht darauf, dass die Determinante einer
oberen Dreiecksmatrix gleich dem Produkt ihrer Diagonalelemente ist. Dies
ergibt sich aus Definition 2.4.1 wie folgt:
 
a11 a12 . . . . . . a1n  
 0 a22 . . . . . . a2n  a22 . . . . . . a2n
   0 a33 . . . a3n 
   
det  0 0 a33 . . . a3n  = a11 · det  . . . =
 .. . . .   .. . . . . ...  
 . . . . . .. 
0 . . . 0 ann
0 . . . . . . . 0 ann
 
a33 . . . . . . a3n
 .. 
 0 a44 . 

= a11 · a22 · det  .  = . . . = a11 · a22 · a33 · . . . · ann .
. . 
 .. . . .. 
0 . . . 0 ann
Wir empfehlen unseren Lesern, einen formal korrekten Beweis mittels Induk-
tion über n selbständig zu formulieren.

Satz 2.4.3 Seien A, A′ , A′′ ∈ Mat(n × n, K) quadratische Matrizen, deren


Zeilenvektoren mit zi , zi′ bzw. zi′′ bezeichnet werden.
(1) Wenn zi = zi′ +zi′′ für einen Index i, jedoch zk = zk′ = zk′′ für alle anderen
k 6= i gilt, dann ist det(A) = det(A′ ) + det(A′′ ).
(2) Wenn zi = λzi′ für einen Index i, jedoch zk = zk′ für alle k 6= i gilt, dann
ist det(A) = λ det(A′ ).
(3) Wenn es i 6= j gibt mit zi = zj , dann ist det(A) = 0.
(4) Wenn A′ aus A durch das Vertauschen zweier Zeilen hervorgeht, dann
ist det(A) = − det(A′ ).
(5) Wenn zi = zi′ + λzj′ für ein Paar von Indizes i 6= j, jedoch zk = zk′ für
alle k 6= i gilt, dann ist det(A) = det(A′ ).

Beweis. Die Aussagen (1) und (2) ergeben sich per Induktion über n unmit-
telbar aus Definition 2.4.1.
Wenn Aussage (3) für ein festes n gezeigt ist, dann ergibt sich daraus die
Aussage (5) für denselben Wert von n. Dazu bemerken wir, dass nach (1)
det(A) = det(A′ )+det(A′′ ) gilt, wenn wir A′′ durch zi′′ = λzj′ für das gegebene
Paar von Indizes i 6= j und zk′′ = zk′ für alle k 6= i definieren. Da aus (2) und
(3) det(A′′ ) = 0 folgt, ist (5) gezeigt.
Aus der Gültigkeit von (2) und (5) für ein festes n ergibt sich die Aussage
(4), da sich die Vertauschung zweier Zeilen durch eine Folge von Additionen
eines Vielfachen einer Zeile zu einer anderen – was nach (5) die Determinante
nicht ändert – gefolgt von der Multiplikation einer Zeile mit dem Faktor −1
2.4 Quadratische Matrizen 123

beschreiben lässt:
         
zi zi + zj zi + zj zj zj
7→ 7→ 7→ 7→ .
zj zj −zi −zi zi

Somit bleibt noch die Gültigkeit der Aussage (3) zu beweisen. Das geschieht
per Induktion über n. Für n = 2 ist das aus der expliziten Formel in Beispiel
2.4.2 sofort einzusehen. Für den Induktionsschritt nehmen wir an, (3) gilt für
quadratische Matrizen der Größe n − 1 ≥ 2. Wir haben bereits gezeigt, dass
dann auch alle anderen Aussagen des Satzes für Matrizen der Größe n − 1
gültig sind. Für eine Matrix A ∈ Mat(n × n, K), deren Zeile i mit Zeile j
übereinstimmt, haben auch die Matrizen Ak1 für k 6= i, j zwei gleiche Zeilen.
Da die Matrizen Ak1 die Größe n−1 haben, verschwindet deren Determinante
nach Induktionsvoraussetzung und wir erhalten

det(A) = (−1)1+i ai1 det(Ai1 ) + (−1)1+j aj1 det(Aj1 ) .

Die Matrix Aj1 geht aus Ai1 durch ±(j − i) − 1 Zeilenvertauschungen hervor.
Wegen (4) ist daher det(Aj1 ) = (−1)i−j−1 det(Ai1 ). Mit aj1 = ai1 folgt nun
die Behauptung det(A) = 0. ⊓

Mit λ = 0 in (2) erhält man, dass die Determinante einer Matrix, die eine nur
aus Nullen bestehende Zeile enthält, gleich Null ist. Aus den Aussagen (4)
und (5) des Satzes 2.4.3 ergibt sich det(P (i, j)) = −1 und det(Qλ (i, k)) = 1
für i 6= j, i 6= k und λ ∈ K. Es folgt außerdem für jedes A ∈ Mat(n × n, K)

det(P (i, j) ◦ A) = det(P (i, j)) det(A) = − det(A) und (2.13)


det(Qλ (i, k) ◦ A) = det(Qλ (i, k)) det(A) = det(A) . (2.14)

Das bedeutet, dass die elementare Zeilenumformung (Z1) das Vorzeichen der
Determinante einer Matrix ändert, die elementare Zeilenumformung (Z2) da-
gegen die Determinante unverändert lässt. Dadurch ist es möglich, mit Hilfe
des Gaußschen Algorithmus die Determinante einer quadratischen Matrix zu
berechnen. Dazu erzeugt man Zeilenstufenform und merkt sich die Zahl v
der Zeilenvertauschungen. Das Produkt der Diagonalelemente der Zeilenstu-
fenform ist dann bis auf das Vorzeichen (−1)v gleich der Determinante der
ursprünglichen Matrix. Durch Anwendung der Regel (2) aus Satz 2.4.3 lässt
sich die Rechnung oft noch vereinfachen. Diese Überlegungen und Folgerung
2.2.29 zeigen, dass eine quadratische Matrix genau dann invertierbar ist, wenn
ihre Determinante nicht verschwindet. Für jedes A ∈ Mat(n × n, K) gilt

A ∈ GL(n, K) ⇐⇒ det(A) 6= 0 .
124 2 Lineare Algebra

Beispiel 2.4.4.
     
3 3 9 1 1 3 1 1 3
det 2 5 13 = 3 det 2 5 13 = 3 det 0 3 7 
8 21 34 8 21 34 0 13 10
 
3 7
= 3 det = 3(30 − 91) = −183 .
13 10

Satz 2.4.5 Für A, B ∈ Mat(n × n, K) gilt det(A ◦ B) = det(A) det(B).

Beweis. Wenn P das Produkt von Elementarmatrizen und T eine obere Drei-
ecksmatrix ist, dann gilt wegen (2.13) und (2.14) det(P ◦ T ) = det(P ) det(T ).
Aus Satz 2.4.3 (2) folgt auf analoge Weise für jede Matrix B ∈ Mat(n × n, K)
und jede Diagonalmatrix D die Gleichung det(D ◦ B) = det(D) det(B).
Sei T die wie beim Gauß-Jordan-Verfahren aus der quadratischen Matrix A
erzeugte Zeilenstufenform, in der auch oberhalb der Pivotelemente Nullen
stehen. Dann gibt es eine Matrix P , die ein Produkt von Elementarmatrizen
ist, so dass A = P ◦ T . Wenn T eine Diagonalmatrix ist, dann folgt

det(A ◦ B) = det(P ◦ T ◦ B) = det(P ) det(T ) det(B) = det(A) det(B) .

Wenn T keine Diagonalmatrix ist, muss ein Zeilenvektor von T gleich Null
sein. Dies ist dann auch für die Matrix T ◦ B der Fall. Daraus folgt einer-
seits det(A ◦ B) = det(P ) det(T ◦ B) = 0 und andererseits det(A) det(B) =
det(P ) det(T ) det(B) = 0, woraus sich die Behauptung ergibt. ⊓

Bemerkung 2.4.6. In der Sprache von Abschnitt 1.3 besagt Satz 2.4.5, dass
det : GL(n, K) −→ K ∗ ein Gruppenhomomorphismus ist. Sein Kern

SL(n, K) = A | det(A) = 1

tritt unter dem Namen spezielle lineare Gruppe in der Literatur auf.

Folgerung 2.4.7. Wenn A ∈ Mat(n × n, K), dann gilt für jedes 1 ≤ j ≤ n


det(At )
(i) det(A) = P
(ii) det(A) = Pni=1 (−1)i+j aij det(Aij )
n
(iii) det(A) = i=1 (−1)i+j aji det(Aji )
Die Matrix Aij entsteht durch Streichung von Zeile i und Spalte j aus A. Bei
Anwendung von (ii) sagt man, die Determinante von A wird nach ihrer j-ten
Spalte entwickelt. Die Formel (iii) ist eine Entwicklung nach der j-ten Zeile.

Beweis. Wenn T die Zeilenstufenform von A mit Nullen oberhalb der Pivot-
elemente ist, dann gibt es wieder ein Produkt von Elementarmatrizen P , so
2.4 Quadratische Matrizen 125

dass A = P ◦ T . Da At = T t ◦ P t , P (i, j)t = P (i, j), Qλ (i, k)t = Qλ (k, i) und


det(T t ) = det(T ), folgt (i) aus Satz 2.4.5.
Wegen (i) gelten die Aussagen in Satz 2.4.3 auch für Spalten statt Zeilen.
Durch zweimaliges Vertauschen der ersten mit der j-ten Spalte ergibt sich
daher (ii) aus Definition 2.4.1. Schließlich folgt (iii) aus (i) und (ii). ⊓

Beispiel 2.4.8. Um Determinanten per Hand effizient zu berechnen, kann


man die verschiedenen Methoden miteinander kombinieren. Durch elementare
Zeilen- oder Spaltenoperationen kann man möglichst viele Nullen in einer
Zeile oder Spalte erzeugen und dann Folgerung 2.4.7 anwenden. Im folgenden
Beispiel wurden zuerst die Zeilen IV und II von Zeile III subtrahiert. Nach
Verkleinerung wurde das Dreifache der Zeile III von Zeile I subtrahiert.
     
5 6 9 −2 5 6 9 −2 5 6 9 −2
1 0 7 4     
det   = det 1 0 7 4  = det 1 0 7 4  =
2 2 5 3  1 0 10 4  0 0 3 0 
1 2 −5 −1 1 2 −5 −1 1 2 −5 −1
   
5 6 −2 20 1  
    21
= 3 det 1 0 4 = 3 det 1 0 4 = −3·2 det = −3·2(8−1) = −42.
14
1 2 −1 1 2 −1

Satz 2.4.9 Sei A ∈ Mat(n × n, K) und B = (bij ) die Matrix mit den
Einträgen bij = (−1)i+j det(Aji ). Dann gilt A ◦ B = det(A)1n . Wenn
1
A ∈ GL(n, K), dann ist A−1 = B.
det(A)

Beweis. Der j-te Spaltenvektor vj von B hat als k-ten Eintrag bkj =
(−1)k+j det(Ajk ). Der i-te Eintrag des Vektors Avj ist daher gleich
n
X n
X
aik bkj = (−1)k+j aik det(Ajk ) .
k=1 k=1

Wenn i = j, dann ist dies wegen Folgerung 2.4.7 (iii) gleich det(A). Wenn
i 6= j, dann ist dieser Ausdruck gleich der Determinante der Matrix, die aus
A durch Ersetzung der j-ten Zeile durch ihre i-te Zeile entsteht. Da diese
Matrix zwei gleiche Zeilen besitzt, ist ihre Determinante gleich Null. ⊓

Bemerkung 2.4.10. Im Fall n = 2 lauten die Formeln aus Satz 2.4.9


       −1  
ab d −b 10 ab 1 d −b
◦ = (ad − bc) und = .
cd −c a 01 cd ad − bc −c a

Im Allgemeinen heißt (−1)i+j det(Aij ) das algebraische Komplement (oder


auch Cofaktor ) zum Eintrag aij . Die Matrix B erhält man also, indem man
126 2 Lineare Algebra

in A jeden Eintrag durch sein algebraisches Komplement ersetzt und an-


schließend die Matrix transponiert. Die Matrix B nennt man auch Komple-
mentärmatrix oder Adjunkte der Matrix A.

Folgerung 2.4.11 (Cramersche7 Regel). Wenn A ∈ GL(n, K) eine in-


vertierbare quadratische Matrix ist, dann ist
 
det(A1 ) det(A2 ) det(An )
x= , ,...,
det(A) det(A) det(A)

die (als Zeilenvektor geschriebene) eindeutig bestimmte Lösung des Glei-


chungssystems Ax = b. Hierbei ist Ai die Matrix, die entsteht, wenn die
i-te Spalte von A durch den Vektor b ersetzt wird.

Beweis. Da A invertierbar ist, gilt x = A−1 b. Mit den Bezeichnungen von


1
Satz 2.4.9 heißt das x = det(A) Bb. Die i-te Komponente von x ist somit gleich

n
1 X 1
(−1)i+k bk det(Aki ) = det(Ai ) .
det(A) det(A)
k=1


Orthogonalität

Zum Einstieg in die lineare Algebra hatten wir uns im Abschnitt 2.1 mit geo-
metrischen Objekten wie Geraden und Ebenen im dreidimensionalen Raum
beschäftigt. Für unsere geometrische Anschauung verwenden wir normaler-
weise ein Koordinatensystem, in dem die Koordinatenachsen senkrecht auf-
einander stehen. Diesen Aspekt hatten wir bisher völlig ignoriert. Begriffe
wie Länge, Winkel oder senkrecht zueinander sind im abstrakten Konzept
eines Vektorraumes nicht widergespiegelt. Im Rahmen der linearen Algebra
lassen sich diese grundlegenden geometrischen Konzepte aus dem Begriff des
Skalarproduktes ableiten. Erst nach dieser Erweiterung verfügen wir über ein
adäquates Konzept zur Beschreibung von ebenen oder räumlichen Bewegun-
gen, ein Grundbedürfnis der Computergraphik.
Das Standardskalarprodukt auf dem Vektorraum Rn ist durch
n
X
hx, yi = xi yi = xt · y
i=1

7 Gabriel Cramer (1704–1752), Schweizer Mathematiker und Philosoph.


2.4 Quadratische Matrizen 127

gegeben. Dabei ist xt = (x1 , x2 , . . . , xn ) und y t = (y1 , y2 , . . . , yn ). Es hat


folgende wichtige Eigenschaften. Für alle x, y, z ∈ Rn und λ ∈ R gilt

hx + y, zi = hx, zi + hy, zi (2.15)


hλx, yi = λhx, yi (2.16)
hx, yi = hy, xi (2.17)
hx, xi > 0 , falls x 6= 0. (2.18)

Wenn K ein Körper und V ein K-Vektorraum ist, dann heißt eine Abbildung
V × V −→ K symmetrische Bilinearform, wenn sie die Bedingungen (2.15),
(2.16) und (2.17) erfüllt. Die Eigenschaft (2.18) ist eine Spezialität für K = Q
oder K = R. Eine Bilinearform mit dieser Eigenschaft heißt positiv definit .
Jede positiv definite, symmetrische Bilinearform h·, ·i : Rn × Rn −→ R nennt
man Skalarprodukt.
Aus (2.15) und (2.16) folgt für beliebige v1 , . . . , vn ∈ V und ai , bi ∈ K
* n n
+ n X n
X X X
ai vi , bj vj = ai bj hvi , vj i .
i=1 j=1 i=1 j=1

Dabei ist h·, ·i irgendeine symmetrische Bilinearform auf dem K-Vektorraum


V . Wenn (v1 , . . . , vn ) eine Basis von V ist, dann sind durch hvi , vj i alle Werte
hv, wi bestimmt. Daher  ist eine symmetrische Bilinearform durch ihre Gram-
sche8 Matrix hvi , vj i ∈ Mat(n×n, K) eindeutig bestimmt. Wegen (2.17) ist
jede Gramsche Matrix G symmetrisch, das heißt G = Gt . Jede symmetrische
Matrix G ist die Gramsche Matrix einer symmetrischen Bilinearform

hv, wiG := hGv, wi = hv, Gwi .

Ob eine solche Matrix ein positiv definites Skalarprodukt definiert, kann man
leicht mit dem Hauptminorenkriterium (Satz 2.4.29) entscheiden.
Die geometrischen Grundbegriffe Länge, Orthogonalität und Winkel erhält
man auf folgende Weise aus einem Skalarprodukt h·, ·i auf V = Rn .
p
Definition 2.4.12. (1) kxk = hx, xi heißt Länge von x ∈ Rn .
(2) x ∈ Rn heißt senkrecht (oder orthogonal ) zu y ∈ Rn , falls hx, yi = 0.
(3) Der Winkel zwischen x 6= 0 und y 6= 0 ist die eindeutig bestimmte Zahl
hx, yi
0 ≤ α ≤ π, für die cos(α) = gilt.
kxk · kyk
Da −1 ≤ cos(α) ≤ 1 für jede reelle Zahl α, benötigen wir den folgenden Satz
zur Rechtfertigung der Definition des Winkels zwischen zwei Vektoren.

8 Jørgen Pedersen Gram (1850–1916), dänischer Mathematiker.


128 2 Lineare Algebra

Satz 2.4.13 (Cauchy-Schwarz9 Ungleichung) Für alle x, y ∈ Rn gilt

|hx, yi| ≤ kxk · kyk .

Beweis. Für jede reelle Zahl t gilt htx + y, tx + yi ≥ 0 wegen (2.18). Daher
hat das quadratische Polynom htx + y, tx + yi = t2 kxk2 + 2thx, yi + kyk2
in der Variablen t höchstens eine reelle Nullstelle. Der Ausdruck unter der
Wurzel in der Lösungsformel dieser quadratischen Gleichung kann damit nicht
2
positiv sein, das heißt (hx, yi) − kxk2 · kyk2 ≤ 0. Daraus folgt die behauptete
Ungleichung. ⊓

Als Folgerung ergibt sich daraus die sogenannte Dreiecksungleichung, der
wir beim Studium fehlerkorrigierender Codes wiederbegegnen werden, siehe
Definition 2.5.3.

kx + yk kyk

kxk
Abb. 2.12 Dreiecksungleichung

Satz 2.4.14 (Dreiecksungleichung) Für alle x, y ∈ Rn gilt

kx + yk ≤ kxk + kyk .

Beweis. Mit Hilfe der Cauchy-Schwarz Ungleichung erhalten wir kx + yk2 =


2
hx+y, x+yi = kxk2 +2hx, yi+kyk2 ≤ kxk2 +2kxk·kyk+kyk2 = (kxk + kyk) ,
woraus die Behauptung folgt. ⊓

Beispiel 2.4.15. Wenn U ⊂ Rn ein Unterraum ist, dann folgt aus (2.15) und
(2.16), dass das orthogonale Komplement von U

U ⊥ = {x ∈ Rn | hx, ui = 0 für alle u ∈ U }

ein Unterraum von Rn ist. Wenn (v1 , v2 , . . . , vm ) eine Basis von U ⊂ Rn und
A ∈ Mat(m × n, R) die Matrix ist, deren Zeilen die Vektoren vi sind, dann ist
die i-te Komponente des Vektors Ax gleich hvi , xi. Somit ist U ⊥ = Lös(A| 0).
Hier haben wir das Standardskalarprodukt des Rn benutzt.
9 Augustin Louis Cauchy (1789–1857), französischer Mathematiker.

Hermann Amandus Schwarz (1843–1921), deutscher Mathematiker.


2.4 Quadratische Matrizen 129

Rechnungen mit Vektoren des Raumes Rn sind unter Verwendung der kano-
nischen Basis (e1 , . . . , en ) besonders bequem. Das liegt unter anderem daran,
dass die Gramsche Matrix des Standardskalarproduktes bezüglich dieser Ba-
sis die Einheitsmatrix 1n ist. Basen mit dieser Eigenschaft, auch bezüglich
anderer symmetrischer Bilinearformen, sind daher von besonderem Interesse.
Definition 2.4.16. Eine Basis (v1 , v2 , . . . , vn ) eines K-Vektorraumes, auf
dem eine symmetrische Bilinearform h·, ·i gegeben ist, heißt Orthonormal-
basis (kurz: ON-Basis), falls
(
0 falls i 6= j
hvi , vj i =
1 falls i = j.

Eine ON-Basis zeichnet sich dadurch aus, dass jeder ihrer Vektoren die Länge
eins hat und orthogonal zu allen anderen Basisvektoren ist.
Die Bestimmung einer ON-Basis eines Unterraumes V ⊂ Rn bezüglich des
Standardskalarproduktes auf Rn ist bereits ein interessantes Problem. Dieses
wird durch den folgenden Algorithmus gelöst.

Gram-Schmidt10 Orthonormalisierungsverfahren

Als Eingabedaten seien die Vektoren einer Basis (w1 , w2 , . . . , wm ) eines mit
einer symmetrischen Bilinearform ausgestatteten Vektorraumes V gegeben.
Ausgegeben wird eine ON-Basis (v1 , v2 , . . . , vm ) von V .
1
Schritt 1: v1 := w1
kw1 k
1 Pk−1
Schritt k ≥ 2: vk := zk mit zk := wk − i=1 hwk , vi ivi .
kzk k
Für die Vektoren vk gilt offenbar kvk k = 1. Außerdem ist für j < k
* k−1
+ k−1
X X
hzk , vj i = wk − hwk , vi ivi , vj = hwk , vj i − hwk , vi ihvi , vj i .
i=1 i=1

Wenn wir Induktion über k ≥ 2 führen, dann können wir an dieser Stelle
voraussetzen, dass v1 , . . . , vk−1 bereits eine ON-Basis des von diesen Vektoren
aufgespannten Unterraumes ist. Daher ist hvi , vj i = 0 für i 6= j < k und
Obiges vereinfacht sich zu hzk , vj i = hwk , vj i − hwk , vj i = 0, daher auch
hvk , vj i = 0.
Damit ist gezeigt, dass dieses Verfahren tatsächlich eine ON-Basis produziert.
10Jørgen Pedersen Gram (1850–1916), dänischer Mathematiker.
Erhard Schmidt (1876–1959), deutscher Mathematiker.
130 2 Lineare Algebra

Beispiel 2.4.17. Sei V ⊂ R4 der durch die Basis


     
1 7 7
1 −1 1
w1 =  
3 , w2 = 7 ,
 w3 = 
6

5 9 2

gegebene Unterraum. Wir wenden das Orthonormalisierungsverfahren an, um


eine ON-Basis von V bezüglich des Standardskalarproduktes des R4 zu be-
stimmen. Dies sieht konkret wie folgt aus:
t
z1 = w1 = (1, 1, 3, 5)
1 1 1 t
kz1 k = 6, v1 = z1 = z1 = (1, 1, 3, 5)
kz1 k 6 6
1
hw2 , v1 i = hw2 , z1 i = 12
6
t
z2 = w2 − hw2 , v1 iv1 = w2 − 12v1 = w2 − 2z1 = (5, −3, 1, −1)
1 1 1 t
kz2 k = 6, v2 = z2 = z2 = (5, −3, 1, −1)
kz2 k 6 6
1 1
hw3 , v1 i = hw3 , z1 i = 6, hw3 , v2 i = hw3 , z2 i = 6
6 6
t
z3 = w3 − hw3 , v1 iv1 − hw3 , v2 iv2 = w3 − z1 − z2 = (1, 3, 2, −2)
√ 1 t
kz3 k = 3 2, v3 = √ (1, 3, 2, −2) .
3 2
Wir erhalten als ON-Basis für V :
    
1 5 1
1 1
 1 −3 1 3
v1 =   , v2 =    , v3 = √   .
6 3 6 1 3 2 2
5 −1 −2

Diese Basis von V ⊂ R4 kann man zu einer ON-Basis von R4 ergänzen,


indem man eine ON-Basis des orthogonalen Komplements V ⊥ bestimmt. Im
Allgemeinen ist V ⊥ = Lös(A| 0), wobei die Zeilenvektoren der Matrix A die
Vektoren vi oder Vielfache von ihnen sind. In diesem Fall wählen wir
 
1 1 3 5
A = 5 −3 1 −1 .
1 3 2 −2

Mit Hilfe des Gaußschen Algorithmus


√ findet man (2, 2, −3, 1) als Basisvektor
von V ⊥ . Da k(2, 2, −3, 1)k = 3 2, ergibt sich als ON-Basis des R4
2.4 Quadratische Matrizen 131
       
1 5 1 2
1 1 1 −3 1  3 1  2
v1 =   , v2 =   , v3 = √   , v4 = √   .
6 3
 6  1  3 2  2 3 2  −3
5 −1 −2 1

Die Vektoren in V sind genau diejenigen, die zu v4 orthogonal sind, das heißt,
V ist die Lösungsmenge der Gleichung

2x1 + 2x2 − 3x3 + x4 = 0 .

Das ist eine Alternative zu dem auf Seite 114 beschriebenen Verfahren, wel-
ches ein Gleichungssystem mit vorgegebener Lösungsmenge produziert.

Bemerkung 2.4.18. Die Berechnung der Koordinaten (Def. 2.2.21) eines


Vektors bezüglich einer ON-Basis ist besonders einfach. Wenn (v1 , v2 , . . . , vn )
eine ON-BasisPeines Vektorraumes V bezüglich eines
n Pn Skalarproduktes h·, ·i
ist und w = k=1 xk vk ∈ V , dann ist hvi , wi = k=1 xk hvi , vk i = xi da
hvi , vi i = 1 und hvi , vk i = 0 für i 6= k. Das ergibt
n
X
w= hvi , wivi .
i=1

Solche Ausdrücke traten bereits im Orthonormalisierungsverfahren auf. Dort


handelte es sich jedoch um die Projektion eines Vektors auf den Unterraum,
der durch den bereits konstruierten Teil der ON-Basis aufgespannt wird.
Da Koordinaten von Bildvektoren zu bestimmen sind, wenn die Matrixdar-
stellung einer linearen Abbildung berechnet werden soll, kann man vom Vor-
handensein eines Skalarproduktes im Bildraum profitieren. Sei dazu f : V →
W eine lineare Abbildung und auf W ein Skalarprodukt gegeben. Wenn
A = (v1 , v2 , . . . , vn ) irgendeine Basis von V und B = (w1 , w2 , . . . , wm ) ei-
ne ON-Basis von W ist, dann ist der Eintrag der Matrix MBA (f ) an der Stelle
(i, j) gleich der i-ten Koordinate von f (vj ) bezüglich der gegebenen ON-Basis
von W , vgl. Seite 103. Aus den obigen Betrachtungen folgt damit

MBA (f ) = hwi , f (vj )i .

Wenn f : Rn → Rm durch eine Matrix A gegeben ist, dann haben die Einträge
bezüglich der neuen Basen die Gestalt hwi , Avj i.

Eine quadratische Matrix P ∈ Mat(n × n, R) heißt orthogonal , wenn

P ◦ P t = 1n , das heißt, wenn P −1 = P t .

Das sind genau die Matrizen, deren Spalten bezüglich des Standardskalar-
t
produktes eine ON-Basis des Rn bilden. Aus hx, P yi = xt P y = (P t x) y =
t
hP x, yi ergibt sich, wenn wir x durch P x ersetzen, dass für jede orthogonale
Matrix P und alle x, y ∈ Rn die Gleichung
132 2 Lineare Algebra

hP x, P yi = hx, yi

gilt. Aus Definition 2.4.12 folgt damit, dass die durch eine Matrix P definierte
lineare Abbildung fP : Rn → Rn , vgl. Beispiel 2.2.20, genau dann Winkel
und Längen nicht verändert, wenn P orthogonal ist.
Das Produkt zweier orthogonaler Matrizen ist stets wieder orthogonal. Das
folgt aus der Gleichung (P ◦ Q)t ◦ P ◦ Q = Qt ◦ P t ◦ P ◦ Q. Die Menge aller
orthogonalen Matrizen gleicher Größe

O(n) := {P ∈ GL(n, R) | P ◦ P t = 1n }

ist daher eine Gruppe. Sie heißt orthogonale Gruppe. Sie spielt beim Studium
der Geometrie des Raumes Rn eine wesentliche Rolle. Da det(P ) = det(P t ),
2
gilt für jede orthogonale Matrix (det(P )) = 1. Die orthogonalen Matrizen,
deren Determinante gleich eins ist, bilden eine Untergruppe von O(n), die
spezielle orthogonale Gruppe

SO(n) = {P ∈ O(n) | det(P ) = 1} = O(n) ∩ SL(n, R) .

Jede orthogonale Matrix Q mit det(Q) = −1 kann man in der Form D ◦ P


oder P ◦D schreiben, wobei P ∈ SO(n) und D eine Diagonalmatrix ist, in der
ein Eintrag gleich −1 und alle anderen Diagonaleinträge gleich 1 sind. Eine
solche Diagonalmatrix entspricht einer Spiegelung. Die Elemente von SO(n)
sind Drehungen des Rn . Bei den nicht in dieser Untergruppe enthaltenen Ele-
menten von O(n) handelt es sich um Spiegelungen an (n − 1)-dimensionalen
Unterräumen.
Für die Computergraphik sind insbesondere die Gruppen SO(2) und SO(3)
von Interesse, da mit ihnen Bewegungen im zwei- und dreidimensionalen
Raum beschrieben werden können.
Besonders einfach ist die Beschreibung der Gruppe SO(2). Jedes ihrer Ele-
mente entspricht einer Drehung um einen Winkel ϕ ∈ [0, 2π) entgegen dem
Uhrzeigersinn:
 
cos(ϕ) − sin(ϕ)
SO(2) = {T (ϕ) | ϕ ∈ [0, 2π)} mit T (ϕ) = .
sin(ϕ) cos(ϕ)
t
Die Bedingung T (ϕ) ◦ T (ϕ) = 12 ist zur Gleichung sin2 (ϕ) + cos2 (ϕ) =1
äquivalent. Die Spiegelung an der Geraden mit Anstieg 12 ϕ ∈ [0, π) ist durch
die Matrix    
1 0 cos(ϕ) sin(ϕ)
T (ϕ) ◦ =
0 −1 sin(ϕ) − cos(ϕ)
gegeben. Damit ist die Gruppe O(2) vollständig beschrieben.
2.4 Quadratische Matrizen 133

Die Beschreibung der Gruppe SO(3) ist weitaus komplizierter. Am übersicht-


lichsten geht das mit Hilfe der Hamiltonschen11 Quaternionen. Die Quater-
nionen H bilden einen vierdimensionalen reellen Vektorraum, der mit einer
Multiplikation ausgestattet ist. Jede Quaternion q ∈ H lässt sich in der Form

q = a1 1 + a2 i + a3 j + a4 k mit a1 , a2 , a3 , a4 ∈ R (2.19)

schreiben, wobei (1, i, j, k) eine Basis des reellen Vektorraumes H ist. Die
quaternionische Multiplikation erfüllt

i2 = j2 = k2 = −1, i· j = −j· i = k .

Sie ist nicht kommutativ ! Alle anderen Körperaxiome, vgl. Def. 1.4.1, sind
erfüllt. Statt a1 1 schreibt man abkürzend a1 . Dadurch werden, genau wie im
Fall der komplexen Zahlen, die reellen Zahlen eine Teilmenge von H. Einer
komplexen Zahl a1 + a2 i ordnet man die gleichnamige Quaternion zu und
erhält Inklusionen R ⊂ C ⊂ H. Das ist möglich, da 1 ∈ H das neutrale
Element bezüglich der Multiplikation ist und da die Multiplikation von Qua-
ternionen mit der gewöhnlichen Multiplikation reeller bzw. komplexer Zahlen
verträglich ist. Explizit ergibt sich mit Hilfe des Distributivgesetzes

(a1 + a2 i + a3 j + a4 k) · (b1 + b2 i + b3 j + b4 k) =
= a1 b1 − a2 b2 − a3 b3 − a4 b4 + (a1 b2 + a2 b1 + a3 b4 − a4 b3 ) i
+(a1 b3 − a2 b4 + a3 b1 + a4 b2 ) j + (a1 b4 + a2 b3 − a3 b2 + a4 b1 ) k .

Zu q = a1 + a2 i + a3 j + a4 k ∈ H definiert man die konjugierte Quaternion

q = a1 − a2 i − a3 j − a4 k .

Als imaginäre Quaternionen bezeichnet man solche q ∈ H, für die q = −q gilt.


Eine Basis des dreidimensionalen Vektorraumes IH aller imaginären Quater-
nionen ist ( i, j, k). Durch eine Rechnung belegt man p · q = q · p. Als Norm
einer Quaternion bezeichnet man die reelle Zahl

N (q) = q · q = q · q = a21 + a22 + a23 + a24 ≥ 0 .

Damit lässt sich das multiplikative Inverse einer Quaternion q 6= 0 leicht


q
berechnen: q −1 = .
N (q)
Die Quaternionen, deren Norm gleich eins ist, bilden eine multiplikative
Gruppe. Wenn man einer Quaternion q ∈ H mit N (q) = 1 die Matrixdarstel-
lung der linearen Abbildung f : IH → IH zuordnet, die durch f (x) = q · x · q
gegeben ist, erhält man einen surjektiven Homomorphismus auf die Gruppe
11 William Rowan Hamilton (1805–1865), irischer Mathematiker, der am 16. Oktober
1843 die Formeln i2 = j2 = k2 = i j k = −1, die er nach jahrelanger Suche an diesem
Tag gefunden hatte, in eine Brücke in Dublin ritzte.
134 2 Lineare Algebra

SO(3) = {A ∈ O(3) | det(A) = 1}. Hierzu verwendet man die Basis ( i, j, k)


von IH. Dieser Homomorphismus bildet q und −q auf dieselbe Matrix ab. In-
dem man für x die drei Basisvektoren i, j, k einsetzt, ergibt sich als Matrix,
die ±q = a1 + a2 i + a3 j + a4 k entspricht:
 2 
a1 + a22 − a23 − a24 2a2 a3 − 2a1 a4 2a1 a3 + 2a2 a4
 2a1 a4 + 2a2 a3 a21 − a22 + a23 − a24 2a3 a4 − 2a1 a2  .
2a2 a4 − 2a1 a3 2a1 a2 + 2a3 a4 a21 − a22 − a23 + a24

Der Vorteil der Darstellung von SO(3) mit Hilfe von Quaternionen gegenüber
der Beschreibung durch Matrizen besteht darin, dass statt der neun Einträge
der Matrix nur noch die vier Komponenten der Quaternion gespeichert wer-
den müssen. Hamiltons Entdeckung ermöglicht somit eine signifikante Ver-
ringerung des Speicherplatzbedarfs bei der Beschreibung von Bewegungen im
dreidimensionalen Raum.
Eine ausführliche Darstellung mit Beweisen findet der Leser in [EbZ].

Eigenwerte

Definition 2.4.19. Ein Skalar λ ∈ K heißt Eigenwert einer quadratischen


Matrix A ∈ Mat(n × n, K), wenn es einen vom Nullvektor verschiedenen
Vektor v ∈ K n gibt, so dass A·v = λv. Ein solcher Vektor v heißt Eigenvektor
zum Eigenwert λ.

Eigenwerte sind vor allem deshalb von Interesse, weil sie eine einfache Be-
schreibung der durch A definierten linearen Abbildung fA : K n → K n
ermöglichen. Wenn es nämlich eine Basis (v1 , v2 , . . . , vn ) von K n gibt, die
sämtlich aus Eigenvektoren der Matrix A besteht, dann ist die Matrixdar-
stellung (siehe Seite 103) der Abbildung fA bezüglich dieser Basis besonders
einfach. Wenn der Eigenwert zu vi gleich λi ist, also fA (vi ) = Avi = λi vi ,
dann wird fA bezüglich dieser Basis durch die Diagonalmatrix mit Einträgen
λ1 , λ2 , . . . , λn entlang der Diagonalen dargestellt. Rechnungen mit Diagonal-
matrizen sind besonders bei sehr großen Matrizen viel ökonomischer als solche
mit Matrizen, in denen nicht so viele Einträge gleich Null sind.
Leider ist es nicht möglich, für jede Matrix eine Basis aus Eigenvektoren zu
finden. Das ist der Fall, wenn der zugrunde liegende Körper K zu klein in dem
Sinne ist, dass nicht jedes Polynom mit Koeffizienten aus K in Linearfaktoren
mit Koeffizienten
 aus K zerlegt werden kann. So hat zum Beispiel die Matrix

0 −1 1
1 0  ∈ Mat(2×2, C) die komplexen Eigenwerte i und −i, da 10 −10 −i =
1
 1
i −i und 10 −1 0 ( i ) = −i ( 1 ). Über dem Körper K = R hat diese Matrix
i
jedoch keinen Eigenwert.
Außerdem kann es bei Vorliegen mehrfacher Eigenwerte, wie zum Beispiel
bei der Matrix ( 10 11 ) ∈ Mat(2 × 2, R), vorkommen, dass es nicht genügend
2.4 Quadratische Matrizen 135

viele Eigenvektoren gibt: Es gilt zwar ( 10 11 ) ( 10 ) = ( 10 ), aber jeder andere


Eigenvektor dieser Matrix ist ein Vielfaches des Vektors ( 10 ).

Definition 2.4.20. Wenn A ∈ Mat(n × n, K) eine quadratische Matrix ist,


dann heißt
χA (λ) := det (λ1n − A) ∈ K[λ]
das charakteristische Polynom der Matrix A.

Die Nullstellen des charakteristischen Polynoms χA sind genau die Eigenwerte


der Matrix A. Das ergibt sich aus Folgerung 2.2.29, angewandt auf die Matrix
λ1n − A, deren Kern die Eigenvektoren zum Eigenwert λ enthält. Für jeden
Eigenwert λ nennt man die Menge

ker(λ1n − A) = {v ∈ K n | A · v = λv}

den zu λ gehörigen Eigenraum. Er enthält außer den zu λ gehörigen Eigen-


vektoren auch noch den Nullvektor, den wir nicht als Eigenvektor betrachten.

Beispiel 2.4.21. Zur Bestimmung der Eigenwerte und Eigenräume der Ma-
trix A = ( 12 21 ) gehen wir folgendermaßen vor. Zunächst bestimmen wir das
charakteristische Polynom
     
λ0 12 λ − 1 −2
χA (λ) = det (λ12 − A) = det − = det
0λ 21 −2 λ − 1
= (λ − 1)2 − 4 = λ2 − 2λ − 3 .

Die beiden Nullstellen dieses Polynoms λ1 = −1 und λ2 = 3 sind die Ei-


genwerte von A. Die zugehörigen Eigenräume sind die Lösungsmengen der
Gleichungssysteme mit Koeffizientenmatrizen
   
−2 −2 2 −2
λ1 12 − A = bzw. λ2 12 − A = .
−2 −2 −2 2
t
Als Basisvektoren für diese Eigenräume bestimmt man leicht v1 = (1, −1)
und v2 = (1, 1)t . Beide Eigenräume haben Dimension eins.

Beispiel 2.4.22. Das charakteristische Polynom der Matrix


   
0 10 λ −1 0
A =  0 0 1 ist gleich det  0 λ −1  = (λ + 1)(λ − 1)(λ − 2) .
−2 1 2 2 −1 λ − 2

Die Eigenwerte von A sind somit λ1 = −1, λ2 = 1 und λ3 = 2. Die


Eigenräume sind auch hier eindimensional. Aus den Koeffizientenmatrizen
λi 12 − A erhält man Basisvektoren vi wie folgt:
136 2 Lineare Algebra
    
−1 −1 0 1 0 −1 1
λ1 :  0 −1 −1 7→ 0 1 1  =⇒ v1 = −1
2 −1 −3 00 0 1
     
1 −1 0 1 0 −1 1
λ2 : 0 1 −1 7→ 0 1 −1 =⇒ v2 = 1
2 −1 −1 00 0 1
     
2 −1 0 4 0 −1 1
λ3 : 0 2 −1 7→ 0 2 −1 =⇒ v3 = 2 .
2 −1 0 00 0 4

Satz 2.4.23 Eigenvektoren v1 , . . . , vk zu paarweise verschiedenen Eigenwer-


ten λ1 , . . . , λk einer Matrix A ∈ Mat(n × n, K) sind stets linear unabhängig.

Beweis. Wir führen den Beweis per Induktion über k ≥ 1. Wenn k = 1,


dann ist die Behauptung äquivalent mit dem in der Definition geforderten
Nichtverschwinden der Eigenvektoren. Für den Induktionsschritt nehmen wir
an, dass v1 , . . . , vk−1 linear unabhängig sind.
Wenn a1 v1 + a2 v2 + . . . + ak vk = 0 für geeignete ai ∈ K, dann folgt einerseits
durch Multiplikation mit dem Eigenwert λk

a1 λk v1 + a2 λk v2 + . . . + ak−1 λk vk−1 + ak λk vk = 0 .

Andererseits liefert Anwendung von A wegen A · vi = λi vi die Gleichung

a1 λ1 v1 + a2 λ2 v2 + . . . + ak−1 λk−1 vk−1 + ak λk vk = 0 .

In der Differenz beider Ausdrücke tritt der Vektor vk nicht mehr auf:

a1 (λk − λ1 )v1 + a2 (λk − λ2 )v2 + . . . + ak−1 (λk − λk−1 )vk−1 = 0 .

Da λk − λi 6= 0 für 1 ≤ i ≤ k − 1, folgt aus der Induktionsvoraussetzung,


dass a1 = . . . = ak−1 = 0 ist. Daraus ergibt sich ak vk = 0, was wegen vk 6= 0
schließlich ak = 0 zur Folge hat. ⊓

Folgerung 2.4.24. Wenn das charakteristische Polynom χA einer n × n-


Matrix A in n paarweise verschiedene Linearfaktoren zerfällt, dann gibt es
eine Basis von K n , die aus Eigenvektoren von A besteht.

Beweis. Dass das Polynom χA vom Grad n in n paarweise verschiedene Li-


nearfaktoren zerfällt, bedeutet χA (λ) = (λ − λ1 )(λ − λ2 ) · · · (λ − λn ) mit
paarweise verschiedenen λi ∈ K. Diese λi sind die Eigenwerte von A. Die
zu diesen Eigenwerten gehörigen Eigenvektoren v1 , v2 , . . . , vn sind nach Satz
2.4 Quadratische Matrizen 137

2.4.23 linear unabhängig, bilden daher wegen der Sätze 2.2.11 und 2.2.12 eine
Basis von K n . ⊓

Der Übergang von der Standardbasis zu einer Basis aus Eigenvektoren ge-
schieht durch eine sogenannte Basiswechselmatrix P ∈ GL(n, K). Ihre Spal-
ten werden von den Eigenvektoren v1 , v2 , . . . , vn gebildet. Die i-te Spalte von
A ◦ P ist der Vektor A · vi = λi vi . Wenn D(λ1 , . . . , λn ) die Diagonalma-
trix mit den Eigenwerten λi entlang der Diagonalen (und Nullen überall
sonst) bezeichnet, dann ist λi vi gerade der i-te Spaltenvektor der Matrix
P ◦ D(λ1 , . . . , λn ). Das beweist

A ◦ P = P ◦ D(λ1 , . . . , λn ) und A = P ◦ D(λ1 , . . . , λn ) ◦ P −1 .

Eine solche Darstellung ist für konkrete Rechnungen sehr nützlich, zum Bei-
spiel zur Berechnung sehr hoher Potenzen der Matrix A. Das liegt daran,
dass hohe Potenzen von Diagonalmatrizen mit geringem Aufwand berechnet
werden:
D(λ1 , . . . , λn )k = D(λk1 , . . . , λkn ) ∀k > 0.
Das ergibt

Ak = (P ◦ D(λ1 , . . . , λn ) ◦ P −1 )k
= (P ◦ D ◦ P −1 ) ◦ (P ◦ D ◦ P −1 ) ◦ . . . ◦ (P ◦ D ◦ P −1 )
= P ◦ D(λ1 , . . . , λn )k ◦ P −1
= P ◦ D(λk1 , . . . , λkn ) ◦ P −1 .
 
3 −1
Beispiel 2.4.25. A =
−1 3
 
λ−3 1
χA (λ) = det = (λ − 2)(λ − 4)
1 λ−3
 
1 −1
P =
1 1
  k  
1 1 −1 2 0 1 1
Ak = P ◦ D(2, 4)k ◦ P −1 =
2 1 1 0 4k −1 1
 k   
1 2 + 4k 2k − 4k k
k−1 1 + 2 1 − 2
k
= = 2
2 2k − 4k 2k + 4k 1 − 2k 1 + 2k
 
9444732965808009904128 −9444732965670570950656
A37 =
−9444732965670570950656 9444732965808009904128
 
38685626227672531637108736 −38685626227663735544086528
A43 =
−38685626227663735544086528 38685626227672531637108736
138 2 Lineare Algebra

Beispiel
  2.4.26. Eine interessante Anwendung ergibt sich mit der Matrix
11
A= . Ihr charakteristisches Polynom ist χA (λ) = λ2 − λ − 1 und die
10
Eigenwerte sind
√ √
1+ 5 1− 5
ϕ= und 1 − ϕ = .
2 2
Als Eigenvektor zu ϕ findet man (ϕ, 1) und ein Eigenvektor zu 1 − ϕ ist
(1 − ϕ, 1). Damit ergibt sich
     
11 ϕ 0 −1 ϕ 1−ϕ
A= =P P mit P = .
10 0 1−ϕ 1 1
 
√ 1 ϕ−1
Da det(P ) = 2ϕ − 1 = 5, erhalten wir P −1 = √1 und damit
5 −1 ϕ
  n  
1 ϕ 1−ϕ ϕ 0 1 ϕ−1
An = √ .
5 1 1 0 (1 − ϕ)n −1 ϕ

Insbesondere ergibt sich


   
1 1 ϕn+1 − (1 − ϕ)n+1
An =√ .
0 5 ϕn − (1 − ϕ)n

Die Fibonacci-Folge (vgl. Kapitel 3, Beispiel 3.2.3) ist rekursiv definiert durch
f0 = 0, f1 = 1 und fn+1 = fn + fn−1 für n > 0. Daher gilt
            
f1 1 fn+1 11 fn fn+1 n 1
= , = , also =A .
f0 0 fn 10 fn−1 fn 0

Somit haben wir durch obige Rechnung die Formel von Binet12 bewiesen
√ !n √ !n !
1 1+ 5 1− 5
fn = √ − .
5 2 2

Auch wenn das charakteristische Polynom einer Matrix mehrfache Nullstel-


len besitzt, kann es eine Basis aus Eigenvektoren geben. Jede der folgenden
Matrizen hat die Standardvektoren e1 , e2 , e3 , e4 als Eigenvektoren. Die Eigen-
werte sind die Einträge auf der Diagonalen und ihre Vielfachheit als Nullstelle
des charakteristischen Polynoms stimmt mit der Häufigkeit ihres Auftretens
in der Matrix überein.
12 Jacques Philippe Marie Binet (1786–1856), französischer Mathematiker.
2.4 Quadratische Matrizen 139
     
100 0 200 0 1 00 0
0 2 0 0 0 2 0 0 0 10 0
     
0 0 2 0 0 0 3 0 0 01 0
000 3 000 3 0 00 1

Wie bereits eingangs erwähnt, existiert nicht in jedem Fall eine Basis aus
Eigenvektoren. Typische Matrizen, für die dies der Fall ist, sind
       
1000 2100 1100 0100
0 2 1 0 0 2 0 0 0 1 1 0 0 0 1 0
       
0 0 2 0 0 0 3 1 0 0 1 0 0 0 0 1 .
0003 0003 0002 0000

Der von den Eigenvektoren aufgespannte Unterraum von Q4 hat für die-
se Matrizen jeweils nur die Dimension 3, 2, 2 bzw. 1. Für jede quadratische
Matrix, deren charakteristisches Polynom in Linearfaktoren zerfällt, gibt es
eine sogenannte Jordansche13 Normalform. Die angegebenen Beispiele ha-
ben diese Normalform, die sich dadurch auszeichnet, dass alle Einträge gleich
Null sind außer den auf der Diagonalen eingetragenen Eigenwerten dieser
Matrix und einigen Einträgen direkt über der Diagonalen, die gleich Eins
sind. Sobald diese Normalform außerhalb der Diagonale von Null verschiede-
ne Einträge besitzt, gibt es keine Basis, die aus Eigenvektoren besteht. Auch
diese Normalformen lassen sich als P −1 ◦ A ◦ P mit einer geeigneten Matrix
P ∈ GL(n, K) ausdrücken.
Wir erläutern hier weder die theoretischen Grundlagen zum Beweis der Exis-
tenz der Jordanschen Normalform, noch geben wir eine Beschreibung, wie sie
bestimmt werden kann. Das findet der interessierte Leser in der Standardli-
teratur zur linearen Algebra für Mathematiker, zum Beispiel [Br], [Fi] oder
[Kow].
Statt dessen beschäftigen wir uns mit dem wesentlich einfacheren Spezialfall
der symmetrischen Matrizen.

Satz 2.4.27 Sei A = At ∈ Mat(n × n, R) eine reelle symmetrische Matrix.


Dann gilt:
(i) Alle Eigenwerte von A sind reell, d.h. das charakteristische Polynom χA
zerfällt in Linearfaktoren.
(ii) Es gibt eine Matrix P ∈ O(n), so dass P −1 ◦ A ◦ P = P t ◦ A ◦ P eine
Diagonalmatrix ist. Die Spalten von P bilden eine aus Eigenvektoren von
A bestehende ON-Basis des Vektorraumes Rn .

Beweis. Da die Einträge von A reell sind, hat das charakteristische Polynom
χA (λ) ∈ R[λ] reelle Koeffizienten. Nach dem Fundamentalsatz der Algebra
(Satz 1.4.21) zerfällt es in C[λ] in Linearfaktoren, es ist jedoch möglich, dass
13 Camille Jordan (1838–1922), französischer Mathematiker.
140 2 Lineare Algebra

nicht-reelle Nullstellen als konjugierte Paare komplexer Zahlen auftreten. Die


zu solchen Eigenwerten gehörigen Eigenvektoren haben möglicherweise nicht-
reelle Einträge, daher wechseln wir von Rn in den komplexen Vektorraum
Cn . Die Abbildung h : Cn × Cn → C, die durch h(v, w) = v t · w gegeben ist,
nennt man hermitesches Skalarprodukt. Es hat ähnliche Eigenschaften wie
das Standardskalarprodukt auf dem Rn . Wenn alle Komponenten von v und
w reell sind, dann gilt h(v, w) = hv, wi. Für jedes v ∈ Cn ist h(v, v) reell und
n
X n
X
h(v, v) = v t · v = v i vi = |vi |2 > 0 für v 6= 0.
i=1 i=1

Der für uns wichtigste Unterschied zum Standardskalarprodukt besteht in

h(v, λw) = λh(v, w) , aber h(λv, w) = λh(v, w) ∀ λ ∈ C, ∀ v, w ∈ Cn .

Aus der Definition von h ergibt sich


t t t
h(Av, w) = (Av) · w = v t · A · w = h(v, A w) = h(v, Aw) .
t
Die letzte Gleichung gilt, weil A reell und symmetrisch ist, d.h. A = A .
Damit sind alle zum Beweis von (i) nötigen Werkzeuge bereitgestellt.
Sei λ ∈ C ein Eigenwert von A und v ∈ Cn ein zugehöriger Eigenvektor, das
heißt v 6= 0 und Av = λv. Dann ergibt sich

λh(v, v) = h(λv, v) = h(Av, v) = h(v, Av) = h(v, λv) = λh(v, v) .

Da h(v, v) wegen v 6= 0 eine positive reelle Zahl ist, folgt daraus λ = λ und
somit λ ∈ R wie behauptet.
Zum Beweis von (ii) nutzen wir Induktion über n ≥ 1. Für den Induktions-
anfang bei n = 1 ist nichts zu beweisen. Für den Induktionsschritt nehmen
wir an, die Behauptung sei für Matrizen der Größe n − 1 ≥ 1 bereits be-
wiesen. Aus Teil (i) wissen wir, dass A einen reellen Eigenwert λ besitzt. Sei
vn ∈ Rn ein zugehöriger Eigenvektor. Da auch jedes von Null verschiedene
reelle Vielfache dieses Vektors ein Eigenvektor zum Eigenwert λ ist, können
wir annehmen, kvn k = 1. Die Länge von vn wird hier mit dem Standards-
kalarprodukt des Rn berechnet. Das orthogonale Komplement von vn (siehe
Beispiel 2.4.15)
U = {w ∈ Rn | hvn , wi = 0}
ist ein Unterraum der Dimension n − 1. Dort wollen wir nun die Induktions-
voraussetzung anwenden. Dazu bemerken wir zuerst, dass

hvn , Awi = hAvn , wi = hλvn , wi = λhvn , wi ,

da A symmetrisch und Avn = λvn ist. Daher ist Aw ∈ U für alle w ∈ U .


Die Matrixdarstellung A′ der durch A definierten linearen Abbildung U → U
2.4 Quadratische Matrizen 141

bezüglich einer ON-Basis w1 , w2 , . . . , wn−1 von U hat an der Position (i, j)


den Eintrag hwi , Awj i, siehe Bemerkung 2.4.18. Da A eine symmetrische
Matrix ist, folgt mit (2.17)

hwi , Awj i = hAwi , wj i = hwj , Awi i .

Somit ist A′ eine symmetrische (n − 1) × (n − 1)-Matrix. Die Induktions-


voraussetzung liefert nun die Existenz einer ON-Basis v1 , v2 , . . . , vn−1 von
U , bezüglich der A′ Diagonalgestalt hat. Die Vektoren v1 , . . . , vn bilden die
Spalten der gesuchten orthogonalen Matrix P . ⊓

Dieser Satz hat vielfältige Anwendungen. Eine dieser Anwendungen ist als
Hauptachsentransformation bekannt. Dabei geht es darum, die Gestalt einer
durch eine quadratische Gleichung gegebenen Menge zu bestimmen.
Beispiel 2.4.28. Die quadratische Gleichung

337x21 + 168x1 x2 + 288x22 = 3600

hat unendlich viele Lösungen (x1 , x2 ) ∈ R2 . Diese Punkte bilden


 eine Kurve in
der Ebene, die wir zeichnen möchten. Dazu setzen wir x = xx12 und schreiben
diese Gleichung in der Form
 
337 84
xt · A · x = 3600 mit der symmetrischen Matrix A = .
84 288

Das charakteristische Polynom von A lautet

χA (λ) = λ2 − 625λ + 90000 = (λ − 400)(λ − 225) .


t
Als Eigenvektor zum Eigenwert λ1 = 400 ermittelt man v1 = (4, 3) . Ein
t
Eigenvektor zu λ2 = 225 ist v2 = (−3, 4) . Diese beiden Vektoren sind ortho-
gonal zueinander (vgl. Aufgabe 2.40). Da kv1 k = kv2 k = 5 erhalten wir die
orthogonale Matrix
   
1 4 −3 400 0
P = , für die A = P ◦ ◦ P t gilt.
5 3 4 0 225
1
Daraus sehen wir, dass x = P · y = (y1 v1 + 
5 y2 v2 ) genau
 dann eine Lösung
400 0
der Gleichung xt · A · x = 3600 ist, wenn y t y = 3600 gilt, d.h.
0 225
400y12 + 225y22 = 3600 oder äquivalent
 y 2  y 2
1 2
+ =1.
3 4
Das ist die Gleichung einer Ellipse mit Halbachsen der Längen 3 und 4, siehe
Abbildung 2.13.
142 2 Lineare Algebra
x2
5

y2 4

2 y1
1

x1
−4 −3 −2 −1 1 2 3 4 5
−1

−2

−3

−4

Abb. 2.13 Lösungsmenge der Gleichung 337x21 + 168x1 x2 + 288x22 = 3600

Eine zweite Anwendung beschäftigt sich mit der positiven Definitheit sym-
metrischer Matrizen. Eine symmetrische Matrix A = At ∈ Mat(n × n, R)
heißt positiv definit , wenn die Bilinearform hv, wiA = hAv, wi, deren Gram-
sche Matrix gerade A ist, positiv definit ist. Explizit heißt das: v t · A · v > 0
für alle 0 6= v ∈ Rn .
Als unmittelbare Konsequenz des Satzes 2.4.27 erhalten wir, dass eine sym-
metrische Matrix A = At ∈ Mat(n×n, R) genau dann positiv definit ist, wenn
ihre Eigenwerte sämtlich positiv sind. Um das einzusehen, schreiben wir die
aus den Eigenwerten gebildete Diagonalmatrix als D(λ1 , . . . , λn ) = P t ◦ A ◦ P
mit P ∈ O(n). Somit sind die Eigenwerte

λi = ei t · D(λ1 , . . . , λn ) · ei = (P ei )t · A · P ei

positiv, wenn A positiv definit ist. Umgekehrt folgt die positive


Pn Definitheit
t
von A daraus, dass P ∈ GL(n, R) und (P y) ·A·P y = y t ·D·y = i=1 λi yi2 > 0
für y 6= 0 gilt.
Eine interessantere und sehr nützliche Anwendung ist das Hauptminorenkri-
terium von Sylvester 14 . Als Hauptminor einer quadratischen Matrix A be-
zeichnet man die Determinante jeder quadratischen Teilmatrix, die die linke
obere Ecke von A enthält:
14 James Joseph Sylvester (1814–1897), englischer Mathematiker.
2.4 Quadratische Matrizen 143

a11 a12 a13 a14 ... a1n


a21 a22 a23 a24 ... a2n
a31 a32 a33 a34 ... a3n
a41 a42 a43 a44 ... a4n
.. .. .. .. ..
. . . . .
an1 an2 an3 an4 . . . ann

also a11 , det ( aa11


21
a12
a22 ) u.s.w. bis einschließlich det(A).

Satz 2.4.29 Eine symmetrische Matrix A = At ∈ Mat(n × n, R) ist genau


dann positiv definit, wenn alle ihre Hauptminoren positiv sind.

Beweis. Wir führen den Beweis per Induktion über n, die Größe der Matrix
A. Für den Start der Induktion bei n = 1 ist nichts zu beweisen. Für den
Induktionsschritt nehmen wir an, dass das Kriterium für Matrizen der Größe
n − 1 bereits bewiesen ist.
Sei nun A positiv definit. Wir haben zu zeigen, dass alle Hauptminoren
von A positiv sind. Die Teilmatrix Ann , die durch Streichung der letzten
Zeile und Spalte aus A hervorgeht, ist ebenfalls positiv definit. Dies folgt
aus der Gleichung y t Ann y = xt Ax, in der y ∈ Rn−1 und x = (y, 0) ∈ Rn
der in der letzten Komponente durch 0 ergänzte Vektor ist. Somit sind die
Hauptminoren von Ann nach Induktionsvoraussetzung positiv. Der einzi-
ge Hauptminor von A, der nicht unter den n − 1 Hauptminoren von Ann
vorkommt, ist det(A). Nach Satz 2.4.27 existiert eine invertierbare Ma-
trix P , so dass P −1 ◦ A ◦ P = D eine Diagonalmatrix ist, deren Einträge
die Eigenwerte von A sind. Daher ist, Q unter Benutzung von Satz 2.4.5,
det(A) = det(P −1 ◦ A ◦ P ) = det(D) = λi > 0. Damit ist gezeigt, dass alle
Hauptminoren von A positiv sind.
Zum Abschluss zeigen wir, dass A positiv definit ist, wenn alle ihre Haupt-
minoren positiv sind. Da die Hauptminoren von Ann unter denen von A
enthalten sind, ist Ann nach Induktionsvoraussetzung positiv definit. Damit
sind die Eigenwerte von Ann positiv. Nach Satz 2.4.27 gibt es eine Basis des
Rn−1 , die aus Eigenvektoren der Matrix Ann besteht. Indem man Rn−1 mit
dem von e1 , e2 , . . . , en−1 aufgespannten Unterraum U von Rn identifiziert,
kann man diese Eigenvektoren als Vektoren v1 , v2 , . . . , vn−1 im Rn auffassen.
Das werden im Allgemeinen keine Eigenvektoren von A sein, aber es gilt
(
0 falls i 6= j
hvi , Avj i = hAvi , vj i =
λi > 0 falls i = j ,

da diese Ausdrücke wegen des verschwindenden letzten Eintrages in den Vek-


toren vi nur von Ann abhängen. Wenn wir xi = λ1i hAen , vi i setzen, dann gilt
Pn−1
für den Vektor vn = en − i=1 xi vi und für j = 1, 2, . . . , n − 1
144 2 Lineare Algebra

n−1
X
hvn , Avj i = hen , Avj i − xi hvi , Avj i = hAen , vj i − xj λj = 0 .
i=1

Das bedeutet, dass die Gramsche Matrix der durch A definierten symmetri-
schen Bilinearform h·, ·iA bezüglich der Basis (v1 , v2 , . . . , vn ) Diagonalgestalt
besitzt. Wenn P die – im Allgemeinen nicht orthogonale – Matrix bezeichnet,
deren Spalten die Vektoren vi sind, dann ist P t ◦ A ◦ P = D eine Diagonal-
matrix mit Einträgen λ1 , . . . , λn−1 , hvn , Avn i. Daher ist
2
λ1 · . . . · λn−1 · hvn , Avn i = det(P ) det(A) .

Da nach Voraussetzung det(A) > 0 und λi > 0, muss auch λn P := hvn , Avn i >
0 sein. Damit ist für 0 6= y = (y1 , . . . , yn ) ∈ Rn auch y t ·D·y = ni=1 λi yi2 > 0.
t
Weil P ∈ GL(n, R) und (P y) · A · P y = y t · D · y > 0, ist A positiv definit. ⊓ ⊔
Beispiel 2.4.30. Um festzustellen, ob die symmetrischen Matrizen
   
222 232
A = 2 3 2 bzw. B = 3 2 2
224 224

positiv definit sind, berechnen wir deren Hauptminoren. Im Fall der Matrix
A sind dies 2, det ( 22 23 ) = 2 und det(A) = 4. Die Matrix A ist positiv definit.
Da hingegen det ( 23 32 ) = −5 < 0, ist die Matrix B nicht positiv definit.

Aufgaben

Übung 2.25. Berechnen Sie die Determinanten folgender Matrizen:


 
  1 5 10 10 5 1
  1 2 −1 −2 3 15 20 20 15 3
  2 31  
2 3  0 2 1 0  2 9 21 21 9 2
, −1 3 1 ,  1 7 1 13  , und 
0 1 3 4 2 0 .

−1 3  
1 10 4 20 41 42 20 4
0 −2 0 −1
1 5 12 12 7 3

Übung 2.26. Seien x1 , x2 , . . . , xn reelle Zahlen und Vn die quadratische Ma-


trix deren i-ter Zeilenvektor (xi−1 i−1 i−1
1 , x2 , . . . , xn ) ist (i = 1, . . . , n). Die De-
terminanten einer solchen Matrix
Q nennt man Vandermodesche Determinan-
te 15 . Zeigen Sie det(Vn ) = i>j (xi − xj ).

Übung 2.27. Sei σ ∈ Sn eine Permutation (vgl. Beispiel 1.3.3) und P (σ) ∈
Mat(n × n, K) die Matrix deren Einträge aij alle gleich Null sind, außer
15 Alexandre Théophile Vandermonde (1735–1796), französischer Mathematiker.
2.4 Quadratische Matrizen 145

aσ(j)j . Die von Null verschiedenen Einträge sind gleich Eins. Diese Matrizen
nennt man Permutationsmatrizen, da sie aus der Einheitsmatrix 1n durch
Permutation der Zeilen mittels σ entstehen.
Zeigen Sie: P (σ)ek = eσ(k) und P (στ ) = P (σ)P (τ ).

Übung 2.28. Sei f : Mat(n × n, K) → K eine Abbildung mit den folgenden,


zu (1),(2),(3) in Satz 2.4.3 analogen Eigenschaften:
(i) f (A) = f (A′ ) + f (A′′ ), wenn die i-te Zeile von A die Summe der i-ten
Zeilen von A′ und A′′ ist, ansonsten aber A, A′ , A′′ übereinstimmen;
(ii) f (A) = λf (A′ ), wenn die i-te Zeile von A das λ-fache der i-te Zeile von
A′ ist, beide Matrizen ansonsten aber übereinstimmen;
(iii) f (A) = 0, wenn A zwei gleiche Zeilen besitzt.
Beweisen Sie:
(a) Wenn f (1n ) = 0, dann ist f (A) = 0 für alle A ∈ Mat(n × n, K).
(b) Wenn f (1n ) = 1, dann ist f (A) = det(A) für alle A ∈ Mat(n × n, K).

Übung 2.29. Sei sgn(σ) := det(P (σ)), siehe Aufgabe 2.27, das Signum oder
die Parität der Permutation σ ∈ Sn (vgl. Beispiel 1.3.3). Beweisen Sie für
jede Matrix A = (aij ) ∈ Mat(n × n, K) die Formel
X
det(A) = sgn(σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn

Dies verallgemeinert die expliziten Formeln für die Determinante aus Beispiel
2.4.2.

Übung 2.30. Benutzen Sie die Cramersche Regel zum Lösen das Systems

2x1 + x2 = 1
−x1 + 2x2 + x3 = −26
x2 + 2x3 = 1 .

Übung 2.31. Berechnen Sie den Winkel zwischen v1 = (2, 1, 0, 2) und v2 =


(2, 4, 2, 1) bzw. zwischen w1 = (1, 1, 1, 1) und w2 = (1, 0, 0, 0) im R4 .

Übung 2.32. Bestimmen Sie eine ON-Basis für den durch


     
2 3 1
2 2 3
u1 =    
1 , u2 = −1 , u3 = 1
 

0 2 5

aufgespannten Unterraum des R4 .

Übung 2.33. Sei U ⊂ R4 der durch v1 = (2, 0, 0, 2) und v2 = (3, 1, 3, 1)


aufgespannte Unterraum. Bestimmen Sie eine ON-Basis von U ⊥ .
146 2 Lineare Algebra

Übung 2.34. Bestimmen Sie für die folgenden Matrizen A alle Eigenwerte,
finden Sie jeweils eine Basis aus Eigenvektoren und eine invertierbare Matrix
P , so dass P −1 ◦ A ◦ P Diagonalgestalt besitzt:
 
    2 −4 1 −2
  3 −2 1 0 1 0
01  0 −2 0 0 
, −1 2 −3 , 1 0 0 und   1 −1 2 −1 .

10
1 2 −5 1 −1 1
−1 1 1 1
 200
32 −33
Übung 2.35. Berechnen Sie .
22 −23

Übung 2.36. Zeichnen Sie, nach Durchführung einer Hauptachsentransfor-


mation, die durch folgende Gleichungen bestimmten Mengen im R2 :
(i) x2 + 4xy − 2y 2 = 3
(ii) 5x2 − 6xy + 5y 2 = 32
(iii) 9x2 + 6xy + y 2 + 3y − x = 1

Übung 2.37. Welche der Matrizen sind positiv definit?


 
  21 1 1
  1 −1 1
78 1 1 1 1 
, −1 2 0 und  
89 1 1 2 −1 .
1 0 1
1 1 −1 13

Übung 2.38. Sei V ein Vektorraum mit Skalarprodukt und x, y ∈ V . Be-


weisen Sie
(i) kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 (Parallelogrammregel);
(ii) Wenn kxk = kyk dann sind x + y und x − y orthogonal zueinander.

Übung 2.39. Für jede quadratische


P Matrix A = (aij ) nennt man die Summe
der Diagonalelemente tr(A) :=  aii die Spur der Matrix A. Für eine 2 × 2-
Matrix ist zum Beispiel tr ac db = a + d die Spur. Sei A eine 2 × 2-Matrix.
Zeigen Sie χA (λ) = λ2 −tr(A)λ+det(A) und beweisen Sie tr(A) = tr(P −1 AP )
für jede invertierbare 2 × 2-Matrix P .

Übung 2.40. Zeigen Sie, dass Eigenvektoren zu verschiedenen Eigenwerten


einer symmetrischen Matrix bezüglich des Standardskalarproduktes stets or-
thogonal zueinander sind.

Übung 2.41. Sei n > 0 eine positive ganze Zahl. Bestimmen Sie alle Elemen-
te der Ordnung n in der Gruppe SO(2). (Die Ordnung eines Gruppenelements
wurde in Definition 1.3.21 definiert.)
2.5 Fehlerkorrigierende Codes 147

2.5 Fehlerkorrigierende Codes

Als Ausgangspunkte für die in den vorangegangenen Abschnitten durch-


geführten Abstraktionen dienten uns unsere alltägliche Raumvorstellung und
die Erfahrung im Umgang mit ganzen Zahlen. Dadurch wurden wir zu Be-
griffen wie Vektorraum und Ring geführt. Im Folgenden werden wir durch
konkrete Anwendungen die Nützlichkeit dieser abstrakten Begriffsbildungen
illustrieren. Bereits bei der Beschreibung von fehlererkennenden Codes (EAN,
ISBN, Banknotennummern) im Kapitel 1 hatten wir Methoden aus der Grup-
pentheorie verwendet. Wir befassen uns hier mit der möglichen Korrektur
von Fehlern bei der Datenübertragung. Die einfachsten Verfahren beruhen
auf den linearen Codes – das sind Vektorräume über dem Körper F2 – und
auf den zyklischen Codes – sie werden mit Hilfe des Polynomringes F2 [X]
konstruiert.
In der Codierungstheorie beschäftigt man sich mit dem folgenden Pro-
blem: Gewisse Daten können nur über einen störanfälligen Kanal zu ihrem
Empfänger übermittelt werden. Der Empfänger soll in der Lage sein, trotz
zufälliger Störungen, aus den empfangenen Daten mit hoher Wahrscheinlich-
keit die korrekten Originaldaten zu rekonstruieren.
Mit einem derartigen Problem wird man im Alltagsleben oft konfrontiert:
Beim Telefonieren hören wir die Störung als Knacken und Rauschen in der
Leitung. Dass dies immer seltener auftritt oder manchem Leser gänzlich un-
bekannt ist, ist auch ein Verdienst der Codierungstheorie. Beim Abspielen
von Musik, die auf herkömmlichen Tonträgern (Schallplatte, CD, Tonband)
gespeichert ist, kann durch mechanische Beschädigung des Tonträgers ei-
ne Qualitätsminderung entstehen. Im vorigen Jahrhundert war die deutlich
hörbare Störung durch einen Kratzer auf einer Schallplatte ein vielen Men-
schen vertrautes Phänomen. Die hervorragende Tonqualität beim Abspielen
einer Musik-CD oder anderer digitaler Tonträger wird ganz wesentlich durch
die Anwendung moderner Codierungstheorie ermöglicht. Störungen durch
Flecke oder Kratzer können dadurch weitgehend ausgeglichen werden. Auch
außerhalb unseres Alltagslebens, bei der Kommunikation über sehr große
Distanzen, zum Beispiel mit einem Raumschiff oder Satelliten, ist die An-
wendung fehlerkorrigierender Codes wichtig.
Die Grundidee der fehlerkorrigierenden Codes besteht darin, dass man Red-
undanz zu den zu übermittelnden Daten hinzufügt, also Information wieder-
holt. Dadurch wird erreicht, dass bei Verlust oder Störung eines Teils der
übermittelten Daten möglichst wenig Information verlorengegangen ist.
Die einfachste Umsetzung dieser Idee ist der sogenannte Wiederholungscode.
Dieses Verfahren kommt bei in Seenot geratenen Schiffen zur Anwendung
seit eine Nachrichtenübertragung per Funk möglich ist. Gesendet wird dann
bekanntlich
SOS SOS SOS SOS SOS SOS . . . .
148 2 Lineare Algebra

Bei einem Wiederholungscode wird jedes Zeichen n-mal wiederholt. Statt des
Wortes F R E I T A G wird im Fall n = 3 der Text
F F F R B R E E E I I I T T T A A A G G G.
übermittelt. Falls bei der Übermittlung der elektronischen Version dieses Bu-
ches zur Druckerei einer der Buchstaben gestört wurde, können Sie den Fehler
leicht selbst beheben. Wenn von je drei aufeinanderfolgenden gleichen Zei-
chen höchstens eins gestört ist, kann der Text korrekt rekonstruiert werden.
Dieses Verfahren ist nicht besonders effizient, da die dreifache Datenmenge
übermittelt werden muss. Im Folgenden werden wir Verfahren kennenlernen,
die bei einer wesentlich geringeren Datenwiederholungsrate mindestens die
gleichen Korrekturmöglichkeiten bieten.
Für das systematische Studium der Situation und zur Beschreibung der
Codierungsverfahren legen wir zunächst eine klare Sprache fest. Wie be-
reits im Kapitel 1 bezeichnen wir als Alphabet die Menge, aus der die zu
übermittelnden Zeichen stammen. Zur mathematischen Behandlung ordnen
wir den Elementen des Alphabets sogenannte Codeworte zu. Diese Zuord-
nung soll injektiv sein. Anders als im Kapitel 1 ist ein Codewort hier nicht
aus Elementen des Alphabets zusammengesetzt, vgl. S. 39. Wir beschränken
uns hier auf die in der folgenden Definition eingeführten Codes, die auf dem
Körper F2 beruhen. Zum Aufbau der Theorie kann man F2 durch jeden be-
liebigen endlichen Körper ersetzen. Bei praktischen Anwendungen, wie zum
Beispiel beim CD-Spieler, ist das auch tatsächlich notwendig.
Definition 2.5.1. Unter einem Code verstehen wir eine Teilmenge C ⊂ Fn2 .
Die Elemente von C heißen Codeworte. Dabei ist Fn2 = (F2 )n der im Bei-
spiel 2.2.3 eingeführte Vektorraum über dem Körper F2 . Seine Elemente sind
n-Tupel von Nullen und Einsen. Er hat die Dimension n und enthält 2n
Elemente.
Ein einfaches Beispiel für einen solchen Code ist der 128 Zeichen umfassen-
de ASCII-Code. In diesem Fall ist n = 8 und C enthält 27 Elemente. Das
überzählige Bit könnte prinzipiell als Prüfbit verwendet werden, indem es
gleich der Summe der Informationsbits gesetzt wird, vgl. Beispiel 2.5.6. Das
Alphabet besteht aus den Buchstaben des englischen Alphabets und einigen
bei der Benutzung von Computern üblichen Sonderzeichen. Obwohl inzwi-
schen die Verwendung eines Alphabets mit nur 128 Elementen für viele Be-
lange als nicht mehr ausreichend gilt (Internationalisierung, Unicode), spielt
der reine ASCII-Code zum Beispiel innerhalb der Programmierung (ANSI C)
und im Internet (URL) noch immer eine wichtige Rolle. Das zusätzliche Bit
wird heutzutage allerdings für andere Funktionen genutzt.
Etwas abweichend von unserer Definition können wir auch die Menge aller
zulässigen EANs oder ISBNs als Code auffassen. Diese Codes wären, anders
als in der obigen Definition, Teilmengen von (Z/10Z)13 bzw. (Z/11Z)10 = F10 11
und nicht von Fn2 . Im Gegensatz zur Sprechweise in Kapitel 1 wäre hier ent-
sprechend der Definition 2.5.1 jede EAN bzw. ISBN ein Element des jeweili-
gen Alphabets.
2.5 Fehlerkorrigierende Codes 149

Eine zentrale Rolle in der Codierungstheorie spielt der Hamming-Abstand.


Definition 2.5.2. Der Hamming-Abstand 16 d(x, y) zwischen zwei Elementen
x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Fn2 ist die Anzahl der Positionen, an
denen sich beide Vektoren unterscheiden: d(x, y) = |{i | xi 6= yi }|.
Der Hamming-Abstand kann als Abbildung d : Fn2 × Fn2 → Z aufgefasst wer-
den. Wir sprechen von einem Abstand, da diese Abbildung die gleichen Ei-
genschaften wie der gewöhnliche Abstandsbegriff aus der ebenen euklidischen
Geometrie besitzt. Unter dem Abstand zwischen zwei Vektoren x, y ∈ Rn ver-
steht man in der klassischen Geometrie die Länge ihres Differenzvektors
p
kx − yk = (x1 − y1 )2 + (x2 − y2 )2 + . . . + (xn − yn )2 .

Mehr dazu findet der Leser im Abschnitt 2.4 im Zusammenhang mit dem
Begriff des Skalarproduktes. Die wesentlichen Eigenschaften eines derartigen
Abstandsbegriffes sind in der Definition des in der Mathematik etablierten
Begriffes der Metrik zusammengefasst.

Definition 2.5.3. Als Metrik auf einer Menge X bezeichnet man eine Ab-
bildung d : X × X → R, für die für beliebige x, y, z ∈ X gilt:

d(x, y) = d(y, x) (2.20)


d(x, y) ≥ 0 (2.21)
d(x, y) = 0 ⇐⇒ x = y (2.22)
d(x, y) + d(y, z) ≥ d(x, z) . (2.23)

Die Bedingung (2.23) heißt Dreiecksungleichung, vgl. Satz 2.4.14.


Da eine Kugel vom Radius r im dreidimensionalen Raum R3 genau aus den
Punkten besteht, deren Abstand zum Mittelpunkt der Kugel höchstens r ist,
nennt man ganz allgemein bei Vorliegen einer Metrik d auf einer Menge X

Br (x) := {y ∈ X | d(x, y) ≤ r} ⊂ X

die Kugel mit Radius r und Zentrum x.


Die Grundidee der Fehlererkennung besteht darin, dass ein empfangenes Ele-
ment aus Fn2 als korrekt angesehen wird, wenn es sich um ein Codewort aus
C handelt. Bei der Fehlerkorrektur ersetzt man jeden nicht korrekten Vektor
durch das nächstgelegene Codewort. Der Hamming-Abstand ist so definiert,
dass das nächstgelegene Codewort dasjenige ist, welches durch die kleinste
Zahl von Änderungen aus dem fehlerhaften Vektor gewonnen werden kann.
Um die Güte eines Codes quantifizieren zu können, führt man für Codes
C ⊂ Fn2 die folgende Sprechweise ein.
16 Richard Hamming (1915–1998), US-amerikanischer Mathematiker.
150 2 Lineare Algebra

Definition 2.5.4. Sei r ≥ 0 eine natürliche Zahl, dann nennen wir C


(i) r-fehlererkennend, wenn durch Abändern eines Codewortes v ∈ C an
höchstens r Positionen niemals ein anderes Codewort aus C entsteht.
(ii) r-fehlerkorrigierend, wenn es zu jedem w ∈ Fn2 maximal ein Codewort
v ∈ C gibt, welches sich an höchstens r Positionen von w unterscheidet.
(iii) r-perfekt, wenn es zu jedem w ∈ Fn2 genau ein Codewort v ∈ C gibt,
welches sich an höchstens r Positionen von w unterscheidet.
Mit Hilfe des Hamming-Abstands können wir diese Begriffe folgendermaßen
beschreiben und graphisch veranschaulichen.
Ein Code C ist genau dann r-fehlererkennend, wenn der Abstand zwischen
zwei beliebigen Codeworten mindestens r + 1 beträgt, das heißt für alle v ∈ C
muss
Br (v) ∩ C = {v}
gelten. Äquivalent dazu ist

dmin (C) := min{d(u, v) | u, v ∈ C, u 6= v} ≥ r + 1 . (2.24)

Die Zahl dmin (C) heißt Minimalabstand des Codes C ⊂ Fn2 .

bc bc bc bc bc bc bc

bc b bc b bc b bc

bc bc bc bc bc bc bc

r
bc b bc b bc b bc

bc bc bc bc bc bc bc

bc b bc b bc b bc

bc bc bc bc bc bc bc

Abb. 2.14 r-fehlererkennend

Ein Code C ist genau dann r-fehlerkorrigierend, wenn es keinen Vektor in Fn2
gibt, der von zwei verschiedenen Codeworten höchstens Abstand r hat, das
heißt, wenn für alle u, v ∈ C mit u 6= v

Br (u) ∩ Br (v) = ∅

gilt. Dies ist wegen der Dreiecksungleichung äquivalent zu

dmin (C) := min{d(u, v) | u, v ∈ C, u 6= v} ≥ 2r + 1 . (2.25)

Schließlich ist ein Code C genau dann r-perfekt, wenn er r-fehlerkorrigierend


ist und jedes Element aus Fn2 höchstens Abstand r zu einem Codewort hat:
[
Br (v) = Fn2 und ∀ u, v ∈ C mit u 6= v : Br (u) ∩ Br (v) = ∅ .
v∈C
2.5 Fehlerkorrigierende Codes 151
bc bc bc bc bc bc bc bc bc bc bc

bc bc bc bc bc bc bc bc bc bc bc

bc bc b bc bc b bc bc b bc bc

bc bc bc bc bc bc bc bc bc bc bc

bc bc bc bc bc bc bc bc bc bc bc

bc bc b bc bc b
r bc bc b bc bc

bc bc bc bc bc bc bc bc bc bc bc

bc bc bc bc bc bc bc bc bc bc bc

Abb. 2.15 r-fehlerkorrigierend

Das heißt, bei einem r-perfekten Code wird der Vektorraum Fn2 wie bei ei-
ner Äquivalenzrelation durch die in Codeworten zentrierten Kugeln Br (v)
disjunkt überdeckt. Das ist anstrebenswert, da für einen solchen Code je-
dem empfangenen Wort x ∈ Fn2 ein eindeutig bestimmtes Codewort v ∈ C
zugeordnet werden kann, nämlich dasjenige für welches x ∈ Br (v) gilt.
Aus dieser Beschreibung ergeben sich für jeden Code C die folgenden Impli-
kationen:
r-perfekt =⇒
r-fehlerkorrigierend =⇒ r-fehlererkennend
⇓ ⇓
(r − 1)-perfekt =⇒ (r − 1)-fehlerkorrigierend =⇒ (r − 1)-fehlererkennend.

Wir haben hier nicht vergessen einen dritten senkrechten Implikationspfeil


zu drucken, denn im Allgemeinen wird kein r-perfekter Code auch (r − 1)-
perfekt sein, da man bei Verkleinerung des Kugelradius möglicherweise ei-
nige Elemente verliert. Wenn man diese Begriffe sinngemäß auf (Z/mZ)n
überträgt, dann kann man sagen, dass der ISBN-Code und der EAN-Code
1-fehlererkennende, aber nicht 1-fehlerkorrigierende Codes sind. Das ergibt
sich aus der am Ende von Abschnitt 1.3 durchgeführten Analyse.
Aus der Ungleichung (2.25) folgt für jeden 1-fehlerkorrigierenden Code
dmin (C) ≥ 3. Für einen 2-fehlerkorrigierenden Code gilt dmin (C) ≥ 5. Wegen
(2.24) ist jeder Code C stets (dmin (C) − 1)-fehlererkennend. Je größer der
Minimalabstand eines Codes desto besser sind seine Fehlererkennungs- und
-korrektureigenschaften.
Bei einem r-perfekten Code kann man bei der praktischen Durchführung der
Fehlerkorrektur mit einer Tabelle arbeiten, in der zu jedem v ∈ C alle Ele-
mente aus Br (v) aufgelistet sind. Zu jedem übermittelten Codewort w ∈ Fn2
lässt sich daraus dasjenige v ∈ C ablesen, für das w ∈ Br (v) gilt. Diese Metho-
de ist nicht sehr effizient. Wenn viele Daten innerhalb kurzer Zeit bearbeitet
werden müssen, wie zum Beispiel beim Abspielen digitalisierter Musik, dann
ist diese Methode überhaupt nicht anwendbar. Ein Ausweg besteht darin,
Codes zu betrachten, die mehr algebraische Struktur besitzen. Dadurch kann
die Benutzung von Tabellen durch algebraische Rechnungen ersetzt werden.
Dies führt zu wesentlich schnelleren Decodierverfahren.
152 2 Lineare Algebra

Lineare Codes

Definition 2.5.5. Ein Code C ⊂ Fn2 heißt linear, falls C ein F2 -Unterraum
von Fn2 ist. Wenn dimF2 C = k, nennen wir C einen linearen (n, k)-Code.
Da sich durch Addition des gleichen Vektors zu u und zu v die Anzahl der
Einträge, an denen sich die zwei Vektoren u und v unterscheiden, nicht ändert,
gilt d(u + w, v + w) = d(u, v). Insbesondere ist d(u, v) = d(u − v, 0). Statt mit
dem Hamming-Abstand zu arbeiten, können wir daher auch das Gewicht

w(v) := d(v, 0)

des Vektors v ∈ Fn2 verwenden. Das Gewicht w(v) ist gleich der Zahl der von
Null verschiedenen Einträge in v. Da jeder lineare Code C den Nullvektor
enthält und mit je zwei seiner Codeworte auch deren Differenz, ergibt sich
aus d(u, v) = w(u − v), dass

dmin (C) = min{w(v) | v ∈ C, v 6= 0} = wmin (C)

gilt. Diese Zahl nennt man das Minimalgewicht des linearen Codes C. Ein
linearer Code mit großem Minimalgewicht hat gute Eigenschaften bei der
Fehlerkorrektur.
Um das angestrebte Ziel zu erreichen, bei der Beschreibung und Decodierung
auf die Benutzung von Tabellen verzichten zu können, erinnern wir uns da-
ran, dass wir Unterräume des Vektorraumes Fn2 auf zwei Weisen beschreiben
können: als Lösungsmenge eines Gleichungssystems oder durch eine Basis.
Die 2k Vektoren eines linearen (n, k)-Codes sind durch die Angabe von k
Basisvektoren vollständig beschrieben. Eine Matrix G ∈ Mat(k×n, F2 ), deren
Zeilen eine Basis eines linearen (n, k)-Codes C bilden, heißt Generatormatrix
dieses Codes.
Wenn C = Lös(H| 0) eine Beschreibung des linearen (n, k)-Codes C als
Lösungsmenge eines Gleichungssystems mit n−k Gleichungen ist, dann heißt
H ∈ Mat((n − k) × n, F2 ) Kontrollmatrix des Codes C. Durch Berechnung
von H · w kann man kontrollieren, ob w ein Codewort ist: w ∈ C ⇐⇒
H · w = 0. Den Vektor H · w ∈ F2n−k nennt man das Syndrom von w, denn
er ist genau dann gleich 0, wenn w ∈ C. Das Syndrom zeigt dem Empfänger
Übertragungsfehler an.
Da die Zeilen einer Generatormatrix G Codeworte sind, gilt für jede Kon-
trollmatrix H stets H ◦ Gt = 0.
In der Sprache der linearen Algebra (Abschnitt 2.2) definiert die Transpo-
nierte der Matrix G eine lineare Abbildung fGt : Fk2 → Fn2 , deren Bildraum
der Code C = im(fGt ) ist. Der Lösungsraum einer Kontrollmatrix H ist der
Kern C = ker(fH ) der linearen Abbildung fH : Fn2 → F2n−k .
Beispiel 2.5.6. Die bereits erwähnte Codierung der 128 ASCII-Zeichen mit
einem zusätzlichen Prüfbit ist ein linearer Code. Da er aus 128 = 27 Co-
deworten in F82 besteht, handelt es sich um einen (8, 7)-Code. Eine Bitfolge
2.5 Fehlerkorrigierende Codes 153

a1 a2 . . . a8 , interpretiert als Vektor a = (a1 , . . . , a8 ) ∈ F82 , entspricht genau


P8
dann einem ASCII-Zeichen, wenn i=1 ai = 0 ist. Als Basis für C kann man
die 7 Vektoren ei + e8 , 1 ≤ i ≤ 7 wählen. Die entsprechende Generatormatrix
ist  
10000001
0 1 0 0 0 0 0 1
 
0 0 1 0 0 0 0 1
 
G= 
0 0 0 1 0 0 0 1 ∈ Mat(7 × 8, F2 ) .
0 0 0 0 1 0 0 1
 
0 0 0 0 0 1 0 1
00000011
Als Kontrollmatrix kann man die folgende Matrix wählen

H = (1, 1, 1, 1, 1, 1, 1, 1) ∈ Mat(1 × 8, F2 ) .

Der ASCII-Code mit Paritätsbit hat daher die folgende Beschreibung:


 
C = Gt · y | y ∈ F72 = v ∈ F82 | H · v = 0 .

Da sowohl eine Basis als auch ein Gleichungssystem für einen linearen Un-
terraum C ⊂ Fn2 nicht eindeutig bestimmt sind, sind wir flexibel bei der
Wahl der Matrizen G und H. Wir nutzen diese Flexibilität, um eine beson-
ders ökonomische Beschreibung linearer Codes zu gewinnen. Wir starten dazu
mit einer beliebigen Kontrollmatrix H ∈ Mat((n − k) × n, F2 ) eines linearen
(n, k)-Codes. Diese Matrix hat Rang n − k, da ihr Kern die Dimension k
hat, vgl. Satz 2.2.28. Anwendung des Gauß-Jordan-Verfahrens auf H liefert
eine Matrix, die in jeder Zeile ein Pivotelement besitzt. Durch Vertauschung
der Spalten erhalten wir daraus eine Matrix, deren erste n − k Spalten die
Einheitsmatrix 1n−k bilden. Die Vertauschung von Spalten verändert nichts
Grundsätzliches an den Eigenschaften des Codes. Durch eine Veränderung
der Identifikation des Alphabets mit den Codeworten kann man eine Spal-
tenvertauschung wieder kompensieren.
Diese Überlegungen zeigen, dass es für jeden linearen (n, k)-Code (nach even-
tueller Spaltenvertauschung) eine Matrix M ∈ Mat((n − k) × k, F2 ) gibt, so
dass die Kontrollmatrix H = (1n−k | M ) ist.
Für solch eine Kontrollmatrix lässt sich die Generatormatrix G leicht berech-
nen. Das liegt daran, dass H bereits in reduzierter Zeilenstufenform vorliegt
und somit eine Basis der Lösungsmenge C = Lös(H| 0) unmittelbar abzulesen
ist. Es ergibt sich hier

G = (−M t | 1k ) = (M t | 1k ) ∈ Mat(k × n, F2 ) .

Das Vorzeichen ist irrelevant, da 1 = −1 in F2 .


Bei der Beschreibung des ASCII-Codes mit Paritätsbit im Beispiel 2.5.6 hat-
ten wir G und H im Wesentlichen in dieser Form angegeben. Die Matrix M
ist in diesem Beispiel eine 1 × 7-Matrix, deren Einträge alle gleich 1 sind.
154 2 Lineare Algebra

Wenn ein linearer Code durch eine Generatormatrix G der Gestalt (M t | 1k )


gegeben ist, dann tragen die letzten k Komponenten eines Vektors v ∈ C die
eigentliche Information. Die ersten (n−k) Komponenten interpretieren wir als
Prüfbits. Diese berechnen sich aus den letzten k Komponenten v ′ ∈ Fk2 – der
t t
zu codierenden Information – als v ′ · M t , dabei ist v ′ der zum Spaltenvektor
′ ′
v gehörige
 Zeilenvektor.
 Das zu v gehörige Codewort als Spaltenvektor lautet
M · v′
v= ∈ C. Auf der Empfängerseite wird man aus einem empfangenen
v′  
v ′′
Wort v = mit Hilfe der Kontrollmatrix H = (1n−k | M ) das Syndrom
v′
H · v = v ′′ + M v ′ bestimmen.

Beispiel 2.5.7. Der lineare (7, 4)-Code, der durch die Matrix
 
1101
M = 1 0 1 1 ∈ Mat(3 × 4, F2 )
0111

gegeben ist, hat als Kontrollmatrix die Matrix


 
1001101
H = 0 1 0 1 0 1 1 ∈ Mat(3 × 7, F2 )
0010111

und als Generatormatrix die Matrix


 
11 010 00
1 0 101 0 0
G = 0 1
 ∈ Mat(4 × 7, F2 ) .
100 1 0
11 100 01

Da die Generatormatrix G dieses Codes Zeilen mit nur drei Einsen enthält,
ist wmin ≤ 3. Gäbe es ein Codewort v ∈ C, welches höchstens zwei von
Null verschiedene Komponenten hat, dann müsste H zwei linear abhängige
Spalten besitzen, da H · v = 0 für jedes Codewort v. Ein Blick auf H
verrät, dass dies nicht der Fall ist. Daher hat dieser Code das Minimalge-
wicht wmin = 3. Er ist also 1-fehlerkorrigierend und 2-fehlererkennend. Mit
ähnlichen Überlegungen kann man zeigen, dass für jeden linearen (n, k)-Code
stets wmin ≤ n − k + 1 gilt. Dieser Wert wird bei den sogenannten Reed-
Solomon-Codes auch tatsächlich erreicht.
Das zeigt, dass dieser Code wesentlich besser ist als der Wiederholungsco-
de. Es ist eine 3-fach Wiederholung nötig, um einen 1-fehlerkorrigierenden
Code zu erhalten. Bei einem solchen Wiederholungscode werden 4-Bit Zei-
chen durch Codeworte der Länge 3 × 4 = 12 Bits codiert. Mit dem angege-
benen linearen (7, 4)-Code sind zur Codierung von 4-Bit Zeichen nur 7 Bits
notwendig.
2.5 Fehlerkorrigierende Codes 155

Bevor wir uns mit den zyklischen Codes befassen, fragen wir nach linearen
Codes, bei denen sich die Fehlerkorrektur besonders ökonomisch durchführen
lässt. Das wird uns zu den Hamming-Codes führen, die bereits von eindrucks-
voller Qualität hinsichtlich der Vermeidung von Informationsverlust sind.
Jede Kontrollmatrix H eines linearen (n, k)-Codes ist vom Rang n − k. Das
übersetzt sich in die Aussage, dass fH : Fn2 → F2n−k surjektiv ist. Da C =
ker(fH ), besagt der Homomorphiesatz für lineare Abbildungen, Folgerung
2.2.32, dass das Syndrom H · v ∈ F2n−k eines Vektors v angibt, in welcher
Nebenklasse von C ⊂ Fn2 der Vektor v enthalten ist.
Der Fehlervektor e, um den sich das korrekte Codewort c ∈ C und das emp-
fangene Wort v = c + e unterscheiden, hat wegen H · c = 0 das gleiche
Syndrom wie v: Hv = He. Zur Fehlerkorrektur nehmen wir an, dass der
kleinstmögliche Fehler vorliegt. Somit müssen wir das Element kleinsten Ge-
wichts in jeder Nebenklasse bestimmen und dies in geeigneter Weise aus dem
Syndrom ablesen.
Wenn das Syndrom mit einer Spalte der Kontrollmatrix H übereinstimmt,
dann ist der zugehörige Fehlervektor kleinsten Gewichts einer der Standard-
basisvektoren ei . Eine besonders günstige Situation liegt vor, wenn jedes
mögliche Syndrom als Spalte der Kontrollmatrix H auftritt. Das ist bei dem
(7, 4)-Code aus Beispiel 2.5.7 der Fall. Da F32 acht Elemente enthält, gibt
es acht Nebenklassen von C in F72 . Um das Element kleinsten Gewichts in
jeder dieser Nebenklassen zu bestimmen, starten wir mit der Beobachtung,
dass keine zwei der acht Vektoren 0, e1 , e2 , . . . , e7 in der gleichen Nebenklasse
liegen können. Das liegt daran, dass die Differenz zweier Vektoren aus dieser
Liste höchstens vom Gewicht 2, das Minimalgewicht des Codes jedoch gleich
3 ist. Da w(0) = 0 und w(ei ) = 1, sind diese acht Vektoren die gesuchten
Elemente minimalen Gewichts in den jeweiligen Nebenklassen.
Die Fehlerkorrektur kann man deshalb bei dem (7, 4)-Code aus Beispiel
2.5.7 auf die folgende besonders ökonomische Weise durchführen: Wenn das
Syndrom eines Vektors v gleich 0 ist, dann nehmen wir an, es liegt kein
Übertragungsfehler vor. Wenn das Syndrom nicht gleich 0 ist, dann tritt
es als Spalte von H auf, denn die Spalten von H sind genau die von Null
verschiedenen Vektoren von F32 . Wenn das Syndrom die i-te Spalte von H
ist, dann ist der Fehlervektor gleich ei und v ist genau an der Stelle i zu
verändern. Bei einer praktischen Umsetzung wird man die Komponenten der
Codeworte so umsortieren, dass die Kontrollmatrix die Gestalt
 
1010101
H = 0 1 1 0 0 1 1 ∈ Mat(3 × 7, F2 )
0001111

hat. So geschrieben, stellen die Einträge einer Spalte die Nummer dieser Spal-
te als Binärzahl dar. Das Syndrom Hv ist in diesem Fall bereits gleich der
Nummer der Position, an der v geändert werden muss.
156 2 Lineare Algebra

Die Besonderheit dieses Beispiels besteht darin, dass jeder von Null verschie-
dene Vektor des Vektorraumes F32 als Spalte der Kontrollmatrix H auftritt.
Dies ist der Ausgangspunkt für die folgende Definition.

Definition 2.5.8. Für jedes r ≥ 2 sei Hr ∈ Mat(r × n, F2 ) die Matrix, deren


Spalten durch die n = 2r − 1 von 0 verschiedenen Vektoren aus Fr2 gebildet
werden. Den durch die Kontrollmatrix Hr definierten linearen (n, n−r)-Code
nennt man Hamming-Code.

Für r = 2 erhalten wir den (3, 1)-Hamming-Code mit Kontrollmatrix


 
101
.
011

Dies ist der 3-fach Wiederholungscode. Mit r = 3 erhalten wir den (7, 4)-
Hamming-Code, der in Beispiel 2.5.7 betrachtet wurde. Dieser wurde etwa
1950 von R.W. Hamming entdeckt, siehe [Ha]. Für jedes r ≥ 2 ist der
zugehörige Hamming-Code 1-fehlerkorrigierend und sein Minimalgewicht ist
wmin = 3.

Bemerkung 2.5.9. Zur Quantifizierung der Güte eines Codes kann man die
Wahrscheinlichkeit berechnen, mit der eine bestimmte Datenmenge korrekt
decodiert wird. Dazu nimmt man an, dass ein einzelnes Bit bei der Nach-
richtenübertragung mit Wahrscheinlichkeit p gestört wird. Dann kommt ein
n-Bit Wort mit Wahrscheinlichkeit 1 − (1 − p)n gestört beim Empfänger an.
Wenn ein Hamming-Code benutzt wird, tritt erst dann Informationsverlust
ein, wenn mindestens zwei Bits eines Codewortes gestört sind. Die Wahr-
scheinlichkeit, dass dies bei einem Codewort der Länge n auftritt, beträgt17

1 − (1 − p)n − np(1 − p)n−1 = 1 − (1 − p)n−1 (1 + (n − 1)p) .

Wir müssen jetzt noch berücksichtigen, dass bei einem Hamming-Code von
den übertragenen n = m + r Bits nur m Informationsbits sind. Da die
Wortlänge beim Hamming-Code gleich n = m + r = 2r − 1 ist, enthält jedes
Wort m = n − r = 2r − 1 − r Informationsbits. Die Wahrscheinlichkeit, dass
ein Codewort, welches m Informationsbits enthält, vom Empfänger korrekt
rekonstruiert werden kann, ist somit bei einem (n, m) = (2r − 1, 2r − r − 1)-
Hamming-Code gleich (1 − p)m+r + (m + r)p(1 − p)m+r−1 .
Da m + r = n und da jedes Codewort n − r Informationsbits enthält, ergibt
sich daraus, dass die Wahrscheinlichkeit, dass N Informationsbits mit Hilfe
eines (n, n − r)-Hamming-Codes vom Empfänger korrekt erkannt werden,
  n−r
N

(1 − p)n−1 (1 + (n − 1)p)

17 Die mathematischen Grundlagen für diese Rechnungen findet man in Abschnitt 5.2,
insbesondere Beispiel 5.2.7 und Bemerkung 5.2.18.
2.5 Fehlerkorrigierende Codes 157

beträgt. Die Wahrscheinlichkeit, dass N uncodierte Informationsbits korrekt


beim Empfänger ankommen beträgt (1 − p)N .
Tabelle 2.1 enthält angenäherte Werte für die als Prozentzahl ausgedrückte
Wahrscheinlichkeit, dass 1 MB Information, das sind N = 8 × 220 = 223 In-
formationsbits, korrekt vom Empfänger decodiert wird. Dabei wurden fünf

r (n, n − r) Rate p = 10−4 p = 10−5 p = 10−6


2 (3, 1) 0.33 77.75 99.75 100.00
3 (7, 4) 0.57 64.39 99.56 100.00
4 (15, 11) 0.73 44.93 99.20 99.99
5 (31, 26) 0.84 22.37 98.51 99.98
10 (1023, 1013) 0.99 0.00 65.05 99.57
uncodiert 1.00 0.00 0.003 35.04

Tabelle 2.1 Wahrscheinlichkeit der korrekten Übermittlung von 1 MB Daten

verschiedene Hamming-Codes und die uncodierte Übertragung für drei Bei-


spielwerte von 0 ≤ p ≤ 1 verglichen. In der Tabelle ist auch die Informa-
tionsrate angegeben, das ist der Quotient m/n aus der Zahl der Informati-
onsbits und der Zahl der übertragenen Bits. Die angegebenen Zahlen sind
Näherungswerte, was insbesondere bei den Einträgen 0.00 und 100.00 zu be-
achten ist.
Da bei praktischen Anwendungen oft große Datenmengen in kurzer Zeit ver-
arbeitet werden müssen, ist man an Codes interessiert, die eine Informations-
rate besitzen, die nicht viel kleiner als 1 ist. Ein guter Code hat sowohl eine
große Informationsrate als auch eine große Wahrscheinlichkeit, dass die Daten
korrekt vom Empfänger rekonstruiert werden können. Die Tabelle zeigt ein-
drucksvoll, dass bereits mit Hamming-Codes, die ja nur 1-fehlerkorrigierend
sind, befriedigende Ergebnisse erreicht werden können.

Zyklische Codes

Für praktische Anwendungen wie zum Beispiel beim Abspielen einer Musik-
CD sind die Hamming-Codes noch nicht ausreichend. Zur Verbesserung kann
man weitere algebraische Strukturen benutzen. Diese Vorgehensweise illus-
trieren wir hier am Beispiel der zyklischen Codes. Für ihr Studium kann die
Ringstruktur des Polynomringes F2 [X] genutzt werden. Die Hamming-Codes
erweisen sich bis auf Spaltenvertauschung als zyklische Codes. Die Beschrei-
bung der für Musik-CDs relevanten Codes würde den Rahmen dieses Buches
sprengen. Am Ende des Kapitels findet der interessierte Leser dazu Litera-
turhinweise.
Die zyklischen Codes sind spezielle lineare Codes. Die Zusatzstruktur erhält
man dadurch, dass der Vektorraum Fn2 durch den Ring
158 2 Lineare Algebra

F2 [X]/hX n − 1i

ersetzt wird. Die Wahl einer Basis des F2 -Vektorraumes F2 [X]/hX n − 1i legt
einen Isomorphismus Fn2 ∼ = F2 [X]/hX n −1i fest. Wir ordnen hier jedem Vektor
Pn−1
(a0 , a1 , . . . , an−1 ) ∈ Fn2 die Restklasse des Polynoms i=0 ai X i ∈ F2 [X] in
F2 [X]/hX n − 1i zu.
Definition 2.5.10. Ein zyklischer Code ist ein Ideal C ⊂ F2 [X]/hX n − 1i.
Diese Codes heißen zyklisch, weil mit jedem Codewort (a0 , . . . , an−1 ) ∈
Fn2 auch jede zyklische Vertauschung (ai , ai+1 , . . . , an−1 , a0 , a1 , . . . , ai−1 ) ein
Codewort ist. Das kommt daher, dass die Multiplikation mit der Restklasse
von X dem zyklischen Verschieben der Einträge um eine Position entspricht.
Dies ist die Grundlage für eine technisch günstige Codierung zyklischer Codes
mittels sogenannter Schieberegister. Mehr dazu erfährt der Leser zum Bei-
spiel in [Sch, S. 138–140].
Da F2 [X] ein Hauptidealring ist (Satz 1.4.17), ist auch jedes Ideal des Ringes
F2 [X]/hX n − 1i von einem Element erzeugt. Das bedeutet, dass zu jedem
zyklischen Code C ⊂ F2 [X]/hX n −1i ein Polynom g ∈ F2 [X] existiert, dessen
Restklasse modulo X n − 1 das Ideal C erzeugt. Wir nennen das Polynom
kleinsten Grades mit dieser Eigenschaft das Generatorpolynom des zyklischen
Codes C. Es ist eindeutig bestimmt, da zwei Polynome gleichen Grades aus
dem Ring F2 [X], von denen jedes ein Vielfaches des anderen ist, bis auf einen
von Null verschiedenen Faktor aus F2 übereinstimmen müssen.

Satz 2.5.11 Das Generatorpolynom g jedes zyklischen Codes ist ein Teiler
von X n − 1 in F2 [X].

Beweis. Da wir modulo X n − 1 rechnen, ist sicher deg(g) < n. Division mit
Rest in F2 [X] liefert eine Darstellung X n − 1 = g · h + r, wobei r, h ∈ F2 [X]
Polynome sind, so dass deg(r) < deg(g). Es folgt g·h = −r in F2 [X]/hX n −1i,
also r ∈ hgi = C. Da g minimalen Grad hat, ist dies nur möglich, wenn r = 0
gilt. Daher ist X n − 1 = g · h und g ist Teiler von X n − 1. ⊓

Das Generatorpolynom eines zyklischen Codes ersetzt die Generatormatrix
eines linearen Codes. Da in dem Ring F2 [X]/hX n − 1i die Gleichung X n = 1
gilt, können wir jedes Element dieses Ringes auf eindeutige Weise durch
ein Polynom aus F2 [X] vom Grad kleiner als n repräsentieren. Die Re-
präsentanten für die Codeworte aus C = hgi erhält man durch Multiplikation
des Generatorpolynoms g mit den 2k Elementen von F2 [X]≤k−1 , der Menge
aller Polynome, deren Grad kleiner als k = n− deg(g) ist. Dadurch sehen wir,
dass C ein (n, k)-Code ist. Eine Basis von C, betrachtet als F2 -Vektorraum,
wird durch die Codeworte g, Xg, X 2g, . . . , X k−1 g gebildet. Die zugehörige
Generatormatrix für den zyklischen Code mit Generatorpolynom

g = g0 + g1 X + g2 X 2 + . . . + gr X r
2.5 Fehlerkorrigierende Codes 159

hat die Gestalt


 
g0 g 1 . . . . . . . . . gr 0 . . . . . . 0
0 g 0 g 1 . . . . . . . . gr 0 . . . 0 
 
 . . . . .. 
G =  ... .. .. ..
. . . . . . ∈ Mat((n − r) × n, F2 ) .
 
0 . . . 0 g 0 g 1 . . . . . . . . gr 0 
0 . . . . . . 0 g 0 g 1 . . . . . . . . . gr

Um eine Kontrollmatrix H eines zyklischen Codes beschreiben zu können,


beobachten wir zunächst, dass es wegen Satz 2.5.11 ein Polynom h ∈ F2 [X]
gibt, so dass
Xn − 1 = g · h
gilt. Das Polynom kleinsten Grades mit dieser Eigenschaft nennen wir Kon-
trollpolynom des zyklischen Codes C, da das Ideal C mit dem Kern der durch
Multiplikation mit h definierten Abbildung

F2 [X]/hX n − 1i −→ F2 [X]/hX n − 1i

übereinstimmt. Das heißt, dass f ∈ F2 [X] genau dann ein Codewort ist, wenn
f · h = 0 in F2 [X]/hX n − 1i. Wenn

h = h0 + h1 X + h2 X 2 + . . . + hn−r X n−r ,

dann ist die Matrix


 
hn−r . . . . . . . . h0 0 ...... 0
 0 hn−r . . . . . . . . h0 0 . . . 0
 
 ..  ∈ Mat(r × n, F )
H =  ... .. ..
. .
.. ..
. . . 2
 
 0 . . . 0 hn−r . . . . . . . . h0 0
0 . . . . . . . . 0 hn−r . . . . . . h0

eine Kontrollmatrix für den durch g definierten zyklischen Code.


Beispiel 2.5.12. Im Ring F2 [X] lässt sich X 7 − 1 folgendermaßen zerlegen:

X 7 − 1 = (X + 1)(X 3 + X + 1)(X 3 + X 2 + 1) .

Wenn wir

h = (X + 1)(X 3 + X + 1) = X 4 + X 3 + X 2 + 1 und
3 2
g =X +X +1

wählen, dann erhalten wir als Kontrollmatrix


 
1110100
H = 0 1 1 1 0 1 0 .
0011101
160 2 Lineare Algebra

Durch Umsortierung der Spalten entsteht daraus die Kontrollmatrix des im


Beispiel 2.5.7 betrachteten (7, 4)-Hamming-Codes. Das gilt gleichermaßen bei
der Wahl g = X 3 + X + 1 und h = (X + 1)(X 3 + X 2 + 1) = X 4 + X 2 +
X + 1. Man kann sogar zeigen, dass alle Hamming-Codes, nach eventueller
Spaltenvertauschung, zyklisch sind.
Bei der praktischen Realisierung der Codierung bei einem zyklischen Code
mit Generatorpolynom g vom Grad r betrachtet man die Codeworte als Po-
lynome

f = cn−1 X n−1 + cn−2 X n−2 + · · · + c2 X 2 + c1 X + c0

vom Grad kleiner als n. Die n − r Koeffizienten cn−1 , . . . , cr werden für die
Informationsbits genutzt. Aus ihnen ergibt sich der restliche Teil

p = cr−1 X r−1 + . . . + c1 X + c0

des Codewortes durch Division mit Rest:

cn−1 X n−1 + cn−2 X n−2 + · · · + cr X r = gq + p, deg(p) < deg(g) = r.

Um die Fehlerkorrektur im Fall zyklischer Codes effizient durchführen zu


können, beschränken wir uns auf irreduzible Generatorpolynome g ∈ F2 [X].
Unter dieser Voraussetzung ist K := F2 [X]/hgi ein Körper. Da deg(g) = r,
enthält dieser endliche Körper 2r Elemente. Nach Satz 1.4.27 und Bemerkung
1.4.28 ist K ∗ eine zyklische Gruppe. Wenn α ∈ K ∗ ein erzeugendes Element
von K ∗ ist, dann ist n o
r
1, α, α2 , . . . , α2 −2

eine vollständige Liste aller Elemente von K ∗ . Insbesondere kommt die Rest-
klasse von X modulo hgi in dieser Liste vor, es gibt somit eine ganze Zahl
1 ≤ e ≤ 2r − 2, für die X = αe in K gilt.
Das Syndrom eines Codewortes f ∈ F2 [X] ist das Bild von f in K = F2 [X]/C.
Da die kanonische Abbildung F2 [X] −→ F2 [X]/C ein Ringhomomorphismus
ist, ist das Syndrom gleich f (αe ) ∈ K. Wenn sich f von einem Codewort
aus C an genau einer Position unterscheidet, sagen wir bei X t , dann ist
f (αe ) = αte . Im Fall e = 1 ist der Fehler besonders leicht zu korrigieren.
Das im Beispiel 2.5.12 betrachtete Polynom g = X 3 + X 2 + 1 für den (7, 4)-
Hamming-Code ist irreduzibel und es gilt e = 1. Das heißt, α ≡ X mod g ist
ein Erzeuger der multiplikativen Gruppe K ∗ . Das Syndrom ist somit gleich
f (α) ≡ f mod g. Die Elemente von K ∗ entsprechen dabei genau den sieben
erzeugenden Monomen 1, X, X 2, . . . , X 6 von F2 [X]/hX 7 − 1i.
Die Codierungstheorie ist ein aktuelles Gebiet, welches die Mathematik eng
mit der Informatik verbindet. Um die Darstellung möglichst einfach zu hal-
ten, haben wir unsere Betrachtungen auf den Körper F2 beschränkt. Ohne
Probleme lässt er sich durch den Körper Fp ersetzen. Außer den in Abschnitt
1.4 studierten Körpern Fp gibt es noch weitere endliche Körper. Bis auf Iso-
2.5 Fehlerkorrigierende Codes 161

morphie gibt es für jede Primzahlpotenz q = ps genau einen endlichen Körper


Fq . Diesen kann man als Restklassenring Fp [X]/hgi mit irreduziblem Poly-
nom g ∈ Fp [X] konkret beschreiben. Einem solchen Körper sind wir beim
Studium zyklischer Codes bereits begegnet.
Durch systematisches Ausnutzen der Struktur endlicher Körper K = Fq kann
man noch bessere Codes konstruieren. Dazu gehören die etwa 1960 entdeckten
Reed-Solomon-Codes [RS]. Das sind lineare (q − 1, q − d)-Codes mit Minimal-
gewicht wmin = d. Dabei ist q = ps eine Primzahlpotenz und diese zyklischen
Codes können durch ein Generatorpolynom
d−1
Y
(X − αj ) ∈ Fq [X]
j=1

beschrieben werden, wobei α ∈ F∗q ein erzeugendes Element ist.


Bei praktischen Anwendungen, wie zum Beispiel bei der Digitalisierung von
Musik, werden mehrere Codes kombiniert. Eine detaillierte Beschreibung der
Codierung der digitalisierten Musik auf einer CD findet der interessierte Leser
in [Ju], wo auch Verweise auf Literatur mit weiteren technischen Einzelheiten
zu finden sind.
Zum Abschluss folgt eine Liste weitergehender Einführungen in die Codie-
rungstheorie, in die auf der Basis der hier erworbenen Grundkenntnisse ein
Einstieg möglich sein sollte: [Bet], [EH], [HP], [Ju], [Li], [Lü] und [Sch].

Aufgaben

Übung 2.42. Beweisen Sie, dass der Hamming-Abstand (siehe 2.5.2) eine
Metrik auf der Menge Fn2 definiert, das heißt die Eigenschaften (2.20)–(2.23)
besitzt.

Übung 2.43. Zeigen Sie, dass für jeden linearen (n, k)-Code die Ungleichung
wmin ≤ n − k + 1 gilt.

Übung 2.44. Zeigen Sie, dass jeder Hamming-Code das Minimalgewicht 3


besitzt.

Übung 2.45. Bestimmen Sie alle Erzeuger der multiplikativen Gruppe des
Körpers F2 [X]/hX 3 + X + 1i.

Übung 2.46. Bestimmen Sie Generatorpolynome für die durch Hr gegebe-


nen Hamming-Codes für r = 2, 3, 4, 5, vgl. Definition 2.5.8.
Teil II
Analysis
Kapitel 3
Reelle Zahlen und Folgen

Im Kapitel 1 wurden die algebraischen Eigenschaften der Zahlen studiert.


Dies führt zu den abstrakten algebraischen Strukturen Gruppe, Ring und
Körper. In diesem Kapitel konzentrieren wir uns auf die analytischen Eigen-
schaften der reellen Zahlen. Diese haben ihren historischen Ursprung in der
anschaulichen Vorstellung, dass es zu jedem Punkt einer Geraden eine ent-
sprechende reelle Zahl gibt. Das wird im Begriff der Vollständigkeit der reellen
Zahlen mathematisch gefasst, der die Analysis von der rein algebraischen Be-
trachtungsweise der vorigen Kapitel unterscheidet. Das führt zu den für die
Analysis grundlegenden Begriffen Folge und Reihe und deren Konvergenz.
In diesem Kapitel werden nicht nur die Grundlagen für die im Kapitel 4
behandelte Differential- und Integralrechnung gelegt, sondern es wird auch
diskutiert, wie reelle Zahlen in Computern dargestellt werden und warum
1 = 0,999 . . . ist. Am Ende dieses Kapitels gibt es eine kurze Einführung in die
bei der Analyse der Laufzeit von Algorithmen gebräuchliche asymptotische
Notation wie etwa O(n) oder O(ln(n)).

3.1 Reelle und komplexe Zahlen

Wir setzen die reellen Zahlen als gegeben voraus. Statt über deren Existenz zu
philosophieren, werden wir zunächst die grundlegenden Eigenschaften der uns
allen wohlbekannten“ reellen Zahlen zusammentragen. Diese Eigenschaften

(auch als Axiome bezeichnet) sind so grundlegend, dass sich alles, was wir
über reelle Zahlen sagen werden, daraus ableiten lässt.
Für die Menge der reellen Zahlen hat sich das Symbol R eingebürgert. Die
von ihnen erfüllten Axiome lassen sich in drei Gruppen unterteilen:
• algebraische Eigenschaften,
• Ordnungseigenschaften,
• Vollständigkeitseigenschaft.

165
166 3 Reelle Zahlen und Folgen

Die erste Gruppe grundlegender Eigenschaften der reellen Zahlen besagt, dass
die Menge der reellen Zahlen R ein Körper1 ist. Das bedeutet, dass auf der
Menge R zwei Verknüpfungen definiert sind, die Addition + : R × R → R, die
jedem Zahlenpaar (a, b) ihre Summe a + b zuordnet und die Multiplikation
· : R × R → R, die jedem Zahlenpaar (a, b) ihr Produkt a · b zuordnet. Für
diese Verknüpfungen gelten die folgenden Axiome:
Assoziativgesetze: Für beliebige a, b, c ∈ R gilt

(a + b) + c = a + (b + c) und (a · b) · c = a · (b · c). (3.1)

Neutrale Elemente: Es gibt eine Null“ 0 ∈ R und eine von Null verschie-

dene Eins“ 1 ∈ R , so dass für jedes a ∈ R gilt:

0+a=a und 1 · a = a. (3.2)

Inverse Elemente: Zu jedem a ∈ R gibt es ein −a ∈ R und zu jedem b ∈ R


mit b 6= 0 gibt es ein Inverses b−1 ∈ R, mit2

a + (−a) = 0 und b · b−1 = 1. (3.3)

Kommutativgesetze: Für beliebige a, b ∈ R gilt:

a+b=b+a und a · b = b · a. (3.4)

Distributivgesetz: Für beliebige a, b, c ∈ R gilt:

a · (b + c) = a · b + a · c. (3.5)

Jede Menge mit zwei Verknüpfungen, welche die Eigenschaften (3.1)–(3.5)


besitzt, nennt man Körper . Dieser Begriff wurde detaillierter im ersten Teil
des Buches studiert.
Zwei weitere bekannte Beispiele von Körpern sind die rationalen Zahlen Q
und die komplexen Zahlen C, mit den bekannten Operationen · und +.
Um anzudeuten, was mit der obigen Bemerkung, dass aus den Axiomen alles
andere folgt, gemeint ist, wollen wir hier Folgendes beweisen:3

Für alle a ∈ R gilt 0 · a = 0. (3.6)

Da 0 + 0 = 0 wegen (3.2), folgt (0 + 0) · a = 0 · a und mit Hilfe von (3.5)


und (3.4) daraus 0 · a = 0 · a + 0 · a. Wenn wir nun das Element −(0 · a) auf
beiden Seiten addieren (und das Assoziativgesetz der Addition anwenden),
erhalten wir mit Hilfe von (3.3) die Gleichung 0 = 0 · a + 0, somit 0 = 0 · a,
wie gewünscht.
1 Körper werden auch im Abschnitt 1.4 des Buches ab Seite 46 studiert.
2 1
Wir schreiben auch b
für b−1 .
3 siehe auch Seite 4
3.1 Reelle und komplexe Zahlen 167

Die größte Schwierigkeit bei solchen Rechnungen, bei denen scheinbar selbst-
verständliche Dinge aneinandergereiht werden, ist, die Übersicht darüber zu
behalten, welche Aussagen benutzt werden dürfen (die Axiome) und welche
der selbstverständlichen“ Aussagen erst gezeigt werden sollen. Weshalb eine

derartige Exaktheit sowohl in der Mathematik als auch für die Informatik
von Bedeutung ist, ist im Kapitel 1 ausführlich erläutert.
Eine oft benutzte Folgerung aus den Körperaxiomen ist das allgemeine Distri-
butivgesetz, welches mittels vollständiger Induktion aus (3.5) folgt. Es besagt,
wenn für i = 1, 2, . . . n und j = 1, 2, . . . , m reelle Zahlen ai , bj gegeben sind,
dann gilt:
n
! m  n X m
X X X
ai ·  
bj = ai · b j . (3.7)
i=1 j=1 i=1 j=1

Im Verlauf dieses Kapitels (Abschnitt 3.3, Satz 3.3.16) werden wir auch
klären, unter welchen Umständen eine solche Aussage für unendlich große

n, m“ gilt, und wie dies zu interpretieren ist.
Als Nächstes möchten wir an die Potenzschreibweise erinnern. Für a ∈ R und
n ∈ Z wird die n-te Potenz von a, an , wie folgt erklärt:

a0 : = 1 (auch wenn a = 0)
a1 : = a
n+1
a := a · an für n ≥ 1
a−n : = (a−1 )n für alle a 6= 0 und n ≥ 1.

Die Potenz an ist damit für jede reelle Zahl a 6= 0 und alle n ∈ Z definiert.
Erneut mittels vollständiger Induktion ergeben sich aus dieser Definition die
Potenzgesetze, die für alle a, b ∈ R, a, b 6= 0 und m, n ∈ Z besagen:

an am = an+m
(an )m = an·m
an · bn = (a · b)n .

Jetzt wenden wir uns der zweiten Gruppe grundlegender Eigenschaften zu.
Sie befasst sich mit den Ordnungseigenschaften der reellen Zahlen. Es ist all-
gemein bekannt, dass gewisse reelle Zahlen positiv, andere negativ sind. Auch
dies wollen wir als gegeben voraussetzen. Wenn a ∈ R positiv ist, schreiben
wir a > 0. Wenn −a positiv ist, sagen wir a ist negativ und schreiben a < 0.
Die folgende Notation ist sehr praktisch:

R>0 := {a ∈ R | a > 0} und R<0 := {a ∈ R | a < 0} .

Die grundlegenden Eigenschaften, die der Begriff der Positivität erfüllt, sind
die beiden Anordnungs-Axiome:
168 3 Reelle Zahlen und Folgen

Für jede reelle Zahl a ∈ R gilt genau eine der drei Bedingungen:
a>0 oder a=0 oder a < 0. (3.8)

Wenn a > 0 und b > 0, so ist a + b > 0 und a · b > 0. (3.9)

Definition 3.1.1. Für beliebige reelle Zahlen a, b ∈ R schreiben wir a > b,


falls a − b > 0 gilt. Wir schreiben a ≥ b, wenn a − b > 0 oder a = b gilt.
Analog sind < und ≤ erklärt.

Aus den Axiomen (3.8) und (3.9) lassen sich einige bekannte Eigenschaften
herleiten.

Lemma 3.1.2 Wenn a < b und b < c, so folgt a < c (Transitivität).

Beweis. Nach Voraussetzung ist a − b < 0 und b − c < 0, woraus mit (3.9) die
Ungleichung (a − b) + (b − c) < 0 folgt. Das ergibt a − c < 0, d.h. a < c. ⊓

Ebenso lassen sich folgende Aussagen zeigen:

falls a < b und c ∈ R, dann folgt a + c < b + c (3.10)


falls a < b und c > 0, dann folgt a · c < b · c (3.11)
falls a < b und c < 0, dann folgt a · c > b · c (3.12)
2
falls a 6= 0, dann folgt a > 0 (3.13)
falls 0 < a < b oder a < b < 0, dann folgt b−1 < a−1 (3.14)
1>0 (3.15)
Ausgehend von dem Begriff der Positivität können wir den Betrag |a| einer
reellen Zahl a ∈ R definieren:
(
a falls a ≥ 0
|a| :=
−a falls a < 0.

Satz 3.1.3 Für beliebige a, b ∈ R gilt:


(1) |a · b| = |a| · |b|.
(2) |a + b| ≤ |a| + |b| (Dreiecksungleichung).
(3) |a − b| ≥ |a| − |b| .

Beweis. (1) Wir führen eine Fallunterscheidung durch, das heißt, wir unter-
suchen jede der vier Möglichkeiten der Vorzeichen von a und b einzeln. Wenn
a ≥ 0 und b ≥ 0 ist, dann gilt |a| = a, |b| = b und |ab| = ab und damit
3.1 Reelle und komplexe Zahlen 169

|a · b| = a · b = |a| · |b|. Wenn a ≥ 0 ist und b < 0, dann ist ab ≤ 0 und es gilt
|a| = a, |b| = −b, |ab| = −ab. Daraus folgt |ab| = −ab = a · (−b) = |a||b|. Die
anderen beiden Fälle, a < 0 und b ≥ 0 bzw. a < 0 und b < 0, gehen analog.
(2) Da a ≤ |a| und b ≤ |b| folgt mit Eigenschaft (3.10) a + b ≤ |a| + |b|.
Ebenso folgt aus |a| ≥ −a, |b| ≥ −b auch |a| + |b| ≥ −(a + b) und somit
|a + b| ≤ |a| + |b|.
(3) Nach eventueller Vertauschung von a und b können wir o.B.d.A. vorausset-
zen, dass |a| ≥ |b| gilt. Die Dreiecksungleichung für u := a + b, v := −b liefert
|a| = |u + v| ≤ |u| + |v| = |a − b| + |b| und somit |a − b| ≥ |a| − |b| = |a| − |b| .


Bemerkung 3.1.4. Ein Körper, in dem es einen Begriff der Positivität gibt,
für den (3.8) und (3.9) gelten, heißt geordneter Körper . Auch Q ist ein ge-
ordneter Körper, aber für C kann man keine solche Ordnung finden, denn,
im Widerspruch zu (3.13), gibt es i ∈ C mit i2 = −1 < 0. Der Begriff des
Betrages ist jedoch übertragbar auf C.
Eine wichtige Zusatzbedingung für die Ordnung auf R wurde bisher noch
nicht erwähnt: R ist ein archimedisch geordneter Körper. Das heißt, dass
zusätzlich zu den Axiomen (3.8) und (3.9) noch das Archimedische Axiom 4
gilt:

Für a > 0 und b > 0 gibt es ein n ∈ N mit5 n · b > a. (3.16)

Wenn wir im Archimedischen Axiom b = 1 setzen, erhalten wir zu jeder


reellen Zahl a > 0 ein n ∈ N mit a < n. Daher gibt es ein eindeutig be-
stimmtes n ∈ N mit n ≤ a < n + 1. Wenn a < 0, d.h. −a > 0, dann gibt es
aus demselben Grund eine eindeutig bestimmte natürliche Zahl n ∈ N mit
n−1 < −a ≤ n, was sich auch als −n ≤ a < −n+1 schreiben lässt. Also lässt
sich jede reelle Zahl a zwischen zwei benachbarte ganze Zahlen einschließen,
d.h. es gibt ein n ∈ Z mit n ≤ a < n + 1.
Definition 3.1.5. Wenn a ∈ R und n ∈ Z die eindeutig bestimmte Zahl mit
n ≤ a < n + 1 ist, dann heißt ⌊a⌋ := n ganzer Teil von a. Statt ⌊a⌋ ist auch
die Bezeichnung [a] gebräuchlich.

Satz 3.1.6 (Bernoullische Ungleichung) Für jede reelle Zahl a ≥ −1


und jedes n ∈ N gilt
(1 + a)n ≥ 1 + n · a . (3.17)

Beweis. Wir wenden hier das Prinzip der vollständigen Induktion an.
Induktionsanfang: Für n = 0 erhalten wir auf der linken Seite (1 +a)0 = 1
und 1 + 0 · a = 1 auf der rechten Seite der Ungleichung.
4 Archimedes von Syrakus (ca. 287–212 v.u.Z.), griechischer Mathematiker und Physiker.
5 Hier bezeichnet N = {0, 1, 2, . . . } die Menge der natürlichen Zahlen.
170 3 Reelle Zahlen und Folgen

Induktionsschritt: Wir nehmen an, die Behauptung gilt für ein festes
n ≥ 0 und wollen daraus die Gültigkeit für n + 1 zeigen.
Voraussetzung. (1 + a)n ≥ 1 + n · a für ein n ∈ N.
Behauptung. (1 + a)n+1 ≥ 1 + (n + 1) · a.
Beweis. Da a ≥ −1, ist a+1 ≥ 0 und somit folgt aus der Induktionsvorausset-
zung (1 + a)n+1 ≥ (1 + a)(1 + na) = 1 + a + na + na2 = 1 + (n + 1) · a + n · a2 ≥
1 + (n + 1) · a, da a2 ≥ 0 und n ≥ 0. ⊓

Satz 3.1.7 Sei a ∈ R>0 beliebig.


(1) Wenn a > 1, dann gibt es zu jedem K > 0 ein n ∈ N mit an > K.
(2) Wenn a < 1, dann gibt es zu jedem ε > 0 ein n ∈ N mit an < ε.

Beweis. (1) Da a > 1, ist x := a − 1 > 0 und nach Satz 3.1.6 ist daher
an = (1 + x)n ≥ 1 + n · x. Wegen des Archimedischen Axioms (3.16) gibt es
ein n ∈ N mit n · x > K − 1, d.h. an ≥ 1 + nx > K.
(2) Aus 0 < a < 1 folgt b = a1 > 1 und nach (1) gibt es n ∈ N mit bn > K :=
1 n
ε . Wegen