0% fanden dieses Dokument nützlich (0 Abstimmungen)
81 Ansichten669 Seiten

Mathematik Für Informatiker

Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
81 Ansichten669 Seiten

Mathematik Für Informatiker

Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Oliver Labs, Frank–Olaf Schreyer

Mathematik für Informatiker


Teil 1,2 und 3
Grundlagen, Analysis in einer Veränderlichen,
Lineare Algebra, Analysis in mehreren
Veränderlichen, Wahrscheinlichkeitstheorie und
Statistik, Numerik

Version vom 22. März 2020, 10:51 Uhr


Inhaltsverzeichnis

Teil I Grundlagen

1 Logik und Beweismethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7


1.1 Logische Aussagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Verknüpfungen von Aussagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Erfüllbarkeit logischer Formeln . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Tautologien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Beweismethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Beweis durch Widerspruch . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Vollständige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3 Summen– und Produktzeichen . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4 Die Fibonacci–Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21


2.1 Mengentheoretische Sprechweisen . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Teilmengen und Venn-Diagramme . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Rechenregeln für Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4 Disjunkte Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Kartesische Produkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6 Definition des Binomialkoeffizienten . . . . . . . . . . . . . . . . . . . . . . . 26
2.7 Eine Formel für den Binomialkoeffizienten . . . . . . . . . . . . . . . . . . 26
2.8 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8.1 Definition und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . 29
2.8.2 Injektivität, Surjektivität und Bijektivität . . . . . . . . . . . . . 30
2.8.3 Weitere Notationen zu Abbildungen . . . . . . . . . . . . . . . . . 33
2.8.4 Komposition von Abbildungen . . . . . . . . . . . . . . . . . . . . . . 33
2.9 Existenz– und All–Quantor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.10 Indizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
VIII Inhaltsverzeichnis

3 Äquivalenzrelationen und Kongruenzen . . . . . . . . . . . . . . . . . . . . . . . 37


3.1 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Kongruenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Simultanes Lösen von Kongruenzen . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Das RSA–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.1 Öffentliche Kryptosysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.2 Der kleine Satz von Fermat . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.3 Das RSA–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5 Der euklidische Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5.1 Der Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5.2 Der chinesische Restsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.5.3 Weitere Folgerungen aus dem eukl. Algorithmus . . . . . 53

Teil II Analysis in einer Veränderlichen

4 Die reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61


4.1 Die Körperaxiome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3 Folgerungen aus den Körperaxiomen . . . . . . . . . . . . . . . . . . . . . . . 63
4.4 Die Anordnungsaxiome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.5 Irrationale Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

5 Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1 Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2 Beispiele für Folgen in der Informatik . . . . . . . . . . . . . . . . . . . . . . 76
5.3 Landau–Symbole (O– und o–Notation) . . . . . . . . . . . . . . . . . . . . . 76
5.4 Aufwandsanalyse der Multiplikation . . . . . . . . . . . . . . . . . . . . . . . 77
5.5 Das Vollständigkeitsaxiom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.6 Quadratwurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.7 Zur Existenz der reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.7.1 Cauchy–Folgen modulo Nullfolgen . . . . . . . . . . . . . . . . . . 85
5.7.2 Dedekindsche Schnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.8 Der Satz von Bolzano–Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.9 Mächtigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6 Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.1 Definition und erste Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2 Konvergenzkriterien für Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3 Umordnung von Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

7 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.1 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.2 Der Konvergenzradius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.3 Der Umordnungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Inhaltsverzeichnis IX

7.4 Die komplexe Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 118

8 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.1 Definition und Folgenkriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.2 Der Zwischenwertsatz und Anwendungen . . . . . . . . . . . . . . . . . 129

9 Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9.1 Differenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9.2 Rechenregeln für Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

10 Mittelwertsatz und lokale Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143


10.1 Die erste Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
10.2 Höhere Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
10.3 Das Newtonverfahren zur Berechnung von Nullstellen . . . . . . 148

11 Spezielle Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153


11.1 Die Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
11.2 Der Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
11.3 Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

12 Asymptotisches Verhalten und Regel von L’Hospital . . . . . . . . . . . . 163


12.1 Die Regel von L’Hospital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
12.2 Asymptotisches Verhalten rationaler Funktionen . . . . . . . . . . . . 166

13 Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
13.1 (Riemann–)Integrierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
13.2 Stammfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
13.3 Elementare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

14 Uneigentliche Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

15 Taylorpolynom und Taylorreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

16 Konvergenz von Funktionenfolgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199


16.1 Gleichmäßige Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
16.2 Anwendung auf Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

Teil III Lineare Algebra

17 Der R3 und der Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209


17.1 Punkte im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
17.2 Skalarprodukt, Euklidische Norm . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.3 Geometrische Objekte im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
17.3.1 Geraden und Hyperebenen . . . . . . . . . . . . . . . . . . . . . . . . . 215
17.3.2 Schnittpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
X Inhaltsverzeichnis

17.3.3 Abstände . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217


Abstand zwischen Gerade und Punkt . . . . . . . . . . . . . . . . 217
Abstand zwischen Hyperebene und Punkt . . . . . . . . . . . 218
Abstand zwischen zwei Geraden . . . . . . . . . . . . . . . . . . . . 219

18 Abstrakte Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223


18.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
18.2 Beispiele von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
18.3 Untervektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
18.4 Lineare Unabhängigkeit und Basen . . . . . . . . . . . . . . . . . . . . . . . . 230
18.5 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

19 Matrizen und Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . 241


19.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
19.2 Der Gaußalgorithmus zum Lösen linearer Gleichungssysteme 243
19.3 Aufwand des Gaußalgorithmus (im Fall n = m) . . . . . . . . . . . . . 249

20 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253


20.1 Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
20.2 Kern und Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
20.3 Vorgabe der Bilder einer Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
20.4 Matrixdarstellungen einer linearen Abbildung . . . . . . . . . . . . . . 257
20.5 Invertierbare Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
20.6 Berechnung der Inversen mit dem Gaußalgorithmus . . . . . . . . 263
20.7 Der Gaußalgorithmus zur Berechnung der Inversen . . . . . . . . . 265
20.8 Klassifikationssatz/Struktursatz von Linearen Abbildungen . . 267
20.8.1 Die Resultate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
20.8.2 Geometrische Interpretation des Klassifikationssatzes . 269
20.8.3 Anwendung für Gleichungssysteme . . . . . . . . . . . . . . . . . 270
20.8.4 Spezialfall: So viele Gleichungen wie Unbestimmte . . . 271
20.9 Summen von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272

21 Gruppen und Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277


21.1 Definition und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
21.2 Permutationsgruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
21.2.1 Die Permutationsgruppen Sn . . . . . . . . . . . . . . . . . . . . . . . . 280
21.2.2 Zykelschreibweise für Permutationen . . . . . . . . . . . . . . . . 281
21.2.3 Komposition von nicht disjunkten Zykeln . . . . . . . . . . . . 282
21.3 Gruppenhomomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
21.4 Gruppenoperationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
21.5 Index– und Bahnenformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
21.5.1 Anwendung: Klassifikation von Graphen . . . . . . . . . . . . 293
Inhaltsverzeichnis XI

22 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
22.1 Existenz und Eindeutigkeit der Determinante . . . . . . . . . . . . . . . 299
22.1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
22.1.2 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
22.1.3 Der Determinanten–Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
22.2 Weitere Eigenschaften der Determinante . . . . . . . . . . . . . . . . . . . . 310
22.3 Berechnung von Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313

23 Determinante eines Endomorphismus und Orientierung . . . . . . . . 323


23.1 Definition der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
23.2 Geometrie der Determinante eines Endomorphismus . . . . . . . . 324
23.3 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324

24 Eigenwerte und das charakteristische Polynom . . . . . . . . . . . . . . . . . 327


24.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
24.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
24.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
24.4 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
24.4.1 Ein Diagonalisierbarkeits–Kriterium . . . . . . . . . . . . . . . . . 334
24.4.2 Anwendung: Lineare Rekursionen . . . . . . . . . . . . . . . . . . . 338
24.5 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339

25 Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
25.1 Symmetrische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
25.2 Klassifikation von Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
25.3 Klassifikation von Quadriken im Fall n = 3 . . . . . . . . . . . . . . . . . 356
25.4 Typen von Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361

26 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
26.1 Das hermitesche Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
26.2 Abstrakte Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
26.3 Das Hurwitz–Kriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
26.4 Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
26.5 Orthogonale Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382

27 Fourierreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
27.1 Zur Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
27.2 Fourierreihen und Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
27.3 Besselsche Ungleichung und Vollständigkeitsrelation . . . . . . . . 398

28 Singulärwertzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
28.1 Die Singulärwertzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
28.2 Die Pseudoinverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
XII Inhaltsverzeichnis

Teil IV Mehrdimensionale Analysis

29 Kurven im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
29.1 Elementare Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . 417
29.2 Rektifizierbarkeit und Bogenlänge . . . . . . . . . . . . . . . . . . . . . . . . . 422
29.3 Krümmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
29.4 Kurven im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430

30 Funktionen auf Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435


30.1 Erste Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
30.2 Offene und abgeschlossene Mengen . . . . . . . . . . . . . . . . . . . . . . . . 437
30.3 Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438
30.3.1 Partielle Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438
30.3.2 Totale Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
30.3.3 Taylorformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444
30.3.4 Extremalstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447

31 Hyperflächen und der Satz über implizite Funktionen . . . . . . . . . . 455


31.1 Defintion und Hauptsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
31.2 Extrema mit Nebenbedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 460
31.3 Der Umkehrsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462

32 Ein Blick auf Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . 471


32.1 Gewöhnliche Differentialgleichungen erster Ordnung . . . . . . . 471
32.2 Gewöhnliche Differentialgleichungen höherer Ordnung . . . . . 474
32.3 Partielle DGL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477
32.3.1 Die Laplacegleichung bzw. die Potentialgleichung . . . . 478
32.3.2 Die Wellengleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 478
32.3.3 Wärmeleitungsgleichung bzw. Diffusionsgleichung . . . 478

33 Integration im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481
33.1 Integrale über kompakten Mengen . . . . . . . . . . . . . . . . . . . . . . . . . 481
33.2 Uneigentliche Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 486

Teil V Wahrscheinlichkeitstheorie und Statistik

34 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495
34.1 Wahrscheinlichkeit von Ereignissen . . . . . . . . . . . . . . . . . . . . . . . . 495
34.2 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498
34.3 Zufallsvariablen und deren Erwartungswert und Varianz . . . . 500
Inhaltsverzeichnis XIII

35 Kombinatorik und Erzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . 507


35.1 Urnen- und Schubladenmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507
35.2 Abzählen mit erzeugenden Funktionen . . . . . . . . . . . . . . . . . . . . . 509
35.3 Manipulation erzeugender Funktionen . . . . . . . . . . . . . . . . . . . . . 514
35.4 Anwendung auf eine Erwartungswertberechnung . . . . . . . . . . . 515
35.5 Lineare Rekursion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515
35.6 Exkurs: Formale Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517

36 Summen von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519


36.1 Gemeinsame Verteilung und Dichte von Summen . . . . . . . . . . . 519
36.2 Kovarianz und Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523

37 Fundamentale Ungleichungen, Gesetz der großen Zahl . . . . . . . . . 527


37.1 Einige Ungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527
37.2 Das Gesetz der großen Zahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531
37.3 Die Momenterzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 532

38 Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535

39 Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541
39.1 Testen von Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541
39.2 Schätzen von Parametern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543
39.3 Parametrisierte Statistik, Konfidenzintervalle . . . . . . . . . . . . . . . 545
39.3.1 σ bekannt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 546
39.3.2 σ unbekannt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 546
39.4 Tests auf den Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550
39.4.1 Zweiseitiger Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550
39.4.2 Einseitiger Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 551
39.5 χ2 –Test auf die Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552
39.6 χ2 –Verteilungstest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554
39.7 χ2 –Test auf Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555

40 Robuste Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 557

41 Stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 561


41.1 Markovketten und Stochastische Matrizen . . . . . . . . . . . . . . . . . . 561
41.2 Einschub: Matrixnormen und Eigenwertabschätzungen . . . . . . 565
41.2.1 Matrixnormen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565
41.2.2 Eigenwertabschätzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 567
41.3 Markovketten und Stochastische Matrizen (Teil 2) . . . . . . . . . . . 569

42 Hidden Markov Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579


42.1 Grundlegende Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579
42.2 Die Vorwärtsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 580
42.3 Rückwärtsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
42.4 Raten der Zustandsfolge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583
XIV Inhaltsverzeichnis

42.5 Baum–Welch: Verbessern des Modells . . . . . . . . . . . . . . . . . . . . . . 584

43 Pseudozufallszahlen und Monte–Carlo–Simulation . . . . . . . . . . . . . 587


43.1 Lineare Kongruenzgeneratoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587
43.2 Der Mersenne–Twister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 588
43.3 Testen von Zufallsfolgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589
43.3.1 χ2 –Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589
43.3.2 Run–Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589
43.3.3 Spektraltest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 590
43.4 Fehlerquelle Mensch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591
43.5 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591
43.5.1 Quicksort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591
43.5.2 Buffons Nadelexperiment . . . . . . . . . . . . . . . . . . . . . . . . . . . 592
43.5.3 Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593

Teil VI Numerik

44 Rundungsfehler und grundlegende Algorithmen . . . . . . . . . . . . . . . 599


44.1 Der Gaußalgorithmus mit Spaltenpivotierung . . . . . . . . . . . . . . . 599
44.2 Matrix–Zerlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602
44.3 Fehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604
44.3.1 Kondition eines Problems . . . . . . . . . . . . . . . . . . . . . . . . . . . 605
44.3.2 Stabilität eines Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . 609
Der Stabilitätsindex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 609
Zusammengesetzte Algorithmen . . . . . . . . . . . . . . . . . . . . 610

45 Iterationsverfahren für Eigenwerte und Rang . . . . . . . . . . . . . . . . . . . 615


45.1 Die QR–Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615
45.2 Das QR–Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 618
45.3 Vektoriteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 621
45.4 Numerisches Lösen partieller Differentialgleichungen . . . . . . . 622
45.5 Allgemeine Iterationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 622
45.6 Numerischer Rang und Singulärwertzerlegung . . . . . . . . . . . . . 623
45.6.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 623
45.6.2 Berechnung der Singulärwerte . . . . . . . . . . . . . . . . . . . . . . 624
45.6.3 Zum größten Singulärwert . . . . . . . . . . . . . . . . . . . . . . . . . . 625
45.6.4 Optimale Rang k Approximation . . . . . . . . . . . . . . . . . . . . 626
45.6.5 Anwendungen der optimalen Rang k Approximation . 628
Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 628
Computeralgebra und Geometrie . . . . . . . . . . . . . . . . . . . . 629

Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 631

Symbolverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633
Inhaltsverzeichnis XV

Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 639
Abbildungsverzeichnis

2.1 Venn–Diagramm zum Schnitt zweier Mengen. . . . . . . . . . . . . . . . 23


2.2 Venn–Diagramm zur Vereinigung zweier Mengen. . . . . . . . . . . . 23
2.3 Venn–Diagramm zum Komplement einer Menge. . . . . . . . . . . . . 23
2.4 Venn–Diagramm zur Differenz zweier Mengen. . . . . . . . . . . . . . . 24
2.5 Venn–Diagramm zu Schnitt und Komplement. . . . . . . . . . . . . . . . 25
2.6 Venn–Diagramm zu Schnitt und Vereinigung. . . . . . . . . . . . . . . . . 25
2.7 Das Pascalsche Dreieck. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.8 Graph einer Parabel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.9 Graph der entier Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.10 Injektivität und Surjektivität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.11 Zerlegung eines Quadrates. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.1 Die Relation ≥ auf R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37


3.2 Die Relation = auf R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Zwei ähnliche Dreiecke. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4 Ähnliche Dreiecke. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.1 Kommensurabilität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2 Die Inkommensurabilität am regelmäßigen Fünfeck. . . . . . . . . . . 69

6.1 Die dritte Wurzel als Umkehrfunktion. . . . . . . . . . . . . . . . . . . . . . . 102

7.1 Die Addition komplexer Zahlen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110


7.2 Die konjugiert komplexe Zahl. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.3 Eigenschaften des Betrags komplexer Zahlen. . . . . . . . . . . . . . . . . 112
7.4 Schranken für den Betrag einer komplexen Zahl. . . . . . . . . . . . . . 113
7.5 Der Konvergenzradius einer Potenzreihe. . . . . . . . . . . . . . . . . . . . . 115
7.6 Die Wirkung von exp auf C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.7 Sinus und Cosinus am Einheitskreis. . . . . . . . . . . . . . . . . . . . . . . . . 121
7.8 Multiplikation zweier komplexer Zahlen. . . . . . . . . . . . . . . . . . . . . 121
XVIII Abbildungsverzeichnis

8.1 Graph einer Parabel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126


8.2 Graph der entier Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8.3 Die Funktion sin( x1 ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8.4 Der Zwischenwertsatz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
8.5 Eine Funktion mit zwei Maxima auf dem selben Niveau. . . . . . . 131

9.1 Differenzenquotient als Sekantensteigung. . . . . . . . . . . . . . . . . . . . 136


9.2 fig:Betragsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

10.1 Die Ableitung in einem Extremum verschwindet. . . . . . . . . . . . . 144


10.2 Eine verschwindende Ableitung ist nicht hinreichend. . . . . . . . . 144
10.3 Der Satz von Rolle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.4 Der Mittelwertsatz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
10.5 Schranken für die Differenz von Funktionswerten. . . . . . . . . . . . 146
10.6 Parabeln mit Maximum bzw. Minimum. . . . . . . . . . . . . . . . . . . . . . 147
10.7 Die Umgebung eines Wendepunktes. . . . . . . . . . . . . . . . . . . . . . . . . 147
10.8 Definition von konvex. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.9 Die Idee des Newtonverfahrens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.10Konvexität erzwingt: höchstens eine Nullstelle. . . . . . . . . . . . . . . 150
10.11Konvexität erzwingt: Steigung positiv. . . . . . . . . . . . . . . . . . . . . . . . 150

11.1 Die Exponentialfunktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155


11.2 ln ist konkav und monoton wachsend. . . . . . . . . . . . . . . . . . . . . . . 156
11.3 Der Rechenschieber basiert auf dem Logarithmus. . . . . . . . . . . . . 156
11.4 Funktionsgraphen von Sinus und Cosinus. . . . . . . . . . . . . . . . . . . 160
11.5 Funktionsgraph des Tangens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
11.6 Funktionsgraph von Arcussinus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

12.1 Graph einer rationalen Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168


12.2 Eine rationale Funktion mit Parabel als Asymptote. . . . . . . . . . . . 169

13.1 Die Fläche unter einem Graphen. . . . . . . . . . . . . . . . . . . . . . . . . . . . 171


13.2 Approximation durch Treppenfunktionen. . . . . . . . . . . . . . . . . . . . 171
13.3 Treppenfunktionen auf Teilintervallen. . . . . . . . . . . . . . . . . . . . . . . 172
13.4 1/x ist nicht gleichmäßig stetig. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
13.5 Integrierbarkeit auf Teilintervallen. . . . . . . . . . . . . . . . . . . . . . . . . . . 178
13.6 Anwendung des MWS der Integralrechnung. . . . . . . . . . . . . . . . . 179

14.1 Ober– und Untersumme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

15.1 Approximation durch die Tangente. . . . . . . . . . . . . . . . . . . . . . . . . . 191


15.2 Taylorpolynome des Sinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

16.1 Die Zackenfunktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200


16.2 Eine Zackenfunktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
Abbildungsverzeichnis XIX

17.1 Ein Punkt im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209


17.2 Vektor–Addition und -Muliplikation. . . . . . . . . . . . . . . . . . . . . . . . . 210
17.3 Anwendung des Satzes des Pythagoras. . . . . . . . . . . . . . . . . . . . . . 213
17.4 Beweis des Satzes des Pythagoras. . . . . . . . . . . . . . . . . . . . . . . . . . . 214
17.5 Das Parallelenaxiom. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
17.6 Cosinus und Sinus eines Winkels. . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
17.7 Eine Gerade im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
17.8 Eine Hyperebene in R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
17.9 Das Lot von q auf L. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
17.10d(L, q) = ∥uq − q∥. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
17.11Die Orthogonale Projektion von q auf H. . . . . . . . . . . . . . . . . . . . . . 219
17.12Abstand windschiefer Geraden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220

18.1 Untervektorraum oder nicht? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229


18.2 Untervektorraum oder nicht? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
18.3 Ein geschlossener Vektorzug. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232

20.1 Die Funktionen f (x) = 3x + 1 und g(x) = 7x. . . . . . . . . . . . . . . . . . . 254


20.2 Geom. Interpretation des Klassifikationssatzes. . . . . . . . . . . . . . . . 270

21.1 Sinus und Cosinus am Einheitskreis. . . . . . . . . . . . . . . . . . . . . . . . . 279


21.2 Die Symmetriegruppe des Quadrats. . . . . . . . . . . . . . . . . . . . . . . . . 281
21.3 Die Gruppe A3 operiert auf dem gleichseitigen Dreieck. . . . . . . . 287
21.4 Die Bahnen der Operation von SO(2) auf R2 . . . . . . . . . . . . . . . . . . 288
21.5 Einige Bahnen der Operation der D8 . . . . . . . . . . . . . . . . . . . . . . . . . 288
21.6 Die Symmetriegruppe des Tetraeders. . . . . . . . . . . . . . . . . . . . . . . . 288
21.7 Die S3 als Stabilisator einer Ecke des Tetraeders. . . . . . . . . . . . . . . 293
21.8 Zwei Beispiele zusammenhängender Graphen. . . . . . . . . . . . . . . . 293
21.9 Zwei isomorphe Graphen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
21.1010 Graphen mit 4 Knoten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
21.11Der Graph, der in der Liste fehlt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295

22.1 Parallelotope im Rn , n = 2, 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300


22.2 Illustration zur Determinanten-Eigenschaft D1a) für n = 2. . . . . 301
22.3 Illustration zur Determinanten-Eigenschaft D1b) für n = 2. . . . . 302
22.4 Ein entartetes Parallelogramm hat keinen Flächeninhalt. . . . . . . 302

23.1 Parallelotope im Rn , n = 2, 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324


23.2 Orientierung am Buchstaben F. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325

24.1 Operation einer Matrix A auf R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330


24.2 Doperation einer Matrix in Diagonalgestalt auf R2 . . . . . . . . . . . . 331
24.3 Vielfachheiten von Nullstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334

25.1 Einige Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343


25.2 Das orthogonale Komplement eines Vektors. . . . . . . . . . . . . . . . . . 345
XX Abbildungsverzeichnis

25.3 Der Kreis als Nullstellenmenge. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348


25.4 Eine Ellipse in neuen und in alten Koordinaten. . . . . . . . . . . . . . . 352
25.5 Einige Schnitte eines Kegels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
25.6 Die Brennpunktseigenschaft von Ellipsen. . . . . . . . . . . . . . . . . . . . 353
25.7 Der Brennpunkt einer Parabel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
25.8 Ein Ellipsoid. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
25.9 Ein Kegel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
25.10Ein– und zweischaliger Hyperboloid. . . . . . . . . . . . . . . . . . . . . . . . 358
25.11Hyperboloiden als Deformationen des Kegels. . . . . . . . . . . . . . . . 358
25.12Paraboloiden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
25.13Elliptischer und hyperbolischer Zylinder. . . . . . . . . . . . . . . . . . . . . 359
25.14Ein parabolischer Zylinder. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
25.15Zwei Ebenen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
25.16Eine Gerade im R3 als Quadrik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360

26.1 Die komplexe Konjugation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366


26.2 Zum Skalarprodukt auf dem Raum der stetigen Funktionen. . . 371
26.3 Extrema im Mehrdimensionalen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
26.4 Die Orthogonale Projektion von q auf H. . . . . . . . . . . . . . . . . . . . . . 382
26.5 Approximation von sin(t) zwischen 0 und π2 . . . . . . . . . . . . . . . . . . 388

27.1 Eine Zackenfunktion. . . . . . . ∫. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394


b
27.2 Der Grenzwert des Integrals a f (x) sin(kx) dx. . . . . . . . . . . . . . . . 396

29.1 Die Parametrisierung eines Kreises mit Sinus und Cosinus. . . . 418
29.2 Eine Schraubenlinie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
29.3 Der Newtonsche Knoten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
29.4 Die Neilsche Parabel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
29.5 Eine logarithmische Spirale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
29.6 Ellipsen und Hyperbeln mit gemeinsamen Brennpunkten. . . . . 421
29.7 Polygonapproximation einer Kurve. . . . . . . . . . . . . . . . . . . . . . . . . . 422
29.8 Zur Berechnung der Bogenlänge eines Kreises. . . . . . . . . . . . . . . . 423
29.9 Die Zykloide. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
29.10Eine nicht rektifizierbare Kurve. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
29.11Zur Definition der Peano-Kurve. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
29.12Normalen- und Tangentialvektor am Kreis. . . . . . . . . . . . . . . . . . . 429
29.13Das Fresnelsche Dreibein. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430

30.1 Zwei Graphen von Funktionen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435


30.2 Niveaulinien einer Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
30.3 Niveaulinien einer Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
30.4 Niveaulinien an einem abstrahierten Berg. . . . . . . . . . . . . . . . . . . . 437
30.5 Ableitung als beste lineare Approximation. . . . . . . . . . . . . . . . . . . 441
30.6 Die Kettenregel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
30.7 Polarkoordinaten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
Abbildungsverzeichnis XXI

30.8 Approximation in einer Variablen. . . . . . . . . . . . . . . . . . . . . . . . . . . 445


30.9 Eine Approximation von exp(x + y). . . . . . . . . . . . . . . . . . . . . . . . . . 447
30.10Ein lokales Minimum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448
30.11Ein Sattelpunkt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
30.12Die gewöhnlich Spitze als Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . 449
30.13Die Funktion f (x, y) = x2 + y4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
30.14Minimum und Maximum auf Kompaktum. . . . . . . . . . . . . . . . . . . 451
30.15Der Newtonsche Knoten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452

31.1 Der Whitney Umbrella.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456


31.2 Tangentialraum und Gradient an Fläche. . . . . . . . . . . . . . . . . . . . . 456
31.3 Tangentialraum und Gradient an ebene Kurve. . . . . . . . . . . . . . . . 457
31.4 Eine Tangentialebene an einen einschaligen Hyperboloiden. . . . 457
31.5 Eine singuläre Kurve. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458
31.6 Eine lokal aufgelöste Kurvengleichung. . . . . . . . . . . . . . . . . . . . . . . 458
31.7 V ′ und V ′′ im Satz über implizite Funktionen. . . . . . . . . . . . . . . . . 459
31.8 Eine Extremwertaufgabe mit Nebenbedingungen. . . . . . . . . . . . . 460
31.9 Eine Extremwertaufgabe mit Nebenbedingungen. . . . . . . . . . . . . 461
31.10Zum Beweis des Satzes über Lagrangemultiplikatoren. . . . . . . . 461
31.11Zum Umkehrsatz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
31.12Satz von Brouwer in Dimension 1. . . . . . . . . . . . . . . . . . . . . . . . . . . 464
31.13Zum Beweis des Umkehrsatzes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
31.14Durchschnitt zweier Zylinder. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467
31.15Durchnitt von Kugel und Zylinder. . . . . . . . . . . . . . . . . . . . . . . . . . . 468
31.16Eine Anwendung des Umkehrsatzes. . . . . . . . . . . . . . . . . . . . . . . . . 469

32.1 Radioaktiver Zerfall. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472


32.2 Die Explosionsgleichung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
32.3 Ein Richtungsfeld. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
32.4 Richtungsfeld der Logistischen Gleichung. . . . . . . . . . . . . . . . . . . . 474
32.5 Das mathematische Pendel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475
32.6 Das Phasenportrait des Räuber-Beute-Modells. . . . . . . . . . . . . . . . 475
32.7 Das Phasenportrait des mathematischen Pendels. . . . . . . . . . . . . 476
32.8 Skizze einer Lösung einer DGL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477
32.9 Skizze von Lösungen einer DGL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 478
32.10Skizze zur Wellengleichung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479

33.1 Endliche Überdeckung eines Kompaktums. . . . . . . . . . . . . . . . . . . 482


33.2 .......................................................... 483
33.3 Skizze zur Volumenberechnung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483
33.4 Kugelkoordinaten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 486
Graph von e−x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
33.5 487

34.1 Die Dichte der Normalverteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . 497


34.2 Die Normalverteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 497
XXII Abbildungsverzeichnis

34.3 Die Dichte der Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . 497


34.4 Die Dichte der Gleichverteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498
34.5 fig:FaireMuenzeFX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 501
34.6 Ein Glücksrad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503

35.1 Das Urnenmodell. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507


35.2 Das Schubladenmodell. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 508
35.3 Skizze zum Spiel der ersten Wechselzeit. . . . . . . . . . . . . . . . . . . . . . 509

36.1 fig:Pab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 520


36.2 fig:StreifenInt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 521
36.3 fig:FaltungAlsFaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522

37.1 Summe identisch verteilter Zufallsvariablen (1). . . . . . . . . . . . . . . 533


37.2 Summe gleichverteilter Zufallsvariablen (2). . . . . . . . . . . . . . . . . . 533

38.1 Ein Beispiel zum zentralen Grenzwertsatz. . . . . . . . . . . . . . . . . . . . 535


38.2 Die Poisson–Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536
38.3 Der zentrale Grenzwertsatz am Beispiel einer
Piniennadelmessung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539

39.1 Die Γ–Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547


39.2 Die t3 –Verteilung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548
39.3 Der Fehler 1. Art beim zweiseitigen Test. . . . . . . . . . . . . . . . . . . . . . 551
39.4 Der Fehler 1. Art beim einseitigen Test. . . . . . . . . . . . . . . . . . . . . . . 552
39.5 Das α–Fraktil der χ2 –Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553

40.1 Der Median ignoriert Ausreißer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559

41.1 Graphisches Modell einer Markovkette. . . . . . . . . . . . . . . . . . . . . . 562


41.2 fig:EndlMarkProz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 564
41.3 Die Eigenwerte einer stochastischen Matrix. . . . . . . . . . . . . . . . . . 565
41.4 Drei Gerschgorin-Kreise. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 568
41.5 Der Eigenwert λ = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 569
41.6 Eine Anwendung des Ergodensatzes auf eine Markovkette. . . . 575

42.1 Würfelspiel mit gelegentlich verwendeten unfairen Würfel. . . . 581

43.1 Buffons Nadelexperiment. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592


43.2 Zu Buffons Nadelexperiment. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593
Vorwort
Teil I

Grundlagen
5

Einführung
1

Logik und Beweismethoden

Vorlesung vom:
Die Regeln der Logik bilden die Grundlagen der mathematischen Argumen- 22. Oktober 2008
tation. Zu den zentralen Anwendungen in der Informatik gehören: Qualitätsstand:
erste Version
• Schaltkreisentwurf,
• Entwicklung von Programmiersprachen,
• Verifikation von Hard- und Software,
• Suchen in Datenbanken,
• Automatisches Beweisen.

1.1 Logische Aussagen

Definition 1.1. Eine logische Aussage ist ein Satz, dem genau ein Wahrheitswert
wahr (w) oder falsch (f) zugeordnet ist.

Beispiel 1.2.

1. Saarbrücken ist die Hauptstadt des Saarlandes. (w)


2. 2 + 2 = 7. (f)
3. Im Saarland lebt es sich besser als in Rheinland–Pfalz. (subjektiv!)
4. x + 1 = 3. (keine logische Aussage, da x nicht spezifiziert ist)

1.2 Verknüpfungen von Aussagen

Durch logische Operatoren lassen sich aus logischen Aussagen, etwa A, B,


neue formulieren, die dann logische Formeln heißen:
8 1 Logik und Beweismethoden

• A ∧ B (A und B sind wahr), Konjunktion


• A ∨ B (A oder B oder beide sind wahr), Disjunktion
• ¬A (A ist nicht wahr), Negation

Weitere Verknüpfungen sind:

• A ⇒ B(aus A folgt B), Implikation,


• A ⇐⇒ B(A ist genau dann wahr, wenn B wahr ist), Äquivalenz.

Der Wahrheitswert dieser Aussagen hängt vom Wahrheitswert von A und B


ab und ist über die Wahrheitstafel festgelegt:

A B ¬A A ∧ B A ∨ B A ⇒ B A ⇐⇒ B
w w f w w w w
w f f f w f f
f w w f w w f
f f w f f w w

Die Reihenfolge bei Ausführung von logischen Operationen legen wir durch
Klammern fest.

Beispiel 1.3.
(A ⇒ B) ⇐⇒ ((¬A) ∨ B) (1.1)

Die zugehörige Wahrheitstabelle ist:

A B A ⇒ B ¬A (¬A) ∨ B (1.1)
w w w f w w
w f f f f w
f w w w w w
f f w w w w

Um Klammern zu vermeiden, legen wir fest, dass ¬ die höchste Bindungs–


Priorität, ∧ und ∨ die mittlere Priorität sowie ⇒ und ⇐⇒ die niedrigste
Priorität haben. Die Formel (1.1) schreibt sich damit kürzer:

(A ⇒ B) ⇐⇒ ¬A ∨ B.

1.2.1 Erfüllbarkeit logischer Formeln

Im Folgenden fassen wir A, B, C, D . . . als logische Variablen auf, also Größen,


die entweder wahr (w) oder falsch (f) sind. Aus diesen können wir dann mit
den Operationen neue Aussagen formulieren.
1.2 Verknüpfungen von Aussagen 9

Definition 1.4. Eine logische Formel in den Variablen A, B, C, . . . ist erfüllbar,


wenn es eine Belegung von A, B, C, . . . mit Wahrheitswerten gibt, so dass die Ge-
samtaussage wahr wird.

Die Aufgabe, algorithmisch zu entscheiden, ob eine logische Formel erfüllbar


ist, ist von zentraler Bedeutung in der Informatik.

Beispiel 1.5. Die Formel

(A ∨ B) ∧ (A ∨ ¬B) ∧ (¬A ∨ B) ∧ (¬A ∨ ¬B)

ist nicht erfüllbar.

Ob Erfüllbarkeit zu entscheiden schnell geht, hängt von der Struktur der


logischen Formel ab. Wir unterscheiden die disjunktive Normalform

(x11 ∧ x12 ∧ · · · ∧ x1n1 ) ∨ (x21 ∧ x22 ∧ · · · ∧ x2n2 ) ∨ · · · ∨ (xk1 ∧ xk2 ∧ · · · ∧ xknk ),

wobei xi j ∈ {A, ¬A, B, ¬B, . . . , w, f } und die konjunktive Normalform:


Problem:
(x11 ∨ x12 ∨ · · · ∨ x1n1 ) ∧ (x21 ∨ x22 ∨ · · · ∨ x2n2 ) ∧ · · · ∧ (xk1 ∨ xk2 ∨ · · · ∨ xknk ). Mengen und Element
noch nicht eingeführt!
In der disjunktiven Normalform ist dies einfach, für die konjunktive Normal-
form schwer, selbst im Fall n j = 3. Diese Aussage ist der Grundpfeiler der
Komplexitätstheorie.

1.2.2 Tautologien

Definition 1.6. Eine logische Formel ist eine logische Tautologie, wenn sie unab-
hängig von der Belegung von logischen Variablen mit Wahrheitswerten wahr ist.

Beispiel 1.7.

1. (A ⇒ B) ⇐⇒ ((¬A) ∨ B).
2. (A ⇐⇒ B) ⇐⇒ (A ∧ B) ∨ (¬A ∧ ¬B). Dies zeigt die Wahrheitstafel:

A B A ∧ B ¬A ∧ ¬B (A ∧ B) ∨ (¬A ∧ ¬B) A ⇐⇒ B
w w w f w w
w f f f f f
f w f f f f
f f f w w w

Bemerkung 1.8. Zu entscheiden, ob eine logische Formel eine Tautologie ist,


ist wenigstens so schwer wie die Entscheidung der Erfüllbarkeit. Ist X eine
logische Formel, so gilt: X ist nicht erfüllbar genau dann, wenn (X ⇒ f ) eine
Tautologie ist.
10 1 Logik und Beweismethoden

Beispiel 1.9. Weitere Tautologien:

3. (A ⇒ B) ∧ (B ⇒ C) ⇒(A ⇒ C) (Transitivität der Implikation)


4. Die Gesetze von de Morgan:

¬(A ∧ B) ⇐⇒ ¬A ∨ ¬B,
¬(A ∨ B) ⇐⇒ ¬A ∧ ¬B.

Dies folgt aus der Wahrheitstabelle:

A B ¬(A ∧ B) ¬A ∨ ¬B ¬(A ∨ B) (¬A ∧ ¬B) Gesetze von de Morgan


w w f f f f w
w f w w f f w
f w w w f f w
f f w w w w w

Wir fassen die wichtigsten elementaren Tautologien zusammen:

Satz 1.10. Die folgenden Formeln sind Tautologien:

1. A ∨ B ⇐⇒ B ∨ A,
A ∧ B ⇐⇒ B ∧ A (Kommutativgesetz).
2. (A ∨ B) ∨ C ⇐⇒ A ∨ (B ∨ C),
(A ∧ B) ∧ C ⇐⇒ A ∧ (B ∧ C) (Assoziativgesetze).
Also macht A ∨ B ∨ C und A ∧ B ∧ C Sinn.
3. A ∧ (B ∨ C) ⇐⇒ (A ∧ B) ∨ (A ∧ C),
A ∨ (B ∧ C) ⇐⇒ (A ∨ B) ∧ (A ∨ C) (Distributivgesetze)
4. A ∨ f ⇐⇒ A,
A ∧ w ⇐⇒ A (Identitätsgesetze)
5. A ∨ (¬A) ⇐⇒ w (Satz vom ausgeschlossenen Dritten),
A ∧ (¬A) ⇐⇒ f (Satz vom Widerspruch)
6. ¬(A ∧ B) ⇐⇒ ¬A ∨ ¬B,
¬(A ∨ B) ⇐⇒ ¬A ∧ ¬B (de Morgansches Gesetz)
7. ¬(¬A) ⇐⇒ A (Doppelte Verneinung)
8. A ∨ A ⇐⇒ A,
A ∧ A ⇐⇒ A (Idempotenzgesetze)
9. A ⇒ B ⇐⇒ (¬B ⇒ ¬A) (Kontraposition)
10. (A ⇒ B) ∧ (B ⇒ C) ⇒(A ⇒ C) (Transitivität der Implikation)
11. (¬A ⇒ f ) ⇐⇒ A (Widerspruchsbeweis)

Beweis. Durch Aufstellen der Wahrheitstafeln. ⊓



1.3 Beweismethoden 11

Korollar 1.11. Jede logische Formel lässt sich mit Hilfe der Tautologien 1. – 11. aus
dem Satz in konjunktive oder disjunktive Normalform bringen.

Beweis. (A ⇐⇒ B) ⇐⇒ (A ∧ B) ∨ (¬A ∧ ¬B) können wir verwenden,


um ⇐⇒ – Zeichen zu beseitigen. (A ⇒ B) ⇐⇒ ¬A ∨ B beseitigt ⇒ –
Zeichen. Die Regeln von de Morgan ¬(A ∨ B) ⇐⇒ ¬A ∧ ¬B, ¬(A ∧ B) ⇐⇒
¬A ∨ ¬B erlauben es uns, Negationszeichen nach Innen zu ziehen. Schließlich
erlauben es die Distributivgesetze (3), die Formel in Richtung konjunktiver
(disjunktiver) Normalform zu vereinfachen. ⊓ ⊔

1.3 Beweismethoden
Vorlesung vom:
Beweise werden in der Mathematik verwendet, um nachzuweisen, dass ge- 24. Oktober 2008
wisse Sätze wahr sind. Dabei haben Tautologien eine wichtige Rolle. Qualitätsstand:
Wir können z.B. (A ⇒ B) ∧ (B ⇒ C) ⇒(A ⇒ C) benutzen, um aus einem be- erste Version
kannten Satz A den Satz C in zwei Schritten zu beweisen. In der Informatik
werden Beweise beispielsweise verwendet, um:

• die Korrektheit von Programmen nachzuweisen,


• zu zeigen, dass Programme terminieren,
• die Laufzeit eines Algorithmus in Abhängigkeit von der Eingabegröße
der Daten zu analysieren,
• Zertifizierung des Outputs eines Programmes zu erreichen.

Zwei spezielle Beweismethoden heben wir heraus:

• Beweis durch Widerspruch,


• Beweis mit vollständiger Induktion.

1.3.1 Beweis durch Widerspruch

Der vielleicht älteste Beweis durch Widerspruch findet sich in Euklids Ele-
menten.1 Er handelt von Primzahlen, also natürlichen Zahlen p ∈ N, p > 1,
die nur durch 1 und sich selbst ohne Rest teilbar sind.

Satz 1.12 (Euklid). Es gibt unendlich viele Primzahlen.

Beweis. Angenommen, es gäbe nur endlich viele Primzahlen, etwa p1 , . . . , pn .


Betrachten wir q = p1 · · · pn + 1, so ist q durch keine der Zahlen p j teilbar,
da Rest 1 bei der Division bleibt. Also ist q selbst oder Primteiler von q eine
Primzahl, die in der Liste p1 , . . . , pn nicht vorkommt. Ein Widerspruch. ⊓

1
Geschrieben von Euklid um 325 v. Chr. war das Buch mit dem Titel Die Elemente
über mehr als 2000 Jahre das wichtigste Mathematik–Buch.
12 1 Logik und Beweismethoden

1.3.2 Vollständige Induktion

Gegeben sei eine Aussage A(n) für jede natürliche Zahl n ∈ N = {1, 2, . . . }.
Problem:
Um die Aussage A(n) für alle n zu zeigen, gehen wir wie folgt vor. Wir zeigen:
Der Begriff Menge
wird hier schon ge- 1. A(1) gilt. (Induktionsanfang),
braucht, obwohl wir
erst im zweiten Kapi- 2. Für beliebiges n folgt unter der Voraussetzung, dass A(n) gilt (genannt
tel darauf eingehen! Induktionsvoraussetzung oder kurz I.-V.), dass auch A(n + 1) zutrifft
(Induktionsschritt). Dies wird häufig auch kurz n → n + 1geschrieben.
Problem:
to do: mündlich: alle Ist dies getan, so wissen wir:
Hörer haben das glei-
che Geschlecht A(1) ist wahr ⇒ A(2) ist wahr ⇒ A(3) ist wahr ⇒ · · ·

Also ist A(n) wahr für alle n. Diese Beweistechnik heißt vollständige Induk-
tion.

Beispiel 1.13. Wir zeigen:

n(n + 1)
A(n) : 1 + 2 + · · · + n = .
2
1·(1+1)
Beweis. A(1) : 1 = 2 , d.h. A(1) ist wahr.
Für den Induktionsschritt n → n + 1 dürfen wir also annehmen, dass die
Induktionsvoraussetzung A(n) für ein n ∈ N wahr ist. Damit folgt:

1 + 2 + · · · + n + n + 1 = (1 + 2 + · · · + n) + (n + 1)
I.−V. n(n + 1)
= + (n + 1)
2
n+2
= (n + 1) · .
2
Dies zeigt: A(n + 1).
Ein alternativer Beweis ist folgender:

1 +2 + ··· +n
n + (n − 1) + ··· +1
= (n + 1) + (n + 1) + ··· + (n + 1)

Dies ist aber gerade: n(n + 1) = 2(1 + · · · + n). ⊓


Bemerkung 1.14. Das Induktionsprinzip ist eine Aussage, die unsere Vorstel-
lung von natürlichen Zahlen präzisiert: Ist M ⊂ N,so dass gilt2 :
2
⊂ bezeichnet eine Teilmenge, ⊊ bezeichnet eine echte Teilmenge, d.h. eine Teil-
menge, die nicht die ganze Menge ist.
1.3 Beweismethoden 13

(1 ∈ M) und (n ∈ M ⇒(n + 1) ∈ M),

so folgt: M = N.
Eine dazu äquivalente Aussage ist: Jede nicht leere Teilmenge N ⊂ N hat ein
kleinstes Element. Betrachte N = N\M.
Problem:
zu knapp?
Definition 1.15. Sei M eine Menge. Dann bezeichnet

2M := {N | N ⊂ M}

die Menge aller Teilmengen von M, die sogenannte Potenzmenge von M. Manchmal
wird statt 2M auch P(M)geschrieben.
Ist M eine endliche Menge, dann bezeichnet |M| die Anzahl der Elemente von M.

Satz 1.16. Sei M eine endliche Menge. Dann gilt:

|2M | = 2|M| .

Beispiel 1.17.

• M = ∅ (die leere Menge): 2∅ = {∅}, also |2∅ | = 1 = 20 .


• M = {1}: 2{1} = {∅, {1}}, also |2{1} | = 2 = 21 .
• M = {1, 2}: 2{1,2} = {∅, {1}, {2}, {1, 2}}, also |2{1,2} | = 4 = 22 .

Beweis (von Satz 1.16). Ohne Einschränkung der Allgemeinheit können wir
annehmen, dass M = {1, 2, . . . , n}.
Induktionsanfang: ist bereits erbracht für n = 0 oder n = 1.
Induktionsschritt n → n + 1:

2{1,...,n+1} = {N ⊂ {1, . . . , n + 1}}


= {N ⊂ {1, . . . , n}}∪· {N ⊂ {1, . . . , n + 1} | n + 1 ∈ N} .
| {z }
={N|N=N′ ∪{n+1}, wobei N′ ⊂{1,...,n}}

Dabei bezeichnet die Notation ∪· die Vereinigung zweier Mengen, die disjunkt
sind (also kein Element gemeinsam haben, siehe auch Abschnitt 2.4). Es folgt:
{ }
|2{1,...,n+1} | = 2{1,...,n} + N | N = N′ ∪ {n + 1}, N′ ∈ 2{1,...,n}
= |2{1,...,n} | + |2{1,...,n} |
I.−V.
= 2n + 2n = 2 · 2n = 2n+1
= 2|{1,...,n+1}| .



14 1 Logik und Beweismethoden

1.3.3 Summen– und Produktzeichen

Induktion taucht auch in rekursiven Definitionen auf:

Definition 1.18 (Summen– und Produktzeichen). Gegeben sind n ∈ N reelle


Zahlen a1 , . . . , an ∈ R. Wir setzen:
Problem:
reelle Zahlen noch ∑
n
nicht definiert!? ak := a1 + · · · + an .
k=1

∑0
Präzise: k=1 ak := 0 (leere Summe) und rekursiv:


n (∑
n−1 )
ak := ak + an .
k=1 k=1

Analog definieren wir



n
ak = a1 · · · an
k=1
∏0
exakter durch: k=1 ak = 1 und


n (∏
n−1 )
ak = ak · an .
k=1 k=1

Beispiel/Definition 1.19. Die Zahl



n
n! := k = 1 · 2 · 3···n
k=1

heißt Fakultät von n (gelesen: n Fakultät). Insbesondere gilt: 0! = 1.

Beispiel 1.20. Für jedes n ∈ N ∪ {0} gilt:


n
n(n + 1)(2n + 1)
k2 = .
6
k=1

Beweis mit vollständiger Induktion:


Induktionsanfang: n = 0 oder n = 1:


1
! 1·2·3
k2 = n2 = ,
6
k=1
1.3 Beweismethoden 15

was richtig ist.


Induktionsschritt n → n + 1:

n+1 (∑
n )
k 2
= k2 + (n + 1)2
k=1 k=1
I.−V. n(n + 1)(2n + 1)
= + (n + 1)2
6
( n(2n + 1) ) n+1 ( )
= (n + 1) · +n+1 = · 2n2 + n + 6n + 6
6 6
n+1 ( 2 ) n+1 ( )
= · 2n + 7n + 6 = · (n + 2)(2n + 3)
6 6
(n + 1) · (n + 2) · (2(n + 1) + 1)
= ,
6
was die Aussage beweist.

Beispiel/Definition 1.21. Wir betrachten nochmals das Beispiel


n
h : Z → Z, n 7→ h(n) := k2
k=1

von eben, wobei Z = {0, 1, −1, 2, −2, . . . }die Menge der ganzen Zahlen be-
zeichnet. Wir fragen uns nun, wie wir selbst auf die Formel hätten kommen
können. Es erscheint klar, dass für n ≥ 0 gilt:


n ∫ n
1 1
h(n) = k2 ≈ t2 dt = [ t3 ]n0 = n3 .
0 3 3
k=1

Daraus leiten wir die Hypothese ab, dass auch die Summe durch ein soge-
nanntes Polynom vom Grad 3 in n beschrieben wird:

n
h(n) = k2 = a3 n3 + a2 n2 + a1 n + a0 , für gewisse ai ∈ Q,
k=1

wobei Q die Menge der rationalen Zahlen bezeichnet, die wir erst in Beispiel
3.12 sauber einführen werden. Natürlich kann dies nicht für alle ganzen Zah-
len n ∈ Z korrekt sein, da h(n) = 0 für alle n < 0 und da ein Polynom p, das für
unendlich viele Werte den Funktionswert 0 ergibt, schon das Nullpolynom
Problem:
(d.h. p(n) = 0 für alle n) sein muss. Wir können also nur hoffen, eine solche
Definition Funktion,
Formel für n ≥ 0 zu finden. Offenbar ist h(0) = 0 und g(0) = a0 , so dass sofort
Funktionswert
a0 = 0 folgt.
Eine Strategie, die weiteren ai zu bestimmen, ist folgende: Ist f : Z → Z eine
Abbildung, so definieren wir die erste Differenzfunktion
Problem:
Definition Abbildung
erst später!
16 1 Logik und Beweismethoden

∆ f : Z → Z, (∆ f )(n) = f (n) − f (n − 1).

Bezeichnen wir in unserem Beispiel g(n) = a3 n3 + a2 n2 + a1 n + a0 , so ergeben


sich als erste und weitere Differenzenfunktionen:

g(n) = a3 n3 + a2 n2 + a1 n + a0 ,
(∆g)(n) = a3 (n3 − (n − 1)3 ) + a2 (n2 − (n − 1)2 ) + a1 (n − (n − 1))
= a3 (3n2 − 3n + 1) + a2 (2n − 1) + a1 ,
(∆ (g))(n) = 3a3 (n2 − (n − 1)2 ) + · · · = 6a3 n − 6a3 + 2a2 ,
2

(∆3 (g))(n) = 6a3 .

Hierbei ist (∆k (g))(n) := (∆(· · · (∆(g))))(n) die k-fache Anwendung der Funk-
tion ∆ auf g. Wir sehen damit, dass ∆3 (g) nicht mehr von n abhängt, dass
wir also a3 direkt ablesen können, wenn wir nur Werte (∆3 (g))(n) für n genü-
gend groß
∑ berechnet haben. Dazu betrachten wir folgende Tabelle für unser
h(n) = nk=1 k2 :

n h(n) ∆h(n) ∆2 h(n) ∆3 h(n)


0 0 0 0 0
1 1 1 1 1
2 5 4 3 2
3 14 9 5 2
4 30 16 7 2

Ist also wirklich h(n) = g(n) für alle n = 0, 1, 2, . . . , so muss gelten (bei ∆3 h(0),
∆3 h(1), ∆3 h(2) geht h(−1) ein):

1
2 = (∆3 (h))(3) = (∆3 (g))(3) = 6a3 , also a3 = .
3

Wir betrachten nun die neue Funktion i(n) := h(n) − 31 n3 , von der wir an-
nehmen, dass sie für n ≥ 0 durch ein quadratisches Polynom beschrieben
wird. Wir können a2 also wieder aus einem einzigen Wert aus einer Tabelle
ablesen, da ∆2 (g) nicht von n abhängt, falls a3 = 0 ist, und genauer den Wert
2a2 annimmt, wie wir weiter oben berechnet haben:

n i(n) = h(n) − 13 n3 ∆i(n) ∆2 i(n)


0 0−0=0 0 0
1 1 − 13 = 23 2
3
2
3
2 5 − 83 = 73 5
3
3
3 = 1
3 14 − 9 = 5 8
3 1
4 30 − 64 3 = 26
3
11
3 1
1.3 Beweismethoden 17

Dies liefert:
1
1 = 2a2 , also a2 = .
2
Wir fahren analog fort, definieren also j(n) := h(n) − 13 n3 − 12 n2 , von dem wir
annehmen, dass es ein Polynom vom Grad 1 in n ist für n ≥ 0. Wir wir oben
berechnet haben, ergibt sich für (∆g)(n) mit a3 = 0 und a2 = 0 aber der Wert
a1 , der unabhängig von n ist. Wir können demnach a1 aus folgender Tabelle
ablesen:

n j(n) = i(n) − 21 n2 = h(n) − 13 n3 − 12 n2 (∆ j)(n)


0 0 0
3 − 2 = 6
2 1 1 1
1 6

3 − 2 ·4= 6
7 1 2 1
2 6
3 5 − 12 · 9 = 12 = 36 1
6
4 26
3 − 1
2 · 16 = 2
3 = 4
6
1
6

Insgesamt haben wir also das Polynom

1 3 1 2 1 n(n + 1)(2n + 1)
g(n) = n + n + n=
3 2 6 6
gefunden. Wie wir im vorigen Beispiel 1.20 schon bewiesen haben, ist dies
auch tatsächlich das gesuchte und es gilt für jedes n ∈ {0, 1, 2, . . . }:


n
1 3 1 2 1 n(n + 1)(2n + 1)
k2 = n + n + n= .
3 2 6 6
k=1

1.3.4 Die Fibonacci–Zahlen


Vorlesung vom:
Wir definieren die Fibonacci–Zahlen fn rekursiv: 29. Oktober 2008
Qualitätsstand:
f0 := 0, f1 := 1, fn+1 := fn + fn−1 für n = 1, 2, 3, . . . erste Version

Die ersten Werte sind:


0, 1, 1, 2, 3, 5, 8, 13, . . .

Satz 1.22. Die n-te Fibonacci–Zahl ist3


( √ √ )
1 ( 1 + 5 )n ( 1 − 5 )n
fn = √ − .
5 2 2
3
Für eine exakte Einführung der Quadratwurzel siehe Abschnitt 5.6. Vorläufig

√ 2 Wissen zurückgreifen. Demnach ist a
werden wir auf das aus der Schule bekannte
für 0 < a ∈ R eine positive Zahl, so dass a = a ergibt.
18 1 Logik und Beweismethoden

Beweis. Es gilt:
1
f0 = √ (1 − 1) = 0,
5
√ √ √
1 (1 + 5 1 − 5) 1 (2 5)
f1 = √ − = √ · = 1.
5 2 2 5 2
Wir beweisen die Aussage
( √ √ )
1 ( 1 + 5 )k ( 1 − 5 )k
A(n) : fk = √ − für k = 0, . . . , n
5 2 2
mit vollständiger Induktion. Den Induktionsanfang A(1) haben wir oben
bereits erledigt.
Für den Induktionsschritt A(n) ⇒ A(n + 1) betrachten wir:
fn+1 = fn + fn−1 (nach Definition)
( √ √ ) ( √ √ )
I.−V. 1
( 1 + 5 )n ( 1 − 5 )n 1 ( 1 + 5 )n−1 ( 1 − 5 )n−1
= √ − + √ −
5 2 2 5 2 2
( √ √ √ √ )
1 ( 1 + 5 )n−1 ( 1 + 5 ) ( 1 − 5 )n−1 ( 1 − 5 )
= √ · +1 − · +1 .
5 2 2 2 2
√ √ ( √ ) √ √ √
1+ 5 2
Nun gilt: 1+2 5 + 1 = 3+ 5
2 und 2 = ··· = 3+ 5 1− 5
2 . Analog: 2 +1 = 3− 5
2 =
( √ )2
1− 5
2 und damit:
( √ √ )
1 ( 1 + 5 )n−1+2 ( 1 − 5 )n−1+2
fn+1 = √ · −
5 2 2
( √ √ )
1 ( 1 + 5 )n+1 ( 1 − 5 )n+1
= √ · − .
5 2 2

Wie wir auf diese Formel kommen konnten, werden wir im nächsten Semester
(Abschnitt 24.4.2) lernen.

Aufgaben

Aufgabe 1.1 (Wahrheitstafel). Geben Sie die Wahrheitstafel der folgenden


logischen Formel an:
A ∧ ¬B ⇒ (C ∨ A ⇔ (B ⇒ C ∧ A)) .
Ist die Formel eine Tautologie, erfüllbar oder unerfüllbar?
1.3 Beweismethoden 19

Aufgabe 1.2 (Vier Zeugen). Ein Kommissar hat zu einem Verbrechen 4 Zeu-
gen vernommen. Aus den Vernehmungen hat er folgende Schlussfolgerungen
gezogen:

• Wenn der Butler die Wahrheit sagt, dann auch der Koch.
• Koch und Gärtner können nicht beide die Wahrheit sagen.
• Gärtner und Hausmeister lügen nicht beide.
• Wenn der Hausmeister die Wahrheit sagt, dann lügt der Koch.

1. Modellieren Sie die Informationen des Kommissar als logische Formeln.


Verwenden Sie dazu die Variablen B, K, G und H.
2. Bei welchen Zeugen kann der Kommissar sicher sein, dass sie lügen? Bei
welchen kann er sicher sein, dass sie die Wahrheit sagen? Erklären Sie,
wie Sie auf Ihr Ergebnis kommen!

Aufgabe 1.3 (Zwei Investmentbänker). Ein Mann ist bei einer Kurz–Beratung
mit zwei Investmentbänkern, A und B genannt, in der er herausfinden möch-
te, ob er seine Erbschaft lieber in die Anlagemöglichkeit 1 oder in die An-
lagemöglichkeit 2 investieren soll. Leider lässt die kostenlose Beratung der
Bank nur eine einzige Ja/Nein–Frage an nur einen der beiden Berater zu.
Ein Freund hatte ihn zuvor davon informiert, dass einer der beiden immer
die Wahrheit sagt und dass der andere stets lügt. Der Freund wusste aber
unglücklicherweise nicht mehr, welcher der beiden welcher ist. Mit welcher
Frage kann der Mann herausfinden, welche die gute und welche die schlechte
Anlagemöglichkeit ist?

Aufgabe 1.4 (Logische Verknüpfungen). Sei ⊼ das Zeichen für nicht und, d.h.
für zwei logische Variablen A, B ist A ⊼ B = ¬(A ∧ B).

1. Stellen Sie die drei logischen Verknüpfungen ¬, ∧ und ∨ jeweils aus-


schließlich durch ⊼ dar.
2. Seien X1 , ..., Xn logische Variablen und f (X1 , ..., Xn ) eine beliebige logische
Funktion mit in X1 bis Xn mit gegebener Wahrheitstafel. Zeigen Sie: f lässt
sich durch ⊼ darstellen.

Aufgabe 1.5 (Induktion). Finden Sie eine geschlossene Formel, die nur von
n ∈ N abhängt, für
∑ n
k3
k=1

(beispielsweise mit der in der Vorlesung erläuterten Methode, oder auch


anders) und beweisen Sie die Formel per Induktion.
20 1 Logik und Beweismethoden

Aufgabe 1.6 (Die Türme von Hanoi). Das Spiel Die Türme von Hanoi besteht
aus 3 Spielfeldern, auf denen n ∈ N Scheiben paarweise verschiedener Größe
gestapelt werden können. Zu Beginn des Spiels sind alle Scheiben auf einem
der Spielfelder der Größe nach gestapelt (die unten liegende Scheibe ist die
größte, wie im Bild zu sehen). Ziel des Spiels ist es, den Anfangsstapel auf
ein anderes Feld zu versetzen, so dass er dort wieder in der gleichen Stapel–
Reihenfolge liegt. Dazu darf in jedem Spielzug die oberste Scheibe eines
beliebigen Turms auf einen anderen Turm, der keine kleinere Scheibe enthält,
gelegt werden.
Geben Sie einen Algorithmus an (Papierform genügt), der dieses Problem
löst, und beweisen Sie die Korrektheit Ihres Algorithmus. Stellen Sie eine
Formel für die Anzahl der notwendigen Züge auf und beweisen Sie diese mit
vollständiger Induktion.

Aufgabe 1.7 (Erfüllbarkeit, konjunktive Normalform). Finden Sie für die


folgenden Aussagen jeweils heraus, ob sie erfüllbar oder sogar eine Tautolo-
gie sind?

1. (X ⇒(Y ⇒ Z)) ⇐⇒ ((X ∧ Y) ⇒ Z),


2. (A ∧ B) ∨ (A ⇒ B).

Geben Sie für die zweite Aussage auch die konjunktive Normalform an.
2

Mengen und Abbildungen

Die Mengenlehre ist das fundamentale Hilfsmittel zur Spezifizierung ma-


thematischer Objekte. In der Informatik wird sie beispielsweise überall dort
verwendet, wo Alphabete, Halbgruppen, Algebren, Verbände eine Rolle spie-
len. Zu den unmittelbaren Anwendungen gehören Datenbanken.

2.1 Mengentheoretische Sprechweisen

Eine Menge M ist eine Kollektion wohlbestimmter Objekte, die wir Elemente
von M nennen. Mengen lassen sich auf zwei Weisen spezifizieren:

1. Aufzählen der Elemente,


2. durch eine charakteristische Eigenschaft.

Beispiel 2.1.

1. {a, b, c, . . . , z} ist die Menge der Buchstaben des Alphabets.


2. {a, b, a} = {a, b}: mehrfaches Aufzählen von Elementen ändert die Menge
nicht.
3. {b, a} = {a, b}: auf die Reihenfolge kommt es beim Aufzählen der Elemente
einer Menge nicht an.
4. Elemente von Mengen können auch Städte sein:

H = {Hauptstädte der Bundesländer}


= {Berlin, Bremen, Hamburg, Saarbrücken, Hannover, Kiel,
Schwerin, Magdeburg, Potsdam, Düsseldorf, Dresden, Erfurt,
Mainz, Wiesbaden, Stuttgart, München}
22 2 Mengen und Abbildungen

5. ∅ = {}, die leere Menge.


6. Alle reellen Zahlen x mit der Eigenschaft (kurz | geschrieben) x2 − x − 1:
√ √ }
{
1+ 5 1− 5
{x∈R|x −x−1=0}=
2
, .
2 2

Dies kann man beispielsweise mit der aus der Schule bekannten p, q–
Formel berechnen.
Problem:
p, q–Formel
Wichtige Mengen von Zahlen haben spezielle Notationen; einige davon ha-
ben wir bereits kennen gelernt:

• N = {1, 2, 3, . . . }, Menge der natürlichen Zahlen,


• Z = {0, 1, −1, 2, −2, . . . }, Menge der ganzen Zahlen.
• Q = { ba | a, b ∈ Z, b , 0}, Menge der rationalen Zahlen (siehe Beispiel 3.12).
• R = { unendliche Dezimalzahlen }, Menge der reellen Zahlen (siehe dazu
auch Kapitel 4).
• C = Menge der komplexen Zahlen (siehe Abschnitt 7.1).

Ist M eine Menge und a ein Element, so schreiben wir a ∈ M. a < M steht für:
a ist kein Element von M. M ∋ a steht für: M enthält das Element a.

2.2 Teilmengen und Venn-Diagramme

Eine Teilmenge N einer Menge M ist eine Menge, für die gilt:

a ∈ N ⇒ a ∈ M.

Schreibweisen:

• N ⊂ M: N ist eine Teilmenge von M.


• N 1 M: N ist keine Teilmenge von M.
• N ⊊ M: N ist eine echte Teilmenge von M, d.h. N ⊂ M, aber N , M.

Für Teilmengen A, B einer Menge M bezeichnet

A ∩ B = {x ∈ M | x ∈ A und x ∈ B}

den Durchschnitt. Mit Venn-Diagrammen kann man Beziehungen von Teil-


mengen oft besonders anschaulich darstellen; siehe Abb. 2.1 für den Durch-
scnitt. Die Menge
2.2 Teilmengen und Venn-Diagramme 23

A B
M

Abbildung 2.1. Der Schnitt A ∩ B zweier Mengen A, B ⊂ M, hervorgehoben durch die


graue Einfärbung.

A B
M

Abbildung 2.2. Die Vereinigung A∪B zweier Mengen A, B ⊂ M, hervorgehoben durch


die graue Einfärbung.

M
A

Abbildung 2.3. Das Komplement A = M\A einer Menge A ⊂ M, hervorgehoben


durch die graue Einfärbung.
24 2 Mengen und Abbildungen

A ∪ B = {x ∈ M | x ∈ A oder x ∈ B}

heißt Vereinigung von A und B; siehe Abb. 2.2. Die Menge

Ā = M\A = {x ∈ M | x < A}

heißt Komplement von A in M, siehe Abb. 2.3. Die Menge

A\B = {x ∈ M | x ∈ A und x < B}

heißt Differenzmenge von A und B, siehe Abb. 2.4. Manchmal wird statt A\B
auch A − B geschrieben.

A B
M

Abbildung 2.4. Die Differenz A\B zweier Mengen A, B ⊂ M, hervorgehoben durch


die graue Einfärbung.

2.3 Rechenregeln für Mengen

Satz 2.2 (Rechenregeln für Mengen). Es seien A, B, C ⊂ M. Dann gilt:

1. A ∩ B = B ∩ A.
A ∪ B = B ∪ A, Kommutativgesetze
2. (A ∩ B) ∩ C = A ∩ (B ∩ C).
(A ∪ B) ∪ C = A ∪ (B ∪ C), Assoziativgesetze,
3. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C), Distributivgesetze,
4. A ∪ ∅ = A, A ∩ M = A, Identitätsgesetze.
5. A ∪ (M\A) = A ∪ Ā = M,
A ∩ (M\A) = A ∩ Ā = ∅, Mengen und ihr Komplement.
6. (A ∩ B) = Ā ∪ B̄,
(A ∪ B) = Ā ∩ B̄, Gesetze von de Morgan.
2.4 Disjunkte Mengen 25

7. (Ā) = A, Gesetz vom doppelten Komplement.

Beweis. Die Aussagen folgen unmittelbar aus den analogen Aussagen der
Logik. Alternativ mit Venn–Diagrammen (siehe Abb. 2.5 und 2.6): ⊓

A B
M

Abbildung 2.5. A ∩ B = A ∪ B, hervorgehoben durch die graue Einfärbung.

B C
M

Abbildung 2.6. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C), hervorgehoben durch die graue


Einfärbung.

2.4 Disjunkte Mengen


Sind A und B endlich, dann gilt:
|A ∪ B| = |A| + |B| − |A ∩ B|,
da in der Summe |A| + |B| die Elemente von A ∩ B doppelt gezählt würden.
Besser:
|A ∪ B| + |A ∩ B| = |A| + |B|,
denn diese Formel macht auch für unendliche Mengen Sinn: |A| = ∞. A und
B heißen disjunkt, wenn A ∩ B = ∅.
26 2 Mengen und Abbildungen

2.5 Kartesische Produkte

Es seien A und B Mengen. Dann ist das kartesische Produkt

A × B = {(a, b) | a ∈ A, b ∈ B}

die Menge der geordneten Paare von Elementen aus A und Elementen aus
B.

Beispiel 2.3.

1. {a, b, . . . , h} × {1, 2, . . . , 8} ist beim Schach gebräuchlich.


2. Mit R2 = R × R = {(a, b) | a, b ∈ R} lassen sich Punkte in der Ebene
spezifizieren.
Problem:
Bild:(1, 2), (−1, −1)
Für die Anzahl der Elemente eines kartesischen Produktes gilt:

|A × B| = |A| · |B|.

2.6 Definition des Binomialkoeffizienten

Die Potenzmenge 2M einer Menge M, die aus den Teilmengen von M besteht,
hatten wir schon eingeführt.

Definition 2.4. Die Anzahl( der


) k-elementigen Teilmengen einer n-elementigen
()
Menge bezeichnen wir mit nk (gelesen: n über k, englisch n choose k). nk heißt
auch Binomialkoeffizient.

2.7 Eine Formel für den Binomialkoeffizienten

Der Binomialkoeffizient kann durch Fakultäten (siehe Definition 1.19) ausge-


drückt werden:

Satz 2.5. Für 0 ≤ k ≤ n gilt:


( )
n n!
= .
k k!(n − k)!
2.7 Eine Formel für den Binomialkoeffizienten 27

Beweis. Induktion nach n. Für n = 0 ist die Aussage richtig. Die leere Menge
()
∅ hat genau eine 0-elementige Teilmenge, nämlich ∅. Also: 00 = 1 = 0!·0!
0!
gilt.
Num zum Induktionsschritt n → n + 1: Für k = 0 ist die Aussage klar: Auch
{1, . . . , n + 1} hat genau eine 0-elementige Teilmenge, nämlich ∅, also gilt:
( )
n+1 (n + 1)!
=1= ,
0 0!(n + 1)!

wie behauptet. Sei also k ≥ 1. Wir betrachten


( )
n+1 { }
= A ⊂ {1, . . . , n + 1} | |A| = k .
k

Die Menge auf der rechten Seite zerlegt sich disjunkt in


{ } { }
A ⊂ {1, . . . , n} | |A| = k ∪ A′ ∪ {n + 1} | A′ ⊂ {1, . . . , n}, |A′ | = k − 1 .

Also: ( ) ( ) ( )
n+1 n n
= + .
k k k−1
Die Induktionsvoraussetzung gibt nun:
( ) ( ) ( )
n+1 n n
= +
k k k−1
n! n!
= +
k!(n − k)! (k − 1)!(n − k + 1)!
n!
= (n − k + 1 + k)
k!(n − k + 1)!
(n + 1)!
= .
k!(n − k + 1)!

Der Beweis des vorigen Satzes zeigt insbesondere:

Lemma 2.6. Für n, k ∈ N gilt:


( ) ( ) ( )
n+1 n n
= + .
k k k−1
Beweis. ⊔

Der Name Binomialkoeffizient kommt von folgendem Satz:


28 2 Mengen und Abbildungen

n
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1

()
Abbildung 2.7. Das Pascalsche Dreieck mit den Einträgen nk für k = 0, . . . , n. Diese
(n) (n−1) (n−1)
Darstellung suggeriert (siehe auch Lemma 2.6): k = k−1 + k für k ≥ 1.

Satz 2.7 (Binomische Formel). Es seien a, b ∈ R und n ∈ N. Dann gilt (siehe


auch Abb. 2.7):
∑n ( ) Problem:
n n−k k
(a + b) =
n
a b. k einzeichnen.
k
k=0

Beweis (von Satz 2.7). Induktion nach n. Induktionsanfang: n = 1.


Vorlesung vom:
1 (
∑ ) ( ) ( ) 31. Oktober 2008
1 1−k k 1 1
a b = a+ b = a + b = (a + b)1 . Qualitätsstand:
k 0 1 erste Version
k=0

Induktionsschritt n → n + 1:

(a + b)n+1 = (a + b)(a + b)n


∑n ( )
I.-V. n n−k k
= (a + b) · a b
k
k=0
∑ n ( ) n ( )
n n−k+1 k ∑ n n−k k+1
= a b + a b
k k
k=0 k=0
( ) n ( ) n+1 ( )
n n+1 ∑ n n−k+1 k ∑ n
= a + a b + an−(l−1) bl
0 k l−1
k=1 l=1
( ) ∑ n (( ) ( ) ( )
n + 1 n+1 n n ) n−k+1 k n n+1
= a + + a b + b
0 k k−1 n
k=1
( ) n ( ) ( )
Lemma 2.6 n + 1 n+1 ∑ n + 1 n+1−k k n + 1 n+1
= a + a b + b
0 k n+1
k=1
n+1 (
∑ )
n + 1 n+1−k k
= a b.
k
k=0



2.8 Abbildungen 29

2.8 Abbildungen

Um Beziehungen zwischen Mengen zu studieren, benötigen wir sogenannte


Abbildungen.

2.8.1 Definition und erste Beispiele

Definition 2.8. Eine Abbildung f : M → N zwischen zwei Mengen M und N ist


(gegeben durch) eine Vorschrift, die jedem Elemente a ∈ M ein Element f (a) ∈ N
zuordnet. M heißt dabei Definitionsmenge und N Zielmenge der Abbildung.

Beispiel/Definition 2.9.

1. { Studierende der UdS } → N, x 7→ Matrikelnummer .


2. f : R → R, x 7→ f (x) = x2 (siehe Abb. 2.8)

+1.5

+0.3

−1.5 +0.6 +1.5 x


-0.3

-1.5

Abbildung 2.8. Graph einer Parabel mit Gleichung f (x) = x2 .

Zu einer Abbildung f : M → N heißt die Teilmenge

G f = {(x, y) ∈ M × N | y = f (x)}

der Graph der Abbildung f . Aus dem Graphen lässt sich die Abbildung
zurückgewinnen:
G f ∩ ({a} × N) = {(a, f (a))}.

3. Der ganzzahlige Anteil einer reellen Zahl ist durch folgende Abbildung
gegeben (siehe auch Abb. 2.9):
{ }
entier : R → Z ⊂ R, x 7→ y = entier(x) = ⌊x⌋ = max n ∈ Z | n ≤ x .

⌈x⌉ = min{ n ∈ Z | n ≥ x }.
30 2 Mengen und Abbildungen
y
3
2
1

−3 −2 −1 1 2 3 x

−2
−3

Abbildung 2.9. Graph der entier Funktion. Ein kleiner, leerer Kreis zeigt dabei an,
dass der umkreiste Punkt nicht zum Graphen gehört.

4. Sei A ⊂ R. Dann heißt χA : R → {0, 1} ⊂ R,


{
0, falls a < A,
χA =
1, falls a ∈ A.

die charakteristische Funktion für A.


5. Der Graph der Funktion χQ lässt sich schlecht zeichnen.
Problem:
Trotzdem ein Bild ver-
suchen? 2.8.2 Injektivität, Surjektivität und Bijektivität

Definition 2.10. Sei f : M → N eine Abbildung und A ⊂ M. Dann heißt zu A ⊂ M


die Menge
f (A) = { f (a) | a ∈ M} ⊂ N
das Bild von A unter f . Zu B ⊂ N heißt die Menge

f −1 (B) = {a ∈ M | f (a) ∈ B}

das Urbild von B. f −1 ist eine (neue) Abbildung f −1 : 2N → 2M zwischen den


Potenzmengen von N und M. Für ein Element b ∈ N schreiben wir kürzer: f −1 (b) =
f −1 ({b}).

Im Verlaufe der Vorlesung werden wir sehen, dass die folgenden Eigenschaf-
ten von Abbildungen immer wieder eine zentrale Rolle spielen werden:

Definition 2.11. Eine Abbildung f : M → N heißt injektiv (lat. iniacere: hinein-


werfen), wenn x1 , x2 ∈ M, x1 , x2 ⇒ f (x1 ) , f (x2 ) gilt. f heißt surjektiv (lat.
suriectere: überwerfen), wenn f (M) = N. Eine Abbildung, die injektiv und surjektiv
ist, heißt bijektiv.
Problem:
hier besser schon die
Notation ,→ etc. ein-
Beispiel 2.12. f in Abb. 2.10 ist weder injektiv noch surjektiv: f (a) = f (b),
führen!?
3 < f (M).
2.8 Abbildungen 31

1
a
2
b
3
c
4
d

f
M N

Abbildung 2.10. Injektivität und Surjektivität: Die gezeigte Abbildung f ist weder
injektiv noch surjektiv.

Satz 2.13. Sei f : M → N eine Abbildung zwischen endlichen Mengen mit |M| =
|N|. Dann sind äquivalent:

1. f ist injektiv,
2. f ist surjektiv,
3. f ist bijektiv.

Beweis. 2. ⇒ 3. Sei f surjektiv. Dann gilt:


∑ ∑
|N| = |{b}| ≤ | f −1 (b)| = |M|.
b∈N b∈N

Wegen |N| = |M| muss Gleichheit gelten. Also:

|{b}| = | f −1 (b)| = 1 für alle b ∈ N,

d.h. f ist bijektiv.


Wir zeigen nun: 1. ⇒ 3. Sei dazu f injektiv. Dann gilt:
∑ ∑
|N| = |{b}| ≥ | f −1 (b)| = |M|
b∈N b∈N

wegen |N| = |M| gilt wieder:

|{b}| = | f −1 (b)| = 1 für alle b,

d.h. f ist bijektiv.


Die verbleibenden Implikationen 3. ⇒ 1. und 3. ⇒ 2. sind nach Definition der
Bijektivität richtig. ⊓

32 2 Mengen und Abbildungen

Mehrere wichtige Resultate folgen direkt daraus:

Korollar 2.14 (aus dem Beweis). Seien M, N endliche Mengen. Ist f : M → N


injektiv, so gilt: |M| ≤ |N|. Ist f : M → N surjektiv, so gilt: |M| ≥ |N|.

Korollar 2.15 (Schubfachprinzip). Seien M, N endliche Mengen. Eine Abbildung


f : M → N mit |M| > |N| ist nicht injektiv.

Eine nette Anwendung davon ist folgende:

Proposition 2.16. Unter beliebigen n2 + 1 vielen Punkten P1 ,√. . . , Pn2 +1 in einem


Quadrat der Kantenlänge n gibt es zwei Punkte mit Abstand ≤ 2.

Beweis. Zwei Punkte in einem Quadrat der Kantenlänge 1 haben Abstand


√ √
≤ 2 nach dem Satz von Pythagoras: 12 + 12 = ( 2)2 . Wir zerlegen

Q = {(x, y) | 0 ≤ x < n, 0 ≤ y < n}

disjunkt in n2 Quadrate (siehe Abb. 2.11):

Qi j = {(x, y) | i − 1 ≤ x < i, j − 1 ≤ y < j}

und definieren eine Abbildung

Q22

Q11 Q12

Abbildung 2.11. Zerlegung eines Quadrates.

f : {1, . . . , n2 + 1} → {1, . . . , n} × {1, . . . , n} = {(i, j) ∈ N2 | i ≤ n, j ≤ n},

durch f (k) := (i, j), falls der Punkt Pk ∈ Qi j . Da wir eine disjunkte Vereinigung
haben, ist dies eine Abbildung. Nach dem Schubfachprinzip ist sie nicht
injektiv und die Behauptung folgt. ⊓ ⊔
2.8 Abbildungen 33

2.8.3 Weitere Notationen zu Abbildungen

Einige weitere Notationen zu Abbildungen, die häufig verwendet werden,


sind die folgenden:

Definition 2.17. Sind M und N Mengen, so bezeichnet NM = { f : M → N} die


Menge aller Abbildungen von M nach N.

Beispiel 2.18. {0, 1}M = { f : M → {0, 1}}.

Bemerkung 2.19. Es gilt für endliche Mengen M, N:

|NM | = |N||M| ,

daher die Notation. In der Tat müssen wir, um f festzulegen, für jedes a ∈ M
ein Bild f (a) auswählen. Hierfür haben wir |N| Wahlmöglichkeiten, insgesamt
also |N||M| Wahlmöglichkeiten.

2.8.4 Komposition von Abbildungen

Definition 2.20. Sind f : M → N und g : N → K Abbildungen, so ist die Kom-


position (oder Hintereinanderausführung) g ◦ f : M → K (gelesen: g verknüpft
mit f oder g nach f ) durch (g ◦ f )(a) := g( f (a)) definiert.

Komposition von Abbildungen ist assoziativ:

Satz 2.21. Für Abbildungen f : M → N, g : N → K und h : K → L gilt:

h ◦ (g ◦ f ) = (h ◦ g) ◦ f,

kurz zusammengefasst:

h◦(g◦ f )

g◦ f

f g %/ 
M /N K
h / L.
9?
h◦g

(h◦g)◦ f

Beweis. Es gilt:
34 2 Mengen und Abbildungen

(h ◦ (g ◦ f ))(a) = h((g ◦ f )(a))


= h(g( f (a)))
= (h ◦ g)( f (a))
= ((h ◦ g) ◦ f )(a)
für alle a aus M. Also:
h ◦ (g ◦ f ) = (h ◦ g) ◦ f.

2.9 Existenz– und All–Quantor

Die Phrasen für alle und es existiert tauchen in der Mathematik und in der
Informatik häufig auf. Wir verwenden daher die Notation ∀ für für alle und
∃ für es existiert ein.

Beispiel 2.22.
f : M → N ist surjektiv ⇐⇒ ∀b ∈ N ∃ a ∈ M mit b = f (a).

Bei der Negation von Aussagen mit All– und Existenzquantoren verwandelt
sich ∀ in ∃ und ∃ in ∀ ähnlich wie bei den Gesetzen von de Morgan.

Beispiel 2.23. f : M → N ist nicht surjektiv


⇐⇒ ¬(∀ b ∈ N ∃ a ∈ M : f (a) = b)
⇐⇒ ∃ b ∈ N ¬(∃ a ∈ M : f (a) = b)
⇐⇒ ∃ b ∈ N ∀ a ∈ M : ¬( f (a) = b)
⇐⇒ ∃ b ∈ N ∀ a ∈ M : f (a) , b.

2.10 Indizes

Häufig werden Notationen wie a1 , . . . , a101 ∈ Z verwendet. Was ist dies for-
mal? i 7→ ai ist eine Abbildung wie f : {1, . . . , 101} → Z, f (i) = ai .

Beispiel/Definition 2.24. Sei I eine beliebige Menge und (Ai )i∈I eine Familie
von Teilmengen Ai ⊂ M einer weiteren Menge M, d.h. eine Abbildung I →
2M , i 7→ Ai . Dann ist der Durchschnitt

Ai = {x ∈ M | x ∈ Ai ∀ i ∈ I}
i∈I

und die Vereinigung:



Ai = {x ∈ M | ∃ i ∈ I mit x ∈ Ai }.
i∈I
2.10 Indizes 35

Aufgaben

Aufgabe 2.1 (Schubfachprinzip und Kartesische Produkte). Gegeben seien


101 paarweise verschiedene ganze Zahlen a1 , . . . , a101 ∈ Z. Zeigen Sie: Es
gibt eine Teilfolge ai1 , ai2 , . . . , ai11 , i1 < · · · < i11 , von 11 Zahlen, so dass die
Folge entweder monoton fallend (ai1 > · · · > ai11 ) oder monoton steigend
(ai1 < · · · < ai11 ) ist.

Aufgabe 2.2 (Injektivität und Surjektivität). Seien M und N endliche Men-


gen. Wieviele injektive Abbildungen gibt es von M nach N? Wieviele surjekti-
ve Abbildungen gibt es von M nach N, wenn N zwei, drei oder vier Elemente
enthält? Haben Sie eine Idee für den allgemeinen Fall |N| = n ∈ N?

Aufgabe 2.3 (Potenzmengen). Sei M eine beliebige Menge und 2M ihre Po-
tenzmenge. Zeigen Sie: Es existiert keine bijektive Abbildung zwischen M
und 2M .

Aufgabe 2.4 (Wege durch eine Stadt). In einem amerikanischen Stadtplan


mit n Avenues und m Streets, die ein Gitter aus gleich großen Quadraten
bilden (siehe Abbildung unten), wollen Sie von einem Eckpunkt A aus zum
gegenüberliegendem Eckpunkt B gehen. Wieviele kürzeste Wege gibt es?

Aufgabe 2.5 (Induktion). Zeigen Sie mit vollständiger Induktion, dass für
n ∈ N mit n ≥ 2 gilt:
∑n ( ) ( )
k n+1
= .
2 3
k=2
36 2 Mengen und Abbildungen

Aufgabe 2.6 (Binomialkoeffizienten). Zeigen Sie: Für alle n, k, s, t ∈ N gelten


die folgenden drei Gleichungen:
( ) ( )
n n n−k
= , (2.1)
k+1 k k+1
∑ n ( )
n
i· = n · 2n−1 , (2.2)
i
i=0
( ) ∑ n ( )( )
s+t s t
= . (2.3)
n i n−i
i=0

Geben Sie eine Interpretation von Gleichung (2.1) über die Definition des
Binomialkoeffizienten.
3

Äquivalenzrelationen und Kongruenzen

Vorlesung vom:
In der Mathematik und Informatik hat man es oft mit Relationen zu tun. 05. November 2008
Qualitätsstand:
erste Version
3.1 Äquivalenzrelationen Problem:
ausführlichere Einlei-
tung zu Äquiv-Rel
Beispiel 3.1. ≥ (größer gleich) ist eine Relation auf R. Für je zwei Zahlen
x, y ∈ R ist die Relation x ≥ y entweder wahr oder falsch.

Definition 3.2. Sei M eine Menge. Eine Teilmenge R ⊂ M × M nennen wir eine
Relation. Für x, y ∈ M ist die Relation erfüllt, wenn (x, y) ∈ R. Manchmal schreibt
man dann auch xRy.

Beispiel 3.3.

1. Für ≥ ist R≥ ⊂ R × R die Winkelhalbierende des rechten oberen und lin-


ken unteren Quadranten des Koordinatensystems gemeinsam mit allen
Punkten darunter (Abb. 3.1).

Abbildung 3.1. Die Relation ≥ auf R2 .

2. Für Gleichheit = ist R= ⊂ R × R genau die Winkelhalbierende des rechten


oberen und linken unteren Quadranten (Abb. 3.2).
38 3 Äquivalenzrelationen und Kongruenzen

Abbildung 3.2. Die Relation = auf R2 .

In diesem Kapitel möchten wir Äquivalenzrelationen studieren. Unser Ziel


ist es, den Begriff gleich zu äquivalent bzw. ähnlich abzuschwächen. Zunächst
ein paar Beispiele dazu:

Beispiel 3.4.

1. Sei f : M → N eine Abbildung. Wir sagen a, b ∈ M sind äquivalent, in


Zeichen a ∼ b, wenn f (a) = f (b) gilt.
2. Seien M = Z und d ∈ Z>1 . Zwei Zahlen a, b ∈ Z heißen kongruent
modulo d, in Zeichen a ≡ b mod d, wenn a − b durch d teilbar ist.

Welche Eigenschaften sollen Äquivalenzrelationen haben?

Definition 3.5. Eine Teilmenge R ⊂ M × M heißt Äquivalenzrelation (wir schrei-


ben a ∼ b statt (a, b) ∈ R), wenn folgende Eigenschaften erfüllt sind:

1. Reflexivität: a ∼ a ∀ a ∈ M.
2. Symmetrie: a ∼ b ⇒ b ∼ a ∀a, b ∈ M.
3. Transitivität: a ∼ b und b ∼ c ⇒ a ∼ c ∀a, b, c ∈ M.

Beispiel 3.6.

0. Die Relation = ist eine Äquivalenzrelation


1. Für f : M → N, definert a ∼ b, falls f (a) = f (b) eine Äquivalenzrelation auf
M. Dies ist eine Äquivalenzrelation, da = auf N eine Äquivalenzrelation
ist.
2. a ≡ b mod d ist eine Äquivalenzrelation auf Z.
a) a − a = 0 · d.
b) a − b = k · d ⇒ b − a = (−k) · d.
c) a − b = k · d und b − c = l · d ⇒ a − c = a − b + b − c = k · d + l · d = (k + l) · d.
3. ≥ auf M = R ist keine Äquivalenzrelation. Zwar gilt die Reflexivität, da
x ≥ x ∀x ∈ R, und x ≥ y, y ≥ z ⇒ x ≥ z (Transitivität), aber x ≥ y ⇒ y ≥ x
ist im Allgemeinen falsch.
3.1 Äquivalenzrelationen 39

Satz/Definition 3.7. Sei ∼ eine Äquivalenzrelation auf M. Zu a ∈ M heißt

[a] := {b ∈ M | b ∼ a}

die Äquivalenzklasse von M und jedes Element b ∈ [a] heißt ein Repräsentant
von [a]. Je zwei Äquivalenzklassen [a] und [b] sind entweder gleich oder disjunkt
(d.h. sie haben leeren Durchschnitt).

Beispiel 3.8. Für (≡ mod 3) sind die Äquivalenzklassen

[0] = {. . . , −6, −3, 0, 3, 6, . . . },


[1] = {. . . , −5, −2, 1, 4, 7, . . . },
[2] = {. . . , −4, −1, 2, 5, 8, . . . }.

Es gilt:
[0] ∪· [1] ∪· [2] = Z.

Beweis (des Satzes 3.7). Zu zeigen ist, dass aus [a] ∩ [b] , ∅ folgt, dass [a] = [b].
Sei dazu etwa c ∈ [a] ∩ [b] und d ∈ [a]. Dann gilt: d ∼ a ∼ c ∼ b, also wegen
der Transitivität d ∼ b und daher d ∈ [b]. Dies zeigt: [a] ⊂ [b]. Die umgekehrte
Inklusion [b] ⊂ [a] folgt analog. Also insgesamt: [a] = [b]. ⊓ ⊔

Definition 3.9. Sei ∼ eine Äquivalenzrelation auf M. Mit

M/∼ = {[a] | a ∈ M} ⊂ 2M

(Sprechweise: M modulo ∼) bezeichnen wir die Menge der Äquivalenzklassen.


Die Abbildung
π : M → M/∼, a 7→ [a]
heißt kanonische Äquivalenzklassenabbildung.

Beispiel 3.10. Für (≡ mod 3) auf Z ist π : Z → {[0], [1], [2]} die Abbildung
n 7→ [Rest von n bei Division durch 3].

Bemerkung 3.11. Offenbar gilt:

π(a) = π(b) ⇐⇒ [a] = [b].

Jede Äquivalenzrelation ist also im Prinzip vom Typ 1 in Beispiel 3.6 mit f =
π : M → N = M/∼. Das Urbild des Elements [a] ∈ M/∼ ist π−1 ([a]) = [a] ⊂ M.

Einer der wesentlichen Anwendungen von Äquivalenzrelationen ist es, dass


man mit ihrer Hilfe aus bekannten Mengen M neue interessante Mengen M/∼
konstruieren kann.
40 3 Äquivalenzrelationen und Kongruenzen

Beispiel 3.12. Die Konstruktion der Menge der rationalen Zahlen aus den
ganzen Zahlen Z. Dazu betrachten wir M = Z × (Z\{0}) und definieren eine
Äquivalenzrelation auf M durch:

(p1 , q1 ) ∼ (p2 , q2 ), falls p1 · q2 = p2 · q1 .


p
Die Äquivalenzklasse [(p, q)] wird üblicherweise mit q bezeichnet, wobei p
dann Zähler und q Nenner heißen. Also:
( )
Q := Z × (Z\{0}) / ∼ .

Wir müssen einsehen, dass ∼ wirklich eine Äquivalenzrelation ist. Reflexivität


und Symmetrie sind klar. Transitivität: Seien (p1 , q1 ) ∼ (p2 , q2 ) und (p2 , q2 ) ∼
(p3 , q3 ), also p1 q2 = p2 q1 und p2 q3 = p3 q2 . Es folgt: p1 q2 q3 = p2 q1 q3 = p2 q3 q1 =
p3 q2 q1 , also q2 (p1 q3 −p3 q1 ) = 0. Nun gilt: q2 , 0. In Z folgt daher: p1 q3 −p3 q1 = 0,
d.h. (p1 , q1 ) ∼ (p3 , q3 ).
Addition und Multiplikation erklären wir repräsentantenweise:
p r ps + qr p r p·r
+ := und · := .
q s qs q s q·s

Diese Definition ist nicht unproblematisch, da die rechten Seiten von der
p
Auswahl der Repräsentanten (p, q) ∈ q und (r, s) ∈ rs abhängen. Das Beispiel

1 1 1·3+2·1 5
+ = =
2 3 2·3 6
2 −1 2 · (−3) + 4 · (−1) −10
+ = =
4 −3 4 · (−3) −12
suggeriert aber, dass dies vielleicht doch kein Problem ist. Um allgemein
einzusehen, dass

+ : M/∼ × M/∼ → M/∼ und · : M/∼ × M/∼ → M/∼

wohldefinierte Abbildungen sind, müssen wir zeigen, dass das Ergebnis


nicht von der Wahl der Repräsentanten abhängt. Zum Beispiel ist für (p1 , q1 ) ∼
(p2 , q2 ) zu zeigen, dass (p1 s + q1 r, q1 s) ∼ (p2 s + q2 r, q2 s) gilt. Also ist
!
(p1 s + q1 r) · q2 s = (p2 s + q2 r) · q1 s

zu zeigen, was äquivalent zu p1 s · q2 s = p2 s · q1 s ist. Dies folgt aber aus


p1 q2 = p2 q1 durch Multiplikation mit s2 . Die Unabhängigkeit von der Auswahl
(r2 , s2 ) ∈ sr zeigt man genauso. Die Wohldefiniertheit der Multiplikation ist
ähnlich, aber einfacher.
Schließlich lässt sich Z als Teilmenge von Q auffassen mit Hilfe der Abbil-
dung:
3.2 Kongruenzen 41
n
Z ,→ Q, n 7→ .
1
Dabei bezeichnet der Pfeil ,→ eine injektive Abbildung. Gelegentlich verwen-
den wir auch den Pfeil ↠; dieser steht für eine surjektive Abbildung. Jedes
p p
Element q ∈ Q hat einen ausgezeichneten Repräsentanten (a, b) ∈ q = ba mit
a, b teilerfremd, b > 0.

Bemerkung 3.13. Im Allgemeinen gibt es bei Äquivalenzrelationen keine


ausgezeichneten Repräsentanten. Dies sieht man beispielsweise an ähnlichen
Dreiecken: Zwei Dreiecke heißen ähnlich, wenn die drei Winkel (α, β, γ) und
(α′ , β′ , γ′ ) bis auf die Reihenfolge übereinstimmen (Abb. 3.3). Einen ausge-

Abbildung 3.3. Zwei ähnliche Dreiecke.

zeichneten Repräsentanten gibt es nicht (Abb. 3.4).

Abbildung 3.4. Ähnliche Dreiecke.

3.2 Kongruenzen
Vorlesung vom:
Im Folgenden möchten wir die Relation (≡ mod n) auf Z näher studieren. 07. November 2008
Für Z/(≡ mod n) schreiben wir kürzer Z/n. Jedes Element [a] von Z/n hat Qualitätsstand:
einen ausgezeichneten Repräsentanten i ∈ {0, 1, . . . , n − 1}, nämlich den Rest i erste Version
bei Division von a durch n. Die Restklasse von i ist

[i] = {i + kn | k ∈ Z}.

Häufig wird auch die Notation

i = [i]

verwendet. Die Menge


Z/n = {0, 1, . . . , n − 1}
42 3 Äquivalenzrelationen und Kongruenzen

hat also n Elemente. Elemente von Z/n lassen sich addieren und multiplizie-
ren:
i + j = i + j, i · j = i · j.

Beispiel 3.14. n = 6.

1. Es gilt: (2 + 2) + 5 = 4 + 5 = 9 = 3.
Außerdem ist: 2 + (2 + 5) = 2 + 7 = 2 + 1 = 3.
2. Es gilt: (2 · 2) · 5 = 4 · 5 = 20 = 2.
Außerdem ist: 2 · (2 · 5) = 2 · 10 = 2 · 4 = 8 = 2.

Diese Addition und Multiplikation genügt den üblichen Gesetzen von Ad-
dition und Multiplikation, z.B. den Assoziativgesetzen:

(i + j) + k = i + (j + k)
(i · j) · k = i · ( j · k).

Distributivgesetze:
(i + j) · k = i · k + j · k.
Kommutativgesetze:

i+ j = j+i
i · j = j · i.

Um dies einzusehen, zeigt man am Besten, dass in der Definition

i + j = i + j, i· j=i· j

das Ergebnis nicht von der Auswahl i ∈ i und j ∈ j abhängt: Sind also zwei
verschiedene Repräsentanten der gleichen Äquivalenzklasse i1 und i2 bzw. j1
und j2 gegeben, d.h.

i1 ≡ i2 mod n, j1 ≡ j2 mod n.

so folgt tatsächlich:

i1 + j1 ≡ i2 + j2 mod n, i1 · j1 ≡ i2 · j2 mod n.

Dann vererben sich nämlich die Rechengesetze direkt aus denen für + und ·
in Z. Sei also i1 ≡ i2 mod n, d.h. i1 − i2 = k · n für ein gewisses k ∈ Z. Daraus
folgt:
i1 + j − (i2 + j) = k · n, also i1 + j ≡ i2 + j mod n.
Analog:
3.2 Kongruenzen 43

i1 j − i2 j = jkn ⇒ i1 j ≡ i2 j mod n,
d.h. bei der Verknüpfung hängt das Ergebnis nicht von der Wahl eines Re-
präsentanten der Klasse i ab. Eine analoge Rechnung zeigt Entsprechendes
für die Klasse j.

Bemerkung 3.15. In Z/6 gilt:

2 · 3 = 6 = 0 ∈ Z/6,

obwohl 2, 3 , 0. Aus a · b = a · c kann man also b = c in Z/n nicht schließen.


Eine Ausnahme bildet der Fall, dass n = p eine Primzahl ist, denn aus

a·b≡0 mod p

folgt: p | a · b und daher p | a oder p | b (dies werden wir in Korollar 3.32


beweisen).

Es folgt:

Satz/Definition 3.16. Sei p eine Primzahl und a ∈ Z/p, a , 0. Dann gibt die
Multiplikation mit a eine bijektive Abbildung

Z/p → Z/p, b 7→ a · b.

Das Urbild von 1 bezeichnen wir mit a −1 und heißt Inverses von a. Das Inverse a −1
wird also durch ein Element u ∈ Z repräsentiert, so dass

u · a ≡ 1 mod p

gilt. u heißt Inverses von a mod p.

Beweis. Ist a · b1 = a · b2 , so folgt: a · (b1 − b2 ) = 0. Somit gilt p | a(b1 − b2 ), aber


nach Voraussetzung p ∤ a folgt: p | b1 − b2 und damit: b1 = b2 .
Also: Z/p → Z/p, b 7→ a · b ist injektiv und somit bijektiv, da Z/p endlich ist.
D.h. ∃ u mit u · a = 1 ⇐⇒ ∃ u ∈ Z: u · a ≡ 1 mod p. ⊓ ⊔

Beispiel 3.17. In Z/5 gilt: 2 ∈ Z/5 und 2 −1 = 3, da 2 · 3 = 6 ≡ 1 mod 5.


44 3 Äquivalenzrelationen und Kongruenzen

3.3 Simultanes Lösen von Kongruenzen

Gegeben zwei natürliche Zahlen n, m ∈ Z>1 . Dann haben wir eine Abbildung

Z → Z/n × Z/m, i 7→ (i mod n, i mod m).

Wir fragen: Ist die Abbildung surjektiv? Mit anderen Worten: Gibt es für
gegebene a, b ∈ Z ein x ∈ Z mit

x≡a mod n,
x ≡ b mod m ?

Diese Fragestellung taucht auch bei der Kalenderrechnung auf:

Beispiel 3.18. In wie vielen Tagen fällt der nächste Vollmond auf einen Sonn-
tag?
Vollmond ist alle 30 Tage (in etwa), Sonntag alle 7 Tage. Der nächste Vollmond
ist Donnerstag, der 13.11., also in 6 Tagen. Ist x die gesuchte Anzahl (heute
ist Freitag, der 8.11.), so gilt:

x ≡ 6 mod 30,
x ≡ 2 mod 7.

Beispiel 3.19. Zahnräder, die ineinander greifen:


Problem:
to do: Bild Zahnräder! x ≡ 2 mod 10,
x ≡ 5 mod 12.

Es gibt keine Lösung, denn aus den beiden Kongruenzen folgt:

x ≡ 0 mod 2,
x ≡ 1 mod 2,

was ein Widerspruch ist.

Wie wir eben gesehen haben, sind simultane Kongruenzen nicht immer lösbar
und zwar ist

x≡a mod n,
x ≡ b mod m,

höchstens lösbar, wenn a ≡ b mod ggT(n, m) = größter gemeinsamer Teiler


von n und m (englisch: greatest common divisor gcd). Dass diese Bedingung
hinreichend ist, ist Gegenstand des sogenannten chinesischen Restsatzes.
3.3 Simultanes Lösen von Kongruenzen 45

Wie berechnet man den ggT? Die Schulmethode ist folgende: Seien n, m ∈ N.
Dann schreibt man:

r
e1 er
n = p1 · · · · · pr = pei i ,
i=1

und

r
f f f
m = p11 · · · · · prr = pi i ,
i=1

d.h. man ermittelt eine Primfaktorzerlegung von n und m in pi paarweise


verschiedene Primzahlen mit Vielfachheiten ei , fi ∈ Z≥0 (einige der ei bzw. fi
dürfen 0 sein). Dann ist

r
min(e1 , f1 ) min(er , fr ) min(e1 , f1 )
ggT(n, m) = p1 · · · pr = pi .
i=1

Aber: Faktorisieren ist schwierig. Nur in einigen Spezialfällen kann man


Primfaktoren leicht erkennen. Jeder kennt aus der Schule die Regel, dass
eine Zahl genau dann durch 2 teilbar ist, wenn ihre letzte Ziffer gerade ist.
Außerdem ist bekannt, dass eine Zahl genau dann durch 3 teilbar ist, wenn
ihre Quersumme es ist. Einige weitere Beispiele:

Beispiel 3.20.

Neuner–Regel: Ist n ∈ N gegeben in der Form


r
n= ai · 10i , ai ∈ {0, . . . , 9},
i=0

also im in der Schule üblichen Zehnersystem, so gilt:


r
n ≡ Q(n) := ai mod 9,
i=0

da 10 ≡ 1 mod 9. Q(n) heißt Quersumme von n.


Elfer–Regel: Ist n wie oben gegeben, so ist die alternierende Quersumme die
Zahl Q′ (n) mit:
∑r
Q′ (n) := (−1)i ai .
i=0

Dann gilt: n ≡ Q (n) mod 11, da −1 ≡ 10 mod 11. Beispielsweise ist

Q′ (143) = 3 + (−4) + 1 = 0 ⇒ 11 ist ein Teiler von 143,

genauer gilt: 143 = 11 · 13, wie wir dann leicht berechnen können.
46 3 Äquivalenzrelationen und Kongruenzen

3.4 Das RSA–Verfahren

Faktorisieren ist so schwierig, dass dieses als Grundlage eines der weit-
verbreitesten öffentlichen Verschlüsselungsverfahren herangezogen wird,
nämlich RSA (Rivest-Shamir-Adleman, 1978).

3.4.1 Öffentliche Kryptosysteme

Diffie und Hellmann haben das Prinzip sogenannter öffentlicher Kryptosys-


teme beschrieben:
Alice möchte Bob eine Nachricht x schicken. Da es sein könnte, dass Eve
mithört, verschlüsselt Alice die Nachricht x in eine codierte Nachricht c.
Bob möchte dann wieder aus der codierten Nachricht c in die ursprüngliche
Nachricht x zurückgewinnen, ohne dass Eve dies kann. Dies funktioniert
nach Diffie–Hellman folgendermaßen:
Die Verschlüsselungsmethode von Bob soll öffentlich zugänglich sein. Alice
kann diese anwenden, um die Nachricht zu verschlüsseln. Eve soll auch dann
keine Chance zum Entschlüsseln haben, wenn sie das Verschlüsselungsver-
fahren kennt.
RSA ist eine Umsetzung dieser Idee, die den sogenannten kleinen Satz von
Fermat benutzt.

3.4.2 Der kleine Satz von Fermat

Um den kleinen Satz von Fermat, den wir erst im nächsten Semester beweisen,
zu formulieren, benötigen wir folgende Definition.

Definition 3.21. Die Eulersche φ-Funktion φ : N>1 → N ist definiert durch:


{ }
φ(n) = a | 1 ≤ a < n mit ggT(a, n) = 1 .

Beispielsweise ist φ(6) = 2, da nur 1 und 5 mit 6 keinen gemeinsamen Teiler


besitzen. Mit dieser Notation können wir nun den Satz formulieren:

Satz 3.22 (kleiner Satz von Fermat). Sei x ∈ Z mit ggT(x, n) = 1. Dann gilt:

xφ(n) ≡ 1 mod n.

Beweis. später ⊔

Beispiel 3.23. n = 6, φ(n) = 2, x ∈ {1, 5}. Es gilt: 52 = 25 ≡ 1 mod 6, wie vom


Satz vorausgesagt.
3.4 Das RSA–Verfahren 47

Es gibt auch einen sogenannten (großen) Satz von Fermat, auch Fermats
letzter Satz genannt, obwohl Fermat ihn wohl nur vermutet hatte und erst
Wiles ihn beweisen konnte:

Satz 3.24 (Satz von Wiles (auch: Fermats letzter Satz), Vermutung: Fermat
(17. Jhdt.), Beweis: Wiles (1997)). Für n ≥ 3 hat die diophantische Gleichung
(d.h. eine Gleichung, für deren ganzzahlige Lösungen man sich interessiert)

an + bn = cn

keine Lösung (a, b, c) ∈ Z3 mit a · b · c , 0.

3.4.3 Das RSA–Verfahren

Der kleine Satz von Fermat erlaubt es uns nun, das RSA–Verfahren zu erläu-
tern. Bevor Alice eine Nachricht schicken kann, muss Bob seinen öffentlichen
und seinen geheimen Schlüssel produzieren:

• Bob wählt zwei große Primzahlen pB , qB mit ungefähr 100 Dezimalstellen


und berechnet:

nB = pB · qB und φ(nB ) = (pB − 1) · (qB − 1).

Dass φ(nB ) = (pB − 1) · (qB − 1) gilt, ist nicht besonders schwierig zu zeigen;
wir werden auf solche Fragen im nächsten Semester näher eingehen.
• Anschließend wählt Bob eine Zahl dB mit

ggT(dB , φ(nB )) = 1

und berechnet eine Zahl eB , so dass:

dB · eB ≡ 1 mod φ(nB ).

• Veröffentlicht werden die Zahlen nB und dB , geheim bleiben die Zahlen


pB , qB , φ(nB ) und eB .

Damit kann Alice nun die Nachricht verschlüsseln und Bob sie wieder ent-
schlüsseln:

• Alice codiert die Nachricht in eine Zahl x < nB und berechnet daraus die
verschlüsselte Zahl c:
c ≡ xdB mod nB .

• c wird über den Nachrichtenkanal an Bob gesendet.


• Bob berechnet seinerseits y ≡ ceB mod nB .
48 3 Äquivalenzrelationen und Kongruenzen

Dieses y liefert tatsächlich die ursprüngliche Nachricht x, denn es gilt:

y ≡ ceB ≡ (xdB )eB ≡ xdB ·eB .

Nun ist:
dB · eB = 1 + k · φ(nB ) und y ≡ x · (xφ(nB ) )k .
x und nB sind mit nahezu 100%-iger Wahrscheinlichkeit teilerfremd:
φ(nB ) nB − pB − qB + 1
= ≈ 1,
nB nB
da nB ≫ (pB + qB ) (d.h. nB ist wesentlich größer als pB + qB , ohne dass wir
das Wort wesentlich hier genauer spezifizieren, entsprechend benutzt man
≪ für wesentlich kleiner). Mit an Sicherheit grenzender Wahrscheinlichkeit
lässt sich der kleine Satz von Fermat anwenden, also:

y ≡ x · (xφ(nB ) )k ≡ x · 1k ≡ x mod nB .

Da x < nB gilt, kennt Bob also die Nachricht x, weil ja x ≡ y mod nB .


Eve müsste eB kennen, um die Nachricht zu entschlüsseln, wozu im Wesentli-
chen die Kenntnis von φ(nB ) = (pB − 1) · (qB − 1) benötigt wird, was wiederum
heißt, dass nB in pB · qB faktorisiert werden muss. Das ist aber, wie schon
erwähnt, sehr schwierig.

3.5 Der euklidische Algorithmus


Vorlesung vom:
12. November 2008 Faktorisieren von Zahlen ist schwierig, wie wir im Abschnitt 3.4 über das
Qualitätsstand: RSA–Verfahren erfahren haben. Gemeinsame Teiler zweier gegebener Zahlen
erste Version sind im Gegensatz dazu aber recht einfach zu finden, wie wir hier sehen
werden.

3.5.1 Der Algorithmus

Algorithmus 3.25 (Der erweiterte euklidische Algorithmus).

Input: a, b ∈ Z.
Output: d = ggT(a, b) und u, v ∈ Z mit d = ua + vb.

u, v nennt man Bézoutkoeffizienten für den größten gemeinsamen Teiler.

1. Wir setzen x1 = a, x2 = b.
2. Für i ≥ 2 mit xi , 0 berechnen wir xi+1 = xi−1 − ci xi mit ci ∈ Z und
0 ≤ xi+1 < |xi |, bis schließlich xn+1 = 0.
3.5 Der euklidische Algorithmus 49

3. Dann ist d = xn = ggT(a, b).

Der erweiterte Teil des Algorithmus ist folgender:

4. Wir setzen u1 = 1, u2 = 0 und v1 = 0, v2 = 1.


5. Für i = 2, . . . , n − 1 sei dann

ui+1 = ui−1 − ci ui
vi+1 = vi−1 − ci vi .

6. Dann gilt für u = un und v = vn :

d = ua + vb.

Zunächst ein Beispiel dazu:

Beispiel 3.26. a = 1517, b = 1221. Gemäß des Algorithmus setzen wir: x1 =


a = 1517, x2 = b = 1221. Wir erhalten durch Division mit Rest:

1517 : 1221 = 1 = c2 , Rest x3 = 296,


1221 : 296 = 4 = c3 , Rest x4 = 37,
296 : 37 = 8 = c4 , Rest x5 = 0.

Damit ist x4 = d = ggT(a, b). Für den erweiterten Teil setzen wir u1 = 1, u2 = 0,
v1 = 0, v2 = 1. Weiter erhalten wir:

u3 = u1 − c2 · u2 = 1 − 1 · 0 = 1,
v3 = v1 − c2 · v2 = 0 − 1 · 1 = −1,
u4 = u2 − c3 · u3 = 0 − 4 · 1 = −4,
v4 = v2 − c3 · v3 = 1 − 4 · (−1) = 5.

Zur Überprüfung der Aussage des Algorithmus berechnen wir:

(−4) · 1517 + 5 · 1221 = −6068 + 6105 = 37,

wie behauptet.

Bevor wir die Korrektheit des Algorithmus beweisen, führen wir noch eine
Notation ein:

Definition 3.27. Seien x, y ∈ Z. Dann schreiben wir x | y, falls x die Zahl y teilt
(in Z), d.h. falls es ein k ∈ Z gibt mit x · k = y, und x ∤ y, falls nicht.

Beweis (der Korrektheit von Algorithmus 3.25).


50 3 Äquivalenzrelationen und Kongruenzen

1. Der Algorithmus terminiert, da alle xk ∈ Z und

|x2 | > x3 > · · · > xn ≥ 0.

2. Wir zeigen xn | xk mit absteigender Induktion nach k. Die Fälle k = n,


d.h. xn | xn , sowie k = n + 1, d.h. xn | xn+1 , sind klar, da xn+1 = 0. Für den
Induktionsschritt seien xn | xk+1 und xn | xk schon bekannt. Es folgt:
Def.
xn | (xk+1 + ck xk ) = xk−1 .

Also:
xn | x1 = a und xn | x2 = b,
d.h. xn ist ein gemeinsamer Faktor von a und b.
3. Sei e ein Teiler von a und b. Wir zeigen sogar: e | xk für alle k. Wieder ist
der Induktionsanfang klar: e | x1 und e | x2 . Für den Induktionsschritt
seien e | xi−1 und e | xi bekannt, woraus folgt:

e | (xi−1 − ci xi ) = xi+1 .

Insbesondere gilt also: e | xn , d.h. d = xn ist der größte gemeinsame Teiler


von a und b.
4. Um die erweiterte Aussage zu zeigen, beweisen wir xi = ui a + vi b für alle
i. Für i = 1, 2 ist dies klar wegen u1 = 1, v1 = 0, x1 = a und u2 = 0, v2 =
1, x2 = b. Für den Induktionsschritt betrachten wir:
Def.
ui+1 a + vi+1 b = (ui−1 − ci ui )a + (vi−1 − ci vi )b
= (ui−1 a + vi−1 b) − ci (ui a + vi b)
I.-V.
= xi−1 − ci xi
Def.
= xi+1 .

Der Fall i = n:
d = xn = un a + vn b = ua + vb,
was die letzte Behauptung beweist.

Korollar 3.28. Seien a, n ∈ Z. Es existiert ein u ∈ Z/n mit u · a = 1 ∈ Z/n genau


dann, wenn ggT(a, n) = 1. Ist dies der Fall und sind u, v die Bézoutkoeffizienten in
ua + vn = 1, dann gilt: u = [u].

Beweis. u · a = 1 ⇐⇒ ua + vn = 1 für ein gewisses v ∈ Z. ⇒ Jeder Teiler von


a und n teilt 1. ⇒ ggT(a, b) = 1 und ua + vn = 1 ⇒ u · a = 1 ∈ Z/n. ⊓

3.5 Der euklidische Algorithmus 51

3.5.2 Der chinesische Restsatz

Satz 3.29 (Chinesischer Restsatz). Es seien n, m ∈ Z>1 und a, b ∈ Z. Die simul-


tanen Kongruenzen {
x≡a mod n,
x≡b mod m
haben eine Lösung x ∈ Z genau dann, wenn a ≡ b mod ggT(n, m). In diesem Fall
ist x ∈ Z bis auf Vielfache des kleinsten gemeinsamen Vielfaches
n·m
kgV(n, m) :=
ggT(n, m)

eindeutig bestimmt, d.h. ist x0 ∈ Z eine Lösung, so ist

{x0 + l · kgV(n, m) | l ∈ Z}

die Menge aller Lösungen.

Beweis. Die Notwendigkeit hatten wir bereits gesehen (vor dem RSA–
Algorithmus). Um, falls

a ≡ b mod ggT(n, m) = d

gilt, eine Lösung zu konstruieren, berechnen wir d mit dem erweiterten eu-
klidischen Algorithmus:
d = un + vm.
Ist nun a = b + kd für ein k ∈ Z, so ist x = a − kun eine Lösung, denn x ≡ a
mod n ist klar und

x = a − kun = a − k(d − vm)


= b + kvm ≡ b mod m.

Ist y eine weitere Lösung, so gilt:

x − y ≡ 0 mod n und x − y ≡ 0 mod m.

Aus n, m | x − y folgt kgV(n, m) | x − y, also:

y = x + l · kgV(n, m) für ein gewisses l ∈ Z,

d.h. y ist tatsächlich in der angegebenen Menge aller Lösungen. ⊓


Beispiel 3.30. Ein Himmelskörper sei alle 30 Tage gut zu beobachten, das
letzte Mal vor 5 Tagen. Ich habe leider nur sonntags Zeit, heute ist Mittwoch.
Wann kann ich das nächste Mal den Himmelskörper sehen?
Wir modellieren dies zunächst mit Hilfe von Kongruenzen:
52 3 Äquivalenzrelationen und Kongruenzen

x ≡ 5 = a mod 30 = n, x ≡ 3 = b mod 7 = m.

Dann berechnen wir mit dem euklidischen Algorithmus gemäß des Beweises
des chinesischen Restsatzes u und v mit

1 = ggT(30, 7) = d = un + vm = u · 30 + v · 7.

Wir wissen nach dem Satz, dass dies geht, da a ≡ b mod 1 für alle ganzen
Zahlen gilt. Es ergibt sich: u = −3, v = 13. Nun schreiben wir:

5 = a = b + kd = 3 + 2 · 1,

woraus sich die Lösung

x = a − kun = 5 − 2 · (−3) · 30 = 185 ≡ −25 mod 210

ergibt. Also: in 25 Tagen kann ich den Himmelskörper beobachten (das hätten
wir übrigens auch zu Fuß recht einfach berechnen können).
Wäre heute aber ein Montag, d.h. b = 1, so würden wir folgendes erhalten:

5 = a = b + kd = 1 + 4 · 1,

also: x = 5 − 4 · (−3) · 30 = 365 ≡ 155 ≡ −55 mod 210. Ich müsste also noch
55 Tage warten.

Beispiel 3.31. Oft kann man mit Hilfe des chinesischen Restsatzes ganze Zah-
len schon an wenigen Kongruenzen erkennen. Wir berechnen hier die ganzen
Zahlen, die folgende Kongruenzen erfüllen:

x ≡ 1 mod 2,
x ≡ 2 mod 3,
x ≡ 3 mod 5,
x ≡ 2 mod 7.

2, 3, 5, 7 haben offenbar paarweise keine gemeinsamen Teiler außer 1. Der


chinesische Restsatz sagt uns also, dass eine simultane Lösung für alle vier
Gleichungen existiert. Der Beweis des Satzes erklärt auch, wie wir eine solche
Lösung finden, nämlich mit Hilfe des erweiterten euklidischen Algorithmus.
Es gilt zunächst einmal:

ggT(2, 3) = 1 = u · 2 + v · 3 mit u = −1 und v = 1,

d.h. wegen 1 = 2 + (−1) · 1 ist

x12 = 1 − (−1) · (−1) · 2 = −1

eine simultane Lösung der ersten beiden Kongruenzen, also eine Zahl, für
die gilt: x12 ≡ −1 mod 2 · 3 = 6.
3.5 Der euklidische Algorithmus 53

Weiter gilt: ggT(6, 5) = 1 = u · 6 + v · 5 mit u = 1 und v = −1, d.h. wegen


−1 = 3 + (−4) · 1 ist x123 = −1 − (−4) · 1 · 6 = 23 eine Lösung der ersten drei
Kongruenzen, also x ≡ 23 mod 2 · 3 · 5 = 30.
Zuletzt betrachten wir noch: ggT(30, 7) = 1 = u · 30 + v · 7 mit u = −3 und
v = 13, d.h. wegen 23 = 2 + 21 · 1 ist
x1234 = 23 − 21 · (−3) · 30 = 1913 ≡ 23 mod 210
eine simultane Lösung aller vier Kongruenzen.

3.5.3 Weitere Folgerungen aus dem euklidischen Algorithmus


Vorlesung vom:
Mit Hilfe des euklidischen Algorithmus können wir nun Primzahlen auf 14. November 2008
andere Weise charakterisieren: Qualitätsstand:
erste Version
Korollar 3.32. Sei p ∈ Z>1 . Folgende Aussagen sind äquivalent:

1. p ist eine Primzahl.


2. d | p, d ∈ Z>0 ⇒ d ∈ {1, p}.
3. ∀a, b ∈ Z gilt: p | a · b ⇒ p | a oder p | b.

Beweis. Die Äquivalenz der ersten beiden Aussagen ist die Definition einer
Primzahl; wir müssen also nur noch die Äquivalenz der letzten beiden Aus-
sagen zeigen:

3. ⇒ 2.: Angenommen, 2. ist nicht erfüllt. Dann existiert ein Teiler a | p mit
1 < a < p. Sei also a · b = p. Dann gilt p | a · b, aber p ∤ a und p ∤ b, da
1 < a, b < p. Also: 3. ist nicht erfüllt.
2. ⇒ 3.: Sei 2. erfüllt und p | a · b. Angenommen, p ∤ a. Wir müssen dann p | b
zeigen. Wegen p ∤ a gilt ggT(a, p) < p und wegen 2. folgt: ggT(a, p) = 1.
Nach dem erweiterten euklidischen Algorithmus existieren u, v ∈ Z mit
1 = ua + vp. Damit folgt:
p | ab ⇒ p | uab ⇒ p | (uab + vpb) = (ua + vp) · b = b,
also: p | b.

Wir können jetzt zeigen, dass jede ganze Zahl in Primfaktoren zerlegbar ist:

Satz 3.33 (Fundamentalsatz der Arithmetik). Sei 0 , n ∈ Z. Dann existieren


ε ∈ {1, −1}, r ∈ N und nicht notwendig verschiedene Primzahlen p1 , . . . , pr , so dass

r
n = εp1 · · · pr = ε pi .
i=1

Die Darstellung ist eindeutig bis auf die Reihenfolge der Faktoren.
54 3 Äquivalenzrelationen und Kongruenzen

Beweis. Existenz: Induktion nach |n|. Ohne Einschränkung (oft o.E. abgekürzt)
sei n > 0, also ε = 1. Ist n = 1, so ist ε = 1 und r = 0. Ist n eine Primzahl, dann
können wir r = 1, p1 = n wählen.
Andernfalls existieren Faktoren a, b ∈ Z>1 mit a · b = n. Wegen |a|, |b| < |n| exis-
tieren für a und b Primfaktorzerlegungen nach der Induktionsvoraussetzung,
etwa
a = p1 · · · pra , b = q1 · · · qrb .
Dann ist r = ra + rb und

n = a · b = p1 · · · pra · q1 · · · qrb .

Eindeutigkeit: Ohne Einschränkung sei n > 0. Angenommen,

n = p1 · · · pr = q1 · · · qs

mit pi , q j Primzahlen. Wir müssen zeigen, dass dies bis auf Reihenfolge die
gleiche Faktorisierung ist. Insbesondere müssen wir r = s zeigen. Wieder
verwenden wir Induktion, und zwar nach r. Wegen

pr | n = q1 · · · qs

gilt pr | qk für ein gewisses k nach Eigenschaft 3. von Korollar 3.32 über die
Charakterisierung von Primzahlen. Da qk eine Primzahl ist, folgt pr = qk und
nach Umnummerierung der q j dürfen wir k = s annehmen. Wir haben also

p1 · · · pr−1 · pr = q1 · · · qs−1 · pr .

Es folgt:
p1 · · · pr−1 = q1 · · · qs−1 .
Dies ist ein Produkt aus weniger Faktoren, so dass nach der Induktionsvor-
aussetzung folgt:
r − 1 = s − 1, d.h. r = s
und
p1 · · · pr−1 = q1 · · · qr−1 ,
bis auf Reihenfolge der Faktoren. ⊓

Wir haben weiter oben das kleinste gemeinsame Vielfache schon kennen
gelernt; mit dem obigen Satz können wir es nun formal einführen:

Definition 3.34. Seien a, b ∈ Z>0 . Dann bezeichnet kgV(a, b) das kleinste ge-
meinsame Vielfache (englisch: lowest common multiple lcm(a, b)) von a und b.
Das kgV existiert und es gilt:

a·b
kgV(a, b) = .
ggT(a, b)
3.5 Der euklidische Algorithmus 55

Aufgaben

Aufgabe 3.1 (Äquivalenzrelationen). Auf M = N × N definieren wir eine


Relation ∼ durch
(a, b) ∼ (c, d) ⇐⇒ a + d = b + c

1. Zeigen Sie, dass ∼ eine Äquivalenzrelation auf M ist.


2. Beschreiben Sie die Äquivalenzklassen [(1,1)] und [(3,1)].
3. Wir definieren eine Addition auf M/∼ durch komponentenweise Additi-
on, d.h.:
[(a, b)] + [(c, d)] = [(a + c, b + d)].
Zeigen Sie die Wohldefiniertheit, d.h. zeigen Sie, dass für (a, b) ∼ (a′ , b′ )
und (c, d) ∼ (c′ , d′ ) auch (a + c, b + d) ∼ (a′ + c′ , b′ + d′ ) gilt.
4. Die Menge M/∼ mit der so definierten Addition ist eine in der Mathematik
wohlbekannte Menge. Welchen Namen hat diese Menge?

Aufgabe 3.2 (Der chinesische Schäfer). Ein chinesischer Schäfer hat ein Her-
de von höchstens 200 Tieren. Um sie exakt zu zählen, lässt er sie des Abends
immer zu zweit durch ein Gatter laufen und stellt fest, dass ein Tier übrig
bleibt. Am nächsten Abend lässt er die Tiere immer zu dritt durchs Gatter
laufen und stellt ebenfalls fest, dass eins übrigbleibt. Am dritten Tage macht
er dasselbe mit 5 Schafen und stellt wieder fest, dass eines übrig bleibt. Am
vierten Abend schließlich lässt er 7 Schafe auf einmal durchs Gatter, und es
bleibt kein Schaf übrig. Wie groß ist die Herde?

Aufgabe 3.3 (Größter gemeinsame Teiler).

1. Sei a = 2387 und b = 2079. Bestimmen Sie ohne Computer den größten
gemeinsamen Teiler d = ggT(a, b) und die Bézoutkoeffizienten u und v,
d.h. finden Sie u und v mit au + bv = d.
2. Sei a = 139651 und b = 111649. Bestimmen Sie ohne Computer das
kleinste gemeinsame Vielfache von a und b.

Aufgabe 3.4 (Gemeinsame Teiler). Verwenden Sie das Computeralgebrasys-


tem MAPLE, um folgendes Experiment durchzuführen: Wählen Sie zufällig
10.000 Paare von Zahlen zwischen 0 und 106 und zählen Sie, wie viele Paare
einen gemeinsamen Teiler ungleich eins haben. Wiederholen Sie das Experi-
ment für jeweils 10.000 Paare zwischen 0 und 109 bzw. 0 und 1012 . Geben Sie
einen Ausdruck Ihres Maple-Programmes mit ab.

Aufgabe 3.5 (Inverse in Z/n).


56 3 Äquivalenzrelationen und Kongruenzen

1. Zeigen Sie: a ∈ Z/n hat genau dann ein multiplikatives Inverses u ∈ Z/n,
wenn a und n keinen gemeinsamen Teiler haben, d.h. wenn ggT(a, n) = 1
ist.
2. Zeigen Sie: Dieses Inverse u von a ist dann in Z/n eindeutig bestimmt.

Aufgabe 3.6 (Zur Qualität von Primzahltests mit Hilfe des kleinen Satzes
von Fermat). Nach dem kleinen Satz von Fermat gilt: p ist Primzahl =⇒
ap−1 ≡ 1 mod p ∀a mit ggT(a, p) = 1.
Verwenden Sie MAPLE, um zu zeigen, dass die Umkehrung nicht gilt, d.h.
finden Sie eine zusammengesetzte Zahl n, für die an−1 ≡ 1 mod n für alle a
mit ggT(a, n) = 1 gilt.

Aufgabe 3.7 (Kongruenzen). Sei p eine Primzahl und seien a, b ∈ N. Zeigen


Sie:
(a + b)p = ap + bp mod p.

Aufgabe 3.8 (Zahnräder). In der unten stehenden Skizze sehen Sie drei Zahn-
räder, die ineinander greifen und die sich um ihren jeweiligen Mittelpunkt
drehen lassen. Gibt es eine Einstellung der Zahnräder, so dass alle drei Zeiger
(d.h. die dicken Striche) nach oben zeigen? Falls ja, geben Sie an, um wieviele
Zacken man das linke Rad in welche Richtung drehen muss, damit alle drei
Zeiger nach oben zeigen?
Teil II

Analysis in einer Veränderlichen


59

Einführung
4

Die reellen Zahlen

Mit R bezeichnen wir die Menge der (unendlichen) Dezimalzahlen, der reel-
len Zahlen. Wir fassen die Eigenschaften von R in einigen Axiomen zusam-
men, auf die wir alle weiteren Sätze aufbauen werden.
Problem:
mehr sinnvollen Ein-
leitungstext
4.1 Die Körperaxiome

Auf R sind zwei Verknüpfungen +, · erklärt:

+ : R × R → R, (a, b) 7→ a + b,
· : R × R → R, (a, b) 7→ a · b.

R ist ein Körper im Sinne der folgenden Definition:

Definition 4.1. Eine Menge K zusammen mit zwei Abbildungen

+ : K × K → K, (a, b) 7→ a + b,
· : K × K → K, (a, b) 7→ a · b.

heißt ein Körper (Achtung! englisch: field), wenn folgende Axiome erfüllt sind:

K1 (Axiome der Addition):


K1.1: Die Addition ist assoziativ:

(a + b) + c = a + (b + c) ∀ a, b, c ∈ K.

K1.2: Die Addition ist kommutativ:

a+b=b+a ∀ a, b ∈ K.
62 4 Die reellen Zahlen

K1.3: Existenz der 0 (neutrales Element der Addition):


∃0∈K :a+0=a ∀ a ∈ K.

K1.4: Existenz des Negativen:


∀a ∈ K ∃ a′ ∈ K mit a′ + a = 0.
a′ heißt Negatives zu a und wird üblicherweise mit −a bezeichnet.
K2 (Axiome der Multiplikation):
K2.1: Die Multiplikation ist assoziativ:
(a · b) · c = a · (b · c) ∀a, b, c ∈ K.

K2.2: Die Multiplikation ist kommutativ:


a·b=b·a ∀ a, b ∈ K.

K2.3: Existenz der 1 (neutrales Element der Multiplikation):


∃1∈K :1·a=a ∀ a ∈ K.

K2.4: Existenz des Inversen:


∀a ∈ K\{0} ∃ a′ ∈ K mit a′ · a = 1.
a′ heißt Inverses zu a und wird üblicherweise mit a−1 oder 1
a bezeichnet.
K3 (Distributivgesetze): Man kann ausmultiplizieren:
a · (b + c) = a · b + a · c ∀a, b, c ∈ K,
und
(a + b) · c = a · c + b · c ∀a, b, c ∈ K.

Außer den reellen Zahlen kennen wir schon einige andere Körper:

Beispiel 4.2.

1. Q ist ein Körper.


2. Ist p eine Primzahl, so ist Fp := (Z/p, +, ·) ein Körper.
3. Insbesondere ist F2 ein Körper. Addition und Multiplikation kann man
durch folgende Verknüpfungstafeln angeben:

+ 01 · 01
0 01 0 00
1 10 1 01

4. (Z, +, ·) ist kein Körper, da das Axiome K2.4 nicht erfüllt ist, d.h. es exis-
tiert nicht für alle ganzen Zahlen ein Inverses in Z, beispielsweise für
2 ∈ Z. Genauer existiert hier nur für 1, −1 ein Inverses.
4.3 Folgerungen aus den Körperaxiomen 63

4.2 Ringe

Definition 4.3. Eine Menge (R, +, ·) mit zwei Verknüpfungen, für die alle Körpe-
raxiome bis auf K2.4 gefordert werden, heißt ein kommutativer Ring mit 1. Wir
werden meißt nur Ring dazu sagen, da bei uns allgemeine Ringe selten eine Rolle
spielen werden. Ein allgemeiner Ring ist eine Menge, bei der außer K2.4 auch K2.2
und K2.3 nicht gefordert werden.

Beispiel 4.4.

1. Jeder Körper ist ein Ring.


2. (Z, +, ·) ist ein Ring.
3. (Z/n, +, ·) ist ein Ring für jedes n ∈ Z>1 . Dieses Beispiel zeigt, dass in
Ringen aus a · b = 0 nicht unbedingt folgt, dass a = 0 oder b = 0 gilt.

4.3 Folgerungen aus den Körperaxiomen

Aus den Körperaxiomen können wir recht schnell einige Folgerungen ziehen,
die uns im Fall der reellen Zahlen geläufig sind:

Proposition 4.5 (Eigenschaften von Körpern). Sei (K, +, ·) ein Körper. Dann
gilt:

1. Die neutralen Elemente 0, 1 ∈ K sind eindeutig bestimmt.


2. Das Negative −a zu a ∈ K und das Inverse a−1 zu a ∈ K\{0} sind eindeutig
bestimmt. Wir schreiben a − b für a + (−b) und ba für a · b−1 .
3. (−1) · (−1) = 1, 0 · a = 0 ∀a ∈ K.
4. In Summen und Produkten kommt es nicht auf Klammern und Reihenfolge an,
denn a1 +· · ·+an und a1 · · · an haben stets den gleichen Wert, unabhängig davon,
wie wir Klammern setzen und die Reihenfolge wählen.

Beweis.

1. Sei 0′ ∈ K ein weiteres Nullelement. Dann gilt: 0′ + a = a ∀a ∈ K, insbe-


sondere:
K1.2 K1.3
0 = 0′ + 0 = 0 + 0′ = 0′ .
Genauso:
1 = 1′ · 1 = 1 · 1′ = 1′ .
64 4 Die reellen Zahlen

2. Sei a′ ein weiteres Negatives zu a. Dann gilt also: a′ + a = 0 und daher:

−a = 0 + (−a) = (a′ + a) + (−a)


= a′ + (a + (−a)) = a′ + ((−a) + a)
= a′ + 0 = 0 + a′ = a′ .

Für Inverse a−1 argumentieren wir analog.


3. Es gilt:
0 · a = (0 + 0) · a = 0 · a + 0 · a.
Daraus folgt:

0 = −(0 · a) + 0 · a = −0 · a + (0 · a + 0 · a)
= (−(0 · a) + 0 · a) + 0 · a = 0 + 0 · a
= 0 · a.

Für die andere Aussage gehen wir ähnlich vor:

0 = 0 · (−1) = ((−1) + 1) · (−1)


= (−1) · (−1) + 1 · (−1)
= (−1) · (−1) + (−1).

Dies zeigt: (−1) · (−1) = 1, wegen der Eindeutigkeit des Negativen.


4. Wir betrachten die Addition und führen Induktion nach n durch. Für
n = 2 ist nichts zu zeigen. Der Fall n = 3, d.h.

(a1 + a2 ) + a3 = a1 + (a2 + a3 )

ist das Assoziativgesetz K1.1.


Für den Induktionsschritt n − 1 → n nehmen wir nun an, dass n ≥ 4 und
dass die Behauptung für kleinere n schon gezeigt ist. Sei

(a1 + · · · + ak ) + (ak+1 + · · · + an )

die äußerste Klammerung. Wir zeigen:

(a1 + · · · + ak ) + (ak+1 + · · · + an ) = a1 + (a2 + (· · · + (an−1 + an ) · · · )).

Im Fall k = 1 ist dies klar mit der Induktionsvoraussetzung. Sei also k ≥ 2.


Dann gilt mit der Induktionsvoraussetzung:

a1 + · · · + ak = a1 + (a2 + · · · + ak ),

also:
4.4 Die Anordnungsaxiome 65

(a1 + · · · + ak ) + (ak+1 + · · · + an ) = (a1 + (a2 + · · · + ak )) + (ak+1 + · · · + an )


K1.1 (Ass.)
= a1 + ((a2 + · · · + ak ) + (ak+1 + · · · + an ))
I.−V.
= a1 + (a2 + (a3 + · · · + an )).

Für die Multiplikation argumentiert man genauso.


Schließlich noch zur Reihenfolge: Wir wissen aus dem schon Bewiesenen
und dem Kommutativgesetz, dass
a1 + a2 + · · · + an = a2 + a1 + a3 + · · · an .
Da wir jede Permutation der Summanden von a1 + · · · + an durch wieder-
holtes Vertauschen benachbarter Summanden erhalten können, folgt die
Behauptung.

Da endliche Körper in der Informatik von besonderer Bedeutung sind, geben


Vorlesung vom:
wir noch ein Beispiel dazu:
19. November 2008
Qualitätsstand:
Beispiel 4.6. Der Körper F3 mit genau drei Elementen, oft bezeichnet mit
erste Version
0, 1, −1, d.h. F3 = {0, 1, −1}, hat folgende Verknüpfungstafeln:

+ 0 1 −1 · 0 1 −1
0 0 1 −1 0 0 0 0
1 1 −1 0 1 0 1 −1
−1 −1 0 1 −1 0 −1 1

Die Verknüpfungstabellen von F2 und Z/2 sind identisch und jene von F3
und Z/3 gehen durch −1 7→ 2 ineinander über, d.h. die beiden Körper haben
die gleiche Struktur. Allgemein haben wir schon gesehen, dass Z/p genau
dann ein Körper ist, wenn p eine Primzahl ist.
Gibt es einen Körper mit genau 4 Elementen? Wie wir eben bemerkt haben,
kann Z/4 kein Körper sein, weil 4 keine Primzahl ist. Die Frage wird in den
Übungsaufgaben beantwortet werden.

4.4 Die Anordnungsaxiome

Auf R sind gewisse Elemente mit x > 0 ausgezeichnet.

Definition 4.7. Ein angeordneter Körper ist ein Körper K zusammen mit Teil-
mengen positiver Elemente
{x ∈ K | x > 0},
so dass folgende Axiome erfüllt sind:
66 4 Die reellen Zahlen

A1: Für jedes Element x ∈ K ist genau eine der Eigenschaften x > 0, x = 0 oder
−x > 0 erfüllt.
A2: Sind x > 0 und y > 0, so auch x + y > 0.
A3: Sind x > 0 und y > 0, so auch x · y > 0.

Bemerkung 4.8.

1. Ist K ein angeordneter Körper, dann ist Q ,→ K auf natürliche Weise,


wir können die rationalen Zahlen also als Teilmenge jedes angeordneten
Körpers ansehen.
Dies können wir wie folgt beweisen. Wir betrachten zunächst die Abbil-
dung:
∑n
N → K, n 7→ 1K = n · 1K ,
i=1

wobei 1K das 1–Element im Körper K bezeichnet. Alle Bilder dieser Ab-


bildung sind positiv, denn nach A1–A3 ist:

1K = 1K · 1K = (−1K ) · (−1K ) > 0, da 1K , 0 und 1K > 0 oder − 1K > 0.

Die Abbildung ist injektiv, da, falls n · 1K = m · 1K , n ≥ m, folgt: (n − m) ·


1K = 0 und dies ist nur für n = m möglich. Endliche Körper lassen sich
daher nach dem Schubfachprinzip nicht anordnen (N → F ist für einen
endlichen Körper F (z.B. für F = Fp ) nicht injektiv). Also: N ,→ K.
Z ,→ K ist dann durch −n 7→ n · (−1K ) für n > 0 definiert. Schließlich
definieren wir
a a · 1K
Q ,→ K, 7→ .
b b · 1K
2. Für endliche Körper Fq = F mit q Elementen ist das kleinste Element
p ∈ N mit p · 1F = 0 eine Primzahl.
Wäre nämlich a · b · 1K = 0 mit a · 1K , 0 und b · 1K , 0, so ergäbe
a · b · 1K = (a · 1K ) · (b · 1K ) = 0 einen Widerspruch: Produkte von Elementen
ungleich Null sind in einem Körper stets ungleich Null, denn:

a · b = 0 ∈ K, a , 0 ⇒ b = 1 · b = (a−1 · a) · b = a−1 · (a · b) = a−1 · 0 = 0,

d.h. b = 0.
Diese Primzahl heißt Charakteristik von Fq , notiert: char(Fq ) = p. Ist
Q ⊂ K, so schreiben wir char(K) = 0.

Bemerkung/Definition 4.9. Ist K ein angeordneter Körper, so definieren wir


eine Relation > auf K durch

x > y : ⇐⇒ x − y > 0.
4.5 Irrationale Zahlen 67

Die Relation < ist definiert durch: x < y : ⇐⇒ y > x und die Relation ≥
durch:
x ≥ y : ⇐⇒ x = y oder x > y.
≥ ist eine reflexive und transitive Relation: Offenbar ist nämlich x ≥ x ∀x ∈ K
und ferner folgt aus x ≥ y und y ≥ z, dass x ≥ z, da:

x − y ≥ 0, y − z ≥ 0 ⇒ x − y + y − z = x − z ≥ 0.

Durch {
x, falls x ≥ 0,
|x| :=
−x, falls − x ≥ 0,
ist der Betrag von x definiert. Es gilt:

1. |x| ≥ 0.
2. |x| = 0 genau dann, wenn x = 0.
3. |x · y| = |x| · |y| ∀x, y ∈ K.
4. ∆–Ungleichung:
|x + y| ≤ |x| + |y|.

Die ersten Aussagen sind klar oder einfach zu zeigen, die letzte zeigt man,
indem man alle Fälle von Vorzeichen durchspielt: x > 0, x = 0, −x > 0,
y > 0, y = 0, −y > 0.

Definition 4.10. Ein archimedisch angeordneter Körper ist ein angeordneter


Körper K, der zusätzlich das Axiom

A4: ∀x ∈ K ∃ n ∈ N mit n = n · 1K > x.

erfüllt.

R und Q sind Beispiele für archimedisch angeordnete Körper. Ein Beispiel für
einen nicht archimedisch angeordneten Körper können wir hier noch nicht
geben. In einem nicht archimedisch angeordneten Körper gibt es Elemente
x ∈ K, die größer als jedes n ∈ N, also in gewissem Sinne unendlich groß sind.

4.5 Irrationale Zahlen

Das letzte Axiom, das wir für die Charakterisierung von R benötigen, ist das
sogenannte Vollständigkeitsaxiom. Bevor wir dieses besprechen, sei daran
erinnert, warum wir mit Q nicht zufrieden waren.
68 4 Die reellen Zahlen

Beispiel 4.11. 1. Nach dem Satz des Pythagoras ist die Länge der Diagona-
len c in einem Quadrat der Kantenlänge a = b = 1 wegen a2 + b2 = c2
gerade

c = 2.
Es gilt:

2 < Q.

Man sagt auch, dass 2 irrational ist. Nehmen wir nämlich an, dass
√ p
2 = q mit p, q ∈ Z und ggT(p, q) = 1, dann folgt:

p2
2= ⇐⇒ 2q2 = p2 ⇒ p ist gerade ,
q2

da p2 von 2 geteilt wird. Also:

p = 2k ⇒ 2q2 = (2k)2 = 4k2 ⇒ q2 = 2k2 ⇒ q ist gerade .

2 ist daher ein gemeinsamer Teiler von p und q, was aber ein Widerspruch
zur Voraussetzung ggT(p, q) = 1 ist. Daher muss die Annahme falsch
gewesen sein.
2. Wir wollen allgemein zwei Strecken a, b vergleichen. Wir sagen, dass a und
b kommensurabel (lat. zusammen messbar) sind, falls es ganze Zahlen
k, l ∈ Z gibt, mit:
a = k · d, b = l · d,
wobei d eine gemeinsame Teilstrecke ist (Abb. 4.1). Zwei Strecken heißen

Abbildung 4.1. Kommensurabilität am Beispiel zweier Strecken a und b, die beide


von einer Teilstrecke d geteilt werden. Hier: a = 7·d, b = 5·d, d.h. ba = 57 .

inkommensurabel, wenn sie kein solches gemeinsames Teilstück haben.


Wenn es aber eines gibt, dann können wir es finden, indem wir analog
zum euklidischen Algorithmus die kürzere Strecke von der Größeren
abtragen und den Rest nehmen und mit der kleineren und dem Rest
fortfahren.
Die Pythagoräer haben die Existenz von inkommensurablen Strecken ent-
deckt: sie konnten beweisen, dass die Seite und die Diagonalen in einem
regelmäßigen Fünfeck inkommensurabel sind. Das eben beschriebene
Verfahren des fortwährenden Wegnehmens des Restes bricht nämlich
nicht ab.
4.5 Irrationale Zahlen 69

Abbildung 4.2. Die Inkommensurabilität am regelmäßigen Fünfeck: das Verfahren


des fortwährenden Wegnehmens des Restes bricht nicht ab.

Aufgaben

Aufgabe 4.1 (Endliche Körper).

1. Gibt es einen Körper mit genau 4 Elementen? Falls ja, so geben Sie die
Verknüpfungstafeln an. Beweisen Sie Ihre Antwort.
2. Gibt es einen Körper mit genau 6 Elementen? Falls ja, so geben Sie die
Verknüpfungstafeln an. Beweisen Sie Ihre Antwort.

Aufgabe 4.2 (Karatsubas Algorithmus). Der klassische Multiplikationsalgo-


rithmus für zwei Zahlen a und b mit höchstens n = 2k Bits benötigt O(n2 )
viele Schritte. Karatsubas Algorithmus funktioniert wie folgt:

• Input: Zwei Zahlen a und b mit höchstens n = 2k Bits.


n n
• Zerlege a = a1 + a2 2 2 und b = b1 + b2 2 2 .
• Berechne rekursiv c1 = a1 b1 , c3 = a2 b2 , c2 = (a1 + a2 )(b1 + b2 ) − c1 − c3 .
n
• Gebe als Ergebnis c = c1 + c2 2 2 + c3 2n zurück.

Zeigen Sie: Die Laufzeit des Algorithmus ist in O(nlog2 3 ) ⊂ O(n1,59 ).

Aufgabe 4.3 (Irrationale Zahlen). Zeigen Sie:


√ √ √
1. 3, 15, 45 sind irrational,
√3
2. 2 ist irrational,

3. p ist irrational für jede Primzahl p.
5

Konvergenz

Konvergenz ist die zentrale Idee der Analysis.


Problem:
mehr sinnvollen Ein-
leitungstext
5.1 Folgen

Definition 5.1. Eine Folge (an ) (= (an )n∈N ) reeller Zahlen ist eine Abbildung

N → R, n 7→ an .

Üblicherweise bekommt die Abbildung keinen Namen, sondern man verwendet In-
dizes: an heißt n-tes Folgenglied.

Beispiel 5.2.

1. (an ) = ( n1 ), d.h. an = n1 :
( 1 1 1 )
1, , , , . . . .
2 3 4
2. (an ) = (2n ):
2, 4, 8, 16, . . . .

Beispiele von Folgen kennen wir aus Intelligenztests. Dort besteht die Auf-
gabe oft darin, das nächste Glied einer begonnenen Folge anzugeben, z.B.:

2, 4, 3, 6, 5, 10, 9, 18, . . .

Hier ist das Gesetz dazu:


{
2 · an , für n ungerade,
an+1 =
an − 1, für n gerade.

Weitere Beispiele:
72 5 Konvergenz

Beispiel 5.3.

1. Die Folge ( fn ) = (0, 1, 1, 2, 3, 5, 8, 13, . . . ), also


fn+1 = fn + fn−1 für n ≥ 2 und f1 = 0, f2 = 1,
heißt Folge der Fibonacci–Zahlen (siehe auch Abschnitt 1.3.4).
2. Die Folge
(an ) = (1, 2, 4, 6, 10, 12, 16, 18, 22, . . . )
gehorcht dem Gesetz: an = n–te Primzahl −1.

In der Analysis werden Folgen verwendet, um eine gesuchte Zahl besser und
besser zu approximieren:
(3, 3.1, 3.14, 3.141, 3.1415, . . . )
approximiert die Kreiszahl
π = 3.141592 . . .
immer besser, je größer n ist. Wir geben dieser Idee einen präzisen Sinn:

Definition 5.4. Sei (an ) eine Folge reeller Zahlen und a ∈ R eine weitere Zahl. (an )
heißt konvergent gegen a, in Zeichen
lim an = a,
n→∞

wenn ∀ε > 0 ∃ n0 = n0 (ε) ∈ N, so dass |an − a| < ε ∀ n ≥ n0 .


a heißt Limes oder Grenzwert der Folge (an ).

Beispiel 5.5.

1. (an ) = ( n1 ). Es gilt: limn→∞ n1 = 0, denn ist ε > 0 vorgegeben, so existiert


nach dem Archimedischen Axiom ein n0 mit n0 > 1ε und daher:
1 1
ε> ≥ ∀n ≥ n0 .
n0 n
Also gilt:
1 1 1
−0 = = < ε ∀n ≥ n0 .
n n n
2. Es gilt:
n+1
lim = 1.
n→∞ n
In der Tat gilt:
n+1 1 1
−1 = ≤ < ε für n0 < ε ,
n n n0
wie im vorigen Beispiel. Also: n0 = ⌈ 1ε ⌉.
5.1 Folgen 73

3. Die konstante Folge (an ) mit an = a für ein gewisses festes a konvergiert
gegen a.
4. Die Folge ((−1)n ) konvergiert nicht, denn: Ist limn→∞ (−1)n = a für ein a,
so existiert zu ε = 1 ein n0 , so dass

(−1)n − a < 1 ∀n ≥ n0 .

Insbesondere gilt:

2 = (−1)n0 − a + a + (−1)n0 +1
∆–Ungl.
≤ (−1)n0 − a + a − (−1)n0 +1
< 1 + 1 = 2.

Dies ist ein Widerspruch.


Vorlesung vom:
Bemerkung 5.6. Für jedes ε > 0 liegen bis auf endlich viele Folgenglieder an 21. November 2008
alle Folgenglieder einer gegen a konvergenten Folge in dem Intervall Qualitätsstand:
erste Version
]a − ε, a + ε[,

wobei dies wie folgt definiert ist.

Definition 5.7. Wir definieren für a, b ∈ R mit a ≤ b die folgenden Intervalle:

[a, b] := {x ∈ R | a ≤ x ≤ b} (geschlossenes Intervall),


]a, b[ := {x ∈ R | a < x < b} (offenes Intervall),
[a, b[ := {x ∈ R | a ≤ x < b} (halboffenes Intervall),
]a, b] := {x ∈ R | a < x ≤ b} (halboffenes Intervall).

Manchmal schreibt man für ]a, b[ auch (a, b) etc.

Bemerkung 5.8. Der Grenzwert a = lim an einer konvergenten Folge ist ein-
deutig bestimmt.

Beweis. Sei a′ ∈ R ein weiterer Grenzwert. Dann gibt es zu ε > 0 Zahlen n1 , n2 ,


so dass
|an − a| < ε ∀ n ≥ n1 , |an − a′ | < ε ∀ n ≥ n2 .
Dann gilt für n ≥ max(n1 , n2 ):

|a − a′ | = |a − an + an − a′ | ≤ |a − an | + |an − a′ | < ε + ε = 2ε.

Also: |a − a′ | < 2ε für jedes beliebige ε > 0 und daher: a = a′ . ⊔


Satz 5.9 (Rechenregeln für Grenzwerte). Es seien (an ), (bn ) zwei konvergente
Folgen mit Grenzwerten a = lim an , b = lim bn . Dann gilt:
74 5 Konvergenz

1. Auch die Folge (an +bn ) ist konvergent mit Grenzwert a+b. Mit anderen Worten:
lim (an + bn ) = lim an + lim bn ,
n→∞ n→∞ n→∞

falls die rechte Seite existiert.


2. Die Folge der Produkte (an · bn ) konvergiert mit Grenzwert a · b bzw.:
lim (an · bn ) = lim an · lim bn ,
n→∞ n→∞ n→∞

falls die rechte Seite existiert.


( )
an
3. Ist b , 0 und bn , 0 für alle n, so konvergiert auch die Folge bn und es gilt:
an lim an a
lim = = .
n→∞ bn lim bn b
Beweis.

1. Sei ε > 0 vorgegeben. Nach Voraussetzung ∃n1 , n2 ∈ N, so dass


ε ε
|an − a| <
∀ n ≥ n1 und |bn − b| < ∀ n ≥ n2 .
2 2
Dann gilt für n0 = max(n1 , n2 ):
∆–Ungl. ε ε
|an + bn − (a + b)| = |an − a + bn − b| ≤ |an − a| + |bn − b| < + = ε ∀n ≥ n0 .
2 2
2. Wir verwenden die ∆–Ungleichung in der Form:
|an bn − ab| = |an bn − an b + an b − ab|
≤ |an bn − an b| + |an b − ab| = |an | · |bn − b| + |b| · |an − a|.
Nach Voraussetzung existiert zu ε = 1 ein n1 , so dass
|an − a| < 1 ∀n ≥ n1 ⇒ |an | ≤ |a| + 1 ∀n ≥ n1 , |bn | ≤ |b| + 1.
ε
Für 2(|a|+1) > 0 existiert ein n3 , so dass
ε
|an − a| < ∀n ≥ n3 .
2(|b| + 1)
Sei dann n0 = max(n1 , n2 , n3 ). Dann gilt:
|an bn − ab| ≤ |an | · |b − bn | + |b| · |an − a|
≤ (|a| + 1) · |b − bn | + (|b| + 1) · |an − a|
ε ε
< (|a| + 1) · + (|b| + 1) ·
2(|a| + 1) 2(|b| + 1)
ε ε
= +
2 2
= ε.
für alle n ≥ n0 = max(n1 , n2 , n3 ).
5.1 Folgen 75

3. Die wesentliche Abschätzung ist dieses Mal:


an a an b − abn
| − |=| |
bn b bn b
|an b − ab + ab − abn |
=
|bn b|
|an b − ab| + |ab − abn |

|bn | · |b|
|an − a| · |b| |a| · |b − bn |
≤ + .
|bn | · |b| |bn | · |b|
|b| |b|
Zu ε = 2 > 0 ∃n1 , so dass |bn − b| < 2 ∀n ≥ n1 , d.h.
|b| |b|
|bn | > |b| −
= ∀n ≥ n1
2 2
wegen der Konvergenz von (bn ) gegen b , 0. Also gilt für n ≥ n1 :
an a |an − a| |bn − b| |an − a| |a| · |bn − b|
− ≤ + |a| · ≤ + .
bn b |bn | |bn | · |b| |b|/2 |b|/2
ε·|b|
Sei ε > 0. dann existiert ein n2 , so dass |an − a| < 4 ∀n ≥ n2 und es
|b|
2
existiert ein n3 , so dass |bn − b| < 1
(|a|+1) · 4 · ε. Damit gilt:

an a ε · |b| 2 |b|2 2
|
− |< · + (|a| + 1) · ·ε· 2
bn b 4 |b| 4 · (|a| + 1) |b|
ε ε
= + = ε.
2 2
für alle n ≥ n0 = max(n1 , n2 , n3 ).

Beispiel 5.10. Wir betrachten die Folge (an ) mit

n2 + 2n − 1 1+ 2
n − 1
n2
an = = .
2n + 3n + 1 2 +
2 3
n + 1
n2

Nun gilt:
1 1 1 1
lim = 0 ⇒ 0 = lim · lim = lim 2 .
n→∞ n n→∞ n n→∞ n n→∞ n
Es folgt:
2 1 1 1
lim (1 + − ) = lim 1 + lim 2 − lim 2 = 1 + 2 · 0 − 0 = 1.
n→∞ n n2 n→∞ n→∞ n n→∞ n

Ähnlich können wir limn→∞ (2 + 3


n + 1
n2
) = 2 zeigen, so dass sich insgesamt
ergibt:
1+ 2
n − 1
n2 1
lim an = = .
n→∞ 2+ 3
n + 1
n2
2
76 5 Konvergenz

5.2 Beispiele für Folgen in der Informatik

Sei A ein Algorithmus, den wir mit Eingabe unterschiedlicher Längen n


aufrufen können.
Problem:
und weiter???
Beispiel 5.11. Addition zweier Zahlen mit n Ziffern. Sei an := maximale Lauf-
zeit dieses Algorithmus für eine Eingabe der Länge n. (an ) ist eine Folge reeller
Zahlen. Schriftliche Addition ist bekannt:
an−1 · · · a2 a1 a0
bn−1 · · · b2 b1 b0
cn−1 · · · c2 c1
dn−1 · · · d2 d1 d0 .

Die Addition von zwei bzw. drei einstelligen Zahlen kann man in einer Tabelle
nachschlagen. Brauchen wir hierfür t Takte, so benötigen wir insgesamt n · t
Takte. Ist ein Takt s Sekunden lang, so erhalten wir:

an = n · t · s.

5.3 Landau–Symbole (O– und o–Notation)

Sei (an ) eine Folge positiver reeller Zahlen und (bn ) eine weitere solche Folge.
Dann sagen wir:

bn ∈ O(an ) (bn ) wächst höchstens wie (an ),

falls eine Konstante c > 0 und ein n0 ∈ N existieren, so dass

|bn | ≤ c · an ∀n ≥ n0 .

Beispiel 5.12. n · t · s ∈ O(n). Die Aussage, dass sich zwei Zahlen mit n Stellen
in der Laufzeit O(n) addieren lassen, ist in vielerlei Hinsicht viel besser und
informativer als die genaue Formel, da sie über die Laufzeit für große n eine
gut vergleichbare Aussage macht.

Wir schreiben
(bn ) ∈ o(an ),
falls limn→∞ bann = 0, also:
{ bn }
o(n) = (bn ) lim =0 .
n→∞ an

O(n) und o(n) heißen auch Landau–Symbole (es gibt noch weitere davon,
wir beschränken uns hier aber auf diese beiden).
5.5 Das Vollständigkeitsaxiom 77

5.4 Aufwandsanalyse der Multiplikation

Bei der schriftlichen Multiplikation zweier Zahlen a, b mit n bzw. m Ziffern


müssen wir n·m Gedächtnisleistungen für das kleine Einmaleins durchfüh-
ren; der Aufwand ist also insgesamt in O(n·m) bzw. O(n2 ), falls n = m. Es geht
auch schneller:

Algorithmus 5.13 (Karatsuba, 1962).

Input: Zwei natürliche Zahlen a, b mit n = 2k Binärstellen.


Output: Das Produkt a · b.

1. Schreibe a = a0 + a1 2n/2 , b = b0 + b1 2n/2 mit a0 , a1 , b0 , b1 Zahlen mit 2k−1


Binärziffern.
2. Berechne a0 b0 , (a0 +a1 )(b0 +b1 ), a1 b1 durch rekursives Aufrufen des Algorithmus.
3. Gebe das Ergebnis

a0 b0 + [(a0 + a1 )(b0 + b1 ) − a0 b0 − a1 b1 ] · 2n/2 + a1 b1 2n

aus.

Der dritte Schritt involviert die Addition von mehreren Zahlen mit 2n/2 Bi-
närstellen, ist also von der Ordnung O( n2 ) = O(n). Entscheidend ist, dass im
zweiten Schritt nur drei statt vier Multiplikationen notwendig sind. Daher
ist nämlich der Aufwand für die Multiplikation von zwei n–stelligen Binär-
zahlen von der Ordnung

O(nlog2 3 ) ⊂ O(n1.59 ),

wie wir in einer Aufgabe zeigen werden. Dies ist viel besser als O(n2 ).
Multiplikation geht noch wesentlich schneller; es gilt nämlich sogar:

Satz 5.14 (Schönhage–Strassen, 1971). Zwei n–stellige Zahlen lassen sich mit
Aufwand O(n log n log log n) multiplizieren.

Näheres dazu in Veranstaltungen zu Datenstrukturen und Algorithmen oder


Computeralgebra.

5.5 Das Vollständigkeitsaxiom


Vorlesung vom:
Wir möchten das sogenannte Vollständigkeitsaxiom von R formulieren. 26. November 2008
Grob gesehen sagt das Axiom, dass jede Folge, die so aussieht wie eine Qualitätsstand:
konvergente Folge, tatsächlich konvergiert. erste Version
78 5 Konvergenz

Definition 5.15. Sei (an ) eine Folge reeller Zahlen. (an ) heißt nach oben be-
schränkt, nach unten beschränkt bzw. beschränkt, wenn es eine Konstante k ∈ R,
genannt Schranke, gibt, so dass

an ≤ k ∀n ∈ N,
an ≥ k ∀n ∈ N bzw.
|an | ≤ k ∀n ∈ N.

(an ) heißt monoton fallend bzw. monoton steigend (auch monoton wachsend
genannt), wenn an ≥ an+1 ∀n ∈ N bzw. an ≤ an+1 ∀n ∈ N. Eine monotone Folge
ist eine Folge, die monoton steigend oder monoton fallend ist.
(an ) heißt streng monoton fallend, streng monoton wachsend bzw. streng mo-
noton, falls die entsprechenden Ungleichungen strikt sind.

Bemerkung 5.16. Jede konvergente Folge ist beschränkt.

Beweis. Sei (an ) eine konvergente Folge mit lim an = a. Dann gibt es zu ε = 1
ein n0 , so dass |an − a| ≤ 1 ∀n ≥ n0 . Es folgt: |an | ≤ |a| + 1 ∀n ≥ n0 . Also:
M = max{|a1 |, . . . , |an−1 |, |a| + 1} ist die Schranke für |an |. ⊓

Definition 5.17. Eine Folge (an ) heißt Cauchy–Folge, wenn

∀ε > 0 ∃n0 ∈ N, so dass |an − am | < ε ∀n, m ≥ n0 .

Bemerkung 5.18. Jede konvergente Folge ist eine Cauchy–Folge.

Beweis. Sei (an ) eine konvergente Folge mit lim an = a und sei ε > 0 vorgege-
ben. Da (an ) gegen a konvergiert, ∃n0 , so dass |an − a| < 2ε ∀n ≥ n0 . Also:

∆–Ungl. ε ε
|an − am | = |an − a + a − am | ≤ |an − a| + |a − am | < + = ε ∀n, m ≥ n0 .
2 2

Das Vollständigkeitsaxiom von R können wir nun so formulieren:

Satz 5.19 (Vollständigkeitsaxiom (Cauchy–Kriterium)). Jede Cauchy–Folge


reeller Zahlen konvergiert in R, d.h. ist (an ) eine Cauchy–Folge, dann ∃ a ∈ R,
so dass (an ) gegen a konvergiert.

Das Vollständigkeitsaxiom lässt sich auch anders formulieren:

Satz 5.20 (Vollständigkeitsaxiom, 2. Version). Jede monotone beschränkte Folge


konvergiert.
5.5 Das Vollständigkeitsaxiom 79

Beweis (nur eine Plausibilitätsüberlegung). Diese Version machen wir uns


für R, definiert als Menge der unendlichen Dezimalzahlen, plausibel: Sei
R = { Dezimalzahlen }. Es genügt, die Aussage für monoton fallende Folgen
positiver Zahlen zu zeigen. Sei (an ) eine Folge reeller Zahlen mit an ≥ an+1 ∀n
und an ≥ 0 ∀n. Wir bestimmen sukzessive die Dezimalzahlentwicklung des
Grenzwerts a. Sei dazu ⌊a1 ⌋ = k der ganze Anteil von a1 . Dann liegen al-
le Glieder der Folge in dem Intervall [0, k + 1[, was wir in k + 1 disjunkte
Teilintervalle
[0, 1[∪[1, 2[∪ · · · ∪ [k, k + 1[
zerlegen. Da (an ) monoton fallend ist, gibt es genau ein Teilintervall [i, i + 1[,
das unendlich viele Glieder der Folge enthält. Dann ist i der ganze Anteil des
Grenzwerts. Anschließend zerlegen wir [i, i+1[ wiederum in 10 Teilintervalle:

[i, i + 1[= [i.0, i.1[∪[i.1, i.2[∪ · · · ∪ [i.9, i + 1[.

Wieder gibt es genau ein Teilintervall [i.i1 , i.(i1 + 1)[, welches unendlich vie-
le Elemente der Folge enthält. Dann ist i1 die erste Nachkommastelle (bzw.
Nachpunktstelle in der obigen Notation) des Grenzwerts. Als nächstes zer-
legen wir [i.i1 , i.i1 + 0.1[ in 10 Teilintervalle, um die zweite Nachkommastelle
i2 zu bestimmen usw. Auf diese Weise können wir sämtliche Dezimalstellen
ik des Grenzwertes
a = i.i1 i2 i3 . . .
bestimmen. ⊓

Warum ist das Vorige kein Beweis? Der Grund ist, dass in der Definition
der unendlichen Dezimalzahlen schon der Begriff Konvergenz eingeht. Dass
Folgen, die durch Dezimalbruchentwicklung definiert werden, wie

3.14, 3.141, 3.1415, . . .

konvergieren, können wir so nicht zeigen.

Definition 5.21. Sei (an ) eine Folge und

n1 < n2 < · · · < nk < · · ·

eine streng monoton wachsende Folge natürlicher Zahlen. Dann nennen wir die
Folge (ank )k∈N eine Teilfolge von (an ).

Satz 5.22. Jede Folge besitzt eine monotone Teilfolge.

Beweis. Sei (an ) eine Folge. Wir nennen das Glied am einen Hochpunkt der
Folge, wenn
am > an ∀n ≥ m.
80 5 Konvergenz

Hat die Folge (an ) nur endlich viele Hochpunkte, dann besitzt (an ) eine mono-
ton wachsende Teilfolge. Ist nämlich am der letzte Hochpunkt, so setzen wir
n1 = m + 1 und zu an1 gibt es nach Voraussetzung ein n2 > n1 mit an1 ≤ an2 , zu
an2 ein n3 > n2 mit an2 ≤ an3 und rekursiv ein ank ein nk+1 > nk mit ank ≤ ank+1 .
(ank ) ist dann die gesuchte monoton wachsende Teilfolge.
Hat andererseits (an ) unendlich viele Hochpunkte, so bildet die Teilfolge der
Hochpunkte, n1 < n2 < · · · < nk < · · · mit nk definiert durch ank ist der k–te
Hochpunkt eine monoton fallende Teilfolge. ⊓ ⊔

Satz 5.23. Die zweite Version (Satz 5.20) des Vollständigkeitsaxioms impliziert die
erste (Satz 5.19).

Um diesen Satz beweisen zu können, benötigen wir folgende Aussage:

Satz 5.24. Jede Cauchy–Folge ist beschränkt.

Beweis. Sei (an ) eine Cauchy–Folge. Dann gibt es zu a = 1 ein n0 , so dass


|an − am | < 1 ∀n, m ≥ n0 .
Insbesondere gilt also:
|an − an0 | < 1 ∀n ≥ n0
und damit:
|an | ≤ |an0 | + 1 ∀n ≥ n0 .
Mit { }
M = max |a1 , . . . , |an0 −1 |, |an0 | + 1
haben wir dann eine Schranke für die Folge (an ) gefunden. ⊔

Beweis (von Satz 5.23). Jede Teilfolge einer Cauchy–Folge (an ) ist ebenfalls eine.
Insbesondere gibt es eine monotone beschränkte Teilfolge (ank ) von (an ). Nach
der zweiten Version des Vollständigkeitsaxioms hat (ank ) einen Grenzwert
lim ank = a.
k→∞

Wir zeigen, dass auch limn→∞ an = a gilt. Sei dazu ε > 0 vorgegeben. Dann
existiert ein k0 mit
ε
|ank − a| < ∀ k ≥ k0
2
und es gibt ein n0 mit
ε
|am − an | < ∀n ≥ n0 .
2
Sei nun N = max{k0 , n0 }. Für n ≥ N gilt dann:
ε ε
|an − a| = |an − ank0 | + |ank0 − a| < + ,
2 2
was zu zeigen war. ⊓

5.5 Das Vollständigkeitsaxiom 81

Satz 5.25. Das Vollständigkeitsaxiom (Satz 5.19) impliziert die zweite Version des
Vollständigkeitsaxioms (Satz 5.20).

Beweis. Wir verwenden das Argument der Plausibilitätsüberlegung für die


Richtigkeit der zweiten Version. Sei (an ) eine monotone, beschränkte Folge.
Sei M eine Schranke, also |an | < M ∀n ∈ N. Wir zeigen zunächst, dass (an )
eine Cauchy–Folge ist. Sei ε > 0 vorgegeben. Wir wählen N ∈ N mit N > 2ε M

(N existiert nach dem archimedischen Axiom, siehe Def. 4.10). Dann ist


2N−1
[−M, M[⊂ [−M, −M + 2εN[= [−M + kε, −M + (k + 1)ε[
k=0

eine disjunkte Zerlegung. Wegen der Monotonie der Folge (an ) gibt es genau
ein Teilintervall
[ −M + kε, −M + (k + 1)ε [,
das alle bis auf endlich viele an enthält. Gilt etwa

an ∈ [ −M + kε, −M + (k + 1)ε [ ∀n ≥ n0 ,

so folgt:
|an − am | < ε ∀n, m ≥ n0 .
Nach dem Cauchy–Kriterium hat die Folge (an ) einen Grenzwert a ∈ R.
Somit ist gezeigt, dass jede monotone, beschränkte Folge konvergiert, wenn
das Cauchy–Kriterium erfüllt ist. ⊓⊔

Weitere Axiome zur Charakterisierung der rellen Zahlen benötigen wir nicht:

Satz 5.26. Seien R und R′ zwei archimedisch angeordnete Körper, die beide das
Vollständigkeitsaxiom erfüllen. Dann gibt es genau eine bijektive Abbildung

φ : R → R′ ,

die alle Strukturen erhält. Etwa: φ(a + b) = φ(a) + φ(b), a > b ⇒ φ(a) > φ(b) usw.

Beweis. Da R und R′ angeordnet sind und die Charakteristik 0 haben, lässt


sich Q als Teilmenge von R und R′ auffassen:
Problem:
∃φ to do: subsets im Dia-
RO / R′
O gramm

? idQ ?
Q /Q

Wir werden φ so konstruieren, dass


82 5 Konvergenz

φ Q : Q → R′ , φ Q (x) = φ(x)

(man sagt φ eingeschränkt auf Q) die Identität idQ auf Q ist, d.h. φ Q = idQ .
Sei dazu a ∈ R gegeben. Zu ε = n1 wählen wir eine rationale Zahl an ∈]a − ε, a +
ε[. Zum Beispiel können wir an in der Form mn wählen mit einem geeigneten
m ∈ Z, denn da der Durchmesser des Intervalls (a + ε) − (a − ε) = 2ε = n2 ist,
enthält es wenigstens eine der Zahlen mn .
Die Folge (an ) konvergiert dann gegen a ∈ R: Zu ε > 0 existiert ein n0 > 1ε nach
dem archimedischen Axiom und |an − a| < n1 ≤ n10 < ε ∀n ≥ n0 . Die Bilder
φ(an ) ∈ Q ⊂ R′ sind schon definiert, da an ∈ Q. Die Folge (φ(an )) ist eine
Cauchy–Folge in R′ , da das Cauchy–Kriterium für ε der Gestalt ε = m1 ∈ Q
mit m ∈ N erfüllt ist. Nach dem archimedischen Axiom genügt es, solche ε
zu betrachten.
Sei a′ = limn→∞ φ(an ) ∈ R′ , der Grenzwert a′ existiert nach dem Vollständig-
keitsaxiom in R′ . Wir definieren dann φ(a) := a′ ∈ R′ . Man kann sich ohne
allzu große Mühe folgendes überlegen:

1. Die so definierte Abbildung φ : R → R′ ist wohldefiniert, d.h. unabhängig


von der Wahl der Cauchy–Folge (an ) in Q mit lim an = a.
2. φ ist bijektiv.
3. φ respektiert sämtliche Strukturen. Also: φ(a + b) = φ(a) + φ(b), φ(a · b) =
φ(a) · φ(b), a < b ⇒ φ(a) < φ(b).

5.6 Quadratwurzeln
Vorlesung vom:
Die Einführung der reellen Zahlen haben wir beispielsweise motiviert durch
28. November 2008 √ √
Qualitätsstand: 2 < Q. Für jede reelle Zahl b > 0 existiert a = b ∈ R, d.h. eine reelle Zahl
erste Version a ≥ 0, genannt die Quadratwurzel von b, mit a2 = b. Wir können dies aus den
Axiomen folgern:

Satz 5.27. Sei b > 0 eine reelle Zahl. Die durch


1( b)
an+1 = an +
2 an
rekursiv definierte Folge konvergiert für jeden beliebigen√Startwert a0 > 0 und der
Grenzwert a = limn→∞ an (> 0) erfüllt a2 = b, d.h. a = b.

Beweis. Wir gehen schrittweise vor:


5.6 Quadratwurzeln 83

1. Zunächst einmal ist an , 0 zu beweisen, damit die Folge überhaupt


definiert ist. Wir zeigen: an > 0 ∀n mit Induktion. a0 > 0 ist nach Voraus-
setzung richtig. Induktionsschritt: an > 0, b > 0 ⇒ abn > 0 ⇒ an + abn > 0
⇒ an+1 = 12 (an + abn ) > 0.
2. Es gilt a2n ≥ b ∀b ≥ 1, denn:
1( b )2
a2n − b = an−1 + −b
4 an−1
1( b2 )
= a2n−1 + 2b + 2 −b
4 an−1
1( b2 )
= a2n−1 − 2b + 2
4 an−1
1 ( b 2 )
= an−1 −
4 an−1
≥ 0.

3. Es gilt: an+1 ≤ an für alle n ≥ 1, denn:


1( b)
an − an+1 = an − an +
2 an
1( b) 1 ( 2 )
= an − = an − b
2 an 2an
≥ 0.
nach dem vorigen Schritt.
4. (an )n≥1 ist also eine monoton fallende Folge positiver Zahlen. Nach dem
Vollständigkeitsaxiom (zweite Version) existiert daher der Grenzwert a =
limn→∞ an .
5. Wir zeigen: a2 = b. Wegen dem vorigen Schritt konvergiert die Folge
(an+1 · an ) ebenfalls und es gilt:
lim(an · an+1 ) = lim an · lim an+1 = a2 .
Andererseits ist
1( 2 )
an · an+1 = an + b ,
2
also:
( ) 1( )
a2 = lim an · an+1 = lim an2 + b
2
1( ) 1( )
= (lim an ) + b = a2 + b
2
2 2
nach den Rechenregeln für Grenzwerte. Schließlich folgt damit: 12 a2 = 12 b
bzw. a2 = b.
84 5 Konvergenz


Beispiel 5.28. Wir wenden den im Beweis von Satz 5.27 angegebenen Algo-
rithmus zur Berechnung der Quadratwurzel an:

1. b = 4, a0 = 1. Der korrekte Grenzwert ist also b = 2. Es ergibt sich
folgende Tabelle:
b
n an an
0 1 4
1 2.5 1.6
2 2.05 1.95121
3 2.0006097 . . .

2. Für b = 2 und a0 = 1 erhalten wir als Grenzwert 2:
b
n an an
0 1 2
1 1.5 1.3333 . . .
2 1.41666 . . . 1.41176
3 1.4142 1.414211
4 1.414213 ...

Bemerkung 5.29. Sei b > 0. Die Konvergenz der Folge

1( b)
an+1 = an +
2 an

gegen a = b ist bemerkenswert schnell: Wir definieren den relativen Fehler
fn von an durch die Formel

an = a · (1 + fn ).

Dann ist fn ≥ 0 für n ≥ 1. Einsetzen in die Gleichung an+1 = 12 (an + b


an ) ergibt:

1 a2
a(1 + fn+1 ) = (a(1 + fn ) +
2 a(1 + fn )

bzw.
1( 1 ) 1 2 + 2 fn + fn2
1 + fn+1 = (1 + fn ) + = · .
2 1 + fn 2 1 + fn
Es folgt:
1 fn2 1
fn+1 = · ≤ · min{ fn , fn2 }.
2 1 + fn 2
5.7 Zur Existenz der reellen Zahlen 85

Ist also der relative Fehler fn ≥ 1, so halbiert er sich wenigstens in jedem


Schritt. Ist nun fn < 1, dann ist fn+1 = 21 · fn2 . In diesem Fall verdoppeln
sich die relevanten Stellen mit jedem Iterationsschritt. Man spricht daher von
quadratischer Konvergenz.

Bemerkung 5.30 (Monotonie der Quadratwurzel). Seien x, y ∈ R>0 . Dann


gilt:
√ √
x > y ⇐⇒ x > y,
denn:
√ √ √ √ (√ √ )
( x− y)·( x+ y)=x−y =⇒ x − y > 0 ⇐⇒ x − y > 0 .
| {z }
>0

5.7 Zur Existenz der reellen Zahlen

Nach Satz 5.26 ist es egal, wie wir uns von der Existenz von R überzeugen.
Zwei Konstruktionen von R aus Q sind gebräuchlich:

• Cauchy–Folgen modulo Nullfolgen,


• Dedekindsche1 Schnitte.

Beide werden wir kurz erläutern.

5.7.1 Cauchy–Folgen modulo Nullfolgen

Definition 5.31. Eine Nullfolge (an ) ist eine Folge, die gegen 0 konvergiert. Wir
betrachten jetzt

M = {(an ) | (an ) ist eine Cauchy–Folge rationaler Zahlen }


1
= {(an ) | ∀N > 0∃n0 : |an − am | < ∀n, m ≥ n0 }.
N
Offenbar ist
M ⊂ QN = {N → Q}.
Wir definieren auf M eine Äquivalenzrelation durch

(an ) ∼ (bn ) ⇐⇒ (an − bn ) ist eine Nullfolge .

Dann können wir


R := M/∼
1
Dedekind: Deutscher Mathematiker (1831–1916)
86 5 Konvergenz

als Definition von R verwenden:


Addition und Multiplikation definieren wir repräsentantenweise auf M/∼:

[(an )] + [(bn )] := [(an + bn )].

Dies ist wohldefiniert, da die Summe zweier Nullfolgen eine Nullfolge ist. Die Mul-
tiplikation
[(an )] · [(bn )] := [(an · bn )]
ist wohldefiniert, da Cauchy–Folgen beschränkt sind und da das Produkt einer be-
schränkten Folge mit einer Nullfolge eine Nullfolge ergibt.
Mit diesen beiden Verknüpfungen wird M/∼ ein Körper:

• Die 0 ist die Äquivalenzklasse, die aus allen Nullfolgen besteht.


• Die 1 wir von der Konstanten Folge (1)n∈N repräsentiert.
• Ist [(an )] , 0, also (an ) ist eine Cauchy–Folge, die keine Nullfolge ist, so existiert
ein a = N1 > 0 und ein n0 , so dass

1
|an | ≥ ∀n ≥ n0 .
N
Die Folge {
1, falls n < n0 ,
(bn ) mit bn =
an , falls n ≥ n0 ,
1

repräsentiert das Inverse.


• Schließlich zum Vollständigkeitsaxiom für M/∼: Ist (ak ) eine Cauchy–Folge in
M/∼ mit ak repräsentiert durch die Folge ak = [(akn )n∈N ], so ist die Diagonalfolge
(ann ) ebenfalls eine Cauchy–Folge in Q und man kann recht einfach zeigen, dass
tatsächlich gilt:
lim ak = [(ann )].
n→∞

5.7.2 Dedekindsche Schnitte


Problem:
mündlich: Griechen? Definition 5.32. Eine disjunkte Zerlegung

· mit U, V , 0 und u < v ∀u ∈ U und v ∈ V


Q = U∪V

heißt Dedekindscher Schnitt.

Ein gut gewählter rationaler Dedekindscher Schnitt ist ein Dedekindscher


Schnitt der Gestalt

Ur = {x ∈ Q | x ≤ r}, Vr = {x ∈ Q | x > r},


5.8 Der Satz von Bolzano–Weierstrass 87

wobei r ∈ Q.
Den Schnitt
Ur′ = {x ∈ Q | x < r}, Vr′ = {x ∈ Q | x ≥ r}
nennen wir schlecht gewählt.
Alle anderen Dedekindschen Schnitte nennen wir irrational.
Gut gewählte Schnitte sind entweder irrationale Schnitte oder gut gewählte
rationale Schnitte. Dann können wir

R := { gut gewählter Dedekindscher Schnitt } ⊂ 2Q × 2Q

zur Definition von R nehmen. Der Nachweis sämtlicher Axiome ist länglich,
aber nicht schwierig.
Problem:
Referenz angeben?

5.8 Der Satz von Bolzano–Weierstrass


Vorlesung vom:
Nun forumulieren wir noch eine sehr nützliche Aussage: 3. Dezember 2008
Qualitätsstand:
Satz 5.33 (Bolzano–Weierstrass). Jede beschränkte Folge reeller Zahlen (an ) hat erste Version
eine konvergente Teilfolge.

Beweis. Sei M eine Schranke für (an ), etwa

−M ≤ an ≤ M.

Wir zerteilen sukzessive das Intervall

[−M, M] = [−M, 0] ∪ [0, M]

in jeweils halb so große Intervalle. Wir setzen N1 := −M, M1 := M und n1 = 1.


Sukzessive wählen wir
Nk ≤ ank ≤ Mk ,
so dass unendlich viele Glieder der Folge (an ) im Intervall [Nk , Mk ] liegen. Ist
dies für k getan, dann zerlegen wir
Nk + M k Nk + M k
[Nk , Mk ] = [Nk , ]∪[ , Mk ]
2 2
und wählen
{ Nk +Mk
, wenn [ Nk +M k
, Mk ] ∞ viele Glieder der Folge enthält,
Nk+1 = 2 2
Nk , sonst,


 wenn [ Nk +M
 Mk , , Mk ] ∞ viele Glieder der Folge enthält,
k

Mk+1 =  +M
2
 N k k
, sonst.
2
88 5 Konvergenz

Schließlich wählen wir


nk+1 > nk , so dass ank+1 ∈ [Nk+1 , Mk+1 ].

Dann ist (ank ) eine Cauchy–Folge und damit die gesuchte konvergente Teil-
folge. ⊓

Definition 5.34. Sei M ⊂ R eine Teilmenge. Eine reelle Zahl A heißt obere Schran-
ke von M, wenn a ≤ A ∀a ∈ M gilt. M heißt nach oben beschränkt, wenn es eine
obere Schranke gibt.

Satz/Definition 5.35. Jede nicht leere nach oben beschränkte Teilmenge M ⊂ R


besitzt eine kleinste obere Schranke, d.h. ∃ obere Schranke A ∈ R von M, so dass
A ≤ A′ für jede andere obere Schranke A′ von M gilt. Wir nennen A das Supremum
von M, geschrieben:
sup M := A = kleinste obere Schranke von M.
Analog definieren wir für nach unten beschränkte nicht leere Teilmengen M ⊂ R:
inf M := größte untere Schranke von M,
das Infimum von M.

Beweis (der Existenz des Supremums). Sei A0 eine obere Schranke von M und
a0 ∈ M, also a0 ≤ A0 . Wir definieren zwei Folgen
(an ) mit an ∈ M
und
(An ) obere Schranke von M,
so dass (an ) monoton wächst, (An ) monoton fällt und
0 ≤ An − an ≤ 2−n (A0 − a0 )
gilt. Dann konvergieren beide Folgen und es gilt:
lim an = lim An .
Dieser Grenzwert ist das Supremum von M.
Seien an , An schon gewählt. Dann wählen wir
{ A +a An +an
2 , falls 2
n n
eine obere Schranke ist,
An+1 =
An , sonst.
{
ein Element von M > An2+an , falls An2+an keine obere Schranke ist,
an+1 =
an , sonst.
Die Folgen (an ) und (An ) haben dann die gewünschte Eigenschaft, wie man
leicht nachprüfen kann. Das Infimum ergibt sich analog. ⊓⊔
5.9 Mächtigkeit 89

Beispiel 5.36. Sei


1
M = {(−1)n · (1 − ) | n ∈ N}.
n
Dann gilt: sup(M) = 1, inf(M) = −1.

5.9 Mächtigkeit

Wieviele reelle Zahlen gibt es?

Definition 5.37. Sei M eine Menge. M heißt abzählbar, wenn es eine surjektive
Abbildung φ : N → M gibt.

Beispiel 5.38.

1. Jede endliche Menge ist abzählbar.


2. Z ist abzählbar: Z = {0, 1, −1, 2, −2, . . . }, genauer:


 0, n = 1,

1
φ : N → Z, φ(n) =   2 n, n gerade,

 1
− 2 (n − 1), n ungerade ≥ 3.

3. N × N ist abzählbar. Wir definieren φ : N → N × N durch

(1, 1) / (1, 2) ...


k5 (1, 3) pxpx7
(1, 4)
xxx
k k kkkxxx ppx
x kk x pp x
xx kkk xxx ppp{xxxx
{xkxkkkk {x pp pp
(2, 1) (2, 2) pppp (2, 3) ...
p p
xxx ppp xxx
x p x
xxppp xx
{xpxpp {xx
(3, 1) (3, 2) ...
xx
xx
xxx
{x
(4, 1) ...

Bemerkung 5.39. Ist M abzählbar unendlich, dann gibt es auch eine bijektive
Abbildung φ : N → M.

Beweis. Sei φ : N → M surjektiv. Wir definieren n1 = 1,


ψ(1) = φ(n1 )
und rekursiv, falls ψ(1), . . . , ψ(k) schon definiert sind,
{ }
nk+1 = min n | φ(n) < {ψ(1), . . . , ψ(k)}
und ψ(k + 1) = φ(nk+1 ). ⊔

90 5 Konvergenz

Satz 5.40. Es sei M = ∞ k=1 Mk eine abzählbare Vereinigung von abzählbaren Men-
gen Mk . Dann ist auch M abzählbar.

Beweis. Sei
ψ : N → N × N, n 7→ ψ(n) = (ψ1 (n), ψ2 (n))
die Abzählung von N × N und φk : N → Mk eine Abzählung von Mk . Dann
ist die Abbildung


Φ: N → Mk , Φ(n) = φψ1 (n) (ψ2 (n))
k=1

eine Abzählung von M. ⊓


Korollar 5.41. Q ist abzählbar.

 
Beweis. Sei∪Mk = { nk | n ∈ Z} ⊂ Q. Dann gilt: Mk ← Z ← N ist abzählbar, also
auch Q = ∞ k=1 Mk . ⊔ ⊓

Definition 5.42. Eine Menge, die nicht abzählbar ist, heißt überabzählbar.

Satz 5.43 (Cantors zweites Diagonalargument, 18772 ). R ist überabzählbar.

Beweis. Es genügt zu zeigen, dass [0, 1[⊂ R überabzählbar ist.


Angenommen,
N → [0, 1[, n 7→ an
ist eine Abzählung. Wir betrachten die Dezimalbruchentwicklung der an :

an = 0.an1 an2 . . . ank . . .

mit ank ∈ {0, . . . , 9} die k–te Nachkommastelle von an . Dann sei die Zahl
c = 0.c1 c2 . . . ck . . . mit Ziffern ck durch
{
1, ann , 1,
ck =
2, akk = 1.

definiert. Offenbar gilt dann c , an , da cn , ann . Also ist

N → [0, 1[, n 7→ an

nicht surjektiv. Dies ist ein Widerspruch zur Annahme. ⊔


Die Mengenlehre von Cantor beschäftigt sich mit beliebig großen Mengen.
2
1874 gab er schon einen anderen Beweis. Sein erstes Diagonalargument zeigt,
dass die rationalen Zahlen abzählbar sind.
5.9 Mächtigkeit 91

Definition 5.44 (Cantor). Zwei Mengen M, N heißen gleichmächtig, wenn es eine


bijektive Abbildung φ : M → N gibt. M heißt wenigstens so mächtig wie N, wenn
es eine surjektive Abbildung ψ : M ↠ N gibt. M heißt echt mächtiger als N, wenn
es eine surjektive Abbildung M ↠ N, aber keine bijektive Abbildung M → N gibt.

Man kann unter Verwendung des sogenannten Auswahlpostulats (auch


Auswahlaxiom) zeigen, dass M wenigstens so mächtig wie N und N we-
nigstens so mächtig wie M impliziert, dass M und N gleichmächtig sind. Das
Auswahlpostulat ist dabei folgendes Axiom der Mengenlehre:

Definition 5.45 (Auswahlaxiom). Sei (Mi )i∈I eine Familie von nichtleeren Men-
gen. Dann existiert eine Abbildung

a: I → Mi ,
i∈I

so dass a(i) ∈ Mi für alle i ∈ I gilt. Mit anderen Worten kann man aus den nicht
leeren Mengen Mi gleichzeitig je ein Element auswählen.

Man kann zeigen, dass die Potenzmenge 2M einer Menge M stets echt mäch-
tiger als M ist.

Aufgaben

Aufgabe 5.1 (Die Landau–Symbole). Welche der folgenden Aussagen gilt?

n3 +n+1
1. 2n2 −5
∈ O(n).
n +n+1
3
2. 2n2 −5
∈ o(n).
( )
3. 2n−5

20n n+1000
∈O 1
n .

20n n+1000
4. 2n−5 ∈ O(n).

Aufgabe 5.2 (Quantoren und ε). Sei (an ) eine Folge in R und a ∈ R. Welche
Implikationen bestehen zwischen den folgenden sechs Aussagen?

1. ∀ε > 0 ∃n0 : ∀n ≥ n0 |an − a| < ε,


2. ∃ε > 0 ∃n0 : ∀n ≥ n0 |an − a| < ε,
3. ∀ε > 0 ∀n0 : ∀n ≥ n0 |an − a| < ε,
4. ∃ε > 0 ∀n0 : ∀n ≥ n0 |an − a| < ε,
5. ∃n0 ∀ε > 0 : ∀n ≥ n0 |an − a| < ε,
6. ∃n0 ∀ε > 0 : ∃n ≥ n0 |an − a| < ε.
92 5 Konvergenz

Geben Sie Beispiele von Folgen an, die zeigen, dass weitere Implikationen
nicht bestehen.

Aufgabe 5.3 (Quantoren und ε). Für n ∈ N definieren wir die Folgen:
√ √
an = n + 1000 − n,

√ √
bn = n + n − n,

n √
cn = n + − n.
1000

Zeigen Sie: Für 1 ≤ n < 1.000.000 gilt an > bn > cn , aber

1
lim an = 0, und lim bn = .
n→∞ n→∞ 2

und die Folge (cn )n∈N ist unbeschränkt.

Aufgabe 5.4 (Nullfolgen). Eine Folge (an ) heißt Nullfolge, falls limn→∞ an =
0. Sei (an ) eine Nullfolge, (bn ) eine Cauchy–Folge und (cn ) eine beschränkte
Folge. Zeigen Sie:

1. (an + bn ) ist eine Cauchy–Folge.


2. (an + cn ) und (bn + cn ) sind beschränkte Folgen.

Aufgabe 5.5 (Konvergenz von Folgen). Wir definieren die Folge (an )n∈N0
durch a0 = 1 und √
an = 1 + an−1 ∀n ≥ 1.
Zeigen Sie, dass die Folge konvergiert, und bestimmen Sie den Grenzwert.

Aufgabe 5.6 (Infimum und Supremum). Seien

M1 = {x ∈ Q | x2 < 2} ⊂ R und M2 = {x ∈ Q | x2 > 2} ⊂ R.

Welche dieser Mengen besitzt ein Supremum, welche ein Infimum? Geben
Sie es jeweils an, wenn es existiert.

Aufgabe 5.7 (Abzählbarkeit). Zeigen Sie:

1. Die Menge aller endlichen Teilmengen von N ist abzählbar.


2. Die Menge aller Teilmengen von N ist überabzählbar.
5.9 Mächtigkeit 93

Aufgabe 5.8 (Grenzwerte von Folgen / Teilfolgen). Zeigen Sie, dass die Folge
( √ ) ( )
an = sin π n + cos π log2 (n)

eine konvergente Teilfolge hat und geben Sie eine solche an.

Aufgabe 5.9 (Mächtigkeit). Zeigen Sie, dass die Potenzmenge 2R von R echt
mächtiger ist als die Menge R selbst.
6

Reihen

Vorlesung vom:
... 5. Dezember 2008
Qualitätsstand:
erste Version
Problem:
6.1 Definition und erste Eigenschaften sinnvollen Einlei-
tungstext
Definition 6.1. Sei (ak )k∈N0 eine Folge. Die Folge (sn ) der Partialsummen

n
sn = ak
k=0

nennen wir eine Reihe, die wir mit




ak
k=0

bezeichnen. Ist die Folge (sn ) konvergent, so verwenden wir für den Grenzwert
s = limn→∞ sn die Notation
∑∞
s= ak
k=0

und nennen die Reihe konvergent.



Also: ∞k=0 ak hat zwei Bedeutungen:
∑n
1. die Folge der Partialsummen sn = k=0 ak ,
2. der Grenzwert limn→∞ sn , falls er existiert.

Häufig treten Folgen in der Form von Reihen auf:

Beispiel 6.2.
96 6 Reihen
∑∞ 1
1. n=1 n ,
∑∞ 1
2. n=0 2n ,

3. Dezimalbruchentwicklung: dk ∈ {0, . . . , 9}:




dk · 10−k = 0.d1 d2 d3 . . .
k=1

Wir werden sehen, dass solche Reihen stets konvergieren.


4. Ist (cn )n∈N eine beliebige
∑ Folge, dann ist mit a1 = c1 und ak = ck − ck−1 für
k ≥ 2 eine Reihe ∞ n=1 ak gegeben, deren Partialsummen gerade die Folge
(ck ) bilden.

Eigentlich sind Reihen also gar nichts Neues. Gelegentlich lässt sich dies
verwenden, um Grenzwerte auszurechnen:

Beispiel 6.3 (Teleskopreihen). Wir zeigen:




1
= 1.
n(n + 1)
n=1

Idee:
1 1 1
= − .
n(n + 1) n n + 1
Also:

k
1 ∑( 1
k
1 )
sk = = −
n(n + 1) n n+1
n=1 n=1
1 1 1 1 1 1
= 1− + − + − ··· + −
2 2 3 3 k k+1
1
= 1− .
k+1
Tatsächlich ist demnach limk→∞ sk = 1.
∑∞
Satz 6.4 (Cauchy–Kriterium für Reihen). Eine Reihe k=0 ak konvergiert genau
dann, wenn ∀ε > 0 ein n0 existiert, so dass:

m
ak < ε ∀ m, n ≥ n0 .
k=n

Insbesondere ist also bei einer konvergenten Reihe ak die Folge (ak ) eine Nullfolge.

Beweis. klar. ⊓

6.2 Konvergenzkriterien für Reihen 97

6.2 Konvergenzkriterien für Reihen

Die Konvergenz von Reihen einzusehen ist manchmal sehr einfach, wie wir
gleich an Beispielen sehen werden. Einige Kriterien für ihre Konvergenz sind
besonders leicht anzuwenden. Wir gehen hier auf die wichtigsten ein.

Definition 6.5. Eine alternierende Reihe ist eine Reihe der Gestalt


(−1)k ak ,
k=0

wobei ak ≥ 0 ∀k.

Satz 6.6 (Leibnizkriterium). Ist (an ) eine monoton fallende Nullfolge, so ist die
alternierende Reihe
∑∞
(−1)k ak
k=0

konvergent.

Beweis. Wir betrachten die Teilfolgen (s2n ) und (s2n+1 ) der geraden und unge-
raden Partialsummen. Dann gilt:

s2n+2 = s2n − a2n+1 + a2n+2 ≤ s2n , da a2n+1 ≥ a2n+2 , und


s2n+1 = s2n−1 + a2n − a2n+1 ≥ s2n−1 .
| {z }
≥0

Ferner ist
s2n+1 = s2n − a2n+1 ≤ s2n .
Es folgt:

s0 ≥ s2 ≥ · · · ≥ s2n ≥ s2n+2 · · · und · · · s2n+1 ≥ · · · ≥ s3 ≥ s1 .

Daher ist (s2n ) eine monoton fallende, nach unten durch s1 beschränkte Folge
und (s2n+1 ) ist monoton wachsend, nach oben beschränkt durch s0 . Daher
existieren die Grenzwerte lim s2n und lim s2n+1 und

lim s2n − lim s2n+1 = lim(s2n − s2n+1 ) = lim a2n+1 = 0.

Daher sind beide Grenzwerte identisch, d.h. lim s2n = lim s2n+1 = s für ein
gewisses s ∈ R, also:


lim sk = s, also (−1)n an = s.
n=0



98 6 Reihen

Beispiel 6.7. Die Reihen




1 1 1 1
(−1)n+1 = 1 − + − + ···
n 2 3 4
n=1

und


1 1 1
(−1)n = 1 − + − ···
n=0
2n + 1 3 5
konvergieren nach dem Leibnizkriterium.
Schwieriger ist es, ihre Grenzwerte zu bestimmen. Es gilt:


1
(−1)n+1 = ln 2
n
n=1

und


1 1 1 1 π
(−1)n = 1 − + − + ··· = .
n=0
2n + 1 3 5 7 4
Wir werden dies erst zu einem späteren Zeitpunkt beweisen können.
∑∞
Satz 6.8 (Geometrische Reihe). Sei q ∈ R. Die Reihe n=0 qn konvergiert genau
dann, wenn |q| < 1. In dem Fall ist


1
qn = .
n=0
1−q

Beispiel 6.9. Es gilt:


∑∞
1 ∑∞ ( )
1 n 1
= = = 2.
n=0
2n
n=0
2 1− 1
2

Die ersten Glieder dieser Reihe sind: 1 + 1


2 + 1
4 + 1
8 + ···.

Beweis (des Satzes 6.8 über die geometrische Reihe). |q| < 1 ist notwendig, da
sonst (qn ) keine Nullfolge ist. Wir zeigen zunächst (q , 1 vorausgesetzt):

n
1 − qn+1
sn = qn =
1−q
k=0

mit Induktion nach n. Es gilt:


0
1−q
s0 = qk = q0 = 1 = .
1−q
k=0
6.2 Konvergenzkriterien für Reihen 99

Induktionsschritt n → n + 1:

I.-V. 1 − qn+1
sn+1 = sn + qn+1 = + qn+1
1−q
1 − qn+1 + (1 − q)qn+1
=
1−q
1 − qn+2
= .
1−q

Wegen |q| < 1 gilt limn→∞ qn+1 = 0 und daher:


n
1 − qn+1 n→∞ 1
qk = −→ .
1−q 1−q
k=0


Beispiel 6.10. Wie man aus der Schule weiß, gilt tatsächlich:



1 9 ∑ ( 1 )k

9 1
0.99999 . . . =: 0.9 = 9· = · = · = 1.
10 n 10 10 10 1 − 10
1
n=1 k=0

Beispiel 6.11. Die Reihe




1 1 1
= 1 + + + ···
n 2 3
n=1

heißt harmonische Reihe. Sie konvergiert nicht, denn:

1 1 1 1 1 1 1 1 1
1+ + ( + )+( + + + )+( + ··· + )+··· ,
2 3 4 5 6 7 8 9 16
| {z } | {z } | {z }
≥ 14 + 14 = 12 ≥ 48 = 12 ≥ 16
8
= 12

also:
∑2k
1 1 1 k k+2
s2k = ≥ 1 + + ··· + ≥ 1 + = .
n 2 2 2 2
k=1 | {z }
k Summanden

Die Folge der Partialsummen ist daher unbeschränkt und damit ∑ die Reihe
divergent (d.h. nicht konvergent). Beispielsweise ist die Reihe nk=0 (−1)k auch
divergent.

Die Idee, eine Folge mit einer einfacheren zu vergleichen, wollen wir genau
ausformulieren:
100 6 Reihen
∑∞ ∑∞ ∑
Definition 6.12.∑Es seien n=1 bn , n=1 an zwei Reihen. Dann heißt an eine
Majorante von bn , falls
|bn | ≤ an .
∑ ∑
an heißt Minorante von bn , wenn

an ≤ bn .
∑∞
∑∞ (Majorantenkriterium). Sei ∑
Satz 6.13 n=1 an eine konvergente Majorante der
Reihe n=1 bn . Dann konvergiert die Reihe ∞
n=1 bn .

Beweis. Das Cauchy–Kriterium für Reihen liefert: Für jedes ε > 0 existiert ein
n0 mit
∑m ∑m ∑
m
bk ≤ |bk | ≤ ak < ε,
k=n k=n k=n

falls n,∑m ≥ n0 , da an konvergiert. Nun zeigt das Kriterium auch, dass die
Reihe bn konvergiert. ⊓ ⊔

In logischer Negation heißt dies:


∑∞
Korollar 6.14. Eine Reihe n=1 an mit einer divergenten Minorante divergiert.

Beispiel 6.15. Wir zeigen, dass

∑∞
1
n=1
n2

konvergiert:

Es reicht, zu zeigen dass ∞ 1
n=1 (n+1)2 konvergiert, da es auf den ersten Sum-

2 ≤ n(n+1) , also ist die Teleskopreihe


1 1
manden nicht ankommt. Nun gilt: (n+1)
∑∞ 1
n=1 n(n+1) eine konvergente Majorante.

Schwieriger ist es, den Grenzwert zu bestimmen. Es gilt:

∑∞
1 π2
2
= .
n 6
n=1

Der Beweis verwendet sogenannte Fourierreihen (siehe dazu Kapitel 27 bzw.


genauer Korollar 27.8).

Weitere Kriterien lassen sich aus dem Majorantenkriterium herleiten:


Vorlesung vom:
10. Dezember 2008
Qualitätsstand:
erste Version
6.2 Konvergenzkriterien für Reihen 101
∑∞
Satz 6.16 (Quotientenkriterium). Sei n=1 an eine Reihe mit an , 0 ∀n ≥ n0 für
ein gewisses n0 ∈ N. Existiert ein q mit 0 < q < 1, so dass
an+1
≤ q ∀n ≥ n0 ,
an
so konvergiert die Reihe. Insbesondere gilt:
an+1 ∑

lim =q<1 ⇒ an konvergiert.
n→∞ an
n=1

Bemerkung 6.17.
an+1
1. < 1 ∀n ≥ n0 reicht nicht: Beispielsweise divergiert die harmonische
an

Reihe ∞ 1
n=1 n , aber
1
n+1 n
= < 1 ∀n.
1
n
n+1

2. Die Reihe n12 konvergiert, obwohl
1 2
( n+1 ) n2
= → 1 für n → ∞.
1
n2
(n + 1)2

3. Offensichtlicherweise divergiert eine Reihe ∞ n=1 an , falls gilt:
an+1
lim = q > 1.
n→∞ an

Beweis (des Quotientenkriteriums, Satz 6.16). Ohne Einschränkung sei | aan+1 n


|≤
q < 1 ∀n ≥ 0. Mit Induktion folgt dann: |an | ≤ |a0 | · qn . Der Induktionsanfang
ist klar, wir zeigen also den Induktionsschritt n → n + 1:
|an+1 | ≤ |an | · q (nach Voraussetzung)
≤ |a0 | · q · qn nach I.-V.
= |a0 | · qn+1 .
∑∞
Also ist |a0 | · qn eine konvergente Majorante (geometrische Reihe). ⊓
n=0 ⊔

Wir definieren für x ∈ R≥0 und n ∈ N die n–te Wurzel n x =: x1/n als die
Umkehrfunktion der Funktion f : R≥0 → R, f (x) = xn , siehe Abb. 6.1. Damit
können wir folgendes nützliches Kriterium herleiten:

Satz 6.18 (Wurzelkriterium). Sei ∞ n=0 an eine Reihe, für die es ein q mit 0 < q < 1
gibt mit √
|an | ≤ q ∀n,
n

∑∞
so ist n=0 an konvergent.

Beweis. Nach Voraussetzung ist |an | ≤ qn ∀n. Also ist ∞ n
n=0 q eine konvergente
Majorante (geometrische Reihe). ⊓ ⊔
102 6 Reihen

Abbildung 6.1. Die dritte Wurzel als Umkehrfunktion.

6.3 Umordnung von Reihen

Bei endlichen Summen spielt die Reihenfolge des Addierens keine Rolle. Bei
Reihen ist dies anders. In manchen Fällen, darf man dennoch umordnen, wie
wir sehen werden.

Beispiel 6.19. Die alternierende harmonische Reihe ist:




1 1 1 1 1
(−1)n+1 = 1 − + − + − ···
n 2 3 4 5
n=1

Nach dem Leibnizkriterium konvergiert diese gegen einen Wert s ∈ R. Es


gilt: s ≥ 1 − 21 = 12 . Wir ändern nun die Reihenfolge der Summation
1 1 1 1 1 1 1
1− − + − − + − ···
2 4 3 6 8 5 10
Also:


1 1 1
··· = ( − − ).
2k − 1 4k − 2 4k
k=1

In dieser Reihe taucht jeder Stammbruch n1 genau einmal mit dem richtigen
1
Vorzeichen auf. Nun gilt 2k−1 − 4k−2
1
= 4k−2
1
, also:

∞ (
1 1 1 ) ∑( 1

1)
− − = −
2k − 1 4k − 2 4k 4k − 2 4k
k=1 k=1

1 ∑( 1

1) 1
= − = s , s,
2 2k − 1 2k 2
k=1

da s > 0. Bei der alternierenden harmonischen Reihe kommt es daher auf die
Reihenfolge der Summanden an.
6.3 Umordnung von Reihen 103

Bei gewissen Reihen darf man aber doch umsortieren:


∑∞
Definition 6.20. Eine Reihe n=0 an heißt absolut konvergent, wenn


|an |
n=0

konvergiert.

Bemerkung 6.21. Aus dem Cauchy–Kriterium folgt, dass aus absolut kon-
vergent schon konvergent folgt, denn:


m
∆–Ungl. ∑
m
ak ≤ |ak |.
k=n k=n


Satz 6.22 (Kleiner Umordnungssatz). Sei ∞ n=1 an eine
∑ absolut konvergente Reihe
und τ : N → N eine Bijektion. Dann ist auch die Reihe ∞ n=1 aτ(n) absolut konvergent
und es gilt:
∑∞ ∑

an = aτ(n) .
n=1 n=1


Satz 6.23 (Großer Umordnungssatz). Sei ∞ n=1 an eine absolut
∪konvergente Reihe
und (Ik )k∈N eine Familie von disjunkten Teilmengen Ik ⊂ N mit · ∞ k=1 Ik = N, ∑wobei
Ik sowohl endlich als auch abzählbar sein darf. Dann ist jede der Reihen j∈Ik a j
∑ ∑
absolut konvergent und für die Grenzwerte sk = j∈Ik a j ist die Reihe ∞ k=1 sk absolut
konvergent mit Grenzwert ebenfalls

∞ ∑

sk = an .
k=1 n=1

∑ ∑∞
Satz 6.24 (Cauchy–Produkt von Reihen). Es seien ∞ i=0 ai und j=0 b j zwei ab-
solut konvergente Reihen und die Folge (dk ) durch die Formel


k
dk = ai bk−i
i=0
∑∞
definiert. Dann ist auch die Reihe k=0 dk absolut konvergent mit Grenzwert


∞ (∑
∞ ) (∑
∞ )
dk = ai · bj .
k=0 i=0 j=0
104 6 Reihen

Beweis. Wir betrachten die bijektive Abzählung

φ : N0 → N0 × N0 , n 7→ φ(n) = (α(n), β(n))


∑∞
und die Reihe n=0 aα(n) bβ(n) . Wir zeigen zunächst, dass auch diese Reihe
absolut konvergiert. Hierfür reicht es,


N (∑
∞ ) (∑
∞ )
|aα(n) bβ(n) | ≤ |ai | · |b j | < ∞
n=0 i=0 j=0

für beliebiege N zu zeigen (beschränkte monotone Folgen konvergieren).


Dazu sei N gewählt; wir betrachten:

i0 = max{α(0), . . . , α(N)},
j0 = max{β(0), . . . , β(N)}.

Dann gilt:


N ∑
i0 ∑
j0
|aα(n) bβ(n) | ≤ |ai | · |b j |
n=0 i=0 j=0

(∑
∞ ) (∑
∞ )
≤ |ai | · |b j | < ∞
i=0 j=0

∑∞ ∑∞ ∑k
nach Voraussetzung. Die Reihe ∑ k=0 dk = k=0 i=0 ai bk−i ist eine
∑∞ Umordnung∑
der absolut konvergenten Reihe ∞ a b
α(n) β(n) , das Produkt ai · ∞ j=0 b j =
∑∞ ∑∞ n=1 i=0
i=0 j=0 ai b j ebenfalls. Nach dem großen Umordnungssatz sind ∑ alle diese

Reihen
∑∞ absolut
∑∞ konvergent und haben den gleichen Grenzwert k=0 dk =
( i=0 ai )( j=0 b j ). ⊓⊔

Definition 6.25. Sei (qn ) eine Folge reeller Zahlen. Das unendliche
∏ ∏n Produkt

q
k=1 k heißt konvergent, wenn der Grenzwert q = lim ∏
n→∞ q
k=1 k der Parti-
alprodukte existiert. Wir bezeichnen den Grenzwert mit q = ∞ q
k=1 k .

Satz 6.26∏(Euler). Sei s eine natürliche Zahl ≥ 2 und pk die k–te Primzahl.
∑∞ 1 Das
Produkt ∞ 1
k=1 1−p−s konvergiert und hat den gleichen Grenzwert wie n=1 ns . Für
k
s = 1 divergiert das Produkt und die Reihe. Insbesondere gibt es unendlich viele
Primzahlen.
Vorlesung vom:
12. Dezember 2008 Beweis. Wir zeigen dies in mehreren Schritten:
Qualitätsstand: ∑∞
erste Version 1. Für s ≥ 2 ist n1s ≤ n12 . Also konvergieren alle Reihen 1
absolut nach
∑ n=1 ns
dem Majorantenkriterium, da ∞ 1
n=1 n2 konvergiert.
6.3 Umordnung von Reihen 105

2. Die Reihe
1 ∑ 1 ∞
= ( s )l
1 − p1s l=0
p

konvergiert absolut für jede Primzahl p, da ( p1 )s < 1


p < 1 gilt und die Reihe
daher eine geometrische Reihe darstellt.
3. Das endliche Produkt
Problem:

r ∑
N (
1 )s ∑ 1 to do: siehe Mitschrift
=
pe ns
k=1 e=0 n ∈ N, n hat die
Primfaktoren p1 , . . . , pr
mit Multiplizität ≤ N

nach dem Satz über die eindeutige Primfaktorzerlegung. Es folgt, indem


wir N → ∞ betrachten:

r
1 ∑ 1
=
1 − p−s ns
k=1 n ∈ N, n hat die
Primfaktoren p1 , . . . , pr

nach dem großen Umordnungssatz. Schließlich ergibt sich:




1 ∑ 1 ∞
= ,
1 − p−s
k
ns
k=1 n=1

nochmals wegen des Großen Umordnungssatzes.



Korollar 6.27. Sei N eine große Zahl und ωN die Wahrscheinlichkeit, dass zwei
zufällig gewählte Zahlen a, b ∈ N mit 0 < a ≤ N, 0 < b ≤ N keinen gemeinsamen
Faktor haben. Dann gilt:
6
lim ωN = = 0.60792 · · · ≈ 60%.
N→∞ π2

Beweis (nur Beweisidee). Als gemeinsame Primfaktoren kommen nur Prim-


zahlen p ≤ N in Frage. Für p ≪ N ist die Wahrscheinlichkeit, dass p ein
p−1
Teiler eines zufällig gewählten a ∈ {1, . . . , N} ⪆ p = 1 − 1p . Die Wahrschein-
p2 −1
lichkeit, dass a und b beide p als Teiler haben, ist ⪆ p2
= 1− 1
p2
. Es folgt:
∏ ∏
ωN ⪆ p≤N (1 − p12 ) bzw. p≤N 1−1 1 ⪆ ω−1N
. Daher:
p2

1 ∏ 1 ∑
Euler

1 Fourierreihen π2
lim = = = .
N→∞ ωN 1 − p12 n 2 6
p Primzahl n=1
106 6 Reihen

Es folgt:
6
lim ωN =
= 0.60792 . . .
π2
N→∞

Leider können wir den Teil, der Fourierreihen verwendet, hier noch nicht
erklären, siehe dazu wiederum Kapitel 27 bzw. genauer Korollar 27.8. ⊓

Aufgaben

Aufgabe 6.1 (Grenzwerte von Reihen). Untersuchen Sie folgende Reihen auf
Konvergenz und geben Sie, falls er existiert, den Grenzwert an:
∑∞ 3n
1. n=0 4n+1
∑∞ 2
2. n=2 n2 −1

Aufgabe 6.2 (Konvergenz von Reihen). Untersuchen Sie, ob folgende Reihen


konvergieren:
∑∞ n+4
1. n=1 n2 −3n+1
∑∞ n!
2. n=1 nn

Aufgabe 6.3 (Konvergenz von Reihen). Sei (an ) eine monoton fallende Folge
in R>0 .
∑ ∑∞ k
Zeigen Sie: ∞n=0 an konvergiert genau dann, wenn k=0 2 a2k konvergiert.

∑∞
Aufgabe 6.4 (Umordnung). Sei n=0 an eine konvergente, aber nicht absolut
konvergente Reihe. Zeigen Sie:

1. Die Teilreihe der positiven Glieder wächst unbeschränkt, die Teilreihe der
negativen Glieder fällt unbeschränkt.

∑ Zahl a ∈ R gibt es eine Umordnung τ : N0 → N0 , so dass


2. Für jede reelle
die Reihe ∞ n=0 aτ(n) den Grenzwert a hat.

Aufgabe 6.5 (Konvergenz von Reihen). Untersuchen Sie folgende Reihen


auf Konvergenz:
∑∞ (−1)n
1. n=0 3−2n
∑∞ (1+(−1)n · 12 )n
2. n=1 n2
∑∞ n4
3. n=1 3n
6.3 Umordnung von Reihen 107

Aufgabe 6.6 (Reihen: Konvergenz / Grenzwerte). Für welche α > 0 konver-


giert die Reihe
∑∞
1
?
n=2
n(ln n)α

Hinweis: Integralkriterium.
7

Potenzreihen

Viele aus der Schule bekannte Funktionen wie exp, sin, cos werden am Besten
über Potenzreihen definiert. Hier werden wir die wichtigsten Eigenschaften
dieser Reihen kennen lernen. Insbesondere zählen dazu Resultate über deren
Konvergenz und Umordnungsmöglichkeiten. Da dies über den reellen Zah-
len nicht gut zu behandeln ist, beginnen wir nach ersten Beispielen mit einer
Einführung in die sogenannten komplexen Zahlen.

∑ 7.1. Sei
Definition (an )n∈N0 eine Folge reeller Zahlen und x ∈ R. Eine Reihe der
Gestalt ∞ n
n=0 an x heißt Potenzreihe.

∑∞
Beispiel 7.2. n=0 xn = 1
1−x , falls |x| < 1.

Potenzreihen werden häufig herangezogen, um Funktionen zu definieren:

Beispiel 7.3. Man definiert die Exponentialfunktion

exp : R → R

durch die Potenzreihe




xn
exp(x) := .
n=0
n!

Wir müssen uns noch überlegen, dass diese Reihe für jedes x ∈ R konvergiert.
Mit dem Quotientenkriterium
xn+1
(n+1)! |x|
= −→ 0
xn
n!
n + 1 n→∞

folgt dies leicht.


Sinus und Cosinus (Abb. 7.7) definiert man durch die Formeln
110 7 Potenzreihen



x2k+1 x3 x5
sin(x) := (−1)k =x− + − ···
(2k + 1)! 3! 5!
k=0


x2k x2 x4
cos(x) := (−1)k =1− + − ···
(2k)! 2! 4!
k=0

Der Bereich, in dem Konvergenzreihen konvergieren, hat eine einfache geo-


metrische Beschreibung. Am prägnantesten wird diese, wenn wir auch kom-
plexe Zahlen betrachten.

7.1 Komplexe Zahlen

Definition 7.4. Die komplexen Zahlen C sind als Menge definiert durch C = R2 .
Addition und Multiplikation sind auf C wie folgt erklärt (siehe auch Abb. 7.1):

(a, b) + (c, d) := (a + c, b + d),


(a, b) · (c, d) := (ac − bd, ad + bc).

i · Im(z)
z + w = (x + u) + i(y + v)
w = u + iv

iy z = x + iy

x Re(z)

Abbildung 7.1. Die Addition komplexer Zahlen.

Das Nullelement ist damit 0 = (0, 0) und das Einselement der Multiplikation ist

1 = (1, 0) ∈ C.

Das Element
i := (0, 1) ∈ C
ist dann ein Element mit
7.1 Komplexe Zahlen 111

i2 = (−1, 0) = −1
und heißt imaginäre Einheit. Jede komplexe Zahl hat damit die eindeutige Darstel-
lung
z = x + iy = (x, y) mit x, y ∈ R.
x heißt Realteil von z und y Imaginärteil. Notation:

x = Re(z), y = Im(z).

Für das Rechnen mit komplexen Zahlen muss man sich nur i2 = −1 merken
und distributiv ausmultiplizieren:

(a + ib)(c + id) = ac + ibc + aid + ibid


= ac + i(bc + ad) + i2 bd
= (ac − bd) + i(bc + ad).

Satz 7.5. (C, +, ·) ist ein Körper.

Beweis. Nur die Existenz der multiplikativen Inversen ist nicht völlig trivial
nachzurechnen. Sei also z = x + iy ∈ C, z , 0, d.h. (x, y) , (0, 0). Was ist
z−1 = 1z ?
1 1 x − iy x − iy
= · = 2 ,
z x + iy x − iy x + y2
also:
1 x 1 −y
Re( ) = 2 , Im( ) = 2 .
z x + y2 z x + y2
In der Tat gilt:
1 x − iy x2 + y2
·z= 2 · (x + iy) = = 1.
z x + y2 x2 + y2

Definition 7.6. Für z = x + iy heißt

z = x − iy

die konjugiert komplexe Zahl (die Abb. z →


7 z̄ heißt entsprechend komplexe
Konjugation) und √
|z| = x2 + y2 ∈ R≥0
der Betrag von z (s. Abb. 7.2).

Proposition 7.7 (Rechenregeln für komplexe Zahlen). Seien z = x + iy, w =


u + iv ∈ C. Dann gilt:
112 7 Potenzreihen

i · Im(z)

iy |z| z = x + iy

x Re(z)
−iy z = x − iy

Abbildung 7.2. Die konjugiert komplexe Zahl.

1. Re(z) = 12 (z + z), Im(z) = 1


2i (z − z).
2. |z| = z · z.
2

3. Eigenschaften des Betrags. Für z, w ∈ C gilt:


a) |z| ≥ 0, außerdem: |z| = 0 ⇐⇒ z = 0,
b) |z · w| = |z| · |w|,
c) |z + w| ≤ |z| + |w|. (∆–Ungleichung, s. Abb. 7.3)

i · Im(z)
z+w
|w|
w
|z|
|w| |z + w|
z
|z|
Re(z)

Abbildung 7.3. Eigenschaften des Betrags komplexer Zahlen. Das Bild veranschau-
licht die Dreiecksungleichung |z + w| ≤ |z| + |w|.

Beweis. Wir zeigen nur die ∆–Ungleichung, die anderen Regeln sind einfach
nachzuweisen:
7.1 Komplexe Zahlen 113

|z + w|2 = (z + w)(z + w)
= zz + wz + zw +ww
| {z }
2·Re(wz)

= zz + 2Re(wz) + ww
≤ |z|2 + 2|z||w| + |w|2
= (|z| + |w|)2 .

Da die Wurzelfunktion monoton ist, folgt: |z + w| ≤ |z| + |w|. ⊓



Vorlesung vom:
Definition 7.8. Eine Folge (zn ) komplexer Zahlen konvergiert gegen z ∈ C, falls 17. Dezember 2008
Qualitätsstand:
∀ε > 0 ∃ n0 : |zn − z| < ε ∀n ≥ n0 .
erste Version

Bemerkung 7.9. Äquivalent dazu, dass die Folge (zn ) komplexer Zahlen den
Grenzwert z ∈ C hat, ist:

lim Re(zn ) = Re(z) und lim Im(zn ) = Im(z).


n→∞ n→∞

Beweis. Für eine beliebige Zahl w ∈ C gilt, wegen der Dreiecks–Ungleichung



und da die Diagonale in einem Quadrat mit Seitenlänge a gerade 2–mal so
lang ist wie die Seite:
√ { } { }
2 max |Re(w)|, |Im(w)| ≥ |w| ≥ max |Re(w)|, |Im(w)| ,

wie die Abbildung 7.4 verdeutlicht. Daraus folgt die Behauptung. ⊓


i · Re(w)
)
w
e(
·R

2

|w| w

Re(w)

Abbildung 7.4. Obere und untere Schranke für den Betrag einer komplexen Zahl:

2 max{|Re(w)|, |Im(w)|} ≥ |w| ≥ max{|Re(w)|, |Im(w)|}. Im Bild ist der Fall |Re(w)| ≥
Im(w) veranschaulicht.

Satz/Definition 7.10. C ist vollständig, d.h. jede Cauchy–Folge komplexer Zahlen


konvergiert gegen ein z ∈ C.
114 7 Potenzreihen

Formal: Ist (zn ) eine Folge komplexer Zahlen, so gilt:

∀ε > 0 ∃ n0 : |zn − zm | < ε ∀n, m ≥ n0 ⇒ ∃ z ∈ C : lim zn = z ∈ C.


n→∞

Beweis. (zn ) ist eine Cauchy–Folge ⇐⇒ (Re(zn )) und (Im(zn )) bilden


Cauchy–Folgen reeller Zahlen. Sie konvergieren jeweils gegen x bzw. y. Der
Grenzwert der Folge (zn ) ist daher z = x + y. ⊓

Bemerkung 7.11. C lässt sich nicht anordnen.

Beweis. Angenommen, > sei eine Anordnung auf C. Da Quadrate immer ≥ 0


sind, folgt: i2 = −1 > 0 und 1 = 12 > 0 ⇒ −1 + 1 = 0 > 0, was nicht sein kann.

Ein ganz wesentlicher Grund, aus dem man komplexe Zahlen in der Mathe-
matik betrachtet, ist das folgende Resultat:
Problem:
Referenz für Funda-
Satz/Definition 7.12 (Fundamentalsatz der Algebra, ohne Beweis). Sei p(z) =
mentalsatz der Alge-
an zn + · · · + a1 z = a0 ein Polynom mit ai ∈ C vom Grad n, d.h. an , 0. Dann hat p
bra?
eine Nullstelle, d.h. ∃ z1 ∈ C : p(z1 ) = 0.

Für den Grad von p aus dem Satz schreiben wir auch deg(p) := n. Die Menge
aller Polynome in einer Variablen z und Koeffizienten in einem Körper K
bezeichnen wir mit K[z], also hier p ∈ C[z]. Die Teilmenge der Polynome in
einer Variablen z mit Koeffizienten in K vom Grad ≤ n schreiben wir K[z]≤n .
Wir geben für diesen Satz in dieser Vorlesung keinen Beweis. Man kann aber
leicht einsehen, dass aus der Existenz einer Nullstelle induktiv schon folgt:

Korollar 7.13. Jedes Polynom p(z) = an zn + · · · + a1 z = a0 vom Grad n > 0 mit


ai ∈ C faktorisiert in Linearfaktoren:

p(z) = an · (z − z1 ) · (z − zn ),

für gewisse zi ∈ C, wobei die zi nicht unbedingt paarweise verschieden sein müssen.

In der Physik ist ein Hauptgrund, komplexe Zahlen zu verwenden, dass sich
die Quantenmechanik ohne komplexe Zahlen nicht beschreiben lässt.

7.2 Der Konvergenzradius



Satz 7.14. Sei ∞ n=0 an z eine Potenzreihe. Wenn diese Reihe für ein z0 ∈ C\{0}
n

konvergiert, dann konvergiert die Reihe für alle z ∈ {z ∈ C | |z| < |z0 |} absolut.
7.2 Der Konvergenzradius 115
∑∞
Beweis. Wir verwenden das Majorantenkriterium. Da die Reihe n=0 an zn0
konvergiert, bildet die Folge (an zn0 ) eine Nullfolge. Sie ist daher beschränkt,
etwa |an zn0 | ≤ M ∀n ≥ 0. Für z ∈ C mit |z| < |z0 | ergibt sich:
z n z n
|an zn | = |an | · |zn0 | · ≤M· .
z0 z0
∑∞
Da | zz0 | < 1 gilt, ist die geometrische Reihe n=0 M·| zz0 |n eine konvergente
Majorante. ⊓ ⊔
∑∞ n
Definition 7.15. Sei n=0 an z eine Potenzreihe. Dann heißt

{ ∑
∞ }
R := sup |z0 | an zn0 konvergiert ∈ [0, ∞]
n=0

(sup A = ∞, falls A nach oben nicht beschränkt ist) der Konvergenzradius der
Potenzreihe. Es gilt: Die Reihe konvergiert für alle z ∈ {z ∈ C | |z| < R} und
divergiert für alle z ∈ {z ∈ C | |z| > R} wegen Satz 7.14.

Auf dem Kreisrand {z ∈ C | |z| = R} kann Konvergenz vorliegen, muss aber


nicht (Abb. 7.5).

Abbildung 7.5. Der Konvergenzradius einer Potenzreihe.

Beispiel 7.16.
∑∞
1. n=0zn hat Konvergenzradius R = 1.

2. Die Reihe ∞ zn
n=1 n konvergiert im Punkt z0 = −1 und divergiert für z1 = 1
(alternierende) harmonische Reihe, daher folgt: R = 1.

3. ∞ zn
n=0 n! hat Konvergenzradius R = ∞, da sie für beliebig große x ∈ R
konvergiert.

Satz 7.17. Sei (an )n∈N0 eine Folge komplexer Zahlen mit an , 0 ∀n. Existiert der

Grenzwert q = limn→∞ aan+1 n
, so hat die Potenzreihe ∞ n
n=0 an z den Konvergenzradius



q, falls q > 0,
1
R=

∞, falls q = 0.
116 7 Potenzreihen

Beweis. Quotientenkriterium. ⊓

Vorlesung vom:
Die obige Formel ist nicht immer anwendbar (z.B. beim Sinus). Eine Formel, 19. Dezember 2008
die dagegen immer funktioniert, ist folgende: Qualitätsstand:
erste Version
Definition 7.18. Sei (an ) eine Folge reeller Zahlen. Dann heißt
{ }
lim sup(bn ) := lim sup bk k ≥ n
n→∞ n→∞

der Limes Superior von (bn ). Ist (bn ) nach oben nicht beschränkt, so setzen wir:

lim sup bn = +∞.

Analog ist
lim inf bn := lim inf{bk | k ≥ n},
n→∞ n→∞

der Limes Inferior, erklärt.



Satz 7.19 (Formel von
√ Cauchy–Hadamard). Seien ∑ ∞ n
n=0 an z eine Potenzreihe

und q = lim supn→∞ ( |an |). Dann hat die Potenzreihe n=0 an z den Konvergenz-
n
n

radius 

 0, falls q = ∞,


1
R= 
 q, falls 0 < q < ∞,

∞, falls q = 0.

Beweis. Wurzelkriterium. ⊓

7.3 Der Umordnungssatz


∑∞
Satz 7.20. Sei n=1 an eine Reihe komplexer Zahlen.

1. Ist ∞n=1 an absolut konvergent und ist τ : N → N eine bijektive Abbildung,
dann ist auch die Reihe
∑∞
aτ(n)
n=0

absolut konvergent und es gilt:



∞ ∑

aτ(n) = an .
n=0 n=0
7.3 Der Umordnungssatz 117

2. (Großer Umordnungssatz) Sei (Ik )k∈N eine


∪ Familie von endlichen oder unend-
lich disjunkten Teilmengen Ik ⊂ N mit · ∞
k=1 Ik = N. Dann ist für jedes k die
Reihe ∑
sk := aj
j∈Ik
∑n
absolut konvergent und die Reihe der Grenzwerte k=1 sk ebenfalls und zwar
mit Grenzwert
∑∞ ∑

sk = an .
k=1 n=1

Beweis. Die Aussage von 1. ist ein Spezialfall von 2. mit Ik = {τ(k)}; wir müssen
also nur 2. beweisen. Zunächst zur absoluten Konvergenz von
∑ ( ∑ )
a j := lim aj ,
N→∞
j∈Ik j∈Ik , j≤N

wobei wir in einer beliebigen Reihenfolge summieren. Im Fall von Ik endlich


und bei der 1. Teilaussage ist dies klar. Für den anderen Fall verwenden wir,
dass 1. schon gezeigt ist.
Da die Partialsummen ∑ ∑
|a j | ≤ |a j |
j=I′ j∈I′′

monoton steigen für endliche Teilmengen I′ ⊂ I′′ ⊂ Ik , genügt es zu zeigen,


dass sie beschränkt bleiben. Dies ist klar, da

∑ ∑
N ∑

|a j | ≤ |an | ≤ |an | < ∞,
j∈I′ n=0 n=0

∑∞
wobei N = max{ j | j ∈ I′ }. Für die absolute Konvergenz von k=1 sk gehen
wir genauso vor:


l ∑
l ∑
|sk | = lim aj
N→∞
k=1 k=1 j∈Ik , j≤N


l ∑
≤ lim |a j |
N→∞
k=1 j∈Ik , j≤N

= lim |a j |
N→∞ ∪
j∈ lk=1 Ik


N ∑

≤ lim |a j | = |an | < ∞.
N→∞
j=1 n=1
118 7 Potenzreihen
∑∞
Für die Gleichheit der Grenzwerte betrachten wir s = n=1 an und zu ε > 0
ein n0 , so dass
∑∞ n∑
0 −1

|an | < ε und s − an < ε


n=n0 n=1

gilt. Sei nun { }


k0 := max k {1, . . . , n0 − 1} ∩ Ik , ∅ .
Dann gilt für k1 ≥ k0 :


k1 n∑
0 −1 ∑
k1 ∑
s− sk ≤ s − an + |an |
k=1 n=1 k=1 n∈Ik ,n≥n0
n∑
0 −1 ∑
≤ s− an + |an | < 2ε.
n=1 n≥n0


7.4 Die komplexe Exponentialfunktion

Eine der wichtigsten Potenzreihen ist jene, die die sogenannte Exponential-
funktion definiert. Beispielsweise existiert ein interessanter Zusammenhang
zu Sinus und Cosinus.

Definition 7.21. Die Abbildung




zn
exp : C → C, z 7→ exp(z) =
n=0
n!

heißt komplexe Exponentialfunktion.

Satz 7.22 (Funktionalgleichung der Exponentialfunktion). Für z, w ∈ C gilt:

exp(z + w) = exp(z) · exp(w).

Beweis. Wir betrachten das Cauchy–Produkt der absolut konvergenten Rei-


hen


zk ∑∞
wn
und .
k! n=0
n!
k=0

Es ergibt sich mit der binomischen Formel:


∑n n ( ) k

zk wn−k n z · wn−k (z + w)n
dn = · = = .
k! (n − k)! k n! n!
k=0 k=0
7.4 Die komplexe Exponentialfunktion 119

Nach dem großen Umordnungssatz gilt nun:




(z + w)n
exp(z + w) =
n=0
n!
(∑∞
z k ) ( ∑ wl )

= ·
k! l!
k=0 l=0
= exp(z) · exp(w).


Korollar 7.23. Es gilt:

1. exp(0) = 1,
2. exp(−z) = exp(z)
1
und daher insbesondere exp(z) ∈ C∗ ∀z ∈ C, wobei C∗ :=
C\{0}. Die komplexe Exponentialfunktion ist also eine Abbildung C → C∗
(siehe auch Abb. 7.6).

Abbildung 7.6. Die Wirkung von exp auf C.

Beweis. 1 = exp(0) = exp(z + (−z)) = exp(z) · exp(−z). ⊔


Setzen wir für z einen rein imaginären Wert ein, d.h. z = iy, y ∈ R, so erhalten
wir:


(iy)n
exp(iy) =
n=0
n!
∑∞
y2k ∑ ∞
y2k+1
= (−1)k + i · (−1)k
2k! (2k + 1)!
k=0 k=0
= cos(y) + i sin(y),

also einen Zusammenhang zwischen der komplexen Exponentialfunktion


und Sinus und Cosinus. Man schreibt häufig auch
120 7 Potenzreihen

ez := exp(z)

bzw. für reelle x ∈ R entsprechend ex . Die Zahl e = e1 = exp(1) wird auch


Eulersche Zahl genannt. Mit dieser Notation gilt:

Satz 7.24 (Zusammenhang zwischen der komplexen Exponentialfunktion


und Sinus und Cosinus). Für z = x + iy ∈ C gilt:

exp(x + iy) = ex · (cos y + i sin y).

Die Additionstheoreme für Sinus und Cosinus folgen mit Hilfe der obigen
Formel aus denen der Exponentialfunktion:

Satz 7.25 (Additionstheoreme für Sinus und Cosinus). Seien α, β ∈ R. Dann:

cos(α + β) = cos α · cos β − sin α · sin β,


sin(α + β) = sin α · cos β + cos α · sin β.

Insbesondere gilt (mit der Notation sink α := (sin α)k und entsprechend für den cos):

1 = sin2 α + cos2 α.

Beweis. Es gilt:

cos(α + β) + i sin(α + β) = exp(i(α + β))


= exp(iα) · exp(iβ)
= (cos α + i sin α) · (cos β + i sin β)
= (cos α cos β − sin α sin β)
+i(cos α sin β + sin α cos β),

wobei sich die letzte Gleichheit gemäß der Definition der Multiplikation in C
ergibt. Realteil und Imaginärteil dieser Formel ergeben die Behauptung.
Für den Zusatz betrachten wir
( )
1 = cos(0) = cos α + (−α) = cos(α) cos(−α) − sin(α) sin(−α).

Da cos(−α) = cos(α) und sin(−α) = − sin(α) gilt, weil die Potenzreihe des
Cosinus nur gerade Terme und jene des Sinus nur ungerade Terme hat, folgt
1 = cos2 α + sin2 α, wie behauptet. ⊓

Mit Hilfe des Satzes von Pythagoras kann man Sinus und Cosinus nun auf
dem Einheitskreis einzeichnen (Abb. 7.7).
Die Multiplikation der komplexen Zahlen ergibt sich direkt. Seien dazu z, w ∈
C. Dann existiert ein Winkel φ, genannt Argument von z und entsprechend
ψ, so dass
7.4 Die komplexe Exponentialfunktion 121

y
1

1
α
sin(α)
−1 1 x

cos(α)
−1

Abbildung 7.7. Sinus und Cosinus am Einheitskreis; α ist im Bogenmaß eingezeichnet.

z = |z| · (cos φ + i sin φ) und w = |w| · (cos ψ + i sin ψ).


Damit erhalten wir mit Hilfe der Additionstheoreme für Sinus und Cosinus
für das Produkt von z und w:
z·w = |z·w| · (cos φ + i sin φ) · (cos ψ + i sin ψ)
( )
= |z·w| · (cos φ · cos ψ − sin φ · sin ψ) + i(sin φ · cos ψ + cos φ · sin ψ))
( )
= |z| · |w| · cos(φ + ψ) + i sin(φ + ψ) .
Mit anderen Worten:
Bemerkung 7.26. Bei der Multiplikation zweier komplexer Zahlen multipli-
ziert sich der Betrag und es addieren sich die Argumente (Abb. 7.8).

Abbildung 7.8. Multiplikation zweier komplexer Zahlen.

Aufgaben

Aufgabe 7.1 (Komplexe Zahlen). Bestimmen und zeichnen Sie für r = 1


2,
r = 1 und r = 2 jeweils die Menge:
122 7 Potenzreihen
{ }
z−1
z∈C: <r .
z+1

Aufgabe 7.2 (Grenzwertvertauschung, lim sup und lim inf).

1. Sei 

 k
j ≥ k,
j
a j,k =

 k− j j < k.
k

Bestimmen Sie:
lim lim a j,k und lim lim a j,k .
k→∞ j→∞ j→∞ k→∞

2. Sei (an ) die Folge mit an := (−1)n + n1 . Berechnen Sie

lim sup an und lim inf an .


n→∞ n→∞

Aufgabe 7.3 (Kombinatorik).

1. Wir definieren ak durch:



30
(1 + x2 + x3 )10 = ak xk .
k=0

Zeigen Sie: ak ist die Anzahl der Möglichkeiten, k identische Kugeln in


10 Urnen so zu verteilen, dass in jeder Urne anschließend 2, 3 oder keine
Kugel liegt.
2. Bestimmen Sie a20 mit Hilfe von Maple.

Aufgabe 7.4 (Konvergenzradien). Bestimmen Sie die Konvergenzradien der


folgenden Reihen:
∑∞ xn
1. n=1 n2
∑∞ 2 n
2. n=1 n x
∑∞ n n
3. n=1 2 x
∑∞ xn
4. n=1 2n

Können Sie den Grenzwert im Falle der Konvergenz bestimmen?

Aufgabe 7.5 (Cauchy–Produkt


∑ von Reihen). Für n ∈ N sei a∑n := bn :=
(−1)n · √ 1 und cn := nk=0 an−k bk . Zeigen Sie, dass die Reihen ∞n=0 an und
∑∞ n+1 ∑∞
n=0 bn konvergieren, ihr Cauchy–Produkt n=0 cn aber nicht.

Aufgabe 7.6 (Additionstheoreme für Sinus und Cosinus).


7.4 Die komplexe Exponentialfunktion 123

1. Zeigen Sie, dass für jedes n ∈ N Polynome pn (x, y) und qn (x, y) in zwei
Variablen x, y mit reellen Koeffizienten existieren, so dass

sin(nt) = pn (sin(t), cos(t)) und cos(nt) = qn (sin(t), cos(t))

für alle t ∈ R gilt.


2. Berechnen Sie pn (x, y) und qn (x, y) für n = 2, 3, 4.

Aufgabe 7.7 (Konvergenzradius von Potenzreihen). Bestimmen Sie den


Konvergenzradius der folgenden Potenzreihen:
∑∞
1. n=1 (n
4
− 3n3 )xn ,
∑∞ 3k +(−2)k
2. k=1 k (x + 1)k .
8

Stetigkeit

Vorlesung vom:
... 7. Januar 2008
Qualitätsstand:
erste Version
8.1 Definition und Folgenkriterium Problem:
sinnvollen Einlei-
Definition 8.1. Sei D ⊆ R. Eine reellwertige Funktion auf D ist eine Abbildung tungstext

f : D → R.

D heißt Definitionsbereich von f . Typischerweise ist D ein Intervall oder eine


Vereinigung von Intervallen.
Die Menge { }
G f := (x, y) x ∈ D, y = f (x) ⊂ R2
heißt Graph der Funktion.

Beispiel 8.2.

1. y = f (x) = x2 , siehe Abb. 8.1.


2. y = ⌊x⌋ = entier(x), siehe Abb. 8.2.

Im zweiten Beispiel hat der Graph „Sprünge”; stetige Funktionen sind im


Wesentlichen solche, für die das nicht der Fall ist. Präzise definieren wir dies
wie folgt:

Definition 8.3. Sei f : D → R eine Funktion und x0 ∈ D ein Punkt. f heißt stetig
in x0 , wenn

∀ε > 0 ∃ δ > 0 : | f (x) − f (x0 )| < ε ∀x ∈ D mit |x − x0 | < δ

gilt. f heißt stetig auf D, wenn f in allen Punkten x0 ∈ D stetig ist.


126 8 Stetigkeit
y

+1.5

+0.3

−1.5 +0.6 +1.5 x


-0.3

-1.5

Abbildung 8.1. Graph einer Parabel mit Gleichung f (x) = x2 .

y
3
2
1

−3 −2 −1 1 2 3 x

−2
−3

Abbildung 8.2. Graph der entier Funktion. Ein kleiner, leerer Kreis zeigt dabei an,
dass der umkreiste Punkt nicht zum Graphen gehört.

Im Englischen heißt stetig continuous; auch im Deutschen werden wir gele-


gentlich den Begriff kontinuierlich statt stetig verwenden.

Beispiel 8.4.

1. f (x) = x ist stetig. Zu ε können wir δ = ε wählen.


2. f (x) = x2 ist stetig in allen Punkten. Die wesentliche Abschätzung ist

|x2 − x20 | = |x + x0 | · |x − x0 |
≤ |2x0 + 1| · |x − x0 | ∀x mit |x − x0 | < 1.
ε
Entsprechend ergibt sich |x2 − x20 | < ε ∀x mit |x − x0 | < 2|x0 |+1 . Also können
wir { ε }
δ = min 1,
2|x0 | + 1
wählen. δ hängt sowohl von ε also auch von x0 ab.
3. entier : R → R ist nicht stetig in x0 = 0: Zu ε = 1 und δ > 0 beliebig klein
existiert ein Punkt x mit |x − x0 | < δ und −1 < x < 0. Für diese gilt:

| entier(x) − entier(0)| = | − 1 − 0| = 1 ≥ ε.
8.1 Definition und Folgenkriterium 127

Allgemein gilt: entier ist in allen Punkten x0 ∈ R\Z stetig und in allen
Punkte x0 ∈ Z unstetig.
4. Die konstanten Funktionen f : R → R mit f (x) = c sind stetig.

Satz 8.5 (Folgenkriterium für Stetigkeit). Sei f : D → R eine Funktion und


x0 ∈ D ein Punkt. f ist stetig in x0 genau dann, wenn für alle Folgen (xn ) mit
xn ∈ D und limn→∞ xn = x0 gilt:
f (x0 ) = lim f (xn ).
n→∞

Das Folgenkriterium ist oft gut geeignet, um Unstetigkeit zu zeigen, wie wir
am folgenden Beispiel sehen werden. Der Nachweis der Stetigkeit ist in der
Regel einfacher mit der ε-δ-Definition.

Beispiel 8.6. Wir betrachten die Funktion (Abb. 8.3):

+0.75

+0.15

−0.75 +0.3 +0.75 x


-0.15

-0.75

Abbildung 8.3. Die Funktion sin( 1x ) in der Nähe von 0.



 falls x = 0,
0,
f (x) = 

sin( 1x ), falls x , 0.

Bekanntlich gilt (wir werden in 11.14 und 11.15 die Zahl π ∈ R definieren
und die Aussage beweisen):
π (π )
1 = sin = sin + 2kπ
2 2
für jedes k ∈ Z. Also gilt für xk = π
1
zwar
2 +2kπ

lim xk = 0, aber lim f (xk ) = 1 , 0.


k→∞ k→∞

Da sin( 32 π + 2kπ) = −1 ist, gilt für x′k = 1


zwar limk→∞ x′k = 0, aber
2 π+2kπ
3

lim f (x′k ) = −1.


Es folgt, dass man keinen Wert für f (0) finden kann, so dass f im Nullpunkt
stetig ergänzt wird.
128 8 Stetigkeit

Beweis (für das Folgenkriterium für Stetigkeit, Satz 8.5). f sei stetig in x0 und
(xn ) eine Folge in D mit lim xn = x0 . Da f in x0 stetig ist, existiert zu ε > 0 ein
δ > 0, so dass:
| f (x) − f (x0 )| < ε ∀x ∈ D mit |x − x0 | < δ.
Wegen lim xn = x0 gibt es zu δ > 0 ein n0 , so dass |xn − x0 | < δ ∀n ≥ n0 . Also:

| f (xn ) − f (x0 )| < ε ∀n ≥ n0 ,

d.h. limn→∞ f (xn ) = f (x0 ).


Umgekehrt nehmen wir nun an, f sei nicht stetig. Dann existiert ein ε > 0, so
dass für jedes δ > 0 ein x ∈ D existiert mit |x − x0 | < δ mit | f (x) − f (x0 )| > ε.
Wir wenden diese Aussage für alle δ = n1 an und erhalten eine Folge (xn ) in
D mit lim xn = x0 , aber
| f (xn ) − f (x0 )| > ε ∀n.
Also konvergiert ( f (xn ))n∈N nicht gegen f (x0 ). ⊔

Wir geben nun noch einige einfache Sätze, mit denen wir aus stetigen Funk-
tionen weitere bilden können:

Satz 8.7 (Rechenregeln für stetige Funktionen). Es seien f, g : D → R Funk-


tionen.

1. Sind f, g in x0 stetig, so sind auch f + g und f · g in x0 stetig.


2. Sind f, g in x0 stetig und ist g(x0 ) , 0, dann ist auch

f
: D′ → R
g

mit D′ = {x ∈ D | g(x) , 0} ⊂ D stetig in x0 ∈ D′ .

Beweis. Analog zu der entsprechenden Aussage für Grenzwerte von Folgen.



Daraus folgt sofort:

Korollar 8.8.

1. Polynome
f (x) = an xn + an−1 xn−1 + · · · + a1 x + a0
mit Konstanten a0 , . . . , an ∈ R sind stetige Funktionen f : R → R.
f
2. Rationale Funktionen, d.h. Abbildungen der Form g : D → R mit Polynomen
f, g, sind stetig im Definitionsbereich D = {x ∈ R | g(x) , 0}.
8.2 Der Zwischenwertsatz und Anwendungen 129

8.2 Der Zwischenwertsatz und Anwendungen

Einer der ganz zentralen Sätze über stetige Funktionen ist folgender:

Satz 8.9 (Zwischenwertsatz). Sei f : [a, b] → R eine stetige Funktion und c ein
Wert zwischen f (a) und f (b), d.h. f (a) ≤ c ≤ f (b), falls f (a) ≤ f (b) und f (b) ≤
c ≤ f (a), falls f (a) ≥ f (b). Dann existert ein ξ ∈ [a, b] (siehe auch Abb. 8.4), so dass

f (ξ) = c.

Insbesondere folgt, dass jede stetige Funktion mit f (a) < 0 und f (b) > 0 eine
Nullstelle in [a, b] hat.

a ξ b x

Abbildung 8.4. Offenbar ist im Bild f (a) ≤ c ≤ f (b), so dass nach dem Zwischenwert-
satz ein ξ mit f (ξ) = c existiert.

Beweis. Indem wir zu ±( f (x)±c) übergehen, genügt es, die zweite Aussage zu
zeigen. Sei also f (a) < 0 und f (b) > 0. Wir konstruieren induktiv monotone
Folgen, die gegen die Nullstelle konvergieren mit dem sogenannten Inter-
vallhalbierungsalgorithmus: Wir setzen zunächst x0 = a und y0 = b. Sind xn
x +y
und yn schon konstruiert, so betrachten wir x = n 2 n und f (x). Dann seien


 falls f (x) < 0,
x,
xn+1 =

xn , sonst,



 yn , falls f (x) < 0,
yn+1 =

x, sonst.

Dann gilt offenbar:

1. f (xn ) < 0 ∀n und f (yn ) ≥ 0 ∀n.


2. |yn − xn | = 2−n (b − a).
3. (xn ) ist monoton steigend und (yn ) monoton fallend.
130 8 Stetigkeit

Beide Folgen konvergieren also und wegen

lim (yn − xn ) = lim 2−n (b − a) = 0


n→∞ n→∞

ist ξ = limn→∞ xn = limn→∞ yn . Wegen der Stetigkeit von f gilt:

f (ξ) = lim f (xn ) ≤ 0,


n→∞

da f (xn ) < 0 ∀n und


f (ξ) = lim f (yn ) ≥ 0,
n→∞

da f (yn ) ≥ 0 ∀n. Also folgt: f (ξ) = 0. ⊓


Satz/Definition 8.10 (Existenz von Maximum und Minimum stetiger Funk-


tionen). Es sei f : [a, b] → R eine stetige Funktion auf einem abgeschlossenen,
beschränkten Intervall. Dann existieren xmax , xmin ∈ [a, b] mit
{ }
f (xmax ) = sup f (x) | x ∈ [a, b] ,
{ }
f (xmin ) = inf f (x) | x ∈ [a, b] .

Insbesondere ist f beschränkt.


Wir sagen: f nimmt in xmax das Maximum an, geschrieben:

max f (x) := f (xmax ).


x∈[a,b]

Analog für das Minimum: minx∈[a,b] f (x) := f (xmin ).

Bemerkung 8.11. Dass [a, b] abgeschlossen ist, ist wesentlich: Die Funktion
f (x) = 1x nimmt auf ]0, ∞[ kein Maximum und Minimum an.

Beweis (der Existenz von Maximum und Minimum, Satz 8.10). Sei
{ }
M = sup f (x) | x ∈ [a, b] ∈ R ∪ {∞}.

Wir wählen eine Folge (xn ) mit xn ∈ [a, b], so dass limn→∞ f (xn ) = M (bzw. f (xn )
unbeschränkt wächst, falls M = ∞). Nach dem Satz von Bolzano–Weierstrass
5.33 hat (xn ) eine konvergente Teilfolge (xnk ). Sei xmax := limk→∞ xnk . Dann gilt:

f (xmax ) = lim f (xnk ) = M


k→∞

wegen der Stetigkeit von f . Insbesondere ist M < ∞. ⊓


Bemerkung 8.12. Im vorigen Beweis kann man den Übergang zu einer Teil-
folge im Allgemeinen nicht vermeiden. Dies zeigt das Beispiel: f (x) =
1 − (x2 − 1)2 auf [−2, 2] (Abb. 8.5). Die Ausgangsfolge (xn ) könnte zwischen
den zwei Maxima xmax = ±1 hin und her springen.
8.2 Der Zwischenwertsatz und Anwendungen 131

xn xn+1 x

Abbildung 8.5. Eine Funktion mit zwei Maxima auf dem selben Niveau.

Definition 8.13. Eine Funktion f : I → R auf einem Intervall heißt monoton


wachsend (oder monoton steigend), wenn f (x1 ) ≤ f (x2 ) für x1 < x2 ; streng
monoton wachsend (oder streng monoton steigend), wenn f (x1 ) < f (x2 ) für
x1 < x2 . Analog sind monoton fallend und streng monoton fallend definiert.
f heißt streng monoton, falls f entweder streng monoton wachsend oder streng
monoton fallend ist.
Vorlesung vom:
Satz 8.14. 9. Januar 2008
Qualitätsstand:
1. Sei f : I → R eine stetige Funktion auf einem Intervall. Dann ist J = f (I) ⊂ R noch der Mitschrift an-
ebenfalls ein Intervall. zupassen
2. Ist f außerdem streng monoton, dann ist die Abbildung f : I → J bijektiv. Mit
f −1 : J → I ⊂ R bezeichnen wir dann die Umkehrfunktion, d.h. die Abbildung
mit f −1 ( f (x)) = x ∀x ∈ I.

Beweis. 1. J ist ein Intervall, wenn mit y1 , y2 ∈ J auch alle Punkte zwischen
y1 und y2 in J liegen. Dies ist der Fall nach dem Zwischenwertsatz 8.9.
2. Ist f streng monoton, so ist f : I → R injektiv. Also ist f : I → J injektiv
und surjektiv, d.h. insbesondere bijektiv, so dass die Umkehrfunktion
f −1 : J → I erklärt ist.

Definition 8.15. Sei f : D → R eine Funktion und x0 ∈ R\D ein Punkt, für den es
eine Folge (xn ) mit xn ∈ D und limn→∞ xn = a gibt. Existiert für jede Folge (xn ) auf
D mit limn→∞ xn = a der Grenzwert limn→∞ f (xn ), so dass alle diese Grenzwerte
gleich sind, so bezeichnen wir mit

lim f (x) := lim f (xn )


x→a n→∞

den gemeinsamen Grenzwert.

Beispiel 8.16. Die Funktion


132 8 Stetigkeit

x2 − 1
f (x) =
x−1
ist zunächst nur auf D = R\{1} definiert. Da aber
(x − 1)(x + 1)
lim f (x) = lim = lim(x + 1) = 2
x→1 x→1 x−1 x→1

ist, lässt sich die Funktion f : D → R zu einer stetigen Funktion f˜: R → R


fortsetzen: f˜(x) = x + 1.

Definition 8.17. Die Notation limx↗a f (x) verwenden wir, wenn wir nur Folgen
(xn ) mit xn < a betrachten. Analog: limx↘a f (x).

Aufgaben

Aufgabe 8.1 (Stetigkeit). Bestimmen Sie, in welchen Punkten die folgende


Funktion stetig ist:


−x + 1, x ≤ −1,


 2
f (x) = 
x + 5x + 7, −1 < x ≤ 0,


x + 7, x > 0.

Aufgabe 8.2 (Stetigkeit). Die drei Funktionen f, g, h : R → R seien folgen-


denmaßen definiert:


 x ∈ Q,
x,
f (x) = 

1 − x, x < Q,



1, x ∈ Q,
g(x) =  
0, x < Q,


 p
 q , x = q ∈ Q mit p, q ∈ Z teilerfremd, q > 0,
1
h(x) =  
0, x < Q.

1
Zeigen Sie: f ist nur in 2 stetig, g ist nirgendwo stetig und h ist genau in allen
irrationalen x stetig.

Aufgabe 8.3 (Leinenwurf). In einem Raum ist eine Leine von der Fenster-
wand zur gegenüberliegenden Wand gespannt. Jetzt wird die Leine an beiden
Seiten gelöst und irgendwie in die Mitte des Raumes geworfen.
Zeigen Sie: Es gibt einen Punkt auf der Leine, der genauso weit von der
Fensterwand entfernt ist wie zuvor.
8.2 Der Zwischenwertsatz und Anwendungen 133

Aufgabe 8.4 (Stetige Funktionen).

1. Gibt es eine stetige Funktion f : R → R, die jeden ihrer Werte genau


zweimal annimmt?
2. Gibt es eine stetige Funktion f : R → R, die jeden ihrer Werte genau
dreimal annimmt?
9

Differentiation

...
Problem:
sinnvollen Einlei-
tungstext
9.1 Differenzierbarkeit

Definition 9.1. Sei f : I → R eine Funktion auf einem Intervall und x0 ∈ I. f heißt
in x0 differenzierbar (kurz auch: diffbar), falls der Grenzwert

f (x) − f (x0 )
lim
x→x0 x − x0
existiert.

Geometrisch lässt sich der Differenzenquotient

f (x) − f (x0 )
x − x0
als Steigung der Sekante durch die Punkte (x0 , f (x0 )) und (x, f (x)) des Gra-
phen G f interpretieren (Abb. 9.1). Der Grenzwert lässt sich also als Steigung
der Tangente an G f im Punkt (x0 , f (x0 )) interpretieren und f ist in x0 diffe-
renzierbar, wenn G f in (x0 , f (x0 )) vernünftig eine nicht senkrechte Tangente
zugeordnet werden kann.

Definition 9.2. f : I → R ist auf I differenzierbar, wenn f in jedem Punkt x0 ∈ I


differenzierbar ist. Die Funktion

f (x + h) − f (x)
f ′ : I → R, f ′ (x) = lim
h→0 h
nennen wir dann die Ableitung von f auf I.
136 9 Differentiation

Abbildung 9.1. Differenzenquotient als Sekantensteigung. Gezeigt ist die Sekante


f (x)− f (x )
durch (x0 , f (x0 )) und (x, f (x)) mit Steigung x−x0 0 .

Bemerkung 9.3. 1. Differenzierbarkeit ist fundamental, um Begriffe wie Ge-


schwindigkeit in der Physik überhaupt definieren zu können. Beschreibt
f : I → R, t 7→ f (t) die Bewegung eines Punktes f (t) in R, so ist f ′ (t) die
Geschwindigkeit zum Zeitpunkt t.
.
2. Von Newton stammt die Notation f ′ (x) bzw. f (t) bei Ableitungen nach
der Zeit. Leibniz hat die in gewisser Weise bessere Notation
df
(x0 ) = f ′ (x0 )
dx
verwendet.

Satz 9.4. Sei f : I → R eine Funktion und x0 ∈ I. Dann gilt: f ist differenzierbar in
x0 ⇒ f ist stetig in x0 .
f (x)− f (x0 )
Beweis. Existiert limx→x0 x−x0 , dann auch der Grenzwert
( f (x) − f (x0 ) )
lim · (x − x0 ) = lim ( f (x) − f (x0 ))
x→x0 x − x0 x→x0

und ist
f (x) − f (x0 )
lim ( f (x) − f (x0 )) = lim · lim x − x0 = 0.
x→x0 x→x0 x − x0 x→x0

Also: limx→x0 f (x) = f (x0 ), d.h. f ist stetig in x0 nach dem Folgenkriterium.

Beispiel 9.5.

1. f (x) = x2 ist in jedem Punkt x0 ∈ R differenzierbar:

f (x) − f (x0 ) x2 − x20


lim = lim = lim (x + x0 ) = 2x0 .
x→x0 x − x0 x→x0 x − x0 x→x0


Also: f (x) = 2x.
9.2 Rechenregeln für Ableitungen 137

2. Konstante Funktionen f (x) = c sind differenzierbar mit f ′ (x) = 0.

In den Übungsaufgaben werden wir Funktionen kennen lernen, die zwar


stetig, aber an einigen Stellen nicht differenzierbar sind. In vielen einfachen
Fällen kann man solche Stellen dadurch erkennen, dass der Graph einen
Knick hat, wie z.B. die Betragsfunktion im Ursprung (siehe Abb. 9.2).
Problem:
Skizze fehlt:
fig:Betragsfunktion!

fig:Betragsfunktion

Abbildung 9.2. SKIZZE FEHLT!

Es gibt aber auch Funktionen, wie beispielsweise die sogenannte Koch–


Kurve, die zwar überall stetig, aber nirgends differenzierbar sind.

Definition 9.6. Sei f : I → R eine differenzierbare Funktion auf einem Intervall


und x0 ∈ I. f heißt in x0 stetig differenzierbar (kurz auch: stetig diffbar), falls die
Ableitung f ′ stetig ist.

In den Übungsaufgaben werden wir eine Funktion kennen lernen, die zwar
differenzierbar, aber nicht stetig differenzierbar ist.

9.2 Rechenregeln für Ableitungen

Satz 9.7 (Rechenregeln für Ableitungen). Seien f, g : I → R in x0 ∈ I differen-


zierbare Funktionen. Dann sind

f + g : I → R und f · g : I → R

in x0 ebenfalls differenzierbar mit Ableitungen

( f + g)′ (x0 ) = f ′ (x0 ) + g′ (x0 )


( f · g)′ (x0 ) = f ′ (x0 ) · g(x0 ) + g′ (x0 ) · f (x0 ).

Die zweite Regel heißt auch Leibnizregel oder Produktregel.


138 9 Differentiation

Ist g(x0 ) , 0, so ist auch

f
: I \ { x | g(x) = 0 } → R
g
in x0 differenzierbar und es gilt die Quotientenregel:
( f )′ f ′ g − f g′
(x0 ) = (x0 ).
g g2

Beweis. Die Aussage zu f + g folgt direkt aus der Definition. Zum Nachweis
der Produktregel betrachten wir

f (x)g(x) − f (x0 )g(x0 ) f (x) − f (x0 ) g(x) − g(x0 )


= g(x) + f (x0 )
x − x0 x − x0 x − x0
−→ f ′ (x0 )g(x) + f (x0 )g′ (x0 ).
x→x0

Für die Aussage über den Quotienten untersuchen wir zunächst den Spezi-
( )′ −g′
alfall 1g = g2 :

1
g(x) − 1
g(x0 ) 1 g(x0 ) − g(x) 1
= −→ 2 (−g′ (x0 )).
x − x0 g(x)g(x0 ) x − x0 x−x0 g (x0 )

Die allgemeine Regel folgt aus dem Spezialfall mit der Produktregel:
( 1 )′ 1 −g′ f ′ g − f g′
f· = f′ · + f · 2 = .
g g g g2

Beispiel 9.8.

1. Die Funktion f (x) = xn ist für beliebige n ∈ Z auf ihrem Definitionsbereich


diffbar mit
f ′ (x) = nxn−1 .
Für n ≥ 0 haben wir dies schon gesehen. Sei also n = −k, k > 0, d.h.
f (x) = x1k . Die Quotientenregel ergibt:

−kxk−1
f ′ (x) = = −kx−k+1 = nxn−1 .
(xk )2

f
2. Rationale Funktionen r = g sind auf ihrem Definitionsbereich diffbar. Ist
der Bruch gekürzt, so heißen die Nullstellen von g auch Polstellen der
rationalen Funktion.
9.2 Rechenregeln für Ableitungen 139

Satz 9.9 (Kettenregel). Es seien f : I → R, g : J → R diffbar mit f (I) ⊂ J. Dann


ist auch die Komposition

g ◦ f : I → R, (g ◦ f )(x) = g( f (x)),

diffbar mit
(g ◦ f )′ (x) = g′ ( f (x)) · f ′ (x).
Den Faktor f ′ (x) nennt man hierbei innere Ableitung.

Beweis. Es gilt:
(g ◦ f )(x + h) − (g ◦ f )(x) g( f (x + h)) − g( f (x)) f (x + h) − f (x)
= · .
h f (x + h) − f (x) h
Da mit h → 0 auch f (x + h) → f (x) gilt, da f stetig ist, folgt:
g( f (x + h)) − g( f (x))
−→ g′ ( f (x))
f (x + h) − f (x) h→0

und dann:
f (x + h) − f (x)
→ f ′ (x).
h
Dieses Argument ist gültig, sofern f (x+h)− f (x) , 0. Ist aber f (x+hn )− f (x) = 0
g( f (x+hn ))−g( f (x))
für eine Nullfolge (hn ), so folgt f ′ (x) = 0 und hn = 0, also gilt auch
in diesem Fall
g( f (x + hn )) − g( f (x))
lim = g′ ( f (x)) · f ′ (x) = 0.
n→∞ hn


Vorlesung vom:
Beispiel 9.10. Wir betrachten für f (x) = x2 + 1 und g(x) = x3 die Hintereinan- 14. Januar 2008
derausführung (g ◦ f )(x) = (x2 + 1)3 . Die Kettenregel ergibt: Qualitätsstand:
( )′ erste Version
(x2 + 1)3 = 3(x2 + 1)2 · 2x.

Wenn wir zunächst ausmultiplizieren, erhalten wir:

(x6 + 3x4 + 3x2 + 1)′ = 6x5 + 12x3 + 6x.

Beide Ergebnisse stimmen überein.

Satz 9.11 (Ableitung der Umkehrfunktion). Sei f : I → R eine streng monotone


diffbare Funktion, J = f (I) und x0 ∈ I ein Punkt mit f ′ (x0 ) , 0. Dann ist die
Umkehrfunktion f −1 : J → I ⊂ R in y0 = f (x0 ) diffbar mit
1 1
( f −1 )′ (y0 ) = ( )= .
f′ f −1 (y0 ) f ′ (x0 )
140 9 Differentiation

Zunächst eine Merkregel für die Formel: Da f ◦ f −1 = id J , gilt: ( f ◦ f −1 )′ = 1.


Andererseits liefert die Kettenregel 1 = f ′ ( f −1 (y0 )) · ( f −1 )′ (y0 ) und die Formel
folgt. Dies benutzt allerdings schon die Differenzierbarkeit der Umkehrfunk-
tion, so dass hierfür noch ein Beweis nötig ist.

Beweis (des Satzes 9.11 über die Ableitung der Umkehrfunktion). Nach Voraus-
f (x)− f (x )
setzung ist f ′ (x0 ) , 0, also x−x0 0 , 0 für x nahe x0 . Da mit x → x0 auch
y = f (x) → y0 = f (x0 ) folgt, erhalten wir:

f −1 (y) − f −1 (y0 ) x − x0 1
= −→ .
y − y0 f (x) − f (x0 ) y→y0 f ′ (x0 )



Beispiel/Definition 9.12 (k–te Wurzel). Sei g(x) = k x = x1/k , k ∈ N, die
Umkehrfunktion von der streng monotonen Funktion f : R≥0 → R, f (x) = xk .
Dann erhalten wir: f ′ (x) = kxk−1 , 0 für x , 0. Es folgt: g : R≥0 → R ist auf
R>0 diffbar mit
1 1 1−k 1 1
g′ (x) = √k = x k = x k −1 .
k( x) k−1 k k
Erneut ist die Exponentenregel gültig.

Aufgaben

Aufgabe 9.1 (Produktregel). Seien D ⊂ R und f, g : D → R zwei n Mal


differenzierbare Funktionen. Zeigen Sie:
n ( )
∑ n (n−k) (k)
( f · g)(n) = f g .
k
k=0

Aufgabe 9.2 (Approximierung).


√ Schreiben Sie zwei Programme (z.B. mit
Maple), um k a zu berechnen; verwenden Sie dabei einmal das Intervall-
Halbierungsverfahren und einmal das Newtonverfahren. Zählen Sie, wievie-
√4
le Iterationen Ihre beiden Verfahren benötigen, um 3 mit einer Genauigkeit
von mindestens 10−5 zu berechnen. Verwenden Sie [1, 2] als Startintervall für
das Intervall-Verfahren und 1 als Startwert für das Newtonverfahren.

Aufgabe 9.3 (Optimierung). Eine Konservendose von 320 ml Inhalt soll so


dimensioniert werden, dass der Blechverbrauch minimal ist. Wir nehmen
dabei an, die Konservendose sei ein perfekter Zylinder. Welche Höhe und
welchen Durchmesser hat die Dose?
Hinweis: Dabei dürfen Sie die aus der Schule bekannten Formeln für Volumen
und Mantel eines Zylinders verwenden.
9.2 Rechenregeln für Ableitungen 141

Aufgabe 9.4 (Mehrfache Nullstellen). Für welche a, b ∈ R hat f (x) = x3 −ax+b


eine doppelte Nullstelle (d.h. eine Stelle x0 mit f (x0 ) = f ′ (x0 ) = 0)? Für welche
a, b hat die Funktion genau eine, zwei bzw. drei reelle Nullstellen?

Aufgabe 9.5 (Differenzierbarkeit). Zeigen Sie:

1. Die Betragsfunktion |.| : R → R, x 7→ |x|, ist in x , 0 differenzierbar, in


x = 0 aber nicht.
2. Die Funktion 


x · sin x , falls x , 0,
2 1
x 7→ 

0, falls x = 0,
ist differenzierbar, aber nicht zweimal differenzierbar.
10

Mittelwertsatz und lokale Extrema

Ableitungen werden häufig eingesetzt, um lokale Extrema, d.h. Minima oder


Maxima, zu bestimmen. Eines der bekanntesten Verfahren zur Bestimmung
einer Nullstelle einer differenzierbaren Funktion, das Newtonverfahren, be-
nutzt ebenfalls Ableitungen.

10.1 Die erste Ableitung

Definition 10.1. Seien f : I → R eine Funktion und x0 ∈ I. f hat in x0 ein lokales


Maximum bzw. lokales Minimum, wenn ∃ h > 0, so dass ]x0 − h, x0 + h[⊂ I und

f (x0 ) ≥ f (x) bzw. f (x0 ) ≤ f (x) ∀x ∈ ]x0 − h, x0 + h[.

Ein lokales Extremum ist ein lokales Maximum oder Minimum. Gilt

f (x0 ) > f (x) bzw. f (x0 ) < f (x) ∀x ∈ ]x0 − h, x0 + h[, x , x0 ,

so spricht man von einem isolierten Extremum.


Absolute Maxima (auch globale Maxima) sind Stellen x0 , für die f (x0 ) ≥
f (x) ∀x ∈ I gilt. Absolute Minima und absolute Extrema (auch globale Mi-
nima und globale Extrema) sind analog definiert.

Satz 10.2. Hat f : ]a, b[→ R in x0 ∈ ]a, b[ ein lokales Extremum und ist f in x0
diffbar, so gilt f ′ (x0 ) = 0.

Beweis. Wir betrachten den Fall eines lokalen Maximums. Es gilt:

f (x) − f (x0 ) f (x) − f (x0 )


≤ 0 für x > x0 und ≥ 0 für x < x0 .
x − x0 x − x0
Es folgt
144 10 Mittelwertsatz und lokale Extrema

Abbildung 10.1. Die Ableitung in einem lokalen Extremum verschwindet.

f (x) − f (x0 )
0 ≥ lim = f ′ (x0 ) ≥ 0
x→x0 x − x0
und damit die Behauptung. ⊓

Bemerkung 10.3. f ′ (x) = 0 ist notwendig, aber nicht hinreichend für lokale
Extrema einer diffbaren Funktion, wie das folgende Beispiel (Abb. 10.2) zeigt:
f (x) = x3 erfüllt f ′ (0) = 0, aber x0 = 0 ist kein lokales Extremum.

Abbildung 10.2. Eine verschwindende Ableitung ist kein hinreichendes Kriterium


für die Existenz eines lokalen Extremums, wie die Abbildung zeigt. Hier ist f (x) = x3 .

Satz 10.4 (Satz von Rolle). Sei f : [a, b] → R eine stetige und auf ]a, b[ diffbare
Funktion mit f (a) = f (b). Dann existiert ein ξ ∈ ]a, b[ mit f ′ (ξ) = 0 (Abb. 10.3).

Beweis. Ist f konstant, dann hat jedes ξ ∈ ]a, b[ diese Eigenschaft. Anderen-
falls verwenden wir, dass f auf [a, b] sowohl Maximum als auch Minimum
annimmt. Da f (a) = f (b) und f nicht konstant ist, können Maximum und
Minimum nicht beide die Randpunkte sein. Es folgt, dass f auf ]a, b[ ein
Extremum an der Stelle ξ annimmt, das also f ′ (ξ) = 0 erfüllt. ⊓

Satz 10.5 (Mittelwertsatz (MWS)). Sei f : [a, b] → R stetig und auf ]a, b[ diffbar.
Dann existiert ein ξ ∈ ]a, b[ mit (siehe auch Abb. 10.4):
10.1 Die erste Ableitung 145

Abbildung 10.3. Der Satz von Rolle.

f (b) − f (a)
= f ′ (ξ).
b−a

Abbildung 10.4. Der Mittelwertsatz.

Beweis. Wir betrachten


f (b) − f (a)
F(x) = f (x) − (x − a).
b−a
Dann gilt:
F(a) = f (a) = F(b).
f (b)− f (a)
F ist diffbar mit F′ (x) = f ′ (x) − b−a . Nach dem Satz von Rolle existiert ein
ξ ∈ ]a, b[ mit F′ (ξ) = 0. ⊓

Korollar 10.6. Sei f : [a, b] → R stetig und in ]a, b[ diffbar. Außerdem nehmen wir
an, dass m, M ∈ R existieren mit m ≤ f ′ (x) ≤ M ∀x ∈ ]a, b[. Dann gilt für x1 < x2
mit a ≤ x1 < x2 ≤ b (Abb. 10.5):

m·(x2 − x1 ) ≤ f (x2 ) − f (x1 ) ≤ M·(x2 − x1 ).

f (x2 )− f (x1 )
Beweis. Nach dem Mittelwertsatz gilt für x1 < x2 : m ≤ x2 −x1 ≤ M. ⊓

146 10 Mittelwertsatz und lokale Extrema

Abbildung 10.5. Schranken für die Differenz zweier Funktionswerte.

Korollar 10.7. Sei f : [a, b] → R stetig und in ]a, b[ diffbar. Gilt f ′ (x) = 0 ∀x ∈
]a, b[, so ist f konstant.

Beweis. Wäre f nicht konstant, so gäbe es x1 , x2 mit f (x1 ) , f (x2 ) und dann
mit dem Mittelwertsatz ein ξ ∈ ]a, b[ mit f ′ (ξ) , 0, im Widerspruch zur
Voraussetzung. ⊓ ⊔

Satz 10.8. Es sei f : [a, b] → R stetig und in ]a, b[ diffbar. Gilt f ′ (x) > 0 (bzw. ≥ 0,
< 0, ≤ 0) ∀x ∈ ]a, b[, dann ist f streng monoton wachsend (bzw. monoton wachsend,
streng monoton fallend, monoton fallend).

Beweis. Wir verwenden den Mittelwertsatz: Angenommen, es existieren x1 , x2


mit x1 < x2 , aber f (x1 ) ≥ f (x2 ), so existiert ξ mit f ′ (ξ) ≤ 0 im Widerspruch zur
Voraussetzung. ⊓ ⊔

10.2 Höhere Ableitungen

Definition 10.9 (höhere Ableitungen). Sei f : I → R diffbar. f heißt 2–mal


diffbar, wenn f ′ : I → R ebenfalls diffbar ist. f (2) := f ′′ := ( f ′ )′ bezeichnet dann die
2–te Ableitung. Allgemeiner ist f n–mal diffbar, wenn

f (n) := ( f (n−1) )′

existiert.

Satz 10.10 (hinreichendes Kriterium für Extrema). Sei f : ]a, b[→ R zweimal
diffbar. Ist f ′ (x0 ) = 0 und f ′′ (x0 ) , 0, so hat f in x0 ein isoliertes lokales Extremum.
Dieses ist ein Maximum, wenn f ′′ (x0 ) < 0 und ein Minimum, wenn f ′′ (x0 ) > 0.

Beweis. Wir betrachten den Fall, dass f ′ (x0 ) = 0 und f ′′ (x0 ) < 0. Dann gilt:

f ′ (x) − f ′ (x0 )
lim < 0.
x→x0 x − x0
10.2 Höhere Ableitungen 147

Es folgt, dass ein ε > 0 existiert, so dass

f ′ (x) > 0 für x ∈ ]x0 − ε, x0 [ und f ′ (x) < 0 für x ∈ ]x0 , x0 + ε[.

Es folgt, dass f in ]x0 − a, x0 ] streng monoton wachsend und in [x0 , x0 + ε[


streng monoton fallend ist. x0 ist also ein isoliertes Maximum. ⊓

Beispiel 10.11. Sei f (x) = x2 . Dann ist f ′ (x) = 2x, f ′′ (x) = 2 > 0 ∀x, also
f ′ (0) = 0, f ′′ (0) > 0. Daher ist 0 ein Minimum von f . Analog ist 0 ein Maximum
von g(x) = −x2 , da g′ (0) = 0 und g′ (0) < 0. Siehe auch Abb. 10.6.

Abbildung 10.6. Parabeln mit Maximum bzw. Minimum.

Vorlesung vom:
Definition 10.12. Sei f : ]a, b[→ R dreimal diffbar. Ein Punkt x0 ∈ ]a, b[ mit 16. Januar 2008
f ′′ (x0 ) = 0, f ′′′ (x0 ) , 0 heißt Wendepunkt von f . Ist f ′ (x0 ) = 0, so heißt x0 Qualitätsstand:
Sattelpunkt von f . noch der Mitschrift an-
passen
Problem:
Was ist mit x 7→ x5 ?
Besser Definition mit
konkav zu konvex?

Abbildung 10.7. Die Umgebung eines Wendepunktes.

Definition 10.13. Sei I ⊂ R ein Intervall f : I → R heißt konvex (Abb. 10.8),


wenn ∀x1 , x2 ∈ I und alle λ mit 0 ≤ λ ≤ 1:

f (λx1 + (1 − λ)x2 ) ≤ λ f (x1 ) + (1 − λ) f (x2 ).

f heißt konkav, wenn − f konvex ist.


148 10 Mittelwertsatz und lokale Extrema

Abbildung 10.8. Definition von konvex.

Beispiel 10.14. Sei f (x) = x3 − x. Es ist f ′′ (x) = 6x, f ′′′ (x) = 6 , 0. Diese
Funktion ändert sich im Wendepunkt x0 = 0 von konkav zu konvex.

Satz 10.15. Sei f : I → R eine zwei Mal diffbare Funktion auf einem Intervall I.
Dann gilt:
f ist konvex ⇐⇒ f ′′ (x) ≥ 0 ∀x ∈ I.

10.3 Das Newtonverfahren zur Berechnung von Nullstellen

Mit den bisherigen Resultaten in diesem Kapitel können wir nun also die
aus der Schule bekannte Kurvendiskussion zum Studium des Aussehens re-
eller Funktionen in einer Variablen durchführen, sofernd diese ausreichend
oft differenzierbar sind. Ein Problem haben wir allerdings noch vernachläs-
sigt, nämlich die Berechnung der Nullstellen solcher Funktionen. Von einigen
speziellen Funktionen, wie beispielsweise Polynomen vom Grad ≤ 2 können
wir sie bestimmen, doch wie sieht es im Allgemeinen aus? Hierzu liefert ein
Iterationsverfahren, nämlich das sogenannte Newtonverfahren, näherungs-
weise eine Möglichkeit, zumindest, wenn man sich schon nahe genug an einer
der Nullstellen befindet.
Sei also f : [a, b] → R eine zweimal diffbare Funktion mit f (a) < 0, f (b) > 0.
Die Idee ist folgende: Ist x0 ein Startwert, so setzen wir:

f (xn )
xn+1 := xn − ,
f ′ (xn )

d.h. xn+1 ist die Nullstelle der Tangente in (xn , f (xn )) an den Graphen von f
(Abb. 10.9).

Satz/Definition 10.16. Sei f : [a, b] → R zweimal diffbar, f (a) < 0, f (b) > 0 und
konvex. Dann gilt:

1. Es gibt genau eine Nullstelle ξ ∈ [a, b].


10.3 Das Newtonverfahren zur Berechnung von Nullstellen 149

Abbildung 10.9. Die Idee des Newtonverfahrens.

2. Ist x0 ∈ [a, b] ein beliebiger Startwert mit f (x0 ) ≥ 0, so konvergiert die Folge
f (x )
(xn ) mit xn+1 = xn − f ′ (xnn ) monoton fallend gegen ξ.
3. Ist f ′ (x) ≥ c > 0 und f ′′ (x) < k ∀x ∈ [ξ, b], so gilt die Abschätzung:

k
|xn+1 − xn | ≤ |ξ − xn | ≤ |xn − xn−1 |2 .
2c
Man sagt deshalb, dass das Newtonverfahren quadratisch konvergiert.

Das Newtonverfahren ist wegen der quadratischen Konvergenz meist we-


sentlich schneller als das Intervallhalbierungsverfahren aus dem Beweis des
Zwischenwertsatzes 8.9.

Beispiel 10.17. Wir betrachten f (x) = x2 − a. Dann ist

x2n − a 1 ( a)
xn+1 = xn − = xn +
2xn 2 xn

unser Verfahren zur Berechnung der Quadratwurzel a aus Satz 5.27.

Beweis (des Satzes 10.16 zum Newtonverfahren).

1. f hat eine Nullstelle nach dem Zwischenwertsatz und genau eine, da f


konvex ist (siehe Abb. 10.10).
2. f ist konvex. Daher: f (xn ) > 0 ⇒ f ′ (xn ) > 0 und ξ ≤ xn+1 < xn (s. Abb.
10.11). Die Folge (xn ) ist wohldefiniert, monoton fallend, beschränkt und
daher konvergent. Der Grenzwert erfüllt: f (x) = 0, also: x = ξ.
Problem:
3. Da f ′ monoton wächst, gilt f ′ (x) ≥ c > 0 ∀x ∈ [ξ, b]. Mit dem Mittel- Beschränktheit aus-
f (x )
wertsatz folgt: |ξ − xn | ≤ c n . Um f (xn ) abzuschätzen, betrachten wir die führlich erklären!
Hilfsfunktion
k
ψ(x) = f (x) − f (xn−1 ) − f ′ (xn−1 )(x − xn−1 ) − (x − xn−1 )2 .
2
150 10 Mittelwertsatz und lokale Extrema

Abbildung 10.10. Konvexität erzwingt: höchstens eine Nullstelle.

Abbildung 10.11. Konvexität erzwingt: Steigung positiv.

Dafür gilt:

ψ′ (x) = f ′ (x) − f ′ (xn−1 ) − k(x − xn−1 )


ψ′′ (x) = f ′′ (x) − k ≤ 0 ∀x ∈]ξ, b[.

ψ fällt also monoton. Da ψ′ (xn−1 ) = 0 ist, folgt: ψ′ (x) ≥ 0∀x ∈]ξ, xn−1 [. Da
außerdem ψ(xn−1 ) = 0 ist, gilt auch: ψ(x) ≤ 0 ∀x ∈]ξ, xn−1 [ und insbeson-
dere ψ(xn ) ≤ 0, d.h. f (xn ) ≤ 2k (xn −xn−1 )2 , da f (xn−1 )+ f ′ (xn−1 )(xn −xn−1 ) = 0.
Also: |xn+1 − xn | ≤ |ξ − xn | ≤ 2ck (xn − xn−1 )2 .

Aufgaben

Aufgabe 10.1 (Kurvendiskussion). Diskutieren Sie die folgenden Funktio-


nen, d.h. bestimmen Sie alle Nullstellen, lokale Minima und Maxima, Wende-
punkte, Polstellen, den Definitionsbereich und das asymptotische Verhalten.
Fertigen Sie jeweils eine Skizze an.

x3 − 3x
f1 (x) =
x2 − 4
f2 (x) = xe− x
1

f3 (x) = 2 cos x − x2
10.3 Das Newtonverfahren zur Berechnung von Nullstellen 151

Aufgabe 10.2 (Extrema). Sei a ∈ R. Bestimmen Sie alle Minima und Maxima
der Funktion
f (x) = sin(x + a) sin(x − a).
11

Spezielle Funktionen

Wir besprechen nun einige wichtige Beispiele differenzierbarer Funktionen,


wie die Exponentialfunktion, den Logarithmus, sowie einige trigonometri-
sche Funktionen, z.B.: Sinus, Cosinus, Tangens, Arcussinus, Arcustangens.
Dabei geben wir auch eine exakte Definition der Kreiszahl π.

11.1 Die Exponentialfunktion

haben wir die Exponentialfunktion exp : R → R bereits durch


In Beispiel 7.3 ∑
ex = exp(x) = ∞ xn
n=0 n! mit Konvergenzradius R = ∞ definiert und anschlie-
ßend erste Eigenschaften, wie e(x1 +x2 ) = ex1 · ex2 und e−x = e1x mit e = exp(1),
hergeleitet.
Unser erstes Ziel ist es nun, die Differenzierbarkeit der Exponentialfunktion
zu zeigen. Zunächst im Nullpunkt:

exp(x) − exp(0) ∑ xn−1



= −→ ?
x−0 n! x→0
n=1

Lemma 11.1 (Restgliedabschätzung der Exponentialreihe). Wir definieren für


N ∈ N die Funktion rN+1 durch


N
xn
exp(x) = + rN+1 (x).
n=0
n!

Dann gilt:
|x|N+1 N
|rN+1 (x)| ≤ 2 für |x| ≤ 1 + .
(N + 1)! 2
154 11 Spezielle Funktionen
∑∞ xn
Beweis. Es ist rN+1 (x) = n=N+1 n! , also:



|xn |
|rN+1 (x)| ≤
n!
n=N+1
|x| N+1( |x| |x|2 )
= 1+ + + ···
(N + 1)! N + 2 (N + 2)(N + 3)
|x|N+1 ∑
∞ (
|x| )k
≤ ·
(N + 1)! N+2
k=0
|x|
N+1
1
≤ ·
(N + 1)! 1 − 1
2
|x|N+1
= 2· ,
(N + 1)!

wie behauptet. ⊔

Satz 11.2. Die Funktion exp : R → R ist diffbar mit exp′ (x) = exp(x).

Beweis. Wir zeigen zunächst, dass exp′ (0) = 1 gilt. Dazu bemerken wir, dass
exp(x)−1 ∑ xn−1 rN+1 (x)
x = N
n=1 n! + x . Wegen

rN+1 (x) 1 |x|N


0≤| |≤ −→ 0
x 2 (N + 1)! x→0

folgt:
exp(x) − exp(0) (∑
N
xn−1 )
exp′ (0) = lim = lim + 0 = 1.
x→0 x x→0 n!
n=1

Im allgemeinen Fall x0 ∈ R verwenden wir das Additionstheorem:

exp(x0 + h) − exp(x0 ) exp(h) − 1


= exp(x0 ) · −→ exp(x0 ) · 1 = exp(x0 ).
h h n→∞

Tatsächlich folgt also: exp′ = exp. ⊓


Direkt folgt:

Korollar 11.3. exp ist streng monoton steigend und konvex (Abb. 11.1).

Das häufige Auftreten der Exponentialfunktion bei der Beschreibung von Na-
turvorgängen liegt daran, dass y = ecx eine Lösung der Differentialgleichung
y′ = cy ist. Genauer gilt:
11.2 Der Logarithmus 155

Abbildung 11.1. Die Exponentialfunktion ist streng monoton steigend und konvex.

Satz 11.4. Sei f : I → R eine Funktion auf einem Intervall, die f ′ = c f erfüllt. Dann
gilt:
f (x) = f (x0 ) · ec(x−x0 ) ,
wobei x0 ∈ I ein beliebiger fester Punkt ist.

Beweis. Wir betrachten die Funktion h(x) = f (x) · e−cx . Dann gilt:

h′ (x) = f ′ (x)e−cx + f (x)(−c)e−cx = c f (x)e−cx − c f (x)e−cx = 0

für jedes x ∈ I. Es folgt, dass h konstant ist. Setzen wir x0 ein, so erhalten wir:

h(x) = f (x)e−cx = h(x0 ) = f (x0 )e−cx0 ,

also: f (x) = f (x0 )ec(x−x0 ) . ⊓


Die Abbildung exp : R → R>0 ist bijektiv und wegen des Additionstheorems
ein sogenannter Isomorphismus von Gruppen (R, +) → (R>0 , ·), d.h. in die-
sem Spezialfall: exp(x + y) = exp(x) · exp(y) für alle x, y ∈ R. Genauer werden
wir Gruppen im zweiten Semester kennen lernen.

11.2 Der Logarithmus


Vorlesung vom:
Definition 11.5. Die Umkehrfunktion 21. Januar 2008
Qualitätsstand:
ln : R>0 → R
erste Version
von exp heißt der natürliche Logarithmus.

Satz 11.6 (Eigenschaften des Logarithmus). Es gilt:

1. ln(x1 · x2 ) = ln x1 + ln x2 .
2. ln ist diffbar mit (ln x)′ = 1x .
156 11 Spezielle Funktionen

Abbildung 11.2. ln ist konkav und monoton wachsend.

Abbildung 11.3. Der Rechenschieber basiert auf dem Logarithmus.

3. ln ist konkav und monoton wachsend (Abb. 11.2).

Beweis. 1. Dies folgt aus dem Additionstheorem der Exponentialfunktion.


Hierauf basiert der Rechenschieber, siehe Abb. 11.3.
2. Nach dem Satz über die Ableitung der Umkehrfunktion ist

1 1
ln′ (x) = = .
exp(ln x) x

3. Dies folgt aus den Eigenschaften von exp.



Definition 11.7. Sei a ∈ R>0 . Dann definieren wir die Exponentiation zu einer
beliebigen Basis durch
ax := ex·ln a .

Satz 11.8. Es gilt:

1. ax1 +x2 = ax1 · ax2 .


p √q
2. Für x = q ∈ Q gilt: ax = ap . Dies stimmt mit der alten Definition 9.12 überein.
3. Die Funktion x 7→ ax ist diffbar mit (ax )′ = ln a · ax .
11.3 Trigonometrische Funktionen 157

Beweis. Die erste und letzte Aussage sind klar. Für die verbleibende betrach-
ten wir zunächst ganzzahlige positive Exponenten n ∈ Z>0 . Es gilt:

an (= a · · · a ) = (eln a )n = en ln a .
|{z}
n Mal

Ist n ∈ Z<0 , also n = −k < 0, so folgt:

1 1
= k ln a = e−k ln a = en ln a .
an =
ak e
√q p
Im Allgemeinen Fall müssen wir zeigen, dass ap = e q ln a , was äquivalent ist
p
zu ap = (e q ln a )q und Letzteres ist tatsächlich gleich ep ln a = (eln a )p = ap . ⊓

Definition 11.9. Für a ∈ R>0 bezeichnet

loga : R>0 → R

die Umkehrfunktion von x 7→ ax .

Bemerkung 11.10. loga x ist diffbar mit

1 1
(loga )′ (x) = = .
ln a · a a
log x x ln a
Besonders wichtig für die Informatik ist log2 n, die Anzahl der Binärstellen
einer natürlichen Zahl n, d.h. die Anzahl der Bits Information.

Beispiel 11.11. Wir betrachten die Funktion

f : R>0 → R, f (x) = xx .

f ist diffbar nach der Kettenregel: xx = ex ln x und


( 1)
f ′ (x) = ex ln x ln x + x · = (1 + ln x)·ex ln x = (1 + ln x)·xx .
x

Funktionen wie x 7→ xx tauchen in der Komplexitätstheorie auf: Einer der


besten bekannten Algorithmen, um eine Zahl n mit x = log2 n Binärstellen zu
1
faktorisieren, hat die Laufzeit O(e 2 x log2 x ).

11.3 Trigonometrische Funktionen

Wir hatten Sinus und Cosinus in Beispiel 7.3 bereits durch Potenzreihen
definiert:
Problem:
trigonometrisch defi-
nieren
158 11 Spezielle Funktionen



x2k+1 ∑ ∞
x2k
sin(x) = (−1)k und cos(x) = (−1)k .
(2k + 1)! (2k)!
k=0 k=0

Außerdem haben wir in Satz 7.25 bereits die Additionstheoreme und insbe-
sondere sin2 x + cos2 x = 1 ∀x ∈ R gezeigt.

Satz 11.12. Die Funktionen sin, cos : R → R sind diffbar mit

sin′ = cos, cos′ = − sin .

Beweis. Zunächst zeigen wir: sin′ (0) = 1 = cos(0) und cos′ (0) = 0 = sin 0:

sin h − 0 (∑∞
h2k )
sin′ (0) = lim = lim (−1)k = 1,
h→0 h h→0 (2k + 1)!
k=0

cos h − 1 (∑

h2k−1 )
cos′ (0) = lim = lim (−1)k = 0.
h→0 h h→0 (2k)!
k=1

Allgemein erhalten wir mit den Additionstheoremen:


sin(x0 + h) − sin(x0 ) cos h − 1 sin h − 0
= sin x0 · + cos x0 · −→ cos x0 .
h h h h→0

Entsprechend ergibt sich für den Cosinus:


cos(x0 + h) − cos(x0 ) cos h − 1 sin h − 1
= cos x0 · − sin x0 · −→ − sin x0 .
h h h h→0


Als nächstes werden wir die Zahl π definieren. Dazu zunächst ein Hilfssatz:

Lemma 11.13. Es gilt:

1. cos(0) = 1, cos(2) < 0.


2. sin(x) > 0 für x ∈ ]0, 2[.

Beweis. 1. Da wir cos(0) = 1 schon im Beweis von Satz 11.12 gesehen ha-
ben, beginnen wir mit cos(2). Dies ist eine alternierende Reihe monoton
fallender Glieder, denn:

22k 22k+2
> ⇐⇒ (2k + 1)(2k + 2) > 22 ⇐⇒ k ≥ 1.
2k! (2k + 2)!
Es folgt:

22 22 24 16 2 1
−1 = 1 − ≤ cos 2 ≤ 1 − + =1−2+ = −1 + = − .
2 2 4! 24 3 3
11.3 Trigonometrische Funktionen 159

2. Es gilt:
x2k+1 x2k+3
> ⇐⇒ (2k + 2)(2k + 3) > x2 .
(2k + 1)! (2k + 3)!
Für k ≥ 0 und 0 ≤ x ≤ 2 ist aber tatsächlich: 2k + 3 ≥ 2k + 2 ≥ x ≥ 0, d.h.
(2k + 2)(2k + 3) > x2 . Für x ∈ ]0, 2] folgt:

x3 ( x2 ) ( 22 )
x ≥ sin x ≥ x − =x· 1− ≥x· 1− > 0,
6 6 6
was zu zeigen war.

Damit können wir nun π definieren:

Korollar/Definition 11.14. cos ist in [0, 2] monoton fallend und wegen cos(0) = 1,
cos(2) < 0 hat cos genau eine Nullstelle in [0, 2]. Wir definieren die (auch Kreiszahl
genannte) Zahl π durch: π2 ist die Nullstelle von cos in [0, 2]. Also:
(π) (π)
cos = 0, sin = 1.
2 2

Leicht ergeben sich nun die folgenden Formeln:

Satz 11.15 (Verschiebungen von Sinus und Cosinus). Es gilt:

1. sin(x + π2 ) = cos x, cos(x + π2 ) = − sin x.


2. sin(x + π) = − sin x, cos(x + π) = − cos x.
3. sin(x + 2π) = sin x, cos(x + 2π) = cos x.

Man sagt, dass Sinus und Cosinus periodische Funktionen mit Periode 2π
sind (Abb. 11.4). Der Wert von π ist

π = 3.1415 . . .

Bemerkung 11.16 (zur Bedeutung von Sinus und Cosinus).

1. [0, 2π[→ R2 , t 7→ (cos t, sin t) parametrisiert den Einheitskreis.


2. Ist f eine Lösung der sogenannten Differentialgleichung (d.h. einer Glei-
chung, in der eine gesuchte Funktion y sowie eine oder mehrere ihrer
Ableitungen auftreten)
y′′ = −w2 y,
so ist f (x) = a cos(wx) + b sin(wx). Sinus und Cosinus tauchen bei der
Beschreibung von Schwingungsvorgängen auf.
160 11 Spezielle Funktionen

Abbildung 11.4. Funktionsgraphen von Sinus und Cosinus.

Definition 11.17. Die Abbildung


{π } sin x
tan : R \ + πk | k ∈ Z → R, x 7→ tan x =
2 cos x
heißt Tangens, sein Kehrwert

1 cos x
cot : R \ {kπ | k ∈ Z} → R, x 7→ cot x = =
tan x sin x
Cotangens. Siehe auch Abb. 11.5.

Abbildung 11.5. Funktionsgraph des Tangens.

Nach der Quotientenregel gilt:

cos x cos x − (− sin x) sin x 1


tan′ (x) = = .
cos2 x cos2 x

Satz/Definition 11.18.

1. tan : ] − π2 , π2 [ → R ist streng monoton steigend. Die Umkehrfunktion


] π π[
arctan : R → − , ⊂ R
2 2
heißt Arcustangens.
11.3 Trigonometrische Funktionen 161

2. Die Abbildung
[ π π]
sin : − , → [−1, 1]
2 2
ist streng monoton steigend. Die Umkehrfunktion
[ π π]
arcsin : [−1, 1] → − ,
2 2
heißt Arcussinus. Siehe dazu auch Abb. 11.6.

Abbildung 11.6. Funktionsgraph von Arcussinus.

Satz 11.19.

1. arcsin ist auf ] − π2 , π2 [ diffbar mit

1
arcsin′ (x) = √ .
1 − x2

2. arctan ist diffbar mit


1
arctan′ (x) = .
1 + x2

Beweis.

1. Wir haben schon gesehen, dass sin′ = cos. Damit erhalten wir:

1
arcsin′ (x) =
cos(arcsin(x))
1
= √
1 − sin2 (arcsin(x))
1
= √ .
1 − x2
162 11 Spezielle Funktionen

2. Wir wissen bereits, dass tan′ (x) = 1


cos2 (x)
. Damit folgt:

arctan′ (x) = cos2 (arctan(x))


cos2 (arctan(x))
=
sin2 (arctan(x)) + cos2 (arctan(x))
1
=
1 + tan (arctan(x))
2

1
= .
1 + x2


nicht oder nur knapp
Analog kann man auch einen Arcuscosinus definieren und dessen Ableitung
vorgetragen ...
ausrechnen, nämlich
arccos : [−1, 1] → [0, π]
als Umkehrfunktion von cos : [0, π] → [−1, 1]. Mit den Additionstheoremen
(Satz 7.25) sieht man recht leicht, dass man die Arcusfunktionen ineinander
umrechnen kann:
π
arccos(x) = − arcsin(x).
2
Analog zur Ableitung des Arcussinus erhält man jene des Arcuscosinus:

1
arccos′ (x) = − √ .
1 − x2
nicht oder nur knapp
vorgef"uhrt

Aufgaben

Aufgabe 11.1 (Eine Abschätzung für den Logarithmus). Seien x, y ∈ R,


x, y > 0, positive Zahlen. Zeigen Sie:

ln x + ln y x+y
≤ ln .
2 2
12

Asymptotisches Verhalten und Regel von


L’Hospital

Vorlesung vom:
Grenzwerte rationaler Funktionen sind mit den bisherigen Mitteln oft nicht 23. Januar 2008
einfach zu berechnen. Die Regel von L’Hospital1 ist in solchen Situationen
Qualitätsstand:
oft hilfreich. Insbesondere werden wir damit das asymptotische Verhalten erste Version
rationaler Funktionen recht einfach untersuchen können.

12.1 Die Regel von L’Hospital

Satz 12.1 (Regel von L’Hospital). Seien f, g : [a, b] → R stetige Funktionen, auf
]a, b[ differenzierbar mit g′ (x) , 0 ∀x ∈ ]a, b[ und f (a) = g(a) = 0. Existiert
f ′ (x) f (x)
limx↘a g′ (x) , dann existiert auch limx↘a g(x) und es gilt:

f (x) f ′ (x)
lim = lim ′ .
x↘a g(x) x↘a g (x)

Bevor wir dies beweisen, zunächst ein Beispiel:

f (0)
Beispiel 12.2. f (x) = sin(x), g(x) = ex − 1, [a, b] = [0, 1]. Der Quotient g(0) = 0
0
macht keinen Sinn, aber
f ′ (x) cos x
= x
g′ (x) e
ist stetig in x = 0 mit

1
Wikipedia sagt dazu: Die Regel ist nach Guillaume Francois Antoine, Marquis
de L’Hospital (1661–1704) benannt. L’Hospital veröffentlichte sie 1696 in seinem Buch
Analyse des infiniment petits pour l’intelligence des lignes courbes, dem ersten Lehrbuch
der Differentialrechnung. Er hatte sie aber nicht selbst entdeckt, sondern von Johann
Bernoulli übernommen.
164 12 Asymptotisches Verhalten und Regel von L’Hospital

f ′ (x) cos 0 1
lim = 0 = = 1.
x↘0 g′ (x) e 1
Also existiert
sin x cos x 1
lim = lim = = 1.
x↘0 ex − 1 x↘0 ex 1

Die Idee des Beweises der Regel von L’Hospital ist es, ein Analogon des
Mittelwertsatzes anzuwenden, nämlich folgendes:

Lemma 12.3. Seien f, g : [a, b] → R stetig, auf ]a, b[ diffbar mit g′ (x) , 0 ∀x ∈]a, b[
und g(a) , g(b). Dann existiert ein ξ ∈ ]a, b[, so dass:
f (b) − f (a) f ′ (ξ)
= ′ .
g(b) − g(a) g (ξ)

Beweis. Wir betrachten die Funktion


f (b) − f (a) (
h(x) = f (x) − · g(x) − g(a)).
g(b) − g(a)
Es gilt offenbar: h(a) = f (a) = h(b). Mit dem Satz von Rolle existiert daher ein
ξ ∈ ]a, b[, so dass:
f (b) − f (a) ′
0 = h′ (ξ) = f ′ (ξ) − g (ξ).
g(b) − g(a)
Da g′ (ξ) , 0 nach Voraussetzung, folgt:
f ′ (ξ) f (b) − f (a)

= .
g (ξ) g(b) − g(a)

Beweis (von L’Hospitals Regel, Satz 12.1). Da g′ (x) , 0 ∀x ∈ ]a, b[ und g(a) = 0,
ist g(x) , 0 ∀x ∈ ]a, b[ nach dem Satz von Rolle. Ferner gilt nach dem Lemma:
f (x) f (x) − f (a) f ′ (ξ)
= = ′
g(x) g(x) − g(a) g (ξ)
für ein ξ ∈ ]a, x[. Mit x ↘ a strebt auch ξ ↘ a. Also:
f (x) f ′ (ξ) f ′ (ξ)
lim = lim ′ = lim ′ .
x↘a g(x) ξ↘a g (ξ) x↘a g (ξ)

Von der sehr nützlichen Regel von L’Hospital gibt es viele Varianten. Um ei-
nige wichtige davon formulieren zu können, benötigen wir folgende Grenz-
wertbegriffe:
12.1 Die Regel von L’Hospital 165

Definition 12.4 (Konvergenz für x → ∞). Sei f : [a, ∞[→ R eine Funktion. Wir
sagen, f (x) strebt gegen c ∈ R für x gegen ∞, in Zeichen
lim f (x) = c,
x→∞

falls
∀ε > 0 ∃ N : | f (x) − c| < ε ∀x ≥ N.
Wir sagen: limx→∞ f (x) = ∞, falls
∀M > 0 ∃ N > 0 : f (x) > M ∀x > N.
Für f : ]a, b] → R schreiben wir limx↘a f (x) = ∞, falls
∀M > 0 ∃ ε > 0 : f (x) > M ∀x > a mit |x − a| < ε.
Analog lassen sich limx→−∞ f (x) = c oder etwa limx↗b f (x) = −∞ definieren.

Die Varianten folgen direkt aus der ursprünglichen Regel:

Korollar 12.5 (Varianten der Regel von L’Hospital).

1. Seien f, g : ]a, b[ → R diffbare Funktionen mit g′ (x) , 0 ∀x ∈ ]a, b[ und


lim f (x) = ∞ = lim g(x).
x↘a x↘a

f (x) f (x)
Existiert limx↘a g′ (x) , dann existiert auch limx↘a g(x) und es gilt:
f (x) f ′ (x)
lim = lim ′ .
x↘a g(x) x↘a g (x)

2. Seien f, g : ]a, ∞[ → R diffbare Funktionen mit g′ (x) , 0 ∀x ∈]a, ∞[ und


lim f (x) = 0 = lim g(x)
x→∞ x→∞

oder
lim f (x) = ∞ = lim g(x).
x→∞ x→∞
f ′ (x) f (x)
Existiert limx→∞ g′ (x) , dann existiert auch limx→∞ g(x) und es gilt:
f (x) f ′ (x)
lim = lim ′ .
x→∞ g(x) x→∞ g (x)
Beispiel 12.6. Wir zeigen: Für jedes n ∈ N ist
xn
= 0. lim
x→∞ ex

Es gilt: limx→∞ xn = limx→∞ ex = ∞. Die Regel von L’Hospital liefert dann:


xn nxn−1 1
=lim
lim = · · · = n! lim x = 0.
x→∞ ex x→∞ ex x→∞ e

Man sagt: ex wächst schneller als jedes Polynom.


166 12 Asymptotisches Verhalten und Regel von L’Hospital

12.2 Asymptotisches Verhalten rationaler Funktionen

Für Folgen haben wir in Abschnitt 5.3 die O– und o–Notation eingeführt.
Analog nun für Funktionen, um Aussagen wie die obige, dass ex schneller als
jedes Polynom wächst, präzise formulieren zu können.

Definition 12.7 (O– und o– Notation für Funktionen). Seien f, g : [a, ∞[→ R
Funktionen. Wir schreiben

f ∈ O(g) für x → ∞,

falls ∃ c > 0 ∃ M, so dass | f (x)| ≤ c · g(x) ∀x ≥ M, und sagen f liegt in groß O


f (x)
von g. Wir sagen f ∈ o(g), f liegt in klein o von g, falls limx→∞ g(x) = 0.

Beispiel 12.8.

1. xn ∈ o(ex ) für x → ∞ für jedes n ∈ N, wie wir gerade gesehen haben.


2. Sei f (x) = an xn + · · · + a0 ∈ R[x] ein Polynom. Dann gilt: f (x) ∈ O(xn ) für
x → ∞. Genauer gilt: Für jedes C = |an | + ε, ε > 0, ∃ M > 0, so dass:

| f (x)| ≤ C · xn ∀x ≥ M.

f (x)
Sei h(x) = g(x) eine rationale Funktion mit Polynomen

f (x) = an xn + · · · + a0 ∈ R[x],
g(x) = bm xm + · · · + b0 ∈ R[x],

vom Grad n bzw. m, d.h. an , bm , 0. Dann gilt, beispielsweise mit der Regel
von L’Hospital:
f (x)
lim = 0, falls n < m,
x→∞ g(x)

f (x) an
lim = , falls n = m,
x→∞ g(x) bm

f (x)  +∞, falls n > m und an
> 0,

lim =
bm
x→∞ g(x) −∞, falls n > m und an
bm < 0.

Im letzten Fall lässt sich eine wesentlich präzisere Aussage machen:

Satz 12.9 (Division mit Rest). Seien f, g ∈ R[x] Polynome in einer Variablen x
mit reellen Koeffizienten. Dann existieren eindeutig bestimmte Polynome q(x), r(x) ∈
R[x], so dass:

f (x) = q(x) · g(x) + r(x) und deg r < deg g.


12.2 Asymptotisches Verhalten rationaler Funktionen 167

Beweis. Zunächst zur Existenz, mit Induktion nach deg f . Für deg f < deg g
können wir q = 0 und r = f wählen. Ist n = deg f ≥ deg g = m, etwa

f = an xn + · · · + a0 , g = bm xm + · · · + b0

mit an , 0 , bm , so betrachten wir


an n−m
q0 := x und f1 := f − q0 · g.
bm
Es gilt: deg f1 < deg f . Wir können daher induktiv voraussetzen, dass eine
Darstellung f1 = q1 g + r1 existiert, also:

f = f1 + q0 · g = (q0 + q1 ) · g + r1 .

Nun zur Eindeutigkeit: Angenommen, f = q · g + r und f = q̃ · g + r̃ mit


deg g > deg r, deg g > deg r̃, sind zwei verschiedene Darstellungen, d.h.
insbesondere q , q̃. Dann ist

0 = ( q − q̃ ) · g + ( r − r̃ ) mit q̄ , 0, d.h. q̄ · g + r̄ = 0 mit deg(q̄) ≥ 0.


|{z} |{z}
=:q̄ =:r̄

Es folgt:
deg(q̄ · g) ≥ 0 + deg g > deg(r̄),
also q̄ · g + r̄ , 0, ein Widerspruch. Also: q = q̃ und r = r̃. ⊓

Beispiel 12.10. Wir betrachten die rationale Funktion

f (x) x3
h(x) = = 2 .
g(x) x − 1

Der Beweis des Satzes zur Division mit Rest gibt einen Algorithmus an, um
diese durchzuführen. Hier ergibt sich:

x3 : (x2 − 1) = x + x
x2 −1
,
x3 − x
x

d.h. q(x) = x, r(x) = x, also f (x) = x3 = x · (x2 − 1) + x = q(x) · g(x) + r(x).


Es folgt: h(x) ∈ x + o(1), d.h. asymptotisch verhält sich h(x) in etwa wie x. In
der Nähe von 0 unterscheidet sich h allerdings sehr von der Funktion x 7→ x.
Beispielsweise hat h die Polstellen x = ±1 und einen Sattelpunkt in 0 (siehe
auch Abb. 12.1).

Wie wir im Beispiel gesehen haben, liefert Division mit Rest sofort auch eine
Aussage über das asymptotische Verhalten rationaler Funktionen:
168 12 Asymptotisches Verhalten und Regel von L’Hospital
y

+3.75

+0.75

−3.75 +1.5 +3.75 x


-0.75

-3.75

Abbildung 12.1. Graph einer rationalen Funktion mit Polstellen bei x = ±1, einem
Sattelpunkt in x = 0 und asymptotischen Verhalten wie die Gerade x 7→ x.

f (x)
Korollar 12.11. Sei h(x) = g(x) eine rationale Funktion und

f (x) = q(x) · g(x) + r(x)

mit deg r < deg g. Dann verhält sich h für x → ±∞ wie q(x), genauer:

h(x) ∈ q(x) + o(1).

Problem:
kurzen Beweis geben
Um zu sehen, dass Asymptoten nicht immer Geraden sein müssen, betrachten
wir zum Abschluss noch ein etwas komplizierteres Beispiel:

x4 +1
Beispiel 12.12. Wir betrachten die rationale Funktion h(x) = x2 +1
. Division
mit Rest liefert:
(x4 + 1) : (x2 + 1) = x2 − 1 + x22+1 ,
x4 + x2
− x2 + 1
− x2 − 1
2
d.h. q = x2 − 1 und r = 2. Offenbar hat h(x) keine Polstelle. Wir bestimmen die
Extrema, um eine Skizze des Graphen von h(x) zeichnen zu können. Für die
Ableitung ergibt sich:

(x2 + 1) · 4 · x3 − 2 · x · (x4 + 1) 2x5 + 4x3 − 2x


h′ (x) = = .
(x2 + 1)2 (x2 + 1)2

Eine Extremstelle muss also erfüllen 2x5 + 4x3 − 2x = 0, d.h. x = 0 oder


x4 +2x2 −1 = 0. Mit z = x2 erhalten wir die quadratische Gleichung z2 +z−1 =
0, für die die p, q–Formel folgende beiden Lösungen ergibt:
Problem:
p, q–Formel √
z1,2 = −1 ± 1 + 1.
12.2 Asymptotisches Verhalten rationaler Funktionen 169

Da −1 − 2 < 0 keine reelle Lösung für x liefert, verbleiben die beiden Stellen


x1,2 = ± −1 + 2 ≈ ±0.64.

Man kann nachrechnen, dass x = 0 ein lokales Maximum und x1,2 lokale
Minima sind. Da sich h(x) für x → ±∞ wie q = x2 − 1 verhält, erhalten wir in
etwa das in Abb. 12.2 gezeigte Schaubild.

+2.5

+0.5

−2.5 +1 +2.5 x
-0.5

-2.5

Abbildung 12.2. Eine rationale Funktion mit der Parabel x 7→ x2 − 1 als Asymptote.

Aufgaben

Aufgabe 12.1 (Wachstumsverhalten gegen Unendlich). Sortieren Sie die


Funktionen

f1 (x) = xln x f4 (x) = 3x


f2 (x) = ex ln x f5 (x) = x3
f3 (x) = xx f6 (x) = ex ln x

nach dem Wachstum für x → ∞ (Begründung!).

Aufgabe 12.2 (Grenzwerte). Zeigen Sie:

2 cos x + ex + e−x − 4 1
lim 4
= ,
x→0 x 6
√ √
cos ax − cos bx b2 − a2
lim = für a, b ∈ R.
x→0 x2 4

Aufgabe 12.3 (Grenzwerte). Prüfen Sie, ob folgende Grenzwerte existieren,


und bestimmen Sie diese gegebenenfalls:
ln x
1. limx↘0 cot x ,
170 12 Asymptotisches Verhalten und Regel von L’Hospital
tan(3x)
2. limx→ π2 tan(x) ,
( )
3. limx↘1 ln(x) · ln(1 − x) .

( )
Aufgabe 12.4 (Die Eulersche Zahl). Zeigen Sie limn→∞ n ln(1 + n1 ) = 1 und
folgern Sie daraus:
( 1 )n
lim 1 + = e.
n→∞ n
13

Integration

Vorlesung vom:
Sei f : [a, b] → R eine Funktion auf einem abgeschlossenen Intervall. Wir 28. Januar 2008
wollen die Fläche unter dem Graphen von f bestimmen.
Qualitätsstand:
erste Version

Abbildung 13.1. Die Fläche unter einem Graphen.

Grundidee ist es, ein Approximationsverfahren zu verwenden. Schließen wir


f durch zwei sogenannte Treppenfunktionen ein, φ ≤ f ≤ ψ, so ist klar, dass
die Fläche unter f größer als die unter φ und kleiner als die unter ψ ist (Abb.
13.2).

Abbildung 13.2. Approximation durch Treppenfunktionen.


172 13 Integration

13.1 (Riemann–)Integrierbarkeit

Definition 13.1. Eine Treppenfunktion φ : [a, b] → R ist eine Funktion, zu der es


eine Unterteilung a = t0 < t1 < · · · < tn = b des Intervalls [a, b] gibt, so dass φ auf
den offenen Intervallen ]ti−1 , ti [ konstant ist, d.h. für jedes i ∈ {1, . . . , n} gibt es ein
ci ∈ R, so dass für die Einschränkung φ ]t ,t [ gilt:
i−1 i

φ ]t : ]ti−1 , ti [ → R, φ ]t (x) = φ(x) = ci .


i−1 ,ti [ i−1 ,ti [

Für φ(ti ) ist nichts vorausgesetzt. Das Integral einer Treppenfunktion ist

Abbildung 13.3. Treppenfunktionen auf Teilintervallen.

∫ b ∑
n
φ(x) dx := ci (ti − ti−1 ).
a i=1

Eine solche Summe heißt Riemmannsche Summe. Mit deren Hilfe können wir
Integrale komplizierterer Funktionen definieren: Sei dazu f : [a, b] → R eine beliebige
beschränkte Funktion. Das Oberintegral von f ist
∫ ∗b {∫ b }
f := inf ψ dx ψ ≥ f, ψ Treppenfunktion ,
a a

das Unterintegral
∫ b {∫ b }
f := sup φ dx φ ≤ f, φ Treppenfunktion .
∗a a

f heißt integrierbar (genauer: Riemann–integrierbar), falls


∫ ∗b ∫ b
f = f
a ∗a

gilt. In diesem Fall definieren wir das Integral der beschränkten Funktion
f : [a, b] → R durch:
∫ b ∫ ∗b ∫ b
f (x) dx := f = f.
a a ∗a
13.1 (Riemann–)Integrierbarkeit 173

Bemerkung 13.2. 1. f beschränkt ist notwendig, damit es Treppenfunktio-


nen φ, ψ mit φ ≤ f ≤ ψ gibt.
2. f ist genau dann integrierbar, wenn es zu jedem ε > 0 Treppenfunktionen
φ, ψ mit φ ≤ f ≤ ψ gibt, so dass
∫ b
(0≤) (ψ − φ) dx < ε.
a

Beispiel 13.3. Treppenfunktionen sind integrierbar.


Problem:
weitere Beispiele!?
Satz 13.4. Monotone Funktionen [a, b] → R sind integrierbar.

Beweis. Sei f : [a, b] → R monoton steigend und ε > 0 vorgegeben. Wir wäh-
len n so groß, dass
1 ( )
ε > · (b − a) · f (b) − f (a) ,
n
setzen h = b−a
n und betrachten die Zerlegung

ti = a + i·h, i = 0, . . . , n.

Für die Treppenfunktionen φ, ψ mit

φ [t = f (ti−1 ), ψ [t = f (ti )
i−1 ,ti [ i−1 ,ti [

und φ(b) = ψ(b) = f (b) gilt dann φ ≤ f ≤ ψ wegen der Monotonie. Anderer-
seits:
∫ ∫ ∑n ( )
ψ dx − φ dx = f (ti ) − f (ti−1 ) ·h
i=1
( ) b−a ( )
= h· f (b) − f (a) = · f (b) − f (a) < ε.
n


∫b
Beispiel 13.5. Seien 0 ≤ b. Was ist 0 x2 dx ? f (x) = x2 ist monoton auf [0, b],
also existiert das Integral. Zur sogenannten äquidistanten Unterteilung
b
ti = i · , i = 0, . . . , n,
n
des Intervalls [0, b] und der Treppenfunktion ψ mit ψ ]t ,t [ = f (ti ) und h = b
n
i−1 i
gilt:
∫ b ∑n
n(n + 1)(2n + 1) b3 b3
ψ dx = i2 ·h2 ·h = · 3 −→ .
0 6 n n→∞ 3
i=1
∫b 3
Also: 0 x2 dx = b3 .
174 13 Integration

Beispiel 13.6. Die Funktion




 für x ∈ Q,
1,
f : [0, 1] → R, f (x) = 

0, für x < Q,

ist nicht integrierbar, denn für jedes Paar φ, ψ von Treppenfunktionen mit
φ ≤ f ≤ ψ gilt:
∫ 1 ∫ 1
φ(x) dx ≤ 0, ψ(x) dx ≥ 1,
0 0

da wegen ]ti−1 , ti [ ∩ Q , ∅ für φ gilt: φ ]t ,t [ ≤ 0 und analog ψ ]t ,t [ ≥ 1 wegen


i−1 i i−1 i
]ti−1 , ti [ ∩ (R\Q) , ∅.

Satz 13.7 (Integrierbarkeit stetiger Funktionen). Sei f : [a, b] → R stetig.


Dann ist f über [a, b] integrierbar.

Für den Beweis benötigen wir mehr als nur die punktweise Stetigkeit:

Definition 13.8. Eine Funktion f : I → R heißt gleichmäßig stetig, wenn ∀ε > 0


∃ δ, so dass
| f (x1 ) − f (x0 )| < ε ∀ x0 , x1 ∈ I mit |x1 − x0 | < δ.

Der entscheidende Unterschied zur Stetigkeit in allen Punkten ist, dass hier
δ = δ(ε) nicht von x0 abhängt, sondern nur von ε.

Beispiel 13.9. Die Funktion


1
f : R>0 → R, f (x) =
x
ist stetig, aber nicht gleichmäßig stetig. Zu ε > 0 und x0 → 0 muss δ = δ(ε, x0 )
immer kleiner gewählt werden, wie man leicht nachrechnen kann.

Abbildung 13.4. 1/x ist nicht gleichmäßig stetig.

Satz 13.10. Sei f : [a, b] → R eine auf einem abgeschlossenen, beschränkten Inter-
vall stetige Funktion. Dann ist f gleichmäßig stetig.
13.1 (Riemann–)Integrierbarkeit 175

Beweis. Angenommen, f ist nicht gleichmäßig stetig, d.h. ∃ ε > 0, so dass


eine Folge (δn ) mit δn −→ 0 gibt und Folgen (xn ), (yn ), so dass
n→∞

| f (xn ) − f (yn )| ≥ ε, obwohl |xn − yn | < δn .

Nach Bolzano–Weierstrass hat die Folge (xn ) eine konvergente Teilfolge (xnk );
sei
x0 = lim (xnk ) ∈ [a, b]
k→∞
ε
deren Grenzwert. Da f in x0 stetig ist, existiert zu 2 ein δ, so dass
ε
| f (x) − f (x0 )| < für x ∈ [a, b] mit |x − x0 | < δ.
2
δ
Wir wählen jetzt k so groß, dass |xnk − x0 | < 2 und δnk < 2δ . Dann gilt auch:

δ
|ynk − x0 | ≤ |ynk − xnk | + |xnk − y0 | ≤ δnk + <δ
2
und
ε ε
| f (xnk ) − f (ynk )| ≤ | f (xnk ) − f (x0 )| + | f (ynk ) − f (x0 )| < + = ε,
2 2
im Widerspruch zu | f (xn ) − f (yn )| ≥ ε ∀n. ⊔

Beweis (von Satz 13.7 über die Integrierbarkeit stetiger Funktionen). Es sei
f : [a, b] → R stetig. Nach Satz 13.10 ist f sogar gleichmäßig stetig. Sei ε > 0
nun vorgegeben. Wir konstruieren Treppenfunktionen
∫ b
φ ≤ f ≤ ψ mit (ψ − φ) dx < ε.
a
ε
Zu b−a > 0 wählen wir ein δ > 0, so dass
ε
| f (x) − f (y)| < ∀ x, y ∈ [a, b] mit |x − y| < δ.
b−a
Wir wählen dann n so groß, dass h = b−a n < δ und ti = a + i·h. Dann sei
φ [t ,t [ = min{ f (x) | x ∈ [ti−1 , ti ]} und ψ [t ,t [ = max{ f (x) | x ∈ [ti−1 , ti ]}. Da
i−1 i i−1 i
Minimum und Maximum angenommen werden und h < δ ist, gilt
∫ b
ε ε
0 ≤ ψ(x) − φ(x) < ⇒ 0≤ (ψ(x) − φ(x)) dx < ·(b − a) < ε.
b−a a b−a

Satz 13.11 (Eigenschaften des Integrals). Es seien f, g : [a, b] → R integrierbare


Funktionen, c ∈ R eine Konstante. Es gilt:
176 13 Integration

1. (Linearität des Integrals) Auch c· f und f + g sind integrierbar mit


∫ b ∫ b
c· f (x) dx = c · f (x) dx,
a a
∫ b( ) ∫ b ∫ b
f (x) + g(x) dx = f (x) dx + g(x) dx.
a a a

∫b ∫b
2. (Monotonie des Integrals) f ≤ g ⇒ a
f (x) dx ≤ a
g(x) dx.
3. Mit f sind auch die Funktionen f+ := max( f, 0), f− := max(− f, 0) und
| f | = f+ + f− integrierbar.
4. Zu p ∈ R>0 ist auch | f |p integrierbar. Insbesondere ist auch
1( )
f ·g= | f + g|2 − | f − g|2
4
integrierbar.

Beweis. 1. Mit Treppenfunktionen φ ≤ f , ψ ≤ g ist auch φ + ψ eine Treppen-


funktion und es gilt: φ + ψ ≤ f + g. Es folgt:
∫ b ∫ b ∫ b
( f + g) dx ≥ f dx + g dx,
a∗ a∗ a∗

da wir das Supremum nehmen. Analog:


Problem:
∫ ∗ ∫ ∗ ∫ ∗
Formulierung???
( f + g) dx ≤ f dx + g dx

und die Kette


∫ ∫ ∫ ∫ ∗ ∫ ∗ ∫ ∗
f dx + g dx ≤ ( f + g) dx ≤ ( f + g) dx ≤ f dx + g dx
∗ ∗ ∗

impliziert Gleichheit.
2. Aus f ≥ g folgt (φ ≤ f ⇒ φ ≤ g) und daher
∫ ∫
f dx ≤ g dx.
∗ ∗
∫∗ ∫∗
Analog: f dx ≤ g dx.
3. Mit φ ist auch φ+ = max(φ, 0) eine Treppenfunktion und φ ≤ f ≤
ψ ⇒ φ+ ≤ f+ ≤ ψ+ . Außerdem ist
∫ b ∫ b
0≤ (ψ+ − φ+ ) dx ≤ (ψ − φ) dx < ε
a a

für geeignete φ, ψ. Also ist f+ integrierbar und dann auch f− = −( f − f+ )


und | f | = f+ + f− wegen der Linearität des Integrals.
13.1 (Riemann–)Integrierbarkeit 177

4. Da f beschränkt ist, können wir wegen der Linearität des Integrals 0 ≤


| f | ≤ 1 annehmen. Für Treppenfunktionen 0 ≤ φ ≤ | f | ≤ ψ ≤ 1 gilt dann
φp ≤ | f |p ≤ ψp und 0 ≤ (ψp − φp ) ≤ p(ψ − φ)
nach dem Mittelwertsatz, angewendet auf die Funktion x 7→ xp auf dem
Intervall [0, 1]:
bp − ap
= pξp−1 ≤ p für [a, b] ∈ [0, 1].
b−a
Also: ∫ ∫
b b
(ψp − φp ) ≤ p (ψ − φ) dx < ε
a a
für φ, ψ geeignet. Schließlich ist f · g integrierbar wegen der Formel
1( )
f · g = ( f + g)2 − ( f − g)2 ,
4
dem Bewiesenen für p = 2 und der Linearität des Integrals.

Satz 13.12 (Mittelwertsatz der Integralrechnung). Seien f, g : [a, b] → R


Vorlesung vom:
Funktionen, f stetig, g integrierbar und g(x) ≥ 0 ∀x. Dann existiert ein ξ ∈ [a, b],
30. Januar 2008
so dass ∫ ∫
b b Qualitätsstand:
f (x)g(x) dx = f (ξ) · g(x) dx. erste Version
a a
Insbesondere: ∃ ξ ∈ [a, b], so dass
∫ b
f (x) dx = f (ξ) · (b − a).
a

Beweis. Seien
M = max{ f (x) | x ∈ [a, b]}, m = min{ f (x) | x ∈ [a, b]}.
Dann gilt:
mg(x) ≤ f (x)g(x) ≤ Mg(x),
da g ≥ 0. Die Monotonie des Integrals ergibt:
∫ b ∫ b ∫ b
m· g(x) dx ≤ f (x)g(x) dx ≤ M · g(x) dx.
a a a
∫b
Ist a g(x) dx = 0, dann ist nichts mehr zu zeigen. Andernfalls existiert nach
dem Zwischenwertsatz ein ξ, so dass
∫b
f (x)g(x) dx
m ≤ a∫ b = f (ξ) ≤ M.
a
g(x) dx
Die Behauptung folgt. Der Spezialfall ist der Fall g(x) = 1 ∀x ∈ [a, b]. ⊓

178 13 Integration

Die Berechnung von Integralen mittels Ober– und Untersumme und Grenz-
wertbildung ist mühselig. Die Hauptmethode, Integrale zu bestimmen, ist
es, sämtliche Integrale
∫ t
f (x) dx
a

für eine variable Obergrenze t gleichzeitig zu bestimmen.

Satz 13.13. Sei f : [a, b] → R eine integrierbare Funktion. Dann ist f auch über
jedem abgeschlossenen Teilintervall von [a, b] integrierbar und es gilt (s. Abb. 13.5):
∫ t ∫ b ∫ b
f (x) dx + f (x) dx = f (x) dx ∀t ∈]a, b[.
a t a

Abbildung 13.5. Integrierbarkeit auf Teilintervallen.

Beweis. Schränke jede Approximation durch Treppenfunktionen auf das Teil-


intervall ein. ⊓

Definition 13.14. Sei f : [a, b] → R integrierbar. Wir setzen


∫ a ∫ b
f (x) dx := − f (x) dx
b a

für vertauschte Ober– und Untergrenze.

13.2 Stammfunktionen

Bemerkung/Definition 13.15. Sei f : I → R eine stetige Funktion. Eine


Stammfunktion F : I → R ist eine diffbare Funktion mit F′ = f . F ist durch f
bis auf eine Konstante eindeutig bestimmt.
13.2 Stammfunktionen 179

Beweis. Ist G : I → R eine weitere Stammfunktion, dann gilt:

(G − F)′ = f − f = 0,

also G − F = c eine konstante Funktion bzw. G = F + c. ⊓


Satz 13.16 (Hauptsatz der Differential– und Integralrechnung). Sei f : I → R


eine stetige Funktion und a ∈ I. Dann gilt:
∫x
1. F : I → R mit F(x) = a f (t) dt ist eine Stammfunktion von f .
2. Ist G eine Stammfunktion von f , so gilt:
∫ b
f (x) dx = G(b) − G(a).
a

Es gibt zwei übliche Kurzschreibweisen hierfür:


b [ ]b
G(x) a
:= G(x) := G(b) − G(a).
a

Beweis. 1. Nach dem Mittelwertsatz der Integralrechnung gilt:


∫ x
F(x) − F(x0 ) = f (t) dt = f (ξ)(x − x0 )
x0

für einen Wert ξ ∈]x, x0 [ (Abb. 13.6), also:


F(x) − F(x0 )
= f (ξ).
x − x0
Da mit x → x0 auch ξ → x0 und f stetig ist, folgt:

Abbildung 13.6. Anwendung des MWS der Integralrechnung.

F(x) − F(x0 )
F′ (x0 ) = lim = lim f (ξ) = f (x0 ).
x→x0 x − x0 ξ→x0
180 13 Integration

2. Nach der Bemerkung 13.15 von eben gilt:


G(x) = F(x) + c
für ein gewisses c ∈ R. Es folgt:
∫ b
G(b) − G(a) = F(b) − F(a) = f (x) dx
a

nach der Definition von F.





Definition 13.17. Das unbestimmte Integral f (x) dx bezeichnet eine Stamm-
funktion von f .

Beispiel 13.18. Wir haben bereits gesehen, dass die folgenden Stammfunk-
tionen tatsächlich die behaupteten Ableitungen haben:
∫ α+1
1. xα dx = xα+1 , α , −1.

2. 1x dx = ln |x|.

3. ex dx = ex .

4. sin x dx = − cos x.

5. cos x dx = sin x.

2 dx = arctan x.
1
6. 1+x

7. √ 2 dx = arcsin x.
1
1+x

Jede Ableitungsregel liefert eine Regel für die Berechnung von Stammfunk-
tionen. Die Kettenregel ergibt:

Satz 13.19 (Substitutionsregel). Sei f : I → R stetig, φ : [a, b] → I stetig diffe-


renzierbar und α = φ(a), β = φ(b). Dann gilt:
∫ β ∫ b
f (x) dx = f (φ(t)) · φ′ (t) dt.
α a

Beweis. Sei F(x) = f (x) dx. Dann ist F◦φ differenzierbar nach dem Hauptsatz
der Differential– und Integralrechnung und die Ableitung ist
(F ◦ φ)′ (t) = F′ (φ(t)) · φ′ (t) = f (φ(t)) · φ′ (t)
nach der Kettenregel. Also ist F ◦ φ eine Stammfunktion von ( f ◦ φ) · φ′ und:
∫ b ∫ β
f (φ(t))φ′ (t) dt = F(φ(b)) − F(φ(a)) = F(β) − F(α) = f (x) dx.
a α


13.2 Stammfunktionen 181

Beispiel 13.20. Recht häufig kann man folgenden Spezialfall der Substituti-
onsregel anwenden:

1. Sei g : [a, b] → R stetig diffbar mit g(t) , 0 ∀t. Dann gilt:


∫ ′
g (t)
dt = ln |g(t)|.
g(t)

In der Notation der Substitutionsregel ist hier also f (x) = 1


x und φ = g.
Wir rechnen dies explizit nach: Ohne Einschränkung ist, wegen des Zwi-
schenwertsatzes, g > 0, d.h. g(t) > 0 ∀t (sonst betrachten wir −g mit
(−g)′ = −g′ ). Die Kettenregel liefert:

1
(ln(g(t))′ = · g′ (t).
g(t)

2. Das eben Gezeigte können wir beispielsweise bei folgender Rechnung


benutzen:
∫ ∫ ∫
sin x − sin x
tan x dx = dx = − dx = − ln | cos x|.
cos x cos x

Bemerkung 13.21. Häufig merkt man sich die Substitutionsregel in der Form

dx
x = φ(t), = φ′ (t),
dt
also „dx = φ′ (t) dt”. Wir haben zwar nicht formal nachgewiesen, dass eine
solche Schreibweise sinnvoll ist, es liefert aber das richtige Ergebnis:
∫ ∫
F(x) = f (x) dx ⇒ F(φ(t)) = f (φ(t))·φ′ (t) dt,

indem wir x durch φ(t) und dx durch φ′ (t) dt ersetzen.

Die Produktregel ( f g)′ = f ′ g + f g′ impliziert, analog zur Folgerung der


Substitutionsregel aus der Kettenregel:

Satz 13.22 (Partielle Integration). Es seien f, g : I → R stetig diffbare Funktio-


nen. Dann gilt:
∫ ∫

f (x)g(x) dx = f (x)g(x) − f (x)g′ (x) dx

bzw. ∫ ∫
b b
′ b
f (x)g(x) dx = f (x)g(x) a
− f (x)g′ (x) dx
a a
182 13 Integration

Beweis. Produktregel. ⊓

Beispiel 13.23.
1. Es gilt:
∫ π
π π
x sin x dx = (−x cos x) 0
+ sin x 0
= −π · (−1) = π,
0
da wir bei der partiellen Integration g(x) = x, d.h. g′ (x) = 1 und f ′ (x) =
sin x, d.h. f (x) = cos x wählen können.

2. Wir berechnen e−x sin x dx. Dazu setzen wir f ′ (x) = e−x , d.h. f (x) = −e−x ,
g(x) = sin x, d.h. g′ (x) = cos x. Partielle Integration liefert:
∫ ∫
e−x sin x dx = −e−x sin x + e−x + cos x dx.

Auf das letzte Integral wenden wir wieder partielle Integration an und
erhalten:
∫ ∫
e−x cos x dx = −e−x cos x − (−e−x )(− sin x) dx.

Insgesamt folgt

2· e−x sin x dx = −e−x (sin x + cos x),

also: ∫
1
e−x sin x dx = − e−x (sin x + cos x).
2
Zur Sicherheit machen wir die Probe:
( 1 )′ 1 1
− e−x (sin x + cos x) = e−x (sin x + cos x) − e−e (cos x + sin x),
2 2 2
was tatsächlich e−x sin x ergibt.
∫ 2π
3. Wir zeigen, dass 0 sin2 x dx = π. Dazu setzen wir f (x) = sin x, g′ = sin x,
so dass g = − cos x, f ′ = − cos x und erhalten:
∫ ∫
sin2 x dx = − sin x cos x + cos2 x dx.

Da cos2 x = 1 − sin2 x ist, folgt, wie eben:



1
sin2 x dx = (x − sin x cos x).
2
Einsetzen der Grenzen 0 und 2π liefert die Behauptung.
∫ 2π 2π
4. Ähnlich folgt: 0 sin x cos x dx = 12 sin2 x 0 = 0, denn mit f (x) = sin x

und g (x) = cos x gilt:
∫ ∫
sin x cos x dx = sin2 x − sin x cos x.
13.3 Elementare Funktionen 183

13.3 Elementare Funktionen

Definition 13.24. Die Menge der elementaren Funktionen ist die kleinste Menge
von Funktionen, die folgendes erfüllt:

1. xn , sin x, tan x, ex und deren Umkehrfunktionen sind elementar.


2. Summen, Produkte und Quotienten von elementaren Funktionen sind elementar.
3. Kompositionen von elementaren Funktionen sind elementar.

Satz 13.25 (ein Satz von Liouville). Nicht jede elementare Funktion hat eine
elementare Stammfunktion.
Problem:
Beweis–Referenz?
Beweis. Die Funktion e−x besitzt keine elementare Stammfunktion, wie be-
2

reits Liouville1 zeigte. ⊓


Leider können wir den Satz hier nicht nachweisen. Allerdings können wir
das folgende positive Resultat, zumindest in groben Zügen, herleiten:

Satz 13.26. Rationale Funktionen sind elementar integrierbar.

Wir betrachten zunächst folgendes Beispiel:

Beispiel 13.27. Wir suchen die Stammfunktion



1
dx.
1 − x2

Die Idee dazu ist es, die Partialbruchzerlegung von y = 1−x 1


2 zu betrachten.

y hat Polstellen bei ±1. Deren Partialbruchzerlegung ist dann eine Zerlegung
der Form:
1 A B
= + .
1 − x2 1−x 1+x
Dieser Ansatz liefert A(1 + x) + B(1 − x) = 1, d.h. A = B = 21 , also:

1 1 1 1 1
= · + · .
1 − x2 2 1−x 2 1+x
Auf unser ursprüngliches Problem angewendet erhalten wir:

1 1( ) 1 1+x
dx = − ln |1 − x| + ln |1 + x| = ln .
1−x 2 2 2 1−x

Beweis (von Satz 13.26, nur Beweisidee). Wir gehen in drei Schritten vor:
Vorlesung vom:
1
Joseph Liouville (24. März 1809 in Saint-Omer – 8. September 1882 in Paris), 04. Februar 2008
französischer Mathematiker. Qualitätsstand:
erste Version
184 13 Integration

1. Zunächst bemerken wir, dass wir folgende Stammfunktionen kennen:



1
dx = arctan x,
1 + x2
∫ 


1 ln |x|, falls n = 1,
dx = 

n  1 · n−1
1−n x , falls n > 1,
x 1

∫ 

 2 ln(1 + x ),
 falls n = 1,
1 2
x
dx = 

(1 + x ) 
2(1−n) · (1+x2 )n−1 , falls n > 1.
2 n 1 1

Im Fall n > 1 ergibt sich die letzte Gleichung folgendermaßen:


∫ ∫ ∫
1 dx x
dx = + x· dx
(1 + x )
2 n (1 + x )
2 n−1 (1 + x2 )n−1

dx
=
(1 + x2 )n−1

1 1 1 dx
+ x· · + · ,
2(2 − n) (1 + x )
2 n−2 2(n − 2) (1 + x2 )n−2

weil die Integrale auf der rechten Seite induktiv bekannt sind, falls n ≥ 3.
Der Fall n = 2 ist dem Leser überlassen.
2. Wie im Beispiel berechnen wir eine Partialbruchzerlegung. Wir starten
g(x)
mit einer rationalen Funktion f (x) = h(x) . Division mit Rest liefert q(x)
und r(x), so dass:
g(x) r(x)
f (x) = = q(x) + .
h(x) h(x)
Den Nenner h(x) faktorisieren wir in k lineare Faktoren li (x) ∈ R[x] (d.h.
deg li (x) = 1) und l quadratische Faktoren q j (x) ∈ R[x] (d.h. deg q j (x) = 2),
wobei q j nicht mehr in Linearfaktoren zerlegbar sind:


k ∏
l
h(x) = li (x)ei · q j (x) f j .
i=1 j=1

Dass eine solche Zerlegung über R immer existiert, können wir hier leider
Problem:
nicht beweisen.
Referenz! Beweis-
idee? Man kann nun zeigen, dass dann Konstanten aim , b jn , c jn ∈ R existieren,
so dass wir folgende Partialbruchzerlegung erhalten:

r(x) ∑ ∑ aim ∑ ∑ b jn x + c jn
ik e l fi
= + .
h(x) lm
i
qni
i=1 m=1 j=1 n=1
13.3 Elementare Funktionen 185

3. Nun transformieren wir l1i in 1x und q1j in 1+x


1
2 vermöge eines affinen

Koordinatenwechsels, d.h. einer Abbildung x 7→ αx + β, und wenden die


obigen Spezialfälle an. Auch hier können wir nicht erklären, warum ein
solcher Koordinatenwechsel immer existiert.

Aufgaben

Aufgabe 13.1 (Flächeninhalt). Sei f = 3x2 und g = 3x + 6. Bestimmen Sie den


Flächeninhalt zwischen den Graphen von f und g, d.h. die graue Fläche in
der Zeichnung:

Aufgabe 13.2 (Integrale). Berechnen Sie folgende Integrale:


∫ 2( )
1. 1
x 2
+ 1
x dx,
∫ √π ( )
2. 0 5x sin(x2 ) dx,
∫ 2π ( )
3. 0 x2 sin(2x) + 3x sin(2x) dx,
∫1 √
4. −1 1 − x2 dx (verwenden Sie hier die Substitution x = sin t).

Aufgabe 13.3 (Stammfunktion einer rationalen Funktion). Sei f : D → R


definiert durch
1
f (x) = 2 ,
x − 3x + 2
wobei D ⊂ R ihr maximal möglicher Definitionsbereich sei.
Leiten Sie die Stammfunktion von f mit Hilfe von Partialbruchzerlegung her.

Aufgabe 13.4 (Maximierung von Integralen). Bestimmen Sie den Wert bzw.
die Werte, an denen
∫ x2
H(x) = (9 − t2 ) · e−t dt
0
maximal wird.
186 13 Integration

Aufgabe 13.5 (Stammfunktionen). Finden Sie folgende Stammfunktionen:



x6
1. x4 +3x2 +2
dx (Hinweis: Division mit Rest, dann Partialbruchzerlegung),

2. ex sin x dx,
∫ (ln x)n
3. x dx für n ∈ N.
14

Uneigentliche Integrale

Bisher haben wir Integrale nur dann ausgerechnet, wenn die Grenzen beide
endlich waren. Wir werden sehen, dass wir in einigen Fällen auch ∞ als
Grenze zulassen können und dass dies viele interessante Anwendungen hat,
beispielsweise auf die Konvergenz von Reihen.

Definition 14.1. Sei f : [a, ∞[→ R eine stetige Funktion. Dann setzen wir
∫ ∞ ∫ b
f (x) dx := lim f (x) dx,
a b→∞ a

falls der Grenzwert∫ existiert und nennen in diesem Fall f über [a, ∞[ uneigentlich

integrierbar und a f (x) dx konvergent.

Beispiel 14.2. Wir betrachten die Funktion f (x) = x−s für s ∈ R. Der Grenz-
wert ∫ ∞ ( 1 b ) 1
x−s dx = lim x1−s 1 = lim (1 − b1−s )
1 b→∞ 1 − s b→∞ 1 − s

existiert, falls s > 1. Also gilt in diesem Fall:


∫ ∞
1
x−s dx = .
1 1−s

Satz 14.3 (Integralkriterium für Reihen).


∑∞ Sei f : [0, ∞[→ R eine monoton fal-
lende positive
∫∞ Funktion. Die Reihe n=0 f (n) konvergiert genau dann, wenn das
Integral 0 f (x) dx existiert.

Beweis. Wegen der Monotonie von f erhalten wir für jedes k ∈ N offenbar
∫k
Schranken von oben und unten für 0 f (x) dx (siehe Abb. 14.1):
188 14 Uneigentliche Integrale

Abbildung 14.1. Ober– und Untersumme.


k−1 ∫ k ∑
k
f (n) ≥ f (x) dx ≥ f (n).
n=0 0 n=1

Die Behauptung folgt. ⊓


Korollar/Definition 14.4. Der Grenzwert




1
ζ(s) =
ns
n=1

existiert für s > 1. ζ(s) heißt Riemannsche Zetafunktion.


∫∞
Beweis. Im Beispiel 14.2 haben wir gesehen, dass 1 x−s dx für s > 1 konver-
giert. Das Integralkriterium für Reihen liefert nun die Behauptung. ⊓⊔

Definition 14.5. Sei f : ]a, b] eine stetige Funktion auf einem halboffenen Intervall.
Dann schreiben wir ∫ b ∫ b
f (x) dx := lim f (x) dx,
a t↘a t
falls der Grenzwert existiert.
∫1
Beispiel 14.6. Das Integral 0 xα dx existiert, falls α < −1. Im Gegensatz dazu
∫1
existiert das Integral 0 x1 dx nicht, da: ln x −→ −∞.
x→0

Definition 14.7. Eine Funktion f : R → R heißt uneigentlich integrierbar, falls


die Grenzwerte ∫ ∫
b 0
lim f (x) dx und lim f (x) dx
b→∞ 0 a→−∞ a
existieren. In diesem Fall schreiben wir:
∫ ∞ ∫ 0 ∫ b
f (x) dx := lim f (x) dx + lim f (x) dx.
−∞ a→∞ a b→∞ 0
14 Uneigentliche Integrale 189

Beispiel 14.8.

1. Es gilt: ∫
1 ∞ ( b) π
dx = lim arctan x a = .
−∞ 1 + x2 a→−∞, b→∞ 2
∫∞ ( )
2. Der Grenzwert −∞ e−x dx existiert, denn e−x ∈ O 1+x
2 2 1
2 . Man kann zeigen,

dass gilt: ∫ ∞

e−x dx = π.
2

−∞

Aufgaben

Aufgabe 14.1 (Uneigentliche Integrale). Überprüfen Sie, ob folgende unei-


gentliche Integrale existieren und berechnen Sie ggf. ihre Werte:
∫∞
xe−x dx,
2
1. 0
∫1
ex
2. 0 x
dx,
∫∞
1
3. 1 1+ln x
dx,
∫∞
1
4. −∞ x2 −3x+2
dx.
15

Taylorpolynom und Taylorreihe

Sei f : I → R eine n–mal stetig diffbare Funktion, x0 ∈ I. Wir wollen f in der


Nähe von x0 durch ein Polynom approximieren. Die „beste” Approximation
durch ein lineares Polynom ist die Tangente (Abb. 15.1)

L(x) = f (x0 ) + f ′ (x0 ) · (x − x0 ).

Wir werden nun erfahren, wie man mit Polynomen von höhrem Grad noch
bessere Approximationen erhalten kann.

Abbildung 15.1. Approximation durch die Tangente.

Definition 15.1. Seien f : I → R eine n–mal stetig diffbare Funktion und x0 ∈ I.


Dann heißt

n
f (k) (x0 )
Txn0 f := (x − x0 )k
k!
k=0

das n–te Taylorpolynom von f in x0 .

Txn0 f hat offenbar den gleichen Wert und die gleichen ersten n Ableitungen in
x0 wie f .
192 15 Taylorpolynom und Taylorreihe

Satz 15.2 (Taylorsche Formel). Seien f : I → R eine (n + 1)–mal stetig diffbare


Vorlesung vom:
Funktion und x0 ∈ I. Dann gilt:
06. Februar 2008
( ∑n
f (k) (x0 )(x − x0 )k ) Qualitätsstand:
f (x) = (Txn0 f )(x) + Rn+1 (x) = + Rn+1 (x) erste Version
k!
k=0

mit dem Restglied ∫ x


(x − t)n
Rn+1 (x) = f (n+1) (t)· dt.
x0 n!
Ausführlich:
f (2) (x0 )
f (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + (x − x0 )2 + · · ·
2
∫ x
f (n) (x0 ) (x − t)n
+ (x − x0 )n + f (n+1) (t) dt.
n! x0 n!

Beweis. Wir verwenden Induktion nach n und partielle Integration. Der


Induktionsanfang n = 0 gilt nach dem Hauptsatz der Differential– und
Integral—Rechnung: ∫ x
f (x) = f (x0 ) + f ′ (t) dt.
x0
Für den Induktionsschritt n − 1 → n betrachten wir das Restglied:
∫ x
(x − t)n−1
Rn (x) = f (n) (t) · dt
x0 |{z} (n − 1)!
| {z }
f
g′
(x−t)n
∫ x
g=− n! (x − t)n x (x − t)n
= − f (t) ·
(n)
+ f (n+1)
(t) dt
n! x0 x0 n!
(x − x0 )n
= f (n) (x0 ) + Rn+1 (x).
n!
Da
(x − x0 )n
Txn0 f − Txn−1 f = f (n) (x0 ) ,
0
n!
folgt die Behauptung. ⊔

Wegen der aufwändigen Berechnungen ist für die praktische Anwendung


dieser Formel ein Computeralgebra–System sehr hilfreich. In der Vorlesung
wurden mit Maple einige Beispiele vorgeführt.

Satz 15.3 (Lagrangeform des Restglieds). Sei f : I → R eine (n + 1)–mal stetig


diffbare Funktion und x0 ∈ I. Dann ∃ ξ ∈ [x0 , x] (bzw. ξ ∈ [x, x0 ], wenn x < x0 ), so
dass

n
f (k) (x0 ) f (n+1) (ξ)
f (x) = (x − x0 )k + (x − x0 )n+1 .
k! (n + 1)!
k=0
15 Taylorpolynom und Taylorreihe 193

Beweis. Wir wenden den Mittelwertsatz der Integralrechnung auf


∫ x
f (n+1) (t)
Rn+1 (x) = (x − t)n dt
x0 n!

an und erhalten:
∫ n
(x − t)n (x − x0 )n+1
Rn+1 (x) = f (n+1)
(ξ) · dt = f (n+1) (ξ) .
x0 n! (n + 1)!


Beispiel 15.4. f (x) = sin x, x0 = 0.

x3 x5 x2n+1
(T02n+1 sin)(x) = x − + − · · · + (−1)n ,
3! 5! (2n + 1)!
da 


0, k gerade,
sin(k) (0) = 

(−1) 2 , k ungerade.
k−1

Fehlerabschätzung für Sinus:

|x|n+1 |x|n+1 Rn+1


|Rn+1 (x)| = | f (n+1) (ξ)| · ≤ ≤
(n + 1)! (n + 1)! (n + 1)!
Rn+1
für |x| ≤ R. Es gilt: (n+1)! ≤ ε < 1 ⇐⇒


n+1 ∫ n+1
(n + 1) ln R ≤ ln ε + ln k ≤ ln ε + ln x dx.
k=1 1

Es folgt:
n+1
(n + 1) ln R ≤ ln ε + (x ln x − x) 1
ln ε 1
⇐⇒ ln R ≤ + ln(n + 1) − 1 +
n+1 n+1
1 n+1
⇐⇒ R ≤ (eε) n+1 · .
e
Abbildung 15.2 zeigt die Taylorpolynome des Sinus vom Grad 1, 3, 5, 7.

Beispiel 15.5. Wir betrachten die Funktion f (x) = (1 + x)α , etwa α = 12 . Es gilt:

f (k) (x) = α · (α − 1) · · · (α − k + 1) · (1 + x)α−k .

Daher folgt:
194 15 Taylorpolynom und Taylorreihe
y

+2.5

+0.5

−5 -1 +1 +5 x
-0.5

-2.5

Abbildung 15.2. Die Taylorpolynome des Sinus vom Grad 1, 3, 5, 7.

n ( )
∑ α
T0n f (x) = xk ,
k
k=1

wobei für α ∈ R der Binomialkoeffizient definiert ist durch


( )
α α α−1 α−k+1
:= · ··· .
k 1 2 k

Definition 15.6. Sei f : I → R eine ∞–oft diffbare Funktion und x0 ∈ I. Dann heißt


f (k) (x0 )
Tx0 f (x) = (x − x0 )k
k!
k=0

die Taylorreihe von f mit Entwicklungspunkt x0 . Die Taylorreihe Tx0 f ist eine
Potenzreihe in (x − x0 ).

Beispiel 15.7.
∑∞ xk
1. (T0 exp)(x) = k=0 k! ist die definierende Potenzreihe von exp.
2. Die Funktion f (x) = (1 + x)α hat die Taylorreihe
∞ ( )
∑ α
xk .
k
k=0

Frage 15.8. Konvergiert die Taylorreihe von f gegen f ?

Antwort.

1. Eine Taylorreihe hat nicht notwendig positive Konvergenzradien.


2. Selbst, wenn R > c > 0 gilt, konvergiert die Taylorreihe nicht notwendig
gegen f auf ] − R + x0 , x0 + R[.
15 Taylorpolynom und Taylorreihe 195

Beispiel 15.9. Wir betrachten die Funktion


 1

 −
e x2 , x , c,
f : R → R, x 7→ f (x) = 

0, sonst.

Wir zeigen: f ist ∞–oft diffbar und f (n) (0) = 0 ∀n. Insbesondere ist die Taylor-
reihe = 0 und konvergiert nicht gegen f .
Wir beweisen dazu mit Induktion nach n, dass


 −1
pn ( 1x ) · e x2 , falls x , 0,
f (x) = 
(n)

0, falls x = 0,

wobei pn ein Polynom ist. Der Induktionsanfang ist klar. Zunächst betrachten
wir den Fall x , 0:
( (1) 1 )′ ( ( 1 ))′ (1) 2
· e− x2 = pn · e− x2 + pn · 3 · e− x2 .
1 1
pn
x x x x
( ( 1 ) −1 (1) 2 )
· e− x2 .
1
= p′n · + pn ·
x x2 x x3
Dann ist
pn+1 (t) = −p′n (t) · t2 − 2pn (t) · t3 .
An der Stelle x = 0 gilt dann:
(1 (1) 1 )
f (n+1) (0) = lim pn · e− x2 = 0,
x→0 x x
da exp schneller wächst als jedes Polynom, wie wir in Beispiel 12.6 gesehen
haben.

Die folgende Aussage ist wegen Frage und Antwort 15.8 weniger trivial, als
es erscheinen könnte:

Satz 15.10 (Binomische Reihe). Für |x| < 1 gilt:


∑∞ ( )
α α k
(1 + x) = x.
k
k=0

Beweis. Der Konvergenzradius der Reihe ist R = 1. Wir möchten das Quoti-
entenkriterium anwenden:
( α ) k+1
k+1 · x α−k
(α) k = · |x| −→ |x|.
k · x k+1 k→∞

Mit der Bemerkung 6.17 zum Quotientenkriterium zeigt dies, dass die Reihe
konvergiert, wenn |x| < 1 und diviergiert, wenn |x| > 1 ist.
196 15 Taylorpolynom und Taylorreihe

Wir zeigen:
∫ x ( )∫ x
1 α
Rn+1 (x) = (x − t)n f (n+1) (t) dt = (n + 1) (x − t)n (1 + t)α−n−1 dt
n! 0 n+1 0

konvergiert für |x| < 1 gegen 0. Nach dem Vorzeichen von x unterscheiden
wir zwei Fälle.
Erster Fall 0 ≤ x < 1: Sei C = max(1, (1 + x)α ). Dann gilt für 0 ≤ t ≤ x

0 ≤ (1 + t)α−n+1 ≤ (1 + t)α ≤ C.

Also
) ∫ |x|(
α
|Rn+1 (x)| = (n + 1) · | | |(x + t)n (1 − t)α−n−1 |dt
n+1 0
( ) ∫ x ( )
α α
≤ (n + 1) · | |·C (x − t) dt = C · |
n
|xn+1 .
n+1 0 n+1
∑∞ (α) ( α ) n+1
Da n=0 n xn konvergiert, bekommen wir | n+1 |x −→ 0 für n → ∞.

Der zweite Fall, −1 < x < 0, ist schwieriger, weil die Funktion (1 + x)α oder
eine ihrer Ableitungen eine Polstelle bei x = −1 haben kann.
( )∫ x
α
|Rn+1 (x)| = (n + 1) · | | |(x − t)n (1 − t)α−n−1 |dt
n+1 0
( ) ∫ |x|
α ( |x| − t )n
≤ (n + 1) · | | (1 − t)α−1 dt.
n+1 0 1−t
|x|−t
Die Funktion t 7→ 1−t ist monoton fallend in [0, |x|], da die Ableitung negative
ist
(1 − t)(−1) − (−1)(|x| − t) |x| − 1
= < 0.
(1 − t)2 (1 − t)2
Also gilt
( |x| − t )n
≤ |x|n für 0 ≤ t ≤ |x|.
1−t
∫ |x|
Mit C = |α| 0
(1 − t)α−1 dt erhalten wir
( ) ∫ |x| ( )
α−1 α−1
|Rn+1 (x)| ≤ |α | · |x|n (1 − t)α−1 dt ≤ C · | | · |x|n ,
n 0 n

und der Ausdruck konvergiert gegen 0 für n → ∞, da auch die Reihe


∑∞ (α−1) n
n=0 n x konvergiert. ⊓

15 Taylorpolynom und Taylorreihe 197

Aufgaben

Aufgabe 15.1 (Taylorpolynom). Bestimmen Sie ohne Computer das Taylor-


polynom 2. Grades von

1. f : R → R, x 7→ f (x) = ln(sin(x)) im Punkt x0 = π2 ,



2. g : R → R, x 7→ g(x) = e x
− e im Punkt x0 = 1.

Aufgabe 15.2 (Taylorreihe). Berechnen Sie die Taylorreihe von


x
f (x) =
(x − 1)(x + 1)

im Entwicklungspunkt x0 = 0.
Zeigen Sie mit Hilfe von Partialbruchzerlegung, dass die Taylorreihe auf dem
offenen Intervall (−1, 1) gegen f konvergiert.

Aufgabe 15.3 (Taylorpolynome mit Computeralgebra). Berechnen Sie mit


Hilfe von Maple die Taylorpolynome T0k f der Ordnungen k = 1, . . . , 6 im
Entwicklungspunkt x0 = 0 für

1. f (x) = tan x

2. f (x) = 1 + x

und plotten Sie jeweils die Graphen von f und der Taylorpolynome.
16

Konvergenz von Funktionenfolgen

Vorlesung vom:
Sei

∞ 11. Februar 2008
f (x) = an xn Qualitätsstand:
n=0 erste Version
eine Potenzreihe mit Konvergenzradius R > 0. Wir wollen zeigen, dass f in
] − R, R[ ∞–mal diffbar ist und dass die Potenzreihe mit der Taylorreihe von
f in x0 = 0 übereinstimmt. Allein die Stetigkeit ist hierbei nicht offensichtlich.

16.1 Gleichmäßige Konvergenz

Definition 16.1. Sei fn : I → R eine Folge von Funktionen auf einem Intervall. Die
Folge ( fn ) heißt konvergent (genauer: punktweise konvergent), wenn für jedes x
die Folge ( fn (x)) konvergiert und dann ist die Grenzfunktion

f : I → R, f (x) = lim fn (x).


n→∞

Wir schreiben: limn→∞ fn = f .

Frage 16.2. Wenn alle fn stetig sind, ist dann auch lim fn stetig?

Antwort. Nein, nicht unbedingt. Dazu betrachten wir das Beispiel fn : [0, 1] →
R, fn (x) = xn . Dann existiert f = lim fn , aber



0, x ∈ [0, 1[,
f (x) = 

1, x = 1.

f ist also nicht stetig.

Wir müssen daher eine stärkere Forderung an die Konvergenz stellen:


200 16 Konvergenz von Funktionenfolgen

Definition 16.3. Sei ( fn : I → R)n∈N eine Folge von Funktionen auf einem Intervall
I. ( fn ) konvergiert gleichmäßig gegen eine Grenzfunktion f : I → R, wenn:
∀ε > 0 ∃ n0 : | fn (x) − f (x)| < ε ∀n ≥ n0 ∀ x ∈ I.

Satz 16.4 (Gleichmäßiger Limes stetiger Funktionen). Ist ( fn : I → R) eine


Folge stetiger Funktionen, die gleichmäßig gegen f konvergiert, so ist auch f stetig.
ε
Beweis. Seien x0 ∈ I und ε > 0 vorgegeben. Zu 3 existiert n0 mit
ε
| fn (x) − f (x)| < ∀n ≥ n0 ∀ x ∈ I.
3
Da fn0 stetig ist, ∃ δ > 0, so dass
ε
| fn0 (x) − fn0 (x0 )| < ∀x ∈ I mit |x − x0 | < δ.
3
Es folgt:
| f (x) − f (x0 )| ≤ | f (x) − fn (x)| + | fn (x) − fn (x0 )| + | fn (x0 ) − f (x0 )|
< ε ∀x mit |x − x0 | < δ.

Frage 16.5. Lässt sich Integration mit Grenzwertbildung vertauschen?

Antwort. Nein, nicht unbedingt. Wir betrachten dazu die Zackenfunktion




n2 x falls 0 ≤ x ≤ n1


 2 2
fn (x) = 
n ( n − x) falls n1 < x ≤ n2


0 sonst ,
∫1
siehe Abbildung 16.1. Es gilt: 0 fn (x) dx = 1 ∀ n und limn→∞ fn = 0 (punkt-

Abbildung 16.1. Die Zackenfunktion.

weise). Aber:
∫ 1 ∫ 1
lim fn (x) dx = 1 , 0 = lim fn (x) dx.
n→∞ 0 0 n→∞
16.1 Gleichmäßige Konvergenz 201

Satz 16.6. Sei fn : [a, b] → R eine Folge stetiger Funktionen auf einem abgeschlos-
senen Intervall, die gleichmäßig gegen f : [a, b] → R konvergiert. Dann gilt:
∫ b ∫ b
f (x) dx = lim fn (x) dx.
a n→∞ a

Beweis. Zunächst einmal ist f ebenfalls stetig und deshalb integrierbar. Fer-
ner: ∫ b ∫ b ∫ b
f (x) dx − fn (x) dx ≤ f (x) − fn (x) dx ≤ ε(b − a),
a a a
falls n so groß ist, dass | f (x) − fn (x)| < ε ∀x ∈ [a, b]. Die Behauptung folgt. ⊔

Bemerkung 16.7. Für uneigentliche Integrale braucht man zusätzliche Vor-


aussetzungen. Dies zeigt das Beispiel der Zackenfunktion in Abbildung 16.2.
Offenbar ist lim fn = 0, sogar gleichmäßig, aber:
∫ ∞ ∫ ∞
fn (x) dx = 1 , 0 = 0 dx.
0 0

Abbildung 16.2. Eine Zackenfunktion.

Korollar 16.8. Sei fn : [a, b] → R eine Folge von stetig diffbaren Funktionen, die
punktweise gegen f : [a, b] → R konvergiert. Konvergiert die Folge der Ableitungen
( fn′ ) gleichmäßig, dann ist f diffbar und es gilt:
f ′ = lim fn′ .
n→∞


Beweis. Sei f = lim fn′ . Nach dem Satz 16.4 ist f ∗ auf [a, b] stetig. Ferner gilt:
∫ x
fn (x) = fn (a) + fn′ (t) dt
a
für x ∈ [a, b]. Mit Satz 16.6 folgt:
∫ x
f (x) = f (a) + f ∗ (t) dt.
a
Der Hauptsatz der Differential– und Integralrechnung liefert nun, dass f
diffbar ist und dass f ′ = f ∗ . ⊓

202 16 Konvergenz von Funktionenfolgen

16.2 Anwendung auf Potenzreihen



Satz 16.9. Sei f (x) = ∞n=0 an x eine Potenzreihe mit Konvergenzradius R > 0, also
n

f : ] − R, R[→ R. Dann haben die Potenzreihen



1. ∞ n=1 nan x
n−1
,
∑∞ x n+1
2. n=0 an n+1 ,

die wir durch gliedweise Differentiation bzw. Integration erhalten, den gleichen
Konvergenzradius und konvergieren auf ] − R, R[ gegen

1. f ′ (x),
∫x
2. 0 f (x) dx.

Insbesondere ist f unendlich oft diffbar und es gilt:


f (n) (0) = an ·n!.

Beweis. Nach der Formel von Cauchy–Hadamard 7.19 ist an xn für |x| < R
genau dann konvergent, wenn
√ ( √ )
lim sup |an xn | = lim sup |an | · R ≤ 1,
n n

n→∞ n→∞

also:
1
R= √ .
|an |
n
lim supn→∞
Da √ 1 ln n
n = lim n n = lim e n = e0 = 1,
n
lim
n→∞ n→∞ n→∞
∑ ∑
haben ∞ n=1 nan x
n−1
und ∞ xn+1
n=0 an n+1 den gleichen Radius. Die Folge der Par-
tialsummen von f und f ′ konvergieren auf jedem echten Teilintervall [−r, r]
für r < R gleichmäßig. Die Behauptung folgt daher auf [−r, r] aus Satz 16.6
und Korollar 16.8. ⊓ ⊔

Beispiel 16.10.

1. Die logarithmische Reihe ln(1 + x) ist Stammfunktion von

1 ∑ ∞
f (x) = = (−1)n xn .
1+x
k=0

Gliedweise Integration und ln(1) = 0 liefert:




xn+1
ln(1 + x) = (−1)n
n=0
n+1

für |x| < 1.


16.2 Anwendung auf Potenzreihen 203

2. arctan ist Stammfunktion von

1 ∑ ∞
= f (x) = (−1)n x2n .
1 + x2 n=0

Integration und arctan(0) = 0 liefert:




x2n+1
arctan(x) = (−1)n für |x| < 1.
n=0
2n + 1

3. Es gilt:

∞ ∑

nxn = x· nxn−1 .
n=0 n=1

Es folgt:

∞ ( 1 )′ x
nxn = x· = für |x| < 1,
n=0
1−x (1 − x)2
also zum Beispiel:
∑∞ ( 1 )n 1
2
n = = 2.
n=1
2 (1 − 1 2
2)

In den Beispielen 1. und 2. konvergiert die Reihe auch für x = 1. Dies legt die
Vorlesung vom:
Formeln
13. Februar 2008


1 Qualitätsstand:
(−1)n = ln(1 + 1) = ln 2, erste Version
n=0
n+1


1 π
(−1)n = arctan(1) =
n=0
2n + 1 4

(da tan π4 = 1) zumindest nahe. Dass dies wirklich der Fall ist, zeigt das
folgende Resultat:

Satz 16.11 (Abelscher Grenzwertsatz). ∑ Sei ∞ n=0 an eine konvergent Reihe reeller

Zahlen. Dann hat die Potenzreihe f (x) = n=0 an xn den Konvergenzradius R ≥ 1
und für die Grenzfunktion f : ] − 1, 1[→ R gilt:


lim f (x) = an .
x→1
n=0

Beweis. Drei Seiten. Forster. ⊓



Problem:
Beweis ausführen!
Beispiel 16.12. Wir betrachten zwei Reihen, von denen wir bereits wissen,
Siehe eingescannte
dass sie konvergieren:
Mitschrift
204 16 Konvergenz von Funktionenfolgen
∑∞ (−1)n−1
1. Die Reihe n=1 nkonvergiert. Nach dem abelschen Grenzwertsatz ist
∑∞ (−1)n−1 n
daher durch f (x) = n=1 n ·x eine auf ]−1, 1[ stetige Funktion erklärt.
Da f (x) = ln(1 + x) für x ∈ ] − 1, 1[ gilt, folgt: f (1) = ln(2). Also:



(−1)n−1 1 1 1
ln(2) = =1− + − + ··· .
n 2 3 4
n=1


2. Wir betrachten ∞ n x2n+1
n=0 (−1) · 2n+1 = arctan x für x ∈ ] − 1, 1[. Für x = 1 liegt
ebenfalls Konvergenz vor, also:



1 π
(−1)n · = arctan 1 = .
n=0
2n + 1 4

Aufgaben

Aufgabe 16.1 (. . . ). . . .
Problem:
Aufgaben zur Kon-
vergenz von Fkt.-
Folgen fehlen noch!
Teil III

Lineare Algebra
207

Einführung

In der linearen Algebra werden Probleme und Phänomene untersucht, die mit
Hilfe linearer Gleichungssysteme ausdrückbar sind. Insbesondere werden
dabei auch Verfahren studiert, um explizit Lösungen für solche Probleme
auszurechnen. Oft sind sowohl die Probleme und Lösungen als auch die
Phänomene sehr anschaulich zu verstehen, wenn man deren geometrische
Seite betont. Wir werden versuchen, dies in dieser Vorlesung möglichst oft
zu realisiseren.
Anwendungen der linearen Algebra finden sich neben der Geometrie in
vielen Bereichen der Mathematik und Informatik, aber auch des alltäglichen
Lebens. Wir werden solche Anwendungen so oft wie möglich ansprechen,
insbesondere, wenn sie die Informatik betreffen.
Um den Anschauungs– und Anwendungsbezug möglichst naheliegend zu
halten, beginnen wir mit der linearen Algebra über den reellen Zahlen und
deren Geometrie. Es wird sich im Verlauf der Vorlesung allerdings heraus-
stellen, dass es oft sinnvoll ist, davon abzuweichen und lineare Algebra auch
über anderen Zahlensystemen zu betreiben. Beispielsweise wäre das ganze
Gebiet der Kodierungstheorie kaum denkbar ohne die lineare Algebra über
endlichen Körpern. Andererseits wäre die Darstellung der Theorie viel zu
kompliziert, ohne die Ausweitung der Zahlen auf die sogenannten komple-
xen Zahlen zu betrachten.
17

Der R3 und der Rn

Vorlesung vom:
Die zum Teil aus der Schule bekannte Geometrie im Anschauungsraum R3 18. April 2012
stellen wir vor und erfahren dabei, dass die Erweiterung auf den Rn in den Qualitätsstand:
meisten Fällen abstrakt gesehen gar keine Änderung benötigt. zweite Version

17.1 Punkte im Rn

Einen Punkt im Anschauungsraum R3 können wir nach Einführung eines


Koordinatensystems durch ein Tupel (a1 , a2 , a3 ) (ein Tupel ist eine durch
Komma getrennte Menge von Objekten, bei denen es auf die Reihenfolge
ankommt) von Koordinaten spezifizieren (Abb. 17.1). Meist werden die Ko-
ordinatenachsen zueinander senkrecht gewählt; in diesem Fall nennt man
das Koordinatensystem kartesisch nach René Descartes (1596-1650), der Ko-
ordinatensysteme maßgeblich bekannt machte.

a2

a1

a3

Abbildung 17.1. Der Punkt (a1 , a2 , a3 ) ∈ R3 .

Punkte im R3 und allgemein im Rn stellen wir mit Zeilen- oder Spalten-


vektoren dar. In der linearen Algebra sind Spaltenvektoren üblich, bei denen
dann das Komma weggelassen wird:
210 17 Der R3 und der Rn
   
 a1   a1 
   
a =  a2  ∈ R3 bzw. a =  ...  ∈ Rn .
   
a3 an

Platzsparend werden Spaltenvektoren aber häufig (a1 , a2 , . . . , an )t notiert, wo-


bei t für transponieren steht. Der Nullvektor oder Ursprung des Koordina-
tensystems ist der Vektor (0, . . . , 0)t ∈ Rn ; er wird oft kurz 0 geschrieben. Aus
dem Zusammenhang wird immer klar sein, ob 0 die Zahl oder den Vektor
bezeichnet.
R3k taucht zum Beispiel auf, wenn wir k Punkte im Raum gleichzeitig betrach-
ten. Rn mit n ≈ 1.000.000 wird in der Computertomographie oder bei der
Diskretisierung von partiellen Differentialgleichungen verwendet. n ≈ 109
taucht bei einer Supportvektormaschine auf, wie sie Google verwendet und
n ≈ 106 Dreiecke werden zur Approximation einer geschwungenen Oberflä-
che durch winzige Dreiecke verwendet.

Definition 17.1. Zu zwei Vektoren


   
 x1   y1 
 .   
x =  ..  , y =  ...  ∈ Rn
   
xn yn

und einer Zahl λ ∈ R (genannt Skalar) setzen wir (siehe Abb. 17.2):
   
 x1 + y1   λx1 
 ..   
x + y :=  .
 ,
 λ·x :=  ...  .
   
xn + yn λxn

Abbildung 17.2. Summe zweier Vektoren (a, b), (c, d) ∈ R2 sowie Multiplikation eines
Vektors (a, b) ∈ R2 mit dem Skalar 2 ∈ R.
17.2 Skalarprodukt, Euklidische Norm 211

17.2 Skalarprodukt, Euklidische Norm

Mit Hilfe des sogenannten Skalarprodukts werden wir nun Abstände und
Winkel einführen und erste Eigenschaften der neuen Begriffe herleiten.

Definition 17.2. Für x, y ∈ Rn ist

⟨x, y⟩ := x1 ·y1 + · · · + xn ·yn ∈ R

(oder x · y = ⟨x, y⟩) das Skalarprodukt (genauer Standard–Skalarprodukt oder


euklidisches Skalarprodukt) von x und y (engl. auch dot–product oder inner
product).
v
t n
∑ √
1
∥x∥ := ∥x∥2 := x2i := x21 + x22 + · · · + x2n = (⟨x, x⟩) 2 ∈ R
i=1

heißt Betrag oder euklidische Norm von x. Hierbei bezeichnet a die Quadrat-
wurzel aus einer
√ nicht-negativen reellen Zahl, d.h. es ist die diejenige nicht-negative
Zahl, für die ( a)2 = a (s. Abschnitt 5.6 für Details).
Zumindest im R2 und R3 lässt sich ∥x∥ als Länge des Vektors x ∈ R3 interpretieren
(wegen des Satzes von Pythagoras, siehe Proposition 17.3 und Bemerkung 17.7).
Wir nennen ∥x∥ daher auch die Länge des Vektors x ∈ Rn . Zu x, y ∈ Rn ist

d(x, y) := ∥x − y∥

der Abstand der Punkte x und y.


Vorlesung vom:
Die folgenden Eigenschaften folgen recht leicht aus diesen Defintionen: 20. April 2012
Qualitätsstand:
Proposition 17.3 (Eigenschaften des Skalarprodukts). Es gilt: zweite Version
1. ⟨x + y, z⟩ = ⟨x, z⟩ + ⟨y, z⟩ für alle x, y, z ∈ Rn (Linearität),
2. ⟨λx, y⟩ = λ⟨x, y⟩ für alle x, y ∈ R , λ ∈ R
n
(Linearität),
3. ⟨x, y⟩ = ⟨y, x⟩ für alle x, y ∈ R n
(Symmetrie),
4. ⟨x, x⟩ ≥ 0 und ⟨x, x⟩ = 0 genau dann, wenn x = 0 ∈ Rn ,
5. ∥x + y∥2 = ∥x∥2 + 2⟨x, y⟩ + ∥y∥2 (Satz des Pythagoras)
6. ∥x + y∥2 + ∥x − y∥2 = 2∥x∥2 + 2∥y∥2 (Parallelogrammgleichung).

Beweis. Wir zeigen nur drei der Behauptungen:


∑ ∑ ∑
Zu 1. ⟨x + y, z⟩ = (xi + yi )zi = xi zi + yi zi = ⟨x, z⟩ + ⟨y, z⟩.
Zu 5. Es gilt: ∥x + y∥2 = ⟨x + y, x + y⟩ = ⟨x, x⟩ + 2⟨x, y⟩ + ⟨y, y⟩. Zur Bezeichnung
Satz des Pythagoras s. Bemerkung 17.7.
212 17 Der R3 und der Rn

(5)
Zu 6. ∥x + y∥2 + ∥x − y∥2 = ∥x∥2 + 2⟨x, y⟩ + ∥y∥2 + ∥x∥2 + 2⟨x, −y⟩ + ∥ − y∥2
(2&3)
= ∥x∥2 + 2⟨x, y⟩ + ∥y∥2 + ∥x∥2 − 2⟨x, y⟩ + ∥y∥2 , wie behauptet.

Nun kommen wir zu einer weiteren, sehr häufig verwendeten, aber nicht
ganz so leicht nachzuweisenden Eigenschaft:

Satz 17.4 (Cauchy–Schwarz’sche Ungleichung). Für x, y ∈ Rn gilt:

|⟨x, y⟩| ≤ ∥x∥ · ∥y∥.

Ferner gilt für x , 0 die Gleichheit |⟨x, y⟩| = ∥x∥ · ∥y∥ genau dann, wenn y = λx für
ein λ ∈ R.

Beweis. Für x = 0 ist alles klar. Sei also x , 0 ∈ Rn . Dann ist



n
µ := ⟨x, x⟩ = x2i > 0.
i=1

Ferner setzen wir: φ := −⟨x, y⟩. Damit gilt:

0 ≤ ⟨φx + µy, φx + µy⟩


= φ2 ⟨x, x⟩ + 2φµ⟨x, y⟩ + µ2 ⟨y, y⟩
= µ·⟨x, y⟩2 − 2µ·⟨x, y⟩2 + µ·⟨x, x⟩⟨y, y⟩
( )
= µ· −⟨x, y⟩2 + ⟨x, x⟩⟨y, y⟩ .

Da µ > 0, folgt:

0 ≤ −(⟨x, y⟩)2 + ∥x∥2 · ∥y∥2 bzw. |⟨x, y⟩|2 ≤ ∥x∥2 · ∥y∥2 .



Die Monotonie der Quadratwurzel (siehe Bemerkung 5.30) liefert die erste
Behauptung.
Gilt Gleichheit, dann folgt:

0 = ⟨φx + µy, φx + µy⟩ ⇒ φx + µy = 0.


φ
Also: y = λx mit λ = − µ . ⊓

Die folgenden Eigenschaften der oben eingeführten Norm sind wieder leicht
einzusehen:

Proposition 17.5 (Eigenschaften der Norm). Für x, y ∈ Rn , λ ∈ R gilt:

1. ∥x∥ ≥ 0 und ∥x∥ = 0 genau dann, wenn x = 0 ∈ Rn ,


17.2 Skalarprodukt, Euklidische Norm 213

2. ∥λx∥ = |λ| · ∥x∥,


3. ∥x + y∥ ≤ ∥x∥ + ∥y∥ (∆-Ungleichung).

Beweis. Nur 3. ist zu zeigen. Nach Definition gilt:

∥x + y∥2 = ⟨x + y, x + y⟩
= ∥x∥2 + 2⟨x, y⟩ + ∥y∥2 .

Cauchy–Schwartz liefert nun:

∥x + y∥2 ≤ ∥x∥2 + 2∥x∥·∥y∥ + ∥y∥2 = (∥x∥ + ∥y∥)2 .

Die Behauptung folgt mit der Monotonie der Quadratwurzel (Bem. 5.30). ⊓

Vorlesung vom:
Wir kommen nun zu der geometrischen Bedeutung des Skalarprodukts: 25. April 2012
Qualitätsstand:
Definition 17.6. Zwei Vektoren x, y ∈ Rn heißen senkrecht (auch orthogonal) zweite Version
zueinander (in Zeichen x ⊥ y), wenn ⟨x, y⟩ = 0.

Bemerkung 17.7.

1. Im R2 bzw. Rn stimmt dieser Begriff mit dem anschaulichen Begriff über-


ein. Dies folgt aus der Formel (s. 17.3)

∥x + y∥2 = ∥x∥2 + 2⟨x, y⟩ + ∥y∥2

zusammen mit dem geometrischen Satz des Pythagoras a2 +b2 = c2 für die
Seitenlängen a, b, c in einem rechtwinkligen Dreieck, wobei c die längste
ist.
Für die Seitenlängen der beiden in Abb. 17.3 erkennbaren rechtwinkligen
Dreiecke gilt dann nämlich:

a2 + d2 = ∥x∥2 , a2 + (d + ∥y∥)2 = ∥x + y∥2 .

Die Differenz dieser beiden Gleichungen ist:

d y

a x
x+y

Abbildung 17.3. Anwendung des geometrischen Satzes des Pythagoras auf zwei
rechtwinklige Dreiecke.
214 17 Der R3 und der Rn

2d∥y∥ + ∥x∥2 + ∥y∥2 = ∥x + y∥2 = ∥x∥2 + 2⟨x, y⟩ + ∥y∥2


und somit folgt: d∥y∥ = ⟨x, y⟩.
Def
Also: d = 0 ⇔ ⟨x, y⟩ = 0 ⇔ x ⊥ y ⇔ ∥x∥2 + ∥y∥2 = ∥x + y∥2 .
2. Den Beweis des geometrischen Satzes des Pythagoras liefert Abbildung
17.4. Dass die vier Dreiecke in Abb. 17.4 gleich groß sind, beruht dabei

b
a a2
c
=
b2

Abbildung 17.4. Dies zeigt: c2 = a2 + b2 , da die vier Dreiecke gleich groß sind.

auf der Tatsache, dass in einem Dreieck die Winkelsumme 180◦ ist, was
wiederum aus dem Parallelenaxiom folgt (siehe Abb. 17.5). Dieses besagt:
In einer Ebene α gibt es zu jeder Geraden g und jedem Punkt S außerhalb
von g genau eine Gerade, die zu g parallel ist und durch den Punkt S
geht. Ob das Parallelenaxiom in der Wirklichkeit gilt (nicht im R3 ), ist
offen und Gegenstand der Astronomie. An dieser Stelle möchten wir auf
zwei Bücher von Roger Penrose hinweisen: [Pena] und [Penb].

180◦
α′ γ β′

α β

Abbildung 17.5. Das Parallelenaxiom liefert: α′ = α, β′ = β, also: α + β + γ = 180◦ .

Definition 17.8. Für zwei Vektoren x, y ∈ Rn definieren wir den Winkel θ zwi-
schen x und y durch die Formel:
⟨x, y⟩
cos θ = .
∥x∥ · ∥y∥

Wegen der Cauchy–Schwarz’schen Ungleichung gilt:


−∥x∥ · ∥y∥ ≤ ⟨x, y⟩ ≤ ∥x∥ · ∥y∥,
⟨x,y⟩
also ∥x∥·∥y∥ ∈ [−1, 1]. Somit hat diese Definition einen Sinn (s. Abb. 17.6).
Selbstverständlich wird der Winkel θ nur eindeutig durch seinen Cosinus
17.3 Geometrische Objekte im Rn 215

festgelegt, wenn man sich auf ein geeignetes Intervall für θ beschränkt, hier
etwa auf das Intervall [0, 2π[. 2π ist die Länge des Vollkreises mit Radius 1;
viele Eigenschaften von Cosinus und Sinus sowie Zusammenhänge zwischen
diesen können recht leicht am Einheitskreis erklärt werden (s. Abb. 17.6).

1










 sin θ




θ 


−1 | {z }  
 1

cos θ=cos(−θ) 



2π − θ  sin(−θ)






−1

Abbildung 17.6. Cosinus und Sinus eines Winkels θ, visualisiert am Einheitskreis.

17.3 Geometrische Objekte im Rn

Wir werden in diesem Abschnitt die eben eingeführten Begriffe verwenden,


um Geraden, Ebenen und deren Verallgemeinerungen zu definieren und
deren gegenseitige Lage, also insbesondere Abstände zwischen ihnen, zu
studieren.

17.3.1 Geraden und Hyperebenen

Definition 17.9. Eine Gerade L ⊆ Rn ist eine Teilmenge der Gestalt

L = {p + λv | λ ∈ R} =: p + R · v,

wobei p ∈ L ein beliebiger Aufpunkt und v ∈ Rn \ {0} ein Richtungsvektor ist (s.
Abb. 17.7).
Eine Hyperebene H ⊆ Rn ist eine Teilmenge der Gestalt

H = {x ∈ Rn | a1 x1 + · · · + an xn = b} = {x ∈ Rn | ⟨a, x⟩ = b},

wobei a = (a1 , . . . , an )t ∈ Rn \ {0} und b ∈ R. Der Vektor a heißt Normalenvektor


von H (s. Abb. 17.8). Im R3 heißt eine Hyperebene einfach Ebene.
216 17 Der R3 und der Rn

p v

Abbildung 17.7. Eine Gerade g im R3 , mit Aufpunkt p und Richtungsvektor v.

Abbildung 17.8. Eine (Hyper-)ebene in R3 und ein Normalenvektor a von H.

Für zwei Punkte p, q ∈ H gilt für den Differenzvektor v = p − q

⟨a, v⟩ = ⟨a, p − q⟩ = ⟨a, p⟩ − ⟨a, q⟩ = b − b = 0.

Also a ⊥ p − q. Daher der Name Normalenvektor.

17.3.2 Schnittpunkte

Sei L ⊆ Rn eine Gerade und H ⊆ Rn eine Hyperebene. Für die Schnittmenge


L ∩ H gibt es drei Möglichkeiten:

1. L ∩ H = {q}, besteht aus genau einem Punkt q ∈ Rn ,


2. L ∩ H = ∅,
3. L ⊆ H.

Proposition 17.10. 2. oder 3. liegt genau dann vor, wenn der Richtungsvektor von
L senkrecht zum Normalenvektor a von H ist.

Beweis. Setzen wir die Parametrisierung L = {p + λv|λ ∈ R} der Geraden in


Gleichung ⟨a, x⟩ = b von H ein, so erhalten wir mit

⟨a, p + λv⟩ = b ⇔ λ⟨a, v⟩ = b − ⟨a, p⟩ (*)


17.3 Geometrische Objekte im Rn 217

eine Gleichung für λ.


Ist a nicht senkrecht zu v, d.h. ⟨a, v⟩ , 0, dann ist die einzige Lösung

b − ⟨a, p⟩ b − ⟨a, p⟩
λ= , also L ∩ H ∋ q = p + v.
⟨a, v⟩ ⟨a, v⟩

Ist ⟨a, v⟩ = 0, also a ⊥ v, dann hat (*) nur dann eine Lösung, wenn b − ⟨a, p⟩ =
0 ⇔ p ∈ H ⇒ L ⊆ H, da dann λ ∈ R beliebig gewählt werden kann. Dies
entspricht dem 3. Fall.
Ist ⟨a, v⟩ = 0 und b , ⟨a, p⟩ dann L ∩ H = ∅, 2. Fall. ⊓

Definition 17.11. In den Fällen 2. und 3., d.h. wenn a ⊥ v, so sagen wir: L ist eine
zu H parallele Gerade.

17.3.3 Abstände

Abstand zwischen Gerade und Punkt

Sei L = {p + λv | λ ∈ R} ⊆ Rn eine Gerade und q ∈ Rn ein weiterer Punkt.


Dann ist für jeden Punkt u ∈ L der Abstand d(u, q) = ∥u − q∥.

Definition 17.12. Wir definieren den Abstand von L zu q durch

d(L, q) = min d(u, q).


u∈L

Proposition/Definition 17.13. Das Minimum d(L, q) wird in genau einem Punkt


uq angenommen. Der Punkt uq ist eindeutig durch die Eigenschaft, dass uq − q
senkrecht zu dem Richtungsvektor v steht, bestimmt. uq heißt Fußpunkt des Lots
von q auf L (Abb. 17.9).

p v

uq
L

Abbildung 17.9. Das Lot des Punktes q auf die Gerade L.


218 17 Der R3 und der Rn

Beweis. Die Gleichung ⟨v, p + λv − q⟩ = 0 hat genau eine Lösung nämlich

⟨q − p, v⟩
λ= ,
⟨v, v⟩

da ∥v∥2 , 0. Also:
⟨q − p, v⟩ ⟨ v ⟩ v
uq = p + · v = p + q − p, · .
⟨v, v⟩ ∥v∥ ∥v∥
Jeder andere Punkt u ∈ L hat einen größeren Abstand (s. Abb. 17.10), da
Pythagoras
∥u − q∥2 = ∥uq − q∥2 + ∥u − uq ∥2 ≥ ∥uq − q∥2 , also:

d(L, q) = ∥uq − q∥.


u
uq
L

Abbildung 17.10. Der Abstand des Punktes q von der Geraden L ist d(L, q) = ∥uq − q∥.

Abstand zwischen Hyperebene und Punkt

Proposition/Definition 17.14. Sei H = {x | ⟨a, x⟩ = b} ⊆ Rn eine Hyperebene und


q ∈ Rn ein Punkt. Dann definieren wir

d(H, q) := min d(u, q).


u∈H

Das Minimum d(H, q) wird in genau einem Punkt uq ∈ H angenommen. uq ist durch
die Bedingung, dass die Differenz uq − q ein skalares Vielfaches des Normalenvektors
a ist, eindeutig bestimmt. Die Abbildung

Rn → H, q → uq

heißt orthogonale Projektion auf die Hyperebene H (s. Abb. 17.11).


17.3 Geometrische Objekte im Rn 219

uq
a

Abbildung 17.11. Die Orthogonale Projektion des Punktes q auf die Hyperebene H.

Beweis. Jeder andere Punkt u ∈ H hat größeren Abstand zu q, nach Pythago-


ras. Um uq auszurechnen, betrachten wir die Gerade L = {q + λa | λ ∈ R} ⊆ Rn
b−⟨q,a⟩
und bestimmen L ∩ H: ⟨q + λa, a⟩ = b liefert λ = ⟨a,a⟩ , also

b − ⟨a, q⟩
uq = q + · a.
⟨a, a⟩
Der Abstand ist somit:
b − ⟨a, q⟩ |b − ⟨a, q⟩| b ⟨ a ⟩
d(H, q) = ·a = · ∥a∥ = − ,q .
⟨a, a⟩ ⟨a, a⟩ ∥a∥ ∥a∥
Wählen wir den Normalenvektor normiert, d.h. von der Länge 1, dann gilt:

d(H, q) = |b − ⟨a, q⟩|.

In diesem Fall lässt sich |b| als Abstand d(H, 0) von H zum Nullpunkt inter-
pretieren. Auch das Vorzeichen von b hat eine Interpretation:

b > 0 ⇔ 0 liegt in dem Halbraum {x | ⟨a, x⟩ < b}


⇔ Der Normalenvektor, auf H angetragen, zeigt in den Halbraum,
der 0 nicht enthält.


Abstand zwischen zwei Geraden


Vorlesung vom:
Definition 17.15. Seien L1 = {p1 + λv1 | λ ∈ R} und L2 = {p2 + λv2 | λ ∈ R} 27. April 2012
zwei Geraden im Rn . L1 und L2 heißen parallel, wenn v1 = λv2 für ein λ ∈ R, das Qualitätsstand:
heißt, wenn die Richtungsvektoren bis auf den Skalarfaktor übereinstimmen. L1 und zweite Version
L2 heißen windschief, wenn gilt:

1. L1 und L2 sind nicht parallel,


2. L1 ∩ L2 = ∅.

d(L1 , L2 ) := min d(x, y) nennen wir den Abstand von L1 zu L2 .


x∈L1 ,y∈L2
220 17 Der R3 und der Rn

Proposition 17.16 (Abstand windschiefer Geraden). Es seien L1 und L2 zwei


windschiefe Geraden mit Richtungsvektoren v1 bzw. v2 . Dann wird das Minimum
d(L1 , L2 ) in genau einem Paar von Punkten (x̃, ỹ) ∈ L1 × L2 angenommen. (x̃, ỹ) ist
durch die Bedingung, dass x̃ − ỹ senkrecht zu v1 und v2 steht, eindeutig bestimmt
(Abb. 17.12).

L1
L2

Abbildung 17.12. Abstand windschiefer Geraden.

Beweis. (x̃, ỹ) erfülle die Bedingung. Für jedes andere Paar (x, y) ∈ L1 × L2 gilt:

(x, y) = (x̃ + λ1 v1 , ỹ + λ2 v2 ) für gewisse λ1 , λ2 ∈ R.

Mit dieser Notation gilt

∥x − y∥2 = ∥x̃ + λ1 v1 − ỹ − λ2 v2 ∥2
= ∥x̃ − ỹ + λ1 v1 − λ2 v2 ∥2
= ∥x̃ − ỹ∥2 + ∥λ1 v1 − λ2 v2 ∥2

nach Pythagoras, da x̃ − ỹ nach Voraussetzung zu jeder Linearkombination


λ1 v1 − λ2 v2 senkrecht steht:

⟨x̃ − ỹ, λ1 v1 − λ2 v2 ⟩ = λ1 ⟨x̃ − ỹ, v1 ⟩ − λ2 ⟨x̃ − ỹ, v2 ⟩ = 0.

Insgesamt folgt: ∥x − y∥2 ≥ ∥x̃ − ỹ∥2 (also auch d(x, y) ≥ d(x̃, ỹ)) und Gleichheit
gilt genau dann, wenn

λ1 v1 − λ2 v2 = 0 ⇔ λ1 = λ2 = 0,

da v1 und v2 keine skalaren Vielfachen voneinander sind. Wir haben somit:

d(L1 , L2 ) = ∥x̃ − ỹ∥.

Es bleibt zu zeigen, dass die angegebene Bedingung x̃ und ỹ eindeutig be-


stimmt. Wir schreiben: x̃ = p1 + λ1 v1 , ỹ = p2 + λ2 v2 für gewisse λ1 , λ2 ∈ R
und p1 , p2 , v1 , v2 ∈ Rn . Wegen der Bedingung gilt nun:

⟨x̃ − ỹ, v1 ⟩ = 0, ⟨x̃ − ỹ, v2 ⟩ = 0,


17.3 Geometrische Objekte im Rn 221

also:
⟨p1 − p2 + λ1 v1 − λ2 v2 , v1 ⟩ = 0, ⟨p1 − p2 + λ1 v1 − λ2 v2 , v2 ⟩ = 0.
Dies liefert ein lineares Gleichungssystem (d.h. eine Menge von Bedingun-
gen an λ1 , λ2 , die jeweils ein Polynom vom Grad 1 in den λi darstellen) für
λ1 und λ2 :
λ1 ·∥v1 ∥2 − λ2 ⟨v2 , v1 ⟩ = ⟨p2 − p1 , v1 ⟩, λ1 ·⟨v1 , v2 ⟩ − λ2 ∥v2 ∥2 = ⟨p2 − p1 , v2 ⟩.

Wir könnten dies nun explizit lösen. Wir machen das hier aber nicht, weil
wir in Kürze eine Maschinerie zur Lösung solcher Probleme kennen lernen
werden, mit Hilfe der sogenannten Matrixschreibweise:
( )( ) ( )
∥v1 ∥2 −⟨v2 , v1 ⟩ λ1 ⟨p2 − p1 , v1 ⟩
= .
⟨v1 , v2 ⟩ −∥v2 ∥2 λ2 ⟨p2 − p1 , v2 ⟩
Wir werden sehen, dass diese Gleichung genau dann eine eindeutig bestimm-
te Lösung (λ1 , λ2 )t ∈ R2 hat, wenn
( )
∥v1 ∥2 −⟨v2 , v1 ⟩
0 , det := −∥v1 ∥2 · ∥v2 ∥2 + ⟨v1 , v2 ⟩2 ≤ 0,
⟨v1 , v2 ⟩ −∥v2 ∥2
wobei det() die sogenannte Determinante beschreibt, die wir gleich allgemein
einführen werden. Nach der Cauchy–Schwarz’schen Ungleichung ist aber
|⟨v1 , v2 ⟩| ≤ ∥v1 ∥ · ||v2 ∥ und es gilt <, da v1 und v2 nicht skalare Vielfache
voneinander sind. ⊓ ⊔

Aufgaben

Aufgabe 17.1 (Abstand im R3 ). Berechnen Sie den Abstand zwischen den


folgenden beiden Geraden im R3 :
       
0 1 −1 1
       
g : 0 + λ 2 , h :  0  + µ 3 .
       
2 1 2 2
 
−3
 
Aufgabe 17.2 (Spiegel). Im Punkt A = −3 befinde sich ein Auge, mit Blick-
 
5
 
 1 
 
richtung v =  1 .
 
−1
 
−3
Ein Objekt habe sein Zentrum im Punkt O =  3 .
 
−1
Ferner genüge ein (unendlich großer) Spiegel der Gleichung x = 0.
222 17 Der R3 und der Rn

1. In welchem Punkt P des Spiegels sieht man das Objekt?


2. Wie groß ist der Winkel OPA?

Aufgabe 17.3 (Winkel im R4 ).

1. Definieren Sie den Winkel zwischen zwei Hyperebenen im Rn in sinn-


voller Weise.
2. Berechnen Sie den Winkel zwischen den folgenden beiden Hyperebenen
im R4 :
         

  1 
 
  0  1 


 
0 
 
 
1 
2 


   
 
     

H1 =  ∈ R | ⟨   , = , = ∈ R | ⟨   , −   ⟩ =
      .
4 4
 x 2

x⟩ 0
 H 2 
x 1

x 3

0

   
 
     


 
 
 

1 1 4

Aufgabe 17.4 (Geometrie in der Ebene).

1. Woher kommt die Lücke?

2. Seien vier beliebige Punkte A, B, C, D ∈ R2 gegeben. Diese bilden ein


Viereck ABCD. Die Mittelpunkte der Seiten AB, BC, CD, DA bezeichen
wir mit P, Q, R, S (in dieser Reihenfolge). Zeigen Sie: Das Viereck PQRS
ist ein Parallelogramm.
C
Q

S
P

A
D
R
18

Abstrakte Vektorräume

R3 und Rn sind Beispiele von Vektorräumen. Wir wollen Vektorräume auch


in abstrakterer Form einführen, da deren Verwendung sehr häufig notwendig
ist, wie wir noch im weiteren Verlauf der Vorlesung sehen werden. Zunächst
einmal wollen wir für Skalare auch andere Zahlbereiche zulassen. Zum Bei-
spiel kommen R, Q, C und endliche Körper in Frage.

18.1 Definitionen

Da wir diesen Vorlesungsteil möglichst unabhängig vom ersten Teil machen


möchten, besprechen wir hier kurz den Begriff des Körpers. Weitere Details
sind im ersten Vorlesungsteil nachzulesen.
Darauf aufbauend führen wir dann den Begriff des Vektorraumes ein.

Definition 18.1. Ein Körper ist ein Tupel (K, +, ·) aus einer Menge K und zwei
Abbildungen

+ : K × K → K, (a, b) → a + b
· : K × K → K, (a, b) → a · b,

die folgenden Axiomen genügen:


K1: Axiome der Addition
K1.1 (Assoziativgesetz)

(a + b) + c = a + (b + c) ∀ a, b, c ∈ K.

K1.2 (Existenz der Null)

∃ 0 ∈ K, so dass 0 + a = a ∀ a ∈ K.
224 18 Abstrakte Vektorräume

K1.3 (Existenz des Negativen)


∀ a ∈ K ∃ − a ∈ K, so dass − a + a = 0 (a − b := a + (−b)).
K1.4 (Kommutativgesetz)
a+b=b+a ∀ a, b ∈ K.
(Eine Menge K mit Verknüpfung +, die obige Axiome erfüllt, wird auch als abelsche
Gruppe bezeichnet.)
K2: Axiome der Multiplikation
K2.1 (Assoziativgesetz)
a · (b · c) = (a · b) · c ∀ a, b, c ∈ K.
K2.2 (Existenz der Eins)
∃ 1 ∈ K∗ := K \ {0}, so dass a · 1 = a ∀ a ∈ K.
K2.3 (Existenz des Inversen)
∀ a ∈ K∗ ∃ a−1 ∈ K, so dass a · a−1 = 1.
K2.4 (Kommutativgesetz der Multiplikation)
a·b=b·a ∀ a, b ∈ K.

K3: Distributivgesetze (Punktrechung geht vor Strichrechnung)


a · (b + c) = a · b + a · c
(a + b) · c = a · c + b · c ∀ a, b, c ∈ K.

Insbesondere ist also (K∗ , ·) eine abelsche Gruppe.

Beispiel 18.2. Q, R, C sind Körper.


(Z, +, ·) ist kein Körper, da n ∈ Z mit |n| ≥ 2 kein Inverses hat.

Definition 18.3. Lassen wir in der Definition des Körpers das Axiom K2.3 weg, so
erhalten wir die Axiome eines kommutativen Rings mit 1.

Beispiel/Definition 18.4. Für a ∈ Z bezeichnen wir mit a den Rest bei der
Division durch p ∈ Z. Sei p eine Primzahl. Dann ist

Fp := {0, 1, . . . , p − 1}
= die Menge der Reste bei der Division durch p in Z
ein Körper (mit p Elementen) vermöge der folgenden Verknüpfungen:

a + b := a + b, a · b := a · b.
Häufig läßt man ¯ weg und schreibt die Elemente als 0, 1, . . . . Für Details s.
Kapitel 3.
18.1 Definitionen 225

Beispiel 18.5. • F2 = {0̄, 1̄}. Verknüpfungstafeln:

+ 0̄ 1̄ · 0̄ 1̄
0̄ 0̄ 1̄ 0̄ 0̄ 0̄
1̄ 1̄ 0̄ 1 0̄ 1

also 1̄ + 1̄ = 0̄ ∈ F2 (da 1 + 1 ≡ 0 mod 2). Häufig schreibt man der


Einfachheit halber auch 0 statt 0̄ und 1 statt 1̄. Der Körper F2 ist in vielerlei
Hinsicht bemerkenswert; beispielswiese gilt dort: −1 = +1.
• F3 = {0̄, 1̄, 2̄}. Verknüpfungstafeln:

+ 0̄ 1̄ 2̄ · 0̄ 1̄ 2̄
0̄ 0̄ 1̄ 2̄ 0̄ 0̄ 0̄ 0̄
1̄ 1̄ 2̄ 0̄ 1̄ 0̄ 1̄ 2̄
2̄ 2̄ 0̄ 1̄ 2̄ 0̄ 2̄ 1̄

da beispielsweise 2+1 ≡ 0 mod 3 und 2+2 ≡ 1 mod 3. Auch der Körper


F3 ist außergewöhnlich: Wie man an den Verknüpfungstafeln sehen kann,
ist 2̄ = −1̄; daher schreibt man die drei Elemente von F3 auch häufig der
Einfachheit halber 0, 1, −1 statt 0̄, 1̄, 2̄.

Bemerkung 18.6. Ist n eine zusammengesetzte Zahl, etwa eine echte Prim-
zahlpotenz, dann ist Z/n := {0, 1, . . . , n − 1} kein Körper, sondern lediglich ein
kommutativer Ring mit 1.
Beispielsweise hat 2 in Z/6 kein Inverses bzgl. der Multiplikation: Es gibt
kein x ∈ F6 , so dass x · 2 ≡ 1 mod 6, da:

1 · 2 = 2 ≡ 2 mod 6, 2 · 2 = 4 ≡ 4 mod 6, 3 · 2 = 6 ≡ 0 mod 6,


4 · 2 = 8 ≡ 2 mod 6, 5 · 2 = 10 ≡ 4 mod 6, 0 · 2 = 0 ≡ 0 mod 6.

Bemerkung 18.7. 0 · a = 0 ∀ a ∈ K und (−1) · (−1) = 1 gilt in allen Körpern.

Definition 18.8. Sei K (genauer (K, +, ·)) ein Körper. Ein K-Vektorraum (kurz K–
VR) ist ein Tupel (V, +, ·), wobei V eine Menge ist, zusammen mit zwei Abbildungen

+ : V × V → V, (v, w) → v + w
· : K × V → V, (λ, v) → λ · v,

die den folgenden Axiomen genügen:

VR 1: Axiome der Vektoraddition


VR 1.1 Assoziativität: u + (v + w) = (u + v) + w ∀ u, v, w ∈ V.
226 18 Abstrakte Vektorräume

VR 1.2 Existenz der Null1 : ∃ 0 ∈ V, so dass 0 + v = v ∀ v ∈ V.


VR 1.3 Existenz des Negativen: ∀ v ∈ V∃ − v ∈ V so dass −v + v = 0.
VR 1.4 v + w = w + v ∀ v, w ∈ V.
Mit anderen Worten (V, +) ist eine abelsche Gruppe.
VR 2: Axiome der Skalarmultiplikation
VR 2.1 (λ · µ) · v = λ · (µ · v) ∀ v ∈ V ∀λ ∈ K.
VR 2.2 1·v=v ∀ v ∈ V gilt für das Einselement 1 ∈ K.
VR 3: Distributivgesetze

(λ + µ) · v = λ · v + µ · v ∀ λ, µ ∈ K, ∀ v ∈ V,
λ · (v + w) = λ · v + λ · w ∀ λ ∈ K ∀ v, w ∈ V.

Die Elemente λ ∈ K heißen Skalare, die Elemente v ∈ V heißen Vektoren.

Bemerkung/Definition 18.9. Verlangen wir nicht mehr, dass K ein Körper ist,
sondern nur, dass R = K ein (kommutativer) Ring mit 1 ist, so erhalten die
Definition eines (Links-)Moduls über R.
Die Theorie der Module ist deutlich verschieden von der Theorie der Vektor-
räume.

18.2 Beispiele von Vektorräumen

1. Rn ist ein R-Vektorraum, Qn ein Q-VR und allgemein


 
x
{ .1  }
K =  ..  | xi ∈ K
n 
 
xn

ein K-Vektorraum, wenn K ein Körper ist.


2. Die Polynome

R[x] := {p = an xn + an−1 xn−1 + · · · + a1 x + a0 | n ∈ N, ai ∈ R}

bilden einen R-Vektorraum: Seien p = 5x2 − 3x, q = x3 + x − 1 ∈ R[x].


Dann ist:

1
Achtung: Mit 0 bezeichnen wir sowohl die Zahl 0 ∈ K, also auch den Null-Vektor
0 = (0, . . . , 0)t , als auch den Nullvektorraum {(0, . . . , 0)t }. Es wird immer aus dem
Kontext verständlich sein, welche 0 gemeint ist.
18.2 Beispiele von Vektorräumen 227

p + q = x3 + 5x2 − 2x − 1 ∈ R[x],
1 5 3
· p = x2 − x ∈ R[x].
2 2 2
Außerdem ist beispielsweise (x − 1)2 + 2(x + 1) ∈ R[x].
3. Die Mengen (siehe für die Definitionen Kapitel 9)

C0 [a, b] := { f : [a, b] → R | f ist stetig },


C1 [a, b] := { f : [a, b] → R | f ist stetig und differenzierbar },
C∞ [a, b] = { f : [a, b] → R | f ist unendlich oft differenzierbar }

sind R-Vektorräume; hierbei ist [a, b] = {x | a ≤ x ≤ b} das sogenannte


abgeschlossene Intervall der reellen Zahlen zwischen a und b (s.
refDef:Intervalle für Details). Vektorräume von Funktionen spielen bei-
spielsweise in der Bildbearbeitung eine Rolle.

R[a,b] := { f : [a, b] → R | f ist Abbildung }

ist ebenfalls ein R-Vektorraum.


4. Sei K ein Körper und M eine Menge. Dann ist

KM := { f : M → K}

ein K-Vektorraum.
5. In der Kodierungstheorie verwendet man häufig Vektorräume über end-
lichen Körpern, etwa K = F2 :
  

  x  

 
 .. 
1
 

V = F2 = 
n
 
 . 
 x ∈ {0, 1}
 ,
 

i


 xn 

die Menge der n–Tupel von Elementen aus F2 . Allgemein definiert man
für einen endlichen Körper K = Fp und zwei Vektoren
   
 x1   y1 
 .   
x =  .. , y =  ...  ∈ Fnp
   
xn yn

die Hammingdistanz:

d(x, y) := |{i | xi , yi }|.

Beispielsweise ist
   
( 0   0 )
d  1 ,  0  = 2.
   
0 1
228 18 Abstrakte Vektorräume

In der Kodierungstheorie ist ein Code eine Teilmenge C ⊆ Fnp . Ein Element
x ∈ C heißt ein Codewort. Die Minimaldistanz von C ist

D= min d(x, y).


x,y∈C, x,y

Rauscht der Kanal so wenig, dass man weniger D2 Fehler erwarten darf,
dann können wir das Wort x aus dem übertragenen Wort y zurückbe-
kommen, indem wir

z ∈ C bestimmen mit d(z, y) = min d(c, y).


c∈C

Bei weniger als D


2 Fehlern in der Übertragung gilt z = x.
Besonders häufig werden für Codes Teilmengen verwendet, die selbst
wieder Vektorräume sind, nämlich sogenannte Untervektorräume. Dazu
kommen wir im nächsten Abschnitt.

18.3 Untervektorräume

Definition 18.10. Sei V ein K-Vektorraum. Eine nicht leere Teilmenge U ⊆ V heißt
Untervektorraum (kurz UVR), wenn

1. u1 , u2 ∈ U ⇒ u1 + u2 ∈ U,
2. u ∈ U, λ ∈ K ⇒ λ · u ∈ U.

Bemerkung 18.11. Insbesondere ist dann mit u ∈ U auch (−1) · U = −u ∈ U.


Mit anderen Worten

1. + : U × U → V, (u1 , u2 ) 7→ u1 + u2 ∈ U,
2. · : k × U → V, (k, u) 7→ k · u ∈ U.

(U, +, ·) ist dann ein Vektorraum.

Bemerkung 18.12. Ist U ⊆ V ein Untervektorraum, dann gilt 0 ∈ U. Denn


U , ∅ und somit: ∃ n ∈ U ⇒ −u ∈ U ⇒ 0 = −u + u ∈ U.

Frage 18.13. Welche der folgenden Teilmengen des R2 sind Untervektorräume (s.
Abb. 18.1 und 18.2)?
18.3 Untervektorräume 229
{( ) }
x1
U1 = ∈ R2 x1 + 2x2 = 0 ,
x2
{( ) }
x1
U2 = x2 ≥ 0 ,
x2
{( ) }
x1
U3 = x1 + x2 ≤ 1 ,
x2
{( ) }
x1
U4 = x1 + x2 = 1 .
x2

Abbildung 18.1. Die Teilmengen U1 und U2 des R2 .

Abbildung 18.2. Die Teilmengen U3 und U4 des R2 .

Antwort. Nur U1 ist ein Untervektorraum.


U2 ist kein Untervektorraum, weil (0, 1)t ∈ U2 , aber −(0, 1)t = (0, −1)t < U2 .
U3 ist kein Untervektorraum, weil große skalare Vielfache von u ∈ U3 \ {0}
nicht in U3 liegen.
230 18 Abstrakte Vektorräume

U4 ist kein Untervektorraum, weil z.B. ( 21 , 12 )t ∈ U4 , aber 2·( 12 , 12 )t = (1, 1)t < U4
und weil 0 < U4 . ⊓⊔

Bemerkung 18.14. 1. Eine Gerade L (Hyperebene H) ⊆ Rn ist ein Untervek-


torraum genau dann, wenn 0 ∈ L, (bzw. 0 ∈ H).
2. Sind U, W ⊆ V Untervektorräume, dann ist auch U ∩ W ⊆ V ein Unter-
vektorraum.
3. Der kleinste Untervektorraum von V ist der Nullraum 0 = {0}.
4. Sind U, W ⊆ V Untervektorräume, dann ist im Allgemeinen U ∪ W ⊆ V
kein Untervektorraum.

Beweis. Seien V = R2 und


{( ) } {( ) }
x1 x1
U= x1 = 0 , W = x2 = 0 .
x2 x2

Dann ist die Menge


{( ) }
x1
U∪W = x1 · x2 = 0
x2

kein Untervektorraum von V, denn:


( ) ( ) ( ) ( ) ( )
1 0 1 0 1
, ∈ U ∪ W, aber = + < U ∪ W.
0 1 1 1 0


18.4 Lineare Unabhängigkeit und Basen

Unser Ziel ist es, einen Dimensionsbegriff für abstrakte K-Vektorräume V zu


entwickeln. Wir wollen dim V ∈ N ∪ {∞} definieren.
Natürlich soll dim Rn = n, und für L, H ⊆ Rn Gerade bzw. Hyperebene mit
0 ∈ L(0 ∈ H) soll dim L = 1 und dim H = n − 1 gelten. Anschaulich ist
die Dimension die minimale Anzahl von Vektoren, die wir benötigen, um V
aufzuspannen.

Definition 18.15. 1. Seien V ein K-Vektorraum und v1 , . . . , vn ∈ V Vektoren.


Eine Linearkombination von v1 , . . . , vn ist ein Ausdruck

v = λ1 v1 + λ2 v2 + · · · + λn vn ∈ V,

wobei λ1 , . . . , λn ∈ K. Mit
18.4 Lineare Unabhängigkeit und Basen 231

⟨v1 , . . . , vn ⟩ := Spann(v1 , . . . , vn ) := {λ1 v1 + · · · + λn vn | λi ∈ K} ⊆ V

bezeichnen wir den Spann von v1 , . . . , vn (oder ausführlicher: den von v1 , . . . , vn


aufgespannten Untervektorraum).
Wir setzen: ⟨∅⟩ := {0} =: 0.
⟨v1 , . . . , vn ⟩ ⊆ V ist der kleinste Untervektorraum von V, der v1 , . . . , vn enthält.
2. v1 , . . . vn erzeugen V, wenn ⟨v1 , . . . , vn ⟩ = V. Mit anderen Worten: ∀ v ∈
V ∃ λ1 , . . . , λn ∈ K : v = λ1 v1 + · · · + λn vn . Wir sagen auch, die Familie
{vi }i=1,...,n bildet ein Erzeugendensystem von V.
3. v1 , . . . , vn heißen linear unabhängig, wenn ∀ λ1 , . . . , λn ∈ K gilt:

0 = λ1 v 1 + λ2 v 2 + · · · + λn v n ⇒ λ1 = · · · = λn = 0.

Andernfalls heißen v1 , . . . , vn linear abhängig.

Beispiel 18.16. V = R3 . Wir betrachten die vier Vektoren:


       
 1   1   2   1 
 1   0   1   
v1 =  , v2 =  , v3 =  , v4 =  1  ∈ R3 .
       
0 1 1 1

1. v1 , v2 sind linear unabhängig:


     
 1   1   λ1 + λ2 
 1   0   λ 
λ1   + λ2   =  1  = 0 ⇒ λ1 = λ2 = 0.
     
0 1 λ2

2. v1 , v2 , v3 , v4 sind linear abhängig, zum Beispiel: 1 · v1 + 1 · v2 − 1 · v3 + 0 ·


v4 = 0, also sogar v1 , v2 , v3 sind schon linear abhängig (Abb. 18.3). Wir
werden noch sehen, dass die lineare Abhängigkeit klar ist, weil lineare
Unabhängigkeit schon aus Dimensionsgründen nicht sein kann.
3. v1 , v2 , v4 sind linear unabhängig, weil
       
 1   1   1   λ1 + λ2 + λ3 
 1   0   1   λ + λ 
0 = λ1   + λ2   + λ3   =  1 3 
       
0 1 1 λ2 + λ3

⇒ λ3 = −λ1 = −λ2 wegen der 2. und 3. Komponenten.


Eingesetzt in die erste Komponente ergibt sich:

λ1 + λ1 − λ1 = λ1 = 0 ⇒ λ2 = 0 ⇒ λ3 = 0.

4. v1 , v2 , v4 bilden ein Erzeugersystem, weil sich jeder Vektor v, etwa v =


(b1 , b2 , b3 )t , als Linearkombination dieser Vektoren darstellen lässt.
232 18 Abstrakte Vektorräume

Abbildung 18.3. Ist die Summe dreier Vektoren der Nullvektor, so bedeutet dies, dass
sie aneinander gehängt einen geschlossenen Vektorzug ergeben.

         
 b1   1   1   1   λ1 + λ2 + λ3 
 b   1   0   1   λ + λ 
 2  = λ1   + λ2   + λ3   =  1 3 
         
b3 0 1 1 λ2 + λ3
liefert nämlich ein Gleichungssystem,
(I) b1 = λ1 + λ2 + λ3
(II) b2 = λ1 + λ3
(III) b3 = λ2 + λ3 ,
welches eine Lösung hat:
I - II - III ergibt: b1 − b2 − b3 = −λ3 ⇒ λ3 = b2 + b3 − b1 .
Dies in II eingesetzt liefert: b2 = λ1 + b2 + b3 − b1 ⇒ λ1 = b1 − b3 .
Dies wiederum in III eingesetzt: b3 = λ2 + b2 + b3 − b1 ⇒ λ2 = b1 − b2 .
Also:    
 λ1   b1 − b3 
 λ   b − b 
 2  =  1 2 .
   
λ3 −b1 + b2 + b3
Probe: 3

Fazit: Lineare Abhängigkeit und Erzeugung zu entscheiden läuft darauf hin-


aus, lineare Gleichungssysteme zu lösen.

Beispiel/Definition 18.17. V = R[x] = { alle Polynome }, ein R-Vektorraum.


Für ein Polynom
p = ad xd + ad−1 xd−1 + · · · + a1 x + a0 , ai ∈ R,
heißen die ai Koeffizienten von p. Ist ad , 0, dann hat p den Grad deg p := d.
Wir setzen deg 0 := −∞. Es gilt2 :
2
Das Zeichen  bedeutet, dass die beiden Vektorräume im Wesentlichen gleich
sind; genauer werden wir dies erst später definieren.
18.4 Lineare Unabhängigkeit und Basen 233

R[x]≤d := {p ∈ R[x] | deg p ≤ d}


= {ad xd + · · · + a1 x + a0 | ai ∈ R}
 Rd+1 .

Z.B.: R[x]≤3 ∋ 1, x, x2 , x3 sind linear unabhängig und erzeugen R[x]≤3 . Dage-


gen bilden

p1 = x2 + 1, p2 = x2 − 1, p3 = x3 + 1, p4 = x3 − 1 ∈ R[x]≤3

kein Erzeugendensystem für R[x]≤3 , da:

⟨x2 + 1, x2 − 1, x3 + 1, x3 − 1⟩ ⊆ {p = a3 x3 + a2 x2 + a1 x + a0 | a1 = 0}.

p1 , p2 , p3 , p4 sind vielmehr linear abhängig, da die Relation λ1 p1 +λ2 p2 +λ3 p3 +


λ4 p4 = 0 für λ1 = 1, λ2 = −1, λ3 = −1, λ4 = 1 eine nicht–triviale lineare
Relation (d.h., nicht alle λi = 0) ist.

Beispiel/Definition 18.18. Seien k, d ∈ N und a, b ∈ R mit a < b.

R[x]≤d ⊆ R[x]≤d+1 ⊆ R[x] ⊆ C∞ [a, b] ⊆ Ck [a, b] ⊆ C0 [a, b] ⊆ R[a,b]

ist eine aufsteigende Kette von Untervektorräumen des Vektorraumes


R[a,b] = { f : [a, b] → R}.

Definition 18.19. Sei V ein Vektorraum und seien v1 , . . . , vn ∈ V Vektoren. β =


{vi }i=1,...,n ist eine Basis von V, wenn

1. {v1 , . . . , vn } V erzeugen und


2. {v1 , . . . , vn } linear unabhängig sind.

Beispiel 18.20. 1. Rn . Die Vektoren e1 , . . . , en ,


 
   0.   
 1   .   0. 
 0   .   . 
    .
e1 =  .. , . . . , ei =  1 , . . . , en =  
 .   ..   0 
   .   
0   1
0

mit nur einer 1 an der i-ten Position und sonst 0-en, bilden eine Basis des
Rn , die sogenannte Standardbasis.
2. R[x]≤3 hat die Basis a, x, x2 , x3 , a , 0. Es gibt aber auch andere Basen. Bei-
spielsweise ist 1, x − a, (x − a)2 , (x − a)3 mit a , 0 auch eine Basis von R[x]≤3 .
Dies ist die Basis, welche für das dritte Taylorpolynom Ta3 f verwendet
wird (siehe Kapitel 15).
234 18 Abstrakte Vektorräume

Bemerkung 18.21. Ist {v1 , . . . , vn } ⊆ V eine Basis, dann hat jeder Vektor w ∈ V
eine eindeutig bestimme Darstellung

w = λ1 v1 + · · · + λn vn mit λi ∈ K

als Linearkombination.

Beweis. Existenz ist die erste Bedingung, Eindeutigkeit die zweite: die Dif-
ferenz zweier Darstellungen ist nämlich eine Relation, die nach der zweiten
Bedingung trivial ist.
Ausführlicher: Sei w ∈ V. Da eine Basis ein Erzeugendensystem ist, gibt es
λi ∈ K, so dass
w = λ1 v1 + · · · + λn vn .
′ ′
Ist w = λ1 v1 + · · · + λn vn eine weitere Darstellung, so gilt für die Differenz:
′ ′
0 = (λ1 − λ1 )v1 + · · · + (λn − λn )vn .
′ ′
Wegen der Definition einer Basis, folgt: λ1 − λ1 = 0, . . . , λn − λn = 0. Damit
′ ′
gilt aber schon: λ1 = λ1 , . . . , λn = λn . Dies zeigt die Eindeutigkeit. ⊓

Vorlesung vom:
4. Mai 2012
Satz 18.22. Sei V ein K–VR und seien v1 , . . . , vn ∈ V Vektoren. Äquivalent sind:
Qualitätsstand:
zweite Version
1. {v1 , . . . , vn } ist eine Basis von V.
2. {v1 , . . . , vn } bilden ein unverlängerbares System von linear unabhängigen Vek-
toren.
3. {v1 , . . . , vn } bilden ein unverkürzbares Erzeugendensystem von V.
4. Jeder Vektor w ∈ V hat genau eine Darstellung w = λ1 v1 + · · · + λn vn mit
λi ∈ K als Linearkombination von v1 , . . . , vn .

Beweis. 1. ⇒ 4.: Das ist Bemerkung 18.21.


4. ⇒ 2. und 4. ⇒ 3. sind jeweils klar.
2., 3. ⇒ 1. nach der Definition einer Basis.
Es bleibt also 2. ⇔ 3. zu zeigen.
2. ⇒ 3.: Sei v1 , . . . , vn ein unverlängerbares System von linear unabhängigen
Vektoren. Mit jedem weiteren Vektor 0 , w ∈ V erhalten wir also ein System
von linear abhängigen Vektoren, also:

∃ λ1 , . . . , λn , λn+1 ∈ K : λ1 v1 + · · · + λn vn + λn+1 w = 0,

wobei wenigstens ein λi , 0. Es ist λn+1 , 0, da v1 , . . . , vn linear unabhängig


1
sind. Da K ein Körper ist, gilt λn+1 ∈ K.
Es folgt:
18.5 Dimension 235

λ1 −λn
w = (− )v1 + · · · + (− ) · vn .
λn+1 λn+1
Dies gilt für beliebige w ∈ V, d.h. v1 , . . . , vn erzeugen V. v1 , . . . , vn ist unver-
kürzbar, das heißt nach Weglassen eines der Vektoren haben wir kein Erzeu-
gendensystem mehr. Wenn wir zum Beispiel vn weglassen und v1 , . . . , vn−1
noch ein Erzeugendensystem wäre, gäbe es eine Darstellung

vn = µ1 v1 + . . . mun+1 vn+1 ,

d.h. v1 , . . . , vn wäre linear abhängig. Dies widerspricht der Voraussetzung.


3. ⇒ 2.: Sei v1 , . . . , vn ein unverkürzbares Erzeugendensystem. Dann sind
v1 , . . . , vn linear unabhängig. In der Tat: Wäre

λ1 v1 + . . . λn vn = 0

ein nicht triviale Relation, etwa mit λn , 0, dann:


( ) ( )
−λ1 −λn−1
vn = v1 + · · · + vn−1 .
λn λn
Doch dann wären schon v1 , . . . , vn−1 erzeugend, im Widerspruch zur Vor-
aussetzung wäre also v1 , . . . , vn zu einem linear unabhängigem System
v1 , . . . , vn−1 zu verkürzen. ⊓

Beispiel 18.23. Das Erzeugendensystem v1 = (1, 0), v2 = (0, 1), v3 = (1, 1) von
Vektoren des R2 ist verkürzbar. Wir können sogar jeden beliebigen der drei
Vektoren weglassen und erhalten immer noch ein System, das ganz R2 er-
zeugt: ⟨v1 , v2 ⟩ = ⟨v1 , v3 ⟩ = ⟨v2 , v3 ⟩ = R2 .
Bei w1 = (1, 0), w2 = (0, 1), w3 = (0, 2) können wir allerdings w1 nicht weglas-
sen, da w2 und w3 nur die y-Achse erzeugen:

⟨w2 , w3 ⟩ = {(a, b) ∈ R2 | a = 0} ⊊ R2 .

18.5 Dimension

Da wir nun wissen, was eine Basis eines K–Vektorraumes ist, können wir nun
endlich dessen Dimension definieren:

Definition 18.24. Sei V ein K-Vektorraum. Dann definieren wir die Dimension
von V durch
{
n, falls V eine Basis v1 , . . . , vn aus n Vektoren hat ,
dim V := dimk V =
∞, sonst.
236 18 Abstrakte Vektorräume

Der zweite Fall dim V = ∞ tritt genau dann ein, wenn V kein endliches
Erzeugendensystem hat.

Beispiel 18.25. 1. dim Kn = n, da e1 , . . . , en eine Basis ist.


2. dim R[x] = ∞, da wir aus endlich vielen Polynomen nur Polynome von
einem beschränkten Grad linear kombinieren können.
3. dim R[x]≤d = d + 1, da 1, x, x2 , . . . , xd eine Basis ist.

Bemerkung 18.26. Es ist nicht klar, dass die obige Definition der Dimension
eine vernünftige ist. Unklar ist bislang, ob je zwei Basen von V gleich viele
Elemente haben. Also müssen wir zeigen, dass die Dimension wohldefiniert
ist, d.h. unabhängig von der Wahl der Basis. Dies zu zeigen ist unser nächstes
Ziel.

Lemma 18.27 (Austauschlemma). Sei v1 , . . . , vn eine Basis von V und w ∈ V


ein weiterer Vektor mit w , 0. Dann existiert ein i ∈ {1, . . . , n}, so dass wir nach
Austausch von vi mit w nach wie vor eine Basis haben. Ist etwa i = 1, was man durch
Umnummerierung erreichen kann, dann ist also w, v2 , . . . , vn−1 eine Basis von V.

Beweis. w ist eine Linearkombination

w = λ1 v 1 + · · · + λn v n

für gewisse λi ∈ K, da v1 , . . . , vn ein Erzeugendensystem bilden. Wenigstens


ein λi ∈ K ist , 0, da w nicht der Nullvektor ist. Nach Umnummerieren
können wir λ1 , 0 annehmen.
Wir zeigen:

1. w, v1 , . . . , vn ist ein Erzeugendensystem.


2. w, v1 , . . . , vn sind linear unabhängig.

Zunächst einmal gilt:

1 ( −λ2 ) ( −λn )
v1 = w+ v2 + · · · + vn ,
λ1 λ1 λ1

da 1
λ1 ∈ K existiert.
Sei u ∈ V ein beliebiger Vektor. Dann existieren µ1 , . . . , µn ∈ k, so dass

u = µ1 v1 + · · · + µn vn ,

da v1 , . . . , vn ganz V erzeugen. Also:


18.5 Dimension 237
( ( −λ2 ) ( −λn ) )
1
u = µ1 w+ v2 + · · · + vn + λ2 v2 + · · · + µn vn
λ1 λ1 λ1
µ1 ( µ1 ) ( µ1 )
= w + µ − λ2 v2 + · · · + µn − λn vn .
λ1 λ1 λ1
D.h., w, v2 , . . . , vn erzeugen V.
Zur linearen Unabhängigkeit: Angenommen,

0 = µ1 w + µ2 v2 + · · · + µn vn , µi ∈ K.

Einsetzen der Ausgangsgleichung für w liefert

0 = µ1 λ1 v1 + (µ2 + µ1 λ2 )v2 + · · · + (µn + µ1 λn )vn .

Da v1 , . . . , vn linear unabhängig sind, folgt

µ1 λ1 = 0, µ2 + µ1 λ2 = 0, ..., µn + µ1 λn = 0 ∈ K.

Nach Voraussetzung gilt:

1
λ1 ≤ 0 ⇒ µ1 = µ1 λ1 = 0.
λ1
Einsetzen liefert: µ2 = · · · = µn = 0. ⊓

Satz 18.28 (Austauschsatz von Steinitz). Sei V ein K-Vektorraum und v1 , . . . , vr


eine Basis von V und w1 , . . . , wn eine Familie von linear unabhängigen Vektoren.
Dann gilt n ≤ r und es existieren Indices i1 , . . . , in ∈ 1, . . . , r so dass wir nach
Austausch von vik mit wk nach wie vor eine Basis haben. Gilt etwa i1 = 1, . . . , in = n,
was durch Umnummerierung von v1 , . . . , vr erreicht werden kann, dann ist also
w1 , . . . , wn , vn+1 , . . . , vr eine Basis von V. Achtung: n ≤ r wird bewiesen und nicht
vorausgesetzt.

Beweis. Induktion nach n.


Für n = 0 ist nichts zu zeigen. Sei also n ≥ 1 und der Satz für n−1 schon gezeigt.
Dann gilt r ≥ n − 1 und wir müssen nur noch den Fall r = n − 1 ausschließen.
Nach der Induktionsvoraussetzung können wir nach Umnummerierung von
v1 , . . . , vr annehmen, dass

w1 , . . . , wn−1 , vn , . . . , vr

eine Basis ist, denn auch die Familie w1 , . . . , wn−1 ist linear unabhängig. wn
hat eine Darstellung

wn = λ1 w1 + · · · + λn−1 wn−1 + λn wn + · · · + λr vr mit λi ∈ K.

Nicht alle Koeffizienten λn , . . . , λr können 0 sein. Insbesondere r ≥ n denn


sonst wären w1 , . . . , wn linear abhängig, im Widerspruch zur Voraussetzung.
238 18 Abstrakte Vektorräume

Also ist einer der Koeffizienten λn , . . . , λr nicht 0; nach Umnummerieren von


vn , . . . , vr können wir annehmen, dass λn , 0. Nach dem Austauschlemma ist
dann auch
w1 , . . . , wn , vn+1 , . . . , vr
eine Basis von V. ⊓

Korollar 18.29. Je zwei Basen eines endlich–dimensionalen K-Vektorraums V haben


gleich viele Elemente. Insbesondere ist
{
n, falls ∃ Basis v1 , . . . , vn ,
dim V :=
∞, sonst
wohldefiniert.

Beweis. Es seien w1 , . . . , wn und v1 , . . . , vr Basen von V. Dann sind w1 , . . . , wn


linear unabhängig und nach dem Austauschsatz ist deshalb n ≤ r. Die Un-
gleichung r ≤ n folgt durch Vertauschen der Rolle der w’s und der v’s. Also
r = n. Gibt es keine endliche Basis, dann ist V nicht endlich erzeugt, da man
aus jedem endlichen Erzeugendensystem durch eventuelles Weglassen eine
Basis erhält. ⊓⊔

Korollar 18.30 (Basisergänzungssatz). Sei v1 , . . . , vn eine Familie linear un-


Vorlesung vom:
abhängiger Vektoren in einem endlich–dimensionalen Vektorraum V und sei r =
9. Mai 2012
Qualitätsstand:
dim V < ∞. Dann kann man diese Familie zu einer Basis
zweite Version v1 , . . . , vn , vn+1 , . . . , vr
von V ergänzen.

Beweis. Nach dem vorigen Korollar ist n ≤ r. Ist n < r, so gibt es, ebenfalls
wegen des Korollars, einen Vektor w ∈ V \ ⟨v1 , . . . , vn ⟩. Induktiv können wir
dies fortführen, bis wir schließlich eine Basis erhalten. ⊓ ⊔

Tragen wir alle bisherigen Resultate zusammen, erhalten wir:

Korollar 18.31. 1. Jeder endlich–dimensionale Vektorraum besitzt eine Basis.


2. Ist V ein Vektorraum der Dimension n = dim V < ∞, dann ist jede Familie von
mehr als n Vektoren in V linear abhängig.
3. Sei U ⊆ V ein Untervektorraum. Dann gilt: dim U ≤ dim V.
Ist V endlich–dimensional und dim U = dim V, so folgt U = V.
Beweis. ⊔

Bemerkung 18.32. Für unendlich–dimensionale Vektorräume


U ⊆ V mit dim U = dim V = ∞
kann man auf U = V nicht schließen. Zum Beispiel: R[t] ⊂ C0 [a, b], da nicht
jede stetige Funktion ein Polynom ist.
18.5 Dimension 239

Aufgaben

Aufgabe 18.1 (Lineare Unabhängigkeit).

1. Prüfen Sie, ob die folgenden Vektoren linear unabhängig sind. Bestimmen


Sie in jedem Fall die Dimension des aufgespannten Raumes und geben
Sie eine Basis an.
a) (1, 1, 0)t , (1, 0, 1)t , (0, 1, 1)t ∈ (F2 )3 .
b) (1, 2, 3)t , (2, 3, 4)t , (3, 4, 5)t ∈ R3 .
c) (5, 0, 5, −4)t , (0, 5, −5, −3)t , (5, −5, 10, −1)t , (−4, −3, −1, 5)t ∈ R4 .
2. Für welche λ ∈ R sind die Vektoren (2, λ, 3)t , (1, −1, 2)t , (−λ, 4, −3)t ∈ R3
linear abhängig? Stellen Sie für diese λ den letzten Vektor als Linearkom-
bination der ersten beiden dar.

Aufgabe 18.2 (Untervektorräume). Welche der folgenden Mengen Ui sind


Untervektorräume der Vektorräume Vi ? Berechnen Sie in diesen Fällen auch
deren Dimension.

1. V1 := R5 , U1 := {p ∈ R5 | ||p|| = 1}.
2. V2 := R4 , U2 := {(x, y, z, w) ∈ R4 | x + y + z + w = 0, w = 0}.
{ }
3. V3 := R3 , U3 := p ∈ R3 | ⟨p, (1, 2, 3)t ⟩ = 0 .
4. V4 := R4 , U4 := {(x, y, z, w) ∈ R4 | (x + y) · (x − y) = 0}.
5. V5 := R[x]≤3 = {ax3 + bx2 + cx + d | a, b, c, d ∈ R}, U5 := {p ∈ R[x]≤3 | b + d =
0, a + c = 0}.

Aufgabe 18.3 (Basen). Sei F := F5 der Körper mit fünf Elementen.

1. Wie viele Elemente hat F3 ?


2. Wie viele verschiedene Basen hat F3 ?

Aufgabe 18.4 (Kodierungstheorie).

Parity Check Ist ein Daten-Wort w = (w1 , w2 , . . . , w19 ) ∈ (F2 )19 gegeben, so
setzen wir:
(v1 , v2 , . . . , v19 , v20 ) := (w1 , w2 , . . . , w19 , p) ∈ (F2 )20 , wobei p die Parität des
Wortes w ist, d.h.:
{
0, falls w1 + w2 + · · · + w19 ≡ 0 mod 2,
p=
1, falls w1 + w2 + · · · + w19 ≡ 1 mod 2.

Wir nehmen an, dass bei der Übermittlung eines Wortes v ∈ (F2 )20 höchs-
tens ein Buchstabe fehlerhaft beim Empfänger ankommt. Zeigen Sie, dass
240 18 Abstrakte Vektorräume

der Empfänger unter dieser Annahme erkennen kann, welche Wörter


nicht korrekt übertragen wurden und welche er daher nochmals anfra-
gen muss.
Hamming Code Für ein Daten-Wort w = (w1 , w2 , w3 ) ∈ (F2 )4 werden beim
Hamming-Code drei Parity-Check-Bits p1 , p2 , p3 hinzugefügt, um einen
Ein-Bit-Übertragungsfehler auch korrigieren zu können. Das übertrage-
ne Wort ist dann v = (v1 , . . . , v7 ) = (p1 , p2 , w1 , p3 , w2 , w3 , w4 ) ∈ (F2 )7 . Hier-
bei sind pi , i = 1, 2, 3, Paritäten gewisser Teil-Wörter von v. Das Teil-
Wort ti enthält 2i−1 Bits von v ab dem 2i−1 -ten Bit, enthält die nächsten
2i−1 Bits nicht, enthält die nächsten 2i−1 -ten Bits aber wieder, usw. t1
ist also das Teil-Wort (v1 , v3 , v5 , v7 ) = (p1 , w1 , w2 , w4 ), t2 = (v2 , v3 , v6 , v7 ),
t3 = (v4 , v5 , v6 , v7 ). Lassen wir den ersten Buchstaben von ti weg, so erhal-
ten wir ein neues Wort, das wir si nennen. pi , i = 1, 2, 3, ist nun definiert
als die Parität des Wortes si .
Wie lauten die Daten, die als a = (0, 0, 1, 1, 0, 1, 0), b = (1, 0, 1, 0, 1, 0, 1),
c = (1, 1, 1, 1, 1, 1, 0) empfangen wurden, unter der Annahme, dass maxi-
mal ein Bit falsch übertragen wurde?

Aufgabe 18.5 (Austauschbarkeit von Basiselementen).


Seien v1 = (1, 3, −2, 2)t , v2 = (−3, 2, −1, 1)t , v3 = (1, 3, −2, 3)t .

V := ⟨v1 , v2 , v3 ⟩ ⊂ R4 .

1. Ist es möglich, einen der Vektoren v1 , v2 , v3 durch v = (−5, −4, 3, −5)t


auszutauschen? Wenn ja, welchen?
2. Ist es möglich, einen der Vektoren v1 , v2 , v3 durch w = (−1, 2, −3, 4)t aus-
zutauschen? Wenn ja, welchen?
3. Finden Sie einen Vektor v4 ∈ R4 , der v1 , v2 , v3 zu einer Basis des R4 ergänzt.

Aufgabe 18.6 (Basen von Untervektorräumen). Seien


       
⟨ 2  0  ⟩ ⟨ −3 5 ⟩
U := 5 , −1 und W :=  1  , 3
       
9 −3 6 0

Unterräume des R3 . Bestimmen Sie eine Basis des Unterraums U ∩ W.


19

Matrizen und Lineare Gleichungssysteme

19.1 Definition und Beispiele

Beispiel 19.1. Wir wollen das Gleichungssystem

x1 + 2x2 − 5x3 = 1
2x1 + 3x2 − 7x3 = 3
3x1 + 4x2 − 8x3 = 13

(systematisch) lösen.
Idee: Da der Koeffizient von x1 in der ersten Gleichung , 0, können wir
diese Gleichung verwenden, um x1 aus den beiden anderen Gleichungen zu
entfernen.

x1 + 2x2 − 5x3 = 1
−x2 + 3x3 = 1
−2x2 + 7x3 = 10

ist ein äquivalentes Gleichungssystem.


Anschließend lösen wir das kleinere System (d.h. die unteren beiden Glei-
chungen) mit der selben Idee. Zunächst:

x1 + 2x2 − 5x3 = 1,
−x2 + 3x3 = 1,
x3 = 8,

also x3 = 8. Dies in die vorletzte Gleichung eingesetzt ergibt:

−x2 + 3 · 8 = 1, also x2 = 23.


242 19 Matrizen und Lineare Gleichungssysteme

Schließlich finden wir:

x1 + 2 · 23 − 5 · 8 = 1 ⇒ x1 = −5.

⇒ x = (−5, 23, 8)t ist der eindeutig bestimmte Lösungsvektor.

Bemerkung 19.2. 1. Auch geometrisch ist es einzusehen, dass es genau eine


Lösung gibt: Jede der drei Gleichungen definiert eine Ebene = Hyperebe-
ne in R3 und drei Ebenen schneiden sich in der Regel in einem Punkt.
2. Eigentlich ist es überflüssig, die Variablen x1 , x2 , x3 jeweils hinzuschrei-
ben, denn allein aus der Position des Koeffizienten können wir schon
schließen, welche Variable dazugehört.

Definition 19.3. 1. Sei K ein Körper. Eine m × n Matrix mit Einträgen in K ist
eine Tabelle  
 a11 a12 . . . a1n 
 a a . . . a 
 21 22 2n 

A =  . . .  ∈ Km×n
 .. .. . . ... 
 
am1 am2 . . . amn
von Körperelementen aij ∈ K. m ist die Anzahl der Zeilen und n die Anzahl der
Spalten von A. Wir schreiben auch

A = (ai j )i=1,...,m; j=1,...,n = (ai j ) ∈ Km×n .

2. Es seien A = (ai j ) ∈ Km×n und B = (b jk ) ∈ Kn×r zwei Matrizen, so dass die


Spaltenzahl von A mit Zeilenzahl von B übereinstimmt. Dann ist das Produkt

C = A · B = (cik ) ∈ Km×r

n
durch die Formel cik = ai j b jk erklärt.
j=1

( )   ( )
 1 1 
235  −1 2  4 23
Beispiel 19.4. A = , B =  . Also, A · B = ∈ R2×2 (1 · 1 + 2 ·
146   3 27
13
4 + 3 · 6 = 27). In diesem speziellen Fall ist auch das Produkt B · A erklärt, da
(zufälligerweise) m = 2 = r:
   
 1 1  ( 2 3 5 )  3 7 11 
 −1 2   0 5 7 
B · A =   =   ∈ R3×3 .
  146  
13 5 15 23

Insbesondere ist A · B , B · A.
19.2 Der Gaußalgorithmus zum Lösen linearer Gleichungssysteme 243

Spaltenvektoren wie
 
 x1 
 
x =  ...  ∈ Kn×1
 
xn
können wir mit n × 1 Matrizen identifizieren.
Das allgemeine Gleichungsystem

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
.. .. ..
. . .
am1 x1 + am2 x2 + · · · + amn xn = bm

können wir knapper schreiben:


    
 a11 · · · a1n   x1   b1 
 . . . ..   ..  =  .. 
 . . .   .   . 
 .
    
am1 · · · amn xn bm

oder noch kürzer


A · x = b,
wobei  
 a11 a12 . . . a1n   
 a   b1 
 21 a22 . . . a2n   
A =  . .. . . ..  ∈ K ,
m×n
b =  ...  ∈ Km = Km×1
 .. . . .   
  bm
am1 am2 . . . amn
und x = (x1 , . . . , xn )t ∈ Kn×1 der Vektor der Unbestimmten ist.

19.2 Der Gaußalgorithmus zum Lösen linearer


Gleichungssysteme

Um ein Gleichungssystem explizit zu lösen, dürfen wir es äquivalent umfor-


men, z.B. einer Gleichung eine andere dazu addieren. Dies in Termen von
Matrizen führt auf den Begriff der Zeilenoperation. Der Gaußalgorithmus
gibt ein Verfahren an, mit Hilfe solcher Zeilenoperationen Gleichungssyste-
me zu lösen.

Definition 19.5. Sei A = (aij ) ∈ Km×n eine m × n-Matrix und seien ai ∈ Kn , i =


1, . . . , m, die Zeilenvektoren von A. Eine elementare Zeilenoperation (oder ele-
mentare Zeilenumformung) ist eine der folgenden Operationen:
244 19 Matrizen und Lineare Gleichungssysteme

I) Multiplikation einer Zeile mit einem Skalar λ , 0 ∈ K:


   
 ..   .. 
 .   . 
A =  ai  7→  λai  =: AI .
 .   . 
.  . 
. .

II) Addieren der i-ten Zeile zur j-ten Zeile:


   
 ...   ... 
   
   
 ai   ai 
   
   
A =  ...  7→  ...  =: AII .
   
 a   a + a 
 j   i j
 .   . 
 .   . 
. .

III) Addieren des λ-fachen (λ ∈ K∗ ) der i-ten Zeile zur j-ten Zeile:
   
 ...   ..
. 
   
   
 ai   ai 
   
   
A =  ...  7→  ..
.  =: AIII .
   
 a   λa + a 
 j   i j 
 .   .. 
 .  
. .

IV) Vertauschen der i-ten Zeile mit der j-ten Zeile:


   
 ...   ... 
   
   
 ai   a j 
   
 ..   
A =  .  7→  ...  =: AIV .
   
 a   a 
 j   i 
 .   . 
 .   . 
. .

Bemerkung 19.6. Die Operation vom Typ III und VI kann man auch durch
wiederholtes Anwenden von I und II erhalten.

Beweis. III)
       
 ...   ...   ..
.   ..
. 
       
       
 ai   λai   λai   ai 
  I   II   I  
       
A =  ...  7→  ...  7→  ..
. 
 →
7 

..
. .
       
 a   a   λa + a   λa + a 
 j   j   i j  
  i j
 .   .   ..  .. 
 .   .    
. . . .
19.2 Der Gaußalgorithmus zum Lösen linearer Gleichungssysteme 245

IV)
         
 ...   ...   ...   ...   ... 
         
         
 ai   ai   a j   a j   
  III   II   III   I  a j 
 ..   ..   ..   ..   
A =  .  7→  .  7→  .  7→  .  7→  ... .
         
 a   a − a   a − a   −a   a 
 j   j i   j

i 

 i 
 
 i 
 . 
 ..   ..   ..   ..   . 
. . . . .


Definition 19.7. Eine Matrix A = (ai j ) ∈ Km×n hat Zeilenstufenform, wenn sie
folgende Form hat1 :
 
 a1j1 ∗ ∗ 
 
 a2j2 ∗ 
 
 
 a3j3 ∗ 
 
  , aiji , 0.
 .. 
 . 
 
 
 ar jr ∗ 
 
0

Genauer: Falls ∃r mit 0 ≤ r ≤ m und Indices 1 ≤ j1 < · · · < jr ≤ n, so dass:

1. aij = 0, falls 1 ≤ i ≤ r und j < ji oder i > r.


2. aiji , 0 für i = 1, . . . , r.

Satz 19.8 (Gaußalgorithmus). Sei A ∈ Km×n . Dann lässt sich A durch eine Folge
e die in Zeilenstufenform ist,
von elementaren Zeilenumformungen in eine Matrix A,
umformen.

Beweis. Induktion nach m. Für m = 1 ist die Aussage trivial richtig. Sei also
m ≥ 2. Wir betrachten die erste Spalte von A:
 
 a11 
 . 
a1 =  .. .
 
am1

Hierbei steht ∗ für Einträge, die nicht genauer spezifiziert sind (sie dürfen auch
1

0 oder gar nicht vorhanden sein). Die 0 in der linken unteren Ecke repräsentiert die
Tatsache, dass alle Einträge, die links oder unterhalb der Linien sind, 0 sind. Solche
Notationen werden oft bei Matrizen verwendet.
246 19 Matrizen und Lineare Gleichungssysteme

1. Fall: Ist a11 , 0, dann setzen wir j1 = 1 und addieren jeweils das (− aa11i1 )-
fache der ersten Zeile zur i-ten Zeile. Anschließend hat A die Gestalt:
 
 a11 a12 ∗   a11 
∗ 
  
 0 a′ · · · a′   
 22 2n   =  
 . . . 
 .. .. ..   0 A′ 
   
0 a′m2 · · · a′m2

und wir fahren induktiv mit der Matrix A′ fort, die nämlich weniger
Spalten als A hat.
2. Fall: a11 = 0, aber a1 , 0. Ist etwa ai1 , 0, so vertauschen wir die i-te und
die 1-te Zeile    
a11 a12 · · ·  ai1 ai2 · · ·
 .. .. 

 . .
 . .


 . .   . . 

 a a · · · 7→ a a · · ·
 i1 i2   11 12 
 . .   . . 
 . .   . . 
. . . .
und fahren wie im 1. Fall fort.
3. Fall: a1 = 0. In diesem Fall ist j1 > 1 und wir fahren mit der Teilmatrix
 
 0 
 . 
 . ′  A′ ∈ Km×(n−1)
 . A  ,
 
0

genauso fort, bis die erste Spalte keine Nullspalte ist. Dann trifft auf die
neue Matrix Fall 1 oder 2 zu.


Vorlesung vom:
11. Mai 2012 Beispiel 19.9.
Qualitätsstand:        
 
zweite Version  1 3 4   1 3 4   1 3 4   1 3 4   1 3 4 
 0 0 2  IIIs  0 
0 2  IV 
 
1 1  III   
 III  0 1 1  e

   0 0 1 1
A =   7→   7→   7→   7→  
 0 0 5  = A.
 2 0 7   0 −6 −1   0 −6 −1   0 0 5 
 
       
1 4 5 0 1 1 0 0 2 0 0 2 0 0 0
19.2 Der Gaußalgorithmus zum Lösen linearer Gleichungssysteme 247
 
 4 2 7 5 
 3 0 6 4 
B = 
 
1 0 2 4
   
 4 2 7 5   4 2 7 5 
   
−3/2 6 − 21/4 4 − 15/4  =  0 −3/2 3/4 1/4 
IVs
7→  0
   
0 −1/2 2 − 7/4 1 − 5/4 0 −1/2 1/4 −1/4
   
4 2 7 5   4 2 7 5 
(3)7→(3)−1/3·(2)     
7→  0 −3/2 3/4 1/4  =  0 −3/2 3/4 1/4 
   
0 0 0 −1/4 − 1/12 0 0 0 −1/3
= e
B.

Es leuchtet unmittelbar ein, dass man, wenn man solche Rechnungen per
Hand durchführen möchte, sinnvollerweise versuchen wird, Brüche und zu
kleine Zahlen zu vermeiden. Dies ist manchmal möglich, indem man Zeilen–
oder Spaltenvertauschungen vornimmt. Im nächsten Semester werden wir
auf die damit zusammenhängende Thematik (genannt Pivotierung oder Pi-
votwahl) noch genauer eingehen, denn auch wenn man auf einem Computer
mit Fließkommazahlen arbeitet, möchte man nummerische Fehler möglichst
klein halten und beispielsweise vom Betrag her sehr kleine Zahlen vermei-
den. Auch dies ist mit geeigneten Vertauschungen oft möglich.

Satz 19.10. Sei A ∈ Km×n , b ∈ Km . Das Gleichungssystem

Ax = b

hat eine Lösung x ∈ Kn genau dann, wenn die erweiterte Matrix


.
(A .. b) ∈ Km×(n+1)

eine Zeilenstufenform hat, bei der Spalte n + 1 keine Stufe ist.

.
Beweis. Wir bringen die erweiterte Matrix (A .. b) in Zeilenstufenform durch
elemetare Zeilenumformungen:
 
 ∗ ∗e b1 
 
 ∗ 
 
 ∗ 
..  
e e 
(A . b) = 
 .. ..  ,
 . . 
 
 ∗e br 
 
0

mit r Stufen. Ist die letzte Stufe bei Spalte n+1, dann hat das Gleichungssystem
keine Lösung, da
248 19 Matrizen und Lineare Gleichungssysteme

0x1 + · · · + 0xn = 0 , e
br .
Andernfalls ist die Gestalt
 
 e a ∗ ∗ 
 1j1 
 e
a2j2 ∗ 
 
 
 e
a3 j3 ∗ 
 
 
 .. 
 . 
 
 e 
 ar jr ∗ ∗ 
 
0 0 0

mit jr < n + 1 und e


br+1 = · · · = e
bm = 0. Man kann dann die x j mit j < {j1 , . . . , jr }
beliebig wählen und dann x jr , x jr−1 , . . . , x j1 sukzessive aus den Gleichungen

e
arjr x jr + e arn xn = e
arjr +1 x jr +1 + · · · + e br
.. .
. = ..
∑ n
a1j x j = e
e bk
j= jk

.. .
. = ..

n
a1j x j = e
e b1
j= j1

bestimmen:
 
 ∑
n 
1 e 
x jr = br − ar j x j 
e
e
ar jr  
j= jr +1

..
.  
 ∑
n 
1 e 
x jk = bk − ak j x j 
e
e
ak jk  
j= jk +1

..
.


Beispiel 19.11. Wir suchen den Lösungsvektor x ∈ R3 des Gleichungssys-


tems:
( )  x1  ( )
1 2 3   4
x  = .
2 3 4  2  5
x3
19.3 Aufwand des Gaußalgorithmus (im Fall n = m) 249

Die erweiterte Matrix ist:  


 .. 
1 2 3 . 4 .
 .. 
234 . 5
Der Gaußalgorithmus liefert:
 
 . 
 1 2 3 .. 4  .
 .. 
0 −1−2 . −3

Wir können x3 = t ∈ R beliebig wählen. Dann ist −x2 −2t = −3, also x2 = 3−2t.
Eingesetzt in die erste Zeile liefert das: x1 + 2 · (3 − 2t) + 3t = 4, also x1 = −2 + t.
Wir finden also die Lösungsmenge:
 
{  t − 2  }
L =  3 − 2t  t ∈ R ⊂ R3 .
 
t

Diese ist eine Gerade:


   
{  −2   1 
  }
L =  3  + t ·  −2  | t ∈ R
   
0 1
   
 −2   1 
 3   
mit Aufpunkt   und Richtungsvektor  −2 .
   
0 1

19.3 Aufwand des Gaußalgorithmus (im Fall n = m)

Um den Aufwand des Gaußalgorithmus im Fall n = m zu berechnen, begin-


nen wir mit der Matrix:
 
 a11 . . . a1n b1 
 
(A, b) =  ... . . . ... ...  .
 
an1 . . . ann bn

1. Schritt: Wir bringen A in Zeilenstufenform:


 
 ∗ ∗ ∗ ... ∗ 
 0 ∗ ∗ ... ∗ 
 
(Ã, b̃) =  0 0 ∗ ... ∗  .
 .. .. .. .. .. 
 . . . . . 

00 0 0 ∗
250 19 Matrizen und Lineare Gleichungssysteme

2. Schritt: Rückwärts einsetzen.

Wir betrachten die Anzahl der Multiplikationen und Additionen in K, die


dabei durchzuführen sind:

Additionen im 1. Schritt: Die erste Spalte in Zeilenstufenform zu bringen be-


nötigt
(n − 1) · n
| {z } |{z}
Zeilen Spalten

Additionen. Für alle Spalten sind dies insgesamt


n ∑
n
n3
k(k − 1) ≈ k2 ≈ ∈ O(n3 )
3
k=1 k=1

Additionen, d.h. im Wesentlichen ein konstantes Vielfaches von n3 ; für


Details zu der O-Notation, s. Abschnitt .

Multiplikationen im 1. Schritt: Ähnlich: nk=1 k2 ∈ O(n3 ).
Operationen im 2. Schritt: Ebenfalls O(n3 ) (analog).

Insgesamt sind also O(n3 ) Körperoperationen nötig.

Bemerkung 19.12. Es ist offen, was asymptotisch optimal ist. Arbeiten von
Strassen zeigen: Es kommt auf den Aufwand A · B aus A, B ∈ Kn×n an. Die
naive Betrachtungsweise anhand der Definition liefert: O(n3 ), nämlich n3
Multiplikationen und n2 (n − 1) Additionen.

Satz 19.13 (1969, Strassen). Seien A, B ∈ Kn×n . Dann kann man A·B mit O(nlog2 7 )
(man bemerke: O(nlog2 8 ) = O(n3 )) Operationen ausrechnen.

Es gibt neuere, asymptotisch noch bessere Algorithmen, siehe dazu Bemer-


kung 20.29. Zunehmend wichtig werden Algorithmen, bei denen mehrere
Operationen parallel ablaufen können, weil moderne Rechner mehrere, teils
sogar sehr viele, Operationen gleichzeitig ablaufen lassen können, u.a. durch
Ausnutzung der Graphikkartenchips. Solche Herangehensweisen sind in der
obigen Überlegung nicht berücksichtigt.

Aufgaben

Aufgabe 19.1 (Multiplikation von Matrizen). Seien


19.3 Aufwand des Gaußalgorithmus (im Fall n = m) 251
 
( ) 0 −2
1 −2 3 −4 1 −1
A= , B =   .

−3 2 −1 0 2 0 
3 1

Berechnen Sie AB und BA. Können Sie AB , BA auch ohne Rechnen einsehen?

Aufgabe 19.2 (Matrizen und Kommutativität).

1. Bestimmen Sie alle Matrizen der Form


( )
ab
A= , a, b, c, d ∈ R,
cd

für die gilt: (


) ( )
10 10
A = A.
11 11

2. Man sagt, eine n × n Matrix M kommutiert mit einer n × n Matrix N, wenn


MN = NM. Bestimmen Sie alle reellen 2×2 Matrizen, die mit jeder reellen
2 × 2 Matrix kommutieren.

Aufgabe 19.3 (Gauß-Algorithmus). Lösen Sie das folgende lineare Glei-


chungssystem mit dem Gauß-Algorithmus:
     
1 1 1 1  x1   1 
1 2 3 4  x2   5 
  ·   =  .
1 4 9 16 x3   25 
     
1 8 27 64 x4 125

Aufgabe 19.4 (Schnelles Berechnen des Matrixprodukts). Zeigen Sie (die


Aussagen in () müssen dabei nicht bewiesen werden!):

1. Der folgende Algorithmus (von Strassen (1969)) berechnet das Matrix-


produkt, er benötigt für n = 2 insgesamt 7 (< 8) Multiplikationen (und 15
Additionen, dabei Zwischenergebnisse benutzen!).
2. Für n = 2k , k ∈ N, benötigt er O(nlog2 7 ) (< O(n3 )) Multiplikationen (bzw.
Mult. und Add.).

Eingabe: A, B ∈ Rn×n und n = 2k für ein k ∈ N.


Ausgabe: Das Produkt AB ∈ Rn×n .

1. Falls n = 1, dann schreibe A = (a), B = (b). Ausgabe: (ab).


( ) ( )
A11 A12 B11 B12
2. Sonst schreiben wir: A = ,B= , mit Aij , Bij ∈ R(n/2)×(n/2) .
A21 A22 B21 B22
252 19 Matrizen und Lineare Gleichungssysteme

3. Wir setzen nun:


P1 = A11 B11 , P5 = (A21 + A22 ) · (B12 − B11 ),
P2 = A12 B21 , P6 = ((A21 + A22 ) − A11 ) · (B22 − (B12 − B11 )),
P3 = (A12 − ((A21 + A22 ) − A11 )) · B22 , P7 = (A11 − A21 ) · (B22 − B12 ).
P4 = A22 · ((B22 − (B12 − B11 )) − B21 ),
( )
P1 + P2 ((P1 + P6 ) + P5 ) + P3
4. Ausgabe: .
((P1 + P6 ) + P7 ) − P4 ((P1 + P6 ) + P7 ) + P5
20

Lineare Abbildungen

Matrizen, die wir im vorigen Abschnitt betrachtet haben, beschreiben, wie


wir sehen werden, auf natürliche Weise sogenannte lineare Abbildungen.
Um Lösungen von Gleichungssystemen besser strukturell verstehen zu kön-
nen, betrachten wir daher nun lineare Abbildungen genauer. Mit deren Hilfe
werden wir gewisse Räume, genannt Kern und Bild, einführen können, die
essentiell für das Verständnis von linearen Abbildungen und damit auch für
das Lösen linearer Gleichungssysteme sind.

20.1 Grundlegende Definitionen

Definition 20.1. Es seien V, W zwei K-Vektorräume. Eine (K-) lineare Abbildung


(oder Vektorraumhomomorphismus) von V nach W ist eine Abbildung

f : V → W,

die folgendes erfüllt:

1. f (v1 + v2 ) = f (v1 ) + f (v2 ) ∀ v1 , v2 ∈ V und


2. f (λv) = λ f (v) ∀λ ∈ K, ∀ v ∈ V.

Die Menge aller Vektorraumhomomorphismen von V nach W bezeichnen wir mit


Hom(V, W) bzw. zur Verdeutlichung des Körpers K mit HomK (V, W).

Beispiel 20.2.

1. Seien V = Kn , W ein weiterer K-VR und {w1 , . . . , wn } = A eine Familie


von Vektoren von W. Dann ist
254 20 Lineare Abbildungen
 
 x1  ∑n
 .. 
φA : Kn → W, x =  .  7→ xi wi
 
xn l=1

eine K-lineare Abbildung.


2. V = Kn , W = Km , A = (aij ) ∈ Km×n . Die Abbildung
 
 x1 
 
x =  ...  7→ Ax
A
φA : Kn → Km ,
 
xn

ist K-linear.
3. Die Translation eines Vektors b ∈ Rn , b , 0,

Rn 7→ Rn , x 7→ x + b

ist nicht linear, wie die folgende Bemerkung zeigt.


Insbesondere ist also beispielsweise die Funktion f : R → R, x 7→ 3x + 1
keine lineare Abbildung, aber g : R → R, x 7→ 7x schon (Abb. 20.1).

Abbildung 20.1. Die Funktionen f (x) = 3x + 1 und g(x) = 7x. Dabei ist f keine lineare
Abbildung, z.B. weil f (0) , 0 ist, g aber schon.

Bemerkung 20.3. Ist f : V → W eine lineare Abbildung zwischen zwei K-


Vektorräumen. Dann gilt: f (0V ) = 0W (kurz: f (0) = 0).

Beweis. Es gilt 0V = 0K · 0V , also: f (0V ) = f (0K · 0V ) = 0K · f (0V ) = 0W . ⊓


Die in der folgenden Bemerkung verwendeten Begriffe injektiv, surjektiv und


bijektiv werden ausführlich in Abschnitt 2.8.2 beschrieben. Knapp gesagt
20.2 Kern und Bild 255

ist eine Abbildung injektiv, wenn jedes Element der Bildmenge höchstens
ein Urbild hat, surjektiv, wenn jedes solche mindestens ein Urbild hat, und
bijektiv, wenn jedes solche genau ein Urbild hat.

Bemerkung/Definition 20.4. Einen injektiven Vektorraumhomomorphismus


f : V → W nennen wir einfach Monomorphismus, einen surjektiven nennen
wir Epimorphismus. Ein bijektiver Vektorraumhomomorphismus f : V → W
heißt Isomorphismus; V und W heißen dann isomorph (V  W). Ist f ein
Isomorphismus, dann ist die Umkehrabbildung f −1 : W → V ebenfalls ein
Isomorphismus.

Beweis. Zu zeigen ist: f −1 ist K-linear. Sind w1 , w2 ∈ W und v j = f −1 (w j ), j =


1, 2, also w j = f (v j ), dann gilt:

w1 + w2 = f (v1 ) + f (v2 ) = f (v1 + v2 ),

also: f −1 (w1 + w2 ) = f −1 ( f (v1 + v2 )) = v1 + v2 = f −1 (w1 ) + f −1 (w2 ). ⊓


20.2 Kern und Bild


Vorlesung vom:
Satz/Definition 20.5. Sei f : V → W eine lineare Abbildung zwischen zwei K- 16. Mai 2012
Vektorräumen. Dann ist der Kern von f Qualitätsstand:
zweite Version
Ker f = {v ∈ V | f (v) = 0} ⊆ V

ein Untervektorraum von V und das Bild von f

Bild f = f (V) = {w ∈ W | ∃ v ∈ V : f (v) = w} ⊆ W

(auch manchmal im( f ) geschrieben, von engl. image) ein Untervektorraum von W.

Beweis. Zur Abgeschlossenheit des Kerns: Seien v1 , v2 ∈ Ker f ⇒ f (v1 ) = 0 =


f (v2 ) ⇒ f (v1 + v2 ) = f (v1 ) + f (v2 ) = 0 + 0 = 0, da f linear ist ⇒ v1 + v2 ∈ Ker f .
Seien nun v ∈ Ker f, λ ∈ K, f (λv) = λ f (v) = λ · 0 = 0 ⇒ λv ∈ Ker f .
Zum Bild: Seien w1 , w2 ∈ Bild f , etwa w j = f (v j ). Dann ist w1 + w2 = f (v1 ) +
f (v2 ) = f (v1 + v2 ) ∈ Bild( f ) wegen der Linearität von f . Seien nun wieder
w = f (v) ∈ Bild f, λ ∈ K, dann: λw = λ f (v) = f (λv) ∈ Bild( f ). ⊓

Satz 20.6. Sei f : V → W ein Vektorraumhomomorphismus.


Die Abbildung f ist ein Monomorphismus genau dann, wenn

Ker f = 0 = {0} ⊆ V.
256 20 Lineare Abbildungen

Beweis. Angenommen Ker f = 0, v1 , v2 ∈ V und f (v1 ) = f (v2 ). Wir müssen


zeigen, dass dann v1 = v2 gilt:

⇒ f (v1 − v2 ) = f (v1 ) − f (v2 ) = 0


⇒ v1 − v2 ∈ Ker f = {0}
⇒ v1 − v2 = 0
⇒ v1 = v2

Also f ist injektiv.


Die umgekehrte Richtung ist klar, da bei einer injektiven Abbildung nur die
0 auf 0 abgebildet wird. ⊓

20.3 Vorgabe der Bilder einer Basis

Satz 20.7. Sei V ein K-Vektorraum endlicher Dimension und B = {v1 , . . . , vn } eine
Basis.

1. Dann ist die Abbildung


 
 x1  ∑n
 . 
φB : Kn → V,  .  7→ xi vi
 . 
  i=1
xn

ein Isomorphismus.
2. Ist W ein weiterer K-Vektorraum und A = {w1 , . . . , wn } eine beliebige Familie
von Vektoren aus W, dann ist die Abbildung

n ∑
n
φB
A: V → W, v = λi vi 7→ λ i wi
i=1 i=1

linear.

Beweis. Surjektivität ist klar nach Definition einer Basis. Wegen der Eindeu-
tigkeit der Darstellung in einer Basis ist (0, . . . , 0)t der einzige Vektor, der
auf 0 ∈ V abgebildet wird. Die Linearität beider Abbildungen ist einfach
nachzuweisen und wird daher hier nicht vorgeführt. ⊓ ⊔

Beispiel 20.8. Seien V = R[t]≤d , B = {1, t, t2 , . . . , td }. Dann ist


 
 a0  ∑n
 .. 
Rd+1 → R[t]≤d ,  .  7→ ai ti
 
ad i=0
20.4 Matrixdarstellungen einer linearen Abbildung 257

ein Isomorphismus. Ein anderer ist:


 
 a0  ∑d
 .. 
Rd+1 → R[t]≤d ,  .  →
7 ai (t − α)i , α ∈ R.
 
ad i=0

Bemerkung 20.9.

1. Bezeichnet ε = εn = {e1 , . . . , en } ⊆ Kn die Standardbasis, dann ist offenbar:

φB = φεB .

2. Vorgabe der Bilder einer Basis: Die zweite Aussage von Satz 20.7 besagt,
dass die Bilder einer Basis unter einer linearen Abbildung beliebig vor-
geschrieben werden können, etwa vi 7→ wi , i = 1, . . . , n, und dass damit
die lineare Abbildung festgelegt ist. Denn jeder Vektor v ∈ V entsteht als
Linearkombination der vi .
3. Isomorphie gleich-dimensionaler Vektorräume: Es gilt nach der ersten Aussa-
ge des Satzes 20.7:
dimK V = n ⇒ V  Kn ,
da V eine Basis besitzt. Alle n-dimensionalen K-Vektorräume sind also
isomorph.

20.4 Matrixdarstellungen einer linearen Abbildung

Definition 20.10. Seien V, W zwei endlich–dimensionale K-Vektorräume und A =


{v1 , . . . , vn } bzw. B = {w1 , . . . , wm } Basen. Ist f : V → W eine lineare Abbildung,
dann betrachten wir die Skalare ai j ∈ K definiert durch


m
f (v j ) = a1 j w1 + a2 j w2 + · · · + amj wm = ai j wi ∈ W.
i=1

(Dies basiert auf der Eindeutigkeit der Darstellung eines Vektors als Linearkombi-
nation einer Basis.) Dann heißt die Matrix

A = (ai j ) = MA
B
( f ) ∈ Km×n

die Matrixdarstellung von f bezüglich der Basen A und B.

Beispiel 20.11. Sei V = R[x]≤d , und seien α0 , . . . , αd ∈ R. Die Abbildung


258 20 Lineare Abbildungen
 
 p(α0 ) 
 
φ : V → Rd+1 , p 7→  ... 
 
p(αd )

ist R-linear, weil (p + q)(ai ) = p(ai ) + q(ai ) und (λp)(ai ) = λp(ai ). Um die Dar-
stellung von φ bezüglich der Basen A = {1, t, . . . , td } und der Standardbasis
ε = {e1 , . . . , ed+1 } ⊆ Rd+1 zu berechnen, betrachten wir für i = 0, 1, 2, . . . , d die
Bilder der Basisvektoren aus A und stellen diese als Linearkombination der
Basis ε des Zielvektorraumes dar:
     
 i  1   0   0 
 α0  
 0   
 1    0 
 .       
 
φ(ti ) =  ..  = αi0 ·  0.  + αi1 ·  0.  + · · · + αid ·  0.  .
 i   .   .   . 
αd  .   .   . 
0 0 1

Daher hat φ die Matrixdarstellung


 
 1 α0 α20 . . . αd0 
 
 1 α1
 ... ... αd1 
 . .
 .. .. .. ..  ∈ R(d+1)×(d+1) .
 . . 
 .. .. .. .. 
 . . . . 
 
1 αd · · · · · · αdd

Merkregel 20.12. A ∈ Km×n mit Spalten A = (a1 , . . . , an ). Dann ist die j-te Spalte
 
 a1j 
 . 
a j =  ..  ∈ Km
 
amj

das Bild des j-ten Einheitsvektors von Kn .

Beispiel 20.13. Seien V = R[t]≤d , W = R[t]≤d−1 mit Basen A = {1, t, . . . , td },


B = {1, t, . . . , td−1 }. Sei
φ : V → W, p 7→ p′
die Abbildung, die ein Polynom auf seine Ableitung abbildet. Dann gilt:

φ(tk ) = (tk )′ = k·tk−1 .

Also:  
 0 1 0 ··· 0

 0 0 2 ··· 0 

MA =  .. .. .. ..  ∈ R .
d×(d+1)
B (φ)
 . . . ..
 . . 
000 ··· d
20.4 Matrixdarstellungen einer linearen Abbildung 259

Satz 20.14. Sei f : V → W eine lineare Abbildung zwischen zwei Vektorräumen


V und W. Ist A = (aij ) = MA B
( f ) ∈ Km×n die Matrixdarstellung bzgl. der Basen
A = {v1 , . . . , vn } und B = {w1 , . . . , wm }, so gilt:

1. Das Diagramm
f
VO /W
O
φA φB

Kn
A / Km
kommutiert, das heißt
 
 x1 
 . 
f (φA (x)) = φB (Ax) ∀x =  ..  ∈ Kn .
 
xn

2. Jede Matrix A ∈ Km×n liefert eine Abbildung f , so dass das Diagramm kommu-
tiert.

Beweis. Zu 1.: Der untere Pfeil ist


∑ n 
 a x 
   1j j 

 x1   j=1 
 .  A  
  
 .  ∈ Km .
x =  ..  7→ Ax =  .. 
   
 ∑
 a x 
n
xn
 mj j 
j=1

Unter φB (rechter Pfeil) geht dies über in:


∑ n 
 
 a 1j i 
x 
 j=1 
 
 .
.. 
φB (Ax) = φB   .
 ∑ 

 n
 am j x j 
j=1

Betrachten wir nun den anderen Weg: Der linke Pfeil ist
 
 x1 
  φA ∑ n
x =  ...  7→ x jv j.
  j=1
xn

Unter f geht dies über in (oberer Pfeil):


260 20 Lineare Abbildungen
 

n ∑ n 
 
x jv j 7→ f  x j v j 
 
j=1 j=1

f linear

n
= x j f (v j )
j=1

Def. Matrix zu lin. Abb.



n ∑
m
= xj aij wi
j=1 i=1
 

m ∑
 n 
neu klammern
 
= a x  wi .
 i j j

i=1 j=1

Schauen wir uns nun die Ergebnisse, die wir auf den beiden Wegen in der
rechten oberen Ecke erhalten haben, an, so sehen wir:
∑ n 
 a1 j xi 
  
 j=1 
  ! ∑ m ∑
 n 
 . 
 = 
φB  ..   ai j x j  wi ,
 ∑  i=1  j=1 
 n 
 amj x j 
j=1

was nach Definition von φB gilt, so dass das Diagramm kommutiert.


Zu 2.: Die Abbildung ist: f = φB ◦ A ◦ φ−1
A
. ⊓

Wir können lineaere Abbildungen zwischen endlich–dimensionalen Vektor-


räumen also vollständig auf Matrixebene verstehen und die Abbildungen φA
usw. benutzen, um zwischen den ursprünglichen Vektorräumen und dem Kn
hin– und herzuwechseln. Eine direkte Folgerung ist:
Vorlesung vom:
18. Mai 2012 Korollar 20.15. Es seien U, V, W drei K-Vektorräume mit Basen C = {u1 , . . . , ur }, A =
Qualitätsstand: {v1 , . . . , vn }, B = {w1 , . . . , wm }, sowie g : U → V, f : V → W zwei lineare Abbil-
zweite Version dungen. Dann gilt für die Matrixdarstellungen A = MA B
( f ), B = MCA (g) und
C
C = MB ( f ◦ g), dass
C = A · B.

Mit anderen Worten: Das Diagramm

f ◦g

UO /V /) W
g O f O
φC  φA  φB 

Kr
B / Kn A /5 K m
C
20.5 Invertierbare Matrizen 261

kommutiert; insbesondere heißt dies, dass das Matrixprodukt der Komposition von
linearen Abbildungen entspricht.

Beweis. Wir betrachten die Hintereinanderausführung f ◦ g : U → W. Für


einen Vektor uk der Basis von U gilt:
( f ◦ g)(uk ) = f (g(uk ))
(∑n )
= f b jk v j
j=1

n
= b jk · f (v j )
j=1

n ∑
m
= b jk · aij wi
j=1 i=1

m (∑
n )
= aij b jk ·wi .
i=1 j=1

Also:

n
C = (cik ) ∈ Km×r mit cik = ai j b jk
j=1

ist die Matrixdarstellung von f ◦ g. ⊔


Korollar 20.16. Das Matrixprodukt ist assoziativ, das heißt:


(A · B) · C = A · (B · C) ∀A ∈ Km×n ∀B ∈ Kn×r ∀C ∈ Kr×s .

Beweis. Die Komposition von linearen Abbildungen ist assoziativ:


A·(B·C)

B·C
&
Ks
C / Kr B / Kn A /5 K m .
:
A·B

(A·B)·C


20.5 Invertierbare Matrizen

Definition 20.17. Eine quadratische Matrix A ∈ Kn×n heißt invertierbar, wenn


die lineare Abbildung f : Kn → Kn , x 7→ f (x) = Ax, ein Isomorphismus ist.
262 20 Lineare Abbildungen

Die Matrixdarstellung der Umkehrabbildung B = MEE ( f −1 ) ∈ Kn×n erfüllt:

B · A = E = (δkl ).
{
1, falls k = l
Hierbei bezeichnet δkl := das Kroneckersymbol; E ist also die
0, sonst.
Einheitsmatrix:  
1 0 0 ... 0
0 1 0 ... 0

 
E = 0. 0 1 ...
.. .. . .
0 ∈ Kn×n .
.. 
 .
 . . . . . 

0 0 0 ... 1
Wir definieren die Inverse:
A−1 := B.

Bemerkung 20.18. Es gilt: f −1 ◦ f = idRn , also

MEE ( f −1 ) · MEE ( f ) = MEE (idRn ) d.h. B · A = E.

Da auch f ◦ f −1 = idRn , gilt A · B = E ebenfalls.


A−1 ist durch A eindeutig bestimmt, denn es definiert die eindeutig bestimmte
Umkehrabbildung
A A−1
f : Kn → Kn , f −1 : Kn → Kn .

Satz/Definition 20.19. Die Menge der quadratischen invertierbaren n×n–Matrizen


über K bezeichnen wir mit

GL(n, K) := {A ∈ Kn×n | A ist invertierbar }

(GL steht für general linear). Vermöge des Matrizenproduktes ist GL(n, k) eine
Gruppe.

Definition 20.20. Eine Gruppe (G, ·) ist eine Menge G, zusammen mit einer Ver-
knüpfung · , das heißt einer Abbildung

G × G → G, (A, B) 7→ A · B,

die folgenden Axiomen genügt:

G1) Assoziativgesetz:

(A · B) · C = A · (B · C) ∀A, B, C ∈ G.

G2) Existenz des neutralen Elements:

∃ E ∈ G mit A · E = A ∀A ∈ G.
20.6 Berechnung der Inversen mit dem Gaußalgorithmus 263

G3) Existenz von Inversen:

∀A ∈ G, ∃A−1 ∈ G, so dass A−1 · A = E.

Eine Gruppe heißt abelsch (nach N.H. Abel (1802-1829), oder kommutativ), falls
für alle g, h ∈ G gilt: gh = hg.

Beweis (von Satz 20.19). Ist klar mit den vorigen Sätzen. ⊓

Einige Beispiele von Gruppen sind:

Beispiel 20.21.

1. (Z, +) ist eine Gruppe:


a + b ∈ Z, (a + b) + c = a + (b + c), a + 0 = a ∀a ⇒ E = 0, a + (−a) = 0
(wird die Verknüpfung + verwendet, dann schreibt man für a−1 meist
−a).
2. (Z∗ , ·) ist keine Gruppe (Z∗ := Z \ {0}):
1 · a = a ∀a ∈ Z, 1 ist also das neutrale Element (E = 1). Aber für a ∈ Z
mit |a| > 1 existiert kein Inverses. Z.B: ∄ b ∈ Z : 2 · b = 1.
3. Sei K ein Körper. Dann sind (K, +) und (K∗ , ·) abelsche Gruppen.

Bemerkung 20.22.

1. GL(n, K) ist nicht abelsch (siehe Übungsaufgaben).


2. Es gilt: (A · B)−1 = B−1 · A−1 , denn A · B · B−1 · A−1 = A · E · A−1 = A · A−1 = E.

20.6 Berechnung der Inversen mit dem Gaußalgorithmus

Beispiel 20.23. Wir wollen die quadratische Matrix


 
 1 2 3 
 2 3 5 
A =   ∈ R3×3
 
346

invertieren. Das heißt wir suchen ein B ∈ R3×3 mit B · A = E bzw. A · B = E,


wobei E die 3 × 3–Einheitsmatrix bezeichnet.
Die erste Spalte (b11 , b21 , b31 )t von B ist die Lösung des Gleichungssystems
    
 a11   b11   1 
 ..   b   0 
 .   21  =   .
     
a33 b31 0
264 20 Lineare Abbildungen

Analog für die zweite und dritte Spalte bi = (b1i , b2i , b3i )t . Dies sieht man
besonders gut, wenn man das Matrizenprodukt A · B = E folgendermaßen
notiert:
 
 b11 b12 b13 
 b21 b22 b23 
 
b31 b32 b33
   
 a11 a12 a13   1 0 0 
 a21 a22 a23   0 1 0  .
   
a31 a32 a33 0 0 1

Die drei Gleichungssysteme A · bi = ei , i = 1, 2, 3, können wir simultan mit


dem Gaußalgorithmus lösen:

1. Wir bilden die erweiterte Matrix


 
 1 2 3 1 0 0 
 2 3 5 0 1 0  .

 
346 00 1

2. Wir bringen diese mit dem Gaußalgorithmus auf Zeilenstufenform: Zu-


erst 2. Zeile - 2 × 1. Zeile, 3. Zeile - 3 × 1. Zeile,
 
 1 2 3 1 0 0 
 
⇝  0 −1 −1 −2 1 0  ,
 
0 −2 −3 −3 0 1

dann noch 3. Zeile - 2 × 2. Zeile:


 
 1 2 3 1 0 0 
 
⇝  0 −1 −1 −2 1 0  .
 
0 0 −1 1 −2 1

3. Wir machen die Diagonalelemente der linken Teilmatrix zu 1 (2. und 3.


Zeile durchmultiplizieren mit −1):
 
 1 2 3 1 0 0 
 0 1 1 2 −1 0 
⇝   .
 
0 0 1 −1 2 −1

4. Wir räumen die Einträge oberhalb der Diagonalen des linken Blocks von
unten nach oben aus. Zuerst 2. Zeile - 3. Zeile und 1. Zeile - 3 × 3. Zeile,
 
 1 2 0 4 −6 3 
 
⇝  0 1 0 3 −3 1  ,
 
0 0 1 −1 2 −1
20.7 Der Gaußalgorithmus zur Berechnung der Inversen 265

dann noch 1. Zeile - 2 × 2. Zeile:


 
 1 0 0 −2 0 1 
 
⇝  0 1 0 3 −3 1  .
 
0 0 1 −1 2 −1

Die Inverse ist nun hinter dem Strich abzulesen:


 
 −2 0 1 
 
A−1 =  3 −3 1  .
 
−1 2 −1

Dass dies auch allgemein so funktioniert, werden wir im nächsten Abschnitt


sehen.

20.7 Der Gaußalgorithmus zur Berechnung der Inversen

Sei A ∈ Kn×n .

1. A ist invertierbar genau dann, wenn die Zeilen–Stufenform genau n Stu-


fen hat:  
 ã11 ∗ ∗ ∗ 
 
 0 ã22 ∗ ∗ 

 
à =  . . . 
 .. . . . . ∗ 
 
 
0 · · · 0 ãnn

Die Notwendigkeit ist klar, weil sonst die letzte Zeile eine Nullzeile ist.
Die zugehörige lineare Abbildung ist nicht surjektiv, da dann nämlich
à · x = (x1 , . . . , xn−1 , 0)t ∀x ∈ Kn . Die andere Richtung der Behauptung
zeigt der folgende Algorithmus.
2. Ist A invertierbar, so erhält man die inverse Matrix wie folgt:
a) Wir bilden die um E erweiterte Matrix
 
 a11 · · · · · · a1n 1 0 ··· 0
 ... a .. .. .. 

 . 0 1 . . 
(A | E) =  . 22
. . .. . . .. 
 .. . . .. . . . 0 

an1 · · · · · · ann 0 ··· 0 1
und bringen diese auf Zeilenstufenform (mit Zeilenoperationen)