0% fanden dieses Dokument nützlich (0 Abstimmungen)
127 Ansichten345 Seiten

HM Script

Hochgeladen von

Ismail Aknou
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
127 Ansichten345 Seiten

HM Script

Hochgeladen von

Ismail Aknou
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Höhere Mathεmatik für Informatiker

Inoffizielles Skriptum zur Vorlesung Höhere Mathematik für Informatiker basierend auf
Vorlesungen an der Universität Karlsruhe (TH) 2000 – 2004
ii
Inhaltsverzeichnis

I. Eindimensionale Analysis 1
0. Vorbemerkungen 3
0.1. Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
0.2. Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
0.3. Aussagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1. Zahlen 7
1.1. Reelle Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Axiome der reellen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3. Natürliche Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Prinzip der vollständigen Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5. Einige Formeln (Notationen) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6. Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7. Potenzen mit rationalen Exponenten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2. Folgen, Konvergenz 19
2.1. Definition der Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2. Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3. Monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4. Häufungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5. Cauchy-Kriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3. Reihen 37
3.1. Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2. Eigenschaften der Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4. Potenzreihen 51
4.1. Der Cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.2. Der Sinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3. Weiteres zu Sinus und Cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

5. g-adische Entwicklungen 59

6. Grenzwerte bei Funktionen 63


6.1. Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2. Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

7. Stetige Funktionen 71
7.1. Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
7.2. Zwischenwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.3. Nullstellensatz von Bolzano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.4. Kompakte Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.5. Monotonie, Umkehrfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
7.6. Exponentialfunktion und Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

iii
Inhaltsverzeichnis

7.7. Verschärfter Stetigkeitsbegriff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81


7.8. Gleichmäßige Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
7.9. Lipschitz-Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.10. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

8. Funktionenfolgen und -reihen 85


8.1. Punktweise Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2. Gleichmäßige Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
8.3. Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

9. Differentialrechnung 93
9.1. Differentiationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.2. Umkehrfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
9.3. Extrempunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.4. Mittelwertsatz der Differentialrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.5. Anwendungen: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
9.6. Die Regeln von de l’Hospital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
9.7. Cosinus und Sinus, die Zahl π . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.8. Sonstiges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
9.9. Höhere Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
9.10. Höhere Ableitungen bei Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
9.11. Satz von Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
9.12. Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

[Link] Riemann-Integral 119


10.1. Integrabilitätskriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
10.2. Hauptsätze der Differential- und Integralrechnung . . . . . . . . . . . . . . . . . . . . . . 126
10.3. Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
10.4. Integration durch Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
10.5. Mittelwertsatz der Integralrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

[Link] 147
11.1. Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

[Link] rationaler Funktionen 151

[Link] Integration weiterer Funktionenklassen 155

[Link] Integrale 159


14.1. Konvergenzkriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

[Link] Exponential–, Sinus– und Cosinusfunktion 167


15.1. Polarkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
15.2. Geometrische Darstellung der Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . 170
15.3. n-te Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
15.4. Analysis in C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

[Link]-Reihen 175
16.1. Orthogonalitätsrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
16.2. Die Fourier-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
16.3. Komplexe Schreibweise von Fourier-Reihen . . . . . . . . . . . . . . . . . . . . . . . . 185

iv
Inhaltsverzeichnis

II. Mehrdimensionale Analysis, Differentialgleichungen, Transformationen 189


[Link] Raum Rn 191

[Link] im Rn 195

[Link] von Funktionen, Stetigkeit 199

[Link], Reihen, Potenzreihen und Stetigkeit in C 205


20.1. Konvergenz von Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
20.2. Unendliche Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
20.3. Komplexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
20.4. Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

[Link] im Rn 211
21.1. Partielle Differenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
21.2. Differenzierbarkeit und Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
21.3. Die Richtungsableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
21.4. Der Satz von Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

[Link] für vektorwertige Funktionen 229


22.1. Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
22.2. Implizit definierte Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
22.3. Extremwertprobleme mit Nebenbedingungen . . . . . . . . . . . . . . . . . . . . . . . . 239

[Link] im Rn 241
23.1. Das Riemann-Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
23.2. Integration über allgemeineren Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
23.3. Verallgemeinerung der Substitutionsregel . . . . . . . . . . . . . . . . . . . . . . . . . . . 258

[Link] Differentialgleichungen 1. Ordnung 265


24.1. Exakte Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
24.2. Differentialgleichung mit getrennten Veränderlichen . . . . . . . . . . . . . . . . . . . . . 270
24.3. Lineare Differentialgleichungen 1. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . 273
24.4. Bernoullische Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
24.5. Riccatische Differentialgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277

[Link] von Differentialgleichungen 1. Ordnung 279


25.1. Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
25.2. Lineare Differentialgleichungs-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
25.3. Reduktionsverfahren von d’Alembert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288

[Link] Differentialgleichungen höherer Ordnung 291


26.1. Differentialgleichungen mit speziellen Inhomogenitäten . . . . . . . . . . . . . . . . . . . 294
26.2. Eulersche Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
26.3. Weitere Spezialfälle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296

[Link] Fourier-Transformation 299


27.1. Die Fourier-Transformierte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
27.2. Cauchyscher Hauptwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
27.3. Umkehrung stückweise glatter Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 304
27.4. Faltungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307

[Link] Laplace-Transformation 313


28.1. Eigenschaften der Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . 317

v
Inhaltsverzeichnis

28.2. Faltungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318


28.3. Ableitungen und Stammfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
28.4. Anwendungen auf lineare Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . 323

A. Tabellen 327

vi
Tabellenverzeichnis

A.1. Verschiedene Funktionsdefinitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327


A.2. Additionstheoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
A.3. Einige Funktionen und ihre Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
A.4. Trigonometrische Funktionen und ihre Ableitungen und Stammfunktionen . . . . . . . . 329
A.5. Einige Funktionen und ihre Laplace–Transformierten . . . . . . . . . . . . . . . . . . . 330

Dieses Werk ist unter einem Creative Commons Namensnennung–Nicht-Kommerziell–Weitergabe


unter gleichen Bedingungen—Lizenzvertrag lizensiert. Um die Lizenz anzusehen, gehen Sie bitte
zu [Link] oder schicken Sie einen Brief an Creative
Commons, 559 Nathan Abbott Way, Stanford, California 94305, USA.

Dieses Skriptum erhebt keinen Anspruch auf Vollständigkeit und Korrektheit. Einige Beweise, die in den
Saalübungen geführt wurden, sind nicht enthalten.

Kommentare, Fehler, Patches und Vorschläge bitte an post@[Link] senden. Bei Fehlern bitte
nicht die Seitenzahl sondern die Nummer des Satzes, der Abbildung etc. sowie die Revisionsnummern
angeben.
Die aktuelle Version dieses Dokuments sowie die Quelldateien hierzu sind unter der Web-Adresse
[Link] zu finden.

Dieses inoffizielle Skriptum basiert auf dem Mitschrieb von Daniel Winkler zu den Vorlesungen an der
Universität Karlsruhe1 in den Jahren 2000 und 2001 von Prof. M. Plum. Kombiniert wurde er durch
Markus Westphal und Sebastian Reichelt mit Material aus den Vorlesungen in den Jahren 2002
bis 2004 von HDoz. Dr. P. Kunstmann und AOR Dr. Ch. Schmoeger.

Sowohl die Konzeption als auch das Manuskript der genannten Vorlesungen stammen allein von AOR
Dr. Ch. Schmoeger.

Weitere Korrekturen und Ergänzungen wurden eingebracht von Julian Dibbelt, Martin
Röhricht, Christian Senger, Norbert Silberhorn, Johannes Singler und Richard Wal-
ter.

Teil Rev.
Layout 282
HM 1 289
HM 2 291
Anhang 256

1 heute: Karlsruher Institut für Technologie, KIT

vii
Tabellenverzeichnis

Don’t panic!

viii
Teil I.

Eindimensionale Analysis

1
0. Vorbemerkungen

0.1. Mengen
Eine Menge ist nach Cantor eine Zusammenfassung M von bestimmten wohlunterschiedenen Objek-
ten unserer Anschauung oder unseres Denkens (welche Elemente von M genannt werden) zu einem
Ganzen.
Notation: geschweifte Klammern {}
Beispiel 0.1. Notationen:
• M = {1, 2, 3}
• M = {x : x ist Vielfaches von 7} oder {x ∈ N : x Vielfaches von 7}

Weitere Grundnotation: Doppelpunkt zur Kennzeichnung von Definitionen.


Beispiel 0.2. Wollen die Funktion f definieren. Schreibe (z.B.) f (x):= x2 . Nur bei einer Neudefinition,
nicht bei einer Gleichung. Oder: a:= 15, f heißt injektiv :⇔ Für alle a, ã ∈ M mit a 6= ã gilt . . .

a ∈ M (oder M 3 a): a ist Element von M ; M enthält a


a 6∈ M (oder M 63 a): analog s.o.
M = N: M enthält die selben Elemente wie N
M 6= N : analog s.o.
M ⊂ N (oder M ⊆ N ): M ist Teilmenge von N , d.h. jedes Element von M ist auch
ein Element von N ; Gleichheit der Mengen ist erlaubt.
N ⊃ M (oder N ⊇ M ): N ist Obermenge von M ; analog
M $ N: M ist echte Teilmenge von N ; M 6= N
∅: leere Menge

M ∪N = {a : a ∈ M oder a ∈ N } (Vereinigungsmenge)
M ∩N = {a : a ∈ M und a ∈ N } (Schnittmenge)
M \N = {a : a ∈ M und a ∈
6 N} (Komplementmenge)

M, N heißen disjunkt, wenn M ∩ N = ∅


P(M ) = {N : N ⊂ M }: Potenzmenge von M (Menge aller Teilmengen)
Beispiel 0.3. Beispiel für die Potenzmenge von M = {1, 2}:

P(M ) = {1, 2}, {1}, {2}, ∅

0.2. Abbildungen
Seien M, N Mengen. Eine Abbildung oder Funktion f von M nach N ist eine Vorschrift, die jedem
Element a ∈ M in eindeutiger Weise ein f (a) ∈ N zuordnet.
Notation: f : M → N, a 7→ f (a)

3
0. Vorbemerkungen

Beispiel 0.4.
 
R→R
M = N = R, f:
x 7→ x2

f1 : M1 → N1 und f2 : M2 → N2 heißen gleich (kurz f1 ≡ f2 ) (identisch), wenn M1 = M2 , N1 = N2


und f1 (a) = f2 (a) für alle a ∈ M1 .

f : M → N heißt
• injektiv , wenn für alle a, ã ∈ M mit a 6= ã gilt: f (a) 6= f (ã); (x 7→ x ist injektiv, x 7→ x2 nicht)
• surjektiv , wenn für alle ã ∈ N ein a ∈ M existiert mit f (a) = ã (⇒ die Bildmenge wird voll
ausgeschöpft)
• bijektiv , wenn f sowohl injektiv als auch surjektiv ist; eineindeutige Zuordnung
Für M1 ⊂ M heißt f (M1 ) = {f (a) : a ∈ M1 } Bildmenge von M1 (unter f ).
Für N1 ⊂ N heißt f −1 (N1 ) = {a ∈ M : f (a) ∈ N1 } Urbildmenge von N1 (unter
f ).
Sind f : M → N und g : N → P Abbildungen, so heißt die Abbildung
 
M → P
g◦f :
a 7→ g(f (a))

Hintereinanderausführung von f und g.

0.3. Aussagen
Unter einer Aussage verstehen wir ein sprachliches oder gedankliches Gefüge, welches entweder wahr
oder falsch ist.
Beispiel 0.5.
• 4 ist eine gerade Zahl“ ist eine wahre Aussage.

• Bananen sind kugelförmig“ ist eine falsche Aussage.

• Nachts ist es kälter als draußen“ ist keine Aussage.

• Es gibt unendlich viele Sterne“ ist eine Aussage, die wahr oder falsch sein kann.

Sind A, B Aussagen, so sind die Aussagen ¬A, A ∧ B, A ∨ B, A ∨˙ B, A ⇒ B, A ⇔ B erklärt durch:
¬A: A ist falsch (Negation)
A ∧ B: A und B sind beide wahr (und)
A ∨ B: A oder B ist wahr (oder)
A ∨˙ B: entweder A oder B ist wahr (excl. oder)
A ⇒ B: aus A folgt B; wenn A wahr ist, dann ist auch B wahr (Implikation)
(ist immer wahr, wenn A falsch ist; ist nur dann falsch, wenn B falsch ist)
Bsp: Wenn Bananen kugelförmig sind, ist 4 gerade.“ ⇒ eine wahre Aussage.

A ⇔ B: A ist genau dann wahr, wenn B wahr ist. (Äquivalenz)
Sei M eine Menge und E eine Eigenschaft, die ein Element a ∈ M haben kann. Dann sind folgende
Aussagen machbar:
• ∀a∈M a hat die Eigenschaft E; jedes a ∈ M hat die Eigenschaft E
(∀ heißt All-Quantor )

4
0.3. Aussagen

• ∃a∈M a hat die Eigenschaft E; es existiert ein a ∈ M mit der Eigenschaft E


(∃ heißt Existenzquantor )
• ∃1a∈M a hat die Eigenschaft E; es existiert genau ein a ∈ M mit der Eigenschaft E
Grundsätzliches Ziel der Mathematik: Möglichst viele nichttriviale Aussagen über gewisse Objekte. Ein
solches gedankliches Gebäude kann nicht aus dem Nichts“ kommen. Start des mathematischen Denkens:

Grundannahmen, Axiome, die nicht bewiesen werden können.
Insbesondere brauchen wir Axiome, die uns die Zahlen liefern.
Möglichkeiten:
• Peano-Axiome liefern die natürlichen Zahlen N, daraus lassen sich ganze Zahlen und rationale
Zahlen konstruieren. Ein weiteres Axiom liefert die reellen Zahlen R, woraus auch die komplexen
Zahlen konstruierbar sind.
• Wir können die Axiome sofort auf der Ebene der reellen Zahlen fordern. Das wollen wir auch im
Folgenden tun.

5
0. Vorbemerkungen

6
1. Zahlen

1.1. Reelle Zahlen

Axiomatische Forderung: Es gibt eine Menge R, genannt die Menge der reellen Zahlen, mit folgenden
Eigenschaften:

1.2. Axiome der reellen Zahlen

1.2.1. Körperaxiome

In R seien zwei Verknüpfungen +, · gegeben, die jedem Paar a, b ∈ R genau ein a+b ∈ R und ein a·b ∈ R
zuordnen. Dabei soll gelten:

A1: Assoziativgesetz der Addition

∀a, b, c ∈ R (a + b) + c = a + (b + c)

A2: neutrales Element der Addition

∃0 ∈ R ∀a ∈ R a+0=a

A3: inverses Element der Addition

∀a ∈ R ∃(−a) ∈ R a + (−a) = 0

A4: Kommutativgesetz der Addition

∀a, b ∈ R a+b=b+a

A1 bis A4 ergibt: (R, +) ist eine kommutative Gruppe.

A5: Assoziativgesetz der Multiplikation

∀a, b, c ∈ R (a · b) · c = a · (b · c)

A6: neutrales Element der Multiplikation

∃1 ∈ R ∀a ∈ R a · 1 = a, 1 6= 0

7
1. Zahlen

A7: inverses Element der Multiplikation

∀a ∈ R \ {0} ∃a−1 ∈ R a · a−1 = 1

A8: Kommutativgesetz der Multiplikation

∀a, b ∈ R a·b=b·a

A5 bis A8 ergibt: (R \ {0}, ·) ist eine kommutative Gruppe

A9: Distributivgesetz

∀a, b, c ∈ R a · (b + c) = a · b + a · c

A1 bis A9 ergibt: (R, +, ·) ist ein Körper.


Alle bekannten Regeln der Grundrechenarten lassen sich aus A1 bis A9 herleiten und seien von nun an
bekannt.
Schreibweise:
Für a, b ∈ R:
ab := a · b
a − b := a + (−b)
b
falls a 6= 0 : a
:= ba−1
Beispiel 1.1.
(1) Das Nullelement 0 ist eindeutig:
Sei 0̃ weiteres Element mit ∀a ∈ R a + 0̃ = a
Dann: 0̃ = 0̃0 = 00̃ = 0
(2) ∀a ∈ R a · 0 = 0:
a · 0 = a · (0 + 0) = a · 0 + a · 0 | −(a · 0)
0=a·0
(3) ∀a ∈ R a2 = (−a)2 (wobei: a2 = a · a):

a2 = a · a = a · (a + a − a) = a · (a + a) + a · (−a)
= a · (a + a) + (−a) · (a + a − a) = a · (a + a) + (−a) · (a + a) + (−a) · (−a)
= (a + a) · (a − a) + (−a)2 = (a + a) · 0 + (−a)2 = (−a)2

1.2.2. Anordnungsaxiome

In R ist eine Relation ≤ gegeben, für die gilt:

A10
 
∀a, b ∈ R a≤b ∨ b≤a

A11
 
∀a, b ∈ R (a ≤ b ∧ b ≤ a) ⇒ a = b

8
1.2. Axiome der reellen Zahlen

A12
 
∀a, b, c ∈ R (a ≤ b ∧ b ≤ c) ⇒ a ≤ c

⇒ R ist eine total geordnete Menge.

A13
 
∀a, b, c ∈ R (a ≤ b) ⇒ (a + c ≤ b + c)

A14
 
∀a, b, c ∈ R (a ≤ b ∧ 0 ≤ c) ⇒ a · c ≤ b · c

Schreibweisen:
∀a, b ∈ R b ≥ a :⇔ a ≤ b
a < b :⇔ (a ≤ b ∧ a 6= b)
b > a :⇔ a < b
Alle bekannten Regeln für Ungleichungen lassen sich aus A1 bis A14 herleiten und seien von nun an
bekannt.
Beispiel 1.2.
 
(1) ∀a, b, c ∈ R (a ≤ b ∧ c ≤ 0) ⇒ a · c ≥ b · c
Beweis:
c ≤ 0 ⇒ 0 ≤ −c
⇒ a · (−c) ≤ b · (−c)
⇒ bc ≤ ac

 
(2) ∀a, b, c ∈ R (a ≤ b ∧ c > 0) ⇒ a · c ≤ b · c

Betrag einer reellen Zahl:


(
a falls a ≥ 0
∀a ∈ R |a| :=
−a falls a < 0

|a| : Abstand von a zur 0


|a − b| : Abstand zwischen a und b

(1) |a| ≥ 0
(2) |a| = 0 ⇔ a = 0
(3) |a| = | − a|
(4) |a · b| = |a| · |b|
(5) a ≤ |a|, −a ≤ |a|
(6) Dreiecksungleichung:
|a + b| ≤ |a| + |b|

(7) |a| − |b| ≤ |a − b|

9
1. Zahlen

Beweis: zu (6)
1. Fall: a + b ≥ 0. Dann:

|a + b| = a + b ≤ |a| + b ≤ |a| + |b|

2. Fall: a + b < 0 Dann:

|a + b| = −(a + b) = (−a) + (−b) ≤ |a| + |b|

Definition 1.3. Sei M ⊂ R, M 6= ∅.


M heißt nach oben beschränkt

:⇔ ∃γ ∈ R ∀x ∈ M x≤γ

M heißt nach unten beschränkt

:⇔ ∃γ ∈ R ∀x ∈ M x≥γ

In diesem Fall heißt γ obere Schranke (bzw. untere Schranke) von M .


Ist γ eine obere Schranke von M und gilt für jede weitere obere Schranke γ̃ von M : γ ≤ γ̃, (d.h. γ ist
kleinste obere Schranke von M ), so heißt γ das Supremum von M .
Ist γ eine untere Schranke von M und gilt für jede weitere untere Schranke γ̃ von M : γ ≥ γ̃, (d.h. γ ist
größte untere Schranke von M ), so heißt γ das Infimum von M .
Falls M ein Supremum hat, so ist nach A11 dieses eindeutig bestimmt. (Infimum analog)
Bezeichnung: sup M, inf M

Existiert sup M und gilt sup M ∈ M , so heißt sup M auch Maximum von M (Bezeichnung max M ).
Existiert inf M und gilt inf M ∈ M , so heißt inf M auch Minimum von M (Bezeichnung min M ).

Beispiel 1.4. Intervalle


Seien a, b ∈ R, a < b.
(a, b) := {x ∈ R : a < x < b} (offenes Intervall)
[a, b] := {x ∈ R : a ≤ x ≤ b} (abgeschlossenes Intervall)
(a, b] := {x ∈ R : a < x ≤ b} (halboffenes Intervall)
[a, ∞) := {x ∈ R : a ≤ x}
(a, ∞) := {x ∈ R : a < x}
(−∞, a) := {x ∈ R : x < a}
(−∞, a] := {x ∈ R : x ≤ a}
(−∞, ∞) := R

Beispiel 1.5. Beispiele von Mengen und deren Schranken:


(1) M = (1, 2)
obere Schranken: alle Zahlen ≥ 2
sup M = 2, 2 6∈ M , daher existiert das Maximum von M nicht.
untere Schranken: alle Zahlen ≤ 1
inf M = 1, 1 6∈ M , daher existiert das Minimum von M nicht.

10
1.2. Axiome der reellen Zahlen

(2) M = (1, 2]
obere Schranken: alle Zahlen ≥ 2
sup M = 2, 2 ∈ M ⇒ max M = 2.
untere Schranken: alle Zahlen ≤ 1
inf M = 1, 1 6∈ M , daher existiert das Minimum von M nicht.
(3) M = [2, ∞)
inf M = 2; 2 ∈ M , also min M = 2
sup M exisitert nicht.

A15 Ist M ⊂ R, M 6= ∅, M nach oben beschränkt, so existiert sup M .

Satz 1.6. Ist M ⊂ R, M 6= ∅, M nach unten beschränkt, so existiert inf M .

Beweis: Betrachte −M := {−x, x ∈ M } statt M . 

Definition 1.7. Sei M ⊂ R, M 6= ∅.


M heißt beschränkt, wenn M nach oben und nach unten beschränkt ist.

Es gilt: M beschränkt ⇔ ∃c > 0 ∀x ∈ M |x| ≤ c

Satz 1.8. Sei B ⊂ A ⊂ R, B 6= ∅, dann gilt:


(1) Ist A beschränkt, so gilt inf A ≤ sup A
(2) Ist A nach oben beschränkt, so ist auch B nach oben beschränkt und sup B ≤ sup A
Ist A nach unten beschränkt, so ist auch B nach unten beschränkt und inf B ≥ inf A
(3) Ist A nach oben beschränkt und γ eine obere Schranke von A, so gilt:

γ = sup A ⇔ ∀ε > 0 ∃x ∈ A x>γ−ε

Ist A nach unten beschränkt und γ eine untere Schranke von A, so gilt:

γ = inf A ⇔ ∀ε > 0 ∃x ∈ A x<γ+ε

Beweis:
(1) Wähle x ∈ A. Da sup A obere Schranke von A, gilt: x ≤ sup A
Da inf A untere Schranke von A, gilt: x ≥ inf A

⇒ inf A ≤ sup A

(2) (obere Zeile): sup A ist obere Schranke von A, also (wegen B ⊂ A) auch von B. Da sup B kleinste
obere Schranke von B, folgt sup B ≤ sup A.
(3) (obere Zeile):
⇒“: Sei γ = sup A, und sei ε > 0. Da γ − ε < γ, ist γ − ε keine obere Schranke von A. Also existiert

ein x ∈ A mit x > γ − ε

11
1. Zahlen

⇐“: Es gelte ∀ε > 0 ∃x ∈ A x > γ − ε. Wäre γ nicht das Supremum von A, so existiert eine kleinere

obere Schranke γ̃ von A. (also γ̃ < γ).
Setze ε := γ − γ̃ > 0. Nach Voraussetzung existiert ein x ∈ A mit x > γ − ε = γ − (γ − γ̃) = γ̃
⇒ γ̃ ist keine obere Schranke von A. ⇒ Widerspruch. ( )


1.3. Natürliche Zahlen

Definition 1.9. A ⊂ R heißt Induktionsmenge (IM), wenn gilt:


(1) 1 ∈ A
(2) ∀x ∈ A x + 1 ∈ A

Beispiel 1.10. R, [1, ∞), {1} ∪ [2, ∞) sind Induktionsmengen.


{1} ∪ (2, ∞) ist keine Induktionsmenge.

Definition 1.11. Die Menge

N := {x ∈ R : x ∈ A für jede Induktionsmenge A} = Durchschnitt aller Induktionsmengen


\
= A
A IM

heißt Menge der natürlichen Zahlen.

Satz 1.12.
(1) Ist A ⊂ R eine Induktionsmenge, dann gilt: N ⊂ A
(2) N ist eine Induktionsmenge.
(3) N ist nicht nach oben beschränkt.
(4) ∀x ∈ R ∃n ∈ N n > x

Beweis:
(1) Klar nach Definition von N.
T
(2) Da 1 ∈ A für jede Induktionsmenge A ⊂ R, gilt auch 1 ∈ A = N.
A IM
T
Sei x ∈ N = A. Also x ∈ A für jede Induktionsmenge A.
A IM
T
Da x + 1 ∈ A für jede Induktionsmenge A, ist x + 1 ∈ A=N
A IM

⇒ N ist Induktionsmenge.
(3) Annahme: N ist nach oben beschränkt. Nach A15 existiert also ein s := sup N.
⇒ s − 1 ist keine obere Schranke von N.
⇒ ∃x ∈ N x > s − 1; da N Induktionsmenge ist, gilt x + 1 ∈ N, andererseits x + 1 > s
⇒ Widerspruch, da s obere Schranke von N.
(4) folgt aus (3).

12
1.4. Prinzip der vollständigen Induktion

1.4. Prinzip der vollständigen Induktion

Satz 1.13. Ist A ⊂ N und A Induktionsmenge, so ist A = N.

Beweis: N ⊂ Ã für jede Induktionsmenge Ã, insbesondere N ⊂ A. Außerdem ist A ⊂ N nach Voraus-
setzung, also A = N 

1.4.1. Beweisverfahren durch Induktion

Für jedes n ∈ N sei eine Aussage A(n) definiert. Es gelte:

(1) A(1) ist wahr.


 
(2) ∀n ∈ N A(n) wahr ⇒ A(n + 1) wahr

Dann gilt: ∀n ∈ N A(n) ist wahr.

Denn: Setze A := {n ∈ N : A(n) ist wahr}


Nach (1) gilt: 1 ∈ A; nach (2) gilt ∀n ∈ N n + 1 ∈ A
Also A Induktionsmenge; ferner A ⊂ N. Also ist nach Prinzip der vollständigen Induktion: A = N, d.h.
A(n) wahr für alle n ∈ N

Beispiel 1.14.

(1) Behauptung: ∀n ∈ N n ≥ 1

Beweis: induktiv

A(n) sei die Aussage n ≥ 1“.



A(1) ist wahr, da 1 ≥ 1

Sei A(n) wahr, also n ≥ 1. Dann n + 1 ≥ 1 + 1 ≥ 1 + 0 = 1 d.h. also A(n + 1) ist auch wahr für alle
n ∈ N, d.h. ∀n ∈ N n ≥ 1. 

(2) Es sei m ∈ N und x ∈ R mit m < x < m + 1.

Behauptung: x 6∈ N

Beweis: A := (N ∩ [1, m]) ∪ [m + 1, ∞) ist Induktionsmenge. (Bew. selbst)

⇒ N⊂A

Annahme: x ∈ N, denn (wegen N ⊂ A): x ∈ A, d.h. insbesondere x ≤ m oder x ≥ m + 1

⇒ Widerspruch zur Annahme (echt kleiner etc.) 


n(n+1)
(3) Behauptung: 1 + 2 + 3 + · · · + n = 2

13
1. Zahlen

Beweis:
1(1+1)
(1) Stimmt für n = 1, da 1 = 2

(2) Gelte die Behauptung für ein beliebiges n ∈ N. Dann

n(n + 1) n  (n + 1)(n + 2)
1 + 2 + 3 + · · · + n + (n + 1) = + (n + 1) = (n + 1) +1 =
2 2 2
⇒ Behauptung gilt für n + 1


Definition 1.15.

N0 := N ∪ {0}
Z := N0 ∪ {−n : n ∈ N} ganze Zahlen
 
p
Q := : p ∈ Z, q ∈ N rationale Zahlen
q

Satz 1.16. Sind x, y ∈ R und x < y, so existiert ein r ∈ Q mit x < r < y.

1
Beweis: Wähle q ∈ N, q > y−x , dann qy − qx > 1. Dann existiert (Beweis später) ein p ∈ Z mit
qx < p < qy, d.h. x < pq < y.
Nachweis der Existenz eines solchen p:
Setze M := Z ∩ (−∞, qx] nach oben beschränkt.

s := sup M

Wähle n ∈ M mit n > s − 1. Setze p := n + 1 ∈ Z; ferner p > s.


⇒ p 6∈ M ; wegen p ∈ Z also p 6∈ (−∞, qx], d.h. p > qx
Ferner p = n + 1 ≤ qx + 1 < qy. 

1.5. Einige Formeln (Notationen)


(1) Für a ∈ R und n ∈ N: an := a · a · · · a (n mal)
Präzise mit vollständiger Induktion:
Definiere a1 := a
Sei an für ein n ∈ N bereits definiert.
Dann an+1 := an · a
Daraus: übliche Rechenregeln für Potenzen.
1
Falls a 6= 0, n ∈ N : a−n := an
Für alle a ∈ R : a0 := 1
Damit: an (für a 6= 0) für alle n ∈ Z definiert.
(2) Für n ∈ N : n! := 1 · 2 · 3 · · · n
Präzise: 0! := 1; falls n! bereits definiert für ein n ∈ N0 : (n + 1)! := n! · (n + 1)
Damit ist n! definiert für alle n ∈ N0 .

14
1.5. Einige Formeln (Notationen)

 n ∈ Nn!
(3) Für
n
0 , k ∈ N0 , k ≤ n:
k
:= k!(n−k)! (Binomialkoeffizenten)
Es gilt: 0 = 1; nn = 1
n
 

Ferner: nk + k−1 n
= n+1
  
k ,1 ≤ k ≤ n

(4) Bernoullische Ungleichung:


Für x ∈ R, x ≥ −1 und n ∈ N gilt:

(1 + x)n ≥ 1 + nx

Beweis: n = 1 : (1 + x)1 = 1 + x = 1 + 1x
Gelte die Behauptung für ein n ∈ N;

(1 + x)n+1 = (1 + x)n · (1 + x) ≥ (1 + nx)(1 + x) = 1 + (n + 1)x + nx2 ≥ 1 + (n + 1)x


(5) Summenzeichen, Produktzeichen:
Will definieren:
n
X
ak := a1 + a2 + · · · + an
k=1

n
Y
ak := a1 · a2 · · · an
k=1

Präzise: Setze a1 ∈ R, so setze


1
X
ak := a1
k=1

1
Y
ak := a1
k=1

Sind für je n Zahlen a1 , . . . , an ∈ R bereits obige Ausdrücke definiert und sind a1 , . . . , an+1 ∈ R, so
setze
n+1 n
!
X X
ak := ak + an+1
k=1 k=1

Produktzeichen analog
Sind p, q ∈ Z, p ≤ q, ap , . . . , aq ∈ R, so definiere
q
X q−p+1
X
ak := ap−1+k
k=p k=1

q
Y q−p+1
Y
ak := ap−1+k
k=p k=1

Schließlich für p > q:


q
X q
Y
ak := 0, ak := 1
k=p k=p

15
1. Zahlen

(6) Binomischer Lehrsatz:

Es seien a, b ∈ R, n ∈ N0 . Dann gilt:


n  
n
X n
(a + b) = an−k bk
k
k=0

(7) Es seien a, b ∈ R, n ∈ N0 . Dann gilt


n
X
an+1 − bn+1 = (a − b) an−k bk
k=0

1.6. Wurzeln

Will nun n einführen.

Lemma 1.17. Für x, y ∈ R, x, y ≥ 0 und n ∈ N gilt:

x ≤ y ⇔ xn ≤ y n

Satz und Definition 1.18. Es sei a ≥ 0 und n ∈ N.



Behauptung: Es existiert genau ein x ∈ R, x ≥ 0 mit xn = a. Dieses x heißt n-te Wurzel aus a, x =: n
a.
√ √
Speziell für n = 2 : a := 2 a

Beweis: Eindeutigkeit nach obigem Lemma. Die Existenz: mit Zwischenwertsatz für stetige Funktionen
7.11. 

Bemerkung 1.19.

• 2 6∈ Q
√ √ p2
Beweis: Annahme: 2 ∈ Q, d.h. es gibt p, q ∈ N, p, q teilerfremd, mit 2 = pq ; dann 2 = q2 , also

p2 = 2q 2

⇒ p2 ist durch 2 teilbar.


⇒ p ist durch 2 teilbar.
⇒ p2 ist durch 4 teilbar.
⇒ q 2 ist durch 2 teilbar.
⇒ q ist durch 2 teilbar.
⇒ p, q beide durch 2 teilbar; ⇒ Widerspruch zu p, q teilerfremd“ 


• Nach unserer Definition ist n a ≥ 0 (für a ≥ 0)

• Achtung: Wir ziehen nur Wurzeln aus Zahlen ≥ 0



Bsp: 4 = 2; die Gleichung x2 = 4 hat zwei Lösungen 2 und −2; als Wurzel wählen wir die
Lösung ≥ 0 aus.

• a2 = |a|

16
1.7. Potenzen mit rationalen Exponenten

1.7. Potenzen mit rationalen Exponenten


m
Es sei a ≥ 0 und r ∈ Q, r > 0. Also r = n mit m, n ∈ N
Wir wollen definieren:
√ m
ar := n a
p
Problem: Ist r = q eine weitere Darstellung von r, gilt dann
√ m √ p
n
a = qa ?

Ja! Denn: Setze


√ m √ p
x := n a , y := q a

Dann
h √  iq √ mq √ np h √ n i p
m
xq = n
a = na = na = na = ap

Analog für y q .
d.h. xq = y q . Nach Hilfssatz also x = y
Also obige Definition in Ordnung.
Es gelten die bekannten Rechenregeln.
1
Ist a > 0, r ∈ Q, r < 0, so setze ar := a−r .

17
1. Zahlen

18
2. Folgen, Konvergenz

2.1. Definition der Folgen

Definition 2.1. Sei X eine beliebige Menge, X 6= ∅.


Eine Funktion a : N → X heißt Folge in X.
Schreibweise:

∀n ∈ N an := a(n) n-tes Folgenglied

(an )n∈N oder (an )∞


n=1 oder (an ) oder (a1 , a2 , a3 , . . .) statt a

Ist X = R, so spricht man von reellen Folgen.

Bemerkung 2.2. Ist p ∈ Z und a : {p, p + 1, p + 2, . . .} −→ X eine Funktion, so spricht man ebenfalls
von einer Folge in X.
Bezeichnung: (an )∞
n=p oder (ap , ap+1 , . . .)

Beispiel 2.3.
• an := n1 für alle n ∈ N, also
(an )n∈N = 1, 12 , 13 , . . .
• ∀n ∈ N a2n := 0, a2n−1 := 1
also (an )n∈N = (1, 0, 1, 0, . . .)
• ∀n ∈ N an := (−1)n
also (an )n∈N = (−1, 1, −1, 1, . . .)

Definition 2.4. Sei X eine beliebige Menge, X 6= ∅.


(1) X ist endlich, wenn eine surjektive Abbildung φ : {1, . . . , n} → X existiert.
(2) X heißt abzählbar , wenn X endlich ist oder eine surjektive Abbildung φ : N → X existiert. (D.h.
wenn X endlich ist oder eine Folge (an )n∈N in X existiert mit {a1 , a2 , a3 , . . .} = X.
oder: die Elemente von X können mit {1, . . . , n} oder mit N durchnummeriert werden.)
(3) X heißt überabzählbar , wenn X nicht abzählbar ist.

Beispiel 2.5.
• N ist abzählbar, denn N = {a1 , a2 , a3 , . . .} mit ∀n ∈ N an := n
• Z ist abzählbar.
Definiere etwa: a1 := 0, a2 := 1, a3 := −1, a4 := 2, . . .

19
2. Folgen, Konvergenz

• Q ist abzählbar.
⇒ Unendliches Rechteck
1 2 3 4 ···
1 2 3 4
2 2 2 2 ···
.. .. .. .. ..
. . . . .

Dann setze b1 := 0, b2 := a1 , b3 := −a1 , . . . , um auch die negativen Zahlen durchnummerieren


zu können.
• R ist überabzählbar. (⇒ es gibt auch viel mehr irrationale Zahlen als rationale)

Ab jetzt seien alle Folgen reelle Folgen.

Definition 2.6. Sei (an ) eine reelle Folge. (an ) heißt nach oben bzw. unten beschränkt, wenn die Menge
M = {a1 , a2 , a3 . . .} nach oben bzw. nach unten beschränkt ist. In diesem Fall: sup(an )n∈N := sup M .
Analog für die andere Seite.
(an ) heißt beschränkt, wenn (an ) nach oben und nach unten beschränkt ist.

2.2. Konvergenz
Der Begriff der Konvergenz ist der zentrale Begriff der Analysis. Wir betrachten zunächst die Konvergenz
reeller Folgen.
Sei (an ) eine Folge in R und a ∈ R. Was soll an → a für n → ∞“ bedeuten?

1. Schritt: Die Folgenglieder an kommen a beliebig nahe oder |an − a| wird beliebig klein, wenn n groß

wird.“
2. Schritt: So sollte doch zum Beispiel gelten:
1
|an − a| <
1000
Nur: für welche n?
Idee: Ab einem gewissen Index n0 soll für alle n ≥ n0 die obige Ungleichung gelten.
Ebenso sollte es ein n1 ∈ N geben mit |an − a| < 10−6 für alle n ≥ n1 .
3. Schritt: Ist ε > 0 (und ε beliebig klein), so sollte es stets ein n0 = n0 (ε) ∈ N geben, mit

|an − a| < ε für alle n ≥ n0

Diese Überlegungen führen uns zu folgender

Definition 2.7.
(1) Die Folge (an ) heißt konvergent gegen a, wenn gilt:

∀ε > 0 ∃n0 ∈ N ∀n ≥ n0 |an − a| < ε

In diesem Fall heißt a Grenzwert (Limes) von (an ).


Bezeichnung: a = lim an oder: an → a für n → ∞.
n→∞

20
2.2. Konvergenz

(2) Eine Folge (an ) heißt konvergent, wenn es ein a ∈ R gibt derart, dass (an ) gegen a konvergiert.
(3) Eine Folge (an ) heißt divergent, wenn sie nicht konvergent ist.

Definition 2.8. Für x0 ∈ R, ε > 0 definiere:



Uε (x0 ) := x ∈ R : |x − x0 | < ε = (x0 − ε, x0 + ε)

als ε-Umgebung von x0 .

Somit gilt für eine Folge (an ) und a ∈ R:

an → a für n → ∞ ⇔ ∀ε > 0 ∃n0 ∈ N ∀n ≥ n0 an ∈ Uε (a)

Satz 2.9. (an ) sei eine konvergente Folge. Dann gilt:


(1) Der Grenzwert von (an ) ist eindeutig bestimmt.
(2) (an ) ist beschränkt.

Beweis:

(1) Annahme: an → a und an → b, a 6= b Wähle ε > 0 mit Uε (a) ∩ Uε (b) = ∅.

Dann wegen an → a : an ∈ Uε (a) für fast alle n ∈ N.


d.h. an 6∈ Uε (a) für höchstens endlich viele n ∈ N.
Insbesondere an ∈ Uε (b) für höchstens endlich viele n ∈ N.

(2) Nach Definition gilt insbesondere für ε := 1:

∃n0 ∈ N ∀n ≥ n0 |an − a| < 1

Daher gilt:

∀n ≥ n0 |an | = (an − a) + a ≤ |an − a| + |a| < 1 + |a|



Setze jetzt c := max |a1 |, |a2 |, . . . , |an0 |, |a| + 1

Dann offenbar ∀n ∈ N |an | ≤ c.

Beispiel 2.10.

• Sei c ∈ R, ∀n ∈ N an := c. Dann heißt (an ) konstante Folge.

∀n ∈ N |an − c| = 0

Daher natürlich an → c für n → ∞.


1
• ∀n ∈ N an := n.

Behauptung: (an ) → 0.

21
2. Folgen, Konvergenz

Beweis: Sei ε > 0 (beliebig). Wähle n0 ∈ N mit n0 > 1ε . Dann ist 1


n0 < ε.

Also
1 1
∀n ≥ n0 |an − 0| = ≤ < ε
n n0

• ∀a ∈ N an := n

(an ) ist nicht konvergent, da sie nicht beschränkt ist. (vgl. obiger Satz)

• ∀n ∈ N an := (−1)n

Behauptung: (an ) ist divergent.

Beweis: Annahme: (an ) ist konvergent, also exisitert a ∈ R mit an → a. Dann gilt: a 6= 1 oder
a 6= −1. Etwa a 6= 1:

Wähle ε > 0 mit 1 6∈ Uε (a). Dann wegen an → a:

an ∈ Uε (a) für fast alle n ∈ N.

⇒ an 6∈ Uε (a) für höchstens endlich viele n ∈ N

Insbesondere: an = 1 für höchstens endlich viele n ∈ N 


√ √
• ∀n ∈ N an := n + 1 − n

Dann
√ √  √ √ 
n+1− n n+1+ n 1 1 1
∀n ∈ N an = √ √ =√ √ ≤ √ ≤√
n+1+ n n+1+ n 2 n n

Behauptung: an → 0
1
Sei ε > 0. Wähle n0 ∈ N mit n0 > ε2 .

1 √1
Dann n0 < ε2 , also n0 <ε

Daher ∀n ≥ n0 |an − 0| = an ≤ √1 ≤ √1 < ε.


n n0

n2
• ∀n ∈ N an := n2 +1

Dann:

n2 n2 + 1 1 1 1
∀n ∈ N |an − 1| = 2
− 2
= 2 ≤ 2 ≤
n +1 n +1 n +1 n n

1
Sei ε > 0; wie oben: wähle n0 ∈ N mit n0 > ε etc. (vgl. oben)

• ∀n ∈ N an := √1
n

Behauptung: an → 0

22
2.2. Konvergenz

Beweis:
Idee: |an − 0| = √1 <ε ⇔ n> 1
n ε2 .
1
Sei ε > 0. Wir finden ein n0 ∈ N mit n0 > ε2 .
1 √1
Für jedes n ≥ n0 gilt dann n > ε2 , also |an − 0| = n
< ε. 
• Sei x ∈ R.
Zu jedem n ∈ N finden wir ein rn ∈ Q mit rn ∈ x − n1 , x + 1 1

n , d.h. mit |x − rn | < n.

Wir erhalten rn → x für n → ∞.


Fazit: Jedes x ∈ R ist Grenzwert einer Folge rationaler Zahlen.

Bemerkung 2.11. Sei p ∈ Z fest. Für Folgen der Form (an )∞ n=p definieren wir Konvergenz, Be-
schränktheit, . . . analog zu Folgen der Form (an )n∈N . Im folgenden formulieren wir Definitionen, Sätze
etc. nur für Folgen der Form (an )n∈N . Sie gelten sinngemäß für Folgen der Form (an )∞
n=p .

Satz 2.12. (an ), (bn ), (cn ) seien Folgen in R und sei a ∈ R


(1) an → a ⇔ |an − a| → 0
(2) Ist (αn ) eine weitere Folge mit αn → 0 für n → ∞ und |an − a| ≤ αn für fast alle n ∈ N, so gilt
an → a für n → ∞
(3) Gilt an → a, so gilt |an | → |a|
(Die Umkehrung ist im Allgemeinen falsch.)
(4) Es gelte an → a, bn → b. Dann gilt:
(i) an + bn → a + b
(ii) α · an → α · a (wobei α ∈ R beliebig)
(iii) an · bn → a · b
 ∞
an
(iv) Sei b 6= 0. Dann existiert ein m ∈ N mit ∀n ∈ N ∀n ≥ m bn 6= 0 und die Folge bn
n=m
konvergiert gegen ab .
(5) Gilt an → a und bn → b und gilt an ≤ bn für fast alle n ∈ N, so gilt auch a ≤ b.
(6) Gilt an → a und cn → a und an ≤ bn ≤ cn für fast alle n ∈ N, dann gilt bn → a.

Beweis:
zu (1): Ergibt sich aus der Definition des Konvergenzbegriffes.
zu (2): Sei ε > 0. Da αn → 0, existiert ein n1 ∈ N mit ∀n ≥ n1 |αn | < ε
Ferner existiert ein n2 ∈ N mit ∀n ≥ n2 |an − a| ≤ αn
Wähle n0 := max{n1 , n2 }
Dann ∀n ≥ n0 |an − a| ≤ αn = |αn | < ε
Also an → a
zu (3): ∀n ∈ N : |an | − |a| ≤ |an − a| =: αn
Wegen an → a folgt aus (1): αn → 0
Nach (2) also |an | → |a|

23
2. Folgen, Konvergenz

ε
zu (4): zu (i) Sei ε > 0. Wegen an → a existiert ein n1 ∈ N mit ∀n ≥ n1 |an − a| < 2

Wegen bn → b existiert n2 ∈ N mit ∀n ≥ n2 |bn − b| < 2ε .


Wähle n0 := max{n1 , n2 } Dann:
∀n ≥ n0 (an + bn ) − (a + b) = (an − a) + (bn − b) ≤ |an − a| + |bn − b| < ε

zu (ii) Beweis selbst


zu (iii)
∀n ∈ N |an bn − ab| = (an bn − an b) + (an b − ab) ≤ |an bn − an b| + |an b − ab|
= |an | · |bn − b| + |b| · |an − a|

Außerdem ist (an ) beschränkt, da konvergent. Also ∃c ≥ 0 ∀n ∈ N |an | ≤ c.


Daher
∀n ∈ N |an bn − ab| ≤ c|bn − b| + |b| · |an − a| =: αn

Aus (ii) und (1) folgt


c|bn − b| → 0 und |b| · |an − a| → 0

Nach (i) also αn → 0. Nach (2) also an bn → ab


|b|
zu (iv) Wegen b 6= 0 gilt ε := 2 > 0.
Wegen bn → b gilt |bn | → |b|, daher existiert ein m ∈ N mit ∀n ≥ m |bn | − |b| < ε
|b|
⇒ ∀n ≥ m |bn | > |b| − ε = 2 >0
1 1 |bn −b| 2
Ferner ∀n ≥ m ist bn − b = |bn |·|b| ≤ |b|2 · |bn − b| =: αn

Dann αn → 0, da bn → b (ii)
 
Nach (2) also b1n → 1b


an 1
Nach (iii): bn = an · bn → a· 1b = a
b

zu (5): Annahme: a > b


a−b
Setze ε := 2 > 0. Offenbar gilt
∀x ∈ Uε (b) ∀y ∈ Uε (a) : x<y (2-i)
Wegen an → a und bn → b existiert ein n0 ∈ N so dass
∀n ∈ N, n ≥ n0 : an ∈ Uε (a) ∧ bn ∈ Uε (b)
Wegen (2-i) gilt also
∀n ∈ N, n ≥ n0 : bn < an

zu (6): Sei ε > 0. Dann existiert ein n0 ∈ N mit


∀n ≥ n0 |an − a| < ε ∧ |cn − a| < ε ∧ an ≤ bn ≤ cn
⇒ a n > a − ε ∧ cn < a + ε
⇒ ∀n ≥ n0 a − ε < an ≤ bn ≤ cn < a + ε
Das heißt: ∀n ≥ n0 − ε < bn − a < ε
also ∀n ≥ n0 |bn − a| < ε. Daher bn → a.


24
2.3. Monotonie

Beispiel 2.13.
1
(1) Sei p ∈ N und ∀n ∈ N an := np

Behauptung: an → 0

Beweis:
1
1. Möglichkeit: Setze bn := n, dann 0 ≤ an ≤ bn wegen np ≥ n.

Daher an → 0
1
2. Möglichkeit: Setze cn := n → 0. Mit vollständiger Induktion über p folgt mit (4) (iii): an → 0

(2)
3 6
5n2 + 3n + 6 5+ n + n2 n→∞ 5
∀n ∈ N an := = 4 1 −−−−→
7n2 + 4n + 1 7+ n + n2
7

2.3. Monotonie

monoton wachsend
Definition 2.14. Die Folge (an ) heißt , wenn
monoton fallend

∀n ∈ N an ≤ an+1 bzw. an ≥ an+1

streng monoton wachsend <


Die Folge (an ) heißt , wenn obiges mit strengem gilt.
streng monoton fallend >

wachsend oben
Satz 2.15 (Monotonie-Kriterium). Ist (an ) monoton und nach beschränkt,
fallend unten
dann ist (an ) konvergent.

Beweis: Setze a := sup an . Dies existiert, da (an ) nach oben beschränkt ist. Sei ε > 0. Dann ist a − ε
keine obere Schranke von (an ).

Das heißt: ∃n0 ∈ N an0 > a − ε

Somit ∀n ≥ n0 an ≥ an0 > a − ε (wegen Monotonie)

an ≤ a < a + ε (wegen Supremum)

Also ∀n ≥ n0 |an − a| < ε

2. Teil geht analog.

Eine anschauliche Darstellung des Beweises findet man in Abbildung 2.1. 

Beispiel 2.16. Definiere (an ) rekursiv :



3

3
a1 := 6, ∀n ∈ N an+1 := 6 + an

Behauptung: ∀n ∈ N an < 2.

25
2. Folgen, Konvergenz

Abbildung 2.1.: Zum Beweis des Monotonie-Kriteriums


3
Beweis: a1 = 6<2
Gelte an < 2 für ein n ∈ N.
√ √
Dann an+1 = 3 6 + an < 3 6 + 2 = 2 (wegen an < 2).
Behauptung: (an ) monoton wachsend.
Beweis: a1 ≤ a2 . Gelte an ≤ an+1 für ein n ∈ N.
p √
an+2 = 3 6 + an+1 ≥ 3 6 + an = an+1

Also (an ) konvergent. 

Beispiel 2.17. Sei p ∈ N fest, (an ) eine Folge, an → a für n → ∞.


Ferner gelte ∀n ∈ N an ≥ 0. Also gilt auch: a ≥ 0. (s.o.)
√ √
Behauptung: p an → p a.
Beweis:
1. Fall: a = 0

Zu zeigen: p an → 0.
Sei ε > 0. Wähle n0 ∈ N mit ∀n ≥ n0 an < εp . (geht wegen an → 0, ∀n ∈ N an ≥ 0)
√ √
⇒ ∀n ≥ n0 p an − 0 = p an < ε

2. Fall: a > 0
√ p √ p
∀n ∈ N |an − a| = p an − ( p a)
Nach Verallgemeinerung der 3. binom. Formel:
p−1
√ √  X √ √
= p
an − a ·
p
( p an )p−1−k ( p a)k
k=0

26
2.3. Monotonie

√ √ √ p−1−(p−1) √ p−1
≥ p
an −
a · ( p an )
p
· pa
| {z }
√ p−1
=( p a) =:c

√ √
⇒ ∀n ∈ N : p
an − p a ≤ 1c |an − a|
√ √
⇒ p an → p a

Beispiel 2.18. Sei x ∈ R fest und ∀n ∈ N an := xn . Dann gilt:

1. Fall: x = 0 ⇒ an → 0

2. Fall: x = 1 ⇒ an → 1

3. Fall: x = −1 ⇒ (an ) = (−1)n divergent.




4. Fall: |x| > 1 ⇒ δ := |x| − 1 > 0 und für jedes n ∈ N gilt:

Bernoullische
Ungleichung
n n n
|an | = |x | = |x| = (1 + δ) ≥ 1+n·δ >n·δ

Weil δ > 0 ⇒ (an ) nicht beschränkt ⇒ (an ) divergent.


1
5. Fall: 0 < |x| < 1 ⇒ y := |x| − 1 > 0 und für jedes n ∈ N gilt:

Bernoullische
 n Ungleichung
1 1 n
= = (1 + y) ≥ 1+n·y >n·y
|an | |x|
1 1
⇒ ∀n ∈ N : |an | < y · n ⇒ an → 0

n
xk .
P
Beispiel 2.19. Sei x ∈ R und ∀n ∈ N sn :=
k=0

1
Behauptung: (sn ) konvergiert ⇔ |x| < 1; dann: lim sn = 1−x .
n→∞

Beweis:

1. Fall: x = 1 ⇒ sn = n + 1 ⇒ (sn ) divergiert.

2. Fall: x 6= 1
1−xn+1
Mit vollständiger Induktion zeigt man: sn = 1−x für jedes n ∈ N.

xn+1 konvergiert
  
⇒ (sn ) konvergiert ⇔
 
⇒ (sn ) konvergiert ⇔ |x| < 1
1
außerdem: |x| < 1 ⇒ xn+1 → 0 ⇒ sn → 1−x


Beispiel 2.20. Behauptung: n
n → 1 für n → ∞.

27
2. Folgen, Konvergenz

√ √ √
Beweis: Es gilt: ∀n ∈ N n n ≥ 1 (da n n ≥ n 1).

Sei ∀n ∈ N an := n n − 1 ≥ 0. Zu zeigen: an → 0

Es gilt:
n  
√ n(n − 1) 2
 
n X n n−k k n
∀n ∈ N n= n
n = (1 + an )n = 1 · an ≥ · a2n = · an
k 2 2
k=0

r
2 2
⇒ ∀n ≥ 2 a2n ≤ =⇒ ∀n ≥ 2 0 ≤ an ≤
n−1 n−1
⇒ an → 0 für n → ∞.



Beispiel 2.21. Sei c > 0 fest. Behauptung: n
c → 1 für n → ∞

Beweis:

1. Fall: c ≥ 1:

∃m ∈ N c ≤ m also ∀n ≥ m 1 ≤ c ≤ n
√ √
⇒ ∀n ≥ m 1≤ n
c≤ n
n
|{z}
→1

Also n
c → 1. (s.o.)

2. Fall: 0 < c < 1:


q
1 1
Dann c >1 ⇒ n
c →1

Durch invertieren folgt: n
c→1

n
1 n 1
 P
Beispiel 2.22. Für jedes n ∈ N sei an := 1 + n und bn := k! .
k=0

Behauptung: (an ) und (bn ) konvergieren und lim an = lim bn .


n→∞ n→∞

Beweis:

(i) Für jedes n ∈ N gilt:

 n Bernoullische
1 Ungleichung 1
an = 1 + ≥ 1+n· =2
n n

(ii) Für jedes n ∈ N gilt:


n n
X 1 1 X 1
bn+1 = + > = bn
k! (n + 1)! k!
k=0 k=0

Also: (bn ) ist streng monoton wachsend.

28
2.3. Monotonie

(iii) Für jedes n ∈ N gilt:


n−1  k
1 1 1 X 1
bn = 1 + |{z}
1 + + +··· + < 1+
2 2·3 |2 · 3{z· · · n} 2
= 210
|{z} |{z} k=0
= 211 ≤ 212 ≤ 1
2n−1

Für jedes n ∈ N ist


n−1 k n  n 
X 1 − 12

1 1
= = 2 · 1 − ≤2·1=2
k=0
2 1 − 12 2

Also: bn ≤ 1 + 2 = 3 für alle n ∈ N.


(iv) Nach dem Monotonie-Kriterium konvergiert bn wegen (ii) und (iii).
Setze b := lim bn .
n→∞

(v) Wir zeigen mit der Bernoullischen Ungleichung, dass für alle n ∈ N gilt: an+1 > an .
 n+1  n
1 1
an+1 > an ⇔ 1+ > 1+
n+1 n
 n+1  n
n+2 n+1
⇔ >
n+1 n
n
(n + 2) · n

n+1
⇔ >
(n + 1)2 n+2
 n
1 n+1
⇔ 1− 2
>
(n + 1) n+2
 n
1 1
⇔ 1− >1−
(n + 1)2 n+2
| {z }
bleibt zu zeigen

Nach der Bernoullischen Ungleichung:


 n
1 n
1− ≥1−
(n + 1)2 (1 + n)2
Bleibt noch zu zeigen:
n 1
1− >1−
(1 + n)2 n+2
d.h.
n 1
< ⇔ (n + 1)2 > n · (n + 2) ⇔ n2 + 2 · n + 1 > n2 + 2 · n
(1 + n)2 n+2
Dies ist aber wahr.
(vi) Wir wollen zeigen: Für alle n ≥ 2 gilt: an < bn .
 n n  
1 X n 1
an = 1+ = ·
n k nk
k=0
n
X 1 n n−1 n−k+1
=1+1+ · · ··· < bn
k! |{z}
n | {zn } | {z n }
k=2
<1 <1 <1

29
2. Folgen, Konvergenz

(vii) Aus (vi) folgt: an < 3 für alle n ∈ N.


Nach dem Monotoniekriterium konvergiert dann (an ); sezte: a := lim an .
n→∞

Wegen (vi) folgt: a ≤ b.


(viii) Sei j ∈ N, j ≥ 2 fest. Für n ≥ j gilt:
j
k−1
   
s.o. X 1 1
an ≥ 1 + 1 + ·1· 1− ··· 1 − =: cn
k! n n
k=2 | {z }
→1 (n→∞)
| {z }
→bj

Also:

an ≥ cn , cn → bj ⇒ a ≥ bj

(vii)
j beliebig und bj → b ⇒ a ≥ b ⇒ a = b.


1 n

Definition 2.23. e := lim 1 + n heißt Eulersche Zahl.
n→∞

Nach vorigem Beispiel gilt:


n
X 1
2≤e≤3 und lim =e
n→∞ k!
k=0

2.4. Häufungswert

Definition 2.24. Sei (an ) eine reelle Folge und (n1 , n2 , n3 , . . .) eine Folge in N mit n1 < n2 < n3 . . .
Setze ∀k ∈ N bk := ank
Die Folge (bk ) heißt dann Teilfolge von (an ).

Beispiel 2.25.
(1) (a2 , a4 , a6 , . . .) ist Teilfolge von (an )
(Setze nk := 2k)
(2) (a1 , a4 , a9 , a16 . . .) ist Teilfolge von (an )
(Setze nk := k 2 )
(3) (a4 , a2 , a8 , a6 , a10 , . . .) ist keine Teilfolge von (an ).
(
2 · (k − 1) für k gerade
Denn: nk := ist nicht streng monoton wachsend.
2 · (k + 1) für k ungerade

30
2.4. Häufungswert

Definition 2.26. Sei (an ) eine reelle Folge und a ∈ R.


a heißt Häufungswert von (an ), wenn eine Teilfolge (ank ) von (an ) existiert mit ank → a für k → ∞.
HW(an ) := {a ∈ R : a ist Häufungswert von (an )}

Beispiel 2.27.
(1) ∀n ∈ N an := (−1)n

∀n ∈ N a2n = 1 → 1
(a2n ) = (ank ) mit nk := 2k ist Teilfolge von (an ).
⇒ 1 ist Häufungswert von (an )

∀n ∈ N a2n−1 = −1 → −1
(a2n−1 ) = (ank ) mit nk := 2k − 1 ist Teilfolge von (an ).
⇒ −1 ist Häufungswert von (an )

Behauptung: Es gibt keinen weiteren Häufungswert von (an ).


Beweis: Sei a ∈ R, a 6= 1, a 6= −1. Annahme: a ist Häufungswert.
Also existiert eine Teilfolge (ank ) mit ank → a für k → ∞.
Wähle ε > 0 so, dass 1 6∈ Uε (a), −1 6∈ Uε (a)
Wegen ank → a für k → ∞ existiert ein k0 ∈ N mit ∀k ≥ k0 ank ∈ Uε (a)
Aber: ∀k ∈ N ank = 1 oder ank = −1 
(2) Q ist abzählbar. Also existiert eine Folge (an ) in Q mit Q = {a1 , a2 , . . .}
Behauptung: Jede reelle Zahl ist Häufungswert von (an ).
Beweis: Sei a ∈ R. Es existiert ein q1 ∈ Q mit a < q1 < a + 1 (sogar unendlich viele).

Es existiert ein n1 ∈ N mit q1 = an1 .


Es existiert ein q2 ∈ Q mit a < q2 < min a + 21 , an1 .


Es existiert ein n2 ∈ N mit q2 = an2 und n2 > n1 .


Es existiert ein q3 ∈ Q mit a < q3 < min a + 13 , an2 .


Es existiert ein n3 ∈ N mit q3 = an3 und n3 > n2 .

Induktiv fortsetzen: Es existiert eine Teilfolge (ank ) mit a < ank < min a + k1 , ank+1

für alle
k ∈ N, k ≥ 2
Also (ank ) → a für k → ∞
⇒ a ist Häufungswert. 
(3) ∀n ∈ N an := n
Für jede Teilfolge (ank ) gilt:
(ank ) = (n1 , n2 , n3 , . . .) unbeschränkt
⇒ Jede Teilfolge ist divergent. ⇒ Es existieren keine Häufungswerte.

Erinnerung: an → a ⇐⇒ ∀ε > 0 an ∈ Uε (a) für fast alle n ∈ N.

31
2. Folgen, Konvergenz

Satz 2.28. Sei (an ) Folge und a ∈ R. Dann gilt:

a ∈ HW(an ) ⇔ ∀ε > 0 an ∈ Uε (a)

für unendlich viele n ∈ N.

Beweis:
⇒“ Wir finden eine Teilfolge (ank ) von (an ) mit ank → α (k → ∞).

Sei ε > 0. Dann existiert ein k0 ∈ N mit
ank ∈ Uε (α) für alle k ≥ k0
d.h.
an ∈ Uε (α) für alle n ∈ {nk0 , nk0 +1 , . . .} =: M
M ist unendlich.
⇐“ Zu ε = 1 finden wir n1 ∈ N mit α − 1 < an1 < α + 1.

Zu ε = 12 finden wir n2 ∈ N mit α − 12 < an2 < α + 12 .
..
.
Wir erhalten eine Teilfolge (ank ) von (an ) mit
1
ank − α < für alle k ∈ N
k
k→∞
⇒ ank −−−−→ α ⇒ α ∈ HW(an ).


Satz 2.29. Ist (an ) konvergente Folge und (ank ) einen Teilfolge
o von (an ), so ist auch (ank ) konvergent
und lim ank = lim an . Insbesondere ist HW(an ) = lim an .
k→∞ n→∞ n→∞

Beweis: Sei a := lim an . Sei ε > 0. Wegen an → a existiert ein n0 ∈ N mit ∀n ≥ n0 |an − a| <
ε.
Da n1 < n2 < . . . existiert ein k0 ∈ N mit nk0 ≥ n0 . Dann gilt ∀k ≥ k0 : nk > nk0 ≥
n0
⇒ ∀k ≥ k0 |an − a| < ε, also konvergiert ank → a. 

Lemma 2.30. Jede Folge (an ) hat eine monotone Teilfolge.

Beweis: m ∈ N heiße niedrig“ :⇔ ∀n ≥ m an ≥ am .



1. Fall Es gibt höchstens endlich viele (möglicherweise gar keine) niedrige Indizes.
Dann finden wir ein m ∈ N mit m, m + 1, . . . sind alle nicht niedrig.
Setze n1 := m.
n1 nicht niedrig ⇒ es existiert ein n2 ∈ N mit n2 > n1 und an2 < an1 .
n2 nicht niedrig ⇒ es existiert ein n3 ∈ N mit n3 > n2 und an3 < an2 .
..
.
Wir erhalten eine Teilfolge (ank ), die monoton fällt.

32
2.4. Häufungswert

2. Fall Es gibt unendlich viele niedrige Indizes. n1 < n2 < n3 < . . .. Da für alle k ∈ N der Index nk
niedrig ist, gilt ∀n ≥ nk : an ≥ ank . ⇒ (ank ) monoton wachsend.


Satz 2.31 (Satz von Bolzano–Weierstrass). Jede beschränkte Folge hat mindestens einen Häu-
fungswert.

Beweis: Nach obigem Lemma enthält (an ) eine monotone Teilfolge (ank ). Da (an ) beschränkt ist, ist
auch (ank ) (nach oben und unten) beschränkt. Nach dem Monotonie-Kriterium ist (ank ) konvergent.
Dann ist lim (ank ) Häufungswert von (an ). 
k→∞

Satz 2.32. (an ) sei beschränkt (⇒ HW(an ) 6= ∅). Dann gilt:


(1) HW(an ) ist beschränkt.
(2) sup HW(an ), inf HW(an ) sind selbst wieder Häufungswerte. Also existieren max HW(an ) und
min HW(an ).

Beweis:
zu (1): Wir finden ein c ≥ 0 mit |an | ≤ c für alle n ∈ N.
⇒ Für jede Teilfolge (ank ) gilt |ank | ≤ c für alle k ∈ N.
⇒ Für jedes α ∈ HW(an ) gilt |α| ≤ c.
ε
zu (2): Sei s := sup HW(an ) und ε > 0. Wir finden α ∈ HW(an ) mit s − 2 < α ≤ s.
⇒ Uε/2 (α) ⊂ Uε (s).
In Uε/2 (α) liegen unendlich viele der Folgenglieder an .
⇒ in Uε (s) liegen unendlich viele an .
⇒ s ∈ HW(an ).


Definition 2.33. (an ) sei beschränkte Folge.

lim sup an := lim an := max HW(an ) heißt limes superior oder oberer Limes von (an ).
n→∞ n→∞

lim inf an := lim an := min HW(an ) heißt limes inferior oder unterer Limes von (an ).
n→∞ n→∞

Klar: Wenn (an ) beschränkt ist, dann gilt:

∀a ∈ HW(an ) lim inf an ≤ a ≤ lim sup an


n→∞ n→∞

Beachte: Aus obigem Satz folgt: Ist (an ) konvergent, dann gilt:

lim sup an = lim inf an = lim an .


n→∞ n→∞ n→∞

Beispiel 2.34. ∀n ∈ N an = (−1)n . Schon gezeigt: HW(an ) = {1, −1}. Also:

lim sup an = 1, lim inf an = −1


n→∞ n→∞

33
2. Folgen, Konvergenz

n
Beispiel 2.35. ∀n ∈ N an = (−1)n 1 + n1 .
1 2n

Dann gilt ∀n ∈ N a2n = 1 + 2n . (a2n ) ist Teilfolge von (an ) und lim a2n = e. Ferner
n→∞

 2n+1
1
∀n ∈ N a2n+1 =− 1+
2n + 1

(a2n+1 ) ist Teilfolge von (an ) und lim a2n+1 = −e. Also (!) ist HW(an ) = {e, −e}. d.h.
n→∞

lim sup an = e, lim inf an = −e.


n→∞ n→∞

Satz 2.36. (an ) sei beschränkt. Dann gilt:

∀α ≥ 0 lim sup(α · an ) = α · lim sup an


n→∞ n→∞

∀α ≥ 0 lim inf (α · an ) = α · lim inf an


n→∞ n→∞

lim sup(−an ) = − lim inf an


n→∞ n→∞

2.5. Cauchy-Kriterium

Definition 2.37. Eine Folge (an ) heißt eine Cauchy-Folge, wenn gilt:

∀ε > 0 ∃n0 ∈ N ∀n, m ≥ n0 |an − am | < ε

Satz 2.38 (Cauchy-Kriterium). (an ) konvergent ⇔ (an ) Cauchy-Folge.

Beweis:
⇒“ Sei ε > 0. Sei a := lim an .
” n→∞
ε
Da (an ) konvergent ist, existiert n0 ∈ N mit ∀n ≥ n0 |an − a| < 2

⇒ ∀n, m ≥ n0 |an − am | = (an − a) + (a − am ) ≤ |an − a| + |a − am | < ε

⇐“ Zeige zunächst (an ) (vorgegebene Cauchy-Folge) ist beschränkt.



Zu ε := 1 existiert ein n0 ∈ N mit ∀n, m ≥ n0 |an − am | < 1

⇒ ∀n ≥ n0 |an | = (an − an0 ) + an0 ≤ |an − an0 | + |an0 | ≤ 1 + |an0 |



⇒ ∀n ∈ N |an | ≤ max |a1 |, |a2 |, . . . , |an0 |, 1 + |an0 |

Nach Bolzano-Weierstraß hat (an ) also einen Häufungswert, d.h. es existiert eine konvergente
Teilfolge (ank ).
Sei a := lim ank . Zu zeigen: a = lim an .
n→∞ n→∞

34
2.5. Cauchy-Kriterium

Sei nun ε > 0. Dann existiert ein n0 ∈ N mit


ε
∀n, m ≥ n0 |an − am | <
2
Da ank → a existiert k0 ∈ N mit nk0 ≥ n0
ε
∀k ≥ k0 |ank − a| <
2
⇒ ∀n ≥ n0 |an − a| = (an − ank0 ) + (ank0 − a) ≤ an − ank0 + ank0 − a < ε


Beispiel 2.39. (an ) rekursiv definiert durch:
1
a0 := 1, an+1 :=
1 + an
Dann:
∀n ∈ N an > 0, an < 1
(Beweis per Induktion)
1 1
⇒ ∀n ∈ N0 an+1 = ≥
1 + an 2
1
⇒ ∀n ∈ N an ≥
2
Daher:
1 1
∀n, k ∈ N, n ≥ 2 |an+k − an | = −
1 + an+k−1 1 + an−1
|an+k−1 − an−1 |
=
(1 + an+k−1 )(1 + an−1 )
 n−1
4 4
≤· |an+k−1 − an−1 | ≤ . . . ≤ an+k−(n−1) − an−(n−1)
9 9
 n−1  n−1
4  4
≤ |ak+1 | + |a1 | ≤ 2
9 9
 n−1
4
⇒ ∀n, k ∈ N |an+k − an | ≤ 2 ·
9
n0 −1
⇒ (an ) ist Cauchy-Folge: Sei ε > 0 wähle n0 ∈ N mit 2 · 49 < ε.
Seien n, m ≥ n0 . o.B.d.A. sei m > n. Setze k := m − n.
 n−1  n0 −1
4 4
⇒ |am − an | = an+k − an ≤ 2 · ≤ 2· < ε
9 9
⇒ (an ) ist Cauchy-Folge. ⇒ (an ) ist konvergent.
1
Sei a := lim an . Wegen an+1 = 1+an und an → a und an+1 → a folgt:
n→∞

1
a=
1+a
r √
1 1 1 5
⇒ a2 + a − 1 = 0 ⇒ a = − ± +1 = − ±
2 4 2 2
1 1
Wegen an ≥ 2 (s.o.) gilt auch a ≥ 2 . Also +.
1 √ 
⇒ a= 5−1
2

35
2. Folgen, Konvergenz

36
3. Reihen
n
P
Definition 3.1. Sei (an ) eine Folge in R und sn := ak . Die Folge (sn ) heißt unendliche Reihe und
k=1
wird mit

X
ak
k=1

bezeichnet.
sn heißt n-te Teilsumme oder Partialsumme.
P∞
ak heißt konvergent :⇔ (sn ) konvergent. Analog: divergent.
k=1

P ∞
P
Ist ak konvergent, so heißt lim sn der Reihenwert oder Reihensumme und wird ebenfalls mit ak
k=1 n→∞ k=1
bezeichnet.

P
Das Symbol ak hat also im Konvergenzfall zwei Bedeutungen.
k=1

Bemerkung 3.2.
(1) Ist p ∈ Z und (an )∞
n=p eine Folge, so definiert man entsprechend

n
X
∀n ≥ p sn := ap + ap+1 + · · · + an = ak
k=p

Die kommenden Sätze und Definitionen werden nur für den Fall p = 1 formuliert, gelten aber
entsprechend auch für andere p ∈ Z.
P ∞
P
Man schreibt für p = 1 auch oft ak statt ak , wenn keine Verwirrungen zu befürchten sind.
k=1

(2)

X ∞
X
ak = aj = · · ·
k=1 j=1

Beispiel 3.3.
(1) geometrische Reihe

X
xk
k=0

Also ∀n ∈ N sn = 1 + x + x2 + · · · + xn .

37
3. Reihen

Wie bereits gezeigt (2.19): (sn ) konvergiert ⇔ |x| < 1. In diesem Fall:
1
lim sn =
n→∞ 1−x

xk ist konvergent ⇔ |x| < 1, und in diesem Fall:
P
Also
k=0


X 1
xk =
1−x
k=0


1 1 1 1
P
(2) k(k+1) , d.h. ak = k(k+1) = k − k+1 .
k=1

d.h.
     
1 1 1 1 1 1
∀n ∈ N sn = a1 + a2 + · · · + an = 1− + − + ··· + − =1−
2 2 3 n n+1 n+1
n→∞
−−−−→ 1
∞ ∞
1 1
P P
Also k(k+1) ist konvergent und k(k+1) = 1.
k=1 k=1

1 1 1
P
(3) k! , also ∀n ∈ N sn = 1 + 1 + 2! + ··· + n! .
k=0

Wie bereits gesehen: sn → e für n → ∞.


∞ ∞
1 1
P P
Also: k! ist konvergent, und k! = e.
k=0 k=0

(4) harmonische Reihe



X 1
k
k=1

1 1
Also ∀n ∈ N sn = 1 + 2 + 3 + · · · + n1 .
1 1 1 1 1
⇒ ∀n ∈ N s2n = sn + + +··· + ≥ sn + n · = sn +
n+1 n+2 2n
|{z} 2n 2
| {z } | {z }
1 1 1
≥ 2n ≥ 2n ≥ 2n
| {z }
n Summanden

1
Also ist (sn ) keine Cauchy-Folge, denn sonst gibt es zu ε = 2 ein n0 ∈ N mit

∀n, m ≥ n0 |sn − sm | < ε


1
Wähle n ≥ n0 beliebig und m := 2n, denn |s2n − sn | < ε = 2

1
P
Nach Cauchy-Kriterium ist (sn ) divergent, d.h. k divergent.
k=1

Satz 3.4.
(1) Monotoniekriterium: Es gelte ∀k ∈ N ak ≥ 0

P
Ferner sei (sn ) nach oben beschränkt. Dann ist ak konvergent.
k=1

38
(2) Cauchy-Kriterium für Reihen:

X m
X
ak ist konvergent ⇔ ∀ε > 0 ∃n0 ∈ N ∀n, m ≥ n0 m > n ak < ε
k=1 k=n


P ∞
P
(3) ak sei konvergent, dann ist für jedes ν ∈ N die folgende Reihe ak konvergent, und für
k=1 k=ν+1

P
rν := ak gilt lim rν = 0.
k=ν+1 ν→∞


P
(4) Ist ak konvergent, so gilt lim ak = 0.
k=1 k→∞
Achtung: Die Umkehrung ist im Allgemeinen falsch. Beispiel: harmonische Reihe.

Beweis:

(1) Da ∀k ∈ N ak ≥ 0 ist (sn ) monoton wachsend. (sn+1 = sn +an+1 ) Ferner (sn ) nach oben beschränkt.
Also nach dem Monotoniekriterium für Folgen gilt: (sn ) ist konvergent.
m
P
(2) Für m > n gilt sm − sn = ak
k=n+1

⇒ Behauptung folgt aus dem Cauchy-Kriterium für Folgen.


m
P
(3) Sei ν ∈ N fest. Setze ∀m ≥ ν + 1 σm := ak .
k=ν+1

Dann ∀m ≥ ν + 1 sm = a1 + · · · + aν + aν+1 + · · · + am = sν + σm .

Lasse hier m → ∞ gehen. Und mit s := lim sm gilt also σm = sm − sν → s − sν für m → ∞.


m→∞


P ∞
P
D.h. ak ist konvergent und ak = s − sν .
k=ν+1 k=ν+1

Also ∀ν ∈ N rν = s − sν → 0 für ν → ∞.

(4)

∀n ∈ N sn+1 − sn = (a1 + · · · + an+1 ) − (a1 + · · · + an ) = an+1



P
Wegen lim sn+1 = lim sn = ak =: s. Daher an+1 = sn+1 − sn → s − s = 0 für n → ∞. Also
n→∞ n→∞ k=0
an → 0 für n → ∞.

Beispiel 3.5.

(1) ak := (−1)k für alle n ∈ N. Dann ak 6→ 0 für k → ∞. Also (−1)k divergent.
P
k=1


1 1
P
(2) k divergent, obwohl k → 0 für k → ∞.
k=1

39
3. Reihen

P P
Satz 3.6. ak , bk seien konvergent, und seien α, β ∈ R. Dann konvergiert auch
X
(αak + βbk )

und
X X X
(αak + βbk ) = α ak + β bk

n
P n
P P P
Beweis: ∀n ∈ N sn := ak , σn := bk . Da ak , bk konvergent: (sn ), (σn ) auch konver-
k=1 k=1
gent.
Und:

αsn + βσn → α lim sn +β lim σn


| {z } n→∞ n→∞
n
P
| P{z } | P{z }
= (αak +βbk ) = ak = bk
k=1


Achtung: Eine Gleichung der Form
X X X
(αak + βbk ) = α ak + β bk
P P
macht nur Sinn (als Gleichung zwischen Grenzwerten), wenn ak , bk konvergie-
ren.
P P
Definition 3.7. ak heißt absolut konvergent :⇔ |ak | konvergent.

P P
Satz 3.8. Ist ak absolut konvergent, so ist ak konvergent. (Die Umkehrung ist falsch).

Beweis:
m
X m
X
∀m > n ak = |an+1 + · · · + am | ≤ |an+1 | + · · · + |am | = |ak |
k=n+1 k=1
P
Sei ε > 0. Da |ak | konvergent nach Voraussetzung, folgt Behauptung aus dem Cauchy–Kriterium.


Beispiel 3.9. alternierende harmonische Reihe:



X (−1)k+1
k
k=1

∞ ∞
P (−1)k+1 P (−1)k+1
Zeige: k ist konvergent. Aber offenbar: k ist nicht absolut konvergent, denn
k=1 k=1

∞ ∞
X (−1)k+1 X 1
= (ist divergent)
k k
k=1 k=1


P (−1)k+1
Zur Konvergenz von k :
k=1

40
n
X (−1)k+1 1 1 (−1)n+1
∀n ∈ N sn := =1− + + ··· +
k 2 3 n
k=1

(−1)n+1
Setze an := n . Dann

1 1
∀n ∈ N s2n+2 = s2n + a2n+1 + a2n+2 = s2n + − ≥ s2n
2n + 1 2n + 2
| {z }
≥0

⇒ (s2n ) ist monoton wachsend. Analog zeige: (s2n−1 ) ist monoton fallend:

∀n ∈ N s2n+1 = s2n−1 + a2n + a2n+1 = . . . ≤ s2n−1

(−1)2n+1 1
s2n − s2n−1 = a2n = =−
2n 2n
1
⇒ s2n−1 = s2n +
2n
Induktiv folgt:

s2 ≤ s4 ≤ s6 ≤ · · · ≤ s2n ≤ s2n−1 ≤ s2n−3 ≤ · · · ≤ s3 ≤ s1

Insbesondere ist (s2n ) nach oben beschränkt (z.B. durch s1 ) und (s2n−1 ) ist nach unten beschränkt (z.B.
durch s2 ).
⇒ Nach Monotoniekriterium sind beide konvergent.
Sei s := lim s2n , s̃ := lim s2n−1 .
n→∞ n→∞

Offenbar s ≤ s̃. Außerdem gilt (vgl. oben): s = s̃.


Daher konvergiert auch (sn ) gegen s:

ε > 0, s2n → s ⇒ s2n ∈ Uε (s) für fast alle n ∈ N

⇔ sn ∈ Uε (s) für fast alle geraden n ∈ N


Analog für die ungeraden Indizes, ⇒ sn ∈ Uε (s) für fast alle n ∈ N. ⇒ sn → s.
(später: s = log 2)

Satz 3.10 (Leibniz–Kriterium). Sei (bn ) eine Folge, bn ≥ 0, (bn ) monoton fallend; lim bn = 0, und
n→∞
an := (−1)n+1 bn .

P
Dann ist an konvergent.
n=1

Beweis: vgl. obiges Beispiel. 


Beispiel 3.11.
(
1
k für n = 2k + 1, k ∈ N
bn := 1
2k−1
für n = 2k, k ∈ N

(−1)n+1 bn divergiert (Behauptung).
P
Dann ist bn > 0 für alle n ∈ N und bn → 0, aber:
n=1

41
3. Reihen

Beweis: an := (−1)n+1 bn , sn := a1 + · · · + an , n ∈ N
Dann gilt für jedes n ∈ N:
 
s2n = a1 + a3 + . . . + a2n−1 + a2 + a4 + · · · + a2n
   2  n−1 !
1 1 1 1 1
= 1 + + ··· + − 1+ + + ... +
2 n 2 2 2
| {z } | {z }
=:αn
=:βn

1
Es ist βn konvergent (geometrische Reihe): βn = 1− 12
= 2.

Annahme: (sn ) konvergiert ⇒ (s2n ) konvergiert, da βn konvergiert ⇒ (αn ) = (s2n − βn ) konvergiert .


Also: (sn ) divergiert. 

Satz 3.12.

P
(1) Majorantenkriterium: Seien (an ), (bn ) Folgen, mit |an | ≤ bn für fast alle n ∈ N. Ferner sei bn
n=1
konvergent.

P
Dann ist an absolut konvergent.
n=1

(2) Minorantenkriterium: Seien (an ), (bn ) Folgen, mit 0 ≤ bn ≤ an für fast alle n ∈ N. Ferner sei

P
bn divergent.
n=1

P
Dann ist auch an divergent.
n=1

Beweis:
(1)

∃k0 ∈ N ∀n ≥ k0 |an | ≤ bn

Seien m > n ≥ k0 :
m
X m
X
σ̃m,n := |ak | ≤ bk =: σm,n
k=n+1 k=n+1

Sei ε > 0

⇒ ∃n0 ∈ N ∀m, n ≥ n0 , m > n σm,n < ε

o.B.d.A. sei n0 ≥ k0 .

⇒ ∀m > n ≥ n0 σ̃m,n (≤ σm,n ) < ε



P
⇒ |ak | ist konvergent. (Nach 2× Cauchy-Kriterium)
k=1

P
(2) Annahme: an konvergent.
n=1
P
⇒ bn konvergent. ⇒ Widerspruch.


42
Beispiel 3.13.

1 1
P
(1) (n+1)2 , d.h. an = (n+1)2 .
n=1

Dann
1 1
|an | = an = ≤ =: bn
(n + 1)(n + 1) n(n + 1)
| {z }
≥n
P
Bekannt bn konvergent.
P
⇒ an konvergent.
∞ ∞ ∞
1 1 1 π2
P P P
Also (n+1)2 = n2 konvergent. ⇒ n2 konvergent. (Reihenwert: 6 ).
n=1 n=2 n=1

(2) Sei α ∈ (0, 1], α ∈ Q.


Dann

∀n ∈ N n ≥ nα
1 1
⇒ ∀n ∈ N ≥
nα n
P1 P 1
Da n divergent, folgt nach dem Minorantenkriterium nα divergent.

(3) Sei α ≥ 2, α ∈ Q.

∀n ∈ N n2 ≤ nα
1 1
⇒ ∀n ∈ N ≤ 2
nα n
P 1 P 1
Da n2 konvergent, folgt nach dem Majorantenkriterium: nα ist konvergent.
P 1
(4) Ohne Beweis: Sei α > 1, α ∈ Q. Dann ist die Reihe nα konvergent.

Bemerkung: Die Einschränkung α ∈ Q wird später verschwinden, wenn wir Potenzen mit reellen Expo-
nenten eingeführt haben. (siehe 7.27)

Satz 3.14 (Wurzelkriterium). Sei (an ) Folge.


p P
(1) Ist n |an | unbeschränkt, dann ist die Reihe an divergent.
p p
(2) Sei n |an | beschränkt und setze α := lim sup n |an |.
n→∞
P
Ist α < 1, so ist an absolut konvergent.
P
Ist α > 1, so ist an divergent.

Beweis:
p p
(1) n |an | unbeschränkt. ⇒ n |an | ≥ 1 für unendlich viele n.
⇒ |an | ≥ 1 ⇒ an 6→ 0 für n → ∞.
P
⇒ an divergent.
(2) Sei α < 1. Wähle x ∈ R, α < x < 1
p
Behauptung: n |an | < x für fast alle n ∈ N.

43
3. Reihen

p
Beweis: Annahme: n |an | ≥ x für unendlich viele n. Also existiert eine Teilfolge:
 p  p
nk
|ank | mit bk := nk |ank | ≥ x für alle k ∈ N

Da (bk ) beschränkt ist, hat sie nach Bolzano-Weierstraß mindestens einen Häufungswert;  p nenne

diesen β. Es sei (bkj ) eine Teilfolge, die gegen β konvergiert. (bkj ) ist eine Teilfolge von n |an | .
p 
⇒ β ∈ HW n |an | .

⇒ β ≤ α (wg. α größter Häufungswert). Andererseits bkj ≥ x für alle j ∈ N.


⇒ β ≥ x. Also x ≤ β ≤ a < x ⇒ Widerspruch. 
p
Also n |an | < x für fast alle n.
⇒ |an | < xn
P n
Wegen |x| = x < 1 ist x konvergent. Also folgt aus dem Majorantenkriterium:
X
⇒ an absolut konvergent
p
Sei α > 1. Setze ∀n ∈ N cn := n
|an |.

Wähle ε > 0 mit α − ε > 1. Dann gilt cn ∈ Uε (x) für unendlich viele n, da α Häufungswert ist.
⇒ cn > 1 für unendlich viele n.
⇒ |an | > 1 für unendlich viele n.
P
Wie in (1) folgt: an divergent.

p 
Beachte: Ist die Folge n
|an | beschränkt und
p
α := lim sup n
|an | = 1
n→∞
P
so liefert obiges Kriterium keine Entscheidung über Konvergenz von an .

Beispiel 3.15.
1
(1) an := n.

p 1
n
|an | = √ → 1 für n → ∞
n
n
p p
⇒ lim sup n |an | = lim n |an | = 1
n→∞ n→∞
P
und an divergent (harmonische Reihe)
1
(2) an := n2 .

p 1 1
n
|an | = √
n
= √ 2 → 1 für n → ∞
n 2 ( n)
n

p p
⇒ lim sup n |an | = lim n |an | = 1
n→∞ n→∞
P
und an konvergent.

44
(3) Sei x ∈ R.

1 n
( 
2 , falls n gerade
an := 2 n
n x , falls n ungerade

1
falls n gerade
2


2
n · |x| falls n ungerade
p
n n
⇒ |an | =

 | {z }
 n→∞
−−−−→|x|
p  
⇒ HW n |an | = 12 , |x|
p
⇒ lim sup n |an | = max 12 , |x|

n→∞
P P
also: falls |x| < 1, ist an absolut konvergent. Falls |x| > 1, ist
an divergent.
Falls |x| = 1, so gilt |an | = n2 für alle ungeraden n. ⇒ an →
P
6 0 ⇒ an divergent.
n2
(4) an := 4n +n3 .

n2 n2 n2
n
= n n
≤ an ≤ n , n ∈ N
2·4 4 +4 4
√ 2 √ 2
( n n) p ( n n)
⇒ √ ≤ n
|an | ≤
n
2·4 4 }
| {z
| {z }
→ 14 → 14

p
n 1
⇒ |an | → <1
4
X
⇒ an konvergiert.

 n3
(5) an := 1 − n12 .
n2
Hier ist n |an | = 1 − n12
p
für alle n ∈ N.
p  n 
D.h. n |an | ist Teilfolge von 1 − n1 .
n
Wegen 1 − n1 → 1e gilt somit n |an | → 1e < 1.
p
P
⇒ an konvergiert.

Satz 3.16 (Quotientenkriterium). Sei (an ) Folge mit an 6= 0 für fast alle n ∈ N.
 
(1) Ist aan+1
n
beschränkt und

an+1
lim sup <1
n→∞ an
P
so ist die Reihe an absolut konvergent.

(2) Ist aan+1


P
n
≥ 1 für fast alle n, so ist an divergent.

an+1 P
(3) Ist lim inf an > 1, so ist an divergent.
n→∞

45
3. Reihen

Beweis:
an+1
(1) Sei α := lim sup an < 1.
n→∞

Wähle x ∈ R, α < x < 1. Wie im Beweis für Wurzelkriterium folgt:


an+1
≤ x für fast alle n
an
etwa für alle n ≥ n1 . =:c
z }| {
2 n−n1 1
⇒ |an | ≤ |an−1 | · x ≤ |an−2 | · x ≤ · · · ≤ |an1 | · x = |an1 | · n1 ·xn für n ≥ n1
x
⇒ |an | ≤ c · xn
P n
Wegen x < 1 ist x konvergent.
P
⇒ an absolut konvergent.
an+1 
(2) an ≥ 1 für fast alle n. ⇒ |an | ist mon. wachsend.

⇒ an 6→ 0
P
⇒ an divergent.
(3) Sei
an+1
β := lim inf >1
n→∞ an
an+1
Wähle x ∈ R, 1 < x < β. Ähnlich wie im Beweis zum Wurzelkriterium erhält man: an > x für
fast alle n.


Korollar 3.17.
p
(1) Falls α = lim n |an | existiert, so gilt
n→∞
P
an ist absolut konvergent, falls α < 1 und divergent, falls α > 1.

(2) Falls β = lim aan+1 existiert, so gilt:


n→∞ n
P
an ist absolut konvergent, falls β < 1 und divergent, falls β > 1.

Korollar 3.18.
an+1
(1) Existiert β = lim an und ist β = 1, so liefert obiger Satz keine Entscheidung. (analog zum
n→∞
Wurzelkriterium)

1 an+1 n
an = ⇒ = →1
n an n+1
P
⇒ an divergent.

1 an+1 n2
an = ⇒ = →1
n2 an (n + 1)2
P
⇒ an konvergent.

46
3.1. Exponentialfunktion

3.1. Exponentialfunktion
Beispiel 3.19. Sei x ∈ R beliebig. Untersuche die Reihe

X xn
n=0
n!
Klar: Für x = 0 ist die Reihe absolut konvergent mit Reihenwert 1.
xn
Sei x 6= 0. Setze an := n! . Dann
n+1
x
an+1 (n+1)! n! |x|
= xn = |x| · = → 0 für n → ∞
an n!
(n + 1)! n+1

an+1
Insbesondere ist lim an < 1. Nach dem Quotientenkriterium folgt:
n→∞
P P xn
an = n! absolut konvergent.

xn
P
Also n! für jedes x ∈ R absolut konvergent.
n=0

Dies definiert eine Funktion E := R → R durch



X xn
∀x ∈ R E(x) :=
n=0
n!

(Exponentialfunktion).

1
P
Es gilt E(0) = 1, E(1) = n! = e.
n=0

Später zeigen wir: ∀r ∈ Q E(r) = er . Später definieren wir


∀x ∈ R E(x) =: ex

Weiteres zum Thema Reihenkonvergenz:

Definition 3.20. Es sei (an ) eine Folge in R und ϕ : N → N eine bijektive Abbildung. Setze

∀n ∈ N bn := aϕ(n)

Dann heißt (bn ) eine Umordnung von (an ). Selbiges gilt auch für die Reihe.

Beispiel 3.21. (a1 , a3 , a2 , a4 , a5 , a7 , a6 , a8 , . . .) ist eine Umordnung von (an ). (das ist etwas anderes als
eine Teilfolge)

Satz 3.22 (Umordnungssatz). (bn ) sei eine Umordnung von (an ).


(1) Ist (an ) konvergent, so ist auch (bn ) konvergent, und
lim bn = lim an
n→∞ n→∞

P P
(2) Ist an absolut konvergent, so ist auch bn absolut konvergent, und
X X
bn = an .

47
3. Reihen

P
Bemerkung 3.23. Ist an konvergent, aber nicht absolut konvergent, so existiert zu jedem b ∈ R
eine Umordnung (bn ) von (an ) mit
X
bn = b

Definition 3.24 (Cauchy-Produkt). Gegeben seien Folgen (an ) und (bn ). Setze
n
X
∀n ∈ N cn := ak bn−k = a0 bn + a1 bn−1 + a2 bn−2 + · · ·
k=0


P ∞
P ∞
P
Dann heißt cn das Cauchy-Produkt der Reihen an und bn .
n=0 n=0 n=0


P ∞
P
Satz 3.25. Sind an und bn beide absolut konvergent, dann konvergiert auch ihr Cauchy–
n=0 n=0

P
Produkt cn absolut, und
n=0

∞ ∞ ∞
! !
X X X
cn = an · bn
n=0 n=0 n=0

∞ ∞
1
xn absolut konvergent, und xn =
P P
Beispiel 3.26. Sei |x| < 1. Bekannt: 1−x . Dann
n=0 n=0

∞ ∞ ∞
! !
X X X
n n
x · x = cn
n=0 n=0 n=0

n
xk · xn−k = (n + 1)xn .
P
mit cn =
k=0

(n + 1)xn absolut konvergent, und
P
Also ist
n=0


X 1
(n + 1)xn =
n=0
(1 − x)2

Bemerkung 3.27 (Weiteres zur Exponentialfunktion).



X xn
E(x) =
n=0
n!

Seien x, y ∈ R:
∞ ∞ ∞
! !
X xn X yn X
E(x) · E(y) = · = cn
n=0
n! n=0
n! n=0

mit
n n
X xk y n−k 1 X n! 1
∀n ∈ N0 cn = · = · xk y n−k = (x + y)n
k! (n − k)! n! k!(n − k)! n!
k=0 k=0

48
3.1. Exponentialfunktion


X (x + y)n
⇒ E(x) · E(y) = = E(x + y)
n=0
n!

Mit Induktion zeigt man:


∀x1 , . . . , xl ∈ R E(x1 + · · · + xl ) = E(x1 ) · · · · · E(xl )

Weiterhin gilt für alle x ∈ R:



1 = E(0) = E x + (−x) = E(x) · E(−x)
1
⇒ E(x) 6= 0, E(−x) =
E(x)

Ferner:
x x
 x
2
E(x) = E 2 + 2 = E 2 >0
Weiter für alle n ∈ N:
E(n) = E(1 + 1 + · · · + 1) = E(1) · E(1) · · · E(1) = E(1)n = en
| {z }
n mal

Ferner:
1 1 1 n
+ · · · + n1 = E 1 1
   
e = E(1) = E n + n n ···E n =E n
| {z } | {z }
n mal n mal
1
1

⇒ en = E n
n
Also für alle r = m ∈ Q mit m, n ∈ N:
 1 n
n 1 1 1 1 1 1 n n
    
E m =E m + m + ··· + m =E m ···E m =E m = em = em
| {z } | {z }
n mal n mal

Schließlich für alle r ∈ Q:


Falls r > 0
⇒ E(r) = er
Falls r < 0
1
⇒ −r > 0 ⇒ E(−r) = e−r =
er
⇒ E(r) = er
Falls r = 0
⇒ E(0) = 1 = e0

Schließlich seien x, y ∈ R und x < y, also y − x > 0 und damit


∞ ∞
X (y − x)n X (y − x)n
E(y − x) = =1+ >1
n=0
n! n!
n=1 | {z }
>0

E(y)
Andererseits ist E(y) · E(−x) = E(x)

⇒ E(y) > E(x)


Also: ∀x, y ∈ R x < y ⇒ E(x) < E(y).

49
3. Reihen

3.2. Eigenschaften der Exponentialfunktion



xn
P
Die Exponentialfunktion E(x) = n! hat also die folgenden Eigenschaften:
n=0

E(0) = 1, E(1) = e
∀x, y ∈ R E(x + y) = E(x) · E(y)
∀x ∈ R E(x) > 0
1
∀x ∈ R E(−x) =
E(x)
∀r ∈ Q E(r) = er
∀x, y ∈ R x < y ⇒ E(x) < E(y)

50
4. Potenzreihen
Sei (cn ) eine Folge mit cn ≥ 0 für alle n ∈ N.
Dann gilt:

(cn ) beschränkt ⇔ (cn ) nach oben beschränkt

Es treten die folgenden Fälle auf


(i) (cn ) ist beschränkt, dann existiert lim sup cn ∈ [0, ∞).
(ii) (cn ) ist nicht beschränkt.

Lemma 4.1. Sei (cn ) eine Folge mit cn ≥ 0 für alle n ∈ N.


Ist (cn ) beschränkt, so gilt:

lim sup cn = 0 ⇔ cn → 0
n→∞

Beweis:
⇐“ klar, da HW(cn ) = {0} (dann ist 0 auch größter Häufungswert).

⇒“ Sei ε > 0. Nach obigem Lemma gilt:

ε
0 ≤ cn ≤ für fast alle n ∈ N
2
d.h.

cn ∈ Uε (0) für fast alle n ∈ N


Ist (cn ) eine Folge mit cn ≥ 0 für alle n ∈ N, so gibt es genau eine der folgenden
Möglichkeiten:
(i) (cn ) ist unbeschränkt
(ii) (cn ) ist beschränkt und lim sup cn > 0
(iii) (cn ) ist beschränkt und lim sup cn = 0

Definition 4.2. Sei (an ) eine Folge und x0 ∈ R.


(1) Eine Reihe der Form


X
an (x − x0 )n = a0 + a1 (x − x0 ) + a2 (x − x0 )2 + · · ·
n=0

heißt eine Potenzreihe.

51
4. Potenzreihen

p
(2) Sei cn := n
|an |, n ∈ N.
Setze

0
 falls (cn ) unbeschränkt
r := ∞ falls cn → 0
1

falls cn beschränkt und lim sup cn > 0

lim sup cn

Dann heißt r Konvergenzradius der Potenzreihe.

Im folgenden betrachten wir Potenzreihen der Form



X
an xn
n=0

d.h. solche Potenzreihen, bei denen x0 = 0. Der allgemeine Fall x0 ∈ R lässt sich durch die Transforma-
tion y = x − x0 auf diesen Spezialfall zurückführen.

an xn sei eine Potenzreihe mit dem Konvergenzradius r.
P
Satz 4.3.
n=0

(1) Ist r = 0, so konvergiert die Potenzreihe nur für x = 0.


(2) Ist r = ∞, so konvergiert die Potenzreihe für jedes x ∈ R.
(3) Ist r ∈ (0, ∞), so konvergiert die Potenzreihe absolut für |x| < r und sie divergiert für |x| > r.
Für |x| = r ist keine allgemeine Aussage möglich.

p
Beweis: Sei x ∈ R und cn := n |an |, bn := an xn , n ∈ N.
p 1 p
Dann gilt: n |bn | = (|an | · |xn |) n = n |an | · |x| = cn · |x| , n ∈ N.
(1) r = 0 ⇒ (cn ) ist unbeschränkt.
p
⇒ n |bn | unbeschränkt für x 6= 0.
3.14 P
⇒ bn divergiert für x 6= 0.
P
Also: bn konvergiert nur für x = 0.
p
(2) r = ∞ ⇒ cn → 0 ⇒ n |bn | → 0 für jedes x ∈ R.
3.14 P
⇒ bn konvergiert absolut für jedes x ∈ R.
(3) Sei r ∈ (0, ∞) und δ := lim sup cn , also r = 1δ .
Dann gilt:
p
n |x|
lim sup |bn | = δ · |x| = <1 ⇔ |x| < r
r
oder
p
n
lim sup |bn | > 1 ⇔ |x| > r

Die Behauptung folgt dann aus dem Wurzelkriterium 3.14.




52
Beispiel 4.4.

xn
P
(1) Bekannt: n! konvergiert absolut für jedes x ∈ R.
n=0

Also: r = ∞ nach 4.3.


1 1
p
Es ist an = n! , also n |an | = √
n
n!
.
 √ −1
⇒ lim n n! = 0.
n→∞

xn (hier: an = 1) konvergiert absolut für |x| < 1 und divergiert
P
(2) Bekannt: die geometrische Reihe
n=0
für |x| ≥ 1.
p
⇒ Konvergenzradius r = 1, lim sup n
|an | = 1.

xn
(hier: a0 = 0 , an = n−1 ).
P
(3) Betrachte n
n=1

p 1
n
|an | = √ →1
n
n
1
⇒ lim sup √ =1
n
n
1
⇒ Konvergenzradius r = =1
1
Die Potenzreihe konvergiert also für |x| < 1 und divergiert für |x| > 1.
Für |x| = 1:
1
P
1. Fall x = 1: divergiert ⇒ die Potenzreihe divergiert.
n
P (−1)n
2. Fall x = −1: n konvergiert nach dem Leibniz-Kriterium.
⇒ die Potenzreihe konvergiert (aber nicht absolut).

xn 1
P
(4) Betrachte n2 (hier: a0 = 0 , an = n2 (n > 0)).
n=1

p
n 1 √
|an | = √ 2 → 1 also lim sup n
an = 1
( n)
n

1
⇒ Konvergenzradius r = =1
1
Die Potenzreihe konvergiert also absolut für |x| < 1 und divergiert für |x| > 1.
Für |x| = 1:
1
P
1. Fall x = 1: konvergiert absolut ⇒ die Potenzreihe konvergiert absolut.
n2
P (−1)n
2. Fall x = −1: n2 konvergiert absolut ⇒ die Potenzreihe konvergiert absolut.

nn xn (hier: an = nn ).
P
(5) Betrachte
n=0
p
cn := n
|an | = n ⇒ (cn ) ist unbeschränkt

⇒ Konvergenzradius r = 0
Die Potenzreihe konvergiert also nur für x = 0.

53
4. Potenzreihen

(
∞ n
n 2n , n gerade
P
(6) Betrachte an x mit an = 1
.
n=0 n3n , n ungerade
( √
n n
2 , n gerade
p
cn := n
|an | = 1
√ , n ungerade
3nn

 
1 1 1
⇒ HW(cn ) = , , lim sup cn =
3 2 2

⇒ Konvergenzradius r = 2
Die Potenzeihe konvergiert also absolut für |x| < 2 und divergiert für |x| > 2.

Ist |x| = 2, so gilt für gerade n:

|an xn | = 2nn |x|n = n ⇒ an xn ist keine Nullfolge

an xn divergiert für |x| = 2.


P

Die Beispiele (2), (3) und (4) zeigen: für |x| = 1 ist keine allgemeine Aussage
möglich.

4.1. Der Cosinus

Betrachte:

X x2n
(−1)n
n=0
(2n)!

(−1)n
d.h. a2n = (2n)! , a2n+1 = 0.

p
2n 1
⇒ |a2n | = 2n
p →0
(2n)!
1
(Teilfolge von √
n
n!
.)

2n+1
p
|a2n+1 | = 0 → 0
p
Also n
|an | → 0 für n → ∞.

%=0

r=∞
⇒ die Potenzreihe konvergiert absolut für alle x ∈ R.

Dies definiert eine Funktion



R → R
cos : ∞
x2n
(−1)n (2n)!
P
x 7→ cos x :=
n=0

54
4.2. Der Sinus

4.2. Der Sinus

Ähnlich wie beim Cosinus zeigt man:

Die Potenzreihe

X x2n+1
(−1)n
n=0
(2n + 1)!

konvergiert für alle x ∈ R absolut.

Dies definiert eine Funktion



R → R
sin : ∞
x2n+1
(−1)n (2n+1)!
P
x 7→ sin x :=
n=0

an
Satz 4.5. Sind fast alle an 6= 0 und existiert lim an+1 =: L, so gilt für den Konvergenzradius r der
n→∞
an (x − x0 )n :
P
Potenzreihe

r=L

Beweis: Setze bn := an (x − x0 )n ; dann gilt für x 6= x0 :

bn+1 an+1
= · |x − x0 |
bn an

1. Fall: L = 0.
 
bn+1
⇒ bn ist unbeschränkt.

an (x − x0 )n ist divergent.
P P
⇒ bn =

an (x − x0 )n konvergiert nur für x = x0 .


P

⇒ r=0

2. Fall: L > 0.

bn+1 an+1 1
⇒ lim = lim · |x − x0 | = |x − x0 |
n→∞ bn n→∞ an L

1 1
an (x−x0 )n ist konvergent, falls
P P
⇒ bn = L |x−x0 | < 1, und ist divergent, falls L |x−x0 | >
1.

Also konvergent, falls |x − x0 | < L und divergent, falls |x − x0 | > L.

⇒ r=L

55
4. Potenzreihen

∞ ∞
an (x − x0 )n und bn (x − x0 )n seien zwei Potenzreihen mit Konvergenzradien r1 bzw
P P
Satz 4.6.
n=0 n=0
r2 .
Setze:
(
min{r1 , r2 } falls r1 < ∞ oder r2 < ∞
R :=
∞ falls r1 = ∞ und r2 = ∞

Dann ist der Konvergenzradius der Produktreihe



X
cn (x − x0 )n
n=0

n
P
(mit cn := ak bn−k )
k=0

≥R

und es gilt:
∞ ∞ ∞
! !
X X X
n n n
cn (x − x0 ) = an (x − x0 ) · bn (x − x0 )
n=0 n=0 n=0

für |x − x0 | < R.

Abbildung 4.1.: Sinus und Cosinus

4.3. Weiteres zu Sinus und Cosinus


X x2n+1
sin(x) = (−1)n
n=0
(2n + 1)!


X x2n
cos(x) = (−1)n
n=0
(2n)!

56
4.3. Weiteres zu Sinus und Cosinus

Offenbar gilt:

sin(−x) = − sin(x)

cos(−x) = cos(x)

Ähnlich wie in der Exponentialreihe E(x + y) = E(x) · E(y) zeigt man mit obigem Satz die folgenden
Additionstheoreme:

sin(x + y) = sin(x) cos(y) + cos(x) sin(y)

cos(x + y) = cos(x) cos(y) − sin(x) sin(y)

Weiterhin gilt offensichtlich:

sin(0) = 0, cos(0) = 1

Damit folgt:

1 = cos(0) = cos x + (−x) = cos(x) cos(−x) − sin(x) sin(−x) = cos2 (x) + sin2 (x)


Insbesondere gilt:

∀x ∈ R cos2 (x) ≤ cos2 (x) + sin2 (x) = 1 ⇒ cos(x) ≤ 1

genauso

∀x ∈ R sin(x) ≤ 1

57
4. Potenzreihen

58
5. g-adische Entwicklungen

Sei g ∈ N, g ≥ 2 fest in diesem Abschnitt.

Für a ∈ R, a > 0 existiert genau ein k ∈ N0 mit

k ≤a<k+1

Setze [a] := k (größte ganze Zahl ≤ a, Ganzteil von a, Gaußklammer).

Setze z0 := [a] ⇒ z0 ≤ a < z0 + 1.


 
Setze z1 := (a − z0 )g ⇒ z1 ≤ (a − z0 )g < z1 + 1.

z1 z1 1
⇒ z0 + ≤ a < z0 + +
g g g

h  i  
z1 z1
Setze z2 := a − z0 − g g2 ⇒ z2 ≤ a − z0 − g g 2 < z2 + 1.

z1 z2 z1 z2 1
⇒ z0 + + 2 ≤ a < z0 + + 2+ 2
g g g g g

Es gilt z1 ≤ g − 1, z2 ≤ g − 1 . . . , denn:

Wäre z1 > g − 1, so z1 ≥ g (da beide in N), daher


z1 z1
≥ 1 ⇒ z0 + 1 ≤ z0 + ≤ a < z0 + 1
g g

z2 ≤ g − 1 analog.

z0 , z1 , z2 , . . . seien schon definiert. Setze


  
z1 z2 zn
zn+1 := a − z0 − − 2 − · · · − n · g n+1
g g g

Dies definiert eine Folge (zn ) mit folgenden Eigenschaften:

∀n ∈ N zn ∈ N0 , ∀n ≥ 1 : zn ≤ g − 1

z1 z2 zn zn 1
∀n ∈ N0 z0 + + 2 + · · · + n ≤ a < z0 + · · · + n + n
g g g g g

Satz 5.1. Ist (z̃n ) eine weitere Folge mit obiger Eigenschaft, so gilt:

∀n ∈ N0 z̃n = zn

59
5. g-adische Entwicklungen

Betrachte die Reihe



X 1
zn
n=0
gn

∞ ∞
zn g−1 P g−1 P 1
Es gilt ∀n ≥ 1 0 ≤ gn ≤ gn und gn = (g − 1) · gn ist konvergent (geometrische Reihe). Aus
n=0 n=0

zn g1n konvergent ist.
P
dem Majorantenkriterium folgt, dass auch
n=0
1 zn
Setze ∀n sn := z0 + g + ··· + gn . Nach obiger Eigenschaft gilt:

1
∀n ∈ N sn ≤ a < sn +
gn
|{z}
→0


X 1
⇒ zn =a
n=0
gn
Dafür schreiben wir:

a = z0 , z1 z2 z3 z4 . . .

Beispiel 5.2. (Setze g = 10)

(1) a = 1; z0 ≤ a < z0 + 1, z0 ∈ N0 ⇒ z0 = 1
h i
z1 2
z1 = [(a − z0 )g] = 0; z2 = (a − z0 − g )g =0 ...

⇒ 1 = 1,00000 . . .

(2) a = 31 ; z0 = [a] = 0.

z1 = 13 − 0 · 10 = 3 1 1
     
z2 = 3 −0−3· 10 · 100 = 3 ...
1
⇒ 3 = 0,33333 . . .

Definition 5.3. Sei b ∈ R und b < 0; setze a := −b > 0. Sei also a = z0 , z1 z2 . . . die g-adische
Darstellung von a. Dann definiere −z0 , z1 z2 . . . als die g-adische Darstellung von b.

Bemerkung 5.4. Bei Definition des Ganzteiles (z0 ∈ N0 , z0 ≤ a < z0 + 1) hätte man genauso gut
z0 ∈ Z, z0 < a ≤ z0 + 1 verlangen können. Das hätte für die o.g. Eigenschaften ergeben:
z1 zn z1 zn 1
z0 + g + ··· + gn < a ≤ z0 + g + ··· + gn + gn

Dann hätten wir erhalten (für g = 10):

1 = 0,9999 . . .
1
2 = 0,4999999 . . .
⇒ Wir bleiben beim Alten.

60
Satz 5.5. Ist a = z0 , z1 z2 . . . die g-adische Entwicklung von a gemäß der alten Ungleichung, so ist der
Fall zn = g − 1 für fast alle n nicht möglich. (vgl. 9er-Periode)

Beweis: Annahme: zn = g − 1 für fast alle n.

∃m ∈ N ∀n ≥ m zn = g − 1
∞ m−1 ∞ ∞
X 1 X 1 X 1 g−1 X 1 1
⇒ a= zn = zn n + (g − 1) = sm−1 + = sm−1 + m−1
n=0
gn n=0
g n=m
g n g m
n=m
g n−m g
wegen
∞ ∞
X 1 X 1 1 g
= = 1 =
n=m
g n−m gk 1 − g
g−1
k=0

1 z1 zm−1 1
sm−1 + = z0 + g + ··· + g m−1 + g m−1 >a
g m−1


Satz 5.6. R ist überabzählbar.

Beweis: Es genügt zu zeigen: [0, 1) ist überabzählbar.


Annahme: [0, 1) ist abzählbar, d.h. es existiert eine Folge (an ) in [0, 1) mit

[0, 1) = {a1 , a2 , a3 , . . .}

O.B.d.A. können wir annehmen, dass an 6= am für n 6= m gilt.


Stelle jedes an durch seine 3-adische (triadische) Entwicklung dar:
(n) (n) (n) (n) (n)
an = z0 , z1 z2 z3 z4 . . .
|{z}
=0

(n)
mit zi ∈ {0, 1, 2}. Definiere Folge (zk ) durch:
(
(k) (k)
1 falls zk = 0 oder zk = 2
zk := (k)
0 falls zk = 1

P zn
Setze a := 3n
n=1

∞ ∞ ∞
X 1 1 X 1 1 X 1 1
⇒ a ≤ n
= · n−1
= · j
=
n=1
3 3 n=1
3 3 j=0
3 2

⇒ a ∈ [0, 1)
∃n ∈ N a = an
(n)
Ferner ist aber a = 0, z1 z2 z3 . . . Also insbesondere: zn = zn (n-te Ziffer von a und an stimmen
überein).
⇒ Widerspruch zur Definition der zk . 

61
5. g-adische Entwicklungen

62
6. Grenzwerte bei Funktionen

6.1. Allgemeines

Definition 6.1. Es sei D ⊂ R und x0 ∈ R.


x0 heißt Häufungspunkt von D, wenn eine Folge (xn ) in D existiert mit:

∀n ∈ N xn 6= x0 und lim xn = x0
n→∞

Beispiel 6.2.

(1) D = (0, 1].

Dann: x0 ∈ R ist Häufungspunkt von D ⇔ x0 ∈ [0, 1] Denn: jeder Punkt in dem Intervall kann
Häufungspunkt sein, aber auch 0.

setze xn = x0 ± n1 , n hinreichend groß


 

(2) D = { n1 : n ∈ N}

D hat genau einen Häufungspunkt, nämlich 0.

(3) D endlich ⇒ D hat keine Häufungspunkte.

(4) Sei an = (−1)n , n ∈ N.

Dann hat die Folge (an ) die Häufungswerte 1 und −1; aber D := {an |n ∈ N} = {1, −1} hat keine
Häufungspunkte.

Bezeichnung:

Ist D ⊂ R, x0 ∈ R und ε > 0, so sei

Dε (x0 ) := Uε (x0 ) ∩ (D \ {x0 })

Lemma 6.3. Sei D ⊂ R, x0 ∈ R. Dann gilt:


x0 ist Häufungspunkt von D ⇔ Jede ε-Umgebung von x0 enthält einen von x0 verschiedenen Punkt
aus D.

⇔ ∀ε > 0 (D \ {x0 }) ∩ Uε (x0 ) 6= ∅

⇔ ∀ε > 0 Dε 6= ∅

63
6. Grenzwerte bei Funktionen

Beweis:
⇒“: Sei x0 Häufungspunkt von D, also existiert Folge (xn ) in D mit xn 6= x0 für alle n, und xn → x0 .

Sei ε > 0. Dann:

∃n0 ∈ N ∀n ≥ n0 |xn − x0 | < ε ⇔ xn ∈ Uε (x0 )

Insbesondere für n = n0 : xn0 ∈ Uε (x0 ).


⇐“: Zu ε = n1 mit n ∈ N existiert nach Voraussetzung ein xn ∈ D \ {x0 } ∩ Uε (x0 ). Dies definiert die


Folge (xn ) in D \ {x0 } mit

∀n ∈ N xn ∈ U n1 (x0 )

d.h.
1
∀n ∈ N |xn − x0 | <
n
Also xn → x0 .
⇒ x0 ist Häufungspunkt von D.

Ab jetzt sei in diesem Abschnitt stets D ⊂ R, x0 ∈ R Häufungspunkt von D.

Definition 6.4. f : D → R sei eine Funktion und a ∈ R. Wir sagen und schreiben:

lim f (x) = a :⇔ Für jede Folge (xn ) in D \ {x0 } mit xn → x0 gilt: lim f (xn ) = a.
x→x0 n→∞

Andere Schreibweise: f (x) → a für x → x0 .

Bemerkung 6.5. Falls x0 ∈ D, so ist der Funktionswert f (x0 ) in obiger Definition irrelevant. Für die
Existenz und den Wert von lim f (x) ist nur das Verhalten von f in der Nähe“ von x0 relevant.
x→x0 ”

Beispiel 6.6.

(1) D = [0, ∞), p ∈ N, f (x) := p
x.
√ √
Ist (xn ) Folge in D mit xn → x0 , so folgt: p xn → p x0 Das heißt:
√ √
lim p x = p x0
x→x0

(2) D = (0, 1]

falls 0 < x < 12


 2
x

falls 12 < x < 1

1
f (x) := 1
7

 falls x = 1
1
2 falls x = 21

Dann lim f (x) = 0, lim f (x) = 1.


x→0 x→1

Aber lim1 f (x) existiert nicht.


x→ 2

64
6.1. Allgemeines

1
Denn für xn := 2 − n1 gilt xn → 1
2 und f (xn ) → 1
4 und für x̃n := 1
2 + n1 gilt: x̃n → 1
2 und f (x̃n ) → 1.
Aber: lim f (x) existiert und ist 14 . Dafür schreiben wir
x→ 12
x∈(0, 21 )

1
lim f (x) = linksseitiger Grenzwert
1
x→ 2 − 4

Analog:

lim f (x) = 1 rechtsseitiger Grenzwert


x→ 21 +


xn
P
(3) D = R, E(x) = n! für x ∈ R, d.h. E : R → R.
n=0

Behauptung: Für alle |x| ≤ 1 gilt: |E(x) − E(0)| ≤ |x| · (e − 1).


Beweis:
x2 x2 x3
E(x) − E(0) = 1 + x + + ··· − 1 = x + + + ···
2! 2! 3!
x x2
= |x| · 1 + + + ···
2! 3!
|x| |x2 |
 
≤ |x| · 1 + + + ···
2! 3!
   
1 1 1 1 1
≤ |x| · 1 + + + · · · = |x| · + + + ··· − 1
|x|≤1 2! 3! 0! 1! 2!

!
X 1
= |x| · − 1 = |x| · (e − 1)
n=0
n!


Sei nun x0 ∈ R. Dann gilt für jedes x ∈ R:

E(x) − E(x0 ) = E(x − x0 + x0 ) − E(x0 )


= E(x − x0 ) · E(x0 ) − E(x0 )
= E(x0 ) · E(x − x0 ) − 1

Also gilt

E(x) − E(x0 ) ≤ E(x0 ) · |x − x0 | · (e − 1) für alle x ∈ R mit |x − x0 | ≤ 1

Ist (xn ) eine Folge mit xn → x0 , so gilt |xn − x0 | → 0, also |xn − x0 | ≤ 1 für fast alle n ∈ N.
Somit:

E(xn ) − E(x0 ) ≤ E(x0 ) · |xn − x0 | · (e − 1) für fast alle n ∈ N


| {z }
→0

⇒ E(xn ) → E(x0 )
Also:

lim E(x) = E(x0 )


x→x0

65
6. Grenzwerte bei Funktionen


an xn eine Potenzreihe mit dem Konvergenzradius r > 0.
P
(4) Sei
n=0

an xn
P
Sei f : (−r, r) → R, x 7→ f (x) :=
n=0

X
und g : (−r, r) → R, x 7→ g(x) := (n + 1)an+1 xn .
n=0
| {z }
Konvergenzradius wieder r

Sei x0 ∈ (−r, r) und δ > 0 mit |x0 | + δ ∈ (0, r).


Dann gilt für |x − x0 | ≤ δ: x ∈ (−r, r).

X
f (x) − f (x0 ) = an (xn − xn0 )
n=1
| {z }
n−1
xk xn−k−1
P
=(x−x0 ) 0
k=0


X n−1
X
≤ |x − x0 | · |an | |x|k · |x0 |n−k−1
n=1 k=0

X n−1
≤ |x − x0 | · |an | · |x0 | + δ
n=1

X n
= |x − x0 | · (n + 1) · an+1 · |x0 | + δ
n=0

= |x − x0 | · g |x0 | + δ

D.h. für x0 ∈ (−r, r), δ > 0 mit |x0 | + δ ∈ (0, 1) und |x − x0 | ≤ δ gilt:

f (x) − f (x0 ) ≤ |x − x0 | · g |x0 | + δ

Wie im vorigen Beispiel zeigt man:

lim f (x) = f (x0 )


x→x0

Satz 6.7. Sei f : D → R, a ∈ R. Dann gilt:

lim f (x) = a ⇔ ∀ε > 0 ∃δ > 0 ∀x ∈ Dδ (x0 ) f (x) − a < ε


x→x0 | {z }
(*)

Beweis:
⇒“: Sei ε > 0. Annahme: Es gibt kein δ mit der Eigenschaft (*). D.h.

∀δ > 0 ∃x ∈ Dδ (x0 ) |f (x) − a| ≥ ε

Dann finden wir zu jedem n ∈ N ein xn ∈ D n1 (x0 ) mit |f (xn ) − a| ≥ ε.


Für die Folge (xn ) gilt:
– (xn ) ist Folge in D \ {x0 }
1
– |xn − x0 | < n für jedes n ∈ N
– |f (xn ) − a| ≥ ε für jedes n ∈ N

66
6.1. Allgemeines

Also: xn → x0 aber f (xn ) 6→ a zu lim f (x) = a.


x→x0

⇐“: Sei (xn ) eine Folge in D \ {x0 } mit xn → x0 . Zu zeigen: f (xn ) → a.



Sei ε > 0. Nach Voraussetzung existiert ein δ > 0 derart, dass (*) erfüllt ist.

Da xn → x0 gilt xn ∈ Dδ (x0 ) für fast alle n ∈ N.

Nach (*) gilt also: |f (xn ) − a| < ε für fast alle n ∈ N.

Somit: f (xn ) → a.

Satz 6.8.
(1) lim f (x) existiert ⇔ für jede Folge (xn ) in D \ {x0 } mit xn → x0 konvergiert die Folge
x→x0 
f (xn ) n∈N .
(in diesem Fall: f (xn ) → lim f (x) für jede dieser Folgen.)
x→x0

(2) (Cauchy-Kriterium) lim f (x) existiert ⇔


x→x0

∀ε > 0 ∃δ > 0 ∀x, y ∈ Dδ (x0 ) |f (x) − f (y)| < ε

(ohne Beweis)

Satz 6.9. Gegeben: Funktionen f, g, h : D → R. Es mögen lim f (x) =: a , lim g(x) =: b existieren.
x→x0 x→x0
Dann gilt:
(1) Für α, β ∈ R:

lim αf (x) + βg(x) = α · a + β · b
x→x0

lim f (x) · g(x) = a · b
x→x0

lim |f (x)| = |a|


x→x0

(2) Falls es ein δ > 0 gibt mit

∀x ∈ Dδ (x0 ) f (x) ≤ g(x)

so gilt a ≤ b.
(3) Falls es ein δ > 0 gibt mit

∀x ∈ Dδ (x0 ) f (x) ≤ h(x) ≤ g(x)

und außerdem a = b gilt, so gilt lim h(x) = a = b.


x→x0

|b| f
(4) Ist b 6= 0, so existiert ein δ > 0 mit |g(x)| ≥ 2 > 0 für alle x ∈ Dδ (x0 ) und für g
: Dδ (x0 ) → R gilt:

f (x) a
lim =
x→x0 g(x) b

67
6. Grenzwerte bei Funktionen

Beweis: (1)–(3) mit dem entsprechenden Satz über Folgen.


|b|
(4) Nach (1) gilt: lim |g(x)| = |b| > 0. Setze nun ε := 2 .
x→x0

Nach obigem Satz existiert ein δ > 0 mit

|b|
∀x ∈ Dδ (x0 ) |g(x)| − |b| < ε =
2
|b|
⇒ ∀x ∈ Dδ (x0 ) |g(x)| − |b| > −
2
|b|
⇒ ∀x ∈ Dδ (x0 ) |g(x)| >
2
Rest mit Satz über Folgen. 

Definition 6.10.
(1) Sei (xn ) eine Folge in R.

+∞ xn > c
lim xn = :⇔ ∀c ∈ R ∃n0 ∈ N ∀n ≥ n0
n→∞ −∞ xn < c

(2) D ⊂ R, x0 Häufungspunkt von D, f : D → R.

+∞ +∞
lim f (x) = :⇔ Für jede Folge (xn ) in D \ {x0 } mit xn → x0 gilt: f (xn ) →
x→x0 −∞ −∞

(3) Sei zusätzlich D nicht nach oben bzw. unten beschränkt.

lim f (x) = a :⇔ Für jede Folge (xn ) in D mit xn → ±∞ gilt: f (xn ) → a


x→±∞

(Dabei a = +∞ und a = −∞ zugelassen.)

Beispiel 6.11.
1
(1) x → +∞ für x → 0+
1
x → −∞ für x → 0−
1
x → 0 für |x| → ∞
(2) xp → ±∞ für x → ±∞, falls p ∈ N, p ungerade
xp → +∞ für x → ±∞, falls p ∈ N, p gerade
Skizze zu Beispiel (1)

6.2. Exponentialfunktion
Sei p ∈ N0 fest. Für x > 0 gilt

x2 xp+1
E(x) = 1 + x + + ··· >
2! (p + 1)!

E(x) x
>
xp (p + 1)!

68
6.2. Exponentialfunktion

x
Wegen lim = +∞ gilt also
x→+∞ (p+1)!

E(x)
lim = +∞
x→∞ xp
also insbesondere

lim E(x) = +∞
x→∞

(⇒ Die E-Funktion wächst für x → +∞ stärker als jede Potenz von x“)

1
Wegen ∀x < 0 E(x) = E(−x) gilt:

1 1
lim E(x) = lim = lim =0
x→−∞ x→−∞ E(−x) x̃→+∞ E(x̃)

69
6. Grenzwerte bei Funktionen

70
7. Stetige Funktionen
Definition 7.1. Sei D ⊂ R, f : D → R heißt stetig in x0 ∈ D :⇔ Für jede Folge (xn ) in D mit
xn → x0 gilt:

f (xn ) → f (x0 )

f heißt stetig auf D, wenn f in jedem x0 ∈ D stetig ist.

C(D) := {f : D → R : f stetig auf D} Menge der stetigen Funktionen auf D“


Beispiel 7.2.
3
(1) D = [0, 1] ∪ 2 .

2
x
 falls 0 ≤ x < 1
1
f (x) := falls x = 1
2
1 falls x = 23

Klar: f ist stetig in jedem x0 ∈ [0, 1).


f ist nicht stetig in x0 = 1.
f ist stetig in x0 = 32 :
Sei dazu (xn ) Folge in D mit xn → 32

⇒ ∃n0 ∈ N ∀n ≥ n0 xn = 32

⇒ ∀n ≥ n0 f (xn ) = f 32 = 1


⇒ f (xn ) → 1 = f 23


⇒ f stetig in 32 .

(2) f (x) := p x definiert auf D := [0, ∞). Schon gezeigt:
√ √
lim p x = p x0 für alle x0 ∈ [0, ∞)
x→x0

Also f ∈ C [0, ∞) =: C[0, ∞).

Satz 7.3. Sei D ⊂ R, f : D → R, x0 ∈ D.


(1) f ist stetig in x0
h i
⇔ ∀ε > 0 ∃δ > 0 ∀x ∈ D |x − x0 | < δ ⇒ f (x) − f (x0 ) < ε

ε-δ–Definition der Stetigkeit“



(2) Sei zusätzlich x0 Häufungspunkt von D. Dann gilt:
f ist stetig in x0 ⇔ lim f (x) = f (x0 ).
x→x0

71
7. Stetige Funktionen

Satz 7.4.
(1) Sind f, g : D → R stetig in x0 ∈ D und sind α, β ∈ R, so sind

αf + βg, f · g, |f |

stetig in x0 .
f
Gilt ferner g(x0 ) 6= 0, so setze D̃ := {x ∈ D : g(x) 6= 0}. Dann ist g
: D̃ → R stetig in x0 ∈ D̃.
(2) C(D) ist ein R-Vektorraum.

Satz 7.5. f : D → R sei stetig in x0 , g : E → R sei eine Funktion auf E ⊂ R mit


E ⊃ f (D) = {f (x) : x ∈ D} und g sei stetig in f (x0 ) =: y0 . Dann gilt

g◦f : D →R

ist stetig in x0 .

Beweis: Sei (xn ) eine Folge in D mit xn → x0 ; yn := f (xn ).


Weil f stetig ist in x0 ⇒ yn → y0 ;
da g stetig ist in y0

⇒ g(yn ) → g(y0 ) .
| {z } | {z }
(g◦f )(xn ) (g◦f )(x0 )

7.1. Potenzreihen

an (x−x0 )n sei eine Potenzreihe


P
Satz 7.6. mit Konvergenzradius r > 0. Ferner sei D := (x0 −r, x0 +r)
an (x − x0 )n für x ∈ D.
P
[D = R, falls r = ∞] und f (x) :=
Dann ist f ∈ C(D) (f stetig auf D).

Bemerkung 7.7.
(1) E(x), sin(x), cos(x) sind also stetig auf R.
Ist zum Beispiel f (x) := E(cos(x)), so ist f = E ◦ cos stetig auf R.
n m
p
ak xk , q(x) = ak xk Polynome, so sind p und q stetig auf R und
P P
(2) Sind p(x) = q ist stetig auf
k=0 k=0
R \ {x|q(x) = 0}.
(3) Für z0 ∈ D besagt obiger Satz insbesondere:

X ∞
X ∞
X  
lim an (x − x0 )n = lim f (x) = f (z0 ) = an (z0 − x0 )n = an · lim (x − x0 )n
x→z0 x→z0 x→z0
n=0 n=0 n=0

sin x
Beispiel 7.8. Behauptung: lim = 1.
x→0 x

72
7.2. Zwischenwertsatz

Beweis: Für x 6= 0 gilt:


x3 x5 x2 x4
 
sin x 1
= · x− + + ··· = 1 − + + ··· → 1
x x 3! 5! | 3! {z 5! }
KR=∞ ⇒ stetig in x=0

Beispiel 7.9. Behauptung:


E(x) − 1
lim =1
x→0 x
Beweis:
E(x) − 1 x2 x2 x3
  
 
1 1
= · 1+x+ + ···
−1 = x+ + + ···
x x 2! x 2 6
x x2 0 02
=1+ + + · · · −→ 1 + + + ··· = 1
2 6 2 6


Korollar 7.10. Sei x0 ∈ R:

E(x0 + h) − E(x0 ) E(x0 )E(h) − E(x0 ) E(h) − 1


lim = lim = lim E(x0 ) = E(x0 )
h→0 h h→0 h h→0 h

7.2. Zwischenwertsatz

Satz 7.11 (Zwischenwertsatz). Sei f ∈ C[a, b] und y0 zwischen f (a) und f (b), genauer:
(
[f (a), f (b)] falls f (a) < f (b)
y0 ∈
[f (b), f (a)] falls f (a) ≥ f (b)

Behauptung:

∃x0 ∈ [a, b] : f (x0 ) = y0

Beweis:
1. Fall: f (a) = y0 oder f (b) = y0 ⇒ fertig.
2. Fall: f (a) 6= y0 6= f (b). Dann ist f (a) 6= f (b). O.B.d.A. sei f (a) < y0 < f (b).
Setze M := {x ∈ [a, b] | f (x) ≤ y0 }
Es ist M 6= ∅ (weil z.B. a ∈ M ) und M beschränkt (da M ⊂ [a, b]). Also existiert x0 := sup M .
• Ist n ∈ N, so ist x0 − n1 keine obere Schranke von M und wir finden ein xn ∈ M mit
x0 − n1 < xn ≤ x0 . Somit gilt xn → x0 (n → ∞).
Wegen xn ∈ [a, b] für alle n ∈ N gilt auch x0 ∈ [a, b]. Da f stetig ist, folgt f (xn ) →
f (x0 ) (n → ∞).
Wegen f (xn ) ≤ y0 für alle n ∈ N ist f (x0 ) ≤ y0 .

73
7. Stetige Funktionen

• Nun ist x0 < b (denn x0 = b ⇒ f (b) = f (x0 ) ≤ y0 < f (b) ).


1
Setze zn := x0 + n , n ∈ N.
Dann ist zn ∈ [a, b] für fast alle n ∈ N und zn → x0 (n → ∞).
Da f stetig ist gilt f (zn ) → f (x0 ) (n → ∞).
Wegen zn > x0 gilt zn 6∈ M , also f (zn ) > y0 .
Somit f (x0 ) = lim f (zn ) ≥ y0 .
n→∞

Also folgt f (x0 ) = y0 .




Korollar 7.12. Früher behauptet: Zu a ≥ 0 und n ∈ N existiert genau ein x ≥ 0 mit xn = a

Beweis: Eindeutigkeit wurde bereits bewiesen. Beweis der Existenz:


• a = 0: x = 0 leistet das Verlangte.
• a > 0; f (x) := xn , z0 := a + 1
⇒ f (z0 ) = (a + 1)n ≥ 1 + na ≥ 1 + a > a
Also: f (0) = 0 < a < f (z0 ) Aus dem Zwischenwertsatz folgt:
⇒ ∃x ∈ [0, a + 1] : f (x) = a
also: xn = a.

Exponential-Funktion

X xk
E(x) =
k!
k=0

Behauptung: E(R) = (0, ∞)


Beweis: Es gilt: E(x) > 0 ∀x ∈ R also E(R) ⊂ (0, ∞).
Sei y0 ∈ (0, ∞). Bereits gezeigt: E(x) → ∞ für x → ∞; E(x) → 0 für x → −∞.
⇒ ∃b ∈ R : y0 < E(b), ∃a ∈ R : E(a) < y0
E ist streng wachsend ⇒ a < b
Zwischenwertsatz ⇒ ∃x0 ∈ [a, b] : E(x0 ) = y0 ⇒ y0 ∈ E(R)
⇒ (0, ∞) ⊂ E(R)
⇒ (0, ∞) = E(R). 

7.3. Nullstellensatz von Bolzano

Korollar 7.13 (Nullstellensatz von Bolzano). Sei f ∈ C[a, b] und f (a) · f (b) < 0

⇒ ∃x0 ∈ [a, b] : f (x0 ) = 0

Beweis: Setze y0 = 0 im Zwischenwertsatz. 

74
7.4. Kompakte Mengen

Abbildung 7.1.: Zum Beweis des Wertebereichs der Exponentialfunktion

Abbildung 7.2.: Nullstellensatz von Bolzano

7.4. Kompakte Mengen

Definition 7.14.
(1) D ⊂ R heißt abgeschlossen :⇔ für jede konvergente Folge (xn ) in D gilt:

lim xn ∈ D
n→∞

(2) D ⊂ R heißt kompakt :⇔ D ist beschränkt und abgeschlossen.

Beispiel 7.15.
• Endliche Mengen sind kompakt
• D := n1 : n ∈ N ist nicht abgeschlossen, da 1

n → 0 aber 0 6∈ D.
Dagegen ist D ∪ {0} abgeschlossen (und sogar kompakt).

75
7. Stetige Funktionen

• Folgende Mengen sind abgeschlossen:

R , ∅ , [a, b] , [a, ∞) , (−∞, a]

• Nicht abgeschlossen sind:

(a, b) , (a, b] , (a, ∞) , [a, b) , (−∞, a)

• Sei I ein Intervall. Dann gilt:

I ist kompakt ⇔ ∃a, b ∈ R : a ≤ b und I = [a, b]

Satz 7.16. Sei ∅ =


6 D ⊂ R.

(1) D ist kompakt ⇔ jede Folge (xn ) in D enthält eine konvergente Teilfolge (xnk ) mit lim xnk ∈ D.
k→∞

(2) Ist D kompakt, so existieren min D und max D.

Beweis:
(1)
⇒“: Sei (xn ) eine Folge in D. Da D beschränkt, ist auch (xn ) beschränkt.

⇒ (xn ) enthält eine konvergente Teilfolge (xnk ) (nach Bolzano-Weierstraß).
D ist abgeschlossen ⇒ lim xnk ∈ D.
k→∞

⇐“: (i) Annahme: D nicht beschränkt.



⇒ ∀n ∈ N ∃xn ∈ D |xn | > n

Nach Voraussetzung enthält (xn ) eine konvergente Teilfolge (xnk ).


Es gilt |xnk | ≥ nk ≥ n für jedes n ∈ N und (xnk ) ist unbeschränkt, also nicht konvergent.
D.h. keine Teilfolge von (xn ) konvergiert. zur Vorraussetzung
⇒ D ist beschränkt.
(ii) Bleibt zu zeigen: D ist abgeschlossen.
Sei (xn ) Folge in D mit x0 := limxn . Zu zeigen: x0 ∈ D.
Nach Vorraussetzung existiert eine konvergente Teilfolge (xnk ) mit y0 := lim xnk ∈ D.
⇒ x0 = y0 ∈ D.
(2) Wir zeigen nur die Existenz des Maximums.
1
Sei γ := sup D (D ist beschränkt). Zu jedem n ∈ N existiert ein xn ∈ D mit γ − n < xn ≤ γ.
⇒ γ = lim xn . Da D abgeschlossen, gilt γ ∈ D.
n→∞

6 D ⊂ R und f : D → R eine Funktion.


Definition 7.17. Sei ∅ =
f : D → R heißt beschränkt :⇔ f (D) ist beschränkt (⇔ ∃C > 0 ∀x ∈ D : |f (x)| ≤ C).

76
7.4. Kompakte Mengen

Beispiel 7.18.
(1) f (x) := x2 , D = R
f ist unbeschränkt.
(2) f (x) := x2 , D = [−1, 1]
Es gilt: |f (x)| ≤ 1 für alle x ∈ D ⇒ f ist beschränkt

Satz 7.19. Sei ∅ =


6 D ⊂ R, D kompakt und f ∈ C(D).
(1) f (D) ist kompakt (insbesondere beschränkt)
(2) ∃x1 , x2 ∈ D ∀x ∈ D : f (x1 ) ≤ f (x) ≤ f (x2 )
d.h. f nimmt auf D ein Maximum und ein Minimum an“.

................
...... ..
max f (D) = f (x2 )
...... ..
...... ..
.
.......
. ..
.
..... ...
..
...... ..
..
.... ..
..
.... ..
..
.... ...
.... ..
...
. ..
... ..
..
. ..
...
. ...
... ..
... ..
..
. ..
.... ...
... ..
... ..
.......................... ... ..
...
... ..
. ..
. ......
... ..... ...
. ...
.. ..... .
.. ..
.. .... .. ..
.... ..
.. .... .. ..
.... ..
... .... .. ...
.. ....
.... ...
. ..
.. ..... ..
.. ..
.. ..... ..
...
. ..
.. .....
...... ..
....
. ..
.
... .......
.............................................................................
.. ... min f (D) = f (x1 )
.. ... ..
.. .. ..
.. .. ..

a x1 x2 = b

Abbildung 7.3.: Skizze zu Satz 7.19 (2). Hier: D = [a, b]

Beweis:
(1) Sei (yn ) eine Folge in f (D).
Dann existiert eine Folge (xn ) in D mit yn = f (xn ) für alle n ∈ N.
Nach Satz 7.16 (D kompakt, (xn ) ⊂ D) existiert eine konvergente Teilfolge (xnk ) von (xn ) mit
x0 := lim xnk ∈ D.
k→∞

Da f stetig ist, folgt ynk = f (xnk ) → f (x0 ) ∈ f (D).


D.h. jede Folge (yn ) in f (D) besitzt eine konvergente Teilfolge (ynk ) mit lim ynk ∈ f (D).
k→∞

⇒ f (D) ist kompakt nach Satz 7.16.


(2) Sei s := sup f (D). Zu zeigen: s ∈ f (D).
1
Ist n ∈ N, so ist s − n keine obere Schranke von f (D).

1
⇒ ∀n ∈ N ∃xn ∈ D : s − < f (xn ) ≤ s
n
⇒ (xn ) enthält konvergente Teilfolge (xnk ) mit x0 := lim xnk ∈ D.
k→∞

77
7. Stetige Funktionen

f ist stetig ⇒ f (xnk ) → f (x0 ) (k → ∞).

1
s− < f (xnk ) ≤ s ⇒ s = f (x0 ) ∈ f (D)
n
Analog: inf f (D) ∈ f (D).


Bemerkung 7.20. Alle Voraussetzungen im obigen Satz sind wesentlich.


(
x falls 0 ≤ x < 1
(1) D = [0, 1], f (x) = nicht stetig in 1.
0 falls x = 1
Hier f (D) = [0, 1) nicht kompakt und sup f (D) = 1 wird nicht angenommen (d.h. max f (D) existiert
nicht).
(2) D = [0, ∞) abgeschlossen, aber nicht beschränkt, also nicht kompakt.
f (x) = E(x) stetig. f ist unbeschränkt auf D, denn E([0, ∞)) = [1, ∞) ist nicht beschränkt.
⇒ f (D) ist nicht kompakt und sup f (D) existiert nicht. (in R)
(3) D = (0, 1) beschränkt, aber nicht abgeschlossen. (nicht kompakt)
f (x) = x1 . f ist unbeschränkt auf D, denn f (D) = (1, ∞) ist wieder unbeschränkt und sup f (D)
existiert nicht in R.

Bemerkung 7.21. Sei M ⊂ R, M 6= ∅. Dann:

M ist Intervall ⇔ ∀a, b ∈ M mit a ≤ b gilt: [a, b] ⊂ M

Satz 7.22. Sei I ⊂ R ein Intervall und f ∈ C(I).


(1) f (I) ist ein Intervall
(2) Ist I = [a, b], A := min f (I), B := max f (I), so ist f (I) = [A, B].

Beweis:
(1) Seien α, β ∈ f (I), o.B.d.A. sei α ≤ β.
Nach dem Zwischenwertsatz gilt [α, β] ⊂ f (I). Nach obiger Bemerkung ist dann f (I) ein Intervall.
(2) klar: f (I) ⊂ [A, B]
Nach obiger Bemerkung ist f (I) ein Intervall und A, B ∈ f (I).
⇒ [A, B] ⊂ f (I) nach (1).
⇒ f (I) = [A, B]


7.5. Monotonie, Umkehrfunktionen

Definition 7.23. Sei ∅ =


6 D ⊂ R und f eine Funktion.

78
7.5. Monotonie, Umkehrfunktionen

 
(1) f heißt monoton wachsend :⇔ ∀x1 , x2 ∈ D : x1 ≤ x2 ⇒ f (x1 ) ≤ f (x2 )
 
(2) f heißt streng monoton wachsend :⇔ ∀x1 , x2 ∈ D : x1 < x2 ⇒ f (x1 ) < f (x2 )
 
(3) f heißt monoton fallend :⇔ ∀x1 , x2 ∈ D : x1 ≤ x2 ⇒ f (x1 ) ≥ f (x2 )
 
(4) f heißt streng monoton fallend :⇔ ∀x1 , x2 ∈ D : x1 < x2 ⇒ f (x1 ) > f (x2 )
(5) f heißt [streng] monoton :⇔ f ist entweder [streng] monoton wachsend oder fallend

Definition 7.24. Sei I ⊂ R ein Intervall (I = R ist zugelassen).


f : I → R sei injektiv (d.h. ∀x1 6= x2 : f (x1 ) 6= f (x2 )). (Damit ist f : I → f (I) bijektiv.)
Dann existiert eine Funktion f −1 : f (I) → I mit f −1 (y) := x, wobei zu gegebenem y ∈ f (I) das Element
x ∈ I das eindeutige Element mit f (x) = y ist.
f −1 : f (I) → I heißt Umkehrfunktion von f .
Es gilt ∀x ∈ I : f −1 f (x) = x, (d.h. f −1 ◦ f = idI ) bzw. ∀y ∈ f (I) : f f −1 (y) = y.
 

Nun sei I ⊂ R beliebiges Intervall und f : I → R streng monoton wachsend oder streng monoton
fallend. Dann ist f injektiv (denn für x1 , x2 ∈ I mit x1 6= x2 gilt x1 < x2 oder x2 < x1 und daher
f (x1 ) < f (x2 ) f (x2 ) < f (x1 )
oder , also in jedem Fall: f (x1 ) 6= f (x2 )).
f (x1 ) > f (x2 ) f (x2 ) > f (x1 )
⇒ Es existiert eine Umkehrfunktion f −1 : f (I) → I und f −1 ist streng monoton wachsend bzw.
fallend.

Satz 7.25. Sei f ∈ C[a, b] und streng monoton. Dann ist auch f −1 ∈ C f ([a, b]) .


Beweis: Sei etwa f streng monoton wachsend. Nach Satz 7.22 ist f ([a, b]) = [f (a), f (b)] =:
J.
Sei y0 ∈ J (zu zeigen: f −1 stetig in y0 ). Sei dazu ε > 0. Wir zeigen: Es gibt ein δ1 > 0
mit

0 ≤ y − y0 < δ1 ⇒ |f −1 (y) − f −1 (y0 )| < ε


 
∀y ∈ J

Analog existiert δ2 > 0 mit

−δ2 < y − y0 ≤ 0 ⇒ |f −1 (y) − f −1 (y0 )| < ε


 
∀y ∈ J

Mit δ := min{δ1 , δ2 } gilt dann


h i
∀y ∈ J |y − y0 | < δ ⇒ f −1 (y) − f −1 (y0 ) < ε

(damit zeigen wir die Stetigkeit von f −1 in y0 nach Satz 7.3.)


Zum Nachweis der Existenz eines δ1 > 0 mit der Eigenschaft der 1. Gleichung sei x0 := f −1 (y0 ) ∈ [a, b].
Falls x0 = b, so gilt y0 = f (x0 ) = f (b) = max J, also gilt y ∈ J, 0 ≤ y − y0 nur für y = y0 ⇒
trivial.
Sei also x0 < b. Wähle x1 ∈ [a, b] mit x0 < x1 < x0 + ε. Dann sei y1 := f (x1 ) > f (x0 ), da f streng
monoton wachsend. Setze δ1 := y1 − y0 .
Nachweis der geforderten Eigenschaft:

79
7. Stetige Funktionen

Sei y ∈ J, 0 ≤ y − y0 < δ1 = y1 − y0 ⇒ y < y1 . Setze weiter x := f −1 (y) < f −1 (y1 ) = x1 .


Dann
f −1 (y) − f −1 (y0 ) = f −1 (y) − f −1 (y0 ) = x − x0 < x1 − x0 < x0 + ε − x0 = ε


Korollar 7.26. I sei beliebiges Intervall, f ∈ C(I) und streng monoton. Dann ist auch f −1 ∈ C(f (I)).

Beweis: leichte Übung. 

7.6. Exponentialfunktion und Logarithmus



xn
P
E(x) = n! . Wir wissen: E : R → R ist streng monoton wachsend und stetig, E(R) = (0, ∞). Also
n=0
−1 : (0, ∞) → R
existiert E
log x := ln x := E −1 (x) ∀x ∈ (0, ∞) natürlicher Logarithmus von x“

Aus den schon bekannten Eigenschaften von E ergibt sich:
(1) log ist auf (0, ∞) streng monoton wachsend und nach obigem Korollar stetig.
(2) ∀x, y > 0 : log(x · y) = log(x) + log(y), log( xy ) = log(x) − log(y).
Beweis: Wir beweisen nur die erste Eigenschaft. Setze dazu a := log(x) + log(y) und b := log(x · y).
E(a) = E(log(x) + log(y)) = E(log(x)) · E(log(y)) = x · y
= E(log(x · y)) = E(b)
⇒ a = b, da E injektiv ist. 
(3) log(1) = 0, log(e) = 1
(4) log x → +∞ für x → +∞; log x → −∞ für x → 0+.
(5) ∀a > 0, r ∈ Q : ar = E(r log
 a) (offenbar äquivalent zu ∀a > 0, r ∈ Q : log ar = r · log a)
−n 1 n
Ferner: log(a ) = log an = log 1 − log a = −n log a.
 1  1 h 1 n i
Weiter: log a n = n1 · n · log a n = n1 · log a n = n1 log a.

Sei nun m ∈ Z und n ∈ N


m
h 1 m i  1 m
⇒ log a n = log a n = m · log a n = · log a
n

Definition 7.27 (Die allgemeine Potenz). Für a > 0 und x ∈ R definiere

ax := E(x log a)

(konsistent mit obigem Sachverhalt für x = r ∈ Q)


Insbesondere gilt im Spezialfall a = e:

ex = E(x log e) = E(x)


|{z}
=1

80
7.7. Verschärfter Stetigkeitsbegriff

Abbildung 7.4.: Der natürliche Logarithmus

Eigenschaften:
(1) x 7→ ax ist stetig auf R.
(2) ax > 0
(3) ax+y = E((x + y) · log a) = E(x log a + y log a) = E(x log a) · E(y log a) = ax · ay
(4) a−x = E(−x log a) = E(x 1log a) = a1x

(5) log ax = log E(x · log a) = x log a


 

y
(6) (ax ) = E (y · log(ax )) = E(xy · log a) = axy

7.7. Verschärfter Stetigkeitsbegriff

Erinnerung: Sei f ∈ C(D) und z ∈ D. Stetigkeit von f in z bedeutet:


h i
∀ε > 0 ∃δ > 0 ∀x ∈ D |x − z| < δ ⇒ f (x) − f (z) < ε

(δ hängt ab von ε und von z)

Beispiel 7.28. D = [0, ∞), f (x) = x2 , z > 0. Sei ε > 0 und sei δ > 0 so gewählt, dass
h i
∀x ∈ D |x − z| < δ ⇒ f (x) − f (z) < ε

Wähle dann x := z + 2δ , dann |x − z| = ε = δ


2 < δ, daher |f (x) − f (z)| < ε d.h. x2 − z 2 < ε, also wegen
x2 − z 2 = (x − z)(x + z):

|x − z| · |x + z| < ε
| {z }
= δ2 (2z+ δ2 )

81
7. Stetige Funktionen

δ2
 
δ δ
⇒ · 2z + = δz + > δz
2 2 4
ε
⇒ δz < ε ⇒ δ <
z
⇒ δ hängt von ε und von z ab.

Abbildung 7.5.: Während ε konstant bleibt werden verschiedene Werte für x (x1 , x2 ) gewählt; deutlich
sichtbar: δ1 muss wesentlich größer gewählt werden als δ2 .

7.8. Gleichmäßige Stetigkeit

Definition 7.29. f : D → R heißt gleichmäßig stetig auf D, wenn gilt:


h i
∀ε > 0 ∃δ > 0 ∀x, z ∈ D : |x − z| < δ ⇒ f (x) − f (z) < ε

(δ nur von ε abhängig)

Klar: f gleichmäßig stetig auf D ⇒ f stetig auf D. Die Umkehrung ist i.a.
falsch.

Satz 7.30. Sei D kompakt und f stetig auf D. Dann ist f auch gleichmäßig stetig auf D.

Beweis: Annahme: f sei nicht gleichmäßig stetig. Dann existiert ein ε > 0 derart, dass für alle δ > 0
folgendes nicht gilt:
h i
∀z, x ∈ D |x − z| < δ ⇒ f (x) − f (z) < ε

1 1
Insbesondere für δ := n mit n ∈ N: Es gibt zn , xn ∈ D mit |xn − zn | < n, aber |f (xn ) − f (zn )| ≥
ε.

82
7.9. Lipschitz-Stetigkeit

Da D kompakt, existiert eine Teilfolge (xnk ) von (xn ) mit xnk → x0 ∈ D für k →
∞.
1
Wegen |xnk − znk | < nk → 0 für k → ∞ geht also auch znk → x0 .
Da f stetig in x0 : f (xnk ) → f (x0 ), f (znk ) → f (x0 ) für k → ∞.
⇒ |f (xnk ) − f (znk )| → 0 . 
Beispiel 7.31. f = x2 , D = [0, 1].

f (x) − f (z) = x2 − z 2 = |x + z| · |x − z| ≤ 2|x − z|

Also: Zu ε > 0 wähle δ := 2ε .

7.9. Lipschitz–Stetigkeit

Definition 7.32. f : D → R heißt Lipschitz-stetig auf D, wenn ein L ≥ 0 existiert mit

∀x, z ∈ D : f (x) − f (z) ≤ L|x − z|

(d.h. Sekantensteigung von f ist immer ≤ L“)



ε
Klar: f Lipschitz-stetig auf D ⇒ f gleichmäßig stetig auf D (zu ε > 0 wähle δ := L ). Die Umkehrung
ist i.a. falsch.

Beispiel 7.33. D = [0, 1], f (x) := x.
f ist stetig und D kompakt, also ist f nach obigem Satz auch gleichmäßig stetig. f ist aber nicht
Lipschitz–stetig:
Annahme: Es existiert ein L ≥ 0 mit
√ √
∀x, z ∈ D : x − z ≤ L|x − z|

Speziell für z := 0:
√ 1 √
∀x ∈ (0, 1] : x ≤ Lx ⇔ ≤ x
L

da x → 0 für x → 0.

7.10. Zusammenfassung
f Lipschitz-stetig ⇒ f gleichmäßig stetig ⇒ f stetig.
Die Umkehrungen sind i.a. falsch; Ausnahme vgl. obiger Satz.

83
7. Stetige Funktionen

84
8. Funktionenfolgen und –reihen

Stets in diesem Abschnitt: D ⊂ R und (fn )n∈N eine Folge von Funktionen fn : D →
R.
P
sn := f1 + · · · + fn : D → R. (sn ) =: fn heißt Funktionenreihe.

8.1. Punktweise Konvergenz


P
 Die Funktionenfolge (fn ) bzw.
Definition 8.1. P -reihe fn heißt punktweise konvergent auf D, wenn
∀x ∈ D fn (x) n∈N konvergent bzw. ∀x ∈ D fn (x) konvergent.
In diesem Fall heißt f : D → R oder s : D → R definiert durch

∀x ∈ D f (x) := lim fn (x)


n→∞

bzw.

X
∀x ∈ D s(x) := fn (x)
n=1

die Grenzfunktion bzw. Summenfunktion.

Beispiel 8.2.

(1) D = [0, 1], fn (x) := xn . Dann


 
0 x ∈ [0, 1)
fn (x) → =: f (x)
1 x=1

Also: fn konvergiert punktweise gegen f .


an (x − x0 )n eine Potenzreihe mit Konvergenzradius r > 0. D = (x0 − r, x0 + r).
P
(2) Sei
n=0


X
fn (x) := an (x − x0 )n , s(x) := an (x − x0 )n
n=0
P
Dann konvergiert fn auf D punktweise gegen s.

85
8. Funktionenfolgen und -reihen

(3) D = [0, ∞),


x
n·x n
fn (x) = = 1 →0
1 + n2 x2 n2 + x2

für n → ∞ für alle x ∈ D.


Also: (fn ) konvergiert auf D punktweise gegen
f ≡ 0.
Beachte: fn ( n1 ) = 12 .

Punktweise Konvergenz von fn gegen f bedeutet:

∀x ∈ D fn (x) → f (x), n→∞

⇔ ∀x ∈ D : ∀ε > 0 ∃n0 ∈ N ∀n ≥ n0 fn (x) − f (x) < ε


(n0 hängt ab von ε und von x)

8.2. Gleichmäßige Konvergenz


P
Definition 8.3. (fn ) bzw. fn heißt gleichmäßig konvergent gegen f bzw. s auf D, wenn

∀ε > 0 ∃n0 ∈ N ∀n ≥ n0 ∀x ∈ D : fn (x) − f (x) < ε

(n0 hängt nur noch von ε ab.)

Anschaulich bedeutet gleichmäßige Konvergenz von (fn ) gegen f :


∀ε > 0 ∃n0 ∈ N ∀n ≥ n0 : Der Graph von fn bleibt im ε–Schlauch um den Graphen von f (vergleiche
auch Abbildung 8.1).
Klar: Gleichmäßige Konvergenz ⇒ Punktweise Konvergenz. Die Umkehrung ist i.a.
falsch

Abbildung 8.1.: Anschauliche Darstellung der gleichmäßigen Konvergenz

86
8.2. Gleichmäßige Konvergenz

Beispiel 8.4.
(1) D = [0, 1], fn (x) = xn
(
0 falls x ∈ [0, 1)
fn konvergiert punktweise gegen f (x) := .
1 falls x = 1
Aber: (fn ) konvergiert nicht gleichmäßig gegen f , denn
   
1 1 1
fn √ −f √ =
n
2 n
2 2
d.h. es gibt kein n0 mit
1
∀n ≥ n0 ∀x ∈ D fn (x) − f (x) < ε :=
2
Beachte: Alle fn ∈ C[0, 1], aber f 6∈ C[0, 1].
Aber:
(2) Sei α ∈ (0, 1), Dα := [0, α] und fn (x) := xn .
Klar nach (1): (fn ) konvergiert auf Dα punktweise gegen f : x 7→ 0.
Für alle n ∈ N, x ∈ Dα gilt:

fn (x) − f (x) = fn (x) = xn ≤ αn


|{z}
=0

Sei ε > 0. Dann existiert ein n0 ∈ N mit ∀n ≥ n0 : αn < ε.

⇒ ∀n ≥ n0 ∀x ∈ Dα : fn (x) − f (x) = xn ≤ αn < ε

Also: (fn ) konvergiert auf Dα gleichmäßig gegen f .


nx
(3) D = [0, ∞), fn (x) = 1+n2 x2 . (fn ) konvergiert nicht gleichmäßig gegen 0, da fn ( n1 ) − f ( n1 ) = 1
2 für
alle n ∈ N.
⇒ Es gibt kein n0 mit
1
∀n ≥ n0 ∀x ∈ D fn (x) − f (x) < ε :=
2

Satz 8.5.
(1) Sei (fn ) Funktionenfolge auf D und f : D → R.
Es gebe eine Folge (αn )n∈N in R mit lim αn = 0 und es gebe ein m ∈ N mit:
n→∞

∀n ≥ m ∀x ∈ D : fn (x) − f (x) ≤ αn

Dann konvergiert (fn ) gleichmäßig auf D gegen f .


(2) Majorantenkriterium von Weierstraß:
Es gebe eine Folge (cn ) in R und ein m ∈ N mit

∀n ≥ m ∀x ∈ D : fn (x) ≤ cn

P ∞
P
und es sei cn konvergent. Dann konvergiert auch fn gleichmäßig auf D.
n=1 n=1

87
8. Funktionenfolgen und -reihen

Beweis:
(1) Sei ε > 0, wähle n0 ∈ N mit n0 ≥ m und ∀n ≥ n0 αn < ε.

⇒ ∀n ≥ n0 ∀x ∈ D fn (x) − f (x) ≤ αn < ε

(2) sn := f1 + · · · + fn .

∀x ∈ D ∀n ≥ m fn (x) ≤ cn

Aus dem Majorantenkriterium für reelle Zahlen folgt:


X X
fn konvergiert punktweise gegen s(x) := fn (x).

Für n ≥ m gilt nun:



X ∞
X ∞
X
∀x ∈ D sn (x) − s(x) = fk (x) ≤ fk (x) ≤ ck =: αn
k=n+1 k=n+1 k=n+1
P
Da ck konvergiert, folgt: αn → 0 für n → ∞.
P
⇒ sn konvergiert gleichmäßig auf D gegen s, d.h. fn konvergiert gleichmäßig auf D gegen s.


Satz 8.6. (fn ) konvergiere auf D gleichmäßig gegen f : D → R.


(1) Sind alle fn in x0 ∈ D stetig, so ist auch f in x0 stetig.
(2) Gilt fn ∈ C(D) für alle n ∈ N, so ist f ∈ C(D).

Beweis:
(1) Für x ∈ D, n ∈ N gilt:
  
f (x) − f (x0 ) = f (x) − fn (x) + fn (x) − fn (x0 ) + fn (x0 ) − f (x0 )
≤ f (x) − fn (x) + fn (x) − fn (x0 ) + fn (x0 ) − f (x0 )

Sei ε > 0. Dann:


ε
∃m ∈ N ∀y ∈ D : fm (y) − f (y) <
3

Also ist |f (x) − f (x0 )| < 3 + |fm (x) − fm (x0 )|.
ε
fm ist stetig in x0 also existiert ein δ > 0 mit |fm (x) − fm (x0 )| < 3 für alle x ∈ D mit |x − x0 | < δ.
Also: |f (x) − f (x0 )| < ε für alle x ∈ D mit |x − x0 | < δ.
⇒ f stetig in x0 .
(2) Folgt direkt aus (1).

Bemerkung 8.7. Konvergiert (fn ) auf D punktweise gegen f : D → R und sind alle fn stetig auf D,
f aber nicht, so kann die Konvergenz (nach 8.6) nicht gleichmäßig sein.
Vergleiche Beispiel (1) fn (x) := xn auf D = [0, 1] :
 

fn ∈ C(D) für alle n ∈ N, f 6∈ C(D) ⇒ (fn ) konvergiert nicht gleichmäßig (wie gezeigt).

88
8.3. Potenzreihen

Bemerkung 8.8. Die Vorraussetzungen und Bezeichnungen seien wie in vorigem Satz. Außerdem sei
x0 Häufungspunkt von D.
Dann:
lim f (x) = f (x0 ) und lim fn (x) = fn (x0 ) für alle n ∈ N
x→x0 x→x0

Also:
 
lim lim fn (x) = lim f (x) = f (x0 ) = lim fn (x0 )
x→x0 n→∞ x→x0 n→∞
 
= lim lim fn (x)
n→∞ x→x0

Die Vertauschung von Grenzwertbildung ist i.a. nicht möglich! Denn (vergleiche Beispiel (1)):
 
lim lim xn = lim 0 = 0
x→1− n→∞ x→1−
 
lim lim xn = lim 1 = 1
n→∞ x→1− n→∞

Hier unter der Vorrausetzung gleichmäßiger Konvergenz jedoch schon.

8.3. Potenzreihen

an xn
P
Sei =: f (x) eine Potenzreihe mit Konvergenzradius r > 0. D :=
n=0
(−r, r).
Dann lim f (x) = f (x0 ) für jedes x0 ∈ D (vergl. Beispiel 6.6 (4)).
x→x0

Also
n n
! !
X X
lim lim ak xk = lim ak xk0
x→x0 n→∞ n→∞
k=0 k=0
| {z } | {z }
=f (x) =f (x0 )
n
!
X
= lim lim ak xk
n→∞ x→x0
k=0

Frage: Konvergiert die Potenzreihe auf D gleichmäßig? (da sich ja die Grenzwerte vertauschen las-
sen)
Antwort: Im allgemeinen nein, denn:

1−xn+1 1
xn , D = (−1, 1), sn (x) := 1 + x + · · · + xn =
P
Beispiel 8.9. 1−x → 1−x (n → ∞).
n=0
1
Sei f : D → R, x 7→ 1−x .

Setze ε = 1. Sei m ∈ N. Dann gilt für jedes x ∈ D


1 − xm+1 1
sm (x) − f (x) = −
1−x 1−x
|x|m+1 x→−1
= −−−−→ ∞
1−x
⇒ ∃x0 ∈ D mit sn (x0 ) − f (x0 ) ≥ 1 = ε.

Aber:

89
8. Funktionenfolgen und -reihen


an xn sei eine Potenzreihe mit Konvergenzradius r > 0 und D = (−r, r).
P
Satz 8.10.
n=0

Ist [a, b] ⊂ D ein kompaktes Intervall, so konvergiert die Potenzreihe auf [a, b] gleichmäßig.


Beweis: Setze % := max |a|, |b| . Dann ist [a, b] ⊂ [−%, %] ⊂ D.

Sei fn (x) := an xn , x ∈ D. Für jedes x ∈ [−%, %], n ∈ N gilt:

fn (x) ≤ |an | · |x|n ≤ |an | · %n =: cn


∞ ∞
an %n absolut, d.h.
P P
Dann konvergiert cn konvergiert.
n=0 n=0

Die Behauptung folgt dann mit Satz 8.5. 

Bemerkung 8.11. Wir erhalten so einen Beweis für Satz 7.6.



an xn , x ∈ D.
P
Mit den Bezeichnungen von Satz 8.10 sei f (x) =
n=0

Behauptung: f ∈ C(D)

Beweis: Sei x0 ∈ D. Wähle a < b mit [a, b] ⊂ D und a < x0 < b.



an xn gleichmäßig auf [a, b].
P
Nach Satz 8.10 konvergiert
n=0

Nach Satz 8.6 ist f ∈ C[a, b], insbesondere ist f stetig in x0 .

Da wir x0 beliebig gewählt haben, folgt, dass f stetig auf ganz D ist. 

Satz 8.12 (Identitätssatz für Potenzreihen).


∞ ∞
an xn und bn xn seien Potenzreihen mit den Konvergenzradien r1 > 0, r2 > 0.
P P
n=0 n=0

Setze r := min{r1 , r2 } und D := (−r, r).


Definiere die Funktionen f, g : D → R durch

X ∞
X
f (x) = an xn und g(x) = bn xn
n=0 n=0

Ist (xk )k∈N eine Nullfolge in D \ {0} und f (xk ) = g(xk ) für alle k ∈ N, so gilt: an = bn für alle n ∈ N.

Beweis: Annahme: Es gibt unter den genannten Vorraussetzungen ein n ∈ N mit an 6=


bn .

Setze n0 = min{n ∈ N | an 6= bn } und h : D → R, x 7→ f (x) − g(x).

Weiter sei cn := an − bn für alle n ∈ N. Es ist c0 = · · · = cn0 −1 = 0.

Dann gilt für jedes x ∈ D:



X ∞
X ∞
X
n n
h(x) = (an − bn )x = cn x = cn xn
n=0 n=0 n=n0

90
8.3. Potenzreihen

also
∞ ∞ ∞
h(x) X X X
ϕ(x) := = cn xn−n0 = ck+n0 xk = cn+n0 xn
xn0 n=n
k=n−n0
n=0
0 k=0

ϕ ist eine Potenzreihe, die für jedes x ∈ D konvergiert ⇒ ϕ hat den Konvergenzradius rϕ ≥
r.
⇒ ϕ stetig in 0, d.h. ϕ(xk ) → ϕ(0) = cn0 = an0 − bn0 6= 0.
7.6
h(xk ) f (xk )−g(xk )
Andererseits: ϕ(xk ) = n
xk 0
= n
xk 0
=0→0 

91
8. Funktionenfolgen und -reihen

92
9. Differentialrechnung
Stets in diesem Abschnit: I ⊂ R sei ein (nicht–einpunktiges) Intervall (I = R zugelassen), f : I → R
eine Funktion.
Idee: Approximiere“ f in der Nähe von“ x0 ∈ N durch eine Gerade.
” ”

  f (x)−f (x0 )
Steigung der Geraden durch die Punkte x0 , f (x0 ) und x, f (x) : x−x0 .
f (x) − f (x0 )  
f (x) = f (x0 ) + (x − x0 ) ∼ f (x0 ) + a(x − x0 ) x nahe x0
x − x0

Definition 9.1. f : I → R heißt in x0 ∈ R differenzierbar (diff’bar)


f (x) − f (x0 )
:⇔ lim existiert und ist 6= ±∞
x→x0 x − x0
(Beachte: x0 ist Häufungspunkt von I)
f (x0 + h) − f (x0 )
 
⇔ lim existiert und ist ∈ R
h→0 h
f (x)−f (x0 )
Anschaulich ist der lim x−x0 , falls er existiert, die Steigung der Tangenten an dem Graphen von
x→x0 ”
f im Punkt x0“.
Falls f in x0 differenzierbar ist, so heißt
f (x) − f (x0 )
lim =: f 0 (x0 )
x→x0 x − x0
die (erste) Ableitung von f im Punkt x0 .
Falls f in jedem x0 ∈ I differenzierbar ist, so heißt f differenzierbar auf I. In diesem Fall wird durch
I → R, x0 →7 f 0 (x0 ) eine Funktion f 0 : I → R definiert, die (erste) Ableitung von f auf I.

93
9. Differentialrechnung

Beispiel 9.2.
(1) I sei beliebig, ∀x ∈ I f (x) := c, wobei c ∈ R fest.
Dann:
f (x) − f (x0 ) c−c
= =0
x − x0 x − x0
⇒ f differenzierbar auf I und ∀x ∈ I f 0 (x) = 0.
(2) I = R, ∀x ∈ R f (x) := |x|.
Wähle x0 = 0, dann für x 6= x0
(
f (x) − f (x0 ) |x| 1 für x > 0
= =
x − x0 x −1 für x < 0

Also
f (x) − f (x0 )
lim =1
x→0+ x − x0
f (x) − f (x0 )
lim = −1
x→0− x − x0
f (x) − f (x0 )
⇒ lim existiert nicht
x→0 x − x0
⇒ f ist in 0 nicht differenzierbar.
Beachte: f ist in 0 stetig.
(3) I = R, f (x) = xn für alle x ∈ R, n ∈ N fest.

(x − x0 ) xn−1 + xn−2 x0 + · · · + xn−1



f (x) − f (x0 ) xn − xn0 0
= =
x − x0 x − x0 x − x0
= xn−1 + xn−2 x0 + · · · + xn−1
0
x→x0
−−−−→ n · xn−1
0

Also: f ist auf R differenzierbar und ∀x ∈ R : f 0 (x) = nxn−1 .


(4) I = R, f (x) = E(x) = ex ; sei x0 ∈ R. Wie bereits gezeigt:

E(x0 + h) − E(x0 ) h→0


−−−→ E(x0 ) = ex0
h
⇒ E ist auf R differenzierbar und E 0 = E.

Satz 9.3. Ist f : I → R in x0 ∈ I differenzierbar, so ist f in x0 stetig.

Beweis:
f (x) − f (x0 )
f (x) − f (x0 ) = · (x − x0 ) → f 0 (x0 ) · 0 = 0
x − x0 | {z }
| {z } →0
x→x0
−−−−→f 0 (x)
0x→x
⇒ f (x) −−−−→ f (x0 )
⇒ f ist in x0 stetig. 

94
9.1. Differentiationsregeln

9.1. Differentiationsregeln

Satz 9.4 (Differentiationsregeln). f, g : I → R seien differenzierbar in x0 ∈ I.


(1) Für α, β ∈ R ist αf + βg in x0 differenzierbar, und

(αf + βg)0 (x0 ) = αf 0 (x0 ) + βg 0 (x0 )

(2) f · g ist in x0 differenzierbar, und

(f · g)0 (x0 ) = f 0 (x0 ) · g(x0 ) + f (x0 ) · g 0 (x0 )

(3) Ist g(x0 ) 6= 0, so existiert ein (nicht einpunktiges) Intervall J ⊂ I mit ∀x ∈ J g(x) 6= 0 und
f
:
g J → R ist differenzierbar in x0 mit

 0
f f 0 (x0 )g(x0 ) − f (x0 )g 0 (x0 )
(x0 ) =
g g(x0 )2

Beweis:
(1) selbst
(2)

(f g)(x) − (f g)(x0 ) f (x) − f (x0 ) g(x) − g(x0 )


= ·g(x) + f (x0 )
x − x0 x − x0 x − x0
| {z } | {z }
→f 0 (x0 ) →g 0 (x0 )

⇒ Behauptung.
(3) Nach 9.3 ist g stetig in x0 . Daraus folgt die ie Aussage über J.

f
− fg (x0 )
" #
g (x) 1 f (x) − f (x0 ) g(x) − g(x0 )
= g(x0 ) − f (x0 )
x − x0 g(x)g(x0 ) x − x0 x − x0
| {z } | {z }
→f 0 (x0 ) →g 0 (x0 )

⇒ Behauptung.

x f (x)
e
Beispiel 9.5. Sei I = (0, ∞), h(x) = x = g(x) mit f (x) = ex und g(x) = x.
Dann ist h differenzierbar auf I und
ex x − ex · 1 ex ex
h0 (x) = = −
x2 x x2

Satz 9.6 (Kettenregel). Seien I, J nicht einpunktige Intervalle. g : I → R sei differenzierbar in x0 ∈ I,


es gelte g(I) ⊂ J.
f : J → R sei differenzierbar in y0 := g(x0 ) ∈ J.

95
9. Differentialrechnung

Dann ist f ◦ g : I → R differenzierbar in x0 , und

(f ◦ g)0 (x0 ) = f 0 g(x0 ) · g 0 (x0 )




Beweis:
(
f (y)−f (y0 )
für y 6= y0
f˜(y) := y−y0
f 0 (y0 ) für y = y0

Da f differenzierbar in y0 ist, gilt f˜(y) → f 0 (y0 ) = f˜(y0 ) für y → y0 . (d.h. f˜ stetig in


y0 )
Nach 9.3 ist ferner g stetig in x0 , also
x→x0
g(x) −−−−→ g(x0 ) = y0

f˜ stetig in y0
 x→x0
⇒ f˜ g(x) −−−−→ f˜(y0 ) = f 0 (y0 )

Ferner ∀y ∈ J f (y) − f (y0 ) = (y − y0 ) · f˜(y).

g(x) − y0 f˜ g(x)
   
(f ◦ g)(x) − (f ◦ g)(x0 ) f g(x) − f g(x0 ) g(x) − g(x0 ) ˜
⇒ = = = · f (g(x))
x − x0 x − x0 x − x0 x − x0 | {z }
| {z } →f 0 (x )
0
→g 0 (x0 )

Beispiel 9.7. Sei a > 0 und h(x) := ax für alle x ∈ R, also h(x) = f (g(x)) mit

f (x) := ex , g(x) := x · log a

f und g sind auf R differenzierbar, f 0 (x) = ex , g 0 (x) = log a. Nach 9.6 ist h auf R differenzierbar und

h0 (x) = f 0 (g(x)) · g 0 (x) = ex·log a · log a = ax · log a

9.2. Umkehrfunktion

Frage: f differenzierbar, f −1 existiert: Ist dann auch f −1 differenzierbar?


Antwort: I.a. nein.

Beispiel 9.8. I = [0, ∞), f (x) = x2 (also f 0 (x) = 2x, f 0 (0) = 0). f −1 (x) = x; in x0 = 0 gilt:

f −1 (x) − f −1 (x0 ) x 1 x→x =0
= = √ −−−−0−→ ∞
x − x0 x x

⇒ f −1 in x0 nicht differenzierbar.
(Das liegt an f 0 (0) = 0 und natürlich f (0) = 0, f −1 (0) = 0)

96
9.2. Umkehrfunktion

Satz 9.9. Sei I ein Intervall (nicht einpunktig), f ∈ C(I) und f streng monoton. (⇒ f −1 existiert).
Ist f differenzierbar in x0 ∈ I und f 0 (x0 ) 6= 0, so ist auch f −1 : f (I) → I differenzierbar in y0 := f (x0 )
und
" #
−1 0
 1 1
f (y0 ) = 0 = 0 −1 
f (x0 ) f f (y0 )

(Beachte: f (I) ist Intervall, da Bilder von stetigen Funktionen Intervalle sind. Und I ist nicht einpunktig,
da f streng monoton.)

Beweis: Sei (yn ) eine Folge in f (I) mit yn → y0 und yn 6= y0 für alle n ∈ N.
Setze ∀n ∈ N xn := f −1 (yn ).
⇒ f −1 stetig (in y0 ).
n→∞
Also: xn = f −1 (yn ) −−−−→ f −1 (y0 ) = x0 .
f −1 (yn ) − f −1 (y0 ) xn − x0 1 n→∞ 1
⇒ = = −−−−→
yn − y0 f (xn ) − f (x0 ) f (xn )−f (x0 ) f 0 (x 0)
xn −x0


Beispiel 9.10.
(1) ∀x ∈ R f (x) = ex . Bekannt: f −1 = log : (0, ∞) → R, ∀x ∈ R f 0 (x) = ex .
1
Dann ∀y ∈ (0, ∞) : (f −1 )0 (y) = f 0 (x) mit y = f (x).
1
d.h. (log)0 (y) = ex mit y = ex , d.h.
1
∀y ∈ (0, ∞) (log)0 (y) =
y

(2) Sei α ∈ R und ∀x > 0 f (x) := xα = eα·log x .


⇒ ∀x > 0 f (x) = g(h(x)) mit g(x) = ex , h(x) = α log x ⇒ h0 (x) = α
x

⇒ f differenzierbar auf (0, ∞) und


∀x > 0 f 0 (x) = f 0 (h(x)) · h0 (x) = eα log x · α
x = α · xα−1

z.B.
√ 1 1 1
f (x) = x ⇒ f 0 (x) = · x 2 −1 = √
2 2 x

Beispiel 9.11.
(1) f (t) := log(1 + t), t > −1
1
f ist auf (−1, ∞) differenzierbar und f 0 (t) = 1+t .

Es ist
log(1 + t) f (t) − f (0) t→0 0
= −−−→ f (0) = 1
t t−0
log(1+t)
Also: lim t = 1.
t→0
a x
= ea für jedes a ∈ R.

(2) Behauptung: lim 1 + x
x→∞

97
9. Differentialrechnung

Beweis: Klar für a = 0.


log(1+ x
a
) x→∞
Sei a 6= 0. Nach (1) gilt a −−−−→ 1.
x

a
 x→∞
Also x · log 1 + x −−−−→ a.

a x
= ex·log(1+ x ) −−−−→ ea .
 a x→∞
⇒ 1+ x 

9.3. Extrempunkte

Definition 9.12. Sei M ⊂ R.


x0 ∈ M heißt innerer Punkt von M , falls ein δ > 0 existiert mit Uδ (x0 ) ⊂ M .
D.h.: Ist M = [a, b] oder M = [a, b) oder M = (a, b] oder M = (a, b), so gilt:

x0 ist innerer Punkt von M ⇔ x0 ∈ (a, b).

Beispiel 9.13. M = Q: M hat keine inneren Punkte, denn für jedes x0 ∈ Q und jedes δ > 0 enthält
Uδ (x0 ) irrationale Punkte, also Uδ (x0 ) 6⊂ M .

Definition 9.14. Sei D ⊂ R. f : D → R hat in x0 ∈ D ein relatives Maximum

:⇔ ∃δ > 0 ∀x ∈ D ∩ Uδ (x0 ) f (x) ≤ f (x0 )

bzw. hat ein relatives Minimum

:⇔ ∃δ > 0 ∀x ∈ D ∩ Uδ (x0 ) f (x) ≥ f (x0 )

x0 ist ein relatives Extremum, wenn f in x0 ein relatives Maximum oder ein relatives Minimum hat.

Abbildung 9.1.: Funktion mit eingezeichneten relativen Extrema

98
9.4. Mittelwertsatz der Differentialrechnung

Satz 9.15. I Intervall, nicht einpunktig, f : I → R habe in x0 ∈ I ein relatives Extremum. Ferner sei
f differenzierbar in x0 , und x0 sei innerer Punkt von I. Dann gilt:

f 0 (x0 ) = 0

Beweis: f habe in x0 ein relatives Maximum. (Minimum analog)


Da x0 innerer Punkt von I gibt es ein δ1 > 0 mit Uδ1 (x0 ) ⊂ I.
Da f in x0 relatives Maximum hat,

∃δ2 ∀x ∈ I ∩ Uδ2 (x0 ) f (x) ≤ f (x0 )

Also für δ := min{δ1 , δ2 }:

∀x ∈ Uδ (x0 ) f (x) ≤ f (x0 )

Also für x ∈ Uδ (x0 ), x 6= x0 :


(
f (x) − f (x0 ) ≤ 0 für x > x0
x − x0 ≥ 0 für x < x0

f (x)−f (x0 ) f (x)−f (x0 )


Da f differenzierbar in x0 , existiert lim x−x0 und ist gleich lim x−x0 (linksseitiger Limes)
x→x0 x→x0 −
f (x)−f (x0 )
und gleich lim x−x0 (rechtsseitiger Limes).
x→x0 +

f (x) − f (x0 )
⇒ f 0 (x0 ) = lim =0
x→x0 x − x0

Warnungen:
(1) Die Umkehrung des Satzes ist falsch!
Beispiel 9.16. ∀x ∈ R f (x) = x3 ; f 0 (x) = 3x2 , f 0 (0) = 0, aber f hat in 0 weder relatives Maximum
noch relatives Minimum.
(2) Die Voraussetzung x0 innerer Punkt von I“ ist wesentlich.

Beispiel 9.17. I = [0, 1], ∀x ∈ I f (x) := x. f hat in x0 = 1 relatives Maximum, aber f 0 (1) = 1 6= 0.
Allerdings ist x0 auch kein innerer Punkt von I.
Vergleiche hierzu auch die beiden Randextrema“ in Abbildung 9.1.

9.4. Mittelwertsatz der Differentialrechnung

Satz 9.18 (Mittelwertsatz der Differentialrechnung).


f : [a, b] → R sei stetig auf [a, b] und differenzierbar auf (a, b).
Dann existiert ein ξ ∈ (a, b) mit

f (b) − f (a)
f 0 (ξ) =
b−a

99
9. Differentialrechnung

Abbildung 9.2.: Mittelwertsatz der Differentialrechnung

Beweis:
f (b) − f (a)
∀x ∈ [a, b] : g(x) := f (x) − f (a) − · (x − a)
b−a
Dann: g stetig auf [a, b], differenzierbar auf (a, b).
Ferner ist g(a) = 0, g(b) = 0. Da stetige Funktionen auf einem kompakten Intervall immer Minimum
und Maximum annehmen, existieren s, t ∈ [a, b] mit

∀x ∈ [a, b] : g(s) ≤ g(x) ≤ g(t)

Falls s ∈ {a, b} und außerdem t ∈ {a, b} ist, so folgt (wegen g(a) = g(b) = 0): g(s) = g(t) = 0 und damit
g≡0
⇒ g 0 (ξ) = 0 für jedes ξ ∈ (a, b).
Falls s ∈ (a, b) oder t ∈ (a, b), so ist wenigstens einer von beiden innerer Punkt von (a, b) und daher, da
g in t ein relatives Maximum und in s ein relatives Minimum hat:
⇒ g 0 (t) = 0 oder g 0 (s) = 0.
Also in jedem Fall :

∃ξ ∈ (a, b) : g 0 (ξ) = 0

Es gilt ferner
f (b) − f (a)
g 0 (ξ) = f 0 (ξ) −
b−a
⇒ Behauptung. 

Anwendung:

f (b) − f (a) = f 0 (ξ) · |b − a| ≤ c · |b − a| falls |f 0 (ξ)| ≤ c

100
9.5. Anwendungen:

Korollar 9.19. I Intervall, f : I → R sei differenzierbar auf I. Dann gilt:


f ist konstant auf I ⇔ f 0 = 0 auf I.

Beweis:

⇒“ ist klar.

⇐“ Seien a, b ∈ I und a < b. Nach dem Mittelwertsatz existiert ein ξ ∈ (a, b) mit

f (b) − f (a)
= f 0 (ξ) = 0
b−a

⇒ f (a) = f (b) ⇒ f ist konstant

9.5. Anwendungen:

Korollar 9.20. Es existiert genau eine Funktion f : R → R mit


(1) f ist auf R differenzierbar.
(2) ∀x ∈ R f 0 (x) = f (x).
(3) f (0) = 1.
nämlich f (x) = ex .

Beweis: Klar: f (x) = ex hat die Eingeschaften (1), (2), (3).

Zur Eindeutigkeit:

Sei f Funktion mit obigen Eigenschaften. Setze

f (x)
∀x ∈ R Φ(x) :=
ex
Dann
=f (x)
z }| {
0 f 0 (x) ex − f (x)ex
∀x ∈ R Φ (x) = =0
(ex )2

Nach 9.19 ist Φ konstant, d.h.

∃c ∈ R ∀x ∈ R Φ(x) = c
f (0)
Ferner Φ(0) = e0 = f (0) = 1.

⇒ ∀x ∈ R Φ(x) = 1 ⇒ ∀x ∈ R f (x) = ex

101
9. Differentialrechnung

Korollar 9.21.
a x

∀a ∈ R lim = ea
1+
x→∞ x
n
(Erinnerung: lim 1 + n1 = e.)
n→∞

1
Beweis: Setze ∀t ∈ (−1, ∞) f (t) := log(1 + t). Dann f 0 (t) = 1+t · 1.

log(1 + t) f (t) − f (0)


⇒ lim = lim = f 0 (0) = 1
t→0 t t→0 t−0
Daher gilt für alle a ∈ R, a 6= 0
log(1 + xa )
⇒ lim a =1
x→∞
x
| {z }
1 a x
=a log(1+ x )
 a x
⇒ lim log 1 + =a
x→∞ x
Da E stetig (in a):
x
lim elog(1+ x ) = ea
a

x→∞

⇒ Behauptung für a 6= 0. (a = 0 Behauptung trivial.) 

Korollar 9.22 (Folgerung aus dem Mittelwertsatz).


(1) Sind f, g : I → R differenzierbar und gilt f 0 = g 0 auf I, so existiert ein c ∈ R mit

∀x ∈ I f (x) = g(x) + c

(2) Sei f : I → R differenzierbar. Dann gilt:


• Falls f 0 > 0 auf I, so ist f streng monoton wachsend.
• Falls f 0 < 0 auf I, so ist f streng monoton fallend.
• Falls f 0 ≥ 0 auf I, so ist f monoton wachsend.
• Falls f 0 ≤ 0 auf I, so ist f monoton fallend.

Beweis:
(1) Setze h := f − g, dann ist h0 = f 0 − g 0 ≡ 0 auf I

⇒ ∃c ∈ R ∀x ∈ I h(x) = f (x) − g(x) = c

(2) Sei f 0 > 0 auf I. Seien a, b ∈ I mit a < b. Dann

f (b) − f (a) = f 0 (ξ) (b − a) > 0 nach Mittelwertsatz


| {z } | {z }
>0 >0

(es existiert ein ξ, derart dass . . . )


⇒ f (a) < f (b) ⇒ f streng monoton wachsend. (Rest analog).


102
9.6. Die Regeln von de l’Hospital

Bemerkung 9.23. Ist f auf I differenzierbar und f monoton wachsend [fallend], so ist f 0 ≥ 0 f 0 ≤ 0
 

auf I.
Aber: Ist f auf I differenzierbar und f streng monoton wachsend, so folgt nicht f 0 > 0 (betrachte
f (x) = x3 ).

Satz 9.24 (Verallgemeinerter Mittelwertsatz).


f, g : [a, b] → R seien beide stetig auf [a, b] und differenzierbar auf (a, b).
Ferner gelte ∀x ∈ (a, b) g 0 (x) 6= 0. Dann gilt:
(1) g(a) 6= g(b)
f (b)−f (a) f 0 (ξ)
(2) ∃ξ ∈ (a, b) : g(b)−g(a) = g 0 (ξ)

Beweis:
(1) Wäre g(a) = g(b), dann gilt nach dem Mittelwertsatz:
g(b) − g(a)
∃η ∈ (a, b) = g 0 (η) 6= 0
b−a

(2) Setze:
   
∀x ∈ [a, b] h(x) := f (b) − f (a) g(x) − g(b) − g(a) f (x)
Dann h ∈ C[a, b], h differenzierbar auf (a, b), und

h(a) = h(b) = f (b)g(a) − g(b)f (a)
Nach dem Mittelwertsatz existiert also ein ξ ∈ (a, b) mit
h(b) − h(a)
h0 (ξ) = =0
b−a
Es ist aber
0 = h0 (ξ) = f (b) − f (a) g 0 (ξ) − g(b) − g(a) f 0 (ξ)
   

⇒ Behauptung.


9.6. Die Regeln von de l’Hospital

Satz 9.25 (Regeln von de l’Hospital).


Sei a ∈ R ∪ {−∞}, b ∈ R ∪ {∞} und L ∈ R ∪ {−∞, ∞}.
f, g : (a, b) → R seien differenzierbar auf (a, b) und sei g 0 (x) 6= 0 für alle x ∈ (a, b).
f 0 (x)
Weiterhin sei lim 0 = L.
x→a g (x)
f (x) x→a
(1) Ist lim f (x) = lim g(x) = 0, so gilt
x→a x→a g(x) −−−→ L.
f (x) x→a
(2) Ist lim f (x) = lim g(x) = ±∞, so gilt g(x) −−−→ L.
x→a x→a

Entsprechendes gilt für die Bewegung x → b.

103
9. Differentialrechnung

Beweis: Wir zeigen nur (1) für den Fall a ∈ R.


Setze f (a) := 0, g(a) := 0. Dann sind f, g stetig auf [a, b).
Sei nun x ∈ (a, b). Dann g(x) = g(x) − g(a) = g 0 (ξ)(x − a) 6= 0

f (x) f (x) − f (a) f 0 (ξ)


= = 0
g(x) g(x) − g(a) g (ξ)

mit einem ξ = ξ(x) ∈ (a, x).


Nach Voraussetzung gilt:

f 0 ξ(x)

lim  =L
x→a g 0 ξ(x)

da lim ξ(x) = a.
x→a

Also nach Obigem:


f (x)
lim =L
x→a g(x)

Beispiel 9.26.
ax −bx
(1) Seien a, b > 0. Wir bestimmen lim x .
x→0

Es gilt lim (ax − bx ) = lim |{z}


x = 0.
x→0 | {z } x→0
=:f (x) =:g(x)

f 0 (x) (log a)ax − (log b)bx x→0


0
= −−−→ log a − log b
g (x) 1
Nach l’Hospital:
ax − bx
⇒ lim = log a − log b
x→0 x
1
log x
(2) lim = lim x
=0
x→∞ x x→∞ 1
1
log x
(3) lim (x log x) = lim 1 = lim x
1 = lim (−x) = 0
x→0 x→0 x x→0 − x2 x→0
x x log x 0
(4) lim x = lim e = e =1
x→0+ x→0+ (3)

0
Bemerkung 9.27. Es kann passieren, dass auch fg0 wieder vom Typ 00 bzw. ∞ ˜ := f 0
∞ ist. Setze dann f
und g̃ := g 0 und versuche, den Satz von de l’Hospital für f˜, g̃ (statt f, g) anzuwenden.
; sukzessiv forsetzen.
Beispiel:
1 − cos x sin x cos x 1
lim = lim = lim =
x→0 x2 x→0 2x x→0 2 2
Es kann auch passieren, dass immer wieder obige Typen auftreten. Dann ist diese Regel nicht anwendbar
und der Limes muss auf andere Art bestimmt werden.

104
9.7. Cosinus und Sinus, die Zahl π

Satz 9.28. Es sei



X
f (x) = an xn
n=0

eine Potenzreihe mit Konvergenzradius r > 0 und I = (−r, r).

(1) Die gliedweise differenzierte“ Potenzreihe



∞ ∞ ∞
0
X X X
(an xn ) = an · nxn−1 = (n + 1)an+1 · xn
n=0 n=1 n=0

hat auch den selben Konvergenzradius r.


(2) f ist differenzierbar auf I und

X ∞
X
∀x ∈ I f 0 (x) = an · nxn−1 = (n + 1)an+1 · xn
n=1 n=0

( gliedweises Differenzieren ist bei Potenzreihen im Intervall (−r, r) erlaubt.“)


Beweis:
(1) Wende Wurzelkriterium an.
p
n
√n
 p 1+ n1
(n + 1)|an+1 | = n + 1 · n+1 |an+1 |
| {z }
→1

p
n
p
n+1
p
n
⇒ lim sup (n + 1)|an+1 | = lim sup |an+1 | = lim sup |an |
n→∞ n→∞ n→∞

⇒ Derselbe Konvergenzradius.
(2) siehe Seite 145.


9.7. Cosinus und Sinus, die Zahl π



X x2n+1
sin x = (−1)n
n=0
(2n + 1)!

X x2n
cos x = (−1)n
n=0
(2n)!

Der Konvergenzradius ist bei beiden Funktionen ∞.


Nach Satz 9.28 sind sin und cos auf R differenzierbar, und

X x2n
(sin0 )(x) = (−1)n (2n + 1) · = cos x
n=0
(2n + 1)!

105
9. Differentialrechnung

Analog cos x:

(cos0 )(x) = − sin x

Lemma 9.29.
x3
(1) sin x > x − 3! > 0 für alle x ∈ (0, 2)
5
(2) sin 1 > 6

(3) Es gibt genau ein ξ0 ∈ (0, 2) mit cos ξ0 = 0. Wir definieren π := 2ξ0 .
cos hat also in [0, π2 ] genau eine Nullstelle, nämlich π
2.

Beweis:
x3
  5
x7
 
x
(1) sin x = x− + − +···
3! 5! 7!
| {z } | {z }
x 5
= 3! (2·3−x2 ) = x7! (6·7−x2 )>0

1 5
(2) Verwende (1): sin 1 > 1 − 3! = 6

(3) Mit (2) erhält man

25
cos(2) = cos(1 + 1) = cos2 (1) − sin2 (1) = 1 − sin2 (1) − sin2 (1) = 1 − 2 sin2 (1) < 1 − 2 ·

<0
36
Ferner: cos(0) = 1 > 0.

Da cos stetig, folgt aus dem Zwischenwertsatz:

∃ξ0 ∈ (0, 2) : cos(ξ0 ) = 0

Ferner gilt (cos0 )(x) = − sin x < 0 für x ∈ (0, 2) .

Aus 9.22 folgt: cos ist auf (0, 2) streng monoton fallend.

⇒ ξ0 ist einzige Nullstelle von cos in (0, 2)

Satz 9.30 (Eigenschaften).


(1) cos π2 = 0, sin π2 = 1
(2) Für alle x ∈ R gilt:
 π  π
sin x + = cos x cos x + = − sin x
2 2
sin(x + π) = − sin x cos(x + π) = − cos x
sin(x + 2π) = sin x cos(x + 2π) = cos x

π
(3) Für x0 ∈ [0, π] gilt: cos x0 = 0 ⇔ x0 = 2

(4) cos x = 0 ⇔ es existiert ein k ∈ Z mit x = (2k + 1) π2


sin x = 0 ⇔ es existiert ein k ∈ Z mit x = kπ

106
9.7. Cosinus und Sinus, die Zahl π

Abbildung 9.3.: Tangens Abbildung 9.4.: Arcustangens

Beweis:
π
(1) 1 = cos2 + sin2 π
2 ⇒ | sin π2 | = 1 ⇒ sin π2 = 1
| {z 2} 9.29

=0

(2) folgt aus (1) und den Additions-Theoremen

(3)

⇐“ klar

π
⇒“ Sei cos x0 = 0, x0 ≥ 0 ⇒ x0 ≥ 2

π
y0 := π − x0 ⇒ y0 ≤ 2 und cos y0 = cos(−x0 + π) = − cos(−x0 ) = − cos x0 = 0
(2)

π π
⇒ y0 = 2 ⇒ x0 = 2
y0 ∈[0, π
2]

(4) folgt aus (2) und (3)

Definition 9.31 (Tangens).

sin x n π o
tan x := x ∈ R \ (2k + 1) : k ∈ Z
cos x 2

Es ist

cos2 x + sin2 x 1
(tan x)0 = 2
= = 1 + tan2 x > 0
cos x cos2 x

Sei f : − π2 , π2 → R , f (x) := tan x.




Dann ist f auf − π2 , π2 streng monoton wachsend und f (− π2 , π2 ) = R.


 

Also existiert f −1 : R → − π2 , π2 :


arctan x := f −1 (x) , x ∈ R Arcustangens“


107
9. Differentialrechnung

9.8. Sonstiges

9.8.1. Abelscher Grenzwertsatz


an (x − x0 )n habe den Konvergenzradius
P
Satz 9.32 (Abelscher Grenzwertsatz). Die Potenzreihe
n=0
r > 0; es gelte r < ∞. Die Reihe konvergiere in x0 + r − r. bzw. x0

an (x − x0 )n für x ∈ (x0 − r, x0 + r] bzw. x ∈ [x0 − r, x0 + r).
P
Es sei f (x) :=
n=0

Dann ist f stetig in x0 + r bzw. x0 − r.

(hier ohne Beweis)

9.8.2. Anwendungen

Behauptung:

X xn
log(1 + x) = (−1)n+1 für alle x ∈ (−1, 1]
n=1
n


(−1)n+1 n1 .
P
Insbesondere (für x = 1): log 2 =
n=1
∞ n
(−1)n+1 xn konvergiert genau für x ∈ (−1, 1].
P
Beweis: Die Potenzreihe
n=1
∞ n
(−1)n+1 xn und f (x) := log(1 + x), x ∈ (−1, 1].
P
Sei g(x) :=
n=1

Nach 9.28 ist g differenzierbar auf (−1, 1) und


∞ ∞
X X 1 1
g 0 (x) = (−1)n+1 xn−1 = (−x)n = = = f 0 (x) für alle x ∈ (−1, 1)
n=1 n=0
1 − (−x) 1+x

Also existiert nach 9.22 c ∈ R mit g(x) = f (x) + c, x ∈ (−1, 1).


Da f (0) = g(0) ist c = 0 also f (x) = g(x) auf (−1, 1).
∞ n
(−1)n+1 xn , x ∈ (−1, 1).
P
Also: log(1 + x) =
n=1

Die Behauptung folgt dann aus dem Abelschen Grenzwertsatz mit x → 1. 

Mit einem ähnlichen Beweis zeigt man:



X x2n+1
arctan x = (−1)n für alle x ∈ [−1, 1]
n=0
2n + 1


P (−1)n
Für x = 1: arctan 1 = 2n+1
n=0
π π
Wegen cos 4 = sin 4 ist tan π4 = 1, also arctan 1 = π
4
π 1 1 1 1
Somit 4 =1− 3 + 5 − 7 + 9 − ···.

108
9.9. Höhere Ableitungen

Definition 9.33. Für x ∈ R definieren wir:


1 x
sinh x := (e − e−x ) sinus hyperbolicus“
2 ”
1 x
cosh x := (e + e−x ) cosinus hyperbolicus“
2 ”

Satz 9.34 (Eigenschaften).


(1) sinh 0 = 0, cosh 0 = 1
(2) sinh(−x) = − sinh(x), cosh(−x) = cosh x
(3) sinh0 = cosh, cosh0 = sinh auf R
∞ ∞
x2n+1 x2n
P P
(4) sinh x = (2n+1)! , cosh x = (2n)!
n=0 n=0
2 2
(5) cosh x − sinh x = 1, x ∈ R

Abbildung 9.5.: Sinus hyperbolicus Abbildung 9.6.: Cosinus hyperbolicus

9.9. Höhere Ableitungen

Definition 9.35.
(1) (a) I ⊂ R sei ein (nicht einpunktiges) Intervall, und f : I → R sei differenzierbar auf I.
f heißt in x0 ∈ I zweimal differenzierbar, wenn f 0 in x0 differenzierbar ist.
In diesem Fall heißt

f 00 (x0 ) := (f 0 )0 (x)

109
9. Differentialrechnung

die zweite Ableitung von f in x0 .


(b) Ist f in jedem x0 ∈ I zweimal differenzierbar, so heißt f zweimal differenzierbar auf I und

f 00 := (f 0 )0 : I → R

heißt die zweite Ableitung von f auf I.


(c) Per Induktion erhält man die n-te Ableitung etc.

f 000 (x0 ), f (4) (x0 ), f (5) (x0 ), . . . , f (n) (x0 )

bzw.

f 000 , f (4) , f (5) , . . . , f (n) : I → R

(2) Für n ∈ N heißt f auf I n-mal stetig differenzierbar, wenn f, f 0 , f 00 , . . . , f (n) auf I existieren (d.h.
wenn f auf I n-mal differenzierbar ist) und stetig sind.
Bezeichnung in diesem Fall:

f ∈ C n (I)

(C n ist die Menge der auf I n-mal stetig differenzierbaren Funktionen)


n = 1: f ∈ C 1 (I) ⇔ f ist stetig differenzierbar auf I.
\
C 0 (I) := C(I), C ∞ (I) := C n (I)
n∈N

Weitere Bezeichnung:

f (0) := f, f (1) := f 0 , f (2) := f 00 , f (3) := f 000

Beispiel 9.36.
(1)

(cos00 ) (x) = −(sin0 )(x) = − cos(x)


(cos000 ) (x) = sin(x)
 
cos(4) (x) = cos(x)
sin00 (x)

= − sin(x)
sin000 (x)

= − cos(x)
 
sin(4) (x) = sin(x)

(2) E(x) = ex , ∀n ∈ N E (n) (x) = E(x), also E ∈ C ∞ (R)


(3)
(
x2 für x ≥ 0
f (x) = x · |x| =
−x2 für x < 0

Für x > 0: f 0 (x) = 2x, für x < 0: f 0 (x) = −2x.

110
9.10. Höhere Ableitungen bei Potenzreihen

Für x = 0
f (x) − f (0)
 
x für x > 0 x→0
= −−−→ 0
x−0 −x für x < 0

⇒ f ist in 0 differenzierbar und f 0 (0) = 0.


⇒ f ist auf R differenzierbar und
 
2x für x ≥ 0
f 0 (x) = = 2|x|
−2x für x < 0

Insbesondere ist f 0 stetig auf R, also ist f stetig differenzierbar, f ∈ C 1 (R).


Da f 0 in 0 nicht differenzierbar ist, ist f in 0 nicht zweimal differenzierbar.

Beispiel 9.37 (Nichtiges Beispiel).


( 3
1

x 2 sin x für x > 0
I := [0, ∞), f (x) :=
0 für x = 0

f ist auf (0, ∞) differenzierbar, und


1 3 √ 1
∀x ∈ (0, ∞) f 0 (x) = 32 x 2 sin 1 1
· − x12 = 32 x sin 1 1
    
x + x 2 cos x x − √ cos x
x

Ferner ist f in 0 differenzierbar, denn:


3
x 2 · sin x1

f (x) − f (0) √  x→0
= = x sin x1 −−−→ 0
x−0 x | {z }
∈[−1,1]

Also ist f differenzierbar auf I = [0, ∞), aber f ist nicht stetig differenzierbar, da f 0 offenbar unstetig
im Punkt 0.
sogar: f 0 ist auf keinem Intervall [0, ε] (mit ε > 0) beschränkt.

9.10. Höhere Ableitungen bei Potenzreihen



an (x − x0 )n eine Potenzreihe mit Konvergenzradius r > 0. I := (x0 − r, x0 +
P
Sei f (x) =
n=0
r)
Aus 9.28 folgt: f ist auf I differenzierbar und

X
f 0 (x) = n · an (x − x0 )n−1 ∀x ∈ I
n=1
| {z }
Konvergenzradius wieder r

9.28 ⇒ f 0 ist auf I differenzierbar, und



X
f 00 (x) = n(n − 1) · an (x − x0 )n−2 ∀x ∈ I
n=2

induktiv fortsetzen:

111
9. Differentialrechnung

⇒ f ist beliebig oft differenzierbar (f ∈ C ∞ (I)), und



X
f (k) (x) = n(n − 1)(n − 2) · · · n − (k − 1) · an · (x − x0 )n−k

∀k ∈ N ∀x ∈ I
n=k

Insbesondere für x = x0 :

f (k) (x0 ) = k(k − 1)(k − 2) · · · k − (k − 1) · ak = k! · ak



∀k ∈ N

f (k) (x0 )
⇒ ∀k ∈ N : ak =
k!

Definition 9.38. Sei ε > 0 und f ∈ C ∞ Uε (x0 ) mit einem x0 ∈ R. Dann heißt die Potenzreihe



X f (n) (x0 )
(x − x0 )n
n=0
n!

die zu f und x0 gehörende Taylor–Reihe.

Frage: x0 , ε, f wie oben. Gilt dann



X f (n) (x0 )
f (x) = (x − x0 )n ∀x ∈ Uε (x0 ) ?
n=0
n!

Antwort: Nicht immer!

Beispiel 9.39.

(1) Ist f eine Potenzreihe und ε ≤ r, so lautet die Antwort: Ja.

(2)
1
(
e− x2 für x 6= 0
f (x) :=
0 für x = 0

In der Saalübung wurde gezeigt: f ∈ C ∞ (R), und

∀n ∈ N f (n) (0) = 0

Also

X f (n) (0)
(x − 0)n = 0 6= f (x) für x 6= 0
n=0
n!

Also lautet hier die Antwort: Nein.

9.11. Satz von Taylor

112
9.11. Satz von Taylor

Satz 9.40 (Satz von Taylor). Sei I ⊂ R Intervall, n ∈ N0 , f ∈ C n (I) und f (n+1) existiere auf I.
Sind x, x0 ∈ I, so existiert ein ξ = ξ(x, x0 ) (ξ hängt von x und x0 ab) zwischen x und x0 mit ξ 6= x, ξ 6= x0 ,
und
f 0 (x0 ) f 00 (x0 ) f 000 (x0 )
f (x) = f (x0 ) + (x − x0 ) + (x − x0 )2 + (x − x0 )3 + · · · +
1! 2! 3!
f (n) (x0 ) f (n+1) (ξ)
+ (x − x0 )n + (x − x0 )n+1
n! (n + 1)!
n
X f (k) (x0 ) f (n+1) (ξ)
= (x − x0 )k + (x − x0 )n+1
k! (n + 1)!
k=0

Spezialfall n = 0:

f (x) = f (x0 ) + f 0 (ξ) · (x − x0 )

(Mittelwertsatz (9.18))

Beweis: Nur für den Fall x < x0 . Wähle % ∈ R mit


n
X f (k) (x0 ) (x − x0 )n+1
f (x) − (x − x0 )k = % ·
k! (n + 1)!
k=0

Zu zeigen: ∃ξ ∈ (x, x0 ) % = f (n+1) (ξ)


Definiere für t ∈ [x, x0 ]:
n
X f (k) (t) (x − t)n+1
h(t) := f (x) − (x − t)k − % ·
k! (n + 1)!
k=0

Dann: h ∈ C[x, x0 ], h differenzierbar auf [x, x0 ],


n n
X f (k+1) (t) X f (k) (t) (n + 1)(x − t)n
h0 (t) = − (x − t)k + k(x − t)k−1 +t%
k! k! (n + 1)!
k=0 k=1 | {z }
f (k) (t)
= (k−1)!
(x−t)k−1
| {z }
n−1
P f (k+1) (t)
= k! (x−t)k
k=0

(n+1)
f (t) (x − t)n
=− (x − t)n + %
n! n!
Ferner h(x) = 0, h(x0 ) = 0 nach Wahl von %. (s.o.)
Nach dem Mittelwertsatz existiert ein ξ ∈ (x, x0 ) mit

h(x0 ) − h(x)
h0 (ξ) = =0
x0 − x

f (n+1) (ξ) (x − ξ)n


⇒ − · (x − ξ)n + % · =0
n! n!
⇒ % = f (n+1) (ξ)


113
9. Differentialrechnung

Satz 9.41. e 6∈ Q

m
Beweis: Annahme: e = n mit m, n ∈ N.

Wegen 2 < e < 3 gilt e 6∈ N und daher n ≥ 2.

Setze f (x) := ex , x0 := 0, x := 1.

Nach Taylorschem Satz 9.40 existiert ξ ∈ (0, 1) mit


n
X f (k) (0) f (n+1) (ξ)
f (1) = · (1 − 0)k + · (1 − 0)n+1
|{z} k! (n + 1)!
k=0 |
=e= m
{z } | {z }
n 1
= k! ξ
e
= (n+1)!

Multipliziere mit n!
n
X n! eξ
m(n − 1)! = +
| {z } k! n+1
k=0
|{z}
∈N
| {z }
∈N ∈(0, 3e )⊂(0,1)⇒6∈N

Definition 9.42. I ⊂ R Intervall, n ∈ N0 , f ∈ C n (I), x0 ∈ I.


Dann heißt
n
X f (k) (x0 )
Tn (x; x0 ) := (x − x0 )k
k!
k=0

n-tes Taylor–Polynom von f in x0

Eigenschaften:

Sei p(x) := Tn (x; x0 ).

(1) p ist Polynom vom Grad ≤ n, p(k) (x0 ) = f (k) (x0 )

(2) Ist q ein Polynom vom Grad ≤ n und gilt q (k) (x0 ) = f (k) (x0 ) (k = 0, . . . , n), so gilt q = p.

Das heißt: Das Taylor-Polynom ist das einzige Polynom vom Grad ≤ n mit obiger Approximati-
onseigenschaft.

(3) Der Taylorsche Satz 9.40 lautet also:

∀x, x0 ∈ I (x 6= x0 ) ∃ξ zwischen x und x0 :

f (n+1) (ξ)
f (x) = Tn (x; x0 ) + (x − x0 )n+1
(n + 1)!
n
f (k) (x0 ) (n+1)
(x − x0 )k + f (n+1)!(ξ)
(x − x0 )n+1 ?“ ist nach 9.40 also
P
Die oben gestellte Frage Ist f (x) = k!
” k=0
(n+1)
äquivalent zu der Frage: Gilt lim f (n+1)!
(ξ)
(x − x0 )n+1 = 0 ?“
” n→∞

114
9.12. Extrema

Satz 9.43. Sei I = (a, b) (a < b, a = −∞ und/oder b = +∞ zugelassen). Ferner sei f ∈ C ∞ (I) und
x0 ∈ I. Es existiere ein x > 0 und ein n0 ∈ N mit

∀n ≥ n0 ∀x ∈ I f (n) (x) ≤ n! · cn

Dann existiert ein δ > 0 mit Uδ (x0 ) ⊂ I und



X f (k) (x0 )
f (x) = (x − x0 )k für alle x ∈ Uδ (x0 )
k!
k=0

1 1
Beweis: Wähle δ > 0 mit Uδ (x0 ) ⊂ I und δ ≤ c. Sei x ∈ Uδ (x0 ), also |x − x0 | < δ ≤ c,
d.h.

c|x − x0 | < 1

Nach Taylorschem Satz 9.40 existiert ein ξ zwischen x und x0 mit


n
X f (k) (x0 ) f (n+1) (ξ)
f (x) = · (x − x0 )k + · (x − x0 )n+1
k! (n + 1)!
k=0 | {z }
=:αn

Es gilt für alle n ≥ n0 :

f (n+1) (ξ) (n + 1)!cn+1 n+1 n→∞


|αn | = · |x − x0 |n+1 ≤ · |x − x0 |n+1 = c · |x − x0 | −−−−→ 0
(n + 1)! (n + 1)!

X f (k) (x0 )
⇒ f (x) = · (x − x0 )k
k!
k=0


9.12. Extrema
Erinnerung: I ⊂ R Intervall, f : I → R sei in x0 ∈ I differenzierbar, x0 innerer Punkt von I, f habe
in x0 ein lokales Extremum. Dann ist f 0 (x0 ) = 0.
(Umkehrung ist falsch: f (x) = x3 hat in x0 = 0 kein lokales Extremum, obwohl f 0 (0) =
0).

Satz 9.44. I ⊂ R Intervall, n ∈ N, f ∈ C n (I) und x0 sei innerer Punkt von I. Es gelte

f 0 (x0 ) = f 00 (x0 ) = . . . = f (n−1) (x0 ) = 0

aber

f (n) (x0 ) 6= 0

Dann gilt:
(1) Ist n gerade, so hat f in x0 ein lokales Extremum, und zwar ein lokales Maximum bzw. Minimum,
falls f (n) (x0 ) < 0 bzw. f (n) (x0 ) > 0.
(2) Ist n ungerade, so hat f in x0 kein lokales Extremum.

115
9. Differentialrechnung

Beweis: Da f (n) stetig und f (n) (x0 ) 6= 0, existiert ein δ > 0 mit Uδ (x0 ) ⊂ I und f (n) (x) hat für
x ∈ Uδ (x0 ) dasselbe Vorzeichen wie f (n) (x0 ).

Sei x ∈ Uδ (x0 ). Nach 9.40 (Taylor) existiert ein ξ zwischen x und x0 mit

n−1
X f (k) (x0 ) f (n) (ξ)
f (x) = (x − x0 )k + (x − x0 )n = f (x0 ) + R(x)
k=0 | k! {z } (n)!
=0 für k≥1

zu (1): Sei n gerade:

Ist f (n) (x0 ) > 0 bzw. < 0, so ist auch f (n) (ξ) > 0 bzw. < 0. Ferner (x − x0 )n ≥ 0 (da n gerade).
(
≥ f (x0 ) ⇒ lokales Minimum
 
≥0
⇒ R(x) ⇒ f (x)
≤0 ≤ f (x0 ) ⇒ lokales Maximum

zu (2): Sei n ungerade: Wie vorher f (n) (ξ) > 0 bzw. < 0.

Jetzt aber
(
n > 0 für x > x0
(x − x0 )
< 0 für x < x0
(
 >0
x > x0


 <0

⇒ R(x) (
 <0
x < x0


 >0

(
 > f (x0 )
x > x0


 < f (x )

0
⇒ f (x) (
 < f (x 0)
x < x0


 > f (x )

0

⇒ kein lokales Extremum.

Beispiel 9.45.

(1) f (x) = xn ; f (0) = f 0 (0) = · · · = f (n−1) (0) = 0; f (n) (0) = n! > 0

⇒ Falls n gerade, hat f in 0 ein lokales Minimum. Falls n ungerade, hat f in 0 kein lokales
Extremum.

(2) a)
( 1
e − x2 für x 6= 0
f (x) =
0 für x = 0

Bekannt: f ∈ C ∞ (R) und ∀n ∈ N0 : f (n) (0) = 0

f hat in 0 ein lokales Minimum.

116
9.12. Extrema

b)
 −1
e x für x > 0
 2

f (x) = 0 für x = 0
 − x12

−e für x < 0

Wieder f ∈ C ∞ (R), ∀n ∈ N0 f (n) (0) = 0.


Aber f hat in 0 kein lokales Extremum.

117
9. Differentialrechnung

118
10. Das Riemann-Integral

 
Stets in diesem Abschnitt: a, b ∈ R, a < b, f : [a, b] → R beschränkt. m := inf f [a, b] , M := sup f [a, b] .

Definition 10.1. Z = {x0 , x1 , x2 , . . . , xn } heißt eine Zerlegung von [a, b], wenn

a = x0 < x1 < x2 < · · · < xn = b

Z heißt die Menge der Zerlegungen von [a, b].


Ferner:

Ij := [xj−1 , xj ] (j = 1, . . . n)

|Ij | := xj − xj−1 ( Länge von Ij“)



mj := inf f (Ij ), Mj := sup f (Ij )
n
X
sf (Z) := mj · |Ij | (Untersumme von f bezüglich Z)
j=1

n
X
Sf (Z) := Mj · |Ij | (Obersumme von f bezüglich Z)
j=1

Abbildung 10.1.: Ober- und Untersummen

119
10. Das Riemann-Integral

Klar: m ≤ mj ≤ Mj ≤ M , also wegen |Ij | > 0:


n
X n
X n
X n
X
m|Ij | ≤ mj |Ij | ≤ Mj |Ij | ≤ M |Ij |
j=1 j=1 j=1 j=1
| {z } | {z } | {z } | {z }
m(b−a) sf (Z) Sf (Z) M (b−a)

⇒ ∀Z∈Z m(b − a) ≤ sf (Z) ≤ Sf (Z) ≤ M (b − a)

Definition 10.2. Sind Z1 , Z2 Zerlegungen von [a, b], so heißt Z2 Verfeinerung von Z1 , wenn Z2 ⊃ Z1 .

Satz 10.3. Z1 , Z2 seien Zerlegungen von [a, b].


(1) Ist Z2 Verfeinerung von Z1 , so gilt

sf (Z1 ) ≤ sf (Z2 ) und Sf (Z2 ) ≤ Sf (Z1 )

(2) sf (Z1 ) ≤ Sf (Z2 )

Beweis:
(1) (nur die erste Ungleichung)
Sei Z1 = {x0 , . . . , xn }. Es genügt, der Fall Z2 = Z1 ∪ {ξ}, ξ 6∈ Z1 zu betrachten; Rest folgt induktiv.
Sei etwa xj−1 < ξ < xj .
j−1
X Xn
 
sf (Z2 ) = mk |Ik | + inf f [xj−1 , ξ] ·(ξ − xj−1 ) + inf f [ξ, xj ] ·(xj − ξ) + mk |Ik |
k=1 k=j
| {z } | {z }
≥mj ≥mj
j−1
X n
X
≥ mk |Ik | + mj (ξ − xj−1 ) + mj (xj − ξ) + mk |Ik |
k=1
| {z } k=j+1
=mj |Ij |

= sf (Z1 )

(2) Z := Z1 ∪ Z2 ist Verfeinerung sowohl von Z1 also auch von Z2 . Nach obigem folgt:

⇒ sf (Z1 ) ≤ sf (Z) ≤ Sf (Z) ≤ Sf (Z2 )

Definition 10.4. Ist Z2 beliebige, fest gewählte Zerlegung von [a, b], so gilt nach 10.3:

sf (Z) ≤ Sf (Z2 ) für jede Zerlegung Z von [a, b]

⇒ Es existiert

sf = sup{sf (Z) : Z Zerlegung von [a, b]}

und es gilt:

sf ≤ Sf (Z2 ) für jede Zerlegung Z2 von [a, b]

120
⇒ Es existiert

Sf = inf{Sf (Z2 ) : Z2 Zerlegung von [a, b]}

und es gilt:

sf ≤ Sf

Man nennt
Zx
sf = das untere Integral von f

a

Zx

Sf = das obere Integral von f
a

Definition 10.5. f heißt (Riemann-) integrierbar über [a, b], wenn sf = Sf .


In diesem Fall heißt
Zb Zb
 

f (x) dx = f dx := Sf = sf
a a

das (Riemann-) Integral von f über [a, b].

R[a, b] := { f : [a, b] → R : f ist integrierbar über [a, b] }

Beispiel 10.6.
(1) Sei c ∈ R und ∀x ∈ [a, b] f (x) := c
⇒ m=c=M
⇒ m(b − a) ≤ sf (Z) ≤ Sf (Z) ≤ M (b − a) für jede Zerlegung Z.

⇒ ∀ Z ∈ Z sf (Z) = Sf (Z) = c(b − a)

⇒ sf = Sf = c(b − a)
Rb
⇒ f ist integrierbar über [a, b], und a
f (x) dx = c(b − a).
(2) Sei [a, b] = [0, 1] und f (x) := x.
j
Sei n ∈ N und Zn = {x0 , . . . , xn } mit xj = n für j = 0, . . . , n.
1 j−1 j
Also |Ij | = n, mj = f (xj−1 ) = n , Mj = f (xj ) = n.

n n
X j−1 1 1 X 1 n(n − 1) n−1
⇒ sf (Zn ) = · = 2 (j − 1) = 2 · =
j=1
n n n j=1 n 2 2n

121
10. Das Riemann-Integral

n n
X j 1 1 X 1 n(n + 1) n+1
⇒ Sf (Zn ) = · = 2 j= 2· =
j=1
n n n j=1 n 2 2n
Also
n−1 n+1
= sf (Zn ) ≤ sf ≤ Sf ≤ Sf (Zn ) =
2n
| {z } | 2n
{z }
n→∞ 1 n→∞
−−−−→ 2 −−−−→ 12
1 1 1
⇒ ≤ sf ≤ Sf ≤ ⇒ sf = Sf =
2 2 2
⇒ f ist über [a, b] integrierbar, und
Z1 Z1
1
f (x) dx = x dx =
2
0 0

(3) Setze
(
1 für x ∈ Q ∩ [0, 1]
f (x) :=
0 für x ∈ [0, 1] \ Q
f ist beschränkt.
Sei Z = {x1 , . . . , xn } beliebige Zerlegung von [0, 1].
⇒ ∀j ∈ {1, . . . , n} mj = inf f ([xj−1 , xj ]) = 0
⇒ ∀j ∈ {1, . . . , n} Mj = sup f ([xj−1 , xj ]) = 1
X n
⇒ sf (Z) = mj |Ij | = 0
j=1
n
X n
X
⇒ Sf (Z) = Mj |Ij | = |Ij | = 1 − 0 = 1
j=1 j=1
⇒ sf = 0, Sf = 1
⇒ f ist nicht über [0, 1] integrierbar.

Satz 10.7.
(1) Sind f, g ∈ R[a, b] und gilt ∀x ∈ [a, b] f (x) ≤ g(x), so gilt:
Zb Zb
f (x) dx ≤ g(x) dx
a a

(2) Sind f, g ∈ R[a, b] und α, β ∈ R, so ist auch

αf + βg ∈ R[a, b]

und
Zb Zb Zb
(αf + βg)(x) dx = α f (x) dx + β g(x) dx
a a a

(d.h. R[a, b] ist ein R-Vektorraum, und das Integral ist ein R-Vektorraum-Homomorphismus von
R[a, b] nach R.)

122
Beweis:
(1) Sei Z = {x0 , . . . , xn } Zerlegung von [a, b], Ij , mj , Mj wie immer und m̄j := inf g(Ij ), M̄j := sup g(Ij ).
Wegen
(
mj ≤ m̄j
∀x ∈ [a, b] f (x) ≤ g(x) ⇒
Mj ≤ M̄j

Zb
⇒ sf (Z) ≤ sg (Z) ≤ sg = g(x) dx
a

Zb Zb
⇒ f (x) dx = sf ≤ g(x) dx
a a

(da f, g ∈ R[a, b])


(2) i) f ∈ R[a, b] ⇒ −f ∈ R[a, b] (selbst) und

Zb Zb
⇒ (−f )(x) dx = − f (x) dx
a a

ii) α ∈ R, f ∈ R[a, b] ⇒ αf ∈ R[a, b] und

Zb Zb
(αf )(x) dx = α f (x) dx
a a

iii) f, g ∈ R[a, b] ⇒ f + g ∈ R[a, b] und

Zb Zb Zb
(f + g)(x) dx = f (x) dx + g(x) dx
a a a

Seien dann Z1 , Z2 beliebige Zerlegungen von [a, b], Z := Z1 ∪ Z2 (gemeinsame Verfeinerung)


Dann
n
X
sf +g (Z) = inf(f + g)[xj−1 , xj ] ·|Ij | ≥ sf (Z) + sg (Z) ≥ sf (Z1 ) + sg (Z2 )
j=1
| {z }
≥inf f ([xj−1 ,xj ])
+ inf g([xj−1 ,xj ])

Andererseits sf +g (Z) ≤ sf +g

sf +g ≥ sf (Z1 ) + sg (Z2 )

(für beliebige Zerlegungen Z1 , Z2 von [a, b]).

⇒ sf +g ≥ sf + sg (Z2 )

Zb Zb
⇒ sf +g ≥ sf + sg = f (x) dx + g(x) dx
a a

123
10. Das Riemann-Integral

(da f, g ∈ R[a, b]) Genauso

Zb Zb
Sf +g ≤ f (x) dx + g(x) dx
a a

Da sf +g ≤ Sf +g , folgt

Zb Zb
sf +g = Sf +g = f (x) dx + g(x) dx
a a

10.1. Integrabilitätskriterium

Satz 10.8 (Riemannsches Integrabilitätskriterium).

f ∈ R[a, b] ⇔ ∀ε > 0 ∃Z ∈ Z Sf (Z) − sf (Z) < ε

Beweis:
⇒“: Sei

Zb
S := f dx (= sf = Sf )
a

Sei ε > 0. Es existieren Zerlegungen Z1 , Z2 von [a, b] mit


ε ε
sf (Z1 ) > sf − 2 =S− 2

ε ε
Sf (Z2 ) < Sf + 2 =S+ 2

Z := Z1 ∪ Z2 , dann:
ε
sf (Z) ≥ sf (Z1 ) > S − 2

ε
Sf (Z) ≤ Sf (Z2 ) < S + 2

⇒ Sf (Z) − sf (Z) < ε

⇐“: Sei ε > 0. Nach Voraussetzung existiert Zerlegung Z von [a, b] mit

Sf (Z) − sf (Z) < ε

⇒ Sf ≤ Sf (Z) < sf (Z) + ε < sf + ε ≤ Sf + ε


Dies gilt für alle ε > 0. Für ε → 0 folgt:

⇒ Sf = sf ⇒ f ∈ R[a, b]

124
10.1. Integrabilitätskriterium

Definition 10.9. Sei Z = {x0 , . . . , xn } eine Zerlegung, mj , Mj , I, wie oben.


(1) |Z| := max{|I1 |, . . . , |In |} heißt Feinheit von Z
(2) Ist ξ = {ξ1 , . . . , ξn } mit ξj ∈ Ij (j = 1, . . . , n), so heißt ξ ein zu Z passender Zwischenvektor und
n
X
σf (Z, ξ) = f (ξj )|Ij |
j=1

eine Riemannsche-Summe.

Abbildung 10.2.: Riemannsche Summe

Satz 10.10. (Zn ) sei eine Folge in Z mit |Zn | → 0 und für jedes n ∈ N sei ξ (n) ein zu Zn passender
Zwischenvektor.
Dann gilt:
(1) sf (Zn ) → sf , Sf (Zn ) → Sf für n → ∞
(2) Ist f ∈ R[a, b], so gilt

  Zb
(n)
σf Z n , ξ → f dx für n → ∞
a

Satz 10.11. Ist f : [a, b] → R monoton, so gilt f ∈ R[a, b].

b−a
Beweis: Sei n ∈ N und Z = {x0 , . . . , xn } die äquidistante Zerlegung von [a, b], also xj = a + j · n

125
10. Das Riemann-Integral

(j = 0, . . . , n). Wir führen den Beweis nur für monoton wachsendes f .


Dann ist
b−a
mj = inf f (Ij ) = f (xj−1 ) , Mj = sup f (Ij ) = f (xj ) , |Ij | =
n
n n
X b−a X b−a b−a
⇒ Sf (Z) − sf (Z) = f (xj ) · − f (xj−1 ) · = (f (xn ) − f (x0 )) · =: αn
j=1
n j=1
n n

Sei ε > 0. Wähle n0 ∈ N, ∀n ≥ n0 αn < ε.

⇒ ∀n ≥ n0 Sf (Z) − s(f ) < ε

Nach 10.8 folgt: f ∈ R[a, b] 

Satz 10.12. Ist f ∈ C[a, b], so ist f ∈ R[a, b] (stetige Funktionen sind integrierbar).

Beweis: Sei f ∈ C[a, b]. Dann ist f beschränkt. Sei ε > 0.


Da f nach 7.30 auf dem kompakten Intervall [a, b] gleichmäßig stetig ist, existiert ein δ > 0
mit
ε
f (t) − f (s) < für alle t, s ∈ [a, b] mit |t − s| < δ
b−a
Sei Z = {x0 , . . . , xn } eine Zerlegung von [a, b] mit:

|Ij | < δ für j = 1, . . . , n

Es gilt:

mj = inf f (Ij ) = f (ξj ), Mj = sup f (Ij ) = f (ηj )

mit Punkten ξj , ηj ∈ Ij .
ε
⇒ Mj − mj = f (ηj ) − f (ξj ) = |f (ηj ) − f (ξj )| <
b−a
da ξj , ηj ∈ Ij und |Ij | < δ, also |ηj − ξj | < δ.
n n
X ε X
⇒ Sf (Z) − sf (Z) = (Mj − mj ) ·|Ij | < |Ij | = ε
j=1
| {z } b − a j=1
ε
< b−a

Nach 10.8 gilt: f ∈ R[a, b]. 

10.2. Hauptsätze der Differential- und


Integralrechnung

Definition 10.13. I ⊂ R sei ein Intervall; G, g : I → R.


G heißt Stammfunktion von g auf I, wenn G differenzierbar ist auf I und G0 ≡ g auf I.

Beachte: Sind G, H Stammfunktionen von g auf I, so existiert ein c ∈ R mit

∀x ∈ I G(x) = H(x) + c (nach 9.22)

126
10.2. Hauptsätze der Differential- und Integralrechnung

Satz 10.14 (1. Hauptsatz der Differential– und Integralrechnung). Sei f ∈ R[a, b] und f besitze auf
[a, b] eine Stammfunktion F : [a, b] → R.
Dann gilt:

Zb
b  b
f (x) dx = F (b) − F (a) =: F (x) a
=: F (x) a
a

Beweis: Sei Z = {x0 , . . . , xn } Zerlegung von [a, b].

⇒ F (xj ) − F (xj−1 ) = F 0 (ξj ) ·(xj − xj−1 ) mit einem ξj ∈ (xj−1 , xj )


MWS | {z }
=f (ξj )

wobei gilt
(
≥ mJ
f (ξj )
≤ Mj

⇒ mj |Ij | ≤ F (xj ) − F (xj−1 ) ≤ Mj |Ij |


n
X 
⇒ sf (Z) ≤ F (xj ) − F (xj−1 ) ≤ Sf (Z)
j=1
| {z }
(F (xn )−F (xn−1 ))
+F (xn−1 )−F (xn−2 )+···

⇒ sf ≤ F (b) − F (a) ≤ Sf = sf (wegen f ∈ R[a, b])

Zb
⇒ F (b) − F (a) = Sf = sf = f (x) dx
a

Warnungen:

(1) Es gibt Funktionen, die Stammfunktionen besitzen, aber nicht integrierbar sind.
Beispiel 10.15.
( 3 1

x 2 sin x für x ∈ (0, 1]
F (x) =
0 für x = 0

⇒ F ist differenzierbar auf [0, 1]


⇒ f := F 0 auf [0, 1] unbeschränkt.

⇒ f ist (da unbeschränkt) nicht integrierbar.

Aber f hat eine Stammfunktion, nämlich F .

(2) Es gibt Funktionen, die integrierbar sind, aber keine Stammfunktion besitzen.

127
10. Das Riemann-Integral

.
.... y
1

......
.
x

Abbildung 10.3.: Graph von f (x) aus Beispiel 10.16

Beispiel 10.16.
(
0 für x ∈ [−1, 0)
f (x) :=
1 für x ∈ [0, 1]

(vgl. Abbildung 10.3)

f ist monoton ⇒ f ∈ R[a, b].

Annahme: Es existiert eine Stammfunktion F zu f auf [−1, 1].

⇒ F 0 = 0 auf [−1, 0) ⇒ F ≡ c1 auf [−1, 0) bzw.

F 0 ≡ 1 auf [0, 1] ⇒ ∀x ∈ [0, 1] F (x) = x + c2

F differenzierbar ⇒ F stetig (in 0) ⇒ c1 = c2 .

F differenzierbar in 0
F (x) − F (0) F (x) − F (0)
⇒ lim = lim = F 0 (0) = f (0) = 1
x→0− x−0 x→0+ x−0
| {z }
=0

Beispiel 10.17.

(1) Seien 0 < a < b, α ∈ R, α 6= 1.

f (x) = xα

f monoton auf [a, b] ⇒ f ∈ R[a, b]


xα+1
Setze F (x) := α+1 ; dann ist F differenzierbar und F 0 = f . Nach 10.14 folgt:

Zb
bα+1 aα+1
⇒ xα dx = −
α+1 α+1
a

1
(2) Seien 0 < a < b, f (x) = x

f monoton auf [a, b] ⇒ f ∈ R[a, b]

F (x) := log x; F differenzierbar auf [a, b] und F 0 = f . Nach 10.14 folgt:

Zb
1 b

⇒ dx = log b − log a = log a
x
a

128
10.2. Hauptsätze der Differential- und Integralrechnung

π
(3) a = 0, b = 2, f (x) = cos x

f ist monoton auf [a, b] ⇒ f ∈ R[a, b]

F (x) := sin x; F differenzierbar auf [a, b], F 0 = f . Nach 10.14 folgt:

Zb
π

⇒ cos(x) dx = sin 2 − sin(0) = 1
a

n √
1
P
Beispiel 10.18 (Anwendung von 10.10). an := 3 · j für alle n ∈ N.
n2 j=1

Wir wollen zeigen, dass (an ) konvergiert und den Limes lim an berechnen.
n→∞

n q
j
· n1 , n ∈ N.
P
Es gilt an = n
j=1

√ j
Setze f (x) := x für alle x ∈ [0, 1] und Zn := {x0 , . . . , xn } mit xj = n für j = 0, . . . , n
q
j 1
Es ist f (xj ) = n und |Zn | = n = xj − xj−1

Also
 
an = Sf (Zn ) = σf Zn , ξ (n) für ξ (n) = (x1 , . . . , xn )

Nach 10.12 gilt f ∈ R[0, 1]


R1
Nach 10.10 gilt an → 0
f (x) dx

Nach 10.14 gilt

Z1 1


2 3 2
x dx = · x2 =
3 0 3
0

Also an → 23 .

Satz 10.19. Sei c ∈ [a, b]. Dann gilt



f ∈ R[a, b] ⇔ f [a,c]
∈ R[a, c] und f [c,b]
∈ R[c, b] kurz: f ∈ R[a, c] und f ∈ R[c, b]

In diesem Fall:
Zb Zc Zb
f dx = f dx + f dx
a a c

Beweis:

⇒“: selbst.

129
10. Das Riemann-Integral

⇐“: Sei ε > 0



Da f ∈ R[a, c], existiert Zerlegung Z1 von [a, c] mit
Zc
sf (Z1 ) > sf − ε = f dx − ε
a

Analog: existiert Z2 Zerlegung von [c, b] mit


Zb
sf (Z2 ) > f dx − ε
c

Setze Z := Z1 ∪ Z2 . Z ist Zerlegung von [a, b], und


Zc Zb
sf (Z) = sf (Z1 ) + sf (Z2 ) > f dx + f dx −2ε
a c
| {z }
=:S

⇒ S − 2ε < sf (Z) ≤ sf
Für ε → 0+ ergibt sich:
S ≤ sf
Analog: S ≥ Sf . Wegen sf ≤ Sf folgt somit:
Sf = sf = S


Beispiel 10.20. Sei (fn ) Funktionenfolge, fn : [0, 1] → R, definiert wie in Abbildung 10.4 dargestellt.

...... y
pp
n pp pp
pp p ppppp
ppp
ppp ppp
ppp p ppp
ppp
ppp p ppp
pp ppp
p pp ......
.
0 1
n
2
n
1 x

Abbildung 10.4.: Funktionenfolge fn (Beispiel 10.20)

Aus 10.19 folgt:


Z1
∀n fn ∈ R[0, 1], fn dx = 1
0

Ferner: (fn ) konvergiert punktweise gegen 0. (Beweis selbst)


Also:
Z1
lim fn dx = 1,
n→∞
0

130
10.2. Hauptsätze der Differential- und Integralrechnung

aber
Z1
lim fn (x) dx = 0
n→∞
0

D.h.: Der Limes darf i.a. nicht mit dem Integral vertauscht werden!
Beachte: fn konvergiert nicht gleichmäßig gegen 0.

Satz 10.21. Sei (fn ) eine Funktionenfolge auf [a, b] mit fn ∈ R[a, b] für alle n ∈ N.
fP
n f
konvergiere auf [a, b] gleichmäßig gegen : [a, b] → R.
fn s
Dann gilt:

f
∈ R[a, b]
s

und
Rb Rb Rb
lim fn dx = a f dx = a lim fn dx
n→∞ a n→∞
∞ R ∞
P b Rb Rb P
f dx = a s dx = a
a n
fn dx
n=0 n=0


an (x − x0 )n eine Potenzreihe mit
P
Beispiel 10.22 (Anwendung auf Potenzreihen). Sei f (x) =
n=0
Konvergenzradius r > 0.
Sei [a, b] ⊂ (x0 − r, x0 + r).
Nach 8.10 folgt, dass die Potenzreihe auf [a, b] gleichmäßig gegen f konvergiert.
⇒ f ∈ R[a, b] und
Zb ∞ Zb ∞ b
(x − x0 )n+1
X X 
f (x) dx = an (x − x0 )n dx = an
n=0 n=0
n+1 a
a a

X (b − x0 )n+1 − (a − x0 )n+1
= an (10-i)
n=0
n+1
Setze

X (x − x0 )n+1
F (x) := an (10-ii)
n=0
n+1
Nach 9.28 folgt, dass die Potenzreihe in (10-ii) denselben Konvergenzradius hat wie die gliedweise diffe-
renzierte Potenzreihe
X∞
an (x − x0 )n ,
n=0

also r, und es gilt F 0 (x) = f (x) ∀x ∈ (x0 − r, x0 + r).

Fazit: (aus 9.28 und 10.22)


Potenzreihe dürfen auf Ihrem (offenen) Konvergenzintervall (x0 − r, x0 + r) gliedweise diffe-
renziert und integriert werden (wobei gliedweise Integration im Sinne von (10-i) zu verstehen
ist).

131
10. Das Riemann-Integral


n · xn , x ∈ (−1, 1).
P
Beispiel 10.23. Bestimme
n=0

Setze

X
f (x) := nxn
n=0

(Konvergenzradius ist 1)

Ferner:

X 1
xn =
n=0
1−x

∞ ∞
!0
1 X X
⇒ f (x) + = (n + 1)xn = x n+1
1 − x n=0 | {z } n=0
=(xn+1 )0

!0 0
1 − x − x · (−1)

X
n x 1
= x x = = 2
=
n=0
1−x (1 − x) (1 − x)2

1 1 x
⇒ f (x) = − =
(1 − x)2 1−x (1 − x)2

Erinnerung:

6 D ⊂ R, L ≥ 0 und h : D → R Lipschitz-stetig, d.h.


Sei ∅ =

h(t) − h(s) ≤ L · |t − s| für alle s, t ∈ D

Dann ist h stetig auf D.

Satz 10.24. Seien f, g ∈ R[a, b].



(1) Sei D := f [a, b] (beschränkt, da f beschränkt) und h : D → R Lipschitz-stetig.
Dann gilt h ◦ f ∈ R[a, b].
(2) |f | ∈ R[a, b] und

Zb Zb
f (x) dx ≤ f (x) dx (Dreiecksungleichung für Integrale)
a a

(3) f · g ∈ R[a, b]
(4) Es existiere ein δ > 0 mit ∀x ∈ [a, b] g(x) ≥ δ
f
Dann gilt g ∈ R[a, b]

Beweis:

(1) hier weggelassen.

132
10.2. Hauptsätze der Differential- und Integralrechnung

(2) Setze h(t) := |t|.

Dann: h Lipschitz-stetig auf R (mit L = 1)

⇒ h ◦ f = |f | ∈ R[a, b]
(1)

Ferner

f ≤ |f |, −f ≤ |f |


 Zb Zb
f (x) dx ≤ f (x) dx






a a

10.7 
 Zb Zb

(−f (x)) dx ≤ f (x) dx





a a

Zb Zb
⇒ f (x) dx ≤ f (x) dx
a a

(3) Sei ψ ∈ R[a, b] ⇒ ψ beschränkt.



⇒ D := ψ [a, b] beschränkt

⇒ ∃α > 0 ∀t ∈ D |t| ≤ α

Setze h(t) := t2 .

⇒ ∀t, s ∈ D h(t) − h(s) = |t − s| · |t + s| ≤ 2α|t − s|


| {z }
≤2α

⇒ h Lipschitz-stetig.

⇒ h ◦ ψ = ψ 2 ∈ R[a, b]
(1)

Aus f, g ∈ R[a, b] folgt mit 10.7

f + g, f − g ∈ R[a, b]

⇒ (f + g)2 , (f − g)2 ∈ R[a, b]


1
(f + g)2 − (f − g)2 ∈ R[a, b]


10.7 4
| {z }
=f ·g

(4) nur angedeutet:

1 1 f
h(t) = ⇒ ∈ R[a, b] ⇒ ∈ R[a, b]
t g (1) g

133
10. Das Riemann-Integral

Satz 10.25 (2. Hauptsatz der Differential– und Integralrechnung).


Es sei f ∈ R[a, b] und F : [a, b] → R definiert durch
Zx
F (x) := f (t) dt
a

(nach 10.19 existiert das rechtsstehende Integral)


Dann gilt:
Ry
(1) ∀x, y ∈ [a, b] F (y) − F (x) = x
f (t) dt
(2) F ist stetig
(3) Ist f stetig, so ist F eine Stammfunktion von f auf [a, b], also

∀x ∈ [a, b] F 0 (x) = f (x)

Als Vorbemerkung noch triviale“ Definitionen:



Für f ∈ R[a, b] setze

Za Zb Zc
f (x) dx := − f (x) dx und ∀c ∈ [a, b] f (x) dx := 0
b a c

Beweis:

(1) Die Behauptung folgt aus 10.19



(2) Setze γ := sup f (t) : t ∈ [a, b] . Seien x, y ∈ [a, b].

1. Fall: x ≤ y

Zy Zy
F (y) − F (x) = f (t) dt ≤ f (t) dt ≤ γ · (y − x) = γ · |y − x|
(1) 10.24
x x

D.h. F ist Lipschitz-stetig und damit stetig auf [a, b].

2. Fall: x > y

F (y) − F (x) = F (x) − F (y) ≤ γ · |x − y| = γ · |y − x|


Fall 1

D.h. F ist Lipschitz-stetig und damit stetig auf [a, b].

(3) Sei x0 ∈ [a, b)


F (x0 +h)−F (x0 )
Wir zeigen: lim h = f (x0 )
h→0+

Sei h > 0 mit x0 + h ≤ b


F (x0 +h)−F (x0 )
Setze h − f (x0 ) =: L(h)

Bleibt zu zeigen: L(h) → 0 für h → 0+

134
10.2. Hauptsätze der Differential- und Integralrechnung

Es ist
xZ0 +h xZ0 +h
F (x0 + h) − F (x0 ) 1 1
= f (t) dt und f (x0 ) = f (x0 ) dt
h (1) h h
x0 x0

also:
xZ0 +h xZ0 +h
1 1
L(h) = f (t) − f (x0 ) dt = f (t) − f (x0 ) dt
h h
x0 x0
xZ0 +h
1
≤ f (t) − f (x0 ) dt
h
x0

f ist stetig in x0 . Ist ε > 0, so gibt es ein δ > 0 mit

f (t) − f (x0 ) ≤ ε für alle t ∈ Uδ (x0 ) ∩ [a, b]

Für 0 < h < δ gilt: [x0 , x0 + h] ⊂ Uδ (x0 ) ∩ [a, b], also


xZ0 +h
1 1
L(h) ≤ ε dt = ·ε=ε
h h
x0

Korollar 10.26. Sei I ⊂ R beliebiges Intervall und f ∈ C(I). Es sei x0 ∈ I fest und F : I → R definiert
durch
Zx
F (x) := f (t) dt
x0

Dann ist F ∈ C 1 (I) und F 0 = f auf I.

Beweis: Sei x0 ∈ [a, b] ⊂ I. Es reicht zu zeigen, dass F 0 = f auf [a, b].


Setze
Zx
G(x) := f (t) dt , x ∈ [a, b]
a

Nach 10.25 (3) ist G0 = f auf [a, b]


Nach 10.19 gilt:
Zx0 Zx Zx
f (t) dt + f (t) dt = f (t) dt , x ∈ [a, b]
a x0 a
| {z } | {z } | {z }
=G(x0 ) =F (x) =G(x)

Also F (x) = G(x) − G(x0 ) , x ∈ [a, b]


| {z }
c
0 0
⇒ F = G = f auf [a, b] 

135
10. Das Riemann-Integral

Definition 10.27 (Schreibweise). I ⊂ R beliebiges Intervall und f : I → R eine Funktion.


Besitzt f auf I eine Stammfunktion, so schreibt man für eine (und jede) solche Stammfunktion auch
Z
f (x) dx (unbestimmtes Integral)

Vorsicht: Besitzen f, g Stammfunktionen, so ist die Schreibweise


Z Z
f (x) dx = g(x) dx

nicht als Gleichung zwischen Funktionen zu verstehen, da das unbestimmte Integral eine ganze Klasse
von Funktionen bezeichnet.

Beispiel 10.28. (c ∈ R)
Z
ex dx = ex + c
Z
sin x dx = − cos x + c
Z
cos x dx = sin x + c

xn+1
Z
xn dx = +c
n+1

10.3. Partielle Integration

Satz 10.29. Sei I ⊂ R ein Intervall und seien f, g ∈ C 1 (I)


(1) f g dx = f g − f g 0 dx auf I
R 0 R

[ nach 10.26 besitzen f 0 · g und f · g 0 Stammfunktionen auf I ]


(2) Ist I = [a, b], so ist

Zb Zb
0
b
f g 0 dx

f g dx = f (x)g(x) a −
a a

[ nach 10.12 gilt f 0 g, f g 0 ∈ R[a, b] ]

Beweis: Nach der Produktregel gilt: (f g)0 = f 0 g + f g 0


(1) f 0 g + f g 0 hat auf I die Stammfunktion f g ⇒ Behauptung
(2)

Zb Zb Zb h ib
0 0
f g dx + f g dx = (f 0 g + f g 0 ) dx = f (x)g(x) ⇒ Behauptung
10.14 a
a a a

136
10.4. Integration durch Substitution

Beispiel 10.30. (c ∈ R)
(1)
Z Z Z
sin2 (x) dx =

sin(x) sin(x) dx = − cos(x) sin(x) − − cos(x) cos(x) dx (10-iii)
Z
= − cos(x) sin(x) + cos(x) · cos(x) dx
Z Z
= − cos(x) sin(x) + sin(x) cos(x) − sin(x) − sin(x) dx = sin2 (x) dx


⇒ hat nichts gebracht.


Mache bei (10-iii) anders weiter:
Z Z
− cos(x) sin(x) + cos2 (x) dx = x − cos(x) sin(x) − sin2 (x) dx
| {z }
1−sin2 (x)
Z
⇒2 sin2 (x) dx = x − cos(x) sin(x) + c

1
Z
sin2 (x) dx =

⇒ x − sin(x) cos(x) + c
2

(2)
1
Z Z Z
log(x) dx = 1 · log(x) dx = x log(x) − x· dx = x log x − x + c
|{z} | {z } x
=f 0 (x) =g(x)

(3)

x2 x x2 x
Z Z
ex dx =
x |{z} e − e dx
|{z} 2 2
f 0 (x) g(x)

; wird komplizierter.
Z Z
x x
x e
|{z} |{z} dx = x · e − 1 · ex dx = x · ex − ex + c
g(x) f 0 (x)

Definition 10.31. Seien α, β ∈ R, α 6= β.


(
[α, β] für α < β
hα, βi :=
[β, α] für α > β

10.4. Integration durch Substitution

Satz 10.32 (Substitutionsregel). Seien I, J ⊂ R Intervalle, f ∈ C(I) und g ∈ C 1 (J)


(1) f (g(t)) · g 0 (t) dt = f (x) dx x=g(t) auf J
R R

137
10. Das Riemann-Integral

(2) Ist g 0 (t) 6= 0 für alle t ∈ J, so


Z Z
f g(t) · g 0 (t) dt

f (x) dx = t=g −1 (x)

(3) Sei I = ha, bi und J = hα, βi mit g(α) = a und g(β) = b

Zb Zβ
f g(t) · g 0 (t) dt

f (x) dx =
a α

Beweis: Nach 10.26 hat f auf I eine Stammfunktion F .


Setze h(t) := f g(t) · g 0 (t) und G(t) := F g(t) . Dann ist G differenzierbar auf J und
 

G0 (t) = F 0 g(t) · g 0 (t) = h(t) , t ∈ J



(10-iv)

(1)
Z Z
(10-iv) 
h(t) dt = G(t) = F g(t) = F (x) x=g(t)
= f (x) dx x=g(t)

(2)
Z Z
= G g −1 (x) = F g(g −1 (x)) = F (x) =
 
h(t) t=g −1 (x)
f (x) dx

(3)

Zβ Zb
(10-iv)  
h(t) dt = G(β) − G(α) = F g(β) − F g(α) = F (b) − F (a) = f (x) dx
α a


Merkregel: Sei y = y(x) eine differenzierbare Funktion von x. Dann schreibt man für y 0 auch
dy
dx .

Zu 10.32: Substituiere x = g(t), fasse also x als Funktion von t auf.

dx
⇒ = g 0 (t)
dt
⇒“ dx = g 0 (t) dt

Beispiel 10.33.
(1)

Z2
e2x + 1
2x
dx
1
| e{z }
=:f (x)

138
10.4. Integration durch Substitution

g so wählen, dass f ◦ g eine einfache“ Form bekommt.


” 
dx 1
(x =) g(t) = log t, = g 0 (t) = , a = 1, b = 2 ⇒ α = e, β = e2
dt t

2
Z2 Ze
e2x + 1 e2 log t + 1 1
⇒ dx = · dt
e2x e2 log t t
1 e
2 2
Ze Ze  e2
t2 + 1
 
1 1 1
= dt = + 3 dt = log t − 2
t3 t t 2t e
e e

(2)
t+5 1 g 0 (t)
Z Z
dt = dt mit g(t) = t2 + 10t + 4
t2 + 10t + 4 2 g(t)
| {z }
f (g(t))g 0 (t)

für f (x) = x1 . Nach 10.32 gilt:


t+5 1 1 1 1
Z Z Z
dt = f (x) dx = dx = log(t2 + 10t + 4)
t2 + 10t + 4 2 x=g(t) 2 x x=g(t) 2

(3)
x
Z
√ dx auf (0, 1)
1 − x2
| {z }
=:f (x)

Substituiere x = g(t) = sin t t ∈ 0, π2 .




dx p q
0
1 − x = 1 − sin2 (t) = cos2 (t) = cos(t)
p
⇒ = g (t) = cos t, 2
dt

x sin(t)
Z Z
⇒ √ dx = · cos(t) dt = − cos(t) t=g−1 (x) + c
1 − x2 cos(t) t=g −1 (x)
q p
= − cos arcsin(x) + c = − 1 − sin2 arcsin(x) + c = − 1 − x2 + c
 

(4)
Z1 p
1 − x2 dx
0

(vgl. auch Abb. 10.5).


π
Substituiere x = sin(t), dx = cos(t) dt“, x = 0 ⇒ t = 0, x = 1 ⇒ t = 2.

π π
Z1 p Z2 q Z2
2
⇒ 1 − x2 dx = 1 − sin (t) · cos(t) dt = cos2 (t) dt
| {z } | {z }
0 0 0 =1−sin2
=cos(t)
π
Z2  π
π 2 π 1  2 π π π
= − sin (t) dt = − t − sin(t) cos(t) = − =
2 2 2 0 2 4 4
0

139
10. Das Riemann-Integral

.....
....

1 ..p.p...p..p..p..pp...p..p..p..p..ppp..p..p..p..pppp.p..pppppp
.... ... .... ..ppp
..... ..... ..... ..... p.p p p
..... ......... ......... ......... ......... ..p..p p p
.. ...... ...... ...... ...... ..[Link]
..... ......... ........ ......... ......... ......... ....ppp p
. ... .
..... ..... ..... ..... ..... ..... ..pp
..... ......... ......... ......... ......... ......... ......... .p.p
. . . . . .
. ..... ..... ..... ..... ..... ..... pp
..... ........ ......... ........ ........ ........ ........ ......pp
.. .
. . . . . . .
..... ..... ..... ..... ..... ..... ..... ..pp
..... ......... ......... ......... ......... ......... ......... ......... pp
. . . . . .

..... ......... ......... ......... ......... ......... ......... .........pp


. . . . . . .
. ..... ..... ..... ..... ..... ..... ..... .pp
...
..... ..... ..... ..... ..... ..... ..... ..... p
.
.... ..... ..... ..... ..... ..... ..... ..... pp
.. .. .. .. .. .. .. ..
...........
..
0 1

Abbildung 10.5.: Funktion zu 10.33 (4)

Satz 10.34.
(1) Sei f : [a, b] → R beschränkt, f habe höchstens endlich viele Unstetigkeitsstellen in [a, b].
Dann gilt f ∈ R[a, b].
(2) Sei f ∈ R[a, b] und g : [a, b] → R beschränkt. Es gelte f (x) 6= g(x) für höchstens endlich viele
x ∈ [a, b].
Dann gilt g ∈ R[a, b] und

Zb Zb
f (x) dx = g(x) dx
a a

(3) Ist f (x) = g(x) für alle x ∈ (a, b) und f ∈ R[a, b], so ist g ∈ R[a, b], und

Zb Zb
f (x) dx = g(x) dx
a a

Beweis:
zu (1): Es existiert γ ≥ 0 mit

∀x ∈ [a, b] f (x) ≤ γ

a) f sei unstetig in genau einem ξ ∈ [a, b] (vgl. Abb. 10.6)

c d
...........
......

a ξ b

Abbildung 10.6.: Skizze zum Beweis von 10.34

• Sei ξ ∈ (a, b), und sei ε > 0. Wähle c ∈ (a, ξ), d ∈ (ξ, b) mit 2γ(d − c) < 3ε .
f stetig auf [a, c] und auf [d, b] ⇒ f ∈ R[a, c], f ∈ R[d, b]. =⇒ Es existieren Zerlegungen
10.8
Z1 von [a, c], Z2 von [d, b] mit
ε ε
Sf (Z1 ) − sf (Z1 ) < , Sf (Z2 ) − sf (Z2 ) <
3 3

140
10.4. Integration durch Substitution

Z := Z1 ∪ Z2 Zerlegung von [a, b], und


≤γ ≥−γ
z }| { z }| {
Sf (Z) − sf (Z) = Sf (Z1 ) − sf (Z1 ) + sup f [c, d] − inf f [c, d] · (d − c)
+ Sf (Z2 ) − sf (Z2 )
≤ Sf (Z1 ) − sf (Z1 ) + 2γ(d − c) + Sf (Z2 ) − sf (Z2 ) < ε
| {z } | {z } | {z }
ε ε ε
3 3 3

⇒ f ∈ R[a, b]

• ξ = a oder ξ = b: analog
b) f habe endlich viele Unstetigkeitspunkte ξ1 , . . . , ξp ∈ [a, b].
Wähle η1 , . . . , ηp−1 ∈ [a, b] mit

η0 := a ≤ ξ1 < η1 < ξ2 < η2 < · · · < ηp−1 < ξp ≤ ηp := b

Für jedes Intervall [ηj−1 , ηj ] gilt: f hat in [ηj−1 , η] genau einen Unstetigkeitspunkt, nämlich
ξj .

=⇒ f ∈ R[ηj−1 , ηj ] für alle j = 1, . . . , p


a)

=⇒ f ∈ R[a, b]
10.19

zu (2): Setze h := f − g. M sei die Menge der Punkte, in denen f 6= g gilt. (höchstens endlich viele)
⇒ h = 0 auf [a, b] \ M
⇒ h stetig auf [a, b] \ M , da M endlich.
⇒ h ∈ R[a, b]
(1)

⇒ g = f − h ∈ R[a, b]
Noch zu zeigen:

Zb Zb Zb
 

h(x) dx = 0 ⇒ g dx = f dx
a a a

Nach 10.24 genügt es wegen

Zb Zb
h dx ≤ |h| dx
a a

zu zeigen:

Zb
|h| dx = 0
a

Es gilt:

h(ξ) > 0 für ξ ∈ M

|h| = 0 auf [a, b] \ M

141
10. Das Riemann-Integral

=⇒ s|h| (Z) = 0 für jede Zerlegung Z von [a, b]


M endlich

Zb
s|h| = 0 =⇒ |h| dx = 0
|h|∈R[a,b]
a

zu (3): Spezialfall von 2.



 
P ck
Beispiel 10.35. Die Cantor-Menge C := 3k
: ck ∈ {0, 2} für alle k
k=1


 
P ak
Im Beweis zu Satz 5.6 haben wir gesehen, dass die Menge M := 3k
: ak ∈ {0, 1} überabzählbar
k=1
ist.

Also ist auch C überabzählbar.

Eine andere Konstruktion von C:

Man erhält In+1 indem man aus jedem Intervall


von In das mittlere Drittel herausschneidet“.

T
Dann ist C = Ik
k∈N
(
1 falls x ∈ C
Die Funktion f : [0, 1] → R, f (x) = ist beschränkt
0 falls x ∈
6 C
(
1 falls x ∈ Ik
ebenso wie fk : [0, 1] → R, fk (x) = .
0 sonst

Nach 10.34 ist fk ∈ R[0, 1]

Da f ≤ fk ist, gilt auch Sf (Z) ≤ Sfk (Z) für eine Zerlegung Z.

Z1  k
1 2
Sf (Z) ≤ Sfk (Z) = fk (x) dx = k · 2k =
3 3
0
| {z }
Länge mal Anzahl
der Intervalle in Ik

⇒ Sf (Z) ≤ 0

Da f ≥ 0 folgt sf ≥ 0, also Sf = sf
R1
Damit ist f ∈ R[a, b] und 0
f (x) dx = 0

142
10.5. Mittelwertsatz der Integralrechnung

10.5. Mittelwertsatz der Integralrechnung

Satz 10.36 (Mittelwertsatz der Integralrechnung). f, g ∈ R[a, b], g ≥ 0 auf [a, b]


 
Sei m := inf f [a, b] , M := sup f [a, b] . Dann existiert ein µ ∈ [m, M ] mit

Zb Zb
f g dx = µ g dx
a a

Zusatz: Ist f ∈ C[a, b], so existiert ξ ∈ [a, b] mit µ = f (ξ)

Spezialfall: g = 1

Zb
f (x) dx = µ · (b − a)
a

Beweis: m ≤ f (x) ≤ M für alle x ∈ [a, b]


⇒ m · g ≤ f · g ≤ M · g auf [a, b]
g≥0

Zb Zb Zb
⇒ m g dx ≤ f g dx ≤ M g dx
a a a
| {z } | {z }
=:A =:B
Also: mA ≤ B ≤ M A
1. Fall: A = 0 ; wähle µ ∈ [m, M ] beliebig
B
2. Fall: A 6= 0 da A ≥ 0 folgt A > 0, also m ≤ A ≤M
|{z}
=:µ

Satz 10.37. (fn )n∈N sei Funktionenfolge mit



(i) fn (a) konvergiert
(ii) (fn0 ) konvergiere auf [a, b] gleichmäßig gegen g : [a, b] → R
Dann konvergiert (fn ) auf [a, b] gleichmäßig und für f (x) := lim fn (x) , x ∈ [a, b] gilt:
n→∞

f ∈ C 1 [a, b] und f 0 = g
Also:
 0
lim fn (x) = f 0 (x) = g(x) = lim fn0 (x)
n→∞ n→∞

143
10. Das Riemann-Integral

[ Vertauschen von Limes und Ableitung unter der Vorraussetzung gleichmäßiger Konvergenz der Ablei-
tungen ]

Rx
Beweis: Nach 8.10 ist g ∈ C[a, b] ⇒ G(x) := a
g(t) dt , x ∈ [a, b] definiert eine Stammfunktion
10.25
1
von g auf [a, b] und G ∈ C [a, b]
Für jedes x ∈ [a, b] gilt:
Zx Zx
n→∞
fn (x) − fn (a) = fn0 (t) dt −−−−→ g(t) dt = G(x)
10.14 10.21
a a

also
n→∞
fn (x) −−−−→ G(x) + lim fn (a) für jedes x ∈ [a, b]
n→∞
| {z }
=:c

also
f (x) = lim fn (x) = G(x) + c für jedes x ∈ [a, b]
n→∞

⇒ f ∈ C 1 [a, b] , f 0 = G0 = g auf [a, b]


G∈C 1
Bleibt zu zeigen: (fn ) konvergiert auf [a, b] gleichmäßig gegen f .
Für jedes x ∈ [a, b] gilt:
Zx
|fn (x) − f (a)| = fn (x) − fn (a) +fn (a) − f (a) − g(t) dt
| R {z } |{z}
= x 0 (t)
fn dt =c a
a | {z }
G(x)
| {z }
−f (x)
Zx
fn0 (t) − g(t) dt + fn (a) − c

=
a
Zx
≤ fn0 (t) − g(t) dt + fn (a) − c
a
Zb
≤ fn0 (t) − g(t) dt + fn (a) − c =: γn
| {z }
a =:βn
| {z }
=:αn

|fn0

− g| konvergiert auf [a, b) gleichmäßig gegen 0.
Zb
⇒ αn → dt = 0 für n → ∞
10.21
a

Außerdem: βn → 0 für n → ∞ nach Definition von c


⇒ γn → 0 für n → ∞
Somit
fn (x) − f (x) ≤ γn für alle x ∈ [a, b], n ∈ N und γn → ∞
⇒ (fn ) konvergiert auf [a, b] gleichmäßig gegen f 
8.5

144
10.5. Mittelwertsatz der Integralrechnung

Beispiel 10.38. fn : [0, 1] → R für n ≥ 4


(
cos(nx) falls x ∈ [0, nπ ]
fn (x) =
−1 sonst

Dann
(
falls x ∈ 0, nπ
 
−n · sin(nx)
fn0 (x) =
0 sonst

Es gilt fn0 (x) → 0 für alle x ∈ [0, 1]


Also: (fn0 ) konvergiert punktweise aber f in 0 nicht differenzierbar.
D.h.: In 10.37 ist die Vorraussetzung der gleichmäßig Konvergenz von (fn0 ) wesentlich!

Nachtrag:
Beweis: zu Satz 9.28 (2)
Wähle kompaktes Intervall [a, b] ⊂ I beliebig.
Setze
n
X
sn (x) := ak (x − x0 )k (für x ∈ [a, b])
k=0

Dann
n ∞
9.28
X X
∀x ∈ [a, b] ∀n ∈ N s0n (x) = kak (x − x0 )k−1 −−→ kak (x − x0 )k−1 =: g(x)
k=1 k=1

Ferner (sn (a)) offenbar konvergent, da a ∈ I.


Nach 8.10 gilt s0n → g gleichmäßig auf [a, b].

⇒ f differenzierbar auf [a, b], f0 = g


10.37

Da [a, b] ⊂ I beliebig, ist f differenzierbar auf I, und f 0 = g auf I.


⇒ Behauptung. 

145
10. Das Riemann-Integral

146
11. Partialbruchzerlegung

Erinnerung:

z ∈ C , z = x + iy x, y ∈ R

Beachte: i2 = −1

z := x − iy w+z =w+z , w·z =w·z

11.1. Fundamentalsatz der Algebra

Satz 11.1 (Fundamentalsatz der Algebra). Sei p(z) = a+ + a1 z + · · · + an z n (n ∈ N , an = 6 0) ein


Polynom mit komplexen Koeffizienten (a0 , . . . , an ∈ C), so existiert ein m ≤ n und z1 , . . . , zm ∈ C und
ν1 , . . . , νm ∈ N mit zj 6= zk für j 6= k und ν1 + · · · + νm = n und

p(z) = an (z − z1 )ν1 · · · (z − zm )νm (11-i)

[ Jedes Polynom vom Grad n hat (mit Vielfachheiten) genau n Nullstellen ]


νj ist Vielfachheit der Nullstelle zj .

Beispiel 11.2.

(1) p(z) = z 2 + 1 = (z − i)(z + i)

(2) p(z) = iz 2 − (1 + i)z 3 + z 4 = z 2 (i − z − iz + z 2 ) = z 2 (z − 1)(z − i)

also: n = 4 , m = 3 , z1 = 0 , z2 = 1 , z3 = i , ν1 = 2 , ν2 = 1 , ν3 = 1

Satz 11.3. Sei p wie in 11.1 aber a1 , . . . , an ∈ R. Ist z0 eine Nullstelle von p mit der Vielfacheit ν, so
ist auch z0 eine Nullstelle von p mit der Vielfachheit ν.

Beweis:

0 = 0 = q(z0 ) = a0 + a1 z0 + · · · + an z0n
= a0 + a1 · z0 + · · · + an · z0 n
= a0 + a1 z0 + · · · + an zn n
= q(αj )

Sei p wie in 11.3 und z0 = x0 + iy0 , x0 , y0 ∈ R eine Nullstelle von p mit y0 6= 0 (d.h.
z0 6∈ R).

147
11. Partialbruchzerlegung

Dann gilt:

(z − z0 )(z − z0 ) = z 2 − z(z0 + z0 ) + z0 · z0
= z 2 − 2x0 z + x20 + y02
= z 2 + 2bz + c

mit b := −x0 und c := x20 + y02 wobei c − b2 = x20 + y02 − x20 = y02 > 0

Also hat das Polynom x2 + 2bx + c in R keine Nullstelle.

Es ist (z − z0 )ν (z − z0 )ν = (z 2 + 2bz + c)ν

Vereinbarung

Im folgenden seien alle vorkommenden Polynome (p, q, h) reelle Polynome mit reellen Koeffizienten.
Dabei sei stets:

q(x) := a0 + · · · + an xn , an 6= 0

Satz 11.4. Sei q wie oben. x1 , . . . , xM seien die verschiedenen Nullstellen von q in R (M = 0, falls q
keine reellen Nullstellen hat). Dann hat q eine Darstellung der Form
M L
Y Y µj
q(x) = an (x − xj )νj x2 + 2bj x + cj ,
j=1 j=1

wobei νj , µj ∈ N , bj , cj ∈ R , cj − b2j > 0 und ν1 + · · · + νM + 2µ1 + 2µL = n.


0
Y
Dabei gelte (x − xj )νj := 1
j=1

Satz 11.5 (Division mit Rest).


Seien P, q Polynome mit Grad P ≥ Grad q. Dann existieren Polynome p, h mit:
P p
=h+ und Grad p ≤ Grad q
q q

Beispiel 11.6. Sei P (x) := 2x3 − x2 − 10x + 19 und q(x) := x2 + x − 6. Division mit Rest:

p(x)
z }| {
3 2
P (x) 2x − x − 10x + 19 5x + 1
= 2
= 2x − 3 + 2
q(x) x +x−6 | {z } x +x−6
h(x)

Definition 11.7.

L := {p : R → R : ∃a, b ∈ R mit p(x) = ax + b}


= {p : R → R : p Polynom, Grad p ≤ 1}

148
11.1. Fundamentalsatz der Algebra

Satz 11.8 (Partialbruchzerlegung). Es seien p, q Polynome, Grad p < Grad q, und q habe die Darstellung
wie in 11.4. Dann:
p(x) a11 a12 a1,ν1
= + + ··· +
q(x) x − x1 (x − x1 )2 (x − x1 )ν1
a21 a2,ν2
+ + ··· +
x − x2 (x − x2 )ν2
..
.
aM 1 aM,νM
+ + ··· +
x − xM (x − xM )νM
f11 f1,µ1
+ 2
+ ··· +
x + 2b1 x + c1 (x + 2b1 x + c1 )µ1
2
..
.
fL1 fL,µL
+ + ··· +
x2 + 2bL x + cL (x2 + 2bL x + cL )µL

wobei ajk ∈ R , fjk ∈ L.

Beispiel 11.9.
x+2 ! a b c αx + β
= + 2+ + 2
x2 (x − 1)(x2 + 1) x x x−1 x +1

⇒ x + 2 = ax(x − 1)(x2 + 1) + b(x − 1)(x2 + 1) + cx2 (x2 + 1) + (αx + β)x2 (x − 1)


Indem man zunächst für x geschickt“ gewählte Werte annimt, lassen sich einige Unbekannte direkt

ablesen:

x = 0 ⇒ b = −2
3
x = 1 ⇒ 3 = 2c ⇔ c =
2
Die verbliebenen Unbekannten lassen sich durch Koeffizientenvergleich ermitteln:
3
x4 : a+α= − 
2



3
x : −a + β − α = 2

3 1
⇒ a = −3 , α = , β=
7 2 2
x2 : a−β = − 
2



x: −a = 3

also:
3 3 1
x+2 3 2 2 2x + 2
= − − + +
x2 (x − 1)(x2 + 1) x x2 x−1 x2 + 1

149
11. Partialbruchzerlegung

150
12. Integration rationaler Funktionen

Wegen obigem Abschnitt kann die Integration rationaler Funktionen

P (x)
(P, q reelle Polynome mit reellen Koeffizienten)
q(x)

auf folgende Ausdrücke zurückgeführt werden:

1 Ax + B
Z Z Z
xk dx , k+1
dx und dx,
(x − a) (x + 2bx + c)k+1
2

wobei

k ∈ N , a, b, c, A, B ∈ R und c − b2 > 0.

Im folgenden sei p(x) = x2 + 2bx + c.


Dann: p0 (x) = 2x + 2b

Die Integration der ersten beiden Ausdrücke lässt sich mit bekannten Mitteln
durchführen:

12.1.

xk+1
Z
xk dx =
k+1

12.2.
(
1 log |x − a| falls k = 0
Z
=
(x − a)k+1 − k1 · (x−a)
1
k falls k ≥ 1

Für den dritten Ausdruck nehmen wir zunächst einige Umformungen vor:

A
Ax + B = Ax + Ab + B − Ab = · (2x + 2b) + B − Ab
2
A 0
= · p (x) + B − Ab
2
also
Ax + B A p0 (x) 1
Z Z Z
dx = dx + (B − Ab) dx
p(x)k+1 2 p(x)k+1 p(x)k+1

12.3.
(
p0 (x) log |p(x)| falls k = 0
Z
dx =
p(x)k+1 − k1 · p(x)
1
k falls k ≥ 1

151
12. Integration rationaler Funktionen

12.4.

p(x) = x2 + 2bx + c = x2 + 2bx + b2 + c − b2


| {z }
=:γ>0

= (x + b)2 + γ
 2 !
x+b
=γ· √ +1 und γ > 0
γ


1 γ 1 x+b 1
Z Z
k+1
dx = k+1 · dt t= √ , dt = √ dx
p(x) γ (t + 1)k+1
2 γ γ

Setze
1
Z
Ik+1 (t) := dt , k ∈ N0
(t2 + 1)k+1

12.5.

Klar: I1 (t) = arctan t

Sei k ≥ 1. Dann:

1 t t · 2t(−k)
Z Z
1 ·
Ik = |{z} 2 k
dt = 2 − dt
(t + 1) (t + 1)k (t2 + 1)k+1
f0 | {z }
g
Z 2
1 t +1−1
= 2 k
+ 2k dt
(t + 1) (t2 + 1)k+1
1 1 1
Z
= 2 + 2k − 2 dt
(t + 1)k (t2 + 1)k (t + 1)k+1
1
= 2 + 2k (Ik (t) + Ik+1 (t))
(t + 1)k

Also
 
1 t 1
Ik+1 = · 2 + 1 − Ik (t) k ≥ 1
2k (t + 1)k 2k

Beispiel 12.6. p(x) = x2 + 4x + 5 = (x + 2)2 + 1

Substituiere t = x + 2 (γ = 1, b = 2)

1 1 t 1
Z
dx = I2 (t) = 2 + arctan t
p(x)2 2t +1 2
 
1 x+2
= + arctan(x + 2)
2 x2 + 4x + 5

152
Beispiel 12.7.

3x5 − 2x4 + 4x3 + 4x2 − 7x + 6


Z
dx
(x − 1)2 (x2 + 1)2
| {z }
=:R(x)

Zunächst formen wir R durch Partialbruchzerlegung um:


1 2 2x + 1 4
R(x) = + + 2 +
x − 1 (x − 1)2 x + 1 (x2 + 1)2

2 2x + 1 1
Z Z Z
⇒ R(x) dx = log |x − 1| − + 2
dx + 4 · dx
x−1 x +1 (x + 1)2
2

2x + 1 2x 1
Z Z Z
(i) dx = dx + dx = log(x2 + 1) + arctan(x) + c
x2 + 1 x2 + 1 x2 + 1

1 2x
Z
(ii) 4· dx = 2 + 2 arctan(x) + c (Vorgehen analog zu vorigem Beispiel)
(x2 + 1)2 12.5 x + 1

Insgesamt erhalten wir


2 2x
Z
+ log x2 + 1 + 2

R(x) dx = log |x − 1| − + 3 arctan(x) + c
x−1 x +1

153
12. Integration rationaler Funktionen

154
13. Explizite Integration weiterer
Funktionenklassen

13.1. Sei R eine rationale Funktion, a ∈ R \ {0}. Dann läßt sich


Z
R (ea·x ) dx

1 1
durch die Substitution t = eax (also x = a log t, also dx = at dt) zurückführen auf

1
Z
R(t) · dt ; gebrochen rationale Funktion zu integrieren
at

Beispiel 13.2.

1 1 1
Z Z
· dx = dx
2 cosh(x) ex + e−x
1 1 1
Z Z
=x · dt = dt
t=e t + 1t t t2 + 1
= arctan(ex ) + c

x2 y+2xy−y 3
13.3. Sei R(x, y) eine rationale Funktion in x und y, etwa: R(x, y) = xy−x3 y+y .

Dann läßt sich


r !
ax + b
Z
n
R x, dx
cx + d
q
ax+b
durch die Substitution t = n
cx+d zurückführen auf die Integration einer rationalen Funktion.

Beispiel 13.4.

1− x 1−y
Z  
√ dx R(x, y) = , also: a = d = 1 , b = c = 0
x+ x x+y

Substituiere: t = x ⇒ x = t2 ⇒ dx = 2t dt


1− x 1−t 1−t
Z Z Z
⇒ √ dx = · 2t dt = 2 dt
x+ x t2 + t 1+t
Z  
2
=2· −1 + dt = −2t + 4 log |1 + t| + c
1+t
√ √ 
= −2 x + 4 log 1 + x + c

155
13. Explizite Integration weiterer Funktionenklassen

13.5. R wie in 13.3. Das Integral


Z
R(sin x, cos x) dx

2
kann durch die Substition x = 2 arctan(t) (⇒ dx = 1+t 2 dt) auf die Integration einer rationalen Funktion

zurückgeführt werden; dazu benutze:


 2 tan x2

x x

sin(x) = 2 sin 2 cos 2 = 1
2
cos( x
2)

2 tan x2

2t
= 2 x
=
1 + tan 2 1 + t2

 1 − tan2 x2

2 x
 2 x 1 − t2
cos(x) = cos 2 − sin 2 = 1 =
1 + t2
cos2 ( x
2)

1 − t2
 
2t 2
Z Z
⇒ R(sin x, cos x) dx = R , dt
1 + t2 1 + t2 1 + t2

Beispiel 13.6.
(1)
1 1 2
Z Z
dx = 1−t2
· dt
cos(x) 1 + t2
1+t2
Z  
1 1 1
Z
=2 dt = − dt
1 − t2 t+1 t−1
x

t+1 tan 2 +1
= log |1 + t| − log |t − 1| + c = log + c = log x +c
t−1 tan 2 −1

(2)

1 1 + t2 2 x
Z Z
= · dt = log |t| = log tan
sin(x) 2t 1 + t2 2

Für die folgenden Substitutionen beachte:

cosh2 x − sinh2 x = 1 , cos2 x + sin2 x = 1 für alle x ∈ R

13.7. Das Integral


Z  p 
R x, x2 + a2 dx

kann durch die Substitution x = a · sinh t auf den in 13.1 behandelten Fall zurückgeführt werden.

Beispiel 13.8.
Z √ 2
x +1
dx
x

Substituiere: x = sinh t ⇒ dx = cosh t dt , x2 + 1 = sinh2 t + 1 = cosh2 t


Z √ 2
x +1 cosh t (et + e−t )2
Z Z
⇒ dx = · cosh t dt = dt ; 13.1
x sinh t 2(et − e−t )

156
13.9. Das Integral
Z  p 
R x, x2 − a2 dx

kann durch die Substitution x = a · cosh t auf den in 13.1 behandelten Fall zurückgeführt werden.

13.10. Das Integral


Z  p 
R x, a2 − x2 dx

kann durch die Substitution x = a · sint auf den in 13.5 behandelten Fall zurückgeführt werden.

13.11. Seien a, b, c ∈ R , a 6= 0 , b2 6= 4ac ⇒ ax2 + bx + c hat keine doppelte Nullstelle [ d.h. ist
nicht von der Form a(x − α)2 ].
Dann
b2 b2 
 
2 b c
2
 b c
ax + bx + c = a x + x + = a x2 + x + 2 + − 2
a a a 4a |a {z4a }
=:η6=0
" 2 #
b
=a x+ +η (quadratische Ergänzung)
2a

Ferner sei R wie in 13.3. Dann läßt sich das Integral


Z p
R(x, x2 + bx + c) dx

durch die Substitution


 
1 b
t= p x+
|η| 2a

überführen in
(1)
Z  p 
R̃ t, t2 + 1 dt (falls a > 0, η > 0) ; 13.7

oder
(2)
Z  p 
R̃ t, t2 − 1 dt (falls a > 0, η < 0) ; 13.9

oder
(3)
Z  p 
R̃ t, 1 − t2 dt (falls a < 0, η < 0) ; 13.10


(Der Fall a < 0, η > 0 liefert ax2 + bx + c < 0 für alle x ∈ R. ⇒ ax2 + bx + c nirgends definiert.)

157
13. Explizite Integration weiterer Funktionenklassen

Beispiel 13.12.
Z p Z p
2
x + 4x + 5 dx = (x + 2)2 + 1 dx

Substitution t = x + 2
Z p Z p
⇒ 2
x + 4x + 5 dx = t2 + 1 dt

Substitution t = sinh(s) ⇒ dt = cosh(s) ds


Z p Z q Z
⇒ x2 + 4x + 5 dx = sinh2 (s) + 1 · cosh(s) ds = cosh2 (s) ds
1 1 1 1
Z
e2s + 2 + 2−2s dx = e2s + s − e−2s + c

=
4 8 2 8

h  p i
t = sinh(s) ⇒ s = arsinh(t) = log t + t2 + 1

1 p 2 1  p  1 p −2
= t + t2 + 1 + log 1 + t2 + 1 − t − t2 + 1 +c
8 2 8
1  p  2 1  p 
= x + 2 + x2 + 4x + 5 + log x + 2 + x2 + 4x + 5
8 2
1 p −2
− 2
x + 2 + x + 4x + 5 +c
8

158
14. Uneigentliche Integrale
Motivation:
f integrierbar über [a, b] ⇒ f beschränkt, [a, b] kompakt
Erweiterung für
• Intervalle (a, b], [a, b), (a, b) oder auch unbeschränkt
• f unbeschränkt am Rand“

Bemerkung:
Ist f integrierbar über [a, b], so gilt nach Kapitel 10:

Zr Zb
lim f dx = f dx
r→b−
a a

Vereinbarung:
(1) Ist I ⊂ R ein Intervall und f : I → R eine Funktion, so sei stets f integrierbar über jedem
Teilintervall von I.
(2) Es seit stets a, b ∈ R , α ∈ R ∪ {−∞} , β ∈ R ∪ {∞} mit α < β und a < b

Definition 14.1. Sei f : [a, β) → R [f : (α, b] → R] eine Funktion. Dann definieren wir:
Rβ hR i
b
Das uneigentliche Integral a f (x) dx α f (x) dx heißt konvergent

Zr Zb
 
:⇔ lim f (x) dx  lim f (x) dx existiert und ist aus R
r→β− r→α+
a r

In diesem Fall setze:


Zβ Zr
 b
Zb

Z
f (x) dx := lim f (x) dx  f (x) dx := lim f (x) dx
r→β− r→α+
a a α r

Ein nicht konvergentes uneigentliches Integral heißt divergent.

Beispiel 14.2.
(1) Sei α > 0, t > 1.

Zt (
1 log t für α = 1
dx = 1 1−α
xα 1−α (t − 1) 6 1
für α =
1

159
14. Uneigentliche Integrale

Z∞
 
1
⇒  dx konvergiert ⇔ α > 1

1

(2)

Z1
1
dx konvergiert ⇔ α < 1 (falls α > 0)

0

(3)

Zt
1 t→∞ π
2
dx = arctan(t) −−−→
1+x 2
0

Z∞
1 π
⇒ dx ist konvergent und =
1 + x2 2
0

(4) Analog zu 4.

Z0
1 π
dx ist konvergent und =
1 + x2 2
−∞

Definition 14.3. Sei f : (α, β) → R eine Funktion.



Das uneigentliche Integral α f (x) dx heißt konvergent

Zc Zβ
:⇔ ∃c ∈ (α, β) f dx und f dx konvergent.
α c

In diesem Fall setze:


Zβ Zc Zβ
f dx := f dx + f dx.
α α c

Diese Definition hängt nicht von der Wahl von c ab.

Beispiel 14.4 (zur Warnung).


Z∞ Z∞
x dx divergiert, da x dx divergiert
−∞ 0

Aber:
Zr
lim x dx = 0
r→∞
−r

160
14.1. Konvergenzkriterien

Beispiel 14.5 (weitere Beispiele).


(1) Sei α > 0. Nach Beispiel (1) und (2) weiter oben ist
Z∞
1
divergent

0

(2) Nach Beispiel (3) und (4) weiter oben konvergiert


Z∞
1
dx und ist gleich π
1 + x2
−∞

Die folgenden Sätze und Definitionen werden nur für Funktionen f : [a, β) → R formuliert. (β ist
singulärer“ Punkt.) Sie gelten sinngemäß auch für die anderen beiden Typen uneigentlicher Integrale.

Setze stets voraus:

∀t ∈ (a, β) f ∈ R[a, t]

14.1. Konvergenzkriterien

Satz 14.6 (Cauchy–Kriterium).

Zβ Zv
f (x) dx konvergent ⇔ ∀ε > 0 ∃c = c(ε) ∈ (a, β) ∀u, v ∈ (c, β) f (x) dx < ε
a u

Beweis: Folgt aus 6.7, angewendet auf


Zt
φ(t) := f (x) dx
a


Beispiel 14.7. Behauptung:
Z∞
sin(x)
dx ist konvergent
x
0

sin(x)
(Beachte lim x = 1; also ist nur ∞ singulär“.)
x→0 ”
Beweis: Für alle 0 < u < v gilt:

Zv Zv  v Zv
sin(x) 1 1 1
dx = · sin(x) dx = − cos(x) − 2
cos x dx
x x
|{z} | {z } x u x
u u =:f 0 u
=:g
Zv  
cos(v) cos(u) 1 1 1 1 1 2
≤ − + 2
cos(x) dx ≤ + + − =
v u x | {z } v u u v u
u ≤1

161
14. Uneigentliche Integrale

Sei nun ε > 0; wähle c := 2ε . Dann gilt für 0 < u < v mit u > c:
Zv
sin(x) 2 2
dx ≤ < = ε
x u c
u

Nach 14.6 folgt die Behauptung. 

Rb
Definition 14.8. a
f (x) dx heißt absolut konvergent


:⇔ f (x) dx konvergiert.
a

R∞ sin x
R∞ | sin x|
Beispiel 14.9. 0 x dx konvergiert nicht absolut, denn 0 x dx konvergiert nicht.

Abbildung 14.1.: Skizze zur Abschätzung im Beispiel 14.9

Zkπ k Zjπ
| sin x| X | sin x|
dx = dx
x j=1
x
0 (j−1)π

Abschätzung mit Dreiecksfläche (vgl. 14.1): A = π2 für jedes k ∈ N (für die Funktion | sin(x)|). Wegen
Faktor x1 in der ursprünglichen Funktion Abschätzung der Dreiecksfläche nach unten mit Faktor j·π 1
,
1
dem Wert von x jeweils am rechten Rand eines Intervalls.
k Zjπ k k
X | sin x| X 1 π 1 X 1 k→∞
⇒ dx ≥ · = −−−−→ ∞
j=1
x j=1
j·π 2 2 j=1 j
(j−1)π


Satz 14.10. Ist a
f (x) dx absolut konvergent, so ist es auch konvergent, und

Zβ Zβ
f (x) dx ≤ f (x) dx
a a

Beweis: Mit 14.6, analog zum entsprechenden Beweis bei Reihen. 

Für das folgende wird benötigt:


Zβ Zβ
f (x) dx konvergent ⇒ ∃c ∈ (a, β) f (x) dx konvergent
a c

162
14.1. Konvergenzkriterien

In diesem Fall:
Zβ Zc Zβ
f (x) dx = f (x) dx + f (x) dx
a a c

(Beweis selbst)

Satz 14.11.
(1) Majorantenkriterium: Es sei g : [a, β) → R mit ∀t ∈ (a, β) g ∈ R[a, t] und es gelte

∀x ∈ [a, β) |f (x)| ≤ g(x).



Ferner sei a g(x) dx konvergent.

Dann ist a f (x) dx absolut konvergent, und

Zβ Zβ
|f (x)| dx ≤ g(x) dx
a a

(2) Minorantenkriterium: g wie oben, jetzt aber

∀x ∈ [a, β) f (x) ≥ g(x) ≥ 0



Ferner sei g(x) dx divergent.
a

Dann ist auch a f (x) dx divergent.

Beweis: Mit 14.6, analog zum entsprechenden Satz bei Reihen. 


Beispiel 14.12.
(1)
Z∞
x
√ dx konvergent?
1 + x5
1 | {z }
=:f (x)

Es gilt
x 1
∀x ∈ [1, ∞) f (x) ≤ √ = 3 =: g(x)
x5 x2
3
R∞
Da 2 > 1, ist 1
g(x) dx konvergent.

Z∞ Z∞ Z∞
x x 1
⇒ √ dx konvergent und √ dx ≤ 3 dx = 2
14.11 1 + x5 1 + x5 x2
1 1 1

(2)
Z∞
x
√ dx konvergent?
x2 + 7 x
1 | {z }
=:f (x)

163
14. Uneigentliche Integrale

Es gilt

x2 x→∞
x · f (x) = √ −−−−→ 1
x2 +7 x

1
⇒ ∃c ∈ (0, ∞) ∀x ≥ c : x · f (x) ≥
2
1
⇒ ∀x ≥ c : f (x) ≥ =: g(x)
2x
R∞ R∞
Da 1
g(x) dx divergent, ist nach 14.11 1
f (x) dx divergent.

Bemerkung 14.13.
Rb
(1) Sei nun b ∈ R (also nicht b = +∞) und f ∈ R[a, b], d.h. a
f (x) dx existiert im Riemannschen
Sinne (als eigentliches“ Integral)

Setze
Zx
F (x) := f (t) dt für x ∈ [a, b]
a

Nach dem 2. Hauptsatz ist F Lipschitz–stetig, also stetig, insbesondere stetig in b.

Zt Zb
t→b−
⇒ f (x) dx = F (t) −−−−→ F (b) = f (x) dx (im Riemannschen Sinne)
a a

Rb
⇒ a
f (x) dx konvergiert als uneigentliches Integral, und der Wert ist gleich dem (eigentlichen)
Riemannschen Integral.

(2) Sei V die Menge aller f : [a, β) → R, derart dass a f (x) dx konvergiert. Dann ist V ein R-
Vektorraum, und die Abbildung


V → R, f 7→ f (x) dx
a

ist linear.
(3) Sei V wie in (2); i.a. gilt für f, g ∈ V nicht f · g ∈ V .
Beispiel:
1
f (x) = g(x) = √ , [a, b] = [0, 1]
x

Z1
1 1
√ dx konvergent, da < 1, d.h. f = g ∈ V
x 2
0

aber:
Z1 Z1
1
(f · g)(x) dx = dx divergent
x
0 0

164
14.1. Konvergenzkriterien

Satz 14.14 (Integralkriterium). Sei f : [1, ∞) → R mit ∀x ∈ [1, ∞) f (x) > 0 und f monoton fallend.
(⇒ f ∈ R[1, t] für alle t > 1)
Dann gilt:
Z∞ ∞
X
f (x) dx konvergent ⇔ f (k) konvergent
1 k=1

Beweis:

∀k ∈ N ∀x ∈ [k, k + 1] f (k) ≥ f (x) ≥ f (k + 1)


k+1
Z k+1
Z k+1
Z
⇒ ∀k ∈ N f (x) dx ≥ f (x) dx ≥ f (k + 1) dx
k k k
| {z } | {z }
=f (k) =f (k+1)

n n+1
Z n+1
Summation
X X
=⇒ f (k) ≥ f (x) dx ≥ f (k) (14-i)
k=1 1 k=2

R∞
Ist nun 1
f (x) dx konvergent, so ist
 n+1 
Z
 f (x) dx
1 n∈N

beschränkt; nach (14-i) ist also


n+1
!
X
f (k)
k=2 n∈N

beschränkt.

X
⇒ f (k) konvergent
k=1


P
Sei umgekehrt f (k) konvergent.
k=1
 n+1 
Z
=⇒  f (x) dx beschränkt
(14-i)
1 n∈N

Ferner ist diese Folge monoton wachsend (da f > 0), also konvergent.

Zn
⇒ Es existiert lim f (x) dx
n→∞
1

165
14. Uneigentliche Integrale

Rt
Ferner ist 1
f (x) dx monoton wachsend als Funktion von t.

Zt
⇒ lim f (x) dx existiert
t→∞
1

Z∞
⇒ f (x) dx konvergent
1


Beispiel 14.15.

.....
....
Z∞ y
p pppp p p
sin(x)
dx =
π ppp p p p p p pppp
x 2 p pp p
pp p
0 ppp
pp p
ppp
p p pp p ppp p p p p p p pppp pppppppp ppppppppppppppp p p p ppppppppppppppp pppppppppppp pppppp p ppppppp p ppppppppppppp ppppppppppp p pp ppp p p ppp .............
(vgl. Abbildung rechts) p p p p p p p p p p p p p p p p ppp p
pp p p p x

sin(x)
Verlauf von x

166
15. Komplexe Exponential–, Sinus– und
Cosinusfunktion

Definition 15.1. Die komplexe Exponentialfunktion E(z) = ez ist für z = x + iy ∈ C (mit x, y ∈ R)


definiert durch

ez := ex · cos(y) + i sin(y)


Bemerkung 15.2.

X zk
ez = für z ∈ C
k!
k=0

Die Additionstheoreme für die reellen Sinus–, Cosinus–, Exponentialfunktion lie-


fern

∀z, w ∈ C ez+w = ez · ew

Beweis: Mit w = u + iv und z = x + iy ist

ez+w = e(x+u)+i(y+v) = ex+u · cos(y + v) + i sin(y + v)




= ex eu cos(y) cos(v) − sin(y) sin(v) + i(sin(y) cos(v) + cos(y) sin(v))




= ex (cos(y) + i sin(y)) · eu (cos(v) + i sin(v))


= ez · ew


Ist z ∈ R ⊂ C, d.h. z = x + i · 0, so gilt

ez = ex · cos(0) + i · sin(0) = ex


Die komplexe e-Funktion liefert also eine Fortsetzung der reellen e-Funktion ins Komple-
xe.
Ist z rein imaginär, d.h. z = 0 + i · y mit y ∈ R, so gilt

ez = eiy = e0 cos(y) + i · sin(y)




d.h.

∀y ∈ R eiy = cos(y) + i sin(y)

Erinnerung: Für z = x + iy ∈ C (mit x, y ∈ R) ist der Betrag von z definiert


durch
p
|z| := x2 + y 2

167
15. Komplexe Exponential–, Sinus– und Cosinusfunktion

.....
....
y . . . . . . . . . . . . . . . . . . ........................ z
..... .
..... .
..... .
..
.....
. .
.
..... .
..... .
..... .
..... .
..
...... .
.
.... .
..... .
..... .
..... .
..
......
. .
.
..... . ......
.... . .......
x

Abbildung 15.1.: Betrag von z

(Siehe auch Abb. 15.1)


Für ϕ ∈ R gilt
p
eiϕ = | cos ϕ + i sin ϕ| = (cos ϕ)2 + (sin ϕ)2 = 1

Speziell ϕ := π:

eiπ = cos π + i sin π = −1

(vgl. Abb. 15.2)

...

......................................................
............ .........
......... ........
........ .......
..
.......... ......
.......
. ......
.....
.
...... .....
...
.... .....
.....
. ..... ...
... ... iϕ
pe = cos ϕ + i sin ϕ
. ...
...
ppppppppp
. .
. . . . . . . . . . . . . . . . . . . . . . . . .....
...
sin ϕ p p p p p ....
..
.
pp p p p .

ppp ppppp
... . .....

ppppppppp
.
... . ....
...
p
. ...
....
p p p p p p p .
. ....
pppp
.....

ppppppppp ϕ
... ... . ...
.
. ....
ppppppp p
... ...
... ... . ...
.... .... . .. ...
. .
... ...
...
cos ϕ ....
... .
.
... ..
.
... ...
...
... ...
... ...
... ..
.
...
... ...
... ...
... ...
... .....
.... ..
..... ....
..... .....
..... ....
.....
...... ...
......
......
......
....... ......
........ .......
.......... ........
............... .........
...........................................

Abbildung 15.2.: Polarkoordinaten–Darstellung

Korollar 15.3.
(1) eiϕ = e−iϕ für alle ϕ ∈ R
1
eiϕ + e−iϕ

(2) cos ϕ = 2 (ϕ ∈ R)
1
eiϕ − e−iϕ

(3) sin ϕ = 2i (ϕ ∈ R)
(4) ez+2πik = ez für alle k ∈ Z (d.h. die komplexe e-Funktion ist 2π-periodisch).

Beweis:

eiϕ = cos ϕ + i sin ϕ = cos ϕ − i sin ϕ = cos(−ϕ) + i sin(−ϕ) = e−iϕ

168
15.1. Polarkoordinaten

eiϕ + e−iϕ = (cos ϕ + i sin ϕ) + (cos ϕ − i sin ϕ) = 2 cos ϕ


eiϕ − e−iϕ = (cos ϕ + i sin ϕ) − (cos ϕ − i sin ϕ) = 2i sin ϕ
ez+2πik = ez · ei2πk = ez · cos(2πk) +i sin(2πk) = ez

| {z } | {z }
=1 =0

Definition 15.4. Für z ∈ C definiere


1 iz
e + e−iz

cos z :=
2
1 iz
e − e−iz

sin z :=
2i
(Dies ist nach 15.3 die Fortsetzung der reellen Cosinus– bzw. Sinus–Funktion ins Komplexe.)

Eigenschaften:
(1) Seien z, w ∈ C:

sin(z + w) = sin(z) cos(w) + cos(z) sin(w)

cos(z + w) = cos(z) cos(w) − sin(z) sin(w)

(2) Für z = x + iy gilt:

cos(z) = cos(x) cosh(y) − i sin(x) sinh(y)

sin(z) = cos(x) sinh(y) + i sin(x) cosh(y)

(3) Sei y ∈ R. Dann gilt:


1 i(iy)  1
+ e−i(iy) = e−y + ey = cosh(y)

cos(iy) = e
2 2
1 i(iy) 1 −y 1
− e−i(iy) = e − ey = − sinh(y) = i sinh(y)
 
sin(iy) = e
2i 2i i

15.1. Polarkoordinaten
Für z = x + iy ∈ C, z 6= 0:
p
|z| = x2 + y 2 =: r

Die Strecke durch 0 und z schließt mit der x-Achse einen Winkel ϕ ein (im Bogen-
maß).
Durch das Paar (r, ϕ) ist z eindeutig bestimmt. Umgekehrt ist durch z auch r = |z| eindeutig bestimmt.
Läßt man nur ϕ ∈ (−π, π) zu, so ist durch z auch ϕ eindeutig bestimmt, ϕ = arg z (Argument von
z).
Es ist cos ϕ = x
r und sin ϕ = yr , also

x = r · cos ϕ , y = r · sin ϕ

⇒ z = x + iy = r(cos ϕ + i sin ϕ) = r · eiϕ

169
15. Komplexe Exponential–, Sinus– und Cosinusfunktion

D.h.

z = reiϕ , wobei r = |z| und ϕ = arg z Polarkoordinaten–Darstellung von z

(z = x + iy heißt kartesische Koordinatendarstellung)

Ist speziell r = 1, also z = eiϕ , so gilt für alle n ∈ N0 :


n n
cos ϕ + i sin ϕ = eiϕ = einϕ = cos(nϕ) + i sin(nϕ)

Also
n
cos ϕ + i sin ϕ = cos(nϕ) + i sin(nϕ) Formel von de Moivre

15.2. Geometrische Darstellung der Multiplikation

Seien z1 , z2 ∈ C mit z1 6= 0, z2 6= 0. Setze rj := |zj | und ϕj := arg zj für j = 1, 2 (also: zj =


rj eiϕj ).

Dann gilt:

z1 · z2 = r1 eiϕ1 · r2 eiϕ2 = r1 r2 ei(ϕ1 +ϕ2 )

pppp
z1 · z2 p ppp pp p
....
.....
pppp p
p ppp
pp pp
pppp pp p
p ppp
pp pp
pppp pp p
p ppp
pp pp
pppp pp p
p ppp
pp pp
ppp.p...p..p...p
p ppp ................ϕ 1 + ϕ2
pp pp ppppp ppp z2
pppppp
pppp pp p
.....
.... pppppp p
.....
.....

p ppp pppppppp..p...
pp pp p pppp pppp ..........
pppp pp p p p p p p p p
pp pppppp .............. ϕ2 p..p..p..p...pppppppppppppppppp z1
.
p
.

ppppppppp
.

pp pp ppp .....
pppp pp p pppppp pppppp pp p p p p p p p p p p p p p p
pppppppppppppppp.........
...
.
pp
.
p
p p p p pppp pppp pppppppp..[Link]
...
...

pppp pppppppppppppppppppppppppppppppppppppppppppppppp ......... ϕ .........


...
...
...
pp ppppppppppppp
...
..
..
1 ... ...
. . ...........
..

Abbildung 15.3.: Multiplikation in C

Bemerkung:

|z1 · z2 | = |z1 | · |z2 | = r1 · r2

aber: arg(z1 z2 ) = arg z1 + arg z2 ist i.a. falsch!

170
15.3. n-te Wurzeln

Beispiel 15.5.
(1) Sei z1 = −1 und z2 = −1. Dann ist arg z1 = arg z2 = arg(−1) = π und z1 · z2 = 1.
Also:

arg z1 + arg z2 = 2π 6= 0 = arg 1 = arg(−1)2 = arg(z1 · z2 )


| {z }
Differenz: 2π

(2) Sei z1 = z2 = −i. Dann: arg z1 = arg z2 = − π2 .

z1 · z2 = (−i)2 = −1

arg(z1 · z2 ) = arg(−1) = π =
6 −π = arg z1 + arg z2
| {z }
Differenz: 2π

vergleiche 2π–Periodizität der komplexen e–Funktion.

15.3. n-te Wurzeln


Sei a ∈ C \ {0} und n ∈ N. Das Polynom

p(z) = z n − a

hat nach 11.1 genau n Nullstellen (mit Vielfachheit) in C. Jede dieser Nullstellen (d.h. jedes z ∈ C mit
z n = a) heißt n-te Wurzel aus a.
Sei r = |a|, ϕ = arg(a), also a = reiϕ . Setze

r · ei( ) für k = 0, 1, 2, . . . , n − 1
ϕ+2kπ
ωk := n n

Satz 15.6. Für alle z ∈ C gilt:


z ist eine n-te Wurzel aus a ⇔ z ∈ {ω0 , ω1 , . . . , ωn−1 }

Beweis:
⇐“ Sei z = ωk für ein k ∈ {0, . . . , n − 1}

⇒ z n = ωkn = r · ei( n )n = r · eiϕ · e|i2kπ
ϕ+2kπ

{z } = r · e = a
=1

⇒“ ω0 , . . . , ωn−1 sind n verschiedene n-te Wurzeln aus a.



Da nach dem Fundamentalsatz der Algebra genau n n-te Wurzeln existieren, folgt die Behauptung.

Ist speziell a = 1, so heißen ω0 , . . . , ωn−1 die n-ten Einheitswurzeln.
Beispiel 15.7.

(1) Im Reellen: 4 = 2. Im Komplexen sind die Wurzeln aus 4: −2, 2.
1+i
(2) Die Wurzeln aus i sind: √
2
und − 1+i
√ (Vergleiche Abbildung 15.4).
2

(3) Die 4-ten Einheitswurzeln sind: 1, −1, i, −i.



(4) Im Reellen: 4 16 = 2. Die komplexen 4-ten Wurzeln aus 16 sind: 2, −2, 2i, −2i.

171
15. Komplexe Exponential–, Sinus– und Cosinusfunktion

π
Abbildung 15.4.: n-te Wurzel: Skizze für n = 2 und a = i (r = 1, ϕ = 2)

15.4. Analysis in C

Konvergenz von Folgen

Definition 15.8. Sei (zn ) eine Folge in C und w ∈ C.


(zn ) konvergiert gegen w

:⇔ |zn − w| → 0 (n → ∞)

Schreibweise:

lim zn = w oder zn → w (n → ∞)
n→∞

(zn ) konvergiert

:⇔ ∃w ∈ C zn → w (n → ∞)

p
Bemerkung 15.9. |z| = x2 + y 2 für z = x + iy mit x, y ∈ R

⇒ | Re z| = |x| ≤ |z| , | Im z| = |y| ≤ |z| , |z| ≤ |x| + |y|

Satz 15.10. Sei (zn ) eine Folge in C. zn = xn + iyn mit xn , yn ∈ R und w = u + iv.
Dann gilt:

zn → w ⇔ xn → u und yn → v (n → ∞)

Beweis: Nach obiger Bemerkung gilt:



max |xn − u|, |yn − v| ≤ |zn − w| ≤ |xn − u| + |yn − v| für jedes n ∈ N

⇒ Behauptung. 

172
15.4. Analysis in C

Definition 15.11. Sei (zn ) eine Folge in C. (zn ) heißt Cauchy–Folge

:⇔ ∀ε > 0 ∃n0 (ε) ∈ N ∀n, m ≥ n0 |zn − zm | < ε.

Satz 15.12. Sei (zn ) eine Folge in C. Dann gilt:

(zn ) konvergiert ⇔ (zn ) ist Cauchy–Folge

Beweis:
⇒“ geht wie im Reellen (vgl. 2.38).

⇐“ Sei (zn ) eine Cauchy–Folge in C. Wegen obiger Bemerkung gilt:


max | Re zn − Re zm |, | Im zn − Im zm | ≤ |zn − zm | ≤ | Re zn − Re zm | + | Im zn − Im zm |

Also sind (Re zn ) und (Im zn ) Cauchy–Folgen in R.


Somit existieren u, v ∈ R mit Re zn → u und Im zn → v.
Nach 15.10 gilt dann: zn → u + iv.


Konvergenz von Reihen


n
P
Sei (zn ) eine Folge in C. sn := zk , n ∈ N.
k=1

Definition 15.13.

X
konvergiert ⇔ es existiert ein w ∈ C mit sn → w (n → ∞)
n=1

X ∞
X
⇔ Re zn konvergiert und Im zn konvergiert
15.10
n=1 n=1

In diesem Fall:

X ∞
X ∞
X
w= zn = Re zn + Im zn Reihenwert
n=1 n=1 n=1

Wie im Reellen zeigt man mit Hilfe von 15.12:



P ∞
P
Satz 15.14. Ist (zn ) eine Folge in C und |zn | konvergent, so konvergiert auch zn .
n=1 n=1

173
15. Komplexe Exponential–, Sinus– und Cosinusfunktion

174
16. Fourier–Reihen

16.1. Orthogonalitätsrelationen

Durch Differenzieren bestätigt man für n, k ∈ N0 :


(
1 1
 
sin (n − k) · x − sin (n + k) · x + c für n 6= k
Z
2 sin(nx) sin(kx) dx = n−k n+k
x − sin(2nx)
2n +c für n = k 6= 0
(
1 1
 
sin (n − k) · x + sin (n + k) · x + c für n 6= k
Z
2 cos(nx) cos(kx) dx = n−k n+k
x + sin(2nx)
2n +c für n = k 6= 0
(
1 1
 
− n−k cos (n − k) · x − cos (n + k) · x + c für n 6= k
Z
2 sin(nx) cos(kx) dx = n+k
− cos(2nx)
2n +c für n = k 6= 0

Daraus folgen die

Orthogonalitätsrelationen 16.1.
Zπ Zπ (
0 für n 6= k
sin(nx) sin(kx) dx = cos(nx) cos(kx) dx =
π für n = k
−π −π


sin(nx) cos(kx) dx = 0
−π

Im folgenden sei f : R → R eine 2π-periodische Funktion, d.h. es gelte:

∀x ∈ R f (x + 2π) = f (x)

Man stellt leicht fest:


Ist a ∈ R und f ∈ R[a, a + 2π], so gilt für jedes b ∈ R:
a+2π
Z b+2π
Z
f ∈ R[b, b + 2π], und f (x) dx = f (x) dx
a b

(siehe Abbildung 16.1). Deswegen werden wir das Intervall [−π, π] zugrundele-
gen.

16.2. Die Fourier–Reihe

175
16. Fourier-Reihen

Abbildung 16.1.: Graph einer 2π–periodischen Funktion; der Inhalt der hervorgehobenen Flächen ist
derselbe.

Definition 16.2. Gegeben seien reelle Folgen (an )∞ ∞


n=0 und (bn )n=1 . Eine Funktionenreihe der folgenden
Form

a0 X h i
+ an cos(nx) + bn sin(nx)
2 n=1

heißt trigonometrische Reihe.

Feststellung: Falls eine trigonometrische Reihe konvergiert, so ist die durch sie dargestellte Funktion
2π-periodisch (elementar).
Wesentliche Frage: Wann lässt sich eine gegebene 2π-periodische Funktion f : R → R durch eine
trigonometrische Reihe darstellen? D.h. wann gibt es Folgen (an ), (bn ) mit

a0 X h i
∀x ∈ R f (x) = + an cos(nx) + bn sin(nx) ? (16-i)
2 n=1

Wir nehmen zunächst an, dass (16-i) gilt. Wie sehen dann die an und bn aus? Setze dazu weiter voraus:
Die Reihe in (16-i) konvergiere gleichmäßig auf [−π, π]. Sei nun k ∈ N fest.
∞ h
a0 X i
(16-i) ⇒ f (x) sin(kx) = sin(kx) + an cos(nx) sin(kx) + bn sin(nx) sin(kx)
2 n=1
| {z }
=:cn

Die Reihe (cn ) konvergiert ebenfalls gleichmäßig auf [−π, π].

⇒ f (x) sin(kx) ist integrierbar über [−π, π]


10.21

176
16.2. Die Fourier-Reihe

und
Zπ Zπ Zπ Zπ
 

a0 X
f (x) sin(kx) dx = sin(kx) dx + an cos(nx) sin(kx) dx + bn sin(nx) sin(kx) dx
2 n=1
−π −π −π −π

= π · bk
16.1


1
⇒ bk = f (x) sin(kx) dx (für k ∈ N) (16-ii)
π
−π

Multipliziert man (16-i) mit cos(kx) (für k ∈ N0 ) und integriert wieder über [−π, π], so erhält man
entsprechend:


1
⇒ ak = f (x) cos(kx) dx (für k ∈ N0 ) (16-iii)
π
−π

Definition 16.3. Sei f ∈ R[−π, π]. Dann heißen die in (16-ii) und (16-iii) definierten Zahlen die
Fourier–Koeffizienten von f . Die entsprechende trigonometrische Reihe


a0 X h i
+ an cos(nx) + bn sin(nx)
2 n=1

heißt dann die zu f gehörige Fourier–Reihe.

Definition 16.4.
• f heißt gerade :⇔ ∀x ∈ R f (x) = f (−x)
• f heißt ungerade :⇔ ∀x ∈ R f (x) = −f (−x).

Satz 16.5. Ist f ∈ R[−π, π], so gilt für die Fourier–Koeffizienten von f :
• falls f gerade:

2
ak = f (x) cos(kx) dx für alle k ∈ N0
π
0

bk = 0 für alle k ∈ N

• falls f ungerade:

ak = 0 für alle k ∈ N0

2
bk = f (x) sin(kx) dx für alle k ∈ N
π
0

d.h. die Fourier–Reihe einer geraden bzw. ungeraden Funktion ist eine reine Cosinus– bzw. Sinus-Reihe.

177
16. Fourier-Reihen

Beweis: Nur für gerades f :


 
Zπ Z0 Zπ
1 1
ak = f (x) cos(kx) dx =  ϕ(x) dx + ϕ(x) dx

π | {z } π
−π =:ϕ(x) −π 0
| {z }
subst. t=−x
 
Zπ Zπ
1
= ϕ(−t) dt + ϕ(x) dx

π

| {z }
0 =ϕ(t) 0


2
= ϕ(x) dx ⇒ Behauptung
π
0

Analog bk = 0. 

Definition 16.6. g : [−π, π] → R heißt stückweise glatt, wenn eine Zerlegung Z = {t0 , . . . , tm } von
[−π, π] existiert mit:
(1) g ist in jedem Teilintervall (tj−1 , tj ) stetig differenzierbar.
(2) Die folgenden Grenzwerte existieren:

lim g(x), lim g(x)


x→tj − x→tj +

lim g 0 (x), lim g 0 (x)


x→tj − x→tj +

für j = 1, . . . , m − 1.

lim g(x), lim g(x)


x→π− x→−π+

lim g 0 (x), lim g 0 (x)


x→π− x→−π+

Siehe auch Abbildung 16.2.

Abbildung 16.2.: Stückweise glatte Funktion

Beachte: Ist g stückweise glatt, so wird in den Punkten tj nicht die Stetigkeit (oder gar die Differen-
zierbarkeit) gefordert.

Für stückweise glattes g gilt offenbar insbesondere:


g ∈ R[−π, π]

178
16.2. Die Fourier-Reihe

Definition 16.7. f : R → R (2π-periodisch) heißt stückweise glatt, wenn f [−π, π]


stückweise glatt ist.
In diesem Fall existieren für jedes x ∈ R die Grenzwerte

f (x+) := lim f (t), f (x−) := lim f (t).


t→x+ t→x−

Satz 16.8. Ist f stückweise glatt, so konvergiert die Fourier–Reihe von f in jedem x ∈ R (punktweise!)
gegen
1 
s(x) := f (x+) + f (x−)
2
Ist f insbesondere stetig in x, so konvergiert die Fourier–Reihe von f an der Stelle x gegen f (x).

Beispiel 16.9 (Sägezahnschwingung). f : R → R sei 2π-periodisch und auf (−π, π] definiert durch
(
x für x ∈ (−π, π)
f (x) :=
0 für x = π
1

(Insbesondere s(x) = 2 f (x+) + f (x−) = f (x) für alle x ∈ R)
f ist ungerade; also nach 16.5:

∀k ∈ N0 ak = 0


2
∀k ∈ N bk = f (x) sin(kx) dx
π |{z} | {z }
0 u v0
 π Zπ
2 cos(kx) 2 cos(kx)
= −x + dx
π k 0 π k
0
 
2 cos(kπ) 2 sin(kx) π
= −π + 2
π k |π k{z 0
}
=0
2
= (−1)k+1
k
Da f stückweise glatt und f (x) = s(x) für alle x ∈ R, folgt nach 16.8:

X 2
f (x) = (−1)k+1 sin(kx) für alle x ∈ R
k
k=1
 
sin x sin(2x) sin(3x)
=2 − + ∓ ···
1 2 3
 
sin x sin(2x) sin(3x)
⇒ ∀x ∈ (−π, π) x = 2 − + ∓ ···
1 2 3
π
Speziell für x = 2:

π 1 1 1
= 1 − + − ± ···
4 3 5 7

179
16. Fourier-Reihen

Abbildung 16.3.: Sägezahnschwingung

Beispiel 16.10 (Rechteckschwingung). f : R → R sei 2π-periodisch und auf (−π, π) definiert durch:

1
 für 0 < x < π
f (x) := −1 für − π < x < 0

0 für x = 0, x = π

Dann: f stückweise glatt und s(x) = f (x) ∀x ∈ R.


Da f ungerade:

∀k ∈ N0 ak = 0

Zπ Zπ
2 2
∀k ∈ N bk = f (x) sin(kx) dx = sin(kx) dx
π π
0 0
 π
2 cos(kx)
= −
π k 0
2 k

=− (−1) − 1
( kπ
0 falls k gerade
= 4
kπ falls k ungerade


4 X 1
16.8 ⇒ f (x) = · sin(kx)
π k
k=1
k ungerade
 
4 sin(x) sin(3x) sin(5x)
= + + + ···
π 1 3 5
für alle x ∈ R.
 
4 sin(x) sin(3x) sin(5x)
⇒ ∀x ∈ (0, π) 1= + + + ···
π 1 3 5
π
Speziell für x = 2:

π 1 1 1
= 1 − + − ± ···
4 3 5 7

180
16.2. Die Fourier-Reihe

Abbildung 16.4.: Rechteckschwingung

Beispiel 16.11. Sei f : R → R 2π-periodisch und auf (−π, π] definiert durch


f (x) := x2 (vgl. Abb. 16.5)
f ist stückweise glatt, s(x) = f (x) für alle x ∈ R, f ist gerade, also
∀k ∈ N bk = 0

Zπ  π Zπ !
2 2 sin(kx) sin(kx)
∀k ∈ N ak = x2 cos(kx) dx = x2 − 2x dx
π π k 0 k
0 | {z } 0
=0

 
 π
2  2x cos(kx) cos(kx) 
= −2 dx
π k2 0 k2
0
 π
4 sin(kx)
= 2 (−1)k − 2
k k3
| {z 0}
=0
4
= 2 (−1)k
k
Schließlich

2 2π 2
a0 = x2 dx =
π k
0


π2 X 4
⇒ f (x) = + (−1)k cos(kx)
16.8 3 k2
k=1
π2
 
cos x cos(2x) cos(3x)
= −4 − + ∓ ···
3 12 22 32
π2
 
2 cos x cos(2x) cos(3x)
⇒ ∀x ∈ [−π, π] x = −4 − + ∓ ···
3 12 22 32
Speziell für x = 0:
π2
 
1 1 1
=4 1− + − ± ···
3 4 9 16

181
b0 (t)
b
a
1
−1
f (x, y)
16. Fourier-Reihen
g(x, y)


B
X (−1)ν+1 g(y) π2
⇒ =
ν=1
ν2 c 12
d
Speziell für x = π: m
M ∞
π2
  X
Xy11 1 1
= − −1 − − − · · · =
6 X y24 9 n=1
n2
y1
y2
f
f (X)
X π2
Y

−2π −π π 2π 3π

Abbildung 16.5.: Graph zur Funktion aus Beispiel 16.11

Beispiel 16.12. f sei 2π-periodisch und auf (−π, π] definiert durch

f (x) := |x|

Lt. Saalübung:
 
π 4 cos(3x) cos(5x)
∀x ∈ R f (x) = − cos x + + + ···
2 π 32 52

Speziell für x = 0:

π2 1 1 X 1
= 1 + 2 + 2 + ··· =
8 3 5 n=0
(2n + 1)2

Satz 16.13 (Besselsche Ungleichung). Sei g ∈ R[−π, π] und



1
ak := g(x) cos(kx) dx (k = 0, 1, 2, . . .)
π
−π


1
bk := g(x) sin(kx) dx (k = 1, 2, 3, . . .)
π
−π

Dann gilt:

n Zπ
a20 X 2 1
∀n ∈ N + (ak + b2k ) ≤ g(x)2 dx
2 π
k=1 −π

182
16.2. Die Fourier-Reihe

Beweis: Sei n ∈ N; dann


Zπ " ( n
)#2
a0 X 
0≤ g(x) − + ak cos(kx) + bk sin(kx) dx
2
−π k=0


g(x)2 − 2g(x){. . .} + {. . .}2 dx
 
=
−π
Zπ n
!
2 a20 X 2
ak + b2k

= g(x) dx − π +
2
−π k=1

wegen Orthogonalitätsrelation 16.1 und der Definition von ak , bk .


⇒ Behauptung. 

Korollar 16.14. Seien g, ak , bk wie in 16.13. Dann gilt:



a2k + b2k konvergent, und
P 
(1)
k=1

∞ Zπ
a20 X 2 1
ak + b2k ≤ g(x)2 dx

+
2 π
k=1 −π

(2) lim ak = lim bk = 0


k→∞ k→∞

Beweis:
(1) folgt aus 16.13 und 3.4
(2)

X
a2k ≤ a2k + b2k ⇒ a2k konvergent
Majoranten-
Kriterium k=1

k→∞ k→∞
⇒ a2k −−−−→ 0 ⇒ ak −−−−→ 0
3.4
k→∞
Analog: bk −−−−→ 0


Satz 16.15. Sei f : R → R 2π-periodisch, stetig und stückweise glatt. Dann gilt:
(1) Für jedes x ∈ R ist die Fourier–Reihe von f absolut konvergent
(2) Die Fourier–Reihe von f konvergiert auf R gleichmäßig gegen f .
(3) Sind an , n ∈ N0 und bn , n ∈ N die Fourier–Koeffizienten von f , so sind die Reihen

X ∞
X
|ak | und |bk |
k=1 k=1

konvergent.

(ohne Beweis)

183
16. Fourier-Reihen

Beispiel 16.16.

Behauptung: Die trigonometrische Reihe



X sin(nx)

n=1
n

ist nicht die Fourier–Reihe einer Funktion g ∈ R[−π, π].

Beweis:

Annahme: Es existiert ein g ∈ R[−π, π] mit an (g) = 0, n ∈ N0 und bn = √1 , n ∈ N.


n

∞ ∞
1
a2n + b2n =
P  P
⇒ n konvergiert . 
16.14 n=1 n=1

Bemerkung 16.17. Man kann zeigen:

• Für jedes x ∈ R konvergiert



X sin(nx)

n=1
n
| {z }
=:g(x)

• x 7→ g(x) sin(kx) ∈ R[−π, π] für jedes k ∈ N



• √1n = π1 −π g(x) sin(nx) dx für jedes n ∈ N

⇒ g 6∈ R[−π, π].

Satz 16.18 (Satz von Riemann–Lebueque).


Seien a, b ∈ R mit a < b. Sei g ∈ R[a, b]. Dann gilt:

Zb
n→∞
(1) g(x) sin(nx) dx −−−−→ 0 und
a
Zb
n→∞
(2) g(x) cos(nx) dx −−−−→ 0
a

Beweis: nur für (1).

1. Fall: Es existiert ein k ∈ Z mit [a, b] ⊂ [2kπ, 2(k + 1)π] =: I.

Sei f : R → R 2π–periodisch und auf I definiert durch


(
g(x) für x ∈ (a, b)
f (x) :=
0 für x ∈ I \ (a, b)

184
16.3. Komplexe Schreibweise von Fourier-Reihen

Nach 10.34 ist f ∈ R[a, b] also auch f ∈ R(I). Weiter ist

Zb Zb
g(x) sin(nx) dx = f (x) sin(nx) dx
a a
Z
= f (x) sin(nx) dx
I

n→∞
= f (x) sin(nx) dx = πbn −−−−→ 0
−π

2. Fall: Fall 1 trifft auf [a, b] nicht zu.


 
Dann existiert ein k ∈ Z, ein l ∈ N mit l ≥ 2 und [a, b] ⊂ 2kπ, 2(k + l)π .
Setze t0 := a, t1 := 2(k + 1)π, tl−1 := 2(k + l − 1)π, tl := b. Dann

Zb t
l Zj
X
g(x) sin(nx) dx = g(x) sin(nx) dx
a j=1t
j−1

und Fall 1 trifft auf jedes Intervall [tj−1 , tj ] zu. Nach Fall 1 gilt dann:

Ztj
n→∞
g(x) sin(nx) dx −−−−→ 0 für j = 1, . . . , l
tj−1

Zb
n→∞
⇒ g(x) sin(nx) dx −−−−→ 0
a

16.3. Komplexe Schreibweise von Fourier–Reihen

Definition 16.19. Seien a, b ∈ R mit a < b. Sei g : [a, b] → C eine Funktion und u := Re g, v := Im g,
d.h. u, v : [a, b] → R und g(x) = u(x) + iv(x) für alle x ∈ [a, b].

g ∈ R[a, b] ⇔ u ∈ R[a, b] und v ∈ R[a, b]

In diesem Fall:
Zb Zb Zb
g(x) dx := u(x) dx + i v(x) dx
a a a

Bemerkung 16.20. Ist zusätzlich h : [a, b] → C mit h ∈ R[a, b] und α, β ∈ C, so gilt


(a) αg + βh ∈ R[a, b]

185
16. Fourier-Reihen

(b)

Zb Zb Zb
(αg + βh) dx = α g dx + β h dx
a a a

Definition 16.21. Sei f ∈ R[−π, π] reell– oder komplexwertig. Dann heißen


1
cn (f ) := f (x) · e−inx dx n∈Z

−π

die komplexen Fourier–Koeffizienten von f und


X
cn (f ) · einx
n=−∞

die komplexe Fourier–Reihe von f .

Sei f ∈ R[−π, π] und reellwertig. Dann gilt für alle n ∈ N:


1
f (x)e−inx dx
 −inx 
cn (f ) = e = cos(nx) − i sin(nx)

−π
Zπ Zπ
1 1
= f (x) cos(nx) dx − i f (x) sin(nx) dx
2π 2π
−π −π
1 
= an (f ) − ibn (f )
2


1 1
c0 (f ) = f (x)ei0x dx = a0 (f )
2π 2
−π


1 1
f (x)einx dx =

c−n (f ) = an (f ) + ibn (f )
2π 2
−π

Folglich ist
n n
X a0 (f ) X
ck (f )eikx = ck (f )eikx + c−k (f )e−ikx

+
2
k=−n k=1

und

ck (f )eikx + c−k (f )e−ikx = cos(kx) ck (f ) + c−k (f ) + i sin(kx) ck (f ) − c−k (f )


 

= cos(kx)ak (f ) + i sin(kx) −ibk (f )
= ak (f ) cos(kx) + bk (f ) sin(kx)

186
16.3. Komplexe Schreibweise von Fourier-Reihen

Also gilt für alle n ∈ N:


n n
X
ikx a0 (f ) X
ck (f )e = + (ak (f ) cos(kx) + bk (f ) sin(kx))
2
k=−n k=1

Definition 16.22. Sei (cn ) eine Folge in C.



X n
X
cn einx konvergiert ⇔ lim ck eikx existiert und ist ∈ C
n→∞
n=−∞ k=−n

Fazit:
Sei f : [−π, π] → R und f ∈ R[−π, π]
1. Die komplexe Fourier–Reihe von f ist gleich der reellen Fourier–Reihe von f .
2. Die komplexe Fourier–Reihe von f konvergiert in x ⇔ die reelle Fourier–Reihe konvergiert
in x (im Sinne der obigen Definition).

187
16. Fourier-Reihen

188
Teil II.

Mehrdimensionale Analysis,
Differentialgleichungen,
Transformationen

189
17. Der Raum Rn
Rn := {(x1 , . . . , xn ) : x1 , . . . , xn ∈ R} ist mit der Addition und Skalarmultiplikation ein R–
Vektorraum.
Mit e1 , . . . , en ∈ Rn bezeichnen wir die Einheitsvektoren.

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), ... en = (0, . . . , 0, 1)

Definition 17.1. Für x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Rn definiere


(1) x · y := x1 y1 + x2 y2 + · · · + xn yn als inneres Produkt, Innenprodukt, Skalarprodukt von x und y.
1 p
(2) kxk := (x · x) 2 = x21 + · · · + x2n als Norm, Betrag, Länge von x.
(3) Wir nennen kx − yk den Abstand von x und y.

Beispiel 17.2.
• kej k = 1 (j = 1, . . . , n)

• k(1, 2, 3)k = 14
(vgl. auch Abb. 17.1)

.....
.... p
.....
(x1 , x2 , x3 ) = x21 + x22 + x23
x ...
3 .....
.
..................
.....
......

....
... ...
..... ... .....
..... .... .....

...
..
.....
... .
p pp
... ....
.

pp . .....
.....
.....
.
...
.
......
.

ppp p p
.... ... .........
... . . ..... .
.. .....
pp
...
......
p pp
.....
..... ...
ppp p p
.
..
.... ..
..... .
.....
.....
pp
...
.....
p pp
..
..
.... ...
ppppppp
.
..
.
.....
.
.....
...
x 2 ...........
.....
.
.....
.
..
. ppppp ... .....
. ..
...... ppppp . ....
.
ppppp
.. .
.... ..
.....
.....
.....
..... ppppp .
..... ...............
.
....
.
.
......
.
..... ..
.
.. .ppppp .. .....
ppp
.
.. ..... .
..... ..... .. .....
x ..... ... ....
1................ ..... ..... ..... ..... ..... ..... ..... ..... ................
..
.. ..... ... p
.
.........
.
..... .. ..........
(x , x2 ) = 1 x21 + x22
........

Abbildung 17.1.: Länge eines Vektors

Satz 17.3. Es seien x, y, z ∈ Rn und α, β ∈ R.


(1) α(x · y) = (αx) · y = x · (αy)
(2) (x + y) · z = (x · z) + (y · z)
(3) x · y = y · x

191
17. Der Raum Rn

(4) kxk ≥ 0; kxk = 0 ⇔ x = 0 = (0, . . . , 0)


(5) kαxk = |α| · kxk
(6) |x · y| ≤ kxk · kyk (Cauchy-Schwarzsche Ungleichung)
(7) kx + yk ≤ kxk + kyk (Dreiecksungleichung)
(8) kxk − kyk ≤ kx − yk
(9) Ist x = (x1 , . . . , xn ), so gilt für j = 1, . . . , n:

|xj | ≤ kxk ≤ |x1 | + |x2 | + · · · + |xn |

Beweis: (1) bis (5): Direktes Nachrechnen


• zu (6): Ist y = 0, ist nichts zu zeigen; also sei y 6= 0. Setze
Y
X := kxk2 , Y := x · y, Z := kyk2 , α := .
Z
n
X n
X n
X n
X
0≤ (xi − αyj )2 = x2i −2α · xi yi +α2 yi2
i=1 i=1 i=1 i=1
| {z } | {z } | {z }
=kxk2 =X =(x·y)=Y =kyk2 =Z

= X − 2αY + α2 Z
Y2
=X−
Z
Da Z > 0 : Y 2 ≤ XZ, also (x · y)2 ≤ kxk2 kyk2
• zu (7):
kx + yk2 = (x + y) · (x + y) = (x · x) + 2(x · y) + (y · y)
(2),(3)

= kxk2 + 2(x · y) + kyk2


≤ kxk2 + 2|x · y| + kyk2
2
≤ kxk2 + 2kxk kyk + kyk2 = kxk + kyk ⇒ Behauptung
CSU

• zu (8):
kxk = k(x − y) + yk ≤ kx − yk + kyk
⇒ kxk − kyk ≤ kx − yk
Rollentausch: kyk − kxk ≤ ky − xk = kx − yk
⇒ kxk − kyk ≤ kx − yk

• zu (9):
|xj |2 = x2j ≤ x21 + · · · + x2n = kxk2 ⇒ 1. Ungleichung
x = (x1 , . . . , xn ) = x1 e1 + x2 e2 + · · · + en xn

⇒ kxk = kx1 ey + · · · + xn en k ≤ kx1 e1 k + · · · + kxn en k


(7)

= |x1 | ke1 k + · · · + |xn | ken k = |x1 | + · · · + |xn |


(5) |{z} | {z }
=1 =1

192


Definition 17.4. Sei


 
a11 · · · a1q
 .. .. 
 . . 
ap1 · · · apq

eine reelle p × q–Matrix. (aij ∈ R).

v
u p X
q
uX
kAk := t a2 jk Norm von A
j=1 k=1

Es gilt: Ist außerdem B eine reelle q × l–Matrix (d.h. A · B ist definiert als p × l–Matrix), so gilt:

kA · Bk ≤ kAk · kBk (Submultiplikativität der Matrix-Norm)

Insbesondere betrachte Matrix–Vektor–Produkt (A reelle p × q–Matrix, x ∈ Rq ):


 
    a11 x1 + · · · + a1q xq
a11 · · · a1q x1
Ax := A · x> =  ... ..  ·  ..  = a21 x1 + · · · + a2q xq  ∈ Rp
 
..

.  .   
. 
ap1 · · · apq xq
ap1 x1 + · · · + apq xq

Dann gilt wegen der Submultiplikativität der Matrix-Norm:

kAxk ≤ kAk · kxk

(Beachte: Für p × 1– bzw. q × 1-Matrizen stimmen Matrix-Norm und Vektornorm überein.)

Definition 17.5. Sei x0 ∈ Rn und δ > 0

Uδ (x0 ) := {x ∈ Rn : kx − x0 k < δ}

δ-Umgebung von x0 , offene Kugel um x0 mit Radius δ.

Uδ (x0 ) := {x ∈ Rn : kx − x0 k ≤ δ}

abgeschlossene Kugel um x0 mit Radius δ.

Definition 17.6. A ⊂ Rn heißt beschränkt :⇔ ∃c ≥ 0 ∀x ∈ A kxk ≤ c

Definition 17.7. A ⊂ Rn heißt offen :⇔ ∀x ∈ A ∃δ > 0 Uδ (x) ⊂ A

Beispiel 17.8.

• offene Kugeln sind offen

• Rn ist offen

• ∅ ist offen

193
17. Der Raum Rn

• abgeschlossene Kugeln sind nicht offen


• A = (x, y) ∈ R2 : y = x2 ist nicht offen.


Definition 17.9. A ⊂ Rn heißt abgeschlossen :⇔ Rn \ A ist offen.

Beispiel 17.10.
• abgeschlossene Kugeln sind abgeschlossen
• Rn ist abgeschlossen
• ∅ ist abgeschlossen
• obige Menge A (Parabel) ist abgeschlossen
• offene Kugeln sind nicht abgeschlossen

Definition 17.11. K ⊂ Rn heißt kompakt, wenn K beschränkt und abgeschlossen ist.

194
18. Konvergenz im Rn

Definition 18.1. Sei (a(k) )k∈N eine Folge im Rn , also


 
(k) (k) (k)
a(k) = a1 , a2 , . . . , a(k)
n , aj ∈ R

(1) Teilfolgen definiert wie in 2.24.


(2) (a(k) ) heißt beschränkt :⇔ ∃c ≥ 0 ∀k ∈ N ka(k) k ≤ c
(3) x0 heißt ein Häufungswert von (a(k) ) :⇔ ∀ε > 0 a(k) ∈ Uε (x0 )
(4) (a(k) ) heißt konvergent

:⇔ ∃a ∈ Rn ∀ε > 0 ∃k0 ∈ N ∀k ≥ k0 ka(k) − ak < ε


k→∞
⇔ ∃a ∈ Rn ka(k) − ak −−−−→ 0
⇔ ∃a ∈ Rn ∀ε > 0 a(k) ∈ Uε (a) für fast alle k ∈ N
In diesem Fall heißt a Grenzwert (Limes) der Folge a(k) . Bezeichnung:

a = lim a(k) oder a(k) → a für k → ∞


k→∞

1 1
Beispiel 18.2. n = 2, a(k) := ∈ R2 für alle k ∈ N.

k, 1+ k2

Dann
  r
(k) 1 1 1 1 k→∞
a − (0, 1) = , = + 4 −−−−→ 0
k k2 k2 k
Also:
a(k) → (0, 1) für k → ∞

Wie im eindimensionalen Fall zeigt man u.a.:


(1) Der Grenzwert einer Folge ist eindeutig bestimmt. (vgl. 2.9)
(2) x0 ist ein Häufungswert von (a(k) ) ⇔ Es gibt eine Teilfolge von (a(k) ), die gegen x0 konvergiert.
(3) Konvergente Folgen sind beschränkt. (vgl. 2.9)
(4) Konvergiert (a(k) ) gegen a, so konvergiert auch jede Teilfolge von (a(k) ) gegen a. (vgl. 2.29)
(5) Konvergieren (a(k) ) und (b(k) ) gegen a bzw. b und ist λ ∈ R, so gilt:
a(k) + b(k) → a + b, λa(k) → λa, a(k) → kak

(6) Konvergieren a(k) und b(k) gegen a bzw. b, so gilt


a(k) · b(k) → a · b

195
18. Konvergenz im Rn

 
(k) (k)
Satz 18.3. Sei a(k) Folge in Rn , a(k) := a1 , . . . , an

für alle k ∈ N.

(1) Ist a = (a1 , . . . , an ) ∈ Rn , so gilt:


(k) k→∞
a(k) → a (k → ∞) ⇔ ∀j ∈ {1, . . . , n} aj −−−−→ aj
| {z }
komponentenweise Konvergenz“

(2) Satz von Bolzano–Weierstraß: Jede beschränkte Folge in Rn enthält eine konvergente Teilfol-
ge.
(3) Cauchy–Kriterium: (a(k) ) konvergent

:⇔ ∀ε > 0 ∃k0 ∈ N ∀k, l ≥ k0 a(k) − a(l) < ε


| {z }
⇔:(a(k) ) ist Cauchy–Folge

Beweis:
(1) Nach 17.3 (9) gilt:
n
(k) (k)
X
∀j ∈ {1, . . . , n} aj − aj ≤ a(k) − a ≤ aj − aj
i=1

⇒ Behauptung
(2) Der Übersicht halber nur für n = 2, also
 
(k) (k)
a(k) = a1 , a2 .

Nach 17.3 gilt


(k)
aj ≤ a(k) (j = 1, 2)
 
(k)
D.h.: Ist (a(k) ) beschränkt, so auch aj (j = 1, 2).
 
(k)
eine konvergente Teilfolge a(kν ) ν∈N .

Nach Bolzano–Weierstraß in R hat a1
k∈N
 
(k )
Da a2 ν beschränkt, existiert nach Bolzano-Weierstraß in R eine konvergente Teilfolge
 (k )  ν∈N  (k )     (k ) 
νl ν (k ) ν
a2 . Da a2 l Teilfolge von a1 ν , ist auch a1 l konvergent.
l∈N l∈N ν∈N l∈N
(kνl )

⇒ a l∈N
konvergent.
(1)

(3) ⇒“ wie im eindimensionalen Fall (vgl. 2.38).



⇐“: Nach 17.3:

(k) (k)
aj − al ≤ a(k) − a(l) für alle j ∈ {1, . . . , n}

Also:
(k)
∀j ∈ {1, . . . , n} (aj )k∈N Cauchy-Folge in R
(k) k→∞
⇒ ∀j ∈ {1, . . . , n} ∃aj ∈ R aj −−−−→ aj
2.38

Setze a := (a1 , . . . , an ). Dann nach (1): a(k) → a für k → ∞.

196


Definition 18.4. Sei A ⊂ Rn . x0 ∈ Rn heißt Häufungspunkt von A, wenn gilt:


Es existiert eine Folge (a(k) )k∈N in A \ {x0 } mit a(k) → x0 für k → ∞.

Wie im eindimensionalen Fall (vgl. 6.3) zeigt man:

x0 ist Häufungspunkt von A ⇔ Jede δ-Umgebung Uδ (x0 ) enthält einen von x0


verschiedenen Punkt aus A.

Beispiel 18.5.
(1) Sei a ∈ Rn , ε > 0, A := Uε (a). Dann ist x0 ein Häufungspunkt von A ⇔ x0 ∈ Uε (a).
(2) Sei statt dessen A := Uε (a)\{a}. Dann ist x0 immer noch ein Häufungspunkt von A ⇔ x0 ∈ Uε (a).
(3) Ist A endlich, so hat A keine Häufungspunkte.

Satz 18.6. Sei A ⊂ Rn .


(1) A ist abgeschlossen ⇔ Für jede konvergente Folge a(k) in A gilt: lim a(k) ∈ A.

k→∞

(2) A ist abgeschlossen ⇔ Jeder Häufungspunkt von A gehört zu A.


(3) A ist kompakt ⇔ Jede Folge in A enthält eine konvergente Teilfolge mit Grenzwert in A.

Beweis:
(1)
⇒“: Sei A abgeschlossen. Annahme: Es existiert eine konvergente Folge (a(k) ) in A mit

a := lim a(k) 6∈ A
k→∞

Also a ∈ Rn \ A. Da Rn \ A offen ist, existiert ein ε > 0 mit Uε (a) \ Rn \ A. Wegen (a(k) ) → a
existiert ein k0 ∈ N mit

∀k ≥ k0 ka(k) − ak < ε, d.h. ∀k ≥ k0 a(k) ∈ Uε (a) ⊂ Rn \ A

⇐“: Gelte die rechte Seite. Annahme: A nicht abgeschlossen, d.h. Rn \A nicht offen, also: Es existiert

a ∈ Rn \ A mit

∀k ∈ N U k1 (a) 6⊂ Rn \ A

⇒ ∀k ∈ N ∃a(k) ∈ A a(k) ∈ U k1 (a)


| {z }
1
ka(k) −ak< k

k→∞
Also (a(k) ) −−−−→ a.
⇒ a⊂A
(2) vgl. Saalübung
(3) wie im eindimensionalen Fall (vgl. 7.16)


197
18. Konvergenz im Rn

198
19. Grenzwerte von Funktionen, Stetigkeit

Stets in diesem Abschnitt: D ⊂ Rn und f : D → Rm eine (vektorwertige) Funkti-


on.

f hat also die Form



f (x) = f (x1 , . . . , xn ) = f1 (x1 , . . . , xn ), f2 (x1 , . . . , xn ), . . . , fm (x1 , . . . , xn )

wobei fj : D → R reellwertig (j = 1, . . . , m).

Kurz: f = (f1 , . . . , fm )

Beispiel 19.1.

(1) n = 2, D = R2 , m = 3,

f (x) = f (x1 , x2 ) := x1 x2 , x21 + 2x2 , sin(x1 x2 )




(2) n beliebig, D := {x ∈ Rn : kxk ≤ 1},


p
f (x) := 1 − kxk (m = 1)

Vereinbarung: Im Falle n = 2 schreiben wir für (x1 , x2 ) meist (x, y), im Falle n = 3 für (x1 , x2 , x3 )
meist (x, y, z).

Veranschaulichung des Graphen von f

– im Fall n = 2, m = 1: Abb. 19.1

– im Fall n = 1, m = 2: Abb. 19.2

....
.....
..... ....... ...
... ..... ...... .........
....... ..... ..... ..... ......... f
.... ....... ... .... ....... ... ........... .................
. . . . . .
.................. .. ......................................... ..... ...... ....
.. ..................... .. .. ... ... ..................... ...
............... .. .. ... ... .. .. .. .. ...........
....... .. .. ... .. .. ... .. .. .. .. ......
.... ..... .... .... .... .... .... .... .... .... .... ..... .......
..... .. . ... .. .. .. .. .. .. .. . ....
. ..
... .................... ... .... .... .... .... .... .... ............... ...
.
..
.
................... .. .. ....................
..................... ... ..
. ...........
x2
.....
.. ..... ...
.
..
....... .
...
. ..
.. ......... .
. .. ...
.......
. ... .. .............................................................
.
..
.... ...........
. ..
... ........ ..
..
. ..
.......
..
.... .......
.
. .
..... ......
..... .......
D ....
.
..
..... ........... .......
..... ..................................................................
x 1 ..................
.....

Abbildung 19.1.: n = 2, m = 1

199
19. Grenzwerte von Funktionen, Stetigkeit

.....
....
p p pp
ppp p ppppp pp
pp p pp ppppp pppp pp pp ppppp p
ppp pppp p p
pppp p ppp pp
pp ppp ppppp p p
ppp p
ppp p p p p p p p p p p p p p p pp p p p p p
ppp p p
pp pp
...........
pp p p
.
..... ..

p p p p p p p p p p p p p p p pp p p
.....
.... x1
.
..
.....
.
.....
....
..........
........

Abbildung 19.2.: n = 1, m = 2 (Kurve im Raum)

Definition 19.2. Sei x0 ein Häufungspunkt (HP) von D und y0 ∈ Rm . Wir sagen:
lim f (x) = y0 :⇔ Für jede Folge x(k) in D mit x(k) → x0 für k → ∞ und ∀k ∈ N x(k) 6= x0 gilt:

x→x0
f x(k) → y0


alternative Schreibweise:

f (x) → y0 für x → x0

Satz 19.3. Sei x0 Häufungspunkt von D, g : D → Rm sei eine weitere Funktion.


(1)
h i
lim f (x) = y0 ⇔ ∀ε > 0 ∃δ > 0 ∀x ∈ D \ {x0 } kx − x0 k < δ ⇒ f (x) − y0 < ε
x→x0

(2) Aus lim f (x) = y0 und lim g(x) = z0 (∈ Rm ) folgt:


x→x0 x→x0
 
lim f (x) + g(x) = y0 + z0 , lim λf (x) = λy0 (λ ∈ R)
x→x0 x→x0

lim f (x) · g(x) = y0 · z0
x→x0

(3) Ist m = 1, lim f (x) = y0 , lim g(x) = z0 6= 0, dann:


x→x0 x→x0

∃δ > 0 ∀x ∈ D ∩ Uδ (x0 ) = D̂ g(x) 6= 0


und
 
f f x→x0 y0
: D̂ → R gilt (x) −−−−→
g g z0

(4) Cauchy–Kriterium:
lim f (x) existiert
x→x0
h i
⇔ ∀ε > 0 ∃δ > 0 ∀x, z ∈ D (0 < kx − x0 k und kz − x0 k < δ) ⇒ f (x) − f (z) < ε

(5) Ist f = (f1 , . . . , fm ) und y0 = (y0,1 , . . . , y0,m ), so gilt:


lim f (x) = y0 ⇔ ∀j ∈ {1, . . . , m} lim fj (x) = y0,j
x→x0 x→x0

200
Beweis: (1) bis (4) wie im eindimensionalen Fall (vgl. 6.7, 6.8, 6.9), (5) folgt aus 18.3 (1)

Beispiel 19.4. D = R2 , f (x, y) = (xy, x2 + y 2 , sin(xy))
Dann gilt:
lim f (x, y) = (1, 2, sin(1))
(x,y)→(1,1)

denn:

Sei (xn , yn ) Folge in D mit (xn , yn ) → (1, 1), denn nach 18.3 gilt: xn → 1, yn → 1
⇒ xn yn → 1, x2n + yn2 → 2, sin(xn yn ) → sin(1)
⇒ xn yn , x2n + yn2 , sin(xn yn ) → (1, 2, sin(1))

18.3 | {z }
=f (xn ,yn )

Beispiel 19.5. D = R2
(
xy
x2 +y 2 für (x, y) ∈ R2 \ {(0, 0)}
f (x, y) :=
0 für (x, y) = (0, 0)
Behauptung:
lim f (x, y) existiert nicht!
(x,y)→(0,0)

Beweis:
1
f (x, 0) = 0, f (x, x) = für alle x ∈ R \ {0}
2
d.h. ist z.B. (xn , yn ) = n1 , 0 , so gilt (xn , yn ) → (0, 0) und f (xn , yn ) = 0 → 0.


Ist aber (x̃n , ỹn ) = n1 , n1 , so gilt wieder (x̃n , ỹn ) → (0, 0), aber f (x̃n , ỹn ) = 21 → 12 .



Definition 19.6.
(1) f heißt in x0 ∈ D stetig, wenn gilt:
k→∞
Für jede Folge (x(k) ) in D mit x(k) −−−−→ x0 gilt f (x(k) ) → f (x0 ) für k → ∞.
Wie im eindimensionalen Fall (vgl. 7.3) zeigt man:
h i
f stetig in x0 ⇔ ∀ε > 0 ∃δ > 0 ∀x ∈ D kx − x0 k < δ ⇒ f (x) − f (x0 ) < ε

(2) f heißt stetig auf D, wenn f in jedem x0 ∈ D stetig ist. Wir schreiben in diesem Fall auch:
f ∈ C(D, Rm )

Beachte: Beim Stetigkeitsbegriff ist δ abhängig von ε und x0 .


(3) f heißt auf D gleichmäßig stetig, wenn gilt:
h i
∀ε > 0, ∃δ > 0 ∀x, y ∈ D kx − yk < δ ⇒ f (x) − f (y) < ε

(4) f heißt auf D Lipschitz–stetig, wenn ein L ≥ 0 existiert mit


h i
∀x, y ∈ D f (x) − f (y) ≤ L · kx − yk

201
19. Grenzwerte von Funktionen, Stetigkeit

Klar: Lipschitz–Stetigkeit ⇒ gleichmäßige Stetigkeit ⇒ Stetigkeit

Satz 19.7. Sei x0 ∈ D, g : D → Rm


(1) Ist f = (f1 , . . . , fm ), so gilt:

stetig in x0 stetig in x0
stetig auf D stetig auf D
f ⇔ ∀j ∈ {1, . . . , m} fj .
gleichmäßig stetig auf D gleichmäßig stetig auf D
Lipschitz–stetig auf D Lipschitz–stetig auf D

(2) Ist x0 außerdem Häufungspunkt von D, so gilt:

f stetig in x0 ⇔ lim f (x) = f (x0 )


x→x0

(3) Ist f stetig in x0 und f (x0 ) 6= 0, so existiert δ > 0 mit

∀x ∈ D ∩ Uδ (x0 ) f (x) 6= 0

(4) Ist m = 1 und sind f, g stetig in x0 und ist g(x0 ) 6= 0, so existiert δ > 0 mit

f
: D ∩ Uδ (x0 ) → R ist stetig in x0
g

(5) Sind f, g stetig in x0 und ist α ∈ R, so sind f + g, αf , f · g stetig in x0 .


(6) C(D, Rm ) ist ein R–Vektorraum.

Beweis: (1) mit 18.3, Rest wie im eindimensionalen Fall (vgl. 7.3 und 7.4) 

Satz 19.8. Sei f : D → Rm stetig in x0 ∈ D; ferner sei E ⊂ Rm , g : E → Rp , f (D) ⊂ E, g sei stetig


in y0 := f (x0 ).
Dann ist g ◦ f : D → Rp stetig in x0 .

Beweis: wie im eindimensionalen Fall (vgl. 7.5) 

Satz 19.9. D ⊂ Rn sei kompakt und f ∈ C(D, Rm ). Dann gilt:


(1) f ist gleichmäßig stetig auf D.
(2) Ist m = 1, so existieren a, b ∈ D mit

∀x ∈ D f (a) ≤ f (x) ≤ f (b)

( Stetiges f nimmt auf kompakten Mengen Minimum und Maximum an!“)



(3) f (D) ist kompakt.
(4) Ist f injektiv auf D, so ist f −1 : f (D) → D stetig.

Beweis:

(1) – (3) wie im eindimensionalen Fall (vgl. 7.30)

(4) Sei y0 ∈ f (D), (y (k) ) Folge in f (D) mit y (k) → y0 .

202
Seien x0 := f −1 (y0 ), x(k) := f −1 (y (k) ) für k ∈ N.
Annahme: x(k) 6→ x0 .
Dann existiert ε > 0 und Teilfolge (x(kj ) ) mit

x(kj ) − x0 ≥ ε für alle j ∈ N

x(kjν )

Da D kompakt, existiert eine konvergente Teilfolge ν∈N
mit Grenzwert x1 ∈
D.
 ν→∞
Da f stetig, gilt f x(kjν ) −−−−→ f (x1 ). Andererseits f x(kjν ) = y (kjν ) → y0


⇒ f (x1 ) = y0 = f (x0 ) ⇒ x1 = x0
inj.

(kj )
Andererseits x − x0 ≥ ε

(kjν )
| {z } −x0 ≥ ε ⇒ kx1 − x0 k ≥ ε
x
→x1


Achtung: In (4) ist die Kompaktheitsvoraussetzung wesentlich!

Beispiel 19.10. D := [0, 2π), f (x) := cos(x), sin(x)
f stetig, injektiv, aber f −1 ist nicht stetig in (1, 0). (vgl. Abb. 19.3)


Abbildung 19.3.: f (x) = cos(x), sin(x) (Schraubenlinie um x–Achse)

Beispiel 19.11. D = R2
(
xy
x2 +y 2 für (x, y) ∈ R2 \ {(0, 0)}
f (x, y) :=
0 für (x, y) = (0, 0)

Da (0, 0) Häufungspunkt von R2 = D und lim(x,y)→(0,0) f (x, y) nicht existiert (Bsp. 19.5), ist f in (0, 0)
nicht stetig.

203
19. Grenzwerte von Funktionen, Stetigkeit

Definition 19.12. f : D → Rm heißt beschränkt, wenn ein γ ≥ 0 existiert mit

∀x ∈ D f (x) ≤ γ (⇔ f (D) ist beschränkt)

Betrachte den Spezialfall linearer Abbildungen:


Sei f : Rn → Rm linear, d.h.

∀x, y ∈ Rn ∀α, β ∈ R f (αx + βy) = αf (x) + βf (y). (19-i)

Lineare Algebra ⇒ Es existiert eine m × n–Matrix A mit

∀x ∈ Rn f (x) = Ax (:= A · x> )

(Ist umgekehrt A eine m × n–Matrix und g : Rn → Rm definiert durch g(x) := Ax, so ist g line-
ar.)
Sind nun f und A wie in (19-i), so gilt:

∀x ∈ Rn f (x) = kAxk ≤ kAk · kxk

⇒ ∀x, y ∈ Rn f (x) − f (y) = f (x − y) ≤ kAk · kx − yk


lin.

⇒ f ist auf Rm Lipschitz–stetig mit Lipschitz–Konstante L := kAk

Insbesondere:

Satz 19.13. Ist f : Rn → Rm linear, so gilt

f ∈ C(Rn , Rm )

204
20. Folgen, Reihen, Potenzreihen und
Stetigkeit in C

Sowohl C als auch R2 sind zweidimensionale Vektorräume über R.

Identifiziere“ wie folgt:



z = x + iy ∈ C (x, y ∈ R) (x, y) ∈ R2
Re z = x x
Im z = y y
p p
|z| = x2 + y 2 (x, y) = x2 + y 2
w = u + iv (u, v)
z + w = (x + u) + i(y + v) (x, y) + (u, v) = (x + u, y + v)

Wegen dieser Identifikationen gelten die in den Abschnitten 18 und 19 entwickelten Begriffe und
Sätze auch in C. (Gewisse Ausnahme: Inneres Produkt in R2 hat (bisher) kein Analogon in
C.)

20.1. Konvergenz von Folgen

Eine Folge (zn ) in C heißt konvergent, wenn ein z0 ∈ C existiert mit

|zn − z0 | → 0

In diesem Fall ist z0 eindeutig bestimmt und man schreibt

z0 = lim zn , oder: zn → z0 für n → ∞.


n→∞

Es gilt:

zn → z0 für n → ∞ ⇔ Re zn → Re z0 , Im zn → Im z0

Zu den Sätzen in Abschnit 18 kommt hinzu:

Satz 20.1. (zn ), (wn ) seien Folgen in C.


(1) Aus zn → z0 , wn → w0 folgt: zn wn → z0 w0 .
zn z0
(2) Gilt außerdem w0 6= 0, so existiert ein n0 ∈ N mit ∀n ≥ n0 wn 6= 0 und wn → w0 .

Beweis: wie im eindimensionalen Fall (vgl. 2.12 (4)) 

205
20. Folgen, Reihen, Potenzreihen und Stetigkeit in C

20.2. Unendliche Reihen

Sei (an ) eine Folge in C und ∀n ∈ N sn := a1 + a2 + · · · + an .


X
an heißt konvergent :⇔ (sn )n∈N ist konvergent
n=1

In diesem Fall heißt



X
an := lim sn
n→∞
n=1

Reihenwert.

Eine nicht konvergente Reihe heißt divergent.


X ∞
X
an heißt absolut konvergent :⇔ |an | konvergent.
n=1 n=1

Wörtlich wie im eindimensionalen Fall (vgl. 3.4, 3.12, 3.14, 3.16, 3.25) gelten die Aussagen
von

Satz 20.2.
(1) Cauchy–Kriterium:

X m
X
an konvergent ⇔ ∀ε > 0 ∃n0 ∈ N ∀m ≥ n ≥ n0 ak < ε
n=1 k=n

(2)

X ∞
X
an absolut konvergent ⇒ an konvergent
n=1 n=1

und

X ∞
X
an ≤ |an |
n=1 n=1

(3) Majoranten– und Minorantenkriterium:



P
(αn ) reelle Folge, αn konvergent, (an ) komplexe Folge, ∀n ∈ N |an | ≤ αn
n=1


X ∞
X ∞
X
⇒ an absolut konvergent, |an | ≤ αn
n=1 n=1 n=1

(4) Wurzel– und Quotientenkriterium

206
20.3. Komplexe Funktionen


P ∞
P
(5) an , bn absolut konvergent,
n=0 n=0

∀n ∈ N cn := a0 bn + a1 bn−1 + · · · + an b0

X
⇒ cn absolut konvergent, und
n=0
∞ ∞ ∞
! !
X X X
cn = an · bn
n=1 n=0 n=0

(Cauchy–Produkt)

20.3. Komplexe Funktionen

Sei D ⊂ C mit D 6= ∅ und z0 ∈ C, z0 heißt Häufungspunkt von D :⇔ Es existiert Folge (zn ) in D mit
∀n ∈ N zn 6= z0 und zn → z0 für n → ∞.

Sei f : D → C eine Funktion. Die Begriffe Grenzwert lim f (z), Stetigkeit von f in z0 , Stetigkeit
z→z0
von f auf D werden (gemäß der genannten Identifikationen) wie im Reellen (Abschnitt 19) defi-
niert.

Die dazugehörigen Sätze (19.3, 19.7, 19.8) gelten genauso auch für komplexe Funktio-
nen.

Neu:

Satz 20.3. D ⊂ C; f, g : D → C Funktionen.


(1) Ist z0 Häufungspunkt von D und gilt

lim f (z) = w0 , lim g(z) = w1 ,


z→z0 z→z0

so gilt:

lim (f · g)(z) = w0 · w1 (Produkt in C)


z→z0

Ist außerdem w1 6= 0, so existiert ein δ > 0 mit

∀z ∈ Uδ (z0 ) ∩ D g(z) 6= 0,

und
f z→z0 w0
(z) −−−→
g w1

(2) f, g stetig in z0 ⇒ f g stetig in z0 .

207
20. Folgen, Reihen, Potenzreihen und Stetigkeit in C

20.4. Potenzreihen
Sei (an )∞
n=0 eine Folge in C; z0 ∈ C.

Dann heißt

X
an (z − z0 )n
n=0

eine Potenzreihe.
Wie im eindimensionalen Fall (vgl. 4.3) zeigt man

Satz 20.4.
p 
(1) Ist n |an | unbeschränkt, so konvergiert die Potenzreihe nur für z = z0 .
n∈N
p 
(2) Ist n |an | beschränkt und
n∈N
p
% := lim sup n
|an |
n→∞

so gilt:
(i) Ist % = 0, so konvergiert die Potenzreihe für alle z ∈ C absolut.
(ii) Ist % > 0, so konvergiert die Potenzreihe absolut für
1
|z − z0 | <
%

und sie divergiert für |z − z0 | > %1 .


1
(Im Falle |z − z0 | = % ist keine allgemeine Aussage möglich.)

Setze:
 p
0
 falls n |an | unbeschränkt
p
r := ∞ falls n |an | beschränkt, % = 0
1
 p
% falls n |an | beschränkt, % > 0

r heißt der Konvergenzradius der Potenzreihe.


D.h.:
• Ist r = ∞, so konvergiert die Potenzreihe in jedem z ∈ C.
• Ist r = 0, so konvergiert die Potenzreihe nur in z = z0 .
• Ist 0 < r < ∞, so konvergiert die Potenzreihe im (Inneren des) Kreises {z ∈ C : |z − z0 | < r},
und sie divergiert für {z ∈ C : |z − z0 | > r}. (vgl. Abb. 20.1)
Beispiel 20.5.

ωn :
P
(1) Sei ω ∈ C. Betrachte die geometrische Reihe
n=0

n
(
1−ω n+1
X
i 1−ω falls ω 6= 1
sn = ω =
i=0
wie in R n+1 falls ω = 1

208
20.4. Potenzreihen

.....
....
y .. ?.................. .......
.............
........................
.......
......
....... .. .......... ..... Divergenz
................. .....
.... ...
.. ...
... ...
..
. ...
...
.... ...
...
....
z 0 ...
..
... ...
...
...
r ..
....
... ...
...
... Konvergenz
.... ...
...
..... .
......
...... ..
....... ......
.......... ......
...............................
..........
..
x

Abbildung 20.1.: Konvergenzradius, Konvergenz und Divergenz


X 1
|ω| < 1 ⇒ ω n ist konvergent mit Reihenwert
n=0
1−ω

X
|ω| > 1 ⇒ ω n ist divergent
n=0

(2) Speziell ω = 2i :
∞  n
1 X i 1 2 4 + 2i 4 2
|ω| = < 1 ⇒ = i
= = = + i
2 n=0
2 1− 2
2−i 4+1 5 5


zn
ez ; vgl. Kapitel 15) , z ∈ C:
P
(3) n! (=
n=0


zn |z|n X
an := , |an | = , |an | ist konvergent mit Reihenwert e|z|
n! n! n=0

∞ ∞
X X zn
⇒ an = ist absolut konvergent ∀z ∈ C
n=0 n=0
n!

∞ ∞
n z 2n n z 2n+1
P P
(4) Genau so: (−1) · (2n)! (= cos z) und (−1) · (2n+1)! (= sin z)
n=0 n=0
∞ ∞
z
enz = (en ) mit z = x + iy ∈ C:
P P
(5)
n=0 n=0

e = ex · (cos y + i · sin y) = ex · eiy


z

 
⇒ |ez | = ex · |eiy | = ex ⇒ |ez | < 1 ⇔ ex < 1 ⇔ x < 0 ⇔ Re z < 0
∞ ∞
1
enz ist konvergent falls Re z < 0. Dann: enz =
P P
Also: 1−ez
n=0 n=0

Ist D ⊂ C und (fn ) eine Folge von Funktionen fn : D → C, so definiert man die Begriffe punktweise
Konvergenz und gleichmäßige Konvergenz wörtlich wie im eindimensionalen Fall (vgl. Abschnitte 8.1
und 8.2).
Wie im Eindimensionalen zeigt man:

209
20. Folgen, Reihen, Potenzreihen und Stetigkeit in C

Satz 20.6.
(1) D, (fn ) wie oben. Sind alle fn stetig auf D und konvergiert (fn ) gleichmäßig gegen f : D → C,
dann ist f stetig auf D.

an (z − z0 )n eine Potenzreihe mit Konvergenzradius r > 0, D := {z ∈ C : |z − z0 | < r}.
P
(2) Sei
n=0
(D := C, falls r = ∞), und

X
f (z) := an (z − z0 )n für z ∈ D.
n=0

Dann gilt:
(i) f ist stetig auf D.
(ii) Ist r̃ > 0 mit r̃ < r, so konvergiert die Potenzreihe auf

D̃ := z ∈ C : |z − z0 | ≤ r̃ gleichmäßig

(vgl. Abb 20.2)

ez , cos, sin sind stetig auf C.


............................
............... .........
......... .......
....... ......
. ......... .....
.....
...
.... .....
...... ............................................ ...
.
... .......... ...
. .......
.......
...
...
.... ..
..... ...
.... ...
... ..... ....
...
.. .. ...
....
.
..
.
.
r̃ ....
.
...
...
...
... .... ...
... ...
...
... r ..
....
...
....
...
x 0 ...
...
.............
.. ...
... ... .. ...
... ...
gleichmäßige ... ...
... ... ... ...
... ... ... ..
...
... Konvergenz
...
.....
..... .......
.
.....
... ...... ..... ...
... ........ ...... ...
.... ....................................... ...
.....
..... ..
......
.
...... ...
Konvergenz
......
.......
.......... .......
......
......
.............................................

Abbildung 20.2.: Potenzreihen konvergieren glm. auf kompakten Teilmengen des Konvergenzkreises

Zum Abschluss:
1 z
e − e−z

sinh z := z∈C
2
1 z
e + e−z

cosh z := z∈C
2
sinh z
tanh z := z ∈ C, cosh z 6= 0
cosh z
sin z
tan z := z ∈ C, cos z 6= 0
cos z

210
21. Differentialrechnung im Rn

21.1. Partielle Differenzierbarkeit

Beispiel 21.1. Sei f (x, y) := 2x2 y 3 für (x, y) ∈ R2 .

Fasst man für den Moment y als Konstante auf, so kann man f (x, y) nach x differenzieren. Diese
Ableitung wird mit

∂f
(x, y) oder fx (x, y) oder D1 f (x, y) bezeichnet.
∂x
Also im Beispiel:

∂f
(x, y) = 4xy 3
∂x
Entsprechend kann man x als Konstante auffassen und nach y differenzieren. Bezeichnung

∂f
(x, y) oder fy (x, y) oder D2 f (x, y)
∂y

Im Beispiel:

∂f
(x, y) = 6x2 y 2
∂y

Beispiel 21.2. f (x, y, z) := x2 z + 3xyz. Dann:

∂f
(x, y, z) = fx (x, y, z) = D1 f (x, y, z) = 2xz + 3yz
∂x
∂f
(x, y, z) = fy (x, y, z) = D2 f (x, y, z) = 3xz
∂y
∂f
(x, y, z) = fz (x, y, z) = D3 f (x, y, z) = x2 + 3xy
∂z

Stets in diesem Abschnitt: D ⊂ Rn offen, f : D → R eine reellwertige Funkti-


on.

Sei x0 = (x0,1 , x0,2 , . . . , x0,n ) ∈ D, sei h ∈ R, h 6= 0, und ei der i-te Einheitsvek-


tor.

Da D offen, existiert δ > 0 mit x0 + hei ∈ D für 0 < |h| < δ.


(Beachte k(x0 + hei ) − x0 k = khei k = |h| · kei k = |h| < δ)

f (x0 + hei ) = f (x0,1 , x0,2 , . . . , x0,i−1 , x0,i + h, x0,i+1 , . . . , x0,n )

211
21. Differentialrechnung im Rn

Definition 21.3. f heißt in x0 partiell differenzierbar nach xi , wenn

f (x0 + hei ) − f (x0 )


lim existiert (in R)
h→0 h
Im Fall der Existenz heißt der Grenzwert partielle Ableitung von f in x0 nach xi und wird notiert als
∂f
(x0 ) oder fxi (x0 ) oder Di f (x0 )
∂xi

Bemerkung 21.4. Im Fall n = 2 wird (wie vereinbart) häufig (x, y) statt (x1 , x2 ) geschrieben, im Fall
n = 3 häufig (x, y, z) statt (x1 , x2 , x3 ). Ensprechend werden die partiellen Ableitungen notiert:

∂f ∂f ∂f
fx , f y , f z oder , ,
∂x ∂y ∂z

Beispiel 21.5.
(1) f (x, y, z) = 2x2 + yz + exyz

fx (x, y, z) = 4x + yz · exyz
fy (x, y, z) = z + xz · exyz
fz (x, y, z) = y + xy · exyz

(2)
(
xy
x2 +y 2 (x, y) 6= (0, 0)
f (x, y) :=
0 (x, y) = (0, 0)

Für (x, y) 6= (0, 0):

y(x2 + y 2 ) − 2x · xy y 3 − x2 y
fx (x, y) = =
(x2 + y 2 )2 (x2 + y 2 )2

Im Nullpunkt:
h·0
−0

f (0, 0) + he1 − f (0, 0) f (h, 0) − f (0, 0) h2 +02
= = =0 (→ 0 für h → 0)
h h h
⇒ f in (0, 0) partiell nach x differenzierbar und fx (0, 0) = 0.
Genauso: fy (0, 0) = 0.
Also: f ist überall (auf ganz R2 ) partiell differenzierbar, aber in (0, 0) nicht stetig.
p
(3) f (x, y) := x2 + y 2 = k(x, y)k.
(x, y) 6= 0:

2x x
fx (x, y) = p =p
2 x2 + y 2 x2 + y 2
y
fy (x, y) = p
x + y2
2

212
21.1. Partielle Differenzierbarkeit

Im Nullpunkt:
 √ (
f (0, 0) + he1 − f (0, 0) f (h, 0) − f (0, 0) h2 + 02 − 0 |h| 1 für h > 0
= = = =
h h h h −1 für h < 0
konvergiert nicht für h → 0.
D.h. f ist in (0,0) nicht partiell differenzierbar nach x. (genauso: nach y)

Definition 21.6.
(1) f heißt in x0 partiell differenzierbar, wenn f in x0 partiell differenzierbar nach allen Variablen
x1 , . . . , xn ist.
(2) f heißt auf D partiell differenzierbar, wenn f in jedem x0 ∈ D partiell differenzierbar ist.
(3) f heißt auf D stetig partiell differenzierbar, wenn f auf D partiell differenzierbar ist und alle parti-
ellen Ableitungen fx1 , . . . , fxn : D → R auf D stetig sind.
Bezeichnungen in diesem Fall: f ∈ C 1 (D, R).
(4) Ist f in x0 ∈ D partiell differenzierbar, so heißt

fx1 (x0 ), fx2 (x0 ), . . . , fxn (x0 ) =: (grad f )(x0 )

der Gradient von f in x0 .


p
Beispiel 21.7. f (x) = kxk = x21 + · · · + x2n .
Für x 6= 0:
2xi xi
fxi (x) = p 2 =
2
2 x1 + · · · + xn kxk
 
x1 xn 1
⇒ (grad f )(x) = ,..., = ·x
kxk kxk kxk

Definition 21.8. Die partiellen Ableitungen fx1 , . . . , fxn heißen (sofern sie existieren) partielle Ablei-
tungen erster Ordnung.

Definition 21.9. Ist f auf D partiell differenzierbar nach xi und ist fxi : D → R in x0 ∈ D partiell
differenzierbar nach xj , so heißt
  
∂ ∂f 
(x0 ) = (fxi )xj (x0 ) = Dj (Di f ) (x0 )
∂xj ∂xi
∂2f 
= (x0 ) = fxi xj (x0 ) = Dj (Di f ) (x0 )
∂xj ∂xi
partielle Ableitung zweiter Ordnung (nach xi und xj ).
Im Falle i = j schreibt man auch
∂2f
(x0 ) = fxi xi (x0 ) = Di2 f (x0 )

∂x2i
Entsprechend sind partielle Ableitungen höherer Ordnung definiert. Schreibweise analog.
∂4 f
   
∂ ∂ ∂ ∂f
=
∂x1 (∂x3 )2 ∂x2 ∂x1 ∂x3 ∂x3 ∂x2

213
21. Differentialrechnung im Rn

n = 2:
∂3f ∂7f
= fxxy , = fyxxxxxx
∂y ∂x2 ∂x6 ∂y

Beispiel 21.10. f (x, y, z) := xy 2 sin z

fx = y 2 sin z, fxy = 2y sin z, fxyz = 2y cos z

fz = xy 2 cos z, fzy = 2xy cos z, fzyx = 2y cos z

Definition 21.11. Sei m ∈ N. f heißt auf D m-mal stetig partiell differenzierbar, wenn alle partiellen
Ableitungen der Ordnung ≤ m auf D existieren und auf D stetig sind.
Bezeichnung in diesem Fall: f ∈ C m (D, R).
f heißt auf D unendlich oft (beliebig oft) (stetig) partiell differenzierbar, wenn
\
f∈ C m (D, R) =: C ∞ (D, R)
m∈N

Satz 21.12 (Satz von Schwarz). Sei f ∈ C 2 (D, R) (beachte: die 2. partiellen Ableitungen sind somit
als stetig vorausgesetzt.)
Dann gilt:

fxi xj (x0 ) = fxj xi (x0 )

für alle x0 ∈ D und für alle i, j ∈ {1, . . . n}.

Korollar 21.13. Sei m ∈ N und f ∈ C m (D, R).


Dann ist jede partielle Ableitung von f der Ordnung ≤ m unabhängig von der Reihenfolge bei der
partiellen Differentiation.

Beispiel 21.14.
xy(x2 −y 2 )
(
x2 +y 2 (x, y) 6= (0, 0)
f (x, y) :=
0 (x, y) = (0, 0)

Für (x, y) 6= (0, 0):

y x2 − y 2 + 2x2 y x2 + y 2 − 2x2 y x2 − y 2
    
fx (x, y) = 2
(x2 + y 2 )

Im Nullpunkt:

f (0, 0) + he1 − f (0, 0) f (h, 0) − f (0, 0)
= =0
h h
⇒ fx (0, 0) = 0.

214
21.2. Differenzierbarkeit und Stetigkeit

(⇒ f ist auf D = R2 partiell nach x differenzierbar.)



fx (0, 0) + he2 − fx (0, 0) fx (0, h) − fx (0, 0) 1 −h3 h2
 
= = = −1 (→ −1 für h → 0)
h h h h4

⇒ fx in (0, 0) partiell nach y differenzierbar, und fxy (0, 0) = −1.


Analog: f ist auf D = R2 partiell nach y differenzierbar und

x y 2 − x2 + 2y 2 x y 2 + x2 − 2y 2 x y 2 − x2
    
fy (x, y) = − 2
(y 2 + x2 )

fy (0, 0) + he1 − fy (0, 0)
=1
h
⇒ fy in (0, 0) partiell nach x differenzierbar, und fyx (0, 0) = 1 6= fxy (0, 0). (Aber fxy und fyx sind
nicht stetig in (0, 0).)

Zur Motivation des folgenden:


(
xy
2 2 (x, y) 6= (0, 0)
f (x, y) = x +y
0 (x, y) = (0, 0)

ist auf ganz R2 partiell differenzierbar, aber nicht stetig in (0, 0).
Wir suchen jetzt einen Differenzierbarkeitsbegriff, der Stetigkeit (von f) impli-
ziert.
Zur Erinnerung: Sei I ⊂ R Intervall, x0 ∈ I, f : I → R
f in x0 differenzierbar

f (x0 + h) − f (x0 )
⇔ ∃a ∈ R lim =a
h→0 h

f (x0 + h) − f (x0 ) − ah
⇔ ∃a ∈ R lim =0
h→0 h
|f (x0 + h) − f (x0 ) − ah|
⇔ ∃a ∈ R lim =0
h→0 |h|
Jetzt wieder: D ⊂ Rn offen, f : D → R, x0 ∈ D.

21.2. Differenzierbarkeit und Stetigkeit

Definition 21.15. f heißt in x0 differenzierbar

|f (x0 + h) − f (x0 ) − a · h|
:⇔ ∃a ∈ Rn lim =0
h→0
h∈Rn
khk
!
n f (x0 + h) − f (x0 ) − a · h
⇔ ∃a ∈ R lim =0
h→0
h∈Rn
khk

215
21. Differentialrechnung im Rn

Bemerkung 21.16.
Rn → R
 
(1) Ist a ∈ Rn , so ist die Abbildung linear und somit stetig, insbesondere gilt: a · h → 0
h 7→ a · h
für h → 0.
(2) f differenzierbar in x0 ∈ D

f (x) − f (x0 ) − a(x − x0 )


⇔ ∃a ∈ Rn lim =0
x→x0 kx − x0 k

Satz 21.17. f sei differenzierbar in x0 ∈ D. Dann gilt:


(1) f ist in x0 partiell differenzierbar, und der Vektor a in der Definition der Differenzierbarkeit ist
eindeutig bestimmt, und

a = (grad f )(x0 )

(2) f ist stetig in x0 .

Beweis:
(1) Sei a = (a1 , . . . , an ) ein Vektor, der die in der Definition für Differenzierbarkeit (von f in x0 )
geforderten Eigenschaft hat. Das heißt: Für jede Folge k (k) k∈N in Rn mit ∀k ∈ N h(k) 6= 0 und
h(k) → 0 (für k → ∞) gilt

f x0 + h(k) − f (x0 ) − a · h(k) k→∞


  
(k)
L h := −−−−→ 0
h(k)

Sei (αk )k∈N Folge in R mit ∀k ∈ N αk 6= 0 und αk → 0


Setze

h(k) := αk e1 = (αk , 0, . . . , 0)

Also ∀k h(k) 6= 0, h(k) → 0 und somit L h(k) → 0, d.h.




|f (x0 + αk e1 ) − f (x0 ) − αk a1 | k→∞


−−−−→ 0
|αk |

f (x0 + αk e1 ) − f (x0 ) − αk a1 k→∞


⇒ −−−−→ 0
αk
f (x0 + αk e1 ) − f (x0 ) k→∞
⇒ −−−−→ a1
ak
⇒ f ist in x0 partiell differenzierbar nach x1 , und fx1 (x0 ) = a1
Analog andere Komponenten. ⇒ Behauptung.
(2) Setze

f (x0 + h) − f (x0 ) − a · h
%(h) :=
khk

(mit a aus Definition der Differenzierbarkeit)


Dann %(h) → 0 für h → 0 gemäß Definition.

216
21.2. Differenzierbarkeit und Stetigkeit

Also
h→0
f (x0 + h) = f (x0 ) + a · h + khk · %(h) −−−→ f (x0 )
|{z} | {z }
→0 h→0
−−−→0
⇒ f stetig in x0


Definition 21.18. Sei f differenzierbar in x0 und a der (eindeutige) Vektor mit der Eigenschaft in der
Definition der Differenzierbarkeit (21.15).
Dann heißt

a =: f 0 (x0 ) (∈ Rn )

Ableitung von f in x0 .

Es gilt also nach Satz 21.17:


f differenzierbar in x0 ⇒ f partiell differenzierbar in x0 und

f 0 (x0 ) = (grad f )(x0 )

Achtung:
(
xy
x2 +y 2 (x, y) 6= (0, 0)
f (x, y) :=
0 (x, y) = (0, 0)

ist partiell differenzierbar auf ganz R2 , aber nicht stetig in (0, 0), also nach 21.17 auch nicht differen-
zierbar in (0, 0).
Beispiel 21.19. f (x, y) = x · y

⇒ (grad f )(x, y) = (y, x)

Sei (x, y) ∈ R2 , h = (h1 , h2 ) ∈ R2 \ {(0, 0)}



f (x, y) + (h1 , h2 ) − f (x, y) − (grad f )(x, y) · h

k(h1 , h2 )k
(x + h1 )(y + h2 ) − xy − (yh1 + xh2 )
= p
h21 + h22
h1 h2
=p 2
h1 + h22
1 2 2

h1 h2 |h1 h2 | 2 h1 + h2 1
q
h→0
⇒ p 2 = p ≤ p = h21 + h22 −−−→ 0
h1 + h22 h21 + h22 h21 + h22 2
⇒ f ist in (x, y) differenzierbar und f 0 (x, y) = (y, x).

Satz 21.20. f sei auf D partiell differenzierbar und die partiellen Ableitungen fx1 , . . . , fxn : D → R
seien stetig in x0 ∈ D.
Dann ist f auch in x0 differenzierbar.

(ohne Beweis)

217
21. Differentialrechnung im Rn

Definition 21.21. f heißt differenzierbar auf D, wenn f in jedem x0 ∈ D differenzierbar ist.

Korollar 21.22. f ∈ C 1 (D, R) ⇒ f ist in jedem x0 ∈ D differenzierbar.

Definition 21.23. Sei m ∈ N. f heißt m-mal stetig differenzierbar, wenn f ∈ C m (D, R).

Definition 21.24. Sei I ⊂ R ein Intervall und g : I → Rn eine Funktion, also g(t) = g1 (t), . . . , gn (t)


(für t ∈ I) mit gj : I → R (für j = 1, . . . , n).

in t0 ∈ I differenzierbar in t0 differenzierbar
g heißt auf I differenzierbar :⇔ ∀j ∈ {1, . . . , n} gj auf I differenzierbar
auf I stetig differenzierbar auf I stetig differenzierbar

In diesem Fall: g 0 (t0 ) := g10 (t0 ), . . . , gn0 (t0 )




Beispiel 21.25.

(1) g(t) := (cos t, sin t)

⇒ g 0 (t) = (− sin t, cos t)

(2) g(t) := a + t(b − a) für t ∈ [0, 1]; a, b ∈ Rn fest

⇒ g 0 (t) = (b1 − a1 , b2 − a2 , . . .) = b − a

Satz 21.26 (Kettenregel, spezielle Form). Sei I ⊂ R Intervall, g : I → Rn sei differenzierbar in t0 ∈ I;


ferner gelte g(I) ⊂ D. f : D → R sei differenzierbar in x0 := g(t0 ).
Dann ist f ◦ g : I → R differenzierbar in t0 , und

(f ◦ g)0 (t0 ) = f 0 g(t0 ) · g 0 (t0 )




= (grad f ) g(t0 ) · g10 (t0 ), . . . , gn0 (t0 )


 

Xn
fxj g(t0 ) · gj0 (t0 )

=
j=1

Beweis in allgemeinerer Form in Satz 22.8.

Satz 21.27. Sind f, h : D → R in x0 ∈ D differenzierbar, so ist auch αf + βh in x0 differenzierbar


(α, β ∈ R), und
0
(αf + βh) (x0 ) = αf 0 (x0 ) + βh0 (x0 )

(Beweis selbst)

Definition 21.28.

218
21.2. Differenzierbarkeit und Stetigkeit

(1) Seien a, b ∈ Rn

S[a, b] := a + t(b − a) : t ∈ [0, 1]

heißt Verbindungsstrecke von a und b.


(2) M ⊂ Rn heißt konvex, wenn gilt:

∀a, b ∈ M S[a, b] ⊂ M

(vgl. Abb. 21.1)


(3) Seien x0 , . . . , xm ∈ Rn ;
m
[
S [x0 , . . . , xm ] := S [xj−1 , xj ]
j=1

heißt Streckenzug durch x0 , . . . , xm . (vgl. Abb. 21.2)


(4) G ⊂ Rn heißt Gebiet, wenn gilt
i) G ist offen
ii) ∀a, b ∈ G ∃x0 , . . . , xm ∈ G x0 = a, xm = b S [x0 , . . . , xm ] ⊂ G
(vgl. Abb. 21.3)

...........................................
...........
M konvex rb
........
....
....
.....
....
...
..
... .. ... ..
................. ......................... ..
....... ...
rb
..... ..
..... .... .. .
..... ... .. ..
.
...
. ..... . ..
... ........ .. .. .
..... ........
. .
..
.
.. ..
r . ... .. .
.
... ....... .. ... .
.... ....
. ... .. ...
......
a ..
..
... ....
.......... .
.............. .........................
...
...
..... ..
.....
....
ra .
.....
.. ......
....

...................................... M nicht konvex

Abbildung 21.1.: Konvexe und nicht konvexe Mengen

x1 x
p p p p pppp s
p
x4 ppppppppppppppppppp pppppppppppppppppppppppppps5
s
p p p p p p
p
pppppp p pp p
p pp
p p p p pppp p p p p p p
p
x0spp ppppppp p p p pp p
p
pp pp pp
p
sp pppppppppppppppppppppppppppppppppppppppppp ppxppps
x2 3

Abbildung 21.2.: Streckenzug

Satz 21.29 (Mittelwertsatz). f : D → R sei differenzierbar auf D. Es seien a, b ∈ D mit S[a, b] ⊂ D.


Dann existiert ein ξ ∈ S[a, b] mit

f (b) − f (a) = f 0 (ξ) · (b − a)

Beweis: Setze g(t) := a + t(b − a) für t ∈ [0, 1]. Dann g ([0, 1]) = S[a, b] ⊂ D. Setze φ(t) :=

219
21. Differentialrechnung im Rn

....... ..................
...........
.....
......
Gebiet
as
....
... .... ..................... ...............
..........
..
...
.............
.............
... s ...
...
.....
....
...
.....
....
.....
.......
....... ..
...
.

sb
.............. ........ ... .. ...
....
a s
........ .. .. ... ..
.
.... ...
. ..
..
.
..... . ........
...
.......
... .. .....
s
...
..
... ... .. .....
..... ....
.
.......
...........................
... .. ......
....... ........
.
.. ...
..
..
...
b .
.
...
.
........
kein Gebiet
... ......
............

Abbildung 21.3.: Gebiet

f (g(t)).

Nach Kettenregel: φ differenzierbar auf [0, 1] und

φ0 (t) = f 0 (g(t)) · g 0 (t) = f 0 a + t(b − a) · (b − a)




⇒ f (b) − f (a) = f g(1)) − f (g(0) = φ(1) − φ(0) = φ0 (η) · (1 − 0) = φ0 (η)



η ∈ [0, 1]
MWS
= f 0 a + η(b − a) · (b − a)

| {z }
=:ξ∈S[a,b]

Korollar 21.30. Sei G ⊂ Rn ein Gebiet, und f, g : G → R seien differenzierbar auf G.


(1) f ist konstant auf G ⇔ ∀x ∈ G f 0 (x) = 0
(2) f 0 = g 0 auf G ⇔ ∃c ∈ R f = g + c

Beweis:

(1) ⇐“ Seien a, b ∈ G. Da G Gebiet, existieren x0 , . . . , xm ∈ G, x0 = a, xm = b, S [x0 , . . . , xm ] ⊂ G.



Sei j ∈ {1, . . . , m}.

Nach dem Mittelwertsatz 21.29 existiert ein ξj ∈ S[xj−1 , xj ] mit

f (xj ) − f (xj−1 ) = f 0 (ξj ) · xj − xj−1 = 0



| {z }
=0

⇒ f (xj ) = f (xj−1 )

⇒ f (a) = f (x0 ) = f (x1 ) = f (x2 ) = · · · = f (xm ) = f (b)

⇒ f konstant

⇒“ ist trivial.

(2) ⇒“: h := f − g ⇒ h0 = 0 auf G

⇒ h konstant ⇒ Behauptung.
(1)

⇐“ ist trivial.



220
21.3. Die Richtungsableitung

21.3. Die Richtungsableitung


Jedes a ∈ Rn mit kak = 1 heißt auch Richtungsvektor oder Richtung.

Definition 21.31. Sei a ∈ Rn , kak = 1, und sei x0 ∈ D. Da D offen ist, existiert ein δ > 0 mit
x0 + ta ∈ D für alle t ∈ R mit |t| < δ.
Setze g(t) := f (x0 + ta) für −δ < t < δ.
f heißt in x0 in Richtung a differenzierbar, wenn der Grenzwert

f (x0 + ta) − f (x0 )


lim existiert.
t→0 t
g(t) − g(0)
 
= lim
t→0 t−0
In diesem Fall heißt
∂f f (x0 + ta) − f (x0 )
(x0 ) := lim
∂a t→0 t
Richtungsableitung von f in x0 in Richtung a. (siehe Abb. 21.4)

Abbildung 21.4.: Richtungsableitung

Beachte: Ist a = ej , so gilt


∂f ∂f 
(x0 ) = (x0 ) = fxj (x0 ) ,
∂a ∂xj
Existenz vorausgesetzt.
Beispiel 21.32.
(1) f (x, y) := x2 y + 1, x0 = (0, 0), a = √12 (1, 1)
 "  2  ! #
f (0, 0) + ta − f (0, 0) t2 t→0

1 t t
= √ · √ + 1 − 1 = √ −−−→ 0
t t 2 2 2 2

221
21. Differentialrechnung im Rn

√1 (1, 1) ∂f
D.h. f ist in (0, 0) in Richtung a = 2
differenzierbar und ∂a (0, 0) = 0.
(
xy
2 2 (x, y) 6= (0, 0)
(2) f (x, y) := x +y
0 (x, y) = (0, 0)

Sei a ∈ R2 mit kak = 1, also a = (a1 , a2 ) mit a21 + a22 = 1.



f (0, 0) + ta − f (0, 0) f (ta) 1 (ta1 ) · (ta2 ) 1
= = · 2 2
= · a1 a2
t t t (ta1 ) + (ta2 ) t
∂f

Also: ∂a (0, 0) existiert ⇔ a1 a2 = 0 ⇔ a ∈ (1, 0), (−1, 0), (0, 1), (0, −1)

Beispiel 21.33.
xy 2
(
x2 +y 4 (x, y) 6= (0, 0)
f (x, y) :=
0 (x, y) = (0, 0)

Behauptung:
∂f
(1) ∂a (0, 0) existiert für jede Richtung a ∈ R2 , kak = 1
(2) f ist in (0, 0) nicht stetig, also insbesondere nicht differenzierbar.
Beweis:
(1) Sei a ∈ R2 , a = (a1 , a2 ), a21 + a22 = 1.

a2
 (
f (0, 0) + ta − f (0, 0) f (ta) 1 (ta1 )(ta2 )2 a1 a22 → a12 a1 6= 0
= = · =
t t t (ta1 )2 + (ta2 )4 a1 + t2 a42
2
= 0 (→ 0) a1 = 0

a2
(
∂f → a12 a1 6= 0
⇒ ∂a (0, 0) existiert und ist = .
= 0 (→ 0) a1 = 0

(2) f (x, 0) = 0 → 0 = f (0, 0) für x → 0



f (x, x) = 12 6→ 0 für x → 0


Bemerkung 21.34.
 
f x0 + t(−a) − f (x0 ) f x0 + (−t)a − f (x0 ) t→0 ∂f ∂f
=− −−−→ − (x0 ), falls (x0 ) existiert.
t −t ∂a ∂a
In diesem Fall also
∂f ∂f
(x0 ) = − (x0 )
∂(−a) ∂a

Satz 21.35. Sei f differenzierbar in x0 ∈ D.


∂f
(1) Für jedes a ∈ Rn mit kak = 1 existiert ∂a (x0 ), und

∂f
(x0 ) = (grad f )(x0 ) · a
∂a

222
21.4. Der Satz von Taylor

(grad f )(x0 )
(2) Sei (grad f )(x0 ) 6= 0 und a0 := k(grad f )(x0 )k (⇒ ka0 k = 1).
Dann gilt:
∂f ∂f ∂f
∀ a∈Rn (x0 ) < (x0 ) < (x0 )
kak=1 ∂(−a) ∂a ∂a0
a6=a0
a6=−a0

Der Gradient zeigt in Richtung des steilsten Anstieges von f im Punkt x0 .“


Bemerkung zu (1): Sei f wie in 21.33.

grad f (0, 0) = (0, 0) = grad f (0, 0) · a ∀a ∈ R2

√1 (1, 1) ∂f √1
Aber für a = 2
gilt ∂a (0, 0) = 2
6= grad f (0, 0) · a

Beweis:
(1) Sei a ∈ Rn , kak = 1. Dann existiert ein δ > 0 mit x0 + ta ∈ D für |t| < δ. Setze g(t) := f (x0 + ta)
für |t| < δ.
Dann gilt nach der Kettenregel :
g differenzierbar in 0, und g 0 (0) = f 0 (x0 ) · a = grad f (x0 ) · a.
Also nach Definition der Richtungsableitung:
∂f
∂a (x0 ) existiert und = g 0 (0) = grad f (x0 ) · a.
(2) Sei a ∈ Rn , kak = 1, a 6= ±a0 . Dann

∂f
(x0 ) = grad f (x0 ) · a ≤ grad f (x0 ) · kak
∂a (1) (*) |{z}
=1

(*) Da grad f (x0 ) und a linear unabhänig sind (⇐ a 6= ±a0 ), gilt strenge Ungleichung.

∂f grad f (x0 ) ∂f
⇒ (x0 ) < grad f (x0 ) = grad f (x0 ) · = grad f (x0 ) · a0 = (x0 )
∂a k grad f (x0 )k (1) ∂a0

21.4. Der Satz von Taylor

Im folgenden sei f ∈ C p+1 (D, R). Führe folgenden Formalismus ein:


 
∂ ∂
∇ := , ..., symbolischer Vektor, Nabla–Operator“
∂x1 ∂xn ”
 
∂f ∂f
∇f (x0 ) := (x0 ), . . . , (x0 ) = (grad f )(x0 )
∂x1 ∂xn
Sei h = (h1 , . . . , hn ) ∈ Rn .

∂ ∂ ∂
h · ∇ := h1 + h2 + · · · + hn
∂x1 ∂x2 ∂xn

223
21. Differentialrechnung im Rn

 ∂f ∂f
(h · ∇) f (x0 ) := h1 (x0 ) + · · · + hn (x0 )
∂x1 ∂xn
   
2 ∂ ∂ ∂ ∂
(h · ∇) := h1 + · · · + hn · h1 + · · · + hn
∂x1 ∂xn ∂x1 ∂xn
n

2
 X ∂2f
(h · ∇) f (x0 ) := hi hj (x0 )
i,j=1
∂xi ∂xj
     
3 ∂ ∂ ∂ ∂ ∂ ∂
(h · ∇) := h1 + · · · + hn · h1 + · · · + hn · h1 + · · · + hn
∂x1 ∂xn ∂x1 ∂xn ∂x1 ∂xn
n

3
 X ∂3f
(h · ∇) f (x0 ) := hi hj hk (x0 )
∂xi ∂xj ∂xk
i,j,k=1

Entsprechend allgemein:
k
(h · ∇) für k ∈ {1, . . . , p + 1}

n

k
 X ∂kf
(h · ∇) f (x0 ) := hi1 · hi2 · · · hik (x0 )
i1 ,...,ik =1
∂xi1 ∂xi2 · · · ∂xik

Satz 21.36 (Satz von Taylor). Sei f ∈ C p+1 (D, R), x0 ∈ D und h ∈ Rn so, dass S [x0 , x0 + h] ∈ D.
Dann existiert ein ξ ∈ S [x0 , x0 + h] mit

1  1  2

f (x0 + h) = f (x0 ) + (h · ∇) f (x0 ) + (h · ∇) f (x0 )
1! 2!
1 p  1 
p+1

+ ··· + (h · ∇) f (x0 ) + (h · ∇) f (ξ)
p! (p + 1)!
| {z }
=:R(x0 ,h)

Weiter gilt für das Restglied“



Z1
1 h
p+1
i
R(x0 , h) = (1 − s)p (h · ∇) f (x0 + sh) ds
p!
0

Beweis: Rückführen auf 1-dimensionalen Taylorschen Satz mittels g(t) := f (x0 +


th). 

Spezialfall p = 1, also f ∈ C 2 (D, R).

Definition 21.37.
(1) Sei
 
a11 ··· a1n
 .. .. .. 
A :=  . . . 
an1 ··· ann

224
21.4. Der Satz von Taylor

eine relle n × n-Matrix. Die Abbildung x 7→ (Ax) · x heißt die zu A gehörende quadratische Form.
Ist x = (x1 , . . . , xn ), dann gilt für die quadratische Form von x:
n
X
x 7→ (Ax) · x = aij xi xj
i,j=1

(2) Für x ∈ D setze


 
fx1 x1 (x) ··· fx1 xn (x)
Hf (x) := 
 .. .. .. 
. . . 
fxn x1 (x) · · · fxn xn (x)

Diese Matrix heißt Hesse–Matrix von f im Punkt x.

Da nach dem Satz von Schwarz (21.12) und f ∈ C 2 (D, R) gilt fxj xk = fxk xj , ist Hf (x) eine symme-
trische n × n–Matrix.
Für h ∈ Rn und x0 ∈ D gilt also
  n
2
X
(h · ∇) f (x0 ) = hi hj · fxi xj (x0 ) = ((Hf (x0 )) h) · h
i,j=1
| {z }
(Hf (x0 ))ij

Definition 21.38. Sei A symmetrische n × n–Matrix.

positiv definit >0


A :⇔ ∀x ∈ Rn \ {0} (Ax) · x
negativ definit <0

A indefinit :⇔ ∃x, y ∈ Rn \ {0} (Ax) · x > 0, (Ay) · y < 0

Achtung: Es gibt Matrizen, die weder positiv/negativ definit noch indefinit sind, z.B. die Nullma-
trix.

Satz 21.39. A sei symmetrische n × n-Matrix. Dann gilt:


positiv definit >0
(1) A ist ⇔ Alle Eigenwerte von A sind .
negativ definit <0
(2) A ist indefinit ⇔ Es gibt Eigenwerte λ, µ von A mit λ > 0, µ < 0.
(3) Sei n = 2, also
 
a11 a12
A= (mit a21 = a12 )
a21 a22

Dann gilt:
h i
A positiv definit ⇔ det A > 0 und a11 > 0
h i
A negativ definit ⇔ det A > 0 und a11 < 0

A indefinit ⇔ det A < 0

Beweis: siehe Lineare Algebra 

225
21. Differentialrechnung im Rn

Maximum
Definition 21.40. f : D → R hat in x0 ∈ D ein lokales
Minimum

f (x) ≤ f (x0 )
:⇔ ∃δ > 0 ∀x ∈ Uδ (x0 )
f (x) ≥ f (x0 )

f hat in x0 ein lokales Extremum :⇔ f hat in x0 ein lokales Maximum oder ein lokales Minimum.

Satz 21.41. f : D → R sei in x0 ∈ D partiell differenzierbar und habe in x0 ein lokales Extremum.
Dann gilt:

grad f (x0 ) = 0

Beweis: f habe in x0 ein lokales Maximum, also existiert ein δ > 0 mit Uδ (x0 ) ⊂ D
und
∀x ∈ Uδ (x0 ) f (x) ≤ f (x0 )
Somit: x0 + te1 ∈ Uδ (x0 ) für alle t ∈ R, |t| < δ, also
∀|t| < δ f (x0 + te1 ) ≤ f (x0 )
D.h.
g : (−δ, δ) → R, t 7→ g(t) := f (x0 + te1 )
hat in t = 0 ein lokales Maximum.
f (x0 + te1 ) − f (x0 ) ∂f
⇒ 0 = g 0 (0) = lim = (x0 )
9.15 t→0 t ∂x1
∂f
Analog: ∂xj (x0 ) = 0 ∀j ∈ {2, . . . n}, analog lokales Minimum. 
∂f
Bemerkung 21.42. Ist a ∈ Rn , kak = 1, und existiert ∂a (x0 ), so folgt aus den Voraussetzungen des
Satzes 21.41 auch ∂f
∂a (x0 ) = 0.

Satz 21.43. Es sei f ∈ C 2 (D, R), x0 ∈ D, (grad f )(x0 ) = 0. Dann gilt:


(1) Ist Hf (x0 ) positiv definit, so hat f in x0 ein lokales Minimum.
(2) Ist Hf (x0 ) negativ definit, so hat f in x0 ein lokales Maximum.
(3) Ist Hf (x0 ) indefinit, so hat f in x0 kein lokales Extremum. (vgl. Abb. 21.5)
positiv definit
(4) Ist Hf (x0 ) , dann gilt:
negativ definit

positiv definit
∃δ > 0 Uδ (x0 ) ⊂ D und ∀ξ ∈ Uδ (x0 ) Hf (ξ) ist
negativ definit

(5) Ist Hf (x0 ) indefinit, dann gilt:

∃x, y ∈ Rn , δ > 0 ∀ξ ∈ Uδ (x0 ) ((Hf (ξ)) x) · x > 0 und ((Hf (ξ)) y) · y < 0

(x und y sind für die gesamte Umgebung gleich.)

226
21.4. Der Satz von Taylor

Abbildung 21.5.: Sattelfläche ohne Extremum in (0, 0) trotz (grad f )(0, 0) = 0

Beweis:

(1) Sei Hf (x0 ) positiv definit.


 
2
⇒ ∀h ∈ Rn \ {0} (h · ∇) f (x0 ) = ((Hf (x0 ))h) · h > 0

Da f ∈ C 2 (D, R), existiert ein δ > 0 mit


 
2
∀x ∈ Uδ (x0 ) (h · ∇) f (x) > 0

Sei x ∈ Uδ (x0 ), x 6= x0 , h := x − x0 , also x = x0 + h, h =


6 0 und sei außerdem khk < δ. Dann gilt
nach dem Taylorschen Satz 21.36 (beachte x ∈ Uδ (x0 ), S[x0 , x] ⊂ Uδ (x0 ) ⊂ D; vgl. Abb. 21.6):

f (x) = f (x0 ) + (h · ∇) f (x0 ) + R(x0 , h)

mit

Z1
1 h
2
i
R(a, h) = (1 − s) (h · ∇) f (x0 + sh) ds > 0
2 | {z }
0 ∈Uδ (x0 )
| {z }
>0

⇒ f (x) > f (x0 )

⇒ f hat in x0 ein lokales Minimum. (wegen x ∈ Uδ (x0 ) beliebig)

(2) analog.

(3) hier weggelassen. (Idee: Wähle h als Eigenvektor, je einen größer und kleiner 0.)

(4) (ohne Beweis)

(5) (ohne Beweis)

227
21. Differentialrechnung im Rn

.......................
....... .........................................
...... ........ ...... ......
..... ...... ..... .....
.... .......
..
..
.... ...
U (x ) δ 0 ....... ............
. ..
... ...

...
..
..
.
.
.. ...
.....
...
x . ...
...
0
...
...
..
....
.
....
...
..
..
.
..
..
..
...
...
..
...
...
...
...
.....
......
........
x . ...
...
.
.
.....
.
.
..
.
.

..... ........
.............................................
..
.
......
..
........
...
..

.
..........
D ..
... ................
...........
.. ....... .

Abbildung 21.6.: Skizze zum Beweis des Satzes 21.43

Beispiel 21.44. D = R2 , f (x, y) := x3 − 12xy + 8y 3 .

fx = 3x2 − 12y, fy = −12x + 24y 2


fxx = 6x, fyy = 48y
fxy = −12

⇒ grad f = 3x2 − 12y, −12x + 24y 2 ,



 
6x −12
Hf =
−12 48y
Also

(grad f )(x, y) = (0, 0) ⇔ x2 = 4y und − x + 2y 2 = 0

x2
⇔ y= und x = 2y 2
4
 2 2
x2 x x4
⇔ y= und x = 2 =
4 4 8
| {z }
x=0 oder x=2

⇔ (x, y) = (0, 0) oder (x, y) = (2, 1)


(zwei Kandidaten für relative Extrema; andere gibt es sicher nicht nach 21.41)
 
0 −12
Hf (0, 0) = ; det Hf (0, 0) = −144 < 0
−12 0

⇒ Hf (0, 0) indefinit ⇒ f hat in (0, 0) kein lokales Extremum.


21.43
 
12 −12
Hf (2, 1) = ; det Hf (2, 1) = 12 · 48 − 12 · 12 > 0
−12 48 | {z }
Hf (2,1) pos. definit

⇒ f hat in (2, 1) lokales Minimum.


21.43

228
22. Differentialrechnung für vektorwertige
Funktionen

22.1. Allgemeines
Stets in diesem Abschnitt D ⊂ Rn offen, f : (f1 , . . . , fm ) : D → Rm vektorwertige Funkti-
on.

Definition 22.1.
(1) f heißt auf D p-mal stetig differenzierbar (notiert als f ∈ C p (D, Rm )), wenn

∀j ∈ {1, . . . , m} fj : D → R

p-mal stetig differenzierbar ist (d.h. fj ∈ C p (D, R))


(2) Sei x0 ∈ D und fj sei partiell differenzierbar in x0 , es existiert also
 
∂fj ∂fj
(grad fj )(x0 ) = (x0 ), . . . , (x0 ) (j = 1, . . . , m)
∂x1 ∂xn

Setze dann:
∂f ∂(f1 , . . . , fm )
Jf (x0 ) := (x0 ) := (x0 )
∂x ∂(x1 , . . . , xn )
 
(grad f1 )(x0 )
:= 
 .. 
. 
(grad fm )(x0 )
 ∂f1 ∂f1
∂x1 (x0 ) ··· ∂xn (x0 )

=
 .
. .. .. 
. . . 
∂fm ∂fm
∂x1 (x0 ) · · · ∂xn (x0 )

Diese Matrix heißt Funktional– oder Jakobi-Matrix von f in x0 .


Im Fall m = n ist Jf (x0 ) quadratisch; die Determinante det Jf (x0 ) heißt dann Funktional– oder
Jakobi-Determinante.

Definition 22.2. f heißt in x0 differenzierbar, wenn eine m × n–Matrix A existiert mit


f (x0 + h) − f (x0 ) − Ah
lim =0 (22-i)
h→0 khk
f (x) − f (x0 ) − A(x − x0 )
⇔ lim =0
x→x0 kx − x0 k
kf (x) − f (x0 ) − A(x − x0 )k
⇔ lim =0
x→x0 kx − x0 k

229
22. Differentialrechnung für vektorwertige Funktionen

kf (x0 + h) − f (x0 ) − Ahk


⇔ lim =0
h→0 khk

Bemerkung 22.3.

(1) Im Fall m = 1 erhalten wir die alte Definition. Im Fall n = 1 auch.

(2) Ist A eine m × n–Matrix, so ist die Abbildung


 n
−→ Rm

R
h 7→ Ah

linear und somit stetig. Insbesondere gilt Ah → 0 für h → 0.

Satz 22.4. Sei x0 ∈ D.


(1) Sei f differenzierbar in x0 . Dann ist f stetig in x0 .
(2) f ist differenzierbar in x0 ⇔ ∀j ∈ {1, . . . , m} fj differenzierbar in x0 .
In diesem Fall ist die Matrix A in (22-i) eindeutig bestimmt, und es gilt

A = Jf (x0 )

Definition 22.5. Ist f differenzierbar in x0 , so heißt die Matrix A in (22-i) (eindeutig!) die (erste)
Ableitung von f in x0 und wird mit f 0 (x0 ) bezeichnet. Es gilt dann nach dem Satz
 
0 ∂f
f (x0 ) = Jf (x0 ) = (x0 )
∂x

Beweis:

(1) Wie im Fall m = 1. (siehe 21.17 (2))

(2)

⇒“ Sei A eine m × n–Matrix, für die (22-i) gilt. A = (ajk ), %(h) := f (x0 + h) − f (x0 ) − Ah für

h ∈ Rn .

Dann wegen Differenzierbarkeit:

%(h) h→0
−−−→ 0
khk

Sei % =: (%1 , . . . , %m ); dann gilt


n
X
%j (h) := fj (x0 + h) − fj (x0 ) − ajk hk
k=1

Setze aj := (aj1 , . . . , ajn ) (j-te Zeile von A).

⇒ %j (h) = fj (x0 + h) − fj (x0 ) − aj · h

230
22.1. Allgemeines

und nach Obigem:


%j (h) h→0
−−−→ 0
khk
⇒ fj in x0 differenzierbar, und aj = (grad fj )(x0 ). Dies gilt für alle j; daher
   
a1 grad f1 (x0 )
∂f
A =  ...  =  ..
 = Jf (x0 ) = (x0 )
   
. ∂x
am grad fm (x0 )

⇐“ Jedes fj sei in x0 differenzierbar.



⇒ ∀j ∈ {1, . . . , m} rj (h) := fj (x0 + h) − fj (x0 ) − (grad fj )(x0 ) · h
rj (h)
Dann ∀j khk → 0 für h → 0.
Setze
 
grad f1 (x0 )
∂f ..
r := (r1 , . . . , rm ), A := (x0 ) = 
 
∂x . 
grad fm (x0 )
∂f
⇒ r(h) = f (x0 + h) − f (x0 ) − (x0 ) · h
∂x
r(h)
und khk → 0 für h → 0
∂f
⇒ f differenzierbar in x0 , und f 0 (x0 ) = ∂x (x0 )


∂fj
Korollar 22.6. Existieren alle partiellen Ableitungen ∂xk auf D und sind stetig, so ist f auf D diffe-
renzierbar.

Beweis: 21.17 ⇒ alle fj differenzierbar auf D. 22.4 ⇒ f differenzierbar auf D.



Beispiel 22.7.
(1)
f (x, y) := x2 + y 2 , |ex+y

| {z } {z } , |{z}
xy
f1 (x,y) f2 (x,y) f3 (x,y)

Alle partiellen Ableitungen sind stetig auf R2 ⇒ f ist differenzierbar auf R2 , und
 
2x 2y
∂f
f 0 (x, y) = = Jf (x, y) = ex+y ex+y 
∂(x, y)
y x

(2) Sei f : Rn → Rm linear, also f (x) = Ax mit einer m × n-Matrix A.


Dann gilt für alle x0 ∈ Rn und h ∈ Rn :
f (x0 + h) − f (x0 ) − Ah = A(x0 + h) − A(x0 ) − Ah = 0
Insbesondere
f (x0 + h) − f (x0 ) − Ah h→0
= 0 −−−→ 0
khk
⇒ f differenzierbar in x0 , und f 0 (x0 ) = A.

231
22. Differentialrechnung für vektorwertige Funktionen

Satz 22.8 (Kettenregel). Sei D ⊂ Rn offen, E ⊂ Rm offen. f : D → Rm sei differenzierbar in x0 ∈ D.


Ferner gelte f (D) ⊂ E. g : E → Rp sei differenzierbar in y0 := f (x0 ).
Dann ist g ◦ f : D → Rp differenzierbar in x0 , und
0
g ◦ f (x0 ) = g 0 f (x0 ) · f 0 (x0 )


Beweis:
B := g 0 (y0 ) = g 0 f (x0 )

(p × m-Matrix)
A := f 0 (x0 ) (m × n-Matrix)
h := g ◦ f : D → Rp

h(x) − h(x0 ) − BA(x − x0 )


%(x) :=
kx − x0 k
(zeigen: %(x) → 0 für x → x0 ).
Dann führe Hilfsfunktion ein:

 g(y) − g(y0 ) − B(y − y0 )



6 y0
für y =
g̃(y) := ky − y0 k
0 für y = y0

Dann, da g differenzierbar in y0 und g 0 (y0 ) = B, ist g̃ stetig in y0 .


Ferner f stetig in x0 .
⇒ g̃ ◦ f stetig in x0
⇒ g̃(f (x)) → g̃(f (x0 )) = g̃(y0 ) = 0 für x → x0 .
Daher
 
h(x) − h(x0 ) = g f (x) − g f (x0 )
 
= B f (x) − f (x0 ) − f (x) − f (x0 ) · g̃ f (x)

B(f (x) − f (x0 )) + kf (x) − f (x0 )k · g̃(f (x)) − BA(x − x0 )


⇒ %(x) =
kx − x0 k
f (x) − f (x0 ) − A(x − x0 ) kf (x) − f (x0 )k
=B· + · g̃(f (x))
kx − x0 k kx − x0 k | {z }
x→x0
−−−−→
| {z }
x→x0 0
−−−−→ 0

kf (x)−f (x0 )k
Bleibt zu zeigen: kx−x0 k beschränkt für x in einer δ-Umgebung von x0 .

kf (x) − f (x0 )k kf (x) − f (x0 ) − A(x − x0 ) + A(x − x0 )k


=
kx − x0 k kx − x0 k
kf (x) − f (x0 ) − A(x − x0 )k kA(x − x0 )k
≤ +
kx − x0 k kx − x0 k
| {z } | {z }
x→x0 ≤kAk
−−−−→0

Wichtiger Spezialfall: p = 1, d.h. g reellwertig.

232
22.2. Implizit definierte Funktionen

Unter den Voraussetzungen des Satzes 22.8 gilt dann

(g ◦ f )0 (x0 ) = g 0 (f (x0 ) · f 0 (x0 )



| {z }
=grad(g◦f )(x0 )

∂  ∂g  ∂f1 ∂g  ∂f2
g ◦ f (x0 ) = f (x0 ) (x0 ) + f (x0 ) · (x0 )
∂x1 ∂y1 ∂x1 ∂y2 ∂x1
∂g  ∂fm
+ ··· + f (x0 ) · (x0 )
∂ym ∂x1
..
.
∂  ∂g  ∂f1 ∂g  ∂f2
g ◦ f (x0 ) = f (x0 ) (x0 ) + f (x0 ) · (x0 )
∂xn ∂y1 ∂xn ∂y2 ∂xn
∂g  ∂fm
+ ··· + f (x0 ) · (x0 )
∂ym ∂xn

22.2. Implizit definierte Funktionen

Motivation: Sei f (x, y) Funktion von 2 Variablen, f reellwertig.

Untersuchungsgegenstand: Gleichung f (x, y) = 0

Frage: Kann man die Gleichung f (x, y) = 0 . . .

– nach y auflösen (; y = y(x))

– eindeutig auflösen

– lokal“ eindeutig auflösen



Beispiel 22.9.

(1) f (x, y) = 2x2 + 3y ((x, y) ∈ R2 )

f (x, y) = 0 ⇔ y = − 23 x2

⇒ eindeutig nach y auflösbar (vgl. Abb. 22.1)

(2) f (x, y) = x2 + y 2 + 1

⇒ f (x, y) = 0 hat keine Lösung.

(3) f (x, y) = x2 − y 2 + 1
p
f (x, y) = 0 ⇔ y 2 = x2 + 1 ⇔ y = ± x2 + 1

auflösbar nach y, nicht eindeutig, wohl aber lokal“ eindeutig. (vgl. Abb. 22.2)

(4) f (x, y) = x2 − y 2

f (x, y) = 0 ⇔ y = ±x

in (0, 0) nicht lokal“ eindeutig auflösbar. (vgl. Abb. 22.3)


233
22. Differentialrechnung für vektorwertige Funktionen

Abbildung 22.1.: f (x, y) = 2x2 + 3y, y = − 32 x2


Abbildung 22.2.: f (x, y) = x2 − y 2 + 1, y = ± x2 + 1

Abbildung 22.3.: f (x, y) = x2 − y 2 , y = ±x (nicht lokal“ eindeutig auflösbar in (0, 0))


234
22.2. Implizit definierte Funktionen

Im folgenden sei D ⊂ Rn+p offen und f : D → Rp stetig differenzierbar.

Frage: Kann die Gleichung f (x, y) = 0 (mit (x, y) ∈ D, wobei x ∈ Rn , y ∈ Rp ) nach y aufgelöst
werden?

Bezeichnungen: für (x, y) ∈ D, x = (x1 , . . . , xn ), y = (y1 , . . . , yp ) (also (x, y) =


(x1 , . . . , xn , y1 , . . . , yp )):
 ∂f ∂f1 ∂f1 ∂f1

1
∂x1 ··· ∂xn ∂y1 ··· ∂yp
∂f  . .. .. .. .. .. 
= . . .
∂(x, y)  ∂f. . . . 

∂fp ∂fp ∂fp
p
∂x1 ··· ∂xn ∂y1 ··· ∂yp
 
∂f ∂f
=: ∂x ∂y

Also
   ∂f ∂f1

∂f1 ∂f1 1
···
∂x1 ··· ∂xn ∂y1 ∂yp
∂f  . .. ..  ∂f  . .. .. 
 ..
:=  . . ,  ..
:=  . . 
 
∂x ∂f ∂fp
∂y ∂f ∂fp
p
∂x1 ··· ∂xn ∂y1
p
··· ∂yp

Sei nun (x0 , y0 ) ∈ D mit f (x0 , y0 ) = 0.

Frage: Gibt es eine Umgebung U ⊂ Rn von x0 und eine Umgebung V ⊂ Rp von y0 und eine Funktion
g : U → V mit g(x0 ) = y0 und f (x, g(x)) = 0 für alle x ∈ U ?

(Man sagt dann: Durch die Gleichung f (x, y) = 0 ist implizit die Funktion y = g(x) defi-
niert)

Satz 22.10 (Satz über implizit definierte Funktionen). D ⊂ Rn+p offen, f : D → Rp stetig differenzier-
bar auf D. Es sei (x0 , y0 ) ∈ D mit f (x0 , y0 ) = 0. Es gelte:

∂f
(x0 , y0 ) sei invertierbar
∂y
Dann gibt es eine offene Umgebung U ⊂ Rn von x0 , eine offene Umgebung V ⊂ Rp von y0 mit U ×V ⊂ D
und genau eine Funktion g : U → V mit folgenden Eigenschaften:
(1) g(x0 ) = y0 , ∀x ∈ U f (x, g(x)) = 0
 
(2) ∀x∈U f (x, y) = 0 ⇒ y = g(x)
y∈V

Weiter gilt für dieses g:


∂f
(3) g ist auf U stetig differenzierbar, und ∂y (x, g(x)) ist invertierbar für alle x ∈ U und es gilt
 −1
0 ∂f  ∂f 
∀x ∈ U g (x) = − x, g(x) · x, g(x)
∂y ∂x

(siehe auch Abb. 22.4)

(ohne Beweis)

Dabei (Nachtrag):

235
22. Differentialrechnung für vektorwertige Funktionen

.....
Rp ....
...........
..............
..................................................................................
...........
.........
............ ........
.......
... ............... ............................ .......
...........
... .....
.
..........
.. .... ..............
........
.......
......
......
..... D
..... ........
.....
. .. ..
.
.....
....
.
.. ...
. . ... ...
....
.
.
..
.
.
....
..
y = g(x) ............ . .
... ....
. .. ...
...
.... . ..
...
...
..
..
..
... ...
......
s
. ...
... ... .
.
..... ........ ..... ..... ..... ........ ..... ..... ..... ..... ..... ..... ..... ........... ...
V y0 ...
... .
..
.
.
...
... .... ...
..
... .
. .
... .. ..
.
. ...... .
.
...
... ..... .......... .
. ..
.
... ...
..... ...
..... .. .... .... ...
...
..... .... ... ....
..... . ... ... .....
........ ... .
........
....... ..
... ............................... ......
....... .... ......
........ .......
...................................
.... .. ........
......... ........
...........
................ .......... ............................
.
................................................................ . . ..
. .
. ......
.... ......
......
......
... {(x, y) : f (x, y) = 0}
.... ...........
..
n
x0 R
..... ....
.... ....

Abbildung 22.4.: Lokale Eindeutigkeit und Invertierbarkeit

Definition 22.11. U ⊂ Rn heißt Umgebung von x0 ∈ Rn , wenn x0 innerer Punkt von U ist.

⇔ ∃δ > 0 Uδ (x0 ) ⊂ U

Beispiel 22.12.
(1) D = R2 = R1+1 (d.h. n = p = 1), f (x, y) := x2 − y 2 + 1
∂f ∂f
Dann: ∂x (x, y) = 2x, ∂y (x, y) = −2y. (vgl. Abb. 22.2)
∂f ∂f
(x0 , y0 ) := (0, 1); dann ∂y (x0 , y0 ) = −2 6= 0, d.h. die 1 × 1–Matrix ∂y (x0 , y0 ) ist invertierbar.
22.10 ⇒ Es existieren Umgebungen U von x0 = 0 und V von y0 = 1 und g : U → V mit

f x, g(x) = 0 für alle x ∈ U

(In diesem Beispiel sehen wir, dass etwa U := R, V := (0, ∞) gewählt werden kann; der Satz gibt
dies nicht her.)
Nach (3) gilt ferner:

 −1 ∂f
 
0 ∂f  x
g (x) = − x, g(x) · x, g(x) =
∂y ∂x
| {z } g(x)
| {z }
=−2g(x) =2x

In diesem Beispiel wissen wir (aber nicht aus dem Satz):


p
g(x) = x2 + 1

2x x
⇒ g 0 (x) = √ = wie vom Satz behauptet
2
2 x +1 g(x)

(2) D = R2 = R1+1 (d.h. n = p = 1), f (x, y) := y + xy 2 − exy


Nun ist keine geschlossene formelmäßige Auflösung von f (x, y) = 0 nach y möglich.

236
22.2. Implizit definierte Funktionen

Etwa (x0 , y0 ) := (0, 1), also f (x0 , y0 ) = 0

∂f ∂f
(x, y) = y 2 − yexy , (x, y) = 1 + 2xy − xexy
∂x ∂y

∂f
⇒ (x0 , y0 ) = 1 6= 0
∂y
22.10 ⇒ Es gibt Umgebungen U von x0 = 0 und V von y0 = 1 und genau ein g : U → V mit

∀x ∈ U f x, g(x) = 0 und g(0) = 1

und . . .
Also:

∀x ∈ U g(x) + xg(x)2 − exg(x) = 0

Ferner
 −1
0 ∂f  ∂f 
∀x ∈ U g (x) = − x, g(x) · x, g(x)
∂y ∂x
g(x)exg(x) − g(x)2
=
1 + 2xg(x) − xexg(x)

⇒ Insbesondere g 0 (0) = 1

Satz 22.13 (lokaler Umkehrsatz). D ⊂ Rn sei offen, f : D → Rn sei stetig differenzierbar, x0 ∈ D.


f 0 (x0 ) sei invertierbar.
Dann existiert eine offene Umgebung U (x0 ) mit:
(1) f (U ) ist offen.
(2) f ist injektiv, ∀x ∈ U f 0 (x) invertierbar
U
−1
(3) f U : f (U ) → U ist stetig differenzierbar, und
 −1 0 h  −1 i−1
f U
(y) = f 0 f U
(y) für alle y ∈ f (U )

Beweis: Setze F (y, x) := y − f (x) ∀(x, y) ∈ D × Rn (vertauschte Rollen von x und


y)
Will die Gleichung F (y, x) = 0 lokal eindeutig nach x auflösen.
Mit y0 := f (x0 ) gilt in der Tat F (y0 , x0 ) = 0; ferner

∂F
(x0 , y0 ) = −f 0 (x0 ) invertierbar
∂x
Nach 22.10: Es gibt Umgebungen V von y0 und U 0 von x0 und genau ein g : V → U0
mit

∀y ∈ V F y, g(y) = 0 sowie g(y0 ) = x0 und . . .
 −1
⇒ ∀y ∈ V f g(y) = y ⇒ g= f U0

237
22. Differentialrechnung für vektorwertige Funktionen

Ferner nach 22.10


 −1
∂F ∂F
∀y ∈ V g 0 (y) = − (y, g(y)) · (y, g(y))
∂x ∂y
| {z } | {z }
=−f 0 (g(y)) =I
h  −1 i−1
= f0 f U0
(y)

Schließlich U := g(V ) ⊂ U 0 , dann f (U ) = V offen.


Ferner
−1
U = f U0 (V ) offen
| {z } |{z}
stetig offen

Definition 22.14. f lokal injektiv auf D

:⇔ ∀x ∈ D ∃U ⊂ D Umgebung von x : f U
injektiv

Beispiel 22.15.
(1) D := R2 , f (x, y) := (x cos y, x sin y)
 
cos y −x sin y
⇒ f 0 (x, y) =
sin y x cos y
⇒ det f 0 (x, y) = x
Etwa für (x0 , y0 ) := 1, π2 gilt det f 0 (x0 , y0 ) = 1 6= 0 ⇒ f 0 (x0 , y0 ) invertierbar.


22.13 ⇒ Es existiert eine offene Umgebung U ⊂ R2 von (1, π2 ) mit


f : U → f (U ) bijektiv, f (U ) offen,
−1
f U : f (U ) → U stetig differenzierbar,
 −1 0 h  −1 i−1
f U (y) = f 0 f U (y) für y ∈ f (U )
| {z }
π
=(1, 2 )

Insbesondere:
 −1 0  h  −1 i−1
f U f 1, π2 = f 0 f U
f 1, π2
| {z }
=(0,1)
 −1  
0 −1 0 1
= =
1 0 −1 0

(2) D = R2 , f (x, y) = (ex cos y, ex sin y)


 x
e cos y −ex sin y

0
⇒ f (x, y) =
ex sin y ex cos y
⇒ det f 0 (x, y) = ex 6= 0 für alle (x, y) ∈ R2
22.13 ⇒ f ist auf R2 lokal injektiv.
Aber: f ist nicht injektiv, denn etwa
f (x, y) = f (x, y + 2π) für alle (x, y) ⊂ R2

238
22.3. Extremwertprobleme mit Nebenbedingungen

Korollar 22.16. D ⊂ Rn offen, f ∈ C 1 (D, Rn ), es gelte ∀x ∈ D f 0 (x) invertierbar. (22.13 ⇒ f lokal


injektiv)
Dann: f (D) ⊂ Rn offen.

Beweis selbst.

22.3. Extremwertprobleme mit Nebenbedingungen


Beispiel 22.17. Gesucht ist dasjenige Rechteck, das unter allen Rechtecken mit Umfang 4 den größten
Flächeninhalt hat. Es ist also die Funktion
f (x, y) = x · y (Flächeninhalt)
zu maximieren unter der Nebenbedingung
h(x, y) := 2(x + y) = 4
[Lösung: h(x, y) = 4 ⇒ y = 2 − x; also ist f (x, y) = x(2 − x) zu maximieren ohne Nebenbedingung.
⇒ x = 1 ⇒ y = 2 − x = 1 =⇒ Quadrat]

Definition 22.18.
Sei D ⊂ Rn offen, p ∈ N, p < n. f ∈ C 1 (D, R), h ∈ C 1 (D, Rp ), T := {x ∈ D : h(x) = 0}
Maximum
Wir sagen, dass f in x0 ∈ D ein lokales unter der Nebenbedingung h = 0 hat, wenn x0 ∈ T
Minimum
und
f (x) ≤ f (x0 )
∃δ > 0 ∀x ∈ Uδ (x0 ) ∩ T
f (x) ≥ f (x0 )

Satz 22.19 (Lagrangesche Multiplikatorenregel). D, f, p, h, T seien wie in obiger Definition. Es sei


ferner h =: (h1 , . . . , hp ).
Falls f in x0 ∈ D ein lokales Maximum oder Minimum unter der Nebenbedingung h = 0 hat und falls

rg h0 (x0 ) = p,
| {z }
p×n

so gibt es λ1 , . . . , λp ∈ R (Lagrange–Multiplikatoren) mit


p
X  
(grad f )(x0 ) = λi · (grad hi )(x0 ) = (λ1 , . . . , λp ) · h0 (x0 )
i=1

(ohne Beweis)
In obiger Gleichung haben wir n (skalare) Gleichungen; dazu: p (skalare) Gleichun-
gen
h1 (x0 ) = h2 (x0 ) = · · · = hp (x0 ) = 0
⇒ n+p Gleichungen für n+p Unbekannte x0 = (x01 , . . . , x0n ) und λ1 , . . . , λp .

239
22. Differentialrechnung für vektorwertige Funktionen

Beispiel 22.20. (n = 3, p = 2), D = R3

f (x, y, z) := x + y + z

Nebenbedingung:
 2
x + y2 − 2

h(x, y, z) :=
x+z−1

d.h. T = {(x, y, z) ∈ R3 : x2 + y 2 = 2, x + z = 1}.


Aufgabe: Bestimme max und min von f auf der Menge T , d.h. unter der Nebenbedingung h = 0.
( √
x2 + y 2 = 2, also |x|, |y| ≤ 2
Für (x, y, z) ∈ T gilt √
x + z = 1, also |z| − |1 − x| ≤ 1 + 2
⇒ T ist beschränkt, T ist abgeschlossen ⇒ T ist kompakt.
Nach 19.9 existieren also a, b ∈ D mit

f (a) = max f (T ), f (b) = min f (T )

a Maximum
d.h.: f hat in ein (lokales) unter der Nebenbedingung h = 0.
b Minimum
 
2x 2y 0
h0 (x, y, z) =
1 0 1

Für (x, y, z) ∈ T gilt insbesondere x2 + y 2 = 2, also (x, y) 6= (0, 0).


⇒ rg h0 (x, y, z) = 2 = p.
Außerdem grad f (x, y, z) = (1, 1, 1).
22.19 ⇒ (1, 1, 1) = λ1 (2x, 2y, 0) + λ2 (1, 0, 1) für (x, y, z) = a oder (x, y, z) = b. Also:
(1) 1 = 2λ1 x + λ2
(2) 1 = 2λ1 y
(3) 1 = λ2

(4) x2 + y 2 = 2
(5) x + z = 1.
(1),(3) ⇒ 2λ1 x = 0 ⇒ x = 0 ⇒ z = 1 .

 
1
⇒ y=± 2 λ1 = ± 2√ 2

D.h. 22.19 liefert


√ √
a, b ∈ {(0, 2, 1), (0, − 2, 1)}
√ √
f (0, ± 2, 1) = ± 2 + 1
√ √
max f (T ) = f (a) = √2 + 1, a = (0, 2,√1)

min f (T ) = f (b) = − 2 + 1, b = (0, − 2, 1)

240
23. Integration im Rn

23.1. Das Riemann–Integral

Sind [a1 , b1 ], [a2 , b2 ], . . . , [an , bn ] ⊂ R kompakte Intervalle (aj ≤ bj für j = 1, . . . , n), so


heißt

I := [a1 , b1 ] × [a2 , b2 ] × · · · × [an , bn ]

ein kompaktes Intervall oder kompakter Quader im Rn . (vgl. Abb. 23.1)

....
.....
I
b2

... ..... ..... ..... .....


.... .... .... .... ....
..... ........ ........ ........ ......
..... ..... ..... ......
T2 . .
..... ......... ........ ........ .....
.... .... ..... .....
.... ..... ......... ......... ......... ....
..... ..... ..... .....
a2 ... ... ... ... ...
Ii
.......................................................................................................................................................................................................................................................................................
..... .
....
a1 T1 b1

Abbildung 23.1.: kompakter Quader und Teilintervall

|I| := (b1 − a1 ) · (b2 − a2 ) · · · (bn − an )

heißt Inhalt von I.


Sei I wie oben und für alle j ∈ {1, . . . , n} sei Zj eine Zerlegung von [aj , bj ].
Dann heißt

Z := Z1 × Z2 × · · · × Zn

eine Zerlegung von I.


Ein zu Z gehörendes Teilintervall von I hat die Form T1 × T2 × · · · × Tn , wobei für alle j ∈ {1, . . . , n}
Tj ein zu der Zerlegung Zj gehörendes Teilintervall von [aj , bj ] ist.
Sind nun I1 , . . . , Im sämtliche zu Z gehörenden Teilintervalle von I, so gilt:

I1 ∪ I2 ∪ · · · ∪ Im = I
m
P
und |I| = |Ik |.
k=1

241
23. Integration im Rn

Definition 23.1. Sei I wie oben und f : I → R beschränkt. Z sei eine Zerlegung von I und I1 , . . . , Im
seien die zu Z gehörenden Teilintervalle von I.
Setze ∀k ∈ {1, . . . , m} mk := inf f (Ik ), Mk := sup f (Ik ) (existieren, da f beschränkt)
Definiere
m
X
sf (Z) := mk · |Ik | Untersumme
k=1
Xm
Sf (Z) := Mk · |Ik | Obersumme
k=1

Ist Z̃ eine weitere Zerlegung von I, so heißt Z̃ Verfeinerung von Z, wenn Z̃ ⊃ Z.

Wie im eindimensionalen Fall (vgl. 10.3) zeigt man:

Satz 23.2. I, f wie oben. Z und Z̃ seien Zerlegungen von I. Dann gilt
(1) Falls Z̃ Verfeinerung von Z, dann

sf (Z) ≤ sf (Z̃), Sf (Z) ≥ Sf (Z̃)

(vgl. Abb. 23.2)


(2) sf (Z) ≤ Sf (Z̃)

.....
.... ... ...
.................. ....................................
.......... .............. . ..... ..... ..... ..... ..... .....................
.......
........ .............. ......... ....... .
.... ........ ......... ............. ..... .. ....................................... ........... ...
.......
. .
...............
. ... ............ .
.. . ... ... ... .
. .
.. . .
... ... ............................. .... ..
... ... ..
......
...
..
....... ... ..... ..... ..... ..... ...................... ......
..
. ......... .
..... . . ........... ..... .. ..... .... .... .... ...
...
..... ......................... ....................... .........
.
...
. .... ...... .....
. .............. ... ..
..... ........................................... .... ....... .
..... ... ... .... ..
........ ........... .. .... ..
....
...
. . .. . ..... .. .. .............
. .....
.
. . .
....... ...... ........ ..... ..... ..... .............. .
.
..... . .. ... . ....... ... .....
....... ... .. .. ... ...... .. . . ... .... .
..... . ....
. ... .. .. .. ... ... ........ ....... ... ... .
.... ... .. ... ... .... .. . . ...... .......................................... . ..
.. .. .
. .. .. .. . .
.
.. ............. ..... ..... ..... ..... ..... ..... .....
..........
.. ..... . ... .. .. ... .. ..
..... . .. . . .
..
. .
........ ... ... ... ... ... .... ..
.
... .........
.. . .... . .. . . ....
..... . . .. ... .....
..... ..... .. . .....
............ ..... .. ..... .. . ..... .....
.. . ......... . ......... . .......... ...
......
..... .... ......
.. ........ .. .
.....
..... ... ......... .. .....
..... .. . .....
..... ... ........ ...........
..
......
. ..
... .
..
....
..........
........

Abbildung 23.2.: Ober– und Untersummen im Rn

Aus 23.2 folgt

sf := sup {sf (Z) : Z Zerlegung von I} ≤ Sf (Z̃) für jede Zerlegung Z̃ von I
n o
⇒ sf ≤ Sf := inf Sf (Z̃) : Z̃ Zerlegung von I

sf unteres
heißt (Riemann–) Integral von f über I.
Sf oberes


Z Z
sf =: f (x) dx, Sf =: f (x) dx

I I

242
23.1. Das Riemann-Integral

Definition 23.3. I ⊂ Rn kompaktes Intervall, f : I → R beschränkt.


f heißt (Riemann–) integrierbar über I, wenn


Z Z
f (x) dx = f (x) dx

I I

In diesem Fall heißt



Z Z Z
f (x) dx := f (x) dx = f (x) dx

I I I

das (Riemann–) Integral von f über I.

Wie im eindimensionalen Fall zeigt man:

Lemma 23.4. I ⊂ Rn kompaktes Intervall, f : I → R beschränkt.


(1) Gilt A ≤ f ≤ B auf I mit A, B ∈ R, so gilt:


Z Z
A · |I| ≤ f (x) dx ≤ f (x) dx ≤ B · |I|.

I I

(2) Ist Z eine Zerlegung von I und sind I1 , . . . , Im die zu Z gehörigen Teilintervalle von I, so gilt
Z m Z
X
f (x) dx = f (x) dx
− −
j=1 I
I j

m Z
− −
Z X
f (x) dx = f (x) dx
I j=1 I
j

Weiter wie im Eindimensionalen (vgl. 10.5):

Definition 23.5.

R(I) := {f : I → R : f ist Riemann-integrierbar über I}

Satz 23.6. Seien f, g ∈ R(I); α, β ∈ R. Dann gilt


(1)
Z Z Z

αf (x) + βg(x) dx = α f (x) dx + β g(x) dx
I I I
R
(d.h. insbesondere gilt αf + βg ∈ R(I)). Also ist R(I) ein R–Vektorraum, und I
: R(I) → R ist
eine lineare Abbildung.
(2) Falls ∀x ∈ I f (x) ≤ g(x), so gilt:
Z Z
f (x) dx ≤ g(x) dx
I I

243
23. Integration im Rn

(3)

Z  
f (x) ≤ sup{f (x) : x ∈ I} · |I|
I

(4) Ist I = I1 ∪ I2 , wobei I1 , I2 kompakte Intervalle mit |I1 ∩ I2 | = 0 (I1 ∩ I2 ist kompaktes Intervall),
so gilt f I ∈ R(I1 ), f I ∈ R(I2 ), und
1 2

Z Z   Z   Z Z
= f (x) dx = f I1
(x) dx + f I2
(x) dx = f (x) dx + f (x) dx
I I1 I2 I1 I2

(5) Riemannsches Kriterium: Sei h : I → R beschränkt

h ∈ R(I) ⇔ ∀ε > 0 ∃Z Zerlegung von I Sh (Z) − sh (Z) < ε

(6) Ist f konstant, so gilt (mit c := f (x) für alle x ∈ I)


Z
f (x) dx = c · |I|
I

(ohne Beweis)

Satz 23.7.
(1) C(I, R) ⊂ R(I)
(2) Sind f, g ∈ R(I), so gilt f · g ∈ R(I), |f | ∈ R(I), und

Z Z
f (x) dx ≤ |f (x)| dx
I I

(Dreiecksungleichung für Integrale)


(3) Sind f, g ∈ R(I) und gilt ∀x ∈ I |g(x)| ≥ α für ein α > 0, so gilt

f
∈ R(I)
g

(ohne Beweis)

Satz 23.8 (Satz von Fubini). Seien p, q ∈ N, p + q = n, also Rn = Rp × Rq . Sei I1 ein kompaktes
Intervall in Rp , I2 ein kompaktes Intervall in Rq , also ist I := I1 × I2 ein kompaktes Intervall im Rn .
Sei f ∈ R(I). Für Punkte in I schreiben wir (x, y) mit x ∈ I1 , y ∈ I2 .
R
y ∈ I2 f (x, y) dx =: g(y)
Für jedes existiere RI1
x ∈ I1 I2
f (x, y) dy =: h(x)

244
23.1. Das Riemann-Integral

Behauptung:

g ∈ R(I2 )
, und
h ∈ R(I1 )
R R R 
Z
I2
g(y) dy =
I2  I1
f (x, y) dx dy
f (x, y) d(x, y) = R R R 
I1
h(x) dx = I1 I2
f (x, y) dy dx
I

Beweis: Sei Z Zerlegung von I = I1 × I2 , also Z = Z̃ × Ẑ mit:


Z̃ Zerlegung von I1
Ẑ Zerlegung von I2
I1 Z̃ R1 , . . . , Rm
Die Teilintervalle von , die zu gehören, werden mit bezeich-
I2 Ẑ K1 , . . . , Kl
net.
⇒ Z hat die Teilintervalle Rj × Ki (j = 1, . . . , m; i = 1, . . . , l)
Es gilt |Rj × Ki | = |Rj | · |Ki |.
Setze mji := inf f (Rj × Ki )
m X
X l
sf (Z) = mji |Rj × Ri |
j=1 i=1
| {z }
=|Rj |·|Ki |
l
X m
X l
X
= |Ki | · mji · |Rj | = ci |Ki |
i=1 j=1 i=1
| {z }
=:ci

Sei i ∈ {1, . . . , l} fest und y0 ∈ Ki

⇒ mji ≤ f (x, y0 ) für alle x ∈ Rj


Z Z
⇒ mji |Rj | = mji dx ≤ f (x, y0 ) dx
23.6 (6) 23.6 (2)
Rj Rj
m
X m Z
X Z
⇒ mji |Rj | ≤ f (x, y0 ) dx = f (x, y0 ) dx = g(y0 )
23.6
j=1 j=1R (4) I
| {z } j 1

=ci

Also ci ≤ g(y) für alle y ∈ Ki , i = 1, . . . , l.


Z Z
⇒ ci |Ki | = ci dy ≤ g(y) dy
23.6 23.4 −
(6) K Ki
i

l
X l Z
X Z
=⇒ sf (Z) = ci |Ki | ≤ g(y) dy = g(y) dy
Summe
i=1 i=1 K
− 23.4 −
über I I2
i

Z Z
=⇒ f (x, y) d(x, y) ≤ g(y) dy (23-i)
f ∈R(I) −
I I2

245
23. Integration im Rn

Analog zeigt man mittels Obersummen:


Z Z
f (x, y) d(x, y) ≥ g(y) dy (23-ii)
I I2

Z Z
(23-i), (23-ii) ⇒ g ∈ R(I2 ), f (x, y) d(x, y) = g(y) dy
I I2

Aus 23.8 folgt sofort:

Satz 23.9. Ist f stetig auf I = [a1 , b1 ] × · · · × [an , bn ], so gilt:

Zb1 Zb2
  b   
Z Zn
f (x1 , . . . , xn ) dx =  · · ·  f (x1 , . . . , xn ) dxn  · · ·  dx2  dx1
I a1 a2 an

und die Reihenfolge der Integration darf beliebig vertauscht werden.

Beispiel 23.10.

(1) I := 0, π2 × 0, π2
   

π
 π 
Z Z2 Z2
sin(x + y) d(x, y) =  sin(x + y) dy  dx
 
23.9
I 0 0
| {z }
 y= π2
= − cos(x + y) y=0
 π
= cos x − cos x +
2
= cos x + sin x
π
Z2
 π
= (cos x + sin x) dx = sin x − cos x 02 = 1 − (−1) = 2
0

(2) I := [0, 2] × [0, 1] × [1, 2]

Z2
 2 1  
x2 z 3 x 2 3
z
Z Z Z
d(x, y, z) =   dy  dx dz
1 + y2 1 + y2
I 1 0 0
2
 2
Z2 Z2
  
π
Z Z
 2 3 y=1
=  x z arctan y y=0 dx dz =  x2 z 3 dx dz
4
1 0 1 0
Z2  x=2 Z2
π x3 3 2π 3
= · ·z dz = z dz
4 3 x=0 3
1 1
4 z=2
 
2π z 2π 15 5π
= · = · =
3 4 z=1 3 4 2

246
23.2. Integration über allgemeineren Mengen

(3) Seien [a, b], [c, d] ⊂ R, I := [a, b] × [b, c], f ∈ C[a, b], g ∈ C[c, d], ϕ(x, y) := f (x)g(y) ((x, y) ∈ I).

Zb Zd Zb Zd
     b  d 
Z Z Z
ϕ(x, y) d(x, y) =  f (x)g(y) dy  dx = f (x) g(y) dy  dx =  f (x) dx  g(y) dy 
I a c a c a c

23.2. Integration über allgemeineren Mengen

Definition 23.11. Sei B ⊂ Rn , B 6= ∅, und f : B → R eine Funktion.


Setze
(
f (x) x ∈ B
fB (x) :=
0 x ∈ Rn \ B
(
1 x∈B
cB (x) :=
0 x ∈ Rn \ B
cB heißt charakteristische Funktion von B.
Sei zusätzlich B beschränkt. Dann existiert ein kompaktes Intervall I mit B ⊂ I (vgl. Abb. 23.3)
f heißt (Riemann–) integrierbar über B, wenn fB I
integrierbar über I ist.
In diesem Fall definiere
 
Z Z Z

f (x) dx := fB I
(x) dx = fB (x) dx
B I I

Lt. Saalübung: Diese Definition ist unabhängig von der Wahl von I ⊃ B.

.....
....

.............................
I
... ..... ................................
.... .... ... .
... ... ... ..
..
..
.....
...... B ..
..
... .....
...
.
B ....
..
..
.... ..
... .. ... ..
.... ..... .... ..
..
......... ......
.................

...........................................................................................................................................................................

Abbildung 23.3.: Kompaktes Intervall als Obermenge einer allgemeinen Menge

Zur Analyse der Mengen B, für welche obige Überlegungen sinnvoll sind:
Sei B ⊂ Rn , B 6= ∅, B beschränkt.
Frage: Kann man B einen Inhalt zuordnen?
Wähle dazu ein kompaktes Intervall I ⊃ B. Z sei eine Zerlegung von I; die entsprechenden Teilintervalle
seien I1 , . . . , Im . (vgl. Abb. 23.4)
m
P
|Ik | innere“ Approximation an den Inhalt“ von B.
k=1 ” ”
Ik ⊂B

247
23. Integration im Rn

.....
....
..... ..... ..... ..... ..... ........ ..... ..... ....... ..... ..... ...... ..... ..... ....... ..... ..... ....... ..... ....... ..... ..... .....
. . . . . .
... ... ... ...
. ... ...
... ... .
.
.
... .... ...
..... ..... ..... ..... ..... ....... ..... ..... ....... ..... ..... ....... ..... ..... ....... ..... ..... ....... ..... ....... ..... ..... .....
... ... .. ... .. ...

p p pp p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p
... ... .. ... ... ...

p p pp p
. . . . . .
..... ..... ..... ..... ..... ....... .....
..
pp p
... ....
..... ...... ........................................ ................. p p p ppp ..
..... ..... .......
..
..... ....... .....
..
p p pp
..... .....
... ................ .... ..... .... .... .......... .. ...
.
... ppp ...................................... ...........
. .
........................................................................
.
ppp
.
...
.
...
.
. ppp . . . . . . . .
........ ..... ..... ...... .......... .... ......
..... ......... ................................................................... pp ..... ..... ........
.
.
.
.
..... ..... ..... ..... ..... ....... .....
pp pp ...............................
pp
..... ....... ..... ..... .....
...
. p p p pp ..
. ...... ..... .... .... ..
p
...
.
...
.
...
pp p.. .....................................
pp
... ...
ppp p pp
. .
. .... .... ..... ..... .

ppp ppp
..... ..... ..... ..... ..... ........ ..... ..... ........ ..... ..... ................................................... ..... ..... ........ ..... ........ .....
ppp
..... .....
... ...
ppp p
... ..... ..... .... ...
......................................
... ...
pp
. . .

pp p
... ... . .... ..... .... .... . ... ...
. ppp
..... ........ ..... ..... ........ .................... .......
..................................
p
. .
..... ..... ..... ..... ..... ........ .....
ppp p p ..... ..... ....... ..... ........ ..... ..... .....

ppp pp pp pppp
. . . .
... ..
. .... ..
.
...
.
...
. .
..... ..... ..... ..... ..... ...... .....
...
.
..
... pp p p p pp p
..... ...... ..... ..... ....... ..... ..... ......
..
... ...
..
..... ..... .......
..
.
..... ...... .....
...
.
..
..... .....
. .
... ... . ... ...
. . ... . ... .
... ... .. ... ... ...
. . . . . . ...........
... ... .... ... ... ... ..
. . . . .
... ... .
. ... .. ...
. . . . . .
... ... ... ... ...
... .

Abbildung 23.4.: äußere und innere Approximation

m
P
|Ik | äußere“ Approximation an den Inhalt“ von B.
k=1 ” ”
Ik ∩B6=∅

Die innere“ und äußere“ Approximationen lassen sich deuten als Unter– bzw. Obersumme der cha-
” ”
rakteristischen Funktion cB von B, denn:
(
0, falls Ik 6⊂ B
inf cB (Ik ) =
1, falls Ik ⊂ B
(
0, falls Ik ∩ B = ∅
sup cB (Ik ) =
1, falls Ik ∩ B 6= ∅
X X
⇒ scB (Z) = |Ik |, ScB = |Ik |
k k
Ik ⊂B Ik ∩B6=∅

Definition 23.12.
Z
ν(B) := sup {scB (Z) : Z Zerlegung von I} = cB (x) dx innerer Inhalt von B

I


Z
ν(B) := inf {ScB (Z) : Z Zerlegung von I} = cB (x) dx äußerer Inhalt von B
I

B heißt (Jordan–) messbar, wenn ν(B) = ν(B).


In diesem Fall heißt

|B| := ν(B) (= ν(B))

der Inhalt von B.

Bemerkung 23.13. Ist B = I ein kompaktes Invervall, so stimmt die neue Inhaltsdefinition mit der
alten überein.

248
23.2. Integration über allgemeineren Mengen

Satz 23.14. B ⊂ Rn sei beschränkt, B 6= ∅. Dann gilt:


B ist messbar ⇔ cB ∈ R(B).
In diesem Fall:
Z Z
|B| = 1 dx =: dx
B B

Definition 23.15.
Z
|∅| := 0, f (x) dx := 0 für jedes f

Beispiel 23.16.

(1) Ist I ein kompaktes Intervall, dann ist I messbar und der oben definierte Inhalt stimmt mit dem
früher definierten überein.

(2) (n = 1):

B := [0, 1] ∩ Q, I = [0, 1]
(
1, falls x ∈ [0, 1] ∩ Q
cB (x) =
0, sonst

⇒ cB 6∈ R[0, 1] ⇒ B ist nicht messbar


10.6 (3)

Definition 23.17. B ⊂ Rn sei beschränkt. B heißt Nullmenge, wenn B messbar ist und |B| = 0.

Definition 23.18. Sei A ⊂ Rn . a ∈ Rn heißt Randpunkt von A, wenn

∀δ > 0 Uδ (a) ∩ A 6= ∅ und Uδ (a) ∩ (Rn \ A) 6= ∅

∂A := {a ∈ Rn : a ist Randpunkt von A}


heißt Rand von A.
 
∂A = Ā \ Å Å := {x ∈ A : x innerer Punkt von A}

Beispiel 23.19.

(1) (n = 3): B := [0, 1] × [0, 1] × {0}

B ist Nullmenge (im R3 )

(2) ∂Rn = ∅, ∂∅ = ∅

∂Uε (x0 ) = {x ∈ Rn : kx − x0 k = ε} = ∂Uε (x0 )

249
23. Integration im Rn

(3) Ergänzendes Beispiel zu 23.10:


Sei [a, b], [c, d] ⊂ R, ϕ ∈ C[a, b], ψ ∈ C[c, d], f (x, y) := ϕ(x)ψ(y), (x, y) ∈ I = [a, b] × [c, d]
Zb Zd
 
Z
⇒ f (x, y) d(x, y) =  ϕ(x)ψ(y) dy  dx
Fubini
I a c
Zb Zd Zb Zd
 

= ϕ(x)  ψ(y) dy  dx = ϕ(x) dx · ψ(y) dy


a c a c

Anwendung:
2
Z1

Z Z Z
ex+y d(x, y) = ex dx · ey dy =  ex dx = (e − 1)2
[0,1]×[0,1] [0,1] [0,1] 0

Satz 23.20. Sei A, B ⊂ Rn .


(1) Ist B beschränkt, so gilt:

B ist messbar ⇔ ∂B ist eine Nullmenge

(2) Sind A, B messbar, so sind auch A ∪ B, A ∩ B, A \ B messbar, und

|A ∪ B| = |A| + |B| − |A ∩ B|

Ist A ⊂ B, so |A| ≤ |B|.


(3) Ist B messbar und f ∈ C(B, R) beschränkt, so gilt f ∈ R(B).
(4) Ist B messbar und sind f, g ∈ R(B), α, β ∈ R, so gilt
(i) αf + βg ∈ R(B) und
Z Z Z
(αf + βg)(x) dx = α f (x) dx + β g(x) dx
B B B

(ii) Aus f (x) ≤ g(x) für alle x ∈ B folgt


Z Z
f (x) dx ≤ g(x) dx
B B

(iii) |f |, f · g ∈ R(B),

Z Z
f (x) dx ≤ |f (x)| dx
B B

f
(iv) Falls α > 0 existiert mit ∀x ∈ B |g(x)| ≥ α, dann ist g ∈ R(B).
(v) Ist N ⊂ B eine Nullmenge und gilt f (x) = g(x) für alle x ∈ B \ N , so gilt
Z Z
f (x) dx = g(x) dx
B B

250
23.2. Integration über allgemeineren Mengen

(vi) Mittelwertsatz der Integralrechnung:


Z

inf f (B) · |B| ≤ f (x) dx ≤ (sup f (B)) · |B|
B

(5) A, B seien messbar. Dann gilt:


(i) Ist A ⊂ B und f ∈ R(B), so ist f A
∈ R(A).
(ii) Ist f : A ∪ B → R beschränkt und gilt
f A
∈ R(A) und f B ∈ R(B), so gilt f ∈ R(A ∪ B) und f A∩B ∈ R(A ∩ B), ferner
Z Z Z Z
f (x) dx = f (x) dx + f (x) dx − f (x) dx
A∪B A B A∩B

(iii) Sind A und B nicht überlappend, d.h.


A ∩ B ⊂ ∂A ∪ ∂B
und ist f ∈ R(A ∪ B), so gilt
Z Z Z
f (x) dx = f (x) dx + f (x) dx
A∪B A B

speziell (f ≡ 1): |A ∪ B| = |A| + |B|.


(6) Ist B eine Nullmenge und f : B → R beschränkt, so ist f ∈ R(B) und
Z
f (x) dx = 0
B

(7) Ist B messbar und f ∈ R(B), so ist der Graph von f


x, f (x) ∈ Rn+1 : x ∈ B
 

eine Nullmenge im Rn+1 . (vgl. Abb. 23.5)


(8) Ist B messbar, f ∈ R(B) und f (x) ≥ 0 für alle x ∈ B, so setze
Mf := (x, y) ∈ Rn+1 : x ∈ B, 0 ≤ y ≤ f (x) .


Dann gilt: Mf ⊂ Rn+1 messbar. und


Z
|Mf | = f (x) dx
B

(vgl. Abb. 23.6)


(9) B ⊂ Rn messbar, f, g ∈ R(B), f (x) ≤ g(x) für alle x ∈ B.
Mf,g := (x, y) ∈ Rn+1 : x ∈ B, f (x) ≤ y ≤ g(x)


Dann gilt: Mf,g ⊂ Rn+1 messbar, und


Z

|Mf,g | = g(x) − f (x) dx
B

(vgl. Abb. 23.6)

251
23. Integration im Rn

(ohne Beweis)

.....
pp .....
pppp.p............ p p p p p p p pp ppp p p p p p p
.... ....
p
p p pp p p p p p p Nullmengen ppppppppppp p p p pppppppppppppp p p pppppppppppppppp
p ppp p p p pppppp
...........
.. .................

pp p p p p p p p
....................................... .

p p p p p p p p ..
.
..
.
pp p p p ... ...
.... ....
... ...
. . ... ...........
..... ... . ..
..
...... . ........................................ .
..
....
. . .......
. ...... ..
.
....
. .
... ....
........... .. . .
.. ..... ...
B ..
..... ... ..
..... ...
B ...
.
.....
......
.
.....
........
..................................
.....
..
........

Abbildung 23.5.: Graph einer Funktion; Nullmengen

p p pp p p p p p p
. .
.... ....
.... .... g p
p p pp p p p p p p p p p p p p p p p p p p p p p p p pp p p p ppppp p p p p pp p p p p p p p p p p p p p pp p p p p p p p p p
f p p p p p p p p p p p p p p p p p p p p p p p p p pp p p p p p p p
p pp p p p p p p p p p ppp p pp p p p p p p p p p pp
p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p pp p
f
........... ...........
.. ..
B B

Abbildung 23.6.: Fläche zwischen Graphen bzw. zwischen Graph und Achse

Beispiel 23.21. K := {(x, y) ∈ R2 : x2 + y 2 ≤ r2 }, r > 0 fest. (Abb. 23.7)


√ √
g(x) := r2 − x2 , f (x) := − r2 − x2

⇒ K = Mf,g (mit B := [−r, r])

Z Zr p Zr p
⇒ |K| = 2 2
(g − f )(x) dx = 2 r − x dx = 4 · r2 − x2 dx
23.20
B −r 0

Substitution x = r sin ϕ, dx = r cos ϕ dϕ


π
Z2   π2
1 1
⇒ |K| = 4r2 cos2 ϕ dϕ = 4r2 ϕ + sin ϕ cos ϕ = πr2
2 2 0
0

.....
.... √
pp pppppppppppppppppppppppppppp ppp g(x) = r 2 − x2
pp p p p
......................
............ .......
.......
p pp p
ppp p p
......
..... .....
.....
.... pp p ...
...
pp....
..
. ppp ...
...

p
...
...
pp ........ ...
...
..
... ..... ..
... ...
... ..
.
... ..
.
... ..
... ... √
..... ....
..... .....
......
......... ...
.......... f (x) = − r2 − x2
........................

Abbildung 23.7.: Kreis um (0, 0)

252
23.2. Integration über allgemeineren Mengen

Satz 23.22 (Prinzip von Cavalieri). Sei B ⊂ Rn+1 messbar. Für die Punkte in B schreiben wir (x, z)
(mit x ∈ Rn , z ∈ R). Es seien a, b ∈ R so gewählt, dass

∀(x, z) ∈ B a≤z≤b

Für jedes z ∈ [a, b] sei

Q(z) := {x ∈ Rn : (x, z) ∈ B}

messbar im Rn ; setze q(z) := |Q(z)|.


Dann gilt: q ∈ R[a, b], und

Zb
|B| = q(z) dz
a

Beweis: Setze I := [a, b]. Wähle ein kompaktes Intervall J ⊂ Rn mit J × I ⊃


B.

Nach Voraussetzung (Q(z) messbar) gilt:


Z Z
q(z) = |Q(z)| = 1 dx = cB (x, z) dx
Q(z) J

Fubini (23.8) ⇒ q ∈ R[a, b], und

Zb
 
Z Z Z
cB (x, z) d(x, z) =  cB (x, z) dx dz = q(z) dz
J×I I J a
| {z }
=|B|

Beispiel 23.23.

(1) Sei K := {(x, y, z) ∈ R3 , x2 + y 2 + z 2 ≤ r2 }, r > 0 fest. (Kugel um (0, 0, 0) mit Radius r).

[a, b] := [−r, r]. Dann für alle z ∈ [−r, r]:

Q(z) = {(x, y) ∈ R2 : (x, y, z) ∈ K }


| {z }
x2 +y 2 ≤r 2 −z 2


Kreis um 0 mit Radius r2 − z 2 . (vgl. Abb. 23.8)

⇒ q(z) = |Q(z)| = π(r2 − z 2 )


23.21

Zr
2 4
⇒ |K| = π(r2 − z 2 ) dz = 2πr3 − πr3 = πr3
23.22 3 3
−r

253
23. Integration im Rn

Abbildung 23.8.: Kugel und Schnitt aus Beispiel 23.23 (1)

Abbildung 23.9.: Rotationsparaboloid

254
23.2. Integration über allgemeineren Mengen

(2) B = {(x, y, z) ∈ R3 : x2 + y 2 + z ≤ 4, z ≥ 0}. (Rotationsparaboloid, vgl. Abb. 23.9)



Für z ∈ [0, 4] : Q(z) = {(x, y) : x2 + y 2 ≤ 4 − z} (Kreis vom Radius 4 − z)
⇒ q(z) = |Q(z)| = π(4 − z)
Z4 Z4
⇒ |B| = q(z) dz = π (4 − z) dz = 8π
0 0

(3) Rotationskörper: (vgl. Abb. 23.10)


Sei f ∈ R[a, b], f (x) ≥ 0 für alle x ∈ [a, b]. B := {(x, y, z) ∈ R3 : x ∈ [a, b], y 2 + z 2 ≤ f (x)2 }
(Tausche Rollen von x und z)
Für x ∈ [a, b] : Q(x) = {(y, z) : y 2 + z 2 ≤ f (x)2 } (Kreis mit Radius f (x))
⇒ q(x) = |Q(x)| = πf (x)2

Zb
⇒ |B| = π f (x)2 dx
a

Abbildung 23.10.: Rotationskörper

x–Achse
Definition 23.24. B ⊂ R2 heißt Normalbereich bzgl. der , wenn stetige Funktionen
y–Achse

[a, b] → R
f, g :
[c, d] → R

mit
x ∈ [a, b] f (x) ≤ g(x)
∀ :
y ∈ [c, d] f (y) ≤ g(y)

255
23. Integration im Rn

und
B = (x, y) ∈ R2 : x ∈ [a, b], f (x) ≤ y ≤ g(x)

existieren (vgl. Abb. 23.11)
B = (x, y) ∈ R2 : y ∈ [c, d], f (y) ≤ x ≤ g(y)

Abbildung 23.11.: Normalbereiche

Ist B ein Normalbereich (bzgl. x– oder y–Achse), so ist B kompakt und messbar (!); jetzt speziell:
Normalbereich bzgl. x–Achse.

Sei h : B → R stetig. Setze m := min f [a, b], M := max g[a, b].

⇒ B ⊂ I := [a, b] × [m, M ]

Sei x ∈ [a, b] fest. Dann existiert

ZM ZM g(x)
Z
hB (x, y) dy und hB (x, y) dy = h(x, y) dy
m m f (x)

Nach Fubini:
 
Z Z Zb g(x)
Z
h(x, y) d(x, y) = hB (x, y) d(x, y) = h(x, y) dy  dx
 

B I a f (x)

 
Z Zb g(x)
Z
⇒ h(x, y) d(x, y) = h(x, y) dy  dx
 

B a f (x)

Analog für Normalbereich B bzgl. der y–Achse


 
Z Zd g(y)
Z
⇒ h(x, y) d(x, y) = h(x, y) dx dy
 

B c f (y)

256
23.2. Integration über allgemeineren Mengen


Beispiel 23.25. B := (x, y) ∈ R2 : x ∈ [0, 1], x ≤ y ≤ 2 − x


 
Z1 2−x Z1  y=2−x
1 2
Z Z
(x + y) d(x, y) = (x + y) dy  dx = xy + y dx
 
2 √

√ y= x
B 0 x 0

Z1 


1 2 1 71
= x(2 − x) + (2 − x) − x x − x dx = · · · =
2 2 60
0

Verallgemeinerung auf 3–dimensionalen Fall:

Sei A ⊂ R2 kompakt und messbar, f, g : A → R stetig und f (x, y) ≤ g(x, y) für alle (x, y) ∈
A.

B := {(x, y, z) ∈ R2 : (x, y) ∈ A, f (x, y) ≤ z ≤ g(x, y)}

Abbildung 23.12.: Normalbereich im 3-dimensionalen Fall

Mit Fubini erhält man für stetiges h : B → R:


 
Z Z g(x,y)
Z
h(x, y, z) d(x, y, z) = h(x, y, z) dz  d(x, y)
 

B A f (x,y)

Beispiel 23.26.

B = {(x, y, z) ∈ R3 : x, y, z ≥ 0, x + y + z ≤ 1}

A = {(x, y) ∈ R2 : x, y ≥ 0, x + y ≤ 1}

f ≡ 0, g(x, y) := 1 − x − y

⇒ B = {(x, y, z) ∈ R3 : (x, y) ∈ A, f (x, y) ≤ z ≤ g(x, y)}




257
23. Integration im Rn

(1)
 1−x−y 
Z Z Z
2xyz d(x, y, z) =  2xyz dz  d(x, y)
B A 0
Z Z
z=1−x−y
xyz 2 z=0 xy(1 − x − y)2 d(x, y)

= d(x, y) =
A A
Z1
 1−x 
Z
=  xy(1 − x − y)2 dy  dx = · · ·
0 0

(2)
 1−x−y 
Z Z Z
(x − y + 2z) d(x, y, z) =  (x − y + 2z) dz  d(x, y)
B A 0
Z h iz=1−x−y
= xz + yz + z 2 d(x, y)
z=0
A
Z
x(1 − x − y) + y(1 − x − y) + (1 − x − y)2 d(x, y)

=
A
Z1
 1−x 
Z Z
= (1 − x − y) d(x, y) =  1 − x − y dy  dx
A 0 0
Z1 h iy=1−x Z1
1 2
= y − xy − 2 y dx = 1
2 − x + 12 x2 dx
y=0
0 0
h i1
1 1 2 1 3 1 1 1 1
= 2x − 2x + 6x = 2 − 2 + 6 = 6
0

23.3. Verallgemeinerung der Substitutionsregel

23.3.1. Substitutionsregel, Transformationssatz

Satz 23.27 (Substitutionsregel). G ⊂ Rn sei offen, g ∈ G → Rn sei injektiv und stetig differenzierbar;
es gelte

det g 0 (z) 6= 0 für alle z ∈ G.

B ⊂ G sei kompakt und messbar und f : g(B) → R stetig.


Dann ist g(B) kompakt und messbar, und
Z Z
f (x) dx = f g(z) · det g 0 (z) dz


g(B) B

(ohne Beweis)
Anderer Name für die Substitutionsregel: Transformationssatz.

258
23.3. Verallgemeinerung der Substitutionsregel

23.3.2. Anwendungen der Substitutionsregel

Polarkoordinaten (im Fall n = 2) (vgl. Abb. 23.13)

.....
....
p p p p ps
y
p p p p p p p p pppppp ppp
r ppppppp
p p p p.p..ppp
pp ppppppp
p p p p
pppppp ...
p ppppppp p ϕ .....
..
...........
..
0 x

Abbildung 23.13.: Polarkoordinaten–Darstellung

p
r := x2 + y 2 = (x, y)

x = r cos ϕ, y = r sin ϕ; r ∈ [0, ∞), ϕ ∈ [0, 2π)


Wähle g(r, ϕ) := (r cos ϕ, r sin ϕ) (vgl. Abb. 23.14),
 
0 cos ϕ −r sin ϕ
det g (r, ϕ) = det =r
sin ϕ r cos ϕ

..... ... .....


.... ... ....
...
y ...
...
.......................
........
....... .....
.
..
.
ϕ2 . . . . . .
..... .... . ..... ... .. ... .. .. ... ... .. ... ..
........ ..... .... . ..... ... .. ... .. .. ... ... .. ... .. ...
....... ...... . .... .. .. ... .. .. ..
................. .....................................
....... ............... . .. .............
g ..... .... . ..... .....
B .... .... .... .
. .... .... ... .... . .... . .... . .... .
... . . ......
A
.................. .... ....
..
... ............ .............. ..........
......... ..... .... . .... . .... . .... . .... . .... . .... . ....
. . . . . . . .
......... .................................................. ..... ..... ..... ..... ..... ..... ..... .....
..
. .
... .........................
.. .. ... ϕ1
ϕ2 ...
... ......... ... ...
.... .
... ......... .... .... ...
...
...
..
.......... . . . .. ...........
..
..
...........
0 R1 R2 x R1 R2
ϕ1

Abbildung 23.14.: Polarkoordinaten zur vereinfachten Integration

Substitutionsregel mit A = g(B) :


Z Z
f (x, y) d(x, y) = f g(z) · det g 0 (z) dz


A B
Z
= f (r cos ϕ, r sin ϕ) · r d(r, ϕ)
B

(B ist Rechteck!)

Beispiel 23.28.
(1) A := (x, y) ∈ R2 : 1 ≤ x2 + y 2 ≤ 4 (Kreisring) (vgl. Abb. 23.15). Berechne


Z p
x2 + y 2 d(x, y)
A

259
23. Integration im Rn

p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p pp p
p p pp p p p p p p ppp
ppp pp pp pp p p ....
ppp p pp p .....

ppppppppppppppppppp A pppp
pp p ppp pp pp 2π .
ppp ppp
ppp
ppp pppp
p pp pp
ppp pp p p
p p p p p p p p p p p p p p p p pp p p p p p pp .............
g B
p pp pp
p p pp
ppp p p p p p pp p
p pp p p p p p p ppp
p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p pp
...........
..

1 2

Abbildung 23.15.: Integration über einen Kreisring

Achtung: g ist nicht injektiv auf B = [1, 2] × [0, 2π]. Auf Bε := [1, 2] × [0, 2π − ε] ist g injektiv. Sei
Aε := g −1 (Bε ).
2π−ε
 2 
Z p Z Z Z
⇒ x2 + y 2 d(x, y) = r · r d(r, ϕ) =  r2 dr dϕ
Fubini
Aε Bε 0 1
 2
1 3 7
= (2π − ε) r = (2π − ε) ·
3 1 3
Für ε → 0 geht (!)
Z p Z p
x2 + y 2 d(x, y) gegen x2 + y 2 d(x, y)
Aε A

14
Z p
⇒ x2 + y 2 d(x, y) = ·π
3
A

(2) In der Wahrscheinlichkeitstheorie (und auch anderswo) spielt das Integral


Z∞
2
e−x dx
0

eine große Rolle. Dieses Integral ist mit rein eindimensionalen Methoden nicht geschlossen berechen-
bar.
Für R > 0 setze
KR := (x, y) ∈ R2 : x, y ≥ 0, x2 + y 2 ≤ R2 , QR := (x, y) ∈ R2 : x, y ∈ [0, R]
 

π 
Z2 ZR

π
Z 
2 2 2 2
e−(x +y ) d(x, y) =  e−r r dr dϕ = 1 − e−R
4
KR 0 0
| {z }
R
=− 12 e−r2
0

ZR ZR ZR
   R 
Z Z
2 2 2 2 2 2
e−(x +y )
d(x, y) =  e−x e−y dy  dx = e−x  e−y dy  dx
Fubini
QR 0 0 0 0
 R 2
Z
2
=  e−x dx
0

260
23.3. Verallgemeinerung der Substitutionsregel

Andererseits:
π
Z Z Z Z 
−(x2 +y 2 ) 2
+y 2 ) 2
e d(x, y) = ··· + ··· ≥ e−(x d(x, y) = 1 − e−R
4
QR KR QR \KR KR
| {z }
≥0

ZR √
−x2 π p
⇒ e dx ≥ · 1 − e−R2
2
0

Sei % := 2 · R, dann K% ⊃ Q% . Wie oben:

π π
Z 
2
+y 2 ) 2 2
e−(x d(x, y) = (1 − e−% ) = 1 − e−2R
4 4
K%

andererseits:
 R 2
Z Z Z Z Z
2 2 2 2 2
e−(x +y )
d(x, y) = ··· + ··· ≥ e−(x +y )
d(x, y) =  e−x dx
K% QR K% \QR QR 0

ZR √ p
−x2 π
⇒ e dx ≤ 1 − e−2R2
2
0

Zusammen mit obiger Gleichung:

√ p ZR √ p
π 2 π
1−e −R 2
≤ e−x dx ≤ 1 − e−2R2
2 2
0

Z∞ √
−x2 π
⇒ e dx =
2
0

Aus Symmetriegründen (bzw. nach Substitution t = −x):

Z0 √
−x2 π
e dx =
2
−∞

Z∞
2 √
⇒ e−x dx = π
−∞

[Schnelldurchgang:
2
Z∞ Z∞ Z∞ Z∞ Z∞

2 2 2 2
+y 2 )
 e−x dx = e−x dx · e−y dy = e−(x dy dx
Fubini“

−∞ −∞ −∞ −∞ −∞
Z2π Z∞
 
Z
2
+y 2 ) 2
= e−(x d(x, y) =  e−r r dr dϕ = π]
R2 0 0

261
23. Integration im Rn

(3) Rotationsparaboloid B = {(x, y, z) ∈ R3 : x2 + y 2 + z ≤ 4, z ≥ 0} Dann gilt:


 2 2

Z 4−(x
Z +y ) Z
|B| = 1 dz  d(x, y) = (4 − (x2 + y 2 )) d(x, y)
 

Fubini
A 0 A

Z2π Z2 Z2
 

=  (4 − r2 )r dr dϕ = 2π (4r − r3 ) dr = 8π
Polark.
0 0 0

(vgl. Beispiel 23.23)

Zylinderkoordinaten (im Fall n = 3) (vgl. Abb. 23.16)

..
.....
z .......
. ...
.. .
r
....
.....
...
..
....
...
.
...
.......... . ...........
..
. ... ..
.... .............
..
..
.....
. ϕ
.......................
. ..
. .
.... .......... .
. .
...............
y
.
...
.
..... r
....
.........
........
x

Abbildung 23.16.: Zylinderkoordinaten

g(r, ϕ, z) = (r cos ϕ, r sin ϕ, z)

x = r cos ϕ, y = r sin ϕ, z=z


 
cos ϕ −r sin ϕ 0
det g 0 (r, ϕ, z) = det  sin ϕ r cos ϕ 0 = r
0 0 1

Also mit A = g(B) nach Substitutionsregel:

Z Z
f (x, y, z) d(x, y, z) = f (r cos ϕ, r sin ϕ, z) · r d(r, ϕ, z)
A B

Beispiel 23.29. A := (x, y, z) ∈ R3 : x2 + y 2 ≤ 1, 0 ≤ z ≤ h . Bestimme |A|:




(1) nach Cavalieri:

Für z ∈ [0, h] : Q(z) = (x, y) ∈ R2 : x2 + y 2 ≤ 1




⇒ q(z) = Q(z) = π

Zh
⇒ |A| = q(z) dz = π · h
0

262
23.3. Verallgemeinerung der Substitutionsregel

(2) mit Zylinderkoordinaten:



B := (r, ϕ, z) : 0 ≤ r ≤ 1, 0 ≤ ϕ ≤ 2π, 0 ≤ z ≤ h

(eigentlich: Bε := (r, ϕ, z) : ε ≤ r ≤ 1, 0 ≤ ϕ ≤ 2π − ε, 0 ≤ z ≤ h ; Satz anwenden ; ε → 0




gehen lassen)

Z2π Zh Z1
   
Z Z
1
|A| = 1 d(x, y, z) = r d(r, ϕ, z) =   r dr dz  dϕ = 2πh · 2 =π·h
A B 0 0 0

Kugelkoordinaten (n = 3) (vgl. Abb. 23.17)

..
......
z ....... .
p........ ....
.... ..
.....
r
.....
..
.....
... ..
r ..
.
.... ..
. ..
..
...
... ....
.....
.... .... ....
.. ...
...
.
...
......
θ ...
...
...
.
... p... .....
...........
..
.
... . .. ....
. .... ..ϕ
..
... ........... ...
................. ......
.
...
. .
......
...
.. y
.. .
p. .
....... ..... ... ....
..
. .
.
..... ..
. ...
..
.
.
. . ..
........ ..... ..... ..... ..... ..... .....
.....
.....
.........
........ x

Abbildung 23.17.: Kugelkoordinaten

x = r · cos ϕ cos θ, y = r · sin ϕ cos θ, z = r · sin θ

Dabei läuft ϕ zwischen 0 und 2π, θ zwischen − π2 und π


2.

Also g(r, ϕ, θ) = (r cos ϕ cos θ, r sin ϕ cos θ, r sin θ).


 
· · ·
det g 0 (r, ϕ, θ) = det · · · = r2 cos θ
· · ·

A = g(B); nach Substitutionsregel:

Z Z
f (x, y, z) d(x, y, z) = f (r cos ϕ cos θ, r sin ϕ cos θ, r sin θ) · r2 cos θ d(r, ϕ, θ)
A B

Beispiel 23.30. A := {(x, y, z) ∈ R3 : x2 + y 2 + z 2 ≤ 1, x, y, z ≥ 0}

B = (r, ϕ, θ) : r ∈ [0, 1], ϕ ∈ [0, π2 ], θ ∈ [0, π2 ]




z.B. suche

263
23. Integration im Rn

(1)
Z Z
(x2 + y 2 + z 2 ) d(x, y, z) = r2 r2 cos θ d(r, ϕ, θ)


A B
π
 π 
Z2 Z1

Z2
= r4 dr cos θ dθ dϕ
  

0 0 0
π
2
π 1 π
Z
= · · cos θ dθ =
2 5 10
0

(2)
Z Z
x d(x, y, z) = (r cos ϕ cos θ)(r2 cos θ) d(r, ϕ, θ)
A B
π
 π  1  
Z2 Z2 Z
=

  r3 dr cos2 θ dθ
 cos θ dθ
0 0 0
π π
2 Z2
1 π
Z
= cos ϕ dϕ · cos2 θ dθ =
4 16
0 0

264
24. Spezielle Differentialgleichungen erster
Ordnung
Es sei D ⊂ R3 , F : D → R eine gegebene Funktion. Eine Gleichung der Form

F (x, y, y 0 ) = 0 (DGL) (24-i)

heißt gewöhnliche Differentialgleichung 1. Ordnung.


Ist I ⊂ R ein Intervall und y : I → R differenzierbar, so heißt y eine Lösung von (24-i),
wenn

x, y(x), y 0 (x) ∈ D und F x, y(x), y 0 (x) = 0


 
∀x ∈ I

Beispiel 24.1. F (x, y, z) := y − z, D = R3 , so lautet (24-i)

y − y0 = 0

Allgemeine Lösung: y(x) = c · ex , c ∈ R beliebig, definiert auf I = R.

Anfangswertproblem (AWP)

D, F wie oben und (x0 , y0 ) ∈ D gegeben. Das zur Differentialgleichung gehörige Anfangswertproblem
verlangt zusätzlich zur Differentialgleichung die Anfangsbedingung

y(x0 ) = y0

Ist y : I → R eine Lösung von (24-i) mit der Zusatzeigenschaft x0 ∈ I und y(x0 ) = y0 , so heißt y Lösung
des Anfangswertproblems.

Beispiel 24.2. wie oben y 0 = y. Allgemeine Lösung y(x) = cex auf I = R.


!
y(x0 ) = y0 ⇔ cex0 = y0 ⇔ c = y0 e−x0

Also: Lösung des Anfangswertproblems:

y(x) = y0 · ex−x0

Beispiel 24.3.

y0 = 1 + y2
 
cos2 x+sin2 x
Eine Lösung ist y(x) = tan x y 0 (x) = cos2 x = 1 + tan2 x

Weitere Lösungen:

y(x) = tan(x + c), c∈R

265
24. Spezielle Differentialgleichungen 1. Ordnung

Das Lösungsintervall I ist hier I = (−c − π2 , −c + π2 ) bzw. I = (nπ − c − π2 , nπ − c + π2 ) mit n ∈ Z.


(hier (und meist auch sonst): I hängt von der Lösung ab und ist nicht a priori bekannt)
Anfangswertproblem: y(x0 ) = y0
!
tan(x0 + c) = y0 ⇒ c = −x0 + arctan(y0 ) + nπ, n∈Z

⇒ Lösung: y(x) = tan(x − x0 + arctan(y0 ) + nπ), definiert auf

I = x0 − arctan y0 + nπ − π2 , x0 − arctan y0 + nπ + π2


!
Wegen x0 ∈ I muss n = 0 sein.

⇒ Lösung: y(x) = tan x − x0 + arctan(y0 ) , definiert auf

I = x0 − arctan y0 − π2 , x0 − arctan y0 + π

2

24.1. Exakte Differentialgleichungen


Es seien I1 , I2 Intervalle in R (abgeschlossen, offen, halboffen, beschränkt, unbe-
schränkt)

R := I1 × I2

Weiter seien P, Q : R → R gegebene Funktionen.

Definition 24.4. Die Differentialgleichung

P (x, y) + Q(x, y)y 0 = 0 (24-ii)

heißt exakt, falls ein F ∈ C 1 (R, R) existiert mit

Fx = P, Fy = Q auf R

[Ein solches F heißt auch Stammfunktion zu (P, Q)]

Beachte: Wenn ein solches F existiert, so ist F bis auf eine additive Konstante eindeu-
tig.
Sei I ⊂ I1 , y : I → R differenzierbar mit y(x) ∈ I2 für x ∈ I (also (x, y(x)) ∈ R für alle x ∈
I)
Weiter sei die Differentialgleichung (24-ii) exakt und F eine Stammfunktion zu
(P, Q).

Setze Φ(x) := F x, y(x) für x ∈ I.
Ist y Lösung von (24-ii), so ist Φ differenzierbar auf I, und

Φ0 (x) = Fx x, y(x) + Fy x, y(x) ·y 0 (x) = 0


 
| {z } | {z } y Lsg.
=P (x,y(x)) Q(x,y(x))

⇒ Φ konstant auf I

⇒ F x, y(x) = c für x ∈ I , mit c ∈ R

266
24.1. Exakte Differentialgleichungen

Auflösen nach y(x) (falls möglich) liefert Lösung y(x).

Gilt umgekehrt diese Gleichung für ein c ∈ R

⇒ Φ0 = 0 ⇒ y ist Lösung von (24-ii)

Satz 24.5. Ist (24-ii) exakt und F eine Stammfunktion von (P, Q) und ist I ⊂ I1 ein Intervall, y : I → R
differenzierbar mit y(x) ∈ I2 für alle x ∈ I, so gilt:

y ist Lösung von (24-ii) auf I ⇔ ∃c ∈ R ∀x ∈ I F x, y(x) = c

Beispiel 24.6.

2x sin y + x2 (cos y) y 0 = 0, R = R2
| {z } | {z }
=P (x,y) =Q(x,y)

Suche F mit Fx = 2x sin y, Fy = x2 cos y.

Wähle F (x, y) = x2 sin y (+c̃).

zu lösen:

F x, y(x) = x2 sin y(x) = c




 c 
⇒ y(x) = arcsin auf I = · · · (selbst)
x2

Fragen:

1. Wie kann man feststellen, ob (24-ii) exakt ist?

2. Wie kann man im Fall, dass (24-ii) exakt ist, eine Stammfunktion F berechnen?

3. Wann kann man, falls (24-ii) exakt und F bekannt ist, die Gleichung F (x, y) = c nach y (geschlos-
sen, oder zumindest theoretisch) auflösen?

Satz 24.7. Es seien P, Q ∈ C 1 (R, R). Dann ist (24-ii) genau dann exakt (d.h. es existiert genau dann
eine Stammfunktion zu (P, Q)), wenn

Py = Qx auf R

Beweis:

• ⇒“ Sei F Stammfunktion zu (P, Q), d.h. Fx = P, Fy = Q.



⇒ F ∈ C 2 (R, R)

und

Py = (Fx )y = Fxy = Fyx = (Fy )x = Qx


21.12

• ⇐“ hier ohne Beweis


267
24. Spezielle Differentialgleichungen 1. Ordnung


zu Frage 2: (24-ii) sei exakt. Ansatz für F :
Z
Fx (x, y) = P (x, y) ⇒ F (x, y) = P (x, y) dx + c(y)
y fest

Außerdem. Fy (x, y) = Q(x, y), also


Z 
!
P (x, y) dx + c0 (y) = Q(x, y)
y

Z 
0
⇒ c (y) = Q(x, y) − P (x, y) dx
y

Daraus c(y) mittels Stammfunktionsbildung.

Beispiel 24.8.

6x2 y 0 = 0
(12xy + 3) + |{z} auf R2
| {z }
P (x,y) Q(x,y)

P, Q ∈ C 1 (R2 , R), Py (x, y) = 12x = Qx (x, y)


⇒ Differentialgleichung ist exakt.
24.7

Fx = 12xy + 3 ⇒ F (x, y) = 6x2 y + 3x + c(y)

!
⇒ Fy (x, y) = 6x2 + c0 (y) = Q(x, y) = 6x2
⇒ c0 (y) = 0 ⇒ c ist konstant
⇒ F (x, y) = 6x2 y + 3x ist eine Stammfunktion
Jetzt F (x, y) = c lösen:

6x2 y + 3x = c

c − 3x
⇒ y(x) = ist Lösung der Differentialgleichung auf I = (0, ∞) oder I = (−∞, 0)
6x2

Satz 24.9. (24-ii) sei exakt, F sei eine Stammfunktion zu (P, Q) (bzw. zu (24-ii)“).

Ferner sei (x0 , y0 ) ∈ R und sei Q(x0 , y0 ) 6= 0.
Dann existiert in einer hinreichend kleinen Umgebung I von x0 (I Intervall) eine eindeutige Lösung
y : I → R des Anfangswertproblems

P (x, y) + Q(x, y)y 0 = 0


y(x0 ) = y0

Man erhält y, indem man die Gleichung



F x, y(x) = F (x0 , y0 )

nach y(x) auflöst.

268
24.1. Exakte Differentialgleichungen

Beweis: Φ(x, y) := F (x, y) − F (x0 , y0 )

⇒ Φ(x0 , y0 ) = 0, und Φy (x0 , y0 ) = Fy (x0 , y0 ) = Q(x0 , y0 ) 6= 0

Nach dem Satz über implizit definierte Funktionen (22.10):

∃ Umgebung U von x0 und genau eine differenzierbare Funktion y : U → R mit



y(x0 ) = y0 und Φ x, y(x) = 0 für alle x ∈ U

Gegebenenfalls nach Verkleinerung von U : U = I Intervall.



Also: y(x0 ) = y0 und F x, y(x) = F (x0 , y0 ) (konstant!)

Nach 24.5: y löst die Differentialgleichung. 

Beispiel 24.10. (12xy + 3) + 6x2 y 0 = 0, y(1) = 1.

Dann Q(x0 , y0 ) = Q(1, 1) = 6 6= 0

(allgemein: Q(x0 , y0 ) = 6x20 6= 0 ⇔ x0 6= 0)

s.o. ⇒ F (x, y) = 6x2 y + 3x ist eine Stammfunktion und F (1, 1) = 6 + 3 = 9.

Also löse F (x, y) = F (1, 1) = 9 nach y auf.

Also: 6x2 y + 3x = 9

3−x
⇒ y(x) = auf I = (0, ∞) (damit x0 = 1 ∈ I)
2x2

Falls (24-ii) nicht exakt ist, so gibt es unter Umständen eine Funktion µ(x, y), so
dass

µ(x, y) · P (x, y) + µ(x, y) · Q(x, y)y 0 = 0

exakt ist. Solch ein µ heißt integrierender Faktor von (24-ii).

Die Bedingung

(µ · P )y = (µ · Q)x

liefert eine sogenannte partielle Differentialgleichung für die Funktion µ, die im Allgemeinen sehr schwie-
rig zu lösen ist.

µy P + µPy = µx Q + µQx (24-iii)

Häufig hängt µ nur von einer Variablen ab, z.B. von x. Setzt man dann den An-
satz

µ = µ(x)

in (24-iii) ein, erhält man

Py − Qx
µ0 (x) = µ(x)
Q

269
24. Spezielle Differentialgleichungen 1. Ordnung

Beispiel 24.11.

x sin y + y cos y + (x cos y − y sin y) y 0 = 0


| {z } | {z }
=P (x,y) =Q(x,y)

ist nicht exakt.


Ansatz mit einem integrierenden Faktor µ(x)

µ0 (x) Py − Qx
; = =1 ⇔ log |µ| = x + c̃, c̃ ∈ R
µ(x) Q

⇔ µ(x) = cex , c ∈ R
Z 0 
µ
Z
x
dx = 1 dx ⇔ log |µ| = x + c̃ ⇔ µ = ce
µ
Die Differentialgleichung

ex (x sin y + y cos y) + ex (x cos y − y sin y) y 0 = 0 (24-iv)


| {z }
Q∗

ist exakt. (Probe!). Diese lösen wir


Z
F (x, y) = ex (x sin y + y cos y) dx + f (y) = ex y cos y + sin(y)(x − 1)ex + f 0 (x)

Es muss gelten: Fy = Q∗

!
Fy = ex cos y − ex y sin y + cos(y)(x − 1)ex + f 0 (x) = ex (x cos y − y sin y)

⇔ f 0 (y) = 0 ; wähle f (y) ≡ 0


⇒ F (x, y) = ex (x − 1) sin y + y cos y


ist Stammfunktion, die Lösungen von (24-iv) sind

F (x, y) = c, c∈R

in impliziter Form.

24.2. Differentialgleichung mit getrennten


Veränderlichen

Wieder sei I1 , I2 ⊂ R Intervalle, R := I1 × I2 . f : I1 → R und g : I2 → R seien stetig. Weiter


sei

∀y ∈ I2 g(y) 6= 0.

Die Differentialgleichung

y 0 = f (x) · g(y) (24-v)

heißt Differentialgleichung mit getrennten Veränderlichen.

270
24.2. Differentialgleichung mit getrennten Veränderlichen

(24-v) ist gleichbedeutend mit


 
1
f (x) + − y0 = 0 (24-vi)
|{z} g(y)
=:P (x,y) | {z }
=:Q(x,y)

Da f, g1 stetig auf I1 bzw. I2 , existieren Stammfunktionen Φ zu f und Ψ zu g1 .


Setze

F (x, y) := Φ(x) − Ψ(y) für (x, y) ∈ R = I1 × I2


1
⇒ Fx = Φ0 = f (= P ), Fy = −Ψ0 = − (= Q)
g
⇒ F ist Stammfunktion zu (P, Q).
⇒ (24-vi) ist exakt.
Ist x0 ∈ I1 und y0 ∈ I2 , so wähle speziell
Zx Zy
1
Φ(x) := f (t) dt, Ψ(y) := dt
g(t)
x0 y0

Aus Abschnitt 24.1 folgt also:

Satz 24.12. I1 , I2 , f, g wie oben.


(1) Lösungen von (24-v) erhält man, indem man die Gleichung

1
Z Z
dy = f (x) dx + c
g(y)

(mit c ∈ R beliebig) nach y auflöst. ( differenzierbar“)



(2) Ist x0 ∈ I1 , y0 ∈ I2 , so ist die (eindeutige) Lösung des Anfangswertproblems

y 0 = f (x)g(y), y(x0 ) = y0

gegeben durch
y(x) Zx
1
Z
dy = f (t) dt
g(y)
y0 x0

(nach y(x) auflösen)

Schematisch (formal):

dy
y 0 = f (x)g(y) ; = f (x)g(y)
dx
1
; dy = f (x) dx
g(y)
1
Z Z
; dy = f (x) dx + c
g(y)

271
24. Spezielle Differentialgleichungen 1. Ordnung

Beispiel 24.13.
(1) y 0 = y, f (x) = 1, g(y) = y
1
Z Z
; dy = f (x) dx + c
g(y)
| {z }
= y1
| {z }
=log |y|

; |y| = ex+c = e|c{z


· ex}
6=0

; y = ±e ·e c x
|{z}
=:c̃∈R

(2) y 0 = 1 + y 2 ; f (x) = 1, g(y) = 1 + y 2


1
Z
; dy = x + c
1 + y2
| {z }
=arctan(y)

; y = tan(x + c)

(3) y 0 = − xy , y(1) = 1, f (x) = −x, g(y) = 1


y
Z Z
; y dy = − x dx + c̃

y2 x2
; = − + c̃
2 2
⇒ y 2 = −x2 + c ⇒ x2 + y 2 = c
p
⇒ y(x) = ± c − x2 (falls c > 0, c ≤ 0 liefert keine Lösung)
! √
y(1) = 1 ⇒ + –Zeichen, und 1 = c − 1 ⇒ c = 2
p  √ √ 
y(x) = 2 − x2 Lösung der Anfangswertaufgabe auf I = − 2, 2

x·e2x π
(4) y 0 = y cos y , y(0) = 4, I1 = R, I2 = (0, π2 )
Z Z
y cos y dy = xe2x dx + c

partielle Integration liefert


y sin y + cos y = 14 (2x − 1)e2x + c
Anfangswertproblem:
π π π 1
sin + cos = (2 · 0 − 1)e2·0 +c
|4 4{z 4
} |4 {z }
( 4 +1)· √2
π 1 =− 41

1 π  1
⇒ c= + +1 · √
4 4 2
⇒ Lösung der Anfangswertaufgabe:
y(x) sin y(x) + cos y(x) = 14 (2x − 1)e2x + c
 

(Auflösung nach y(x) möglich nach Satz über implizit definierte Funktionen [in einer Umgebung von
x0 = 0, y0 = π4 ], aber nicht in geschlossener Form)

272
24.3. Lineare Differentialgleichungen 1. Ordnung

24.3. Lineare Differentialgleichungen 1. Ordnung

Sei I ⊂ R ein Intervall und α, s : I → R stetig.

Die Differentialgleichung

y 0 = α(x)y + s(x) (24-vii)

heißt lineare Differentialgleichung 1. Ordnung.

(24-vii) heißt homogen, falls s(x) = 0 ∀x ∈ I, sonst inhomogen.

Sind y1 , y2 Lösungen der homogenen Gleichung (s ≡ 0) auf I und sind a, b ∈ R, so


gilt:

(ay1 + by2 )0 = ay10 + by20 = aα(x)y1 + bα(x)y2 = α(x) ay1 + by2




⇒ ay1 + by2 ist auch Lösung der homogenen Gleichung.

⇒ Lösungen der homogenen Gleichung bilden einen Vektorraum.

Weiter: Sind y1 , y2 Lösungen der inhomogenen Gleichung

⇒ (y1 − y2 )0 = α(x)y1 + s(x) − α(x)y2 + s(x) = α(x) y1 − y2


    

⇒ y1 − y2 ist Lösung der homogenen Gleichung.

Ist y Lösung der homogenen, yp 1 Lösung der inhomogenen Gleichung, so ist

(y + yp )0 = α(x)y + α(x)yp + s(x) = α(x) y + yp + s(x)


  

⇒ y + yp ist Lösung der inhomogenen Gleichung.

Also: Die Menge aller Lösungen des inhomogenen Problems ist gegeben durch

{yp + y : y Lösung des homogenen Problems}

wobei yp eine feste spezielle Lösung des inhomogenen Problems ist.

Zunächst bestimme die allgemeine Lösung des homogenen Problems:

Satz 24.14. I, α wie oben. β : I → R sei eine Stammfunktion von α. Dann ist die allgemeine Lösung
der homogenen Gleichung (24-vii) (y 0 = α(x)y) gegeben durch

y(x) = Ceβ(x) für x ∈ I,

mit beliebigem C ∈ R.

Beachte: y 0 = α(x)y ; 1
; ;
 R R
y dy = α(x) dx + c̃ log(y) = β(x) + c̃ y =
Ceβ(x)


1p = partikulär“

273
24. Spezielle Differentialgleichungen 1. Ordnung

Beweis: Zunächst gilt für y(x) := Ceβ(x) (mit C ∈ R):

y 0 (x) = C β 0 (x) eβ(x) = α(x)y(x)


| {z }
=α(x)

⇒ ist Lösung.
Sei nun y irgendeine Lösung der homogenen Gleichung. Setze

y(x)
z(x) = eβ(x) , Φ(x) :=
z(x)

=α(x)y(x) =α(x)z(x)
z }| { z }| {
y 0 (x) z(x) − y(x) z 0 (x)
⇒ Φ0 (x) = =0 für alle x ∈ I
z(x)2
⇒ Φ(x) = C (x ∈ I) mit einem C ∈ R
⇒ y(x) = Cz(x) = Ceβ(x) für alle x ∈ I


Beispiel 24.15.
(1)

y 0 = (sin x) y, (I = R)
| {z }
=:α(x)

⇒ β(x) = − cos x
⇒ allgemeine Lösung: y(x) = Ce− cos x
(2) Anfangswertproblem: y 0 = (sin x)y, y(0) = 1
!
⇒ y(x) = Ce− cos x , C · e− cos 0 = 1 ⇒ C=e
(1)

⇒ Lösung: y(x) = e1−cos x


(3) y 0 = x1 y, y(1) = 2, I = (0, ∞), α(x) = 1
x

⇒ β(x) = log x

⇒ allgm. Lösung der Differentialgleichung: y(x) = Celog x = Cx


Anfangswertproblem: C · 1 = 2 ⇒ C = 2
⇒ Lösung: y(x) = 2x

Aus 24.14 erhält man insbesondere:

Korollar 24.16. I, α wie oben. Sei x0 ∈ I, y0 ∈ R.


Dann hat das Anfgangswertproblem

y 0 = α(x)y, y(x0 ) = x0

genau eine Lösung.

274
24.3. Lineare Differentialgleichungen 1. Ordnung

Beweis: 24.14 ⇒ y(x) = Ceβ(x) allgemeine Lösung der Differentialgleichung.


!
Anfangsbedingung: Ceβ(x0 ) = y0 ⇒ C = y0 e−β(x0 ) eindeutig

⇒ y(x) = y0 eβ(x)−β(x0 ) eindeutige Lösung

Wir brauchen (wegen der linearen Struktur, s.o.) nun eine spezielle Lösung des inhomogenen Pro-
blems.

Sei wieder β Stammfunktion zu α.

Ansatz für eine spezielle (partikuläre) Lösung:

yp (x) = C(x)eβ(x) Variation der Konstanten“


⇒ yp0 (x) = C 0 (x)eβ(x) + C(x) β 0 (x) eβ(x)


| {z }
=α(x)

α(x)yp (x) + s(x) = α(x)C(x)eβ(x) + s(x)


D.h. yp löst das inhomogene Problem genau dann, wenn

C 0 (x)eβ(x) = s(x)

⇔ C 0 (x) = e−β(x) s(x)


Zx
⇔ C(x) = e−β(t) s(t) dt

Zx
⇒ yp (x) = e β(x)
e−β(t) s(t) dt spezielle Lösung der inhomogenen Gleichung

Insgesamt erhält man:

Satz 24.17. Die allgemeine Lösung der inhomogenen Gleichung (24-vii) ist gegeben durch (β Stamm-
funktion zu α)

Zx
y(x) = Ce β(x)
+e β(x)
e−β(t) s(t) dt

Die lineare Differentialgleichung (24-vii), zusammen mit der Anfangsbedingung

y(x0 ) = y0

(mit x0 ∈ I, y0 ∈ R beliebig) wird also eindeutig gelöst durch


Zx
y(x) = e β(x)−β(x0 )
· y0 + e β(x)
e−β(t) s(t) dt
x0

(auf ganz I)

275
24. Spezielle Differentialgleichungen 1. Ordnung

Beispiel 24.18.

(1) y 0 = (sin x)y + sin x

Die Stammfunktion zu α(x) = sin x: β(x) = − cos x

⇒ allgemeine Lösung:
Zx
− cos x − cos x
y(x) = Ce +e ecos t (sin t) dt = Ce− cos x − 1
| {z }
=(−ecos t )0

(2) y 0 = 2xy + x

Stammfunktion zu α(x) = 2x: β(x) = x2

⇒ allgemeine Lösung:
Zx
x2 x2 2 2
y(x) = Ce +e e|−t x
{z }t dt = Ce −
1
2
0
(− 12 e−t2 )

Dann Anfangsbedingung y(0) = 1:


2
1 = Ce0 − 1
2 =C− 1
2 ⇒ C= 3
2

⇒ eindeutige Lösung des Anfangswertproblems:


2
y(x) = 32 ex − 1
2

24.4. Bernoullische Differentialgleichung

I ⊂ R Intervall; g, h : I → R stetig. Die Differentialgleichung

y 0 + g(x)y + h(x)y % = 0 (24-viii)

(mit % ∈ R fest) heißt Bernoullische Differentialgleichung.

In den beiden Fällen % = 0 und % = 1 ist sie linear.

Im folgenden sei also % 6= 0, % 6= 1.

Es gilt für z := y 1−% ( Variablentransformation“)



z 0 = (1 − %)y −% · y 0 = (1 − %)y −% −g(x)y − h(x)y %
 

= −(1 − %)g(x)z − (1 − %)h(x) (24-ix)

lineare Differentialgleichung für z.


1
Lösen; dann löst y := z 1−% (24-viii).

Hier muss ggf. das Intervall, auf dem y definiert ist, gegenüber dem, auf dem z definiert ist, weiter
1
eingeschränkt werden, damit y := z 1−% dort wohldefiniert ist.

276
24.5. Riccatische Differentialgleichung

y
Beispiel 24.19. y 0 + 1+x + (1 + x)y 4 = 0

1
z = y 1−4 =
y3
 
3 3 y 3
0
z = − 4 y0 = 4 + (1 + x)y 4 = z + 3(1 + x)
y y 1+x 1+x
1
Anfangsbedingung: z(0) = (−1)3 = −1
3
Eindeutige Lösung: (Stammfunktion zu α(x) = 1+x : β(x) = 3 log(1 + x) = log(1 + x)3 )

Zx
log(1+x)3 −log(1+0)3 log(1+x)3 3
z(x) = (−1) · e +e e− log(1+t) · 3(1 + t) dt
| {z }
0 3
= (1+t)2
 x
3
= −(1 + x)3 + (1 + x)3 · −
1+t
| {z 0}
3
=− 1+x +3

= 2(1 + x)3 − 3(1 + x)2 = (1 + x)2 2(1 + x) − 3


 

= (1 + x)2 (2x − 1) (def. auf ganz R)

Jetzt:
1 1
y(x) = z(x)− 3 = p
3
(1 + x)2 (2x − 1)
1

definiert auf I = −1, 2 .

24.5. Riccatische Differentialgleichung


I ⊂ R Intervall; g, h, k : I → R stetig. Die Differentialgleichung

y 0 + g(x)y + h(x)y 2 = k(x) (24-x)

heißt Riccatische Differentialgleichung.


Sind y1 , y2 Lösungen von (24-x), so setze u := y1 − y2 .
Dann:

u0 = −g(x)y1 − h(x)y12 + k(x) − −g(x)y2 − h(x)y22 + k(x)


   

= −g(x)u − h(x) (y12 − y22 )


| {z }
=u(u+2y2 )

= −g(x)u − h(x)u2 − 2h(x)y2 · u


= − g(x) + 2h(x)y2 (x) u − h(x)u2

(Bernoullische Differentialgleichung für u)

Also: Falls eine Lösung y2 von (24-x) bekannt ist (in der Regel durch scharfes Hinsehen“),

so bestimme die allgemeine Lösung u obiger Bernoulli–Differentialgleichung; dann ist mit-
tels

y = y2 + u

die allgemeine Lösung von (24-x) bekannt.

277
24. Spezielle Differentialgleichungen 1. Ordnung

278
25. Systeme von Differentialgleichungen erster
Ordnung

25.1. Allgemeines

Ein System von Differentialgleichungen 1. Ordnung besteht aus n Differentialgleichun-


gen

y10 = f1 (x, y1 , . . . , yn )
y20 = f2 (x, y1 , . . . , yn )
..
.
yn0 = fn (x, y1 , . . . , yn )

mit gegebenen f1 , . . . , fn : D → R (wobei D ⊂ Rn+1 ) und gesuchten (unbekannten)


y1 , . . . , y n .

Abkürzungen: y := (y1 , . . . , yn ) (vektorwertige Funktion)


Punkte (x, y1 , . . . , yn ) ∈ D schreibe als (x, y).
f := (f1 , . . . , fn ) : D → Rn .
Obiges System kann also geschrieben werden als

y 0 = f (x, y) (25-i)

Ist I ⊂ R Intervall und y = (y1 , . . . , yn ) : I → Rn differenzierbar auf I (also y1 , . . . , yn differenzierbar),


so heißt y eine Lösung von (25-i), wenn:

x, y(x) ∈ D und y 0 (x) = f x, y(x)


 
∀x ∈ I

Ist x0 ∈ R, y0 ∈ Rn mit (x0 , y0 ) ∈ D, so heißt

y 0 = f (x, y), y(x0 ) = y0 (25-ii)

ein Anfangswertproblem für das Differentialgleichungs-System (25-i).


Ist y eine Lösung von (25-i) auf I und gilt x0 ∈ I sowie y(x0 ) = y0 , so heißt y eine Lösung des
Anfangswertproblems (25-ii).

Satz 25.1 (Existenzsatz von Peano). f : D → Rn sei stetig auf D, D ⊂ Rn+1 sei offen, und es sei
(x0 , y0 ) ∈ D.
Dann hat das Anfangswertproblem (25-ii) eine Lösung. (auf einem möglicherweise kleinen“ Intervall

I 3 x0 )

279
25. Systeme von Differentialgleichungen 1. Ordnung

Definition 25.2. Sei g = (g1 , . . . , gn ) : [a, b] → Rn eine Funktion mit gj ∈ R[a, b] (j = 1, . . . , n).
Dann setze
Zb Zb Zb
 

g(t) dt :=  g1 (t) dt, . . . , gn (t) dt ∈ Rn


a a a

Satz 25.3 (Existenz- und Eindeutigkeitssatz von Picard–Lindelöf). Sei f : D → Rn stetig, D ⊂ Rn+1
offen, (x0 , y0 ) ∈ D.
Ferner genüge f auf D einer Lipschitz–Bedingung bzgl. y, d.h. es existiert ein L ≥ 0 mit

∀(x, y), (x, ỹ) ∈ D kf (x, y) − f (x, ỹ)k ≤ Lky − ỹk

Dann hat das Anfangswertproblem (25-ii) genau eine Lösung (auf einem möglicherweise kleinen“ In-

tervall I 3 x0 ).
Setzt man bei geeignetem“ y (0) ∈ C(I, Rn ) (I hinreichend klein)

Zx  
y (k+1) (x) := y0 + f t, y (k) (t) dt (k ∈ N),
x0

so konvergiert die Folge y (k) k∈N gleichmäßig auf I gegen die Lösung des Anfangswertproblems. (Be-


achte: k ist hier Folgenindex, keine Ableitung.)

Bemerkung 25.4. Statt einer offenen Menge D ⊂ Rn+1 sind auch Mengen der Form
D = [a, b] × Rn
zulässig, sowohl für 25.1 als auch für 25.3.

Beispiel 25.5. n = 1, y 0 =
p
|y|, y(0) = 0. (Differentialgleichung mit getrennten Variablen)
Lösen ; y(x) = 14 x2 (für x ≥ 0)

p
ppp
....
.....

pppp pp
(
0 für x ≤ 0 pp
⇒ y(x) = p ppp p
1 2
4x für x > 0 pp p p p p p p p p p p p p ...........
..

Außerdem: y ≡ 0 ist Lösung des Anfangswertproblems.


[Weitere Lösungen: vgl. Abb. 25.1]
p
f (x, y) := |y| ist in der Tat stetig, aber f genügt keiner Lipschitz–Bedingung bzgl. y:
Annahme: Es existiert ein L ≥ 0 mit kf (x, y) − f (x, ỹ)k ≤ Lky − ỹk für alle x, y, ỹ ∈ R, dann also.
p p p p p p 
|y| − |ỹ| ≤ L|y − ỹ| = L |y| − |ỹ| · | |y| + |ỹ|
y·ỹ>0
p p 
⇔ 1≤L |y| + |ỹ| für |y|, |ỹ| hinreichend klein
y6=ỹ

280
25.1. Allgemeines

....
..... pp ....
..... pp
1
4 (x − c)2 p p p
1
4 (x − c)2 ppp
pp p pp
p p p p p pp p p p p p pp p p
p pp p p p pp p p pp p p p p
p p p p p p pp p p p p p p p p p p p pp p p p p
pp p p p p p c̃
........... ...........
.. ..

c pppp pp pp c
p
p p − 14 (x − c̃)2
pp

Abbildung 25.1.: Weitere Lösungen zum Beispiel 25.5

Satz 25.6. Es sei D = I × Rn , I ⊂ R (kompaktes) Intervall. f : D → Rn stetig. Die partielle Ableitung


∂fi
∂yj mögen auf D existieren und seien beschränkt auf D (i, j = 1, . . . , n).

Dann gilt die Behauptung des Satzes von Picard–Lindelöf 25.3. Die eindeutige Lösung ist ferner auf
ganz I definiert.

Beweisidee: Mittelwertsatz der Differentialrechnung:

fi (x, y) − fi (x, ỹ) = (grad fi )(x, η) · (y − ỹ)

mit η ∈ Verbindunsstrecke zwischen y und ỹ.

⇒ fi (x, y) − fi (x, ỹ) ≤ (grad fi )(x, η) ·ky − ỹk


| {z }
≤L (solch ein L ex.)

⇒ Lipschitz–Bedingung. 
Für den Rest des Abschnittes spezialisieren wir uns auf den Fall:
I ⊂ R Intervall, ajk : I → R gegebene stetige Funktionen (j, k = 1, . . . , n), und b1 , . . . , bn : I → R stetig;
setze
   
a11 (x) · · · a1n (x) b1 (x)
A(x) :=  ... .. ..  , b(x) :=  .. 

. .   . 
an1 (x) · · · ann (x) bn (x)

Das zu untersuchende System ist


 0  
y1 y1
 ..   .. 
 .  = A(x)  .  + b(x); kurz: y 0 = A(x)y + b(x)
yn0 yn

dieses System heißt lineares Differentialgleichungssystem.

Satz 25.7. Sei x0 ∈ I, y0 ∈ Rn . Dann hat das Anfangswertproblem

y 0 = A(x)y + b(x), y(x0 ) = y0

genau eine Lösung auf ganz I.

Beweisskizze: f (x, y) := A(x)y + b(x) stetig auf D := I × Rn


Sei [a, b] kompaktes Intervall mit x0 ∈ [a, b] ⊂ I.

281
25. Systeme von Differentialgleichungen 1. Ordnung

Dann gilt:

∀x ∈ [a, b], y, ỹ ∈ Rn f (x, y) − f (x, ỹ) = A(x) · (y − ỹ) ≤ A(x) ·ky − ỹk
| {z }
≤ max kA(x)k
x∈[a,b]
=:L

⇒ Lipschitz–Bedingung
⇒ Eindeutige Lösung des Anfangswertproblems auf [a, b].
25.3

⇒ Eindeutige Lösung auf I. 

Satz 25.8.
(1) Durchläuft yh alle Lösungen des homogenen Systems

y 0 = A(x)y

und ist yp eine spezielle Lösung des inhomogenen Systems

y 0 = A(x)y + b(x) (25-iii)

so durchläuft yh + yp alle Lösungen von (25-iii).


(2) Die Lösungen des homogenen Systems y 0 = A(x)y bilden einen Vektorraum V .
(3) Für y (1) , . . . , y (k) ∈ V sind folgende Aussagen äquivalent:
(a) y (1) , . . . , y (k) sind linear unabhängig.
(b) ∀ξ ∈ I y (1) (ξ), . . . , y (k) (ξ) sind linear unabhängig im Rn .
(c) ∃ξ ∈ I y (1) (ξ), . . . , y (k) (ξ) sind linear unabhängig im Rn .
(4) Sei ξ ∈ I, und für j ∈ {1, . . . , n} sei z (j) die (eindeutige!) Lösung des Anfangswertproblems

y 0 = A(x)y, y(ξ) = ej

Dann ist z , . . . , z (n) eine Basis von V . Insbesondere gilt also dim V = n.
 (1)

Beweis:
(1) wie im Fall n = 1.
(2) (αy1 + βy2 )0 = A(x)(αy1 + βy2 ) ∀y1 , y2 ∈ V, α, β ∈ R
(3)
• (a) ⇒ (b)“: Sei ξ ∈ I und seien c1 , . . . , ck ∈ R,

c1 y (1) (ξ) + · · · + ck y (k) (ξ) = 0

Setze y := c1 y (1) + · · · + ck y (k) ∈ V , d.h. y 0 = A(x)y, und es gilt y(ξ) = 0.


(2)

⇒ y löst das Anfangswertproblem y 0 = A(x)y, y(ξ) = 0.


Die Funktion ≡ 0 löst dieses Anfangswertproblem ebenfalls!
Lösung eindeutig (25.7) ⇒ y ≡ 0 auf I

⇒ c1 y (1) + · · · + ck y (k) ≡ 0 auf I

⇒ c1 = · · · = ck = 0, da y (1) , . . . , y (k) ∈ V linear unabhängig.

282
25.2. Lineare Differentialgleichungs-Systeme

• (b) ⇒ (c)“: klar (I 6= ∅)



• (c) ⇒ (a)“: Seien c1 , . . . , ck ∈ R und

c1 y (1) + · · · + ck y (k) ≡ 0 auf I

⇔ ∀x ∈ I c1 y (1) (x) + · · · + ck y (k) (x) = 0


⇒ c1 y (1) (ξ) + · · · + ck y (k) (ξ) = 0 (mit ξ aus (c))
⇒ c1 = · · · = ck = 0
(c)

(4) Nach (3) sind z (1) , . . . , z (n) linear unabhängig in V , denn

z (1) (ξ) = e1 , . . . , z (n) (ξ) = en sind linear unabhängig in Rn

⇒ dim V ≥ n
Wäre dim V > n, so existiere ein y (0) ∈ V mit

z (1) , . . . , z (n) , y (0) linear unabhängig in V

⇒ z (1) (ξ), . . . , z (n) (ξ), y (0) (ξ) linear unabhängig in Rn


(3)
| {z }
n+1 Vektoren

Definition 25.9. n linear unabhängige Lösungen von y 0 = A(x)y (also eine Basis von V ) nennt man
auch ein Fundamentalsystem (FS) von y 0 = A(x)y.

Die konkrete Berechnung eines Fundamentalsystems ist unter den bisher gemachten allgemeinen Bedin-
gungen i.a. nicht möglich.

25.2. Lineare Differentialgleichungs-Systeme


Betrachte nun den Spezialfall, dass die Funktionen ajk : I → R alle konstant sind. Wir betrachten also
jetzt das lineare Differentialgleichungs-System mit konstanten Koeffizienten

y 0 = Ay + b(x). (25-iv)

und zunächst das homogene System

y 0 = Ay (25-v)

Es sei p(λ) := det(A − λI) das charakteristische Polynom von A. Also gilt:

∀λ ∈ C λ Eigenwert von A ⇔ p(λ) = 0

Da A in unserem Fall reelle Koeffizienten hat, gilt:


Ist λ ∈ C Eigenwert von A ⇒ p(λ) = 0

⇒ p(λ) = 0 =⇒ p(λ) = 0
Koeff. reell

⇒ λ ist Eigenwert von A

283
25. Systeme von Differentialgleichungen 1. Ordnung

Satz 25.10 (Lösungsverfahren für y 0 = Ay).


(1) Bestimme die verschiedenen Nullstellen λ1 , . . . , λr ∈ C von p, also gilt

p(λ) = (−1)n (λ − λ1 )k1 · (λ − λ2 )k2 · · · (λ − λr )kr

mit k1 , . . . , kr ∈ {1, . . . , n}.


Es gelte etwa:

λ1 , . . . , λm ∈ R; λm+1 , . . . , λr ∈ C \ R

Also

λm+1 = µ1 , . . . , λm+s = µs
λm+s+1 = µ1 , . . . , λm+2s = µs

(Kann im Falle n ≥ 5 schiefgehen, da die Nullstellen von p(λ) dann möglicherweise nicht durch
Radikale“ (geschlossene Formeln) bestimmbar sind.)

(2) Für λ1 , . . . , λm+s bestimme eine Basis von

Kern (A − λj I)kj


(λm+s+1 = µ1 , . . . , λm+2s = µs bleiben unberücksichtigt)


(3) Sei j ∈ {1, . . . , m + s} und v einer der in (2) bestimmten Basisvektoren von Kern (A − λj I)kj .


Dann existiert ein mj ≤ kj (mj abhängig von v) mit


mj mj −1
(A − λj I) v = 0, (A − λj I) v 6= 0

Setze
x2 xmj −1
 
y(x) := e λj x
v + x(A − λj I)v + (A − λj I)2 v + · · · + (A − λj I)mj −1 v
2 (mj − 1)!

Ist λj ∈ R (also j ∈ {1, . . . , m}) ⇒ y(x) ∈ Rn und y löst y 0 = Ay ← Beitrag zum FS.
Ist λj ∈ C \ R (also j ∈ {m + 1, . . . , r})
⇒ Re y(x) , Im y(x) (komponentenweise) lösen y 0 = Ay
 

⇒ Re y, Im y beide Beitrag zum Fundamentalsystem.

Führt man (3) für jedes λj (j = 1, . . . , m + s) und jeden Basisvektor v von Kern (A − λj I)kj durch, so

r
erhält man insgesamt ein Fundamentalsystem für y 0 = Ay (beachte
P
kj = n)
j=1

Spezialfall: A sei reell diagonalisierbar, also existiert eine Basis (ψ1 , . . . , ψb ) von Eigenvektoren zu
Eigenwerten λ1 , . . . , λn ∈ R
⇒ Ein Fundamentalsystem y (1) , . . . , y (n) von y 0 = Ay ist gegeben durch
y (j) (x) := eλj x ψj

Beweis:
 0
y (j) = λj eλj x ψj = eλj x (λj ψj ) = A eλj x ψj = Ay (j) (x)

| {z }
=Aψj

284
25.2. Lineare Differentialgleichungs-Systeme

Außerdem sind y (1) (0), . . . , y (n) (0) = (ψ1 , . . . , ψn ) linear unabhängig.




⇒ y (1) , . . . , y (n) linear unabhängig in V . 


Beispiel 25.11.
(1)
 
0 1 −1
0
y = −2 3 −1 y
−1 1 1
| {z }
=:A

p(λ) = det(A − λI) = −(λ − 2)(λ − 1)2 (⇒ λ1 = 2, k1 = 1; λ2 = 1, k2 = 2)


λ1 = 2:
* +
0
Kern(A − 2I) = 1
1
   
0 0
⇒ y (1) (x) = e2x 1 = e2x 
1 e2x
λ2 = 1:
*1+
Kern(A − I) = 1
0
*1 0+
Kern (A − I)2 = 1 , 0


0 1
Also
     
1 0 −1
(A − I) 1 = 0, (A − I) 0 = −1
0 1 0
   x
1 e
⇒ y (2) (x) = ex 1 = ex 
0 0
   
0 0
y (3) (x) = ex 0 + x(A − I) 0
1 1
   
0 −1
= ex 0 + x −1
1 0
x
 
−xe
= −xex 
ex
Allgemeine Lösung von y 0 = Ay:
y(x) = c1 y (1) (x) + c2 y (2) (x) + c3 y (3) (x)
c2 ex − c3 xex
 

= c1 e2x + c2 ex − c3 xex  , c1 , c2 , c3 ∈ R


c1 e2x + c3 ex

285
25. Systeme von Differentialgleichungen 1. Ordnung

(2)
 
0 2 0
y0 =  0 0 2 y
−1 1 0
   
p(λ) = det(A − λI) = −(λ + 2) λ − (1 + i) · λ − (1 − i)
λ1 = −2:
* +
1
Kern(A + 2I) = −1
1
 
1
⇒ y (1) (x) = e−2x −1
1
λ2 = 1 + i:
*2 − 2i+

Kern A − (1 + i)I =  2 
1+i

   
2 − 2i 2 − 2i
e(1+i)x  2  = ex (cos x + i sin x)  2 
1+i 1+i
 
2 cos x − 2i cos x + 2i sin x + 2 sin x
= ex  2 cos x + 2i sin x 
cos x + i cos x + i sin x − sin x
   
2 cos x + 2 sin x 2 sin x − 2 cos x
= ex  2 cos x  +i ex  2 sin x 
cos x − sin x cos x + sin x
| {z } | {z }
=:y (2) (x) =:y (3) (x)

(3)
 
1 −2 1
y 0 = 0 −1 −1 y
0 4 3

p(λ) = −(λ − 1)3

*1+
Kern(A − I) =0
0
*1  0 +
Kern (A − I)2 = 0 ,  1 


0 −2
*1  0  0+
Kern (A − I)3 = R3 = 0 ,  1  , 0


0 −2 1

286
25.2. Lineare Differentialgleichungs-Systeme

           
1 0 0 −4 0 1
⇒ (A − I) 0 = 0 (A − I)  1  =  0  (A − I) 0 = −1
0 0 −2 0 1 2

           
1 0 0 0 0 −4
(A − I)2 0 = 0 (A − I)2  1  = 0 (A − I)2 0 =  0 
0 0 −2 0 1 0

 
1
⇒ y (1) (x) = ex 0
0
       
0 0 0 −4
y (2) (x) = ex  1  + x(A − I)  1  = ex  1  + x  0 
−2 −2 −2 0
     
0 0 0
x2
y (3) (x) = ex 0 + x(A − I) 0 + (A − I)2 0
2
1 1 1
     
0 1 −4
x2  
= ex 0 + x −1 + 0
2
1 2 0

Wir betrachten jetzt die inhomogene Gleichung

y 0 = Ay + b(x); b : I → R stetig

Wir können jetzt sogar wieder x–abhängiges A zulassen. Wir brauchen allerdings ein Fundamentalsystem
von y 0 = A(x)y.
Sei y (1) , . . . , y (n) ein Fundamentalsystem; bilde daraus die sog. Fundamentalma-
trix
 
Y (x) := y (1) (x) y (2) (x) ··· y (n) (x)

Die allgemeine Lösung von y 0 = A(x)y lautet:


 
c1
 .. 
c1 y (x) + c2 y (x) + · · · + cn y (x) = Y (x) ·  .  = Y (x)c mit c = (c1 , . . . , cn ) ∈ Rn
(1) (2) (n)

cn

Ansatz für eine spezielle Lösung der inhomogenen Gleichung:

yp (x) = Y (x)c(x) Variation der Konstanten“



(c = (c1 , . . . , cn ), cj differenzierbar)
 0  0 
⇒ yp0 (x) = y (1) (x) · · · y (n) (x) c(x) + Y (x)c0 (x)
 
= A(x)y (1) (x) · · · A(x)y (n) (x) c(x) + Y (x)c0 (x)
= A(x)Y (x)c(x) + Y (x)c0 (x)
= A(x)yp (x) + Y (x)c0 (x)
!
= A(x)yp (x) + b(x)

287
25. Systeme von Differentialgleichungen 1. Ordnung

⇔ Y (x)c0 (x) = b(x)

⇔ c0 (x) = Y (x)−1 b(x) (da y (1) (x), . . . , y (n) (x) linear unabhängig, also Y (x) invertierbar)
Zx
⇔ c(x) = Y (t)−1 b(t) dt (komponentenweise)

Zx
⇒ yp (x) = Y (x) Y (t)−1 b(t) dt

ist spezielle Lösung der inhomogenen Gleichung y 0 = A(x)y + b(x).

⇒ Allgemeine Lösung der inhomogenen Gleichung ist also

Zx
y(x) = Y (x)c + Y (x) Y (t)−1 b(t) dt, c ∈ Rn beliebig

Beispiel 25.12.
   x
1 0 e
y0 = y + −x
0 −1 e

⇒ Fundamentalsystem
   
1 0
y (1) (x) := ex , y (2) (x) := e−x
0 1

ex e−x
   
0 −1 0
⇒ Y (x) = ⇒ Y (x) =
0 e−x 0 ex
Zx Zx  −t Zx  
et
   
−1 e 0 1 x
⇒ Y (t) b(t) dt = dt = dt =
0 et e−t 1 x
⇒ allgemeine Lösung:
 x    x
c1 ex + xex
   
e 0 c1 e 0 x
y(x) = + = ; c1 , c2 ∈ R beliebig
0 e−x c2 0 e−x x c2 e−x + xe−x

25.3. Reduktionsverfahren von d’Alembert

Gegeben sei das System

y 0 (x) = A(x) · y(x) (25-vi)



auf einem Intervall J. (y = (y1 , . . . , yn ), A = ajk (x) j,k=1,...,n
)

Im allgemeinen ist es nicht möglich, die Lösungen in geschlossener Form anzugeben. Ist jedoch eine
Lösung ŷ bekannt, läßt sich das System auf ein System mit n − 1 Differentialgleichungen zurückführen
mittels des Ansatzes

y(x) = ϕ(x) · ŷ(x) + z(x) (25-vii)

288
25.3. Reduktionsverfahren von d’Alembert

mit einer skalaren Funktion ϕ und einer vektorwertigen Funktion


 
0
 z2 
z= . 
 
 .. 
zn

Dieses y löst (25-vi) genau dann, wenn

z 0 = Az − ϕ0 · ŷ

In Komponenten ausgeschrieben:
n
X
0= a1j zj − ϕ0 ŷ1 (25-viii)
j=2

n
X
∀k = 2, . . . , n : zk0 = akj (x)zj (x) − ϕ0 (x)ŷk (x) (25-ix)
j=2

Eliminieren von ϕ0 ((25-viii) in (25-ix)) ergibt:


n  
X ŷk
zk0 = akj − a1j zj (k = 2, . . . , n) (25-x)
j=2
ŷ1

also ein homogenes System mit n − 1 Gleichungen.


Dabei ist ŷ1 (x) 6= 0 in J vorausgesetzt (statt der ersten kann man auch eine andere Komponente
auszeichnen: zl ≡ 0, ŷj 6= 0 in J).
Ist (z2 , . . . , zn ) eine Lösung von (25-x), dann erhält man aus (25-viii)
n
1 X
Z
ϕ(x) = a1j zj dx
ŷ1 j=2

und daraus eine Lösung von (25-vi) gemäß (25-vii).


Hat man ein Fundamentalsystem Z(x) = z (2) , . . . , z (n) von (25-x), so führt dies auf n − 1


Lösungen y (2) , . . . , y (n) von (25-vi), die zusammen mit ŷ ein Fundamentalsystem von (25-vi) bil-
den.
Beweis: der linearen Unabhängigkeit.
Sei für k = 2, . . . , n : y (k) = ϕk (x)ŷ + z (k) und sei

λ1 ŷ + λ2 y (2) + · · · + λn y (n) = 0 ∈ Rn (25-xi)


(k)
Für die erste Komponente folgt (wegen z1 = 0):

λ1 + λ2 ϕ2 + · · · + λn ϕn = 0

Mit ŷ multipliziert und von (25-xi) subtrahiert ergibt

λ2 z (2) + · · · + λn z (n) = 0 ⇒ λ2 = . . . = λn = 0

⇒ λ1 = 0


289
25. Systeme von Differentialgleichungen 1. Ordnung

Beispiel 25.13.
1 
−1
y 0 = 1t 2 y(t) = A(t) · y(t)
t2 t

t2
 
Eine Lösung ist ŷ(t) =
−t
Ansatz:
t2

  
0
y = ϕ(t) +
−t z(t)

−t
 
0 2 1
⇒ z (t) = − (−1) 2 z(t) = · z(t)
t t t
Eine Lösung ist z(t) = t.

−1
Z
⇒ ϕ(t) = · t dt = − log t
t2

wenn wir J = (0, ∞) zugrunde legen.


 2   
−t2 log t

t 0
⇒ y(t) = − log t + =
−t t t(log t + 1)

ist eine zweite Lösung des ursprünglichen Systems.


⇒ ein Fundamentalsystem ist
 2
−t2 log t

t
Y (t) =
−t t(log t + 1)

Bemerkung 25.14. Reduktionsverfahren für

y (n) + an−1 (t)y (n−1) (t) + · · · + a0 y(t) = 0

geht mit dem Ansatz y(t) = ŷ(t) · z(t).

290
26. Lineare Differentialgleichungen höherer
Ordnung
Wir betrachten eine lineare Differentialgleichung n-ter Ordnung
y (n) + an−1 (x)y (n−1) + · · · + a1 (x)y 0 + a0 (x)y = b(x) (26-i)
mit gegebenen a0 , . . . , an−1 : I → R, b : I → R, alle stetig. (I Intervall)
Gesucht ist also eine n-mal differenzierbare Funktion y : I → R, so dass
∀x ∈ I y (n) (x) + an−1 (x)y (n−1) (x) + · · · + a0 (x)y(x) = b(x)

Setze
 
y(x)
 y 0 (x)
y 00 (x)
 
z(x) =  , also z : I → R
 
 ..
 .
(n−1)
y (x)
Dann ist (26-i) äquivalent zu

···
  
0 1 0 0 0
 .. . .. .. .. ..
  .. 
 . . . .  . 
0 . z +  . 
   
z = . .. ..  .. 
 . . . 0 
  
 0 ··· ··· 0 1   0 
−a0 (x) · · · ··· ··· −an−1 (x) b(x)

Aus Abschnitt 25 erhalten wir daher:

Satz 26.1.
(1) Sei x0 ∈ I; seien y0 , y1 , y2 , . . . , yn−1 ∈ R vorgegeben.
Das Anfangswertproblem

y (n) + an−1 y (n−1) + · · · + a0 y(x) = b(x)

y(x0 ) = y0 , y 0 (x0 ) = y1 , · · · , y (n−1) (x0 ) = yn−1


| {z }
 
y0
 
 y1 
 
 .
⇔ z(x0 )= 
 ..


 
yn−1

hat genau eine Lösung auf I.


(2) Die Lösungen der homogenen Gleichung (b ≡ 0) bilden einen n-dimensionalen reellen Vektorraum
V.

291
26. Lineare Differentialgleichungen höherer Ordnung

Definition 26.2. Sind y1 , . . . , yn : I → R Lösungen der homogenen Gleichung und sind y1 , . . . , yn linear
unabhängig in V , so nennt man y1 , . . . , yn wieder ein Fundamentalsystem der Differentialgleichung.

Satz 26.3. Ist y1 , . . . , yn ein Fundamentalsystem der Differentialgleichung und ist yp eine spezielle
Lösung der inhomogenen Gleichung, so hat jede Lösung der inhomogenen Gleichung die Form

y = c1 y1 + · · · + cn yn + yp mit c1 , . . . , cn ∈ R

Wir spezialisieren jetzt:


a0 , a1 , . . . , an−1 seien konstant
Die Differentialgleichung heißt dann lineare Differentialgleichung n-ter Ordnung mit konstanten Koeffi-
zienten.
Wie bei obiger Transformation sei nun

0 ···

0 1 0
 .. .. .. .. .. 
 . . . . . 
.
 
A := 
 .. . .. . ..

 0 
 0 ··· ··· 0 1 
−a0 −a1 · · · · · · −an−1
Durch Entwicklung nach der letzten Zeile erhält man
p(λ) = det(A − λ · I) = (−1)n λn + an−1 λn−1 + · · · + a1 λ + a0
 

(charakteristisches Polynom der Differentialgleichung n-ter Ordnung)


Aus 25.10 erhalten wir folgende Methode zur Bestimmung eines Fundamentalsy-
stems:
(1) Bestimme die verschiedenen Nullstellen λ1 , . . . , λr von p(λ) und deren Vielfachheiten.
p(λ) = (−1)n (λ − λ1 )k1 · · · (λ − λr )kr
Dabei seien
λ1 , . . . , λm ∈ R; λm+1 , . . . , λr ∈ C \ R

λm+1 = µ1 , . . . , λm+s = µs
λm+1+s = µ1 , . . . , λm+2s = µs (m + 2s = r)

(2) Sei j ∈ {1, . . . , m}. Dann sind


eλj x , xeλj x , x2 eλj x , . . . , xkj−1 eλj x
kj Beiträge zum Fundamentalsystem
(3) Sei j ∈ {m + 1, . . . , m + s}, λj = αj + iβj , (αj , βj ∈ R, βj 6= 0)
Dann sind
eαj x cos(βj x), xeαj x cos(βj x), . . . , xkj−1 eαj x cos(βj x)
eαj x sin(βj x), xeαj x sin(βj x), . . . , xkj−1 eαj x sin(βj x)
2kj Beiträge zum Fundamentalsystem.
(4) Führt man (2) für j = 1, . . . , m und (3) für j = m + 1, . . . , m + s durch, so erhält man insgesamt
ein Fundamentalsystem.

292
Beispiel 26.4. y (5) + 4y (4) + 2y 000 − 4y 00 + 8y 0 + 16y = 0

charakteristisches Polynom:

p(λ) = (−1)n λ5 + 4λ4 + 2λ3 − 4λ2 + 8λ + 16




= (−1)n (λ + 2)3 λ − (1 − i) · λ − (1 + i)
   

λ1 = −2, k1 = 3

⇒ y1 (x) = e−2x , y2 (x) = xe−2x , y3 (x) = x2 e−2x

λ2 = 1 − i, k2 = 1

⇒ ỹ4 (x) = ex cos(−x) = ex cos x


x
ỹ5 (x) = e sin(−x) = −ex sin x

⇒ y4 (x) = ex cos x, y5 (x) = ex sin x

⇒ allgemeine Lösung:

y(x) = e−2x c1 + c2 x + c3 x2 + ex (c4 cos x + c5 sin x) mit c1 , . . . , c5 ∈ R




Um eine spezielle Lösung yp der inhomogenen Gleichung zu erhalten, kann man immer mit Variation
der Konstanten zum Ziel kommen:

Ist y1 , . . . , yn ein Fundamentalsystem der Gleichung n-ter Ordnung, so ist ein Fundamentalsystem des
äquivalenten Systems 1. Ordnung gegeben durch

yj
 
 yj0 
yj00
 
(j)
z = , j = 1, . . . , n
 
 .. 
 . 
(n−1)
yj

also eine Fundamentalmatrix Z durch

y1 ··· yn
 
 .. .. .. 
Z(x) =  . . .  (x)
(n−1) (n−1)
y1 ··· yn

⇒ Spezielle Lösung der inhomogenen Gleichung beim System 1. Ordnung:


 
0
Zx  .. 
yp (x) = Z(x) Z(t)−1  .  dt
 
 0 
b(t)

Die 1. Komponente von zp ist dann eine spezielle Lösung yp der inhomogenen skalaren Gleichung n-ter
Ordnung.

293
26. Lineare Differentialgleichungen höherer Ordnung

26.1. Differentialgleichungen mit speziellen


Inhomogenitäten

Für spezielle Inhomogenitäten b(x), nämlich

b(x) = q(x) · eαx cos(βx)

mit α, β ∈ R und einem Polynom q vom Grad k, kann man mit folgendem Ansatz für eine spezielle
Lösung yp einfacher zum Ziel kommen:1
(
q̂(x) cos(βx) + q̃(x) sin(βx) eαx

falls p(α + iβ) 6= 0
yp (x) =
xν q̂(x) cos(βx) + q̃(x) sin(βx) eαx

falls α + iβ eine ν-fache Nullstelle von p ist

Dabei sind q̂ und q̃ anzusetzen als Polynome vom Grad k.

Beispiel 26.5.

(1) y 000 − y 0 = x − 1

1. homogene Gleichung: charakteristisches Polynom: p(λ) = −(λ3 − λ) = −λ(λ − 1)(λ + 1)

⇒ Fundamentalsystem: e0x = 1, ex , e−x




2. inhomogene Gleichung: b(x) = x − 1 (von obiger Form mit q(x) = x − 1, α = β = 0)

⇒ Ansatz mit Polynomen q̂, q̃ vom Grad 1:

yp (x) = x1 q̂(x) cos(0x) + q̃(x) sin(0x) e0x




(x1 , da 0 + i0 einfache Nullstelle von p(λ))

d.h. yp (x) = x(ax + b).

⇒ yp0 (x) = 2ax + b


yp00 (x) = 2a
yp000 (x) = 0

!
⇒ yp000 (x) − yp0 (x) = −2ax − b = x − 1

⇒ a = − 12 , b=1
1
⇒ yp (x) = x − x2
2
⇒ allgemeine Lösung von y 000 − y 0 = x − 1:

1
y(x) = c1 + c2 ex + c3 e−x + x − x2
2

(2) y 00 + 4y 0 = cos(2x)

1. homogene Gleichung: charakteristisches Polynom p(λ) = λ2 + 4λ = λ(λ + 4)

⇒ Fundamentalsystem: 1, e−4x
1 Die folgenden Aussagen gelten analog auch für b(x) = q(x) · eαx sin(βx)

294
26.2. Eulersche Differentialgleichungen

2. inhomogene Gleichung: (q ≡ 1, α = 0, β = 2)

⇒ α + iβ = 2i keine Nullstelle von p.

⇒ Ansatz:

yp (x) = a cos(2x) + b sin(2x)

⇒ yp0 (x) = −2a sin(2x) + 2b cos(2x)


yp00 (x) = −4a cos(2x) − 4b sin(2x)

!
⇒ yp00 (x) + 4yp0 (x) = (−4a + 8b) cos(2x) + (−4b − 8a) sin(2x) = cos(2x)

! !
⇔ −4a + 8b = 1, −4b − 8a = 0
1 1
⇔ a=− , b=
20 10
1 1
⇒ yp (x) = − · cos(2x) + · sin(2x)
20 10
⇒ allgemeine Lösung von y 00 + 4y = cos(2x):

1 1
y(x) = c1 + c2 e−4x − · cos(2x) + · sin(2x)
20 10

26.2. Eulersche Differentialgleichungen

Die Eulersche Differentialgleichung ist eine lineare Differentialgleichung n-ter Ordnung mit
nicht-konstanten Koeffizienten, bei der man dennoch ein Fundamentalsystem geschlossen angeben
kann:

an xn y (n) + an−1 xn−1 y (n−1) + · · · + a1 xy 0 + a0 y = 0

d.h. die alten“ aj (x) sind jetzt gegeben als aj · xj (mit neuen“ Konstanten a0 , . . . , an , an 6=
” ”
0).

Wenn y(x) eine Lösung ist, dann auch y(−x). (Nachrechnen)

⇒ Betrachte nur positive x.

Substitution: x = et ; d.h. setze u(t) := y(et )

Dann:

u0 (t) = y 0 (et )et = xy 0 (x)


u00 (t) = y 00 (et )e2t + y 0 (et )et = x2 y 00 (x) + xy 0 (x)
..
.

Dies führt auf eine lineare Differentialgleichung n-ter Ordnung mit konstanten Koeffizienten für
u.

295
26. Lineare Differentialgleichungen höherer Ordnung

Beispiel 26.6. x2 y 00 − 3xy 0 + 7y = 0

u(t) = y et

= y(x)
u0 (t) = y 0 (et )et = xy 0 (x)
u00 (t) = y 00 (et )e2t + y 0 (et )et = x2 y 00 (x) + xy 0 (x)

0 = x2 y 00 − 3xy 0 + 7y
= (x2 y 00 + xy 0 ) − 4xy 0 + 7y
= u00 (t) − 4u0 (t) + 7u(t)

Charakteristisches Polynom:

p(λ) = λ2 − 4λ + 7

Nullstellen: 2 ± i 3
⇒ Fundamentalsystem:
√ 
u1 (t) = e2t cos 3·t
√ 
u2 (t) = e2t sin 3·t

Jetzt Transformation x = et , u(t) = y(et ) rückgängig machen:


⇒ Fundamentalsystem:
√ 
y1 (x) = x2 cos 3 · log x
√ 
y2 (t) = x2 sin 3 · log x

26.3. Weitere Spezialfälle


Gegeben sei eine Differentialgleichung der Form

F (y, y 0 , y 00 ) = 0

auf einem Intervall J, in der die Variable x nicht explizit auftaucht.


Falls es eine nicht-konstante Lösung y gibt, dann gibt es in J eine Stelle x1 mit y 0 (x1 ) 6= 0. Zumindest in
einer Umgebung von x1 ist dann y umkehrbar. Man führt die neue Funktion

p(y) = y 0 x(y)


ein, wobei x(y) diese Umkehrfunktion ist. Es gilt dann:

y 00 x(y)

0 00
 0
p (y) = y x(y) · x (y) = 0  ,
y x(y)

also

p · p0 = y 00

und es ergibt sich die Differentialgleichung erster Ordnung

F (y, p, pp0 ) = 0

296
26.3. Weitere Spezialfälle

für p(y).
1
Ist p(y) eine Lösung, dann erhält man x(y) als Stammfunktion von p(y) und daraus y(x) als Umkehr-
funktion (eventuell nicht explizit):
1 1
Z
p(y) = y 0 x(y) = 0

⇒ x(y) = dy
x (y) p(y)
Anfangsbedingungen transformieren sich folgendermaßen:
y(x0 ) = y0 , y 0 (x0 ) = y1 ; p(y0 ) = y 0 x(y0 ) = y1

| {z }
x(y0 )=x0

Spezialfall:
y 00 = f (y)
Es sei F eine Stammfunktion von f . Man kann diese Differentialgleichung mit der sogenannten Energie-

Methode“ lösen:
y 00 = f (y) 2y 0 y 00 = 2y 0 f (y)

0 d
(y 0 )2 = 2 F y(x)


dx
⇔ (y 0 )2 = 2F (y) + a

⇒ y 0 = ± 2F (x) + a,
p

wobei das Vorzeichen und der Wert von a durch Anfangsbedingungen festgelegt wer-
den.

Warum Energie-Methode“?

Sei F ein Kraftfeld, das einem Potential entspringt:
−∇V (x) = F (x)
 
Bewegungsgleichungen (Newton): mẍ(t) = F x(t) = −∇V x(t)
⇒ 2m · ẋ · ẍ = −2ẋ · ∇V (x)
d 2 d 
⇔ m ẋ = −2 V x(t)
dt dt
⇔ mẋ2 = −2V x(t) + 2E


m 2
⇔ E= ẋ + V (x) = konstant
|2{z } | {z }
pot. Energie
kin. Energie

Beispiel 26.7.
(1) y 00 = y 02 · sin y, y(0) = 0, y 0 (0) = 1 ; x(0) = 0, p(0) = y 0 (0) = 1
⇒ p · p0 = p2 sin y
Zy
log p(y) − log p(0) = sin η dη
0
1
⇔ p(y) = e 1−cos y
= y 0 (x) =
x0 (y)
Zy
⇒ x(y) − x(0) = ecos η−1 dη
0

297
26. Lineare Differentialgleichungen höherer Ordnung

(2) (y 0 )2 = 2 · y · y 00 , p = y 0 , y 00 = p · p0

⇒ p2 = 2y · pp0

Falls p 6≡ 0 (y = c = konst. ist eine Lösung),:

p0 1
⇒ 2 = ⇔ log p2 = log(y · c)
p y

⇒ p(y)2 = c · y ⇒ y0 = ± c · y

⇒ ± 2c · cy = x + b
⇒ y(x) = 4c (x + b)2 = a(x + b)2
Weitere Lösungen der Differentialgleichung: y(x) = c.
(y 0 )2 +y 0
(3) y 00 = y , y 0 = p, y 00 = p · p0

p(p + 1)
⇒ pp0 =
y

p0 1
⇒ = , (y = c 6= 0 ist eine Lösung)
p+1 y
⇔ log |p + 1| = log |c̃y| ⇒ p + 1 = cy
0 1
⇒ y = cy − 1 ⇒ c log |cy − 1| = x + b̃
⇒ cy − 1 = becx
⇒ y(x) = 1
c (1 + becx ) , c 6= 0, b ∈ R

(4) y 00 = 2(y 3 + y), y(0) = 0, y 0 (0) = 1


0
⇒ 2y 0 · y 00 = (y 0 )2 = 4y 0 · (y 3 + y) = (y 4 + 2y 2 )0

⇒ (y 0 )2 = y 4 + 2y 2 + y 0 (0)2 = (y 2 + 1)2
⇒ y 0 = ±(y 2 + 1)
⇒ y(x) = tan(x + b)
!
y(0) = 0 ⇒ b=k·π (k ∈ Z)
⇒ Lösung y(x) = tan x.

298
27. Die Fourier–Transformation

Definition 27.1.
(1) y : [a, b] → R heißt stückweise stetig auf [a, b], wenn gilt: Es existiert eine Zerlegung {t0 , . . . , tm }
von [a, b] mit: g ist auf jedem Teilintervall (tj−1 , tj ) (j = 1, . . . , m) stetig und es existieren die
einseitigen Grenzwerte

g (tj +) = lim g(t), g (tj −) = lim g(t), g(a+), g(b−)


t→tj +0 t→tj −0

(2) g stückweise glatt

:⇔ ∃ Zerlegung z = {t0 , . . . , tm } ∀j ∈ {1, . . . , m} g stetig differenzierbar auf (tj−1 , tj )

und es existieren die einseitigen Grenzwerte

g(tj +), g(tj −), g 0 (tj +), g 0 (tj −)

g(a+), g(b−), g 0 (a+), g 0 (b−)


(Siehe 16.6.)
Klar: g stückweise glatt, so muss g in den Punkten tj (j = 1, . . . , m − 1) nicht stetig, also auch erst
recht nicht differenzierbar sein.
stetig
(3) h : R → R heißt stückweise , wenn h auf jedem kompakten Intervall [a, b] ⊂ R stückweise
glatt
stetig
ist.
glatt
(4) Sei h : R → R stückweise glatt und x0 ∈ R (dann existieren h0 (x0 −) und h0 (x0 +))
Definiere:

h0 (x0 ) := 1
h0 (x0 −) + h0 (x0 +)

2 (27-i)

(Falls h in x0 differenzierbar, so stimmt (27-i) mit der Ableitung von h in x0 überein.)


(5) Sei f : R → C; setze u := Re f , v := Im f (also f = u + iv; u, v : R → R)
(i)
stetig stetig
f heißt stückweise :⇔ u und v stückweise
glatt glatt
Ist f stückweise glatt und x0 ∈ R, so setze

f 0 (x0 ) := u0 (x0 ) + iv 0 (x0 ),

wobei u0 (x0 ), v 0 (x0 ) gemäß (27-i) definiert sind.

299
27. Die Fourier-Transformation

(ii) Ist [a, b] ⊂ R und gilt u, v ∈ R[a, b], so sagen wir, dass f (Riemann–) integrierbar über [a, b]
ist und setzen
Zb Zb Zb
f (x) dx := u(x) dx + i v(x) dx
a a a

(iii) Sind
Z∞ Z∞
u(x) dx und v(x) dx
−∞ −∞

konvergent R∞ konvergent
beide , so sagen wir, dass −∞ f (x) dx ist, und
absolut konvergent absolut konvergent
setzen
Z∞ Z∞ Z∞
f (x) dx := u(x) dx + i v(x) dx
−∞ −∞ −∞
R∞
Ist −∞
f (x) dx absolut konvergent, so heißt f absolut integrierbar (aib) über R.
Entsprechende Definition für die anderen Typen uneigentlicher Integrale.

Bemerkung 27.2.
(1) Sei f = u + iv : [a, b] → C, u, v ∈ R[a, b]. Weiter seien U, V : [a, b] Stammfunktionen zu u bzw. v auf
[a, b] und F := U + iV : [a, b] → C.
Dann gilt
F 0 = U 0 + iV 0 = u + iv = f
Nenne also F auch Stammfunktion zu f .
(2) Ferner:
Zb Zb Zb
f (t) dt = u(t) dt + i v(t) dt
a a a
 
= U (b) − U (a) + i V (b) − V (a)
= F (b) − F (a)

Beispiel 27.3. Sei z0 ∈ C, z0 6∈ 0, f (t) := ez0 t


1 z0 t
F (t) := e
z0
Dann (Nachrechnen!):
F 0 (t) = f (t) ∀t ∈ R
also:
Zb
1 z0 b
ez0 t dt = e − ez0 a

z0
a

300
Lemma 27.4.
Z∞
f : R → C ist absolut integrierbar ⇔ |f (x)| dx ist konvergent
−∞
R∞
In diesem Fall ist −∞
f (x) dx konvergent, und

Z∞ Z∞
f (x) dx ≤ |f (x)| dx
−∞ −∞

Entsprechendes gilt für die anderen Typen uneigentlicher Integrale.

Beweis: Sei u := Re f , v := Im f .

Nach 17.3:

∀x ∈ R |u(x)|, |v(x)| ≤ |f (x)| ≤ |u(x)| + |v(x)| (27-ii)

Sei f absolut integrierbar ⇒ u, v absolut integrierbar


Z∞ Z∞
⇒ |u(x)| dx, |v(x)| dx < ∞
−∞ −∞

Z∞

⇒ |u(x)| + |v(x)| dx < ∞
−∞

Aus dem Majorantenkriterium und (27-ii) folgt:

Z∞
⇒ |f (x)| dx < ∞
−∞

R∞
Sei −∞
|f (x)| dx konvergent. Dann folgt aus dem Majorantenkriterium und
(27-ii):

Z∞ Z∞
⇒ |u(x)| dx, |v(x)| dx < ∞
−∞ −∞

⇒ f ist absolut integrierbar.

Zur Dreiecksungleichung:
R∞
Sei −∞ f (x) dx =: reiϕ mit r ∈ (0, ∞), ϕ ∈ (−π, π].

Setze c := e−iϕ , also


Z∞
c f (x) dx = r
−∞

301
27. Die Fourier-Transformation

Z∞ Z∞ Z∞
 

⇒ f (x) dx = r = c f (x) dx = Re c f (x) dx


−∞ −∞ −∞
Z∞ Z∞
= Re[cf (x)] dx = Re[cf (x)] dx
−∞ −∞
Z∞
≤ Re[cf (x)] dx
| {z }
−∞ ≤|cf (x)|=|f (x)|

Satz 27.5 (Vergleichskriterium). Ist f : R → C stückweise stetig und g : R → C absolut integrierbar


und gilt

∀x ∈ R |f (x)| ≤ |g(x)|,

so ist f absolut integrierbar. (Entsprechend für andere Typen uneigentlicher Integrale)

Beweis: Majorantenkriterium, 27.4 

27.1. Die Fourier-Transformierte

Definition 27.6. Sei f : R → C stückweise stetig und absolut integrierbar. Sei s ∈ R und

gs (t) := f (t)e−ist

(dann: g stückweise stetig und g absolut integrierbar, da |e−ist | = 1 und 27.5)


Setze

Z∞
1
fˆ(s) := f (t)e−ist dt (27-iii)

−∞

Dieses definiert eine Funktion fˆ : R → C.


fˆ heißt Fourier–Transformierte von f .

Satz 27.7. Sei f : R → C stückweise stetig und absolut integrierbar.


Dann ist fˆ : R → C stetig.

(ohne Beweis)

Beispiel 27.8.

302
27.2. Cauchyscher Hauptwert

(1) f (t) := e−|t| (ist stückweise stetig und absolut integrierbar)


Z∞
1
fˆ(s) = e−|t| · e−ist dt

−∞
Z0 Z∞
 
1 
= et · e−ist dt + e−t · e−ist dt

−∞ 0

Es ist
Z0 Z0 t=0
t −ist 1 1  
c→−∞ 1
ee dt = e(1−is)t dt = · e(1−is)t = 1 − e|(1−is)c −−−−→
1 − is t=c 1 − is {z } 1 − is
c c ec e−isc

Analog:
Z∞
1
e−t e−ist dt =
1 + is
0
 
1 1 1 1 1
⇒ fˆ(s) = + = ·
2π 1 − is 1 + is π 1 + s2

(2)
(
1 für |x| ≤ 1
f (x) =
0 für |x| > 1

s = 0:
Z∞ Z1
1 1 1
fˆ(0) = f (t)e −i·0·t
dt = 1 dt =
2π 2π π
−∞ −1

s 6= 0:
Z∞ Z1
1 1
fˆ(s) = f (t)e dt = −ist
e−ist dt
2π 2π
−∞ −1
 
1 1
e−is − eis

=
2π −is
1 eis − e−is
= ·
sπ | {z 2i }
=sin(s)

1 sin(s)
= ·
π s

27.2. Cauchyscher Hauptwert


R∞
Für f : R → C war −∞
f (x) dx definiert als

Z0 Zc
lim f (x) dx + lim f (x) dx,
d→−∞ c→∞
d 0

303
27. Die Fourier-Transformation

falls beide Grenzwerte existieren, und nicht als



lim f (x) dx
α→+∞
−α

Beispiel 27.9. f (x) := x, dann


Z0
d→−∞
f (x) dx −−−−−→ −∞
d
Zc
c→+∞
f (x) dx −−−−→ +∞
0

Z∞
⇒ x dx nicht konvergent, aber
−∞

lim x dx = 0
α→∞
−α
| {z }
=0

Definition 27.10. Sei f : R → C gegeben. Falls



lim f (x) dx
α→∞
−α

existiert, so heißt er der Cauchysche Hauptwert (CH) und man schreibt


Zα Z∞
lim f (x) dx =: CH f (x) dx
α→∞
−α −∞

R∞
Beispiel 27.11. −∞
x dx ist divergent, aber
Z∞
CH x dx = 0
−∞

27.3. Umkehrung stückweise glatter Funktionen

Satz 27.12 (Umkehrsatz für stückweise glatte Funktionen). f : R → C sei stückweise glatt und absolut
integrierbar.
Dann gilt:
Z∞
f (x+) + f (x−)
∀x ∈ R = CH fˆ(s)eixs ds
2
−∞

304
27.3. Umkehrung stückweise glatter Funktionen

Ist also f stetig in x, so gilt


Z∞
f (x) = CH fˆ(s)eixs dx
−∞

Ist außerdem fˆ absolut integrierbar, so gilt


Z∞
f (x) = fˆ(s)eixs ds
−∞

(Formel der selben Bauart wie (27-iii).)

(ohne Beweis)
Das folgende Beispiel zeigt, dass im Allgemeinen der Cauchysche Hauptwert in obiger Transformation
nicht durch das uneigentliche Integral ersetzt werden kann.
Beispiel 27.13.
( ( !
1
1 für |x| ≤ 1 s=0
f (x) = ⇒ fˆ(s) = π1 sin s
0 für |x| > 1 π · s s 6= 0
(
1 (cos s + i sin s) · sins s für s 6= 0
fˆ(s)e = ·
is
π 1 für s = 0
Z∞
⇒ fˆ(s)eis dx ist nicht konvergent
−∞

Aber:
Zα Zα Zα
1 cos s · sin s 1 sin2 s
fˆ(s)eis ds = ds + i · ds
π s π s
−α −α −α
| {z }
=0

1 sin(2s)
= ds
2π s
−α
Z2α
1 sin u
= du (27-iv)
2π u
−2α


⇒ 1 = f (0) = lim fˆ(s)ei·0·s ds
27.12 α→∞
−α
Zα Zα
1 sin s
= lim fˆ(s) ds = lim ds
α→∞ π α→∞ s
−α −α

2 sin s
= lim ds
π α→∞ s
0

305
27. Die Fourier-Transformation

Z∞
sin s π
⇒ ds = (vgl. 14.15)
s 2
0

Zα Z2α Z2α
1 sin u 1 sin u α→∞ 1 π 1
⇒ fˆ(s)e ds =
is
du = ·2 du −−−−→ ·2· =
(27-iv) 2π u 2π u 2π 2 2
−α −2α 0


1
⇒ CH fˆ(s)eis ds =
2
−α
1
f (1+) + f (1−) = 12 (0 + 1) = 21 , ist dies konsistent mit Satz 27.12.

Da auch 2

Satz 27.14. f1 , f2 : R → C seien stückweise glatt und absolut integrierbar. Falls fˆ1 ≡ fˆ2 , so gilt

f1 (x) = f2 (x) in allen Punkten x, in denen f1 und f2 beide stetig sind.

Beweis: Sei x ein solcher Punkt.


Zα Zα
⇒ f1 (x) = CH fˆ1 (s)eixs ds = CH fˆ2 (s)eixs ds = f2 (x)
27.12 27.12
−α −α

Satz 27.15. f1 , f2 : R (C) → C seien stückweise stetig und absolut integrierbar, ferner α, β ∈ R.
Dann gilt:

(αf\ ˆ ˆ
1 + βf2 ) = αf1 + β f2 ,

d.h. die Zuordnung f 7→ fˆ ist linear.

Beweis: trivial (Linearität des Integrals) 

Satz 27.16. f : R → C sei stückweise stetig und absolut integrierbar. Für h ∈ R fest setze

fh (x) := f (x + h) (für x ∈ R)

Dann gilt:

fˆh (s) = eish · fˆ(s) für alle s ∈ R

Beweis:
Z∞
1
fˆh (s) = fh (t) e−ist dt
2π | {z }
−∞ =f (t+h)

Sei c > 0:
Zc
f (t + h)e−ist dt
0

306
27.4. Faltungen

Substituiere τ = t + h, dτ = dt

c+h
Z c+h
Z
−is(τ −h) ish
= f (τ )e dτ = e f (τ )eisτ dτ
h h

Sei d < 0:

Z0
f (t + h)e−ist dt
d

wie oben:

Zh
=e ish
f (τ )e−isτ dτ
d+h

Z0 Zc c+h
Z
⇒ f (t + h)e−ist dt + f (t + h)e−ist dt = eist f (τ )e−isτ dτ
d 0 d+h
| R∞
{z }
→ −∞
f (τ )e−isτ

Z0 Zc
 
1 
⇒ fˆh (s) = lim f (t + h)e−ist dt + lim f (t + h)e−ist dt
2π d→−∞ c→∞
d 0
Z∞
1
= eish · f (τ )e−isτ dτ

−∞
| {z }
=fˆ(s)

27.4. Faltungen

Definition 27.17. Es seien f1 , f2 : R → C so, dass für jedes t ∈ R das Integral


Z∞
f1 (t − x)f2 (x) dx
−∞

konvergiert. Dann heißt die Funktion f1 ∗ f2 : R → C


Z∞
 1
f1 ∗ f2 (t) := f1 (t − x)f2 (x) dx

−∞

die Faltung von f1 und f2 .

307
27. Die Fourier-Transformation

–1 1
(a) Funktion f1 (b) Funktion f2

–1 1
(c) Faltung f1 ∗ f2

Abbildung 27.1.: Funktionen aus Beispiel 27.18

Beispiel 27.18. Gegeben seien die Funktionen


( (
e−t für t ≥ 0 1 für |t| ≤ 1
f1 (t) := und f2 (t) :=
0 für t < 0 0 für |t| > 1

Dann gilt für jedes t ∈ R:


y=t−x
Z∞ Z1 dy=−dx Zt+1
 1 1 1
f1 ∗ f2 (t) = f1 (t − x)f2 (x) dx = f1 (t − x) dx = f1 (y) dy
2π 2π 2π
−∞ −1 t−1

1. Fall: t < −1; dann ist t + 1 < 0 und somit f1 ∗ f2 (t) = 0
2. Fall: −1 ≤ t < 1; dann
Zt+1
1 1  
e−y dy = 1 − e−(t+1)

f1 ∗ f2 (t) =
2π 2π
0

3. Fall: t ≥ 1; dann
Zt+1   
 1 −y 1 −t 1
f1 ∗ f2 (t) = e dy = e e−
2π 2π e
t−1

insgesamt also

0 für t < −1
1 
1 − e−(t+1)

f1 ∗ f2 (t) = für − 1 ≤ t < 1
2π 
e − 1e
 −t 
e für t ≥ 1

Satz 27.19. f1 , f2 seien stetig und absolut integrierbar. Weiter sei f1 auf R beschränkt.
Dann:

308
27.4. Faltungen

(1)
Z∞
∀t ∈ R f1 (t − x)f2 (x) dx absolut konvergent
−∞

(2)
Z∞
1
∀t ∈ R (f1 ∗ f2 ) (t) ≤ · sup f1 (x) · f2 (x) dx
2π x∈R
−∞

(3) f1 ∗ f2 ist stetig auf R und absolut integrierbar.


(4)

f\ ˆ ˆ

∀s ∈ R 1 ∗ f2 (s) = f1 (s) · f2 (s)

(ohne Beweis)

Satz 27.20. Sei f : R → C stetig und stückweise glatt. Weiter seien f und f 0 absolut integrierbar
(beachte: f 0 ist gemäß Definition 27.1 überall definiert.)
Dann gilt:
(1)

(f
d 0 )(s) = is · fˆ(s) für alle s ∈ R

(2) lim f (x) = 0


x→±∞

Beweis: Zeige zunächst die Hilfsaussage (2), dies aber nur für lim f (x). Es ist zu zei-
x→+∞
gen:

∀ε > 0 ∃c > 0 ∀x > c |f (x)| < ε

Annahme: dies sei falsch. Also existiert ein ε > 0 derart dass

∀c > 0 ∃xc > 0 f (xc ) ≥ ε (27-v)


R∞
Da −∞
|f 0 (x)| dx konvergent, existiert ein x0 > 0 mit

(i)

Z∞
ε
f 0 (x) dx <
2
x0

(ii) nach (27-v): |f (x0 )| ≥ ε

309
27. Die Fourier-Transformation

Sei x > x0 ; dann


Zx Zx Z∞
0 0 ε
f (x) − f (x0 ) = f (t) dt ≤ f (t) dt ≤ f 0 (t) dt <
2
x0 x0 x0

ε ε
⇒ f (x) ≥ f (x0 ) − >
2 2
Zx Zx
ε ε x→∞
⇒ f (t) dt > dt = (x − x0 ) −−−−→ ∞
2 2
x0 x0

⇒ Widerspruch zu: f absolut integrierbar.

zu (1):
Sei c > 0. Seien x1 , . . . , xk ∈ (0, c) die Unstetigkeitsstellen von f 0 im Intervall (0, c). t := 0, tk+1 :=
c
Zc x
k Zj+1
X
0 −ist
⇒ f (t)e dt = f 0 (t)e−ist dt
0 j=0 x
j
 
xZj+1
k
X t=xj+1
−ist
= f (t)e + f 0 (t)(is)e−ist dt
 
t=xj
j=0 xj

k Z c
X
f (xj+1 −)e−isxj+1 − f (xj +)e−isxj +(is) f (t)e−ist dt
 
=
j=0 0
| {z }
k  
=f (c)e−isc + f (xj −)−f (xj +) e−isxj −f (0)
P
j=1 | {z }
=0,f stetig

Zc
= (is) f (t)e−ist dt + f (c)e−isc − f (0)
0
Z∞
c→∞
−−−→ (is) f (t)e−ist dt − f (0), da f (c) → 0 und e−isc = 1
0

Z∞ Z∞
⇒ f 0 (t)e−ist dt = (is) f (t)e−ist dt − f (0)
0 0

Analog:

Z0 Z0
0 −ist
f (t)e dt = (is) f (t)e−ist dt + f (0)
−∞ −∞

Addieren, durch 2π dividieren:

fb0 (s) = isfˆ(s).


Aus dem Beweis ist ersichtlich:

310
27.4. Faltungen

Satz 27.21. f : R → C sei stückweise glatt und f, f 0 seien absolut integrierbar. f besitze höchstens
endlich viele Unstetigkeitsstellen x1 , . . . , xn ∈ R.
Dann gilt:
n
1 X
fb0 (s) = (is)fˆ(s) + f (xj −) − f (xj +) e−isxj

2π j=1

für alle x ∈ R.
(Teil (2) von Satz 27.20 gilt genauso.)

Aus 27.20 ergibt sich rekursiv (durch vollständige Induktion):

Satz 27.22. Sei f : R → C (n − 1)–mal stetig differenzierbar (d.h. Re f, Im f : R → R seien (n − 1)–mal


stetig differenzierbar). Weiter existiere f (n) auf R und sei stückweise stetig (arithmetisches Mittel in den
Sprungstellen!); anders formuliert: f (n−1) sei stückweise glatt.
Ferner seien f, f 0 , . . . , f (n) absolut integrierbar.
Dann gilt:

(k) (s) = (is)k fˆ(s)


fd

für alle s ∈ R, k = 1, . . . , n.

311
27. Die Fourier-Transformation

312
28. Die Laplace–Transformation

Definition 28.1. Gegeben sei f : [0, ∞) → C.

Z∞
 
 
Kf := s ∈ C : e−st f (t) dt konvergent
 
0

Die Funktion F : Kf → C, definiert durch


Z∞
F (s) := e−st f (t) dt
0

heißt Laplace–Transformierte von f und wird mit L[f ] bezeichnet.

Beispiel 28.2. Sei a ≥ 0 und


(
1 t≥a
ha (t) :=
0 0≤t<a

(also h0 ≡ 1)

ha heißt auch Heavyside–Funktion.

Sei c > a:
Zc Zc t=c
e−st ha (t) dt = e−st dt = − 1s e−st 1
e−sa − e−sc

= s
s6=0 t=a
0 a

Nun ist (falls s = % + iσ mit %, σ ∈ R):


c→∞
e−sc = e−(%+iσ)c = e−%c · e|−iσc
{z } −−−→ 0 ⇔ % > 0
|·|=1

Zc
c→∞ 1 −sa
⇒ e−st ha (t) dt −−−→ · e , falls Re s > 0
s
0

Also Kf ⊇ {s ∈ C : Re s > 0}.

D.h.
e−sa 1
L[ha ] = , insbesondere L[1] =
s s

Definition 28.3.

313
28. Die Laplace-Transformation

stetig
(1) f : [0, ∞) → R (C) heißt stückweise , wenn f in jedem kompakten Teilintervall [a, b] ⊂
glatt
stetig
[0, ∞) stückweise ist.
glatt
(2) f : [0, ∞) → R (C) heißt von exponentieller Ordnung γ, falls γ ∈ R und

∃M > 0 ∀t ∈ [0, ∞) |f (t)| ≤ M eγt

(3) f : [0, ∞) → R (C) heißt von exponentieller Ordnung, falls

∃γ ∈ R f ist von exponentieller Ordnung γ

Beispiel 28.4.

(1) Sei n ∈ N und f (t) = tn . Wir wissen, dass für jedes γ > 0:

1
eγt = 1 + γt + 12 (γt)2 + · · · + 1
n! (γt)
n
+ ··· ≥ (γt)n für t ∈ [0, ∞)
n!

n! γt
⇒ |f (t)| = tn ≤ e für t ∈ [0, ∞)
γn
|{z}
=:M

⇒ ∀γ > 0 f (t) = tn ist von exponentieller Ordnung γ

f ist aber nicht von exponentieller Ordnung 0 (außer wenn n = 0), denn

|f (t)| ≤ M e0t

t ∈ [0, ∞)

ist für kein M richtig.

(2) Aus (1) folgt: Jedes Polynom ist von exponentieller Ordnung γ, für jedes γ > 0.

(3) Konstante Funktionen 6= 0 sind von exponentieller Ordnung 0.

Die Nullfunktion ist von exponentieller Ordnung γ für jedes γ ∈ R.

(4) Jede beschränkte Funktion (z.B. auch die Heavyside–Funktion, die Sinus–Funktion, die Cosinus–
Funktion) ist von exponentieller Ordnung 0.

Satz 28.5. Sei f : [0, ∞) → C stückweise stetig.


Dann gilt:
R∞
(1) Ist s0 ∈ C und 0
e−s0 t f (t) dt absolut konvergent, so ist Kf ⊇ {s ∈ C : Re s ≥ Re s0 }.
R∞
Für s ∈ C mit Re s ≥ Re s0 konvergiert 0 e−st f (t) dt sogar absolut.
(2) Ist f von exponentieller Ordnung γ, so gilt:

Kf ⊇ {s ∈ C : Re s > γ}
R∞
Für s ∈ C mit Re s > γ konvergiert 0
e−st f (t) dt sogar absolut.

314
Beweis:
zu (1) Sei s ∈ C, Re s ≥ Re s0

e−st f (t) = e−(Re s)t · e−i(Im s)t · f (t)


| {z }
=1

= e−(Re s)t · f (t)


≤ e−(Re s0 )t · |f (t)| = e−s0 t · f (t)
R∞
⇒ Nach Majorantenkriterium ist 0 e−st f (t) dt konvergent.
zu (2) Nach Voraussetzung existiert ein M > 0 mit ∀t ≥ 0 |f (t)| ≤ M eγt .

⇒ e−st f (t) = e−(Re s)t · |f (t)| ≤ M e−(Re s−γ)t

Da
Z∞
e−(Re s−γ)t dt konvergent ⇒ Re s > γ,
0

folgt die Behauptung aus dem Majorantenkriterium.



Beispiel 28.6. Sei ω ∈ R, f (t) := cos(ωt), g(t) := sin(ωt).
Seien F := L[f ], G := L[g], definiert mindestens auf {s ∈ C : Re s > 0} (da f, g von exponentieller
Ordnung 0)
Z∞ Z∞
F (s) + iG(s) = e−st cos(ωt) dt + i e−st sin(ωt) dt
0 0
Z∞
e−st cos(ωt) + i sin(ωt) dt
 
=
| {z }
0 =eiωt
Z∞
= e(−s+iω)t dt
0
Zc
1 h i
= lim e(−s+iω)t dt = lim e(−s+iω)c − 1
c→∞ c→∞ −s + iω
0
1
= ,
s − iω
da Re s > 0 und somit
c→∞
e(−s+iω)c = e−(Re s)c −−−→ 0

Betrachte hilfsweise f˜(t) = cos(−ωt) (= f (t)), g̃(t) = sin(−ωt) (= −g(t)), F̃ := L[f˜], G̃ := L[f˜]
⇒ F̃ = F, G̃ = −G
Nach obigem:
1
F̃ (s) + iG̃(s) = , also
s − i(−ω)

315
28. Die Laplace-Transformation

1
F (s) − iG(s) =
s + iω
1
Addiere dies zu F (s) + iG(s) = s−iω :

1 1 2s
2F (s) = + = 2
s + iω s − iω s + ω2
s
⇒ F (s) =
s2 + ω 2
Entsprechend durch Subtraktion:
1 1 2iω
2iG(s) = − = 2
s − iω s + iω s + ω2
ω
⇒ G(s) =
s2 + ω2
Also
  s
L cos(ω ·) (s) = 2
s + ω2
  ω
L sin(ω ·) (s) = 2
s + ω2

1
L eat =
 
für Re s > a
s−a

Satz 28.7 (Umkehrsatz für die Laplace–Transformation). f : [0, ∞) → R sei stückweise glatt und

∀t ≥ 0 |f (t)| ≤ M eγt

F := L[f ] für Re s > γ

Dann gilt für jedes x > γ:

f (t+) + f (t−)

Z∞ 
t>0
1 
2
· CH F (x + is)e(x+is)t ds =
2π  f (0+)

t=0
−∞
2
Insbesondere: Ist f in t ∈ (0, ∞) stetig
Z∞
1
⇒ f (t) = · CH F (x + iy)e(x+iy)t dy

−∞

Beweis: Sei x > γ.


(
e−xt f (t) t ≥ 0
g(t) :=
0 t<0

g(t) ist stückweise glatt,

|g(t)| = e−xt f (t) ≤ M e−(x−γ)t ∀t ≥ 0

316
28.1. Eigenschaften der Laplace-Transformation

R∞
⇒ (Majorantenkriterium) −∞
|g(t)| dt konvergiert.
⇒ g ist absolut integrierbar.
Nach Abschnitt 27:
Z∞ Z∞
1 −ist 1
ĝ(s) = g(t)e dt = f (t)e−(x+is)t dt = F (x + is)
2π 2π
−∞ 0

Z∞ Z∞
g(t+) + g(t−) 1 its 1
27.12 ⇒ ∀t ≥ 0 = · CH ĝ(s)e ds = CH F (x + is)eits ds
2 2π 2π
−∞ −∞

Z∞
f (t+) + f (t−) 1
⇔ = · CH F (x + is)e(x+is)t ds ∀t ≥ 0
2 2π
−∞

t = 0: f (τ ) = für τ < 0 ⇒ f (0−) = 0

f (t+) + f (t−) f (0+)


⇒ =
2 2

Für diesen Sachverhalt in 28.7 schreibt man symbolisch:

f (t) = L−1 [F (s)]

Korollar 28.8 (Eindeutigkeitssatz). f1 , f2 : [0, ∞) → R beide stückweise glatt und von exponentieller
Ordnung γ. F1 , F2 seien die Laplace–Transformierten von f1 , f2 .
Gilt F1 (s) = F2 (s) für Re s > γ, so gilt in jedem Stetigkeitspunkt von f1 und f2 :

f1 (t) = f2 (t)

Insbesondere folgt für stetige f1 , f2 : f1 = f2

Beweis: folgt unmittelbar aus 28.7 

28.1. Eigenschaften der Laplace-Transformation

In den folgenden Sätzen seien die vorkommenden Funktion f, f1 , f2 , . . . stets stückweise stetig auf R und
= 0 für t < 0.
Außerdem seien sie von exponentieller Ordnung.

Satz 28.9. f1 , f2 seien von exponentieller Ordnung γ und α, β ∈ R.


Dann gilt:

L[αf1 + βf2 ] = αL[f1 ] + βL[f2 ]

Beweis: Nachrechnen. 

317
28. Die Laplace-Transformation

Beispiel 28.10. f (t) = cosh(ωt) für t ≥ 0 (ω > 0)


1 ωt 1 −ωt
⇒ f (t) = e + e
2 2

1  ωt  1 
L e (s) + L e−ωt (s)

⇒ für Re s > ω : L[cosh(ωt)](s) =
2 2 
1 1 1 s
= + = 2
2 s−ω s+ω s − ω2

Satz 28.11. f sei von exponentieller Ordnung γ und F = L[f ].


(1)

L eδt f (t) = F (s − δ)
 
für Re s > γ + δ, δ ∈ R

(2) Sei hδ die Heavyside-Funktion (δ > 0)

g(t) := hδ (t)f (t − δ)

⇒ L[g] = e−δs F (s), für Re s > γ

(3) Sei a 6= 0, a ∈ R.
  1 s
L f (at) = · F für Re s > γ · a
a a

(1), (2) heißen Verschiebungssätze, (3) heißt Streckungssatz.


Beweis: Wir zeigen nur (2). (Der Rest wurde in der Saalübung erbracht.)

Z∞ Z∞
−st
L[g] = e g(t) dt = e−st f (t − δ) dt
0 δ
Zη ( )
−st τ =t−δ
= lim e f (t − δ) dt =
η→∞ dτ = dt
δ
η−δ
Z Z∞
−s(τ +δ)
= lim e f (τ ) dτ = e−sτ f (τ ) dτ e−sδ
η→∞
0 0
−sδ
=e F (s)


s
Beispiel 28.12. f (t) = eδt cos(ωt), L cos ωt (s) =
 
s2 +ω 2

s−δ
⇒ L[f ] =
28.11 (s − δ)2 + ω 2

28.2. Faltungen

318
28.2. Faltungen

Definition 28.13. Seien f1 , f2 : R → R stückweise stetig und

f1 (t) = f2 (t) = 0 für t < 0

Zt

f1 ∗L f2 (t) := f1 (t − u)f2 (u) du (t ∈ R)
0

heißt die Faltung (Konvolution) von f1 , f2 .

Bemerkung 28.14. Zwischen der eben definierten Faltung ∗L und der Faltung ∗F bei der Fourier–
Transformation (vgl. 27.17) besteht folgender Zusammenhang:
Z∞
 1
f1 ∗F f2 (t) = f1 (t − u)f2 (u) du

−∞
Z∞ Zt
1 1
= f1 (t − u)f2 (u) du = f1 (t − u)f2 (u) du
2π 2π
0 0
1 
= f1 ∗L f2 (t)

Vereinbarung: In diesem Abschnitt schreiben wir ∗ statt ∗L .

Satz 28.15 (Faltungssatz). f1 sei stetig, f2 sei stückweise stetig und beide seien von exponentieller
Ordnug γ (f1 = f2 = 0 auf (−∞, 0))
 
Dann existiert L f1 ∗ f2 (s) für alle Re s > γ und es gilt
 
L f1 ∗ f2 = L[f1 ] · L[f2 ]

(ohne Beweis)
1 2
Beispiel 28.16. Sei F (s) = s · s2 +4 gegeben. Gesucht: f mit L[f ] = F .
Sei
 
1 t≥0
g(t) = = h0 (t)
0 t<0

und h(t) = sin(2t).


Bekannt:
1 2
L[g] = , L[h] = für Re s > 0
s s2 +4
also:
 
F (s) = L[g](s) · L[h](s) = L g ∗ h (s)
28.15

Zt Zt
 1 
⇒ f (t) = g ∗ h (t) = g(t − u)h(u) du = sin(2u) du = 1 − cos(2t)
2
0 0

319
28. Die Laplace-Transformation

28.3. Ableitungen und Stammfunktionen

Satz 28.17. f sei auf [0, ∞) stetig und stückweise glatt. f sei von exponentieller Ordnung γ.
Dann existiert die Laplace–Transformierte L[f 0 ] von f 0 für Re(s) > γ, und

L f 0 (s) = sL f (s) − f (0)


   

Beweis: Sei s ∈ C, Re s > γ, F := L[f ].


Dann gilt für η ∈ (0, ∞):

Zη t=η
Zη Zη
−st 0 −st −st −sη
e f (t) dt = e · f (t) + se f (t) dt = e f (η) − f (0) + s e−st f (t) dt
t=0
0 0 0
| {z }
η→∞
−−−−→F (s)

Zu zeigen: e−sη f (η) → 0 für η → ∞


γ→∞
e−sη f (η) = e− Re(s)·η · |f (η)| ≤ e− Re(s)·η · M eγη = M e−(Re(s)−γ)η −−−−→ 0 (Re(s) > γ)

Z∞
⇒ e−st f 0 (t) dt
0

ist konvergent (und damit = L[f 0 ](s)) und

L f 0 (s) = −f (0) + sL f (s)


   


Mit Induktion erhält man aus 28.17:

Satz 28.18. f sei auf [0, ∞) (r − 1)-mal stetig differenzierbar, und f (r−1) sei stückweise glatt.
f, . . . , f (r−1) seien von exponentieller Ordnung γ.
Dann existiert die Laplace–Transformierte L f (r) von f (r) für Re(s) > γ, und es gilt
 

h i h i
L f (r) (s) = sr · L f (s) − sr−1 f (0) + sr−2 f 0 (0) + · · · + sf (r−2) (0) + f (r−1) (0)
 

Beispiel 28.19. Sei f (t) := sin(ωt + ϕ)


 
f (t) = sin(ωt) cos ϕ + cos(ωt) sin ϕ
       ω s 
⇒ L f (s) = cos ϕ · L sin(ω·) (s) + sin ϕ · L cos(ω·) (s) = cos ϕ + sin ϕ 2
ω2 +s2 ω +s 2

   
Berechne (einfacher, falls L sin(ω·) und L cos(ω·) noch nicht bekannt) L[f ] mit Hilfe von 28.18:

f 00 (t) = −ω 2 f (t)

⇒ 0 = L 0 (s) = L f 00 + ω 2 f (s) = L f 00 (s) + ω 2 L f (s)


       

320
28.3. Ableitungen und Stammfunktionen

L f 00 (s) = s2 L f (s) − s f (0) + f 0 (0)


    
|{z} | {z }
sin ϕ ω cos ϕ

2 2
 
⇒ 0 = (s + ω ) · L f (s) − (s sin ϕ + ω cos ϕ)
  s sin ϕ + ω cos ϕ
⇒ L f (s) =
s2 + ω 2

Verhalten der Laplace–Transformation bei Stammfunktionsbildung:


Sei f : [0, ∞) → R stückweise stetig und von exponentieller Ordnung γ. Weiter sei g : [0, ∞) → R
definiert durch
Zt
∀t ∈ [0, ∞) g(t) := f (u) du
0

Nach 10.25 ist g stetig und stückweise glatt (g 0 (t) = f (t) in allen Stetigkeitsstellen t von f ) Fer-
ner:
1
γt
Zt Zt  γ · (e − 1) falls γ > 0

γu
∀t > 0 |g(t)| ≤ |f (u)| du ≤ M e du = t falls γ = 0
1
 γt
0 0 |γ| · (1 − e ) falls γ < 0

γ
 γ>0
⇒ g ist von exponentieller Ordnung δ(> 0 beliebig) γ = 0

0 γ<0

(
  Re(s) > γ γ > 0
⇒ L g (s) ist definiert für
Re(s) > 0 γ ≤ 0
und nach 28.17 gilt
L f (s) = L g 0 (s) = sL[g](s) − g(0)
   
|{z}
=0
(
Re(s) > γ γ>0
⇒ L g (s) = 1s L f (s) für
   
Re(s) > 0 γ≤0

Beispiel 28.20. Sei f (t) := tn mit einem n ∈ N0


Behauptung:
  n!
L f (s) = n+1 für Re(s) > 0
s
1
Beweis: n = 0: Schon bekannt: L[1](s) = s für Re(s) > 0
n → n + 1: Gelte (mit fn (t) := tn ):
  n!
L fn (s) = n+1
s

 
1   1 n! (n + 1)!
⇒ L fn+1 (s) = L (n + 1) un du (s) = (n + 1) · · L fn (s) = (n + 1) · · n+1 =
 
s I.A. s s sn+2
0


321
28. Die Laplace-Transformation

Satz 28.21. f : [0, ∞) → R sei stückweise stetig und periodisch mit Periode T > 0, d.h. es gelte

∀t ∈ [0, ∞) f (t + T ) = f (t)

(Insbesondere ist also f beschränkt, d.h. von exponentieller Ordnung 0.)


Dann gilt für Re(s) > 0:

ZT
1
e−st f (t) dt
 
L f (s) = ·
1 − e−T s
0

Beweis:

∀k ∈ N ∀t ≥ 0 f (t + kT ) = f (t)

Daher für Re(s) > 0:

Z∞ (k+1)T

X Z
−st
e−st f (t) dt
 
L f (s) = e f (t) dt =
0 k=0 kT
| {z }
Subst. u=t−kT

∞ Z T
X
= e−s(u+kT ) f (u + kT ) du
| {z }
k=0 0
=f (u)


X ZT
= e−skT e−su f (u) du
k=0 0
| {z }
unabh. von k
" ∞
# ZT
−sT k
X
· e−su f (u) du

= e
k=0 0
ZT
1
= · e−su f (u) du
1 − e−sT
0

da e−sT = e− Re(s)T < 1, da Re(s) > 0, T > 0. (vgl. auch Seite 208) 
(
0 t≤0
Beispiel 28.22. Sei T > 0 und h := h0 :=
1 t>0

Setze

T

∀t ∈ [0, T ) f (t) := h(t) − 2h t − 2

Setze f T -periodisch auf [0, ∞) fort.

322
28.4. Anwendungen auf lineare Differentialgleichungen

Also nach 28.21: Für Re(s) > 0 gilt:


ZT
1
e−st f (t) dt
 
L f (s) = ·
1 − esT
0
 T 
Z2 ZT
1 −st
=  e dt − e−st dt
 
1 − e−sT
0 T
2
T
" T
#
1 1 − e−s 2 e−s 2 − e−sT
= · −
1 − e−sT s s
 2
T T
1 1 − 2e−s 2 + e−sT 1 1 − e−s 2
= · = ·
1 − e−sT
  
s s T T
1 − e−s 2 · 1 + e−s 2
T T T
1 1 − e−s 2 1 es 4 − e−s 4
= · T = ·
s 1+e 2 −s s es T4 + e−s T4
= 1s · tanh s · T4


Tabellen wie A.5 (Seite 330) sind insbesondere wichtig, um die Umkehrabbildung der Laplace–
Transformation zumindest teilweise zu kennen.
L−1 [F ] berechnen ⇔ Aus Tabellen erkennen“, welches Urbild F hat.

28.4. Anwendungen auf lineare Differentialgleichungen mit


konstanten Koeffizienten
Wir betrachten das Anfangswertproblem

y (n) + an−1 y (n−1) + · · · + a1 y 0 + a0 y = g(x)

y(0) = y0 , y 0 (0) = y1 , . . . , y (n−1) (0) = yn−1


mit a0 , . . . , an−1 ∈ R (C), y0 , . . . , yn−1 ∈ R (C), g : [0, ∞) → R (C) stetig und von exponentieller
Ordnung. Setze an := 1
Dann:
" n #
!
X
(k)
 
L g (s) = L ak y (s)
k=0
n
X h i
= ak L y (k) (s)
k=0
n k−1
" #
X X
k k−1−j (j)
   
= a0 L y (s) + ak s L y (s) − s · y (0)
| {z }
k=1 j=0
!
=yj
n n k−1
!
X X X
ak sk sk−1−j yj
 
= ·L y (s) − ak
k=0 k=1 j=0
| {z }
=:p(s)

323
28. Die Laplace-Transformation

(p ist das charakteristische Polynom der Differentialgleichung)


 
n k−1
1  X X
sk−1−j yj 
   
⇒ L y (s) = · L g (s) + ak
p(s) j=0
k=1

Hieraus mittels Inversion der Laplace–Transformation die Lösung y bestim-


men!
Beispiel 28.23. y 00 + y = 0, y(0) = 1, y 0 (0) = π

⇒ 0 = L 0 (s) = L y 00 + y (s) = L y 00 (s) + L y (s)


       

= s2 L y (s) − y 0 (0) −s · y(0) +L y (s)


   
| {z } |{z}
=π =1
2
 
= (s + 1)L y (s) − (s + π)
  s+π s 1  
⇒ L y (s) = 2 = 2 +π · 2 = L cos +π · sin (s)
s +1 s +1 s +1
| {z } | {z }
L[cos](s) L[sin](s)

⇒ y(x) = cos(x) + π · sin(x)


28.8

Probe: ist tatsächlich Lösung

Beispiel 28.24. Randwertproblem:


π
y 00 + 9y = cos(2x), y(0) = 1, y = −1
2
  s
L cos(2·) (s) =
s2 +4

s !
= L y 00 + 9y (s) = L y 00 ](s) + 9L y (s)
    

s2 + 4
= s2 L y (s) − y 0 (0) −s · y(0) +9L y (s)
   
| {z } |{z}
=c =1
= (s2 + 9)L y (s) − (s + c)
 

 
  1 s s s 1
⇒ L y (s) = 2 · + s + c = 2 + +c · 2
s +9 s2 + 4 (s + 9)(s2 + 4) s2 + 9 s +9
| {z } | {z }
L[cos(3·)](s) =c̃· s23+9

s
Wir brauchen das Urbild von (s2 +9)(x2 +4) unter L:

s As + B Cs + D
= 2 + 2
(s2 + 9)(s2 + 4) s +9 s +4

⇔ s = (As + B)(s2 + 4) + (Cs + D)(s2 + 9)


= s3 (A + C) + s2 (B + D) + s(4A + 9C) + (4B + 9D)

! 1 1
1 = 4A + 9C = −5A ⇒ A=− ⇒ C=
5 5
!
0 = 4B + 9D = −5B ⇒ B=D=0

324
28.4. Anwendungen auf lineare Differentialgleichungen

s 1 s 1 s
⇒ =− · 2 + · 2
(s2 2
+ 9)(s + 4) 5 s +9 5 s +4
1   1  
= − · L cos(3·) (s) + · L cos(2·) (s)
5 5

  1   1      
⇒ L y (s) = − · L cos(3·) (s) + · L cos(2·) (s) + L cos(3·) (s) + c̃ · L sin(3·) (s)
5 5 
4 1
=L cos(3·) + cos(2·) + c̃ sin(3·) (s)
5 5

4 1
⇒ y(x) = · cos(3x) + · cos(2x) + c̃ · sin(3x)
28.8 5 5
Jetzt c̃ so einrichten, dass die zweite Randbedingung y π2 = −1 erfüllt ist:


   
! 4 3 1 3 1 4
−1 = · cos · π + · cos(π) + c̃ · sin · π = − − c̃ ⇒ c̃ =
5 2 5 2 5 5

4   1
⇒ y(x) = · cos(3x) + sin(3x) + · cos(2x)
5 5

Beispiel 28.25. System:


   
1 1 0
y0 = y, y(0) =
4 −2 5
 
u
Setze y = , also
v

u0 = u + v
v 0 = 4u − 2v

!
⇒ L[u0 ](s) = L[u](s) + L[v](s) = sL[u](s) − u(0) = sL[u](s)
!
L[v 0 ](s) = 4L[u](s) − 2L[v](s) = sL[v](s) − v(0) = sL[v](s) − 5

⇔ (s − 1) · L[u](s) − L[v](s) = 0
4L[u](s) − (s + 2) · L[v](s) = −5
 
⇒ 4 − (s + 2) · (s − 1) · L[u](s) = −5
5 5 1 1
= L e2· − L e−3· (s)
   
⇒ L[u](s) = = = −
s2 +s−6 (s − 2)(s + 3) s−2 s+3
⇒ u(x) = e2x − e−3x
28.8

⇒ v(x) = u(x) + v(x) − u(x) = u0 (x) − u(x) = 2e2x + 3e−3x − e2x + e−3x = e2x + 4e−3x


e − e−3x
 2x 
⇒ y(x) = 2x
e + 4e−3x

325
28. Die Laplace-Transformation

326
A. Tabellen
Tabelle A.1.: Verschiedene Funktionsdefinitionen

∞ xn x x2 x3
ex
P
=1+ + + + ···
n=0 n! 1! 2! 3!
∞ x2n+1 x3 x5
(−1)n ·
P
sin x =x− + − ···
n=0 (2n + 1)! 3! 5!
∞ x2n x2 x4
(−1)n ·
P
cos x =1− + − ···
n=0 (2n)! 2! 4!
sin x  π
tan x , x ∈ R \ (2k + 1) · 2 |k∈Z
cos x
cos x 1
cot x = , x ∈ R \ {k · π | k ∈ Z}
sin x tan x
1
sinh x 2 · (ex − e−x )

1
cosh x 2 · (ex + e−x )

sinh x ex − e−x
tanh x =
cosh x ex + e−x
cosh x ex + e−x
coth x = x
sinh x e − e−x
√ 
arsinh x log x + x2 + 1

√ 
arcosh x log x + x2 − 1

1
1+x
artanh x 2 · log
1−x
1
x+1
arcoth x 2 · log
x−1

327
A. Tabellen

Tabelle A.2.: Additionstheoreme

• sin(x + y) = sin x cos y + sin y cos x


• cos(x + y) = cos x cos y − sin x sin y
• sin2 x + cos2 x = 1

• cosh2 x − sinh2 x = 1

Tabelle A.3.: Einige Funktionen und ihre Ableitungen


f f0
xn nxn−1
1 −n
xn xn+1
√ 1
x √
2 x
√ 1
n
x √
n
n xn−1
ex ex
1
log x
x
ax ax log a
1 1
loga x ·
log a x

328
Tabelle A.4.: Trigonometrische Funktionen und ihre Ableitungen und Stammfunktionen

Ableitung f 0 (x) Funktion f (x) Stammfunktion F (x)


cos(x) sin(x) − cos(x)
− sin(x) cos(x) sin(x)
1
= 1 + tan2 (x) tan(x) − log cos(x)
cos2 (x)
−1
= − 1 + cot2 (x)

2 cot(x) log sin(x)
sin (x)
cosh(x) sinh(x) cosh(x)
sinh(x) cosh(x) sinh(x)
1 
2 tanh(x) log cosh(x)
cosh (x)
−1 
2 coth(x) log sinh(x)
sinh (x)
1 √
√ arcsin(x) x · arcsin(x) + 1 − x2
1 − x2
−1 √
√ arccos(x) x · arccos(x) − 1 − x2
1− x2
1 1
log 1 + x2

arctan(x) x · arctan(x) − 2
1 + x2
−1 1
log 1 + x2

arccot(x) x · arccot(x) + 2
1 + x2
1 √
√ arsinh(x) x · arsinh(x) − x2 + 1
1+ x2
1 √
√ arcosh(x) x · arcosh(x) − x2 − 1
x2 − 1
1 1
· log 1 − x2

artanh(x) x · artanh(x) + 2
1 − x2
−1 1
· log x2 − 1

arcoth(x) x · arcoth(x) + 2
x2 − 1

329
A. Tabellen

Tabelle A.5.: Einige Funktionen und ihre Laplace–Transformierten

f (t) (auf [0, ∞)) L[f ](s)


1
1
s
1
t
s2
n!
tn
sn+1
1
eat
s−a
tn−1 eat 1
(n ∈ N)
(n − 1)! (s − a)n
ω
sin(ωt)
s2 + ω 2
s
cos(ωt)
s2 + ω2
ω
eat sin(ωt)
(s − a)2 + ω 2
s−a
eat cos(ωt)
(s − a)2 + ω 2
a
sinh(at)
s2 − a2
s
cosh(at)
s2 − a2
a
ebt sinh(at)
(s − b)2 − a2
s−b
ebt cosh(bt)
(s − b)2 − a2
2ωs
t sin(ωt)
(s2 + ω 2 )2
s2 − ω 2
t cos(ωt)
(s2 + ω 2 )2
g 0 (t)
 
sL g (s) − g(0)
g (n) (t) sn L g (s) − sn−1 g(0) + · · · + g (n−1) (0)
  

Rt 1  
g(t) dt · L g (s)
0 s
Rt    
f1 (u)f2 (t − u) du L f1 (s) · L f2 (s)
0

e−at g(t)
 
L g (s + a)
1 t
  
a ·g a L g (as)

330
Literaturverzeichnis
[1] R. Ansorge / H. J. Oberle, Mathematik für Ingenieure, Band 1 + 2, Akademie Verlag, 2001
[2] K. Burg / H. Haf / F. Wille, Höhere Mathematik für Ingenieure, Band 1 + 2, Teubner, 2002
[3] H. Heuser, Lehrbuch der Analysis 1 + 2, Teubner, 2003
[4] H. Heuser, Gewöhnliche Differentialgleichungen, Teubner, 1995
[5] K. Meyberg / P. Vachenauer, Höhere Mathematik 2, Springer, 2001
[6] W. Walter, Analysis 1 + 2, Springer, 2001
[7] W. Walter, Gewöhnliche Differentialgleichungen, Springer, 2000

331
Literaturverzeichnis

332
Index

A bijektiv, 4, 47
Abbildung, 3 Binomialkoeffizient, 15
bijektiv, 4 Binomischer Lehrsatz, 16
injektiv, 4 Bolzano–Weierstraß, Satz von, 33, 196
surjektiv, 4
abgeschlossen, 194, 197 C
Ableitung, 93, 217, 230, 328, 329 C, 205
höhere, 109 Cantor, 3, Menge142
partielle, 212, 213 Cauchy-Folge, 34
Regeln, 95 Cauchy-Kriterium
absolut Folgen, 34, 196
integrierbar, 300 Funktionen, 67, 200
konvergent, 206 Reihen, 39, 206
Abstand, 191 uneigentliche Integrale, 161
abzählbar, 19 Cauchy-Produkt, 48, 207
Additionstheoreme, 167, 169, 328 Cauchy-Schwarzsche Ungleichung, 192
Äquivalenz, 4 Cauchyscher Hauptwert, 304
d’Alembert, Reduktionsverfahren von, 288 Cavalieri, Prinzip von, 253
All-Quantor ∀, 4 CH, siehe Cauchyscher Hauptwert
Anfangswertproblem, 265, 279 charakteristische Funktion, 247
Anordnungsaxiome, 8 charakteristisches Polynom, 283
Arcuscosinus, 329 C n , 110, 214, 229
Arcussinus, 139, 329 Cosinus, 54, 56, 105, 110, 156, 327, 329
Arcustangens, 107, 329 Ableitung des, 105
Areacosinus hyperbolicus, 109, 210, 327, 329
hyperbolicus, 327, 329 komplexer, 167, 169, 209
Areacotangens Cotangens, 327, 329
hyperbolicus, 327, 329 hyperbolicus, 327, 329
Areasinus
hyperbolicus, 327, 329 D
Areatangens ∂, 211
hyperbolicus, 327, 329 definit
Aussagen, 4 negativ, 225
Axiome positiv, 225
Peano-, 5 DGL, siehe Differentialgleichungen
reelle Zahlen, 7 Differentialgleichungen
1. Ordnung, 265
B Bernoullische, 276
Bernoullische Differentialgleichung, 276 Eulersche, 295
Bernoullische Ungleichung, 15 exakte, 266
beschränkt, 10, 11, 76, 193, 195 homogene, 273
Besselsche Ungleichung, 182 inhomogene, 273
Betrag, 191 lineare, 273
komplexe Zahlen, 167 mit getrennten Veränderlichen, 270
reelle Zahlen, 9 partielle, 269

333
Index

Riccatische, 277 Funktionalmatrix, 229


Systeme, 279, 325 Funktionen, 63, 327
Differentialrechnung, 211 beschränkte, 76
Differentiation, siehe Ableitung Cauchy-Kriterium, 67
differenzierbar, 93, 215, 218, 229 charakteristische, 247
in Richtung a, 221 gerade, 177
partiell, 212 implizit definiert, 233
stetig, 110 komplexe, 207
stetig partiell, 213 ungerade, 177
disjunkt, 3 Funktionenfolgen, 85, 209
divergent, 21, 206 Konvergenz von fn0 , 143
Division mit Rest, 148 Funktionenreihen, 85
Dreiecksungleichung, 9, 192 Majorantenkriterium, 87
Integrale, 132, 244
G
E g-adische Darstellung, 60
e, 30, 47 g-adische Entwicklung, 59
Eigenwert, 225, 283 ganze Zahlen, 14
Eindeutigkeitssatz, 317 Gauß-Klammer, 59
Einheitsvektoren, 191 Gebiet, 218
Einheitswurzeln, 171 geometrische Reihe, 37, 208
endlich, 19 gerade, 177
Energie-Methode, 297 glatt, stückweise, 178, 299, 314
Entwicklung, g-adische, 59 gleichmäßig
ε-Umgebung, 21 konvergent, 209
Eulersche Differentialgleichung, 295 stetig, 201, 202
Eulersche Zahl, 30, 47 gliedweise, 131
exakt, 266 Gradient, 213
Existenzquantor ∃, 5 Graph, 251
Exponentialfunktion, 47, 68, 74, 80, 97, 327 Grenzfunktion, 85
Eigenschaften, 48 Grenzwert, 63, 195, 199
komplexe, 167, 209 Grenzwertsatz, Abelscher, 108
Reihenentwicklung, 327
exponentielle Ordnung, 314 H
Extrema, 98, 115 Häufungspunkt, 63
Extremum, 226 Häufungswert, 195
Häufungspunkt, 197
F Häufungswert, 31
Faltung, 307, 319 harmonische Reihe, 38
Faltungssatz, 319 Hauptsätze der Diff.- und Integralrechnung
Folgen, 19 1. Hauptsatz, 126
Cauchy-Kriterium, 34 2. Hauptsatz, 134
Funktionen-, 85 Potenzreihen, 131
Teil-, 30 Hauptwert, Cauchyscher, 304
Fourier Heavyside-Funktion, 313
-Koeffizienten, 177 Hesse-Matrix, 224
komplexe, 186 Hintereinanderausführung, 4
-Reihen, 175, 177 homogen, 273
komplexe, 186 l’Hospital, 103
-Transformierte, 302
Fubini, Satz von, 244 I
Fundamentalmatrix, 287 Implikation, 4
Fundamentalsatz der Algebra, 147 implizit definiert, 233
Fundamentalsystem, 283, 292 indefinit, 225

334
Index

Induktionsmenge, 12 Leibnitz, 41
Infimum, 10 Majoranten, 42
Inhalt, 241, 248 Minoranten, 42
inhomogen, 273 Quotient, 45
injektiv, 4 Wurzel, 43
lokal, 238 Konvergenzradius, 51, 55, 208
Innenprodukt, 191 konvex, 218
innerer Punkt, 98 Konvolution, 319
Integrabilitätskriterium, Riemannsches, 124 Koordinaten
Integral Kugel-, 263
oberes, 121, 242 Polar-, 259
Riemann-, 121, 243, 300 Zylinder-, 262
über allg. Mengen, 247 Kreisring, 259
unbestimmtes, 136 Kriterium, Riemannsches, 243
uneigentliches, 159 Kugel, 193
unteres, 121, 242 Kugelkoordinaten, 263
Integralkriterium, 165
Integration L
partielle, 136 Länge, 191
rationale Funktionen, 151 Lagrangesche Multiplikatorenregel, 239
Substitution, 137, 155, 258 Laplace-Transformation, 313, 330
Unstetigkeitsstellen, 140 Eindeutigkeitssatz, 317
Warnungen, 127 Faltung, 319
integrierender Faktor, 269 Streckungssatz, 318
Intervall, 10, 241 Umkehrsatz, 316
Verschiebungssätze, 318
J Lehrsatz, Binomischer, 16
Jakobi-Matrix, 229 Leibnitz-Kriterium, 41
Jordan-messbar, 248 Limes, 20, 195
inferior, 33
K superior, 33
Kettenregel, 95, 218, 232 Lipschitz-Bedingung, 280
kompakt, 194, 197, 203 Lipschitz-stetig, 201
Komplementmenge, 3 Lösung, 265, 279
komplexe Zahlen Logarithmus, 80
Betrag, 167 lokal injektiv, 238
Polarkoordinaten, 169
konvergent, 21, 195 M
absolut, 206 Majorantenkriterium
punktweise, 209 Integrale, 163
Konvergenz, 20, 195 Reihen, 42, 206
absolut, 40, 162 Matrix
Folgen, 205 Hesse-, 224
Funktionenfolgen, 209 Jakobi-, 229
gleichmäßig, 86, 143 Norm, 193
punktweise, 85 Submultiplikativität, 193
Reihen, 37, 206 maximieren, 239
uneigentliche Integrale, 161 Maximum, 98, 226
Konvergenzkriterium Menge, 3
Folgen, siehe Folgen abgeschlossen, 75
Integrale, 163, 165 Cantor-, 142
Potenzreihen, 90 kompakt, 75
Reihen Komplement-, 3
Cauchy-Produkt, 48 konvex, 218

335
Index

Schnitt-, 3 Potenz, 14
total geordnet, 9 allgemein, 80
Vereinigungs-, 3 rationale Exponenten, 17
messbar, 248 Potenzmenge, 3
Minimum, 98, 226 Potenzreihe, 51, 72, 89, 208
Minorantenkriterium Höhere Ableitungen, 111
Integrale, 163 Identitätssatz, 90
Reihen, 42, 206 Konvergenzradius, siehe Konvergenzradius
Mittelwertsatz Produkt
Differentialrechnung, 99, 219 inneres, 191
Verallgemeinerung, 103 Skalar-, 191
Integralrechnung, 143, 251 Produktzeichen, 15
Monotonie, 25 punktweise konvergent, 209
bei Funktionen, 78
Kriterium, 25 Q
Multiplikatorenregel, Lagrangesche, 239 Quader, 241
quadratische Ergänzung, 157
N Quadratische Form, 224
n-te Wurzel Quantor
komplexe, 171 All-, 4
reelle, 16 Existenz-, 5
Nabla-Operator ∇, 223
natürliche Zahlen, 12, 14 R
Nebenbedingung, 239 Rn , 191
Negation, 4 R[a, b], 121, 243, 300
negativ definit, 225 Rand, 249
niedrig, 32 Randpunkt, 249
Norm Randwertproblem, 324
Matrix, 193 rationale Zahlen, 14
Submultiplikativität, 193 Raum, 191
Vektor, 191 Reduktionsverfahren von d’Alembert, 288
Normalbereich, 255 reelle Zahlen, 7
Nullmenge, 249 Reihe, 37, 206
Nullstellen, 74, 147 alternierende harmonische, 40
Nullstellensatz von Bolzano, 74 Cauchy-Produkt, 48
geometrische, 37, 208
O harmonische, 38
Obersumme, 119, 242 Konvergenz, siehe Konvergenzkriterium
offen, 193 Potenz-, siehe Potenzreihen
Ordnung, exponentielle, 314 trigonometrische, 176
Orthogonalitätsrelation, 175 Riccatische Differentialgleichung, 277
Richtung, 221
P Richtungsableitung, 221
Partialbruchzerlegung, 147, 149 Riemannsche Summe, 125
Partialsumme, 37 Riemannsches Kriterium, 243
partiell differenzierbar, 212 Rotationskörper, 255
partikulär, 273, 275 Rotationsparaboloid, 255, 262
Peano, Satz von, 279
Peano-Axiome, 5 S
π, 105 Sattelfläche, 227
Picard–Lindelöf, Satz von, 280 Satz
Polarkoordinaten, 169, 259 von Bolzano–Weierstraß, 33, 196
Polynom, charakteristisches, 283 von Fubini, 244
positiv definit, 225 von Peano, 279

336
Index

von Picard–Lindelöf, 280 Umgebung, 21, 236


von Riemann–Lebueque, 184 Umkehrfunktion, 78, 96, 202
von Schwarz, 214 Umkehrsatz
von Taylor, 112, 224 Laplace-Transformation, 316
Schnittmenge, 3 Umordnung, 47
Schranke, 10 ungerade, 177
Schwarz, Satz von, 214 Ungleichung
Sinus, 55, 56, 105, 110, 156, 327, 329 Bernoullische, 15
Ableitung des, 105 Besselsche, 182
hyperbolicus, 109, 210, 327, 329 Cauchy-Schwarzsche, 192
komplexer, 167, 169, 209 Dreiecks-, 9, 192
Skalarprodukt, 191 Unstetigkeitsstellen, 140
stückweise glatt, 178 Untersumme, 119, 242
Stammfunktion, 126, 127, 135, 266, 300, 329
stetig, 71, 199, 201, 207 V
gleichmäßig, 82, 201, 202 Variablentransformation, 276
Lipschitz, 83, 201 Variation der Konstanten, 275
stückweise, 299, 314 Vektor
stetig differenzierbar, 110, 218, 229 Richtungs-, 221
Streckenzug, 218 Zwischen-, 125
Streckungssatz, 318 Vektorraum, 164, 243, 273, 282
stückweise Verbindungsstrecke, 218
glatt, 299, 314 Vereinigungsmenge, 3
stetig, 299, 314 Verfeinerung, 242
Submultiplikativität, 193 Vergleichskriterium, 302
Substitutionsregel, 137, 258 Verschiebungsätze, 318
Summenfunktion, 85 Vollständige Induktion, 13
Summenzeichen, 15
Supremum, 10 W
surjektiv, 4 Wurzel, 16, 171
System, 279 Wurzelkriterium, 43
lineares, 283
Z
T
Zahlen, 7
Tangens, 107, 210, 327, 329 ganze, 14
Ableitung des, 107 komplexe Zahlen
hyperbolicus, 210, 327, 329 Betrag, 167
Tangentensteigung, 93 Polarkoordinaten, 169
Taylor natürliche, 14
Reihe, 112 rationale, 14
Satz von, 112, 224 reelle, 7
Teilfolge, 30, 195 Zerlegung, 119, 241
Teilintervall, 241 Feinheit einer, 125
Teilsumme, 37 Verfeinerung, 120
total geordnet, 9 Zwischenvektor, 125
Transformationssatz, 258 Zwischenwertsatz, 73, 202
Transformierte Zylinderkoordinaten, 262
Fourier-, 302
Laplace-, 313, 330
trigonometrische Reihe, 176

U
überabzählbar, 19
überlappend, 251

337

Das könnte Ihnen auch gefallen