0% fanden dieses Dokument nützlich (0 Abstimmungen)
70 Ansichten66 Seiten

BA-script SoSe 24

Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
70 Ansichten66 Seiten

BA-script SoSe 24

Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Statistik

Vorlesungsskript

Fachbereich Wirtschaftswissenschaften

Goethe-Universität Frankfurt

Balázs Cserna Daniel Gutknecht Uwe Hassler

Sommersemester 2024
Gebrauchsanweisung: Alte und neue Prüfungsordnung (PO)
Zum Sommersemester 2022 trat eine neue Prüfungsordnung (PO) in Kraft, welche die alte PO von 2009

ablöste. Student(inn)en, die unter der alten PO ihr Studium aufgenommen haben, müssen es auch nach

der alten PO fortsetzen. Inwieweit betrit dieser Wechsel die Statistik im Orientierungsjahr (OSTA) ?
Und wie lösen wir als OSTA-Lehrkräfte die damit einhergehenden Herausforderungen?

Nach der alten PO ist OSTA mit 15 Kreditpunkten die umfangreichste und mit 3 Vorlesungen pro

Woche zeitaufwändigste Veranstaltung unseres gesamten Bachelorstudiums. Damit kommt zum Ausdruck,

dass die Kolleg(inn)en unseres Fachbereichs Kompetenz in empirischen Methoden als erforderlich für ein

erfolgreiches Studium der Wirtschaftswissenschaften halten. Gleichzeitig stöhnt mancher Student unter

der im ersten Semester damit einhergehenden Methodenlast. Daher wurde OSTA für die neue PO gekürzt,

auf 2 Vorlesungen pro Woche, für die es nur noch 10 Kreditpunkte gibt. In der Summe erhöhen sich

Aufwand und Kreditpunkte für empirische Methoden jedoch sogar leicht, denn nach der neuen PO ist

nach dem Orientierungsjahr eine Ökonometrieveranstaltung im Umfang von 6 Kreditpunkten Picht, was

nach der alten PO nicht der Fall ist. Infolge des unterschiedlichen Umfangs von OSTA nach neuer und

alter PO sind auch die damit verbundenen Klausuren am Ende des Semesters unterschiedlich.

OSTA nach der neuen PO im Überblick


1. Die Vorlesungen nden dienstags und mittwochs von 12:15 bis 13:45 Uhr statt.

2. Das Vorlesungsskript (hier vorliegend) darf in der Abschlussklausur verwendet werden.

3. Der umfangreiche Foliensatz zur Vorlesung darf in der Abschlussklausur nicht verwendet werden.

4. Über ein Dutzend Tutorien, die von Student(inn)en höherer Semester gehalten werden, nden zu

unterschiedlichen Terminen in kleinen Gruppen statt; davon sollte eines pro Woche besucht werden.

Eine Sammlung von Tutoriumsaufgaben wird bereitgestellt und in den Tutorien besprochen.

5. Zusätzlich werden in einer zentralen Übung von einer Mitarbeiterin oder von einem Mitarbeiter

weitere Beispiele und Aufgaben gerechnet und besprochen. Eine Sammlung von Übungsaufgaben
wird bereitgestellt

6. Der gesamte Sto aus 1. bis 5. ist klausurrelevant.

OSTA nach der alten PO im Überblick


7. Die oben genannten Lehrveranstaltungen (Vorlesung, Übung, Tutorium) richten sich auch an Stu-

dent(inn)en nach der alten PO.

8. Das Lehrmaterial aus 2. bis 5. richtet sich auch an Student(inn)en nach der alten PO.

9. Darüber hinaus gibt es nur nach der alten PO klausurrelevantes Material, das im abschlieÿenden

Kapitel 14 versammelt ist. Am Ende jedes Abschnitts gibt es dort Übungsaufgaben. Dieser Sto und

diese Aufgaben aus Kapitel 14 werden in Videokonserven behandelt und auf OLAT bereitgestellt.

10. Die Klausur nach alter PO enthält zum einen die identischen Aufgaben aus der Klausur in 6.;

auÿerdem umfasst sie zusätzliche Aufgaben, auch zu dem Sto aus 9., und entsprechend ist die

Klausur nach alter PO länger als die nach neuer.


Vorwort
Dieses Vorlesungsskript zu der Veranstaltung Statistik enthält die wichtigsten Denitionen und Verfah-
ren, ihre Eigenschaften und eine Sammlung an Tabellen. Das Vorlesungsskript ist nur eine kommentierte

Formelsammlung, es kann und soll nicht den regelmäÿigen Besuch der Vorlesung oder das Eigenstudium

entsprechender Lehrbuchliteratur ersetzen.

Dieses Skript ist eng an folgendes Lehrbuch (Verlag: Springer Gabler) angelehnt:
Hassler, U., Statistik im Bachelor-Studium: Eine Einführung für Wirtschaftswissenschaftler.
Für Angehörige der Goethe-Universität ist dieses Buch elektronisch kostenfrei über die Unibibliothek

zugänglich (https://hds.hebis.de/ubm/Record/HEB42868078X).

Zum Sommersemester 2022 wurde die Ausbildung in empirischen Methoden in unserem Bachelorstudium

neu organisiert. Insbesondere wurde der Umfang und Inhalt der Statistik im Orientierungsjahr reduziert.

Daher wird in dieser Neuauage nicht mehr der komplette Sto aus dem genannten Buch behandelt;
siehe obenstehende Gebrauchsanweisung. Auch haben wir die Gelegenheit genutzt, einige Themen leicht

anders (und hoentlich besser) aufzubereiten und in einer Anordnung zu präsentieren, die von der im

Buch abweicht.

Als ergänzende und weiterführende Literatur wird u.a. empfohlen:


Bamberg, G., F. Baur, Statistik , Oldenbourg Verlag.
Fahrmeir, L., C. Heumann, R. Künstler, I. Pigeot, G. Tutz, Statistik - Der Weg zur Datenanalyse, Springer
Verlag.

Fahrmeir, L., R. Künstler, I. Pigeot, G. Tutz, A. Caputo, S. Lang, Arbeitsbuch Statistik, Springer-Verlag.
Newbold, P., W.L. Carlson, B. Thorne, Statistics for Business and Economics, Pearson Prentice Hall.

Schira, J., Statistische Methoden der VWL und BWL, Pearson.

Schlittgen, R., Einführung in die Statistik: Analyse und Modellierung von Daten, Oldenbourg Verlag.

Die Verwendung der neuesten Auage ist bei den meisten Statistikbüchern nicht unbedingt erforderlich.

Ältere Auagen sind oft billiger zu haben und besser in den Bibliotheken verfügbar.

Notation und Sprachgebrauch sind über die verschiedenen Bücher hinweg nicht einheitlich und unter-
scheiden sich daher zum Teil von der Konvention in diesem Skript. Auch lässt sich nicht immer vermeiden,

dass ein und dasselbe Symbol im Verlauf der Veranstaltung verschiedene Bedeutungen trägt.

Diese Unterlagen basieren auf Vorlesungsausarbeitungen, die an der Goethe-Universität Frankfurt über

zwanzig Jahre entwickelt und eingesetzt wurden. Für viele hilfreiche Hinweise schulde ich den (ehemaligen)

Kollegen Horst Entorf, Dieter Nautz, Marc Pohle, Sven Schreiber und Michael Weba Dank.
Inhaltsverzeichnis
1 Einführung 1

2 Beschreibung univariater Datensätze 2


2.1 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2.2 Häugkeitsverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2.3 Maÿzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.3.1 Lage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.3.2 Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2.3.3 Boxplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.4 Zeitreihen und Wachstumsraten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Beschreibung bivariater Datensätze: Zusammenhangsanalysen 7


3.1 Bivariate Häugkeitsverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3.2 Streudiagramm und Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

3.3 Lineare Regressionsrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

4 Zufallsvariablen und Verteilungen 10


4.1 Zufällige Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

4.2 Verteilung(sfunktion)en . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

4.3 Theoretische Maÿzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

4.3.1 Lage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

4.3.2 Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

4.3.3 Quantile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

4.3.4 Schiefe und Wölbung (Kurtosis) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

5 Verteilungsmodelle 14
5.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

5.2 Stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

5.3 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

6 Bivariate Zufallsvariablen 17
6.1 Diskreter Fall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

6.2 Bedingte Wahrscheinlichkeiten und der Satz von Bayes . . . . . . . . . . . . . . . . . . . . 17

6.3 Bedingte Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

6.4 Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

7 Mittelung bei Zufallsstichproben 20


7.1 Unabhängig und identisch verteilte Stichprobenvariablen . . . . . . . . . . . . . . . . . . . 20

7.2 Gesetz der groÿen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20


7.3 Asymptotische (approximative) Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . 20

8 Parameterschätzung 22
8.1 Schätzfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

8.2 Erwartungstreue und Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

8.3 Stichprobenvarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

8.4 Momentenmethode (MM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

9 Kondenzintervalle (KI) 24
9.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

9.2 KI für den Erwartungswert µ (bei Normalverteilung) . . . . . . . . . . . . . . . . . . . . . 24

9.2.1 Bei bekannter Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

9.2.2 Bei unbekannter Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

9.2.3 Approximativ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

9.3 KI für einen Anteilswert p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

9.4 KI für die Varianz σ2 bei Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 25

10 Statistische Tests 26
10.1 Prinzipien des Testens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

10.2 Tests auf µ (bei Normalverteilung) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

10.2.1 Bei bekannter Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

10.2.2 Bei unbekannter Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

10.2.3 Approximativ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

10.3 Test auf einen Anteilswert p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

10.4 P -Werte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

10.5 Zweiseitige Tests und Kondenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

10.6 Test auf die Varianz σ2 bei Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . 29

10.7 Gütefunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

11 Tests bei (un)verbundenen Stichproben 31


11.1 Tests auf Gleichheit zweier Erwartungswerte . . . . . . . . . . . . . . . . . . . . . . . . . . 31

11.1.1 Dierenzen-t-Test für verbundene Stichproben . . . . . . . . . . . . . . . . . . . . 31

11.1.2 Tests für unverbundene Stichproben . . . . . . . . . . . . . . . . . . . . . . . . . . 32

11.2 χ2 -Unabhängigkeitstest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

11.3 Test auf Unkorreliertheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

12 Das lineare Regressionsmodell 35


12.1 Einfachregression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

12.2 Parametertests und Kondenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

12.3 Multiple Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

13 Tabellen zu Verteilungsfunktionen und Quantilen 39

14 Anhang: Nur für Student(inn)en nach der alten PO 45


14.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

14.2 Konzentrationsmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

14.3 Mittlere Wachstumsraten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

14.4 Zufallsvorgang und Ereignisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

14.5 Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

14.6 Weitere Verteilungsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

14.7 Bivariate Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

14.8 Maximum-Likelihood-Methode (ML) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

14.9 Kondenzintervall für die Varianz bei Normalverteilung . . . . . . . . . . . . . . . . . . . 53

14.10Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

14.11Tests auf Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

14.11.1 Normalverteilung (Schiefe und Kurtosis) . . . . . . . . . . . . . . . . . . . . . . . . 56

2
14.11.2 χ -Anpassungstest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1

1 Einführung
Die Statistik hat einen schlechten Ruf: Glaube keiner Statistik, die du nicht selbst gefälscht hast. Tatsache
aber ist, dass Statistik in vielen Bereichen des täglichen Lebens sowie der Wirtschaft und Wissenschaft

zur Anwendung kommt. Einige Beispiele sind:

• Covid-19,

• Mietspiegel,

• Einschaltquote beim Fernsehen,

• Wahlprognosen,

• Analyse von Finanzmärkten,

• Marktforschung,

• Prognose des Wirtschaftswachstums,

• Wetter.

Dabei gibt es den Begri Statistik in einem doppelten Wortsinn. Er wird zum einen im Sinne der

Ansammlung quantitativer Informationen über bestimmte Sachverhalte verwendet, z. B. Arbeitslosensta-

tistik, zum anderen als Begri für Methoden zur Darstellung und Analyse von Daten. Diesen Methoden

ist die Lehrveranstaltung gewidmet. Die nächsten zwei Kapitel beginnen mit der beschreibenden oder

deskriptiven Statistik, also der Darstellung von Daten und Zusammenhängen. Danach legen wir in den

Kapiteln 4 bis 7 die theoretischen Grundlagen für die schlieÿende oder induktive Statistik; diese erlaubt

(statistische) Schlussfolgerungen auf der Basis von Zufallsstichproben (ab Kapitel 8). Die Unterschei-

dung von beschreibender und schlieÿender Statistik erscheint in der Praxis oft künstlich, weil es von der

Beschreibung zur Schlussfolgerung häug nur ein (gewagter?) Schritt ist.


2 2 BESCHREIBUNG UNIVARIATER DATENSÄTZE

2 Beschreibung univariater Datensätze


2.1 Grundbegrie
Grundgesamtheit: Menge aller Personen, Einheiten oder Objekte, die im Hinblick auf ein bestimmtes

Untersuchungsziel relevant sind.

Merkmalsträger: einzelnes Element dieser Grundgesamtheit.


Merkmale oderVariablen: die interessierenden Eigenschaften, häug mit X notiert.
Merkmalsausprägung: möglicher (Zahl-)Wert eines Merkmals.
Rohdaten: ungeordnete, in der Erhebungsreihenfolge gegebene Daten (oder Beobachtungen oder Stichpro-
be ) x1 , . . . , xn .
Stichprobenumfang: Anzahl der Daten n.
Geordneter Datensatz: der Gröÿe nach sortiert, x(1) ≤ x(2) ≤ . . . ≤ x(n) .
Wir unterscheiden zwischen diskreten und stetigen Variablen:

• diskret: endlich bzw. abzählbar viele Ausprägungen,

• stetig: alle Werte eines Intervalls möglich.

Überdies ist das Skalenniveau eines Merkmals maÿgeblich:


• nominal: reine Unterscheidung ohne Anordnung,

• ordinal: Ordnungsstruktur,

• metrisch: geordnet mit sinnvollen Abständen.

Schlieÿlich können Merkmale eindimensional (oder univariat) oder mehrdimensional (oder multivariat)

sein.

2.2 Häugkeitsverteilungen
Summenzeichen: Die Summe von N Summanden si kürzen wir ab wie folgt:

N
X
si = s1 + s2 + · · · + sN .
i=1

Der Laundex muss nicht immer i heiÿen, und die Summation muss nicht immer mit 1 beginnen. Wir

schreiben auch
N
X
sj = sm + sm+1 + · · · + sN für m ≤ N.
j=m

Für eine Konstante c gilt

N
X N
X N
X
c = c + c + ··· + c = N c und c si = c si .
i=1 i=1 i=1

Oensichtlich gilt auch


N
X N
X N
X
(si + ti ) = si + ti .
i=1 i=1 i=1

Diskrete Merkmale: Diskretes Merkmal X mit den Ausprägungen a1 , . . . , a k . Normalerweise der Gröÿe

nach geordnet: a1 < · · · < ak . Die Ausprägungen werden beobachtet für einen dazu gehörigen Datensatz

(Stichprobe) vom Umfang n.


2.3 Maÿzahlen 3

Absolute Häugkeit: Anzahl, mit der die Ausprägung aj vorkommt: nj .


Relative Häugkeit: hj = nj /n mit graphischer Darstellung als Stabdiagramm.
Kumulierte relative Häugkeit der ersten j Ausprägungen: H(X ≤ aj ) = ji=1 hi .
P

Empirische Verteilungsfunktion: Wieviel % der Beobachtungen kleiner als eine reelle Zahl x oder höchstens
gleich sind:

Fb(x) = Anteil der Beobachtungen kleiner oder gleich x. (2.1)

Diese inhaltliche Denition gilt im diskreten und im stetigen Fall. Kann auch durch die Indikatorfunktion

ausgedrückt werden:

n
1X
Fb(x) = H(X ≤ x) = 1{xi ≤x} ,
n i=1

1 für xi ≤ x
wobei 1{xi ≤x} = .
0 sonst

Alternative Schreibweise im diskreten Fall:




 0 für x < a1

Pj
Fb(x) = i=1 hi für aj ≤ x < aj+1 , j = 1, . . . , k − 1 .



 1 für ak ≤ x

Stetige Merkmale: Stetiges Merkmal X mit Realisationen aus k Klassen:

(a∗0 , a∗1 ], (a∗1 , a∗2 ], (a∗2 , a∗3 ], . . . , (a∗k−1 , a∗k ].

Absolute Häugkeit nj : Anzahl der Realisationen aus j -ter Klasse (a∗j−1 , a∗j ].
Relative Häugkeit: hj = nj /n.
Klassenbreiten: ∆j = a∗j − a∗j−1 .
Häugkeitsdichte fˆ: 
 hj /∆j für a∗j−1 < x ≤ a∗j , j = 1, . . . , k
fˆ(x) = . (2.2)
 0 sonst

Histogramm: graphische Darstellung von fˆ.


Kumulierte relative Häugkeit: H(X ≤ a∗j ) = ji=1 hi .
P

Empirische Verteilungsfunktion: Relative Häugkeit H(X ≤ x) von Beobachtungen kleiner oder gleich x:
Wie in (2.1) deniert.

Häugkeitstabelle:

j a∗j−1 < X ≤ a∗j nj hj ∆j fˆ(x) Fb(a∗j ) = H(X ≤ a∗j )


. . . . . . .
. . . . . . .
. . . . . . .

2.3 Maÿzahlen
2.3.1 Lage
Arithmetisches Mittel x (Mittelwert oder Durchschnitt):
4 2 BESCHREIBUNG UNIVARIATER DATENSÄTZE

n
1X
x= xi . (2.3)
n i=1
Kann auch wie folgt berechnet, bzw. approximiert werden:

k
X
x= aj · hj (aus Häugkeitstabelle, diskret), (2.4)
j=1

k
X
x≈ aj · hj (aus Häugkeitstabelle, stetig, approximativ) , (2.5)
j=1

a∗j−1 + a∗j
wobei āj die Klassenmitte der j -ten Klasse ist: āj = .
2
Regeln:

• Lineartransformation der Daten yi = a + b xi , i = 1, . . . , n : y = a + b x,


• Summe von Daten in der Form zi = xi + yi , i = 1, . . . , n : z = x + y,
Pn
• Zentralität: i=1 (xi − x̄) = 0.

Median oder 50%-Punkt, xb0.50 : halbiert den geordneten Datensatz x(1) , . . . , x(n) :

 x( n+1 ) , n ungerade
x
b0.5 =  2  ,
1

2 x( n2 ) + x( n2 +1) , n gerade

oder (unter Verwendung des Symbols ⌊q⌋ für den ganzzahligen Anteil einer Zahl q)

n
 x(⌊ n2 ⌋+1) , 2 ∈
/N
x
b0.5 =   . (2.6)
1 n

2 x( n2 ) + x( n2 +1) , 2 ∈N

Auf diese Weise deniert man auch beliebige Prozentpunkte oder Quantile. Wir beginnen mit dem 25%-
Punkt ( unteres Quartil ) xb0.25 :

n
 x(⌊ n4 ⌋+1) , 4 ∈
/N
x
b0.25 =   .
1 n

2 x( n4 ) + x( n4 +1) , 4 ∈N

Das allg. p-Quantil ergibt sich aus



 x(⌊np⌋+1) , np ∈
/N
x
bp = . (2.7)
1


2 x(np) + x(np+1) , np ∈ N

Die Berechnung von Quantilen ist nur bei stetigen Merkmalen oder bei diskreten Merkmalen mit einiger-

maÿen vielen Ausprägungen sinnvoll. Bei der Denition aus (2.7) gilt im Fall np ∈ N gerade Fb(b
xp ) = p,
was bedeutet: p · 100 % der Beobachtungen sind kleiner oder gleich dem p-Quantil x
bp . Für p = 0.75 erhält
man speziell den 75%-Punkt x
b0.75 oberes Quartil ).
(

2.3.2 Streuung
Mittlere quadratische Abweichung d2 : Maÿ für die Streuung der Daten:
n
1X
d2 = (xi − x)2 . (2.8)
n i=1
2.4 Zeitreihen und Wachstumsraten 5

Kann auch wie folgt berechnet, bzw. approximiert werden:

k
X
d2 = (aj − x)2 · hj (aus Häugkeitstabelle, diskret), (2.9)
j=1

k
X
d2 ≈ (aj − x)2 · hj (aus Häugkeitstabelle, stetig, approximativ), (2.10)
j=1

wobei āj wiederum die Klassenmitte der j -ten Klasse ist.

Regeln:

• Verschiebungssatz: d2 = x2 − x2 ,
1
Pn
wobei x2 = n i=1 x2i für die Rohdaten und analog für die Berechnung aus Häugkeitstabellen.

• Lineartransformation der Daten yi = a + b xi , i = 1, . . . , n : d2y = b2 d2x .

Interquartilsabstand:
b0.75 − x
IQA = x b0.25 .

2.3.3 Boxplot
Die grundlegende Form des Boxplots basiert auf fünf Kennzahlen eines Datensatzes, dem Minimum x(1) ,
dem unteren Quartil x
b0.25 , dem Median x
b0.50 , dem oberen Quartil x
b0.75 und dem Maximum x(n) . Diese

Werte sind aus einem geordneten Datensatz ohne groÿe Rechnung leicht zu bestimmen:

x(1) x
b0.25 x
b0.50 x
b0.75 x(n)

Vom unteren bis zum oberen Quartil wird eine Schachtel (box) gezeichnet. Diese wird durch den Median

unterteilt. Die Länge der Schachtel entspricht natürlich dem IQA. Vom unteren Quartil bis zum Minimum
sowie vom oberen Quartil bis zum Maximum zeichnet man einen Strich und zieht dann einen Zaun,

der die Stichprobe begrenzt. Mitunter wird der Zaun nicht bei der kleinsten und gröÿten Beobachtung

gezogen, sondern bei der kleinsten/gröÿten Beobachtung, deren Abstand zum Quartil nicht das 1.5-Fache

des IQA überschreitet. Beobachtungen auÿerhalb des Zauns werden dann durch Kringel markiert. Durch
diese Maÿnahme werden extreme Werte als Ausreiÿer klassiziert.

2.4 Zeitreihen und Wachstumsraten


Die chronologisch geordnet anfallenden Beobachtungen werden mit dem Zeitindex t (time) notiert:

xt , t = 1, 2, . . . , n.

Graphisch werden Zeitreihen üblicherweise dargestellt, indem man die Werte xt gegen die Zeit t abträgt.
6 2 BESCHREIBUNG UNIVARIATER DATENSÄTZE

Dierenzen : ∆xt einer Zeitreihe (gegeben einen Startwert x0 ),

∆xt = xt − xt−1 , t = 1, 2, . . . , n.

Wachstumsrate : Veränderung relativ zur Vorperiode (diskrete Wachstumsrate): rt = ∆xt /xt−1 .


Stetige Wachstumsrate durch logarithmische Approximation1 für xt > 0:
∆xt
ρt = ∆ log(xt ) = log(xt ) − log(xt−1 ) ≈ = rt .
xt−1

Diese Approximation funktioniert gut, solange die Wachstumsraten rt dem Betrage nach klein sind.

1 Wir folgen hier der in der Wirtschaftswissenschaft weitverbreiteten Konvention, den natürlichen Logarithmus zur Ba-

sis e mit  log und nicht mit  ln zu bezeichnen. Beachten Sie aber bei konkreten Berechnungen, dass auf den meisten

Taschenrechnern die Taste für den natürlichen Logarithmus mit  ln beschriftet ist.
7

3 Beschreibung bivariater Datensätze: Zusammenhangsanalysen


An jeweils einem Objekt (oder an einer Person oder zu einem Zeitpunkt) werden zwei Merkmale X und

Y gemessen, was n Beobachtungspaare (x1 , y1 ), . . . , (xn , yn ) ergibt. Wir sprechen dann auch von einer

verbundenen Messung oder Stichprobe.

3.1 Bivariate Häugkeitsverteilungen


Die Merkmale X und Y seien diskret. X hat die Ausprägungen a1 , . . . , ak und Y die Ausprägungen

b1 , . . . , b ℓ mit:

ˆ absolute gemeinsame Häugkeit für (X = ai und Y = bj ): nij ,

ˆ relative gemeinsame Häugkeit: hij = nij /n = H(X = ai und Y = bj ),

ˆ absolute Randhäugkeit:
Pℓ
für X = ai : ni• = j=1 nij ,
Pk
für Y = bj : n•j = i=1 nij ,

ˆ relative Randhäugkeit:
Pℓ
hi• = H(X = ai ) = j=1 hij ,
Pk
h•j = H(Y = bj ) = i=1 hij .

Bedingte relative Häugkeiten:


nij
H(Y = bj | X = ai ) = ,
ni•
nij
H(X = ai | Y = bj ) = .
n•j
Bei (empirischer) Unabhängigkeit von X und Y gilt, dass die Bedingung keinen Einuss auf die Häug-

keiten hat:

H(X = ai | Y = bj ) = H(X = ai ) bei Unabhängigkeit.

Damit folgt
nij ni•
= bei Unabhängigkeit,
n•j n
oder
ni• n•j
nij = bei Unabhängigkeit.
n
Die rechte Seite ist die Zahl, die man als absolute Häugkeit für das gemeinsame Auftreten von X = ai
und Y = bj bei Unabhängigkeit erwartet:

ni• n•j
n
eij = . (3.1)
n
Maÿ für die Stärke der Abhängigkeit (Abweichung von Unabhängigkeit):

k X ℓ
X (nij − neij )2
χ2 = . (3.2)
i=1 j=1
n
eij

Man kann zeigen, dass dieser χ2 -Koezient Werte zwischen 0 und n(m − 1) annehmen kann, wobei m
das Minimum aus den Anzahlen möglicher Ausprägungen k und ℓ ist: m = min{k, ℓ}. Daher normieren

wir:
χ2
C2 = ∈ [0, 1] ,
n (m − 1)
8 3 BESCHREIBUNG BIVARIATER DATENSÄTZE: ZUSAMMENHANGSANALYSEN

oder denieren als Kontingenzkoezienten :


s
χ2
C= .
n (min{k, ℓ} − 1)

3.2 Streudiagramm und Korrelation


An jeweils einem Objekt (oder auch: zu jeweils einem Zeitpunkt) werden zwei metrische Merkmale X
und Y gemessen (viele verschiedene Ausprägungen oder stetig).

Streudiagramm: (x1 , y1 ), . . . , (xn , yn ) im Koordinatensystem; trage yi gegen xi ab.

Empirische Kovarianz von n Datenpaaren:


n
1X
dxy = (xi − x)(yi − y) . (3.3)
n i=1

Regeln

Verschiebungssatz: 1
Pn
• dxy = xy − x · y mit xy = n i=1 xi · yi ,
Lineartransformation der Daten: da+bx,α+βy = b β dxy
• (Kovarianz von a + bxi und α + βyi ).
Korrelationskoezient: Maÿzahl für linearen Zusammenhang:
dxy dxy
ρbxy = q = . (3.4)
2 2
dx dy dx dy

• Normierung: |b
ρxy | ≤ 1.

3.3 Lineare Regressionsrechnung


Wenn sich x um eine Einheit erhöht, um wieviele Einheiten variiert dann y? Lege Gerade durch Streu-

diagramm mit Achsenabschnitt a und Steigung b.


Kleinste-Quadrate-Methode (KQ-Methode): Wähle die empirischen Werte ba und bb als Lösungen des fol-
genden Minimierungsproblems:
n
X
min (yi − a − bxi )2 .
a,b
i=1

Es ergeben sich:

bb = dxy und a = y − bb x (3.5)


d2x
b

mit
n n
1X 1X
dxy = (xi − x)(yi − y) = xy − x · y mit xy = xi · yi ,
n i=1 n i=1

wobei
dxy dx
ρbxy = = b̂ . (3.6)
dx · dy dy
Empirische Regressionsgerade:
yb = b
a + bb x . (3.7)

Residuen (unerklärte Restterme):


bi = yi − ybi = yi − b
u a − bb xi . (3.8)
3.3 Lineare Regressionsrechnung 9

Bestimmtheitsmaÿ: Anteil der durch die Regression erklärten Streuung im Verhältnis zur Gesamtstreuung:
Pn Pn
2 i=1 (ŷi − ŷ)2 2
i=1 ûi
R = Pn 2
= 1 − Pn 2
,
i=1 (yi − y) i=1 (yi − y)

wobei R2 = ρb2xy ist.


10 4 ZUFALLSVARIABLEN UND VERTEILUNGEN

4 Zufallsvariablen und Verteilungen


4.1 Zufällige Ereignisse
Zufallsvariable: Abbildung X , die dem Ergebnis eines zufälligen Vorgangs eine Zahl x ∈ R zuordnet.
Ereignisse sind z. B.

ˆ X nimmt den Wert x an: [X = x],

ˆ X nimmt Werte kleiner oder gleich x an: [X ≤ x],

ˆ X nimmt Werte gröÿer als a und kleiner oder gleich b an: [a < X ≤ b].

Gegen- oder Komplementärereignis : Gegeben ein Ereignis A ist das Gegen- oder Komplementärereignis
Ac das Ereignis, dass A gerade nicht eintritt; A und Ac können nicht gleichzeitig eintreten, sind sich

ausschlieÿende Ereignisse.

Unmögliches Ereignis : z. B. das gemeinsame Auftreten von A und Ac , notiert auch mit dem Symbol der
leeren Menge : ∅ = A und Ac .
Sicheres Ereignis : z. B. X ∈ R, notiert auch mit dem Symbol Ω.
Vereinigung : A oder B , A tritt ein oder B oder beides; gebräuchliche Notation: A ∪ B .
Schnitt : A und B treten beide ein; gebräuchliche Notation: A ∩ B .
Dierenz : A tritt ein und B nicht; gebräuchliche Notation: A \ B (sprich: A ohne B ).
Wahrscheinlichkeit für das Eintreten von Ereignissen A: P(A) ∈ [0, 1].
Es seien A und B beliebige Ereignisse mit Elementen aus Ω, und ∅ sei ein unmögliches Ereignis. Dann

gilt:

a) P(∅) = 0, 0 ≤ P(A) ≤ 1 und P(Ω) = 1;

c
b) P(A ) = 1 − P(A);

c) P(A) ≤ P(B), wenn das Ereignis A das Ereignis B impliziert: A ⊆ B;

d) P(A oder B) = P(A) + P(B) − P(A und B);2

e) P(A \ B) = P(A) − P(A ∩ B).

4.2 Verteilung(sfunktion)en
Verteilungsfunktion F der Zufallsvariablen X:

F (x) = P(X ≤ x), x ∈ R . (4.1)

Diskrete Zufallsvariable nimmt k (abzählbar viele) Ausprägungen an: a1 < a2 < . . . < ak
Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen X :

 P(X = aj ) = pj , x ∈ {a1 , a2 , . . .}
P(X = x) = .
 0, sonst

2 Streng genommen sind Ereignisse Mengen, weshalb man für die oder- bzw. und-Verknüpfungen auch die gängigen

Symbole für Vereinigungs- bzw. Schnittmengen verwendet: P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
4.3 Theoretische Maÿzahlen 11

Verteilungsfunktion
X
F (x) = P(X ≤ x) = P(X = aj ). (4.2)
aj ≤x

Stetige Zufallsvariable kann alle Werte aus einem reellen Intervall annehmen.
(Wahrscheinlichkeits-)Dichte (oder Dichtefunktion) von X : Funktion f (x) mit f (x) ≥ 0, sodass:
Z a2
P(a1 < X ≤ a2 ) = f (x) dx.
a1

Für eine stetige Zufallsvariable X gilt:

P(a1 ≤ X ≤ a2 ) = P(a1 < X ≤ a2 ) = P(a1 ≤ X < a2 ) = P(a1 < X < a2 ),

weil

P(X = a) = 0 für jedes a ∈ R.

Verteilungsfunktion:
Z x
F (x) = P(X ≤ x) = f (t) dt. (4.3)
−∞

Exkurs (Integralrechnung): Integral von f als Dierenz der Stammfunktion F an der Ober- bzw. Unter-

grenze bestimmen:
Z b
b
f (x) dx = [F (x)]a = F (b) − F (a).
a

f (x) F (x) Ann.:

xk+1
xk k+1 k ̸= −1

x−1 = 1
x log (x) x>0
1 cx
ecx ce c ̸= 0

4.3 Theoretische Maÿzahlen


4.3.1 Lage
Erwartungswert E(X) bzw. µx :
k
X
E(X) = aj P(X = aj ) (diskret), (4.4)
j=1

Z ∞
E(X) = xf (x) dx (stetig), (4.5)
−∞

wobei im diskreten Fall k=∞ sein kann.

Regeln:

• Lineartransformation Y = a + b X : E(Y ) = E(a + b X) = a + b E(X),


• Summe zweier Zufallsvariablen Z = X + Y : E(Z) = E(X + Y ) = E(X) + E(Y ).
12 4 ZUFALLSVARIABLEN UND VERTEILUNGEN

4.3.2 Streuung
Varianz Var(X) bzw. σx2 :

k
X
Var(X) = (aj − E(X))2 P(X = aj ) (diskret), (4.6)
j=1
Z ∞
Var(X) = (x − E(X))2 f (x) dx (stetig), (4.7)
−∞

wobei wieder k=∞ zugelassen ist.

Verschiebungssatz:

ˆ Var(X) = E(X 2 ) − E(X)2 ,

wobei

k
X
2
E(X )= a2j P(X = aj ) (diskret),
j=1
Z ∞
2
E(X )= x2 f (x) dx (stetig).
−∞

Weitere Regeln:

ˆ Erwartungswert quadrierter Abweichungen:

Var(X) = E[(X − E(X))2 ], (4.8)

ˆ Lineartransformation einer Zufallsvariablen Y = a + b X : Var(Y ) = Var(a + b X) = b2 Var(X).

Standardabweichung σx als positive Quadratwurzel aus der Varianz:

p
σx = Var(X).

k -faches Sigma-Intervall ist deniert als

[µ ± k · σ] = [µ − k · σ, µ + k · σ] , (4.9)

wobei man häug k = 1, 2, 3 wählt.

4.3.3 Quantile
Quantile oder Prozentpunkte xp bei stetigen Zufallsvariablen:
Z xp
F (xp ) = f (a) da = p, 0 < p < 1. (4.10)
−∞

Median: x0.5 .
Zentrales Schwankungsintervall zum Niveau 1 − α, 0 < α < 1: jeweils mit Wahrscheinlichkeit α/2 treten
kleinere Werte als die untere Intervallgrenze und Werte oberhalb der oberen Intervallgrenze auf:

 
ZSI1−α = xα/2 , x1−α/2 . (4.11)
4.3 Theoretische Maÿzahlen 13

4.3.4 Schiefe und Wölbung (Kurtosis)


Mit den k -ten zentrierten theoretischen Momenten,

µk = E[(X − µ)k ], (4.12)

deniert man Schiefe und Wölbung (kurz für Schiefekoezienten und Wölbungskoezienten):
E[(X − µ)3 ] E[(X − µ)4 ]
γ1 = , γ2 = . (4.13)
σ3 σ4
Beachte: Hinter µk verbergen sich Integrale, die nicht notwendig endlich sein müssen (man sagt dann: die

entsprechenden Momente existieren nicht).

Symmetrie: Dichte oder Wahrscheinlichkeitsfunktion ist achsensymmetrisch um den Erwartungswert, so-


dass

E(X) = x0.5 und γ1 = 0.

Für den Wölbungskoezienten kann man zeigen:

γ2 ≥ 1 .

Empirische Entsprechung zu µk ist durch

n
1X
mk = (xi − x)k
n i=1

gegeben: Die theoretische Bildung von Erwartungswerten wird durch empirisches Mitteln ersetzt. Damit

m3
γ
b1 = , (4.14)
d3
m4
γ
b2 = . (4.15)
d4
14 5 VERTEILUNGSMODELLE

5 Verteilungsmodelle
5.1 Diskrete Verteilungen
a) Diskrete Gleichverteilung

X ∼ DG(k),
1
P(X = x) = mit x = 1, 2, . . . k,
k
k+1 k2 − 1
E(X) = und Var(X) = .
2 12
b) Bernoulli-Verteilung

X ∼ Be(p),

P(X = x) = px (1 − p)1−x mit x=0 oder 1 und 0 < p < 1,

E(X) =p und Var(X) = p(1 − p),


1 − 2p 1 − 6p(1 − p)
γ1 = p und γ2 = 3 + .
p(1 − p) p(1 − p)

c) Binomialverteilung
Summe von n unabhängig, identisch verteilten Bernoullivariablen (Xi ∼ Be(p)):

n
X
X= Xi ∼ Bi(n, p),
i=1
 
n x
P(X = x) = p (1 − p)(n−x) , x = 0, 1, . . . , n,
x
E(X) = np und Var(X) = np(1 − p),
1 − 2p
γ1 = p .
np(1 − p)
Mit Binomialkoezienten
     
n n! n n
= für x = 1, . . . , n − 1 , und = = 1,
x (n − x)! x! 0 n

und Fakultät m! = m · (m − 1) · · · 2 · 1, m ∈ N, 0! = 1.
d) Poisson-Verteilung

X ∼ P o(λ), λ > 0,
λx
P(X = x) = e−λ , x = 0, 1, . . . ,
x!
E(X) =λ und Var(X) = λ,
1 1
γ1 = √ und γ2 = 3 + .
λ λ
Die Poisson-Verteilung geht aus der Binomialverteilung Bi(n, p) mit λ = np für n→∞ hervor.
5.2 Stetige Verteilungen 15

5.2 Stetige Verteilungen


a) Stetige Gleichverteilung (auf dem Intervall [ a, b ])

X ∼ SG(a, b),
 1
 a≤x≤b
f (x) = b−a ,
0 sonst

a+b (b − a)2
E(X) = und Var(X) = ,
2 12



 0 x≤a
 x−a
F (x) = a≤x≤b ,

 b−a

1 x≥b

γ1 = 0 und γ2 = 1.8.

b) Exponentialverteilung

X ∼ Ex(λ), λ > 0,

 λe−λx x ≥ 0
f (x) = ,
 0 sonst

F (x) = 1 − e−λx , x ≥ 0,
1 1
E(X) = und Var(X) = ,
λ λ2
γ1 = 2 und γ2 = 9.

c) Pareto-Verteilung
X ∼ P a(θ; x0 ), θ > 0, x0 > 0,
 θ
 θx 0
x ≥ x0
xθ+1
f (x) = ,
 0 sonst

 x θ
0
F (x) = 1 − , x ≥ x0 ,
x
θx0
E(X) = für θ > 1,
θ−1
θx20
Var(X) = , θ > 2.
(θ − 1)2 (θ − 2)
d) Laplace-Verteilung
Nicht klausurrelevant.

e) Normalverteilung
X ∼ N (µ, σ 2 ), σ > 0,
 2 !
1 1 x−µ
f (x) = √ exp − , x ∈ R,
2πσ 2 σ

E(X) =µ und Var(X) = σ2 ,


γ1 = 0 und γ2 = 3.
16 5 VERTEILUNGSMODELLE

5.3 Normalverteilung
Standardnormalverteilung mit µ = 0 und σ = 1, Z ∼ N (0, 1). Es gilt:

X −µ
X ∼ N (µ, σ 2 ) ⇒ Z= ∼ N (0, 1).
σ
Die Verteilungsfunktion von Z hat die Bezeichnung Φ, vgl. Tabelle A:

Φ(z) = P(Z ≤ z), z ∈ R.

Symmetrieeigenschaft: Es gilt für alle z ∈ R:

Φ(−z) = 1 − Φ(z) . (5.1)

Prozentpunkte der Standardnormalverteilung zp , für die P(Z ≤ zp ) = Φ(zp ) = p sind in Tabelle B gelistet.
Wegen Symmetrie gilt

zp = −z1−p .

Für eine beliebige Normalverteilung, X ∼ N (µ, σ 2 ), erhält man die Quantile durch die Umkehrung der
Standardisierung:
p
xp = µ + zp · σ = E(X) + zp · Var(X). (5.2)

Für das zentrale Schwankungsintervall aus Gl. (4.11) gilt:

   
ZSI1−α = µ − z1−α/2 · σ; µ + z1−α/2 · σ = µ ± z1−α/2 · σ .
17

6 Bivariate Zufallsvariablen
6.1 Diskreter Fall
Zwei Zufallsvariablen X und Y mit (der Gröÿe nach sortierten Ausprägungen):

X ∈ {a1 , . . . , ak } , Y ∈ {b1 , . . . , bℓ } .

Gemeinsame Wahrscheinlichkeit :

pij = P(X = ai und Y = bj ), i = 1, . . . , k, j = 1, . . . , ℓ.

Randwahrscheinlichkeiten :

X ℓ
X
P(X = ai ) = P(X = ai und Y = bj ) = pij ,
j=1 j=1

k
X k
X
P(Y = bj ) = P(X = ai und Y = bj ) = pij .
i=1 i=1

Gemeinsame Verteilungsfunktion :
X X
Fxy (a, b) = P(X ≤ a und Y ≤ b) = P(X = ai und Y = bj ) .
ai ≤a bj ≤b

Randverteilungsfunktion :

X X X
Fx (a) = P(X ≤ a) = P(X = ai und Y = bj ) = P(X = ai ) .
ai ≤a j=1 ai ≤a

6.2 Bedingte Wahrscheinlichkeiten und der Satz von Bayes


Vgl. relative bedingte Häugkeit aus Abschnitt 3.1:

nij /n hij
H(X = ai |Y = bj ) = =
n•j /n h•j
H(X = ai und Y = bj )
= .
H(Y = bj )

Bedingte Wahrscheinlichkeit eines Ereignisses A unter der Bedingung des Eintretens des Ereignisses B,
mit P(B) > 0:
P(A und B)
P(A |B) = , P(B) > 0. (6.1)
P(B)

Genauso kann man umgekehrt bedingen:

P(A und B)
P(B |A) = , P(A) > 0.
P(A)

Multiplikationssatz : Daraus folgt

P(A und B) = P(A |B) P(B) = P(B |A) P(A). (6.2)

Satz von Bayes : Daraus folgt


P(B |A)P(A)
P(A |B) = . (6.3)
P(B)
18 6 BIVARIATE ZUFALLSVARIABLEN

Oft berechnet man

P(B) = P(B |A) P(A) + P(B |Ac ) P(Ac ). (6.4)

Unabhängigkeit: Zwei Ereignisse A und B mit P(A) > 0 und P(B) > 0 heiÿen (stochastisch) unabhängig,
wenn gilt:

P(A und B) = P(A) P(B) , (6.5)

bzw. P(A |B) = P(A) , (6.6)

bzw. P(B |A) = P(B) . (6.7)

Unabhängige Zufallsvariablen : X und Y heiÿen unabhängig, wenn

P(X ≤ a und Y ≤ b) = P(X ≤ a) · P(Y ≤ b) . (6.8)

Unabhängigkeit im diskreten Fall :

P(X = a und Y = b) = P(X = a) · P(Y = b) .

6.3 Bedingte Verteilungen


Im Fall zweier diskreter Zufallsvariablen mit k und ℓ Ausprägungen denieren wir wie folgt.

Bedingte Wahrscheinlichkeit :
P(X = ai und Y = b)
P(X = ai | Y = b) = , i = 1, . . . , k .
P(Y = b)

Bedingte Verteilungsfunktion :
X
Fx|b (a) = P(X ≤ a | Y = b) = P(X = ai | Y = b) .
ai ≤a

Bedingter Erwartungswert :
k
X
E(X | Y = b) = ai P(X = ai | Y = b) .
i=1

Bei Unabhängigkeit folgt:

P(X = ai ) · P(Y = b)
P(X = ai | Y = b) = = P(X = ai ) , i = 1, . . . , k ,
P(Y = b)

E(X | Y = b) = E(X) .

6.4 Kovarianz
Theoretische Kovarianz:
Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))]. (6.9)

Im Fall zweier diskreter Zufallsvariablen mit k und ℓ Ausprägungen:

k X
X ℓ
Cov(X, Y )= (ai − E(X))(bj − E(Y )) pij .
i=1 j=1

Regeln und Eigenschaften:


6.4 Kovarianz 19

a) Kovarianzzerlegung:
Cov(X, Y ) = E(XY ) − E(X)E(Y ) (6.10)

mit
k X
X ℓ
E(XY )= ai bj pij .
i=1 j=1

b) Lineartransformationen: Mit Konstanten a und b bzw. α und β gilt:

Cov(a + bX, α + βY ) = bβ Cov(X, Y ).

Theoretischer Korrelationskoezient:
Cov(X, Y )
ρxy = . (6.11)
σx σy
Es gilt |ρxy | ≤ 1. X und Y heiÿen unkorreliert, wenn Cov(X, Y )=0 bzw. ρxy = 0.
Unabhängig vs. unkorreliert:

X und Y sind unabhängig =⇒ Cov(X, Y ) = ρxy = 0 ,

bzw.

Cov(X, Y ) ̸= 0 (ρxy ̸= 0) =⇒ X und Y sind abhängig .

Die Varianz einer Summe:

Var(X + Y ) = Var(X) + Var(Y ) + 2Cov(X, Y ).

Das letzte Ergebnis verallgemeinert sich zu

Var(bX + βY ) = b2 Var(X) + β 2 Var(Y ) + 2bβ Cov(X, Y ). (6.12)

Insbesondere gilt

Var(X + Y ) = Var(X) + Var(Y ), wenn Cov(X, Y ) = 0. (6.13)


20 7 MITTELUNG BEI ZUFALLSSTICHPROBEN

7 Mittelung bei Zufallsstichproben


7.1 Unabhängig und identisch verteilte Stichprobenvariablen
Stichprobenvariablen X1 , . . . , Xn mit Stichprobe x1 , x2 , . . . , xn als Realisation.
Zufallsstichprobe bedeutet, dass Stichprobenvariablen stochastisch unabhängig und identisch verteilt sind:
Xi ∼ i = 1, . . . , n, (independent identically distributed).
i.i.d. für
Pn
Damit ist X = n1 i=1 Xi ebenfalls eine Zufallsvariable.
Für X1 , . . . , Xn i.i.d. mit E(Xi ) =µ und Var(Xi ) = σ2 gilt:

n
! n
!
X X
E Xi = nµ, Var Xi = n σ2 . (7.1)
i=1 i=1

7.2 Gesetz der groÿen Zahlen


Wegen (7.1) gilt für eine Zufallsstichprobe

1) E(X) = µ: X heiÿt erwartungstreu oder unverzerrt für µ.

Weiter gilt

σ2
2) Var(X) = σx2 = n mit Var(X) →0 für n → ∞.

Wegen 2) streut X mit wachsendem Stichprobenumfang immer weniger; wegen 1) konzentriert sich X mit

wachsendem n auf den wahren Wert. Man spricht auch vom Gesetz der groÿen Zahlen: Lässt man den

Stichprobenumfang n über alle Grenzen wachsen, so konvergiert X gegen µ. Genauer gesagt konvergiert
2
X im quadratischen Mittel (symbolisch: X → µ). Eine präzise Denition und weitere Ausführungen

folgen im nächsten Kapitel.

7.3 Asymptotische (approximative) Normalverteilung


2
Auÿer Konvergenz im quadratischen Mittel (→) haben wir noch Konvergenz in Verteilung (in distribution:
d
→). Ein Beispiel kennen wir schon aus Abschnitt 5.1: Mit wachsendem n (und geeignet verschwindendem
p) geht die Binomialverteilung in eine Poisson-Verteilung über. Nun betrachten wir Konvergenz gegen

eine (Standard)Normalverteilung.

Standardisierung: Wenn die Zufallsstichprobe normalverteilt ist (Xi ∼ N (µ, σ2 )), dann gilt
X −µ
Z= √ ∼ N (0, 1) .
σ/ n

Zentraler Grenzwertsatz (ZGS): Wir standardisieren nun entsprechend ohne die Annahme normalverteil-
ter Variablen: Pn
X −µ i=1Xi − nµ √ X − µ
Zn = √ = √ = n .
σ/ n nσ σ
Für jede Zufallsstichprobe X1 , . . . , Xn mit E(Xi ) =µ und V ar(Xi ) = σ 2 gilt mit z ∈ R:

P(Zn ≤ z) → Φ(z) für n → ∞,

wobei Φ(·) die Verteilungsfunktion der Standardnormalverteilung ist. In diesem Sinne konvergiert Zn in
d
Verteilung gegen Z ∼ N (0, 1): Zn → Z . Alternativ sagen wir auch, dass Zn asymptotisch (approximativ)
7.3 Asymptotische (approximative) Normalverteilung 21

standardnormalverteilt ist, oder symbolisch:

a
Zn ∼ N (0, 1).

Äquivalent schreiben wir


√ a
n(X − µ) ∼ N (0, σ 2 ) ,

und approximieren auch mit endlichem n:

σ2
 
a
X ∼ N µ, .
n

Viele Gröÿen aus den vorhergehenden Kapiteln haben die Gestalt eines arithmetischen Mittels von Trans-

formationen der Ausgangsvariablen X1 , . . . , Xn . Betrachten wir

n
1X
V = Vi ,
n i=1

so ergibt sich für Vi = (Xi −X)2 die mittlere quadratische Abweichung. Wegen des ZGS ist asymptotische

Normalität nicht überraschend. Allerdings wird der für die Normalisierung erforderliche Varianzausdruck

komplizierter:
√ a
n(D2 − σ 2 ) ∼ N (0, µ4 − σ 4 ) ,

wobei µ4 = E((Xi − µ)4 ) ist. Unter der Annahme, dass die Zufallsstichprobe normalverteilt ist, Xi ∼
2
N (µ, σ ), vereinfacht sich dies zu
√ a
n(D2 − σ 2 ) ∼ N (0, 2σ 4 ) . (7.2)

Deniert man
(Xi − X)(Yi − Y )
Vi = q ,
Dx2 Dy2

so ergibt sich auch der empirische Korrelationskoezient aus (3.4) als arithmetisches Mittel V, und

asymptotische Normalverteilung folgt; siehe Abschnitt 11.3.


22 8 PARAMETERSCHÄTZUNG

8 Parameterschätzung
8.1 Schätzfunktionen
(Unbekannter) Parameter θ, θ ∈ R.
Stichprobenfunktion oder Schätzfunktion g(X1 , . . . , Xn ) aufgrund von Zufallsstichprobe, g: Rn → R, ist

eine Zufallsvariable.

Schätzwert: aufgrund der Realisationen xi ∈ R erhält man g(x1 , . . . , xn ).


Schätzer für Parameter θ:

θ̂ = g(X1 , . . . , Xn ) oder θ̂ = g(x1 , . . . , xn ).

Vorsicht: Kurzschreibweise θ̂ sowohl für Zufallsvariable g(X1 , . . . , Xn ) als auch für Schätzwert g(x1 , . . . , xn ).

Beispiele für Schätzfunktionen

Verteilung Parameter θ Schätzfunktion θb Erwartungswert E(θ)


b

generell µ µ̂ = X µ
1
Pn n−1 2
generell σ2 σ̂12 = D2 = n i=1 (Xi − X)2 n σ
1
Pn
σ̂22 = S 2 = n−1 i=1 (Xi − X)2 σ2
Bernoulliverteilung p p̂ = X p
Poissonverteilung λ λ̂ = X λ
1 n
Exponentialverteilung λ λ̂ = n−1 λ
X
Stet. Gleichvtlg. auf [0, b] b b̂ = 2 · X b

8.2 Erwartungstreue und Konsistenz


Eine Schätzfunktion θ̂ für den Parameter θ wird erwartungstreu oder auch unverzerrt genannt, wenn gilt

E(θ̂) = θ.

Bias (Verzerrung): Dierenz zwischen Erwartungswert der Schätzfunktion und Parameter,

b(θ) b − θ.
b = E(θ) (8.1)

Asymptotische Erwartungstreue (Asymptotische Unverzerrtheit), falls

lim E(θ̂) = θ.
n→∞

Zur Beurteilung eines Schätzers kann man dessen Varianz und Verzerrung kombinieren. Dazu denieren

wir (siehe Abschnitt 7.2) den mittleren quadratischen Fehler (M QF ) als:


h i
b = E (θb − θ)2 .
M QF (θ) (8.2)

Er kann zerlegt werden in

M QF (θ) b 2 + Var(θ).
b = b(θ) b (8.3)
8.3 Stichprobenvarianz 23

Ein Schätzer θb1 ist besser als θb2 wenn M QF (θb1 ) < M QF (θb2 ).
Eine Schätzfunktion θ̂ für den Parameter θ wird konsistent genannt, wenn gilt

1) lim E(θ̂) =θ und 2) lim V ar(θ̂) = 0.


n→∞ n→∞

Wegen (8.3) ist dies gleichbedeutend damit, dass MQF mit wachsendem n gegen null strebt. Im Sinne

von Abschnitt 7.2 konvergiert dann θb im quadratischen Mittel gegen θ.


Alle Schätzfunktionen aus obiger Tabelle sind konsistent.

8.3 Stichprobenvarianz
Verzerrung der mittleren quadratischen Abweichung D2 = 1
Pn
n i=1 (Xi − X)2 Man kann zeigen:

 
2 n−1 2 1
E(D ) = σ = 1− σ2 .
n n

Mit wachsendem Stichprobenumfang folgt

2
1) E(D ) → σ2 für n → ∞: D2 ist asymptotisch erwartungstreu oder asymptotisch unverzerrt für σ2 .

Weiter kann man zeigen

2
2) Var(D )→0 für n → ∞.
 
Der M QF (D2 ) = E (D2 − σ 2 )2 wird wieder in die quadrierte Verzerrung und die Varianz zerlegt:

M QF (D2 ) = (E(D2 ) − σ 2 )2 + Var(D2 ) .


2
Wegen 1) und 2) gilt M QF (D2 ) → 0 mit wachsendem n, oder: D2 → σ2 . M.a.W.: D2 ist konsistent für
2
σ .

Stichprobenvarianz : S 2 mit
n
1 X
S2 = (Xi − X)2 (8.4)
n − 1 i=1

ist unverzerrt für σ2 :  


2 n
E(S )=E D2 = σ2 .
n−1
2
Wegen Var(S )→0 für n→∞ ist die Stichprobenvarianz ebenfalls konsistent für σ2 .

8.4 Momentenmethode (MM)


Der Erwartungswert µ einer Verteilung hänge als (umkehrbare) Funktion h von dem unbekannten Para-

meter θ∈R ab: µ = h(θ). Man setze das empirische Mittel dem theoretischen gleich, X = h(θ)
b, und löse

diese Gleichung nach θ


b. Momentenschätzer:

θbM M = h−1 (X) .

Die Konsistenz und asymptotische Normalität von X überträgt sich unter allgemeinen Bedingungen auf

θbM M .
24 9 KONFIDENZINTERVALLE (KI)

9 Kondenzintervalle (KI)
9.1 Einführung
Kondenzintervall θbu , θbo Kondenzniveau 1 − α:
h i
überdeckt den unbekannten Parameter θ mit

θbu = gu (X1 , . . . , Xn ) und θbo = go (X1 , . . . , Xn ) mit θbu < θbo ,

P (θbu ≤ θ ≤ θbo ) = 1 − α .
Zentrales KI, bei dem überdies gilt:

α
P (θbu ≥ θ) = P (θbo ≤ θ) = .
2

Realisiertes Kondenzintervall
h i
θbu , θbo für Stichprobe θbu = gu (x1 , . . . , xn ) und θbo = go (x1 , . . . , xn ).

9.2 KI für den Erwartungswert µ (bei Normalverteilung)


9.2.1 Bei bekannter Varianz
Wegen
   
X −µ σ σ
P −z1− α2 ≤ √ ≤ z1− α2 =1−α ⇒ P X − z1− α2 √ ≤ µ ≤ X + z1− α2 √ =1−α (9.1)
σ/ n n n
lautet das KI für µ (σ 2 bekannt) zu einem Niveau von 1 − α:
 
σ σ
KI1−α = X −z 1− α √ ; X + z1− α2 √ .
2
n n
Die Länge des KI ist L = 2z1− α2 √σn . Damit ein KI eine vorgegebene Länge L0 nicht überschreitet, muss

gelten

2 σ2
n ≥ 4z1− α .
2 L20

9.2.2 Bei unbekannter Varianz


1
Pn
Ersetze σ2 durch die Stichprobenvarianz als erwartungstreuen Schätzer: S2 = n−1 i=1 (Xi − X)2 .

t-Verteilung
Es seien X1 , . . . , Xn normalverteilte Zufallsvariablen einer Zufallsstichprobe mit Xi ∼ N (µ, σ 2 ). Dann

folgt

√ X −µ
T = n ,
S
einer sogenannten t-Verteilung mit ν =n−1 Freiheitsgraden:

√ X −µ
T = n ∼ t(n − 1) .
S
Prinzipiell hat die t-Verteilung eine sehr ähnliche Gestalt wie die Standardnormalverteilung: Die Dichte
3
ist symmetrisch um den Erwartungswert und Median Null , so dass für die Quantile (siehe Tabelle C)

gilt:

t1−p (ν) = −tp (ν) .


3 Damit der Erwartungswert endlich existiert, muss allerdings ν>1 gefordert werden.
9.3 KI für einen Anteilswert p 25

Zur Konstruktion eines Kondenzintervalls für µ bei unbekanntem σ verwendet man also die Prozent-

punkte t1− α
2
(n − 1) der t-Verteilung:
 
S S
KI1−α = X − t1− α2 (n − 1) √ ; X + t1− α2 (n − 1) √ . (9.2)
n n

9.2.3 Approximativ
Für jede konsistente Varianzschätzung b2
σ gilt (ZGS) für groÿen Stichprobenumfang:

√ X −µ a
Z= n ∼ N (0, 1) wobei σ
b konsistent für σ.
σ
b
Für groÿen Stichprobenumfang ist diese Statistik näherungsweise standardnormalverteilt, ohne Normal-

verteilung der Stichprobenvariablen. Daher ergibt sich als asymptotisches oder approximatives Konden-

zintervall für µ bei unbekanntem σ:


 
σ σ
≈ X − z1− 2 √ √
b b
KI1−α α ; X + z1− 2
α . (9.3)
n n

9.3 KI für einen Anteilswert p


Bei Bernoulli-verteilten Stichprobenvariablen, P (Xi = 1) = p, i = 1, . . . , n, schätzt man p durch die

relative Häugkeit, p̂ = X . Damit ist das standardisierte p̂ näherungsweise standardnormalverteilt (ZGS):

p̂ − E(p̂) p̂ − p a
p =p ∼ N (0, 1) .
Var(p̂) p(1 − p)/n

Da p in der Varianz von p̂ allerdings nicht bekannt ist, wird es dort durch den konsistenten Schätzer p̂
ersetzt. Daher lautet das approximative Kondenzintervall zum Niveau 1 − α, vgl. (9.3):

" p p #
pb(1 − pb) pb(1 − pb)
KI1−α ≈ pb − z1− 2
α √ ; pb + z1− 2
α √ . (9.4)
n n

Soll die Länge einen Wert L0 nicht überschreiten, so ergibt sich der erforderliche Stichprobenumfang
2 2
durch Auösen nach n als n ≥ 4z1− α p̂(1 − p̂)/L0 . Eine hinreichende Bedingung dafür für alle p̂ ist:
2

2
z1− α
n≥ 2
.
L20

9.4 KI für die Varianz σ2 bei Normalverteilung


Erinnern wir uns an den ZGS für D2 . Wenn man zusätzlich zu n→∞ auch noch Normalverteilung der

Daten annimmt, dann ergibt sich die einfache Gestalt aus (7.2). Dies liefert

" #
n D2 n D2
KI1−α ≈ √ ; √ . (9.5)
n + z1− α2 2 n n − z1− α2 2 n
26 10 STATISTISCHE TESTS

10 Statistische Tests
10.1 Prinzipien des Testens
Ausgangspunkt für das Testen ist eine Hypothese, oft auch als Nullhypothese, H0 , bezeichnet, und die
zugehörige Alternativ- oder Gegenhypothese, H1 . Ein statistischer Test ist eine Entscheidungsregel, bei

der auf Basis eines Datensatzes unter bestimmten Verteilungsannahmen mit Hilfe einer Teststatistik

bzw. Prüfgröÿe eine Entscheidung über eine Hypothese getroen wird. Dabei können Fehlentscheidungen

auftreten, wie die folgende Übersicht zeigt:

Realität H0 H1
Entscheidung ist richtig ist richtig

für richtige Fehler 2. Art


H0 Entscheidung (β -Fehler)

gegen Fehler 1. Art richtige


H0 (α-Fehler) Entscheidung

Auf Basis der Daten (oder Stichprobe) wird eine spezielle Stichprobenfunktion gebildet: die Teststatistik.
Dabei gibt es Werte, die für und andere, die gegen die Nullhypothese H0 sprechen. Die Grenzen des

Ablehnbereiches oder auch kritischen Bereiches lassen sich auf Basis der Verteilung der Teststatistik und
dem festgelegten α bestimmen. Fällt der Wert der Teststatistik in diesen kritischen Bereich, wird die

Nullhypothese H0 abgelehnt, ansonsten wird sie beibehalten. Damit ist α die Wahrscheinlichkeit, mit der
der Fehler 1. Art (Entscheidung gegen die Nullhypothese H0 , obwohl diese richtig ist) höchstens auftreten
kann. Man nennt α auch das sog. Signikanzniveau des Tests.
Testet man aus Beobachtungen auf einen unbekannten Parameter θ, so unterscheiden wir einfache Nullhy-
pothesen, die nur aus einem Wert θ0 bestehen, von zusammengesetzten Nullhypothesen, wo der Parameter
aus einem durch θ0 begrenzten Bereich ist (z. B. θ ∈ (−∞, θ0 ] oder θ ∈ [θ0 , ∞)). Formuliert man die

Alternativhypothese als logische Verneinung, so erhält man zweiseitige bzw. einseitige Testprobleme:

ˆ H0 : θ = θ0 gegen H1 : θ ̸= θ0 (zweiseitiges Testproblem),

ˆ H0 : θ ≤ θ0 gegen H1 : θ > θ 0 (einseitiges Testproblem) und

ˆ H0 : θ ≥ θ0 gegen H1 : θ < θ 0 (einseitiges Testproblem).

Die Einseitigkeit des Testproblems hängt genau an der Alternative und nicht an H0 . Schränkt man den

Parameterraum a priori auf θ ≥ θ0 ein (bzw. auf θ ≤ θ0 ), so erhält man bei einfacher Nullhypothese als

Hypothesenpaare im einseitigen Fall:

ˆ H0 : θ = θ0 gegen H1 : θ > θ 0 (einseitiges Testproblem) bzw.

ˆ H0 : θ = θ0 gegen H1 : θ < θ 0 (einseitiges Testproblem) .

Um das Signikanzniveau α kontrollieren zu können, unterstellen wir für das Folgende eine Zufallsstich-

probe, d.h. X1 , . . . , Xn sind unabhängig und identisch verteilt (i.i.d.).


10.2 Tests auf µ (bei Normalverteilung) 27

10.2 Tests auf µ (bei Normalverteilung)


10.2.1 Bei bekannter Varianz
Der Testablauf auf µ bei bekanntem σ wird im folgenden Schema zusammengefasst:

Test auf µ (σ bekannt)

Modell: Xi ∼ N (µ, σ 2 ), i = 1, . . . , n, σ bekannt

Hypothesen: a) H0 : µ = µ0 gegen H1 : µ ̸= µ0
b) H0 : µ ≤ µ0 gegen H1 : µ > µ0
H0 : µ ≥ µ0 gegen H1 : µ < µ0
c)

X − µ0 X − µ0
Teststatistik: Z= = √
σx σ/ n
Verteilung unter µ = µ0 : Z ∼ N (0, 1)
Testentscheidung: a) |Z| > z1−α/2
H0 ablehnen, wenn b) Z > z1−α
c) Z < −z1−α

10.2.2 Bei unbekannter Varianz


Nach dem unrealistischen Fall, dass σ2 bekannt ist, soll nun der Test auf µ für den Fall eines unbekannten
σ 2
unter der Annahme normalverteilter Daten vorgestellt werden. Dieser Test wird als (Einstichproben-
)t-Test bezeichnet. Dabei wird σ 2
analog zu den Kondenzintervallen erwartungstreu durch S2 geschätzt.

Testschema:

t-Test auf µ (σ unbekannt)

Modell: Xi ∼ N (µ, σ 2 ), i = 1, . . . , n, σ unbekannt

Hypothesen: a) H0 : µ = µ0 gegen H1 : µ ̸= µ0
b) H0 : µ ≤ µ0 gegen H1 : µ > µ 0
c)H0 : µ ≥ µ0 gegen H1 : µ < µ0
X − µ0
Teststatistik: T = √
S/ n
Verteilung unter µ = µ0 : T ∼ t(ν) mit ν =n−1
Testentscheidung: a) |T | > t1−α/2 (n − 1)
H0 ablehnen, wenn b) T > t1−α (n − 1)
c) T < −t1−α (n − 1)

10.2.3 Approximativ
Ohne Annahme normalverteilter Stichprobenvariablen gilt für groÿes n wie oben ausgeführt, dass T unter
a
µ = µ0 approximativ standardnormalverteilt ist, T ∼ N (0, 1). Entsprechend kann die t-Statistik T für

einen approximativen Normalverteilungstest verwendet werden.


28 10 STATISTISCHE TESTS

10.3 Test auf einen Anteilswert p


In Analogie zu den Kondenzintervallen für p basiert auch der Test für p auf einer Approximation der
4
Teststatistik durch den zentralen Grenzwertsatz :

p̂ − p0 p̂ − p0
Z= =q .
σ̂p̂ p̂(1−p̂)
n

Testschema:

Test auf p
Modell: Xi ∼ Be(p), i = 1, . . . , n
Hypothesen: a) H0 : p = p 0 gegen H1 : p ̸= p0
b) H0 : p ≤ p0 gegen H1 : p > p0
H0 : p ≥ p0 gegen H1 : p < p0
c)
p̂ − p0 p̂ − p0
Teststatistik: Z= =q
σ̂p̂ p̂(1−p̂)
n
a
Verteilung unter p = p0 : Z ∼ N (0, 1)
Testentscheidung: a) |Z| > z1−α/2
H0 ablehnen, wenn b) Z > z1−α
c) Z < −z1−α

10.4 P -Werte
Alternativ kann die Testentscheidung auch über den sog. P -Wert (in Englisch P -value für probability

value) erfolgen. Der P -Wert ist dabei die Wahrscheinlichkeit, unter der (Null-)Hypothese H0 den beob-

achteten Wert der Teststatistik oder einen in Richtung der Gegenhypothese H1 noch extremeren Wert zu

erhalten. Der P -Wert ist sozusagen das minimale Signikanzniveau, zu dem H0 gerade noch verworfen

werden kann. Groÿe P -Werte sprechen also dafür, dass die Empirie mit der Hypothese H0 vereinbar

ist, weshalb man diese nicht verwerfen sollte. Kleine P -Werte hingegen sagen, dass das Auftreten der

beobachteten Realisation der Teststatistik unwahrscheinlich ist, wenn die Hypothese H0 stimmt, weshalb

man dann dazu neigt, sie zu verwerfen. Die Entscheidungsregel lautet also bei vorgegebenem Niveau α:

Wenn P < α, dann H0 ablehnen zum Niveau α.

Computerprogramme geben im allgemeinen beim Testen den P -Wert an, da auf diese Art und Weise kein

kritischer Wert in Abhängigkeit von willkürlich gewähltem α berechnet werden muss. Obwohl P -Werte
im Prinzip für beliebige Testverfahren berechnet werden können, erlauben unsere Tabellen im Anhang

nur bei (approximativer) Normalverteilung eine vernünftige Bestimmung. Es sei der realisierte Wert zr
a
einer Prüfgröÿe die Realisation von Z ∼ N (0, 1) oder Z ∼ N (0, 1). Dann berechnet sich beim zweiseitigen
Test, a), oder bei den einseitigen Tests, b) oder c), der P -Wert wie folgt:

4 Eine alternative Variante der Teststatistik verwendet im Einklang mit der Nullhypothese p0 statt p̂ bei der Varianz-

schätzung:
p̂ − p0
Z0 = q .
p0 (1−p0 )
n
Wir ziehen hier die Statistik Z vor, weil so der zweiseitige Test auf p direkt über das Kondenzintervall ohne weitere

Rechenschritte durchgeführt werden kann.


10.5 Zweiseitige Tests und Kondenzintervalle 29

a) P = P(|Z| ≥ |z r |) = 2 (1 − Φ (|z r |)),


b) P = P(Z ≥ z r ) = 1 − Φ (z r ),
c) P = P(Z ≤ z r ) = Φ (z r ).

10.5 Zweiseitige Tests und Kondenzintervalle


Betrachten wir den Test auf µ bei unbekanntem σ , H0 : µ = µ0 gegen H1 : µ ̸= µ0 , mit der Prüfgröÿe T
und der Entscheidungsregel: Lehne H0 ab, wenn |T | > t1−α/2 (n−1) ist. Dieser Test zum Signikanzniveau
α kann auch wie folgt durchgeführt werden. Sei KI1−α ein Kondenzintervall für µ zum Kondenzniveau
1 − α; lehne dann H0 (zum Signikanzniveau α) ab, wenn KI1−α den hypothetischen Wert µ0 nicht

überdeckt. Die Regel mittels der Prüfgröÿe T und die Regel mittels des Kondenzintervall führen, wie

man zeigen kann, zu identischen Entscheidungen.

Entsprechendes gilt auch bei dem zweiseitigen Testproblem über einen Anteilswert p: Es gilt

" p p #
pb(1 − pb) pb(1 − pb)
p0 ∈ p̂ − z 1− α √ ; p̂ + z1− α2 √
2
n n

dann und nur dann, wenn

p̂ − p0
q ≤ z1− α2 .
p̂(1−p̂)
n

10.6 Test auf die Varianz σ2 bei Normalverteilung


Wie das approximative KI basiert der Test auf dem ZGS in Gestalt von (7.2); dabei hatten wir, zusätzlich

zu n → ∞, auch noch Normalverteilung der Daten angenommen. Während das KI für n D2 deniert
2
wurde, können wir die Teststatistik äquivalent durch (n − 1) S ausdrücken.

Approximativer Test auf σ2


Modell: Xi ∼ N (µ, σ 2 ), i = 1, . . . , n
Hypothesen: a) H0 : σ 2 = σ02 gegen H1 : σ 2 ̸= σ02
b) H0 : σ 2 ≤ σ02 gegen H1 : σ 2 > σ02
H0 : σ 2 ≥ σ02 gegen H1 : σ 2 < σ02
c)

(n − 1) S 2 n D2
Teststatistik: Σ= =
σ02 σ02
a
Verteilung unter σ 2 = σ02 : Σ ∼ N (n, 2n)

Testentscheidung: a) Σ > n + z1−α/2 2n

oder Σ < n − z1−α/2 2n

H0 ablehnen, wenn b) Σ > n + z1−α 2n

c) Σ < n − z1−α 2n

10.7 Gütefunktion
Als Güte eines Tests bezeichnet man oft die Wahrscheinlichkeit, die Nullhypothese abzulehnen, wenn sie

falsch ist. Allgemein denieren wir jetzt als Gütefunktion G(θ) eines Tests über den Parameter θ die
30 10 STATISTISCHE TESTS

Ablehnwahrscheinlichkeit

G(θ) = P(H0 wird abgelehnt || θ ist wahrer Wert)

= Pθ (H0 wird abgelehnt) ,

welche vom wahren Wert θ abhängt. Man beachte, dass hierbei P(· || θ ist wahrer Wert) = Pθ (·) keine

bedingte Wahrscheinlichkeit bezeichnet, sondern die Wahrscheinlichkeit bei wahrem Wert θ.


Betrachten wir als Rechenbeispiel den Test auf µ bei Normalverteilung und bekannter Varianz. Die
√ X−µ0
Prüfgröÿe lautet bekanntlich n σ . Wir indizieren sie nun mit 0, um hervorzuheben, dass sie unter
der Annahme von µ0 berechnet wird:

√ X − µ0
Z0 = n .
σ

Die Prüfgröÿe ist nur standardnormalverteilt, wenn µ = µ0 ist; allg. gilt Z0 ∼ N (− n (µ0 − µ)/σ, 1),
oder
√ µ0 − µ
Z0 + n· ∼ N (0, 1) . (10.1)
σ
In Abhängigkeit der Hypothesen ergeben sich damit unterschiedliche Gütefunktionen.

1. Fall: In dem einseitigen Fall mit

H0 : µ ≤ µ0 , H1 : µ > µ0 ,

ergibt sich die Gütefunktion nach wenigen Schritten als

µ − µ0 √
 
G(µ) = P(Z0 > z1−α ||µ) = 1 − Φ z1−α − n . (10.2)
σ

2. Fall: Testet man umgekehrt auf

H0 : µ ≥ µ0 , H1 : µ < µ0 ,

so erhält man

µ0 − µ √
 
G(µ) = P(Z0 < −z1−α ||µ) = Φ n − z1−α . (10.3)
σ

3. Fall: Beim zweiseitigen Test,

H0 : µ = µ0 , H1 : µ ̸= µ0 ,

bestimmt man als Gütefunktion

µ0 − µ √ µ0 − µ √
   
G(µ) = Pµ (|Z0 | > z1−α/2 ) = 1 + Φ n − z1−α/2 −Φ n + z1−α/2 . (10.4)
σ σ
31

11 Tests bei (un)verbundenen Stichproben


Betrachten wir zwei Stichprobenvariablen Xi , i = 1, . . . , n, und Yj , j = 1, . . . , m. Dabei müssen die beiden
Stichprobenumfänge nicht in allen Fällen identisch sein. Wir unterscheiden zwei Situationen.

U nverbundene Stichproben Xi und Yj werden an verschiedenen Objekten oder Personen oder zu ver-

schiedenen Zeitpunkten unabhänig voneinander gemessen.

V erbundene Stichproben Xi und Yi werden an identischen Objekten oder Personen oder zu identischen

Zeitpunkten gemessen, sodass n=m Paare an Variablen vorliegen, (Xi , Yi ), i = 1, . . . , n, und man von

einer bivariaten Zufallsvariablen spricht.

11.1 Tests auf Gleichheit zweier Erwartungswerte


Im Gegensatz zum univariaten Einstichprobenfall, bei dem Hypothesen über den Parameter der Vertei-

lung eines Merkmals auf Basis einer Stichprobe getestet werden, richten wir nun das Augenmerk auf den

Vergleich zweier Erwartungswerte (µx und µy ). Die Hypothesen im Fall einer verbundenen Stichprobe

(bivariate Zufallsvariablen) und im Fall zweier unverbundener Stichproben gleichen sich. In jedem Fall

müssen Xi und Yj oder (Xi , Yi ) (und damit deren Erwartungswerte µx und µy ) vergleichbar sein und

insbesondere dieselben Messeinheiten aufweisen.

a) H0 : µx = µy vs. H1 : µx ̸= µy ,

b) H0 : µx ≤ µy vs. H1 : µx > µy ,

c) H0 : µx ≥ µy vs. H1 : µx < µy .

Ein einseitiger Test kann auch bei Nullhypothesen durchgeführt werden, die nicht zusammengesetzt,

sondern einfach sind:

b) H0 : µx = µy gegen H1 : µx > µy ,

c) H0 : µx = µy gegen H1 : µx < µy .

11.1.1 Dierenzen-t-Test für verbundene Stichproben


Betrachten wir zwei verbundene Stichprobenvariablen (Xi , Yi ), i = 1, . . . , n. Es handelt sich also um

bivariate Variablen aus einer Stichprobe, d.h. für jedes i gehören Xi und Yi beispielsweise zur gleichen

Person oder Firma. Aus diesem Grund trägt die Dierenz ∆i = Xi − Yi eine inhaltliche Bedeutung.

Im Grunde schlagen wir hier gar keinen neuen Test vor, sondern eine Rückführung auf den schon behan-

delten univariaten Fall. Dazu unterstellen wir, dass die Dierenzen einer Normalverteilung folgen,

∆i = Xi − Yi ∼ N (µδ , σδ2 ) mit µδ = µx − µy , σδ2 = Var(∆i ) .

Also kann als Prüfgröÿe wie gewohnt


∆−0 √ ∆
T = Sδ
= n

n

mit
n n
1X 1 X
∆= ∆i , Sδ2 = (∆i − ∆)2
n i=1 n − 1 i=1
gewählt werden. Entsprechend den Alternativhypothesen kann der Test zweiseitig oder einseitig sein:

a) H1 : µδ ̸= 0,
32 11 TESTS BEI (UN)VERBUNDENEN STICHPROBEN

b) H1 : µδ > 0,

c) H1 : µδ < 0.

Die Entscheidungsregel ist wie beim gewöhnlichen t-Test auf µ: Die Quantile stammen dabei wieder aus

der t(n − 1)-Verteilung. Bei groÿem Stichprobenumfang kann auch wieder approximativ über die Stan-

dardnormalverteilung getestet werden, ohne dass wir die Annahme normalverteilter Stichprobenvariablen

benötigen, weil ∆ wegen des zentralen Grenzwertsatzes approximativ normalverteilt ist.

11.1.2 Tests für unverbundene Stichproben


Wir unterscheiden 2 Fälle.

a) 2-Stichproben-t-Test für unverbundene Stichproben

Wieder betrachten wir zwei normalverteilte Variablen Xi und Yj , die jetzt aber aus einer unverbundenen
Messung, also aus zwei unabhängigen Stichproben stammen. Überdies wird Gleichheit der Varianzen

verlangt. (Beachte: Diese Annahmen sind in der Praxis oft nicht erfüllt.)

Zwei-Stichproben-t-Test (bei NV und gleicher Varianz)

Modell: Xi ∼ N (µx , σx2 ), Yj ∼ N (µy , σy2 ), unabhängig

i = 1, . . . , n, j = 1, . . . , m, σx2 = σy2
Hypothesen: a) H0 : µx = µy gegen H1 : µx ̸= µy
b) H0 : µx ≤ µy gegen H1 : µx > µy
c) H0 : µx ≥ µy gegen H1 : µx < µy
X −Y
Teststatistik: T = s
(n − 1)Sx2 + (m − 1)Sy2

1 1
+
n m m+n−2
Verteilung

unter µx = µy : T ∼ t(ν) mit ν =m+n−2


Testentscheidung: a) |T | > t1−α/2 (m + n − 2)
H0 ablehnen, wenn b) T > t1−α (m + n − 2)
c) T < −t1−α (m + n − 2)

b) Asymptotischer 2-Stichproben-Test für unverbundene Stichproben

In der Praxis sind die Annahmen gleicher Varianzen und normalverteilter Daten nur in den seltensten

Fällen gerechtfertigt. Dann kann man sich approximativ wie beim Dierenzen-t-Test helfen, vorausgesetzt,

dass der Stichprobenumfang groÿ ist. Wir unterstellen unabhängige Stichproben vom Umfang n und

m, Xi ∼ iid(µx , σx2 ), i = 1, . . . , n, Yj ∼ iid(µy , σy2 ), j = 1, . . . , m. Damit gilt unter µx = µy wegen des


2
zentralen Grenzwertsatzes bei konsistenter Varianzschätzung (σ̂x und σ̂y2 ):

X −Y a
Z=q 2
∼ N (0, 1).
2
σ̂x σ̂ y
n + m

Eine gute Näherung erfordert, dass beide Stichprobenumfänge n und m groÿ sind.
11.2 χ2 -Unabhängigkeitstest 33

11.2 χ2 -Unabhängigkeitstest

Der χ2 -Unabhängigkeitstest ist ein Test zur Überprüfung der Unabhängigkeit zweier Merkmale; es liegt ei-
ne verbundene Stichprobe vor: (Xi , Yi ). Auf Basis einer Kontingenztabelle oder Kreuztabelle soll überprüft
werden, ob Xi und Yi voneinander unabhängig sind. Der in Abschnitt 3.1 schon eingeführte χ2 -Koezient
dient als Testgröÿe. Die Prüfgröÿe beruht auf dem Vergleich von tatsächlich beobachteten Häugkeiten

nij mit den unter H0 zu erwartenden Häugkeiten. Da diese Abweichungen quadriert werden, führt die

Teststatistik (approximativ) auf eine sog. χ2 -Verteilung mit r Freiheitsgraden. Quantile der Verteilungen

sind in Abhängigkeit des Freiheitsgradparameters in Tabelle D tabelliert. Wir bezeichnen das p-Quantil
2
bei r Freiheitsgraden wie folgt: χp (r).

Testschema:

χ2 -Unabhängigkeitstest
Modell: (Xi , Yi ) i.i.d., i = 1, . . . , n
gruppiert in (k × ℓ)-Kontingenztabelle
Hypothesen: H0 : X und Y unabhängig

H1 : X und Y abhängig
Pk Pℓ (nij − ñij )2
Teststatistik: χ2 = i=1 j=1
ñij
ni• · n•j
mit ñij =
n
und den Randhäugkeiten ni• und n•j
a
Verteilung unter H0 : χ2 ∼ χ2 (r) mit r = (k − 1) · (ℓ − 1)
H0 ablehnen, wenn χ2 > χ21−α (r)

11.3 Test auf Unkorreliertheit


Nun testen wir speziell auf Unkorreliertheit zweier Merkmale; wieder liegt eine verbundene Stichprobe

vor: (Xi , Yi ). Der Test basiert natürlich auf dem empirischen Korrelationskozienten ρbxy .
Testschema:

Test auf Unkorreliertheit bei Normalverteilung

Modell: (Xi , Yi ) i.i.d. normalverteilt, i = 1, . . . , n


Hypothesen: a) H0 : ρxy = 0 gegen H1 : ρxy ̸= 0
b) H0 : ρxy ≤ 0 gegen H1 : ρxy > 0
c) H0 : ρxy ≥ 0 gegen H1 : ρxy < 0
ρbxy √
Teststatistik: T =q n−2
1 − ρb2xy

Verteilung unter ρxy = 0: T ∼ t(ν) mit ν =n−2


Testentscheidung: a) |T | > t1−α/2 (n − 2)
H0 ablehnen, wenn b) T > t1−α (n − 2)
c) T < −t1−α (n − 2)
34 11 TESTS BEI (UN)VERBUNDENEN STICHPROBEN

Approximativer Test auf Unkorreliertheit

Modell: (Xi , Yi ) i.i.d. normalverteilt, i = 1, . . . , n


Hypothesen: a) H0 : ρxy = 0 gegen H1 : ρxy ̸= 0
b) H0 : ρxy ≤ 0 gegen H1 : ρxy > 0
c)H0 : ρxy ≥ 0 gegen H1 : ρxy < 0

Teststatistik: Z = ρbxy n
a
Verteilung unter ρxy = 0: Z ∼ N (0, 1)
Testentscheidung: a) |Z| > z1−α/2
H0 ablehnen, wenn b) Z > z1−α
c) Z < −z1−α
35

12 Das lineare Regressionsmodell


In diesem Kapitel soll die Veränderung einer metrischen Variablen y in Abhängigkeit der Variablen x
untersucht werden. Dabei beschränken wir uns auf lineare Abhängigkeiten.

12.1 Einfachregression
Linearer Zusammenhang,

y = a + bx, (12.1)

mit dy/dx = b. Das Modell der linearen Einfachregression lautet folgendermaÿen:

Yi = a + b xi + Ui , i = 1, . . . , n. (12.2)

Dabei sind a und b die skalaren Parameter der Regressionsgeraden, die es auf der Basis einer bivariaten

Stichprobe (xi , yi ), i = 1, . . . , n, zu schätzen oder zu testen gilt. Die Regressoren xi sind fest gegeben

und Ui sind die unbeobachtbaren Fehler- oder Störterme, d. h. nicht kontrollierbare Zufallsvariablen.

Konsequenterweise sind Yi , i = 1, . . . , n, im Modell auch Zufallsvariablen. Über die Störterme werden die

folgenden Annahmen getroen:

a) Ui sind unabhängig und identisch verteilt (i.i.d.),

b) E(Ui ) =0 und V ar(Ui ) = σ 2 ,

c) Ui sind normalverteilt, d.h. Ui ∼ N (0, σ 2 ).

Die Gleichheit der Varianzen der Störterme bezeichnet man als Homoskedastizit ät. Ist diese Annahme

nicht erfüllt, spricht man von Heteroskedastizit ät. Die Annahme der Normalverteilung ist nur für das

Testen relevant; sie kann ersetzt werden durch die Annahme eines groÿen Stichprobenumfangs n, um

approximative Standardnormalverteilungs- an Stelle von t-Tests durchzuführen.

Die Schätzung der Parameter nach der Methode der Kleinsten Quadrate (KQ-Methode) ist schon bekannt.
Als Schätzer für a und b ergeben sich auf diese Weise (siehe Abs. 3.3 für weitere Details):

Pn
(x − x)(Yi − Y)
b̂ = Pn i
i=1
2
, â = Y − b̂x.
i=1 (xi − x)

Daraus ergibt sich bekanntlich die geschätzte Regressionsgerade, Ŷ = â + b̂ · x, mit den Residuen (ge-

schätzten Störtermen): Ûi = Yi − Ŷi . Aus ihnen lässt sich die Varianz der Störterme schätzen:
n
1 X 2
σ̂ 2 = Û . (12.3)
n − 2 i=1 i

Die Schätzfunktionen für die Parameter a, b und σ2 sind erwartungstreu,

2
E(â) = a, E(b̂) =b und E(σ̂ ) = σ2 .

Des weiteren sind die Schätzer konsistent, wenn ihre Varianzen gegen Null streben für n → ∞:

x2 1
Var(â) = σa2 = σ 2 · und Var(b̂) = σb2 = σ 2 · .
nd2x nd2x

Auch der Schätzer σ̂ 2 ist konsistent für die Residuenvarianz.


36 12 DAS LINEARE REGRESSIONSMODELL

Wir erinnern uns überdies zur Modellbeurteilung an das sog. Bestimmtheitsmaÿ als Anteil der durch die

Regression erklärten Varianz im Verhältnis zur Gesamtvarianz:


Pn Pn
(Ŷi − Ŷ )2 2
i=1 Ûi
0 ≤ R2 = Pi=1
n 2
= 1 − Pn 2
≤ 1. (12.4)
i=1 (Yi − Y ) i=1 (Yi − Y )

Wegen Û = 0 gilt übrigens: Ŷ = Y .

12.2 Parametertests und Kondenzintervalle


Es können auch Hypothesen über die Parameter der linearen Regression getestet werden. Die resultie-

renden Prüfgröÿen sind bei Annahme der Normalverteilung wieder t-verteilt.


Testschema:

t-Test auf a und b


Modell: Yi = a + bxi + Ui ,
Ui ∼ N (0, σ 2 ), i.i.d., i = 1, . . . , n
Hypothesen: a) H0 : b = b0 gegen H1 : b ̸= b0 bzw.

b) H0 : b ≤ b0 gegen H1 : b > b0 bzw.

c) H 0 : b ≥ b0 gegen H1 : b < b0 bzw.

b̂ − b0
Teststatistiken: Tb =
σ̂b
Verteilung: Tb ∼ t(n − 2)
Testentscheidung: a) |Tb | > t1−α/2 (n − 2)
H0 ablehnen, wenn b) Tb > t1−α (n − 2)
c) Tb < −t1−α (n − 2)

Aufgrund des Zusammenhangs zw. zweiseitigem Test und Kondenzintervall, erhält man zum Kondenz-

niveau 1−α für Steigung und Achsenabschnitt:


h i
b
KI1−α = bb ± σ
bb t1− α2 (n − 2) .

Die in der Praxis wichtigste Nullhypothese ist H0 : b = 0, was inhaltlich mit der Frage verbunden ist, ob

die Variable X überhaupt einen signikanten Einuss auf Y hat. Man kann zeigen, dass für b0 = 0 gilt:

ρbxy √
Tb = q n − 2,
1 − ρb2xy

d.h. der Test auf b = 0 (kein linearer Zusammenhang) entspricht gerade dem Test auf Unkorreliertheit aus
Abschnitt 11.3. Wie dort erläutert, lassen sich auch im linearen Regressionsmodell statt Tests auf Basis

der t-Verteilung Tests auf Basis approximativer Standardnormalverteilung für groÿes n ohne Annahme

normalverteilter Daten durchführen:


5
a
Tb ∼ N (0, 1) .

Inferenz über den Achsenabschnitt a behandeln wir hier nicht; dies ist als Spezialfall im nächsten Ab-

schnitt enthalten.
5 Jetzt brauchen wir doch noch eine Annahme über den Regressor: dass seine mittlere quadratische Abweichung d2x gegen

einen endlichen, positiven Wert strebt.


12.3 Multiple Regression 37

12.3 Multiple Regression


Nunmehr soll yi nicht nur durch ein skalares xi und einen konstanten Achsenabschnitt, sondern durch

mehr Regressoren erklärt werden:

K
X
Yi = β1 + β2 xi,2 + . . . + βK xi,K + Ui = βk xi,k + Ui , (12.5)
k=1

wobei der zum Achsenabschnitt β1 gehörende Regressor konstant xi,1 = 1 ist. Über den unbeobachtbaren
Fehlerterm Ui erhalten wir die obigen Annahmen aufrecht, also Var(Ui ) = σ 2 , und insbesondere E(Ui ) = 0:

E(Yi ) = β1 + β2 xi,2 + . . . + βK xi,K . (12.6)

Wieder nach dem Kleinste-Quadrate-Prinzip lassen sich die Schätzer βb1 bis βbK bestimmen; wir verzichten

auf die Formel dafür. Auch die Varianzen der Schätzer behandeln wir als Black-Box:

Var(β
bk ) = σk2 = σ 2 Vk , k = 1, . . . , K,

wobei sich der Faktor Vk aus den Regressoren und dem Stichprobenumfang n allein berechnen lässt. Die
2
unbekannte Störtermvarianz σ kann wieder erwartungstreu und konsistent aus den Residuen geschätzt

werden durch
n
1 X b2
b2 =
σ U , (12.7)
n − K i=1 i

wobei bi = Yi − PK βbk xi,k


U ist.
k=1

(0)
Parametertests auf einen nullhypothetischen Wert βk beruhen auf der t-Statistik,

(0)
βbk − βk
Tk = , k = 1, . . . K, (12.8)
σ
bk
wobei in σ̂k2 die Varianz σ2 durch die Schätzung σ̂ 2 ersetzt wird:

bk2 = σ
σ b 2 Vk , k = 1, . . . , K.
(0)
Stimmt der wahre Parameterwert mit βk überein, so gilt bei Annahme normalverteilter Störterme:

Tk ∼ t(n − K), k = 1, . . . , K.

Kondenzintervalle zum Niveau 1 − α lauten:


h i
k
KI1−α = βbk ± σ
bk t1− α2 (n − K) , k = 1, . . . , K .

Für n → ∞: t(n − K) → Z ∼ N (0, 1).


Schlieÿlich behält das Bestimmtheitsmaÿ seine übliche Denition und Interpretation. Es kann auch her-

angezogen werden, um formal zu testen, ob alle Regressoren (auÿer der Konstanten, d. h. x2 bis xK )
gemeinsam einen Einuss auf Yi haben, d. h. signikant zur Erklärung beitragen. Die Nullhypothese

lautet, dass dies nicht der Fall ist,

H0 : β2 = · · · = βK = 0 .
Unter H0 passt sich also Yi nicht den Erklärenden xi,2 bis xi,K an. Die Gegenhypothese ist gerade die

logische Verneinung hiervon: mindestens einer der Regressoren hat einen Erklärungsbeitrag für Yi . Die

auf dem Bestimmtheitsmaÿ basierende Teststatistik lautet

R2 a
χ2 = (n − K) mit χ2 ∼ χ2 (K − 1) unter H0 . (12.9)
1 − R2
38 12 DAS LINEARE REGRESSIONSMODELL

Der asymptotische Test lehnt also H0 zum Niveau α ab, wenn χ2 das Quantil χ21−α (K −1) übersteigt. Man
beachte, dass die Anzahl der Freiheitsgrade (K − 1) gerade mit der Anzahl der unter H0 restringierten

Parameter überein stimmt. Diese Teststatistik kann noch zu R2 n vereinfacht werden, weil unter der

Nullhypothese asymptotisch
R2
R2 n ≈ (n − K) unter H0 (12.10)
1 − R2
gilt; vgl. auch Abschnitt 11.3.
39

13 Tabellen zu Verteilungsfunktionen und Quantilen

Tabelle A: Standardnormalverteilung

Z ∼ N (0, 1): Die Tabelle enthält die Werte der Verteilungsfunktion Φ.


Z z
1 2
Φ(z) = P(Z ≤ z) = √ e−x /2 dx
−∞ 2π

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

-0.00 0.5000 0.4960 0.4920 0.4880 0.4840 0.4801 0.4761 0.4721 0.4681 0.4641

-0.10 0.4602 0.4562 0.4522 0.4483 0.4443 0.4404 0.4364 0.4325 0.4286 0.4247

-0.20 0.4207 0.4168 0.4129 0.4090 0.4052 0.4013 0.3974 0.3936 0.3897 0.3859

-0.30 0.3821 0.3783 0.3745 0.3707 0.3669 0.3632 0.3594 0.3557 0.3520 0.3483

-0.40 0.3446 0.3409 0.3372 0.3336 0.3300 0.3264 0.3228 0.3192 0.3156 0.3121

-0.50 0.3085 0.3050 0.3015 0.2981 0.2946 0.2912 0.2877 0.2843 0.2810 0.2776

-0.60 0.2743 0.2709 0.2676 0.2643 0.2611 0.2578 0.2546 0.2514 0.2483 0.2451

-0.70 0.2420 0.2389 0.2358 0.2327 0.2296 0.2266 0.2236 0.2206 0.2177 0.2148

-0.80 0.2119 0.2090 0.2061 0.2033 0.2005 0.1977 0.1949 0.1922 0.1894 0.1867

-0.90 0.1841 0.1814 0.1788 0.1762 0.1736 0.1711 0.1685 0.1660 0.1635 0.1611

-1.00 0.1587 0.1562 0.1539 0.1515 0.1492 0.1469 0.1446 0.1423 0.1401 0.1379

-1.10 0.1357 0.1335 0.1314 0.1292 0.1271 0.1251 0.1230 0.1210 0.1190 0.1170

-1.20 0.1151 0.1131 0.1112 0.1093 0.1075 0.1056 0.1038 0.1020 0.1003 0.0985

-1.30 0.0968 0.0951 0.0934 0.0918 0.0901 0.0885 0.0869 0.0853 0.0838 0.0823

-1.40 0.0808 0.0793 0.0778 0.0764 0.0749 0.0735 0.0721 0.0708 0.0694 0.0681

-1.50 0.0668 0.0655 0.0643 0.0630 0.0618 0.0606 0.0594 0.0582 0.0571 0.0559

-1.60 0.0548 0.0537 0.0526 0.0516 0.0505 0.0495 0.0485 0.0475 0.0465 0.0455

-1.70 0.0446 0.0436 0.0427 0.0418 0.0409 0.0401 0.0392 0.0384 0.0375 0.0367

-1.80 0.0359 0.0351 0.0344 0.0336 0.0329 0.0322 0.0314 0.0307 0.0301 0.0294

-1.90 0.0287 0.0281 0.0274 0.0268 0.0262 0.0256 0.0250 0.0244 0.0239 0.0233

-2.00 0.0228 0.0222 0.0217 0.0212 0.0207 0.0202 0.0197 0.0192 0.0188 0.0183

-2.10 0.0179 0.0174 0.0170 0.0166 0.0162 0.0158 0.0154 0.0150 0.0146 0.0143

-2.20 0.0139 0.0136 0.0132 0.0129 0.0125 0.0122 0.0119 0.0116 0.0113 0.0110

-2.30 0.0107 0.0104 0.0102 0.0099 0.0096 0.0094 0.0091 0.0089 0.0087 0.0084

-2.40 0.0082 0.0080 0.0078 0.0075 0.0073 0.0071 0.0069 0.0068 0.0066 0.0064

-2.50 0.0062 0.0060 0.0059 0.0057 0.0055 0.0054 0.0052 0.0051 0.0049 0.0048

-2.60 0.0047 0.0045 0.0044 0.0043 0.0041 0.0040 0.0039 0.0038 0.0037 0.0036

-2.70 0.0035 0.0034 0.0033 0.0032 0.0031 0.0030 0.0029 0.0028 0.0027 0.0026

-2.80 0.0026 0.0025 0.0024 0.0023 0.0023 0.0022 0.0021 0.0021 0.0020 0.0019

-2.90 0.0019 0.0018 0.0018 0.0017 0.0016 0.0016 0.0015 0.0015 0.0014 0.0014

-3.00 0.0013 0.0013 0.0013 0.0012 0.0012 0.0011 0.0011 0.0011 0.0010 0.0010

-3.10 0.0010 0.0009 0.0009 0.0009 0.0008 0.0008 0.0008 0.0008 0.0007 0.0007

-3.20 0.0007 0.0007 0.0006 0.0006 0.0006 0.0006 0.0006 0.0005 0.0005 0.0005

-3.30 0.0005 0.0005 0.0005 0.0004 0.0004 0.0004 0.0004 0.0004 0.0004 0.0003

-3.40 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0003 0.0002
40 13 TABELLEN ZU VERTEILUNGSFUNKTIONEN UND QUANTILEN

Tabelle A: Standardnormalverteilung

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0.00 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359

0.10 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753

0.20 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141

0.30 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517

0.40 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879

0.50 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224

0.60 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549

0.70 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852

0.80 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133

0.90 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389

1.00 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621

1.10 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830

1.20 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015

1.30 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177

1.40 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319

1.50 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441

1.60 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545

1.70 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633

1.80 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706

1.90 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767

2.00 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817

2.10 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857

2.20 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890

2.30 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916

2.40 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936

2.50 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952

2.60 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964

2.70 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974

2.80 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981

2.90 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986

3.00 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990

3.10 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993

3.20 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995

3.30 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997

3.40 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998
41

Tabelle B: Quantile der Standardnormalverteilung

Z ∼ N (0, 1): Die Tabelle enthält Quantile zp der Standardnormalverteilung.

p 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009

0.000 −∞ -3.0902 -2.8782 -2.7478 -2.6521 -2.5758 -2.5121 -2.4573 -2.4089 -2.3656
0.010 -2.3263 -2.2904 -2.2571 -2.2262 -2.1973 -2.1701 -2.1444 -2.1201 -2.0969 -2.0749
0.020 -2.0537 -2.0335 -2.0141 -1.9954 -1.9774 -1.9600 -1.9431 -1.9268 -1.9110 -1.8957
0.030 -1.8808 -1.8663 -1.8522 -1.8384 -1.8250 -1.8119 -1.7991 -1.7866 -1.7744 -1.7624
0.040 -1.7507 -1.7392 -1.7279 -1.7169 -1.7060 -1.6954 -1.6849 -1.6747 -1.6646 -1.6546

0.050 -1.6449 -1.6352 -1.6258 -1.6164 -1.6072 -1.5982 -1.5893 -1.5805 -1.5718 -1.5632
0.060 -1.5548 -1.5464 -1.5382 -1.5301 -1.5220 -1.5141 -1.5063 -1.4985 -1.4909 -1.4833
0.070 -1.4758 -1.4684 -1.4611 -1.4538 -1.4466 -1.4395 -1.4325 -1.4255 -1.4187 -1.4118
0.080 -1.4051 -1.3984 -1.3917 -1.3852 -1.3787 -1.3722 -1.3658 -1.3595 -1.3532 -1.3469
0.090 -1.3408 -1.3346 -1.3285 -1.3225 -1.3165 -1.3106 -1.3047 -1.2988 -1.2930 -1.2873

0.100 -1.2816 -1.2759 -1.2702 -1.2646 -1.2591 -1.2536 -1.2481 -1.2426 -1.2372 -1.2319
0.110 -1.2265 -1.2212 -1.2160 -1.2107 -1.2055 -1.2004 -1.1952 -1.1901 -1.1850 -1.1800
0.120 -1.1750 -1.1700 -1.1650 -1.1601 -1.1552 -1.1503 -1.1455 -1.1407 -1.1359 -1.1311
0.130 -1.1264 -1.1217 -1.1170 -1.1123 -1.1077 -1.1031 -1.0985 -1.0939 -1.0893 -1.0848
0.140 -1.0803 -1.0758 -1.0714 -1.0669 -1.0625 -1.0581 -1.0537 -1.0494 -1.0450 -1.0407

0.150 -1.0364 -1.0322 -1.0279 -1.0237 -1.0194 -1.0152 -1.0110 -1.0069 -1.0027 -0.9986
0.160 -0.9945 -0.9904 -0.9863 -0.9822 -0.9782 -0.9741 -0.9701 -0.9661 -0.9621 -0.9581
0.170 -0.9542 -0.9502 -0.9463 -0.9424 -0.9385 -0.9346 -0.9307 -0.9269 -0.9230 -0.9192
0.180 -0.9154 -0.9116 -0.9078 -0.9040 -0.9002 -0.8965 -0.8927 -0.8890 -0.8853 -0.8816
0.190 -0.8779 -0.8742 -0.8705 -0.8669 -0.8633 -0.8596 -0.8560 -0.8524 -0.8488 -0.8452

0.200 -0.8416 -0.8381 -0.8345 -0.8310 -0.8274 -0.8239 -0.8204 -0.8169 -0.8134 -0.8099
0.210 -0.8064 -0.8030 -0.7995 -0.7961 -0.7926 -0.7892 -0.7858 -0.7824 -0.7790 -0.7756
0.220 -0.7722 -0.7688 -0.7655 -0.7621 -0.7588 -0.7554 -0.7521 -0.7488 -0.7454 -0.7421
0.230 -0.7388 -0.7356 -0.7323 -0.7290 -0.7257 -0.7225 -0.7192 -0.7160 -0.7128 -0.7095
0.240 -0.7063 -0.7031 -0.6999 -0.6967 -0.6935 -0.6903 -0.6871 -0.6840 -0.6808 -0.6776

0.250 -0.6745 -0.6713 -0.6682 -0.6651 -0.6620 -0.6588 -0.6557 -0.6526 -0.6495 -0.6464
0.260 -0.6433 -0.6403 -0.6372 -0.6341 -0.6311 -0.6280 -0.6250 -0.6219 -0.6189 -0.6158
0.270 -0.6128 -0.6098 -0.6068 -0.6038 -0.6008 -0.5978 -0.5948 -0.5918 -0.5888 -0.5858
0.280 -0.5828 -0.5799 -0.5769 -0.5740 -0.5710 -0.5681 -0.5651 -0.5622 -0.5592 -0.5563
0.290 -0.5534 -0.5505 -0.5476 -0.5446 -0.5417 -0.5388 -0.5359 -0.5330 -0.5302 -0.5273

0.300 -0.5244 -0.5215 -0.5187 -0.5158 -0.5129 -0.5101 -0.5072 -0.5044 -0.5015 -0.4987
0.310 -0.4959 -0.4930 -0.4902 -0.4874 -0.4845 -0.4817 -0.4789 -0.4761 -0.4733 -0.4705
0.320 -0.4677 -0.4649 -0.4621 -0.4593 -0.4565 -0.4538 -0.4510 -0.4482 -0.4454 -0.4427
0.330 -0.4399 -0.4372 -0.4344 -0.4316 -0.4289 -0.4261 -0.4234 -0.4207 -0.4179 -0.4152
0.340 -0.4125 -0.4097 -0.4070 -0.4043 -0.4016 -0.3989 -0.3961 -0.3934 -0.3907 -0.3880

0.350 -0.3853 -0.3826 -0.3799 -0.3772 -0.3745 -0.3719 -0.3692 -0.3665 -0.3638 -0.3611
0.360 -0.3585 -0.3558 -0.3531 -0.3505 -0.3478 -0.3451 -0.3425 -0.3398 -0.3372 -0.3345
0.370 -0.3319 -0.3292 -0.3266 -0.3239 -0.3213 -0.3186 -0.3160 -0.3134 -0.3107 -0.3081
0.380 -0.3055 -0.3029 -0.3002 -0.2976 -0.2950 -0.2924 -0.2898 -0.2871 -0.2845 -0.2819
0.390 -0.2793 -0.2767 -0.2741 -0.2715 -0.2689 -0.2663 -0.2637 -0.2611 -0.2585 -0.2559

0.400 -0.2533 -0.2508 -0.2482 -0.2456 -0.2430 -0.2404 -0.2378 -0.2353 -0.2327 -0.2301
0.410 -0.2275 -0.2250 -0.2224 -0.2198 -0.2173 -0.2147 -0.2121 -0.2096 -0.2070 -0.2045
0.420 -0.2019 -0.1993 -0.1968 -0.1942 -0.1917 -0.1891 -0.1866 -0.1840 -0.1815 -0.1789
0.430 -0.1764 -0.1738 -0.1713 -0.1687 -0.1662 -0.1637 -0.1611 -0.1586 -0.1560 -0.1535
0.440 -0.1510 -0.1484 -0.1459 -0.1434 -0.1408 -0.1383 -0.1358 -0.1332 -0.1307 -0.1282

0.450 -0.1257 -0.1231 -0.1206 -0.1181 -0.1156 -0.1130 -0.1105 -0.1080 -0.1055 -0.1030
0.460 -0.1004 -0.0979 -0.0954 -0.0929 -0.0904 -0.0878 -0.0853 -0.0828 -0.0803 -0.0778
0.470 -0.0753 -0.0728 -0.0702 -0.0677 -0.0652 -0.0627 -0.0602 -0.0577 -0.0552 -0.0527
0.480 -0.0502 -0.0476 -0.0451 -0.0426 -0.0401 -0.0376 -0.0351 -0.0326 -0.0301 -0.0276
0.490 -0.0251 -0.0226 -0.0201 -0.0175 -0.0150 -0.0125 -0.0100 -0.0075 -0.0050 -0.0025
42 13 TABELLEN ZU VERTEILUNGSFUNKTIONEN UND QUANTILEN

Tabelle B: Quantile der Standardnormalverteilung

p 0.000 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009

0.500 0.0000 0.0025 0.0050 0.0075 0.0100 0.0125 0.0150 0.0175 0.0201 0.0226
0.510 0.0251 0.0276 0.0301 0.0326 0.0351 0.0376 0.0401 0.0426 0.0451 0.0476
0.520 0.0502 0.0527 0.0552 0.0577 0.0602 0.0627 0.0652 0.0677 0.0702 0.0728
0.530 0.0753 0.0778 0.0803 0.0828 0.0853 0.0878 0.0904 0.0929 0.0954 0.0979
0.540 0.1004 0.1030 0.1055 0.1080 0.1105 0.1130 0.1156 0.1181 0.1206 0.1231

0.550 0.1257 0.1282 0.1307 0.1332 0.1358 0.1383 0.1408 0.1434 0.1459 0.1484
0.560 0.1510 0.1535 0.1560 0.1586 0.1611 0.1637 0.1662 0.1687 0.1713 0.1738
0.570 0.1764 0.1789 0.1815 0.1840 0.1866 0.1891 0.1917 0.1942 0.1968 0.1993
0.580 0.2019 0.2045 0.2070 0.2096 0.2121 0.2147 0.2173 0.2198 0.2224 0.2250
0.590 0.2275 0.2301 0.2327 0.2353 0.2378 0.2404 0.2430 0.2456 0.2482 0.2508

0.600 0.2533 0.2559 0.2585 0.2611 0.2637 0.2663 0.2689 0.2715 0.2741 0.2767
0.610 0.2793 0.2819 0.2845 0.2871 0.2898 0.2924 0.2950 0.2976 0.3002 0.3029
0.620 0.3055 0.3081 0.3107 0.3134 0.3160 0.3186 0.3213 0.3239 0.3266 0.3292
0.630 0.3319 0.3345 0.3372 0.3398 0.3425 0.3451 0.3478 0.3505 0.3531 0.3558
0.640 0.3585 0.3611 0.3638 0.3665 0.3692 0.3719 0.3745 0.3772 0.3799 0.3826

0.650 0.3853 0.3880 0.3907 0.3934 0.3961 0.3989 0.4016 0.4043 0.4070 0.4097
0.660 0.4125 0.4152 0.4179 0.4207 0.4234 0.4261 0.4289 0.4316 0.4344 0.4372
0.670 0.4399 0.4427 0.4454 0.4482 0.4510 0.4538 0.4565 0.4593 0.4621 0.4649
0.680 0.4677 0.4705 0.4733 0.4761 0.4789 0.4817 0.4845 0.4874 0.4902 0.4930
0.690 0.4959 0.4987 0.5015 0.5044 0.5072 0.5101 0.5129 0.5158 0.5187 0.5215

0.700 0.5244 0.5273 0.5302 0.5330 0.5359 0.5388 0.5417 0.5446 0.5476 0.5505
0.710 0.5534 0.5563 0.5592 0.5622 0.5651 0.5681 0.5710 0.5740 0.5769 0.5799
0.720 0.5828 0.5858 0.5888 0.5918 0.5948 0.5978 0.6008 0.6038 0.6068 0.6098
0.730 0.6128 0.6158 0.6189 0.6219 0.6250 0.6280 0.6311 0.6341 0.6372 0.6403
0.740 0.6433 0.6464 0.6495 0.6526 0.6557 0.6588 0.6620 0.6651 0.6682 0.6713

0.750 0.6745 0.6776 0.6808 0.6840 0.6871 0.6903 0.6935 0.6967 0.6999 0.7031
0.760 0.7063 0.7095 0.7128 0.7160 0.7192 0.7225 0.7257 0.7290 0.7323 0.7356
0.770 0.7388 0.7421 0.7454 0.7488 0.7521 0.7554 0.7588 0.7621 0.7655 0.7688
0.780 0.7722 0.7756 0.7790 0.7824 0.7858 0.7892 0.7926 0.7961 0.7995 0.8030
0.790 0.8064 0.8099 0.8134 0.8169 0.8204 0.8239 0.8274 0.8310 0.8345 0.8381

0.800 0.8416 0.8452 0.8488 0.8524 0.8560 0.8596 0.8633 0.8669 0.8705 0.8742
0.810 0.8779 0.8816 0.8853 0.8890 0.8927 0.8965 0.9002 0.9040 0.9078 0.9116
0.820 0.9154 0.9192 0.9230 0.9269 0.9307 0.9346 0.9385 0.9424 0.9463 0.9502
0.830 0.9542 0.9581 0.9621 0.9661 0.9701 0.9741 0.9782 0.9822 0.9863 0.9904
0.840 0.9945 0.9986 1.0027 1.0069 1.0110 1.0152 1.0194 1.0237 1.0279 1.0322

0.850 1.0364 1.0407 1.0450 1.0494 1.0537 1.0581 1.0625 1.0669 1.0714 1.0758
0.860 1.0803 1.0848 1.0893 1.0939 1.0985 1.1031 1.1077 1.1123 1.1170 1.1217
0.870 1.1264 1.1311 1.1359 1.1407 1.1455 1.1503 1.1552 1.1601 1.1650 1.1700
0.880 1.1750 1.1800 1.1850 1.1901 1.1952 1.2004 1.2055 1.2107 1.2160 1.2212
0.890 1.2265 1.2319 1.2372 1.2426 1.2481 1.2536 1.2591 1.2646 1.2702 1.2759

0.900 1.2816 1.2873 1.2930 1.2988 1.3047 1.3106 1.3165 1.3225 1.3285 1.3346
0.910 1.3408 1.3469 1.3532 1.3595 1.3658 1.3722 1.3787 1.3852 1.3917 1.3984
0.920 1.4051 1.4118 1.4187 1.4255 1.4325 1.4395 1.4466 1.4538 1.4611 1.4684
0.930 1.4758 1.4833 1.4909 1.4985 1.5063 1.5141 1.5220 1.5301 1.5382 1.5464
0.940 1.5548 1.5632 1.5718 1.5805 1.5893 1.5982 1.6072 1.6164 1.6258 1.6352

0.950 1.6449 1.6546 1.6646 1.6747 1.6849 1.6954 1.7060 1.7169 1.7279 1.7392
0.960 1.7507 1.7624 1.7744 1.7866 1.7991 1.8119 1.8250 1.8384 1.8522 1.8663
0.970 1.8808 1.8957 1.9110 1.9268 1.9431 1.9600 1.9774 1.9954 2.0141 2.0335
0.980 2.0537 2.0749 2.0969 2.1201 2.1444 2.1701 2.1973 2.2262 2.2571 2.2904
0.990 2.3263 2.3656 2.4089 2.4573 2.5121 2.5758 2.6521 2.7478 2.8782 3.0902
43

Tabelle C: Quantile der t-Verteilung


T ∼ t(ν): Die Tabelle enthält Quantile tp (ν) der t-Verteilung mit ν Freiheitsgraden.

p
ν 0.75 0.80 0.85 0.90 0.95 0.975 0.99 0.995

1 1.0000 1.3764 1.9626 3.0777 6.3138 12.7062 31.8205 63.6567


2 0.8165 1.0607 1.3862 1.8856 2.9200 4.3027 6.9646 9.9248
3 0.7649 0.9785 1.2498 1.6377 2.3534 3.1824 4.5407 5.8409
4 0.7407 0.9410 1.1896 1.5332 2.1318 2.7764 3.7470 4.6041
5 0.7267 0.9195 1.1558 1.4759 2.0150 2.5706 3.3649 4.0322
6 0.7176 0.9057 1.1342 1.4398 1.9432 2.4469 3.1427 3.7074
7 0.7111 0.8960 1.1192 1.4149 1.8946 2.3646 2.9980 3.4995
8 0.7064 0.8889 1.1081 1.3968 1.8595 2.3060 2.8965 3.3554
9 0.7027 0.8834 1.0997 1.3830 1.8331 2.2622 2.8214 3.2498
10 0.6998 0.8791 1.0931 1.3722 1.8125 2.2281 2.7638 3.1693

11 0.6974 0.8755 1.0877 1.3634 1.7959 2.2010 2.7181 3.1058


12 0.6955 0.8726 1.0832 1.3562 1.7823 2.1788 2.6810 3.0545
13 0.6938 0.8702 1.0795 1.3502 1.7709 2.1604 2.6503 3.0123
14 0.6924 0.8681 1.0763 1.3450 1.7613 2.1448 2.6245 2.9768
15 0.6912 0.8662 1.0735 1.3406 1.7531 2.1314 2.6025 2.9467
16 0.6901 0.8647 1.0711 1.3368 1.7459 2.1199 2.5835 2.9208
17 0.6892 0.8633 1.0690 1.3334 1.7396 2.1098 2.5669 2.8982
18 0.6884 0.8620 1.0672 1.3304 1.7341 2.1009 2.5524 2.8784
19 0.6876 0.8610 1.0655 1.3277 1.7291 2.0930 2.5395 2.8609
20 0.6870 0.8600 1.0640 1.3253 1.7247 2.0860 2.5280 2.8453

21 0.6864 0.8591 1.0627 1.3232 1.7207 2.0796 2.5176 2.8314


22 0.6858 0.8583 1.0614 1.3212 1.7171 2.0739 2.5083 2.8188
23 0.6853 0.8575 1.0603 1.3195 1.7139 2.0687 2.4999 2.8073
24 0.6848 0.8569 1.0593 1.3178 1.7109 2.0639 2.4922 2.7969
25 0.6844 0.8562 1.0584 1.3163 1.7081 2.0595 2.4851 2.7874
26 0.6840 0.8557 1.0575 1.3150 1.7056 2.0555 2.4786 2.7787
27 0.6837 0.8551 1.0567 1.3137 1.7033 2.0518 2.4727 2.7707
28 0.6834 0.8546 1.0560 1.3125 1.7011 2.0484 2.4671 2.7633
29 0.6830 0.8542 1.0553 1.3114 1.6991 2.0452 2.4620 2.7564
30 0.6828 0.8538 1.0547 1.3104 1.6973 2.0423 2.4573 2.7500

31 0.6825 0.8534 1.0541 1.3095 1.6955 2.0395 2.4528 2.7440


32 0.6822 0.8530 1.0535 1.3086 1.6939 2.0369 2.4487 2.7385
33 0.6820 0.8526 1.0530 1.3077 1.6924 2.0345 2.4448 2.7333
34 0.6818 0.8523 1.0525 1.3070 1.6909 2.0322 2.4411 2.7284
35 0.6816 0.8520 1.0520 1.3062 1.6896 2.0301 2.4377 2.7238
36 0.6814 0.8517 1.0516 1.3055 1.6883 2.0281 2.4345 2.7195
37 0.6812 0.8514 1.0512 1.3049 1.6871 2.0262 2.4314 2.7154
38 0.6810 0.8512 1.0508 1.3042 1.6860 2.0244 2.4286 2.7116
39 0.6808 0.8509 1.0504 1.3036 1.6849 2.0227 2.4258 2.7079
40 0.6807 0.8507 1.0500 1.3031 1.6839 2.0211 2.4233 2.7045

50 0.6794 0.8489 1.0473 1.2987 1.6759 2.0086 2.4033 2.6778


60 0.6786 0.8477 1.0455 1.2958 1.6706 2.0003 2.3901 2.6603
70 0.6780 0.8468 1.0442 1.2938 1.6669 1.9944 2.3808 2.6479
80 0.6776 0.8461 1.0432 1.2922 1.6641 1.9901 2.3739 2.6387
90 0.6772 0.8456 1.0424 1.2910 1.6620 1.9867 2.3685 2.6316
100 0.6770 0.8452 1.0418 1.2901 1.6602 1.9840 2.3642 2.6259

∞ 0.6745 0.8416 1.0364 1.2816 1.6449 1.9600 2.3263 2.5758


44 13 TABELLEN ZU VERTEILUNGSFUNKTIONEN UND QUANTILEN

Tabelle D: Quantile der χ2 -Verteilung


χ2 ∼ χ2 (r): Die Tabelle enthält Quantile χ2p (r) der χ2 -Verteilung mit r Freiheitsgraden.

p
r 0.005 0.010 0.025 0.050 0.100 0.900 0.950 0.975 0.990 0.995

1 0.000 0.000 0.001 0.004 0.016 2.706 3.841 5.024 6.635 7.879
2 0.010 0.020 0.051 0.103 0.211 4.605 5.991 7.378 9.210 10.597
3 0.039 0.100 0.213 0.353 0.587 6.252 7.816 9.350 11.346 12.836
4 0.195 0.292 0.484 0.712 1.065 7.780 9.488 11.144 13.277 14.859
5 0.406 0.552 0.831 1.146 1.611 9.237 11.071 12.833 15.086 16.749
6 0.673 0.871 1.237 1.636 2.204 10.645 12.592 14.450 16.812 18.547
7 0.987 1.238 1.690 2.168 2.833 12.017 14.067 16.013 18.475 20.277
8 1.343 1.646 2.180 2.733 3.490 13.362 15.507 17.535 20.090 21.955
9 1.734 2.088 2.700 3.325 4.168 14.684 16.919 19.023 21.666 23.589
10 2.155 2.558 3.247 3.940 4.865 15.987 18.307 20.483 23.209 25.188

11 2.603 3.053 3.816 4.575 5.578 17.275 19.675 21.920 24.725 26.757
12 3.074 3.570 4.404 5.226 6.304 18.549 21.026 23.337 26.217 28.299
13 3.565 4.107 5.009 5.892 7.042 19.812 22.362 24.736 27.688 29.819
14 4.075 4.660 5.629 6.571 7.790 21.064 23.685 26.119 29.141 31.319
15 4.601 5.229 6.262 7.261 8.547 22.307 24.996 27.488 30.578 32.801
16 5.142 5.812 6.908 7.962 9.312 23.542 26.296 28.845 32.000 34.267
17 5.697 6.408 7.564 8.672 10.085 24.769 27.587 30.191 33.409 35.718
18 6.265 7.015 8.231 9.390 10.865 25.989 28.869 31.526 34.805 37.156
19 6.844 7.633 8.907 10.117 11.651 27.204 30.144 32.852 36.191 38.582
20 7.434 8.260 9.591 10.851 12.443 28.412 31.410 34.170 37.566 39.997

21 8.034 8.897 10.283 11.591 13.240 29.615 32.671 35.479 38.932 41.401
22 8.643 9.542 10.982 12.338 14.041 30.813 33.924 36.781 40.289 42.796
23 9.260 10.196 11.689 13.091 14.848 32.007 35.172 38.076 41.638 44.181
24 9.886 10.856 12.401 13.848 15.659 33.196 36.415 39.364 42.980 45.559
25 10.520 11.524 13.120 14.611 16.473 34.382 37.652 40.646 44.314 46.928
26 11.160 12.198 13.844 15.379 17.292 35.563 38.885 41.923 45.642 48.290
27 11.808 12.878 14.573 16.151 18.114 36.741 40.113 43.195 46.963 49.645
28 12.461 13.565 15.308 16.928 18.939 37.916 41.337 44.461 48.278 50.993
29 13.121 14.256 16.047 17.708 19.768 39.087 42.557 45.722 49.588 52.336
30 13.787 14.953 16.791 18.493 20.599 40.256 43.773 46.979 50.892 53.672

35 17.192 18.509 20.569 22.465 24.797 46.059 49.802 53.203 57.342 60.275
40 20.707 22.164 24.433 26.509 29.051 51.805 55.758 59.342 63.691 66.766
45 24.311 25.901 28.366 30.612 33.350 57.505 61.656 65.410 69.957 73.166
50 27.991 29.707 32.357 34.764 37.689 63.167 67.505 71.420 76.154 79.490
55 31.735 33.570 36.398 38.958 42.060 68.796 73.311 77.380 82.292 85.749
60 35.534 37.485 40.482 43.188 46.459 74.397 79.082 83.298 88.379 91.952
65 39.383 41.444 44.603 47.450 50.883 79.973 84.821 89.177 94.422 98.105
70 43.275 45.442 48.758 51.739 55.329 85.527 90.531 95.023 100.425 104.215
75 47.206 49.475 52.942 56.054 59.795 91.061 96.217 100.839 106.393 110.286
80 51.172 53.540 57.153 60.391 64.278 96.578 101.879 106.629 112.329 116.321
85 55.170 57.634 61.389 64.749 68.777 102.079 107.522 112.393 118.236 122.325
90 59.196 61.754 65.647 69.126 73.291 107.565 113.145 118.136 124.116 128.299
95 63.250 65.898 69.925 73.520 77.818 113.038 118.752 123.858 129.973 134.247
100 67.328 70.065 74.222 77.929 82.358 118.498 124.342 129.561 135.807 140.169
45

14 Anhang: Nur für Student(inn)en nach der alten PO


14.1 Einleitung
Nach der alten Prüfungsordnung (PO) hat OSTA einen gröÿeren zeitlichen Umfang und ist mit mehr
Kreditpunkten versehen als nach der neuen PO von 2022. Dementsprechend müssen Prüinge nach der
alten PO eine längere Klausur schreiben, welche auch mehr Sto abdeckt. Dieses nur nach der alten PO
klausurrelevante Material ist in diesem abschlieÿenden Kapitel versammelt. Am Ende jedes Abschnitts
gibt es Übungsaufgaben. Dieser Sto und diese Aufgaben werden in Videokonserven behandelt, die auf
OLAT bereitgestellt werden.

Lesen Sie auch noch einmal die Gebrauchsanweisung ganz zu Beginn dieser Seiten.

14.2 Konzentrationsmessung
1. Fall: Sei X ein diskretes Merkmal mit 0 < a1 < . . . < ak . Wir denieren vi als Anteil an der gesamten
Merkmalsumme, den die i kleinsten Merkmalausprägungen auf sich vereinigen,

Pi
j=1 a j nj
vi = Pk , i = 1, 2, . . . , k.
j=1 a j nj

2. Fall: Sei X ein stetiges Merkmal mit

a∗j−1 < X ≤ a∗j , j = 1, 2, . . . , k mit a∗0 ≥ 0.

Dann ändert sich die Denition von vi mit den Klassenmitten āj = (a∗j−1 + a∗j )/2:
Pi
j=1 āj nj
vi = Pk , i = 1, 2, . . . , k.
j=1 āj nj

In beiden Fällen deniert man ui als Anteil an allen n Beobachtungen, den die i kleinsten Ausprägungen
ausmachen,

Pi i
j=1 nj X
ui = = hj , i = 1, 2, . . . , k.
n j=1

Lorenz-Kurve : Verbindung von k+1 Punkten durch Geradenstücke in einem Koordinatensystem (v


abgetragen gegen u)

(0, 0) = (u0 , v0 ), (u1 , v1 ), . . . , (uk , vk ) = (1, 1).

Konzentrationsäche : Fläche zw. der Diagonalen (Winkelhalbierenden) und Lorenz-Kurve (welche immer
unterhalb verläuft).

Gini-Koezient G: Maÿzahl für Konzentration oder Ungleichheit, deniert als Quotient aus Konzentra-
tionsäche und Fläche unter der Diagonalen:

k
Konzentrationsäche X
G= =1− (ui − ui−1 ) (vi + vi−1 ). (14.1)
Fläche unter Diagonale
i=1

Weil 0 ≤ G ≤ (n − 1)/n gilt, wird in der Praxis mitunter normiert:

n
G∗ = G mit 0 ≤ G∗ ≤ 1.
n−1
46 14 ANHANG: NUR FÜR STUDENT(INN)EN NACH DER ALTEN PO

Aufgaben
Aufgabe 1
Drei Groÿunternehmen beherrschen einen Markt. Zwei davon haben einen Marktanteil von je 25 %, eines
hat einen Anteil von 50 %. Zur Konzentrationsmessung soll der Gini-Koezient G bestimmt werden.

Lösungshinweis: G = 1/6
Aufgabe 2
In einer achtköpgen WG leben vier Berufstätige und vier Student(inn)en. Zwei der Berufstätigen bezie-
hen 3 (Tausend) e, und je einer bezieht 4 und 7 (Tausend) e Brutto-Monatseinkommen.

a) Berechnen Sie den Gini-Koezienten der vier Einkommensbezieher(innen).

b) Nehmen wir an, von den vier Student(inn)en beziehen nach dem Eintritt ins Berufsleben ebenfalls
zwei 3 (Tausend) e und je einer 4 und 7 (Tausend) e Brutto-Monatseinkommen. Wie lautet dann
der Gini-Koezient für alle acht WG-Bewohner(innen) (ohne Rechnung!)?

Lösungshinweise: a) G = 0.1912; b) G = 0.1912.


Aufgabe 3
Für eine vergleichende Konzentrationsanalyse des Eisdielenmarktes in den Städten S1 und S2 stehen die
absoluten Häugkeiten für je 4 Ausprägungen zur Verfügung:

S1 S2
j aj nj aj nj
1 2 5 1 1
2 10 2 11 2
3 30 1 33 1
4 40 1 44 1

Dabei bezeichnet X den prozentualen Marktanteil mit den Ausprägungen aj . In S1 gibt es z. B. 2 Eisdielen
mit einem Marktanteil von 10 %, in S2 haben 2 Eisdielen je einen Marktanteil von 11 %.

a) Berechnen Sie den normierten Gini-Koezienten in S1.

b) Berechnen Sie den normierten Gini-Koezienten in S2.

Lösungshinweise: a) G∗ = 0.65 b) G∗ = 0.54


Aufgabe 4
Die Konzentrationsäche zwischen Lorenz-Kurve und Winkelhalbierender betrage 0.452. Wie groÿ ist
dann der Gini-Koezient?

Lösungshinweis: G = 0.904

14.3 Mittlere Wachstumsraten


xt −xt−1
Bei Wachstumsraten rt =
xt−1 kann die arithmetische Mittelung irreführend sein. Daher berechnet
man mitunter das geometrische Mittel und deniert dazu:
Wachstumsfaktoren:
xt
qt = 1 + rt = .
xt−1
Geometrisches Mittel der Wachstumsfaktoren:
  n1
1 xn
q̃ = (q1 q2 · · · qn ) n
= .
x0
14.4 Zufallsvorgang und Ereignisse 47

Mittlere geometrische Wachstumsrate:


r̃ = q̃ − 1 .

Aufgaben
Aufgabe 5
Die Aktienkurse am Ende zweier Jahre betragen x1 = 160 und x2 = 80 mit x0 = 100 zu Beginn des
ersten Jahres.

a) Berechnen Sie die durchschnittliche diskrete Wachstumsrate r = 12 (r1 + r2 ).

b) Berechnen Sie die durchschnittliche stetige Wachstumsrate ρ = 21 (ρ1 + ρ2 ).

c) Berechnen Sie das geometrische Mittel der diskreten Wachstumsraten.

Lösungshinweise: a) r = 5 % b) ρ = −11.16 % c) re = −10.56 %


Aufgabe 6
Gegeben ist eine Zeitreihe mit jährlichen Beobachtungen von 2017 bis 2021:

x2017 = 100 , x2018 = 97 , x2019 = 98 , x2020 = 101 , x2021 = 103 .

a) Berechnen Sie die mittlere geometrische Wachstumsrate re.

b) Berechnen Sie das arithmetische Mittel der diskreten Wachstumsraten r.

c) Berechnen Sie das arithmetische Mittel der stetigen Wachstumsraten ρ.

Lösungshinweise: a) re = 0.74 % b) r = 0.77 % c) ρ = 0.74 %

14.4 Zufallsvorgang und Ereignisse


Will man Wahrscheinlichkeiten etwas sauberer denieren, benötigt man sog. Ereignisse, die formal Men-
gen sind. Also wiederholen wir daran ausgerichtet etwas Mengenlehre.

Ein Zufallsvorgang führt zu einem von mehreren, sich gegenseitig ausschlieÿenden Ergebnissen. Vor der
Durchführung ist ungewiss, welches Ergebnis tatsächlich eintreten wird. Von einem Zufallsexperiment
spricht man, wenn der Vorgang unter gleichen Randbedingungen wiederholbar ist. Die Ergebnismenge
Ω ist die Menge aller möglichen Ergebnisse ω , ω ∈ Ω, eines Zufallsvorgangs. Teilmengen von Ω heiÿen
Ereignisse und die speziellen einelementigen Teilmengen {ω} Elementarereignisse.
Leere Menge: {} oder ∅ Unmögliches Ereignis

Teilmenge: A ⊆ B ⇔ [x ∈ A ⇒ x ∈ B] Wenn A eintritt, tritt auch B ein

Komplementärmenge: Ac = {x | x ̸∈ A}  A tritt nicht ein

Schnittmenge: A ∩ B = {x | x ∈ A und x ∈ B}  A und B treten ein

A∩B =∅  A und B schlieÿen sich gegenseitig aus bzw.


 A und B sind disjunkt

Vereinigungsmenge: A ∪ B = {x | x ∈ A oder x ∈ B} Mindestens eines der Ereignisse A und B


tritt ein

Dierenzmenge: A \ B = {x | x ∈ A und x ̸∈ B}  A tritt ein, aber nicht B

Auÿerdem seien hier noch einmal kurz einige Rechenregeln für Mengen dargestellt:
48 14 ANHANG: NUR FÜR STUDENT(INN)EN NACH DER ALTEN PO

Kommutativgesetze: A ∩ B = B ∩ A, A ∪ B = B ∪ A

Assoziativgesetze: (A ∩ B) ∩ C = A ∩ (B ∩ C)
(A ∪ B) ∪ C = A ∪ (B ∪ C)

Distributivgesetze: A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

Regeln von De Morgan: (A ∪ B)c = Ac ∩ B c


(A ∩ B)c = Ac ∪ B c

Aufgaben
Aufgabe 7
Stellen Sie die folgenden Aussagen über die Ereignisse A, B und C in Venn-Diagrammen und in symbo-
lischer Schreibweise dar:

a) Die Ereignisse A und B können nicht gleichzeitig eintreten.

b) Immer wenn A eintritt, tritt auch B ein.

c) B tritt nur ein, wenn auch A eintritt.

d) C tritt genau dann ein, wenn A und B eintreten.

e) C tritt genau dann ein, wenn zwar A, aber nicht B eintritt.

Lösungshinweise: keine

14.5 Wahrscheinlichkeiten
Wir bezeichnen die Wahrscheinlichkeit für das Eintreten eines Ereignisses A mit P(A). Formal handelt es
sich um eine Abbildung, die A eine reelle Zahl zuordnet. Um Wahrscheinlichkeiten handelt es sich, wenn
die Abbildung die drei Axiome von Kolmogorov erfüllt:
6

1) P(A) ≥ 0,
2) P(Ω) = 1,
3) P(A ∪ B) = P(A) + P(B), falls A ∩ B = ∅.

Rechenregeln:

a) P(∅) =0
c
b) P(A ) = 1 − P(A)

c) P(A) ≤ P(B), falls A⊆B

d) P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

e) P(A ∩ B c ) = P(A \ B) = P(A) − P(A ∩ B)

6 Genau genommen muss das dritte Axiom für abzählbar viele Ereignisse gelten.
14.5 Wahrscheinlichkeiten 49

Aufgaben
Aufgabe 8
Wir betrachten die Studenten eines Fachbereichs. Sie müssen jeweils eine Klausur in Statistik und eine in
Mathematik bestehen. 80% der Studenten bestehen Statistik und 90% Mathe. 95% bestehen mindestens
eine der Klausuren.

a) Wie groÿ ist die Wahrscheinlichkeit, dass ein zufällig ausgewählter Student beide Klausuren besteht?

b) Wie groÿ ist die Wahrscheinlichkeit, dass ein Student weder die Statistik- noch die Matheklausur
besteht?

c) Wie groÿ ist die Wahrscheinlichkeit, dass ein Student Statistik aber nicht Mathe besteht?

Lösungshinweise: a) 0.75 b) 0.05 c) 0.05


Aufgabe 9
Bei einer Analyse des Bekanntheitsgrades von zwei Markenartikeln ergab sich, dass 25% der Personen die
Marke A und 15% die Marke B kennen. 10% kennen beide Marken. Wie groÿ ist die Wahrscheinlichkeit,
dass jemand

a) mindestens eine der beiden Marken kennt?

b) nur Marke A kennt?

c) keine der beiden Marken kennt?

d) genau eine Marke kennt?

Lösungshinweise: a) 0.3 b) 0.15 c) 0.7 d) 0.2


Aufgabe 10
Es seien A und B beliebige Ereignisse. Welche der folgenden Behauptungen ist richtig?

⃝ P(A) P(B) = 1 − P(Ac ∪ B c )

c
⃝ P(A ) ≥ P(B c ), falls B⊆A

⃝ P(A ∩ B c ) + P(B ∩ Ac ) = P(A ∪ B) − P(A ∩ B)

⃝ P(A \ B) = P(A) − P(B) + P(A ∩ B)

Lösungshinweise: keine
Aufgabe 11
Kreuzen Sie für die folgenden Aussagen R (richtig) oder F (falsch) an.

Es seien A und B zwei beliebige Ereignisse. Dann gilt:


i) P(A ∪ B) = P(A) + P(B) R F

ii) P(A ∩ B) = P(A) + P(B) − P(A ∪ B) R F


c c
iii) P(A ∪ B) = 1 − P(A ∩ B ) R F

iv) P(A ∩ B) = P(A) + P(B) R F

Lösungshinweise: keine
50 14 ANHANG: NUR FÜR STUDENT(INN)EN NACH DER ALTEN PO

Aufgabe 12
In einer ländlichen Gegend Süddeutschlands wählen 80 % der Einwohner(innen) die Partei A (Ereignis
A). 40 % der Einwohner(innen) befürworten den Bau einer Kläranlage (Ereignis B). 20 % der Einwoh-
ner(innen) sind Befürworter(innen) der neuen Kläranlage und A-Wähler(innen) (Wähler(innen) der Partei
A), d. h., es gilt P(A ∩ B) = 0.2.
Wie groÿ ist die Wahrscheinlichkeit, dass ein zufällig ausgewählter Einwohner oder eine zufällig ausge-
wählte Einwohnerin ...

a) ... A-Wähler(in) ist, aber nicht die neue Kläranlage befürwortet?

b) ... Befürworter(in) oder A-Wähler(in) ist?

c) ... kein(e) Befürworter(in) oder kein(e) A-Wähler(in) ist?

Lösungshinweise: a) 0.6 b) 1 c) 0.8

14.6 Weitere Verteilungsmodelle


a) Geometrische Verteilung
X ∼ Ge(p), 0 < p < 1 ,

P(X = x) = (1 − p)x p, x = 0, 1, 2, . . . ,
1−p 1−p
E(X) = und Var(X) = ,
p p2
x+1
F (x) = 1 − (1 − p) , x = 0, 1, 2, . . . .

b) Doppelexponentialverteilung

X ∼ DEx(λ), λ > 0,
 λ λx
λ 2e x≤0
f (x) = e−λ|x| = λ −λx ,
2 2 e x≥0
2
E(X) =0 und Var(X) = ,
λ2
γ1 = 0 und γ2 = 6.

Aufgaben
Aufgabe 13
Die Zufallsvariable X sei geometrisch verteilt mit dem Parameter p = 0.1, d. h., es gilt

0.9x 0.1

für x = 0, 1, 2, . . .
P(X = x) = .
0 sonst

a) Bestimmen Sie den Erwartungswert von X.

b) Bestimmen Sie die Wahrscheinlichkeit P(X ≤ 1).

c) Bestimmen Sie die Wahrscheinlichkeit, dass X den Wert null annimmt.

d) Bestimmen Sie die Wahrscheinlichkeit, dass X Werte gröÿer als 3 annimmt.

Lösungshinweise: a) 9 b) 0.19 c) 0.1 d) 0.6561


14.7 Bivariate Normalverteilung 51

Aufgabe 14

Eine Zufallsvariable X folge einer Doppelexponentialverteilung mit dem Parameter λ= 2.

a) Bestimmen Sie Erwartungswert und Varianz von X.

b) Bestimmen Sie die Wahrscheinlichkeit P(|X| > 2.5758).

Zum Vergleich Für eine standardnormalverteilte Zufallsvariable Z gilt: P(|Z| > 2.5758) = 0.01.

Lösungshinweise: a) E=0, Var=1 b) 0.0262

14.7 Bivariate Normalverteilung


Es seien nun X und Y zwei normalverteilte Zufallsvariablen,

X ∼ N (µx , σx2 ), Y ∼ N (µy , σy2 ),

Cov(X,Y )
die mit ρ= σx σy korreliert sind. Interessiert sind wir an gemeinsamen Wahrscheinlichkeitsaussagen:

P(X ≤ x, Y ≤ y) =?

Solche Wahrscheinlichkeiten lassen sich als Doppelintegral über eine gemeinsame Dichtefunktion f,

f : R2 7→ [0, ∞),

berechnen:
Za Zb
P(X ≤ a, Y ≤ b) = f (x, y)dydx.
−∞ −∞

Wenn nun die gemeinsame Dichte folgende Gestalt hat,

( " 2     2 #)
1 1 x − µx x − µx y − µy y − µy
f (x, y) = exp − − 2ρ + ,
2(1 − ρ2 )
p
2πσx σy 1 − ρ2 σx σx σy σy

dann heiÿen X und Y bivariat normalverteilt. Symbolisch schreiben wir dann für den Vektor:

 
X
∼ N2 (µ, Σ),
Y

wobei µ ein Vektor und Σ eine symmetrische Matrix mit (Ko)-Varianzen ist:

   
µx Var(X) Cov(X, Y )
µ= , Σ= .
µy Cov(X, Y ) Var(Y )

Jede Linearkombination bivariat normalverteilter Zufallsvariablen ist univariat normalverteilt. Für den
Vektor λ ∈ R2 mit der Transponierten λ′ = (λ1 , λ2 ) gilt:

 
′ X
λ = λ1 X + λ2 Y ∼ N (λ′ µ, λ′ Σλ).
Y

Überdies ist bei Normalverteilung Unkorreliertheit äquivalent zu Unabhängigkeit:

ρ=0 ⇐⇒ f (x, y) = fx (x) · fy (y) ,

wobei fx und fy die univariaten Normalverteilungsdichten sind.


52 14 ANHANG: NUR FÜR STUDENT(INN)EN NACH DER ALTEN PO

Aufgaben
Aufgabe 15
X und Y seien bivariat normalverteilt,

     
X 0 1 1/2
∼ N2 (µ, Σ), µ= , Σ= .
Y 1 1/2 2

a) Betrachten Sie den Vektor λ′ = (0, 1), und bestimmen Sie den Erwartungswert

  
′ X
E λ .
Y

b) Berechnen Sie die Varianz


 
X +Y
Var .
2
Lösungshinweise: a) 1 b) 1

Aufgabe 16
X und Y seien bivariat normalverteilt,

     
X 0 1 0
∼ N2 (µ, Σ), µ= , Σ= .
Y 1 0 2

Bestimmen Sie die gemeinsame Dichte f (x, y) und die beiden Randdichten fx (x) und fy (y).

Lösungshinweise: f (x, y) = )}, fx (x) = exp{− 12 x2 }, fy (y) =


2 2
√1
2 2π
exp{− 12 (x2 + (y−1)
2
√1

1

2 π
exp{− 12 (y−1)
2 }

14.8 Maximum-Likelihood-Methode (ML)


Im diskreten Fall bestimmt man θbM L anschaulich gesprochen so, dass das Auftreten der tatsächlich
beobachteten Stichprobe maximal wahrscheinlich wird. Für diskrete Stichprobenvariablen denieren wir
als Likelihoodfunktion:

L(θ) = P (X1 = x1 , X2 = x2 , . . . , Xn = xn ; θ)
= P (X1 = x1 ; θ) · . . . · P (Xn = xn ; θ).

Der ML-Schätzer ist das Argument, das L(θ) maximiert, oder anders gesprochen: Für alle θ gilt: L(θ̂M L ) ≥
L(θ).
Sind die Variablen stetig, so wird die Likelihoodfunktion in termini von Dichtefunktionen deniert:

L(θ) = f (x1 ; θ) · . . . · f (xn ; θ).

Aus rechentechnischen Gründen empehlt es sich oft, äquivalent θbM L als die Stelle zu bestimmen, wo die
sog. Log-Likelihoodfunktion, d. h. ℓ(θ) = log(L(θ)), maximal wird.

Aufgaben
Aufgabe 17
Für jemanden, der ohne Kenntnis der Fahrzeiten zufällig zum U-Bahnhof Bockenheimer Warte geht, kann
die Wartezeit X auf den Zug als stetig gleichverteilt auf dem Intervall [ 0, b ] angenommen werden, b > 0.
Ein zerstreuter Professor, der sich den Fahrplan nicht merken kann, wartet an fünf Tagen

4.5, 3.0, 8.2, 5.7 und 6.6 Minuten.


14.9 Kondenzintervall für die Varianz bei Normalverteilung 53

An weiteren fünf Tagen wartet er 7.8, 2.2, 4.3, 6.0 und 3.7 Minuten.

a) Wie lautet der ML-Schätzwert für die ersten fünf Beobachtungen?

b) Wie lautet der ML-Schätzwert für alle zehn Beobachtungen?

Lösungshinweise: a) b̂M L = 8.2 b) b̂M L = 8.2


Aufgabe 18
Gegeben sei eine Zufallsstichprobe Xi , i = 1, ..., n, mit der Dichtefunktion

θ3 2 −θx
f (x) = x e , θ > 0, x > 0,
2
und f (x) = 0 für x ≤ 0.
Bestimmen Sie den Maximum-Likelihood-Schätzwert θbM L für eine Stichprobe x1 , ...., xn .
Lösungshinweise: θ̂M L = 3/x
Aufgabe 19
Gegeben sei eine Zufallsstichprobe Xi , i = 1, ..., n, welche einer geometrischen Verteilung mit dem Para-
meter p folgt. Aus einer Realisation erhält man für das arithmetische Mittel x = 2.
Bestimmen Sie den Maximum-Likelihood-Schätzer für p. Welcher Schätzwert ergibt sich aus der Stich-
probe?

Lösungshinweise: p̂M L = 1/(x + 1) = 1/3

14.9 Kondenzintervall für die Varianz bei Normalverteilung


2
Chi-Quadrat-(χ -)Verteilung

Wenn Zi eine standardnormalverteilte Zufallsvariable ist, dann folgt das Quadrat einer sogenannten χ2 -
Verteilung mit einem Freiheitsgrad:
Zi2 ∼ χ2 (1) .
Liegen n unabhängige standardnormalverteilte Zufallsvariablen vor, so gilt für deren Quadratsumme,
dass sie einer χ2 -Verteilung mit n Freiheitsgraden folgt:

n n
X X (Xi − µ)2
Zi2 = ∼ χ2 (n). (14.2)
i=1 i=1
σ2

Quantile der Verteilungen sind in Abhängigkeit des Freiheitsgradparameters in Tabelle F tabelliert. Wir
bezeichnen das p-Quantil bei ν Freiheitsgraden wie folgt: χ2p (ν).

In der Praxis ist µ nicht bekannt. Ersetzt man es durch seinen konsistenten und erwartungstreuen Schät-
zer, so reduziert sich der Freiheitsgrad um Eins, und es gilt:

n
S2 X (Xi − X)2
(n − 1) = ∼ χ2 (n − 1) . (14.3)
σ2 i=1
σ 2

Dieses Ergebnis kann man nutzen, um ein Kondenzintervall für die Varianz basierend auf der erwar-
tungstreuen Varianzschätzung wie folgt zu konstruieren:
" #
(n − 1)S 2 (n − 1)S 2
KI1−α = ; . (14.4)
χ21− α (n − 1) χ2α (n − 1)
2 2

Dies setzt allerdings wie gesagt voraus, dass X1 bis Xn unabhängig einer identischen Normalverteilung
folgen.
54 14 ANHANG: NUR FÜR STUDENT(INN)EN NACH DER ALTEN PO

Aufgaben
Aufgabe 20
Für n = 31 Tage wurde die Varianz einer Rendite erwartungstreu durch s2 = 0.2927 geschätzt.

a) Bestimmen Sie ein Kondenzintervall für σ2 zum Niveau 1 − α = 0.95 aufgrund der Stichprobe (bei
unterstellter Normalverteilung).

b) Führen Sie einen zweiseitigen Test auf die Nullhypothese H0 : σ 2 = 0.25 zum Niveau α = 0.05 durch.

c) Führen Sie einen zweiseitigen Test auf die Nullhypothese H0 : σ 2 = 0.25 zum Niveau α = 0.01 durch.

Lösungshinweise: a) KI0.95 =[0.1869; 0.5230] b) nicht ablehnen c) nicht ablehnen

14.10 Varianzanalyse
Die (einfaktorielle) Varianzanalyse7 , oft auch als ANOVA (analysis of variance) bezeichnet, ist die Ver-
allgemeinerung des Zweistichproben-t-Tests für den Mehrstichprobenfall. Im Zusammenhang mit der
Varianzanalyse taucht eine neue Verteilung auf, die sog. F -Verteilung. Die F -Verteilung hängt nicht
nur von einem, sondern sogar von zwei Freiheitsgradparametern ab, siehe Tabelle E enthält Quantile
in Abhängigkeit der Freiheitsgrade. In folgendem Testschema bezeichnet c die Anzahl der unabhängigen
Stichproben, c ≥ 2, vom Umfang ni , i = 1, . . . , c. Die Gesamtzahl aller Beobachtungen wird mit n notiert.
Vorausgesetzt wird genau wie beim 2-Stichproben-t-Test auÿer der Normalverteilung auch die Gleichheit
der Varianzen in allen Stichproben.

Varianzanalyse
Pc
Modell: Xij ∼ N (µi , σi2 ), i = 1, . . . , c und j = 1, . . . , ni , n = i=1 ni ,
Xij unabhängig, σ12 = σ22 = . . . = σc2
Hypothesen: H0 : µ1 = µ2 = . . . = µc gegen
H1 : µi ̸= µj für mindestens ein Paar (i, j), i ̸= j
Pc
SSB = i=1 ni (X i − X)2
1
Pni 1
Pc Pni
mit X i = j=1 Xij und X = n i=1 j=1 Xij
Pnci P ni
SSW = i=1 j=1 (Xij − X i )2
n − c SSB
Teststatistik: F =
c − 1 SSW
Verteilung unter H0 : F ∼ F (c − 1, n − c)
Testentscheidung:
H0 ablehnen, wenn F > F1−α (c − 1, n − c)

In dieser schematischen Darstellung bezeichnet SSW die sum of squares within, d.h. die Quadratsumme
innerhalb der Stichproben. Als nächstes betrachten wir quadrierte Abweichungen der Stichprobenmittel
vom Gesamtmittel (X̄ ), genauer mit den Stichprobenumfängen gewichtet. Da hier quadrierte Abweichun-
gen zwischen (between) den Stichproben aufsummiert werden, verwendet man die Abkürzung SSB für
sum of squares between:
c
X
SSB = ni (X i − X)2 .
i=1
Die Varianzanalyse besteht dann einfach aus einer Evaluation folgender F-Statistik:

1
c−1 SSB n − c SSB
F = 1 = .
n−c SSW
c − 1 SSW
7 Einfaktoriell im Unterschied zu einer hier nicht behandelten mehrfaktoriellen Varianzanalyse.
14.10 Varianzanalyse 55

a
Bei groÿem Stichprobenumfang gilt unter der Nullhypothese approximativ: (c − 1)F ∼ χ2 (c − 1).

Aufgaben
Aufgabe 21
In dieser Aufgabe geht es um den Vergleich von Mieten, allerdings nicht auf der Basis von drei Gruppen.
Das Ziel ist die Klärung der Frage, ob sich die durchschnittlichen Mieten pro m2 für 3-Zimmer-Wohnungen
in drei Städten signikant unterscheiden. Die Zahlenwerte dieser Aufgabe sind sehr einfach gehalten, um
die einzelnen Rechenschritte nachvollziehbar zu machen. Die Mietdaten lauten wie folgt:

Stadt 1 9 8 10

Stadt 2 7 9 8 12 9

Stadt 3 10 13 14 12

Die arithmetischen Mittel und die Wurzeln aus den Stichprobenvarianzen ergeben sich wie folgt: Tabelle:

MIETE

STADT ni xi si
1 3 9.0000 1.0000
2 5 9.0000 1.8708
3 4 12.2500 1.7078

Führen Sie den F -Test zum Niveau α = 0.05 durch.

Lösungshinweise: SSB=28.1667; SSW=24.7493; F=5.1214; H0 ablehnen


Aufgabe 22
In Deutschland, Österreich und in der Schweiz wurde an je 11 zufällig ausgewählten Schulen die Recht-
schreibkompetenz von Viertklässlern untersucht. Es soll die Nullhypothese getestet werden, dass die
Rechtschreibkompetenz in allen drei Ländern im Mittel gleich ist. Die entsprechende Varianzanalyse ba-
siert auf der sum of squares within mit SSW = 56720.17 und auf der sum of squares between mit
SSB = 9066.03. Die Untersuchung wurde so konzipiert, dass von Normalverteilung der Daten ausgegan-
gen werden kann. Welche der folgenden Behauptungen ist dann richtig?

⃝ Der Wert der F -Statistik, der mit der F -Verteilung verglichen wird, beträgt 0.1598.

8 SSB
⃝ Der Wert der F -Statistik, der mit der F -Verteilung verglichen wird, berechnet sich als F = 2 SSW .

⃝ Die Nullhypothese wird bei einer Irrtumswahrscheinlichkeit von 5 % abgelehnt, wenn die F-Statistik
gröÿer als 3.32 ist.

⃝ Die F -Statistik darf näherungsweise mit Quantilen einer χ2 -Verteilung mit 33 Freiheitsgraden vergli-
chen werden.

Lösungshinweise: keine
Aufgabe 23
Aus jährlichen Daten wurden über ni Jahre die Anteile der Ausgaben für Entwicklungshilfe am Brutto-
nationaleinkommen (Xij in %) in 4 Ländern beobachtet (d. h., i = 1, 2, 3, 4). Es ergaben sich folgende
Mittelwerte und Stichprobenvarianzen bei den angegebenen Stichprobenumfängen ni :

i 1 2 3 4

xi 0.5 2.0 3.5 1.0


s2i 0.116 0.166 0.170 0.125
ni 11 13 11 11
56 14 ANHANG: NUR FÜR STUDENT(INN)EN NACH DER ALTEN PO

Wir unterstellen für die Daten Normalverteilung, Unabhängigkeit und identische Varianzen. Führen Sie
eine Varianzanalyse durch zum Signikanzniveau α = 0.05.

a) Berechnen Sie die sum of squares within, SSW .

b) Berechnen Sie das Gesamtmittel, x.

c) Unterstellen Sie nun SSW = 6.1 für die sum of squares within und SSB = 57.9 für die sum of
squares between. Welchen Wert hat dann die F -Statistik?

d) Wie lautet der kritische Wert beim Test auf Gleichheit der mittleren Anteile zum Niveau α = 0.05?

Lösungshinweise: a) 6.102 b) 81/46 c) 132.8852 d) 2.82

14.11 Tests auf Verteilung


14.11.1 Normalverteilung (Schiefe und Kurtosis)
Die Nullhypothese der Normalverteilung H0 : Xi ∼ N (µ, σ 2 ) impliziert

γ1 = 0 und γ2 = 3.

Es ist bequem, mit den geschätzten Schiefe- und Kurtosis-Koezienten aus Abschnitt 4.3.4 folgende
Abkürzungen einzuführen:
√ γ
b1 √ (b
γ2 − 3)
Γ1 = n√ und Γ2 = n √ .
6 24
Der Test ist asymptotisch oder approximativ, denn es gilt mit wachsendem Stichprobenumfang für die
Quadrate:
a a a
Γ21 ∼ χ2 (1) , Γ22 ∼ χ2 (1) und JB = Γ21 + Γ22 ∼ χ2 (2).

In der Ökonometrie wird die Summe der beiden Quadrate (JB ) gern nach den Autoren Jarque und Bera
benannt. Abgelehnt zum Niveau α wird, falls die Prüfgröÿen das entsprechende Quantil χ21−α überschrei-
ten (mit 1 bzw. 2 Freiheitsgraden). Der Test lehnt also für zu groÿe Werte ab.

14.11.2 χ2 -Anpassungstest

Diskrete Verteilungen lassen sich im Rahmen des χ2 -Anpassungstests direkt überprüfen, stetige Variablen
hingegen müssen klassiert werden. In der Klassierung steckt natürlich eine gewisse Willkür, die beim
Testen stetiger Verteilungen Schwierigkeiten mit sich bringt.

Testschema:

χ2 -Anpassungstest
Modell: Xi , i = 1, . . . , n, i.i.d.,
aber keine spez. Verteilungsannahme
(0)
Hypothesen: H0 : P (X = aj ) = pj bzw.
(0)
P (a∗j−1 < X ≤ a∗j ) = pj , j = 1, . . . , k gegen
(0)
H1 : Mindestens eine Wahrscheinlichkeit ist ungleich pj
Pk (nj − ñj ) 2
(0)
Teststatistik: χ2 = j=1 mit ñj = n · pj
ñj
nj = n · H(X = aj ) bzw. nj = n · H(a∗j−1 < X ≤ a∗j )
a
Verteilung unter H0 : χ2 ∼ χ2 (r) mit r = k − 1 − ℓ
H0 ablehnen, wenn χ2 > χ21−α (r)
Bemerkungen: a) ñj ≥ 5 für Approximation, j = 1, . . . , k
b) ℓ ist die Anzahl der geschätzten Parameter
14.11 Tests auf Verteilung 57

Die Prüfgröÿe beruht auf dem Vergleich von tatsächlich beobachteten Häugkeiten nj (siehe Abschnitt
2.2) mit den unter H0 zu erwartenden Häugkeiten. Da diese Abweichungen quadriert werden, führt die
Teststatistik (approximativ) auf eine χ2 -Verteilung mit r Freiheitsgraden.
2
Im Rahmen des χ -Anpassungstests werden überdies zwei Varianten unterschieden:

ˆ vollspezizierte Verteilungen unter der Hypothese H0 (ℓ = 0) und

ˆ Verteilungen mit ℓ unter H0 unbekannten Parametern, die geschätzt werden müssen; in dem Fall
wird mit den Quantilen der χ2 (k − 1 − ℓ)-Verteilung gearbeitet.

Aufgaben
Aufgabe 24
Es werden Renditen an n = 131 aufeinanderfolgenden Tagen beobachtet. Die Schiefe- und Kurtosis-
Koezienten ergeben sich daraus als

b1 = −0.12
γ und γ
b2 = 3.84 .

Es soll die Hypothese der Normalverteilung überprüft werden. Testen Sie dazu die Nullhypothese, dass

a) ... die Schiefe gleich 0 ist (zweiseitig),

b) ... die Kurtosis gleich 3 ist (zweiseitig),

c) ... die Schiefe gleich 0 ist und die Kurtosis gleich 3 ist.

Welche Nullhypothese können Sie zum Niveau α = 0.05 verwerfen?

Lösungshinweise: a) nein b) ja c) nein


Aufgabe 25
Ein Lotteriebetreiber behauptet, dass seine Lose zu 90% Gewinne (1) brächten und nur 10% Nieten (0)
seien. Über die Höhe der Gewinne in Bezug auf den Einsatz ist damit natürlich noch nichts gesagt. Zur
Überprüfung dieser Aussage wurden n = 200 Lose gezogen, von denen 30 Nieten waren.

a) Formulieren Sie die Hypothesen.

b) Testen Sie die Behauptung des Herstellers zu den Niveaus α = 0.10, α = 0.05 und α = 0.01.
Lösungshinweise: a) H0 : P(X=1)=0.9 H1 : P(X=1)̸=0.9 b) χ2 = 5.5̄; χ2 > χ20.9 (1) → H0 ablehnen;
χ2 > χ20.95 (1) → H0 ablehnen; χ2 < χ20.99 (1) → H0 nicht ablehnen
Aufgabe 26
Es soll untersucht werden, ob die Anzahl der Einsätze X pro Stunde der Feuerwehr einer Frankfurter
Wache einer Poisson-Verteilung folgen. Die folgende Häugkeitstabelle enthält die Anzahl der Einsätze
für alle Stunden eines Monats.

aj X=0 X=1 X=2 X=3 X≥4 n


nj 328 269 110 30 7 744

Testen Sie die Hypothese zum Niveau α = 0.05 auf Basis dieser Tabelle für

a) λ=1 bzw.

b) λ unbekannt.

Lösungshinweise: a) χ2 =25.06; χ20.95 (4)=9.488 → H0 ablehnen b) λb = x = 0.8159; χ2 =0.0147;


χ20.95 (3)=7.816 → H0 nicht ablehnen
58 14 ANHANG: NUR FÜR STUDENT(INN)EN NACH DER ALTEN PO

Aufgabe 27
Aus einer Stichprobe von 125 Renditebeobachtungen wurde das Schiefemaÿ wie folgt geschätzt:

γ
b1 = 0.767 .

Testen Sie die Nullhypothese H0 : γ1 = 0 zum 5%-Niveau aufgrund einer χ2 -Verteilung.

a) Berechnen Sie die Prüfgröÿe, Γ21 .

b) Wie lautet der kritische Wert zum Niveau α = 0.05?


Lösungshinweise: a) 12.256 b) 3.841
14.11 Tests auf Verteilung 59

Tabelle E: Quantile der F -Verteilung


F ∼ F (r, ν): Die Tabelle enthält Quantile Fp (r, ν) der F -Vtlg. mit r und ν Freiheitsgraden.

p = 0.95 r
ν 1 2 3 4 5 6 7 8 9 10

1 161.45 199.50 215.71 224.58 230.16 233.99 236.77 238.88 240.54 241.88
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40
3 10.13 9.55 9.28 9.14 9.04 8.97 8.92 8.88 8.84 8.82
4 7.71 6.94 6.59 6.39 6.26 6.17 6.10 6.05 6.01 5.97
5 6.61 5.79 5.40 5.19 5.05 4.95 4.88 4.82 4.77 4.74

6 5.99 5.14 4.75 4.53 4.39 4.28 4.21 4.15 4.10 4.06
7 5.59 4.74 4.34 4.12 3.97 3.87 3.79 3.73 3.68 3.64
8 5.32 4.46 4.06 3.84 3.69 3.58 3.50 3.44 3.39 3.35
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14
10 4.96 4.10 3.70 3.48 3.33 3.22 3.14 3.07 3.02 2.98

11 4.84 3.98 3.58 3.35 3.20 3.09 3.01 2.95 2.90 2.85
12 4.75 3.89 3.48 3.26 3.11 3.00 2.91 2.85 2.80 2.75
13 4.67 3.81 3.40 3.18 3.02 2.91 2.83 2.77 2.71 2.67
14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60
15 4.54 3.68 3.28 3.05 2.90 2.79 2.71 2.64 2.59 2.54

16 4.49 3.63 3.23 3.01 2.85 2.74 2.66 2.59 2.54 2.49
17 4.45 3.59 3.19 2.96 2.81 2.70 2.61 2.55 2.49 2.45
18 4.41 3.55 3.15 2.93 2.77 2.66 2.58 2.51 2.46 2.41
19 4.38 3.52 3.12 2.89 2.74 2.63 2.54 2.48 2.42 2.38
20 4.35 3.49 3.09 2.86 2.71 2.60 2.51 2.45 2.39 2.35

21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32
22 4.30 3.44 3.04 2.82 2.66 2.55 2.46 2.40 2.34 2.30
23 4.28 3.42 3.02 2.79 2.64 2.53 2.44 2.37 2.32 2.27
24 4.26 3.40 3.00 2.77 2.62 2.51 2.42 2.35 2.30 2.25
25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24

26 4.23 3.37 2.97 2.74 2.59 2.47 2.39 2.32 2.27 2.22
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.20
28 4.20 3.34 2.94 2.71 2.56 2.44 2.36 2.29 2.24 2.19
29 4.18 3.33 2.93 2.70 2.54 2.43 2.35 2.28 2.22 2.18
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16

35 4.12 3.27 2.87 2.64 2.48 2.37 2.29 2.22 2.16 2.11
40 4.08 3.23 2.83 2.60 2.45 2.34 2.25 2.18 2.12 2.08
45 4.06 3.20 2.81 2.58 2.42 2.31 2.22 2.15 2.10 2.05
50 4.03 3.18 2.79 2.56 2.40 2.29 2.20 2.13 2.07 2.03
55 4.02 3.16 2.77 2.54 2.38 2.27 2.18 2.11 2.06 2.01
60 4.00 3.15 2.75 2.52 2.37 2.25 2.17 2.10 2.04 1.99

65 3.99 3.14 2.74 2.51 2.36 2.24 2.15 2.08 2.03 1.98
70 3.98 3.13 2.73 2.50 2.35 2.23 2.14 2.07 2.02 1.97
75 3.97 3.12 2.72 2.49 2.34 2.22 2.13 2.06 2.01 1.96
80 3.96 3.11 2.71 2.48 2.33 2.21 2.13 2.06 2.00 1.95
85 3.95 3.10 2.71 2.48 2.32 2.21 2.12 2.05 1.99 1.94
90 3.95 3.10 2.70 2.47 2.32 2.20 2.11 2.04 1.99 1.94
95 3.94 3.09 2.70 2.47 2.31 2.20 2.11 2.04 1.98 1.93
100 3.94 3.09 2.69 2.46 2.30 2.19 2.10 2.03 1.97 1.93
60 14 ANHANG: NUR FÜR STUDENT(INN)EN NACH DER ALTEN PO

Tabelle E: Quantile der F -Verteilung

p = 0.975 r
ν 1 2 3 4 5 6 7 8 9 10

1 647.79 799.50 864.16 899.58 921.85 937.11 948.22 956.66 963.28 968.63
2 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37 39.39 39.40
3 17.44 16.04 15.44 15.18 14.98 14.83 14.72 14.64 14.57 14.52
4 12.22 10.65 9.97 9.60 9.38 9.21 9.09 9.00 8.92 8.86
5 10.01 8.43 7.74 7.39 7.15 6.98 6.86 6.76 6.69 6.62

6 8.81 7.26 6.58 6.22 5.99 5.82 5.70 5.60 5.53 5.46
7 8.07 6.54 5.87 5.52 5.28 5.12 4.99 4.90 4.82 4.76
8 7.57 6.06 5.40 5.05 4.82 4.65 4.53 4.43 4.36 4.30
9 7.21 5.71 5.06 4.71 4.48 4.32 4.20 4.10 4.03 3.96
10 6.94 5.46 4.81 4.46 4.23 4.07 3.95 3.85 3.78 3.72

11 6.72 5.26 4.62 4.27 4.04 3.88 3.76 3.66 3.59 3.53
12 6.55 5.10 4.46 4.12 3.89 3.73 3.61 3.51 3.44 3.37
13 6.41 4.97 4.33 3.99 3.77 3.60 3.48 3.39 3.31 3.25
14 6.30 4.86 4.23 3.89 3.66 3.50 3.38 3.29 3.21 3.15
15 6.20 4.77 4.14 3.80 3.57 3.41 3.29 3.20 3.12 3.06

16 6.12 4.69 4.06 3.73 3.50 3.34 3.22 3.12 3.05 2.99
17 6.04 4.62 4.00 3.66 3.44 3.28 3.16 3.06 2.98 2.92
18 5.98 4.56 3.94 3.60 3.38 3.22 3.10 3.01 2.93 2.87
19 5.92 4.51 3.89 3.56 3.33 3.17 3.05 2.96 2.88 2.82
20 5.87 4.46 3.85 3.51 3.29 3.13 3.01 2.91 2.84 2.77

21 5.83 4.42 3.81 3.47 3.25 3.09 2.97 2.87 2.80 2.73
22 5.79 4.38 3.77 3.44 3.21 3.05 2.93 2.84 2.76 2.70
23 5.75 4.35 3.74 3.40 3.18 3.02 2.90 2.81 2.73 2.67
24 5.72 4.32 3.71 3.38 3.15 2.99 2.87 2.78 2.70 2.64
25 5.69 4.29 3.68 3.35 3.13 2.97 2.85 2.75 2.68 2.61

26 5.66 4.27 3.66 3.33 3.10 2.94 2.82 2.73 2.65 2.59
27 5.63 4.24 3.64 3.30 3.08 2.92 2.80 2.71 2.63 2.57
28 5.61 4.22 3.62 3.28 3.06 2.90 2.78 2.69 2.61 2.55
29 5.59 4.20 3.60 3.26 3.04 2.88 2.76 2.67 2.59 2.53
30 5.57 4.18 3.58 3.25 3.03 2.87 2.75 2.65 2.57 2.51

35 5.48 4.11 3.51 3.18 2.95 2.80 2.68 2.58 2.50 2.44
40 5.42 4.05 3.45 3.12 2.90 2.74 2.62 2.53 2.45 2.39
45 5.38 4.01 3.41 3.08 2.86 2.70 2.58 2.49 2.41 2.35
50 5.34 3.97 3.38 3.05 2.83 2.67 2.55 2.46 2.38 2.32
55 5.31 3.95 3.36 3.03 2.81 2.65 2.53 2.43 2.36 2.29
60 5.29 3.93 3.33 3.00 2.79 2.63 2.51 2.41 2.33 2.27

65 5.26 3.91 3.32 2.99 2.77 2.61 2.49 2.39 2.32 2.25
70 5.25 3.89 3.30 2.97 2.75 2.59 2.47 2.38 2.30 2.24
75 5.23 3.88 3.29 2.96 2.74 2.58 2.46 2.37 2.29 2.22
80 5.22 3.86 3.28 2.95 2.73 2.57 2.45 2.35 2.28 2.21
85 5.21 3.85 3.27 2.94 2.72 2.56 2.44 2.34 2.27 2.20
90 5.20 3.84 3.26 2.93 2.71 2.55 2.43 2.34 2.26 2.19
95 5.19 3.84 3.25 2.92 2.70 2.54 2.42 2.33 2.25 2.19
100 5.18 3.83 3.24 2.91 2.70 2.54 2.42 2.32 2.24 2.18

Das könnte Ihnen auch gefallen