0% fanden dieses Dokument nützlich (0 Abstimmungen)
41 Ansichten14 Seiten

CG Handbuch

Hochgeladen von

nicolajedu
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
41 Ansichten14 Seiten

CG Handbuch

Hochgeladen von

nicolajedu
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Handbuch zur Corporate Governance Vorlesung

zuletzt aktualisiert am 14. Oktober 2019

Das Handbuch enthält neben einer kurzen Übersicht der mathematischen Grundlagen auch

Parameterlisten der behandelten Modelle. Das Dokument wird nach Bedarf ergänzt.

Fehler und Anmerkungen bitte per E-Mail an [Link]@[Link]

1 Mathematische Grundlagen

1.1 Kombinatorik
Anzahl der Ergebnisse

Wenn k Experimente durchgeführt werden, wobei jedes ni mit i = 1, 2, ..., k mögliche Ergebnisse hat,
k
Y
dann gibt es insgesamt ni = n1 · n2 · · · nk mögliche Ergebnisse der k Experimente.
i=1

Permutationen

Eine Permutation ist eine Anordnung von Elementen in einer bestimmten Reihenfolge. Oftmals stellt

sich die Frage, wie viele unterschiedliche Permutationen einer Menge an Elementen möglich sind. Für n

Elemente ist die Anzahl der möglichen Permutationen gegeben durch:

n! = n · (n − 1) · (n − 2) · · · 3 · 2 · 1 Per Denition gilt: 0! = 1

Variationen

Sollen in bestimmter Reihenfolge Gruppen mit k Elementen ohne Wiederholung aus einer Menge von n

Elementen mit k≤n gebildet werden, so ist die Zahl der möglichen Variationen gegeben durch:

n!
= n · (n − 1) · (n − 2) · · · (n − k + 1)
(n − k)!

Kombinationen

Sollen in beliebiger Reihenfolge Gruppen mit k Elementen ohne Wiederholung aus einer Menge von n

Elementen mitk ≤ n gebildet werden, so ist die Zahl der möglichen Kombinationen gegeben durch:
 
n n! 1 n!
= · =
k (n − k)! k! (n − k)! k!

 
n
Aufgrund ihres Auftretens als Koezienten im binomischen Lehrsatz, bezeichnet man als
k
Binomialkoezienten:

1
n  
" 2  
#
X n X 2
(x + y)n = xk y n−k für n=2 ⇒ (x + y)2 = xk y 2−k = x2 + 2xy + y 2
k k
k=0 k=0

1.2 Wahrscheinlichkeiten
Zufallsexperiment

Ausgangspunkt ist ein Zufallsexperiment mit folgenden Konventionen:

ω bezeichnet sich gegenseitig ausschlieÿende, mögliche Ergebnisse

Ω ist die Menge aller möglichen Ergebnisse, genannt Ergebnisraum

A ist ein Ereignis, eine Sammlung von Ergebnissen, also eine Teilmenge von Ω

AC Komplementärereignis zu A

P (A) ist ein Wahrscheinlichkeitsmaÿ, das einem Ereignis eine Wahrscheinlichkeit zuordnet

Zufallsvariablen

Eine Zufallsvariable X ist eine numerische Zusammenfassung eines zufälligen Ergebnisses und ordnet

jedem Ergebnis ω∈Ω eine reelle Zahl zu: X(ω) = x. x bezeichnet man als Realisation.

Zufallsvariablen können grundsätzlich diskret oder kontinuierlich sein.

Verteilungsfunktion

Die (kumulative) Verteilungsfunktion FX (x) gibt die Wahrscheinlichkeit an, mit der eine Zufallsvariable

einen Wert kleiner oder gleich eines bestimmten Wertes x annimmt:

FX (x) = P (X ≤ x) = P ({ω|X(ω) ≤ x})

Es gelten lim FX (x) = 0 und lim FX (x) = 1 und P ((a, b]) = FX (b) − FX (a)
x→−∞ x→+∞

Wahrscheinlichkeitsfunktion

Die Wahrscheinlichkeitsfunktion FX (x) einer diskreten Zufallsvariable ist die Liste aller möglichen Werte

x1 , x2 , ... der Zufallsvariablen und ihrer jeweiligen Eintrittswahrscheinlichkeit.


X
P (X = xi ) = pi , i = 1, 2, ... mit 0 ≤ pi ≤ 1 und pi = 1
i

Daraus ergibt sich eine Stufen-Verteilungsfunktion mit:


X
FX (xi ) = P (X ≤ xi ) = P (X = xt )
xt ≤xi

2
Dichtefunktion

Die Dichtefunktion fX (x) gibt die Wahrscheinlichkeiten einer kontinuierlichen Zufallsvariable an. Sie ist

so deniert, dass die Fläche unter der Dichtefunktion zwischen beliebigen Punkten a und b mit a<b der

Wahrscheinlichkeit entspricht, mit der die Zufallsvariable zwischen die beiden Punkte fällt.
Z b Z x
P (a < X ≤ b) = fX (x) dx und FX (x) = P (X ≤ x) = fX (u) du
a −∞
Z +∞
fX (x) ist eine Dichtefunktion genau dann, wenn fX (x) ≥ 0, ∀x and fX (x) dx = 1
−∞

Normalverteilung

Eine kontinuierliche Zufallsvariable X mit der Wahrscheinlichkeitsdichte f : R → R, gegeben durch

1 1 x−µ 2
f (x) = √ e− 2 ( σ )
σ 2π
bezeichnet man als normalverteilt mit Erwartungswert µ und Varianz σ2 .

Die übliche Notation ist X ∼ N (µ, σ 2 ).

Sind der Erwartungswert µ=0 und die Varianz σ 2 = 1, so spricht man von einer Standardnormalvertei-

lung.

Bedingte Wahrscheinlichkeit

Die bedingte Wahrscheinlichkeit P (A|B) gibt die Eintrittswahrscheinlichkeit eines Ereignisses A unter

der Bedingung an, dass das Eintreten eines anderen Ereignisses B bereits bekannt ist. Die bedingte Wahr-

P (B) > 0 ist deniert als:


scheinlichkeit mit

P (A ∩ B)
P (A|B) = und es ergibt sich durch Umformung P (A ∩ B) = P (A|B) · P (B).
P (B)

Nach dem Satz von Bayes lässt sich P (A|B) auch mithilfe von P (B|A) ermitteln:
P (B|A) · P (A)
P (A|B) =
P (B)

Im Falle stochastischer Unabhängigkeit von A und B gilt:

P (A)P (B)
P (A ∩ B) = P (A) · P (B) und es folgt P (A|B) = = P (A)
P (B)

1.3 Erwartungswert
Intuitiv ist der Erwartungswert der Durchschnittswert der Zufallsvariablen über sehr lange Zeit und sehr

viele Wiederholungen. Generell wird er geschrieben als µX = E(X) und oftmals abgekürzt als EW. Der

Erwartungswert ist für Zufallsvariablen und beliebige Funktionen von Zufallsvariablen (also auch Nut-

zenfunktionen!) wie folgt deniert:

3
diskrete Zufallsvariable kontinuierliche Zufallsvariable
X Z +∞
E(X) = xi · P (X = xi ) E(X) = x · fX (x) dx
i −∞
X Z +∞
E(g(X)) = g(xi )P (X = xi ) E(g(X)) = g(x)fX (x) dx
i −∞

Weiterhin gilt für zwei Zufallsvariablen X, Y sowie a, b ∈ R E(aX + bY ) = aE(X) + bE(Y )

Nach der Jensenschen Ungleichung gilt für Funktionen g:


g(E(X)) ≤ E(g(X)), wenn g konvex und g(E(X)) ≥ E(g(X)), wenn g konkav

1.4 Varianz, Standardabweichung, Kovarianz, Korrelation


Varianz

Die Varianz ist ein Maÿ der Streuung einer Wahrscheinlichkeitsverteilung. Konkret gibt sie die erwartete

quadratische Abweichung der Zufallsvariablen von ihrem Erwartungswert an. Generell wird die Varianz

2
geschrieben als σX = Var(X).

diskrete
X
Für Zufallsvariablen gilt: Var(X) = E((X − µX )2 ) = (xi − µX )2 P (X = xi )
i
Z +∞
Für kontinuierliche Zufallsvariablen gilt: Var(X) = (x − µX )2 · fX (x) dx
−∞

Generell gilt: Var(X) = E(X 2 ) − (E(X))2 (erleichtert oft die Berechnung!)

Für zwei Zufallsvariablen X, Y sowie a, b ∈ R gilt:

Var(a + bX) = b2 Var(X)

Var(aX + bY ) = a2 Var(X) + b2 Var(Y ) + 2abCov(X, Y )

Falls X und Y zusätzlich linear unabhängig sind: Var(X + Y ) = Var(X) + Var(Y )

Standardabweichung
q p
Die Standardabweichung ist die Quadratwurzel aus der Varianz: σX = 2 =
σX Var(X)

Kovarianz

Die Kovarianz gibt den monotonen Zusammenhang zweier Zufallsvariablen X, Y mit gemeinsamer Wahr-

scheinlichkeitsverteilung an.

4
σX,Y = Cov(X, Y ) = E((X − µX )(Y − µY ))

Es gelten mit Zufallsvariablen X, Y und a, b, c, d ∈ R:

Cov(a + bX, c + dY ) = bdCov(X, Y )

Cov(X, Y ) = E(XY ) − E(X)E(Y )

X, Y statistisch unabhängig ⇒ Cov(X, Y ) = 0

Korrelation

Die (Pearson-)Korrelation ist ein Maÿ für den linearen Zusammenhang zweier Zufallsvariablen.

σXY
ρXY = Corr(X, Y ) =
σX σY

Es gelten:

−1 ≤ Corr(X, Y ) ≤ 1

X, Y statistisch unabhängig ⇒ Corr(X, Y ) = 0

Cov(X, Y ) = 0 ⇒ Corr(X, Y ) = 0 6⇒ X, Y statistisch unabhängig

1.5 Exponentialfunktionen, Logarithmen


Exponentialfunktion

Für n ∈ N, x ∈ R:
h x in
ex = exp(x) = lim 1 + (für x = 1 ⇒ e ≈ 2.71828)
n→∞ n

Es gelten für x, y, a, b ∈ R mit a > 0:


x b bx
(e ) =e

ex+y = ex · ey

ex−y = ex /ey
x
ax = eln a = ex ln a

Logarithmen

Logarithmieren ist die Umkehroperation des Potenzierens und ist nur für reelle, positive Argumente x∈R

mit x>0 deniert. Logarithmen lösen Gleichungen der Form: ax = b ⇔ x = loga b

5
Es gelten:

ln x = loge x

log (x · y) = log x + log y

log (x/y) = log x − log y

log xa = a log x

1.6 Dierentialrechnung
Ableitungen

Die Ableitung einer Funktion an einer Stelle x0 gibt die Steigung der Funktion an der Stelle x0 an.

df
Man schreibt die erste Ableitung einer Funktion f (x) nach x üblicherweise als f 0 (x), f (1) (x) oder .
dx
d2 f
Mehrfache Ableitungen werden notiert als f 00 (x), f (2) (x) oder .
dx2

Wird eine Funktion mehrerer Argumente f (x, y) abgeleitet, spricht man von partiellen Ableitungen.

∂f ∂f
Diese werden notiert als bzw. .
∂x ∂y
∂2f ∂2f ∂2f
Mehrfache partielle Ableitungen schreibt man als , und .
∂x2 ∂y 2 ∂x∂y

6
Wichtige Ableitungen

Stammfunktion f (x) 1. Ableitung f 0 (x)

a 0 (Konstante)

u(x) ± v(x) u0 (x) ± v 0 (x) (Summenregel)

a · u(x) a · u0 (x) (Faktorregel)

xn nxn−1 (Potenzregel)

u(x) · v(x) u0 (x) · v(x) + u(x) · v 0 (x) (Produktregel)

u(x) u0 (x) · v(x) − u(x) · v 0 (x)


(Quotientenregel)
v(x) (v(x))2
du dv
u(v(x)) [= (u ◦ v)(x)] · = u0 (v(x)) · v 0 (x) (Kettenregel)
dv dx
1
ln x
x
1 1
− 2
x x
√ 1 1 1 1
x = x2 √ = x− 2
2 x 2
1
loga x
x ln a
ex ex

ax ln(a) · ax

a−x − ln(a) · ax

1.7 Reihen
Eine Reihe ist die Summe der Elemente einer Folge. Endliche Folgen besitzen klar denierte erste und

letzte Elemente, unendliche Folgen hingegen nicht. In der Vorlesung treten hauptsächlich die beiden

folgenden, endlichen und unendlichen Reihen auf (i ∈ N).

Endliche Reihe
n
X 1 1 1 1 1 1 1 1
i
= + 2
+ 3
+ ... + n
= −
i=1
(1 + r) 1 + r (1 + r) (1 + r) (1 + r) r r (1 + r)n

Unendliche Reihe

X 1 1 1 1 1
i
= + 2
+ 3
+ ... =
i=1
(1 + r) 1 + r (1 + r) (1 + r) r

7
2 Übersicht der Modellparameter

2.1 Allgemein
EU Erwartungsnutzen, Expected Utility

RP Risikoprämie

SÄ Sicherheitsäquivalent

2.2 Prinzipal-Agenten Grundmodell (Risikoneutralität)


A, P Agent, Prinzipal

b Bonus (high / low), zugehörig zum Leistungsergebnis: b ∈ {bH , bL }

bH ≥ 0 wenn π = πH und bL ≥ 0 wenn π = πL

c(ei ) Arbeitsleid in Abhängigkeit vom Anstrengungsniveau gemessen in Geldeinheiten (costs).

e Anstregnungsniveau (eort level, high/low), von P nicht beobachtbar. e ∈ {eH , eL } , eH > eL

p, q Eintrittswahrscheinlichkeiten:

p = P rob(πH |eH ), 1 − p = P rob(πL |eH ),

q = P rob(πH |eL ), 1 − q = P rob(πL |eL ).

π Leistungsergebnis (prot, high/low), von P beobachtbar und kontrahierbar: π ∈ {πH , πL }, πH > πL

u Beste Alternative zum angebotenen Vertrag / Reservationswert

2.3 LEN Modell (Prinzipal-Agenten Modell mit Risikoaversion)


α erfolgsunabhängige Entlohnung

β Beteiligungsbonus

c(e) Arbeitsleid des Agenten

δ Nutzenfunktion des Prinzipals (linear): δ = π − w(π)

e Eort, später in Abhängigkeit von α und β deniert als: e = f (α, β)

π Prot, beobachtbar und kontrahierbar. Produktionsfunktion des Agenten: π =e+θ

r Arrow-Pratt Maÿ der (absoluten) Risikoaversion: r = −u00 /u0

θ Zufallseinuss/Messfehler, normalverteilt: θ mit E(θ) = 0, Var(θ) = σ2

u(e) Nutzenfuntion des Agenten (Expo-CARA): u(e) = 1 − exp(−r(w(π) − c(e)))

v Bestes alternatives Vermögen des Agenten

w(π) Lineares Entlohnungsschema (aus Sicht des Prinzipals: Lohnkosten): w(π) = α + βπ mit β ∈ [0, 1]

8
2.4 Teamproduktion
a Produktivitätsparameter a>0

c(eh ) Arbeitsleid der Teammitglieder mit h ∈ {i, j}.

ei , e j Eort der Teammitglieder i, j , nicht verizierbar oder nicht kontrahierbar

k Parameter des Arbeitsleids k > 0, enthalten in c(eh )

R(ei , ej ) Teamergebnis, verizierbar, in Abhängigkeit vom Eort der Mitglieder: R(ei , ej ) = a · ei ej

W (e) Wohlfahrt, abhängig vom Eort im Gleichgewicht bzw. im Pareto-Optimum e ∈ {e∗ , eP }

2.5 Peter Principle


A Erste Komponente des Talents, geschrieben: A ∼ f (A), konstant über die Zeit

a, b Produktivitätsparameter im leichten Job L

c, d Produktivitätsparameter im schwierigen Job S. Es gilt: a > c, d > b.

εi Zweite Komponente des Talents je Periode i, veränderlich über die Zeit, unabhängig

und identisch verteilt (iid) mit Dichtefuntion g(ε), E(ε) = 0, Störterm

2.6 Teilungslösung bei betriebsspezischem Humankapital


wt Lohn des Arbeitnehmers in Periode t, (t = 1, 2), kontrahierbar

wA Alternativlohn des Arbeitnehmers in der nächstbesten Arbeitsbeziehung

W GP Wertgrenzprodukt (= Grenzproduktivität des Produktionsfaktors · Output-Preis)

9
2.7 Ezienzlöhne
b Geldwert des ersparten Arbeitsleids bei unentdecktem shirking , b>0

p Wahrscheinlichkeit mit der shirking / das Nichterbringen der Leistung aufgedeckt wird

r Zinssatz zur Diskontierung

we , wt Ezienzlohn in Periode t (t = 1, 2)

wt,A Alternativlohn des Agenten in Periode t

wGG Gleichgewichtslohn

2.8 Leistungsturniere
Allgemein

A, P Agent, Prinzipal

c(eh ) Arbeitsleid des Agenten h, (h = i, j)

k Parameter des Arbeitsleids k > 0, enthalten in c(eh )

eh Anstregnung (eort) des Agenten h, (h = i, j), von P nicht beobachtbar. eh ∈ (0, 1)

entspricht hier auch den Eintritswahrscheinlichkeiten für hohen Prot

e∗FB First-Best Anstrengung (symmetrisch) der Agenten

π Leistungsergebnis (prot, high/low), beobachtbar, nicht kontrahierbar: π ∈ {πH , πL }, πH > πL

v Reservationswert

US-Variante
e∗US Optimale Anstrengung (symmetrisch) der Agenten im US-Turnier in Abhängigkeit von w1 , w2

w1 Lohn bei Beförderung (Gewinnerpreis)

w2 bisheriger Lohn (Verliererpreis), w2 < w1

∆w Turnierpreisdierenz, ∆w = w1 − w2

ZFP Zielfunktion des Prinzipals, optimiert wird ∆w (bestimmt durch w1 , w2 ),

P antizipiert die Wahl von e∗US der Agenten

Japan-Variante

e∗JAP Optimale Anstrengung (symmetrisch) der Agenten im Japan-Turnier in Abhängigkeit von w

w Kollektive Lohnsumme

ZFP Zielfunktion des Prinzipals, optimiert wird w, P antizipiert die Wahl von e∗JAP der Agenten

10
Erweiterung um Sabotage

c+ (eh+ ), Kosten durch Anstrengung auf den eigenen Projekterfolg (+)

c− (eh− ) bzw. durch Sabotage (-)

eh+ , eh− Anstrengung des Agenten h (h = i, j) auf den eigenen Projekterfolg (+) bzw. auf Sabotage (-)

γ Eektivitätsparameter der Sabotageaktivität, γ>0

k+ , k− Parameter des Arbeitsleids, k+ , k− > 0

2.9 Delegation
α Entlohnungsxum / sichere Lohnkomponente

β Erfolgsprämiensatz / Parameter der Erfolgsbeteiligung

bi beabsichtigter, prognostizierter Erfolg / Gebot in der Auktion

δ Nettoergebnis des Prinzipals

ei Arbeitseinsatz des i

k Parameter zum Ausdruck der gegenseitigen Beeinussubg der beiden Aufgaben, k>0

µ Erwartungswert (Teil des Sicherheitsäquivalents)

π Prot / realisierter Erfolg

r Arrow-Pratt Maÿ der (absoluten) Risikoaversion

σ2 Varianz (Teil des Sicherheitsäquivalents)

ti Talent des i

u(ei ) Nutzenfunktion in Abhängigkeit individuellen des Arbeitseinsatzes ei

v Reservationswert

wi Lohn des i

W Gesamtwohlfahrt

θi exogener Zufallseinuss

11
2.10 Interne Allokation zentraler Ressourcen
Allgemein

α Entlohnungsxum

εi Störterm mit Erwartungswert 0, Teil der Erfolgsfunktion.

q zentrales Budget

q̂ = (q̂1 , q̂2 ) Ressourcenallokation mit q̂1 + q̂2 ≤ q

πi (q̂) Erfolgsfunktion von Division i in Abhängigkeit der Ressourcen, beeinusst durch Störterm εi ,

beobachtbar und kontrahierbar

π i (q̂) tatsächlicher Erfolg in Abhängigkeit der Ressourcen, ohne Störterm

Gewinnteilung (Prot Sharing)


1
β Erfolgsprämiensatz mit 0<β≤ , bezogen auf den realisierten Erfolg
2
wi (π1 , π2 ) Entlohnungsfunktion für Divisionsmanager i in Abhängigkeit des Erfolgs der Divisionen 1 und 2

Groves-Loeb-Mechanismus
1
β Erfolgsprämiensatz mit 0<β≤ bezogen auf den realisierten Erfolg von i
2
mi (q̂) Gemeldete Erfolgsfunktion von Division i

wi (πi , mj ) Entlohnungsfunktion für Divisionsmanager i in Abhängigkeit seines Divisionserfolgs und

der Meldung der anderen Division

Auktionen
bi Gebot des Divisionsmanagers i für einen Preis pro zentraler Ressourceneinheit

β Erfolgsprämiensatz

wi (πi , bi ) Entlohnungsfunktion für Divisionsmanager i in Abhängigkeit seines Divisionserfolgs und

des eigenen Gebots

12
2.11 Kontraproduktive Aktivitäten
Erweiterung des LEN-Modells um ein ungenaues Signal für den Prinzipal

α erfolgsunabhängiges Lohnxum

β Faktor der Beteiligung am Erfolg π

c(e) Arbeitsleid des Agenten

δ Nutzenfunktion des Prinzipals

e Arbeitseinsatz des Agenten, auch ausgedrückt als e = f (α, β, γ)

ε Zufallseinuss auf das Signal des Prinzipals, normalverteilt mit E[ε] = 0, V ar[ε] = σε2

γ Faktor des riskanten Leistungsbonuses

π Produktionsfunktion des Agenten, π =e+θ

r Arrow-Pratt Maÿ der (absoluten) Risikoaversion, Teil der CARA Nutzenfunktion

θ Zufallseinuss / Messfehler, normalverteilt mit E[θ] = 0, V ar[θ] = σθ2

u(e) Nutzenfunktion des Agenten

v bestes alternatives Vermögen des Agenten

w(π, z) lineares Entlohnungsschema, w(π, z) = α + βπ + γz

z ungenaues Signal des Einsatzes des Agenten, empfangen durch den Prinzipal, z =e+ε

Zusätzliche Erweiterung des LEN-Modells um eine weitere Tätigkeit

ei Arbeitseinsatz des Agenten auf Tätigkeit i

z ungenaues Signal des Einsatzes des A für Tätigkeit 1, empfangen durch den P, z = e1 + ε

2.12 Innerbetrieblicher Leistungsaustausch


A, N Anbieter, Nachfrager

BEi Bereichsergebnis des i ∈ {A, N }

BGi Bemessungsgrundlage des i ∈ {A, N }

ci (z) Kostenfunktion des i ∈ {A, N } mit ci 0 (z) > 0, ci 00 (z) > 0

p Marktpreis

r interner Verrechnungspreis

x Menge des Anbieters, übliche Annahme: x=y

y Menge des Nachfragers

13
2.13 Horizontale Kollusion
α Payo im Falle (eN ash , eKoll )

β Payo für (eKoll , eKoll )

δ Payo für (eKoll , eN ash )

γ Payo für (eN ash , eN ash )

ei Arbeitseinsatz des Teilnehmers in Situation i ∈ {N ash, Koll(usion)}

r Zinssatz

t Zeitperiode

w Gewinnerpreis

2.14 Existenz von Aktiengesellschaften


A Kapital des Unternehmers (limited liability)

B geldwerter Nutzen, z.B. aus Freizeit, anderen Projekten, etc.

γ Kosten für den Manager

I Investitionskapital

p Entscheidungsvariable des Unternehmens, p ∈ {pL , pH }

R riskanter Auszahlungsbetrag

τ Änderung der Erfolgswahrscheinlichkeit durch Änderung der bisherigen Unternehmenspolitik,

τ >0

w Mangerlohn im Erfolgsfall

14

Das könnte Ihnen auch gefallen