Calculo Estocastico PDF
Calculo Estocastico PDF
David Nualart
Universitat de Barcelona
1
1 Probabilidades y procesos estocásticos
1.1 Conceptos básicos del cálculo de probabilidades
Recordemos en primer lugar algunas definiciones generales del cálculo de
probabilidades.
Un espacio de probabilidad es una terna (Ω, F, P ) formada por:
P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅
P (Ac ) = 1 − P (A)
A ⊂ B =⇒ P (A) ≤ P (B).
2
Ejemplo 1 Lanzamos un dado.
Ω = {1, 2, 3, 4, 5, 6}
F = P(Ω) (F contiene todos los subconjuntos de Ω)
1
P ({ω i }) = , para i = 1, . . . , 6
6
3
• Una variable aleatoria determina una σ-álgebra {X −1 (B), B ∈ BR } ⊂
F que se denomina la σ-álgebra generada por X.
4
• La función FX : R →[0, 1] es creciente, continua por la derecha y con
lı́mites iguales a cero en −∞ y 1 en +∞.
Z ∞ ½ R∞
g(x)fX (x)dx, fX (x) es la densidad de X
g(x)dPX (x) = P −∞
−∞ k g(xk )P (X = xk ), X variable discreta
5
Ejemplo 6 Si X es una variable aleatoria con ley normal N (0, σ 2 ) y λ es un
número real,
Z ∞
1 x2
E(exp (λX)) = √ eλx e− 2σ2 dx
2πσ 2 −∞ Z
∞
1 σ 2 λ2 (x−σ 2 λ)2
= √ e 2 e− 2σ2 dx
2πσ 2 −∞
σ 2 λ2
= e 2 .
Es decir, los elementos de la diagonal de esta matriz son las varianzas de las
variables Xj y fuera de la diagonal encontramos las covarianzas entre dos
variables Xi y Xj .
6
Como en el caso de variables aleatorias se introduce la ley o distribución
de un vector aleatorio n-dimensional X como la probabilidad definida en la
σ-álgebra de Borel BRn por
P (ai ≤ Xi ≤ bi , i = 1, . . . , n)
Z bn Z b1
n 1 Pn −1
= ··· (2π det Γ)− 2 e− 2 i,j=1 (xi −mi )(xj −mj )Γij dx1 · · · dxn .
an a1
7
Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p ) < ∞.
En tal caso, se define el momento de orden p de la variable aleatoria X como
mp = E(X p ).
• Desigualdad de Hölder:
1 1
E(XY ) ≤ [E(|X|p )] p [E(|Y |q )] q ,
1 1
donde p, q > 1 y p
+ q
= 1.
• Desigualdad de Jensen: Si ϕ : R → R es una función convexa tal que las
variables X y ϕ(X) tienen esperanza, entonces,
ϕ(E(X)) ≤ E(ϕ(X)).
En particular si ϕ(x) = |x|p , con p ≥ 1, tendremos
|E(X)|p ≤ E(|X|p ).
8
Recordemos los diferentes modos de convergencia de una sucesión de vari-
ables aleatorias Xn , n = 1, 2, 3, . . .:
c.s.
Convergencia casi segura: Xn −→ X, si
para todo ω ∈
/ N , donde P (N ) = 0.
P
Convergencia en probabilidad: Xn −→ X, si
L
Convergencia en ley: Xn −→ X, si
9
La convergencia en ley es diferente de los otros tipos de convergencia, ya
que lo que nos interesa es la ley de las variables y no sus valores particulares.
P (A ∩ B) = P (A)P (B).
que
para todo conjunto finito de ı́ndices {i1 , . . . , ik } ⊂ I, donde los Bj son con-
juntos de Borel.
Si dos variables aleatorias reales X, Y son independientes y tienen esper-
anza finita, entonces el producto XY tiene esperanza finita y se cumple la
relación
E(XY ) = E(X)E(Y ) .
Más generalmente, si las variables X1 , . . . , Xn son independientes,
donde las gi son funciones medibles tales que E [|gi (Xi )|] < ∞.
10
1.2 Procesos estocásticos
Un proceso estocástico és una familia de variables aleatorias reales {Xt , t ≥ 0}
definidas en un espacio de probabilidad (Ω, F, P ).
El conjunto de parámetros [0, ∞) representa el tiempo y en algunos casos
supondremos que es un intervalo acotado [0, T ], o el conjunto los números
naturales (procesos a tiempo discreto).
Per cada ω ∈ Ω, la aplicación
t −→ Xt (ω)
tales que:
11
La media y la autocovarianza de un proceso estocástico se definen como
sigue:
mX (t) = E(Xt )
ΓX (s, t) = Cov(Xs , Xt )
= E((Xs − mX (s))(Xt − mX (t)).
Xt = A cos(ϕ + λt),
mX (t) = 0
1
ΓX (s, t) = E(A2 ) cos λ(t − s).
2
12
Ejemplo 8 Consideremos un proceso gaussiano {Xt , t ∈ [0, 1]} tal que las
variables aleatorias Xt son independientes y con ley N (0, σ 2 ). La media y
autocovarianza de este proceso son
mX (t) = 0
½
1 si s = t
ΓX (s, t) =
0 si s 6= t
P {Xt = Xt0 } = 1.
Se dice también que ambos procesos son equivalentes. Dos procesos equiva-
lentes puede tener trayectorias diferentes (véase el Ejercicio 1.6).
lim E (|Xt − Xs |p ) = 0.
s→t
i) Nt = 0,
ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 −
Nt1 , son variables aleatorias independientes,
13
iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de parámetro
λ(t − s), es decir
[λ(t − s)]k
P (Nt − Ns = k) = e−λ(t−s) ,
k!
k = 0, 1, 2, . . .
P (Yn ≥ x) = e−λx .
Pongamos T0 = 0 y para n ≥ 1,
T n = Y1 + · · · + Yn .
Nt = n si Tn ≤ t < Tn+1
14
Proposición 2 (Criterio de continuidad) Supongamos que un proceso es-
tocástico {Xt , t ≥ 0} cumple la condición siguiente:
para todo 0 ≤ s < t ≤ T , donde a > 1 y p > 0. Entonces existe una versión
del proceso estocástico Xt que tiene trayectorias continuas.
i) B0 = 0
ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 −
Bt1 , son variables aleatorias independientes
15
iii) Si s < t, el incremento Bt − Bs tiene una ley normal N (0, t − s)
iv) Las trayectorias del proceso son funciones continuas.
Observaciones
1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un
vector aleatorio (Bt1 , . . . , Btn¡) es normal ya que este vector es¢una trans-
formación lineal del vector Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 que tiene
ley normal ya que tiene las componentes independientes y normales.
2) La media y la autocovarianza del movimiento browniano se calculan facil-
mente:
E(Bt ) = 0
E(Bs Bt ) = E(Bs (Bt − Bs + Bs ))
= E(Bs (Bt − Bs )) + E(Bs2 ) = s = min(s, t)
si s ≤ t. Puede comprobarse fácilmente que si un proceso gaussiano
tiene media cero y función de autocovarianza ΓX (s, t) = min(s, t), en-
tonces cumple las condiciones i), ii) y iii) de la Definición anterior.
3) Puede demostrarse que existe un proceso estocástico que cumple las
condiciones anteriores. Para ello, se parte de sus distribuciones en
dimensión finita, que son leyes normales N (0, Γ) donde Γ es la la ma-
triz
t1 t1 · · · t1
t1 t2 · · · t2
.. .. . . .. .
. . . .
t1 t2 · · · tn
El teorema de extensión de Kolmogorov permite construir un proceso
estocástico fijadas las distribuciones en dimensión finita, siempre que
sean compatibles, lo que aquı́ es cierto. Finalmente hay que demostrar
que se pueden modificar las variables Bt conjuntos de probabilidad
cero de forma que las trayectorias sean continuas. Para ello se aplica el
criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs
tienen ley normal N (0, t − s), para todo número entero k tendremos
h i (2k)!
E (Bt − Bs )2k = k (t − s)k . (3)
2 k!
16
Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una
versión continua, ya que
£ ¤
E (Bt − Bs )4 = 3(t − s)2 .
Ω → C ([0, ∞), R)
ω → B· (ω)
17
La norma de la subdivisión π se define como |π| = maxk ∆tk , donde ∆tk =
tk − tk−1 . Pongamos ∆Bk = Btk − Btk−1 . Entonces, si tj = jt
n
tendremos
n
X µ ¶ 21
t
|∆Bk | w n −→ ∞,
k=1
n
mientras que
n
X t
(∆Bk )2 w n = t. (5)
k=1
n
Esas propiedades pueden formularse de manera rigurosa como sigue:
En primer lugar, puede demostrarse que las sumas de los cuadrados de
los incrementos convergen en media cuadrática hacia la longitud del intervalo
de tiempo considerado:
à !2 à !2
Xn X n
£ ¤
E (∆Bk )2 − t = E (∆Bk )2 − ∆tk
k=1 k=1
n
X ³£ ¤2 ´
= E (∆Bk )2 − ∆tk
k=1
n
X £ ¤
= 4 (∆tk )2 − 2 (∆tk )2 + (∆tk )2
k=1
Xn
|π|→0
= 3 (∆tk )2 ≤ 3t|π| −→ 0.
k=1
Por otra parte, la variación total de las trayectorias del movimiento brow-
niano, definida como
X n
V = sup |∆Bk |
π
k=1
es infinita con probabilidad uno. En efecto, utilizando la continuidad de las
trayectorias del movimiento browniano, tendremos
n
à n !
X 2
X |π|→0
(∆Bk ) ≤ sup |∆Bk | |∆Bk | ≤ V sup |∆Bk | −→ 0 (6)
k k
k=1 k=1
Pn
si V < ∞, lo cual contradice que k=1 (∆Bk )2 converja en media cuadrática
hacia t cuando |π| → 0.
18
Propiedad de autosimilitud
Para todo número real a > 0, el proceso
© −1/2 ª
a Bat , t ≥ 0
Xt = Bt − tB1 ,
Xt = σBt + µt,
E(Xt ) = µt,
ΓX (s, t) = σ 2 min(s, t)
Xt = eσBt +µt ,
19
Simulación del movimiento browniano
El movimiento browniano puede considerarse como el lı́mite de los paseos
aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variables
aleatorias ξ 1 , . . . , ξ n independientes, idénticamente distribuidas, centradas y
de varianza Tn . Formemos las sumas parciales
Rk = ξ 1 + · · · + ξ k , k = 1, . . . , n.
El Teorema Central del Lı́mite nos dice que cuando n tiende a infinito, la
sucesión Rn converge en ley hacia la ley N (0, T ).
Consideremos ahora el proceso estocástico continuo Sn (t) construido por
interpolación lineal a partir de los valores
kT
Sn ( ) = Rk k = 0, . . . , n.
n
20
2πj
donde tj = N
, j = 0, 1, . . . , N .
P (A∩B)
P (A|B) = P (B)
.
A 7−→ P (A|B)
• Z es medible respecto de B.
E (Z1A ) = E (X1A ) .
21
Puede demostrarse que la esperanza condicionada existe y es única casi se-
guramente, de manera que si Ze fuese otra variable con las mismas propiedades,
entonces Z = Z, e P -casi seguramente.
En el caso particular en que la σ-álgebra B está generada per una partición
finita {B1 , ..., Bm }, entonces E(X|B) es una variable aleatoria elemental que
en cada conjunto Bj toma el valor constante E(X|Bj ), es decir,
m ¡ ¢
X E X1Bj
E(X|B) = 1Bj .
j=1
P (B j )
E (E(X|B)) = E(X)
22
Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B-
medible y X es independiente de B. Consideremos una función h(x, z)
tal que h(X, Z) es integrable. Entonces, se tiene
E(|E(X|B)|p ) ≤ E(|X|p ).
es decir, Z +∞
E(X|Y1 , . . . , Ym ) = xf (x|Y1 , . . . , Ym )dx.
−∞
23
En el caso en que la σ-álgebra B esté generada por un conjunto infinito
de variables aleatorias {Yj }, escribiremos también
E(X|B) = E(X| {Yj }),
pero el cálculo no se puede efectuar mediante una fórmula como la anterior
y necesitaremos utilizar las reglas que hemos introducido antes.
24
El conjunto de las variables aleatorias Z que son medibles respecto de una
σ-álgebra B y que son de cuadrado integrable (E(Z 2 ) < ∞), lo representare-
mos por L2 (Ω, B, P ). Puede demostrarse que L2 (Ω, F, P ) es un espacio de
Hilbert con el producto escalar
hZ, Y i = E(ZY ),
Ejercicios
25
1.1 Supongamos que {Hi , i ∈ I} es una familia de σ-álgebras en un conjunto
Ω. Demostrar que
H = ∩{Hi , i ∈ I}
es también una σ-álgebra.
1.2 Supongamos que X es una variable aleatoria real tal que
M = E[exp(k|X|)] < ∞
para un cierto k > 0. Probar que P (|X| > λ) ≤ M e−kλ , para todo
λ ≥ 0.
1.3 Sea (Ω, F, P ) un espacio de probabilidad y consideremos una sucesión
de sucesos A1 , A2 , . . . tales que
∞
X
P (Ak ) < ∞.
k=1
P (∩∞ ∞
m=1 ∪k=m Ak ) = 0,
1.5 Sea Z una variable aleatoria con ley de Poisson de parámetro λ. Com-
probar que la función caracterı́stica de Z vale
£ ¡ ¢¤
ϕZ (t) = exp λ eit − 1 .
26
1.6 Sea (Ω, F, P ) = ([0, ∞), B[0,∞) , µ), donde µ es una probabilidad en [0, ∞)
con función de distribución continua. Consideremos en este espacio de
probabilidad los procesos estocásticos
½
1 si t = ω
Xt (ω) =
0 si t 6= ω
Yt (ω) = 0.
P (|Bt | < ρ)
donde ρ > 0.
27
2 Integración estocástica
Supongamos que {Bt , t ≥ 0} es un movimiento browniano definido en un es-
pacio de probabilidad (Ω, F, P ). Consideremos la familia creciente {Ft , t ≥ 0}
de σ-álgebras generadas por este proceso. Supondremos además que Ft con-
tiene los conjuntos de probabilidad cero. Esto significa que Ft es la mı́nima
σ-álgebra que contiene los conjuntos de la forma
{Bs ∈ A} ∪ N
de lo que se deduce 1B ∈ Ft . ¤
La σ-álgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto
implica que las variables aleatorias F0 -medibles serán constantes, casi segu-
ramente.
28
Consideremos una partición del intervalo [0, T ]:
τ n : 0 = t0 < t1 < · · · < tn−1 < tn = T
ası́ como una partición intermedia:
σn : ti ≤ si leqti+1 , i = 0, . . . , n − 1.
Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann
RT
Stieltjes 0 f dg se define como el lı́mite
n
X
lim f (si−1 )∆gi
n→∞
i=1
n→∞
cuando supi (ti − ti−1 ) −→ 0, suponiendo que este lı́mite existe y es indepen-
diente de la sucesión de particiones τ n y de sus particiones intermedias σ n ,
con la notación ∆gi = g(ti ) − g(ti−1 ).
RT
Se sabe que la integral de Riemann Stieltjes 0 f dg existe si la función f
es continua y la función g tiene variación total acotada, es decir:
X
sup |∆gi | < ∞.
τ
i
29
a) Para cada t ∈ [0, T ], la aplicación (s, ω) −→ us (ω) definida en [0, t] × Ω
es medible respecto de la σ-álgebra producto B[0,t] × Ft .
³R ´
T 2
b) E 0 ut dt < ∞.
La propiedad b) nos dice que el proceso u como función de las dos variables
(t, ω) pertenece al espacio L2 ([0, T ] × Ω).
RT
Definiremos la integral estocástica 0 ut dBt para procesos u de la clase
L2a,T como el lı́mite en L2 (Ω) de la integral de procesos elementales. Por
definición un proceso u de L2a,T es elemental si se puede expresar de la forma
n
X
ut = φj 1(tj−1 ,tj ] (t), (10)
j=1
30
La integral estocástica definida en el espacio E de los procesos elementales
tiene las siguiente propiedad de isometria:
·³ ´2 ¸ ³R ´
RT T
E 0
ut dBt =E 0
u2t dt (12)
¤
La extensión de la integral estocástica a todos los procesos de la clase
L2a,Tse basa en el siguiente resultado de aproximación:
31
siendo tj = jTn
. La continuidad en media cuadrática del proceso u nos
garantiza que
µZ T ¯ ¯2 ¶ Z T µ¯ ¯2 ¶
¯ (n) ¯ ¯ (n) ¯
E ¯ut − ut ¯ dt = E ¯ut − ut ¯ dt
0 0
¡ ¢
≤ T sup E |ut − us |2
|t−s|≤T /n
En efecto, definimos
Z t µZ t Z t ¶
(n)
vt =n us ds = n us ds − us− 1 ds ,
1 n
t− n 0 0
¤
Definición 5 Si u es un proceso de la clase L2a,T , la integral estocástica se
define como el lı́mite en L2 (Ω)
Z T Z T
(n)
ut dBt = lim ut dBt , (15)
0 n→∞ 0
(n)
donde u es una sucesión de procesos elementales tales que cumplen (13).
32
Que el lı́mite (15) existe es debido a que la sucesión de variables aleato-
R T (n)
rias 0 ut dBt es de Cauchy en el espacio L2 (Ω), debido a la propiedad de
isometrı́a (12):
"µZ ¶2 # µZ T ³
T Z T ´2 ¶
(n) (m) (n) (m)
E ut dBt − ut dBt = E ut − ut dt
0 0 0
µZ T ³ ´2 ¶
(n)
≤ 2E ut − ut dt
0
µZ T ³ ´2 ¶
(m) n,m→∞
+2E ut − ut dt → 0.
0
3.- Linealidad:
Z T Z T Z T
(aut + bvt ) dBt = a ut dBt + b vt dBt .
0 0 0
RT
4.- Localidad:
nR Se cumple
o 0
ut dBt = 0 casi seguramente, en el conjunto
T
G = 0 u2t dt = 0 .
se anula.
33
Ejemplo 12 Z T
1 1
Bt dBt = BT2 − T.
0 2 2
Como el proceso Bt es continuo en media cuadrática podemos tomar como
sucesión aproximadora
n
X
(n)
ut = Btj−1 1(tj−1 ,tj ] (t),
j=1
jT
donde tj = n
, y tendremos
Z T n
X ¡ ¢
Bt dBt = lim Btj−1 Btj − Btj−1
0 n→∞
j=1
1 ³ ´ 1 Xn
¡ ¢2
2 2
= lim Btj − Btj−1 − lim Btj − Btj−1
2 n→∞ 2 n→∞ j=1
1 2 1
= B − T. (16)
2 T 2
Si xt es una función derivable, las reglas del cálculo diferencial e integral nos
dicen que Z T Z T
1¡ 2 ¢
xt dxt = xt x0t dt = xT − x20 .
0 0 2
Observemos que en el caso del movimiento browniano nos aparece un término
adicional igual a − 12 T .
RT
Ejemplo 13 Consideremos una función determinista g tal que 0 g(s)2 ds <
RT
∞. En este caso, la integral estocástica 0 gs dBs es una variable aleatoria
con ley normal Z T
N (0, g(s)2 ds).
0
34
2.1 Integrales estocásticas indefinidas
Consideremos un proceso u de la clase L2a,T . El proceso u1[0,t] también
pertenece a L2a,T , y por lo tanto, podemos definir su integral:
Z t Z T
us dBs := us 1[0,t] (s)dBs .
0 0
si a ≤ b ≤ c.
Si a < b y A es un suceso de la σ-álgebra Fa entonces,
Z b Z b
1A us dBs = 1A us dBs .
a a
35
La propiedad (iii) puede expresarse de forma equivalente como sigue
E(Mt − Ms |Ms ) = 0
y ello significa que la esperanza condicionada de los incrementos de una mar-
tingala es cero. Las martingalas se introduden para modelizar las ganancias
de un jugador que juega una partida equitativa en un juego de azar. En he-
cho de que la ganancia esperada tenga valor medio cero representa el carácter
equitativo del juego.
De forma análoga se puede introducir el concepto de martingala para un
proceso {Mt , 0 ≤ t ≤ T } respecto de una familia creciente de σ-álgebras
{Mt , 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que
Mt = E(MT |Mt ).
Fijémonos en que la variable terminal MT determina la martingala ya que
las variables Mt se obtinenen tomando la esperanza condicionada de MT
respecto de la familia creciente de σ-álgebras.
Como consecuencia de la propiedad de martingala tendremos que la es-
peranza de una martingala es consante:
E(Mt ) = E(M0 ).
36
a2 t
Finalmente, para el proceso exp(aBt − 2
) tendremos
a2 t a2 t
E(eaBt − 2 |Fs ) = eaBs E(ea(Bt −Bs )− 2 |Fs )
2
a(Bt −Bs )− a2 t
= eaBs E(e )
a2 (t−s) 2 a2 s
− a2 t
= eaBs e 2 = eaBs − 2 .
37
estocástico u(n) cada el intevalo (tj−1 , tj ] tendremos
X
E (In (t) − In (s)|Fs ) = E φj ∆Bj |Fs
s≤tj−1 ≤tj ≤t
X ¡ ¡ ¢ ¢
= E E φj ∆Bj |Ftj−1 |Fs
s≤tj−1 ≤tj ≤t
X ¡ ¡ ¢ ¢
= E φj E ∆Bj |Ftj−1 |Fs = 0.
s≤tj−1 ≤tj ≤t
38
Rt
Jt (ω) = 0
us dBs casi seguramente, para todo t ∈ [0, T ], y ello nos dice que la
integral indefinida tiene una versiónR con trayectorias continuas. ¤
t
La integral indefinida Mt = 0 us dBs es una martingala respecto de la
familia de σ-álgebras Ft y se cumple la desigualdad siguiente, para todo
λ > 0, µ ¶ µZ T ¶
1 2
P sup |Mt | > λ ≤ 2 E ut dt . (17)
0≤t≤T λ 0
Rt
En efecto, la propiedad de martingala de 0 us dBs de deduce de la propiedad
R t (n)
de martingala de las integrales indefinidas 0 us dBs que hemos obtenido en
la demostración anterior. La desigualdad (17) se deduce de la desigualdad
de Doob y de la propiedad R tde isometrı́a de la integral estocástica.
La martingala Mt = 0 us dBs tiene trayectorias continuas, pero son ir-
regulares como las del movimiento browniano. En particular, las trayectorias
de las integrales indefinidas tienen variación cuadrática finita como nos dice
la propiedad siguiente:
jt
cuando n tiende a infinito, donde tj = n
.
39
Utilizando la notación
n
ÃZ !2
X tj
Vn (u) = us dBs
j=1 tj−1
tendremos
µ¯ Z t ¯¶
¯ ¯ ¡¯ ¯¢
¯
E ¯Vn (u) − u2s ds ¯ ≤ E ¯Vn (u) − Vn (u(k) ) ¯
¯
0
µ¯ Z t ¯¶
¯ ¡ (k) ¢2 ¯
+E ¯¯ Vn (u ) −
(k)
us ds¯¯
0
µ¯ Z t Z t ¯¶
¯ ¡ (k) ¢2 ¯
+E ¯¯ us ds − us ds ¯¯ .
2
0 0
40
tal que para todo t ≥ 0, {τ ≤ t} ∈ Ft . Es decir, podemos decidir si nos
paramos o no antes de un instante t a partir de la información contenida en
Ft .
τ a := inf{t > 0 : Xt = a}
G ∩ {τ ≤ t} ∈ Ft (18)
para todo t ≥ 0.
Los tiempos de paro satisfacen las dos propiedades siguientes:
41
Demostración de (20): La demostración se hará en dos etapas:
τ a = inf{t ≥ 0 : Bt = a},
λ2 t
donde a > 0. Consideremos la martingala Mt = eλBt − 2 que cumple
E(Mt ) = E(M0 ) = 1.
E(Mτ a ∧N ) = 1,
42
para todo N ≥ 1. Observemos que
µ ¶
λ2 (τ a ∧ N )
Mτ a ∧N = exp λBτ a ∧N − ≤ eaλ .
2
limN →∞ Mτ a ∧N = Mτ a si τ a < ∞
limN →∞ Mτ a ∧N = 0 si τ a = ∞
es decir µ µ ¶¶
λ2 τ a
E 1{τ a <∞} exp − = e−λa .
2
Haciendo λ ↓ 0 obtenemos
P (τ a < ∞ ) = 1,
y, por consiguiente µ µ ¶¶
λ2 τ a
E exp − = e−λa .
2
λ2
Con el cambio de variable 2
= α, tendremos
√
E ( exp (−ατ a )) = e− 2αa
. (21)
43
2.3 Extensiones de la integral estocástica
RT
La integral estocástica de Itô 0 us dBs puede definirse para clases de pro-
cesos mas amplias que L2a,T .
A) En primer lugar, podemos substituir la familia creciente de σ-álgebras
Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una
martingala respecto de Ht . En efecto, en todas las demostraciones anteriores
solo se ha utilizado la propiedad
E(Bt − Bs |Fs ) = 0.
(n)
Como ejemplo de esta situación, consideremos el caso en que Ft es
la familia creciente de σ-álgebras generadas por un movimiento browniano
n-dimensional Bt . Cada componente Bk (t) es una martingala respecto de
(n) (n)
Ft , pero Ft no es la familia de σ-álgebras generada por Bk (t). De esta
forma, con la extensión indicada antes, se pueden definir integrales como
Z T
B2 (s)dB1 (s),
0
Z T
sin(B12 (s) + B12 (s))dB2 (s).
0
³R ´
T
B) La segunda extensión consiste en substituir la propiedad E 0
u2t dt <
∞ por la hipótesis más débil siguiente:
³R ´
T
b’) P 0 u2t dt < ∞ = 1.
44
Los procesos
(n)
ut = ut 1[0,τ n ] (t)
µ ³ ¶
R T (n) ´2
pertenecen a L2a,T ya que E 0 us ds ≤ n. Para cada n ≤ m, en el
conjunto {t ≤ τ n } se cumple
Z t Z t
u(n)
s dBs = u(m)
s dBs
0 0
ya que las trayectorias en el intervalo [0, t] de los procesos u(n) y u(m) coinciden
en este conjunto. Por Rconsiguiente, existirá un proceso continuo y adaptado
t
que denotaremos por 0 us dBs tal que
Z t Z t
us(n) dBs = us dBs
0 0
si t ≤ τ n .
La integral estocástica de procesos de la clase La,T satisface las propiedades
de linealidad y continuidad de trayectorias de la integral indefinida. En cam-
bio, la integral de procesos de la clase La,T puede no tener esperanza ni
varianza finitas.
45
por otra parte
µ¯Z ¯ Z ¶ µ¯Z T ¯ ¶
¯ T ¯ T ¯ ¯
P ¯¯ us dBs ¯¯ ≥ K, u2s ds <δ = P ¯¯ us dBs ¯¯ ≥ K, τ = T
0 0 0
µ¯Z τ ¯ ¶
¯ ¯
= P ¯¯ us dBs ¯¯ ≥ K, τ = T
0
ïZ ¯2 !
1 ¯ τ ¯
≤ E ¯ u dB ¯
K2 ¯ s s ¯
0
µZ τ ¶
1 2 δ
= 2
E us ds ≤ 2 .
K 0 K
¤
Como consecuencia de la proposición anterior, si u(n) es una sucesión
de procesos de la clase La,T que converge hacia un proceso u ∈ La,T en
probabilidad: Z T
¡ (n) ¢2 P
us − us ds → 0
0
entonces, Z Z
T T
P
u(n)
s dBs → us dBs .
0 0
46
Vemos que el proceso estocástico Bt2 es la suma de una integral estocástica
y de una función diferenciable. Más generalmente cualquier función f (Bt ),
donde f es dos veces continuamente diferenciable, puede expresarse como
una suma de una integral estocástica y de un proceso con trayectorias difer-
enciables. Esto nos lleva a introducir la noción de proceso de Itô que será
una suma de una integral estocástica más una integral ordinaria. La clase
de los procesos de Itô será invariante por transformaciones funcionales reg-
ulares. Designaremos por L1a,T la clase de los procesos v que satisfacen las
propiedades a) y
³R ´
T
b”) P 0 |vt | dt < ∞ = 1.
Definición 10 Un proceso de Itô Xt será un proceso estocástico de la forma
Z t Z t
Xt = X0 + us dBs + vs ds, (23)
0 0
47
2.- El proceso Yt es un proceso de Itô con la representación
Z t Z t
Yt = Y0 + u
es dBs + ves ds,
0 0
donde
Y0 = f (0, X0 ),
∂f
u
et = (t, Xt )ut ,
∂x
∂f ∂f 1 ∂ 2f
vet = (t, Xt ) + (t, Xt )vt + (t, Xt )u2t .
∂t ∂x 2 ∂x2
3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es pre-
cisamente el movimiento browniano Bt , y la fórmula de Itô adopta la
expresión más simple siguiente
Z t Z t
∂f ∂f
f (t, Bt ) = f (0, 0) + (s, Bs )dBs + (s, Bs )ds
0 ∂x 0 ∂t
Z
1 t ∂ 2f
+ (s, Bs )ds.
2 0 ∂x2
48
donde ∆Xj = Xtj − Xtj−1 y X j es un valor comprendido entre Xtj−1 y Xtj .
El Rprimer sumando de la expresión anterior converge en probabilidad
t
hacia 0 f 0 (Xs )us dBs , mientras que el segundo sumando converge en proba-
Rt
bilidad hacia 12 0 f 00 (Xs )u2s ds.
a2 a2
Ejemplo 19 Si f (t, x) = eax− 2 t , Xt = Bt , y Yt = eaBt − 2 t , tendremos
Z t
Yt = 1 + a Ys dBs
0
ya que
∂f 1 ∂ 2f
+ = 0. (25)
∂t 2 ∂x2
Este importante ejemplo nos permite deducir las observaciones siguientes:
49
término constante), y por lo tanto, será una martingala, suponiendo
que f satisface la propiedad:
"Z µ ¶2 #
t
∂f
E (s, Bs ) ds < ∞
0 ∂x
50
donde Xt , vt , son procesos n-dimensionales, y ut es un proceso con valores
en el conjunto de las matrices n × m. Supondremos que las componentes de
u pertenecen a La,T y las de v pertenecen a L1a,T .
Entonces, si f : [0, ∞) × Rn → Rp es una función de clase C 1,2 , el proceso
Yt = f (t, Xt ) es también un proceso de Itô con la representación (en notación
diferencial)
Xn
∂fk ∂fk
dYtk = (t, Xt )dt + (t, Xt )dXti
∂t i=1
∂x i
n
1 X ∂ 2 fk
+ (t, Xt )dXti dXtj .
2 i,j=1 ∂xi ∂xj
El producto de los diferenciales dXti dXtj se calcula aplicando las reglas sigu-
ientes:
½
i j 0 si i 6= j
dBt dBt =
dt si i = j
dBti dt = 0
(dt)2 = 0.
De esta forma se obtiene
à m !
X
dXti dXtj = uik jk
t ut dt = (ut u0t )ij dt.
k=1
51
iT
suponiendo ti = n
. Supongamos que el proceso u es un proceso de Itô de la
forma Z t Z t
ut = u0 + αs dBs + β s ds. (26)
0 0
Utilizando la descomposición
1
(ut + uti )(Bti − Bti−1 ) = uti−1 (Bti − Bti−1 )
2 i−1
1
+ (uti − uti−1 )(Bti − Bti−1 ),
2
se obtiene la siguiente fórmula que relaciona las integrales de Itô y de Stratonovich:
Z T Z t Z
1 t
us ◦ dBs = us dBs + αs ds. (27)
0 0 2 0
En efecto, las sumas de Riemann-Stieltjes
n
X
(uti − uti−1 )(Bti − Bti−1 )
i=1
52
Por otra parte,
1
f 0 (Xt )ut dBt = f 0 (Xt )ut ◦ dBt − d [f 0 (Xt )ut ] dBt .
2
En el cálculo de d [f 0 (Xt )ut ] dBt hemos de tener en cuenta solo los diferen-
ciales estocásticos de d [f 0 (Xt )ut ] que son
53
Cuando ε tiende a cero, gε (Bt ) converge en media cuadrática hacia |Bt |. Por
otra parte, gε0 (Bs ) converge en L2 ([0, t] × Ω) hacia sign(Bs ). En efecto,
Z t
2
E |sign(Bs ) − gε0 (Bs )| ds
0
µ Z t· ¸ ¶
2 Bs2
≤ 2E (sign(Bs )) + 2 1(−ε,ε) (Bs )ds
0 ε
µZ t ¶
≤ 4E 1(−ε,ε) (Bs )ds
0
Z t Z t
ε↓0
= 4 P (|Bs | < ε)ds −→ 4 P (|Bs | = 0)ds = 0.
0 0
Observaciones:
Puede demostrarse que existe una versión del tiempo local que es con-
tinua en las dos variables (t, x).
54
• En el caso de una función diferenciable b(t), se tiene
55
tiene una transformada de Laplace idénticamente nula. Por lo tanto,
E(Y 1G ) = 0
para todo suceso G de la σ -álgebra generada por las variables Bt1 , . . . , Btm . Por
un argumento de clases monótonas, esto será cierto para todo G de la σ -álgebra
FT , y por lo tanto, Y = 0. ¤
2
h2 ds,
0 s
obtenemos
µ ¶
1 2 1
dYt = Yt h(t)dBt − h (t)dt + Yt (h(t)dBt )2
2 2
= Yt h(t)dBt ,
es decir, Z t
Yt = 1 + Ys h(s)dBs .
0
Por lo tanto, Z T
F = YT = 1 + Ys h(s)dBs
0
56
y se cumple la representación buscada porque E(F ) = 1,
µZ T ¶ Z T
¡ ¢
E Ys2 h2 (s)ds = E Ys2 h2 (s)ds
0 0
µZ T ¶Z T
2
≤ exp hs ds h2s ds < ∞
0 0
ya que
· µ Z t Z t ¶¸
¡ ¢
E Yt2 = E exp 2 hs dBs − 2
hs ds
0 0
µZ t ¶
2
= exp hs ds .
0
y, en consecuencia,
·Z T ¸
¡ ¢2 n,m→∞
E us(n) − u(m)
s ds −→ 0.
0
57
Esto nos dice que la sucesión u(n) es de Cauchy en L2 ([0, T ] × Ω). Por lo tanto
será convergente hacia un proceso u de L2 ([0, T ] × Ω). Por otra parte, puede
comprobarse que u pertenece a la clase L2a,T , teniendo en cuenta que una sucesión
parcial de u(n) (t, ω) converge casi por todo (t, ω) hacia u(t, ω). Aplicando de
nuevo la propiedad de isometrı́a, y teniendo en cuenta que E(Fn ) converge hacia
E(F ), se obtiene
µ Z T ¶
(n)
F = lim Fn = lim E(Fn ) + us dBs
n→∞ n→∞ 0
Z T
= E(F ) + us dBs .
0
Entonces
"µZ ¶2 # ·Z ¸
T ¡ ¢ T ¡ (1) ¢
(2) 2
0=E u(1)
s − us (2)
dBs =E us − us ds
0 0
(1) (2)
y, por lo tanto, us (t, ω) = us (t, ω) casi por todo (t, ω). ¤
58
Supongamos que 0 ≤ t ≤ T . Tendremos
Z T
Mt = E[MT |Ft ] = E(M0 ) + E[ us dBs |Ft ]
0
Z t
= E(M0 ) + us dBs .
0
Q(A) = E (1A L)
EQ (X) = E(XL).
59
Si la variable L es estrictamente positiva, entonces las probabilidades P y
Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que
significa
P (A) = 0 ⇐⇒ Q(A) = 0.
Veamos seguidamente un ejemplo simple de cambio de probabilidades que
representa una versión sencilla del teorema de Girsanov:
Ejemplo 20 Sea X una variable aleatoria con ley normal N (m, σ 2 ). Existe
una probabilidad Q respecto de la cual la variable X tenga ley N (0, σ 2 )?
Consideremos la variable
m m2
L = e− σ2 X+ 2σ2 .
Es fácil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, en
el espacio de probabilidad (Ω, F, Q) la variable X tiene por función carac-
terı́stica:
Z ∞
1 (x−m)2 mx m2
itX itX
EQ (e ) = E(e L) = √ e− 2σ2 − σ2 + 2σ2 +itx dx
2
Z ∞ 2πσ −∞
1 x2 σ 2 t2
= √ e− 2σ2 +itx dx = e− 2 ,
2πσ 2 −∞
es decir, X tiene una ley N (0, σ 2 ).
60
donde Fn es la σ-álgebra generada por X1 , ..., Xn si n ≥ 1, y F0 = {∅, Ω}.
Podemos cambiar la asignación de probabilidades de manera que Sn sea una
martingala. Si suponemos que
P (Xn = +1) = p,
P (Xn = −1) = 1 − p,
S0 = 0,
∆Sn = a∆t + σXn ,
√ 1
P (Xn = ± ∆t) = .
2
En tal caso el valor de la probabilidad p respecto de la cual las Sn forman
una martingala es
√ 1 a√
P (Xn = ∆t) = p = − ∆t,
2 2σ
√ 1 a√
P (Xn = − ∆t) = 1 − p = + ∆t.
2 2σ
Podemos escribir
√ 1 ³ a ´
P (Xn = ± ∆t) = 1 − Xn .
2 σ
Si consideramos un camino de longitud N formado por los sucesivos valores
que toman las variables Xn , la probabilidad
Q P ¡ de este camino
¢ seria 2−N ,
mientras que la probabilidad Q seria 2−N N a
n=1 1 − σ Xn . Es decir, pode-
mos escribir
Q(camino) Y ³ a ´
N
= 1 − Xn .
P (camino) n=1 σ
61
Observamos que la probabilidad Q está bien definida si
³ σ ´2
∆t < ,
a
lo cual es cierto siempre que ∆t sea suficientement pequeño.
Supongamos ahora que las variables aleatorias Sn se observan en instantes
que distan ∆t. Si ∆t tiende a cero y N tiende a infinito de manera que
N ∆t = t, entonces, Sn converge hacia un movimiento browniano con deriva
at + σBt .
Por otra parte, el cociente entre las probabilidades Q y P converge hacia
un término exponencial:
N ³
Q(camino) Y a ´
= 1 − Xn
P (camino) n=1
σ
à N !
X ³ a ´
= exp log 1 − Xn
n=1
σ
à N µ ¶!
X a a2 2
w exp − Xn − 2 Xn
n=1
σ 2σ
à N
!
aX a2
= exp − Xn − 2 t .
σ n=1 2σ
62
La variable LT es una densidad de probabilidad en el espacio (Ω, FT , P ) que
define una probabilidad Q dada por
Q(A) = E (1A LT ) ,
para todo A ∈ FT .
La propiedad de martingala del proceso Lt implica que en el espacio
(Ω, Ft , P ), la probabilidad Q tiene densidad igual a Lt . En efecto, si A
pertenece a la σ-álgebra Ft se tiene
63
Es decir, la ley de X condicionada por A es también una ley normal N (0, σ 2 ).
Por consiguiente, tendremos
PA (X ≤ x) = Φ(x/σ) ,
y
P ((X ≤ x) ∩ A) = P (A)Φ(x/σ) = P (A)P (X ≤ x), (31)
donde Φ representa la función de distribución de la ley N (0, 1). La igualdad (31)
nos da la independencia entre la variable X y la σ -álgebra G . ¤
u2
= Q(A)e− 2
(t−s)
.
¤
El teorema de Girsanov admite la siguiente generalización:
64
es un movimiento browniano respecto de la probabilidad Q definida por
Q(A) = E (1A LT ) ,
donde µ Z t Z ¶
1 t 2
Lt = exp − θs dBs − θ ds .
0 2 0 s
τ a = inf{t ≥ 0, Bt = a},
{τ a ≤ t} ∩ {τ a ∧ t ≤ s} = {τ a ≤ t} ∩ {τ a ≤ s}
= {τ a ≤ t ∧ s} ∈ Fs∧t ⊂ Fs .
65
Por consiguiente, utilizando la propiedad de martingala respecto de los tiem-
pos de paro obtenemos
¡ ¢ ¡ ¢
Q{τ a ≤ t} = E 1{τ a ≤t} Lt = E 1{τ a ≤t} E(Lt |Fτ a ∧t )
¡ ¢ ¡ ¢
= E 1{τ a ≤t} Lτ a ∧t = E 1{τ a ≤t} Lτ a
³ ´
−λa− 21 λ2 τ a
= E 1{τ a ≤t} e
Z t
1 2
= e−λa− 2 λ s f (s)ds,
0
Ejercicios
66
con la convención f (s) = 0 si s < 0. Demostrar que se cumple
Z T
n→∞
(f (s) − fn (s))2 ds −→ 0 −→ 0.
0
2.4 Sea Y una variable aleatoria integrable y {Mt , t ≥ 0} una familia cre-
ciente de σ-álgebras. Demostrar que
Mt = E(Y |Mt )
es una martingala.
67
un movimiento browniano Bt , son martingalas:
Xt = Bt3 − 3tBt
Z s
2
Xt = t Bt − 2 sBs ds
0
Xt = et/2 cos Bt
Xt = et/2 sin Bt
1
Xt = (Bt + t) exp(−Bt − t)
2
Xt = B1 (t)B2 (t).
F = BT
F = BT2
F = eBT
Z T
F = Bt dt
0
F = BT3
F = sin BT
√
2.8 Sea p(t, x) = 1/ 1 − t exp(−x2 /2(1 − t)), para 0 ≤ t < 1 y x ∈ R, y
p(1, x) = 0. Definimos Mt = p(t, Bt ), donde {Bt , 0 ≤ t ≤ 1} es un
movimiento browniano.
68
a) Demostrar que Z t
∂p
Mt = M0 + (s, Bs )dBs .
0 ∂x
∂p
R1
b) Sea Ht =³ ∂x (t, Bt´). Probar que 0 Ht2 dt < ∞ casi seguramente,
R1
pero E 0 Ht2 dt = ∞.
Una ecuación diferencial del tipo (34) se denomina una ecuación diferen-
cial estocástica. La solución será un proceso estocástico {Xt , t ≥ 0} con
trayectorias continuas adaptado a la filtración browniana. Los procesos
solución se denominan procesos de difusión.
Una interpretación heurı́stica de la ecuación diferencial (34) serı́a la sigu-
iente: El incremento ∆Xt = Xt+∆t − Xt se expresa como una suma de
b(t, Xt )∆t más un término que depende del incremento del movimiento brow-
niano: σ(t, Xt )∆Bt y que se interpreta como una impulso aleatorio. Por
69
tanto, el incremento ∆Xt tendrá una ley normal de media b(t, Xt )∆t y vari-
anza σ(t, Xt )2 ∆t.
La formalización de estas ecuaciones se realiza transformándolas en ecua-
ciones integrales y utilizando integrales estocásticas:
Z t Z t
Xt = X0 + b(s, Xs )ds + σ(s, Xs )dBs . (35)
0 0
Observaciones:
70
tiene por única solución la función
1
Xt = , 0 ≤ t < 1,
1−t
que diverge en el instante t = 1.
Este operador está bien definido debido a la propiedad de crecimiento lineal (38,39)
de los coeficientes de la ecuación.
71
La desigualdad de Schwartz y la isometrı́a de la integral estocástica nos per-
miten escribir
"µZ ¶2 #
£ t
2¤
E |(LX)t − (LY )t | ≤ 2E (b(s, Xs ) − b(s, Ys )) ds
0
"µZ ¶2 #
t
+2E (σ(s, Xs ) − σ(s, Xs )) dBs
0
·Z t ¸
2
≤ 2T E (b(s, Xs ) − b(s, Ys )) ds
0
·Z t ¸
2
+2E (σ(s, Xs ) − σ(s, Xs )) ds .
0
72
3.1 Soluciones explı́citas de ecuaciones diferenciales es-
tocásticas
La fórmula de Itô permite resolver explı́citamente algunas ecuaciones difer-
enciales estocásticas. Veamos algunos ejemplos.
será hR ¡ i
t 1 2
¢ Rt
Xt = X0 exp 0
b(s) − 2
σ (s) ds + 0
σ(s)dB s
dXt = a (m − Xt ) dt + σdBt
X0 = x,
dxt = −axt dt
x0 = x
73
Por tanto, Z t
at
Yt = x + m(e − 1) + σ eas dBs ,
0
lo que implica
Rt
Xt = m + (x − m)e−at + σe−at 0
eas dBs
74
b) La ecuación (41) es una ecuación diferencial determinista, parametrizada
por ω ∈ Ω, que podrá resolverse mediante métodos habituales.
y, por lo tanto,
³R Rt Rt ´
t 1
Xt = x exp 0
f (s)ds + 0
c(s)dBs − 2 0
c2 (s)ds
75
es decir
β(t) = c(t) Ut−1
α(t) = [a(t) − c(t)d(t)] Ut−1 .
Finalmente,
³ Rt Rt ´
Xt = Ut x + 0 [a(s) − c(s)d(s)] Us−1 ds + 0 c(s) Us−1 dBs
76
3.2 Soluciones fuertes y soluciones débiles
La solución Xt que hemos encontrado antes es una solución fuerte porque es
un proceso adaptado a la familia de σ-álgebras
• Una ecuación con coeficientes b(t, x) y σ(t, x) se dice que tiene unicidad
débil si dos soluciones débiles tienen la misma ley (las mismas distribu-
ciones en dimensión finita). Si los coeficientes satisfacen las condiciones
del Teorema (18) entonces se satisface la unicidad débil.
La ecuación de Tanaka
no tiene ninguna solución fuerte pero tiene una solución débil única.
77
Consideremos la ecuación diferencial estocástica con coeficientes indepen-
dientes del tiempo
dXt = b(Xt )dt + σ(Xt )dBt , (43)
con condición inicial X0 = x.
Fijemos un intervalo de tiempo [0, T ] y consideremos la subdivisión for-
mada por los puntos
iT
tj = , i = 0, 1, . . . , n.
n
La longitud de cada subintervalo será δ n = Tn .
El método de Euler consiste en el esquema recursivo siguiente:
X (n) (ti ) = X (n) (ti−1 ) + b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 ))∆Bi ,
(n)
i = 1, . . . , n, donde ∆Bi = Bti − Bti−1 . El valor inicial será X0 = x.
En los puntos de cada intervalo (ti ti+1 ) el valor del proceso X (n) se deduce
por interpolación lineal. El proceso X (n) es una función del movimiento
browniano y podemos medir el error comerido al aproximar X por X (n) :
·³ ´2 ¸
(n)
en = E XT − XT .
si n ≥ n0 .
Para simular una solución mediante el método de Euler, basta con obtener
valores de n variables
√ aleatorias ξ 1 , . . . ., ξ n independientes con ley N (0, 1), y
substituir ∆Bi por δ n ξ i .
El método de Euler puede mejorarse mediante una corrección adicional.
Esto nos lleva a introducir el método de Milstein.
El valor exacto del incremento entre dos puntos de la partición es
Z ti Z ti
X(ti ) = X(ti−1 ) + b(Xs )ds + σ(Xs )dBs . (44)
ti−1 ti−1
78
En el método de Milstein, aplicaremos la fórmula de Itô a los procesos b(Xs ) y
σ(Xs ) que aparecen en (44), con objeto de obtener una aproximación mejor.
De esta forma obtenemos
X(ti ) − X(ti−1 )
Z ti · Z s µ ¶ Z s ¸
(n) 1 00 2
0 0
= b(X (ti−1 )) + bb + b σ (Xr )dr + (σb ) (Xr )dBr ds
ti−1 ti−1 2 ti−1
Z ti · Z s µ ¶ Z s ¸
(n) 0 1 00 2 0
+ σ(X (ti−1 )) + bσ + σ σ (Xr )dr + (σσ ) (Xr )dBr dBs
ti−1 ti−1 2 ti−1
y puede demostrarse que las demás componentes del resto son de órdenes
inferiores y pueden despreciarse. La integral estocástica doble puede, a su
vez, aproximarse por
Z ti µ Z s ¶
0 (n)
(σσ ) (X (ti−1 )) dBr dBs .
ti−1 ti−1
Las reglas del cálculo estocástico nos permiten calcular la integral doble que
nos queda:
Z ti µ Z s ¶ Z ti
¡ ¢
dBr dBs = Bs − Bti−1 dBs
ti−1 ti−1 ti−1
1³ 2 ´ ¡ ¢
= Bti − Bt2i−1 − Bti−1 Bti − Bti−1 − δ 2n
2
1
= (∆Bi )2 − δ 2n .
2
En conclusión, el método de Milstein consiste en el sistema recursivo siguiente
X (n) (ti ) = X (n) (ti−1 ) + b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 )) ∆Bi
1 £ ¤
+ (σσ 0 ) (X (n) (ti−1 )) (∆Bi )2 − δ 2n .
2
79
Puede demostarse que el error en es del orden δ n es decir,
en ≤ cδ n
si n ≥ n0 .
80
Designaremos por {Xts,x , t ≥ s} la solución de la ecuación diferencial es-
tocástica (45) en el intervalo de tiempo [s, ∞) y con condición inicial Xss,x =
x. Si s = 0, escribiremos Xt0,x = Xtx .
Puede demostrarse que existe una versión continua en los tres parámetros
del proceso estocástico
{Xts,x , 0 ≤ s ≤ t, x ∈ Rn } .
s,X x
y substituyendo y por Xsx obtenemos que los procesos Xtx y Xt s son solu-
ciones de la misma ecuación en el intervalo [s, ∞) con condición inicial Xsx .
Por la unicidad de soluciones deben coincidir.
81
Si el proceso de difusión es homogéneo en el tiempo, la propiedad de Markov
se escribe £ ¤
x
E [f (Xt )|Fs ] = E f (Xt−s ) |x=Xs .
¤
82
Por consiguiente, si se cumple
ÃZ ¯ ¯2 !
t¯ ¯
¯ ∂f ¯ ds < ∞
E ¯ ∂xi (s, X s )σ i,j (s, X s )¯ (48)
0
∂f
∂t
+ At f = 0 (50)
f (t, x) = E(g(XTt,x ))
83
función f es de clase C 1,2 y cumple una de las condiciones a) o b) anteriores,
el proceso
R
Z t R µ ¶
− 0t q(Xs )ds − 0s q(Xr )dr ∂f
Mt = e f (t, Xt ) − e + As f − qf (s, Xs )ds
0 ∂s
es una martingala. En efecto,
Rt Xn X m
∂f
dMt = e − 0 q(Xs )ds
i
(t, Xt )σ i,j (t, Xt )dBtj .
i=1 j=1
∂x
84
Teorema 21 (Fórmula de Dynkin) Sea f ∈ C02 (Rn ) y consideremos un
proceso de difusión {Xt , t ≥ 0} que satisface la ecuación diferencial es-
tocástica (45), con condición inicial constante. Entonces, si τ es un tiempo
de paro tal que E(τ ) < ∞,
Z τ
E [f (Xτ )] = f (X0 ) + E (As f ) (Xs )ds.
0
85
¤
Como aplicación consideremos el siguiente problema. Sea Bt un movimiento
browniano n-dimensional tal que B0 = a, y supongamos |a| < R. Cual es la
esperanza del tiempo de salida τ K de la bola de radio R :
K = {x ∈ Rn : |x| < R}.
Apliquemos la fómula de Dynkin a X = B, τ = τ K ∧ N y sea f una función
de C02 (Rn ) tal que f (x) = |x|2 para |x|2 ≤ R. Tendremos
·Z τ ¸
1
E[f (Bτ )] = f (a) + E ∆f (Bs )ds
2 0
= |a|2 + nE [τ ] .
Por tanto,
1¡ 2 ¢
E [τ K ∧ N ] = R − |a|2
n
y haciendo N → ∞ obtenemos
1¡ 2 ¢
E [τ K ] = R − |a|2 .
n
86
(x−y)2
1
y la función √2πt e− 2t para cada y fijo, satisface la ecuación (53).
La función x 7→ u(t, x) representa la distribución de temperaturas en una
barra de longitud infinita, suponiendo un perfil inicial de temperaturas dado
por la función f (x).
Consideremos una difusión es homogénea en el tiempo. En tal caso, el
generador A no depende del tiempo y vale:
n
X n
∂f 1X ∂ 2f
Af (x) = bi (x) + (σσ 0 )i,j (x) . (54)
i=1
∂xi 2 i,j=1 ∂xi ∂xj
Consideremos la función
La fórmula (55) nos dice que esta función es diferenciable y satisface la sigu-
iente ecuación
∂u
= E [Af (Xtx )] .
∂t
x
El término E [Af (Xt )] puede también expresarse en función de u. Para ello
necesitamos introducir el dominio del generador de la difusión:
La expresión (55) nos dice que C02 (Rn ) ⊂ DA y para toda función f ∈
C02 (Rn ), el lı́mite (57) es igual a al valor Af dado por (54).
El siguiente resultado nos dice que la función u(t, x) definida en (56) sat-
isface una ecuación en derivadas parciales, denominada ecuación retrógrada
(bakward) de Kolmogorov. Esto nos proporciona una interpretación proba-
bilista de las ecuaciones en derivadas parciales de tipo parabólico.
87
a) Definimos u(t, x) = E [f (Xtx )]. Entonces, u(t, ·) ∈ DA para cada t y
½ ∂u
= Au
∂t (58)
u(0, x) = f (x)
Yt = (s − t, Xtx ).
∂w
Teniendo encuenta que w satisface la ecuación Aw = ∂t
, obtenemos
Z tXn X m
∂w
w(Yt ) = w(s, x) + (s − r, Xrx )σ i,j (Xrx )dBrj .
0 i=1 j=1 ∂xi
88
Ahora deseamos tomar esperanzas, pero como no hemos impuesto ninguna condición
de crecimiento sobre las derivadas parciales de la función w no sabemos si la inte-
gral estocástica tiene esperanza cero. Por ello, debemos introducir un tiempo de
paro, para un R > 0, fijado, definido por
Ejemplo 21
En el caso b = 0, σ = I, el proceso de difusión Xt es el movimiento
browniano Bt n-dimensional. Su generador será el operador de Laplace:
1
Pn ∂2
∆= 2 i=1 ∂x2i .
89
La solución fundamental de esta ecuación es la densidad gaussiana:
µ ¶
−n/2 |x − y|2
pt (x, y) = (2πt) exp − .
2t
a) Definimos µ Z t · ¶ ¸
x x
v(t, x) = E exp − q(Xs )ds f (Xt ) .
0
90
Aplicando la propiedad de Markov obtenemos
µ Z t ¶
E[v(t, Xrx )] = E[E[exp − q(Xs )ds f (Xty )]|y=Xrx ]
y
µ Z0 t ¶
x x
= E[E[exp − q(Xs+r )ds f (Xt+r )]|Fr ]
0
µ Z t ¶
x x
= E[exp − q(Xs+r )ds f (Xt+r )]
0
µZ r ¶
x x
= E[exp q(Xs )ds Zt+r f (Xt+r )]
0
·µ µZ r ¶ ¶ ¸
x x
= v(t + r, x) + E exp q(Xs )ds − 1 Zt+r f (Xt+r )
0
obtenemos
E [v(t, Xrx )] − v(t, x) r↓0 ∂v
−→ + qv.
r ∂t
b) Consideremos los procesos
Yt = (s − t, Xtx )
Z t
Rt = q(Xsx )ds.
0
∂w
Teniendo encuenta que w satisface la ecuación Aw + qw = ∂t
, obtenemos
Z tXn X m
−Rt ∂w
e w(Yt ) = w(s, x) + (s − r, Xrx )σ i,j (Xrx )e−Rr dBrj .
0 i=1 j=1 ∂x i
91
Introduciendo, com antes, el tiempo de paro
Ejercicios
3.1 Comprobar que los siguientes procesos satisfacen las ecuaciones diferen-
ciales estocásticas indicadas:
Bt
(i) El proceso Xt = 1+t
cumple
1 1
dXt = − Xt dt + dBt ,
1+t 1+t
X0 = 0
¡ ¢
(ii) El proceso Xt = sin Bt , con B0 = a ∈ − π2 , π2 es solución de
1 p
dXt = − Xt dt + 1 − Xt2 dBt ,
2
£ ¤
/ − π2 , π2 .
para t < T = inf{s > 0 : Bs ∈
(iii) (X1 (t), X2 (t)) = (t, et Bt ) satisface
· ¸ · ¸ · ¸
dX1 1 0
= dt + X1 dBt
dX2 X2 e
92
(iv) (X1 (t), X2 (t)) = (cosh(Bt ), sinh(Bt )) satisface
· ¸ · ¸ · ¸
dX1 1 X1 X2
= dt + dBt .
dX2 2 X2 X1
X1 (t)2 + X2 (t)2 = 1,
y por lo tanto, Xt puede considerarse como un movimiento brow-
niano en la circunferencia de radio 1.
(vi) El proceso Xt = (x1/3 + 13 Bt )3 , x > 0, cumple
1 1/3 2/3
dXt = Xt dt + Xt dBt .
3
3.2 Consideremos un movimiento browniano n-dimensional Bt y fijemos con-
stantes αi , i = 1, . . . , n. Resolver la ecuación diferencial estocástica
n
X
dXt = rXt dt + Xt αk dBk (t).
k=1
(i) · ¸ · ¸ · ¸· ¸
dX1 1 1 0 dB1
= dt + .
dX2 0 0 X1 dB2
93
(ii) ·
dX1 (t) = X2 (t)dt + αdB1 (t)
dX2 (t) = X1 (t)dt + βdB2 (t)
94
a) Af (x) = f 0(x) + f 00 (x), f ∈ C02 (R)
∂f 2
b) Af (x) = ∂t
+ cx ∂f
∂x
+ 12 α2 x2 ∂∂xf2 , f ∈ C02 (R2 )
∂f ∂f 2
c) Af (x1 , x2 ) = 2x2 ∂x 1
+ log(1 + x21 + x22 ) ∂x 2
+ 12 (1 + x21 ) ∂∂xf2
1
2f
1 ∂2f
+x1 ∂x∂1 ∂x 2
+ 2 ∂x22
, f∈ C02 (R2 )
3.8 Demostrar que la solución u(t, x) del problema con valor inicial
∂u 1 2 2 ∂ 2u ∂u
= β x 2
+ αx , t > 0, x ∈ R
∂t 2 ∂x ∂x
2
u(0, x) = f (x), f ∈ C0 (R)
95
c) La ley del cociente SSst es una distribución lognormal con parámetros
³ 2
´
µ − σ2 (t − s), σ 2 (t − s).
φ = {(αt , β t ) , 0 ≤ t ≤ T }
Vt (φ) = αt ert + β t St .
Observemos que
96
Se dice que un modelo es viable si existe una probabilidad equivalente
respecto de la cual los precios actualizados forman una martingala. Esta
condición es equivalente a que no haya arbitrajes (carteras autofinanciadas
con valor inicial cero y tales que VT (φ) ≥ 0 y P (VT (φ) > 0) > 0). Tales
probabilidades se denominan probabilidades sin riesgo.
El teorema de Girsanov nos dice que existe una probabilidad Q respecto
de la cual el proceso
µ−r
Wt = Bt + t
σ
es una martingala. En función del proceso Wt los precios se escriben
µ ¶
σ2
St = S0 exp rt − t + σWt ,
2
Observemos que una tal cartera no puede ser un arbitraje ya que si su valor
inicial es nulo, entonces,
³ ´
EQ VeT (θ) = V0 (θ) = 0.
97
• En el caso de una opción de compra europea de vencimiento T y precio
de ejercicio K, tendremos
h = (ST − K)+ .
h = (K − ST )+ .
Diremos que una cartera autofinanciada φ que cunple (60) cubre el derivado
si VT (θ) = h, y se dice entonces que la variable h es replicable.
El precio del derivado en cualquier instante t ≤ T se determina como el
valor de una cartera de cobertura, suponiendo que el beneficio h es replicable.
Vendrá dado por la fórmula
98
Definimos la cartera autofinanciada φt = (αt , β t ) por
Kt
βt = ,
σ Set
1e
αt = Mt − St .
σ
El valor actualizado de esta cartera será
Por lo tanto,
Vt = F (t, St ), (62)
donde ³ ´
2
F (t, x) = e−r(T −t) EQ g(xer(T −t) eσ(WT −Wt )−σ /2(T −t) ) . (63)
g(x) = (x − K)+ ,
g(x) = (K − x)+ ,
99
fórmula de Itô a (62) se obtiene
Z t Z t
∂F ∂F
Vt = V0 + σ (u, Su )Su dWu + r (u, Su )Su du
0 ∂x 0 ∂x
Z t Z
∂F 1 t ∂2F
+ (u, Su )du + 2
(u, Su ) σ 2 Su2 du
0 ∂t 2 0 ∂x
Z t
∂F
= V0 + σ (u, Su )Su dWu
0 ∂x
Z t
+ Ku du.
0
Por otro lado, sabemos que Vt es un proceso de Itô con representación
Z t Z t
Vt = V0 + σHu Su dWu + rVu du.
0 0
Comparando estas dos expresiones se deduce
∂F
Ht = (t, St ),
∂x
∂F 1 2 2 ∂ 2F
rF (t, St ) = (t, St ) + σ St (t, St )
∂t 2 ∂x2
∂F
+rSt (t, St ).
∂x
El soporte de la ley de probabilidad de la variable aleatoria St es [0, ∞). Per
tanto, estas igualdades nos dicen que F (t, x) satisface la ecuación
∂F ∂F 1 ∂ 2F
(t, x) + rx (t, x) + (t, x) σ 2 x2 = rF (t, x), (64)
∂t ∂x 2 ∂x2
F (T, x) = g(x).
Por otra parte, la cartera recubridora será
∂F
αt = (t, St ),
∂x
β t = e−rt (F (t, St ) − Ht St ) .
100
donde θ = T − t. En el caso particular de una opción de compra europea de
precio de ejercicio K y vencimiento T , g(x) = (x − K)+ , se obtiene
Z ∞ ³ √ ´+
1 −y 2 /2
2
− σ2 θ+σ θy −rθ
F (t, x) = √ e xe − Ke dy
2π −∞
= xΦ(d+ ) − Ke−r(T −t) Φ(d− ),
donde
³ ´
x σ2
log K
+ r− 2
(T − t)
d− = √ ,
σ T −t
³ 2
´
log Kx + r + σ2 (T − t)
d+ = √
σ T −t
Por tanto, el precio en el instante t será
Ct = F (t, St ).
References
[1] I. Karatzas and S. E. Schreve: Brownian Motion and Stochastic Calculus.
Springer-Verlag 1991
101