0% encontró este documento útil (0 votos)
513 vistas101 páginas

Calculo Estocastico PDF

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
513 vistas101 páginas

Calculo Estocastico PDF

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Cálculo estocástico

David Nualart
Universitat de Barcelona

1
1 Probabilidades y procesos estocásticos
1.1 Conceptos básicos del cálculo de probabilidades
Recordemos en primer lugar algunas definiciones generales del cálculo de
probabilidades.
Un espacio de probabilidad es una terna (Ω, F, P ) formada por:

(i) Un conjunto Ω que representa el conjunto de los posibles resultados de


una cierta experiencia aleatoria.

(ii) Una familia F de subconjuntos de Ω que tiene estructura de σ-álgebra:


a) ∅ ∈ F
b) Si A ∈ F, su complementario Ac también pertenece a F
c) A1 , A2 , . . . ∈ F =⇒ ∪∞
i=1 Ai ∈ F

(iii) Una aplicación P : F → [0, 1] que cumple:


a) P (∅) = 0, P (Ω) = 1
b) Si A1 , A2 , . . . ∈ F son conjuntos disjuntos dos a dos (es decir, Ai ∩
Aj = ∅ si i 6= j), entonces
P∞
P (∪∞
i=1 Ai ) = i=1 P (Ai )

Los elementos de la σ-álgebra F se denominan sucesos y la aplicación P se


denomina una probabilidad, de forma que tenemos la siguiente interpretación
de este modelo:

P (F )=“probabilidad de que el suceso F se realice”

Si P (F ) = 1, diremos que el suceso F ocurre con probabilidad uno, o casi


seguramente.
Las propiedades a) y b) permiten deducir algunas reglas básicas del
cálculo de probabilidades:

P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅
P (Ac ) = 1 − P (A)
A ⊂ B =⇒ P (A) ≤ P (B).

2
Ejemplo 1 Lanzamos un dado.
Ω = {1, 2, 3, 4, 5, 6}
F = P(Ω) (F contiene todos los subconjuntos de Ω)
1
P ({ω i }) = , para i = 1, . . . , 6
6

Ejemplo 2 Elegimos un número al azar en el intervalo [0, 2]. Ω = [0, 2], F es


la σ-álgebra de Borel (generada por los intervalos de [0, 2]). La probabilidad
de cualquier intervalo [a, b] ⊂ [0, 2] será
b−a
P ([a, b]) = .
2

Se dice que un espacio de probabilidad (Ω, F, P ) es completo si dado un


suceso A de probabilidad cero, todos los subconjuntos de A pertenecen a la
σ-álgebra F. Un espacio de probabilidad siempre se puede completar substi-
tuyendo la σ-álgebra F por una σ-álgebra mayor formada por los conjuntos
de la forma F ∪ A, donde F ∈ F y A es un subconjunto de un conjunto de
F de probabilidad cero.
Si U es una familia de subconjuntos de Ω, la más pequeña σ-álgebra que
contiene a U es, por definición,
σ(U) = ∩ {G, G es una σ-álgebra, U ⊂ G} ,
y se denomina la σ-álgebra generada por U. Por ejemplo, la σ-álgebra gen-
erada por los conjuntos abiertos (o por los rectángulos) de Rn se denomina
la σ-álgebra de Borel de Rn y la representaremos por BRn .

Ejemplo 3 Consideremos una partición finita P = {A1 , . . . , An } de Ω. La σ-


álgebra generada por P está formada por todas las uniones de los elementos
de la partición (2n en total).

Una variable aleatoria es una aplicación


X
Ω −→ R
ω → X(ω)
que es F-medible, es decir, X −1 (B) ∈ F , para todo conjunto B de la σ-
álgebra de Borel de R.

3
• Una variable aleatoria determina una σ-álgebra {X −1 (B), B ∈ BR } ⊂
F que se denomina la σ-álgebra generada por X.

• Una variable aleatoria determina una probabilidad en la σ-álgebra de


Borel BR definida por PX = P ◦ X −1 , es decir,

PX (B) = P (X −1 (B)) = P ({ω : X(ω) ∈ B})

La probabilidad PX se denomina la ley o distribución de la variable X.

Diremos que una variable aleatoria X tiene densidad de probabilidad fX


si fX (x) es una función positiva, medible respecto de la σ-álgebra de Borel
y tal que Z b
P (a < X < b) = fX (x)dx,
a
para todo a < b.
Las variables discretas (que toman un conjunto finito o numerable de
valores distintos xk ) no tienen densidad y su ley está determinada por la
función de probabilidad :
pk = P (X = xk ).

Ejemplo 4 Una variable aleatoria tiene ley normal N (m, σ 2 ) si


Z b
1 (x−m)2
P (a < X < b) = √ e− 2σ2 dx
2πσ 2 a
para todo par de números reales a < b.

Ejemplo 5 Una variable aleatoria tiene ley binomial B(n, p) si


µ ¶
n k
P (X = k) = p (1 − p)n−k ,
k
para k = 0, 1, . . . , n.

La distribución de una variable aleatoria X puede caracterizarse mediante


su función de distribución definida como la probabilidad acumulada:

FX (x) = P (X ≤ x) = PX ((−∞, x])

4
• La función FX : R →[0, 1] es creciente, continua por la derecha y con
lı́mites iguales a cero en −∞ y 1 en +∞.

• Si la variable X tiene densidad fX , entonces,


Z x
FX (x) = fX (y)dy,
−∞

y si la densidad es continua, FX0 (x) = fX (x).

La esperanza matemática de una variable aleatoria X se define como la


integral de X respecto de la probabilidad P , considerada como una medida
en el espacio (Ω, F). En particular, si X es una variable elemental que toma
los valores α1 , . . . , αn en los conjuntos A1 , . . . , An , su esperanza valdrá
n
X
E(X) = αi P (Ai ).
i=1

El cálculo de la esperanza de una variable aleatoria se efectua integrando la


función x respecto de la ley de probabilidad de la variable. Es decir, si X es
una variable que tiene esperanza (o sea E(|X|) < ∞) se tiene
Z Z ∞
E(X) = X(ω)dP (ω) = xdPX (x).
Ω −∞

Más generalmente, si g : R → R es una función medible respecto de la σ-


álgebra de Borel y E(|g(X)|) < ∞, entonces la esperanza de la variable g(X)
se puede calcular integrando la función g respecto de la ley de la variable X:
Z Z ∞
E(g(X)) = g(X(ω))dP (ω) = g(x)dPX (x).
Ω −∞
R∞
La integral −∞ g(x)dPX (x) se calcula utilizando la densidad o función de
probabilidad de la variable X:

Z ∞ ½ R∞
g(x)fX (x)dx, fX (x) es la densidad de X
g(x)dPX (x) = P −∞
−∞ k g(xk )P (X = xk ), X variable discreta

5
Ejemplo 6 Si X es una variable aleatoria con ley normal N (0, σ 2 ) y λ es un
número real,
Z ∞
1 x2
E(exp (λX)) = √ eλx e− 2σ2 dx
2πσ 2 −∞ Z

1 σ 2 λ2 (x−σ 2 λ)2
= √ e 2 e− 2σ2 dx
2πσ 2 −∞
σ 2 λ2
= e 2 .

La varianza de una variable aleatoria X se define por

σ 2X = Var(X) = E((X − E(X))2 ) = E(X 2 ) − [E(X)]2 .

La varianza nos mide el grado de dispersión de los valores de la variable


respecto de su esperanza. Por ejemplo, si X es una variable con ley normal
N (m, σ 2 ) se tiene
X −m
P (m − 1.96σ ≤ X ≤ m + 1.96σ) = P (−1.96 ≤ ≤ 1.96)
σ
= Φ(1.96) − Φ(−1.96) = 0.95,

donde Φ es la función de distribución de la ley N (0, 1). Es decir, la probabil-


idad de que la variable X tome valores en el intervalo [m − 1.96σ, m + 1.96σ]
es igual a 0.95.

Diremos que X = (X1 , . . . , Xn ) es un vector aleatorio n-dimensional si


sus componentes son variables aleatorias.
La esperanza de un vector aleatorio n-dimensional X será el vector

E(X) = (E(X1 ), . . . , E(Xn ))

La matriz de covarianzas de un vector aleatorio n-dimensional X es, por


definición, la matriz ΓX = (cov(Xi , Xj ))1≤i,j≤n , donde

cov(Xi , Xj ) = E [(Xi − E(Xi )) (Xj − E(Xj ))] .

Es decir, los elementos de la diagonal de esta matriz son las varianzas de las
variables Xj y fuera de la diagonal encontramos las covarianzas entre dos
variables Xi y Xj .

6
Como en el caso de variables aleatorias se introduce la ley o distribución
de un vector aleatorio n-dimensional X como la probabilidad definida en la
σ-álgebra de Borel BRn por

PX (B) = P (X −1 (B)) = P (X ∈ B).

Diremos que un vector aleatorio n-dimensional X tiene una ley normal


N = (m, Γ), donde m ∈ Rn , y Γ es una matriz simétrica y definida positiva,
si

P (ai ≤ Xi ≤ bi , i = 1, . . . , n)
Z bn Z b1
n 1 Pn −1
= ··· (2π det Γ)− 2 e− 2 i,j=1 (xi −mi )(xj −mj )Γij dx1 · · · dxn .
an a1

En tal caso, se tiene, m = E(X) y Γ = ΓX .


Si la matrix Γ es una matriz diagonal
 
σ 21 · · · 0
 .. . . .. 
Γ= . . . 
0 ··· σ 2n

entonces la densidad del vector X será el producto de n densidades normales


unidimensionales:
n
à !
Y 1 −
(x−mi )2
2
fX (x1 , . . . , xn ) = p e 2σi .
2
i=1 2πσ i

Existen también leyes normales degeneradas, en las que la matriz Γ es


singular. En este caso, no existe la densidad de probabilidad, y la ley de X
queda determinada por su función caracterı́stica:
³ 0 ´ µ ¶
it X 0 1 0
E e = exp it m − t Γt ,
2

donde t ∈ Rn . En esta fórmula t0 es un vector lı́nea (matriz 1 × n) y t es un


vector columna (matriz n × 1).

Si X es un vector normal n-dimensional con ley N (m, Γ) y A es una


matriz m × n, entonces AX es un vector normal m-dimensional con ley
N (Am, AΓA0 ).

7
Diremos que una variable tiene media de orden p ≥ 1 si E(|X|p ) < ∞.
En tal caso, se define el momento de orden p de la variable aleatoria X como

mp = E(X p ).

El conjunto de las variables que tienen media de orden p se representa por


Lp (Ω, F, P ).
Sea X una variable aleatoria con función caracterı́stica
ϕX (t) = E(eitX ).
Los momentos de la variable aleatoria puede calcularse a partir de las derivadas
de la función caracterı́stica en el origen
1 (n)
mn = ϕ (t)|t=0 .
in X

Recordemos algunas desigualdades importantes en el cálculo de probabil-


idades:

• Desigualdad de Tchebychev: Si λ > 0


1
P (|X| > λ) ≤ E(|X|p ).
λp
• Desigualdad de Schwartz:
p
E(XY ) ≤ E(X 2 )E(Y 2 ).

• Desigualdad de Hölder:
1 1
E(XY ) ≤ [E(|X|p )] p [E(|Y |q )] q ,
1 1
donde p, q > 1 y p
+ q
= 1.
• Desigualdad de Jensen: Si ϕ : R → R es una función convexa tal que las
variables X y ϕ(X) tienen esperanza, entonces,
ϕ(E(X)) ≤ E(ϕ(X)).
En particular si ϕ(x) = |x|p , con p ≥ 1, tendremos
|E(X)|p ≤ E(|X|p ).

8
Recordemos los diferentes modos de convergencia de una sucesión de vari-
ables aleatorias Xn , n = 1, 2, 3, . . .:
c.s.
Convergencia casi segura: Xn −→ X, si

lim Xn (ω) = X(ω),


n→∞

para todo ω ∈
/ N , donde P (N ) = 0.
P
Convergencia en probabilidad: Xn −→ X, si

lim P (|Xn − X| > ε) = 0,


n→∞

para todo ε > 0.


Lp
Convergencia en media de orden p ≥ 1: Xn −→ X, si

lim E(|Xn − X|p ) = 0.


n→∞

L
Convergencia en ley: Xn −→ X, si

lim FXn (x) = FX (x),


n→∞

para todo punto x de continuidad de la función de distribución FX .

• La convergencia en media de orden p implica la convergencia en prob-


abilidad ya que, debido a la desigualdad de Tchebychev tendremos
1
P (|Xn − X| > ε) ≤ p
E(|Xn − X|p ).
ε

• La convergencia casi segura implica la convergencia en probabilidad


(esto es más difı́cil de demostrar).

• La convergencia casi segura implica la convergencia en media de orden


p ≥ 1, si las variables aleatorias Xn están acotadas por una variable
aleatoria integrable Y (teorema de convergencia dominada):

|Xn | ≤ Y, E(Y ) < ∞.

9
La convergencia en ley es diferente de los otros tipos de convergencia, ya
que lo que nos interesa es la ley de las variables y no sus valores particulares.

Un concepto fundamental en probabilidades es el de independencia. Dos


sucesos A, B ∈ F se dicen independientes si

P (A ∩ B) = P (A)P (B).

Si tenemos una colección finita o infinita de sucesos {Ai , i ∈ I}, diremos


que los sucesos de la colección son independientes si

P (Ai1 ∩ · · · ∩ Aik ) = P (Ai1 ) · · · P (Aik )

para todo conjunto finito de ı́ndices {i1 , . . . , ik } ⊂ I.


Una colección de conjuntos de sucesos {Gi , i ∈ I} diremos que es indepen-
diente si cualquier colección de sucesos {Ai , i ∈ I} tal que Ai ∈ Gi para todo
i ∈ I, es independiente.
Una colección de variables aleatorias
© −1{Xi , i ∈ I} se ª dice que es indepen-
diente si la colección de σ-álgebras Xi (BR ), i ∈ I lo es. Esto significa
n

que

P (Xi1 ∈ Bi1 , . . . , Xik ∈ Bik ) = P (Xi1 ∈ Bi1 ) · · · P (Xik ∈ Bik ),

para todo conjunto finito de ı́ndices {i1 , . . . , ik } ⊂ I, donde los Bj son con-
juntos de Borel.
Si dos variables aleatorias reales X, Y son independientes y tienen esper-
anza finita, entonces el producto XY tiene esperanza finita y se cumple la
relación
E(XY ) = E(X)E(Y ) .
Más generalmente, si las variables X1 , . . . , Xn son independientes,

E [g1 (X1 ) · · · gn (Xn )] = E [g1 (X1 )] · · · E [gn (Xn )] ,

donde las gi son funciones medibles tales que E [|gi (Xi )|] < ∞.

Las componentes de un vector aleatorio son independientes sı́ y solo sı́ su


densidad o función de probabilidad es igual al producto de las densidades o
funciones de probabilidad de cada componente.

10
1.2 Procesos estocásticos
Un proceso estocástico és una familia de variables aleatorias reales {Xt , t ≥ 0}
definidas en un espacio de probabilidad (Ω, F, P ).
El conjunto de parámetros [0, ∞) representa el tiempo y en algunos casos
supondremos que es un intervalo acotado [0, T ], o el conjunto los números
naturales (procesos a tiempo discreto).
Per cada ω ∈ Ω, la aplicación

t −→ Xt (ω)

se dnomina una trayectoria del proceso estocástico.


Si fijamos un conjunto finito de instantes {0 ≤ t1 < · · · < tn } tendremos
un vector aleatorio
(Xt1 , . . . , Xtn ) : Ω −→ Rn .
Las distribuciones de probabilidad Pt1 ,...,tn = P ◦ (Xt1 , . . . , Xtn )−1 se denom-
inan las distribuciones en dimensión finita del proceso.
El siguiente teorema debido a Kolmogorov asegura la existencia de un
proceso estocástico asociado a una familia de distribuciones en dimensión
finita que satisfagan una condición de compatibilidad.

Teorema 1 Consideremos una familia de probabilidades

{Pt1 ,...,tn , 0 ≤ t1 < · · · < tn , n ≥ 1}

tales que:

1. Pt1 ,...,tn es una probabilidad en Rn

2. (Condición de compatibilidad): Si {0 ≤ s1 < · · · < sm } ⊂ {0 ≤ t1 <


· · · < tn }, entonces

Pt1 ,...,tn ◦ π −1 = Ps1 ,...,sm

donde π : Rn → Rm es la proyección natural asociada a los dos con-


juntos de ı́ndices.

Entonces, existe un proceso estocástico {Xt , t ≥ 0} que tiene la familia


{Pt1 ,...,tn } como distribuciones en dimensión finita.

11
La media y la autocovarianza de un proceso estocástico se definen como
sigue:

mX (t) = E(Xt )
ΓX (s, t) = Cov(Xs , Xt )
= E((Xs − mX (s))(Xt − mX (t)).

La varianza del proceso X se define por

σ 2X (t) = ΓX (t, t) = Var(Xt ).

Ejemplo 7 Consideremos el proceso estocástico

Xt = A cos(ϕ + λt),

donde A y ϕ son variables aleatorias independientes tales que E(A2 ) < ∞ y


ϕ tiene ley uniforme en [0, 2π]. En este caso,

mX (t) = 0
1
ΓX (s, t) = E(A2 ) cos λ(t − s).
2

Se dice que un proceso estocástico {Xt , t ≥ 0} es gaussiano o normal si


sus distribuciones en dimensión finita son leyes normales multidimensionales.
Observamos que en el caso de un proceso gaussiano, la media mX (t) y
la autocovarianza ΓX (s, t) determinan las distribuciones en dimensión finita
del proceso.
La media mX (t) y la varianza σ 2X (t) nos permiten conocer donde se
concentran los valores de la variable Xt ası́ como su grado de dispersión,
para cada instante t fijo. Por ejemplo, en el caso de un proceso gaussiano,

P (mX (t) − 2σ X (t) ≤ Xt ≤ mX (t) + 2σ X (t)) w 0.95.

Notemos que la probabilidad de que las trayectorias del proceso estén


comprendidas entre las curvas mX (t) − 2σ X (t) y mX (t) − 2σ X (t) es mucho
más difı́cil de calcular.

12
Ejemplo 8 Consideremos un proceso gaussiano {Xt , t ∈ [0, 1]} tal que las
variables aleatorias Xt son independientes y con ley N (0, σ 2 ). La media y
autocovarianza de este proceso son

mX (t) = 0
½
1 si s = t
ΓX (s, t) =
0 si s 6= t

Se dice que un proceso estocástico {Xt , t ≥ 0} es una versión de otro


proceso {Xt0 , t ≥ 0} si para cada t ≥ 0

P {Xt = Xt0 } = 1.

Se dice también que ambos procesos son equivalentes. Dos procesos equiva-
lentes puede tener trayectorias diferentes (véase el Ejercicio 1.6).

Diremos que el proceso {Xt , t ≥ 0} es continuo en probabilidad si para


todo ε > 0 y todo t ≥ 0

lim P (|Xt − Xs | > ε) = 0.


s→t

Consideremos un proceso estocástico {Xt , t ≥ 0} tal que E (|Xt |p ) < ∞,


para todo t ≥ 0, donde p ≥ 1. Diremos que el proceso {Xt , t ≥ 0} es continuo
en media de orden p si

lim E (|Xt − Xs |p ) = 0.
s→t

La continuidad en media de orden p implica la continuidad en probabilidad.


Sin embargo, la continuidad en media de orden p no implica necesariamente
la continuidad de las trayectorias.

Ejemplo 9 El proceso de Poisson {Nt , t ≥ 0} es un proceso estocástico car-


acterizado por la ssiguientes propiedades:

i) Nt = 0,

ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Ntn −Ntn−1 , . . . , Nt2 −
Nt1 , son variables aleatorias independientes,

13
iii) Si s < t, el incremento Nt − Ns tiene una ley de Poisson de parámetro
λ(t − s), es decir

[λ(t − s)]k
P (Nt − Ns = k) = e−λ(t−s) ,
k!
k = 0, 1, 2, . . .

Se puede construir un proceso de Poisson de la forma siguiente. Consid-


eremos una sucesión {Yn , n ≥ 1} de variables aleatorias independientes y con
ley geométrica de parámetro λ. Es decir, para todo x ≥ 0,

P (Yn ≥ x) = e−λx .

Pongamos T0 = 0 y para n ≥ 1,

T n = Y1 + · · · + Yn .

Entonces, el proceso Nt definido por

Nt = n si Tn ≤ t < Tn+1

es un proceso de Poisson de parámetro λ.


Por consiguiente, las trayectorias del proceso de Poisson tienen saltos de
amplitud 1 y son constantes en cada par de saltos. Los tiempos entre cada
par de saltos son variables aleatorias independientes con leyes exponenciales
de parámetro λ. Por tanto, las trayectorias no son continuas, aunque si que
los son en media cuadrática:

X
£ 2¤ −λ(t−s) k
2
[λ(t − s)]k
E (Nt − Ns ) = e
k=1
k!
s→t
= λ(t − s) + [λ(t − s)]2 −→ 0.

Acotaciones adecuadas de los momentos de los incrementos del proceso,


permiten deducir la continuidad de las trayectorias. Este es el contenido del
siguiente criterio de continuidad, debido a Kolmogorov.

14
Proposición 2 (Criterio de continuidad) Supongamos que un proceso es-
tocástico {Xt , t ≥ 0} cumple la condición siguiente:

E (|Xt − Xs |p ) ≤ cT |t − s|α (1)

para todo 0 ≤ s < t ≤ T , donde a > 1 y p > 0. Entonces existe una versión
del proceso estocástico Xt que tiene trayectorias continuas.

Ejemplo 10 El proceso de Poisson no cumple la condición (1).

La condición (1) nos permide además tener información sobre la regu-


laridad de las trayectorias. En efecto, fijemos un intervalo de tiempo [0, T ].
Entonces, para cada ε > 0 existe una variable aleatoria Gε,T tal que, con
probabilidad uno,
α
|Xt (ω) − Xs (ω)| ≤ Gε,T (ω)|t − s| p −ε , (2)

para todo s, t ∈ [0, T ]. Además, E(Gpε,T ) < ∞ para todo p ≥ 1.

1.3 Movimiento browniano


En 1828 el botánico inglés Robert Brown observó que los granos de polen en
suspensión se movı́an de forma irregular. Posteriormente se descubrió que
este fenómeno es debido a los choques aleatorios de las partı́culas de polen
con las moléculas del lı́quido. En los años 20 Norbert Wiener presentó un
modelo matemático para este movimiento basado en la teorı́a de los procesos
estocásticos. La posición de una partı́cula en cada instante t ≥ 0 es un vector
variable aleatorio 3-dimensional Bt .
En el caso unidimensional la definición del movimiento browniano como
proceso estocástico es la siguiente:

Definición 3 Un proceso estocástico {Bt , t ≥ 0} es un movimiento browni-


ano si se cumplen las condiciones siguientes:

i) B0 = 0

ii) Fijados n instantes 0 ≤ t1 < · · · < tn los incrementos Btn −Btn−1 , . . . , Bt2 −
Bt1 , son variables aleatorias independientes

15
iii) Si s < t, el incremento Bt − Bs tiene una ley normal N (0, t − s)
iv) Las trayectorias del proceso son funciones continuas.

Observaciones
1) El movimiento browniano es un proceso gaussiano. En efecto, la ley un
vector aleatorio (Bt1 , . . . , Btn¡) es normal ya que este vector es¢una trans-
formación lineal del vector Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 que tiene
ley normal ya que tiene las componentes independientes y normales.
2) La media y la autocovarianza del movimiento browniano se calculan facil-
mente:
E(Bt ) = 0
E(Bs Bt ) = E(Bs (Bt − Bs + Bs ))
= E(Bs (Bt − Bs )) + E(Bs2 ) = s = min(s, t)
si s ≤ t. Puede comprobarse fácilmente que si un proceso gaussiano
tiene media cero y función de autocovarianza ΓX (s, t) = min(s, t), en-
tonces cumple las condiciones i), ii) y iii) de la Definición anterior.
3) Puede demostrarse que existe un proceso estocástico que cumple las
condiciones anteriores. Para ello, se parte de sus distribuciones en
dimensión finita, que son leyes normales N (0, Γ) donde Γ es la la ma-
triz  
t1 t1 · · · t1
 t1 t2 · · · t2 
 
 .. .. . . ..  .
 . . . . 
t1 t2 · · · tn
El teorema de extensión de Kolmogorov permite construir un proceso
estocástico fijadas las distribuciones en dimensión finita, siempre que
sean compatibles, lo que aquı́ es cierto. Finalmente hay que demostrar
que se pueden modificar las variables Bt conjuntos de probabilidad
cero de forma que las trayectorias sean continuas. Para ello se aplica el
criterio de continuidad de Kolmogorov. Como los incrementos Bt − Bs
tienen ley normal N (0, t − s), para todo número entero k tendremos
h i (2k)!
E (Bt − Bs )2k = k (t − s)k . (3)
2 k!

16
Por lo tanto, elegiendo k = 2, ya podemos asegurar que existe una
versión continua, ya que
£ ¤
E (Bt − Bs )4 = 3(t − s)2 .

4) En la definición de movimiento bronwiano, se supone que el espacio de


probabilidad (Ω, F, P ) es arbitrario. Sin embargo, mediante la apli-
cación

Ω → C ([0, ∞), R)
ω → B· (ω)

podemos suponer que el espacio de probabilidad es el conjunto de


las funciones continuas C ([0, ∞), R) con la σ-álgebra de Borel (gen-
erada por los conjuntos abiertos relativos a la estructura de espacio
métrico separable y completo) y con una probabilidad igual a la ley del
movimiento browniano: P ◦ B −1 . En tal caso las variables aleatorias
son las evaluaciones ω(t) y este espacio de probabilidad se denomina
espacio canónico.

Regularidad de las trayectorias


Queremos aplicar la desigualdad (2) al movimiento browniano. Eligiendo
p = 2k y utilizando (3), tendremos α = k. Por lo tanto, para todo ε > 0
existe una variable aleatoria Gε,T tal que
1
|Bt − Bs | ≤ Gε,T |t − s| 2 −ε , (4)

para cada s, t ∈ [0, T ]. Es decir, las trayectorias del movimiento Browniano


son Hölder continuas de orden 12 − ε para todo ε > 0. Intuitivamente, esto
significa que
1
∆Bt = Bt+∆t − Bt w (∆t) 2 .
£ ¤
En media esta aproximación es exacta: E (∆Bt )2 = ∆t.

Variación cuadrática del movimiento browniano


Fijemos un intervalo de tiempo [0, t] y consideremos una subdivisión π de
este intervalo
0 = t0 < t1 < · · · < tn = t.

17
La norma de la subdivisión π se define como |π| = maxk ∆tk , donde ∆tk =
tk − tk−1 . Pongamos ∆Bk = Btk − Btk−1 . Entonces, si tj = jt
n
tendremos
n
X µ ¶ 21
t
|∆Bk | w n −→ ∞,
k=1
n

mientras que
n
X t
(∆Bk )2 w n = t. (5)
k=1
n
Esas propiedades pueden formularse de manera rigurosa como sigue:
En primer lugar, puede demostrarse que las sumas de los cuadrados de
los incrementos convergen en media cuadrática hacia la longitud del intervalo
de tiempo considerado:
Ã !2  Ã !2 
Xn X n
£ ¤
E (∆Bk )2 − t  = E  (∆Bk )2 − ∆tk 
k=1 k=1
n
X ³£ ¤2 ´
= E (∆Bk )2 − ∆tk
k=1
n
X £ ¤
= 4 (∆tk )2 − 2 (∆tk )2 + (∆tk )2
k=1
Xn
|π|→0
= 3 (∆tk )2 ≤ 3t|π| −→ 0.
k=1

Por otra parte, la variación total de las trayectorias del movimiento brow-
niano, definida como
X n
V = sup |∆Bk |
π
k=1
es infinita con probabilidad uno. En efecto, utilizando la continuidad de las
trayectorias del movimiento browniano, tendremos
n
à n !
X 2
X |π|→0
(∆Bk ) ≤ sup |∆Bk | |∆Bk | ≤ V sup |∆Bk | −→ 0 (6)
k k
k=1 k=1
Pn
si V < ∞, lo cual contradice que k=1 (∆Bk )2 converja en media cuadrática
hacia t cuando |π| → 0.

18
Propiedad de autosimilitud
Para todo número real a > 0, el proceso
© −1/2 ª
a Bat , t ≥ 0

es un movimiento browniano. En efecto, este proceso es normal, con media


cero y función de autocovarianza igual a min(s, t).

Procesos relacionados con el movimiento browniano

1.- El puente browniano: Consideremos el proceso

Xt = Bt − tB1 ,

t ∈ [0, 1]. Se trata de un proceso normal centrado con función de


autocovarianza
E(Xt Xs ) = min(s, t) − st,
que verifica X0 = 0, X1 = 0.

2.- El movimiento browniano con deriva: Consideremos el proceso

Xt = σBt + µt,

t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Se trata de un proceso


normal con media y función de autocovarianza

E(Xt ) = µt,
ΓX (s, t) = σ 2 min(s, t)

3.- Movimiento browniano geométrico: Es el proceso estocástico propuesto


por Black, Scholes y Merton como modelo para la curva de precios de
los activos financieros. Su definición es la siguiente

Xt = eσBt +µt ,

t ≥ 0, donde σ > 0 y µ ∈ R son constantes. Es decir, se trata de la


exponencial de un movimiento browniano con deriva lineal.

19
Simulación del movimiento browniano
El movimiento browniano puede considerarse como el lı́mite de los paseos
aleatorios. Fijemos un intervalo de tiempo [0, T ]. Consideremos n variables
aleatorias ξ 1 , . . . , ξ n independientes, idénticamente distribuidas, centradas y
de varianza Tn . Formemos las sumas parciales
Rk = ξ 1 + · · · + ξ k , k = 1, . . . , n.
El Teorema Central del Lı́mite nos dice que cuando n tiende a infinito, la
sucesión Rn converge en ley hacia la ley N (0, T ).
Consideremos ahora el proceso estocástico continuo Sn (t) construido por
interpolación lineal a partir de los valores
kT
Sn ( ) = Rk k = 0, . . . , n.
n

Es decir, colocamos las sumas parciales R1 , R2 , . . . en los instantes Tn , 2T


n
, 3T
n
,...
.
Se verifica una versión funcional del Teorema Central del Lı́mite, conocida
con el nombre de Principio de Invariancia de Donsker, que nos dice que la
sucesión de procesos estocásticos Sn (t) convege en ley hacia el movimiento
browniano en [0, T ].

También puede hacerse una simulación de las trayectorias brownianas


mediante series de Fourier con coeficientes aleatorios. La representación de
Paley-Wiener del movimiento browniano es

t 2 X sin(nt/2)
Bt = Z 0 √ + √ Zn , t ∈ [0, 2π],
2π π n=1 n

donde las Zn , n = 0, 1, . . . son variables aleatorias independientes y con


ley N (0, 1). La serie converge uniformemente en [0, 2π], para cada ω, casi
seguramente.
Para utilizar esta fórmula en la simulación de las trayectorias brownianas
debemos elegir el número M de funciones trigonométricas y el número N de
puntos de discretización de las funciones:
M
tj 2 X sin(ntj /2)
Z0 √ + √ Zn ,
2π π n=1 n

20
2πj
donde tj = N
, j = 0, 1, . . . , N .

1.4 Esperanza condicionada


La probabilidad condicionada de un suceso A por un suceso B (suponiendo
P (B) > 0) se define como

P (A∩B)
P (A|B) = P (B)
.

Vemos que A y B son independientes sı́ y solo si P (A|B) = P (A). La


probabilidad condicionada P (A|B) representa la probabilidad del suceso A
suponiendo que sabemos que B ha ocurrido. La aplicación

A 7−→ P (A|B)

define una nueva probabilidad en la σ-álgebra F que se concentra en el con-


junto B. Se puede calcular entonces la esperanza condicionada por B de una
variable aleatoria integrable X:
1
E(X|B) = E(X1B ),
P (B)
donde 1B representa la función indicatriz del suceso B definida por
½
1 si ω ∈ B
1B (ω) =
0 si ω ∈ /B

Un concepto más complicado es el condicionamiento por una σ-álgebra


de sucesos. Consideremos una σ-àlgebra B ⊂ F y una variable aleatoria
integrable X.
Una variable aleatoria Z se denomina la esperanza condicionada de la
variable X respecto de B, (escribiremos Z = E(X|B)), si cumple las dos
propiedades siguientes:

• Z es medible respecto de B.

• Para todo suceso A ∈ B

E (Z1A ) = E (X1A ) .

21
Puede demostrarse que la esperanza condicionada existe y es única casi se-
guramente, de manera que si Ze fuese otra variable con las mismas propiedades,
entonces Z = Z, e P -casi seguramente.
En el caso particular en que la σ-álgebra B está generada per una partición
finita {B1 , ..., Bm }, entonces E(X|B) es una variable aleatoria elemental que
en cada conjunto Bj toma el valor constante E(X|Bj ), es decir,
m ¡ ¢
X E X1Bj
E(X|B) = 1Bj .
j=1
P (B j )

Reglas para el cálculo de esperanzas condicionadas:

Regla 1 La esperanza condicionada es lineal:

E(aX + bY |B) = aE(X|B) + bE(Y |B)

Regla 2 La variable y su esperanza condicionada tienen la misma esperanza:

E (E(X|B)) = E(X)

Esta propiedad es una consecuencia inmediata de la definición, tomando


A = Ω.
Regla 3 Si la variable aleatoria X y la σ-álgebra B son independientes,
entonces E(X|B) = E(X).
En efecto, para todo suceso A ∈ B tendremos
E (X1A ) = E (X)E(1A ) = E(E(X)1A ).

Regla 4 Si X es B-medible, entonces E(X|B) = X.


Regla 5 Si Z es una variable aleatoria acotada y B-medible, entonces
E(ZX|B) = ZE(X|B).
Es decir, las variables aleatorias B-medibles se comportan como con-
stantes y pueden sacarse fuera de la esperanza condicionada.
Regla 6 Si C ⊂ B, entonces

E (E(X|B)|C) = E (E(X|C)|B) = E(X|C)

22
Regla 7 Consideremos dos variables aleatorias X y Z, tales que Z es B-
medible y X es independiente de B. Consideremos una función h(x, z)
tal que h(X, Z) es integrable. Entonces, se tiene

E (h(X, Z)|B) = E (h(X, z)) |z=Z

Es decir, primero calculamos la esperanza E (h(X, z)) para un valor


arbitrario z de la variable Z y luego substituimos z por Z.

La esperanza condicionada tiene propiedades similares a la esperanza or-


dinaria. Por ejempo se cumple la siguiente propiedad de monotonı́a:

X ≤ Y ⇒ E(X|B) ≤ E(Y |B),

que implica la desigualdad |E(X|B) | ≤ E(|X| |B). También se cumple la


desigualdad de Jensen: Si ϕ es una función convexa tal que E(|ϕ(X)|) < ∞,
entonces
ϕ (E(X|B)) ≤ E(ϕ(X)|B). (7)
En particular, si tomamos ϕ(x) = |x|p con p ≥ 1, se obtiene

|E(X|B)|p ≤ E(|X|p |B),

por lo tanto, tomando esperanzas, deducimos que si E(|X|p ) < ∞, entonces,


E(|E(X|B)|p ) < ∞, y

E(|E(X|B)|p ) ≤ E(|X|p ).

Si la σ-álgebra B está generada por las variables aleatorias Y1 , . . . , Ym ,


entonces, la esperanza condicionada se representa por E(X|Y1 , . . . , Ym ) y
es una cierta función g(Y1 , . . . , Ym ) de estas variables. En particular, si las
variables X, Y1 , . . . , Ym tienen una ley conjunta con densidad f (x, y1 , . . . , ym ),
entonces, la esperanza condicionada se puede calcular como la esperanza de
la densidad condicionada:
f (x, y1 , . . . , ym )
f (x|y1 , . . . , ym ) = R +∞ ,
−∞
f (x, y1 , . . . , ym )dy1 · · · dym

es decir, Z +∞
E(X|Y1 , . . . , Ym ) = xf (x|Y1 , . . . , Ym )dx.
−∞

23
En el caso en que la σ-álgebra B esté generada por un conjunto infinito
de variables aleatorias {Yj }, escribiremos también
E(X|B) = E(X| {Yj }),
pero el cálculo no se puede efectuar mediante una fórmula como la anterior
y necesitaremos utilizar las reglas que hemos introducido antes.

Ejemplo 11 Consideremos un proceso de movimiento browniano {Bt , t ≥


0}. Para cada instante t, definimos la σ-álgebra Ft generada por las variables
aleatorias {Bs , s ≤ t}. La σ-álgebra Ft contiene la historia del movimiento
browniano hasta el instante t. Esto quiere decir que:
i) Los sucesos F de Ft serán conocidos (se sabrá si han ocurrido o no) en el
instante t.
ii) El valor de una variable aleatoria X(ω) medible respecto de la σ-álgebra
Ft será una función de la trayectoria del movimiento browniano
{Bs (ω), s ∈ [0, t]} .

Observemos que Fs ⊂ Ft si s ≤ t, es decir, la familia de σ-álgebras


{Ft , t ≥ 0} es creciente. Diremos que {Ft , t ≥ 0} es una filtración en el es-
pacio de probabilidad (Ω, F, P ).
Queremos calcular
E(Bt |Fs ) = E(Bt |Br , r ≤ s).
• Si s ≥ t, la variable Bt es Fs -medible, y por la Regla 4 obtenemos
E(Bt |Fs ) = Bt .
• Si s < t, por la propiedad de linealidad (Regla 1):
E(Bt |Fs ) = E(Bt − Bs + Bs |Fs )
= E(Bt − Bs |Fs ) + E( Bs |Fs ).
Como Bt − Bs es independiente de Fs , la Regla 3 nos da
E(Bt − Bs |Fs ) = E(Bt − Bs ) = 0,
y, por lo tanto, obtenemos
E(Bt |Fs ) = Bs . (8)

24
El conjunto de las variables aleatorias Z que son medibles respecto de una
σ-álgebra B y que son de cuadrado integrable (E(Z 2 ) < ∞), lo representare-
mos por L2 (Ω, B, P ). Puede demostrarse que L2 (Ω, F, P ) es un espacio de
Hilbert con el producto escalar

hZ, Y i = E(ZY ),

y que L2 (Ω, B, P ) es un subespacio cerrado de L2 (Ω, F, P ).


En este contexto, si X es una variable tal que E(X 2 ) < ∞, la esperanza
condicionada E(X|B) es la variable del espacio L2 (Ω, B, P ) más próxima a
X en media cuadrática:
£ ¤ £ 2¤
E (X − E(X|B))2 = min
2
E (X − Z) . (9)
Z∈L (Ω,B,P )

Es decir, E(X|B) es la proyección de X en el subespacio L2 (Ω, B, P ).


Desde el punto de vista de la teorı́a de la estimación, la esperanza condi-
cionada E(X|B) es el mejor predictor de la variable X a partir de la σ-álgebra
B (estimador óptimo).
Demostración de (9): Sea X una variable tal que E(X 2 ) < ∞. La
desigualdad de Jensen para la esperanza condicionada (7) implica que E(X|B)
también es de cuadrado integrable ya que
¡ ¢ ¡ ¢
E (E(X|B))2 ≤ E E(X 2 |B) = E(X 2 ).

La regla 5 nos permite demostrar que la diferencia X − E(X|B) es ortogonal a


L2 (Ω, B, P ). En efecto, si Z es una variable de L2 (Ω, B, P ) tendremos

E [(X − E(X|B))Z] = E(XZ) − E(E(X|B)Z)


= E(XZ) − E(E(XZ|B)) = 0.

Finalmente, esta ortogonalidad implica que


£ ¤ £ ¤ £ ¤
E (X − Y )2 = E (X − E(X|B))2 + E (E(X|B) − Z)2 ,

de lo que se deduce (9). ¤

Ejercicios

25
1.1 Supongamos que {Hi , i ∈ I} es una familia de σ-álgebras en un conjunto
Ω. Demostrar que
H = ∩{Hi , i ∈ I}
es también una σ-álgebra.
1.2 Supongamos que X es una variable aleatoria real tal que

M = E[exp(k|X|)] < ∞

para un cierto k > 0. Probar que P (|X| > λ) ≤ M e−kλ , para todo
λ ≥ 0.
1.3 Sea (Ω, F, P ) un espacio de probabilidad y consideremos una sucesión
de sucesos A1 , A2 , . . . tales que

X
P (Ak ) < ∞.
k=1

Demostrar el lema de Borel-Cantelli:

P (∩∞ ∞
m=1 ∪k=m Ak ) = 0,

es decir, la probabilidad que ocurran infinitos sucesos de la sucesión es


nula.
1.4 Sea Z una variable aleatoria con ley N (0, σ 2 ). A partir de la fórmula
1 2 2
E(eλZ ) = e 2 λ σ
,

y desarrollando en serie de potencias la función exponencial deducir


que para todo k ≥ 1
(2k)! 2k
E(Z 2k ) = σ ,
2k k!
E(Z 2k−1 ) = 0.

1.5 Sea Z una variable aleatoria con ley de Poisson de parámetro λ. Com-
probar que la función caracterı́stica de Z vale
£ ¡ ¢¤
ϕZ (t) = exp λ eit − 1 .

Como aplicación calcular E(Z 2 ), Var(Z) y E(Z 3 ).

26
1.6 Sea (Ω, F, P ) = ([0, ∞), B[0,∞) , µ), donde µ es una probabilidad en [0, ∞)
con función de distribución continua. Consideremos en este espacio de
probabilidad los procesos estocásticos
½
1 si t = ω
Xt (ω) =
0 si t 6= ω
Yt (ω) = 0.

Comprobar que estos procesos tienen las mismas distribuciones en di-


mensión finita, pero las trayectorias del proceso X son todas discontin-
uas.

1.7 Sea Bt un movimiento browniano. Fijemos un instante t0 ≥ 0. De-


mostrar que el proceso
n o
et = Bt0 +t − Bt0 , t ≥ 0
B

es también un movimiento browniano.

1.8 Sea Bt un movimiento browniano 2-dimensional. Calcular

P (|Bt | < ρ)

donde ρ > 0.

1.9 Sea Bt un movimiento browniano n-dimensional. Consideremos una


matriz U cuadrada de dimensión n, ortogonal (es decir, U U 0 = I).
Demostrar que el proceso
Bet = U Bt

es también un movimiento browniano.

1.10 Calcular la media y la autocovarianza del movimiento browniano geométrico.


Es un proceso gaussiano?

27
2 Integración estocástica
Supongamos que {Bt , t ≥ 0} es un movimiento browniano definido en un es-
pacio de probabilidad (Ω, F, P ). Consideremos la familia creciente {Ft , t ≥ 0}
de σ-álgebras generadas por este proceso. Supondremos además que Ft con-
tiene los conjuntos de probabilidad cero. Esto significa que Ft es la mı́nima
σ-álgebra que contiene los conjuntos de la forma

{Bs ∈ A} ∪ N

donde s ∈ [0, t], A pertenece a la σ-álgebra de Borel BR , y N es un conjunto


de probabilidad cero.
Diremos que un proceso estocástico {ut , u ≥ 0} es adaptado (a la familia
de σ-álgebras Ft ) si para cada t la variable aleatoria ut es Ft -medible.
La inclusión de los sucesos de probabilidad cero en cada σ-álgebra Ft
tiene las siguientes consecuencias interesantes:

a) Toda versión de un proceso adaptado es también adaptado.

b) La familia de σ-álgebras es continua por la derecha, es decir, para todo


t≥0
∩s>t Fs = Ft .

Demostración de b): Consideremos las σ -álgebras F t = σ{Br − Bt , r ≥


s}. Si B ∈ ∩s>t Fs , la σ -álgebra generada por B y por Ft , es independiente de
1
F t+ n para todo n. Por tanto, σ(B, Ft ) será independiente de F t , y tendemos

E(1B |Ft ) = E(1B |Ft ∨ F t ) = 1B ,

de lo que se deduce 1B ∈ Ft . ¤
La σ-álgebra F0 solo contiene conjuntos de probabilidad cero o uno. Esto
implica que las variables aleatorias F0 -medibles serán constantes, casi segu-
ramente.

Nuestro objetivo es la definición de integrales estocásticas de la forma


RT
0
ut dBt .

Una posibilidad consiste en utilizar la definición de integral de Riemann


Stieltjes:

28
Consideremos una partición del intervalo [0, T ]:
τ n : 0 = t0 < t1 < · · · < tn−1 < tn = T
ası́ como una partición intermedia:
σn : ti ≤ si leqti+1 , i = 0, . . . , n − 1.
Dadas dos funciones f y g en el intervalo [0, T ], la integral de Riemann
RT
Stieltjes 0 f dg se define como el lı́mite
n
X
lim f (si−1 )∆gi
n→∞
i=1
n→∞
cuando supi (ti − ti−1 ) −→ 0, suponiendo que este lı́mite existe y es indepen-
diente de la sucesión de particiones τ n y de sus particiones intermedias σ n ,
con la notación ∆gi = g(ti ) − g(ti−1 ).
RT
Se sabe que la integral de Riemann Stieltjes 0 f dg existe si la función f
es continua y la función g tiene variación total acotada, es decir:
X
sup |∆gi | < ∞.
τ
i

Como las trayectorias del movimiento browniano tienen variación total


infinita (véase (6)) no podemos utilizar este criterio para asegurar que la
RT
integral de Riemann-Stieltjes 0 ut (ω)dBt (ω) existe para cada ω, si u es un
proceso arbitrario con trayectorias continuas.
Obsevemos, si embargo, que si las trayectorias del proceso u son difer-
enciables
RT con derivadas acotadas, entonces, la integral de Riemann Stielt-
jes 0 ut (ω)dBt (ω) existe y puede calcularse mediante una integración por
partes:
RT RT 0
0
u t dB t = u T B T − 0
ut Bt dt.
RT
En este apartado presentaremos una construcción de la integral 0 ut dBt
mediante un procedimiento global de tipo probabilı́stico. En primer lugar
definiremos la clase de procesos que integraremos:
Designaremos por L2a,T el conjunto de los procesos estocásticos
u = {ut , t ∈ [0, T ]}
tales que:

29
a) Para cada t ∈ [0, T ], la aplicación (s, ω) −→ us (ω) definida en [0, t] × Ω
es medible respecto de la σ-álgebra producto B[0,t] × Ft .
³R ´
T 2
b) E 0 ut dt < ∞.

Un proceso que verifica la condición a) se dice que es progresivamente


medible. En general, que un proceso estocástico u sea medible significa que la
función de dos variables (s, ω) −→ us (ω) es medible en la σ-álgebra producto
B[0,T ] ×F . La propiedad a) require la medibilidad de la restricción del proceso
u a cada conjunto [0, t] × Ω. Esta propiedad implica que el proceso u sea
adaptado, ya que si una función es medible en un espacio producto, al fijar
una coordenada resulta medible como función de la segunda coordenada. Por
otra parte,
R t la propiedad a) es esencial para garantizar que variables aleatorias
del tipo 0 us ds sean Ft -medibles.
La condición b) significa que el momento de segundo orden es integrable
en [0, T ], ya que, el teorema de Fubini nos permite escribir
µZ T ¶ Z T
2
¡ ¢
E ut dt = E u2t dt.
0 0

La propiedad b) nos dice que el proceso u como función de las dos variables
(t, ω) pertenece al espacio L2 ([0, T ] × Ω).
RT
Definiremos la integral estocástica 0 ut dBt para procesos u de la clase
L2a,T como el lı́mite en L2 (Ω) de la integral de procesos elementales. Por
definición un proceso u de L2a,T es elemental si se puede expresar de la forma
n
X
ut = φj 1(tj−1 ,tj ] (t), (10)
j=1

donde 0 = t0 < t1 < · · · < tn = T y las φj son variables aleatorias de


cuadrado integrable Ftj−1 -medibles.
Si u es un proceso elemental de la forma (10) se define la integral es-
tocástica de u respecto del movimiento browniano B como
Z T n
X ¡ ¢
ut dBt = φj Btj − Btj−1 . (11)
0 j=1

30
La integral estocástica definida en el espacio E de los procesos elementales
tiene las siguiente propiedad de isometria:
·³ ´2 ¸ ³R ´
RT T
E 0
ut dBt =E 0
u2t dt (12)

Demostración de la isometrı́a: Pongamos ∆Bj = Btj −Btj−1 . Entonces


½
¡ ¢
E φi φj ∆Bi ∆Bj = ¡ 2¢ 0 si i 6= j
E φj (tj − tj−1 ) si i = j

ya que si i < j las variables aleatorias φi φj ∆Bi y ∆Bj son independientes y si


i = j las variables aleatorias φ2i y (∆Bi )2 son independientes. Por lo tanto se
obtiene
µZ T ¶2 n
X n
X
¡ ¢ ¡ ¢
E ut dBt = E φi φj ∆Bi ∆Bj = E φ2i (ti − ti−1 )
0 i,j=1 i=1
µZ T ¶
= E u2t dt .
0

¤
La extensión de la integral estocástica a todos los procesos de la clase
L2a,Tse basa en el siguiente resultado de aproximación:

Lema 4 Si u es un proceso de la clase L2a,T existe una sucesión de procesos


elementales u(n) tales que
µZ T ¯ ¯2 ¶
¯ (n) ¯
lim E ¯ut − ut ¯ dt = 0. (13)
n→∞ 0

Demostración: La demostración de este resultado la haremos en dos etapas:

1. Supongamos que el proceso u es continuo en media cuadrática. En tal caso,


podemos tomar la sucesión aproximadora
n
X
(n)
ut = utj−1 1(tj−1 ,tj ] (t),
j=1

31
siendo tj = jTn
. La continuidad en media cuadrática del proceso u nos
garantiza que
µZ T ¯ ¯2 ¶ Z T µ¯ ¯2 ¶
¯ (n) ¯ ¯ (n) ¯
E ¯ut − ut ¯ dt = E ¯ut − ut ¯ dt
0 0
¡ ¢
≤ T sup E |ut − us |2
|t−s|≤T /n

converge hacia cero cuando n tiende a infinito.

2. Supongamos que u es un proceso arbitrario de la clase L2a,T . En tal caso,


existe una sucesión de procesos v (n) , pertenecientes a la clase L2a,T , continuos
en media cuadrática y tales que
µZ T ¯ ¯2 ¶
¯ (n) ¯
lim E ¯ut − vt ¯ dt = 0. (14)
n→∞ 0

En efecto, definimos
Z t µZ t Z t ¶
(n)
vt =n us ds = n us ds − us− 1 ds ,
1 n
t− n 0 0

con la convención u(s) = 0 si s < 0. Estos procesos son continuos en media


cuadrática (también tienen trayectorias continuas), y pertenecen a la clase
L2a,T , debido a la propiedad a). Además se cumple (14) ya que para cada
(t, ω) tenemos
Z T ¯ ¯
¯u(t, ω) − v (n) (t, ω)¯2 dt n→∞
−→ 0
0
(véase Ejercicio 2.1), y podemos aplicar de nuevo el teorema de convergencia
dominada en el espacio producto [0, T ] × Ω ya que
Z Z
T ¯ (n) ¯ T
¯v (t, ω)¯2 dt ≤ |u(t, ω)|2 dt.
0 0

¤
Definición 5 Si u es un proceso de la clase L2a,T , la integral estocástica se
define como el lı́mite en L2 (Ω)
Z T Z T
(n)
ut dBt = lim ut dBt , (15)
0 n→∞ 0
(n)
donde u es una sucesión de procesos elementales tales que cumplen (13).

32
Que el lı́mite (15) existe es debido a que la sucesión de variables aleato-
R T (n)
rias 0 ut dBt es de Cauchy en el espacio L2 (Ω), debido a la propiedad de
isometrı́a (12):
"µZ ¶2 # µZ T ³
T Z T ´2 ¶
(n) (m) (n) (m)
E ut dBt − ut dBt = E ut − ut dt
0 0 0
µZ T ³ ´2 ¶
(n)
≤ 2E ut − ut dt
0
µZ T ³ ´2 ¶
(m) n,m→∞
+2E ut − ut dt → 0.
0

También puede demostrarse que el lı́mite (15) no depende de la sucesión u(n)


siempre que esta sucesión cumpla (13).
La integral estocástica tiene las siguientes propiedades importantes:

1.- Isometrı́a: "µZ ¶2 # µZ ¶


T T
E ut dBt =E u2t dt .
0 0

2.- Media cero: ·µZ ¶¸


T
E ut dBt = 0.
0

3.- Linealidad:
Z T Z T Z T
(aut + bvt ) dBt = a ut dBt + b vt dBt .
0 0 0

RT
4.- Localidad:
nR Se cumple
o 0
ut dBt = 0 casi seguramente, en el conjunto
T
G = 0 u2t dt = 0 .

La propiedad de localidad es una consecuencia de que en el conjunto G


la sucesión aproximadora
n
"Z (j−1)T #
(n,m,N )
X n
ut = m us ds 1( (j−1)T , jT ] (t)
(j−1)T 1 n n
j=1 n
−m

se anula.

33
Ejemplo 12 Z T
1 1
Bt dBt = BT2 − T.
0 2 2
Como el proceso Bt es continuo en media cuadrática podemos tomar como
sucesión aproximadora
n
X
(n)
ut = Btj−1 1(tj−1 ,tj ] (t),
j=1

jT
donde tj = n
, y tendremos

Z T n
X ¡ ¢
Bt dBt = lim Btj−1 Btj − Btj−1
0 n→∞
j=1

1 ³ ´ 1 Xn
¡ ¢2
2 2
= lim Btj − Btj−1 − lim Btj − Btj−1
2 n→∞ 2 n→∞ j=1
1 2 1
= B − T. (16)
2 T 2
Si xt es una función derivable, las reglas del cálculo diferencial e integral nos
dicen que Z T Z T
1¡ 2 ¢
xt dxt = xt x0t dt = xT − x20 .
0 0 2
Observemos que en el caso del movimiento browniano nos aparece un término
adicional igual a − 12 T .

RT
Ejemplo 13 Consideremos una función determinista g tal que 0 g(s)2 ds <
RT
∞. En este caso, la integral estocástica 0 gs dBs es una variable aleatoria
con ley normal Z T
N (0, g(s)2 ds).
0

34
2.1 Integrales estocásticas indefinidas
Consideremos un proceso u de la clase L2a,T . El proceso u1[0,t] también
pertenece a L2a,T , y por lo tanto, podemos definir su integral:
Z t Z T
us dBs := us 1[0,t] (s)dBs .
0 0

De esta forma hemos construido un nuevo proceso estocástico


½Z t ¾
us dBs , 0 ≤ t ≤ T
0

que es la integral indefinida del proceso u respecto de B. En este apartado


estudiaremos las propiedades de las integrales indefinidas. En primer lugar,
debido a la linealidad de la integral estocástica, tenemos la propiedad de
aditividad siguiente:
Z b Z c Z c
us dBs + us dBs = us dBs ,
a b a

si a ≤ b ≤ c.
Si a < b y A es un suceso de la σ-álgebra Fa entonces,
Z b Z b
1A us dBs = 1A us dBs .
a a

En realidad la igualdad es cierta si en lugar de 1A tomamos cualquier variable


acotada y Fa -medible.
Una propiedad importante de las integrales indefinidas es la propiedad de
martingala.

Definición 6 Un proceso estocástico {Mt , t ≥ 0} diremos que es una martin-


gala respecto de una familia creciente de σ-álgebras {Mt , t ≥ 0}, contenidas
en F, si se cumplen las propiedades siguientes:

(i) Mt es medible respecto de Mt , para todo t ≥ 0.

(ii) E(|Mt |) < ∞ para todo t ≥ 0.

(iii) E(Mt |Ms ) = Ms , si s ≤ t.

35
La propiedad (iii) puede expresarse de forma equivalente como sigue
E(Mt − Ms |Ms ) = 0
y ello significa que la esperanza condicionada de los incrementos de una mar-
tingala es cero. Las martingalas se introduden para modelizar las ganancias
de un jugador que juega una partida equitativa en un juego de azar. En he-
cho de que la ganancia esperada tenga valor medio cero representa el carácter
equitativo del juego.
De forma análoga se puede introducir el concepto de martingala para un
proceso {Mt , 0 ≤ t ≤ T } respecto de una familia creciente de σ-álgebras
{Mt , 0 ≤ t ≤ T }. En tal caso, la propiedad de martingala nos dice que
Mt = E(MT |Mt ).
Fijémonos en que la variable terminal MT determina la martingala ya que
las variables Mt se obtinenen tomando la esperanza condicionada de MT
respecto de la familia creciente de σ-álgebras.
Como consecuencia de la propiedad de martingala tendremos que la es-
peranza de una martingala es consante:
E(Mt ) = E(M0 ).

Ejemplo 14 Si Bt es un movimiento browniano y Ft es la filtración generada


por Bt , entonces, los procesos:
Bt
Bt2 − t
a2 t
exp(aBt − )
2
son martingalas. En efecto, la propiedad de martingala de Bt ya ha sido
demostrada en (8). Para Bt2 − t, la propiedad de martingala se deduce del
siguiente cálculo de esperanzas condicionadas, si s < t
E(Bt2 |Fs ) = E((Bt − Bs + Bs )2 |Fs )
= E((Bt − Bs )2 |Fs ) + 2E((Bt − Bs ) Bs |Fs )
+E(Bs2 |Fs )
= E (Bt − Bs )2 + 2Bs E((Bt − Bs ) |Fs ) + Bs2
= t − s + Bs2 .

36
a2 t
Finalmente, para el proceso exp(aBt − 2
) tendremos
a2 t a2 t
E(eaBt − 2 |Fs ) = eaBs E(ea(Bt −Bs )− 2 |Fs )
2
a(Bt −Bs )− a2 t
= eaBs E(e )
a2 (t−s) 2 a2 s
− a2 t
= eaBs e 2 = eaBs − 2 .

Las martingalas con trayectorias continuas cumplen la desigualdad fun-


damental siguiente debida a Doob:

Desigualdad de Doob: Supongamos que {Mt , 0 ≤ t ≤ T } es una martin-


gala con trayectorias continuas. Entonces, para todo p ≥ 1 y todo λ > 0 se
cumple µ ¶
1
P sup |Mt | > λ ≤ p E(|MT |p ).
0≤t≤T λ
Obsevamos que se trata de una generalización de la desigualdad de Tcheby-
chev. Como consecuencia de la desigualdad de Doob puede demostrarse que
las integrales estocásticas indefinidas tienen trayectorias continuas.

Proposición 7 Supongamos que u es un proceso de la clase L2a,T . Entonces,


Rt
la integral estocástica 0 us dBs tiene una versión con trayectorias continuas.

Demostración: Consideremos una sucesión de procesos elementales u(n) tal


que µZ T ¯ ¯2 ¶
¯ (n) ¯
lim E ¯ut − ut ¯ dt = 0.
n→∞ 0
Pongamos
Z t
I(t) = us dBs ,
0
Z t
In (t) = us(n) dBs .
0

El proceso In tiene trayectorias continuas y es una martingala respecto de la familia


creciente de σ -álgebras Ft . En efecto, si s < t y φj es el valor del proceso

37
estocástico u(n) cada el intevalo (tj−1 , tj ] tendremos
 
X
E (In (t) − In (s)|Fs ) = E  φj ∆Bj |Fs 
s≤tj−1 ≤tj ≤t
X ¡ ¡ ¢ ¢
= E E φj ∆Bj |Ftj−1 |Fs
s≤tj−1 ≤tj ≤t
X ¡ ¡ ¢ ¢
= E φj E ∆Bj |Ftj−1 |Fs = 0.
s≤tj−1 ≤tj ≤t

Por consiguiente, la diferencia In − Im será una martingala, y la desigualdad de


Doob con p = 2 nos permite escribir
µ ¶
1 ¡ 2
¢
P sup |In (t) − Im (t)| > λ ≤ E |In (T ) − Im (T )|
0≤t≤T λ2
µZ T ¯ ¯2 ¶
1 ¯ (n) (m) ¯ n,m→∞
= 2E ¯ut − ut ¯ dt −→ 0.
λ 0

Podemos elegir una sucesión creciente de números naturales nk , k = 1, 2, . . . tal


que µ ¶
P sup |Ink+1 (t) − Ink (t)| > 2−k ≤ 2−k .
0≤t≤T
© ª
Los sucesos Ak := sup0≤t≤T |Ink+1 (t) − Ink (t)| > 2−k tienen probabilidades
que forman una serie convergence, es decir,

X
P (Ak ) < ∞.
k=1

El lema de Borel-Cantelli nos dice que la probabilidad de que ocurra un número


infinito de estos sucesos es cero. Por lo tanto, existe un suceso N de probabilidad
cero tal que para todo ω ∈ / N podemos encontrar un ı́ndice k1 (ω) tal que si k ≥
k1 (ω)
sup |Ink+1 (t, ω) − Ink (t, ω)| ≤ 2−k .
0≤t≤T

Por lo tanto, si ω ∈ / N , la sucesión Ink (t, ω) es uniformemente convergente en


[0, T ] hacia una función continua Jt (ω). Por otra parte,R t sabemos que para cada
t ∈ [0, T ], Ink (t) converge en media cuadrática hacia 0 us dBs . Por consiguiente,

38
Rt
Jt (ω) = 0
us dBs casi seguramente, para todo t ∈ [0, T ], y ello nos dice que la
integral indefinida tiene una versiónR con trayectorias continuas. ¤
t
La integral indefinida Mt = 0 us dBs es una martingala respecto de la
familia de σ-álgebras Ft y se cumple la desigualdad siguiente, para todo
λ > 0, µ ¶ µZ T ¶
1 2
P sup |Mt | > λ ≤ 2 E ut dt . (17)
0≤t≤T λ 0
Rt
En efecto, la propiedad de martingala de 0 us dBs de deduce de la propiedad
R t (n)
de martingala de las integrales indefinidas 0 us dBs que hemos obtenido en
la demostración anterior. La desigualdad (17) se deduce de la desigualdad
de Doob y de la propiedad R tde isometrı́a de la integral estocástica.
La martingala Mt = 0 us dBs tiene trayectorias continuas, pero son ir-
regulares como las del movimiento browniano. En particular, las trayectorias
de las integrales indefinidas tienen variación cuadrática finita como nos dice
la propiedad siguiente:

Proposición 8 (Variación cuadrática ) Sea u un proceso de la clase L2a,T .


Entonces, ÃZ !2
Xn tj Z t
L1 (Ω)
us dBs −→ u2s ds
j=1 tj−1 0

jt
cuando n tiende a infinito, donde tj = n
.

Demostración: Observemos en primer lugar que si el proceso u es elemen-


tal, el resultado es una consecuencia de la propiedad de variación cuadrática del
movimiento browniano. En efecto, en cada intervalo (a, b] donde u toma el valor
constante φ aparecerá una contribución del tipo
X n→∞
φ2 (∆Bj )2 −→ φ2 (b − a) .
a≤tj−1 ≤tj ≤b

Supongamos que u es un proceso arbitrario de la clase L2a,T . Existe una sucesión


u(k) de procesos elementales tal que
µZ T ¯ ¯2 ¶
¯ (k) ¯
lim E ¯ut − ut ¯ dt = 0.
k→∞ 0

39
Utilizando la notación
n
ÃZ !2
X tj
Vn (u) = us dBs
j=1 tj−1

tendremos
µ¯ Z t ¯¶
¯ ¯ ¡¯ ¯¢
¯
E ¯Vn (u) − u2s ds ¯ ≤ E ¯Vn (u) − Vn (u(k) ) ¯
¯
0
µ¯ Z t ¯¶
¯ ¡ (k) ¢2 ¯
+E ¯¯ Vn (u ) −
(k)
us ds¯¯
0
µ¯ Z t Z t ¯¶
¯ ¡ (k) ¢2 ¯
+E ¯¯ us ds − us ds ¯¯ .
2
0 0

El primer sumando puede acotarse como sigue, utilizando la desigualdad de


Schwartz y la isometrı́a de la integral estocástica:
¡¯ ¯¢
E ¯Vn (u) − Vn (u(k) ) ¯
" n ÃZ ! ÃZ !#
X tj ¡ ¢ tj ¡ ¢
= E us + u(k)
s dBs us − us(k)
dBs
j=1 tj−1 tj−1
£ ¡ ¢ ¡ ¢¤1/2
≤ E Vn (u + u(k) ) E Vn (u − u(k) )
· µZ t ¶ µZ t ¶¸1/2
¡ ¢
(k) 2
¡ ¢
(k) 2
= E us + us ds E u s − us ds .
0 0

Observemos que la acotación obtenida no depende de n y converge hacia cero


cuando k tiende a infinito. Por tanto, fijado ε > 0 existe un k0 tal que
µ¯ Z t ¯¶ µ¯ Z t ¯¶
¯ ¯ ¯ ¡ ¢ 2 ¯
¯
E ¯Vn (u) − u2s ds ¯ ≤ ε + E ¯ Vn (u(k) ) − u (k)
ds¯
¯ ¯ s ¯
0 0

para todo k ≥ k0 y para todo n. Finalmente basta tomar el lı́mite n → ∞. ¤

2.2 Tiempos de paro


Un tiempo de paro relativo a una familia creciente de σ-álgebras {Ft , t ≥ 0}
es una variable aleatoria
τ : Ω −→ [0, ∞]

40
tal que para todo t ≥ 0, {τ ≤ t} ∈ Ft . Es decir, podemos decidir si nos
paramos o no antes de un instante t a partir de la información contenida en
Ft .

Ejemplo 15 El tiempo de llegada de un proceso continuo y adaptado {Xt , t ≥ 0}


a un nivel a definido como

τ a := inf{t > 0 : Xt = a}

es un tiempo de paro. En efecto,


½ ¾ ½ ¾
{τ a ≤ t} = sup Xs ≥ a = sup Xs ≥ a ∈ Ft .
0≤s≤t 0≤s≤t,s∈ Q

Más generalmente, el tiempo de llegada de un proceso n-dimensional con-


tinuo y adaptado {Xt , t ≥ 0} a un conjunto de Borel U de Rn es un tiempo
de paro siempre que la familia de σ-álgebras {Ft , t ≥ 0} sea continua por la
derecha.
Podemos asociar a todo tiempo de paro τ la σ-álgebra Fτ formada por
los conjuntos G tales que

G ∩ {τ ≤ t} ∈ Ft (18)

para todo t ≥ 0.
Los tiempos de paro satisfacen las dos propiedades siguientes:

• Si {Mt , t ∈ [0, T ]} es una martingala continua y y τ es un tiempo de


paro acotado por T , entonces

E(MT |Fτ ) = Mτ . (19)

• Si u es un proceso de la clase L2a,T y τ es un tiempo de paro acotado por


T , el proceso u1[0,τ ] también pertenece a L2a,T y se verifica la relación
siguiente: Z Z
T τ
ut 1[0,τ ] (t)dBt = ut dBt . (20)
0 0

41
Demostración de (20): La demostración se hará en dos etapas:

1. Supongamos primero que el proceso u es de la forma ut = F 1(a,b] (t),


donde 0 ≤ a < b ≤ T y F ∈ L2 (Ω,nFa , P ). Los tiempos o de paro
P2n i iT (i−1)T iT
τ n = i=1 tn 1Ain , donde tin = 2n , Ain = 2n
≤ τ < 2n forman una
sucesión decreciente que converge hacia τ . Para cada n tendremos
Z τn
ut dBt = F (Bb∧τ n − Ba∧τ n )
0
Z T 2
X
n Z T
ut 1[0,τ n ] (t)dBt = 1 Ain 1(a∧tin ,b∧tin ] (t)F dBt
0 i=1 0
2n
X
= 1Ain F (Bb∧tin − Ba∧tin )
i=1
= F (Bb∧τ n − Ba∧τ n ).

Tomando el lı́mite cuando n tiende a infinito se deduce la igualdad en el


caso de un proceso elemental.

2. En el caso general, basta con aproximar el proceso u por procesos elemen-


tales. La convergencia del miembro de la derecha de (20) se deduce de la
desigualdad maximal de Doob. ¤

La siguiente aplicación de los tiempos de parada permite el cálculo de la


ley del instante de llegada del movimiento browniano a un cierto nivel.

Ejemplo 16 Sea Bt un movimiento browniano y Ft la filtración generada


por Bt . Consideremos el tiempo de paro

τ a = inf{t ≥ 0 : Bt = a},
λ2 t
donde a > 0. Consideremos la martingala Mt = eλBt − 2 que cumple

E(Mt ) = E(M0 ) = 1.

La propiedad (19) nos permite obtener

E(Mτ a ∧N ) = 1,

42
para todo N ≥ 1. Observemos que
µ ¶
λ2 (τ a ∧ N )
Mτ a ∧N = exp λBτ a ∧N − ≤ eaλ .
2

Por otra parte,

limN →∞ Mτ a ∧N = Mτ a si τ a < ∞
limN →∞ Mτ a ∧N = 0 si τ a = ∞

y el teorema de convergencia dominada implica


¡ ¢
E 1{τ a <∞} Mτ a = 1,

es decir µ µ ¶¶
λ2 τ a
E 1{τ a <∞} exp − = e−λa .
2
Haciendo λ ↓ 0 obtenemos

P (τ a < ∞ ) = 1,

y, por consiguiente µ µ ¶¶
λ2 τ a
E exp − = e−λa .
2
λ2
Con el cambio de variable 2
= α, tendremos

E ( exp (−ατ a )) = e− 2αa
. (21)

A partir de esta expresión puede calcularse la densidad de probabildad de la


variable τ a : Z t −a2 /2s
ae
P (τ a ≤ t ) = √ ds.
0 2πs3
Por otra parte, la esperanza de τ a puede obtenerse calculando la derivada en
α = 0 de la expresión (21):

ae− 2αa
E ( τ a exp (−ατ a )) = √ ,

y haciendo α ↓ 0 se obtiene E(τ a ) = +∞.

43
2.3 Extensiones de la integral estocástica
RT
La integral estocástica de Itô 0 us dBs puede definirse para clases de pro-
cesos mas amplias que L2a,T .
A) En primer lugar, podemos substituir la familia creciente de σ-álgebras
Ft por una familia mayor Ht tal que el movimiento browniano Bt sea una
martingala respecto de Ht . En efecto, en todas las demostraciones anteriores
solo se ha utilizado la propiedad
E(Bt − Bs |Fs ) = 0.
(n)
Como ejemplo de esta situación, consideremos el caso en que Ft es
la familia creciente de σ-álgebras generadas por un movimiento browniano
n-dimensional Bt . Cada componente Bk (t) es una martingala respecto de
(n) (n)
Ft , pero Ft no es la familia de σ-álgebras generada por Bk (t). De esta
forma, con la extensión indicada antes, se pueden definir integrales como
Z T
B2 (s)dB1 (s),
0
Z T
sin(B12 (s) + B12 (s))dB2 (s).
0
³R ´
T
B) La segunda extensión consiste en substituir la propiedad E 0
u2t dt <
∞ por la hipótesis más débil siguiente:
³R ´
T
b’) P 0 u2t dt < ∞ = 1.

La clase de procesos que cumplen las propiedades a) y b’) la designaremos


por La,T . Extenderemos la integral estocástica a la clase La,T mediante un
argumento de localización.
Consideremos un proceso estocástico u de La,T . Para cada n ≥ 1 defini-
mos el tiempo de paro
½ Z t ¾
2
τ n = inf t ≥ 0 : us ds = n , (22)
0
RT
donde suponemos que τ n = T si 0 u2s ds < n. De esta forma tendremos una
sucesión creciente de tiempos de paro tal que τ n ↑ T . Además,
Z t
t < τ n ⇐⇒ u2s ds < n.
0

44
Los procesos
(n)
ut = ut 1[0,τ n ] (t)
µ ³ ¶
R T (n) ´2
pertenecen a L2a,T ya que E 0 us ds ≤ n. Para cada n ≤ m, en el
conjunto {t ≤ τ n } se cumple
Z t Z t
u(n)
s dBs = u(m)
s dBs
0 0

ya que las trayectorias en el intervalo [0, t] de los procesos u(n) y u(m) coinciden
en este conjunto. Por Rconsiguiente, existirá un proceso continuo y adaptado
t
que denotaremos por 0 us dBs tal que
Z t Z t
us(n) dBs = us dBs
0 0

si t ≤ τ n .
La integral estocástica de procesos de la clase La,T satisface las propiedades
de linealidad y continuidad de trayectorias de la integral indefinida. En cam-
bio, la integral de procesos de la clase La,T puede no tener esperanza ni
varianza finitas.

Proposición 9 Consideremos un proceso u ∈ La,T . Para todo K, δ > 0 se


cumple la desigualdad siguiente:
µ¯Z T ¯ ¶ µZ T ¶
¯ ¯ δ
P ¯¯ us dBs ¯¯ ≥ K ≤ P 2
us ds ≥ δ + 2 .
0 0 K

Demostración: Consideremos el tiempos de paro definido por


½ Z t ¾
2
τ n = inf t ≥ 0 : us ds = δ ,
0
RT
con la convención τ n = T si 0
u2s ds < δ .Tendemos
µ¯Z ¯ ¶ µZ T ¶
¯ T ¯
P ¯¯ ¯
us dBs ¯ ≥ K ≤ P 2
us ds ≥ δ
0 0
µ¯Z T ¯ Z ¶
¯ ¯ T
+P ¯ ¯ ¯
us dBs ¯ ≥ K, u2s ds <δ ,
0 0

45
por otra parte
µ¯Z ¯ Z ¶ µ¯Z T ¯ ¶
¯ T ¯ T ¯ ¯
P ¯¯ us dBs ¯¯ ≥ K, u2s ds <δ = P ¯¯ us dBs ¯¯ ≥ K, τ = T
0 0 0
µ¯Z τ ¯ ¶
¯ ¯
= P ¯¯ us dBs ¯¯ ≥ K, τ = T
0
ïZ ¯2 !
1 ¯ τ ¯
≤ E ¯ u dB ¯
K2 ¯ s s ¯
0
µZ τ ¶
1 2 δ
= 2
E us ds ≤ 2 .
K 0 K
¤
Como consecuencia de la proposición anterior, si u(n) es una sucesión
de procesos de la clase La,T que converge hacia un proceso u ∈ La,T en
probabilidad: Z T
¡ (n) ¢2 P
us − us ds → 0
0
entonces, Z Z
T T
P
u(n)
s dBs → us dBs .
0 0

2.4 Fórmula de Itô


La fórmula de Itô es la versión estocástica de la clásica regla de la cadena en
el cálculo diferencial ordinario.
Consideremos el ejemplo
Z t
1 1
Bs dBs = Bt2 − t,
0 2 2
que podemos escribir en la forma
Z t
Bt2 = 2Bs dBs + t.
0

Podemos comprobar que la igualdad es cierta tomando esperanzas y uti-


lizando la propiedad de media nula de la integral estocástica: E(Bt2 ) = t. En
notación diferencial podemos escribir
dBt2 = 2Bt dBt + dt.

46
Vemos que el proceso estocástico Bt2 es la suma de una integral estocástica
y de una función diferenciable. Más generalmente cualquier función f (Bt ),
donde f es dos veces continuamente diferenciable, puede expresarse como
una suma de una integral estocástica y de un proceso con trayectorias difer-
enciables. Esto nos lleva a introducir la noción de proceso de Itô que será
una suma de una integral estocástica más una integral ordinaria. La clase
de los procesos de Itô será invariante por transformaciones funcionales reg-
ulares. Designaremos por L1a,T la clase de los procesos v que satisfacen las
propiedades a) y
³R ´
T
b”) P 0 |vt | dt < ∞ = 1.
Definición 10 Un proceso de Itô Xt será un proceso estocástico de la forma
Z t Z t
Xt = X0 + us dBs + vs ds, (23)
0 0

donde u pertenece a la clase La,T y v pertenece a la clase L1a,T .


En notación diferencial escribiremos
dXt = ut dBt + vt dt.
Teorema 11 (Fórmula de Itô) Supongamos que X es un proceso de Itô
de la forma (23). Sea f (t, x) una función dos veces derivable respecto de la
variable x y una vez respecto de la variable t, con todas las derivadas parciales
continuas (diremos que f es de clase C 1,2 ). Entonces el proceso Yt = f (t, Xt )
es también un proceso de Itô con la representación
Z t Z t
∂f ∂f
Yt = f (0, X0 ) + (s, Xs )ds + (s, Xs )us dBs
0 ∂t 0 ∂x
Z t Z
∂f 1 t ∂ 2f
+ (s, Xs )vs ds + 2
(s, Xs )u2s ds.
0 ∂x 2 0 ∂x
1.- En notación diferencial la fórmula de Itô puede escribirse de la forma
∂f ∂f 1 ∂ 2f
df (t, Xt ) = (t, Xt )dt + (t, Xt )dXt + (s, Xs ) (dXt )2 ,
∂t ∂x 2 ∂x2
donde (dXt )2 se calcula mediante la convención
× dBt dt
dBt dt 0
dt 0 0

47
2.- El proceso Yt es un proceso de Itô con la representación
Z t Z t
Yt = Y0 + u
es dBs + ves ds,
0 0

donde
Y0 = f (0, X0 ),
∂f
u
et = (t, Xt )ut ,
∂x
∂f ∂f 1 ∂ 2f
vet = (t, Xt ) + (t, Xt )vt + (t, Xt )u2t .
∂t ∂x 2 ∂x2
3.- En el caso particular ut = 1, vt = 0, X0 = 0, el proceso Xt es pre-
cisamente el movimiento browniano Bt , y la fórmula de Itô adopta la
expresión más simple siguiente
Z t Z t
∂f ∂f
f (t, Bt ) = f (0, 0) + (s, Bs )dBs + (s, Bs )ds
0 ∂x 0 ∂t
Z
1 t ∂ 2f
+ (s, Bs )ds.
2 0 ∂x2

4.- En el caso particular en que la función f no depende del tiempo se obtiene


la fórmula
Z t Z t Z
0 0 1 t 00
f (Xt ) = f (0) + f (Xs )us dBs + f (Xs )vs ds + f (Xs )u2s ds.
0 0 2 0

La fórmula de Itô se deduce del desarrollo de Taylor hasta el orden dos.


Indicaremos seguidamente, de forma heurı́stica, las ideas principales que con-
ducen a la fórmula de Itô. Supongamos v = 0. Fijemos un instante de tiempo
t > 0.
Consideremos los instantes tj = jt
n
. La fórmula de Taylor hasta el segundo
orden nos da
n
X £ ¤
f (Xt ) − f (0) = f (Xtj ) − f (Xtj−1 )
j=1
Xn n
1 X 00
= 0
f (Xtj−1 )∆Xj + f (X j ) (∆Xj )2 , (24)
j=
2 j=1

48
donde ∆Xj = Xtj − Xtj−1 y X j es un valor comprendido entre Xtj−1 y Xtj .
El Rprimer sumando de la expresión anterior converge en probabilidad
t
hacia 0 f 0 (Xs )us dBs , mientras que el segundo sumando converge en proba-
Rt
bilidad hacia 12 0 f 00 (Xs )u2s ds.

Veamos algunos ejemplos de aplicación de la fómula de Itô.

Ejemplo 17 Si f (x) = x2 y Xt = Bt , tendremos


Z t
2
Bt = 2 Bs dBs + t,
0

ya que f 0 (x) = 2x y f 00 (x) = 2.

Ejemplo 18 Si f (x) = x3 y Xt = Bt , tendremos


Z t Z t
3 2
Bt = 3 Bs dBs + 3 Bs ds,
0 0

ya que f 0 (x) = 3x2 y f 00 (x) = 6x. Más generalmente, si n ≥ 2 es un número


natural, Z t Z
n n−1 n(n − 1) t n−2
Bt = n Bs dBs + Bs ds.
0 2 0

a2 a2
Ejemplo 19 Si f (t, x) = eax− 2 t , Xt = Bt , y Yt = eaBt − 2 t , tendremos
Z t
Yt = 1 + a Ys dBs
0

ya que
∂f 1 ∂ 2f
+ = 0. (25)
∂t 2 ∂x2
Este importante ejemplo nos permite deducir las observaciones siguientes:

1.- Si una función f (t, x) satisface la igualdad (25), entonces, el proceso


estocástico f (t, Bt ) será una integral estocástica indefinida (más un

49
término constante), y por lo tanto, será una martingala, suponiendo
que f satisface la propiedad:
"Z µ ¶2 #
t
∂f
E (s, Bs ) ds < ∞
0 ∂x

2.- La solución de la ecuación diferencial estocástica

dYt = aYt dBt

no es Yt = eaBt , como en el caso del cálculo diferencial ordinario, sino


a2
Yt = eaBt − 2 t .

Como consecuencia de la fórmula de Itô, podemos deducir la siguiente


fórmula de integración por partes:
Supongamos que f (t) es una función continuamente diferenciable en [0, T ].
En tal caso tendremos
Z t Z t
fs dBs = f (t)Bt − Bs fs0 ds.
0 0

En efecto, aplicando la fórmula de Itô a la función f (t)x se obtiene


Z t Z t
f (t)Bt = fs dBs + Bs fs0 ds.
0 0

Veamos seguidamente la versión multidimensional de la fórmula de Itô.


Supongamos que Bt = (Bt1 , Bt2 , . . . , Btm ) es un movimiento browniano m-
dimensional, es decir, las componentes son movimientos brownianos inde-
pendientes. Consideremos un proceso de Itô n-dimensional de la forma
 R t 11 1 R t 1m m R t 1
1 1

 Xt = X0 + 0 us dBs + · · · + 0 us dBs + 0 vs ds
.. .
 .
 n n
R t n1 1 R t nm m R t n
Xt = X0 + 0 us dBs + · · · + 0 us dBs + 0 vs ds
En notación diferencial y vectorial podemos escribir

dXt = ut dBt + vt dt,

50
donde Xt , vt , son procesos n-dimensionales, y ut es un proceso con valores
en el conjunto de las matrices n × m. Supondremos que las componentes de
u pertenecen a La,T y las de v pertenecen a L1a,T .
Entonces, si f : [0, ∞) × Rn → Rp es una función de clase C 1,2 , el proceso
Yt = f (t, Xt ) es también un proceso de Itô con la representación (en notación
diferencial)
Xn
∂fk ∂fk
dYtk = (t, Xt )dt + (t, Xt )dXti
∂t i=1
∂x i
n
1 X ∂ 2 fk
+ (t, Xt )dXti dXtj .
2 i,j=1 ∂xi ∂xj

El producto de los diferenciales dXti dXtj se calcula aplicando las reglas sigu-
ientes:
½
i j 0 si i 6= j
dBt dBt =
dt si i = j
dBti dt = 0
(dt)2 = 0.
De esta forma se obtiene
à m !
X
dXti dXtj = uik jk
t ut dt = (ut u0t )ij dt.
k=1

2.5 Integrales estocásticas de Stratonovich


En las sumas
R t de Riemann-Stieltjes que elegimos para definir la integral es-
tocástica 0 us dBs de un proceso continuo u, se toman siempre los valores
del proceso u en el punto tj−1 de cada intervalo [tj−1 , tj ] . De esta forma la
integral estocástica tiene media cero y su varianza puede calcularse a partir
de la propiedad de isometrı́a. También, la integral indefinida es una mar-
tingala. El inconveniente de esta elección consiste en que en la regla de la
cadena nos aparece un término Rcorrectivo.
T
La integral de Stratonovich 0 us ◦ dBs se define como el lı́mite en prob-
abilidad de la sucesión
Xn
1
(uti−1 + uti )∆Bi ,
i=1
2

51
iT
suponiendo ti = n
. Supongamos que el proceso u es un proceso de Itô de la
forma Z t Z t
ut = u0 + αs dBs + β s ds. (26)
0 0
Utilizando la descomposición
1
(ut + uti )(Bti − Bti−1 ) = uti−1 (Bti − Bti−1 )
2 i−1
1
+ (uti − uti−1 )(Bti − Bti−1 ),
2
se obtiene la siguiente fórmula que relaciona las integrales de Itô y de Stratonovich:
Z T Z t Z
1 t
us ◦ dBs = us dBs + αs ds. (27)
0 0 2 0
En efecto, las sumas de Riemann-Stieltjes
n
X
(uti − uti−1 )(Bti − Bti−1 )
i=1

convergen hacia la integral


Z t Z t Z t Z t
2
dus dBs = αs (dBs ) + β s dsdBs = αs ds.
0 0 0 0

Puede comprobarse que la integral estocástica de Stratonovich sigue las


reglas del cálculo diferencial ordinario. Es decir, si u es un proceso de la
forma (26) y
Z t Z t
Xt = X0 + us ◦ dBs + vs ds
0 0
Z t Z tµ ¶
1
= X0 + us dBs + vs + αs ds,
0 0 2
entonces,
1
df (Xt ) = f 0 (Xt )dXt + f 00 (Xt )(dXt )2
2 µ ¶
0 0 1
= f (Xt )ut dBt + f (Xt ) vt + αt dt
2
1
+ f 00 (Xt )u2t dt. (28)
2

52
Por otra parte,
1
f 0 (Xt )ut dBt = f 0 (Xt )ut ◦ dBt − d [f 0 (Xt )ut ] dBt .
2
En el cálculo de d [f 0 (Xt )ut ] dBt hemos de tener en cuenta solo los diferen-
ciales estocásticos de d [f 0 (Xt )ut ] que son

f 0 (Xt )αt dBt + f 00 (Xt )u2t dBt .

Por consiguiente, se obtiene


1¡ 0 ¢
f 0 (Xt )ut dBt = f 0 (Xt )ut ◦ dBt − f (Xt )αt + f 00 (Xt )u2t dt
2
y substituyendo esta expresión en (28) obtenemos

df (Xt ) = f 0 (Xt )ut ◦ dBt + f 0 (Xt )vt dt


= f 0 (Xt ) ◦ dXt .

2.6 Tiempo local


Consideremos la función siguiente para cada ε > 0
(
³ |x| 2 ´ si |x| ≥ ε
gε (x) = 1 .
2
ε + xε si |x| < ε

La derivada de esta función vale


½
0 sign(x) si |x| ≥ ε
gε (x) = x .
ε
si |x| < ε
La segunda derivada existe excepto si x = ∓ε y vale
½
00 0 si |x| ≥ ε
gε (x) = 1 .
ε
si |x| < ε

Siempre que una función sea de clase C 2 excepto en un número finito de


puntos y la segunda derivada esté acotada se verifica todavı́a la fórmula de
Itô. Por ello, tendremos
Z t Z
ε 0 1 t
gε (Bt ) = + gε (Bs )dBs + 1(−ε,ε) (Bs )ds.
2 0 2ε 0

53
Cuando ε tiende a cero, gε (Bt ) converge en media cuadrática hacia |Bt |. Por
otra parte, gε0 (Bs ) converge en L2 ([0, t] × Ω) hacia sign(Bs ). En efecto,
Z t
2
E |sign(Bs ) − gε0 (Bs )| ds
0
µ Z t· ¸ ¶
2 Bs2
≤ 2E (sign(Bs )) + 2 1(−ε,ε) (Bs )ds
0 ε
µZ t ¶
≤ 4E 1(−ε,ε) (Bs )ds
0
Z t Z t
ε↓0
= 4 P (|Bs | < ε)ds −→ 4 P (|Bs | = 0)ds = 0.
0 0

Denotaremos por Lt (0) el lı́mite en media cuadrática de


Z
1 t 1
1(−ε,ε) (Bs )ds = |{s ∈ [0, t] : |Bs | < ε}|.
2ε 0 2ε
De esta forma obtenemos la fórmula de Itô para el valor absoluto del movimiento
browniano, conocida como fórmula de Tanaka:
Z t
|Bt | = sign(Bs )dBs + Lt (0).
0

Observaciones:

• Más generalmente, para todo x se tiene


Z t
|Bt − x| = sign(Bs − x)dBs + Lt (x).
0

• El proceso {Lt (x), t ≥ 0, x ∈ R} se denomina el tiempo local del movimiento


browniano. Para cada t ≥ 0, Lt (x) es la densidad de la medida de ocu-
pación, es decir,
Z b Z t
Lt (x)dx = 1[a,b] (Bs )ds.
a 0

Puede demostrarse que existe una versión del tiempo local que es con-
tinua en las dos variables (t, x).

54
• En el caso de una función diferenciable b(t), se tiene

d|b(t)| = sign(b(s))b0 (s)ds,

y la densidad de la medida de ocupación en [0, t] vale


X 1
Lt (x) = .
b0 (s)
s∈[0,t]:b(s)=x

2.7 Representación integral de martingalas


Consideremos un proceso u de la clase L2a,T . Sabemos que la integral in-
definida Z t
Xt = us dBs
0
es una martingala respecto de la filtración Ft . En este apartado demostraremos
que todas las martingalas de cuadrado integrable respecto de esta filtración
son de este tipo.
Veamos un resultado preliminar.

Lema 12 El conjunto de variables que son combinaciones lineales de expo-


nenciales de la forma
µZ T Z ¶
1 T 2
exp hs dBs − h ds , (29)
0 2 0 s
RT
donde h es una función determinista tal que 0
h2s ds < ∞, es denso en
L2 (Ω, FT , P ).

Demostración: Sea Y una variable de L2 (Ω, FT , P ) ortogonal a todas las


exponenciales de la forma (29). Queremos demostrar que Y = 0. Fijados m
instantes 0 ≤ t1 < · · · tm ≤ T y m números reales λ1 , . . . , λm sabemos que
¡ ¢
E Y eλ1 Bt1 +···+λm Btm = 0.

Esto implica que la medida

ν(A) = E (Y 1A (Bt1 , . . . , Btm ))

55
tiene una transformada de Laplace idénticamente nula. Por lo tanto,

E(Y 1G ) = 0

para todo suceso G de la σ -álgebra generada por las variables Bt1 , . . . , Btm . Por
un argumento de clases monótonas, esto será cierto para todo G de la σ -álgebra
FT , y por lo tanto, Y = 0. ¤

Teorema 13 (Teorema de representación de Itô) Consideremos una vari-


able aleatoria F de L2 (Ω, FT , P ). Entonces existe un único proceso es-
tocástico u de la clase L2a,T tal que
Z T
F = E(F ) + us dBs .
0

Demostración: Supongamos primero que la variable F es de la forma


µZ T Z ¶
1 T 2
exp hs dBs − h ds ,
0 2 0 s
RT
donde h es una función determinista tal que 0
h2s ds < ∞. Definimos
µZ t Z t ¶
1
Yt = exp hs dBs − h2s ds .
0 2 0
Rt
Por la fórmula de Itô aplicada a la función f (x) = ex y al proceso Xt = hs dBs −
1
Rt 0

2
h2 ds,
0 s
obtenemos
µ ¶
1 2 1
dYt = Yt h(t)dBt − h (t)dt + Yt (h(t)dBt )2
2 2
= Yt h(t)dBt ,

es decir, Z t
Yt = 1 + Ys h(s)dBs .
0
Por lo tanto, Z T
F = YT = 1 + Ys h(s)dBs
0

56
y se cumple la representación buscada porque E(F ) = 1,
µZ T ¶ Z T
¡ ¢
E Ys2 h2 (s)ds = E Ys2 h2 (s)ds
0 0
µZ T ¶Z T
2
≤ exp hs ds h2s ds < ∞
0 0

ya que
· µ Z t Z t ¶¸
¡ ¢
E Yt2 = E exp 2 hs dBs − 2
hs ds
0 0
µZ t ¶
2
= exp hs ds .
0

Por linealidad, la representación se cumplirá en el caso en que F sea una com-


binación lineal de exponenciales del tipo (29). En el caso general, el Lema 12 nos
permite aproximar una variable arbitraria F de L2 (Ω, FT , P ) por una sucesión Fn
de combinaciones lineales de exponenciales de la forma (29). Tendremos, entonces,
Z T
Fn = E(Fn ) + u(n)
s dBs .
0

Por la propiedad de isometrı́a de la integral estocástica


"µ Z ¶2 #
£ ¤ T ¡ ¢
E (Fn − Fm )2 = E E(Fn − Fm ) + u(n)
s − us
(m)
dBs
0
"µZ ¶2 #
T ¡ ¢
= (E(Fn − Fm ))2 + E u(n)
s − us
(m)
dBs
0
·Z T ¸
¡ ¢2
≥ E u(n)
s − us(m) ds .
0

La sucesión Fn es de Cauchy en L2 (Ω, FT , P ). Por lo tanto,


£ ¤ n,m→∞
E (Fn − Fm )2 −→ 0

y, en consecuencia,
·Z T ¸
¡ ¢2 n,m→∞
E us(n) − u(m)
s ds −→ 0.
0

57
Esto nos dice que la sucesión u(n) es de Cauchy en L2 ([0, T ] × Ω). Por lo tanto
será convergente hacia un proceso u de L2 ([0, T ] × Ω). Por otra parte, puede
comprobarse que u pertenece a la clase L2a,T , teniendo en cuenta que una sucesión
parcial de u(n) (t, ω) converge casi por todo (t, ω) hacia u(t, ω). Aplicando de
nuevo la propiedad de isometrı́a, y teniendo en cuenta que E(Fn ) converge hacia
E(F ), se obtiene
µ Z T ¶
(n)
F = lim Fn = lim E(Fn ) + us dBs
n→∞ n→∞ 0
Z T
= E(F ) + us dBs .
0

Finalmente, la unicidad sale también de la propiedad de isometrı́a: Supong-


amos que u(1) y u(2) fuesen dos procesos de L2a,T tales que
Z T Z T
F = E(F ) + u(1)
s dBs = E(F ) + u(2)
s dBs .
0 0

Entonces
"µZ ¶2 # ·Z ¸
T ¡ ¢ T ¡ (1) ¢
(2) 2
0=E u(1)
s − us (2)
dBs =E us − us ds
0 0

(1) (2)
y, por lo tanto, us (t, ω) = us (t, ω) casi por todo (t, ω). ¤

Teorema 14 (Teorema de representación de martingalas) Supongamos


que {Mt , t ∈ [0, T ]} es una martingala respecto de la filtración Ft , tal que
E(MT2 ) < ∞ . Entonces existe un único proceso estocástico u de la claseL2a,T
tal que Z t
Mt = E(M0 ) + us dBs
0

para todo t ∈ [0, T ].

Demostración: Aplicando el teorema de representación de Itô a F = MT


obtenemos que existe un único proceso u ∈ L2T tal que
Z T Z T
MT = E(MT ) + us dBs = E(M0 ) + us dBs .
0 0

58
Supongamos que 0 ≤ t ≤ T . Tendremos
Z T
Mt = E[MT |Ft ] = E(M0 ) + E[ us dBs |Ft ]
0
Z t
= E(M0 ) + us dBs .
0

2.8 Teorema de Girsanov


El teorema de Girsanov nos dice que el movimiento browniano con deriva
Bt + λt puede verse como un movimiento browniano sin deriva, cambiando
la probabilidad. Analizaremos primero como funcionan los cambios de prob-
abilidad mediante densidades.
Si en un espacio de probabilidad (Ω, F, P ) consideramos una variable
aleatoria L ≥ 0 de esperanza uno, entonces,

Q(A) = E (1A L)

define una nueva probabilidad. Que la esperanza de L sea igual a 1 nos


garantiza que
Q(Ω) = E(L) = 1.
Se dice que L es la densidad de Q respecto de P y se escribe formalmente
dQ
= L.
dP
La esperanza de una variable aleatoria X en el espacio de probabilidad
(Ω, F, Q) se calcula de la forma siguiente

EQ (X) = E(XL).

La probabilidad Q es absolutamente continua respecto de P , lo que significa


que
P (A) = 0 =⇒ Q(A) = 0.

59
Si la variable L es estrictamente positiva, entonces las probabilidades P y
Q son equivalentes (o sea, mutuamente absolutamente continuas), lo que
significa
P (A) = 0 ⇐⇒ Q(A) = 0.
Veamos seguidamente un ejemplo simple de cambio de probabilidades que
representa una versión sencilla del teorema de Girsanov:

Ejemplo 20 Sea X una variable aleatoria con ley normal N (m, σ 2 ). Existe
una probabilidad Q respecto de la cual la variable X tenga ley N (0, σ 2 )?
Consideremos la variable
m m2
L = e− σ2 X+ 2σ2 .

Es fácil comprobar que tiene esperanza uno E(L) = 1. Por otra parte, en
el espacio de probabilidad (Ω, F, Q) la variable X tiene por función carac-
terı́stica:
Z ∞
1 (x−m)2 mx m2
itX itX
EQ (e ) = E(e L) = √ e− 2σ2 − σ2 + 2σ2 +itx dx
2
Z ∞ 2πσ −∞
1 x2 σ 2 t2
= √ e− 2σ2 +itx dx = e− 2 ,
2πσ 2 −∞
es decir, X tiene una ley N (0, σ 2 ).

Veremos que en el caso del movimiento browniano se obtiene un resultado


similar. Teniendo en cuenta que el movimiento browniano es el lı́mite de
paseos aleatorios, analizaremos primero el problema de la eliminación de la
deriva en un paseo aleatorio:
Consideremos una succesión {Xn , n ≥ 1} de variables aleatorias indepen-
dientes tales que
½
+1, con probabilidad 1/2
Xn = .
−1, con probabilidad 1/2

Pongamos S0 = 0, y Sn = X1 + · · · + Xn + na, donde a > 0. La succesión Sn


representa un paseo aleatorio con deriva igual a a, y no es una martingala ya
que
E(Sn |Fn−1 ) = Sn−1 + a,

60
donde Fn es la σ-álgebra generada por X1 , ..., Xn si n ≥ 1, y F0 = {∅, Ω}.
Podemos cambiar la asignación de probabilidades de manera que Sn sea una
martingala. Si suponemos que

P (Xn = +1) = p,
P (Xn = −1) = 1 − p,

necesitaremos que E(a + Xn ) = 0, es decir,


1−a
p= ,
2
suponiendo que a < 1.
Multipliquemos√los valores de la constante a por ∆t y los valores de las
variables Xn por σ ∆t. O sea supondremos que

S0 = 0,
∆Sn = a∆t + σXn ,
√ 1
P (Xn = ± ∆t) = .
2
En tal caso el valor de la probabilidad p respecto de la cual las Sn forman
una martingala es
√ 1 a√
P (Xn = ∆t) = p = − ∆t,
2 2σ
√ 1 a√
P (Xn = − ∆t) = 1 − p = + ∆t.
2 2σ
Podemos escribir
√ 1 ³ a ´
P (Xn = ± ∆t) = 1 − Xn .
2 σ
Si consideramos un camino de longitud N formado por los sucesivos valores
que toman las variables Xn , la probabilidad
Q P ¡ de este camino
¢ seria 2−N ,
mientras que la probabilidad Q seria 2−N N a
n=1 1 − σ Xn . Es decir, pode-
mos escribir
Q(camino) Y ³ a ´
N
= 1 − Xn .
P (camino) n=1 σ

61
Observamos que la probabilidad Q está bien definida si
³ σ ´2
∆t < ,
a
lo cual es cierto siempre que ∆t sea suficientement pequeño.
Supongamos ahora que las variables aleatorias Sn se observan en instantes
que distan ∆t. Si ∆t tiende a cero y N tiende a infinito de manera que
N ∆t = t, entonces, Sn converge hacia un movimiento browniano con deriva
at + σBt .
Por otra parte, el cociente entre las probabilidades Q y P converge hacia
un término exponencial:
N ³
Q(camino) Y a ´
= 1 − Xn
P (camino) n=1
σ
à N !
X ³ a ´
= exp log 1 − Xn
n=1
σ
à N µ ¶!
X a a2 2
w exp − Xn − 2 Xn
n=1
σ 2σ
à N
!
aX a2
= exp − Xn − 2 t .
σ n=1 2σ

Es decir, en el lı́mite se obtiene


µ ¶
Q(camino) a a2
= exp − Bt − 2 t .
P (camino) σ 2σ

Sea{Bt , t ∈ [0, T ]} un movimiento browniano. Fijemos un número real λ.


Consideremos la martingala
³ ´
λ2
Lt = exp −λBt − 2 t . (30)

Observemos que el proceso estocástico {Lt , t ∈ [0, T ]} es una martingala pos-


itiva de esperanza uno que satisface la ecuación diferencial estocástica
Z t
Lt = 1 − λLs dBs .
0

62
La variable LT es una densidad de probabilidad en el espacio (Ω, FT , P ) que
define una probabilidad Q dada por

Q(A) = E (1A LT ) ,

para todo A ∈ FT .
La propiedad de martingala del proceso Lt implica que en el espacio
(Ω, Ft , P ), la probabilidad Q tiene densidad igual a Lt . En efecto, si A
pertenece a la σ-álgebra Ft se tiene

Q(A) = E (1A LT ) = E (E (1A LT |Ft ))


= E (1A E (LT |Ft ))
= E (1A Lt ) .

Teorema 15 (Teorema de Girsanov) En el espacio de probabilidad (Ω, FT , Q)


el proceso estocástico
Wt = Bt + λt,
es un movimiento browniano.

Antes de demostrar este teorema probaremos un resultado técnico:

Lema 16 Supongamos que X es una variable aleatoria real y G es una σ-


álgebra tales que
¡ ¢ u2 σ 2
E eiuX |G = e− 2 .
Entonces, la variable X es independiente de la σ-álgebra G y tiene una ley
normal N (0, σ 2 ).

Demostración: Para todo suceso A ∈ G se cumplirá


¡ ¢ u2 σ 2
E 1A eiuX = P (A)e− 2 .

Por lo tanto, eligiendo A = Ω obtenemos la función caracterı́stica de X , y en


consecuencia, X tiene una ley N (0, σ 2 ). Por otra parte, fijado un suceso A ∈ G ,
la función caracterı́stica de la variable X respecto de la probabilidad condicionada
por A será también
¡ ¢ u2 σ 2
EA eiuX = e− 2 .

63
Es decir, la ley de X condicionada por A es también una ley normal N (0, σ 2 ).
Por consiguiente, tendremos

PA (X ≤ x) = Φ(x/σ) ,

y
P ((X ≤ x) ∩ A) = P (A)Φ(x/σ) = P (A)P (X ≤ x), (31)
donde Φ representa la función de distribución de la ley N (0, 1). La igualdad (31)
nos da la independencia entre la variable X y la σ -álgebra G . ¤

Demostración del teorema de Girsanov: Será suficiente con demostrar


que, en el espacio de probabilidad (Ω, FT , Q), para todo s < t ≤ T el incremento
Wt − Ws es independiente de Fs y tiene ley normal N (0, t − s).
Teniendo en cuenta el lemma anterior, estas dos propiedades se deducen de la
fórmula siguiente, para todo s < t, A ∈ Fs , u ∈ R,
¡ ¢ u2
EQ 1A eiu(Wt −Ws ) = Q(A)e− 2 (t−s) . (32)

Para demostrar la fórmula (32) ponemos


¡ ¢ ¡ ¢
EQ 1A eiu(Wt −Ws ) = E 1A eiu(Wt −Ws ) Lt
³ λ2
´
= E 1A eiu(Bt −Bs )+iuλ(t−s)−λ(Bt −Bs )− 2 (t−s) Ls
¡ ¢ λ2
= E(1A Ls )E e(iu−λ)(Bt −Bs ) eiuλ(t−s)− 2 (t−s)
(iu−λ)2 2
(t−s)+iuλ(t−s)− λ2 (t−s)
= Q(A)e 2

u2
= Q(A)e− 2
(t−s)
.

¤
El teorema de Girsanov admite la siguiente generalización:

Teorema 17 Sea {θt , t ∈ [0, T ]} un proceso adaptado y tal que cumple la


denominada condición de Novikov:
µ µ Z T ¶¶
1 2
E exp θ dt < ∞. (33)
2 0 t
Entonces, el proceso Z t
W t = Bt + θs ds
0

64
es un movimiento browniano respecto de la probabilidad Q definida por

Q(A) = E (1A LT ) ,

donde µ Z t Z ¶
1 t 2
Lt = exp − θs dBs − θ ds .
0 2 0 s

Observemos que de nuevo Lt es satisface la ecuación diferencial estocástica


Z t
Lt = 1 − θs Ls dBs .
0

Para que el proceso Lt sea una martingala y tengamos E(Lt ) = 1, necesitamos


que θs Ls pertenezca a la clase L2a,T . La condición (33) sirve para asegurar
esta propiedad.

Como aplicación del teorema de Girsanov deduciremos la ley del instante


de llegada del movimiento browniano con deriva a un nivel a.
Sea {Bt , t ≥ 0} un movimiento browniano. Fijado un valor λ, definimos
la martingala Lt como en (30). Sea Q la probabilidad en ∪t≥0 Ft tal que para
todo t ≥ 0
dQ
|F = Lt .
dP t
Por el teorema de Girsanov, para todo T > 0, en el espacio de probabili-
dad (Ω, FT , Q) el proceso Bt + λt := Bet es un movimiento browniano en el
intervalo de tiempo [0, T ]. Es decir, en este espacio Bt es un movimiento
browniano con deriva −λt. Sea

τ a = inf{t ≥ 0, Bt = a},

donde a 6= 0. Para cada t ≥ 0 el suceso {τ a ≤ t} pertenece a la σ-álgebra


Fτ a ∧t ya que para todo s ≥ 0

{τ a ≤ t} ∩ {τ a ∧ t ≤ s} = {τ a ≤ t} ∩ {τ a ≤ s}
= {τ a ≤ t ∧ s} ∈ Fs∧t ⊂ Fs .

65
Por consiguiente, utilizando la propiedad de martingala respecto de los tiem-
pos de paro obtenemos
¡ ¢ ¡ ¢
Q{τ a ≤ t} = E 1{τ a ≤t} Lt = E 1{τ a ≤t} E(Lt |Fτ a ∧t )
¡ ¢ ¡ ¢
= E 1{τ a ≤t} Lτ a ∧t = E 1{τ a ≤t} Lτ a
³ ´
−λa− 21 λ2 τ a
= E 1{τ a ≤t} e
Z t
1 2
= e−λa− 2 λ s f (s)ds,
0

donde f es la densidad de la variable τ a . Sabemos que


|a| a2
f (s) = √ e− 2s .
2πs3
Por lo tanto, respecto de Q la variable aleatoria τ a tiene una densidad igual
a
|a| − (a+λs)2
√ e 2s , s > 0.
2πs3
Haciendo, t ↑ ∞ obtenemos
³ 1 2 ´
Q{τ a < ∞} = e−λa E e− 2 λ τ a = e−λa−|λa| .

Si λ = 0 (movimiento browniano sin deriva), la probabilidad de llegar alguna


vez a un nivel dado es igual a uno. Si −λa > 0 (la deriva −λ y el nivel a
tienen el mismo signo) esta probabilidad es también igual a uno. Si −λa < 0
(la deriva −λ y el nivel a tienen signo distinto) la probabilidad vale e−2λa .

Ejercicios

2.1 Consideremos una función f tal que


Z T
f (s)2 ds < ∞.
0

Definimos la sucesión de funciones continuas


Z t
fn (t) = f (s)ds,
1
t− n

66
con la convención f (s) = 0 si s < 0. Demostrar que se cumple
Z T
n→∞
(f (s) − fn (s))2 ds −→ 0 −→ 0.
0

Indicación: Sabemos que para cada ε > 0 podemos encontrar una


función continua g tal que
Z T
(f (s) − g(s))2 ds < ε.
0

2.2 Consideremos un proceso estocástico M = {Mt , t ≥ 0} que es una mar-


tingala respecto de una filtración {Mt , t ≥ 0}. Demostrar que el pro-
ceso M también es una martingala respecto de la filtración natural
FtM = σ (Ms , 0 ≤ s ≤ t) ⊂ Mt .

2.2 Consideremos una martingala M = {Mt , t ≥ 0} respecto de una fil-


tración {Mt , t ≥ 0} tal que E(Mt2 ) < ∞ para todo t ≥ 0. Demostrar
que si s < t

E((Mt − Ms )2 |Ms ) = E(Mt2 − Ms2 |Ms ).

2.3 Demostrar que si τ es un tiempo de paro, Fτ definida en (18) es una σ-


álgebra y τ es Fτ -medible. Si X = {Xt , t ≥ 0} es un proceso adaptado
con trayectorias continuas, y τ es finito, demostrar que la variable Xτ
es Fτ -medible.

2.4 Sea Y una variable aleatoria integrable y {Mt , t ≥ 0} una familia cre-
ciente de σ-álgebras. Demostrar que

Mt = E(Y |Mt )

es una martingala.

2.5 Comprobar si los siguientes procesos estocásticos, definidos a partir de

67
un movimiento browniano Bt , son martingalas:

Xt = Bt3 − 3tBt
Z s
2
Xt = t Bt − 2 sBs ds
0
Xt = et/2 cos Bt
Xt = et/2 sin Bt
1
Xt = (Bt + t) exp(−Bt − t)
2
Xt = B1 (t)B2 (t).

En el último caso, B1 y B2 son dos movimientos brownianos indepen-


dientes.
2.6 Supongamos que Bt es un movimiento browniano n-dimensional y sea
f : Rn → R una función de clase C 2 . Utilizando la fórmula de Itô
demostrar que
Z t Z
1 t
f (Bt ) = f (0) + ∇f (Bs )ds + ∆f (Bs )ds.
0 2 0

2.7 Encontrar el proceso u que nos proporciona la representación integral


Z T
F = E(F ) + us dBs
0

en los ejemplos siguientes:

F = BT
F = BT2
F = eBT
Z T
F = Bt dt
0
F = BT3
F = sin BT

2.8 Sea p(t, x) = 1/ 1 − t exp(−x2 /2(1 − t)), para 0 ≤ t < 1 y x ∈ R, y
p(1, x) = 0. Definimos Mt = p(t, Bt ), donde {Bt , 0 ≤ t ≤ 1} es un
movimiento browniano.

68
a) Demostrar que Z t
∂p
Mt = M0 + (s, Bs )dBs .
0 ∂x

∂p
R1
b) Sea Ht =³ ∂x (t, Bt´). Probar que 0 Ht2 dt < ∞ casi seguramente,
R1
pero E 0 Ht2 dt = ∞.

2.9 Sean Yt y Xt procesos de Itô. Demostrar la siguiente fórmula de inte-


gración por partes:
Z t Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + dXs dYs .
0 0 0

3 Ecuaciones diferenciales estocásticas


Queremos resolver ecuaciones diferenciales del tipo

dXt = b(t, Xt )dt + σ(t, Xt )dBt . (34)

Los coeficientes b(t, x) y σ(t, x) se denominan, respectivamente, coefi-


ciente de deriva y coeficiente de difusión. Si el coeficiente de difusión se
anula, entonces, tendremos una ecuación diferencial ordinaria:
dXt
= b(t, Xt ),
dt
que puede resolverse, si conocemos la condición inicial X0 . Por ejemplo, en
el caso lineal b(t, x) = b(t)x, la solución es
Rt
b(s)ds
Xt = X0 + e 0 .

Una ecuación diferencial del tipo (34) se denomina una ecuación diferen-
cial estocástica. La solución será un proceso estocástico {Xt , t ≥ 0} con
trayectorias continuas adaptado a la filtración browniana. Los procesos
solución se denominan procesos de difusión.
Una interpretación heurı́stica de la ecuación diferencial (34) serı́a la sigu-
iente: El incremento ∆Xt = Xt+∆t − Xt se expresa como una suma de
b(t, Xt )∆t más un término que depende del incremento del movimiento brow-
niano: σ(t, Xt )∆Bt y que se interpreta como una impulso aleatorio. Por

69
tanto, el incremento ∆Xt tendrá una ley normal de media b(t, Xt )∆t y vari-
anza σ(t, Xt )2 ∆t.
La formalización de estas ecuaciones se realiza transformándolas en ecua-
ciones integrales y utilizando integrales estocásticas:
Z t Z t
Xt = X0 + b(s, Xs )ds + σ(s, Xs )dBs . (35)
0 0

El resultado fundamental sobre la existencia y unicidad de soluciones es


el siguiente:

Teorema 18 Fijemos un intervalo de tiempo [0, T ]. Supongamos que los


coeficientes de la ecuación (34) verifican:

|b(t, x) − b(t, y)| ≤ D1 |x − y| (36)


|σ(t, x) − σ(t, y)| ≤ D2 |x − y| (37)
|b(t, x)| ≤ C1 (1 + |x|) (38)
|σ(t, x)| ≤ C2 (1 + |x|), (39)

para todo x, y ∈ R, t ∈ [0, T ]. Supongamos que Z es una variable aleatoria


independiente de la σ-álgebra FT generada por el movimiento browniano en
[0, T ], tal que E(Z 2 ) < ∞. Entonces, existe un único proceso {Xt , t ∈ [0, T ]}
continuo, adaptado, solución de (35) y tal que
µZ T ¶
2
E |Xs | ds < ∞.
0

Observaciones:

1.- Este resultado es cierto en dimensión superior, cuando Bt es un movimiento


browniano m-dimensional, la solución Xt es un proceso estocástico n-
dimensional, y los coeficientes son funciones b : [0, T ] × Rn → Rn ,
σ : [0, T ] × Rn → Rn×m .

2.- La condición de crecimiento lineal (38,39) garantiza que la solución no


explota antes del tiempo final T . Por ejemplo, la ecuación diferencial
determinista
dXt
= Xt2 , X0 = 1,
dt

70
tiene por única solución la función
1
Xt = , 0 ≤ t < 1,
1−t
que diverge en el instante t = 1.

3.- La condición de Lipschitz (36,37) garantiza que no exista más de una


solución. Por ejemplo, la ecuación diferencial determinista
dXt 2/3
= 3Xt , X0 = 0,
dt
tiene infinitas soluciones ya que para cada a > 0, la función
½
0 si t ≤ a
Xt =
(t − a)3 si t > a

es solución. En este ejemplo la función b(x) = 3x2/3 no cumple la


condición de Lipschitz ya que la derivada de b no está acotada.

4.- Si los coeficientes b(t, x) y σ(t, x) son diferenciables en la variable x, la


∂b
condición de Lipschitz significa que las derivadas parciales ∂x y ∂σ
∂x
están
acotadas por las constantes D1 y D2 , respectivamente.

Demostración del Teorema 18: Consideremos el espacio L2a,T de los


³R ´
Z T 2
procesos adaptados a la filtración Ft = σ(Z) ∨ Ft y tales que E 0 |Xs | ds <
∞. En este espacio introducimos la siguiente norma
µZ T ¶1/2
−λs
£ ¤
kXk = e E Xs2 ds ,
0

donde λ es una constante tal que λ > 2 (T D12 + D22 ).


Definimos un operador en este espacio de la forma siguiente
Z t Z t
(LX)t = X0 + b(s, Xs )ds + σ(s, Xs )dBs .
0 0

Este operador está bien definido debido a la propiedad de crecimiento lineal (38,39)
de los coeficientes de la ecuación.

71
La desigualdad de Schwartz y la isometrı́a de la integral estocástica nos per-
miten escribir
"µZ ¶2 #
£ t

E |(LX)t − (LY )t | ≤ 2E (b(s, Xs ) − b(s, Ys )) ds
0
"µZ ¶2 #
t
+2E (σ(s, Xs ) − σ(s, Xs )) dBs
0
·Z t ¸
2
≤ 2T E (b(s, Xs ) − b(s, Ys )) ds
0
·Z t ¸
2
+2E (σ(s, Xs ) − σ(s, Xs )) ds .
0

Utilizando la propiedad de Lipschitz (36,37) se obtiene


·Z t ¸
£ 2¤ ¡ ¢ 2
E |(LX)t − (LY )t | ≤2 T D12 + D22 E (Xs − Ys ) ds .
0

Pongamos C = 2 (T D12 + D22 ). Por consiguiente, multiplicando por el factor e−λt


e integrando en [0, T ] se obtiene
Z T Z T¸ ·Z t
−λt
£ 2¤ −λt 2
e E |(LX)t − (LY )t | dt ≤ C e E (Xs − Ys ) ds dt
0 0 0
Z T µZ T ¶
£ ¤
≤ C e dt E (Xs − Ys )2 ds
−λt
0 s
Z T
C £ ¤
≤ e−λs E (Xs − Ys )2 ds.
λ 0
Por lo tanto, r
C
kLX − LY k ≤ kX − Y k
λ
q
C
y como λ
< 1. Esto nos dice que el operador L es una contracción en el espacio
L2a,T . El teorema del punto fijo nos asegura que este operador tiene un único punto
fijo, lo que implica la unicidad y existencia de solución de la ecuación (35). ¤

72
3.1 Soluciones explı́citas de ecuaciones diferenciales es-
tocásticas
La fórmula de Itô permite resolver explı́citamente algunas ecuaciones difer-
enciales estocásticas. Veamos algunos ejemplos.

A) Ecuaciones lineales. El movimiento browniano geométrico


 2

µ− σ2 t+σBt
Xt = X0 e

satisface la ecuación lineal

dXt = µXt dt + σXt dBt .

Más generalmente, la solución de la ecuación lineal homogénea

dXt = b(t)Xt dt + σ(t)Xt dBt

será hR ¡ i
t 1 2
¢ Rt
Xt = X0 exp 0
b(s) − 2
σ (s) ds + 0
σ(s)dB s

B) El proceso de Ornstein-Uhlenbeck. Consideremos la ecuación diferencial


estocástica

dXt = a (m − Xt ) dt + σdBt
X0 = x,

donde a, σ > 0 y m es un número real. Como se trata de una ecuación


lineal no homogénea, utilizaremos el método de variación de las con-
stantes. La solución de la ecuación homogénea

dxt = −axt dt
x0 = x

es xt = xe−at . Entonces hacemos el cambio de variable Xt = Yt e−at , es


decir, Yt = Xt eat . El proceso Yt satisface

dYt = aXt eat dt + eat dXt


= ameat dt + σeat dBt .

73
Por tanto, Z t
at
Yt = x + m(e − 1) + σ eas dBs ,
0
lo que implica
Rt
Xt = m + (x − m)e−at + σe−at 0
eas dBs

El proceso estocástico Xt es gaussiano. La media y varianza de cada


variable Xt pueden calcularse fácilmente:
E(Xt ) = m + (x − m)e−at ,
"µZ ¶2 #
t
V arXt = σ 2 e−2at E eas dBs
0
Z t
σ2 ¡ ¢
= e−2at e2as ds = 1 − e−2at .
0 2a
La distribución de Xt cuando t tiende a infinito converge hacia la ley
normal
σ2
N (m, ).
2a
Esta ley se denomina la ley invariante o estacionaria. En el caso m = 0
este proceso se denomina el proceso de Ornstein-Uhlenbeck.
C) Consideremos una ecuación diferencial estocástica del tipo
dXt = f (t, Xt )dt + c(t)Xt dBt , X0 = x, (40)
donde f (t, x) y c(t) son funciones deterministas continuas, tales que f
satisface las condiciones de crecimiento lineal y propiedad de Lipschitz
en la variable x. Esta ecuación se puede resolver siguiendo los pasos
siguientes:

a) Se considera el “factor integrante”


µ Z t Z ¶
1 t 2
Ft = exp − c(s)dBs + c (s)ds ,
0 2 0
tal que Ft−1 es solución de la ecuación (40) si f = 0 y x = 1. El
proceso Yt = Ft Xt cumple
dYt = Ft f (t, Ft−1 Yt )dt, Y0 = x. (41)

74
b) La ecuación (41) es una ecuación diferencial determinista, parametrizada
por ω ∈ Ω, que podrá resolverse mediante métodos habituales.

Por ejemplo, supongamos que f (t, x) = f (t)x. En tal caso la ecuación


(41) es
dYt = f (t)Yt dt,
de lo que se deduce
µZ t ¶
Yt = x exp f (s)ds
0

y, por lo tanto,
³R Rt Rt ´
t 1
Xt = x exp 0
f (s)ds + 0
c(s)dBs − 2 0
c2 (s)ds

D) Ecuación diferencial estocástica lineal general. Consideremos la ecuación

dXt = (a(t) + b(t)Xt ) dt + (c(t) + d(t)Xt ) dBt ,

con condición inicial X0 = x, donde a, b, c y d son funciones continuas.


Utilizando el método de variación de las constantes propondremos una
solución de la forma
Xt = Ut Vt (42)
donde
dUt = b(t)Ut dt + d(t)Ut dBt
y
dVt = α(t)dt + β(t)dBt ,
con U0 = 1 y V0 = x. Por el apartado C sabemos que
µZ t Z t Z ¶
1 t 2
Ut = exp b(s)ds + d(s)dBs − d (s)ds .
0 0 2 0

Por otra parte, diferenciando la igualdad (42) obtenemos

a(t) = Ut α(t) + β(t)d(t)Ut


c(t) = Ut β(t)

75
es decir
β(t) = c(t) Ut−1
α(t) = [a(t) − c(t)d(t)] Ut−1 .
Finalmente,
³ Rt Rt ´
Xt = Ut x + 0 [a(s) − c(s)d(s)] Us−1 ds + 0 c(s) Us−1 dBs

La ecuación diferencial estocástica de Itô


Z t Z t
Xt = X0 + b(s, Xs )ds + σ(s, Xs )dBs ,
0 0
puede transformarse en una ecuación de Stratonovich, utilizando la fórmula
(27) que nos relaciona ambos tipos de integral. Ası́, se obtiene
Z t Z t Z t
1 0
Xt = X0 + b(s, Xs )ds − (σσ ) (s, Xs )ds + σ(s, Xs ) ◦ dBs ,
0 0 2 0
ya que la expresión del proceso σ(s, Xs ) como proceso de Itô serı́a
Z tµ ¶
0 1 00 2
σ(t, Xt ) = σ(0, X0 ) + σ b − σ σ (s, Xs )ds
0 2
Z t
+ (σσ 0 ) (s, Xs )dBs .
0

Yamada y Watanabe demostraron en 1971 que la condición de Lipschitz


podı́a debilitarse de la forma siguiente, en el caso de ecuaciones diferenciales
estocásticas unidimensionales. Supongamos que los coeficientes b y σ no de-
penden del tiempo, el coeficiente b es Lipschitz, pero el coeficiente σ satisface
la condición de Hölder
|σ(x) − σ(y)| ≤ D|x − y|α ,
donde α ≥ 12 . En tal caso existe una única solución de la ecuación.
Por ejemplo, la ecuación
½
dXt = |Xt |r dBt
X0 = 0
tiene una solución única si r ≥ 1/2.

76
3.2 Soluciones fuertes y soluciones débiles
La solución Xt que hemos encontrado antes es una solución fuerte porque es
un proceso adaptado a la familia de σ-álgebras

FtZ = σ(Bs , s ≤ t, Z).

Podemos plantear el problema de forma diferente. Nos dan los coeficientes


b(t, x) y σ(t, x) y nos piden que encontremos un par de procesos Xt , Bt en un
espacio de probabilidad (Ω, F, P ) tales que Bt es un movimiento browniano
relativo a una filtración Ht y Xt satisface la ecuación (34) en este espacio. Di-
remos entonces que (Ω, F, P, Ht , Xt , Bt ) es una solución débil de la ecuación
(34).
Pueden demostrarse los siguientes resultados:

• Toda solución fuerte es también una solución débil.

• Una ecuación con coeficientes b(t, x) y σ(t, x) se dice que tiene unicidad
débil si dos soluciones débiles tienen la misma ley (las mismas distribu-
ciones en dimensión finita). Si los coeficientes satisfacen las condiciones
del Teorema (18) entonces se satisface la unicidad débil.

• La existencia de soluciones débiles puede asegurarse suponiendo sola-


mente que los coeficientes b(t, x) y σ(t, x) son funciones continuas y
acotadas.

La ecuación de Tanaka

dXt = sign (Xt ) dBt , X0 = 0,

no tiene ninguna solución fuerte pero tiene una solución débil única.

3.3 Aproximaciones numéricas


Muchas ecuaciones diferenciales estocásticas no pueden resolverse explı́citamente.
Por ello es conveniente disponer de métodos numéricos que permiten la sim-
ulación de soluciones.

77
Consideremos la ecuación diferencial estocástica con coeficientes indepen-
dientes del tiempo
dXt = b(Xt )dt + σ(Xt )dBt , (43)
con condición inicial X0 = x.
Fijemos un intervalo de tiempo [0, T ] y consideremos la subdivisión for-
mada por los puntos
iT
tj = , i = 0, 1, . . . , n.
n
La longitud de cada subintervalo será δ n = Tn .
El método de Euler consiste en el esquema recursivo siguiente:
X (n) (ti ) = X (n) (ti−1 ) + b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 ))∆Bi ,
(n)
i = 1, . . . , n, donde ∆Bi = Bti − Bti−1 . El valor inicial será X0 = x.
En los puntos de cada intervalo (ti ti+1 ) el valor del proceso X (n) se deduce
por interpolación lineal. El proceso X (n) es una función del movimiento
browniano y podemos medir el error comerido al aproximar X por X (n) :
·³ ´2 ¸
(n)
en = E XT − XT .

Puede demostrarse que en es del orden δ 1/2


n es decir,
en ≤ cδ 1/2
n

si n ≥ n0 .
Para simular una solución mediante el método de Euler, basta con obtener
valores de n variables
√ aleatorias ξ 1 , . . . ., ξ n independientes con ley N (0, 1), y
substituir ∆Bi por δ n ξ i .
El método de Euler puede mejorarse mediante una corrección adicional.
Esto nos lleva a introducir el método de Milstein.
El valor exacto del incremento entre dos puntos de la partición es
Z ti Z ti
X(ti ) = X(ti−1 ) + b(Xs )ds + σ(Xs )dBs . (44)
ti−1 ti−1

En el método de Euler se basa en aproximar las integrales de la forma sigu-


iente:
Z ti
b(s)ds ≈ b(X (n) (ti−1 ))δ n ,
ti−1
Z ti
σ(s)dBs ≈ σ(X (n) (ti−1 ))∆Bi .
ti−1

78
En el método de Milstein, aplicaremos la fórmula de Itô a los procesos b(Xs ) y
σ(Xs ) que aparecen en (44), con objeto de obtener una aproximación mejor.
De esta forma obtenemos

X(ti ) − X(ti−1 )
Z ti · Z s µ ¶ Z s ¸
(n) 1 00 2
0 0
= b(X (ti−1 )) + bb + b σ (Xr )dr + (σb ) (Xr )dBr ds
ti−1 ti−1 2 ti−1
Z ti · Z s µ ¶ Z s ¸
(n) 0 1 00 2 0
+ σ(X (ti−1 )) + bσ + σ σ (Xr )dr + (σσ ) (Xr )dBr dBs
ti−1 ti−1 2 ti−1

= b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 ))∆Bi + Ri .

El término dominante en el resto es la integral estocástica doble


Z ti µZ s ¶
0
(σσ ) (Xr )dBr dBs ,
ti−1 ti−1

y puede demostrarse que las demás componentes del resto son de órdenes
inferiores y pueden despreciarse. La integral estocástica doble puede, a su
vez, aproximarse por
Z ti µ Z s ¶
0 (n)
(σσ ) (X (ti−1 )) dBr dBs .
ti−1 ti−1

Las reglas del cálculo estocástico nos permiten calcular la integral doble que
nos queda:
Z ti µ Z s ¶ Z ti
¡ ¢
dBr dBs = Bs − Bti−1 dBs
ti−1 ti−1 ti−1
1³ 2 ´ ¡ ¢
= Bti − Bt2i−1 − Bti−1 Bti − Bti−1 − δ 2n
2
1
= (∆Bi )2 − δ 2n .
2
En conclusión, el método de Milstein consiste en el sistema recursivo siguiente

X (n) (ti ) = X (n) (ti−1 ) + b(X (n) (ti−1 ))δ n + σ(X (n) (ti−1 )) ∆Bi
1 £ ¤
+ (σσ 0 ) (X (n) (ti−1 )) (∆Bi )2 − δ 2n .
2

79
Puede demostarse que el error en es del orden δ n es decir,

en ≤ cδ n

si n ≥ n0 .

3.4 Propiedad de Markov


Consideremos un proceso de difusión n-dimensional {Xt , t ≥ 0} que satisface
una ecuación diferencial estocástica del tipo

dXt = b(t, Xt )dt + σ(t, Xt )dBt , (45)

donde B es un movimiento browniano m-dimensional y los coeficientes b y σ


son funciones que satisfacen las hipótesis del Teorema (18).
Seguidamente demostraremos que los procesos de difusión satisfacen la
propiedad de Markov. Esta propiedad nos dice que el comportamiento futuro
del proceso, conociendo la información hasta el instante t solo depende del
valor del proceso en el instante presente, Xt .

Definición 19 Diremos que un proceso estocástico n-dimensional {Xt , t ≥


0} es un proceso de Markov si para todo s < t se tiene

E(f (Xt )|Xr , r ≤ s) = E(f Xt )|Xs ),

para toda función medible y acotada f en Rn .

La ley de probabilidad de los procesos de Markov se caracteriza mediante


las denominadas probabilidades de transición:

P (C, t, x, s) = P (Xt ∈ C|Xs = x),

donde 0 ≤ s < t, C ∈ BRn y x ∈ Rn . Es decir, P (·, t, x, s) es la ley de proba-


bilidad de la variable Xt condicionada por Xs = x. Si esta ley condicionada
tiene densidad, la designaremos por p(y, t, x, s). Por ejemplo, el movimiento
browniano real Bt es un proceso de Markov con probabilidades de transición
dadas por
1 (x−y)2
p(y, t, x, s) = p e− 2(t−s) .
2π(t − s)

80
Designaremos por {Xts,x , t ≥ s} la solución de la ecuación diferencial es-
tocástica (45) en el intervalo de tiempo [s, ∞) y con condición inicial Xss,x =
x. Si s = 0, escribiremos Xt0,x = Xtx .
Puede demostrarse que existe una versión continua en los tres parámetros
del proceso estocástico

{Xts,x , 0 ≤ s ≤ t, x ∈ Rn } .

Por otra parte, para cada 0 ≤ s ≤ t se cumple la siguiente propiedad:


s,Xsx
Xtx = Xt (46)

En efecto, Xtx para t ≥ s satisface la ecuación diferencial estocástica


Z t Z t
x x x
Xt = Xs + b(u, Xu )du + σ(u, Xux )dBu .
s s

Por otra parte, Xts,y verifica


Z t Z t
s,y s,y
Xt = y + b(u, Xu )du + σ(u, Xus,y )dBu
s s

s,X x
y substituyendo y por Xsx obtenemos que los procesos Xtx y Xt s son solu-
ciones de la misma ecuación en el intervalo [s, ∞) con condición inicial Xsx .
Por la unicidad de soluciones deben coincidir.

Teorema 20 (Propiedad de Markov de las difusiones) Sea f una función


medible y acotada definida en Rn . Entonces, para cada 0 ≤ s < t tendremos

E [f (Xt )|Fs ] = E [f (Xts,x )] |x=Xs .

Demostración: Tenemos, utilizando (46) y la Regla 7 de la esperanza condi-


cionada:
h i
E [f (Xt )|Fs ] = E f (Xts,Xs )|Fs = E [f (Xts,x )] |x=Xs ,
s,x
ya que el proceso {Xt , t ≥ s, x ∈ Rn } es independiente de Fs y la variable Xs
es medible respecto de Fs .
Este teorema nos dice que los procesos de difusión tienen la propiedad de
Markov y sus probabilidades de transición son

P (C, t, x, s) = P (Xts,x ∈ C).

81
Si el proceso de difusión es homogéneo en el tiempo, la propiedad de Markov
se escribe £ ¤
x
E [f (Xt )|Fs ] = E f (Xt−s ) |x=Xs .
¤

3.5 Generador de una difusión


Consideremos un proceso de difusión n-dimensional {Xt , t ≥ 0} que satisface
una ecuación diferencial estocástica del tipo

dXt = b(t, Xt )dt + σ(t, Xt )dBt .

donde B es un movimiento browniano m-dimensional. Supondremos que


los coeficientes b y σ satisfacen las hipótesis del Teorema 18 y que X0 es
constante.
Podemos asociar a un proceso de difusión un operador diferencial de se-
gundo orden. Dicho operador, que denotaremos por As , s ≥ 0, se denomina
el generador de la difusión, y se define por
Pn ∂f Pn 2
As f (x) = i=1 bi (s, x) ∂xi + 1
2 i,j=1 (σσ 0 )i,j (s, x) ∂x∂i ∂x
f
j
. (47)

En esta expresión f es una función en Rn dos veces derivable con derivadas


parciales continuas (de clase C 1,2 ). La matriz (σσ 0 ) (s, x) es simétrica y
semidefinida positiva:
n
X
0
(σσ )i,j (s, x) = σ i,k (s, x)σ j,k (s, x).
k=1

La relación entre el operador As y la difusión viene dada por la siguiente


propiedad, consecuencia de la fórmula de Itô: Si f (t, x) es una función de
clase C 1,2 , entonces, f (t, Xt ) es un proceso de Itô con diferencial
µ ¶
∂f
df (t, Xt ) = (t, Xt ) + At f (t, Xt ) dt
∂t
X n X m
∂f
+ i
(t, Xt )σ i,j (t, Xt )dBtj .
i=1 j=1
∂x

82
Por consiguiente, si se cumple
ÃZ ¯ ¯2 !
t¯ ¯
¯ ∂f ¯ ds < ∞
E ¯ ∂xi (s, X s )σ i,j (s, X s )¯ (48)
0

para cada t > 0 y cada i, j, el proceso


Z tµ ¶
∂f
Mt = f (t, Xt ) − + As f (s, Xs )ds (49)
0 ∂s

será una martingala. Condiciones suficientes para (48) son:


∂f
a) Las derivadas parciales ∂xi
están acotadas.

b) Existen constantes ct , kt tales que para cada s ∈ [0, t]


¯ ¯ ¯ ¯ ¯ 2 ¯
¯ ∂f ¯ ¯ ¯ ¯ ¯
¯ (s, x)¯ + ¯ ∂f (s, x)¯ + ¯ ∂ f (s, x)¯ ≤ ct ekt |x| .
¯ ∂s ¯ ¯ ∂xi ¯ ¯ ∂xi ∂xj ¯

En particular si f satisface la ecuación

∂f
∂t
+ At f = 0 (50)

y se cumple a) o b), entonces f (t, Xt ) es una martingala.


La propiedad de martingala de este proceso nos permite dar una inter-
pretación probabilista de la solución de una ecuación parabólica con condición
terminal fijada: Si la función f (t, x) satisface (50) en [0, T ] × Rn con la
condición terminal f (T, x) = g(x), entonces

f (t, x) = E(g(XTt,x ))

casi por todo respecto de la ley de Xt . En efecto, la propiedad de martingala


del proceso f (t, Xt ) implica

f (t, Xt ) = E(f (T, XT )|Xt ) = E(g(XT )|Xt ) = E(g(XTt,x ))|x=Xt .

Consideremos una función q(x) continua y acotada inferiormente. En-


tonces, aplicando de nuevo la fórmula de Itô puede demostrarse que, si la

83
función f es de clase C 1,2 y cumple una de las condiciones a) o b) anteriores,
el proceso
R
Z t R µ ¶
− 0t q(Xs )ds − 0s q(Xr )dr ∂f
Mt = e f (t, Xt ) − e + As f − qf (s, Xs )ds
0 ∂s
es una martingala. En efecto,
Rt Xn X m
∂f
dMt = e − 0 q(Xs )ds
i
(t, Xt )σ i,j (t, Xt )dBtj .
i=1 j=1
∂x

Si la función f satisface la ecuación


∂f
+ As f − qf = 0 (51)
∂s
entonces, Rt
e− 0 q(Xs )ds
f (t, Xt ) (52)
será una martingala.
Supongamos que f (t, x) satisface (51) en [0, T ] × Rn con condición termi-
nal f (T, x) = g(x). Entonces,
³ R T t,x ´
f (t, x) = E e− t q(Xs )ds g(XTt,x ) .

En efecto, la propiedad de martingala del proceso (52) implica


³ RT ´
− t q(Xs )ds
f (t, Xt ) = E e f (T, XT )|Ft .

Finalmente, la propiedad de Markov nos permite escribir


³ RT ´ ³ R T t,x ´
E e− t q(Xs )ds f (T, XT )|Ft = E e− t q(Xs )ds g(XTt,x ) |x=Xt .

Tomando esperanzas en la ecuación (49) se obtiene


Z tµ ¶
∂f
E(f (t, Xt )) = f (0, X0 ) + E + As f (s, Xs )ds.
0 ∂s
Esta es la denominada fórmula de Dynkin que tiene una extensión a tiempos
de paro. Designaremos por C02 (Rn ) el conjunto de las funciones f en Rn con
dos derivadas parciales continuas y soporte compacto.

84
Teorema 21 (Fórmula de Dynkin) Sea f ∈ C02 (Rn ) y consideremos un
proceso de difusión {Xt , t ≥ 0} que satisface la ecuación diferencial es-
tocástica (45), con condición inicial constante. Entonces, si τ es un tiempo
de paro tal que E(τ ) < ∞,
Z τ
E [f (Xτ )] = f (X0 ) + E (As f ) (Xs )ds.
0

En particular si τ es el tiempo de salida de un conjunto acotado, la


condición E(τ ) < ∞ siempre se cumple.
Demostración: Utilizando la fórmula de Itô es suficiente con ver que
X n X m ·Z τ ¸
∂f k
E (Xs )σ i,k (s, Xs )dBs = 0.
i=1 k=1 0 ∂xi

Consideremos la sucesión de variables aleatorias, para cada i, k fijados,


Z τ ∧N
∂f
ξN = (Xs )σ i,k (s, Xs )dBsk .
0 ∂xi
Esta sucesión converge casi seguramente hacia la variable
Z τ
∂f
ξ= (Xs )σ i,k (s, Xs )dBsk .
0 ∂xi
La propiedad (20) implica
·Z N ¸
∂f k
E [ξ N ] = E (Xs )σ i,k (s, Xs )1{s≤τ } dBs = 0.
0 ∂xi
∂f
Por otra parte, como la función f tiene soporte compacto, el proceso ∂xi
(Xs )σ i,k (s, Xs )
está acotado por una constante c y por consiguiente,
"Z µ ¶2 #
£ N
2¤ ∂f
E (ξ N ) =E (Xs )σ i,k (s, Xs )1{s≤τ } ds ≤ N c2 E(τ ) < ∞.
0 ∂xi

La acotación uniforme de los momentos de orden 2 de las variables ξ N , y la


convergencia casi segura de la sucesión ξ N hacia la variable ξ implican

E(ξ) = lim E(ξ N ) = 0.


N →∞

85
¤
Como aplicación consideremos el siguiente problema. Sea Bt un movimiento
browniano n-dimensional tal que B0 = a, y supongamos |a| < R. Cual es la
esperanza del tiempo de salida τ K de la bola de radio R :
K = {x ∈ Rn : |x| < R}.
Apliquemos la fómula de Dynkin a X = B, τ = τ K ∧ N y sea f una función
de C02 (Rn ) tal que f (x) = |x|2 para |x|2 ≤ R. Tendremos
·Z τ ¸
1
E[f (Bτ )] = f (a) + E ∆f (Bs )ds
2 0
= |a|2 + nE [τ ] .
Por tanto,
1¡ 2 ¢
E [τ K ∧ N ] = R − |a|2
n
y haciendo N → ∞ obtenemos
1¡ 2 ¢
E [τ K ] = R − |a|2 .
n

3.6 Procesos de difusión y ecuaciones en derivadas par-


ciales
Existe una relación interesante entre procesos de difusión y ecuaciones en
derivadas parciales. En general, los procesos de difusión permiten dar in-
terpretaciones probabilistas de ecuaciones en derivadas parciales de segundo
orden.
Consideremos el siguiente ejemplo sencillo. Si Bt es un movimiento brow-
niano, y f es una función continua y con crecimiento polinomial, la función
u(t, x) = E(f (Bt + x))
satisface la ecuación de la calor:
∂u 1 ∂ 2u
= , (53)
∂t 2 ∂x2
con condición inicial u(0, x) = f (x). Esto es debido a que podemos escribir
Z ∞
1 − (x−y)2
E(f (Bt + x)) = f (y) √ e 2t dy,
−∞ 2πt

86
(x−y)2
1
y la función √2πt e− 2t para cada y fijo, satisface la ecuación (53).
La función x 7→ u(t, x) representa la distribución de temperaturas en una
barra de longitud infinita, suponiendo un perfil inicial de temperaturas dado
por la función f (x).
Consideremos una difusión es homogénea en el tiempo. En tal caso, el
generador A no depende del tiempo y vale:
n
X n
∂f 1X ∂ 2f
Af (x) = bi (x) + (σσ 0 )i,j (x) . (54)
i=1
∂xi 2 i,j=1 ∂xi ∂xj

La fórmula de Dynkin, suponiendo X0 = x, nos dice que


Rt
E [f (Xtx )] = f (x) + 0
E [Af (Xsx )] ds. (55)

Consideremos la función

u(t, x) = E [f (Xtx )]. (56)

La fórmula (55) nos dice que esta función es diferenciable y satisface la sigu-
iente ecuación
∂u
= E [Af (Xtx )] .
∂t
x
El término E [Af (Xt )] puede también expresarse en función de u. Para ello
necesitamos introducir el dominio del generador de la difusión:

Definición 22 El dominio DA del generador de la difusión {Xt } es el con-


junto de funciones f : Rn → R tales que el lı́mite siguiente existe para todo
x ∈ Rn
E [f (Xtx )] − f (x)
Af (x) = lim . (57)
t↓0 t

La expresión (55) nos dice que C02 (Rn ) ⊂ DA y para toda función f ∈
C02 (Rn ), el lı́mite (57) es igual a al valor Af dado por (54).
El siguiente resultado nos dice que la función u(t, x) definida en (56) sat-
isface una ecuación en derivadas parciales, denominada ecuación retrógrada
(bakward) de Kolmogorov. Esto nos proporciona una interpretación proba-
bilista de las ecuaciones en derivadas parciales de tipo parabólico.

Teorema 23 Sea f ∈ C02 (Rn ).

87
a) Definimos u(t, x) = E [f (Xtx )]. Entonces, u(t, ·) ∈ DA para cada t y
½ ∂u
= Au
∂t (58)
u(0, x) = f (x)

b) Si w ∈ C 1,2 ([0, ∞) × Rn ) es una función acotada que satisface la ecuación


(58), entonces w(t, x) = E [f (Xtx )].

Demostración: a) Hemos de calcular el lı́mite cuando r ↓ 0 de la expresión

E [u(t, Xrx )] − u(t, x)


.
r
Aplicando la propiedad de Markov obtenemos
£ ¤
E [u(t, Xrx )] = E E [f (Xty )] |y=Xrx
£ x
¤
= E f (Xt+r ) = u(t + r, x).

Finalmente, como t → u(t, x) es diferenciable

E [u(t, Xrx )] − u(t, x) 1 ∂u


= (u(t + r, x) − u(t, x)) −→ .
r r ∂t
b) Consideremos el proceso (n + 1)-dimensional

Yt = (s − t, Xtx ).

La fórmula de Itô aplicada a este proceso y a la función w nos da


Z tµ ¶
∂w
w(Yt ) = w(s, x) + Aw − (s − r, Xrx )dr
0 ∂r
Z tX n Xm
∂w
+ (s − r, Xrx )σ i,j (Xrx )dBrj .
0 i=1 j=1 ∂x i

∂w
Teniendo encuenta que w satisface la ecuación Aw = ∂t
, obtenemos
Z tXn X m
∂w
w(Yt ) = w(s, x) + (s − r, Xrx )σ i,j (Xrx )dBrj .
0 i=1 j=1 ∂xi

88
Ahora deseamos tomar esperanzas, pero como no hemos impuesto ninguna condición
de crecimiento sobre las derivadas parciales de la función w no sabemos si la inte-
gral estocástica tiene esperanza cero. Por ello, debemos introducir un tiempo de
paro, para un R > 0, fijado, definido por

τ R = inf{t > 0 : |Xtx | ≥ R}.


∂w
Para r ≤ τ R , el proceso ∂xi
(s − r, Xrx )σ i,j (Xrx ) está acotado. Por tanto,
E [w(Yt∧τ R )] = w(s, x),
y haciendo R ↑ ∞, se obtiene

E [w(Yt )] = w(s, x).


Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f (x), obtenemos

E [f (Xtx )] = w(s, x).


¤

Notemos por pt (x, y) la solución fundamental de la ecuación parabólica


(58). Es decir, tal solución se obtiene formalmente tomando como función
f la delta δ y . Entonces, y −→ pt (x, y) es la densidad de probabilidad de la
variable aleatoria Xtx :
Z
x
u(t, x) = E [f (Xt )] = f (y)pt (x, y)dy.
Rn
Esto nos dice también que p(y, t, x, s) = pt−s (x, y) serán las probabilidades
de tansición del proceso de Markov Xt .

Ejemplo 21
En el caso b = 0, σ = I, el proceso de difusión Xt es el movimiento
browniano Bt n-dimensional. Su generador será el operador de Laplace:
1
Pn ∂2
∆= 2 i=1 ∂x2i .

La ecuación de Kolmogorov en este caso es precisamente la ecuacion de la


calor:
∂u 1
= ∆f.
∂t 2

89
La solución fundamental de esta ecuación es la densidad gaussiana:
µ ¶
−n/2 |x − y|2
pt (x, y) = (2πt) exp − .
2t

La fórmula de Feynman-Kac es una generalización de la ecuación de Kol-


mogorov que hemos obtenido en el apartado anterior.

Teorema 24 Sean f ∈ C02 (Rn ) y q ∈ C(Rn ). Suponemos que la función q


está acotada inferiormente. Consideremos un proceso de difusión {Xt , t ≥ 0}
que satisface la ecuación diferencial estocástica (45).

a) Definimos µ Z t · ¶ ¸
x x
v(t, x) = E exp − q(Xs )ds f (Xt ) .
0

Entonces, u(t, ·) ∈ DA para cada t y


½ ∂v
= Av − qv
∂t (59)
u(0, x) = f (x)

b) Si w ∈ C 1,2 ([0, ∞) × Rn ) es una función acotada en cada [0, T ] × Rn que


satisface la ecuación (59), entonces w(t, x) = v(t, x).
³ R ´
x t x
Demostración: a) Pongamos Yt = f (Xt ), Zt = exp − 0 q(Xs )ds .
Entonces
dZt = −Zt q(Xtx )dt.
Por lo tanto,
d(Yt Zt ) = Yt dZt + Zt dYt ,
ya que dZt dYt = 0. Como Yt Zt es un proceso de Itô, la función v(t, x) = E(Yt Zt )
es diferenciable respecto de la variable t. En efecto,
Z t Z t
v(t, x) = f (x) − E [Ys Zs q(Xsx )] ds + E [Zs Af (Xsx )] ds,
0 0

ya que el término de integral estocástica tiene esperanza cero, teniendo en cuenta


que f tiene soporte compacto y q está acotada inferiormente. Por consiguiente,

90
Aplicando la propiedad de Markov obtenemos
µ Z t ¶
E[v(t, Xrx )] = E[E[exp − q(Xs )ds f (Xty )]|y=Xrx ]
y

µ Z0 t ¶
x x
= E[E[exp − q(Xs+r )ds f (Xt+r )]|Fr ]
0
µ Z t ¶
x x
= E[exp − q(Xs+r )ds f (Xt+r )]
0
µZ r ¶
x x
= E[exp q(Xs )ds Zt+r f (Xt+r )]
0
·µ µZ r ¶ ¶ ¸
x x
= v(t + r, x) + E exp q(Xs )ds − 1 Zt+r f (Xt+r )
0

Finalmente, como t → v(t, x) es diferenciable y


·µ µZ r ¶ ¶ ¸
1 r↓0
E exp q(Xsx )ds x
− 1 Zt+r f (Xt+r ) −→ q(x)v(t, x),
r 0

obtenemos
E [v(t, Xrx )] − v(t, x) r↓0 ∂v
−→ + qv.
r ∂t
b) Consideremos los procesos

Yt = (s − t, Xtx )
Z t
Rt = q(Xsx )ds.
0

La fórmula de Itô aplicada a estos procesos y a la función φ(s, x, z) = e−z w(s, x)


nos da
Z tµ ¶
−Rt ∂w
e w(Yt ) = w(s, x) + Aw − − qw (s − r, Xrx )e−Rr dr
0 ∂r
Z tX n Xm
∂w
+ (s − r, Xrx )σ i,j (Xrx )e−Rr dBrj .
0 i=1 j=1 ∂x i

∂w
Teniendo encuenta que w satisface la ecuación Aw + qw = ∂t
, obtenemos
Z tXn X m
−Rt ∂w
e w(Yt ) = w(s, x) + (s − r, Xrx )σ i,j (Xrx )e−Rr dBrj .
0 i=1 j=1 ∂x i

91
Introduciendo, com antes, el tiempo de paro

τ R = inf{t > 0 : |Xtx | ≥ R},


∂w
tendremos que para r ≤ τ R , el proceso ∂xi
(s − r, Xrx )σ i,j (Xrx )e−Rr está acotado.
Por tanto, £ −R ¤
E e t∧τ R
w(Yt∧τ R ) = w(s, x),
y haciendo R ↑ ∞, se obtiene
£ ¤
E e−Rt w(Yt ) = w(s, x).

Finalmente, tomando t = s, y utilizando la propiedad w(0, x) = f (x), obtenemos


· µ Z t ¶ ¸
x x
E exp − q(Xs )ds f (Xt ) = w(s, x).
0

Ejercicios

3.1 Comprobar que los siguientes procesos satisfacen las ecuaciones diferen-
ciales estocásticas indicadas:
Bt
(i) El proceso Xt = 1+t
cumple

1 1
dXt = − Xt dt + dBt ,
1+t 1+t
X0 = 0
¡ ¢
(ii) El proceso Xt = sin Bt , con B0 = a ∈ − π2 , π2 es solución de
1 p
dXt = − Xt dt + 1 − Xt2 dBt ,
2
£ ¤
/ − π2 , π2 .
para t < T = inf{s > 0 : Bs ∈
(iii) (X1 (t), X2 (t)) = (t, et Bt ) satisface
· ¸ · ¸ · ¸
dX1 1 0
= dt + X1 dBt
dX2 X2 e

92
(iv) (X1 (t), X2 (t)) = (cosh(Bt ), sinh(Bt )) satisface
· ¸ · ¸ · ¸
dX1 1 X1 X2
= dt + dBt .
dX2 2 X2 X1

(v) Xt = (cos(Bt ), sin(Bt )) satisface


1
dXt = Xt dt + Xt dBt ,
2
· ¸
0 −1
donde M = . Las componentes del proceso Xt cumplen
1 0

X1 (t)2 + X2 (t)2 = 1,
y por lo tanto, Xt puede considerarse como un movimiento brow-
niano en la circunferencia de radio 1.
(vi) El proceso Xt = (x1/3 + 13 Bt )3 , x > 0, cumple
1 1/3 2/3
dXt = Xt dt + Xt dBt .
3
3.2 Consideremos un movimiento browniano n-dimensional Bt y fijemos con-
stantes αi , i = 1, . . . , n. Resolver la ecuación diferencial estocástica
n
X
dXt = rXt dt + Xt αk dBk (t).
k=1

3.3 Resolverde las ecuaciones diferenciales estocásticas siguientes:


dXt = rdt + αXt dBt , X0 = x
1
dXt = dt + αXt dBt , X0 = x > 0
Xt
dXt = Xtγ dt + αXt dBt , X0 = x > 0.
Para que valores de las constantes α, γ hay explosión?
3.4 Resolver las ecuaciones diferenciales estocásticas siguientes:

(i) · ¸ · ¸ · ¸· ¸
dX1 1 1 0 dB1
= dt + .
dX2 0 0 X1 dB2

93
(ii) ·
dX1 (t) = X2 (t)dt + αdB1 (t)
dX2 (t) = X1 (t)dt + βdB2 (t)

3.5 La ecuación diferencial estocástica no lineal

dXt = rXt (K − Xt )dt + βXt dBt , X0 = x > 0

es utiliza como modelo para el crecimiento de una población de tamaño


Xt , en un medio aleatorio. La constante K > 0 se denomina la capaci-
dad del medio, la constante r ∈ R mide la calidad del medio y la con-
stante β ∈ R es una medida del nivel de ruido del sistema. Comprobar
que ¡¡ ¢ ¢
exp rK − 12 β 2 t + βBt
Xt = Rt ¡¡ ¢ ¢
x−1 + r 0 exp rK − 12 β 2 s + βBs ds
es la única solución.

3.6 Encontrar el generador de los siguientes procesos de difusión:

a) dXt = µXt dt + σdBt , (proceso de Ornstein-Uhlenbeck) µ y r son


constantes
b) dXt = rXt dt + αXt dBt , (movimiento browniano geométrico) α y r
son constantes
c) dXt = rdt + αXt dBt , α y r son constantes
· ¸
dt
d) dYt = donde Xt es el proceso introducido en a)
dXt
· ¸ · ¸ · ¸
dX1 1 0
e) = dt + dBt
dX2 X2 eX1
· ¸ · ¸ · ¸· ¸
dX1 1 1 0 dB1
f) = dt +
dX2 0 0 X1 dB2
h) X(t) = (X1 , X2 , . . . .Xn ), siendo
n
X
dXk (t) = rk Xk dt + Xk αkj dBj , 1 ≤ k ≤ n
j=1

3.7 Encontrar un proceso de difusión cuyo generador sea:

94
a) Af (x) = f 0(x) + f 00 (x), f ∈ C02 (R)
∂f 2
b) Af (x) = ∂t
+ cx ∂f
∂x
+ 12 α2 x2 ∂∂xf2 , f ∈ C02 (R2 )
∂f ∂f 2
c) Af (x1 , x2 ) = 2x2 ∂x 1
+ log(1 + x21 + x22 ) ∂x 2
+ 12 (1 + x21 ) ∂∂xf2
1
2f
1 ∂2f
+x1 ∂x∂1 ∂x 2
+ 2 ∂x22
, f∈ C02 (R2 )

3.8 Demostrar que la solución u(t, x) del problema con valor inicial

∂u 1 2 2 ∂ 2u ∂u
= β x 2
+ αx , t > 0, x ∈ R
∂t 2 ∂x ∂x
2
u(0, x) = f (x), f ∈ C0 (R)

puede expresarse como


· ¸
1 2
u(t, x) = E f (x exp{βBt + (α − β )t} .
2

4 Aplicación del cálculo estocástico a la cober-


tura y valoración de derivados
Consideremos el modelo de Black y Scholes para la curva de precios de un
activo financiero. El precio St en un instante t viene dado por un movimiento
browniano geométrico:
σ2
St = S0 eµt− 2
t+σBt
,
donde S0 es el precio inicial, µ es una constante que representa la tendencia
a crecer (observemos que E(St ) = S0 eµt ), y σ se denomina la volatilidad.
Sabemos que St satisface una ecuación diferencial estocástica lineal:

dSt = σSt dBt + µSt dt.

Este modelo tiene las propiedades siguientes:

a) Las trayectorias t → St son continuas.


St −Ss
b) Para todo s < t, el incremento relativo Ss
es independient de la σ-
álgebra generada por {Su , 0 ≤ u ≤ s}.

95
c) La ley del cociente SSst es una distribución lognormal con parámetros
³ 2
´
µ − σ2 (t − s), σ 2 (t − s).

Fijemos un intervalo de tiempo [0, T ]. Una cartera de valores (o estrategia


de inversión) será un proceso estocástico

φ = {(αt , β t ) , 0 ≤ t ≤ T }

tal que sus componentes son procesos progresivamente medibles y verifican


Z T
|αt | dt < ∞,
0
Z T
(β t )2 dt < ∞.
0

La componente αt representa el capital (activo financiero sin riesgo) al tipo


de interés r. La componente β t representa la cantidad de acciones de que
disponemos. En esta situación el valor de la cartera en cada instante t será

Vt (φ) = αt ert + β t St .

Diremos que la cartera φt es autofinanciada si su valor es un proceso de


Itô con diferencial
dVt (φ) = rαt ert dt + β t dSt .
Esto significa que el incremento del valor solo depende del incremento de los
precios.
Se introducen los precios actualizados como
µ 2

σ
Set = e St = S0 exp (µ − r) t − t + σBt .
−rt
2
El valor actualizado de una cartera será, por definición,

Vet (φ) = e−rt Vt (φ) = αt + β t Set .

Observemos que

dVet (φ) = −re−rt Vt (φ)dt + e−rt dVt (φ)


= −rβ t Set dt + e−rt β t dSt
= β t dSet .

96
Se dice que un modelo es viable si existe una probabilidad equivalente
respecto de la cual los precios actualizados forman una martingala. Esta
condición es equivalente a que no haya arbitrajes (carteras autofinanciadas
con valor inicial cero y tales que VT (φ) ≥ 0 y P (VT (φ) > 0) > 0). Tales
probabilidades se denominan probabilidades sin riesgo.
El teorema de Girsanov nos dice que existe una probabilidad Q respecto
de la cual el proceso
µ−r
Wt = Bt + t
σ
es una martingala. En función del proceso Wt los precios se escriben
µ ¶
σ2
St = S0 exp rt − t + σWt ,
2

y los precios actualizados serán martingala:


µ 2 ¶
e −rt σ
St = e St = S0 exp − t + σWt ,
2

es decir, Q será una probabilidad sin riesgo.


El valor actualizado de una cartera autofinanciada φ valdrá
Z t
e
Vt (θ) = V0 (θ) + β u dSeu ,
0

y será una martingala respecto de Q si


Z T
E(β 2u Seu2 )du < ∞. (60)
0

Observemos que una tal cartera no puede ser un arbitraje ya que si su valor
inicial es nulo, entonces,
³ ´
EQ VeT (θ) = V0 (θ) = 0.

Consideremos un contrato derivado sobre el activo financiero que permita


hacer un beneficio a su propietario dado por una variable aleatoria h ≥ 0,
FT -medible y de cuadrado integrable respecto de Q. El tiempo T será la
fecha de vencimiento del contrato.

97
• En el caso de una opción de compra europea de vencimiento T y precio
de ejercicio K, tendremos

h = (ST − K)+ .

• En el caso de una opción de venta europea de vencimiento T y precio


de ejercicio K, tendremos

h = (K − ST )+ .

Diremos que una cartera autofinanciada φ que cunple (60) cubre el derivado
si VT (θ) = h, y se dice entonces que la variable h es replicable.
El precio del derivado en cualquier instante t ≤ T se determina como el
valor de una cartera de cobertura, suponiendo que el beneficio h es replicable.
Vendrá dado por la fórmula

Vt (θ) = EQ (e−r(T −t) h|Ft ), (61)

que se deduce de la propiedad de martingala de Vet (θ) respecte de Q:

EQ (e−rT h|Ft ) = EQ (VeT (θ)|Ft ) = Vet (θ) = e−rt Vt (θ).


En particular,
V0 (θ) = EQ (e−rT h).
Se dice que un modelo es completo si toda variable de cuadrado integrable
respecto de la probabilidad sin riesgo es replicable. El modelo de Black y
Scholes es completo, como consecuencia del teorema de representación de
martingalas:
Consideremos la martingala de cuadrado integrable
¡ ¢
Mt = EQ e−rT h|Ft .

Sabemos que existe


RT un proceso estocástico Kt adaptado y de cuadrado inte-
grable, o sea, 0 EQ (Ks2 )ds < ∞, tal que
Z t
Mt = M0 + Ks dWs .
0

98
Definimos la cartera autofinanciada φt = (αt , β t ) por

Kt
βt = ,
σ Set
1e
αt = Mt − St .
σ
El valor actualizado de esta cartera será

Vet (θ) = αt + β t Set = Mt ,

y, por lo tanto, su valor final será

VT (θ) = erT VeT (θ) = erT MT = h.

Consideremos el caso particular h = g(ST ). El valor del derivado en el


instante t será
¡ ¢
Vt = EQ e−r(T −t) g(ST )|Ft
³ 2
´
= e−r(T −t) EQ g(St er(T −t) eσ(WT −Wt )−σ /2(T −t) )|Ft .

Por lo tanto,
Vt = F (t, St ), (62)
donde ³ ´
2
F (t, x) = e−r(T −t) EQ g(xer(T −t) eσ(WT −Wt )−σ /2(T −t) ) . (63)

Bajo hipótesis muy generales sobre g (por ejemplo si es continua y deriv-


able a trozos)que incluyen, en particular, las funciones

g(x) = (x − K)+ ,
g(x) = (K − x)+ ,

la función F (t, x) es derivable respecto de t y dos veces derivable respecto de


x, con todas las derivadas parciales continuas. Supondremos que existe una
función F (t, x) de este tipo tal que se cumple (62). Entonces, aplicando la

99
fórmula de Itô a (62) se obtiene
Z t Z t
∂F ∂F
Vt = V0 + σ (u, Su )Su dWu + r (u, Su )Su du
0 ∂x 0 ∂x
Z t Z
∂F 1 t ∂2F
+ (u, Su )du + 2
(u, Su ) σ 2 Su2 du
0 ∂t 2 0 ∂x
Z t
∂F
= V0 + σ (u, Su )Su dWu
0 ∂x
Z t
+ Ku du.
0
Por otro lado, sabemos que Vt es un proceso de Itô con representación
Z t Z t
Vt = V0 + σHu Su dWu + rVu du.
0 0
Comparando estas dos expresiones se deduce
∂F
Ht = (t, St ),
∂x
∂F 1 2 2 ∂ 2F
rF (t, St ) = (t, St ) + σ St (t, St )
∂t 2 ∂x2
∂F
+rSt (t, St ).
∂x
El soporte de la ley de probabilidad de la variable aleatoria St es [0, ∞). Per
tanto, estas igualdades nos dicen que F (t, x) satisface la ecuación
∂F ∂F 1 ∂ 2F
(t, x) + rx (t, x) + (t, x) σ 2 x2 = rF (t, x), (64)
∂t ∂x 2 ∂x2
F (T, x) = g(x).
Por otra parte, la cartera recubridora será
∂F
αt = (t, St ),
∂x
β t = e−rt (F (t, St ) − Ht St ) .

La fórmula (63) puede escribirse como


³ 2
´
F (t, x) = e−r(T −t) EQ g(xer(T −t) eσ(WT −Wt )−σ /2(T −t) )
Z ∞ √
−rθ 1 σ2 2
= e √ g(xerθ− 2 θ+σ θy )e−y /2 dy,
2π −∞

100
donde θ = T − t. En el caso particular de una opción de compra europea de
precio de ejercicio K y vencimiento T , g(x) = (x − K)+ , se obtiene
Z ∞ ³ √ ´+
1 −y 2 /2
2
− σ2 θ+σ θy −rθ
F (t, x) = √ e xe − Ke dy
2π −∞
= xΦ(d+ ) − Ke−r(T −t) Φ(d− ),

donde
³ ´
x σ2
log K
+ r− 2
(T − t)
d− = √ ,
σ T −t
³ 2
´
log Kx + r + σ2 (T − t)
d+ = √
σ T −t
Por tanto, el precio en el instante t será

Ct = F (t, St ).

La composición de la cartera de cobertura será


∂F
Ht = (t, St ) = Φ(d+ ).
∂x

References
[1] I. Karatzas and S. E. Schreve: Brownian Motion and Stochastic Calculus.
Springer-Verlag 1991

[2] F. C. Klebaner: Introduction to Stochastic Calculus with Applications.

[3] T. Mikosh: Elementary Stochastic Calculus. World Scientific 2000.

[4] B. Øksendal: Stochastic Differential Equations. Springer-Verlag 1998

[5] D. Revuz and M. Yor: Continuous Martingales and Brownian motion.


Springer-Verlag, 1994.

101

También podría gustarte