Table Of ContentProcesos Estoc´asticos I
Semestre 2013-II
Gero´nimo Uribe Bravo
Instituto de Matema´ticas
Universidad Nacional Aut´onoma de M´exico
CAP´ITULO 1
Martingalas
Enestecap´ıtulonosenfocaremosenelestudiodelasmartingalas. Estaesuna
clase de procesos fundamental para la teor´ıa moderna de la probabilidad. Tanto
as´ı que la herramienta te´orica sobre la cual se construye la teor´ıa moderna de las
finanzas matem´aticas (el llamado c´alculo estoc´astico) es una teor´ıa basada en las
martingalas.
1. Recordatorio sobre esperanza condicional
Si (Ω,F,P) es un espacio de probabilidad y B ∈ F es tal que P(B) > 0,
podemos definir la probabilidad condicional de A dado B mediante la f´ormula
P(A∩B)
P(A|B)=
P(B)
quesepuedeentenderatrav´esdelainterpretaci´onfrecuentistadelaprobabilidad.
As´ı, para una variable aleatoria discreta1 estamos acostumbrados a expresiones
como P(A|X =j) y a la conotaci´on que que se les ha dado. Desafortunadamente,
una extensi´on del concepto de probabilidad condicional a eventos cualquiera no
es tan inmediata2, por lo que primero desarrollaremos algunas propiedades de la
esperanza condicional que nos permitan entender la soluci´on que se le ha dado
a este problema de extensi´on, definiendo algunos conceptos y verificando algunas
propiedades de las variables aleatorias que nos faciliten el camino.
1.1. Preliminares. Alolargodelasecci´on,(Ω,F,P)designar´aaunespacio
de probabilidad arbitrario y al las funciones medibles de Ω en R las llamaremos
variables aleatorias reales, aunque generalmente se omitir´a la palabra reales. Si
X :Ω→R es una variable aleatoria en (Ω,F,P) se utilizar´a la notaci´on
{X ∈B}=X−1(B).
Tambi´en, m (m) representar´a a la medida de Lebesgue sobre los Borelianos de
n
Rn (R).
Nota. Si f :R→R es Borel medible, entonces f◦X es borel medible, por lo
que est´a definida su esperanza cuando la integral de la composici´on est´e definida.
1Estoes,unafunci´onX:Ω→RBorelmedibletalqueX(Ω)seaaloma´snumerable.
2¿Qu´epasar´ıaenelcasodeeventoscondicionantesdeprobabilidadcero?
1
1. Recordatorio sobre esperanza condicional 2
Definicio´n. SiX :Ω→Resunavariablealeatoria,lamedidadeprobabilidad
inducida por X, es la funci´on PX :BR →[0,1] dada por:
P (B)=P(X ∈B).
X
Nota. SiP esabsolutamentecontinuaconrespectoalamedidadeLebesgue
X
sobrelosBorelianosdeR,diremosqueX esabsolutamentecontinuayenestecaso,
por el teorema de Radon-Nikodym existe una densidad g :R→R tal que
X
(cid:90)
P(X ∈B)=P (B)= g dm.
X X
B
Teorema1.1(TeoremadeCambiodevariable). SiX :Ω→Resunavariable
aleatoria en (Ω,F,P) y f : R → R es Borel medible tal que la integral de f ◦X
est´a definida, entonces:
(cid:90)
E(f ◦X)= fdP .
X
Ejercicio 1.1. Sea X una variable aleatoria normal centrada de varianza 1.
Utilice el teorema de cambio de variable para calcular
E(cid:0)X2n(cid:1)
para toda n∈N.
Proposicio´n 1.1. Sea Z : Ω → R una variable aleatoria fija en (Ω,F,P) y
G =σ(Z). Si X :Ω→R es G medible, entonces existe f :R→R Borel-medible,
tal que X =f ◦Z.
1.2. Esperanza Condicional. SiZ :Ω→Resunavariablealeatoriasimple
en (Ω,F,P) y Y : Ω → R es una variable aleatoria, una definici´on natural de la
probabilidad condicional P(Y ∈B|Z) es la siguiente:
(cid:88)
P(Y ∈B|Z)= P(Y ∈B|Z =i)1 ,
{Z=i}
i∈RZ
donde R = Z(Ω) ⊂ R es un conjunto finito. Notemos que en este caso, la
Z
probabilidad condicional es una funci´on de la variable aleatoria Z, por lo que
resulta ser σ(Z)-medible y que cumple la relaci´on
(cid:90)
P(Y ∈B,A)= P(Y ∈B|Z) dP, A∈σ(Z),
A
que es equivalente a
(cid:90) (cid:90)
1 dP= P(Y ∈B|Z) dP,
Y∈B
A A
estoes,obtenemosinformaci´on(laintegralsobreunconjunto)delavariable1 ,
Y∈B
que no es necesariamente σ(Z)-medible a trav´es de la variable P(Y ∈B|Z) que si
lo es, aunque sea para una clase restringida de eventos (σ(Z), que resulta ser
una σ-´algebra). Adem´as, en la propiedad anterior de probabilidad condicional,
1. Recordatorio sobre esperanza condicional 3
la variable aleatoria Z solo juega un papel secundario, y la σ-´algebra σ(Z) se
tornaimprescindible. Comouncomentarioadicional,recordemosquedosvariables
aleatoriasY yZ sonigualesP-p.s. siysolosi(cid:82) Y dP=(cid:82) ZdPparatodoA∈F
A A
(unapropiedadparecidaalaencontradaenlaprobabilidadcondicional),porloque
lafunci´onqueacadaelementoAdeF leasignaelnu´mero(cid:82) Y dP(queresultaser
A
una medida con signo si la integral de Y est´a definida) determina completamente
a la variable aleatoria Y. El comentario anterior puede motivar la definici´on de
esperanzacondicional,delacuallaprobabilidadcondicionalesuncasoparticular3,
en la que se condiciona con respecto a una σ-´algebra:
Definicio´n. Si X es una variable aleatoria en (Ω,F,P) , y G ⊂ F es una
σ-´algebra, la esperanza condicional de X dado G, denotada por E(X |G), es
una variable aleatoria G-medible que cumple
(cid:90) (cid:90)
XdP= E(X |G) dP
A A
para todo A∈G.
Proposicio´n 1.2. Si X : Ω → R es una variable aleatoria en (Ω,F,P) cuya
integral est´a definida y G ⊂ F es una σ-´algebra, entonces existe una variable
aleatoria Y : Ω → R tal que (cid:82) XdP = (cid:82) Y dP, para A ∈ G. Adem´as, si Z
A A
cumple la misma propiedad, entonces Y =Z casi seguramente respecto a P|G.
Ejercicio 1.2. Si (X,Y) son dos variables aleatorias con densidad conjunta
f(x,y), pruebe que:
(cid:82)
f(X,y)g(y) dy
E(g(Y) |X)= (cid:82) .
f(X,y) dy
Ejercicio 1.3. SeanX ,X ,...vaiids. SeaK unavariablealeatoriaindepen-
1 2
diente de X ,X ,... y con valores en N. Cacule
1 2
E(X +···+X |K).
1 K
Sugerencia: ¿Qu´e pasa cuando K toma s´olo un valor?
1.3. Propiedades de la esperanza condicional. Las siguientes son algu-
nas propiedades de la esperanza condicional, en las que consideramos G ⊂F una
σ-´algebra. Si X y Y son variables aleatorias, la ecuaci´on Y = E(X |G) significa
que el lado izquierdo de la ecuaci´on es G-medible y que (cid:82) Y dP = (cid:82) XdP para
A A
A∈G. Consideraremos solo variables aleatorias cuya integral est´e definida, por lo
que la existencia de la esperanza condicional queda garantizada.
Propiedad 1 (Linealidad de la esperanza condicional). Si X y Y son vari-
ables aleatorias integrables y a,b∈R, entonces E(aX+bY |G) existe y es igual a
aE(X |G)+bE(Y |G).
3Seutilizar´alarelaci´onP(A)=E(1A)paraesteefecto.
1. Recordatorio sobre esperanza condicional 4
Propiedad 2 (Monoton´ıa de la esperanza condicional). Si X es no negativa
P-p.s. entonces E(X |G) existe y es no negativa P|G-p.s..
Propiedad3. SilaintegraldeX est´adefinidaentonces |E(X |G)| ≤E( |X| |G).
Propiedad 4. Si X es G-medible, entonces E(X |G)=X.
Propiedad 5. Si X es independiente de G entonces E(X |G)=E(X).
Propiedad 6. E(E(X |G))=E(X).
Propiedad 7 (Propiedad de torre). Si D ⊂G y D es σ-´algebra entonces
E(E(X |G) |D)=E(X |D)=E(E(X |D) |G).
Propiedad 8 (TeoremadeConvergenciaMon´otonaparalaEsperanzaCondi-
cional). Si (Xn)n∈N son variables aleatorias tal que 0 ≤ Xn ≤ Xn+1 y X =
lim X , entonces E(X |G) existe y
n
n→∞
lim E(X |G)=E(X |G).
n
n→∞
Propiedad 9 (Lema de Fatou para la Esperanza Condicional). Si X ≥ 0
n
para n∈N entonces existe
(cid:16) (cid:12) (cid:17)
E liminfX (cid:12)G
n (cid:12)
n→∞
y
(cid:16) (cid:12) (cid:17)
E liminfX (cid:12)G ≤liminfE(X |G).
n (cid:12) n
n→∞ n→∞
Propiedad10(TeoremadeConvergenciaDominadaparalaEsperanzaCondi-
cional). Si
(Xn)n∈N ⊂L1(P)
es puntualmente convergente y existe Y ∈ L (P) tal que |X | ≤ Y para n ∈ N,
1 n
entonces
(cid:16) (cid:12) (cid:17)
E lim X (cid:12)G
n (cid:12)
n→∞
existe y es igual a lim E(X |G) (donde la existencia de este u´ltimo l´ımite solo
n
n→∞
se asegura P|G-p.s.).
Propiedad 11 (G-homogeneidad). Si X y X son variables aleatorias inte-
1 2
grables tales que X X es integrable y X es G-medible entonces
1 2 1
E(X X |G)=X E(X |G).
1 2 1 2
(Note que la hip´otesis de integrabilidad del producto quedar´ıa garantizada si X y
1
X pertenecen a L (P)).
2 2
Propiedad 12. Si f : R×R → R es boreliana, la integral de f(X,Y) existe,
Y ⊥G y X es G-medible entonces E(f(X,Y) |G)=(cid:82) f(X,y)P (dy).
R Y
1. Recordatorio sobre esperanza condicional 5
Como Y ⊥ G, entonces Y ⊥ X y si f(x,y) = 1 (x)1 (y), se puede asegurar
A B
que
E(f(X,Y) |G)=E(1 (X)1 (Y) |G)
A B
y como la integral de este producto de funciones existe, entonces
E(1 (X)1 (Y) |G)=1 (X)E(1 (Y) |G).
A B A B
Dado que 1 (Y)⊥G, entonces
B
(cid:90)
E(1 (X)1 (Y) |G)=1 (X)P(Y ∈B)=1 (X) 1 P (d,)
A B A A B Y
R
por lo que el teorema se cumple para las indicadoras de productos de borelianos.
Sea C la clase de subconjuntos borelianos de R2 para los cuales
(cid:90)
E(1 (X,Y) |G)= 1 (X,t) P (dy).
C C Y
Hemos visto que BR×BR ={A×B :A,B ∈BR}⊂C y adem´as, si A,B ∈C y
A⊂B, entonces
E(cid:0)1B\A(X,Y) (cid:12)(cid:12)G(cid:1)=E(1B(X,Y) |G)−E(1A(X,Y) |G)
(cid:90) (cid:90)
= 1 (X,y) P (dy)− 1 (X,y) P (dy)
B Y A Y
(cid:90)
= 1 X,yP (dy),
B\A Y
por lo que B \ A ∈ C. Si (An)n∈N ⊂ C es creciente, entonces (1An)n∈N es
una sucesi´on creciente de funciones no negativas que convergen puntualmente a
1 . Por el teorema de convergencia mon´otona para la esperanza condicional,
∪n∈NAn
(cid:90)
E(1 (X,Y) |G)= lim E(1 (X,Y) |G)= lim 1 (X,y)P (d,)
∪n∈NAn n→∞ An n→∞ R An Y
que es igual a
(cid:90)
1(∪ A )X,yP (dy),
n n Y
por el teorema de convergencia mon´otona usual, de donde ∪n∈NAn ∈ C, por
lo que C es un λ-sistema que contiene al π-sistema BR ×BR y por el Lema de
Clases de Sierpinski, σ(BR×BR) = BR2 ⊂ C, esto es, el teorema es cierto para
1C(X,Y) cuando C ∈ BR2. Al aplicar el procedimiento est´andar y el teorema
de convergencia mon´otona para la esperanza condicional , obtenemos el resultado
deseado.
Nota. Enlademostraci´onanteriorseutiliz´olaigualdadσ(BR×BR)=BR2,
que se puede verificar al utilizar la separabilidad de R2 con la topolog´ıa producto.
Propiedad 13. Si H,G ⊂F son σ-´algebras y H ⊥σ(G,σ(X)), entonces
E(X |σ(H,G))=E(X |G).
2. Martingalas 6
Sean Y =E(X |G),
C ={G∩H :G∈G,H ∈H} y I ={A∈σ(H,G):E(1 X)=E(1 Y)}.
A A
Nuestro objetivo es demostrar que I =σ(H,G), en donde solo falta mostrar la
contenci´on σ(H,G)⊂I. Notemos lo siguiente:
I es un λ-sistema: Esto sucede ya que si A,B ∈Iy A⊂B, entonces
(cid:90) (cid:90) (cid:90) (cid:90) (cid:90) (cid:90)
Y dP= Y dP− Y dP= XdP− XdP= XdP.
B\A B A B A B\A
Adem´as, si (Ai)i∈N ⊂I es creciente, entonces
(cid:90) (cid:90) (cid:90) (cid:90)
Y dP= lim Y dP= lim XdP= XdP.
∪i∈NAi i→∞ Ai i→∞ Ai ∪i∈NAi
C es π-sistema y C ⊂I: Si A,B ∈ C, A = G ∪H y B = G ∪H ,
1 1 2 2
entoncesA∩B =(G ∩G )∪(H ∩H )∈C. Adem´as,siA=G∪H ∈C,
1 2 1 2
entonces
(cid:90) (cid:90) (cid:90)
Y dP= Y1 dP=P(H) Y dP,
H
A G G
puesto que G ⊥H y Y es G-medible. Por otro lado, tenemos que
(cid:90) (cid:90) (cid:90)
XdP= X1 dP=P(H) XdP,
H
A G G
puesto que H ⊥σ(X) y entonces (cid:82) Y dP=(cid:82) XdP para A∈C.
A A
σ(C)=σ(G,H): Esto es inmediato pues G ∪H ⊂C ⊂σ(G,H).
El teorema de Clases de Sierpinski asegura que σ(G,H) ⊂ I, por lo que hemos
demostrado el resultado deseado.
Propiedad 14 (Desigualdad de Jensen para la Esperanza Condicional). Si
ϕ : R → R es una funci´on convexa, la integral de X existe y la integral de ϕ◦X
est´a definida, entonces
ϕ(E(X |G))≤E(ϕ◦X |G) P|G −p.s.
Si ψ : R → R es una funci´on c´oncava, X es integrable y la integral de ψ◦X est´a
definida, entonces
ψ(E(X |G))≥E(ψ◦X |G)P|G −p.s..
2. Martingalas
Estudiaremos ahora una familia de procesos estoc´asticos que es importante
dentrodelateor´ıadelaprobabilidad,principalmenteporsusaplicacioneste´oricas,
tanto as´ı, que su estudio resulta imprescindible para la teor´ıa moderna de la prob-
abilidad. Mediante su uso, verificaremos ciertos teoremas cl´asicos para caminatas
aleatorias, comolaley0−1deKolmogorovylaleyfuertedelosgrandesnu´meros.
2. Martingalas 7
En este cap´ıtulo solamente consideraremos procesos estoc´asticos indicados por un
subconjunto de Z.
Consideremoslasiguientesituaci´on: jugamosunaseriedevolados, obteniendo
1 si ganamos el n-´esimo y −1 si lo perdemos. El modelo matem´atico que consid-
eraremos est´a conformado por una sucesi´on de variables aleatorias independientes
e id´enticamente distribuidas (X )∞ , donde X representa el resultado del i-´esimo
i i=1 i
volado. Nuestra fortuna al tiempo n, S , est´a dada por
n
n
(cid:88)
S = X
n i
i=1
para n ≥ 1 y definiremos S = 0. Para que el juego resulte justo para las dos
0
personas que lo juegan, debemos pedir que P(X =1) = 1/2. Si este es el caso,
i
podemos preguntarnos por la mejor aproximaci´on a S que podemos dar al uti-
n+1
lizarlainformaci´onsobreeljuegoqueconocemoshastaeltiempon. Lainformaci´on
al tiempo n la interpretaremos como
F =σ(X ,...,X ),
n 1 n
puesto que esta σ-´algebra contiene a todos los conjuntos de la forma
{X =i ,...,X =i },
1 1 n n
y as´ı, lo que realmente buscamos es la esperanza condicional de S dada F ,
n+1 n
que es sencilla de calcular, pues
E(S |F )=E(S +X |F )=S +E(X )=S .
n+1 n n n+1 n n n+1 n
Como un ejercicio, el lector puede verificar que de hecho,
E(S |F )=S , ∀m≥0,
n+m n n
porloquealconocerlainformaci´onhastaeltiempon,solamentepodemosafirmar
que nos quedaremos con lo que tenemos, y como lo mismo sucede con el jugador
contra el cual competimos, el juego resulta ser justo.
Informalmente, podemos definir una martingala como un proceso estoc´astico
(X ) tal que X representa la ganancia al tiempo n de un jugador involucrado
n n∈N n
en un juego justo respecto a cierta informaci´on. Para precisar esta idea, necesita-
mos un ingrediente extra:
Definicio´n. Sea(Ω,F,P)unespaciodeprobabilidady(F ) unacolecci´on
n n∈N
de σ-´algebras contenidas cada una en F. Decimos que dicha familia es una fil-
traci´on si F ⊂F cuando n≤m.
n m
Si (F ) es una filtraci´on, interpretaremos a F como la informaci´on acu-
n n∈N n
mulada al tiempo n.
Definicio´n. Sean (Ω,F,P) un espacio de probabilidad y (F ) una fil-
n n∈N
traci´on en dicho espacio. Una colecci´on de variables aleatorias reales (X ) es
n n∈N
una martingala respecto a la filtraci´on considerada si
2. Martingalas 8
(1) X es F -medible.
n n
(2) X ∈L .
n 1
(3) E(X |F )=X para cualquier n∈N.
n+1 n n
Laprimerapropiedadnosdicequeconocemoslagananciaaltiemponapartir
de la informaci´on que se nos proporciona hasta ese instante, generalmente se dice
que la sucesi´on de variables aleatorias es adaptada a la filtraci´on. La segunda es
una hip´otesis t´ecnica que nos permite utilizar a la esperanza condicional como un
operador lineal y la tercera nos dice que el juego es justo respecto a la informaci´on
proporcionada.
Definicio´n. Supongamos ahora que (X ) satisface (1) y (2), pero en vez
n n∈N
de tener una igualdad en (3), observamos una desigualdad:
E(X |F )≤X .
n+1 n n
Entonceslellamaremosalasucesi´onunasupermartingala. (Notequedeacuerdo
a nuestra interpretaci´on de X como evoluci´on de nuestra fortuna, una super-
n
martingala no tiene nada de super...) Si se da la desigualdad contraria, esto es,
E(X |F )≥X ,
n+1 n n
entonces a (X ) le llamamos submartingala.
n n∈N
Notemos que si (X ) es una martingala, entonces la sucesi´on (E(X ))
n n∈N n n∈N
esconstante. Paraunasupermartingalaounasubmartingala,lapalabraconstante
se debe substituir por decreciente o por creciente. Adem´as, podemos inferir una
propiedad m´as fuerte a partir de (3), a saber, que
E(X |F )=X
n+m n n
si n,m ∈ N. Esto se sigue de las propiedades de la esperanza condicional, puesto
que
E(X |F )=E(E(X |F ) |F )=E(X |F ).
n+m+1 n n+m+1 n+m n n+m n
Una afirmaci´on similar es v´alida para supermartingalas o submartingalas al cam-
biarlaigualdadporunadesigualdad. Paraconcluirestasecci´on,veamosunm´etodo
para construir submartingalas a partir de una martingala dada.
Teorema 1.2. Si (X ) es una martingala respecto a la filtraci´on (F )
n n∈N n n∈N
y ϕ:R→R es una funci´on convexa tal que ϕ(X )∈L , entonces (ϕ(X )) es
n 1 n n∈N
una submartingala respecto a la misma filtraci´on.
Demostracio´n. Como cualquier funci´on convexa (sobre R) es continua, en-
tonces ϕ(X ) es F -medible, que pertenece por hip´otesis a L . Finalmente, por
n n 1
la desigualdad de Jensen para la esperanza condicional,
E(ϕ(X ) |F )≥ϕ(E(X |F ))=ϕ(X ). (cid:3)
n+1 n n+1 n n