Sei sulla pagina 1di 9

Tema 7.

Martingalas
Mayo 2006
1. Nociones basicas
Denicion: Sea (, F, P) un espacio de probabilidad y T = y sea (F
t
)
tT
una
ltracion en F. Una familia {X
t
}
tT
de v.a. reales denidas sobre (, F, P) se llama una
Martingala (resp, super, sub-) con respecto a {F
t
}
t0
si:
(i) Para cada t T, X
t
es medible con respecto a F
t
(ii) E[|X
t
|] < para todo t.
(iii) E[X
t
| F
s
] = X
s
c.s. para todo s, t con s < t (respectivamente , ).
(iii) La condicion (iii) es equivalente a
_
D
E[X
t
| F
s
]dP =
_
D
X
s
dP
(respectivamente , ). Para todo D F
s
, s < t.
Nota: En el caso especial T = N se habla de martingalas con parametro de tiempo
discreto. En tal caso, la martingala {X
n
}
nN
con respecto a {F
n
}
n
puede ser interpretada
como un modelo de juego limpio, donde la v.a. X
n
denota la fortuna del jugador despues
de n jugadas y F
n
describe la historia del juego en los primeros n juegos. La condicion (iii)
es entonces equivalente a E[X
n+1
| F
n
] = X
n
(donde suponemos F
n
= (X
1
, . . . , X
n
)) y
estara indicando que la competencia es justa.
Observacion 1: Si T = N entonces {X
n
}
nN
es una martingala (respectivamente
supermartingala o submartingala) si y s olo si E[X
n+1
| F
n
] = X
n
( , ) para todo
n N.
Observacion 2: Al tomar D = , obtenemos que para cada supermartingala (respec-
tivamente submartingala) se satisface que: E[X
t
] E[X
s
] (resp. E[X
t
] E[X
s
]).
Observacion 3: Si T es totalmente ordenado y {X
t
, t T} es una martingala entonces
los valores esperados E[X
t
] no dependen de t.
Observacion 4: Si consta de un unico punto entonces una supermartingala {X
n
}
nN
no es otra cosa que una sucesion decreciente de n umeros reales. (analogamente: submartin-
gala corresponde a sucesion creciente de n umeros reales)
1
Desigualdad de Jensen: Sea una funcion convexa sobre un intervalo I R, es
decir que:
(x + (1 )y) (x) + (1 )(y), x, y I; [0, 1]
entonces:
Si Y es una v.a. integrable denida sobre (, F, P) con valores en I y si Y es
integrable entonces:
i) E[Y | ] I c.s para toda sub--algebra de F.
ii) En particular: (E[Y ]) E[ Y ]
Observacion
a) Si X = {X
t
, t T} y Y = {Y
t
, t T} son martingalas (resp. super-, submartingalas)
con respecto a {F
t
}
t
y a, b R (resp. a, b [0, +)) entonces {aX
t
+ bY
t
}
t
es una
martingala con respecto a {F
t
}
t
(resp. super-, submartingala).
b) Si X = {X
t
, t T} es una martingala entonces X = {X
2
t
, t T} (si las v.a. son
dos veces integrables), X = {X
+
t
, t T}, X = {X

t
, t T}, X = {|X
t
|, t T} son
submartingalas.
c) X = {X
t
, t T} es una supermartingala entonces X = {X

t
, t T} es una sub-
martingala.
2. Martingalas con parametro de tiempo discreto
En la seccion anterior hemos denido en general el concepto de martingala y hemos
dado algunas de sus propiedades mas importantes. En este captulo centraremos nuestra
atencion en el estudio de las martingalas con parametro de tiempo discreto, esto es,
aquellas para las cuales T = N. Retomando la denicion dada en la seccion anterior
tenemos:
Denicion 1: Un proceso estocastico {X
n
}
nN
es una martingala (respectivamente
super- ,sub-martingala) con respecto a la ltracion {F
n
}
n
si se satisfacen las siguientes
condiciones:
(1) X
n
es F
n
-medible
(2) E[|X
n
|] < +
(3) E[X
n+1
| F
n
] = X
n
c.s. (respectivamente , )
Denicion 2: Si {X
n
}
nN
y {Y
n
}
nN
son dos procesos estocasticos entonces decimos
que {X
n
}
nN
es una martingala (respec. super-, submartingala) con respecto a {Y
n
}
n
si
{X
n
}
n
es una martingala (respec. super-, submartingala) con respecto a {F
n
}
n
donde
F
n
= (Y
1
, . . . , Y
n
).
2
Observacion Si {X
n
}
n
es una submartingala con respecto a {F
n
}
n
entonces {X
n
}
n
es una supermartingala con respecto a {F
n
}
n
. Por lo tanto, se obtiene, en general, con
muy pocas modicaciones, que todo lo que se demuestra para submartingalas es valido
para supermartingalas y viceversa.
3. Ejemplos
Ejemplo 1
Sea X
1
, X
2
, . . . una sucesion de variables aleatorias independientes con E[X
n
] = 1 para
todo n. Sea Y
n
=

n
i=1
X
i
entonces {Y
n
: n 1} es una martingala con respecto a {X
n
}
n
.
En efecto:
E[Y
n+1
| X
1
, X
2
, . . . , X
n
] = E[Y
n
X
n+1
| X
1
, X
2
, . . . X
n
]
= Y
n
E[X
n+1
| X
1
, . . . , X
n
]
= Y
n
E[X
n+1
] = Y
n
Ejemplo : Martingala de Doob
Sean X, Y
1
, Y
2
, . . . variables aleatorias arbitrarias tales que E[|X|] < y sea X
n
=
E(X | Y
1
, Y
2
, . . . , Y
n
) Entonces {X
n
, n 1} es una martingala con respecto a {Y
n
}
n
.
En efecto:
E[|X
n
|] = E [|E[X | Y
1
, Y
2
, . . . , Y
n
]|]
E [E[|X| | Y
1
, Y
2
, . . . , Y
n
]] = E[|X|] < +
E[X
n+1
| Y
1
, . . . , Y
n
] = E[(X | Y
1
, Y
2
, . . . , Y
n+1
) | Y
1
, . . . , Y
n
]
= E[X | Y
1
, . . . , Y
n
] = X
n
4. Propiedades Elementales
1. Si {X
n
}
n
es una martingala (super-martingala) con respecto a {Y
n
}
n
entonces
E[X
n+k
| Y
0
, . . . , Y
n
] = X
n
( ) para todo k 0.
2. Si {X
n
} es una martingala (supermartingala) con respecto a {Y
n
}
n
entonces para
0 k n se satisface
E[X
n
] = E[X
k
] (resp. E[X
n
] E[X
k
])
3. Si {X
n
}
n
es una martingala con respecto a {Y
n
}
n
y f es una funcion convexa entonces
{f(X
n
) : n 1} es una submartingala con respecto a {Y
n
}
n
.
3
Demostraciones
Propiedad 1. (Por induccion)
Para k = 0 se tiene ya que X
n
es medible con respecto a F
n
= (Y
0
, . . . , Y
n
).
Supongamos valido para k y demostremos para k + 1:
E[X
n+k+1
| Y
0
, . . . , Y
n
] = E[E(X
n+k+1
| Y
0
, . . . , Y
n
, . . . , Y
n+k
) | Y
0
, . . . , Y
n
]
= E[X
n+k
| Y
0
, . . . , Y
n
]
= X
n
Propiedad 2.
E[X
n
| Y
0
, . . . , Y
k
] = X
k
Por lo tanto
E[X
n
] = E [E[X
n
| Y
0
, . . . , Y
k
]] = E[X
k
]
Propiedad 3.
E[f(X
n+1
) | Y
1
, Y
2
, . . . , Y
n
] f(E[X
n+1
| Y
1
, . . . , Y
n
]) (desigualdad de Jensen)
= f(X
n
)
Observacion: Si se considera una martingala {X
n
}
n
sin especicar la ltracion se enten-
dera que se trata de una martingala con respecto a F
n
= (X
2
, X
2
, . . . , X
n
).
5. Tiempo de Parada
Teorema 1: Si N es un tiempo de paro para la martingala {X
n
}
n
entonces el proceso
parado {X
n
} denido por:
X
n
=
_
X
n
si N n
X
N
si N < n
Es tambien una martingala
Observacion
Como N es un tiempo de paro entonces P(N < ) = 1. Por lo tanto, para n su-
cientemente grande se tiene que X
n
= X
N
. Por lo tanto, con probabilidad 1, X
n
X
n
cuando n . Si N es acotado entonces se puede demostrar que lo anterior implica
que E[X
n
]E[X
N
] cuando n . Puesto que E[X
n
] = E[X
1
] para todo n entonces
E[X
N
] = E[X
1
]
Es decir, si un jugador esta participando en un juego justo y decide salir del juego
usando un tiempo de paro entonces su fortuna esperada nal sera igual a su fortuna
esperada inicial.
Analogamente se tiene que:
4
Teorema 2: Si N es un tiempo de paro para {X
n
: n 1} y N es acotado entonces:
E[X
N
] E[X
1
] si {X
n
: n 1} es una submartingala
E[X
N
] E[X
1
] si {X
n
: n 1} es una supermartingala
Teorema 3 Si {X
n
: n 1} es una submartingala y N es un tiempo de paro para
{X
n
: n 1} tal que P(N k) = 1 para alg un k entonces
E[X
1
] E[X
N
] E[X
k
]
Teorema 4 Si {X
n
: n 1} es una submartingala no-negativa entonces para todo
a > 0, se tiene que:
P(max(X
1
, X
2
, . . . , X
k
) > a)
E[X
k
]
a
Corolario 1 Sea {X
n
: n 1} una martingala. Entonces para a > 0 se satisface que:
i) P(max (|X
1
|, . . . , |X
k
|) > a)
E[|X
k
|]
a
ii) P(max (|X
1
|, . . . , |X
k
|) > a)
E[|X
k
|
2
]
a
2
Demostraciones
Teorema 1
Sea
I
n
=
_
1 si N n
0 si N < n
Tenemos:
Si N n entonces X
n
= X
n
, X
n1
= X
n1
, I
n
= 1 y por lo tanto
X
n
= X
n1
+ I
n
(X
n
X
n1
) ()
Si N < n entonces X
n1
= X
n
= X
N
, I
n
= 0 y de nuevo () es valido.
Por lo tanto,
E[X | X
1
, X
2
, . . . , X
n1
] = E[X
n1
+ I
n
(X
n
X
n1
) | X
1
, . . . , X
n1
]
= E[X
n1
| X
1
, . . . , X
n1
] + I
n
E[X
n
X
n1
| X
1
, . . . , X
n1
]
= X
n1
+ I
n
(E[X
n
| X
1
, . . . , X
n1
] E[X
n1
| X
1
, . . . , X
n1
])
= X
n1
+ I
n
(X
n1
X
n1
) = X
n1
2
Teorema 2
Como N es acotado y X
n
X
N
, con probabilidad 1 cuando n entonces X
n
X
N
cuando n , puesto que {X
n
: n 1} es una submartingala (resp. una supermartin-
gala) entonces E[X
n
] E[X
1
] para todo n y por lo tanto E[X
N
] E[X
1
] (respectiva-
mente E[X
n
] E[X
1
] para todo n).
5
Teorema 3
Como N es acotado entonces por el teorema anterior (Teorema 2) E[X
N
] E[X
1
].
Por otra parte,
E[X
k
| X
1
, X
2
, . . . , X
N
= l, N = l] = E[X
k
| X
1
, X
2
, . . . , X
l
= l, N = l]
= E[X
k
| X
1
, X
2
, . . . , X
l
]
Por ser N tiempo de paro con respecto a {X
n
}
n
X
l
= X
N
por ser {X
n
}
n
una submartingala
Tomando valores esperados se obtiene:
E[X
k
] E[X
N
] 2
Teorema 4
Sea N el menor valor de i con i k tal que X
i
> a.
Si X
i
a para todo i = 1, . . . , k entonces denimos N = k.
N es un tiempo de paro con respecto a {X
n
: n 1}.
Ademas max (X
1
, X
2
, . . . , X
k
> a) si y solo si X
N
> a, por lo tanto
P (max (X
1
, X
2
, . . . , X
K
) > a) = P(X
N
> a)
= E[1
{X
N
>a}
]
E
_
1
a
.X
N
_
=
1
a
E[X
N
]
1
a
E[X
K
]
pues N k 2
Corolario 1
Como (x) = |x| es una funcion convexa y {X
n
: n 1} es una martingala, se sigue de
la desigualdad de Jensen que {|X
n
| : n 1} es una submartingala no negativa. Por el
teorema anterior obtenemos que:
P (max(|X
1
| , . . . , |X
k
|) > a)
E[|X
k
|]
a
Por otra parte, como (x) = x
2
es una funcion convexa y {X
n
: n 1} es una
martingala obtenemos de nuevo por la desigualdad de Jensen que {X
2
n
: n 1} es una
submartingala no-negativa, por lo tanto,
P(max (X
2
1
, . . . , X
2
k
) > a
2
)
E[X
2
k
]
a
2
Esto es:
P(max (|X
1
| , . . . , |X
k
|) > a)
E[X
2
k
]
a
2
2
6
6. Teorema de Convergencia
El siguiente teorema es basico en la teora de martingalas
Teorema 1: Si {X
n
}
n1
es una martingala tal que para alg un M < se satisface
que E[|X
n
|] M para todo n entonces con probabilidad 1, lm
n
X
n
existe y es nito.
Para la demostracion, ver Ross pagina 315.
Corolario 1: Si {X
n
: n 0} es una martingala no negativa, entonces, con probabil-
idad 1, lm
n
X
n
existe y es nito.
Vamos a dar a continuacion dos aplicaciones del teorema de convergencia para mar-
tingalas, para hacerlo introduciremos el siguiente concepto:
Denicion: Un proceso de Galton-Watson {Z
n
}
nN
es una cadena de Markov
homogenea con conjunto de estados S los enteros no negativos. Sus probabilidades de
transicion
ij
con i, j S estan expresadas en terminos de una sucesion dada {p
k
, X
k
=
0, 1, 2, . . .}, p
k
0 y

p
k
= 1 mediante

ij
= P(Z
n+1
= j | Z
n
= i) =
_
p
i
j
= 1, i 1, j 0

0j
, i = 0, j 0
donde
ij
es el smbolo de Kronecker y p
i
j
, j = 0, 1, 2, . . . es la j-esima componente de
la i-esima convolucion de {p
k
, k = 0, 1, 2, . . .}. Para evitar trivialidades se supone que
p
0
+ p
1
< 1 y que p
j
= 1 para todo j, pues en caso contrario el proceso se extingue con
probabilidad 1.
El proceso de Galton-Watson {Z
n
}
n
es un modelo matematico que permite describir
el desarrollo de una poblacion que se comporta de la siguiente manera:
Supongamos que en el tiempo t = 0 hay Z
0
individuos cada uno de los cuales, al cabo
de una unidad de tiempo, es reemplazado por un n umero aleatorio de nuevos individuos
(sus hijos) de acuerdo a una distribucion com un de descendencia {p
k
, k = 0, 1, 2, . . .}
e independientemente de los demas individuos. El n umero de individuos en la primera
generacion es entonces una suma de Z
0
variables aleatorias cada una con distribucion
{p
k
, k = 0, 1, 2, . . .} .
Los individuos de la primera generacion son reemplazados, de manera analoga, por nuevos
individuos los cuales constituyen la segunda generacion y as sucesivamente. El n umero
de hijos que cada individuo tiene es independiente de su historia familiar y de los demas
individuos. La variable aleatoria Z
n
representa el n umero de individuos en la n-esima
generacion.
Sin perdida de generalidad podemos suponer Z
0
= 1.
Teorema 2: Sean {Z
n
}
n
un proceso de Galton-Watson, m = E[Z
1
] W
n
:=
Z
n
m
n
y
F
n
= (Z
0
, Z
1
, . . . , Z
n
). Si 0 < m < entonces {W
n
}
n
es una martingala con respecto a
{F
n
}
n
.
Mas a un como W
n
0 entonces existe una variable aleatoria no negativa W tal que con
probabilidad 1,
lm
n
W
n
= W
7
Teorema 3: Sea {X
n
}
n
una sucesion de variables aleatorias independientes e igual-
mente distribuidas con = E[X
1
] < +.
Sea S
n
=

n
i=1
X
i
entonces:
P
_
lm
n
S
n
n
=
_
= 1
Demostraciones
Corolario 1 Como X
n
es no negativo,
E[|X
n
|] = E[X
n
] = E[X
1
]
Por lo tanto, del teorema 1 se concluye la existencia con probabilidad 1, del lm
n
X
n
. 2
Teorema 2 Por el Corolario 1, tenemos que solo necesitamos probar que {W
n
}
n
es
una martingala.
En efecto:
E [W
n+1
| F
n
] = E
_
Z
n+1
m
n+1
| F
n
_
=
1
m
n+1
E [Z
n+1
| F
n
]
=
1
m
n+1
E[Z
n+1
| Z
n
] por ser {Z
n
} una cadena de Markov
=
1
m
n+1
.mZ
n
= W
n
2
La segunda aplicacion que presentamos del teorema de convergencia para martinagalas,
es una demostracion de la ley fuerte de lo grandes n umeros.
Teorema 3 Supondremos que la funcion generadora de momentos de las variables
aleatorias X
n
existe.
Sea > 0 jo pero arbitrario y consideremos la funcion
g(t) = e
t(+)
/m(t)
donde m(t) = E[e
tX
1
].
Es claro que:
g(0) = 1
g

(0) =
m(t).( + )e
t(+)
e
t(+)
.m

(t)
[m(t)]
2

t=0
= > 0
Por lo tanto existe t
0
> 0 tal que g(t
0
) > 1.
Vamos a probar que:
P
_
S
n
n
> + para un n umero innito de n
_
= 0
8
y que
P
_
S
n
n
para un n umero innito de n
_
= 0
Con lo cual se tendra que
P(
Sn
n
+ para todos, salvo un n umero nito de n)= 1.
Tenemos
()
S
n
n
+
e
t
0
S
n
m
n
(t
0
)

_
e
t
0
(+)
m(t
0
)
_
n
= [g(t
0
)]
n
Es facil vericar (ejercicio!) que
M
n
:=
e
t
0
S
n
m
n
(t
0
)
es una martingala no negativa
por lo tanto, por el teorema de convergencia para martingalas se tiene que, con prob-
abilidad 1,
lm
n
M
n
existe y esto es nito.
Puesto que g(t
0
) > 1 se sigue de () que
P
_
S
n
n
> + para un n umero innito de n
_
= 0
De manera analoga se prueba que
P
_
S
n
n
+ para un n umero innito de n
_
= 0. 2
9

Potrebbero piacerti anche