Sei sulla pagina 1di 21

Capı́tulo 1

Probabilidad, Esperanza
Condicional y Martingalas

En los cursos básicos de Probabilidad se considera un espacio de probabilidad


(Ω, F, P ) y se definen la probabilidad y la esperanza condicional cuando se
condiciona con eventos de probabilidad positiva. Recordaremos brevemente
estas definiciones como una motivación para la definición general.
Sea B ∈ F tal que P (B) > 0. Definimos la probabilidad condicional dado
B como una función P [ · |B] : F → [0, 1] dada por

P [A ∩ B]
P [A|B] = , A∈F
P [B]

A la P [ · |B] se le llama probabilidad condicional de A dado B y es


claramente otra medida de probabilidad en (Ω, F) ya que satisface:

1. Para todo A ∈ F, 0 ≤ P [A] ≤ 1,

2. P [Ω|B] = 1,

3. Si An ∈ F, n ≥ 1, Ai ∩ Aj = ∅, i 6= j, entonces
X
P [∪n≥1 An |B] = P [An |B].
n≥1

Es inmediato de la definición que la P [ · |B] es una probabilidad concen-


trada en B, es decir, P [A|B] = 0 para todo A ∈ F tal que A ⊂ B c .

1
2 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

Por otro lado, si Y es una variable aleatoria discreta con esperanza finita,
con valores en {yj , j ∈ J}y B ∈ F, P [B] > 0, la esperanza condicional de Y
dado B, se define como la esperanza de Y con respecto a P [ · |B], es decir

X
E[Y |B] = yj P [Y = yj |B]
j∈J
X P [[Y = yj ] ∩ B]
= yj
j∈J
P [B]
E[Y 11B ]
= , (1.1)
P [B]

donde para cada ω ∈ Ω,



1, si ω ∈ B,
11B (ω) =
0, si ω ∈
/ B.

De hecho, sabemos que la probabilidad y la probabilidad condicional son


casos particulares de la esperanza y la esperanza condicional condicional, ya
que

P [A] = E[11A ], y P [A|B] = E[11A |B]. (1.2)


La importancia de la probabilidad y la esperanza condicional radica fun-
damentalmente en la Fórmula de la Probabilidad Total que enunciamos a
continuación:
Sea {Bi , i ∈ I} una partición a lo más numerable de Ω en eventos, es
decir, ∪i∈I Bi = Ω, Bi ∩Bj = ∅ para toda i 6= j ∈ I y para toda i ∈ I, Bi ∈ F.
Supongamos que P [Bi ] > 0, para toda i ∈ I, entonces si A ∈ F:
X X
P [A] = P [A|Bi ]P [Bi ], E[11A ] = E[11A |Bi ]P [Bi ] (1.3)
i∈I i∈I

Todos aquellos que han llevado un curso elemental de probabilidad conocen


la importancia de esta fórmula, que en principio sólo la podemos aplicar
cuando están bien definidas las probabilidades condicionales.
A continuación veremos con un poco mas de cuidado que propiedades
tienen lo probabilidad y la esperanza condicional, para lo que requeriremos
algunas definiciones.
3

Definición 1.1 Sea B = {Bi , i ∈ I}, una colección de subconjuntos de


Ω, entonces la mı́nima σ−álgebra que contiene a la colección es llamada la
σ-álgebra generada por B y la denotaremos σB .
Esta definición tiene sentido ya que la potencia de Ω, P(Ω) es σ-álgebra.
Observación 1.1 Si B = {Bi , i ∈ I}, una colección de subconjuntos de Ω
tal que para cada i ∈ I, Bi ∈ F entonces
σB ⊂ F.
Ejemplo 1.1 Sea Ω = {1, 2, ..., 6}, F = P(Ω), B = {1, 3, 5}, B c = {2, 4, 6}.
Entonces la mı́nima σ-álgebra generada por B = {B, B c } es
σB = {∅, Ω, B, B c }
Ejemplo 1.2 Sea Ω, un conjunto arbitrario, F una σ-álgebra de subconjun-
tos de Ω y X1 una v.a. definida por:

x1 , si ω ∈ B,
X1 (ω) =
x2 , si ω ∈ B c .
Entonces, B = {B, B c },
σB = {∅, Ω, B, B c },
donde, B = {ω ∈ Ω|X1 (ω) = 1}, B c = {ω ∈ Ω|X1 (ω) = 0}. Por ser X1
variable aleatoria σB ⊂ F.
En los dos ejemplos anteriores, B, B c son una partición de Ω, la siguiente
proposición es una generalización de estos ejemplos.
Proposición 1.1 Sea {Bi ∈ I} una partición a lo más numerable de Ω, es
decir ∪i∈I Bi = Ω, Bi ∩ Bj = ∅ para toda i 6= j ∈ I. Entonces
σB = {∅, Ω, Bi , i ∈ I, ∪k∈J Bk , para todo J ⊂ I}
La demostración es trivial y se deja al lector.
Ejemplo 1.3 Sea Ω 6= ∅ un conjunto arbitrario, F una σ-álgebra de subcon-
juntos de Ω y X = (X1 , ..., Xk ) un vector aleatorio discreto con valores en
{xi , i ∈ I} ⊂ IRk . Para cada i ∈ I, sea
Bi = {ω ∈ Ω| X = xi }.
Entonces B = {Bi , i ∈ I} es una partición de Ω en eventos y σB ⊂ F. A la
σ-álgebra construida de esta forma la llamaremos σ-álgebra generada por el
vector X, la denotaremos tambén como σ{X1 , ..., Xk }.
4 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

Definición 1.2 Sea {Bi ∈ I} una partición a lo más numerable de Ω en


eventos y σB la σ-álgebra generada por B. Una función X : Ω → {xi , i ∈
I} ⊂ IRn donde I es un conjunto a lo más numerable, es llamada un σB -
vector aleatorio discreto si

{ω ∈ Ω |X(ω) = xi } ∈ σB , para toda xi , i ∈ I.

Ejemplo 1.4 Para cada j ∈ {1, ..., k} sea Ij ⊂ IR un conjunto a lo mas


numerable, Ω = {(xi1 , ..., xik )|xij ∈ Ij } y F F = P(Ω). Entonces X =
(X1 , ..., Xk ) : Ω → Ω ⊂⊂ IRk definido por:

Xj ((xi1 , ..., xik )) = xij .

es un F-vector aleatorio. Para cada j ∈ {1, ..., k} sea σj = σ{X1 , ...Xj }.


Entonces
σ1 ⊂ σ2 ⊂ · · · ⊂ σk ⊂ F.
Claramente para cada j ∈ {1, ..., k}. El vector (X1 , ..., Xj ) es un σj -vector
aleatorio y tambi’en un σj+r vector aleatorio, r = 1, ..., k − j.

Definición 1.3 Definición Preliminar de Esperanza Condicional. Sea B =


{Bi , i ∈ I} una partición a lo más numerable de Ω en eventos tal que
P (Bi ) > 0 para toda i ∈ I. Para cada variable aleatoria discreta Y con
esperanza finita, definimos la esperanza condicional de Y dada σB , como una
función E[Y |σB ] : Ω → IR dada por

E[Y |σB ](ω) = E[Y |Bi ], si ω ∈ Bi


X
= E[Y |Bi ]11Bi (ω), (1.4)
i∈I

en particular si Y = 11A , A ∈ F, se tiene


X
P [A|σB ](ω) = P [A|Bi ]11Bi (ω), (1.5)
i∈I

Teorema 1.1 Propiedades Fundamentales de la Esperanza Condicional. B =


{Bi , i ∈ I} una partición de Ω en eventos tales que P [Bi ] > 0, i ∈ I y Y una
variable aleatoria discreta con esperanza finita. Entonces

1. E[Y |σB ] es una σB -variable aleatoria.


5

2. Para todo C ∈ σB se satisface


E [11C Y ] = E [11C E[Y |σB ]] .

En particular, si Y = 11A , A ∈ F, entonces


1’. P [A|σB ] es una σB -variable aleatoria.
2’. Para todo C ∈ σB y A ∈ F se satisface
P [C ∩ A] = E [11C P [A|σB ]] .

Demostración. La primera propiedad es inmediata de la definición pues la


esperanza condicional es constante sobre cada Bi , i ∈ I. Para probar la
P propiedad, consideremos C ∈ σB , entonces C = ∪j∈J Bj , J ⊂ I, y
segunda
11C = j∈J 11Bj , de donde
" ! #
X
E [11C E[Y |σB ]] = E 11Bj E[Y |σB ]
j∈J
" #
X X E[11B Y ]
i
= E 11Bj 11Bi , por (1.1)
j∈J i∈I
P [B i]
" #
X E[11Bj Y ]
= E
j∈J
P [Bj ]
X E[11Bj Y ]
= ]P [Bj ]
j∈J
P [Bj ]
= E[11C Y ]. (1.6)
Las propiedades 1’ y 2’ se siguen de la expresión (1.2)
2
Podemos observar que si C = Ω y Y = 11A , A ∈ F entonces las Propiedades
2 y 2’ del Teorema se traducen en
" #
X X
P [A] = E[E[11A |σB ]] = E P [A|Bi ]11Bi = P [A|Bi ]P [Bi ],(1.7)
i∈I i∈I
X
E[11A ] = E[11A |Bi ]P [Bi ]. (1.8)
i∈I
6 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

Las expresiones (1.7) y (1.8) son lo que se conoce como Fórmulas de la


Probabilidad Total.
Definiremos a la esperanza condicional cuando condicionamos con una
σ-álgebra G ⊂ F general (no necesariamente generada por una partición a
lo más numerable de Ω) en términos de las propiedades del Teorema 1.1.
Análogamente al caso discreto daremos primero la definición general de G
vector aleatorio.

Definición 1.4 Sea Ω un conjunto y G una σ-álgebra de subconjuntos de Ω.


Una función X : Ω → IRn es llamada un G-vector aleatorio si satisface:

{ω ∈ Ω |X(ω) ≤ x} ∈ G, para toda x ∈ IRn .

Definición 1.5 Sea G ⊂ F una σ-álgebra y Y una variable aleatoria con


esperanza finita. Definimos a la esperanza condicional de Y dado G, como
una función E[Y |G] : Ω → IR que satisface:

1. E[Y |G] es una G-v.a.

2. Para todo C ∈ G
E [11C Y ] = E [11C E[Y |σG ]] .

Observación 1.2 1. La existencia de la esperanza condicional está garan-


tizada por el Teorema de Radon Nikodym ver ??.

2. En general la esperanza condicional no necesariamente es única. Sea PG


la probabilidad inducida por P en G, es decir, PG (A) = P (A), para todo
A ∈ G. Para toda variable aleatoria X que satisface las propiedades 1
y 2 de la Definición 1.5 se tiene

PG [X = E[Y |G]] = 1.

Proposición 1.2 Propiedades de la Esperanza Condicional. Sean X, Y, Y1 , ..., Yk


v.a con esperanza finita y G ⊂ F una σ-álgebra Entonces

1. Para a1 , ..., ak ∈ IR
" k # k
X X
E aj Yj |G = aj E[Yj |G], PG − c.s.
j=1 j=1
7

2. Sea X una G- variable aleatoria tal que XY tiene esperanza finita,


entonces
E[XY |G] = XE[Y |G] PG − c.s.

3. Sean G1 ⊂ G2 son dos sub-σ-álgebras de F, X una G2 variable aleatoria,


tal XY tiene esperanza finita, entonces
E[XY | G1 ] = E[E[XY | G1 ]| G2 ] = E[XE[Y | G2 ]| G1 ], PG1 − c.s.

Demostración. La primera propiedad es inmediata. La propiedad 2 la de-


mostraremos solo para X = 11B , B ∈ G. La demostración completa puede
consultarse en [?] pag. 364. La función XE[Y |G2 ] es una G2 -variable aleato-
ria por ser producto de dos G- variables aleatorias. Por otro lado, para toda
C ∈ G,
E[11C XY ] = E[11C 11B Y ] = E[11C∩B Y ]
= E[11C∩B E[Y |G]] = E[11C 11B E[Y |G]]
= E[11C XE[Y |G]].
Por último, probar la propiedad 3 es equivalente a demostrar que para todo
C ∈ G1

E[11C E[XE[Y |G2 ]|G1 ]] = E[11C XY ].

E[11C E[XE[Y |G2 ]|G1 ]] = E[11C E[E[XY |G2 ]|G1 ]] por la Prop. 2
= E[11C E[XY |G2 ]] por definición de E[·|G1 ]
= E[11C XY ] por definición de E[·|G2 ].
2
Corolario 1.1 Sean X y Y variables aleatorias con esperanza finita. En-
tonces
1. Si G ⊂ F es una σ-álgebra y X es una G-variable aleatoria
E[X|G] = X, PG − c.s.

2. Sean G1 ⊂ G2 ⊂ F dos sub-σ-álgebras, y Y una v.a. con esperanza


finita, entonces
E[Y |G1 ] = E[E[Y |G1 ]|G2 ] = E[E[Y |G1 ]|G2 ], PG − c.s.
8 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

Demostración. La demostración es inmediata del teorema anterior.

Definición 1.6 Sea XΛ = {Xλ , λ ∈ Λ ⊂ IR} una familia de v.a. definimos a


σXΛ como la σ-álgebra generada por XΛ , es decir, como la mı́nima σ-álgebra
que contiene a los conjuntos:

{ω ∈ Ω|Xλ (ω) ≤ x}, para todo λ ∈ Λ, x ∈ IR.

Si XΛ = X = {X1 , ..., Xn } son variables aleatorias discretas, y denotamos


por IX a la imagen de X, σX es la σ-álgebra generada por los conjuntos

Bi = {ω ∈ Ω|(X1 , ..., Xn ) = (xi1 , ..., xin )}, (xi1 , ..., xin ) ∈ IX ,

los cuales son una partición a lo más numerable de Ω en eventos.


Si X = {X1 , ..., Xn } es un vector aleatorio continuo, σX no está generada
por una partición de Ω.
Definición 1.7 Sean Fi ⊂ F, i = 1, ..., n, σ-álgebras, diremos que son
independientes si para todo Ai ∈ Fi , i = 1, ..., n, se satisface
n
Y
P [∩ni=1 Ai ] = P [Ai ].
i=1

Sabemos que X1 , X2 , ..., Xn , son variables aleatorias independientes si la


función de distribución conjunta es el producto de las funciones de dis-
tribución marginales. Se puede demostrar que esta condición es equivalente
a que las σXi , i = 1, ..., n son independientes.
Proposición 1.3 Sea G ⊂ F una σ-álgebra y X una variable aleatoria tal
que σX y G son independientes, entonces

E[X|G] = E[X], PG − c.s. (1.9)

Demostración. La E[X] es una constante por lo tanto es G- variable aleato-


ria.Ya que σX y G son independientes, las variables aleatorias X y 11C , son
independientes para todo C ∈ G. Por lo tanto

E[11C X] = E[11C ]E[X] = E[11C E[X]]. (1.10)

2
9

Corolario 1.2 Sea G ⊂ F una σ-álgebra, X y Y variables aleatorias tales


que X, Y y XY tienen esperanza finita. Supongamos que X es una σG -
variables aleatoria y σY es independiente de G entonces

E[XY |G] = XE[Y ], PG − c.s. (1.11)

Demostración. La demostración se sigue inmediatamente de las Proposi-


ciones 1.2 y 1.3.
2

Ejemplo 1.5 Caminata Aleatoria. Sea {Xn }n≥1 una sucesión de variables
aleatorias independientes con esperanza finita y Sn = ni=1 Xi . Para cada
P
n ≥ 1 sea Gn la σ-álgebra generada por {X1 , ..., Xn }. Dado que σSn −Sm es
independiente de Gm y Sm es una Gm variable aleatoria por la Proposición
1.3 y el Corolario 1.1 se tiene que para cada n ≥ 2 y para toda 1 ≤ m > n

E[Sn |Gm ] = E[Sn − Sm + Sm |Gm ]


= E[Sn − Sm |Gm ] + E[Sm |Gm ]
= E[Sn − Sm ] − Sm .

Ejemplo 1.6 Proceso Poisson con intensidad λ > 0, Sea Nt , t ≥ 0 un


Proceso Poisson con intensidad λ y para cada t ∈, Gt la σálgebra generada
por {Nr , 0 ≤ r ≤ t}. Si s < t tenemos que σNt −Ns es independiente de Gs y
Ns es una Gs -variable aleatoria por la Proposición 1.3 y el Corolario 1.1 se
tiene

E[Nt |Fs ] = E[Nt − Ns + Ns |Fs ]


= E[Nt − Ns |Fs ] + E[Ns |Fs ]
= E[Nt − Ns ] − Ns
= λ(t − s) + Ns . (1.12)

Ejemplo 1.7 Más generalmente, sea Xt , t ∈ T ⊂ IR un Proceso con incre-


mentos independientes, tal que para toda t ∈ T , Xt tiene esperanza finita y
Gt es la σ-álgebra generada por {Xr , 0 ≤ r ≤ t, r ∈ T } se tiene

E[Xt |Gs ] = E[Xt − Xs ] + Xs .


10 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

1.1 Martingalas
Definición 1.8 Consideremos un espacio de probabilidad (Ω, F, P )

1. Una familia de σ-álgebras {Ft , t ∈ T } donde T ⊂ IR, tales que para


s < t, Fs ⊂ Ft ⊂ F, es llamada una filtración y (Ω, F, {Ft , t ∈ T }, P )
espacio de probabilidad filtrado.

2. Diremos que Xt , t ∈ T es un proceso estocástico Ft -adaptado si para


cada t ∈ T , Xt es una Ft -v.a.

3. (a) Sea T = IIN ∪ {0} F−1 = F0 = {Ω, ∅}, X0 constante. Diremos que
Xt , t ∈ T es un proceso predecible si para cada n ∈ T , Xn es una
Fn−1 -v.a.
(b) Sea T = [0, ∞), Ft la σ- álgebra generada por variables aleatorias
{Yr , 0 < r ≤ t} y Ft− la σ-álgebra generada por las variables
aleatorias {Yr , 0 < r < t}, F0− = F0 = {∅, Ω}. Sea X0 constante,
diremos que Xt , t ∈ [0, ∞) es un proceso predecible si para cada
t ∈ [0, ∞), Xt es una Ft− -v.a.

En todo lo que sigue consideraremos un espacio de probabilidad filtrado


(Ω, F, {Ft , t ∈ T }, P ), T ⊂ IR.
Definición 1.9 Sea Xt , t ∈ T , un proceso Ft -adaptado tal que Xt tiene espe-
ranza finita para toda t ∈ T .
1. Diremos que es Ft -martingala si para todo s < t se satisface

E[Xt |Fs ] = Xs , PFs − c.s.

2. Diremos que es supermartingala si

E[Xt |Fs ] ≤ Xs , PFs − c.s.

3. Diremos que es submartingala si

E[Xt |Fs ] ≥ Xs , PFs − c.s.

Ejemplo 1.8 Sea Xt , t ∈ T , Ft -martingala. Para cada t ∈ T sea Gt la σ-


álgebra generada por {Xr , r ≤ t, r, t ∈ T }, entonces Xt es una Gt -martingala.
1.1. MARTINGALAS 11

Ejemplo 1.9 Sea Xt , t ∈ T un proceso Ft -adaptado con incrementos inde-


pendientes, tal que para cada t ∈ T , Xt tiene esperanza finita. Entonces,
1. Si E[Xt ] = 0 para toda t ∈ T , Xt , t ∈ T es Ft -martingala.

2. Si para todo s < t, s, t ∈ T , E[Xt − Xs ] < 0, Xt , t ∈ T es Ft -


supermartingala.

3. Si para todo s < t, s, t ∈ T , E[Xt − Xs ] > 0, Xt , t ∈ T es Ft -


submartingala.

4. El proceso Yt = Xt − E[Xt ], t ∈ T , es Ft -martingala.

Proposición 1.4 Sean Xn , n ≥ 1 una sucesión de variables aleatorias in-


dependientes con esperanza finita µ = 0, X0 = 0, Fn = σ{X0 , ..., Xn } y
δn , n ≥ 1 un proceso predecible, entonces Yn , n ≥ 0 definido por
n
X
Yn = y + δi Xi ,
i=1

es una Fn -martingala.

Demostración.

E[Yn |Fn−1 ] = Yn−1 + E[δn Xn |Fn−1 ] = Yn−1 + δn E[Xn |Fn−1 ] = Yn−1 .

2
Ejemplo 1.10 Sea X una variable aleatoria con esperanza finita y Ft , t ∈ T
una filtración, entonces Xt , t ∈ T definidas por

Xt = E[X|Ft ],

es Ft -martingala. Es importante notar que no todas las martingalas se


pueden obtener de esta forma.
El concepto de martingala está relacionado con un juego justo. Sin embargo,
hay que tener un poco de cuidado como se puede ver en el siguiente ejemplo,
conocido como la Paradoja de San Petersburgo.
Ejemplo 1.11 Una Mirada a la Paradoja de San Petersburgo.
12 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

Consideremos un juego en el que en cada partida se tiene un experimento


Bernoulli con probabilidad de éxito 12 . Por la proposición anterior cualquier
forma de apostar predecible conserva la propiedad de justeza del juego. Ası́
Juan propone la siguiente apuesta (predecible):
Juan apuesta en la primera partida la cantidad b, si gana, se retira, si
no dobla la apuesta para la partida 2, es decir apuesta 2b en la segunda
partida. Este procedimento se repite hasta que gana por primera vez y se
retira cuando gana. Entonces δn está dado por:
δ1 = b,
y para n ≥ 2, 
b2n−1 , si X1 , ..., Xn−1 = −1,
δn =
0, en otro caso.
Sea J la variable aleatoria que denota la partida en la que Juan gana, es decir,
la partida en la que ocurre el primer éxito. Observemos que la probabilidad
de que gane Juan está dada por
∞ ∞
X X 1
P [J = i] = i
= 1.
i=1 i=1
2
Por lo tanto, con probabilidad 1 Juan gana. ¿ Cuánto gana?. Si gana en la
partida n, quiere decir que la ganancia acumulada está dada por lo que ha
perdido hasta la partida n − 1, más b2n−1 . La por lo que la ganancia total
está dada por está dada por:
n−1
X
− b2i−1 + b2n−1 = b,
i=1

con lo que tenemos que sin importar en que partida gane Juan, gana la
cantidad b. ¿ Es esto un juego justo?
Ejemplo 1.12 Urna de Polya. Consideremos una urna que contiene b ≥ 1
bolas blancas y r ≥ 1 bolas rojas y un experimento que consiste en extraer
bolas de la urna (aleatoriamente) de la siguiente manera: Cada vez que se
extrae una bola, se mira el color se regresa a la urna y se agregan c ≥ 1 bolas
más del mismo color. Sea
b
X0 = ,
b+r
bn
Xn = ,
b n + rn
1.1. MARTINGALAS 13

donde bn (rn ) es el número de bolas blancas (rojas) después de la n-ésima


extracción. Entonces (Xn , σ(X0 , ..., Xn ), n ≥ 1) es una martinganla.

Para demostrarlo consideremos Y0 = 1, y Yn , n ≥ 1 variables aleatorias


Bernoulli tales que Yn = 1(0) si en la n-ésima extracción salió una bola
blanca (roja). Claramente

bn+1 = bn + cYn+1 , rn+1 = rn + c(1 − Yn+1 ).


Por otro lado,

P [Yn+1 = 1|Y0 , ..., Yn ] = Xn , para n ≥ 0.

Asi,
 
bn+1
E[Xn+1 |Y0 , ..., Yn ] = = E Y0 , ..., Yn

bn+1 + rn+1
bn c
= + E[Yn+1 |Y0 , ..., Yn ]
bn + rn + c bn + rn + c
bn c
= + Xn
bn + rn + c bn + rn + c
bn
=
bn + rn
= Xn .

Ya que σ(X0 , ..., Xn ) ⊂ σ(Y0 , ..., Yn ), tenemos

E[Xn+1 |X0 , ..., Xn ] = E[E[Xn+1 |Y0 , ..., Yn |X0 , ..., Xn ]


= Xn

Ejemplo 1.13 Cociente de Verosimilitud. Consideremos una sucesión de


variables aleatorias discretas (Xn )n≥1 y supongamos que la densidad conjunta
de (X1 , ..., Xn ) puede ser pn ó qn . El cociente de verosimilitud se define por

qn (X1 , ..., Xn )
λn =
pn (X1 , ..., Xn )
14 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

Si pn es la densidad de (X1 , ..., Xn ), tenemos


X pn+1 (X1 , ..., Xn y)
E[λn+1 |X1 , ..., Xn ] = λn+1 (X1 , ..., Xn , y)
y
pn (X1 , ..., Xn )
X qn+1 (X1 , ..., Xn , y)
= = λn .
y
pn (X1 , ..., Xn )

Puesto que σ(λ1 , ..., λn ) ⊂ σ(X1 , ..., Xn ) se obtiene el resultado.

Definición 1.10 Sea (X0 , ..., XK ) un vector aleatorio, una Fn -martingala


donde Fn = σ{X0 , ..., Xn }, 0 ≤ n ≤ K y δ1 , ..., δK un proceso predecible, el
v.a. (Y1 , ..., YK ) definido por
n
X
Yn = y + δi (Xi − Xi−1 ), n ∈ {1, ..., K},
i=1

es llamado transformada martingala de (X0 , ..., Xk ).

Teorema 1.2 Si (X0 , ..., XK ) es Fn -martingala donde Fn = σ{X0 , ..., Xn }, 0 ≤


n ≤ K y (Y1 , ..., YK ) es una transformada martingala de (X0 , ..., XK ), en-
tonces (Y1 , ..., YK ) es Fn martingala.

Demostración. Sea n + 1 ≤ K, entonces


n
X
E[Yn+1 |Fn ] = y + δi (Xi − Xi−1 ) + δn+1 E[Xn+1 − Xn |Fn ] δn+1 es una Fn - v.a.
i=1
Xn
= y+ δi (Xi − Xi−1 ) = Yn por la propiedad de martingala de Xn
i=1

1.2 Aplicación a Cadenas de Markov


En toda esta sección consideraremos una Cadena de Markov homogénea
(Xn )n≥ 0 con espacio de estados finito y FσX0 ,...,Xn . Denotaremos por Pijn =
P [Xn = j|X0 = i]
1.2. APLICACIÓN A CADENAS DE MARKOV 15

Proposición 1.5 Supongamos que E = {0, ..., d} y que (Xn )n≥0 es martin-
gala. Entonces los estados 0 y d son absorbentes.
Demostración. Por hipótesis
E[Xn+1 |Xn ] = Xn ,
por lo tanto,
d
X
i = E[Xn+1 |Xn = i] = jPij para toda i ∈ {0, ..., d}.
j=0

En particular,
d
X d
X
0= jP0j = jP0j .
j=0 j=1

Ya que todos los términos de la suma son mayores o iguales que cero cada
término es igual a cero, es decir, P0,j = 0 para toda j ∈ {1, ..., d}. Por otro
lado sabemos que dj=0 P0j = 1, por lo tanto P00 = 1. Consideremos ahora
P
i = d,
X d
d= jPdj ,
j=0
y
d
X d
X
d Pdj = jPdj .
j=0 j=0

por lo tanto
d
X d−1
X
0= (d − j)Pdj = (d − j)Pdj .
j=0 j=0

Por los mismos argumentos que en el caso anterior, tenemos que d es un


estado absorbente.
2
Proposición 1.6 Sea (Xn )n≥0 una Cadena de Markov con espacio de es-
tados E = {0, ..., d}. Supongamos que es una martingala y que los estados
{1, ..., d − 1} son transitorios. Sean T0 Td los tiempos de llegada a los estados
0 y d respectivamente y ρi0 = P [T0 < ∞|X0 = i], ρid = P [Td < ∞|X0 = i].
Entonces
i i
ρid = , ρi0 = 1 − .
d d
16 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

Demostración. Ya que los estados 1, ..., d − 1 son transitorios y el cero y d


son absorbentes, ρi0 = 1 − ρid Por la propiedad de martingala y la propiedad
de Markov, tenemos que para toda n ≥ 1
d
X
i = E[Xn |X0 = i] = jPijn
j=0
d−1
X
= jPijn + dPidn
i=1
d−1
X
= jP ij n + dP [Td ≤ n|X0 = i].
i=1

Ya que los estados 1, ..., d − 1 son transitorios limn→∞ Pijn → 0 para toda
i, j ∈ {1, ..., d − 1}, tenemos
" d−1 #
X
n
i = lim jPij + dP [Td ≤ n|X0 = i] = dP [Td < ∞|X0 = i] = dρid
n→∞
i=1
2

1.3 Aplicaciones a Mercados Financieros


Consideremos un espacio de probabilidad filtrado(Ω, F, Fn , 0 ≤ K, P ). Supong-
amos que tenemos un mercado financiero descrito por un activo libre de riesgo
S 0 = (S00 , ..., SN
0
), donde
0
Sn+1 = Sn0 (1 + r), S00 = 1.
tal que −1 < r es constante (representa la tasa de rendimiento diaria) para
toda 1 ≤ n ≤ K y un activo financiero con riesgo, cuyos precio al instante n
los denotaremos por Sn1 . Supongamos que Fn = σS01 ,...,Sn1 .
Consideremos un inversionista que en cada tiempo invierte en los activos
con y riesgo y denotemos por ∆ = (δn0 , δn1 )0≤n≤K el número de unidades
que invierte en cada uno de los activos. El vector (δn0 , δn1 ) será llamado el
portafolio o la cartera al tiempo n.
El valor del portafolio o cartera Vn (∆) del inversionista al tiempo n es la
cantidad de dinero que representa su cartera, es decir,
Vn (∆) = δn0 Sn0 + δn1 Sn1 .
1.3. APLICACIONES A MERCADOS FINANCIEROS 17

Ejemplo 1.14 Proceso predecible. Supongamos que el inversionista usa como


estrategia de inversión lo siguiente:
En los tiempos 0 y 1, invierte todo su dinero en el activo sin riesgo. A
partir del tiempo n = 2, si en el tiempo n − 1, el valor del activo con riesgo
subió, entonces al tiempo n toda su riqueza estará en el activo con riesgo. Si
el precio del activo con riesgo bajó, entonces toda su riqueza la pondrá en el
activo sin riesgo, es decir, si al tiempo inicial tiene x pesos, entonces
Claramente esta estrategia es predecible, pues su inversión al tiempo n
sólo depende de Sn−2 y Sn−1 .

Ejemplo 1.15 Proceso no predecible. Supongamos que el inversionista sigue


la siguiente estrategia Si al tiempo n suben (bajan) las acciones entonces al
tiempo n invierte todo su dinero en ellas (en el activo sin riesgo). Este
proceso no es predecible, es adaptado..

Teorema 1.3 Consideremos el mercado financiero que definimos anterior-


mente, Supongamos que el inversionista sigue una estrategia de inversión
∆ = (δn0 , δn1 )0≤n≤K predecible que satisface:

Vn (∆) = δn0 Sn0 + δn1 Sn1 = δn+1


0
Sn0 + δn+1
1
Sn1 . (1.13)

Entonces

1.
n
X
Vn (∆) = V0 + [δi0 (Si0 − Si−1
0
) + δi1 (Si1 − Si−1
1
)].
i=1

Vn (∆) 1
Sn
2. Sea Sn 0 = Ṽn (∆) y 0
Sn
= S̃n1 entonces

n
X
Ṽn (∆) = V0 + δi1 (S̃i1 − S̃i−1
1
). (1.14)
i=1

DemostraciónTAREA.

Observación 1.3 De la expresión (1.14) tenemos que si la sucesión


(S̃n )0≤n≤K es martingala, entonces (Ṽn )0≤n≤K es una transformada mar-
tingala y por lo tanto una martingala.
18 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

Corolario 1.3 Consideremos (S̃n )0≤n≤K , una martingala y ∆ = (δn0 , δn1 )1≤n≤K ,
un proceso predecible que satisface (1.13). Supongamos V0 = 0 y Vn (∆) ≥ 0
para 1 ≤ n ≤ K, entonces

P [Vn (∆) = 0] = 1, para toda 1 ≤ n ≤ K.

En general, en la vida real los precios actualizados no son martingala.

Definición 1.11 Sean P y P ∗ dos probabilidades definidas sobre (Ω, F), di-
remos si son equivalentes si para A ∈ F

P [A] = 0 si y solo si P ∗ [A = 0].

Corolario 1.4 Supongamos que existe P ∗ equivalente a P bajo la cual Sn , n ∈


{0, ..., K} son martingala, y ∆ = (δn0 , δn1 )1≤n≤K , un proceso predecible que
satisface (1.13). Supongamos V0 = 0 y Vn (∆) ≥ 0 para 1 ≤ n ≤ K, entonces

P ∗ [Vn (∆) = 0] = 1, para toda 1 ≤ n ≤ K,

y por lo tanto

P [Vn (∆) = 0] = 1, para toda 1 ≤ n ≤ K,

En la literatura se conoce la propiedad anterior como ausencia de opor-


tunidad arbitraje en el mercado y a P ∗ se le conoce como la probabilidad
riesgo neutro.
Si la probabilidad riesgo neutro es única, entonces para toda v.a. aleatoria
FK medible existe un proceso predecible tal que

VK (∆) = X,

y Ṽn (∆), n ∈ [0, K] es martingala, por lo que


 
∗ X
V0 = E [ṼK (∆)], Vn (∆) = Sn0 E ∗ 0
|Fn , n ∈ {0, ..., K}
SK
1.4. EJERCICIOS 19

1.4 Ejercicios
1. Consideremos a, b ∈ IR y Ω = {(i1 , i2 , i3 ) |ij ∈ {a, b}, j = 1, 2, 3.}.
Para cada j ∈ {1, 2, 3}, sean Tj , Sj : Ω → IR, definidas por:

Tj ((i1 , i2 , i3 )) = ij , S1 = T1 , S2 = T1 · T2 , S3 = T1 · T2 · T3

. Describa explı́citamente las σ-álgebras generadas por:

• Tj , para cada j = 1, 2, 3.
• (T1 , T2 ), (T1 , T2 , T3 ).
• (S1 , S2 ), (S1 , S2 , S3 ).

2. Sea (Ω, F, P ) un espacio de probabilidad y F1 ⊂ F2 ⊂ F σ-álgebras.


Sea Y una F -v.a. Demostrar que

E[Y |F1 ] = E[E[Y |F1 ]|F2 ] = E[E[Y |F2 ]|F1 ].

3. Sea (Ω, F, (Fn )0≤n≤K , P ) un espacio de probabilidad filtrado. Supong-


amos que (Xn )0≤n≤K es una Fn martingala. Demuestre que

Xn = E[Xk |Fn ], 0 ≤ n ≤ k ≤ K.

4. Demostrar el Teorema 1.3.

5. Consideremos Sn0 , Sn1 , 0 ≤ N dos activos financieros descritos por

Sn0 = (1 + r)n , S00 = 1,


Sn1 = Sn−1 Tn , S01 = s,

donde r es constante, 0 < 1 + r y T1 , ..., TN son variables aleatorias


independientes idénticamente distribuidas tales que

p = P [Ti = a] = 1 − P [Ti = b], 0 < a < b.

En los siguientes casos, encuentre p tal que (S̃n )0≤n≤N es martingala.


En caso de que no exista justifique.

(a) 1 + r < a.
(b) b < 1 + r.
20 CAPÍTULO 1. ESPERANZA CONDICIONAL, MARTINGALAS

(c) a < 1 + r < b.


(d) Para el caso en que existe p tal que (S̃n )0≤n≤N es martingala, de
una expresión para las siguientes cantidades:
E[max{(S2 − K), 0}|F1 ], E[max{(S2 − K), 0}|F0 ]
Esto les debe dar el precio de un call europeo con precio de ejercicio
K y fecha de ejercicio N = 2. El Modelo se conoce como el Modelo
de Cox-Ross y Rubinstein. Revisen a bibliografı́a y discutan los
casos en los que no existe p, en términos de la noción de arbitraje
en finanzas, relacionada con el Teorema 1.4 y el Corolario 1.2.
6. Sea (Xn )n≥0 una Cadena de Markov con espacio de estados finito E ⊂
IR. Supongamos que la cadena tiene dos estados absorbentes i y j y
los demás estados son transitorios. Sea g : IR → IR tal que (g(Xn ))n≥0
es martingala.
Demuestre, usando la propiedad de martingala que la probabilidades
de absorción ρk,i , ρkj , k ∈ E, k 6= i, j satisfacen el siguiente sistema de
ecuaciones
g(k) = g(i)ρki + g(j)ρkj
1 = ρki + ρkj

7. Considere una Cadena de Nacimiento y Muerte con valores en E =


{0, ..., N } donde le estado 0 y el N son absorbentes, es decir una Cadena
de Markov con matriz de probabilidades de transición dada por:
 
1 0 0 · · · · ·
 q1 r 1 p 1 · · · · · 
 
 0 q2 r 2 p 2 · · · · 
 
 · · · · · · · · 
 
 · · · · · · · · 
 
 · · · · · · · · 
 
 · · · · · qN −1 rN −1 pN −1 
· · · · · · 0 1
donde 0 < ri < 1, i ∈ {1, ..., N }.
(a) ¿ Bajo condiciones sobre qi , ri , pi , i ∈ {1, ..., N − 1} los estados
1, ..., N − 1 son transitorios?.
1.4. EJERCICIOS 21

(b) Si los estados 1, ..., N − 1 son transitorios, bajo qué condiciones la


cadena es martingala?
(c) Calcule las probabilidades de absorción, usando la propiedad de
martingala.

8. Considere una Cadena de Markov con espacio de estados E = {0, ..., 2N }.


Supongamos que los estados 0 y 2N son absorbentes y que las proba-
bilidades de transición están dadas por
 
2N
Pij = P [Xn = j|Xn−1 = i] = pji (1 − pi )2N −j
j
i
(a) Supongamos que pi = 2N . De muestre que (Xn )0≤n es martingala
y calcule las propbabilidades de absorción.
(b) Sea 0 < q < 1 y supongamos que

1 − qi
pi = .
1 − q 2N

Demuestre que (q 2N XN )n≥0 es una martingala. Calcule las proba-


bilidades de absorción.

9. Las Cadena de Markov del ejercicio anterior es conocida como la Ca-


dena de Wright, el primer inciso es la cadena de Wright con deriva pura
y el segundo la de ventaja selesctiva. ¿A qué problema corresponden?.
Busquen bilbiografı́a y hagan un pequeño resumen.

10. Buscar información sobre la Paradoja de San Petersburgo, hay varias


discusiones en la literatura. Haga un resumen.

Potrebbero piacerti anche