Sei sulla pagina 1di 76

NOTAS PARA EL CURSO DE INTRODUCCION

A LOS PROCESOS ESTOC

ASTICOS.
2o. SEMESTRE DE 2003.
Mario Wschebor
E mail: wschebor@cmat.edu.uy
February 27, 2004
1 MARTINGALAS CON TIEMPO DISCRETO.
1.1 Esperanzas condicionales
Denicion.
(, A, P) espacio de probabilidad
X : 1 variable aleatoria, X L
1
.
F sub--algebra de A.
Se dene, para cada A F,
(A) = E (X.1
A
)
es una medida nita signada sobre F, absolutamente continua con respecto
a P/F. Por la tanto, existe la derivada (de Radon-Nykodim) de con
respecto a P/F, que denotamos
d
dP
.
Se dene la esperanza condicional de la variable aleatoria X dada la
-algebra F:
E (X/F) =
d
dP
.
es decir que E (X/F) es la unica funcion (modulo la probabilidad P) de
1 tal que
1. E (X/F) es F-medible,
2.

A
X dP =

A
E (X/F) dP A F
1
Propiedades de las esperanzas condicionales.
1. X E (X/F) es lineal y monotona.
2. Si F =, , entonces E (X/F) = E(X) c.s. [notar que E [E (X/F)] =
E(X)].
3. Mas en general, si F G son sub -algebras de A, se verica que c.s.
E (X/F) = E [E (X/G) /F]
4. X
n
0, X
n
X c.s. = E (X
n
/F) E (X/F) c.s.
5. Si X es F-medible y XY L
1
, entonces
E (XY/F) = XE (Y/F) c.s.
Para probar esto, hacerlo primero cuando Y 0, X = 1
B
, b F.
Luego extender.
6. X independiente de F (i.e. las variables aleatorias X y 1
A
son inde-
pendientes A F ) =
E (X/F) = E(X).
7. (caso nito)
Sea A
1
, ..., A
m
una particion medible de (es decir que A
1
, ..., A
m

A, son 2 a 2 disjuntos y

j=m
j=1
A
j
= ). Suponemos que P(A
j
) > 0,
j = 1, ..., m y denotamos F = (A
1
, ..., A
m
) = mnima -algebra de
partes de que contiene a los conjuntos A
1
, ..., A
m
= familia de todas
las posibles uniones de los conjuntos dados A
1
, ..., A
m
.
Sea X : 1 una variable aleatoria que toma un n umero nito de
valores, x
1
, ...., x
n
.
Entonces,
E (X/F) () =
n

k=1
x
k
.P (X = x
k
/A
j
) A
j
(1)
donde si P(F) > 0, P(E/F) =
P(EF)
P(F)
.
2
Es decir que sobre cada conjunto A
j
, E (X/F) es constante y asume el
valor indicado; es claro que esa funcion es .F-medible. De modo que
para probar (1) hay que probar que

A
X dP =

A
m

j=1
1
A
j
n

k=1
x
k
.P (X = x
k
/A
j
) dP A F.
Basta hacerlo para A = A
j
. Es inmediato.
En particular, si Y es una nueva variable aleatoria que toma un n umero
nito de valores (2 a 2 =) y
1
, ..., y
m
y A
j
= Y = y
j
, usaremos la
notacion
E(X/Y = y
j
) =
n

k=1
x
k
.P (X = x
k
/Y = y
j
)
donde el primer miembro se debe interpretar como E (X/F) () con
Y () = y
j
.
Observaciones.
Si en lugar de una particion nita consideramos una particion
numerable de , todo lo anterior vale sin cambios signicativos.
Heursticamente, el signicado de E(X/Y = y
j
) es el del valor
esperado de la variable aleatoria X, cuando sabemos ocurrio
el evento de que la variable aleatoria Y toma el valor y
j
, es
decir, el valor esperado de una variable aleatoria que toma los
mismos valores posibles que X, o sea x
1
, ...., x
n
, pero no con las
probabilidades originales (que son P (X = x
k
) , k = 1, ..., n) sino
con las probabilidades condicionales P (X = x
k
/Y = y
j
). Claro
que esto es posible si P(Y = y
j
) > 0, aplicando la denicion
elemental de probabilidad condicional.
En cambio, si la variable aleatoria Y no es discreta (es decir,
si la distribucion de Y no es puramente atomica) tenemos di-
cultades, porque el evento Y = y
j
que gura como condicion,
puede tener probabilidad nula. Podramos tratar de aproximar
ese evento por eventos proximos con probabilidad peque na, es-
cribir la probabilidad condicional como cociente y luego pasar al
lmite; esta es la idea de derivar la probabilidad, aunque la forma
rigurosa de hacerlo en el caso general es mediante el teorema de
Radon-Nykodim.

Este es el motivo de la denicion formal de
esperanza condicional que dimos al principio.
3
8. (pareja de variables aleatorias con densidad conjunta)
Consideremos como espacion de probabilidad el espacio producto E
1

E
2
, donde E
1
1, E
2
1, y una medida P sobre la -algebra de
Borel, absolutamente continua con respecto a la medida de Borel, con
densidad f(x, y).
Denotamos mediante X, Y las variables aleatorias coordenadas (es de-
cir, X(x, y) = x, Y (x, y) = y), que son variables aleatorias a valores
reales, cuyas distribuciones de probabilidad tienen densidades respec-
tivas
p
X
(x) =

f(x, y)dy, p
Y
(y) =

f(x, y)dx
(las densidades marginales).
Sea F la sub -algebra de la -algebra de Borel de E
1
E
2
engendrada
por todos los conjuntos de la forma E
1
B, donde B es un Boreliano
en E
2
. Observar que una funcion denida en E
1
E
2
, medible con
respecto a F, es solo funcion de la segunda coordenada y. Eso ocurre,
por lo tanto con E (X/F) y tenemos derecho a escribir
(y) = E (X/F) (x, y).
Entonces, para cada pareja de reales y
1
, y
2
, y
1
< y
2
:
E

X1
[y
1
,y
2
]
(Y )

= E

E (X/F) 1
[y
1
,y
2
]
(Y )

(2)
usando 2. y 4. ut supra (observar que la variable aleatoria 1
[y
1
,y
2
]
(Y )
es F-medible).
Reemplazando en ambos miembros de (2), se tiene la igualdad:

dx

y
2
y
1
x.f(x, y)dy =

dx

y
2
y
1
(y).f(x, y)dy
que implica (Teorema de Fubini mediante):
(y) =
1
p
Y
(y)

x.f(x, y)dx =

x.f(x/y)dx con f(x/y) =


f(x, y)
p
Y
(y)
donde la igualdad vale modulo P
Y
, la distribucion de probabilidad de
Y .
f(x/y) es la densidad condicional de X dado que Y = y.
4
9. (desigualdad de Jensen para esperanzas condicionales)
Sean : 1
1
1
1
convexa, X una variable aleatoria en L
1
y tal que
Y = X L
1
.
Entonces
[E (X/F)] E ((X) /F) c.s. (3)
Para probar (3), como es convexa, para cada x 1 podemos en-
contrar (x) (coeciente angular de una recta de apoyo al graco de
en x), de modo que
(y) (x) +(x)(y x) y 1 (4)
Mas a un, podemos elegir la funcion de modo que sea Borel-medible,
ya que una eleccion posible es
(x) = lim
n+
(x +
1
n
) (x)
1
n
y para cada n, la funcion
x
(x +
1
n
) (x)
1
n
es continua y, por lo tanto, Borel medible. (Recordar que el lmite
puntual de funciones medibles es medible).
Reemplazando en (4) y por X() y x por E (X/F) () se obtiene:
(X) (E (X/F)) +(E (X/F)) [X E (X/F)]
(donde, como es habitual, hemos suprimido en ambos miembros).
Ahora tomamos esperanza condicional dada F en ambos miembros y
usamos que la variable aleatoria
(E (X/F) ())
es F-medible (composicion de una funcion F-medible con una funcion
Borel-medible), conjuntamente con la propiedad 4. ut-supra. Esto
prueba (3).
10. X
n
X en L
1
= E (X
n
/F) E (X/F) en L
1
.
Aplicando la desigualdad de Jensen:
E [[E (X
n
/F) E (X/F)[] E [E ([X
n
X[ /F)] = E ([X
n
X[) 0.
5
11. (La esperanza condicional como proyeccion ortogonal en L
2
)
Sea S el subespacio de L
2
= L
2
(, A, P) de las variables aleatorias a
valores reales que son F-medibles. Es obvio que S es cerrado.
Sea
S
la proyeccion ortogonal de L
2
sobre S.
Entonces, si X L
2
se tiene

S
(X) = E (X/F) (5)
Observar que si X L
2
, entonces tambien X L
1
, de modo que la
esperanza condicional esta bien denida. Notar ademas que E (X/F)
L
2
ya que:
E

[E (X/F)]
2

X
2
/F

= E

X
2

<
(5) se sigue de que
E [(X E (X/F)) Y ] = 0
para toda variable aleatoria Y S.
1.2 Filtraciones. Denicion de martingala discreta.
Denicion. (, A, P) espacio de probabilidad.
En lo que sigue, una ltracion F
n

nT
es una sucesion de sub -
algebras de A, creciente, i.e. F
n
F
n+1
n. Por un largo trecho, supon-
dremos que el conjunto T es el de los naturales o el de los enteros; mas
adelante, tendremos que modicar una serie de puntos para encarar los
problemas cuando el parametro vara en los reales, o en alg un otro conjunto
de ndices.
Usamos las notaciones
F

n
F
n
y
F

n
F
n
para representar, respectivamente, la -algebra engendrada por la union de
las F
n
s y la -algebra interseccion de las F
n
s.
Deniciones.
Un proceso estocastico denido en el mismo espacio de probabilidad (o
lo que es lo mismo en nuestro caso, una sucesion de variables aleatorias)
6
X
n

nT
es adaptado a la ltracion F
n

nT
si X
n
es F
n
-medible para
todo n T.
El proceso estocastico X
n

nT
es previsible con respecto a la ltracion
F
n

nT
si X
n
es F
n1
-medible para todo n T.
Un proceso estocastico X
n

nT
es una submartingala (respectiva-
mente supermartingala, martingala) con respecto a la ltracion F
n

nT
si cumple las siguientes condiciones:
1. X
n

nT
es adaptado a F
n

nT
.
2. X
n
L
1
n T.
3. casi seguramente E(X
n+1
/F
n
) X
n
(respectivamente , =)
Observaciones.
- En la denicion la condicion 2. puede reemplazarse por X
+
n
L
1
(respectivamente X

n
L
1
, X
n
L
1
) n T .
- Un caso especial importante, es aquel en que el proceso estocastico
X
n

nT
esta dado y se dene la ltracion mediante G
n
= (X
m
: m n),
la mnima - algebra con respecto a la cual las variables aleatorias X
m
: m n
son medibles. Es decir que G
n
contiene la informacion generada por el pro-
ceso hasta el instante n. La ltracion G
n

nT
as denida, se denomina la
ltracion engendrada por el proceso dado.
1.2.1 Propiedades iniciales y ejemplos.
1. (Paseo al azar)
Sea
1
,
2
, .... una sucesion de variables aleatorias independientes,
n

L
1
, E (
n
) = 0 n.
Denimos
X
0
= 0, X
n
=
1
+... +
n
para n 1
F
0
= , , F
n
= (
m
: m n) para n 1
Entonces, X
n
es una F
n
-martingala.
2. Si en el ejemplo anterior se reemplaza E (
n
) = 0 por E (
n
) 0, se
obtiene una submartingala.
7
3. Si X
n
, Y
n
son F
n
-martingalas y a,b n umeros reales, entonces aX
n
+bY
n

es tambien F
n
-martingala. Del mismo modo, si X
n
, Y
n
son F
n
-
submartingalas (respectivamente supermartingalas) y a,b n umeros reales
no negativos, entonces aX
n
+bY
n
es tambien F
n
-submartingala (resp.
supermartingala).
4. Sea X
n
una F
n
-martingala y : 1 1 una funcion convexa. Se
dene Y
n
= (X
n
).
Entonces, si Y
n
L
1
n, resulta que Y
n
es una F
n
-submartingala.
En particular, si X
n
L
p
n, p 1, entonces [X
n
[
p
es una F
n
-
submartingala.
5. Sea X
n
una F
n
-submartingala y : 1 1 una funcion convexa y
creciente. Se dene Y
n
= (X
n
). Entonces, si Y
n
L
1
n, resulta que
Y
n
es una F
n
-submartingala.
En particular, X
+
n
es una F
n
-submartingala.
6. Sea Y L
1
y F
n

nT
una ltracion.
Denimos
X
n
= E(Y/F
n
) (n T) (6)
Se prueba facilmente que X
n

nT
es una F
n

nT
-martingala.
Mas adelante consideraremos la pregunta inversa, a saber en que
condiciones, dada una F
n

nT
-martingala X
n

nT
, se puede encon-
trar una variable aleatoria Y tal que (6) se cumpla para todo n? Y
mas a un, como se puede describir Y ?
7. (Derivacion en un espacio abstracto)
(X, F, ) espacio de probabilidad.

n
= A
1
, ...., A
m
n
particion medible nita de X, creciente con
n en el sentido de que
n+1
es un renamiento de
n
.
F
n
= (
n
) F
n+1
Sea otra medida signada nita sobre (X, F, ), < y
n
,
n
las restricciones de , respectivamente a F
n
.
Es claro que
L
n
=
d
n
d
n
=
m
n

j=1
(A
j
)
(A
j
)
1
A
j
8
con la convencion de que
(A
j
)
(A
j
)
= 0 is (A
j
) = 0.
Veamos que L
n
es una F
n
-martingala.
Es claro que L
n
es F
n
-medible, ya que las funciones F
n
-medibles
son justamente las que son constantes sobre los conjuntos de la
particion que dene a F
n
.
Hay que ver que E (L
n+1
/F
n
) = L
n
c.s., es decir, que
E (L
n+1
1
A
) = E (L
n
1
A
) A F
n
(7)
Basta vericar (7) para A = A
j
(j = 1, ..., m
n
), ya que cada
A F
n
es una union nita disjunta de esos A
j
.
Pero si A
j
F
n
, entonces, dado que F
n+1
es un renamiento
de F
n
, se puede escribir
A
j
=
k=
j

k=1
A

k
con A

k
F
n+1
, 2 a 2 disjuntos
con lo cual
E

L
n+1
1
A
j

=
k=
j

k=1
E

(A

k
)
(A

k
)
1
A

=
k=
j

k=1
(A

k
) = (A
j
) = E

L
n
1
A
j

.
Una pregunta natural es bajo que condiciones L
n
converge cuando
n y en ese caso, si el lmite es la derivada de Radon-
Nydodim
d
d
, dando una interpretacion de esta similar a la derivacion
ordinaria en un espacio euclidiano.
1.3 Compensador de una sucesion adaptada de variables aleato-
rias. Descomposicion de Doob elemental (caso discreto).
Sea (, A, P) un espacio de probabilidad, F
n

n=0,1,2,...
una ltracion denida
en el y X
n

n=0,1,2,...
una sucesion de variables aleatorias adaptada a F
n

n=0,1,2,...
,
X
n
L
1
n.
Proposicion. una unica sucesion de variables aleatorias

X
n

n=0,1,2,...
tal que:
1.

X
0
= 0.
2.

X
n

n=0,1,2,...
es previsible
9
3.

X
n


X
n

n=0,1,2,...
es una F
n
-martingala.
Demostracion. Denimos:

X
0
= 0

X
n
=
n

j=1
E (X
j
X
j1
/F
j1
) n 1
1. y 2. son obvias. En cuanto a 3., si n 1:
E

X
n+1


X
n+1

X
n


X
n

/F
n

= E [X
n+1
X
n
/F
n
]
n+1

j=1
E (X
j
X
j1
/F
j1
) +
n

j=1
E (X
j
X
j1
/F
j1
) = 0
Si n = 0, se verica de manera igualmente trivial.
En cuanto a la unicidad, supongamos que

X
n

y tambien

X
n

veri-
can 1.,2.,3.
Entonces,
E

X
1


X
1
/F
0

= X
0


X
0
= X
0
c.s.
E

X
1


X
1
/F
0

= X
0


X
0
= X
0
c.s.
por lo que

X
1


X
1
= E

X
1


X
1
/F
0

= 0 c.s.
ya que

X
1


X
1
es F
0
-medible. El mismo tipo de argumento permite probar
por induccion completa que

X
n


X
n
= 0 c.s. n.
Denicion.

X
n

n=0,1,2,...
se denomina el compensador (previsible) de
la sucesion X
n

n=0,1,2,...
.
Notas y ejemplo basico.


X
n
= 0 n si y solo si el proceso dado X
n
es una F
n
-martingala.

X
n

es creciente (en sentido amplio) si y solo si el proceso dado X


n

es una F
n
-submartingala.
10
Sea X
n

n=0,1,2,...
una F
n

n=0,1,2,...
-martingala, y supongamos ademas
que X
n
L
2
n. Entonces Y
n
= X
2
n
(n = 0, 1, 2, ...) es una submartin-
gala y el compensador es, para n 1 :

Y
n
=
n

j=1
E (Y
j
Y
j1
/F
j1
) =
n

j=1
E

X
2
j
X
2
j1
/F
j1

=
n

j=1
E

(X
j
X
j1
)
2
/F
j1

.
De modo que

X
2
n


Y
n

es una martingala.
Un caso particular de lo anterior es el siguiente.
Sea X
0
= 0, X
n
=
1
+... +
n
(n 1), donde
1
,
2
, ... es una sucesion
de variables aleatorias independientes, E(
n
) = 0, V ar(
n
) =
2
n
.
Entonces, el compensandor de X
2
n
es

n
j=1

2
j
, es decir que

X
2
n

n
j=1

2
j

es una martingala con respecto a la ltracion engendrada por


n
.
Observese que en este caso el compensador es determinstico.
La situacion es ligeramente distinta si consideramos un proceso indizado
en Z en lugar de ^. Vemos la modicacion con respecto a la proposicion
anterior en la proposicion siguiente:
Proposicion.
Sea (, A, P) un espacio de probabilidad, F
n

nZ
una ltracion denida
en el y A = X
n

nZ
una submartingala adaptada a F
n

nZ
.
Suponemos ademas que
sup
n<0
E

< .
Entonces, una martingala = M
n

nZ
y un proceso / = A
n

nZ
previsible, integrable y creciente, tales que
A = +/ (8)
Si ademas lim
n
A
n
= 0, entonces la descomposicion (8) es unica.
Si ademas es X
n
0 n = E(A
n
) E(X
n
) n.
Demostracion.
Ponemos
Y
j
= E (X
j
X
j1
/F
j1
) 0
11
Para n < m:
E


n<jm
Y
j

= E (X
m
X
n
) E (X
m
) + sup
nm
E

Por lo tanto (Beppo-Levi),


lim
n

n<jm
Y
j
= A
m
L
1
y / = A
n

nZ
es previsible, integrable y creciente. Poniendo M
n
= X
n

A
n
, se verica que es una martingala.
Si hubiera dos descomposiciones, A =
(i)
+/
(i)
(i = 1, 2) = /
(2)

/
(1)
=
(1)

(2)
es a la vez una martingala y es previsible =
A
(2)
n+1
A
(1)
n+1
= E

A
(2)
n+1
A
(1)
n+1
/F
n

= A
(2)
n
A
(1)
n
donde la primera igualdad es por ser previsible y la segunda por ser mar-
tingala. Es decir que A
(2)
n
A
(1)
n
no depende de n y como tiende a cero en
, es identicamente nula.
Finalmente, si X
n
0 = X

n
= 0 y lo indicado resulta de la acotacion
de E (A
m
) .
1.4 Tiempos de parada.
Deniciones.
Como antes, sea F
n

nT
una ltracion (T = ^ o T = Z).
Una variable aleatoria : T es un tiempo de parada - o un
F
n
-tiempo de parada) si
= n F
n
n
(esto incluye el caso n = ; hay una cierta imprecision aqu en el caso
T = Z, en el que se debe agregar + y tambien -, pero esto no sera una
fuente de problemas).
Tambien se dene la -algebra de los sucesos anteriores a :
F

= A F

: n < se cumple que A = n F


n
Ejemplo basico (tiempo que demora un proceso estocastico en llegar a un
conjunto).
12
X
n

n=0,1,2,...
sucesion de variables aleatorias a valores reales.
F
n
= X
m
: m n ltracion engendrada por la sucesion.
a 1
Se dene el tiempo que demora el proceso en llegar al conjunto [a, +)
mediante

a
= inf n : X
n
a si =

a
= + si =
1.4.1 Propiedades de los tiempos de parada.
(a) Una variable aleatoria a valores en T es un tiempo de parada
si y solo si n F
n
n.
(b) F

es una -algebra.
(c) Generalizacion del ejemplo anterior.
X
n

n=0,1,2,...
sucesion de variables aleatorias a valores en un espacio
medible (E, E) .
A E

A
= inf n : X
n
A si =

A
= + si =
(d) n es tiempo de parada
(e) Si
1
,
2
son F
n
-tiempos de parada, entonces
1

2
y
1

2
tambien son F
n
-tiempos de parada.
(f) Si
1
,
2
son F
n
-tiempos de parada,
1

2
, entonces F

1
F

2
.
En efecto, si A F

1
= A F

, A
1
= n. Por lo tanto:
A
2
= n =

mn
[A
2
= n
1
= m] F
n
ya que en la union, A
1
= m F
m
F
n
.
(g) (Proceso estocastico parado)
13
Sean A = X
n

nT
un proceso F
n

nT
-adaptado y un tiempo de
parada con respecto a esta ltracion. Se dene el proceso estocastico parado
en :A

= X

nT
mediante:
X

n
() = X
n()
()
Proposicion.
Si X
n

n=0,1,2,..
es F
n

n=0,1,2,...
-martingala (resp. supermartingala, sub-
martingala) entonces A

es F
n

n=0,1,2,...
martingala (resp. supermartin-
gala, submartingala).
Demostracion.
Probamos, lo que es mas general, que si
n

n=1,2,...
es un proceso es-
tocastico predecible, acotado y 0, la misma conclusion del enunciado vale
para el proceso Y
n

n=0,1,2,..
denido mediante:
Y
0
= X
0
Y
n
= Y
n1
+
n
(X
n
X
n1
) para n 1
La proposicion resultara de aplicar esto a
n
= 1
{n}
, porque en ese
caso se verica facilmente que Y
n
= X

n
.
Para el caso martingala, tenemos que ver que para n 1 :
E (Y
n
/F
n1
) = Y
n1
c.s. (9)
Para los otros casos, es similar. Pero:
E [
n
(X
n
X
n1
) /F
n1
] =
n
E [(X
n
X
n1
) /F
n1
] = 0 c.s.
lo que prueba (9).
1.5 Desigualdades para martingalas, convergencia, leyes de
grandes n umeros.
Teorema (del muestreo opcional de Doob).
Sea A = X
n

n0,1,2,...
una F
n

n0,1,2,..
-martingala (resp. supermartin-
gala, submartingala).
Consideramos una sucesion (nita) creciente de tiempos de parada
1

2
...
n
, que suponemos uniformement acotados superiormente, en el
sentido de que existe una constante C tal que
k
C k = 1, ..., n.
Entonces, X

k=1,...,n
es una F

k=1,...,n
-martingala (resp. super-
martingala, submartingala).
14
Demostracion.
Basta probar el enunciado para n = 2.
Empecemos por probar que
E (X

2
) = E (X

1
) (resp. , ) (10)
Aplicamos lo visto en la demostracion de la proposicion anterior, con
la misma notacion, poniendo
n
= 1
{
1
<n
2
}
= 1
{n
2
}
1
{n
1
}
que es
predecible.
Entonces, Y
n

n=0,1,2,...
es una F
n

n=0,1,2,...
-martingala (resp. super-
martingala, submartingala), con (vericar!):
Y
n
= Y
0
+ (X
n
2
X
n
1
)
Por lo tanto,
E (X
n
2
X
n
1
) = 0 n
Poniendo n C, resulta (10).
Probemos ahora que
E (X

2
/F

1
) = E (X

1
) (resp. , ) c.s.
Es decir, se trata de probar que B F

1
se verica
E (X

2
1
B
) = E (X

1
1
B
) (resp. , ) (11)
Veamos el caso de la igualdad; los otros son similares.
Denimos, para i = 1, 2 :

i,B
=
i
1
B
+C1
B
C

1,B
es un tiempo de parada, ya que si n C,
1,B
n = , y si n < C,
entonces
1,B
n =
1
n B F
n
por ser B F

1
.
Analogamente, como B F

1
F

2
, si n < C, entonces
2,B
n =

2
n B F
n
.
Ademas es obvio que
1,B

2,B
, de modo que se puede aplicar (10) a
la pareja de tiempos de parada
1,B
,
2,B
y resulta E(X

1,B
) = E(X

2,B
), es
decir que
E (X

2
1
B
) +E (X
C
1
B
C) = E (X

1
1
B
) +E (X
C
1
B
C)
lo que prueba (11).
15
Teorema (desigualdades de Doob).
Sea X
n

0nN
una submartingala con respecto a la ltracion F
n

0nN
y > 0.
Entonces:
(i)
P

max
0nN
X
n

X
N
1
max
0nN
X
n

X
+
N

E ([X
N
[)
(12)
P

min
0nN
X
n

E(X
0
)+E

X
N
1
min
0nN
X
n

+E

X
+
N

(13)
(ii) Si X
n

0nN
es martingala y E ([X
n
[
p
) < n = 0, ..., N y para
alg un p 1, entonces
P

max
0nN
[X
n
[

p
E ([X
N
[
p
) (14)
(iii) Si ademas de las hipotesis de (ii) es p > 1, entonces:
E

max
0nN
[X
n
[
p

p
p 1

p
E ([X
N
[
p
) (15)
Demostracion.
(i) Probamos (12). (13) es similar.
Sea
= min n : 0 n N, X
n
si =
= N si =
En virtud del teorema del muestreo opcional de Doob, X

, X
N
es una
submartingala con respecto a la ltracion F

, F
N
. Por lo tanto,
E (X
N
) E (X

) = E

1
max
0nN
X
n

+E

X
N
1
max
0nN
X
n
<

max
0nN
X
n

+E

X
N
1
max
0nN
X
n
<

Pasando el ultimo termino al primer miembro resulta (12).


(ii) Aplicar (i) a la submartingala [X
n
[
p
.
(iii) Sea M = max
0nN
[X
n
[. Entonces:
E (M
p
) = p

+
0

p1
P(M ) d p

+
0

p2
E([X
N
[ 1
{M}
) d
=
p
p 1
E

[X
N
[ M
p1

16
ya que (p 1)

+
0

p2
1
{M}
d = M
p1
.
Aplicando la desigualdad de Holder:
E (M
p
)
p
p 1
[E ([X
N
[
p
)]
1
p
[E (M
p
)]
p1
p
Pasando el ultimo factor al primer miembro, resulta (iii).
1.5.1 Teorema de convergencia de martingalas.
1. X
n

n=0,1,2,..
submartingala, sup
n
E (X
+
n
) < = c.s. lim
n+
X
n
=
X

, X

L
1
.
2. Bajo las condiciones de 1., se puede extender X
n

n=0,1,2,..
a una sub-
martingala denida en 0, 1, 2... + agregando +X

, si y
solo si, X
+
n

n=0,1,2,..
es uniformemente integrable.
3. Sea Y L
1
y F
n

n=0,1,2,...
una ltracion.
Entonces, X
n
= E (Y/F
n
) es una martingala adaptada a F
n

n=0,1,2,...
,
uniformemente integrable y existe lim
n+
X
n
= X

, casi segura-
mente y en L
1
. Ademas, X

= E (Y/F

).
4. A = X
n

n=0,1,2,..
submartingala, inf
n
E (X
n
) > = A es
uniformemente integrable y lim
n
X
n
= X

, c.s. y en L
1
.
La demostracion se basa en el lema siguiente, debido a Doob.
Lema (sobre cruces).
Sea X
n

n=0,1,2,..
una submartingala con respecto a la ltracion F
n

n=0,1,2,..
y a, b dos n umeros reales, a < b.
Entonces:
E

U
X
N
(a, b)


1
b a
E

(X
N
a)
+
(X
0
a)
+

(16)
Aqu, U
X
N
(a, b) = n umero de cruces hacia arriba de la banda [a, b] entre
0 y N, que se puede denir formalmente de la manera siguiente:
17
Para cada trayectoria X
n

n=0,1,2,..
, denimos por recurrencia la sucesion

0
= 0

1
= min n : X
n
a

2
= min n : n
1
, X
n
b
................................

2k+1
= min n : n
2k
, X
n
a

2k+2
= min n : n
2k+1
, X
n
b
donde se usa la convencion de que min() = +, y si un cierto es igual
a +, desde all en adelante los sucesivos tambien valen +.
Entonces,
U
X
N
(a, b) = max k :
2k
N
Demostracion del lema.
Consideramos el nuevo proceso \ = Y
n
denido por Y
n
= (X
n
a)
+
,
que tambien es una submartingala, ya que la funcion x x
+
es convexa y
creciente (en sentido amplio).
Es claro que
U
X
N
(a, b) = U
Y
N
(0, b a)
Denimos la sucesion
0
,
1
,
2
, ... como antes, pero para el proceso \
en lugar de A. Es inmediato que es una sucesion creciente de tiempos de
parada.
Sea

n
=
n
N.

n=0,1,2,...
es tambien una sucesion creciente de
tiempos de parada, acotada por N. Elegimos ademas el natural K de tal
modo que 2K > N. Dado que mientras que los
n
son nitos, forman una
sucesion estrictamente creciente, tiene que ser
2K
> N y, por lo tanto,

2K
= N.
Se tiene:
Y
N
Y
0
=
2K

n=1

n
Y

n1

=
K

n=1

2n
Y

2n1

+
K1

n=0

2n+1
Y

2n

El primer termino esta minorado por (b a)U


Y
N
(0, b a). Tomando esper-
anzas:
E(Y
N
) E(Y
0
) (b a)E

U
Y
N
(0, b a)

+
K1

n=0

E(Y

2n+1
) E(Y

2n
)

18
Por el teorema del muestreo opcional de Doob,

Y

es una submartingala
y cada termino en la ultima suma es 0. Se deduce que
E

(X
N
a)
+
(X
0
a)
+

= E(Y
N
) E(Y
0
) (b a)E

U
Y
N
(0, b a)

Esto prueba (16).


Disgresion. (Sobre integrabilidad uniforme).
A ttulo de repaso, recordemos que la sucesion de variables aleatorias
Z
n

n=0,1,2,..
, denidas en el espacio de probabilidad (, A, P) , Z
n
L
1
, es
uniformemente integrable si
sup
n
E

[Z
n
[ 1
{|Z
n
|a}

0
cuando a +.
El lector vericara que si la sucesion Z
n
es acotada en L
p
para alg un
p > 1, entonces es uniformemente integrable. Tambien que si, casi segura-
mente, Z
n
Z

cuando n +, entonces Z
n
Z

en L
1
si y solo si
Z
n
es uniformemente integrable. Mostrar un ejemplo en el cual esto ultimo
se verica, pero no se cumplen las condiciones del teorema de convergencia
dominada de Lebesgue.
Demostracion del teorema de convergencia.
Para la parte 1. se trata de probar que
P(limX
n
< limX
n
) = 0.
Sea U
Y

(a, b) = lim
N+
U
Y
N
(a, b). Entonces:

limX
n
< limX
n

r,sQ, r<s

U
Y

(r, s) = +

Usando Beppo Levi y el lema sobre cruces (para r, s jos, r < s:


E

U
Y

(r, s)

= lim
N+
E

U
Y
N
(r, s)

lim
N+
1
s r
E

(X
N
r)
+
(X
0
r)
+

<
La nitud se deduce de la hipotesis. Por lo tanto, U
Y

(r, s) < con proba-


bilidad 1. Esto prueba que c.s. lim
n+
X
n
= X

. Para ver que X

L
1
,
i.e. E([X

[) < , notar que


E([X
n
[) = 2E(X
+
n
) E(X
n
) 2E(X
+
n
) E(X
0
)
donde la desigualdad se sigue de que X
n
es submartingala. Usar ahora la
hipotesis y el lema de Fatou.
19
Para probar 2. supongamos que X
+
n
es uniformemente integrable.
Entonces, a > 0, c.s. X
m
(a) X

(a) no solo casi seguramente


sino tambien en L. Por lo tanto, para cada n jo, E (X
m
(a)/F
n
)
E (X

(a)/F
n
) en L
1
cuando m + y casi seguramente sobre una
subsucesion m
k
. Como X
n
(a) es submartingala,
E (X

(a)/F
n
) = lim
k+
E (X
m
k
(a)/F
n
) X
n
(a) c.s.
Haciendo a +, resulta
E (X

/F
n
) X
n
c.s.
Recprocamente, si E (X

/F
n
) X
n
c.s. n, entonces (desigualdad de
Jensen)
E

X
+

/F
n

[E (X

/F
n
)]
+
X
+
n
c.s.
y como X
+
n
x es F
n
-medible,
E

X
+
n
1
X
+
n
x

X
+

1
X
+
n
x

(17)
Se trata de probar que X
+
n
es uniformemente integrable, es decir que
E

X
+
n
1
X
+
n
x

0 cuando x +, uniformemente en n. En virtud de


(17) y de que X
+

L
1
, basta probar que P(X
+
n
x) 0 cuando x +,
uniformemente en n. Esto se deduce de (x > 0):
P(X
+
n
x)
1
x
E(X
+
n
)
1
x
E(X
+

).
La demostracion de 3. es analoga. Para probar que X

= E(Y/F

)
basta ver que E(X

1
B
) = E(Y 1
B
) B F

. Para esto, observar que


la familia B : E(X

1
B
) = E(Y 1
B
) es un algebra y tambien una clase
monotona que contiene a F
n
n, por lo que contiene a F

.
La parte de convergencia casi segura en la demostracion de 4. es igual a
la analoga de 1. La parte de la integrabilidad uniforme se ve como sigue.
E(X
n
) decrece cuando n decrece. La hipotesis dice que lim
n
E(X
n
)
es nito. Sea n
0
tal que E(X
n
) > E(X
n
0
) si n n
0
. Entonces, si
n n
0
y x > 0:
E

[X
n
[ 1
{|X
n
|x}

= E

X
n
1
{X
n
x}

+E

X
n
1
{X
n
>x}

E (X
n
)
E

X
n
0
1
{X
n
x}

+E

X
n
0
1
{X
n
>x}

E (X
n
0
) +
= E

X
n
0
1
{X
n
x}

X
n
0
1
{X
n
x}

+
E

[X
n
0
[ 1
{|X
n
|x}

+
20
Analogamente a lo anterior, falta ver que P([X
n
[ x) 0 cuando x +,
uniformemente en n. Esto se deduce de:
P([X
n
[ x)
1
x
E([X
n
[) =
1
x

2E(X
+
n
) E(X
n
)

1
x

2E(X
+
0
) E(X
n
0
) +

1.5.2 Aplicacion. Teorema de Wald.


Teorema (Wald).
Sea S
0
= 0, S
n
=
1
+ ... +
n
(n 1), donde
1
,
2
, ... es una sucesion
de variables aleatorias independientes, E(
n
) = , E([
n
[) = n.
Denotamos por F
n

n=0,1,2,..
la ltracion engendrada por
n

n=
o
1,2,...
F
0
= , .
Sea un tiempo de parada con respecto a F
n

n=0,1,2,..
y supongamos
que E () < .
Entonces,
(a)
E (S

) = E ()
(b) Si ademas V ar(
n
) =
2
< , entonces
E

(S

)
2

=
2
E()
Demostracion. S
n
n
n=0,1,...
es una F
n

n=0,1,2,..
-martingala =
(usando el teorema del muestreo opcional) que tambien S
n
(n )
n=0,1,...
es una F
n

n=0,1,2,..
-martingala =
E [S
n
(n )] = 0
o sea que
E (S
n
) = E(n ) (18)
Queremos hacer n +. El segundo miembro tiende a E(). En cuando
al primero, si las variables aleatorias
n
son todas 0, se pasa al lmite en
el primero aplicando el teorema de Beppo Levi y eso prueba (a).
En caso contrario, se aplica el teorema a la sucesion [
n
[
n=1,2,...
en
lugar de
n

n=1,2,...
Si ponemos

S
0
= 0,

S
n
= [
1
[ + ... + [
n
[ (n 1),
resulta entonces
E

= E () <
21
y como [S
n
[

S

n, podemos aplicar el teorema de convergencia domi-


nada para pasar al lmite en el primer miembro de (18).
La demostracion de (b) es similar, teniendo en cuenta que

(S
n
n)
2
n
2

es martingala.
Ejemplo.
Se considera un paseo al azar (p, q). Esto signica que en el ejemplo
anterior, las variables aleatorias independientes de la sucesion
n
tienen
todas la misma distribucion y es la siguiente: P(
n
= 1) = p, P(
n
= 1) =
q, p +q = 1.
Sean ademas a, b dos enteros positivos y
a,b
= min n : S
n
= a o S
n
= b.

a,b
es un tiempo de parada con respecto a la ltracion engendrada por
el proceso.
Entonces:
1. P(
a,b
< ) = 1, lo que signica que la probabilidad de que el proceso
quede eternamente comprendido estrictamente entre las barreras a
y b es igual a cero.
2. Denotamos

a
= P(S

a,b
= a),
b
= P(S

a,b
= b) donde
a
+
b
= 1

a
(resp.
b
) es la probabilidad de que el proceso llegue antes a la
barrera a (resp. b) que a la barrera b )(resp. a).
Entonces:
E(S

a,b
) = a
a
+b(1
a
) = (p q)E(
a,b
)
Esta igualdad resultara del teorema de Wald, una vez que probemos
que
a,b
L
1
, lo cual implicara a su vez la validez de la armacion
hecha en 1.
3. Para el caso en que p = q = 1/2 se deduce que
a
=
b
a+b
.
En el ejemplo anterior, podemos modicar las cosas de modo que los
calculos combinatorios que hacen posible la obtencion de las formulas sin
recurrir al teorema de Wald, resulten muy complicados o imposibles. Por
22
ejemplo, supongamos que en cada paso, el salto del paseo al azar pueda
tomar 3 valores en lugar de 2, a saber 1, 0, 1 y que
P(
n
= 1) = p
n
, P(
n
= 1) = q
n
, P(
n
= 0) = r
n
p
n
+q
n
+r
n
= 1. Ademas, suponemos que inf(p
n
) > 0, inf(q
n
) > 0.
Las formulas anteriores permanecen validas, incluyendo
a
=
b
a+b
cuando
1
n

(p
n
q
n
) 0.
Tambien podemos modicar el teorema de Wald, permitiendo que las
medias de los saltos no sean todas iguales, i.e. E(
n
) =
n
, con las hipotesis

1
+... +
n
n
,

[
1
+... +
n
[
n

acotada
La formula (a) del teorema de Wald permanece valida.
El unico punto que queda pendiente es que
a,b
L
1
. Esto es un caso
particular de la proposicion siguiente, que tiene interes en si misma, por sus
numerosas aplicaciones.
Proposicion.
Sea
n

n=1,2,..
una sucesion de variables aleatorias reales, independi-
entes con igual distribucion F. Suponemos que F no se reduce a un atomo
en el origen. Entonces,
P(lim
n+
[S
n
[ = +) = 1
Mas a un, si P(
1
> 0) > 0 y P(
1
< 0) > 0, entonces P(lim
n+
S
n
=
+, lim
n
S
n
= ) = 1.
Si P(
1
> 0) > 0 y P(
1
< 0) = 0, es inmediato que casi seguramente
S
n
es monotona creciente y tiende a +.
Demostracion.
Basta demostrar que a, b reales, a < b, se tiene P(
a,b
< ) = 1.
Probamos un resultado mas fuerte, que implica que
E

(
a,b
)
k

< k = 1, 2, .. (19)
Sean , > 0 tales que P(
1
) y P(
1
) y tal que
. a +b.
Se tiene:
P(
a,b
> n.)
P

[S

[ < a +b, [S
2
S

[ < a +b, .....,

S
n
S
(n1)

< a +b

= [P ([S

[ < a +b)]
n
= [1 P ([S

[ a +b)]
n
23
Por otra parte,
P (S

a +b) P(
1
, ...,

) = [P(
1
)]

P (S

(a +b)) P(
1
, ...,

) = [P(
1
)]

Por lo tanto,
P(
a,b
> n.)
n
donde 0 < < 1 y depende de la pareja a, b de partida. En conclusion,
P(
a,b
> m)
m
1
(20)
para m m
0
, donde
1
es una nueva constante, 0 <
1
< 1.
Es facil ver que (20) implica (19). En efecto, para cada entero positivo
k,
E

(
a,b
)
k

j=1
P(
a,b
j
1
k
)

j=1
(
1
)

j
1
k

donde [] denota la parte entera. La ultima serie es convergente.


1.5.3 Leyes fuertes de los grandes n umeros para sumas de vari-
ables aleatorias independientes.
Teorema (Kolmogorov). Sea Y
n

n=0,1,...
una sucesion de variables aleato-
rias reales, independientes, con los dos primeros momentos nitos, E(Y
n
) =
0, V ar(Y
n
) =
2
n
.
Si se cumple que

n=1

2
n
n
2
< (21)
entonces se tiene
P

lim
n+
Y
1
+.... +Y
n
n
= 0

= 1 (22)
(en otros terminos, casi seguramente, los promedios
Y
1
+....+Y
n
n
0 cuando
n +).
Demostracion.
Se dene la sucesion de variables aletorias
X
0
= 0, X
n
=
n

j=1
Y
j
j
si n 1
24
y se considera la ltracion F
n
engendrada por el proceso Y
n
.
Es inmediato que X
n

n=0,1,...
es una F
n

n=0,1,...
-martingala y que ver-
ica la parte 1. del teorema de convergencia de martingalas, ya que
E

X
+
n

E ([X
n
[)

X
2
n
1
2
y
E

X
2
n

n=1

2
n
n
2
<
por hipotesis. Por lo tanto, casi seguramente la sucesion de variables aleato-
rias X
n

n=0,1,...
converge, i.e. para casi todo , existe el lim
n+
X
n
y es nito. La conclusion del teorema se sigue del siguiente lema (de
Kronecker).
Lema. Sea y
n

n=1,2,...
una sucesion de n umeros reales y x
n

n=0,1,...
denida mediante
x
0
= 0, x
n
=
n

j=1
y
j
j
si n 1
Entonces, x
n
convergente implica que
y
1
+....+y
n
n
0 cuando n +.
Demostracion. Se tiene que
y
1
+.... +y
n
n
=
(x
1
x
0
) + 2(x
2
x
1
) +.... + (x
n
x
n1
)
n
= x
n

x
1
+.... +x
n1
n
0
ya que la convergencia de la sucesion implica la de los promedios, al mismo
lmite.
Observacion. En el enunciado del teorema anterior, si la esperanza
de las variables aleatorias Y
n
en lugar de ser nula es igual a , entonces la
misma conclusion vale, solo que casi seguramente, es
Y
1
+....+Y
n
n
= . En
efecto, en la demostracion, basta cambiar Y
n
por Y
n
.
A continuacion, probamos una ley fuerte de grandes n umeros para sumas
de variables independientes, en la que no se requiere - como en el teorema
anterior - que los sumandos sean de cuadrado integrable. En cambio, les
pediremos que tengan todos la misma distribucion.
25
Teorema.
Sea Y
n

n=0,1,...
una sucesion de variables aleatorias reales, independi-
entes, con igual distribucion y esperanza nita .
Entonces,
P

lim
n+
Y
1
+.... +Y
n
n
=

= 1 (23)
Demostracion. Basta considerar el caso = 0. Denotamos por F la
funcion de distribucion (com un) de las Y
n
s.
Introducimos la nueva sucesion de variables aleatorias independientes

Y
n
= Y
n
1
{|Y
n
|<n}
.
Probamos:
a) para casi todo , n
0
() tal que si n n
0
() entonces Y
n
() =

Y
n
().
b) denimos
Z
n
=

Y
n

n
con
n
= E(

Y
n
)
Entonces la sucesion Z
n
cumple las hipotesis del teorema anterior, y por
lo tanto, casi seguramente
Z
1
+....+Z
n
n
0 cuando n +.
c)

1
+....+
n
n
0 cuando n + y por lo tanto, tambien casi segura-
mente

Y
1
+....+

Y
n
n
0 cuando n +.
d) a) y c) implica la tesis.
a) es consecuencia del lema de Borel-Cantelli. Se trata de probar que la
serie

n=1
P(

Y
n
= Y
n
) < . Tenemos

n=1
P(

Y
n
= Y
n
) =

n=1
P([Y
n
[ n) =

n=1
P([Y
1
[ n)
Ademas:

n=1
P(Y
1
n)

+
0
P(Y
1
x) dx = E(Y
+
1
) <
Del mismo modo resulta que

n=1
P(Y
1
n) < . Esto prueba a).
Para b) tenemos que vericar que

n=1
V ar(Z
n
)
n
2
< (24)
26
Es claro que V ar(Z
n
) = E(

Y
2
n
)
2
n
E(

Y
2
n
). Por lo tanto:

n=1
V ar(Z
n
)
n
2

n=1
E

Y
2
n
1
{|Y
n
|<n}

n
2
=

n=1
1
n
2

(n,n)
x
2
F(dx)
Integrando por partes:

n=1
1
n
2

n
0
x
2
F(dx)
=

n=1
1
n
2

x
2
[1 F(x)] [
n
0
+ 2

n
0
x[1 F(x)] dx

n=1
1
n
2

n
0
x(1 F(x) dx 2

n=1
1
n
2
n

j=1
j [1 F(j 1)]
= 2

j=1
j [1 F(j 1)]

n=j
1
n
2
(const)

j=1
[1 F(j 1)]
(const)

1 F(0) +

+
0
[1 F(x)] dx

= (const)

1 F(0) +E(Y
+
1
)

<
Analogamente resulta que

n=1
1
n
2

0
n
x
2
F(dx) < . Esto prueba (24).
Falta probar c), que se deduce de
n
0 cuando n +. En efecto

n
= E(

Y
n
) = E(

Y
n
Y
n
) = E

Y
n
.1
{|Y
n
|n}

= E

Y
1
.1
{|Y
1
|n}

que implica
[
n
[ E

[Y
1
[ .1
{|Y
1
|n}

0
en virtud del teorema de Lebesgue de convergencia dominada, ya que Y
1

L
1
y casi seguramente, [Y
1
[ .1
{|Y
1
|n}
0 cuando n +, ya que [Y
1
[ es
nita casi seguramente.
Observacion general. Recordemos que la convergencia fuerte implica
la convergencia en probabilidad, es decir, que si X
n

n=0,1,2,..
es una sucesion
de variables aleatorias tal que casi seguramente lim
n+
X
n
= X

, en-
tonces > 0 se cumple que P([X
n
X

[ ) 0 cuando n +.
Naturalmente, la convergencia en probabilidad es cierta bajo condiciones
mas debiles que aquellas en las que podemos asegurar la convergencia casi
segura.
27
No habremos de extendernos sobre este punto, pero habra de ocurrir
que probemos convergencia en probabilidad directamente. Por ejemplo, es
inmediato que si X
n
X

en L
p
para alg un p > 0, entonces X
n
X

en
probabilidad, ya que
P([X
n
X

[ )
1

p
E ([X
n
X

[
p
) .
28
2 Convergencia debil de medidas de probabilidad
en 1.
2.1 Denicion y primeras propiedades.
En lo que sigue, todas las medidas de probabilidad son medidas de Borel en
1
1
. Con frecuencia haremos el abuso de notacion de llamar a las medidas
y a sus funciones de distribucion, con la misma letra.
En lo que sigue, para simplicar la exposicion, denominaremos medidas
de probabilidad a las medidas de Borel F tales que la medida de todo el
espacio F(1) es menor o igual que 1. Si F(1) = 1, diremos que F es una
medida de probabilidad propia y si F(1) < 1, diremos que es defectiva.
Asimismo, si I es el intervalo (a, b] en la recta, la notacion F(I) es, como es
habitual, la medida del intervalo semiabierto (a, b] o tambien F(b) F(a),
donde ahora llamamos F a la funcion de distribucion.
Denicion 1. Sea F
n

n=01,2,...
y F respectivamente, una sucesion de
medidas y una medida en la recta. Diremos que F
n
converge debilmente
a F (notacion: F
n
= F) si F
n
(I) F(I) para todo intervalo I en cuyos
extremos la funcion F es continua.
Denicion 2. Sea F
n

n=01,2,...
una sucesion de medidas de probabilidad
propias. Diremos que la convergencia debil de F
n
a F es propia, si F es
propia.
Ejemplos.
1. Sea F
n
=
x
n
(n = 1, 2, ...), donde
a
denota la medida de Dirac en el
punto a de la recta real, es decir que
a
(a) = 1 y
a
(1` a) = 0.
Entonces, x
n
x implica que
x
n

x
.
2. Sea : 1 1
+
una funcion Borel-medible,

+

(x)dx = 1.
Se dene la sucesion de medidas de probabilidad F
n
(dx) =
1
a
n

x
a
n

dx,
donde a
n
0.
Entonces, F
n
=
0
.
29
3. Sea F
n
(dx) = f
n
(x)dx, donde la sucesion f
n
es de funciones no-
negativas,

+

f
n
(x)dx = 1 n.
Si f
n
f, uniformemente en cada compacto de 1, entonces F
n
=
F, donde F(dx) = f(x)dx.
4. Sea F
n
(dx) = 1
{n,n+1}
(x) dx. Entonces F
n
= 0, donde 0 indica la
medida identicamente nula.
Propiedades basicas.
1. F
n
= F implica que F(1) 1.
2. F
n
= F si y solo si f C
0
(1) se cumple que

R
f dF
n

R
f dF.
(C
0
(1) denota el espacion de las funciones de 1 en 1, continuas y
que tienen lmite cero en + y en ).
3. F
n
= F propia, si y solo si f C
b
(1) se cumple que

R
f dF
n

R
f dF.
(C
b
(1) denota el espacion de las funciones de 1 en 1, continuas y
acotadas).
4. F
n
= F propia, si y solo si, F
n
(x) F(x) para todo x de continuidad
de F y F(1) = 1.
5. Sea F
n

n=01,2,...
una sucesion de medidas de probabilidad. Entonces,
siempre existe una subsucesion que converge debilmente.
Demostraciones.
1. inmediato
2. Supongamos que F
n
= F.
La funcion de distribucion F es monotona creciente (en sentido am-
plio); por lo tanto el conjunto D = x : F no es continua en x es
numerable.
Sea f C
0
(1). Dado > 0 se puede encontrar una funcion en escalera:
g

(x) =
m

i=1
f(a
i
)1
(a
i
,b
i
]
(x)
30
que verica que los puntos a
i
, b
i
(i = 1, ..., m) son puntos de con-
tinuidad de F, a
1
< b
1
= a
2
< b
2
= ... = a
m
< b
m
y que ademas
|f g

<
donde |h|

= sup
xR
[h(x)[.
Por lo tanto:

R
f dF
n

R
f dF

R
[f g

[ dF
n
+

R
[f g

[ dF +

R
g

dF
n
.

R
g

dF

2. +

R
g

dF
n
.

R
g

dF

= 2. +
m

i=1
f(a
i
) [F
n
((a
i
, b
i
]) F ((a
i
, b
i
])]
Haciendo n +, cada termino en la suma tiende a cero, de modo
que lim
n+

R
f dF
n

R
f dF

2.. Como > 0 es arbitrario,


eso prueba que lim
n+

R
f dF
n

R
f dF

= 0.
Recprocamente, supongamos que f C
0
(1) se cumple que

R
f dF
n

R
f dF y sea I = (a, b] con a, b puntos de continuidad de F.
Para > 0 dado, elegimos > 0 de tal modo que
F(a +) F(a), F(a) F(a ), F(b +) F(b), F(b) F(b )
sean todos <.
Consideremos las dos funciones continuas f y g (con graco trape-
zoidal) denidas de la manera siguiente:
f vale 1 en [a, b], vale 0 en [a , b +]
C
y su graco es un seg-
mento de recta en los intervalos [a , a] y [b, b +] .
g vale 1 en [a +, b ], vale 0 en [a, b]
C
y su graco es un seg-
mento de recta en los intervalos [a, a +] y [b , b] . Entonces,
dado que
g(x) 1
I
(x) f(x) x 1
se sigue que

R
g dF
n
F
n
(I)

R
f dF
n
(25)
31
Es obvio que f, g C
0
(1) y que, por lo tanto, el primer miembro
y el tercero de (25) tienden respectivamente a

R
g dF F(I) 2
e

R
f dF F(I) + 2
Esto prueba que lim
n+
[F
n
(I) F(I)[ 2 y termina la prueba
de la propiedad 2.
3. Probemos previamente la propiedad siguiente, que tiene interes en si
misma:
F
n
= F propia, si y solo si (a) F
n
= F y (b) > 0 A tal que
F
n
(x : [x[ > A) < n.
En efecto, supongamos que F
n
= F propia. Se trata de probar (b).
Dado > 0, elegimos A
1
> 0, de modo que A
1
y A
1
sean ambos
puntos de continuidad de F y sucientemente grande como para que
F(A
1
) F(A
1
) > 1

2
lo cual es posible porque F es propia. Entonces, como hay convergencia
debil, F
n
(A
1
) F
n
(A
1
) F(A
1
) F(A
1
) y n
0
tal que F
n
(A
1
)
F
n
(A
1
) > 1 n n
0
. Para que F
n
(A) F
n
(A) > 1 se
cumpla para todo n, basta con elegir A > A
1
y ademas sucientemente
grande para vericarla para n = 1, ..., n
0
1. Finalmente, notar que
F
n
(x : [x[ > A) 1 [F
n
(A) F
n
(A)].
Recprocamente, supongamos que se cumplen (a) y (b). Si elegimos
en (b) A > 0 de modo que A y A sean puntos de continuidad de
F, podemos pasar al lmite en F
n
(x : [x[ A) > 1 , obteniendo
F(1) F (x : [x[ A) > 1 . Esto prueba que F(1) = 1.
Probemos ahora la propiedad 3. Supongamos que se cumple que
F
n
= F propia y sea > 0. Sea A > 0 punto de continuidad de
F tal que F
n
(A) F
n
(A) > 1 n y construimos una funcion
continua (cuyo graco es trapezoidal) g
A
: 1 [0, 1], que vale 1 en
el intervalo [A, A] , 0 fuera de alg un intervalo de la forma [B, B] ,
con B > A, y tiene por graco un segmento de recta en los intervalos
[B, A] y [A, B] .
32
Sea f C
b
(1). Es claro que f.g
A
C
0
(1) y se tiene:

R
f dF
n

R
f dF

R
f g
A
dF
n

R
fg
A
dF

R
f (1 g
A
)dF
n

R
f (1 g
A
)dF

R
f g
A
dF
n

R
fg
A
dF

+ 2.. |f|

Haciendo n +, el primer termino del ultimo miembro tiende a


cero, y resulta lim
n+

R
f dF
n

R
f dF

2.. |f|

.
Recprocamente, si f C
b
(1) se cumple que

R
f dF
n

R
f dF,
es claro que se cumple la denicion de convergencia debil y tomando
f = 1, resulta que F es propia.
4. A cargo del lector.
5. El lector que conozca la dualidad en los espacios de Banach, recono-
cera un caso particular del teorema de Banach-Alaoglou. Damos una
demostracion directa mas elemental, basada en el proceso diagonal de
Cantor.
Como para cada x, F
n
(x) es una sucesion acotada de n umeros reales,
podemos construir una subsucesion F
n
k
con la propiedad de que
F
n
k
(x) converge cuando k + para todo racional x. Sea

F(x) =
lim
k+
F
n
k
(x) (x O) y denamos F(x) = inf

F(y) : y > x, y O

.
Se verica que F es creciente en sentido amplio y continua por la
derecha y que F
n
k
= F.
2.2 Transformada de Fourier (funcion caracterstica) de me-
didas de probabilidad en R
1
.
Sea una medida de probabilidad boreliana en 1, posiblemente defectiva.
Se dene su transformada de Fourier (o funcion caracterstica), : 1 1
mediante
(t) =

R
exp(itx) (dx).
Si es la distribucion de probabilidad de una variable aleatoria real di-
remos - por extension - tambien que es la transformada de Fourier (o la
funcion caracterstica) de y denotaremos =

.
33
2.2.1 Propiedades basicas y ejemplos.
1. (0) = (1), [(t)[ (1) 1 t 1.
2. es uniformemente continua.
3. Si a, b son constantes reales y es una variable aleatoria real, entonces

a+b
= exp(itb)

(at)
4. Si , son variables aleatorias independientes, entonces
+
(t) =

(t).

(t)
5. Ejemplos.
con distribucion normal (0, 1) =

(t) = exp(
t
2
2
).
con distribucion uniforme en el intervalo (1, 1) =

(t) =
sen t
t
.
con distribucion de Cauchy (i.e., con densidad
1
(1+x
2
)
) =

(t) = exp([t[).
con distribucion de Poisson con parametro > 0 =

(t) =
exp

(1 e
it
)

.
con densidad
1cos x
x
2
=

(t) = (1 [t[) 0.
6. Unicidad, continuidad, inversion.
La identidad fundamental es la formula de Parseval (pars).
Sean F, G distribuciones de probabilidad en la recta y , sus respec-
tivas transformadas de Fourier.Entonces t 1 :

e
it
() G(d) =

(x t) F(dx) (26)
La demostracion es inmediata, mediante aplicacion del teorema de
Fubini.
Teorema (unicidad).F = G si y solo si (t) = (t) t 1.
Demostracion. Es facil ver que basta considerar el caso en que ambas
distribuciones son propias.
Aplicamos (26) tomando para G la distribucion normal (0,
2
), con lo
cual (t) = exp(

2
t
2
2
).Entonces
1
2

e
it
() exp


2
2
2

d =

2
exp

2
(x t)
2
2

F(dx)
(27)
34
Sean ,

dos variables aleatorias independientes, con distribucion


F y

con distribucion normal (0,


2
). El segundo miembro de (27)
es la densidad de la variable aleatoria +
1/
.
Por lo tanto, si a, b son puntos de continuidad de F, se verica que
1
2

b
a
dt

e
it
() exp


2
2
2

d
=

b
a
dt

2
exp

2
(x t)
2
2

F(dx) = P( +
1/
[a, b])
= P( [a, b]).
cuando +, porque
1/
0 en L
2
.
Es decir que determina los incrementos de F en todos los intervalos
cuyos extremos son puntos de continuidad de F, y por lo tanto, en
todos los intervalos. Esto prueba que determina a F completamente
y, al mismo tiempo, da una formula de inversion (calculo de F a partir
de ), que por el momento no es muy comoda y es la siguiente.
F(b) F(a) = lim
+
1
2

b
a
dt

e
it
() exp


2
2
2

d (28)
para a, b, a < b, puntos de continuidad de F. En particular, si L
1
,
se deduce que F tiene densidad continua f y que esta se calcula
mediante la formula (mas agradable):
f(x) =
1
2

e
ix
() d (29)
En efecto, vericar que si L
1
, entonces se puede pasar al lmite
bajo el signo integral en (28) aplicando el teorema de convergencia
dominada y resulta
F(b) F(a) =
1
2

b
a
dt

e
it
() d
para a, b, a < b, puntos de continuidad de F y, por lo tanto, para toda
pareja a, b. Esto prueba que F es absolutamente continua con respecto
a la medida de Lebesgue y que la densidad esta dada por (29).
Teorema (Levy-Cramer). Sea F
n

n=1,2,...
una sucesion de dis-
tribuciones de probabilidad propias en 1
n

n=1,2,...
la sucesion de
las transformadas de Fourier respectivas.
35
Entonces, F
n
= F (propia) si y solo si
n

n=1,2,...
converge pun-
tualmente y la funcion lmite es continua en t = 0. En ese caso, es
la transformada de Fourier de F y
n
converge uniformemente en
cada compacto.
Demostracion.
Supongamos que F
n
= F (propia). Como la funcion x exp (itx) =
e
t
(x) es continua y acotada, se deduce que para cada t 1:

n
(t) =

exp(itx) F
n
(dx)

exp(itx) F(dx) = (t) (30)


y tambien es la transformada de Fourier de F.
Como ademas, si I es un intervalo compacto de la recta, la familia de
funciones e
t
(.)
tI
es equicontinua, se deduce que la convergencia en
(30) es uniforme en cada compacto y es continua (probar cada una
de estas armaciones!).
Probemos el recproco, es decir, ahora supondremos que
n

n=1,2,...
converge puntualmente y la funcion lmite es continua en t = 0.
Seg un hemos visto, toda sucesion de distribuciones contiene una sub-
sucesion que converge debilmente. Por lo tanto, para probar que F
n

converge debilmente, alcanzara con probar que todas las subsucesiones


de ella que convergen debilmente, tienen el mismo lmite, en cuyo caso,
este sera el lmite debil de la sucesion entera.
Sea entonces F
n
k
una subsucesion que converge debilmente y F
n
k
=
F

(observese que, a priori, F

podra ser defectiva). Veremos que F

es independiente de cual es la subsucesion considerada y, mas a un,


que F

es propia y que tiene a la funcion lmite por transformada


de Fourier.
Aplicamos la igualdad (27), reemplazando F por F
n
k
y por
n
k
.
Poniendo t = 0, se obtiene:
1
2

n
k
() exp


2
2
2

d =

2
exp

2
x
2
2

F
n
k
(dx)
En el segundo miembro, el integrando pertenece a C
0
(1) por lo tanto,
podemos pasar al lmite cuando k + reemplazando F
n
k
por F

.
En el primer miembro, podemos aplicar el teorema de convergencia
dominada, ya que
n
k
() () para cada y el valor absoluto del
36
integrando esta acotado por exp


2
2
2

, que esta en L
1
(1). Por lo
tanto,
1

() exp


2
2
2

d =

exp

2
x
2
2

(dx)
(31)
Hacemos ahora 0. El segundo miembro tiende a F

(1), usando el
teorema de Beppo Levi.
Como es continua en = 0, dado > 0 podemos elegir > 0, de
modo que [[ < = [() 1[ < (notar que (0) = 1).
Entonces:

() exp


2
2
2

d 1

[() 1] exp


2
2
2

+
2

||
exp


2
2
2

d
= + 2.P([[ )
donde es una variable aleatoria normal (0, 1). Se deduce que el primer
miembro de (31) tiende a 1 cuando 0. Por lo tanto F

(1) = 1.
Pero entonces, la convergencia F
n
k
= F

es propia y podemos apli-


carle el directo de este mismo teorema, es decir que

n
k

converge
puntualmente a la transformada de Fourier de F

. Pero, por hipotesis,

n
k

converge puntualmente a la funcion , de modo que no es


otra que la transformada de Fourier de F

y por la vista unicidad, F

no depende de la subsucesion. Esto termina la demostracion.


7. Propiedades complementarias de las transformadas de Fourier
de medidas de probabilidad.

[x[
m
F(dx) < para un cierto natural m = es de clase C
m
y

(m)
(t) =

(ix)
m
exp(itx)F(dx).
Se deduce que si F es la distribucion de probabilidad de una variable
aleatoria , entonces

(m)
(0) = i
m
E (
m
)
37
En particular, si E

< , entonces

(0) = i.E() y (0) =


E(
2
).
Para probar esto, proceder progresivamente para m = 1, 2, ..., escribi-
endo el cociente incremental y pasando al lmite mediante aplicacion
del teorema de convergencia dominada.
Utilizar la desigualdad (cuya demostracion tambien queda a cargo del
lector), valida para m = 0, 1, 2, ... y t real:

e
it

1 +
it
1!
+
(it)
2
2!
+.... +
(it)
m
m!


[t[
m+1
(m+ 1)!
(32)
Una manera de probar esta desigualdad es observar que si g
m
(t) es la
expresion cuyo modulo gura en el primer miembro, entonces:
g
m
(t) = i

t
0
g
m1
(s) ds si m 1, g
0
(t) = i

t
0
e
is
ds
Un recproco de la propiedad anterior para m = 2.
Si

(0), entonces

+

x
2
F(dx) < .
Para probar esto, escribir = u +iv, u, v reales. Se tiene:
1 u(h)
h
2
=

1 cos(hx)
h
2
x
2
x
2
F(dx)
Usando que u

(0) = 0 y el teorema del valor medio (0 < < 1):

1 u(h)
h
2

(h)
h

(h)
h

(0)

cuando h 0.
Aplicando el lema de Fatou:
1
2

x
2
F(dx) lim
h0

1 cos(hx)
h
2
x
2
x
2
F(dx)

(0)

Esto prueba la armacion.


(Lema de Riemann-Lebesgue).
f L
1
, (t) =

R
exp(itx) f(x) dx = (t) 0 cuando [t[ +.
38
(Formula de Plancherel).
Sea L
2
la transformada de Fourier de la densidad f. Entonces

f
2
(x)dx =
1
2

[(t)[
2
dt.
Para probar esto, observar que [(t)[
2
es la transformada de Fourier
de la densidad g(x) =

+

f(x y)f(y)dy y aplicar la formula de


inversion (en x = 0): g(0) =
1
2

[(t)[
2
dt.
Mas a un, el lector vericara que si L
2
es la transformada de
Fourier de una medida de probabilidad , entonces es absoluta-
mente continua con respecto a la medida de Lebesgue y su densidad
f verica lo anterior. Para esto, sea Y una variable aleatoria real,
con distribucion de probabilidad y una variable aleatoria con dis-
tribucion normal (0, 1), independiente de Y . Escribir la densidad f

de la variable aleatoria Y + , donde > 0 y luego pasar al lmite


cuando 0.
(Propiedades aritmeticas).
Sea la transformada de Fourier de una distribucion de probabilidad
propia F.
Entonces hay tres posibilidades mutuamente excluyentes:
(a) [(t)[ < 1 t = 0.
(b) [(t)[ = 1 t 1 y en ese caso F =
{b}
para alg un b 1.
(c) > 0 tal que [()[ = 1 y [(t)[ < 1 t (0, ) y en ese caso,
es periodica de perodo y un n umero real b tal que F(x + b) es
la distribucion de una medida concentrada en los puntos de la forma

m : m entero

.(estas medidas se llaman aritmeticas, estan con-


centradas en los puntos de una progresion aritmetica).
Para probar esto, supongamos que [(t
0
)[ = 1 para alg un t
0
> 0. Sea
(t
0
) = exp(ib), a real. Entonces (t) = exp(ib).(t) es tambien la trans-
formada de Fourier de una distribucion de probabilidad (observar que si
es la transformada de Fourier de la variable aleatoria , entonces lo es de
b). Entonces:
0 = 1 (t
0
) = Re [1 (t
0
)] =

[1 cos(t
0
x)]

F(dx)
lo cual solo es posible si

F esta concentrada en los puntos de la forma

2
t
0
m : m entero

. Notar que

F(x) = F(x+b). Pero entonces es periodica
de perodo t
0
y lo mismo vale para .
39
Si el conjunto C = t : [(t)[ = 1, t > 0 no es vaco, sea = inf(C). Si
= 0, resulta periodica con perodos positivos arbitrariamente peque nos,
y como es continua, es constante e igual a 1.
Si > 0 estamos en el caso (c).
2.3 Teorema del Lmite Central 1.
Teorema. Sea
n

n=1,2,...
una sucesion de variables aleatorias independi-
entes con igual distribucion F.
Suponemos que E(
n
) = , V ar(
n
) =
2
.
Se dene: S
0
= 0, S
n
=
1
+... +
n
(n 1).
Entonces,
S
n
n

n
= N(0, 1) cuando n +
(es decir que la distribucion de las sumas parciales normalizadas
S
n
n

n
converge debilmente a la distribucion normal tpica).
Demostracion. Sea F
n
la distribucion de probabilidad de
S
n
n

n
y
(resp.
n
) la transformada de Fourier de =

1

(resp. F
n
). Notar que
E() = 0 y E(
2
) = 1 y, por lo tanto, () = 1
1
2

2
+o(
2
) cuando 0.
Aplicando el teorema de Levy-Cramer bastara probar que

n
(t) exp(
t
2
2
)
cuando n +, ya que exp(
t
2
2
) es la transformada de Fourier de la
distribucion normal tpica.
Usando las propiedades vistas de la transformada de Fourier, se verica
que:

n
(t) =

n
=

1
t
2
2n
+o

t
2
2n

n
exp(
t
2
2
) cuando n +
.
2.4 Teorema del Lmite Central 2.
Teorema de Lindeberg.
Sea
k

k=1,2,...
una sucesion de variables aleatorias independientes. De-
notamos por F
k
(resp.
k
) la funcion de distribucion (resp. la transformada
de Fourier) de
k
. Suponemos que E(
k
) = 0, V ar(
k
) =
2
k
< .
40
Se dene: S
0
= 0, S
n
=
1
+ ... +
n
(n 1) y denotamos V
n
=
[V ar(S
n
)]
1
2
=

n
k=1

2
k
1
2
.
Entonces, si se cumple la condicion (llamada de Lindeberg):
> 0,
n
() =
1
V
2
n
n

k=1
E

2
k
1
{|
k
|V
n
}

0 cuando n + (33)
entonces
S
n
V
n
= N(0, 1) cuando n +
Demostracion.
La demostracion consiste en aplicar el teorema de Levy Cramer, probando
que la transformada de Fourier de
S
n
V
n
converge puntualmente a exp(
t
2
2
),
que es la trasformada de Fourier de la distribucion normal tpica.
Fijemos entonces t 1 para el resto de la demostracion.
Usando las hipotesis sobre F
k
, se tiene, usando (32) y la denicion
de
n
()

t
V
n

exp

itx
V
n

1
itx
V
n

F
k
(dx)

exp

itx
V
n

1
itx
V
n

F
k
(dx)

1
2

tx
V
n

2
F
k
(dx) =
t
2

2
k
2V
2
n

t
2
2

2
+
n
()

Como > 0 se puede elegir de manera arbitraria, la condicion de Lindeberg


implica que
sup
1kn

t
V
n

0 cuando n +. (34)
Por lo tanto, si n es sucientemente grande, esta bien denida la rama
principal de log

t
V
n

k = 1, ..., n y podemos escribir la transformada


de Fourier de
S
n
V
n
mediante:
S
n
V
n
(t) =
S
n
(
t
V
n
) =
n

k=1

k
(
t
V
n
) = exp

k=1
log

k
(
t
V
n
)

41
En lo que sigue, probamos que el exponente tiende a
t
2
2
cuando n
+.
Primero, de aqu en adelante, elegimos n sucientemente grande de modo
que
sup
1kn

t
V
n

<
1
2
lo cual es posible en virtud de (34). Por lo tanto, k = 1, ..., n podemos
escribir el desarrollo de Taylor
log

k
(
t
V
n
)

1
k
(
t
V
n
)

+A(k, n, t)

1
k
(
t
V
n
)

2
donde A(k, n, t) esta acotado por una constante universal. Entonces
n

k=1
log

k
(
t
V
n
)

=
n

k=1

1
k
(
t
V
n
)

+A(k, n, t)

1
k
(
t
V
n
)

Usando las cotas anteriores,


n

k=1

1
k
(
t
V
n
)

1
2
t
2

sup
1kn

2
k
V
2
n

k=1

1
k
(
t
V
n
)

Asimismo, desarrollando por Taylor y usando la hipotesis sobre la dis-


tribucion F
k
:
1
k
(
t
V
n
) =
t
2

2
k
2V
2
n
R
k,n
y reemplazando:
n

k=1

1
k
(
t
V
n
)

=
1
2
t
2
+
n

k=1
R
k,n
n

k=1

1
k
(
t
V
n
)


1
2
t
2
+
n

k=1
[R
k,n
[
Si probamos que
n

k=1
[R
k,n
[ 0 cuando n + (35)
42
resulta entonces la tesis con un calculo elemental de lmites. Para esto,
jemos > 0. Tenemos:
[R
k,n
[ =

exp

itx
V
n

1
itx
V
n

1
2

itx
V
n

F
k
(dx) [S
k,n
[ +[T
k,n
[
donde S
k,n
=

|x|V
n
y T
k,n
=

|x|<V
n
.
Para el primer termino:
[S
k,n
[

|x|V
n

exp

itx
V
n

1
itx
V
n

+
1
2

tx
V
n

F
k
(dx)

t
2
V
2
n

|x|V
n
x
2
F
k
(dx)
aplicando la desigualdad (32) para m = 2.
Para el segundo termino, aplicamos la misma desigualdad para m = 3 :
[T
k,n
[

|x|<V
n

1
3!
t
3
x
3
V
3
n

F
k
(dx)

1
3!
[t[
3

|x|<V
n
x
2
V
2
n
F
k
(dx)
1
3!
[t[
3

2
k
V
2
n
Resumiendo,
n

k=1
[R
k,n
[
t
2
V
2
n
n

k=1

|x|V
n
x
2
F
k
(dx) +
1
3!
[t[
3
= t
2

n
() +
1
3!
[t[
3

lo que implica, en razon de la condicion de Lindeberg:


lim
n+
n

k=1
[R
k,n
[
1
3!
[t[
3

Como t es jo y > 0 es arbitrario, se sigue el resultado.


2.4.1 Recproco parcial del Teorema de Lindeberg.
Teorema.
Sea
k

k=1,2,...
una sucesion de variables aleatorias independientes. Suponemos
que E(
k
) = 0, V ar(
k
) =
2
k
< y usamos la misma notacion que en el
teorema anterior.
43
Si se verica que
S
n
V
n
= N(0, 1) cuando n +
y ademas

n
V
n
0 y V
n
+, entonces se cumple la condicion de Lindeberg
(33).
Demostracion.
Primero, probar que
sup
1kn

2
k
V
2
n
0 cuando n +
y deducir de aqu (mediante calculos iguales a los de la demostracion del
teorema de Lindeberg) que
n

k=1
log

k
(
t
V
n
)

+
n

k=1

1
k
(
t
V
n
)

0 cuando n +
El primer termino tiende a
t
2
2
, de modo que tomando partes reales, se
tiene, para > 0 y t jos, que
t
2
2

n

k=1

|x|<V
n

1 cos(
tx
V
n
)

F
k
(dx)
=
n

k=1

|x|V
n

1 cos(
tx
V
n
)

F
k
(dx) +o(1)
cuando n +. En el segundo miembro, el integrando esta acotado por
2x
2

2
V
2
n
y en el primer miembro, el integrando esta acotado por
t
2
x
2
2V
2
n
. Dividiendo
por
t
2
2
resulta que

n
()
4

2
t
2
+o(1)
Como se puede elegir t arbitrariamente grande, esto prueba que
n
() 0.
2.4.2 Condicion de Liapunov.
Sea
m
,k
= E ([
k
[

)
El momento de orden de la k-esima variable de la sucesion de sumandos
dada.
44
La condicion de Liapunov es que
> 2 tal que m
,k
< k y ademas
n

k=1
m
,k
= o(V

n
) cuando n +
(36)
El lector podra comprobar que la condicion de Liapunov implica la
condicion de Lindeberg y, por lo tanto, que se cumple el Teorema del Lmite
Central.
En muchas situaciones, es mas comodo vericar la condicion de Liapunov
que la de Lindeberg.
2.5 Teorema del Lmite Central 3. Martingalas.
En esta seccion, demostraremos un Teorema del Lmite Central de tipo
Lindeberg, pero para sumas parciales de variables que no tienen porque ser
independientes, con tal que esas sumas parciales sean una martingala. Esto
abre un extenso captulo relativo a la convergencia debil de las distribuciones
de las sumas parciales de variables dependientes, del que solamente daremos
el resultado contenido en esta seccion.
Teorema (del Lmite Central para Martingalas).
Sea M
n

n=0,1,2,...
una martingala de cuadrado integrable con respecto
a la ltracion F
n

n=0,1,2,...
.
Para cada n = 0, 1, 2, ... ponemos
n
= M
n+1
M
n
y
2
n
= E

2
n
/F
n

.
Suponemos ademas que existe una constante positiva K tal que E

[
n
[
3
/F
n


K n.
Denotamos por 'M`
n
=

n1
k=0

2
k
el compensador de la submartingala

M
2
n

n=0,1,2,...
.
Entonces, si la sucesion de variables aleatorias

1
n
'M`
n

converge en
probabilidad a la constante
2
> 0, se cumple que
1

n
M
n
= N(0,
2
)
Demostracion. Es inmediato que no hay inconveniente en suponer que
M
0
= 0.
Del mismo modo, alcanza con considerar el caso K = 1 (si no es as,
multiplicar la martingala por una constante apropiada).
Observemos ademas que, usando la desigualdad de Jensen para esperan-
zas condicionales, es

3
n
=

E

2
n
/F
n
3
2
E

[
n
[
3
/F
n

1
45
de modo que 0
n
1 n y por lo tanto, tambien se cumple que 0
1
n
'M`
n
1 n.
Aplicamos el teorema de Levy-Cramer y por lo tanto, basta probar que
para cada t 1 jo, se verica:
lim
n+
E

exp

it
M
n

n
+
t
2

2
2

= 1. (37)
Para probar (37), veamos que existe una constante universal K
1
tal que
t [1, 1] se verica
E

exp

itM
n
+
t
2
'M`
n
2

= 1 +v
n
con [v
n
[ nK
1
t
3
exp(nt
2
) (38)
Reemplazando en (38) t por
t

n
resulta que para cada t 1 :
lim
n+
E

exp

it
M
n

n
+
t
2
'M`
n
2n

= 1
y (37) resulta de
E

exp

t
2

2
2

exp

t
2
'M`
n
2n

0 cuando n +.
Esto ultimo se deduce, a su vez, de que para t jo,
Z
n
(t) =

exp

t
2

2
2

exp

t
2
'M`
n
2n

tiende a cero en probabilidad y que la sucesion de variables aleatorias Z


n
(t)
esta acotada uniformemente por la constante exp(
t
2
2
), de modo que es posible
aplicar el teorema de convergencia dominada.
De modo que se trata de probar (38).
Para ello, usamos la formula de Taylor para probar que si x, t R,
y [0, 1], entonces
f(t) = exp

itx +t
2
y

= 1 +itx
t
2
x
2
2
+t
2
y +R(t, x, y) (39)
donde [R(t, x, y)[ K
2
(1 +[x[
3
)t
3
exp(t
2
).
[

Este es un calculo inmediato, ya que f

(t) = (ix + 2ty)f(t), f

(t) =

(ix + 2ty)
2
+ 2y

f(t), f

(t) =

(ix + 2ty)
3
+ 6y(ix + 2ty)

f(t)]
Fijemos t 1 en lo que sigue.
46
Sean:
Y
n
= exp

itM
n
+
t
2
'M`
n
2

Z
n
= exp

it
n
+
t
2

2
n
2

de modo que Y
n+1
= Y
n
Z
n
. Usando (39) y teniendo en cuenta las hipotesis:
E (Y
n+1
/F
n
) = Y
n
E (Z
n
/F
n
)
= Y
n

1 +it
n

t
2
2

2
n

2
n
+

+R(t,
n
,
2
n
)/F
n

= Y
n

1 +E

R(t,
n
,
2
n
)/F
n

= Y
n
[1 +
n
]
donde [
n
[ 2K
2
t
3
exp(t
2
).
Ponemos ahora K
1
= 2K
2
y probamos (38) por induccion completa en
n.
Observar que
1 +v
n+1
= E (Y
n
[1 +
n
]) = 1 +v
n
+E(Y
n

n
)
y que [Y
n
[ exp

t
2
n
2

. Por lo tanto, admitiendo la desigualdad para n :


[v
n+1
[ nK
1
t
3
exp(nt
2
) + exp

t
2
n
2

K
1
t
3
exp(t
2
) (n + 1)K
1
t
3
exp(nt
2
)
Esto prueba (38) y, por lo tanto, concluye la demostracion.
Ejemplo. Sea
k

k=1,2,...
una sucesion de variables aleatorias indepen-
dientes, que supondremos uniformemente acotadas por una cierta constante
C y S
n
=
1
+... +
n
(n 1).
Suponemos que E(
k
) = = 0, V ar(
k
) = 1.
Consideremos la sucesion M
n
, denida por:
M
1
= S
1
, M
n
= M
n1
+
1
n 1
S
n1
(
n
) para n 2 (40)
Es inmediato vericar que M
n

n=1,2,...
es una martingala con respecto
a la ltracion engendrada por la sucesion
k
. Dado que la sucesion

S
n
n

es acotada por la constante C, se deduce que E

[
n
[
3
/F
n

C
4
.
47
Por otra parte,

2
n
= E

2
n
/F
n

= E

S
n
n

2
(
n
)
2
/F
n

S
n
n

2
En virtud de la ley fuerte de los grandes n umeros, casi seguramente
S
n
n

cuando n +. Por lo tanto
1
n
'M`
n
=
1
n

n
k=1

2
k

2
> 0 y el teorema
anterior implica que
1

n
M
n
= N(0,
2
).
No parece obvio reducir este tipo de resultado a las sumas de variables
aleatorias independientes.
Observese ademas que este ejemplo se puede extender de varias maneras,
a modelos mas generales, en los que se obtiene un resultado similar.
Por ejemplo, si en lugar de (40) se pone
M
1
= S
1
, M
n
= M
n1
+H

S
n1
n 1

(
n
) para n 2 (41)
y en lugar de la condicion = 0 ponemos H() = 0, se obtiene el mismo
resultado, cambiando
2
por [H()]
2
.
Las ecuaciones de recurrencia (40) o (41) son casos particulares de mod-
elos autorregresivos no lineales, en los que el estado del sistema en el in-
stante n se obtiene a partir del estado en el instante n 1 mas una pertur-
bacion aleatoria.

Esta ultima contiene al ruido o innovacion (
n
) -
independiente de lo ocurrido hasta el instante anterior - amplicado por una
funcion del pasado (que en algunos contextos se denomina la volatilidad),
que para el ejemplo es de la forma H

S
n1
n1

, pero que podra ser distinta.


2.6 Velocidad de convergencia. Teorema de Berry-Essen.
Existe una gran variedad de teoremas que permiten estimar la velocidad de
convergencia en el Teorema del Lmite Central y otros resultados relaciona-
dos. Nos limitamos aqu a un solo resultado. Por mayores detalles, se puede
consultar, por ejemplo, el libro de V. Petrov.
Teorema (Berry-Essen). Sea
n

n=1,2,...
una sucesion de variables
aleatorias independientes con igual distribucion F, E(
n
) = 0, V ar(
n
) =

2
< .
Como antes, S
0
= 0, S
n
=
1
+... +
n
(n 1).
Suponemos ademas que
3
= E([
n
[
3
) <
48
Sea F
n
la funcion de distribucion de probabilidad de
S
n

n
y la funcion
de distribucion normal tpica, i.e.
F
n
(x) = P(
S
n

n
x) y (x) =
1

exp(
y
2
2
) dy
Entonces,
sup
xR
[F
n
(x) (x)[
33
4

n
La demostracion esta basada en el Lema siguiente.
Lema. Sea F la distribucion de probabilidad de una variable aleatoria
a valores en 1 y su transformada de Fourier.
Sea G : 1 1 una funcion de clase C
1
, G() = 0, G(+) = 1, G

=
g, |g|

m. Denotamos por la transformada de Fourier de g, i.e., (t) =

exp(itx)g(x)dx que suponemos bien denida y, ademas, C


1
, (0) =
1,

(0) = 0.
Entonces, para todo T > 0 :
sup
xR
[F(x) G(x)[
1

T
T

(t) (t)
t

dt +
24.m
T
(42)
Demostracion.
Paso 1. Sean w
1
la funcion (de Slepian)
w
1
(t) = (1 [t[) 0
y para T > 0,
w
T
(t) = w
1

t
T

w
T
es la transformada de Fourier de la medida de probabilidad
T
cuya
densidad es
v
T
(x) =
1 cos(Tx)
Tx
2
.
Sean f
T
, g
T
las densidades de las convoluciones F
T
=
T
F y G
T
=
T
G
respectivamente y
T
,
T
sus transformadas de Fourier. Se tiene

T
= w
T
.
T
= w
T
.
49
y usando la formula de inversion:
f
T
(x) g
T
(x) =
1
2

exp (ixt) [(t) (t)] w


T
(t) dt (43)
De aqu se deduce la igualdad:
F
T
(x) G
T
(x) =
1
2

exp (ixt)
(t) (t)
it
w
T
(t) dt (44)
ya que derivando ambos miembros de (44) se obtiene ambos miembros de
(43) respectivamente, y ademas, ambos miembros de (44) se anulan en :
el primero por denicion de las funciones de distribucion y el segundo en
virtud del Lema de Riemann-Lebesgue.
Se deduce que
[F
T
(x) G
T
(x)[
1
2

(t) (t)
t

dt (45)
Paso 2. Usamos las siguientes notaciones:
= F G,
T
= F
T
G
T
, = ||

,
T
= |
T
|

Se tiene:

T
(t) =

(t x)v
T
(x)dx

|x|>h
v
T
(x)dx +

+h
h
(t x)v
T
(x)dx
donde elegiremos luego h > 0.
Por un lado:

|x|>h
v
T
(x)dx
4
T

+
h
dx
x
2
=
4
Th
=

|x|h
v
T
(x)dx 1
4
Th
.
Como (+) = () = 0 y posee lmites laterales, se deduce que x
0
tal que = (x
+
0
) o = (x

0
). Entonces, si s > 0 :
(x
0
+s) = F(x
0
+s) F(x
0
) +G(x
0
+s) G(x
0
) ms
(aqu, en cada caso, cuando corresponda habra que poner o bien x
0
, o bien
x
+
0
o bien x

0
).
50
Sea t = x
0
+h. Si [x[ < h = t x > t h = x
0
y si s = t x x
0
:

T

T
(t)
4
Th
+

+h
h
[ m(t x x
0
)] v
T
(x)dx
=
4
Th
+ [ mh]

+h
h
v
T
(x)dx

4
Th
+ [ mh]

1
4
Th

Eligiendo h =

2m
resulta
T


2

12.m
T
y usando (45):
2
T
+
24.m
T

1

(t) (t)
t

dt +
24.m
T
lo que prueba el Lema.
Demostracion del Teorema de Berry-Essen.
Aplicamos el Lemma, reemplazando F por F
n
y G por la distribucion
normal . Entonces
sup
xR
[F
n
(x) (x)[
1

T
T

exp

t
2
2

1
[t[
dt +
24
T

(46)
Usando la desigualdad (vercacion sencilla a cargo del lector)
6
<
2
3
, re-
sulta que [1 (t)[
1
2

2
t
2
. Por lo tanto, [t[ <

2

3
implica que [1 (t)[
1
2
y tambien la validez del desarrollo en serie:
log (t) =

k=1
1
k
[1 (t)]
k
donde log representa la rama principal del logaritmo.
Se deduce que si [t[ <

2

3
, entonces

log (t) +
1
2

2
t
2


1
6

3
[t[
3
+
1
4

4
t
4

5
12

3
[t[
3
Para terminar, poner en (46) T =

3

n y usar la acotacion simple

e
t
1


[t[ .e
|t|
para obtener la conclusion del teorema (estos calculos nales quedan
a cargo del lector).
51
2.7 Convergencia debil de medidas de probabilidad en 1
d
, d >
1.
Toda la teora anterior se extiende sin mayores dicultades a 1
d
para d > 1.
(Convergencia debil de medidas de probabilidad, transformada de Fourier,
teoremas del lmite central). No habremos de dar detalles aqu, sino in-
dicar solamente algunos puntos, sin demostraciones, que por otra parte son
enteramente similares a las que hemos expuesto en dimension 1.
1. Para la denicion de convergencia debil (todas las medidas son medidas
de Borel en 1
d
) podemos adoptar la siguiente denicion.
Una sucesion F
n

n=1,2,...
de medidas de probabilidad en 1
d
converge
debilmente a F (medida de probabilidad propia) si para todo conjunto
de Borel B tal que F(B) = 0, se tiene que F
n
(B) F(B) cuando
n +. Se denota F
n
= F.
Se verica que F
n
= F (propia) si y solo si

R
d
f dF
n

R
d
f dF
f continua y acotada.
2. Se dene la transformada de Fourier de F (o de una variable aleatoria
X a valores en 1
d
que tiene la distribucion F - es decir que para todo
boreliano B es P(X B) = F(B) - mediante:

X
(t) = (t) =

R
d
exp [i 't, x`] F(dx), t 1
d
Aqu, ', ` denota el producto escalar usual en 1
d
.
Un caso particular importante es el de la distribucion normal en 1
d
.
Se dice que X es una variable aleatoria a valores en 1
d
con distribucion
normal, si su transformada de Fourier
X
tiene la forma:

X
(t) = exp

i 't, `
1
2
't, t`

donde 1
d
y es una matriz simetrica, denida no negativa con d
las y d columnas.
Se verica sin mucha dicultad que, en este caso
E(X) = , V ar(X) =
donde las deniciones de la esperanza y la varianza para variables
aleatorias vectoriales es la siguiente, siempre y cuando existan cada
una de las esperanzas que guran:
52
Si en una base ortonormal de 1
d
el vector X se escribe X = (X
1
, ..., X
d
)
T
,
entonces
E(X) = (E(X
1
), ..., E(X
d
))
T
V ar(X) = ((
jk
))
j,k=1,...,d
con
jk
= E [(X
j
E(X
j
))(X
k
E(X
k
))]
o lo que es lo mismo
V ar(X) = E

(X E(X))(X E(X)
T
)

.
3. Se verican propiedades analogas a las que vimos en dimension 1, in-
cluyendo los teoremas de unicidad, formula de inversion y pasaje al
lmite (teorema de Levy-Cramer). En particular, la formula de in-
version mas comoda adquiere la forma siguiente: si L
1
(1
d
,
d
)
(donde
d
denota la medida de Lebesgue), entonces F tiene una den-
sidad continua f que esta dada por la formula
f(x) =
1
(2)
d

R
d
exp [i 't, x`] (t) dt
En el caso particular de la distribucion normal con parametros , ,
se verica facilmente que si es denida positiva, entonces vale esta
formula de inversion y
f(x) =
1
(2)
d
2
[det()]
1
2
exp

(x )
T

1
(x )

y si , en cambio, es singular, entonces la distribucion no tiene densi-


dad y esta concentrada en una variedad afn de dimension menor que
d.
4. Con los mismos metodos, se prueba el teorema del lmite central. Por
ejemplo, en el caso de sumas de variables aleatorias independientes con
igual distribucion, se tiene el enunciado siguiente: Sea
1
,
2
, .... una
sucesion de variables aleatorias independientes a valores en 1
d
, con
igual distribucion, E(
n
) = 0, V ar(
n
) = . Denimos la sucesion de
sumas parciales S
n
=
1
+... +
n
, para n 1. Entonces,
S
n

n
converge
debilmente a la distribucion normal en 1
d
, con media = 0 y matriz
de varianza .
53
2.8 Grandes desviaciones.
Sea
k

k=1,2,...
una sucesion de variables aleatorias independientes y supong-
amos que E(
k
) = , V ar(
k
) =
2
y pongamos como antes S
n
=
1
+...+
n
(n 1). Entonces, bajo ciertas condiciones, hemos probado que la dis-
tribucion de las sumas parciales normalizadas
S
n

n
converge debilmente a
la distribucion normal tpica.
Como sabemos esto signica que si a, b 1, a < b, son n umeros reales
jos entonces
P

a <
S
n
n

n
b

b
a
exp

x
2
2

dx (47)
cuando n +.
Este tipo de resultado es insuciente para muchas aplicaciones relevantes.
Por ejemplo, sabemos que en virtud de la ley debil de los grandes n umeros
> 0,

n
() = P

S
n
n

0
cuando n +. Se suele decir que
n
() es la probabilidad del intervalo
de conanza de radio para la media .
Dicho de otro modo, en esta aplicacion estadstica sencilla de la ley de
los grandes n umeros, estaremos interesados en saber, para cada > 0, el
valor de
n
(), o por lo menos, con que velocidad
n
() tiende a cero cuando
n +. Nos interesa saber de que tama no deberamos elegir n (es decir,
de que tama no debe ser la muestra que habremos de observar) para que
la probabilidad de cometer un error mayor que , cuando reemplazamos la
media teorica por la media emprica
S
n
n
, no supere un valor prestablecido.
Si intentamos aplicar el Teorema del Lmite Central para calcular - o
aproximar - el valor de
n
(), vemos que

n
() = 1 P

n <
S
n
n

n
<

y deberamos poder calcular el equivalente de esta expresion cuando n


+, con la complicacion de que a =

n, b =

n no son jos, sino que


varan con n. En estas condiciones, no es mas cierto de que los complementos
a 1 de ambos miembros de (47) sean innitesimos equivalentes y debemos
introducir otros metodos para estudiar el problema.
54
En esta seccion habremos de limitarnos a enunciar y probar un teorema
sobre esta cuestion, que es un tema vasto y con una gran diversidad de
aplicaciones.
Preliminares. Transformada de Cramer (tambien llamada de
Fenchel-Legendre).
Sea F la distribucion de probabilidad de una variable aleatoria a valores
reales X. En lo que sigue, supondremos que E (X) = m y que la distribucion
F no se reduce a la delta de Dirac en el punto m.
Se dene la transformada de Laplace de la distribucion F mediante

F
(t) = E (exp(tX)) =

exp(tx) F(dx)
y denotamos por J = t 1 :
F
(t) < . Es claro que
F
(t) > 0 t 1.
Es claro que J es un intervalo, que en principio puede reducirse al punto
0.
Habremos de suponer de aqu en adelante, a los efectos de simplicar
la exposicion, que si denotamos
F
= inf(J),
F
= sup(J), entonces el
intervalo abierto (
F
,
F
) no es vaco y contiene al origen. Puede ocurrir
que
F
= o
F
= +.
El lector vericara sin dicultad que esta hipotesis implica que todos los
momentos de F son nitos.
Tambien denimos
F
: (
F
,
F
) 1 mediante
F
(t) = log [
F
(t)].
Entonces la transformada de Cramer de F es la funcion h
F
: 1 1
h
F
(a) = sup at
F
(t) : t (
F
,
F
)
Observese que h
F
(a) puede valer +.
Veamos algunas propiedades basicas de las funciones as denidas.
es estrictamente convexa en (
F
,
F
). Es claro que
F
es innita-
mente derivable (vericacion a cargo del lector) y que

F
(t) =

F
(t)
F
(t) [

F
(t)]
2
[
F
(t)]
2
Ademas,

F
(t)
F
(t)

F
(t)

2
(48)
=

x
2
exp(tx) F(dx).

exp(tx) F(dx)

x. exp(tx) F(dx)

2
0
55
mediante aplicacion de la desigualdad de Cauchy-Schwartz.
En la ultima desigualdad, la igualdad ocurre si y solo si las funciones
f(x) = 1 y g(x) = x x 1 son linealmente dependientes en el
espacio L
2
(1, B, F
t
), donde F
t
es la medida F
t
(dx) = exp(tx) F(dx),
lo cual quiere decir que constantes C
1
, C
2
, no ambas nulas, tales que

(C
1
+C
2
.x)
2
exp(tx) F(dx) = 0 (49)
Es claro que no puede ser C
2
= 0 en (49). Ademas, esta igualdad
implica que F este concentrada en el punto C
1
/C
2
, lo cual no es
posible por la hipotesis que hicimos sobre F. En consecuencia no puede
ocurrir la igualdad en (48) y por lo tanto

F
(t) > 0 t (
F
,
F
).
Esto prueba que
F
es estrictamente convexa.
Observar que si parametrizamos con la esperanza m la distribucion -
usamos la notacion F
m
para la distribucion de X y por lo tanto F
0
es la distribucion de X m - entonces
F
m
(t) = mt +
F
0
(t) =
h
F
m
(a) = h
F
0
(a m).
Bajo las hipotesis que hemos hecho, podemos calcular la transformada
de Cramer mediante las formulas siguientes:
(a) Si

F
(
F
) < a <

F
(
F
), entonces el maximo de la funcion
t at
F
(t) ocurre en el interior del intervalo (
F
,
F
), en el
punto t = (

F
)
1
(a) y vale
h
F
(a) = a.

1
(a)
F

1
(a)

(b) Si a

F
(
F
), entonces h
F
(a) = a.
F

F
(
F
).
(c) Si a

F
(
F
), entonces h
F
(a) = a.
F

F
(
F
).
El lector vericara facilmente que si

F
(
F
) < a <

F
(
F
), entonces
h

F
(a) =

1
(a) y h

F
(a) =
1

1
(a)

Por lo tanto, h
F
es estrictamente convexa en el intervalo (

F
(
F
),

F
(
F
)).
Tambien dejamos a cargo del lector la vericacion de que

F
(0) = m y h
F
(m) = 0.
56
Finalmente, observemos que si a > m, entonces
h
F
(a) = sup at
F
(t) : t (0,
F
)
En efecto, a > m = (

F
)
1
(a) > (

F
)
1
(m) = 0. O bien el punto
en el que ocurre el maximo de la funcion t at
F
(t) esta en el
interior de (
F
,
F
) y es (

F
)
1
(a),o bien el supremo se alcanza para
t
F
.
Teorema (Chernof ).
Sea
k

k=1,2,...
una sucesion de variables aleatorias independientes a
valores reales con igual distribucion F y supongamos que E(
k
) = m y
S
n
=
1
+ ... +
n
(n 1). Con la misma notacion que antes, suponemos
que 0 J
0
(interior del intervalo J).
Entonces:
(a) a > m = P

S
n
n
a

exp [n.h
F
(a)]
a < m = P

S
n
n
a

exp [n.h
F
(a)]
En ambos casos es h
F
(a) > 0.
(b) m < a <

F
(
F
) = lim
n+
1
n
log

S
n
n
a

= h
F
(a)

F
(
F
) < a < m = lim
n+
1
n
log

S
n
n
a

= h
F
(a).
Demostracion. Basta considerar el caso a > m. [Si a < m, reemplazar

k
por
k
].
Para la parte (a):
P (S
n
n.a) E (exp [u(S
n
n.a)]) u (0,
F
)
que implica
P (S
n
n.a) inf
u(0,
F
)
E (exp [u(S
n
n.a)]) inf
u(0,
F
)
exp [n(u.a
F
(u))]
= exp

n sup
u(0,
F
)
(u.a
F
(u))

= exp [n.h
F
(a)]
Para la parte (b), usando (a) alcanza con probar que
lim
n+
1
n
log

S
n
n
a

h
F
(a) (50)
57
Para probar (50), poniendo s
n
= x
1
+.... +x
n
:
P (S
n
n.a) =

R
n
1
{s
n
n.a}
F(dx
1
)....F(dx
n
)
=

R
n
1
{s
n
n.a}
[
F
(t)]
n
exp [t.s
n
] G(dx
1
)....G(dx
n
)
donde Ges la medida de probabilidad en la recta: G(dx) = [
F
(t)]
1
exp [tx] F(dx).
Sea Y
1
, ..., Y
n
una sucesion de variables aleatorias independientes con
igual distribucion G y T
n
= Y
1
+ ... + Y
n
(n 1). La igualdad anterior se
rescribe como
P (S
n
n.a) = [
F
(t)]
n
exp [nat] E

1
{T
n
n.a}
exp

nt

T
n
n
a

(51)
Sea m < a <

F
(
F
) y > 0 tal que a + <

F
(
F
) . Elegimos t tal que:
a <

F
(t) < a+ <

F
(
F
) =

1
(a) < t <

1
(a+) <
F
.
Observar que
E (Y
1
) = [
F
(t)]
1

xexp(tx) F(dx) =

F
(t)

F
(t)
=

F
(t)
Por lo tanto, en virtud de la ley fuerte de los grandes n umeros, casi segura-
mente,
T
n
n

F
(t) cuando n +. Tenemos, a partir de (51):
1
n
log

S
n
n
a

= at +
F
(t) +
1
n
log

1
{T
n
n.a}
exp

nt

T
n
n
a

at +
F
(t) +
1
n
log

1
{naT
n
n(a+)}
exp

nt

T
n
n
a

at +
F
(t) +
1
n
log [exp(nt).P(na T
n
n(a +))]
= at +
F
(t) t +
1
n
log

P(a
T
n
n
a +)

Esto prueba que


lim
n+
1
n
log

S
n
n
a

at +
F
(t) t
ya que P(a
T
n
n
a+) 1. Como > 0, es arbitrario, dada la denicion
de h
F
(a), esto termina la demostracion.
58
2.8.1 Ejemplos.
1. Consideremos, como en el teorema anterior, una sucesion de vari-
ables aleatorias independientes a valores reales con igual distribucion

k=1,2,...
, y que la distribucion com un F esta dada por P(
k
= 1) =
P(
k
= 1) = 1/2.
Es claro que E(
k
) = 0, V ar(
k
) = 1.
Supongamos que queremos estudiar el comportamiento de
n
() =
P(

S
n
n

), para 0 < < 1.


En virtud del teorema de Chernof, sabemos que
1
n
log [
n
()] h
F
().
Los calculos en este caso son inmediatos y se obtiene:
- (t) = cosh t
- (t) = log [cosh t]
- h
F
() = tanh
1
log

cosh

tanh
1

= tanh
1
+
1
2
log

1
2

(usar que cosh


2
x =
1
1tanh
2
x
).
Si en lugar del teorema de grandes desviaciones se pone el equivalente
que viene del Teorema del Lmite Central, lo que se obtiene como
equivalente es
2
1

n
exp

x
2
2

dx

n
exp

2
n
2

cuando n +
o sea
1
n
log

2
1

n
exp

x
2
2

dx

2
2
El comportamiento preciso, dado por h
F
() se ve que diere del que
resulta de utilizar (inadecuadamente) las colas que da el TLC. Sin
embargo, si se hace el desarrollo de Taylor de h
F
() en = 0, se ve que
al primer orden signicativo, se obtiene

2
2
. Si es sucientemente
peque no, ambos exponentes dieren poco, pero ello deja de ser cierto
para valores moderados de .
2. Veamos una variante del ejemplo anterior. Supongamos que la dis-
tribucion F esta dada por P(
k
= 1) = P(
k
= 1) = p, P(
k
=
0) = r, 2p +r = 1. Es claro que E(
k
) = 0 y V ar(
k
) = 2p. Se obtiene
(t) = log [2p cosh t +r] y
h
F
(a) = a ()
59
donde es la solucion de la ecuacion
a

() = a
2p sinh
2p cosh +r
= 0
Con estos ingredientes, se puede escribir los primeros terminos del
desarrollo de Taylor de h
F
(a) para a cerca de cero.
3. Si F es la distribucion normal tpica, se verica inmediatamente que
(t) = exp

t
2
2

y por lo tanto (t) =


t
2
2
, h
F
(a) =
a
2
2
. El compor-
tamiento asintotico del logaritmo de P(

S
n
n

) coincide con el de
las colas en el TLC.
4. Si F es la distribucion exponencial con parametro igual a 1 (es decir
que para x > 0, es 1 F(x) = exp(x)), entonces
(t) = log(1 t) si t < 1 y (t) = + si t 1.
Un calculo elemental muestra que
h
F
(a) = a 1 log a siempre que a > 0
y si 0 < :
1
n
log

P(
S
n
n
1 )

log (1 +) =

2
2


3
3
+

4
4

donde el ultimo desarrollo vale si ademas 1.
Del otro lado, si 0 < < 1 :
1
n
log

P(
S
n
n
1 )

log (1 +)
2.9 Distribuciones innitamente divisibles
Preliminares, medidas canonicas.
Denicion. Se dice que la medida M denida sobre los Borelianos de
1 es canonica si verica las condiciones:
1. M(I) < para todo intervalo acotado I
60
2. x > 0 se cumple que
M
+
(x) =

+
x

M(dy)
y
2
<
M

(x) =

x
+

M(dy)
y
2
<
Ejemplo basico. Si F es una medida de probabilidad en la recta y
C es una constante positiva, entonces M(dx) = C.x
2
.F(dx) es una medida
canonica.
Denicion. Sea F
n
una sucesion de medidas de probabilidad en 1
y c
n
una sucesion de n umeros reales positivos. Diremos que c
n
.x
2
.F
n
(dx)
converge propiamente a la medida canonica M(dx) si
(a) c
n
.

I
x
2
.F
n
(dx) M(I) intervalo I cuyos extremos son de continuidad de M
(b) c
n

+
x

F
n
(dy)
y
2
M
+
(x), c
n

x
+

M(dy)
y
2
M

(x) si x, x son de cont de M


Se verica facilmente que la pareja de condiciones (a),(b) es equivalente a
(a),(b), donde
(b

) > 0 a > 0 tal que c


n
[F
n
(a) + (1 F
n
(a))] < n
Proposicion tecnica auxiliar.
Sea F
n
una sucesion de medidas de probabilidad en 1 y
n
la
sucesion de sus transformadas de Fourier. Consideramos la sucesion de
funciones

n
(t) = c
n
[
n
(t) 1 i
n
t]
donde c
n
> 0,
n
1.
Entonces, para cada t 1 :

n
(t) (t)
donde es una funcion continua, si y solo si, existen una medida canonica
M y una constante real b, tales que:
1. c
n
.x
2
.F
n
(dx) converge a M propiamente
2. c
n
(b
n

n
) b, donde b
n
=

+

senx F
n
(dx).
61
En caso de que haya convergencia, el lmite es de la forma:
(t) = (t) +ibt con (52)
(t) =

exp(itx) 1 i.t.senx
x
2
M(dx)
La medida M esta unvocamente determinada por (52).
Demostracion. En realidad, no daremos una demostracion completa de
esta proposicion auxiliar, sino que indicaremos solamente los pasos a seguir,
cuyos detalles quedan a cargo del lector.
Antes que nada, reescribimos
n
(t) :

n
(t) =

[exp(itx) 1 i.t.senx] c
n
F
n
(dx) +i c
n
(b
n

n
) t (53)
Paso 1.Mostrar que si c
n
.x
2
.F
n
(dx) converge a M propiamente, en-
tonces, para toda funcion continua y acotada f : 1 1, tal que
f(x)
x
2
es
continua en x = 0, se tiene:

f(x) c
n
F
n
(dx)

f(x)
x
2
M(dx)
[Usar un metodo analogo al empleado inicialmente para la convergencia debil
de medidas de probabilidad].
Paso 2. Si
n
(t) (t) uniformemente en [t[ t
0
y 0 < h t
0
,
entonces:

1
sen(xh)
xh

c
n
F
n
(dx)
1
2h

h
h
(t) dt
Paso 3. Si
n
(t) (t) uniformemente en [t[ t
0
, entonces existe una
subsucesion n
k
tal que c
n
k
.x
2
.F
n
k
(dx) converge a M propiamente, donde
M es una medida canonica.
Para probar esto, usar el mismo tipo de argumento diagonal que para
la compacidad debil de las medidas de probabilidad y tambien, el resultado
del paso 2.
Paso 4. Si M es canonica, la funcion denida por (52) es continua y
la correspondencia M es inyectiva.
62
La continuidad es inmediata. Para ver la inyectividad, observar que, de
la denicion de resulta que h > 0 :
(t)
(t +h) +(t h)
2
=

exp(itx)
1 cos(xh)
x
2
M(dx)
Dicho de otro modo, la funcion (t)
(t+h)+(th)
2
es la transformada de
Fourier de la medida nita
h
(dx) =
1cos(xh)
x
2
M(dx). Por la unicidad ya
conocida, esto dice que determina
h
h > 0. Esto casi determina M,
salvo por eventuales atomos en los puntos x tales que cos(xh) = 1. Queda
a cargo del lector mostrar que entonces M esta unvocamente determinada.
Paso 5. Con los elementos anteriores, el lector puede completar la de-
mostracion de la Proposicion.
Denicion. Se dice que la distribucion de probabilidad propia en la
recta F es innitamente divisible si para cada entero positivo n existe una
distribucion de probabilidad F
n
tal que, si
1
, ...,
n
son n variables aleatorias
independientes con igual distribucion F
n
, entonces, la suma
1
+... +
n
tiene
distribucion F.
De manera equivalente, podemos escribir esta condicion en terminos de
transformadas de Fourier. Si denotamos por la transformada de Fourier
de F, que esta es innitamente divisible signica que para cada entero pos-
itivo n podemos encontrar una transformada de Fourier de una medida de
probabilidad propia,
n
tal que
[
n
(t)]
n
= (t) t 1
El resultado fundamental de esta seccion es el teorema siguiente:
Teorema (Levy, Kinchn). es la transformada de Fourier de una
distribucion de probabilidad innitamente divisible, si y solo si, existen una
medida canonica M y una constante real b tales que:
(t) = exp [(t)] donde (54)
(t) = ibt +

exp(itx) 1 i.t.senx
x
2
M(dx)
M y b son unicas.
Antes que la demostracion veamos algunos (primeros) ejemplos.
63
Ejemplo 1. Si la medida M esta concentrada en el origen, M(0) =
2
,
entonces la formula (54) da (t) = exp

ibt
1
2

2
t
2

que es la transformada
de Fourier de la distribucion normal con media b y varianza
2
.
Ejemplo 2. Si la variable aleatoria tiene la distribucion de Poisson
con parametro , entonces su transformada de Fourier es
E (exp(it)) =

n=0
exp(itn)

n
n!
e

= exp

e
it
1

(55)
Observese que en la formula (54), si la medida M esta concentrada en el
punto x = 1 y M(1) = , entonces (t) =

e
it
1

si se hace una
eleccion adecuada de la constante b. Es decir que la distribucion de Poisson
es innitamente divisible, cosa que podemos vericar directamente a partir
de (55), ya que es claro de aqu que si tiene distribucion de Poisson con
parametro , es suma de n variables aleatorias independientes, cada una de
ellas con distribucion de Poisson con parametro

n
.
Recprocamente, si M esta concentrada en un punto x
0
= 0 y M(x
0
) =
c, entonces (t) = ibt +
exp(itx
0
)1itsenx
0
x
2
0
c = ibt +

e
itx
0
1

lo que muestra que la distribucion de la variable aleatoria cuya trans-


formada de Fourier es exp [(t)] se obtiene de la distribucion de Poisson
mediante un cambio de posicion y escala, mas precisamente, que
b
x
0
tiene
distribucion de Poisson con parametro .
Ejemplo 3 (Distribucion de Poisson compuesta).- Sea
1
,
2
, ....
una sucesion de variables aleatorias independientes con igual distribucion
F. Denimos, como antes, la sucesion de sumas parciales S
0
= 0, S
n
=

1
+... +
n
(n 1). Denotamos por la transformada de Fourier de F.
Sea ademas una variable aleatoria con distribucion de Poisson de
parametro , independiente de la sucesion
n
.
Denimos X = S

, es decir, son sumas con un n umero aleatorio de


terminos. La distribucion de X se denomina de Poisson compuesta.
64
Calculamos la transformada de Fourier de la distribucion de X, es decir:

X
(t) = E (exp(itX)) = E [E (exp(itX)/N = k)]
=

k=0
E (exp(itS
k
)/N = k) P(N = k)
=

k=0
E (exp(itS
k
)) P(N = k) =

k=0
[(t)]
k

k
k!
exp()
= exp [((t) 1)] = exp

itb +

exp(itx) 1 i.t.senx
x
2
x
2
F(dx)

con b =

+

senx F(dx).
Es claro entonces que
X
tiene la forma indicada en (52) con b = .b y
M(dx) = .x
2
F(dx).
El lector observara que es posible dar una demostracion directa simple
de que la distribucion de X es innitamente divisible, que no depende de
(52).
Observe el lector que en la proposicion tecnica auxiliar de esta seccion,
exp [
n
(t)] son transformadas de Fourier de distribuciones de Poisson com-
puestas, a menos de una traslacion y un cambio de escala.
Ejemplo 4.- El lector vericara que si M(dx) = x.e
x
.1
{x>0}
dx en-
tonces F es la distribucion exponencial de parametro igual a 1. Para ver esto,
observar que la transformada de Fourier de la exponencial con parametro 1
es (t) = 1/(1 it) y que (t) = log [(t)] =

+
0
exp(itx)1
x
exp(x) dx.
Ejemplo 5.- El lector probara que F es una distribucion innitamente
divisible concentrada en [0, +) si, y solo si, su transformada de Fourier
se escribe como = exp() donde
(t) = ibt +

+
0
exp(itx) 1
x
(dx)
donde es una medida de Borel concentrada en la semirrecta (0, +) ,

+
0
1
1+x
(dx) <
.
Observacion sobre el enunciado del Teorema de Levy-Kinchn.
En la representacion dada por (54), se puede escribir el exponente de
diversas formas. Por ejemplo, se suele usar la forma alternativa
(t) = ib

t +

exp(itx) 1 i.t1
{|x|<1}
x
2
M(dx) (56)
65
donde b

= b +

1
{|x|<1}
senx
x
2
M(dx). Vease que esta ultima integral esta
bien denida, en virtud de que M es una medida canonica.
La forma que es quiza la mas utilizada de la representacion de Levy-
Kinchn, es la siguiente
(t) = ib

t
1
2

2
t
2
+

exp(itx) 1 i.t1
{|x|<1}

N(dx) (57)
donde se ha reescrito la medida canonica M como M(dx) =
2

0
(dx) +
x
2
N(dx). Aqu,
0
es la medida de Dirac en el punto x = 0, es decir que el
primer sumando es una masa de tama no
2
, concentrada en el origen, y N
es una medida de Borel en R ` 0 tal que

|x|<1
x
2
N(dx) < ,

|x|1
N(dx) < (58)
Es inmediata la deduccion de estas condiciones de las que verica M por ser
canonica.
Demostracion del teorema de Levy-Kinchn.
Paso 1. En este primer paso, probamos que si
n
es una sucesion
de transformadas de Fourier de distribuciones (propias) de probabilidad,
entonces:

n
n
puntualmente, continua n(
n
1) puntualmente, continua
(59)
En ese caso, (t) = exp [(t)] .
Probemos primero la implicacion de derecha a izquierda. La hipotesis
implica que
n
1 puntualmente, y por lo tanto, uniformemente en cada
compacto, dado que tanto
n
como 1 son transformadas de Fourier de me-
didas de probabilidad. Por lo tanto, si t vara en un compacto dado, cuando
n es sucientemente grande esta bien denido log (la rama principal del log-
aritmo) de
n
(t) y la hipotesis implica, desarrollo de Taylor mediante, que
nlog [
n
(t)] (t). Se sigue que [
n
(t)]
n
exp [(t)] . Es claro que esto
vale entonces para cada t jo.
Veamos ahora (59) de izquierda a derecha. Como
n
n
es tambien
una sucesion de transformadas de Fourier de medidas de probabilidad, la
hipotesis implica, a raz del teorema de Levy-Cramer, que la convergencia
es uniforme en cada compacto. Dado que es continua, elijamos t
1
> 0
tal que [t[ t
1
= [(t) 1[ < 1/2. Por lo tanto, si n es sucientemente
grande, esta denido log [
n
(t)]
n
(rama principal) t tal que [t[ t
1
. Se
66
deduce entonces que nlog [
n
(t)] log [(t)] = n[
n
(t) 1] log [(t)]
cuando [t[ t
1
. Queremos ver que hay convergencia para todo t.
De la convergencia en el intervalo [t
1
, t
1
] se deduce que existe una
subsucesion

n
k

tal que n
k

n
k
(t) 1

converge puntualmente en toda


la recta, a una funcion continua (Usar el Paso 3 de la demostracion de la
proposicion auxiliar). Pero entonces, podemos aplicar a esta subsucesion la
implicacion de derecha a izquierda de (59), que ya fue probada, y resulta
que

n
k
(t)

n
k
exp [(t)] puntualmente, en toda la recta. Entonces este
lmite es continuo y no depende de la subsucesion. El lector aprovechara
esto para terminar la argumentacion.
Paso 2. Veamos ahora el directo en el teorema de Levy-Kinchn.
Supongamos que es innitamente divisible. Entonces, n = 1, 2, ...
una transformada de Fourier
n
tal que
n
n
= y por lo tanto estamos
en las condiciones de aplicar la implicacion de izquierda a derecha en (59)
del Paso 1, y resulta que n(
n
1) puntualmente, continua y que
= exp(). Aplicando ahora la proposicion auxiliar, resulta que tiene la
forma requerida en (52).
Paso 3. Para el recproco, supongamos que tiene la forma de (54).
Consideremos primero el caso en que la medida canonica M esta con-
centrada en x : [x[ > con > 0. Entonces, si denimos la medida de
probabilidad
G(dx) =
K
x
2
M(dx)
con K =

M(dx)
x
2

1
y sea la transformada de Fourier de G. El
lector vericara que entonces, con una eleccion apropiada de b, resulta
(t) = exp

ibt +K ((t) 1)

que es innitamente divisible (es una la


transformada de Fourier de una Poisson compuesta, trasladada y con un
cambio de escala).
Veamos ahora el caso general, en que no necesariamente M esta concen-
trada en un conjunto de la forma x : [x[ > con > 0.
Consideramos entonces, para cada > 0, la medida canonica M

(dx) =
1
{|x|>}
M(dx) y le aplicamos lo anterior. Denotamos por

la transformada
de Fourier de
K

x
2
M(dx) (mismas notaciones). Aplicando nuevamente la
proposicion auxiliar, resulta que exite el lmite puntual
(t) = lim
0

(t)
1
2
t
2
M (0)

y como exp

(t)
1
2
t
2
M (0)

es la transformada de Fourier de una dis-


tribucion de probabilidad (convolucion de una Poisson compuesta y una
67
normal) tambien exp [(t)], en virtud del teorema de Levy-Cramer.
Esto prueba que si tiene la forma (54), entonces es la transformada
de Fourier de una distribucion de probabilidad propia. Pero lo mismo se
aplica si uno reemplaza, para cada n 1, M por
1
n
M y b por
1
n
b. Si
n
es la transformada de Fourier con esta medida canonica y esta constante,
entonces es obvio que se verica que
n
n
= .
2.10 Distribuciones estables. Dominios de atraccion.
Denicion. Sea F una distribucion de probabilidad (propia), F =
0
.
Diremos que F es estable en sentido amplio si para todo n, entero positivo,
si X
1
, ..., X
n
son variables aleatorias independientes con distribucion F y
S
n
= X
1
+... +X
n
entonces, existen n umeros reales c
n
, d
n
, c
n
> 0 tales que
S
n
(d)
= c
n
X
1
+d
n
donde
(d)
= signica que las variables aleatorias y tienen la misma
distribucion de probabilidad.
Diremos que F es estrictamente estable, si una relacion analoga se
verica con d
n
= 0.
Es obvio que si F es estable, entonces es innitamente divisible, ya que
con esa notacion, para todo n 1, X
1
tiene la misma distribucion que
la suma de las n variables aleatorias independientes con igual distribucion

X
k

d
n
n

1
c
n
(k = 1, ..., n). Entonces, su transformada de Fourier se puede
representar mediante (54) y el primer objetivo de esta seccion es calcular las
medidas canonicas M y las constantes b de las distribuciones estables. El
segundo objetivo es relacionar las distribuciones estables con una extension
del teorema del lmite central para sumas de variables aleatorias independi-
entes con igual distribucion, cuando no se cumplen las hipotesis para que la
distribucion lmite sea normal, pero sin embargo hay convergencia debil.
Denicion. Sea F una distribucion de probabilidad (propia). Se dene
la simetrizada de F, que denotamos F
s
, como la distribucion de probabil-
idad de X Y , donde X e Y son variables aleatorias independientes, cada
una de ellas con distribucion F.
Es inmediato que si F es estable, entonces F
s
es estrictamente estable,
con el mismo c
n
.
68
Teorema. En la denicion de distribucion estable, necesariamente debe
ser c
n
= n
1

para alg un real , 0 < 2.


Demostracion. El lector vericara que basta probarlo cuando F es es-
trictamente estable (usar F
s
).
En ese caso, con la misma notacion anterior, aplicando la denicion,
resulta que si m, n, k son enteros positivos:
c
m+n
X
1
(d)
= c
m
X
1
+c
n
X
2
c
m.n
= c
m
.c
n
= c
n
k = (c
n
)
k
Veamos que la sucesion c
n

n=1,2,..
es monotona creciente. En efecto, si
a > 0:
P(c
m+n
X
1
c
m
.a) P(c
n
X
1
0).P(c
m
X
1
c
m
.a) (60)
= P(X
1
0).P(X
1
a)
Esto implica que

c
m
c
m+n

m,n=1,2,...
es una sucesion (doble) acotada, puesto
que existe a > 0 de modo que el ultimo miembro de (60), que no depende
de m, n, sea estrictamente positivo. Sea entonces C una constante positiva
tal que
c
m
c
m+n
C m, n
Se sigue que

c
m
c
m+1

k
=
c
m
k
c
(m+1)
k
C m, k
lo que implica que
c
m
c
m+1
1 m. Esto prueba que c
n
es monotona creciente
en sentido amplio.
Veamos ahora que
log c
m
log m
= const (61)
Fijemos m entero, m 2 y para cada n entero positivo, sea k(n) el unico
entero tal que
2
k(n)
m
n
< 2
k(n)+1
es decir que
k(n) log2 n log m < (k(n) + 1) log2
69
Ademas
(c
2
)
k(n)
= c
2
k(n) c
m
n = (c
m
)
n
< c
2
k(n)+1 = (c
2
)
k(n)+1
=
k(n) log c
2
nlog c
m
< [k(n) + 1] log c
2
=
k(n) log c
2
n
.
n
[k(n) + 1] log 2

log c
m
log m
<
[k(n) + 1] log c
2
n
n
k(n) log 2
y de aqu se sigue facilmente, pasando al lmite cuando n +que
log c
m
log m
=
log c
2
log 2
. Como c
m
no es constante y es monotona creciente, esto prueba
que c
m
= m
1

con > 0.
Lo que falta es probar que 2. Para probar esto, usamos la repre-
sentacion de Levy-Kinchn, cosa que podemos hacer, puesto que F es in-
nitamente divisible, de modo que su transformada de Fourier es escribe
mediante la formula (54) y del hecho que es estable se deduce inmediata-
mente que
n(t) = (c
n
t) +id
n
t
=

exp(itx) 1 i.c
n
t.sen(c
1
n
x)
x
2
1
c
2
n
M(c
1
n
dx) +id
n
t
=

exp(itx) 1 i.t.senx
x
2
c
2
n
M(c
1
n
dx) +id
n
t
En virtud de la unicidad de la representacion de Levy-Kinchn, esto implica
que para cada n = 1, 2, ...
nM(dx) = c
2
n
M(c
1
n
dx) (62)
donde, por otra parte, ya sabemos que c
n
= n
1

.
Tenemos dos casos posibles:
1. = 2. En este caso, (62) se traduce en que M(dx) = M(n

1
2
dx)
n = 1, 2, ... Por lo tanto a > 0 :
M ([a, a]) = M

1
2
a, n

1
2
a

M (0) cuando n +
i.e. M ([a, a]) = M (0) a > 0, es decir que la medida canonica
M esta concentrada en el origen y la distribucion F es normal.
2. = 2. Poniendo, para x > 0, G(x) = M(x, x), (62) se traduce en
que
G(x) = n
2

1
G(n

x) x > 0, n = 1, 2, ...
70
y por lo tanto, para m, n = 1, 2, ...
G

m
n
1

= n
(
2

1)
G(m
1

) =

m
n
2

1
G(1)
Esto prueba que G(x) = G(1)x
2
para los x que pertenecen al con-
junto E =

m
n
1

: m, n = 1, 2, ...

. Dado que G es monotona cre-


ciente, esto prueba ya que < 2.
Asimismo, como el conjunto E es denso en 1
+
esto implica que
G(x) = G(1)x
2
x 0.
Un argumento enteramente analogo - a cargo del lector - permite probar que
M ((0, x)) = pG(1)x
2
, M ((x, 0)) = qG(1)x
2
x 0,
donde p, q son constantes no negativas, p +q = 1.
Teorema (caracterizacion de las distribuciones estables)
Con las notaciones anteriores, una distribucion es estable, si y solo si, (t)
se puede escribir de alguna de las dos formas siguientes, que corresponden
respectivamente a = 1 y a = 1, 0 < 2 en el teorema anterior:
(i) (t) = C
1
[t[

2
+i.sg(t) log [t[

(63)
(ii) (t) = C

[t[

1 i.sg(t)(p q)tg(

(64)
donde C

> 0.
Demostracion. En el caso = 2 ya hemos visto el resultado, que coincide
con el dado por (64) cuando = 2 y que corresponde a la distribucion
normal. De aqu en adelante, suponemos 0 < < 2.
Usando los mismos calculos de la demostracion del teorema anterior y, en
especial, la forma de la medida de Levy-Kinchn de una distribucion estable,
resulta que
(t) = C.p(2 )

+
0
exp(itx) 1 i.t.senx
x
+1
dx (65)
+C.q(2 )

exp(itx) 1 i.t.senx
x
+1
dx
Para facilitar el calculo, no usamos en el centramiento la funcion senx en
todos los casos, sino que usamos la funcion

(x), dependiente de x.
71
si 0 < < 1 =

(x) = 0. Entonces, si t > 0


J

(t) =

+
0
exp(itx) 1
x
+1
dx = lim
0

+
0
exp(itx x) 1
x
+1
dx
= lim
0

1
x

(exp(itx x) 1) [
+
0
+
1

(it )

+
0
exp(itx x)
x

dx

= lim
0

(it )

+
0
exp(itx x)
x

dx

Si denotamos por H(t) a la ultima integral, es facil vericar - inte-


grando por partes - que
H

(t) = i
1
it
H(t)
y que
H(0) =
1
(1 )
de modo que
H(t) = (1 ) ( it)
1
donde la potencia de base compleja debe interpretarse como rama
principal, que esta bien denida ya que it esta siempre en el cuarto
cuadrante del plano (, t). Por lo tanto
J

(t) = lim
0
1

(1 ) ( it)

= lim
0
1

(1 ) exp

log

2
+t
2
+i

donde log denota el logaritmo real y es el argumento del complejo


it, -/2 < < 0. El pasaje al lmite es ahora inmediato y se
obtiene:
J

(t) =
1

(1 ) t

exp

La segunda integral en (65) se calcula de manera enteramente analoga,


y eso permite obtener el resultado.
si > 1 =

(x) = x. El calculo sigue los lineamientos del anterior,


despues de haber reemplazado J

(t) por la nueva integral

(t) =

+
0
exp(itx) 1 itx
x
+1
dx
72
si = 1 =
1
(x) = senx.
Para este caso, el calculo es similar, solo que el punto clave es calcular
la integral
J
1
(t) =

+
0
cos(tx) 1
x
2
dx +i

+
0
sen(tx) t.senx
x
2
dx
El calculo de la primera integral es sencillo (hacer el cambio de variables
tx = y y luego integrar por partes). En cuanto a la segunda, observar que,
si t > 0 :

+
0
sen(tx) t.senx
x
2
dx = lim
0

sen(tx) t.senx
x
2
dx
= lim
0
t

+
t
senw
w
2
dw t

senw
w
2
dw
= t lim
0


t
senw
w
2
dw = t lim
0

1
t
sen(y)
y
2
dy
= t

1
t
dy
y
= t log t.
Reemplazando, se obtiene el resultado anunciado.
Denicion. Sea G una distribucion de probabilidad (propia) en la recta,
que no esta concentrada en un solo punto. Se dice que la distribucion F
pertenece al dominio de atraccion de G si para cada n = 1, 2, .... existen
constantes reales a
n
, b
n
, a
n
> 0 tales que si X
1
, ..., X
n
son variables aleatorias
indendientes con igual distribucion F y S
n
= X
1
+... +X
n
, entonces, cuando
n +
S
n
b
n
a
n
= G (66)
Teorema (TLC estable)
G tiene un dominio de atraccion si y solo si G es estable.
Demostracion. Si G es una distribucion de probabilidad estable, es obvio
que pertenece a su propio dominio de atraccion, en virtud de la denicion
de distribucion estable. Lo interesante es la armacion recproca.
Supongamos entonces que existe una distribucion de probabilidad F que
pertenece al dominio de atraccion de G, es decir que se verica (66) Pro-
baremos que G es estable.
73
Observemos primero que para cada pareja de enteros positivos m, n las
variables aleatorias
S
mn
b
mn
a
mn
,
S
mn
nb
m
a
m
dieren solamente en un cambio de posicion y escala (es decir, una se obtiene
de la otra mediante una anidad).
Para cada n jo, la primera tiende debilmente a G cuando m +
mientras que la segunda tiende debilmente a G
(n)
= G G ... G. La
conclusion sera probada, entonces, si demostramos que G y G
(n)
dieren
solamente en una anidad (es decir que constantes reales a, b, a = 0, tales
que G(x) = G
(n)
(ax + b) x 1. Esto esta contenido en la proposicion
auxiliar siguiente:
Proposicion auxiliar. Sea X
m

m=1,2,..
una sucesion de variables
aleatorias con distribuciones respectivas F
m

m=1,2,..
que converge debilmente,
cuando m + a la distribucion (propia) F, no concentrada en un solo
punto. Sea ademas

X
m

m=1,2,..
la sucesion de variables aleatorias

X
m
=
c
m
X
m
+ d
m
, donde c
m
, d
m
(m = 1, 2, ...) son n umeros reales, c
m
> 0.
Supongamos ademas que

X
m
=

F (propia) y que

F tampoco esta concen-
trada en un solo punto.
Entonces, necesariamente las sucesiones c
m
y d
m
convergen, c
m

c, d
m
d, con c > 0 y

F(cx +d) = F(x) x 1.
Demostraci on. Denotemos por
m
,
m
, , respectivamente, las trans-
formadas de Fourier de F
m
,

F
m
, F,

F.
Observemos que alcanza con demostrar que las sucesiones c
m
,

1
c
m

,
d
m
estan acotadas. En efecto, si as fuera, y si c
m
k
y d
m
k
son sub-
sucesiones convergentes a c

y d

respectivamente, entonces:
c

> 0

m
k
(t) (t) t 1

m
k
(t) = exp [i.d
m
k
t]
m
k
(c
m
k
t) exp [i.d

t] (c

t) = (t) t 1
(para vericar esta convergencia, usar el hecho de que la convergencia
de las transformadas de Fourier es uniforme en cada compacto).
En consecuencia,

F(x) = F

xd

x 1, o sea que

F(c

x + d

) =
F(x) x 1.
Esto identica los lmites c

, d

que no dependen de la subsucesion. En


consecuencia, las sucesiones enteras c
m
,d
m
convergen y los lmites ver-
ican la propiedad enunciada.
74
Veamos a continuacion la acotacion de c
m
,

1
c
m

, d
m
.
Como

F no esta concentrada en un punto, podemos encontrar x

, x

,
puntos de continuidad de

F, tales que x

< x

y
0 <

F(x

)

F(x

) < 1
y tambien puntos de continuidad de F, y

, y

, tales que
F(y

) <

F(x

)

F(x

) < F(y

) (67)
esto ultimo, simplemente porque F() = 0, F(+) = 1. Es obvio ademas
que

F
m
(c
m
x +d
m
) = P(c
m
X
m
+d
m
c
m
x +d
m
) = F
m
(x)
y como F
m
(y

) F(y

), y

F
m
(x

)

F(x

), para m sucientemente grande


es F
m
(y

) <

F
m
(x

) =

F
m
(c
m
y

+d
m
) <

F
m
(x

) = c
m
y

+d
m
< x

.
Del mismo modo, usando la desigualdad de la derecha en (67), resulta que
c
m
y

+d
m
> x

y podemos concluir que c


m
(y

) > x

=
1
c
m

si m es sucientemente grande. Esto prueba que

1
c
m

es acotada.
Intercambiando los roles de F
m
y

F
m
resulta que c
m
tambien es aco-
tada. Finalmente, de las mismas desigualdades se tiene que x

c
m
y

<
d
m
< x

c
m
y

para m sucientemente grande, lo que prueba que d


m
es
acotada.
Es tambien posible caracterizar las distribuciones que pertenecen al do-
minio de atraccion de una cierta ley estable.

Ese es el contenido del teorema
siguiente, que enunciamos sin demostracion (para la prueba y otra serie de
aspectos del mismo problema, ver Feller, Vol. 2, Cap. XVII).
Usamos la notacion siguiente:
Si F es una distribucion de probabilidad en la recta,
s
F
(x) =

[x,x]
y
2
F(dy).
Ademas, diremos que la funcion L : 1
+
1 es de variacion lenta en +
si para cada x > 0 jo, se tiene
L(tx)
L(t)
1 cuando t +
(ejemplos tpicos de funciones de variacion lenta en +son: (a) el logaritmo,
(b) las funciones que tienen lmite nito no nulo en +).
75
Teorema (caracterizaci on de los dominios de atraccion)
(a) F pertenece al dominio de atraccion de la distribucion normal, si y
solo si, la funcion s
F
es de variacion lenta en +.
(b) F pertenece al dominio de atraccion de una distribucion estable no
normal, si y solo si se cumplen las dos condiciones siguientes con 0 < < 2 :
s
F
(x) x
2
L(x) para x + con L de variacion lenta en + (68)
lim
x+
1 F(x)
1 F(x) +F(x)
= p (69)
En las condiciones del teorema, (68) es equivalente a
1 F(x) +F(x)
2

L(x)
para x + con L de variacion lenta en +. Asimismo, de cumplirse las
condiciones de (b), la medida canonica de la ley estable esta dada por
M ((0, x)) = Cpx
2
, M ((x, 0)) = C(1 p)x
2
x 0,
donde C es una constante positiva.
76

Potrebbero piacerti anche