Sei sulla pagina 1di 121

POR

Ernesto Antonio Guerrero Lara Mar a Di odora Kant un Chim Henry Gaspar Pant Trejo
FACULTAD DE MATEMATICAS UNIVERSIDAD AUTONOMA DE YUCATAN YUCATAN-M EXICO

Enero, 2010

c Derechos Reservados

UNIVERSIDAD AUTONOMA DE YUCATAN FACULTAD DE MATEMATICAS LICENCIATURA EN ACTUAR IA

Probabilidad II

M.C.M. Ernesto Antonio Guerrero Lara M.C. Di odora Kant un Chim M.C. Henry Gaspar Pant Trejo

M erida, Yucat an

Enero, 2010

Indice general
1. Desigualdades en Probabilidad 1.1. Desigualdad de Chebyshev . . 1.2. Desigualdad de Cherno . . . 1.3. Desigualdad de Jensen . . . . 1.4. Desigualdad de H older . . . . 1.5. Desigualdad de Schwarz . . . 1.6. Ejercicios . . . . . . . . . . . 5 5 8 8 10 11 11 15 15 20 23 29 29 30 32 34 34 39 39 42 45 48 49 50 55 55 56 57 59 61 61 62 65 66

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

2. Distribuciones condicionales 2.1. Distribuci on condicional de dos variables aleatorias discretas . . . . . 2.2. Distribuci on condicional de dos variables aleatorias continuas . . . . 2.3. Esperanza y Varianza Condicionales . . . . . . . . . . . . . . . . . . 2.4. Distribuci on condicionales de dos variables aleatorias . . . . . . . . . 2.4.1. Condicionando con respecto a una variable aleatoria discreta 2.4.2. Sumas aleatorias de variables aleatorias . . . . . . . . . . . . 2.4.3. Condicionando con respecto a una variable aleatoria continua 2.5. Caso Especial: Normal Bivariada . . . . . . . . . . . . . . . . . . . . 2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Otras funciones generadoras 3.1. Funci on Generadora de Cumulantes . 3.2. Funci on Generadora de Probabilidades 3.3. Funci on Caracter stica . . . . . . . . . 3.3.1. F ormulas de inversi on . . . . . 3.3.2. Teorema de Continuidad . . . . 3.4. Ejercicios . . . . . . . . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

4. Funciones generadoras de momentos 4.1. Conceptos b asicos y resultados principales 4.2. Momentos marginales . . . . . . . . . . . 4.3. Caso de la distribuci on normal bivariada . 4.4. Ejercicios . . . . . . . . . . . . . . . . . . 5. Covarianza y correlaci on 5.1. Denici on de covarianza y correlaci on 5.2. Propiedades y teoremas principales . . 5.3. Caso de la normal bivariada . . . . . . 5.4. Ejercicios . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . . 3

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

4 6. Sucesiones de Variables Aleatorias 6.1. Denici on de sucesi on de variables aleatorias . . 6.2. Tipos de convergencia . . . . . . . . . . . . . . . 6.3. Ley d ebil y ley fuerte de los grandes n umeros . . 6.4. Teorema del l mite central . . . . . . . . . . . . . 6.5. Convergencia de sumas de sucesiones de variables 6.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . .

INDICE GENERAL 69 69 69 80 82 84 88

. . . . . . . . . . . . . . . . . . . . . . . . aleatorias . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

7. Estad sticos de orden 7.1. Introducci on a los estad sticos de orden . . . . . . . . . . . 7.2. Distribuci on del m nimo, m aximo y rango de los estad sticos 7.3. Distribuci on conjunta de los estad sticos de orden . . . . . . 7.4. Distribuciones marginales de los estad sticos de orden . . . 7.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8. Distribuci on normal multivariada 8.1. Conceptos necesarios . . . . . . . . . . . . 8.2. Matriz de Covarianzas . . . . . . . . . . . 8.3. Funci on de densidad normal multivariada 8.4. Funci on generadora de momentos . . . . . 8.5. Propiedades y teoremas principales . . . . 8.5.1. Distribuciones condicionales . . . . 8.5.2. Independencia . . . . . . . . . . . 8.6. Ejercicios . . . . . . . . . . . . . . . . . . Bibliograf a

. . . . . . de orden . . . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

93 . 93 . 93 . 99 . 101 . 101 105 105 108 109 111 112 112 114 117 120

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

Cap tulo 1

Desigualdades en Probabilidad
1.1. Desigualdad de Chebyshev

En esta secci on estaremos interesados en obtener cotas superiores para probabilidades de la forma P (X a) con a > 0. Es bien sabido que cuando a , P (X a) 0. No obstante, no es claro cu al es la velocidad de convergencia a cero de P (X a). En esta secci on determinaremos cotas para la velocidad de convergencia a cero de P (X a). Las dos desigualdades a estudiar en esta secci on son: la desigualdad de Markov y la desigualdad de Chebyshev. Proposici on 1.1.1 (Desigualdad de Markov). Si X es variable aleatoria no negativa, entonces para cualquier a > 0 se cumple E[X ] . (1.1) P (X a) a Demostraci on: Sea a > 0. Denimos la variable aleatoria
8 < 1,

Xa otro caso

1{X a} = Entonces

0,

X 1{X a} a pues en efecto tenemos los siguientes dos casos: 1. si es tal que X ( ) a, entonces 1{X a} ( ) a = a y se cumple la ecuaci on (1.2),

(1.2)

2. si cumple que X ( ) < a, entonces 1{X a} ( ) a = 0 y debido a que X es no negativa, la ecuaci on (1.2) es cierta. Notemos que E[1{X a} ] = 0P (X < a) + 1P (X a) = P (X a). Por lo tanto, tomando esperanzas en ambos lados de la ecuaci on (1.2) resulta aP (X a) E[X ], lo que demuestra el resultado. Proposici on 1.1.2 (Desigualdad de Chebyshev). Si X es una variable aleatoria con media nita y varianza 2 , entonces para cualquier a > 0 se cumple P (|X | a) 5 2 . a2 (1.3)

CAP ITULO 1. DESIGUALDADES EN PROBABILIDAD

Demostraci on: Usando la desigualdad de Markov para (X )2 0 resulta P (|X | a) = P ((X )2 a2 ) E[(X )2 ] a2 2 = a2

De la desigualdad de Chebyshev se sigue que para 2 < P (|X | < a) 1 En particular, tomando a = 2 , P (|X | < 2 ) es decir, 3 . 4 Esto signica que m as de las 3/4 partes de la masa de probabilidad de X est a concentrada en el intervalo ( 2, + 2 ), para el caso cuando X tiene varianza nita. La importancia de las desigualdades de Markov y Chebyshev radica en que con base en estas se pueden obtener cotas superiores para probabilidades P (X a), a > 0, con el s olo conocimiento de la media o la media y varianza, respectivamente. P ( 2 < X < + 2 ) Ejemplo 1.1.3. Suponga que se sabe que el n umero de art culos producidos en una f abrica durante una semana es una variable aleatoria con media 50. 1. Qu e se puede decir de la probabilidad que la producci on semanal exceda 75 art culos? 2. Si la varianza de la producci on semanal se sabe que es igual a 25, entonces qu e se puede decir de la probabilidad de que la producci on semanal se encuentre entre 40 y 60 art culos? Soluci on: Sea X el n umero de art culos que se producen en una semana. 1. Usemos la desigualdad de Markov P (X > 75) P (X 75) 2. Usemos la desigualdad de Chebyshev P (40 < X < 60) = P (|X 50| < 10) 3 . 4 2 E [X ] = . 75 3 3 , 4 2 . a2

Por lo tanto, la probabilidad de que la producci on de art culos semanal se encuentre entre 40 y 60 art culos es de al menos 0.75.

Observaci on 1.1.4. La desigualdad de Chebyshev es v alida para todas las distribuciones de variables aleatorias X con varianza nita. No obstante, la cota no siempre est a muy cercana al valor verdadero de la probabilidad acotada, por ejemplo, si X tiene distribuci on uniforme en el intervalo (0, 10), la cota para P (|X 5| > 4) usando la desigualdad de Chebyshev es 0.5208, mientras que el valor verdadero de esta probabilidad es 0.2. La desigualdad de Chebyshev usualmente es empleada como una herramienta te orica para probar resultados de gran importancia en Probabilidad, como se ver a a continuaci on. Antes enunciamos el lema siguiente.

1.1. DESIGUALDAD DE CHEBYSHEV

Lema 1.1.5. Sea (, F , P ) un espacio de probabilidad. Sea {An } una sucesi on de eventos. Entonces, 1. si {An } es una sucesi on creciente de eventos, es decir, para cada n 1, An An+1 , entonces P ( m P (An ). n=1 An ) = l
n

2. si {An } es una sucesi on decreciente de eventos, esto es, para cada n 1, An An+1 , entonces P ( m P (An ). n=1 An ) = l
n

A continuaci on presentamos dos aplicaciones de la desigualdad de Chebyshev. Proposici on 1.1.6. Si Var(X ) = 0, entonces P (X = E [X ]) = 1. En otras palabras, las u nicas variables aleatorias con varianza igual a cero son aquellas que son constantes con probabilidad 1. Demostraci on: Sea = E [X ]. Por la desigualdad de Chebyshev, tenemos que para toda n 1, P (|X | > 1/n) n2 Var(X ) = 0, de donde P (|X | > 1/n) = 0. Denimos la sucesi on de eventos {An } por An = { : |X ( ) | > 1/n} = {|X | > 1/n}. Entonces {An } es una sucesi on creciente de eventos y n An = {X = }. Aplicando el lema anterior, obtenemos P (X = ) = P (n An ) = l m P (An ) = l m P (|X | > 1/n) = 0.
n n

Por lo tanto, P (X = ) = 1. Teorema 1.1.7 (Ley D ebil de Grandes N umeros (LDGN)). Sea X1 , X2 , . . ., sucesi on de variables aleatorias independientes e id enticamente distribuidas, con E [Xi ] = , Var(Xi ) = 2 nitos. Entonces, para cualquier > 0, X1 + . . . + Xn P 0, cuando n . n Demostraci on: Sea Yn = X1 + . . . + Xn . Tenemos n E[Yn ] = , Var(Yn ) = Por la desigualdad de Chebyshev P (|Yn | ) = Var(Yn ) 2 2 0, cuando n . n2 2 . n

Observaci on 1.1.8. La ley d ebil de grandes n umeros permanece v alida s olo con el supuesto de la nitud de la media (la varianza puede ser innita). La raz on por la cual se enuncia de esta manera es para ilustrar el uso de la desigualdad de Chebyshev en la demostraci on de este resultado. El tipo de convergencia que se menciona en el resultado es llamada convergencia en probabilidad, este tema ser a estudiado con mayor detalle en cap tulos siguientes.

CAP ITULO 1. DESIGUALDADES EN PROBABILIDAD

1.2.

Desigualdad de Cherno

Si se conoce la funci on generadora de momentos de X , entonces podemos obtener otras cotas para P (X a), como veremos a continuaci on. Proposici on 1.2.1 (Cotas de Cherno). Sea X variable aleatoria con funci on generadora de momentos M (t) = E[etX ]. Entonces 1. P (X a) eta M (t), para toda t > 0. 2. P (X a) eta M (t), para toda t < 0. Demostraci on: 1. Sea t > 0, aplicando la desigualdad de Markov a la variable Y = etX resulta P (X a) = = P (etX eta ) E[etX ] eta ta e M (t).

2. Se hace de manera an aloga y se deja como ejercicio 1

Observaci on 1.2.2. Debido a que la funci on f (t) = eta M (t), t > 0 o t < 0, aparece en ambas desigualdades, entonces podemos minimizar f (t) para encontrar la cota m as peque na. Ejemplo 1.2.3. Encuentre la cota m as peque na de Cherno para P (X a), a > 0, en el caso: 1. X N (0, 1), 2. X P oisson(). Soluci on: 1. Tenemos que M (t) = et /2 , as f (t) = et /2ta , t > 0. Ahora el valor de t > 0 que minimiza f (t) es aquel que minimiza g (t) = t2 /2 ta, el cual es t = a, de esta manera, P (X a) ea
t 2 2 2

/2

.
t

2. Tenemos que M (t) = e(e 1) . De aqu , tenemos que minimizar f (t) = e(e 1)ta , t > 0. N otese que minimizar la funci on anterior es equivalente a minimizar g (t) = (et 1) ta, t > 0. La funci on g (t) se minimiza en t = ln (a/), donde t > 0 siempre que a > . As bajo el supuesto a > , la mejor cota queda
a

P (X a) e(a/1)

e (e)a . aa

1.3.

Desigualdad de Jensen

La siguiente desigualdad a estudiar es la desigualdad de Jensen, que est a m as relacionada con valores esperados que con probabilidades.

1.3. DESIGUALDAD DE JENSEN Denici on 1.3.1. Una funci on g (x) es convexa si para (0, 1) y cualesquiera x, y se cumple g (x + (1 )y ) g (x) + (1 )g (y ). La funci on g (x) es concava si g (x) es convexa.

Observaci on 1.3.2. Una segunda forma de denir una funci on convexa es la siguiente: g (x) es convexa si y s olo si para cada x0 existe una recta l0 (x) = ax + b, tal que l0 (x0 ) = g (x0 ) y l0 (x) g (x), para todo x. Ejemplo 1.3.3. Las siguientes funciones son convexas: g (x) = x2 , g (x) = eax y g (x) = x1/n para x 0. Observaci on 1.3.4. Para vericar convexidad de funciones dos veces diferenciables se recurre a la segunda derivada: 1. g (x) es convexa si g (x) 0, para todo x; 2. g (x) es concava si g (x) 0, para todo x. Teorema 1.3.5 (Desigualdad de Jensen). Para cualquier variable aleatoria X , si g (x) es una funci on convexa, entonces E[g (X )] g (E[X ]). (1.4) La igualdad se cumple si y s olo si, para cada recta ax + b que sea tangente a g (x) en x = E[X ], P (g (X ) = aX + b) = 1. Demostraci on: Mostraremos la desigualdad (1.4) y el si de la segunda parte. Usaremos la segunda denici on de convexidad. Sea x0 = E[X ] y considere la recta l0 (x) = ax+b que cumple l0 (x0 ) = g (x0 ), l0 (x) g (x) para toda x. Usando la desigualdad l0 (x) g (x) y la denici on de l0 obtenemos E[g (X )] = E[l0 (X )] aE[X ] + b

= l0 (E[X ]) = l0 (x0 ) = g ( x0 ) = g (E[X ]). Por u ltimo, sea ax+b una recta tangente a g en x = E(X ). Supongamos que P (g (X ) = aX +b) = 1 y que X es variable aleatoria discreta con valores en {x1 , x2 , . . .}, el caso X variable aleatoria continua se demuestra en forma similar. N otese que se cumple {xi : g (xi ) = axi + b} = {x1 , x2 , . . .}. Entonces E[g (X )] = =
X i=1 X i=1

g (xi )P (X = xi )
X

g (xi )P (X = xi ) +

X
{i:g (xi )=axi +b}

g (xi )P (X = xi )

{i:g (xi )=axi +b}

(axi + b)P (X = xi )

= E[aX + b] = aE[X ] + b = g (E[X ]).

10

CAP ITULO 1. DESIGUALDADES EN PROBABILIDAD

Ejemplo 1.3.6 (Desigualdades para medias). Sean a1 , . . . , an n umeros positivos, denimos aA aG aH = = = 1 (a1 + + an ), n (a1 an )1/n , 1
1 n

1 a1

+ +

1 an

las cuales son llamadas medias aritm etica, geom etrica y arm onica, respectivamente. Verique que se cumple aH aG aA . Soluci on: Sea X variable aleatoria discreta que toma valores en {a1 , . . . , an } y que tiene funci on de densidad discreta dada por P (X = ai ) = 1 , i = 1, . . . , n. n

Tenemos que la funci on g (x) = log x es concava, entonces la desigualdad de Jensen implica E[log X ] log(E[X ]). As 1X log ai = E[log X ] log(E[X ]) = log log aG = n i=1
n

1X ai n i=1
n

= log aA ,

de donde se sigue que aG aA . Usando de nuevo que g (x) = log x es concava se sigue que E[log Y ] log(E[Y ]), para Y variable aleatoria estrictamente positiva. Tomando Y = 1/X , obtenemos

E log De esta manera 1 log aG de aqu , aH aG .


1 1 log E . X X
!

1 1 = E log log E = log X X

1X 1 n i=1 ai
n

= log

1 aH

1.4.

Desigualdad de Ho lder

Proposici on 1.4.1. Sean x1 , x2 , ..., xn y y1 , y2 , ..., yn n umeros reales cualesquiera. Si p, q > 0 y 1 1 + = 1 entonces p q
n X i=1

|xi yi |

n X i=1

!1/p

|xi |p

n X i=1

!1/q

|yi |q

Teorema 1.4.2 (Desigualdad de Ho lder). Si X y Y son variables aleatorias y p, q > 0 son tales 1 1 que + = 1 entonces p q |E [XY ]| E [|XY |] (E [|X |p ])1/p (E [|Y |q ])1/q .

1.5. DESIGUALDAD DE SCHWARZ

11

1.5.

Desigualdad de Schwarz
2 2 2 2 2 (a1 b1 + a2 b2 + + an bn )2 (a2 1 + a2 + + an )(b1 + b2 + + bn ).

Proposici on 1.5.1. Sean x1 , x2 , ..., xn y y1 , y2 , ..., yn n umeros reales cualesquiera, entonces

Teorema 1.5.2 (Desigualdad de Schwarz). Si X y Y son variables aleatorias entonces |E [XY ]| E [|XY |] (E [|X |2 ])1/2 (E [|Y |2 ])1/2 .

1.6.

Ejercicios

1. Demuestre el inciso b) de la proposici on 1.2.1 . 2. Demuestre la siguiente proposici on. Proposici on 1.6.1. Si X es variable aleatoria con media 0 y varianza 2 , entonces para cualquier a > 0, 2 P (X a) 2 . + a2

(Ayuda: a ) X a si y s olo si X + b a + b, para todo b > 0. b ) El m nimo de la funci on f (x) = 3. Demuestre el siguiente teorema. Teorema 1.6.2. Si E[X ] = , Var(X ) = 2 , entonces para a > 0, P (X + a) 2 , + a2 2 . P (X a) 2 + a2 2 2 + x2 2 se alcanza en x = ) 2 (a + x) a

(Ayuda: Puede utilizar la proposici on 1.6.1). 4. Sean X1 , . . . , X20 variables aleatorias independientes Poisson con media 1. Use la desigualdad de Markov para encontrar una cota superior para P
20 X i=1

Xi > 50 .

5. Sea g (x) una funci on convexa, suponga que ax + b es una recta tangente a g (x) en x = E[X ] y g (x) > ax + b excepto en x = E[X ]. Entonces E[g (X )] > g (E[X ]) a menos que P (X = E[X ]) = 1. (Esto muestra la parte s olo si del teorema 1.3.5.) 6. Suponga que X es una variable aleatoria con media y varianza iguales a 20. Qu e se puede decir de P (0 < X < 40)? 7. De experiencias pasadas, un profesor sabe que la calicaci on que un estudiante obtiene en su examen nal es una variable aleatoria con media 75.

12

CAP ITULO 1. DESIGUALDADES EN PROBABILIDAD a ) Encuentre una cota superior para la probabilidad de que la calicaci on del examen nal del alumno exceda 85. Suponga, adicionalmente, que el profesor sabe que la varianza de esta calicaci on es 25. b ) Qu e se puede decir acerca de la probabilidad de que la calicaci on del examen nal del alumno se encuentre entre 65 y 85? c ) Cuantos estudiantes deber an tomar el examen para asegurar, con probabilidad de al menos 0.9, que el promedio de calicaciones se encontrar a entre 70 y 80? 8. El siguiente ejercicio rearma la observaci on 1.1.4 Sea X una variable aleatoria con funci on de densidad

f ( x) = Determina: a ) P ( 2 < X < + 2 ).

cx4 (1 x4 ) 0 < x < 1 0 otro caso

b ) Utiliza Chebyshev para encontrar una cota de P ( 2 < X < + 2 ). 9. Una compa n a aseguradora tiene 10,000 autom oviles asegurados. La reclamaci on anual esperada por asegurado es $240 con desviaci on est andar de $800. Aproxime la probabilidad de que la reclamaci on total anual exceda $2.7 millones. 10. Una compa n a aseguradora tiene 60,000 p olizas de gastos m edicos mayores individual que s olo aplican una vez el deducible establecido y cuyo monto de reclamaci on anual esperado por p oliza es $5,000 con una desviaci on est andar de $1,800. Se sabe que la prima total pagada es de 500 millones de pesos. Halla una cota inferior para la probabilidad de que el monto total de los siniestros se aleje menos de 10 millones de la reclamaci on total esperada. Qu e signicado tiene esta probabilidad con respecto a la utilidad de la cartera? 11. El n umero de autom oviles vendidos en una semana en un cierto negocio es una variable aleatoria con valor esperado 16. Encuentre una cota superior a la probabilidad de que a ) las ventas de la siguiente semana sean mayores que 18; b ) las ventas de la siguiente semana sean mayores que 25. 12. Suponga que en el ejercicio 11 la varianza del n umero de autom oviles vendidos semanalmente es 9. a ) Encuentre una cota inferior a la probabilidad de que las ventas de la siguiente semana sean entre 10 y 22 inclusive. b ) Encuentre una cota superior a la probabilidad de que las ventas de la siguiente semana excedan 18. 13. Si E[X ] = 75, E[Y ] = 75, Var(X ) = 10, Var(Y ) = 12, Cov(X,Y) = 3 encuentre un cota superior para a ) P (|X Y | > 75); b ) P (X > Y + 15); c ) P (Y > X + 15). 14. Qu e tama no debe tener una muestra aleatoria seleccionada de una distribuci on para la probabilidad de que la media muestral est e entre 2 desviaciones est andar de la media de la distribuci on sea al menos 0.99?

1.6. EJERCICIOS 15. Si X es variable aleatoria no negativa con media 25, que se puede decir de a ) E[X 3 ], b ) E[ X ], c ) E[log X ], d ) E[eX ]? 16. Sea X variable aleatoria no negativa. Pruebe que E[X ] (E[X 2 ])1/2 (E[X 3 ])1/3

13

17. Una variable aleatoria X se dene mediante la relaci on Z = log X , donde E[Z ] = 0. Es E[X ] mayor, menor o igual a 1? 18. Sea v una funci on c oncava estrictamente creciente, u el monto de capital de la aseguradora, p la prima que pagan los asegurados y S la variable aleatoria que representa el monto de las reclamaciones. Supongamos que v (u) = E [v (u + p S )]. Demuestra que si P (S = E (S )) < 1, entonces p > E (S ). 19. Sea X variable aleatoria Poisson con media 20. a ) Use la desigualdad de Markov para obtener una cota superior para la probabilidad de p = P (X 26) b ) Use el teorema 1.6.2 para obtener una cota superior para p. c ) Use la cota de Cherno para obtener una cota superior para p. d ) Aproxime p usando el teorema del l mite central. e ) Determine p usando alg un programa de c omputo o calculandolo manualmente. Nota: Especique el procedimiento utilizado para encontrar dicho valor. 20. Suponga que el n umero de unidades producidas diariamente en una f abrica A es una variable aleatoria con media 20 y desviaci on est andar 3 y el n umero producido en una f abrica B es una variable aleatoria con media 18 y desviaci on est andar 6. Suponiendo independencia, encuentre una cota superior para la probabilidad de que m as unidades sean producidas diaramente en la f abrica B que en la f abrica A. 21. Un fabricante de cascos de seguridad para trabajadores de la construcci on analiza el valor medio y la variaci on de las fuerzas que transmiten los cascos a los usuarios al ser sometidos a una fuerza externa est andar. El fabricante desea que la fuerza media transmitida por los cascos sea de 800 lb (libras) (o menos), muy por debajo del l mite ocial de 1000 lb y que sea menor que 40. Si = 800 lb y = 40 lb Es posible que cualquier casco, sometido a la fuerza externa est andar, transmita al usuario una fuerza superior a 1,000 lb? Explique. 22. El tiempo que se necesita para anar un autom ovil tiene una distribuci on exponencial con media de 0.5 horas. Si dos autos est an esperando anaci on y si los dos tiempos de servicio son independientes. Qu e se puede decir de la probabilidad de que el tiempo promedio necesario para dos autom oviles sea mayor a 0.75 horas? a ) Emplee la desigualdad de Chebyshev b ) Emplee desigualdad de Cherno c ) Determine la probabilidad exacta. d ) Qu e se puede comentar sobre las dos desigualdades acerca del concepto de conservador? Nota: Emplee la funci on de distribuci on f (x) = ex I(0,) (x). Para el inciso c) puede usar alg un paquete estad stico

14

CAP ITULO 1. DESIGUALDADES EN PROBABILIDAD

23. Utiliza la proposici on 1.4.1 para demostrar la desigualdad de H older. 24. Utiliza la proposici on 1.5.1 para demostrar la desigualdad de Schwarz. 25. Investigar la desigualdad de Minkowsky. Tiene alguna aplicaci on pr actica en Estad stica? Tiene alguna aplicaci on en Teor a de Probabilidad?

Cap tulo 2

Distribuciones condicionales
2.1. Distribuci on condicional de dos variables aleatorias discretas

En esta secci on X y Y ser an variables aleatorias discretas. Denimos a continuaci on la probabilidad condicional que involucra variables aleatorias discretas. Denici on 2.1.1. La probabilidad condicional de X dado Y = y est a denida por P (X = x | Y = y ) = P (X = x, Y = y ) , P (Y = y ) (2.1)

siempre que P (Y = y ) > 0. En el caso P (Y = y ) = 0 no est a denida o se le asigna un valor arbitrario, digamos cero. En lo siguiente, siempre que hagamos referencia a variables aleatorias discretas, usaremos la notaci on pX,Y para designar la funci on masa de probabilidad conjunta de las variables aleatorias X y Y , pY la funci on masa de probabilidad de la variable aleatoria Y y pX |Y (x | y ) a la probabilidad condicional de X dado Y = y . Usando la notaci on anterior podemos escribir (2.1) en la forma pX |Y (x | y ) = pX,Y (x, y ) . pY (y ) (2.2)

Proposici on 2.1.2. Sean X, Y variables aleatorias con rango {x1 , x2 , . . .} y {y1 , y2 , . . .}, respectivamente. Entonces las siguientes armaciones son ciertas: 1. Para cada yj jo, la funci on pX |Y (x | yj ), x = x1 , x2 , . . . , es una funci on masa de probabilidad. 2. Ley de probabilidad total. Para cada xi , pX (xi ) =
X j =1

pX |Y (xi | yj )pY (yj ).

(2.3)

Demostraci on: 1. De la denici on se obtiene que pX |Y (xi | yj ) 0, para todo i 1. Por otro lado, para yj jo, P (Y = yj ) =
X i=1

P (X = xi , Y = yj ).

15

16 Entonces,
X i=1

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

pX |Y (xi | yj )

= = = =

X P (X = xi , Y = yj ) i=1

P (Y = yj )

X 1 P ( X = xi , Y = yj ) P (Y = yj ) i=1

1 P (Y = yj ) P (Y = yj ) 1.

2. Despejando pX,Y (xi , yj ) de (2.2) se sigue pX,Y (xi , yj ) = pX |Y (xi | yj )pY (yj ), para cualesquiera i, j 1. De esta forma, pX (xi ) = = P (X = xi )
X j =1 X j =1 X j =1

P (X = xi , Y = yj ) pX,Y (xi , yj ) pX |Y (xi | yj )pY (yj ).

Ejemplo 2.1.3. Se lanza un dado y se observa el n umero Y de la cara superior que aparece. Entonces se lanza una moneda equilibrada Y veces y se observa X , el n umero total de soles que aparecen. Cu al es la probabilidad de que X = 5? Soluci on: Tenemos P (Y = y ) = Y P (X = 5 | Y = y ) = 1 , y = 1, 2, 3, 4, 5, 6. 6
  y

y 5

1 2

, y = 5, 6.

Debido a que no se puede obtener un n umero mayor de aguilas que de lanzamientos se sigue P (X = 5 | Y = y ) = 0, y = 1, 2, 3, 4. Por lo tanto, usando la ley de probabilidad total P (X = 5) = P (X = 5 | Y = 5)P (Y = 5) + P (X = 5 | Y = 6)P (Y = 6)
5   6

= =

1 2 1 . 48

1 6

6 5

1 2

1 6

Proposici on 2.1.4. Sean X y Y variables aleatorias independientes con distribuci on Poisson de media y , respectivamente. Entonces la variable aleatoria X , condicional a X + Y = n, tiene distribuci on binomial de par ametros (n, /( + )).

CONDICIONAL DE DOS VARIABLES ALEATORIAS DISCRETAS 2.1. DISTRIBUCION

17

Demostraci on: Recordemos que X + Y tiene distribuci on Poisson de media + . De esta manera, utilizando la denici on de probabilidad condicional, la independencia de X y Y , y el hecho que X + Y se distribuye Poisson de media + , se sigue P (X = x, X + Y = n) P (X + Y = n) P (X = x, Y = n x) P (X + Y = n) P (X = x)P (Y = n x) P (X + Y = n)
e x! e (nx)! ) e(+) (+ n!
n x nx

P (X = x | X + Y = n)

= = = = = = =

   

x nx n! x!(n x)! ( + )x ( + )nx n x + +


x x

+ 1

nx

n x

nx

Ejemplo 2.1.5. En un cierto restaurante se tienen mesas para fumadores y tambi en para no fumadores. En cierto d a los clientes visitan el restaurante de la siguiente manera: los fumadores llegan conforme una variable aleatoria Poisson con media 20, independientemente, los no fumadores llegan conforme a otra variable aleatoria Poisson con media 30. Si se sabe que en ese d a vendr an 40 clientes, Cu al es la probabilidad de que al menos uno de ellos sea fumador? Soluci on: Sean X, Y el n umero de clientes fumadores y no fumadores, respectivamente, que visitan el restaurante. Entonces, queremos calcular P (X 1 | X + Y = 40). Por el ejemplo anterior tenemos


P (X = x | X + Y = 40) =

40 x

 x

2 5

2 5

40x

x = 0, 1, . . . , 40.

De esta forma, debido a que la probabilidad condicional es una funci on masa de probabilidad, obtenemos
40

P (X 1 | X + Y = 40) = 1 P (X = 0 | X + Y = 40) = 1

3 5

= 0.99999.

Proposici on 2.1.6. Sean X variable aleatoria binomial de par ametros (n, p) y Y variable aleatoria independiente de X con distribuci on binomial de par ametros (m, p). Entonces la variable aleatoria X , condicional a X + Y = k , tiene distribuci on hipergeom etrica de par ametros (n + m, n, k ). Demostraci on: N otemos primero que x cumple: m ax{0, k m} x m n{n, k }. Adem as X + Y tiene distribuci on binomial de par ametros n + m y p. De esta manera, usando la denici on de

18 probabilidad condicional obtenemos P (X = x | X + Y = k ) = = = = =

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

P (X = x, X + Y = k ) P (X + Y = k ) P (X = x, Y = k x) P (X + Y = k ) P (X = x)P (Y = k x) P (X + Y = k ) n x k x p (1 p)nx km (1 p)mk+x x x p


n+m
k

n
x

n+m .
k

m k x

pk (1 p)n+mk

Proposici on 2.1.7. Sea X variable aleatoria que condicional a Y = y tiene distribuci on binomial de par ametros (y, q ). Suponga que Y tiene distribuci on binomial de par ametros (m, p). Entonces la variable aleatoria X es binomial de par ametros (m, pq ). Demostraci on: Tenemos P (X = x | Y = y ) = Tambi en P (Y = y ) =
   

y x q (1 q )yx , x = 0, 1, . . . , y. x

m y p (1 p)my , y = 0, 1, . . . , m. y

Aplicando la ley de probabilidad total resulta que para x {0, 1 . . . , m} P (X = x) =


m X

P (X = x | Y = y )P (Y = y ) y x m y q (1 q )yx p (1 p)my x y
m

y =0 m  X y =x

 

qx

 

X m! (m x)! (1 q )yx pyx px (1 p)my x!(m x)! y=x (y x)!(m y )!


m

X m (m x)! (pq )x (p(1 q ))yx (1 p)(mx)(yx) x ( y x )!( { m x } { y x } )! y =x

Con el cambio de variable k = y x, podemos escribir la sumatoria como sigue


m x  X k=0

mx (p(1 q ))k (1 p)mxk , k

que por el binomio de Newton es igual a (p(1 q ) + (1 p))mx = (1 pq )mx . De aqu , sustituyendo la expresi on anterior resulta
 

P ( X = x) =

m (pq )x (1 pq )mx , x = 0, 1, . . . , m. x

CONDICIONAL DE DOS VARIABLES ALEATORIAS DISCRETAS 2.1. DISTRIBUCION

19

Ejemplo 2.1.8. Isabel lanza 4 veces una moneda, la probabilidad de que ella obtenga sol es 1/3. Carlos tiene otra moneda, la cual lanza cada vez que Isabel obtiene sol (no en otro caso), la probabilidad de que Carlos obtenga sol en su lanzamiento es 2/3. Calcule la probabilidad de que Carlos obtenga dos soles. Soluci on: Sea Y el n umero de soles que Isabel obtiene en 4 lanzamientos. Sea X el n umero de soles que Carlos obtiene en sus lanzamientos. Tenemos que condicional a Y = y , X tiene distribuci on binomial de par ametros (y, 2/3) y Y tiene distribuci on binomial de par ametros (4, 1/3). Por la proposici on 2.1.7, X tiene distribuci on binomial con par ametros (4, 2/9). De esta manera, la probabilidad de que Carlos obtenga dos soles es
  2 2

P (X = 2) =

4 2

2 9

7 9

= 0.17924.

Proposici on 2.1.9. Sean X, Y variables aleatorias tales que condicional a Y = y , X tiene distribuci on binomial de par ametros (y, p); Y tiene distribuci on Poisson de par ametro . Entonces la variable aleatoria X tiene distribuci on Poisson de par ametro p. Demostraci on: Tenemos
 

P (X = x | Y = y ) = Tambi en

y x p (1 p)yx , x = 0, 1, . . . , y. x

P (X = x | Y = y ) = 0, x > y. Aplicando la ley de probabilidad total resulta P (X = x) =


X

P (X = x | Y = y )P (Y = y ) y x y p (1 p)yx e y! x


y =0  X y =x

= e = e

y! x yx px (1 p)yx x!(y x)! y! y =x


(p)x X [(1 p)]yx . x! y=x (y x)!

(2.4)

Ahora bien, con el cambio de variable k = y x, obtenemos que la suma que aparece en el lado derecho de (2.4) se puede escribir en la forma
X [(1 p)]k k=0

k!

= e(1p) .

Sustituyendo la expresi on anterior en (2.4) resulta P (X = x) = ep (p)x , x = 0, 1, . . . x!

20

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

2.2.

Distribuci on condicional de dos variables aleatorias continuas

Denici on 2.2.1. Sea (X, Y ) vector aleatorio con funci on de densidad conjunta fX,Y (x, y ). La funci on de densidad condicional de X dado Y = y , se dene por fX |Y (x | y ) = fX,Y (x, y ) , fY (y )

siempre que fY (y ) > 0. En otro caso, no est a denida o se le puede asignar un valor arbitrario, digamos cero. Observaci on 2.2.2. 1. Multiplicando por x en ambos lados obtenemos fX |Y (x | y )x = = fX,Y (x, y )xy fY (y )y P (x X x + x, y Y y + y ) P (y Y y + y ) P (x X x + x | y Y y + y ).

En otras palabras, para valores peque nos de x y y , fX |Y (x | y )x representa la probabilidad condicional de que X se encuentre entre x y x + x, dado que Y se encuentra entre y y y + y . 2. La funci on de densidad condicional de Y dado X = x, se dene en forma similar, esto es, fY |X (y | x) = fX,Y (x, y ) , fX (x)

siempre que fX (x) > 0. En otro caso, no est a denida o se le asigna un valor arbitrario, por ejemplo cero. 3. La ley de probabilidad total en el caso de variables aleatorias continuas se puede escribir de la siguiente forma
Z

fX (x)

=
Z

fX,Y (x, y )dy fX |Y (x | y )fY (y )dy

(2.5)

Ejemplo 2.2.3. Sea (X, Y ) un vector aleatorio con funci on de densidad conjunta dada por
8 < :
12 5 x(2

x y)

0 < x < 1, 0 < y < 1 otro caso

fX,Y (x, y ) = Calcule fX |Y (x | y ), 0 < y < 1. Soluci on: Tenemos

0,

fY (y )

= =

12 x(2 x y )dx 5 8 6 y 5 5
0

Entonces, para 0 < y < 1 obtenemos fX |Y (x | y ) = fX,Y (x, y ) 6x(2 x y ) = , 0 < x < 1. fY (y ) 4 3y

CONDICIONAL DE DOS VARIABLES ALEATORIAS CONTINUAS 2.2. DISTRIBUCION Ejemplo 2.2.4. Sea (X, Y ) vector aleatorio con funci on de densidad conjunta dada por
8 <
e
x y

21

fX,Y (x, y ) = Calcule fX |Y (x | y ), 0 < y < . Soluci on: Tenemos

ey y

0 < x < , 0 < y < otro caso

0,

fY (y )

= e y
0

1 x e y dx y

= e y De esta manera, para 0 < y < fX |Y (x | y ) = 1 x e y , 0 < x < . y

Observaci on 2.2.5. La densidad condicional obtenida, fX |Y (x | y ), es una densidad exponencial con media y . Ejemplo 2.2.6. Sea (X, Y ) vector aleatorio con funci on de densidad conjunta dada por
8 < 3x :

0<y<x<1 otro caso

fX,Y (x, y ) = Encuentre fY |X (y | x), 0 < x < 1. Soluci on: Tenemos

0,

fX (x) =
0

3xdy = 3x2 . 1 , 0 < y < x. x

As , para 0 < x < 1 fY |X (y | x) =

Observaci on 2.2.7. La densidad condicional fY |X (y | x) es una densidad uniforme en el intervalo (0, x). Ejemplo 2.2.8. Sea (X, Y ) vector aleatorio con funci on de denisidad conjunta dada por
8 < e x :

0<y<x< otro caso

fX,Y (x, y ) = Calcule fX |Y (x | y ) y fY |X (y | x). Soluci on: Tenemos fX (x) fY (y ) De esta manera, fX |Y (x | y ) fY |X (y | x)

0,

= =
y

ex dy = xex ex dx = ey

Z0

= =

e(xy) , y < x < . 1 , 0 < y < x. x

22

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

Ejemplo 2.2.9. Sea X variable aleatoria que condicional a Y = y tiene distribuci on exponencial de media 1/y . Suponga que Y tiene distribuci on gama de par ametros y . Encuentre la funci on de densidad marginal de X (densidad incondicional de X ). Soluci on: Tenemos que fX |Y (x | y ) = yeyx , x 0, 1 y y e , y 0. () Aplicando la ley de probabilidad total, tenemos que para x 0, fY (y ) =
Z
0

fX ( x)

= = =

yeyx
Z

1 y y e dy ()

y e(x+ )y dy () 0 Z ( + 1) (x + )+1 (x+ )y y e dy () (x + )+1 0 ( + 1)

N otese que la funci on dentro del integrando es la densidad de una variable aleatoria gama de par ametros + 1 y x + por lo que el valor de la integral es 1. Adem as, se cumple la identidad ( + 1) = (), > 0 (comprobar!). Por lo tanto, fX (x) = , x 0. (x + )+1

Ejemplo 2.2.10. Suponga que dado Y = y , X tiene distribuci on normal con media y y varianza v , v constante. Suponga tambi en que Y tiene distribuci on normal con media y varianza w. Calcule la densidad de X . X tiene densidad conocida? Soluci on: Aplicando la ley de probabilidad total, tenemos que para x R
Z

fX ( x)

=
Z

fX |Y (x | y )fY (y )dy 1 1 1 1 exp (x y )2 exp (y )2 dy 2v 2w 2v 2w    Z 1 1 (x y )2 (y )2 exp + dy. 2 v w 2 vw


2

= =

Usamos la identidad algebraica (comprobar!) (x y )2 (y )2 v+w wx + v y + = v w vw v+w para obtener fX (x) = = 1 1v+w wx + v 2 (x )2 exp y dy 2(v + w) 2 vw v+w 2 vw  Z  1 1 v+w 1v+w wx + v 2 2 exp (x ) exp y dy 2(v + w) 2 vw v+w 2vw 2 (v + w) 1 exp
Z

(x )2 v+w


N otese que la funci on dentro de la integral es una densidad de una variable aleatoria normal con media (wx + v)/(v + w) y varianza (vw)/(v + w), lo que implica que la integral es 1. Por lo tanto, 1 1 fX (x) = exp (x )2 , < x < . 2( v + w) 2 (v + w) Como puede notarse la densidad fX es una densidad normal con media y varianza v + w.

2.3. ESPERANZA Y VARIANZA CONDICIONALES

23

2.3.

Esperanza y Varianza Condicionales

Denici on 2.3.1. Sea (X, Y ) vector aleatorio discreto. La esperanza condicional de X dado Y = y se dene por X E[X | Y = y ] = xpX |Y (x | y ), (2.6)
x

siempre que pY (y ) > 0. La sumatoria que aparece en (2.6) es sobre el rango de X . Denici on 2.3.2. Sea (X, Y ) vector aleatorio continuo. La esperanza condicional de X dado Y = y se dene por
Z

E[X | Y = y ] = siempre que fY (y ) > 0.

xfX |Y (x | y )dx,

(2.7)

Observaci on 2.3.3. La serie que aparece en (2.6) se supone absolutamente convergente. De la misma forma, la integral que aparece en (2.7) se supone absolutamente convergente. Ejemplo 2.3.4. Si X, Y son variables aleatorias independientes con distribuci on Poisson de par ametros y respectivamente. Encuentre E[X | X + Y = n]. Soluci on: En el ejemplo 2.1.4 vimos que X | X + Y = n ten a distribuci on binomial de par ametros n y + . De esta manera E[X | X + Y = n] = n . +

Ejemplo 2.3.5. Si X, Y son variables aleatorias independienttes con distribuci on binomial de par ametros (n, p) y (m, p) respectivamente, encuentre E[X | X + Y = k ]. Soluci on: En el ejemplo 2.1.6 vimos que X | X + Y = k ten a distribuci on hipergeom etrica con par ametros (n + m, n, k ). Por lo tanto, E[X | X + Y = k ] = mk n . n+m

Ejemplo 2.3.6. Sea (X, Y ) vector aleatorio con funci on de densidad conjunta dada por
8 <
e
x y

fX,Y (x, y ) =

ey , y

0 < x < , 0 < y < otro caso

Calcule E[X | Y = y ]. Soluci on: En el ejemplo 2.2.4 encontramos que fX |Y (x | y ) = 1 x e y , 0 < x < . y

N otese que X | Y = y tiene distribuci on exponencial con media y , por lo que E[X | Y = y ] = y.

24

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

Ejemplo 2.3.7. Sea (X, Y ) vector aleatorio con funci on de densidad conjunta
8 < e x ,

0<y<x< otro caso

fX,Y (x, y ) =

Calcule E[X | Y = y ]. Soluci on: En el ejemplo 2.2.8 calculamos fX |Y (x, y ) = e(xy) , y < x < . De esta manera,
Z
y

E[X | Y = y ]

=
Z 

xe(xy) dx

= ey
y

xex dx
Z

= e

xex | y

+
y

dx

= y+1

Proposici on 2.3.8. Sean X, Y, X1 , X2 variables aleatorias, g una funci on y c constante. Entonces 1. E[c | Y = y ] = c, 2. E[X1 + X2 | Y = y ] = E[X1 | Y = y ] + E[X2 | Y = y ], 3. E[cX | Y = y ] = c E[X | Y = y ], 4. E[g (X, Y ) | Y = y ] = E[g (X, y ) | Y = y ] 5. E[X | Y = y ] = E[X ] si X y Y son independientes. Demostraci on: S olo mostraremos 1), 4) y 5) en caso discreto, las versiones continuas, as como tambi en 2) y 3) se le dejan al lector. 1. Si X = c, entonces para cualquier y ,
8 > <pY (y ),

x=c x=c

pX,Y (x, y ) =

> :0, 8 < 1,

De aqu , pX |Y (x | y ) =

x=c x=c

0,

para cualquier y que cumpla pY (y ) > 0. De esta manera E[c | Y = y ] = cpX |Y (c | y ) = c.

2.3. ESPERANZA Y VARIANZA CONDICIONALES 4. Por denici on E[g (X, Y ) | Y = y ] = Ahora bien p(X,Y )|Y =y (x, z | y ) = P (X = x, Y = y, Y = z ) P (Y = y ) si z = y si z = y
XX
x z

25

g (x, z )p(X,Y )|Y (x, z | y )

(2.8)

8 < pX |Y (x | y )

0,

De esta manera, sustituyendo la expresi on anterior en la ecuaci on (2.8) queda E[g (X, Y ) | Y = y ] = =
XX
x z =y

g (x, z ) 0 +

X
x

g (x, y )pX |Y (x | y )

E[g (X, y ) | Y = y ].

5. Notemos que si X y Y son independientes entonces pX |Y (x | y ) = pX (x), siempre que pY (y ) > 0. Por lo tanto, E[X | Y = y ] =
X
x

xpX |Y (x | y ) =

X
x

xpX (x) = E[X ].

La distribuci on condicional de X dado Y = y depende de y . Esto implica que la esperanza condicional E[X | Y = y ] es funci on de y , esto es, h(y ) = E[X | Y = y ], para alguna funci on h. De esta manera, podemos considerar la variable aleatoria h(Y ), la cual denotaremos por E[X | Y ], es decir, h(Y ) = E[X | Y ]. Esta variable cumple lo siguiente: Teorema 2.3.9. Sea X variable aleatoria tal que E[|X |] < . Entonces E[E[X | Y ]] = E[h(Y )] = E[X ] (2.9)

Demostraci on: Mostraremos (2.9) en el caso discreto, el caso continuo es an alogo. Adicionalmente supondremos que podemos intercambiar el orden de las sumas que aparecen en la demostraci on. La suposici on anterior tiene una base formal de teor a de la medida, no lo estudiaremos aqu porque queda fuera del prop osito de estas notas. Si el lector desea saber m as sobre lo anterior puede consultar

26

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

[referencia Ash o cualquier otro de teor a de la medida] E[E[X | Y ]] = E[h(Y )] = = = = =


X
y

h(y )pY (y ) E[X | Y = y ]pY (y ) xpX |Y (x | y )pY (y ) xpX |Y (x | y )py (y ) xpX,Y (x, y )
X
y

X
y

XX XX XX
x y x y y x

= =

X X
x x

pX,Y (x, y )

xpX (x)

= E[X ].

Observaci on 2.3.10. 1. El teorema anterior se puede interpretar como la ley de esperanza total. 2. La suposici on E[|X |] < es importante, si no se tiene, la ecuaci on (2.9) no es cierta. Para ilustrar esto veamos el siguiente ejemplo. Ejemplo 2.3.11. Suponga que la variable aleatoria Y tiene distribuci on ji-cuadrada con un grado de libertad. Suponga tambi en que la densidad condicional de X dado Y = y es
2 1 1 fX |Y (x | y ) = y 1/2 e 2 yx , < x < . 2

N otese que fX |Y (x | y ) se puede escribir de la siguiente forma


( )

fX |Y (x | y ) = q exp x2 1 1 2 y 2 y

, < x < .

La funci on de densidad anterior es de una variable aleatoria normal con media 0 y varianza 1/y . De aqu E[X | Y = y ] = 0, de donde E[X | Y ] = 0 Y tambi en E[E[X | Y ]] = 0.

2.3. ESPERANZA Y VARIANZA CONDICIONALES Por otro lado,


Z
0

27

fX (x)

=
Z

2 1 1 1 y 1/2 e 2 yx y 1/2 2

1 2

1 2

e 2 dy

= =

2 1 1 e 2 (x +1)y dy 2 0 Z 2 1 1 2 1 1 (x + 1)e 2 (x +1)y dy x2 + 1 0 2

{z
1

1 . (x2 + 1)

Lo anterior muestra que X es una variable aleatoria Cauchy, y por lo tanto E[X ] no existe. De esta manera, este ejemplo muestra que el supuesto E[|X |] es muy importante. Ejemplo 2.3.12. Sean X, Y variables aleatorias. Suponga que X , condicional a Y = y , tiene distribuci on binomial de par ametros (y, q ). Suponga que Y tiene distribuci on binomial de par ametro (m, p). Encuentre E[X ]. Soluci on: Tenemos E[X | Y = y ] = yq. De aqu E[X | Y ] = Y q. Aplicando la ley de esperanza total resulta E[X ] = E[E[X | Y ]] = q E[Y ] = qmp.

Ejemplo 2.3.13. Suponga que X | Y = y tiene distribuci on binomial de par ametros y y p, a su vez Y es una variable aleatoria Poisson de par ametro . Encuentre E[X ]. Soluci on: Tenemos E[X | Y ] = Y p. De aqu , por la ley de esperanza total E[X ] = E[E[X | Y ]] = pE[Y ] = p.

Ejemplo 2.3.14. Sean X, Y variables aleatorias que cumplen lo siguiente: X , condicional a Y = y , tiene distribuci on exponencial con media y , Y tiene distribuci on exponencial con media 1. Encuentre E[X ]. Soluci on: Por la ley de esperanzas totales E[X ] = E[E[X | Y ]] = E[Y ] = 1.

Ejemplo 2.3.15. Una vara de longitud uno se rompe aleatoriamente en un punto uniformemente distribuido. La pieza restante se rompe una vez m as de la misma forma, esto es, en alg un punto uniformemente distribuido en la longitud de la pieza. Encuentre el valor esperado de la pieza restante despu es de las dos veces que se ha roto.

28

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

Soluci on: Sea Y la longitud de la vara despu es de haber sido rota. Sea X la longitud de la vara restante despu es de haber sido rota por segunda vez. Tenemos que Y tiene distribuci on uniforme en (0, 1), a su vez X | Y = y tiene distribuci on uniforme en (0, y ). De esta manera, E[X | Y ] = De aqu E[X ] = 1 1 E[Y ] = . 2 4 Y . 2

Observaci on 2.3.16. En los ejemplos anteriores no fue necesario encontrar la distribuci on de X para encontrar su valor esperado. Denici on 2.3.17. Sean X, Y variables aleatorias conjuntamente distribuidas. La varianza condicional de X dado Y = y se dene por Var(X | Y = y ) = E[(X E[X | Y = y ])2 | Y = y ]. De la denici on se sigue que la varianza condicional tambi en es una funci on de y , digamos v (y ). De esta manera, la variable aleatoria v (Y ) la denotamos por Var(X | Y ), es decir, v (Y ) = Var(X | Y ). Teorema 2.3.18. Sea X variable aleatoria que cumple E[X 2 ] < . Entonces Var(X ) = E[Var(X | Y )] + Var(E[X | Y ]). Demostraci on: Tenemos Var(X | Y ) = = = = As E[Var(X | Y )] = E[X 2 ] E[(E[X | Y ])2 ]. Por otro lado, Var(E[X | Y ]) = E[(E[X | Y ])2 ] (E[E[X | Y ]])2 = E[(E[X | Y ])2 ] (E[X ])2 . (2.11) (2.10) E[(X E[X | Y ])2 | Y ] E[X 2 | Y ] 2E[X E[X | Y ] | Y ] + E[E2 [X | Y ] | Y ] E[X 2 | Y ] 2(E[X | Y ])2 + (E[X | Y ])2 E[X 2 | Y ] E2 [X | Y ]

Sumando las ecuaciones (2.10) y (2.11) se sigue el resultado. Ejemplo 2.3.19. Continuando con el ejemplo 2.3.15 calcule la varianza de la longitud de la vara restante despu es de romperse por segunda ocasi on. Soluci on: Tenemos Var(X | Y = y ) = Entonces E[Var(X | Y )] = Tambi en Por lo tanto, Var(X ) = 1 1 7 + = . 36 48 144 1 2 y . 12

1 1 1 1 E[Y 2 ] = = . 12 12 3 36

1 1 1 1 1 Var(E[X | Y ]) = Var( Y ) = Var(Y ) = = . 2 4 4 12 48

CONDICIONALES DE DOS VARIABLES ALEATORIAS 2.4. DISTRIBUCION

29

2.4.

Distribuci on condicionales de dos variables aleatorias: una discreta y la otra continua

En esta secci on estudiaremos las distribuciones condicionales en el caso donde se tiene una variable aleatoria discreta y otra continua. Se estudiar an particularmente los siguientes casos: 1. La variable aleatoria condicionante es discreta. 2. La variable aleatoria condicionante es continua. En el primer caso, como introducci on al curso de Teor a del Riesgo, estudiaremos las sumas aleatorias de variables aleatorias, las cuales como caso particular tienen el conocido modelo de riesgo colectivo. En el segundo caso lo que se estudiar a ser a el comportamiento de una variable aleatoria discreta en presencia de una variable aleatoria continua, basicamente como se ve afectada la variable aleatoria discreta en presencia de un par ametro continuo. En toda esta secci on para diferenciar las variables aleatorias continuas de las discretas, utilizaremos la notaci on N, M para las variables aleatorias discretas y X, Y, Z para las variables aleatorias continuas. Supondremos adem as que las variables aleatorias discretas toman valores en los enteros no negativos, esto es, en el conjunto {0, 1, 2, . . .}.

2.4.1.

Condicionando con respecto a una variable aleatoria discreta

Denici on 2.4.1. Sea (X, N ) vector aleatorio con funci on de distribuci on conjunta. Suponga que X es variable aleatoria continua y que N toma valores en {0, 1, 2, . . .}. La funci on de distribuci on condicional de X dado N = n est a denida por FX |N (x | n) = P (X x | N = n) = P (X x, N = n) , P (N = n)

siempre que P (N = n) > 0. No est a denida o le asignamos el valor cero cuando P (N = n) = 0. Supongamos ahora que FX |N (x | n) est a bien denida y es diferenciable en x. Entonces, denimos la densidad condicional de X dado N = n por fX |N (x | n) = Observaci on 2.4.2. 1. Podemos obtener FX |N (x | n), para P (N = n) > 0, a partir de fX |N (x | n) mediante la ecuaci on: Z x FX |N (x | n) = fX |N (t | n)dt.

d FX |N (x | n). dx

(2.12)

2. Para cada valor de n jo donde fX |N (x | n) est a denida, la funci on fX |N ( | n) es una funci on de densidad continua. En efecto, de la denici on se sigue que fX |N (x | n) es no negativa y que
Z

fX |N (x | n)

= =

l m FX |N (x | n)

1.

3. Por la ley de probabilidad total tenemos FX ( x ) = P (X x) = =


X

P (X x | N = n)pN (n) fX |N (t | n)pN (n)dt

n=0 Z x X n=0

30

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES Suponiendo que podemos intercambiar la suma con la integral, la f ormula nal queda
Z
x

FX (x) = Derivando la ecuaci on (2.13) resulta fX (x) =

fX |N (t | n)pN (n)dt.

(2.13)

n=0

X n=0

fX |N (x | n)pN (n).

(2.14)

La ecuaci on (2.14) permite calcular la densidad marginal de X en t erminos de la funci on de densidad condicional de X dado N = n y la funci on masa de probabilidad de N . 4. La esperanza condicional de X dado N = n, est a denida por
Z

E[X | N = n] =
0

xfX |N (x | n)dx.

Se puede demostrar que E[X | N ] satisface las propiedades de la proposici on 2.3.8, pero no lo haremos aqu porque queda fuera del prop osito de estas notas. Tambi en podemos considerar la variable aleatoria E[X | N ] denida en la misma forma que en las secciones anteriores. Se puede demostrar que si E[|X |] < entonces E[X | N ] satisface la ecuaci on (2.9), pero tampoco se har a aqu . Se le recomienda al lector demostrar estos hechos.

2.4.2.

Sumas aleatorias de variables aleatorias

En esta secci on haremos uso de las herramientas desarrolladas en la secci on anterior, las cuales fueron dadas como observaciones. Antes denimos la variable suma aleatoria de variables aleatorias. Denici on 2.4.3. Sean X1 , X2 , X3 , . . . variables aleatorias continuas independientes e id enticamente distribuidas. Sea N variable aleatoria tomando valores en {0, 1, 2, . . .} e independiente de X1 , X2 , X3 , . . .. Denimos la variable aleatoria S de la siguiente manera:
8 < 0,

N =0 (2.15) N >0

S=

X1 + + XN ,

La variable aleatoria S es una suma aleatoria de variables aleatorias. En Teor a de Riesgo, bajo el supuesto de que las variables aleatorias X1 , X2 , . . . son no negativas, S es conocida con el nombre de modelo de riesgo colectivo. En un periodo de tiempo jo, las variables aleatorias Xi s representan el monto a pagar por una compa n a aseguradora y N el n umero de reclamaciones efectuadas, de tal forma que S es el monto total a pagar por la compa n a en ese periodo de tiempo. Denici on 2.4.4. Sean X1 , X2 , . . . variables aleatorias continuas independientes e id enticamente distribuidas con densidad f . La funci on de densidad f (n) de X1 + X2 + + Xn es llamada la n- esima convoluci on de f , que se dene como sigue f (1) (x) f (n) (x) Observaci on 2.4.5. 1. La ecuaci on (2.15) es la denici on general de una suma aleatoria de variables aleatorias. Para simplicar, supondremos adicionalmente que P (N = 0) = 0. Esto para que la funci on de distribuci on acumulada de S resulte continua. En caso contrario, la funci on de distribuci on acumulada de S tiene un salto de tama no P (N = 0) en el punto cero. = f (x)
Z

f (n1) (x y )f (y )dy, n > 1.

CONDICIONALES DE DOS VARIABLES ALEATORIAS 2.4. DISTRIBUCION

31

2. Debido a que N y {Xn , n 1} son independientes, entonces f (n) (x) tambi en es la densidad condicional de S = X1 + + XN , dado N = n, n 1. En efecto, para n 1 FS |N (x | n) = P (X1 + + XN x | N = n) = P (X1 + + Xn x | N = n) = P (X1 + + Xn x)
Z
x

f (n) (t)dt.

Derivando la ecuaci on anterior resulta fS |N (x | n) = f (n) (x). 3. Reescribiendo la ecuaci on (2.14): fS (x) =
X n=1

f (n) (x)pN (n).

(2.16)

Ejemplo 2.4.6. Suponga que Xi tiene distribuci on exponencial de media 1/ y N tiene funci on masa de probabilidad dada por pN (n) = (1 )n1 , n = 1, 2, 3, . . . . Calcule la funci on de densidad de S . Soluci on: Usando la f ormula (2.16) tenemos fS (x) =
X n=1

f (n) (x)(1 )n1 .

Ahora bien, debido a que cada Xi tiene distribuci on exponencial de par ametro , entonces X1 + + Xn tiene densidad gama de par ametros n y , es decir, f (n) (x) = As fS ( x) = n xn1 ex (1 )n1 ( n 1)! n=1
X [x(1 )]n1 n=1 X

n xn1 ex , x 0. (n 1)!

= ex

(n 1)!

Por otro lado, con el cambio de variable k = n 1 obtenemos


X [x(1 )]n1 n=1

(n 1)!

X [x(1 )]k k=0

k!

= ex(1) .

De esta manera, fS (x) = ex ex(1) = ex , x 0. Es decir, S tiene distribuci on exponencial de par ametro . Ahora determinaremos cual es el valor esperado y la varianza de S . Esto lo enunciamos en el siguiente teorema.

32

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

Teorema 2.4.7. Sea S denida por (2.15). Sean = E[X ], = E[N ], 2 = Var(X ) y 2 = Var(N ). Suponga que E[X 2 ], E[N 2 ] < . Entonces E[S ] = , Var(X ) = 2 + 2 2 . (2.17)

Demostraci on: Calculemos E[S | N = n]. Tenemos E[S | N = n] = E[X1 + + Xn | N = n] = E[X1 + + Xn ] = nE[X ] = n De aqu E[S ] = E[E[S | N ]] = E[N ] = E[N ] = . Ahora, Var(S | N = n) = E[(X1 + + XN E[S | N = n])2 | N = n] = E[(X1 + + Xn n)2 | N = n] = E[(X1 + + Xn n)2 ] = Var(X1 + + Xn ) = nVar(X ) = n 2 De aqu Var(S ) = = = = E[Var(S | N )] + Var(E[S | N ]) E(N 2 ) + Var(N ) 2 E[N ] + 2 Var(N ) 2 + 2 2 . (independencia de X1 , X2 , . . . y N ) (X1 , X2 , . . . son id enticamente distribuidas)

Observaci on 2.4.8. N otese que en la prueba del resultado anterior no se us o el supuesto P (N = n) = 0, por lo que el resultado del teorema anterior sigue siendo v alido inclusive cuando P (N = 0) > 0. De esta forma tenemos el siguiente ejemplo: Ejemplo 2.4.9. Sea S denida como en (2.15). Suponga que N es una variable aleatoria Poisson de par ametro y que cada Xi es exponencial con media . Calcule E[S ] y Var(S ) Soluci on: Tenemos = , 2 = 2 , = , 2 = . Sustituyendo las cantidades anteriores en (2.17) resulta E[S ] = , Var(S ) = 22 .

2.4.3.

Condicionando con respecto a una variable aleatoria continua

En esta secci on estudiaremos el comportamiento de una variable aleatoria discreta N cuando se conoce el comportamiento de esta variable en presencia de par ametros aleatorios continuos X . Para cada valor x de X supondremos que tenemos el comportamiento de la variable aleatoria N , es decir,

CONDICIONALES DE DOS VARIABLES ALEATORIAS 2.4. DISTRIBUCION

33

ser a conocido la probabilidad P (N = n | X = x). Sea fX la funci on de densidad continua de la variable aleatoria X , entonces la ley de probabilidad total en este caso queda:
Z

P (N = n) =

P (N = n | X = x)fX (x)dx

(2.18)

La f ormula (2.18) no la demostraremos aqu porque su demostraci on involucra t opicos avanzados en Probabilidad, y no es el objetivo de estas notas. Si el lector desea ver la demostraci on le recomendamos el libro (s) [Ash, etc] Ejemplo 2.4.10. Sea N variable aleatoria que condicionada a X = x tiene distribuci on binomial de par ametros (m, x). Suponga que X tiene distribuci on uniforme en el intervalo (0, 1). Encuentre la distribuci on de N . Soluci on: N otese que N toma valores 0, 1, . . . , m. Aplicando la f ormula (2.18) resulta
Z

P (N = n)

= =
0

P (N = n | X = x)fX (x)dx
Z 1

 Z

m n x (1 x)mn dx n
1 0

= =

m n

xn (1 x)mn dx
Z
0 1

m! n!(m n)!

xn (1 x)mn dx

Recordemos que la funci on de densidad de una variable aleatoria beta est a dada por 1 xa1 (1 x)b1 , 0 < x < 1, a, b > 0, B (a, b) donde B (a, b) est a denida por B (a, b) = (a)(b) . (a + b)

De esta manera, tomando a = n + 1 y b = m n + 1, obtenemos


Z
0 1

xn (1 x)mn dx =

n!(m n)! (n + 1)(m n + 1) = . (m + 2) (m + 1)! 1 . m+1

Por lo tanto, P (N = m) =

Esto es, la variable aleatoria N es uniforme discreta en {0, 1, . . . , m} Ejemplo 2.4.11. Sea N variable aleatoria que condicionada a X = x tiene distribuci on Poisson de media x. Suponga que X tiene distribuci on exponencial con media 1/. Encuentre la distribuci on de N . Soluci on: En este caso la variable aleatoria N toma valores en {0, 1, . . .}. Por la ley de probabilidad total tenemos
Z

P (N = n)

=
Z
0

P (N = n | X = x)fX (x)dx e x
0

= = n!
Z

xn x e dx n!

xn ex(1+) dx

34

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

Haciendo el cambio de variable u = x(1 + ) tenemos


Z
0

xn ex(1+) dx

= =

1 un eu du n +1 (1 + ) 0 Z 1 (n + 1) un eu du (1 + )n+1 0 (n + 1)

{z
1

= Por lo tanto, P (N = n) = = (1 + )n+1

n! (1 + )n+1

1+

1 1+

, n = 0, 1, 2, . . .

Es decir, N tiene distribuci on geom etrica de par ametro /(1 + ).

2.5.

Caso Especial: Normal Bivariada

Denici on 2.5.1. El vector aleatorio (X, Y ) tiene distribuci on normal bivariada si su funci on de densidad est a dada por 1 p f (x, y ) = exp 2(1 2 ) 2x y 1 2 1

x x x

(x x )(y y ) 2 + x y

y y y

2

Proposici on 2.5.2. Sea (X, Y ) un vector aleatorio normal bivariado entonces: 1. La densidad condicional de X dado Y = y es una densidad normal con par ametros x + x 2 (y y ) y x (1 2 ). y

2. La densidad condicional de Y dado X = x es tambi en una densidad normal.


2 2 3. X y Y ambas son variables aleatorias normales con respectivos par ametros (x , x ) y (y , y ).

4. X y Y son independientes si = 0 Demostraci on: Se deja como ejercicio.

2.6.

Ejercicios

1. Mam a p ajaro pone huevos en un cierto lugar conforme a una distribuci on Poisson de media 6. Debido a los depredadores y otros factores clim aticos, la probabilidad de supervivencia de cada huevo es 0.2. El comportamiento de supervivencia es independiente entre huevos. Calcule la probabilidad de que: a ) sobreviva un pajarito. b ) al menos 3 huevecillos sobrevivan. 2. Se lanzan dos dados distinguibles. Sean X, Y el valor m as peque no y el valor m as grande de las caras obtenidas, respectivamente. Encuentre la funci on masa de probabilidad de X dado Y = y para y = 1, 2, . . . , 6. 3. Demuestre la identidad ( + 1) = (), > 0 que aparece en el ejemplo 2.2.9.

2.6. EJERCICIOS 4. Demuestre la identidad (x y )2 wx + v (y )2 v+w y + = v w vw v+w que aparece en el ejemplo 2.2.10. 5. Demuestra los casos faltantes para variables discretas y continuas de la proposici on 2.3.8. 6. Sean X, Y variables aleatorias y g una funci on. Demuestre que a ) E[g (Y )X | Y ] = g (Y ) E[X | Y ]. b ) E[X | Y ] = E[X ] si X, Y son independientes.
2

35

(x )2 v+w

7. Se lanza un dado balanceado de 6 caras. Luego, en base al n umero de la cara superior que aparezca en el dado, se lanza una moneda cargada, con esta moneda es dos veces m as probable de obtener aguila que sol. Calcule el n umero esperado de soles. 8. Seleccione un n umero aleatoriamente del conjunto de n umeros {1, 2, . . . , M }, digamos Y . Luego seleccione otro n umero aleatoriamente no m as grande que Y , esto es, seleccione un n umero del conjunto {1, 2, . . . , Y }, digamos X . Encuentre el valor esperado de X . 9. Si X es una variable aleatoria continua y N es discreta, demuestre
Z
b

P (a < X b, N = n) =
a

fX |N (x | n)pN (n)dx.

10. La funci on de densidad conjunta de X y Y est a dada por


8 < xex(y+1) ,

x > 0, y > 0 otro caso

fX,Y (x, y ) =

0,

Encuentre la funci on de densidad de X dado Y = y y de Y dado X = x. 11. Sean X, Y variables aleatorias independientes con distribuci on gamma de par ametros 2 y a y media 2a. Encuentre la funci on de densidad condicional de X dado X + Y = 2. 12. La funci on de densidad conjunta de X y Y est a dada por
8 < c(x2 y 2 )ex ,

0 x < , x y x otro caso

fX,Y (x, y ) =

0,

Encuentre la funci on de densidad condicional de Y dado X = x. 13. Suponga que la densidad de una variable aleatoria X es f (x), x > 0. Encuentre la funci on de densidad condicional de X x0 dado X > x0 . 14. Sean X, Y variables aleatorias independientes exponenciales de media 1. Encuentre la distribuci on condicional de X dado X + Y = z con z constante positiva. 15. El vector aleatorio (X, Y ) tiene distribuci on normal bivariada si su funci on de densidad est a dada por 1 p exp f (x, y ) = 2(1 2 ) 2x y 1 2 1

x x x

(x x )(y y ) 2 + x y

y y y

2

36

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES a ) Demuestre que la densidad condicional de X dado Y = y es una densidad normal con par ametros x 2 x + (y y ) y x (1 2 ). y Demuestre tambi en que la densidad condicional de Y dado X = x es tambi en una densidad normal, Cuales son sus par ametros? b ) Demuestre que X y Y ambas son variables aleatorias normales con respectivos par ametros 2 2 (x , x ) y (y , y ). c ) Demuestre que X y Y son independientes si = 0

16. Suponga que cada componente en un cierto sistema de tres componentes funciona con probabilidad p y falla con probabilidad 1 p, cada componente funciona o falla de manera independiente de los otros. El sistema se encuentra en un ambiente aleatorio, de tal forma que p es una variable aletoria. Suponga que p tiene distribuci on uniforme en el intervalo (0, 1). El sistema opera si al menos dos componentes funcionan. Calcule la probabilidad de que el sistema opere. 17. La funci on de densidad del vector aleatorio (X, Y ) est a dada por:

f (x, y ) = Determinar a ) E [Y |X ]. b ) V ar(Y |X ).

x+y 0

0 x 1 0 en otro caso

18. Sup ongase que la distribuci on conjunta de X y Y es una distribuci on uniforme sobre el c rculo x2 + y 2 < 1. Hallar E [X |Y ]. 19. Sup ongase que dado X = x, Y tiene una distribuci on P oisson(x) y X tiene una distribuci on Gamma(, ) con media . Determinar la distribuci on de Y e identicarla cuando es un entero. 20. Sup ongase que la distribuci on condicionada de Y dado P = p es Bin(n, p), tal que P tiene una distribuci on Beta(, ). Determina la distribuci on marginal de Y . 21. Sea n1 + n2 ensayos que tienen la misma probabilidad de exito, sup ongase sin embargo que la probabilidad de exito no es jo, en general, es uniforme (0, 1). Determine la distribuci on condicional de la probabilidad de exito dado que de n1 + n2 ensayos resulten n1 exitos. 22. Muestre que para 0 < a < b o a < b < 0 se cumple
Z

P (a < S < b) =

bX a n=1

f (n) (x)pN (n)dx.

23. Sean X1 , X2 , X3 variables aleatorias independientes con funciones masa de probabilidad f1 , f2 , f3 , respectivamente, donde f1 , f2 , f3 est an dadas por f1 (x) f2 (x) f3 (x) = = = 1 1{0} (x) + 4 1 1{0} (x) + 2 1 1{0} (x) + 4 1 1{1} (x) + 4 1 1{2} (x), 2 1 1{2} (x) + 4 1 1{2} (x), 2

1 1{4} (x). 2

Sea S = X1 + X2 + X3 . Calcule la funci on masa de probabilidad de S .

2.6. EJERCICIOS

37

24. Sup ongase que la aseguradora FMAT tiene un portafolio con n p olizas de autom ovil que s olo permiten tener hasta 2 reclamaciones por asegurado por a no. Sea S el riesgo al que se encuentra expuesto la aseguradora y sean qj,0 , qj,1 y qj,2 las probabilidades de que el j- esimo asegurado presente 0, 1 y 2 reclamaciones, respectivamente. Si las reclamaciones de los asegurados son independientes entre s y el monto de cada reclamaci on del asegurado es zj , demuestre que a ) E [S ] =
n X j =1

zj (1 qj,0 + qj,2 ).
2 zj [(qj,1 + 4qj,2 ) (qj,1 + 2qj,2 )2 ].

b ) V ar[S ] =

n X j =1

38

CAP ITULO 2. DISTRIBUCIONES CONDICIONALES

Cap tulo 3

Otras funciones generadoras


3.1. Funci on Generadora de Cumulantes

Denici on 3.1.1. Sea X una variable aleatoria con funci on generadora de momentos MX (t), la funci on generadora de cumulantes de dene como X (t) = ln MX (t). El j esimo cumulante Kj de la variable X es Kj = (j ) (0) para j 1 donde (j ) (t) representa la j esima derivada de la funci on (t). Escribiremos Kj (X ) para denotar el j esimo cumulante de la variable aleatoria X . Ejemplo 3.1.2. Sea X con distribuci on N ormal(, 2 ). Hallar la funci on generadora de cumulantes. Soluci on: Tenemos que MX (t) = E [etx ] (x )2 1 2 2 dx etx e = 2 1 2 2Z [x(+ 2 t)]2 t+ t 1 2 2 2 = e e dx 2 1 2 2 t+ t 2 = e .
Z

Por lo tanto, X (t) = ln MX (t) = ln e


t+

1 2 2 t 1 2 = t + 2 t2 . 2

Ejemplo 3.1.3. Sea X con distribuci on N ormal(, 2 ). Entonces K1 (X ) = , K2 (X ) = 2 y Kj (X ) = 0 para j 3. Observaci on 3.1.4. La distribuci on de una variable aleatoria est au nicamente determinada por la funci on generadora de cumulantes. Proposici on 3.1.5. Sea X una variable aleatoria con funci on generadora de cumulantes X (t). Si j = E [X j ], entonces: 1. K1 (X ) = 1
2 2. K2 (X ) = 2 1 3 3. K3 (X ) = 3 31 2 + 21

39

40

CAP ITULO 3. OTRAS FUNCIONES GENERADORAS


2 2 4 4. K4 (X ) = 4 41 3 32 + 121 2 61

Demostraci on: S olo demostraremos el inciso 2) pues las demostraciones de los otros incisos son an alogas. Tenemos que (1) (t) = (ln MX (t)) = Luego

MX (t) MX (t)

Por lo tanto

(2)

(t) =

MX (t) MX (t)

MX (t)MX (t) (MX (t))2 (MX (t))2

K2 (X ) = (2) (0) =

E [1]E [X 2 ] (E [X ])2 MX (0)MX (0) (MX (0))2 2 = = 2 1 . (MX (0))2 (E [1])2

Proposici on 3.1.6. Si X (t) es la funci on generadora de cumulantes de la variable X entonces aX +b (t) = X (at) + bt. Adem as, si Y es una variable aleatoria independiente de X con funci on generadora de cumulantes Y (t) entonces X +Y (t) = X (t)+ Y (t) y Kj (X + Y ) = Kj (X )+ Kj (Y ). Demostraci on: La primera parte se sigue de que aX +b (t) = ln MaX +b (t) = ln E [et(aX +b) ] = ln(etb E [etaX ]) = ln etb + ln E [etaX ] = tb + X (at). Para la segunda parte recordemos que si X y Y son independientes, entoces MX +Y (t) = MX (t)MY (t). As se cumple que X +Y (t) = ln MX +Y (t) = ln MX (t) + ln MY (t) = X (t) + Y (t). (j ) (j ) (j ) Finalmente KX +Y = X +Y (0) = X (0) + Y (0) = Kj (X ) + Kj (Y ). Los momentos superiores son importantes para conocer mejor a las variables aleatorias. La desviaci on est andar no es suciente pues no considera desviaciones positivas y negativas con respecto a E [X ] debido a que las diferencias se elevan al cuadrado. Por esta raz on, podr amos considerar el estad stico E [(X E [X ])3 ] que s respeta la posici on izquierda o derecha en el que aparece el valor de X con respecto a E [X ] aunque este no es invariante bajo cambios de escala pues E [(kX E (kX ))3 ] = k 3 E [(X E (X ))3 ] = E [(X E (X ))3 ] a menos que k = 1. Por este motivo es importante considerar el sesgo de una variaable aleatoria.

Denici on 3.1.7. El sesgo de la variable aleatoria X es X = E

X E (X ) X

Cuando E [(X E (X ))3 ] < 0 decimos que la distribuci on est a cargada a la derecha y que tiene cola izquierda; cuando E [(X E (X ))3 ] > 0 decimos que la distribuci on est a cargada a la izquierda y que tiene cola derecha.

<0

=0 Figura 3.1: Sesgo de distribuciones

>0

GENERADORA DE CUMULANTES 3.1. FUNCION

41

Denici on 3.1.8. Una variable aleatoria X es sim etrica respecto a un punto c si para toda x se satisface P (X c x) = P (X c + x). Cuando una variable aleatoria es sim etrica con respecto a su media, el sesgo es cero. Es importante mencionar que existen variables aleatorias que tienen igual media, desviaci on est andar y sesgo; sin embargo sus valores y probabilidades son diferentes. Veamos un ejemplo. Ejemplo 3.1.9. Consideremos las variables aleatorias Z U (1, 1) y Y con la siguiente funci on de densidad ( y+ 2 , 2<y<0 2 f (y ) = 2y 2 2 , 0<y < Demuestra que la media, desviaci on est andar y sesgo de ambas variables son iguales. Soluci on: No es dif cil demostrar que E [Z ] = E [Y ] = 0, V ar(Z ) = V ar(Y ) =
1 3

y Z = Y = 0.

Por lo tanto necesitamos establecer una nueva medida para poder distinguir a las variables aleatorias.

Denici on 3.1.10. La kurtosis de una variable aleatoria es = E

X E (X ) X

La kurtosis mide qu e tan alta se encuentra la curva de la funci on de densidad.

Distribuci on Platok urtica

Distribuci on Mesok urtica

Distribuci on Leptok urtica

Figura 3.2: Kurtosis de distribuciones Una variable aleatoria normal tiene coeciente de kurtosis igual a 3. Si la kurtosis es mayor a 3, se dice que la variable aleatoria es Leptokurtica y su distribuci on es picuda y con colas pesadas. Si la kurtosis es menor a 3, se dice que la variable aleatoria es Platok urtica y su distribuci on es menos picuda y con colas delgadas; en ocasiones de dice que tiene hombros. Cuando la kurtosis es 3, se dice que es Mesok urtica. Observaci on 3.1.11. En ocasiones el coeciente de Kurtosis de dene como

=E

X E (X ) X

para que las comparaciones se realicen con respecto al cero. Proposici on 3.1.12. Las caracter sticas convencionalesde una variable aleatoria X est an dadas en t erminos de cumulantes: 1. Media: E [X ] = K1 (X ) 2. Varianza: V ar(X ) = K2 (X ) 3. Sesgo: = K3 (X ) 3 K4 (X ) 4. Kurtosis: = 4

42

CAP ITULO 3. OTRAS FUNCIONES GENERADORAS

3.2.

Funci on Generadora de Probabilidades

La funci on generadora de probabilidades, como su nombre lo indica, genera las probabilidades asociadas a una variable aleatoria. Nosotros s olo consideraremos la funci on generadora de probabilidades para variables aleatorias discretas no negativas. Denici on 3.2.1. Sea X una variable aleatoria no negativa. La funci on generadora de probabilidades PX (t) es PX (t) = E [tX ], para t > 0. La forma expl cita de la funci on generadora de probabilidades para las variables aleatorias enteras no negativas es PX (t) = p0 + p1 t + p2 t2 + p3 t3 + , (3.1) donde pi = P (X = i), para i = 0, 1, 2... . Ejemplo 3.2.2. Hallar la funci on generadora de probabilidades de la variable aleatoria X que se distribuye Bernoulli(1/4). Soluci on: Sabemos que P (X = 1) = 1/4 y que P (X = 0) = 3/4. Luego PX (t) = = = E [tX ] t1 P (X = 1) + t0 P (X = 0) 3 1 t+ . 4 4

Al igual que la funci on generadora de momentos, la funci on generadora de probabilidades est a denida para algunos valores t. En particular, la funci on generadora de probabilidades existe para |t| < 1 pues PX (t) = =
X i=0 X i=0

ti P (X = i) ti

1 . 1t

La funci on generadora de proabilidades tambi en determina de manera u nica la distribuci on de la variable aleatoria. Teorema 3.2.3. Sean X y Y dos variables aleatorias no negativas discretas. Si PX (t) = PY (t) entonces X y Y tienen la misma distribuci on. Demostraci on: Se deja como ejercicio. Proposici on 3.2.4. Sean X una variable aleatoria discreta no negativa y PX (t) su funci on generadora de probabilidades. Entonces para k = 1, 2, ... se cumple que PX (t) =
(k) X i=k

i(i 1) (i k + 1)tik P (X = i).

GENERADORA DE PROBABILIDADES 3.2. FUNCION Demostraci on: Procedamos a realizar la prueba por inducci on. Para k = 1 tenemos que PX (t)
(1)

43

= =

PX (t) d X i t P (X = i) dt i=0

= = =

X d P (X = 0) + ti P (X = i) dt i=1
X d i=1 X i=1

"

dt

ti P (X = i)

iti1 P (X = i),

es decir, se cumple. Ahora supongamos que PX (t) = luego PX


(k+1) (k) X i=k

i(i 1) (i k + 1)tik P (X = i),

(t)

= =

d (k ) P (t) dt X d X i(i 1) (i k + 1)tik P (X = i) dt


X d P (X = k ) + i(i 1) (i k + 1)tik P (X = i) dt i=k+1 X i=k+1 X i=k+1 X i=k+1

"

i=k

d i(i 1) (i k + 1)tik P (X = i) dt i(i 1) (i k + 1)(i k )tik1 P (X = i) i(i 1) (i k + 1)(i (k + 1) 1)ti(k+1) P (X = i)

Observaci on 3.2.5. De la denici on de funci on generadora de probabilidades y de la proposici on 3.2.4 tenemos que: 1. PX (1) =
(k ) X i=0

1i P (X = i) =

X i=0

P (X = i) = 1.

2. PX (0) =

X i=k

i(i 1) (i k + 1)0ik P (X = i) = k !P (X = k ).
(k )

P (0) 3. P (X = k ) = X : esta es la raz on, por la cual se conoce como funci on generadora de k! probabilidades. La funci on generadora de probabilidades se puede obtener mediante la funci on generadora de momentos como lo indica la siguiente proposici on.

44

CAP ITULO 3. OTRAS FUNCIONES GENERADORAS

Proposici on 3.2.6. Sean X una variable aleatoria discreta no negativa, MX (t) y PX (t) sus funciones generadoras de momentos y probabilidades, respectivamente. Entonces para t > 0 se cumple que PX (t) = MX (ln(t)). Demostraci on: Tenemos que PX (t) = E [tX ] = E [eln(t = E [e
X

X ln t

= MX (ln(t)).

Denici on 3.2.7. Sea X una variable aleatoria discreta no negativa. El momento factorial de orden k de la variable X es E [X (X 1) (X k + 1)]. Proposici on 3.2.8. Sea X una variable aleatoria X no negativa tal que E [|X |k ] < para alg un k = 1, 2, .... Entonces el momento factorial de orden k se puede calcular mediante la expresi on dk PX (t) . dtk t=1 Proposici on 3.2.9. Sean X1 , ..., Xn variables aleatorias discretas, no negativas e independientes con funciones generadoras de probabilidades PXi (t) para i = 1, ..., n. Entonces la variable aleatoria Sn = X1 + + Xn tiene como funci on de generadora de probabilidades a PSn (t) =
n Y i=1

PXi (t).

Demostraci on: Tenemos que PSn (t) = E [tSn ]

= E [tX1 ++Xn ] = E [tX1 tXn ] = E [tX1 ] E [tXn ] = PX1 (t) PXn (t) =
n Y i=1

PXi (t).

Corolario 3.2.10. Sean X1 , ..., Xn variables aleatorias discretas, no negativas, independientes e identicamente distribuidas con funci on generadora de probabilidades PX (t). Entonces la variable aleatoria Sn = X1 + + Xn tiene como funci on de generadora de probabilidades a PSn (t) = (PX (t))n . Demostraci on: Por la proposici on 3.2.9 tenemos que PSn (t) =
n Y i=1

PXi (t) = (PX (t))n .

CARACTER 3.3. FUNCION ISTICA

45

Ejemplo 3.2.11. Determina la funci on generadora de probabilidades de una variable aleatoria X Bin(3, 1/4). Soluci on: Sabemos que una variable aleatoria se puede ver como suma de variables aleatorias Bernoulli independientes. Por el ejemplo 3.2.2, sabemos que la funci on generadora de probabilidades 3 t + . Finalmente por el corolario 3.2.10 tenemos que de una variable aleatoria Bernoulli(1/4) es 1 4 4 PX (t) =

1 4t

3 4

3.3.

Funci on Caracter stica

Antes de denir la funci on caracter stica es importante recordar la identidad eit = cos(t) + isen(t) que estaremos usando constantemente. Denici on 3.3.1. Sea X una variable aleatoria. La funci on caracter stica de X es X (t) = E [eitX ] = E [cos(tX ) + isen(tX )]. Notemos que la funci on caracter stica es una funci on compleja. Adem as |X (t)| = |E [eitX ]| E [|eitX |] = E [1] = 1 (3.2)

por lo que la funci on caracter stica siempre existe para cualquier variable aleatoria y cualquier valor t. Esta es una gran ventaja con respecto a la funci on generadora de momentos y la funci on generadora de probabilidades. Ejemplo 3.3.2. Halla la funci on caracter stica de la variable aleatoria X que se distribuye Bernoulli(p).

Soluci on: Por denici on tenemos que: X (t) = E [eitX ] = eit0 P (X = 0) + eit P (X = 1) = [cos(0) + isen(0)]P (X = 0) + [cos(t) + isen(t)]P (X = 1) = (1 p) + [cos(t) + isen(t)]p = (1 p) + eit p

Ejemplo 3.3.3. Halla la funci on caracter stica de la variable aleatoria X U (a, b).

46 Soluci on: Por denici on tenemos que: X (t) = =


a

CAP ITULO 3. OTRAS FUNCIONES GENERADORAS

E [eitX ]
Z
b

eitx
Z

1 dx ba

= = = = =

b 1 (costx) + isentx)dx ba a b 1 1 1 sentx icostx ba t t a 1 1 (senbt senat icosbt + icosat) ba t 1 (isenbt isenat + cosbt cosat) it(b a) eitb eita it(b a)

Observamos en los ejemplos anteriores, que la funci on caracter stica coincide con la funci on generadora de momentos con la u nica diferencia que reemplazamos t por it, es decir, X (t) = MX (it). De hecho, en los casos discretos, los c alculos son totalmente an alogos a los que se hacen para la funci on generadora de momentos. El teorema del binomio, convergencia de las series geom etricas y la expansi on en serie de Taylor de la funci on exponencial permanecen sin cambios en el caso complejo. Por otro lado, en los casos continuos, la complicaci on que se tiene es que no podemos integrar f acilmente como siempre. Sin embargo, observamos que la derivada de eix es ieix , lo que justica la integraci on y por lo tanto, los c alculos son los mismos que para la funci on generadora de momentos. Veamos un ejemplo de estas complicaciones. Ejemplo 3.3.4. Hallar la funci on caracter stica de una variable aleatoria X que se distribuye exponencial con media . Soluci on: De nuevo, por denici on tenemos que
Z
0

X (t)

= = = = 1 1
Z
0 1

1 x eitx e dx

ex( it) dx

1 it

1 1 it

Para ver otros ejemplos de estas complicaciones, invitamos al estudiante a resolver el ejercicio 27 d) y e) de este cap tulo. La relaci on X (t) = MX (it) no es cierta de manera general. Recordemos que la variable aleatoria Cauchy no tiene funci on generadora de momentos pero s tiene funci on caracter stica (ver ejemplo 3.3.15 y el ejercicio 33). Al igual que la funci on generadora de momentos y la funci on generadora de probabilidades, la funci on caracter stica determina de manera u nica la distribuci on de una variable aleatoria. Teorema 3.3.5. Sean X y Y dos variable aleatorias. Si X (t) = Y (t), entonces X y Y tienen la misma distribuci on.

CARACTER 3.3. FUNCION ISTICA Conozcamos algunas propiedades de la funci on caracter stica: Proposici on 3.3.6. Sea X una variable aleatoria. Entonces 1. |X (t)| X (0) = 1 2. X (t) = X (t). 3. X (0) = ik E [X k ] para k = 1, ..., n si E [|X |n ] < para alg un n N. Demostraci on: 1. X (0) = E [ei0X ] = E [1] = 1, por la ecuaci on (3.2) obtenemos el resultado.
(k)

47

2. X (t) = E [eitX ] = E [cos(tX ) + isen(tX )] = E [cos(tX ) + isen(tX )] = E [cos(tX )isen(tX )] = E [cos(tX ) + isen(tX )] = X (t). 3. Se deja como ejercicio. Otro resultado u til es determinar la funci on caracter stica de una transformaci on lineal de una variable aleatoria. Proposici on 3.3.7. Sea X una variable aleatoria y a, b R. Entonces aX +b (t) = eibt X (at). Demostraci on: aX +b (t) = E [eit(aX +b) ] = eitb E [ei(at)X ] = eitb X (at). Tambi en se tienen resultados an alogos a los de la funci on generadora de momentos y funci on generadora de probabilidades para la suma de variables aleatorias. Proposici on 3.3.8. Sean X1 , ..., Xn variables aleatorias independientes y Sn = X1 + + Xn , entonces la funci on caracter stica de Sn es Sn (t) =
n Y i=1

Xi (t).

Demostraci on: Tenemos que Sn (t) = = = = = = E [eitSn ] E [eit(X1 ++Xn ) ] E [eitX1 eitXn ] E [eitX1 ] E [eitXn ] Xi (t) Xn (t)
n Y i=1

Xi (t).

Corolario 3.3.9. Si X1 , ..., Xn son variables aleatorias independientes e identicamente distribuidas con funci on caracter stica X (t), entonces Sn (t) = (X (t))n . Demostraci on: Por la proposici on 3.3.8 tenemos que

48 Sn (t) =
n Y i=1

CAP ITULO 3. OTRAS FUNCIONES GENERADORAS Xi (t) =


n Y i=1

X (t) = (X (t))n .

Ejemplo 3.3.10. Halla la funci on caracter stica de la variable aleatoria X Bin(n, p). Soluci on: Por el ejemplo 3.3.2 sabemos que la funci on caracter stica de una variable aleatoria Bernoulli(p) es (1 p) + eit p. Como la variable aleatoria binomial es suma de variables aleatorias Bernoulli, el corolario 3.3.9 nos dice que X (t) = [(1 p) + eit p]n .

Otra pregunta que nos podemos hacer es cu ales variables aleatorias tienen funci on caracter stica real? El siguiente teorema responde a la pregunta. Teorema 3.3.11. Sea X una variable aleatoria. X (t) es real si y s olo si las variables X y X tienen la misma distribuci on, es decir, la variable aleatoria X es sim etrica con respecto al 0. Demostraci on: Notemos que las proposiciones 3.3.6.b) y 3.3.7 para a = 1 y b = 0 implican que X (t) = X (t) = X (t). (3.3)

on 3.3 dice () Supongamos que X (t) es real valuada, es decir, X (t) = X (t). Luego la ecuaci que X (t) = X (t). Por lo tanto, el teorema 3.3.5 arma que X y X tienen la misma distribuci on. () Supongamos que X y X tienen la misma distribuci on, luego X (t) = X (t). Por lo que la ecuaci on 3.3 nos dice que X (t) = X (t), es decir, que X (t) es real valuada.

3.3.1.

F ormulas de inversi on

Enunciaremos las f ormulas de inversi on sin realizar las pruebas. Teorema 3.3.12. Sea X una variable aleatoria con funci on de distribuci on F (x) y funci on caracter stica X (t). Si F es continua en a y b, entonces F (b) F (a) = 1 2
Z

eitb eita X (t)dt. it

(3.4)

Notemos que el teorema 3.3.5 es un corolario del teorema 3.3.12, debido a que el segundo proporciona una f ormula para el c alculo expl cito de la funci on de distrbuci on en t erminos de la funci on caracter stica. Teorema 3.3.13. Sea X una variable aleatoria con funci on de distribuci on F (x) y funci on caracR ter stica X (t) tal que |X (t)|dt < . Entonces X es una variable continua y su densidad es Z 1 eitx X (t)dt. (3.5) f ( x) = 2 Teorema 3.3.14. Si la distrbuci on de X es discreta, entonces P (X = x) = l m 1 T 2T
Z
T T

eitx X (t)dt.

(3.6)

Una aplicaci on de los teoremas de inversi on es el c alculo de la funci on caracter stica de una variable aleatoria que se distribuye Cauchy (0, 1).

CARACTER 3.3. FUNCION ISTICA

49

Ejemplo 3.3.15. Demuestra que la funci on caracter stica la variable aleatoria Cauchy (0, 1) es X (t) = e|t| . Soluci on: Sabemos que si Y1 y Y2 son variables aleatorias independientes que se distribuyen exponencialmente con media 1, entonces Y = Y1 Y2 se distribuye doble exponencial(0, 1). Por el ejemplo 1 as, por las proposiciones 3.3.8 y 3.3.7 para a = 1 3.3.4 sabemos que Y1 (t) = Y2 (t) = 1 it . Adem y b = 0 tenemos que Y (t) = = = = = = Y1 Y2 (t) Y1 +(Y2 ) (t) Y1 (t)Y2 (t) Y1 (t)Y2 (t) 1 1 1 it 1 + it 1 . 1 + t2

1 |y | e , por denici on de funci on caracter stica y el resultado previo tenemos que Como fY (y ) = 2

1 = 1 + t2

1 eity e|y| dy . 2

Nombrando a la variable y por t y a la variable t por x, la ecuaci on anterior se convierte en 1 = 1 + x2 y por simetr a, 1 = 1 + x2 multiplicando por
Z Z

1 eitx e|t| dt 2

1 eitx e|t| dt 2

1 a la ecuaci on anterior obtenemos que 1 1 1 = 2 1+x 2


Z

eitx e|t| dt.

Finalmente, haciendo una comparaci on con el teorema 3.3.13, concluimos que X (t) = e|t| .

3.3.2.

Teorema de Continuidad

Otro hecho importante es que la funci on caracter stica siempre es continua. Para demostrarlo, primero daremos la denici on de qu e es una funci on uniformemente continua, luego probaremos que la funci on caracter stica es uniformemente continua y as , poder concluir, de nuestros cursos de c alculo, que la funci on caracter stica es continua. Denici on 3.3.16. Una funci on f : R R es uniformemente continua si para cualesquiera t1 , t2 R y cualquiera > 0, existe una > 0 tal que si |t1 t2 | < entonces |f (t1 ) f (t2 )| < . Notemos que la denici on anterior fue dada para funciones real valuadas. En nuestro caso, la funci on caracter stica es compleja valuada. El u nico cambio que se hace a la denici on anterior, es que se considera la norma en vez del valor absoluto. Lema 3.3.17. Sea X una variable aleatoria. Entonces X (t) es uniformemente continua.

50

CAP ITULO 3. OTRAS FUNCIONES GENERADORAS

Demostraci on: Demostraremos el lema para el caso continuo pues el caso discreto es an alogo. Notemos que |eix 1| 2, inclusive |eix 1| |x|. Sean t, t R y > 0. Sin p erdida de generalidad, podemos suponer que t = t + h para alguna h > 0. Seleccionemos un valor a > 0 tal que P (|X | a) < y < . Entonces 4 2a |X (t + h) X (t)| = = = = =
Z a

|E [ei(t+h)X ] E [eitX ]| |E [ei(t+h)X eitX ]| |E [eitX (eihX 1)]| E [|eitX (eihX 1)|] E [|eitX ||(eihX 1)|]
Z

E [|(eihX 1)|]
a

Z Z

|eihx 1|fX (x)dx +


a a

|eihx 1|fX (x)dx +


Z
a a

|eihx 1|fX (x)dx

2fX (x)dx +
Z
a a a

|hx|fX (x)dx +

2fX (x)dx

= < =

2P (X a) +

hafX (x) + 2P (X a)

2P (|X | a) + haP (|X | < a) 2P (|X | a) + ha 2 +a 4 2a .

Corolario 3.3.18. La funci on caracter stica de una variable aleatoria es continua. Demostraci on: Se sigue del hecho de que las funciones uniformemente continuas son continuas. Antes de nalizar, haremos una observaci on que ser au til en nuestro curso de teor a de riesgo, cuando a partir de la funci on caracter stica tengamos que encontrar la funci on de densidad o la funci on de masa de probabilidad. Observaci on 3.3.19. Salvo un signo menos en el exponente y en ocasiones, de un factor 1 , la 2 funci on caracter stica coincide con la transformada de Fourier en el caso continuo y con la serie de Fourier en el caso discreto.

3.4.

Ejercicios

1. Proporcione todos los detalles del ejemplo 3.1.3. 2. Complete la demostraci on de la proposici on 3.1.5. 3. Compruebe los resultados del ejemplo 3.1.9. 4. Demuestre la proposici on 3.1.12. 5. Sea X una variable aleatoria continua sim etrica alrededor de c. Demuestre que para toda x se cumple: a ) f (c x) = f (c + x). b ) f (x) = f (x) si c = 0. 6. Demuestre que una transformaci on lineal aX + b, con a > 0, no cambia el sesgo de una variable aleatoria X . Qu e sucede si a es negativa?

3.4. EJERCICIOS

51

7. Pruebe que la suma de doce variables aleatorias independientes uniformes en (0, 1) tiene media 6 y varianza 1. Determine K3 y K4 . 8. Determine el sesgo de una variable aleatoria gamma de par ametros (, ) 9. Demuestre que una variable aleatoria X es sim etrica con respecto a c si y s olo si X c es sim etrica con respecto a 0. 10. Si X N (, 2 ), demuestre que X es sim etrica con respecto a su media. 11. Demuestre que toda variable aleatoria sim etrica con respecto a su media tiene sesgo cero. 12. Sea S = X1 + X2 + X3 , donde X1 , X2 , X3 son variables aleatorias independientes, y X1 Ber(0.4), X2 Ber(0.7), X3 Ber(p). Calcule el valor de p tal que S tiene sesgo S = 0. Verque que S no es sim etrica alrededor de = E[S ]. 13. Demuestre que una transformaci on lineal aX + b, con a = 0, no cambia la kurtosis de una variable aleatoria X . 14. Sean X1 , ..., Xn variables aleatorias independientes. Demuestre que Kj (X1 + + Xn ) = Kj (X1 ) + + Kj (Xn ). 15. Desarrollaremos dos f ormulas para calcular el sesgo de una variable aleatoria: a ) Sea mk (t) = MX (t) . Demuestra que mk (t) = mk+1 (t) mk (t)m1 (t) MX (t)
(k )

b ) Demuestra que: X (t) = m1 (t) X (t) = m2 (t) m1 (t)2 X (t) = m3 (t) 3m2 (t)m1 (t) + 2m1 (t)3 X (t) = m4 (t) 4m3 (t)m1 (t) 3m2 (t)2 + 12m2 (t)m1 (t)2 6m1 (t)4 c ) Concluye que X (0) = X X (0) = E [(X X )2 ] X (0) = E [(X X )3 ] X (0) = E [(X X )4 ] d ) Demuestra que X = X (0) E [X 3 ] 3E [X 2 ]E [X ] + 2E [X ]3 = (2) 3 X (X (0))3/2
(3) (4) (3) (4) (3)

16. Determine la media, la varianza y el sesgo de las variables aleatorias cuyas funciones generadoras de momentos se expresan a continuaci on: a ) MX (t) = 1 1t 1 1 b ) MX (t) = et + e2t 2 2 3 t 1 3 c ) MX (t) = e + 4 4
t2

d ) MX (t) = e 2

e ) MX (t) = exp(et 1)

52

CAP ITULO 3. OTRAS FUNCIONES GENERADORAS

17. Sean X y Y variables aleatorias independientes con sesgos X y Y , y kurtosis X y Y , respectivamente. a ) Demuestre que X +Y = b ) Demuestre que X +Y =
3 3 X X + Y Y . 3 X +Y 4 4 X X + Y Y . 4 X +Y

c ) Encuentre una f ormula general para el sesgo de una suma de n variables aleatorias independientes. d ) Encuentre una f ormula general para la kurtosis de una suma de n variables aleatorias independientes. 18. De una f ormula para el sesgo y kurtosis de una suma de n variables aleatorias independientes e id enticamente distribuidas. Qu e sucede con estas cantidades conforme n ? 19. Determina la media, la varianza y el sesgo de una variable aleatoria con distribuci on P oisson() utilizando la funci on generadora de cumulantes. 20. Sea X una variable aleatoria discreta con recorrido no negativo. Demuestra que |PX (t)| 1. 21. Halla la funci on generadora de probabilidades para la variable aleatoria X si: a ) se distribuye P oisson() b ) se distribuye Geometrica(p) 22. Demuestra el teorema 3.2.3. 23. Sea X una variable aleatoria con valores en los enteros no negativos y funci on generadora de probabilidades dada por: 1 . gX (t) = ln 1 qt Determine P (X = k ), para k = 0, 1, 2, . . ., E[X ] y Var(X ). 24. Demuestra la proposici on 3.2.8. 25. Sea X una variable aleatoria entera no negativa. Si PX (t) es la funci on generadora de probabilidades, demuestra que: a ) Si E [|X |] < entonces E [X ] = PX (1). b ) Si E [X 2 ] < entonces V ar[X ] = PX (1) + PX (1) (PX (1))2 . 26. Sean X1 , X2 , ..., Xn variables independientes e identicamente distribuidas. Halla la funci on generadora de probabilidades de X1 + + Xn si: a ) Xi P oisson() b ) Xi Geometrica(p) 27. Halla la funci on caracter stica de la variable aleatoria X si se distribuye: a ) Geometrica(p) b ) P oisson() c ) exponencial con media d ) Gamma(, ) e ) N (0, 1).

3.4. EJERCICIOS

53

28. Utiliza el ejercicio 27 y la proposici on 3.3.7 para demostrar que la funci on caracter stica de 1 2 2 X N (, 2 ) es X (t) = eit 2 t .
2 29. Si Xi N (i , i ) son independientes, halla la funci on caracter stica de X1 + + Xn e identica la distribuci on.

30. Demuestre el inciso c) de la proposici on 3.3.6. 31. Utiliza la funci on caracter stica para encontrar la media y la varianza de la variable aleatoria X si se distribuye: a ) Geometrica(p) b ) P oisson() c ) exponencial con media d ) Gamma(, ) e ) U nif orme(1, 1) f ) N (0, 1) 32. Si Y1 y Y2 son variables aleatorias independientes que se distribuyen exponencialmente con media 1, demuestra que Y = Y1 Y2 se distribuye doble exponencial(0, 1). Este resultado se utiliz o en el ejemplo 3.3.15. 33. Utiliza el ejemplo 3.3.15 y la proposici on 3.3.7 para demostrar que la funci on caracter stica de la variable aleatoria Cauchy (a, b) es X (t) = eitab|t| . 34. Si X y Y son variables aleatorias independientes e identicamente distribuidas, demuestra que X Y tiene una distribuci on sim etrica. 35. Demuestra que no existen variables aleatorias independientes e identicamente distribuidas X y Y tales que X Y U (1, 1).

54

CAP ITULO 3. OTRAS FUNCIONES GENERADORAS

Cap tulo 4

Funciones generadoras de momentos para variables aleatorias n dimensionales


4.1. Conceptos b asicos y resultados principales

De la misma manera como calculamos la funci on generadora de momentos de una variable aleatoria, podemos calcular la funci on generadora de momentos para variables aleatorias conjuntamente distribuidas. Denici on 4.1.1. La funci on generadora de momentos del vector aleatorio (X1 , ..., Xn ) es
" ( n X
i=1

)#

mX1 ,...,Xn (t1 , ..., tn ) = E exp para todos los valores t1 , ..., tn donde la esperanza exista.

ti Xi

El siguiente resultado es muy importante aunque no haremos la prueba pues se necesita de material que no es cubierto en este curso. Teorema 4.1.2. La funci on generadora de momentos conjunta mX1 ,...,Xn (t1 , ..., tn ) de las variables X1 , ..., Xn determina de manera u nica la distribuci on conjunta de las variables X1 , ..., Xn . Proposici on 4.1.3. Sean X1 , ..., Xn variables aleatorias con funciones generadoras de momentos mX1 (t1 ), ..., mXn (tn ), respectivamente. Entonces X1 , ..., Xn son independientes si y s olo si mX1 ,...,Xn (t1 , ..., tn ) = mX1 (t1 ) mXn (tn ) para los valores de t1 , ..., tn donde existen las generadoras de momentos. Demostraci on: () Por denici on sabemos que
" ( n X
i=1

)#

mX1 ,...,Xn (t1 , ..., tn )

= E exp

ti Xi

= E [exp{t1 X1 } exp{tn Xn }] = E [exp{t1 X1 }] E [exp{tn Xn }] = mX1 (t1 ) mXn (tn ). () Se sigue directamente del teorema 4.1.2. 55

56

CAP ITULO 4. FUNCIONES GENERADORAS DE MOMENTOS

Corolario 4.1.4. Sean X1 , ..., Xn variables aleatorias independientes identicamente distribuidas con funci on generadora de momentos com un mX (t), entonces la funci on generadora de momentos conjunta es mX1 ,...,Xn (t, ..., t) = (mX (t)) . Demostraci on: Por la proposici on 4.1.3 tenemos que mX1 ,...,Xn (t, ..., t) = mX1 (t) mXn (t) = (mX (t)) .
n n

Ejemplo 4.1.5. Sean X, Y variables aleatorias independientes con distribuci on N (0, 1). Determina la funci on generadora de momentos conjunta. Soluci on: Por el corolario 4.1.4 tenemos que mX,Y (t1 , t2 ) mX (t1 )mY (t2 ) 1 2 1 2 = exp t1 exp t2 2 2 1 2 = exp (t + t2 2) . 2 1 =

La funci on generadora de momentos conjunta de variables aleatorias sirve para generar los momentos conjuntos que denimos a continuaci on. Denici on 4.1.6. Sean X1 , X2 , ..., Xn variables aleatorias conjuntamente distribuidas. Los momentos conjuntos son
r1 r 2 rn E [X1 X2 Xn ]

donde las ri son cero o un entero positivo. Denici on 4.1.7. Sean X1 , X2 , ..., Xn variables aleatorias conjuntamente distribuidas con medias 1 , 2 , ..., n respectivamente. Los momentos conjuntos alrededor de la media son E [(X1 1 )r1 (X2 2 )r2 (Xn n )rn ] donde los valores ri son cero o enteros positivos.

4.2.

Momentos marginales

Denici on 4.2.1. Sean X1 , ..., Xn variable aleatorias conjuntamente distribuidas. Los momentos r1 rm marginales son los valores E [Xi Xi ] donde las ri son cero o enteros positivos. 1 m Si tenemos X1 , ..., Xn variables aleatorias conjuntamente distribuidas, podemos obtener el r esimo momento de la variable Xj a trav es de mX1 ,...,Xn (t1 , ..., tn ) diferenciado rveces con respecto a tj y tomando el l mite cuando todas las ti tienden a cero, es decir,
r E [Xj ]=

r mX1 ,...,Xn (0, ..., 0). tr j

r s De la misma manera, podemos obtener E [Xi Xj ] a partir de mX1 ,...,Xn (t1 , ..., tn ) diferenciando r veces con respecto a ti y s veces con respecto a tj y luego calculando el l mite cuando todas las ti tienden a cero, es decir r s E [Xi Xj ] =

s+r mX1 ,...,Xn r+s mX1 ,...,Xn (0, ..., 0) = (0, ..., 0). s r s tj ti tr i tj

NORMAL BIVARIADA 4.3. CASO DE LA DISTRIBUCION

57

Podemos generalizar los resultados anteriores para obtener cualesquiera de los momentos marginales. Ejemplo 4.2.2. Sean X, Y variables aleatorias normales independientes con media cero y varianza uno. Determina: 1. E [XY ] 2. E [X ] 3. E [X 2 ] 4. E [X 2 Y 2 ].

Soluci on: Por el ejemplo 4.1.5 sabemos que mX,Y (t1 , t2 ) = exp los resultados obtenidos en esa secci on:

1 2 (t + t2 2 ) . Ahora aplicaremos 2 1

1 2 2 mX,Y 2 mX,Y (t1 + t2 (t1 , t2 ) = t1 t2 exp (0, 0) = 0. 1. 2 ) . Luego E [XY ] = t1 t2 2 t1 t2 2. 3. 4. mX,Y 1 2 mX,Y (t + t2 (t1 , t2 ) = t1 exp (0, 0) = 0. 2 ) . Luego E [X ] = t1 2 1 t1 2 mX,Y 2 mX,Y 1 2 2 (t1 + t2 (t1 , t2 ) = (t2 (0, 0) = 1. 2 ) . Luego E [X ] = 1 + 1) exp 2 t1 2 t2 1 4 mX,Y 4 mX,Y 1 2 2 2 2 (t1 + t2 (t1 , t2 ) = (t2 2 ) . Luego E [X Y ] = 1 + 1)(t2 + 1) exp 2 2 2 (0, 0) = 1. t1 t2 2 t2 1 t2

Todos los resultados anteriores coinciden con los valores que conocemos utilizando las propiedades de independencia de dichas variables. Observaci on 4.2.3. A partir de la funci on generadora de momentos conjunta no s olo podemos obtener los momentos marginales, sino tambi en la funci on generadora de momentos de cada variable mediante la relaci on MXi (t) = E [etXi ] = M (0, ..., t, ..., 0).

4.3.

Caso de la distribuci on normal bivariada


2  2

Denici on 4.3.1. Un vector aleatorio (X, Y ) es normal bivariada si su funci on de densidad est a dada por 1 p exp f (x, y ) = 2 2(1 2 ) 2x y 1 1 x x x (x x )(y y ) 2 + x y y x y

para (x, y ) R2 , x , y , x , y , constantes nitas, tales que 1 < < 1 y x , y > 0. Teorema 4.3.2. La funci on generadora de momentos de la variable aleatoria normal bivariada (X, Y ) est a dada por 1 2 m(t1 , t2 ) = exp t1 x + t2 y + (t2 2 + 2t1 t2 x y + t2 2 y ) . 2 1 x Demostraci on: Por denici on tenemos que
Z

mX,Y (t1 , t2 ) =

t1 x+t2 y

1 2x y

1 2

1 2(12 )

x ( x x )

(xx )(y y ) + x y

y x y

dxdy.

Hagamos el cambio de variable

58

CAP ITULO 4. FUNCIONES GENERADORAS DE MOMENTOS u= x x y y yv= . x y


de donde

(x, y ) x = ux + x , y = vy + y y = x (u, v ) 0 entonces la funci on generadora de momentos conjunta queda


Z

0 = x y , y

Z Z

m(t1 , t2 )

= =

e e

t1 x +t2 y

e
Z

t1 x u+t2 y v

1 2x y

1 2

1 (u2 2uv +v 2 ) 2(12 )

x y dudv

t1 x +t2 y

1 p e 2 1 2

1 [u2 2uv +v 2 2(12 )t1 x u2(12 )t1 y v ] 2(12 )

dudv.

Por otro lado, es f acil ver que u2 2uv + v 2 2(1 2 )t1 x u 2(1 2 )t2 y v =
2 2 2 [u v (1 2 )t1 x ]2 + (1 2 )(v t1 x t2 y )2 (1 2 )(t2 1 x + 2t1 t2 x y + t2 y ).

As que la funci on generadora de momentos conjunta se convierte en


Z

m(t1 , t2 )

= et1 x +t2 y
2

1 1 exp [u v (1 2 )t1 x ]2 2 2(1 ) 1 2

2 2 2 +(1 )(v t1 x t2 y )2 (1 2 )(t2 1 x + 2t1 t2 x y + t2 y )

dudv.

Finalmente, hagamos un nuevo cambio de variable. Sean w= entonces v = z + t1 x + t2 y , u = u v (1 2 )t1 x p y z = v t1 x t2 y , 1 2


p

1 2 w + (z + t1 x + t2 y ) + (1 2 )t1 x y
p

(u, v ) = (w, z )

1 2 0

= 1 2 . 1

Como consecuencia
2 2 2 2 2 2 1 { 1 2 [w +z (t1 x +2t1 t2 x y +t2 y )]} e 1 2 dwdz. 2 2 1 Z Z 1 1 (w2 +z2 ) 1 2 2 2 e 2 exp t1 x + t2 y + (t2 dwdz. 1 x + 2t1 t2 x y + t2 y ) 2 2

m(t1 , t2 )

= =

et1 x +t2 y

Pero

1 1 (w2 +z2 ) e 2 dwdz 2

1 2 1 e 2 z 2

Z |

1 2 1 e 2 w dw dz 2

{z
1

1 2 1 e 2 z dz 2

= Por lo tanto,

1.

2 2 2 2 m(t1 , t2 ) = exp t1 x + t2 y + 1 2 (t1 x + 2t1 t2 x y + t2 y ) .

4.4. EJERCICIOS

59

4.4.

Ejercicios

1. Sup ongase que la funci on de densidad conjunta de las variables X y Y est a dada por f (x, y ) = Determina: a ) La funci on generadora de momentos conjunta. b ) E [X 2 Y 2 ]. 2. Sean X la proporci on de personas aseguradas que reclaman un siniestro y Y la proporci on de siniestros que proceden. Si la funci on de densidad conjunta de las variables X y Y est a dada por
2 f (x, y ) = 5 (2x + 3y ), 0 x 1, 0 y 1.

c(x + y 2 ) 0 x 1, 0 y 1 0 otro caso

Determina: a ) La funci on generadora de momentos conjunta de las variables X y Y . b ) E [XY ]. Qu e signica este valor? 3. La funci on de densidad conjunta de las variables X y Y est a dada por f (x, y ) = Determina: a ) La funci on generadora de momentos conjunta de las variables X y Y . b ) Las funciones generadoras de momentos marginales. 4. Dos dados son lanzados. Sean X el n umero obtenido en el primer dado y Y la suma de los n umeros obtenidos en los dos dados. Determina la funci on generadora de momentos conjunta de X y Y . 5. Sean X y Y variables aleatorias U (a, b) independientes. Determina: a ) la funci on generadora de momentos conjunta. b ) E [XY ]. 6. Sean (X, Y ) un vector aleatorio normal bivariado. Determina: a ) E [X ]. b ) E [Y ]. c ) V ar(X ). d ) V ar(Y ). e ) E [XY ]. f ) E [X 2 Y ]. g ) MX (t). h ) MY (t). 7. Sean X y Y variables aleatorias normales independientes con media y varianza 2 . Determina la funci on generadora de momentos conjunta de las variables X + Y y X Y . Concluye que las variables aleatorias X + Y y X Y son independientes.
2 1 1 ey e 2 (xy ) , 0 2

< y < , < x < .

60

CAP ITULO 4. FUNCIONES GENERADORAS DE MOMENTOS 8. Las reclamaciones en una aseguradora ocurren de acuerdo a un proceso P oisson(). Algunas reclamaciones no proceden, es decir, no son pagadas. Independientemente una de otra, las reclamaciones son pagadas con probabilidad p. Demuestra que el n umero de reclamaciones que son pagadas y el n umero de reclamaciones que no son pagadas son variables aleatorias independientes con distribuciones P oisson de par ametros p y (1 p), respectivamente.

Cap tulo 5

Covarianza y correlaci on
En este cap tulo estudiaremos la dependencia entre dos variables aleatorias X y Y conjuntamente distribuidas como un proceso en el que una de las variables digamos X aumenta o disminuye cuando cambia Y .

5.1.

Denici on de covarianza y correlaci on

Denici on 5.1.1. Sean X y Y dos variables aleatorias conjuntamente distribuidas con medias 1 y 2 , respectivamente. La covarianza de X y Y es Cov (X, Y ) = E [(X 1 )(Y 2 )]. Observaci on 5.1.2. Intuitivamente decimos que X y Y var an en la misma direcci on, si es alta la probabilidad de que valores grandes de X est en asociados con valores grandes de Y y de que valores peque nos de X est en asociados con valores peque nos de Y . En tales casos, ambos valores de las desviaciones X E [X ] y Y E [Y ] son positivos o negativos con probabilidad alta, entonces (X E [X ])(Y E [Y ]) es predominantemente positivo de donde se obtendr a que Cov (X, Y ) es positivo. An alogamente, decimos que X y Y est an en direcciones opuestas, si valores positivos de X E [X ] van a estar asociados con valores negativos de Y E [Y ] o viceversa. El producto (X E [X ])(Y E [Y ]) es entonces predominantemente negativo de donde Cov (X, Y ) es negativo. Adem as, mientras m as grande sea el valor absoluto de Cov (X, Y ), m as grande es la dependencia lineal entre las variables X y Y . No siempre existe Cov (X, Y ) pero se puede demostrar que si V ar(X ) < y V ar(Y ) < , entonces existe Cov (X, Y ).

Dependencia entre X y Y

Poca o nula dependencia entre X y Y

Figura 5.1: Covarianza de X y Y 61

62

CAP ITULO 5. COVARIANZA Y CORRELACION

A pesar de que la covarianza de dos variables es u til para conocer la relaci on lineal entre ellas, es un valor que depende de la escala de medidas. Se sigue de lo anterior que no es f acil especicar a primera vista si una covarianza es grande o no. Este problema se resuelve considerando la siguiente medida.
2 Denici on 5.1.3. Sean X y Y variables aleatorias conjuntamente distribuidas con varianzas X y 2 Y , respectivamente. El coeciente de correlaci on es

X,Y =

Cov (X, Y ) . X Y

El coeciente de correlaci on permite medir la asociaci on de las variables X y Y . La diferencia entre covarianza y correlaci on es que Cov (X, Y ) depende de las unidades de medici on asociadas con X y Y , en tanto que la correlaci on no depende de estas unidades de medici on. Es importante observar que Cov (X, Y ) y X,Y siempre tienen el mismo signo. Denici on 5.1.4. Se dice que X y Y 1. est an correlacionados positivamente si X,Y > 0. 2. est an correlacionados negativamente si X,Y < 0. 3. no est an correlacionados si X,Y = 0. El valor de X,Y proporciona una medida del grado en que las variables X y Y est an relacionadas linealmente. Si la distribuci on conjunta de X y Y en el plano XY est a relativamente concentrada alrededor de una recta que tiene pendiente positiva, entonces X,Y generalmente est a cerca de 1. Si est a concentrada alrededor de una recta con pendiente negativa, entonces X,Y generalmente est a cerca de 1.

X,Y 1

X,Y 1

Figura 5.2: Correlaci on

Cuando X,Y est a cercano a cero entonces los puntos pueden estar distribuidos como se muestra en la gura 5.3. Finalmente si X,Y = 1 entonces existe una correlaci on perfecta en la que todos los puntos est an en una recta con pendiente positiva y si X,Y = 1 tenemos una correlaci on perfecta en la que todos los puntos est an en una recta con pendiente negativa. Ambos casos se muestran en la gura 5.4.

5.2.

Propiedades y teoremas principales

En esta secci on enunciamos algunos resultados que se tienen con respecto a la covarianza y el coeciente de correlaci on. Comencemos con una f ormula sencilla para calcular la covarianza. Proposici on 5.2.1. Sean X y Y variables aleatorias conjuntamente distribuidas con medias 1 y 2 , respectivamente. Entonces

5.2. PROPIEDADES Y TEOREMAS PRINCIPALES Cov (X, Y ) = E [XY ] E [X ]E [Y ]. Demostraci on: Por denici on tenemos que Cov (X, Y ) = E [(X 1 )(Y 2 )] = E [XY X2 1 Y + 1 2 ] = E [XY ] E [X2 ] E [1 Y ] + E [1 2 ] = E [XY ] 2 E [X ] 1 E [Y ] + 1 2 = E [XY ] 2 1 1 2 + 1 2 = E [XY ] E [X ]E [Y ].

63

Corolario 5.2.2. Si X y Y son variables aleatorias independientes entonces Cov (X, Y ) = 0. Demostraci on: Por la proposici on 5.2.1 tenemos que Cov (X, Y ) = E [XY ] E [X ]E [Y ] = E [X ]E [Y ] E [X ]E [Y ] = 0.

Observaci on 5.2.3. El rec proco del corolario 5.2.2 no siempre es cierto. Ver el ejercicio 2.

Ausencia de correlaci on X,Y 0

Ausencia de relaci on lineal X,Y = 0

Figura 5.3: Correlaci on cercana a cero

X,Y = 1

X,Y = 1

Figura 5.4: Correlaci on Perfecta

64

CAP ITULO 5. COVARIANZA Y CORRELACION

Proposici on 5.2.4. Sean X y Y dos variables aleatorias conjuntamente distribuidas con medias 1 y 2 , respectivamente. Entonces: 1. Cov (X, Y ) = Cov (Y, X ).

2. Cov (X, X ) = V ar(X ).

3. Cov (aX, Y ) = aCov (X, Y ) para a R. Demostraci on: 1. Tenemos que Cov (X, Y ) = = = E [(X 1 )(Y 2 )] E [(Y 2 )(X 1 )] Cov (Y, X ).

2. Por denici on Cov (X, X ) = E [(X 1 )(X 1 )] = E [(X 1 )2 ] = V ar(X ).

3. Tenemos que Cov (aX, Y ) = = = = E [(aX a1 )(Y 2 )] E [a(X 1 )(Y 2 )] aE [(X 1 )(Y 2 )] aCov (X, Y ).

Proposici on 5.2.5. Sean X1 , ..., Xm y Y1 , ..., Yn variables aleatorias conjuntamente distribuidas tales que E [Xi ] = i y E [Yj ] = j . Entonces para constantes a1 , ..., am y b1 , ..., bn se cumple que
m X i=1

1. V ar

ai Xi

m X i=1

a2 i V ar (Xi ) + 2

m X i1 X i=2 j =1

ai aj Cov (Xi , Xj ).

2. Cov

m X i=1

ai Xi ,

n X j =1

bj Yj

m X n X i=1 j =1

ai bj Cov (Xi , Yj ).

Demostraci on:

5.3. CASO DE LA NORMAL BIVARIADA 1. Tenemos que V ar


m X i=1

65

ai Xi

= E4
2

m X i=1 m X i=1 m X i=1 m X i=1 m X i=1

ai Xi E

" m X
i=1

#!2 3

ai Xi
!2 3 5

= E4
2

ai Xi

m X i=1

ai i
!2 3 5 X
i=j

= E4
2

ai (Xi i )

= E4
2

(ai (Xi i ))2 +

ai aj (Xj j )(Xi i )5
3

= E4
m X i=1

2 a2 i (Xi i ) +

X
i=j

ai aj (Xj j )(Xi i )5

2 a2 i E [(Xi i ) ] +

X
i=j

ai aj E [(Xj j )(Xi i )]

m X i=1

a2 i V ar (Xi ) + 2

i1 m X X i=2 j =1

ai aj Cov (Xi , Xj ).

2. An alogo. En la secci on anterior mencionamos que cuando el coeciente de correlaci on est a cercano a 1 entonces la distribuci on conjunta de las variables aleatorias X y Y est a concentrada alrededor de una recta con pendiente negativa, en cambio, si dicho valor est a cercano a 1, la distribuci on conjunta est a concentrada alrededor de una recta con pendiente positiva. Ahora es momento de demostrar que dichos valores son el m nimo y m aximo que alcanza el coeciente de correlaci on. Proposici on 5.2.6. El coeciente de correlaci on de las variables X y Y satisface la desigualdad |X,Y | 1. Demostraci on: Ver ejercicio 14.

5.3.

Caso de la normal bivariada

Si las variables aleatorias X y Y son independientes entonces X,Y = 0, sin embargo el rec proco no siempre es cierto. El contraejemplo que encontr o en el ejercicio 14 le puede ser u til. A continuaci on presentamos un caso en el que si el coeciente de correlaci on X,Y = 0 entonces las variables aleatorias X y Y son independientes. Sea (X, Y ) un vector aleatorio normal bivariado, es decir, que su funci on de densidad est a dada por 1 p f (x, y ) = exp 2(1 2 ) 2x y 1 2 1

x x x

(x x )(y y ) 2 + x y

y x y

2

En el ejercicio 21 se demostrar a que el coeciente de correlaci on X,Y es precisamente . Luego en el ejercicio 22 se demostrar a que si X,Y = 0 entonces las variables aleatorias X y Y son independientes.

66

CAP ITULO 5. COVARIANZA Y CORRELACION

5.4.

Ejercicios

1. Halla la covarianza y el coeciente de correlaci on de las variables aleatorias X y Y si se sabe que: a ) f (x, y ) = 2I(0,y) (x)I(0,1) (y ) b ) f (x, y ) = 1 xyI(0,x) (y )I(0,2) (x) 2 c ) f (x, y ) = [1 (1 2x)(1 2y )]I(0,1) (x)I(0,1) (y )

d ) f (x, y ) = e(x+y) I(0,) (x)I(0,) (y ) e ) f (x, y ) = 3(x + y )I(0,1) (x + y )I(0,1) (x)I(0,1) (y ) 2. Encuentra dos variables aleatorias X y Y que no sean independientes tales que Cov (X, Y ) = 0. 3. Una urna contiene 4 bolas: dos de ellas numeradas con el 1 y dos de ellas numeradas con el 2. Se extraen dos bolas de la urna sin reemplazo. Sean X y Y el n umero m as peque no y m as grande que indican las bolas extraidas. Hallar: a ) La funci on de densidad conjunta de X y Y . b ) Cov (X, Y ). 4. Supongamos que una urna contiene r bolas rojas y (N r) bolas negras. Se toma una muestra aleatoria de n bolas sin reemplazo y se observa Y , el n umero de bolas rojas que hay en la muestra. Dene las variables

Xi = para calcular V ar(Y ).

1 0

Si la i- esima bola es roja si la i- esima bola es negra

5. Sea X una variable aleatoria y a una constante. Demuestra que Cov (X, a) = 0. 6. Demuestre la proposici on 5.2.5 2). 7. Demuestra que V ar
n X i=1

Xi

n X i=1

V ar(Xi ) + 2

X
i<j

Cov (Xi , Xj ).

8. Un dado es lanzado n veces. Sean X el n umero de 1s obtenidos y Y el n umero de 2s. Calcula Cov (X, Y ). 9. Un dado es lanzado dos veces. Sea X la suma de los n umero obtenidos y Y la diferencia del primer n umero obtenido menos el segundo. Calcula Cov (X, Y ). 10. Las variables aleatorias X y Y tienen la funci on de densidad conjunta

fX,Y (x, y ) = Calcula Cov (X, Y ).

2e2x x

0 x < , 0 y < x otro caso

11. Sean X1 , X2 , ... variables aleatorias independientes con media com un y varianza com un 2 . Sea Yn = Xn + Xn+1 + Xn+2 . Calcula Cov (Yn , Yn+j ) para j 0. 12. La funci on de densidad conjunta de X y Y est a dada por
1 (y + y ) fX,Y (x, y ) = y e para x > 0, y > 0.
x

5.4. EJERCICIOS Demuestra que Cov (X, Y ) = 1.

67

13. Demuestra la desigualdad de Cauchy-Schwartz : Sean X y Y variables aleatorias tales que E [X 2 ] < y E [Y 2 ] < , entonces E 2 [XY ] = |E [XY ]|2 E [X 2 ]E [Y 2 ] y la igualdad se cumple si y s olo si P (Y = cX ) = 1 para alguna constante c. Sugerencia: considera la funci on h(t) = E [(tX Y )2 ] que es no negativa (por qu e?). 14. Demuestra la proposici on 5.2.6. 15. Hallar la covarianza de las variables aleatorias continuas X y Y si se sabe que fY |X (y |x) = I(x,x+1) (y ) y fX (x) = I(0,1) (x).

16. Si Y = aX + b, demuestra que X,Y =

1 1

, ,

a>0 . a<0

17. Sea X una variable aleatoria con media y varianza 2 . Sea Y = aX + b donde a, b son constantes tales que < a < y b > 0. a ) Selecciona a y b de tal manera que E [Y ] = 0 y V ar[Y ] = 1. b ) Hallar X,Y . c ) Si X es sim etrica entonces Y es sim etrica? 18. Sean X1 , X2 , X3 y X4 variables aleatorias no correlacionadas por parejas con media com un 0 y varianza 1. Calcula las correlaciones de: a ) X1 + X2 y X2 + X3 . b ) X1 + X2 y X3 + X4 . 19. Los jugadores A y B tiran en su turno un dado. Posteriormente la banca tira el dado. Un jugador gana si el n umero que obtuvo en el dado es estrictamente mayor que el de la banca. Denamos para cada jugador la variable

I=

1 0

si el jugador gana en otro caso

Demuestra que IA e IB est an positivamente correlacionados. Adem as explica por qu e este resultado era l ogico. 20. Considera una gr aca con n v ertices enumerados del 1 al n y supongamos que entre cada uno n de los pares de v ertices, un eje es presentado independientemente con probabilidad p. 2 Denimos el grado del v ertice i, denotado por Di , como el n umero de ejes que tiene el v ertice i como uno de sus v ertices. Determina: a ) La distribuci on de Di . b ) Di ,Dj . 21. Si (X, Y ) tiene una distribuci on normal bivariada, demuestra que Cov [X, Y ] = X Y . 22. Para este ejercicio ser au til el ejercicio 15 del cap tulo 2. Suponga que (X, Y ) tiene distribuci on normal bivariada. a ) Demuestre que X y Y son independientes si = 0. b ) Demuestre que X y Y son independientes si y s olo si Cov(X, Y ) = 0.

68

CAP ITULO 5. COVARIANZA Y CORRELACION

23. Para este ejercicio es importante recordar las desigualdades vistas en el cap tulo 1. En un lugar hay 200 personas, de las cuales 100 son mujeres y 100 hombres. Se dividen las personas aleatoriamente por parejas, esto es, se crean aleatoriamente 100 parejas. Utilice el teorema 1.6.2 para encontrar una cota superior para la probabilidad deP que a lo m as 30 parejas sean 100 de diferente sexo. (Ayuda: Considere la variable aleatoria X = i=1 Xi , donde
8 < 1,

si el i- esimo hombre es pareado con una mujer otro caso

Xi =

0,

para i = 1, . . . , 100.) 24. Demuestra que min{|aX + bY |, |aX bY |} aX +bY max{|aX + bY |, |aX bY |}

Cap tulo 6

Sucesiones de Variables Aleatorias


6.1. Denici on de sucesi on de variables aleatorias

Denici on 6.1.1. Una sucesi on de variables aleatorias es una lista X1 , X2 , ... de variables aleatorias. Representaremos por {Xn , n 1} a una sucesi on de variables aleatorias. Ejemplo 6.1.2. 1. Si consideramos que las variables Xn N variables aleatorias. 2. Sea Xn una variable con distribuci on

1 , 1 , entonces {Xn , n 1} es una sucesi on de n

f (x) =

nenx , x > 0 0, otro caso

Entonces {Xn , n 1} es una sucesi on de variables aleatorias.

6.2.

Tipos de convergencia

Existen muchos conceptos de convergencia en probabilidad y teor a estad stica, sin embargo, s olo discutiremos cinco de ellos. Denici on 6.2.1. La sucesi on {Xn , n 1} converge puntualmente a X si
n

l m Xn (w) = X (w)

para toda w . Para este tipo de convergencia escribiremos Xn Xn . Para vericar que una variable aleatoria X es el l mite de la sucesi on en la convergencia puntual lo que necesitamos es ver que para toda w , la sucesi on de n umeros reales Xn (w) converge al n umero real X (w). Ejemplo 6.2.2. En el espacio = [0, 1], la sucesi on de variables Xn (w) = wn converge puntualmente a

X (w) =

0, 0 w < 1 1, w = 1.
n

Soluci on: Para w [0, 1) es claro que l m Xn (w) = l m wn = 0. Tambi en es claro que para w = 1 tenemos que l m Xn (w) = l m Xn (1) = l m 1n = 1. Por lo tanto, la sucesi on Xn converge n n n puntualmente a la variable 69
n

70

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS

X (w) =

0, 0 w < 1 1, w = 1.

Denici on 6.2.3. La sucesi on {Xn , n 1} converge casi seguramente (c.s.) a la variable aleatoria X cuando n si P ({w : Xn (w) X (w), n }) = 1. Para este tipo de convergencia, conocida tambi en como convergencia con probabilidad 1, escribiremos cs Xn X . Observaci on 6.2.4. Cuando utilizamos este tipo de convergencia, consideramos cada w y vericamos si los n umeros reales Xn (w) convergen al n umero real X (w) cuando n . Tendremos convergencia casi seguramente si el conjunto de todas las w para las cuales se cumple la convergencia, tiene probabilidad uno; equivalentemente, si el conjunto de las w para las cuales no converge tiene probabilidad cero. Ejemplo 6.2.5. Consideremos el espacio de probabilidad ([0, 1], B[0, 1], P) donde P es la medida 1 (w ), (notemos que Xn uniforme, es decir, la longitud del intervalo. Denamos Xn (w) = 1[0, n ] Ber(1/n)). Entonces Xn 0. Soluci on: Primero hallemos el conjunto {w : Xn (w) X (w), n }. Es claro que cuando n 1 tenemos que el intervalo [0, n ] tiende al intervalo [0, 0] = {0}. Luego

n
1 (w ) = 1{0} (w ) = l m Xn (w) = l m 1[0, n ]

c.s.

0, 1,

w (0, 1] w=0

por lo que el conjunto de las w donde se cumple la convergencia es {w : Xn (w) X (w), n } = (0, 1]. Por lo tanto P ({w : Xn (w) X (w), n }) = P ((0, 1]) = 1 0 = 1 de donde concluimos c.s. que Xn 0. Denici on 6.2.6. La sucesi on {Xn , n 1} converge en probabilidad a la variable aleatoria X cuando n si para toda > 0 se cumple que P (|Xn X | > ) 0 cuando n . Para este tipo de convergencia escribiremos Xn X Ejemplo 6.2.7. Sea Xn Gamma(n, 1/n), entonces Xn 1. 1 Soluci on: Notemos que E [Xn ] = 1 y V ar(Xn ) = . Por la desigualdad de Chebyshev, tenemos que n para > 0 se cumple P (|Xn 1| > ) y cuando n concluimos que P (|Xn 1| > ) 0. Denici on 6.2.8. Sea r N. La sucesi on {Xn , n 1} converge en media r esima a la variable X cuando n si E [|Xn X |r ] 0 cuando n . Para este tipo de convergencia escribiremos Xn X cuando n . Observaci on 6.2.9. La convergencia en media dos, es decir, cuando r = 2, es conocida como convergencia en media cuadr atica.
r p p

1 n2

6.2. TIPOS DE CONVERGENCIA Ejemplo 6.2.10. Sean X1 , X2 , ... variables aleatorias tales que P (Xn = 0) = 1 Entonces Xn 0. Soluci on: Es claro que E [|Xn X |r ] = E [|Xn 0|r ] = E [|Xn |r ] 1 1 1 + |1|r + |0|r 1 = | 1|r 2n n 2n 1 1 = + 2n 2n 1 = n Por lo que es claro que cuando n tenemos que E [|X Xn |r ] 0.
r

71

1 1 1 , P (Xn = 1) = y P (Xn = 1) = . n 2n 2n

Denici on 6.2.11. La sucesi on {Xn , n 1} converge en distribuci on a la variable X cuando n si FXn (x) FX (x) cuando n para toda x C (FX ) donde C (FX ) = {x : FX (x) es continua en x}. Para este tipo de convergencia escribiremos Xn X cuando n . Observaci on 6.2.12. 1. En la convergencia en distribuci on, las variables no necesariamente deben estar denidas en el mismo espacio de probabilidad. 2. Se puede demostrar que una funci on de distribuci on tiene a lo m as un n umero contable de discontinuidades, por lo que C (FX ) es denso en R, es decir, es toda la recta excepto a lo m as un n umero contable de puntos. Ejemplo 6.2.13. Sean X1 , X2 , ... variables aleatorias independientes con funci on de densidad com un

f (x) =

x1 , x > 1, > 0 0, otro caso

y denamos Yn = n1/ m ax {Xk } para n 1. Demuestra que Yn converge en distribuci on cuando


1kn

n y determina el l mite. Soluci on: La funci on de distribuci on de las variables Xn est a dada por
8Z <
x 1

F (x)

y 1 dy,

x>1 otro caso

0,

1 x , 0,

x>1 otro caso

72

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS Se sigue que para cualquier x > 0 tenemos

FYn (x)

= P =

1kn

m ax Xk xn1/

(F (xn1/ ))n 1 n = 1 nx  n x = 1+ n

Finamente cuando n concluimos que FYn (x) ex

A continuaci on demostraremos que para cada uno de los tipos de convergencia el l mite es u nico, pero antes una denici on. Denici on 6.2.14. Dos variables aleatorias X y Y son iguales c.s. si P (X = Y ) = 1. En tal caso escribimos X = Y . Teorema 6.2.15. Sea {Xn , n 1} una sucesi on de variables aleatorias que converge puntualmente cuando n . Entonces la variable l mite es u nica. Soluci on: Sea w y supongamos que l m Xn (w) = X (w) y que l m Xn (w) = Y (w). As que n n por denici on de sucesi on de n umeros reales tenemos que para existen N1 tal que para n N1 2 se cumple que |Xn (w) X (w)| < . An alogamente existe N2 tal que para n N2 se cumple que 2 |Xn (w) Y (w)| < . Luego si hacemos N = m ax{N1 , N2 }, entonces para n N se cumple que 2 |Xn (w) X (w)| < y que |Xn (w) Y (w)| < . Por lo tanto 2 2 |X (w) Y (w)| = = < = |X (w) Xn (w) + Xn (w) Y (w)| |X (w) Xn (w)| + |Xn (w) Y (w)| |Xn (w) X (w)| + |Xn (w) Y (w)| + 2 2

As que como y w fueron arbitrarias entonces |X (w) Y (w)| = 0, es decir, X (w) = Y (w) para toda w . Por lo tanto P (X = Y ) = 1. Teorema 6.2.16. Sea {Xn , n 1} una sucesi on de variables aleatorias que converge casi seguramente cuando n . Entonces la variable l mite es u nica. Demostraci on: Supongamos que Xn X y Xn Y cuando n . Denamos los conjuntos NX = {w : Xn (w) y NY = {w : Xn (w) Y (w), n }. X (w), n }
cs cs

Claramente P (NX ) = P (NY ) = 0. Denamos N = NX NY y notemos que por la desigualdad del tri angulo, para w / N se cumple |X (w) Y (w)| = |X (w) Xn (w) + Xn (w) Y (w)| |X (w) Xn (w)| + |Xn (w) Y (w)|

6.2. TIPOS DE CONVERGENCIA

73

y cuando n tenemos que |X (w) Xn (w)| 0 y |Xn (w) Y (w)| 0, por lo que cuando n concluimos que X (w) = Y (w) para w / N . Como consecuencia P (X = Y ) = P (N ) P (NX ) + P (NY ) 0.

Teorema 6.2.17. Sea {Xn , n 1} una sucesi on de variables aleatorias que converge en probabilidad cuando n . Entonces la variable l mite es u nica. Demostraci on: Supongamos que Xn X y Xn Y cuando n . Para > 0 arbitrario tenemos que |X Y | |X Xn | + |Xn Y | por lo que si |X Y | > para w entonces se tiene que |X Xn | > M as formalmente tenemos que
n
p p

o |Xn Y | > . 2 2 o n o w : |Xn Y | > 2 2

{w : |X Y | > } w : |X Xn | > Por lo tanto




P (|X Y | > ) P |X Xn | > y



n

   + P |Xn Y | > 2 2    + l m P |Xn Y | > n 2 2

l m P (|X Y | > ) =

l m P |X Xn | >

lo que implica que P (|X Y | > 0) = 0 que es equivalente a que P (X = Y ) = 1. Antes de demostrar la unicidad para el tipo de convergencia de la media r esima, demostraremos un lema. Lema 6.2.18. Sea r > 0. Supongamos U y Y son variables aleatorias tales que E [|U |r ] < y E [|V |r ] < . Entonces E [|U + V |r ] 2r (E [|U |r ] + E [|V |r ]). Demostraci on: Sean a, b R. Entonces |a + b|r = Luego para cada w tenemos que |U (w) + V (w)|r 2r (|U (w)|r + |V (w)|r ) y tomando esperanzas en ambos lados concluimos que E [|U + V |r ] 2r (E [|U |r ] + E [|V |r ]). (|a| + |b|)r (2max{|a|, |b|})r 2r max{|a|r , |b|r } 2r (|a|r + |b|r ).

74

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS

Teorema 6.2.19. Sea {Xn , n 1} una sucesi on de variables aleatorias que converge en media r cuando n . Entonces la variable l mite es u nica. Demostraci on: Por el lema 6.2.18 tenemos que E [|X Y |r ] = E [|(X Xn ) + (Xn Y )|r ] 2r (E [|X Xn |r ] + E [|Xn Y |]r )

y cuando n ambos t erminos del lado derecho tienden a cero. As , cuando n obtenemos que E [|X Y |r ] = 0, lo que implica que P (|X Y | = 0) = 1. Al igual que en el tipo de convergencia anterior, necesitaremos de un resultado para demostrar la unicidad de la convergencia en distribuci on. Lema 6.2.20. Sea A R contable. Sean f y g dos funciones denidas en R tales que son continuas por la derecha y f (x) = g (x) para toda x R A. Entonces f (x) = g (x) para toda x R. Demostraci on: Sean x A, y R A y > 0 arbitrario. Por la continuidad a la derecha, para > 0 existen 1 > 0 y 2 > 0 tales que 2 si y x < 1 entonces |f (y ) f (x)| < 2 y si y x < 2 entonces |g (y ) g (x)| < . 2 Luego para = min{1 , 2 } tenemos que si y x < entonces |f (x) g (x)| |f (x) f (y )| + |f (y ) g (x)|

= |f (x) f (y )| + |g (y ) g (x)| < + 2 2 = . Como la fue arbitrario concluimos que f (x) = g (x) para toda x R. Teorema 6.2.21. Sea {Xn , n 1} una sucesi on de variables aleatorias que converge en distribuci on cuando n . Entonces la distribuci on l mite es u nica. Demostraci on: Supongamos que Xn X y Xn Y cuando n . Sea x C (FX ) C (FY ), luego cuando n tenemos que |FX (x) FXn (x)| 0 y |FY (x) FXn (x)| 0 por lo que |FX (x) FY (x)| |FX (x) FXn (x)| + |FXn (x) FY (x)| 0 cuando n , es decir, FX (x) = FY (x) para toda x C (FX ) C (FY ). Como (C (FX ) C (FY ))C tiene a lo m as un n umero contable de elementos, por el lema 6.2.20 concluimos que FX (x) = FY (x) para toda x R. A continuaci on probaremos las relaciones entre los tipos de convergencia. Lema 6.2.22. Sea {Xn , n 1} una sucesi on de variables aleatorias tales que converge puntualmente a la variable X , entonces tambi en converge casi seguramente a la variable X .
d d

6.2. TIPOS DE CONVERGENCIA Soluci on: Sabemos que para toda w se cumple que
n

75

l m Xn (w) = X (w).

As que {w : Xn (w) X (w), n } = . Por lo tanto P ({w : Xn (w) X (w), n }) = P () = 1, es decir, la sucesi on converge casi seguramente a la variable X . Lema 6.2.23. Sea {Xn , n 1} una sucesi on de variables aleatorias tales que converge casi seguramente a la variable X , entonces tambi en converge en probabilidad a la variable X . Demostraci on: Sea > 0 y denamos los siguientes eventos para n 1 An = Es claro que 1. {|Xn X | > } An . 2. {An } es una sucesi on decreciente. 3.
T n=1 \ n=1 S m=n

{|Xm X | > }.

An {Xn

X } pues

An

w An para toda n 1 para toda n 1 existe m n tal que |Xn (w) X (w)| > w {Xn X }.

Por lo tanto l m P (|Xn X | > ) l m P (An )



n \ n=1

= P = P

l m An An

P (Xn = 0.

X)

Lema 6.2.24. Sea {Xn , n 1} una sucesi on de variables aleatorias tales que converge en la media r esima a la variable X , entonces tambi en converge en probabilidad a la variable X . Demostraci on: Por la desigualdad de Markov tenemos que para r > 0 se cumple P (|Xn X | > ) = P (|X Xn |r > r ) de donde obtenemos que
n

E [|Xn X |r ] r

l m P (|Xn X | > ) = 0

para toda > 0. Lema 6.2.25. Sea {Xn , n 1} una sucesi on de variables aleatorias tales que converge en probabilidad a la variable X , entonces tambi en converge en distribuci on a la variable X .

76

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS

Demostraci on: Sea x C (FX ). Para cualquier > 0 tenemos que FXn (x) = P (Xn x) = P (Xn x, |Xn X | ) + P (Xn x, |Xn X | > ) P (X x + , |Xn X | ) + P (|Xn X | > ) P (X x + ) + P (|Xn X | > ) de donde se sigue que l m sup FXn (x) FX (x + ).
n

Por la continuidad de FX en x resulta que l m sup FXn (x) FX (x).


n

Ahora para cualquier > 0 tenemos que FX ( x ) = P ( X x ) = P (X x , |Xn X | ) + P (X x , |Xn X | > ) P (Xn x) + P (|Xn X | > ) de aqu obtenemos que FX (x ) = l m inf FXn (x)
n

y como FX es continua en x FX (x) l m inf FXn (x).


n

De esta forma hemos mostrado que FX (x) l m inf FXn (x) l m sup FXn (x) FX (x)
n n

por lo tanto para x C (FX ) concluimos que


n

l m FXn (x) = FX (x).

Podemos resumir los resultados anteriores en el siguiente teorema: Teorema 6.2.26. Sea {Xn , n 1} una sucesi on de variables aleatorias. Entonces tenemos las siguientes relaciones en los tipos de convergencia (Xn

/ X)

+3 (Xn

cs

/ X)

+3 (Xn KS (Xn

/ X)

+3 (Xn

/ X)

/ X)

Demostraci on: Se sigue directamente de los lemas 6.2.22, 6.2.23, 6.2.24 y 6.2.25. En este momento podemos estar pregunt andonos si los tipos de convergencia son equivalentes pero desafortunadamente la respuesta ser a que no. Para ver que las implicaciones del teorema 6.2.26 son estrictas utilizaremos contraejemplos como el del ejemplo 6.2.5 que demuestra que si una sucesi on de variables converge casi seguramente no necesariamente converge puntualmente. La siguiente proposici on ser au til para demostrar que si una sucesi on de variables converge en probabilidad, no necesariamente converge casi seguramente.

6.2. TIPOS DE CONVERGENCIA

77

Proposici on 6.2.27. Una sucesi on {Xn , n 1} converge casi seguramente a X si y s olo si para toda > 0 y 0 < < 1 existe n0 tal que para toda n > n0 se cumple
 T 

{|Xm X | < }

> 1 .

m>n

Demostraci on: Notemos que {Xn X } =


cs

T S

{|Xm X | < }

>0 nN m>n

Por lo tanto, para toda > 0 tenemos que


[ \ !

P (Xn X ) P

cs

{|Xm X | < }
!

nN m>n

l m P

{|Xm X | < }

m>n

porque la sucesi on de eventos


T

An =

{|Xm X | < }

m>n

es creciente. De aqu concluimos que Xn X si y s olo si para toda > 0 se cumple


\ !

cs

1 = P (Xn X ) = l m P
n

cs

{|Xm X | < } .

m>n

Ejemplo 6.2.28. Sean X1 , X2 , ... variables aleatorias independientes tales que para n 1 se tiene 1 1 y P (Xn = n) = . n n

P (Xn = 1) = 1
p cs

Demuestra que Xn 1 pero que Xn


p

1.

Soluci on: Primero veamos que Xn 1. Sea > 0, luego, cuando n tenemos que 1 0. n

P (|Xn 1| > ) = P (Xn = n) =


p

Por lo tanto Xn 1.

78 Ahora veamos que Xn P


\
cs

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS 1. Para cada n N tenemos que


!

{|Xm 1| < }

m>n

l m

N \

{|Xm 1| < }
!

m=n+1 N \

l m P
N Y

{|Xm 1| < }

m=n+1

l m

P ({|Xm 1| < })

m=n+1 N Y m=n+1 N Y

l m

1 1 m

= =

l m l m

m1 m m=n+1

N 1 n n+1n+2 N n + 1 n + 2 n + 3 N n = l m N N = 0 Por lo tanto Xn


cs

1.

Ejemplo 6.2.29. Sean k > 0 y X2 , X3 , ... variables aleatorias tales que P (Xn = 1) = 1
p

1 1 y P (Xn = n) = k . nk n
r

Demuestra que Xn 1 pero que para algunos valores de r se tiene que Xn


p

1.

Soluci on: Primero veamos que Xn 1. Sea > 0, luego, cuando n tenemos que P (|Xn 1| > ) = P (Xn = n) = Por lo tanto Xn 1. Ahora veamos que Xn
r p

1 0. nk

1. Tenemos que

E [|Xn 1|r ]

= = = =

|1 1| 1 |n 1|r 1 nk

1 nk

+ |n 1|

1 nk

(n 1)r nk 1 r 1 1 n n k r
8 > <0

Por lo que

r<k l m E [|Xn 1| ] = 1 r = k n > : r > k


r

Por lo tanto Xn

1.

Observaci on 6.2.30. En relaci on con el ejemplo 6.2.29 tenemos que:

6.2. TIPOS DE CONVERGENCIA 1. Si k = 1 y X1 , X2 , ... son independientes entonces a ) Xn 1 b ) Xn


cs p

79

1
r

c ) E [Xn ] 2 cuando n d ) Xn 1 para 0 < r < 1 y Xn


r

1 para r 1.

2. Si k = 2 y X1 , X2 , ... son independientes entonces a ) Xn 1 b ) Xn 1 c ) E [Xn ] 1, V ar(Xn ) 1 cuando n d ) Xn 1 para 0 < r < 2 y Xn
r r cs p

1 para r 2.

3. Las observaciones anteriores muestran que no existe relaci on entre la convergencia casi segura y la convergencia en media r. Ejemplo 6.2.31. Sea X N (0, 1) y denamos

Xn = Entonces Xn X pero Xn
d p

X X

si n es par si n es impar

X.
d

Soluci on: Debido a X tambi en tiene distribuci on normal est andar entonces FXn (x) = (x) donde (x) es la funci on de distribuci on acumulada de X . De aqu se sigue que Xn X . Por otro lado, podemos tomar > 0 tal que


P |X | o en forma equivalente


 1 < 2 2  1 > . 2 2

P |X | > De esta manera tenemos dos casos:

1. Si n es par entonces P (|Xn X | > ) = P (|X X | > ) = P (0 > ) = 0. 2. Si n es impar entonces




P (|Xn X | > ) = P (| X X | > ) = P (2|X | > ) = P |X | > Por lo tanto concluimos que Xn
p

 1 > . 2 2

X.

Con este ejemplo hemos terminado de demostrar que los regresos de las implicaciones en los tipos de convergencia no son siempre ciertos; sin embargo, hay una equivalencia entre la convergencia en probabilidad y en distribuci on que mencionaremos en el siguiente teorema. Teorema 6.2.32. Sean X1 , X2 , ... variables aleatorias y c una constante, entonces Xn c si y s olo si Xn c. Demostraci on: Por el lema 6.2.25 sabemos que si Xn c entonces Xn c. Ahora probemos el regreso. Sabemos que la funci on de distribuci on acumulada de X = c est a dada por
p d p d

80

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS

FX (x) = y como P (|Xn c| > )

0 1

x<c xc

= P (Xn c > ) + P (Xn c < ) = P (Xn > c + ) + P (Xn < c ) P (Xn c ) + P (Xn > c + )

tenemos que
n

l m P (|Xn c| > ) = = =
p

n n

l m [P (Xn c ) + P (Xn > c + )] l m [FXn (c ) + 1 FXn (c + )]

FX (c ) + (1 FX (c + )) 0.

Por lo tanto Xn c.

6.3.

Ley d ebil y ley fuerte de los grandes n umeros

Enunciaremos el siguiente teorema sin demostrar, el cual ser a de gran utilidad para obtener los resultados fuertes de esta secci on. Teorema 6.3.1. Sean X1 , X2 , ... variables aleatorias con funciones caracter sticas X1 , X2 , ..., respectivamente. Si Xn (t) X (t) cuando n para toda t, entonces Xn X . Observaci on 6.3.2. 1. El teorema 6.3.1 es llamado teorema de continuidad de L evy. 2. El rec proco tambi en es v alido, es decir, si X1 , X2 , ... son variables aleatorias tales que Xn X para alguna variable X entonces Xn (t) X (t) cuando n para toda t. 3. Podemos obtener un teorema de existencia debilitando la hip otesis del teorema 6.3.1. En forma m as precisa, s olo necesitamos asumir que Xn (t) (t) conforme n donde es alguna funci on que es continua en t = 0. La conclusi on entonces es que Xn converge en distribuci on, cuando n , a alguna variable X cuya funci on caracter stica es . La formulaci on original del teorema 6.3.1 presupone el conocimiento que el l mite es una funci on caracter stica y que esta funci on caracter stica es de una variable aleatoria conocida X . Se pueden obtener teoremas similares usando ya sea la funci on generadora de probabilidades o la funci on generadora de momentos. Los enunciamos a continuaci on. Teorema 6.3.3. Sean X1 , X2 , ... variables aleatorias tomando valores en los enteros no negativos con funciones generadoras de probabilidades gX1 , gX2 , ..., respectivamente. Si gXn (t) gX (t) cuando n , entonces Xn X . Teorema 6.3.4. Sean X1 , X2 , ... variables aleatorias con funciones generadoras de momentos mX1 , mX2 , ..., respectivamente denidas para |t| < h para alg un h > 0 y para toda n. Supongamos que X es una variable aleatoria con funci on generadora de momentos mX (t) que existe para |t| h1 < h para alg un h1 > 0. Si mXn (t) mX (t) cuando n entonces Xn X . Observaci on 6.3.5. El rec proco del teorema 6.3.4 y el teorema de unicidad o caracterizaci on de las variables aleatorias pueden usarse para demostrar la unicidad del l mite en la convergencia en distribuci on. En forma detallada si
d d d d

6.3. LEY DEBIL Y LEY FUERTE DE LOS GRANDES NUMEROS Xn X y Xn Y entonces Xn (t) X (t) y Xn (t) Y (t) cuando n para toda t. Entonces para toda t tenemos que
d d

81

0 |X (t) Y (t)| = |X (t) Xn (t) + Xn (t) Y (t)| |X (t) Xn (t)| + |Xn (t) Y (t)| pero como |X (t) Xn (t)| 0 y |Xn (t) Y (t)| 0 cuando n conluimos que X (t) = Y (t) para toda t, es decir, X = Y . Corolario 6.3.6. Sean X1 , X2 , ... variables aleatorias y supongamos que para alg un n umero real c p se cumple que Xn (t) eitc cuando n para toda t. Entonces Xn c. Demostraci on: Primero notemos que la funci on caracter stica de la variable X = c es X (t) = E [eitx ] = eitc . Ahora bien, ya que cuando n se cumple que Xn (t) eitc entonces Xn c y, por el teorema p 6.2.32, concluimos que Xn c. Teorema 6.3.7 (Ley d ebil de los grandes n umeros). Sean X1 , X2 , ... variables aleatorias independientes e id enticamente distribuidas con media nita . Para n 1, denamos Sn = X1 + + Xn , entonces Xn = Sn p . n
d d

it para toda Demostraci on: S olo tenemos que mostrar que cuando n entonces X n (t) e t. Sabemos que

Xn (t)

= = = = =

E [eitXn ]

Sn } n t E exp{i Sn } n t Sn n n t . X1 n E exp{it

donde la u ltima igualdad se sigue de la proposici on 3.3.8. Por otro lado, la funci on caracter stica de cualquier variable X tal que E [|X |] < , puede ser vista como X (t) = E [eitx ]
"
X (itx)j j =0

= E
"

j!
X (itx)j j =2 X j =2

= E 1 + itx +

j! (it)j E [X j ] j!

= entonces cuando t 0 se cumple

1 + itE [X ] +

82

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS X (t) = 1 + itE [X ] + o(|t|)

donde la funci on o(|t|)

cumple que
t0

l m

o(|t|) = 0. |t|
n

Por lo tanto

Xn (t)

X1 1+

t n

it |t| +o n n

eit cuando n para toda t. Observaci on 6.3.8. 1. Anteriormente hab amos demostrado este resultado con la desigualdad de Chebyshev pero con el supuesto adicional de que 2 < . En este caso s olo pedimos que < . 2. Se puede demostrar que Xn . Este resultado es conocido como la ley fuerte de los grandes n umeros. Teorema 6.3.9 (Ley fuerte de los grandes n umeros). Sean X1 , X2 , ... variables aleatorias independientes e identicamente distribuidas con media nita . Para n 1, denamos Sn = X1 + + Xn , entonces Xn = Sn cs . n
cs

6.4.

Teorema del l mite central

Teorema 6.4.1 (Teorema l mite central). Sean X1 , X2 , ... variables aleatorias independientes e identicamente distribuidas con media < y varianza 2 < . Sea Sn = X1 + + Xn para n 1, entonces Sn n d Y n donde Y N (0, 1). Demostraci on: Denamos las variables Yi = Xi que son independientes pues las Xi los son y notemos que E [Yi ] = 0 y que V ar(Yi ) = 0. Sea Sn = Y1 + + Yn entonces
n X

Sn n n

Xk n n
n

= = = =

k=1

1 X Xk n 1 X Yk n
k=1 k=1 n

S n . n

1 En

procesos estoc asticos profundizamos m as sobre esta funci on

6.4. TEOREMA DEL L IMITE CENTRAL

83

Notemos que la u ltima expresi on tiene la misma forma que la expresi on original pues E [Yi ] = 0 y que V ar(Yi ) = 1; esto quiere decir que no importa la distribuci on de la sucesi on original siempre podemos convertirla en una sucesi on de variables aleatorias independientes con media cero y varianza uno. Lo anterior quiere decir que sin p erdida de generalidad podemos suponer = 0 y 2 = 1 en la demostraci on del teorema. Entonces por las proposiciones 3.3.7 y 3.3.8 tenemos que
n (t) Sn n

= = = =

Sn (t) n

t n n t X1 n Sn


t2 +o 2n

t2 n

n

donde la u ltima igualdad se obtiene a partir de un razonamiento an alogo al desarrollado en la demostraci on del teorema 6.3.7. Finalmente como


t2 1 +o 2n

t2 n

n

e t

/2

cuando n , conluimos que


t n (t) e Sn
n 2

/2

Ejemplo 6.4.2. Sean X1 , X2 , ..., Xn una muestra de una variable aleatoria X . Supongamos que la distribuci on de X es F (x). Sea Fn (x) la funci on de distribuci on emp rica de la muestra, es decir Fn (x) = Demuestre que para cada x jo 1. Fn (x) F (x) cuando n . 2. n(Fn (x) F (x)) N (0, 2 (x)) cuando n . Determine 2 (x).
d p

n umero de observaciones x . n

Soluci on: 1. Para k 1, sea

1{Xk x} =

1, Xk x 0, otro caso.

Es claro que 1{X1 x} , 1{X2 x} , ..., 1{Xn x} son variables aleatorias independientes e id enticamente distribuidas cada una con distribuci on Bernoulli de par ametro p = P (1{Xk x} = 1) = P (Xk x) = F (x). De esta forma, Fn (x) = 1X 1{Xk x} n
n k=1

y cuando n entonces por el teorema 6.3.7 tenemos que

84

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS 1X p 1{Xk x} E [1{X1 x} ] n


n k=1

la cual sabemos que cumple E [1{X1 x} ] = 1P (1{X1 x} = 1) + 0P (1{X1 x} = 0)

= P (1{X1 x} = 1) = P (Xk x) = F (x). 2. Sabemos que la varianza de una variable Bernoulli es V ar(1{Xk x} ) = p(1 p) = F (x)(1 F (x)) = 2 (x). Luego para toda y R por el teorema 6.4.1 tenemos que
n

l m P ( n(Fn (x) F (x)) y )

= =

l m P

1X 1{Xk x} F (x) n
n k=1

Sn n(x) y n n Sn n(x) y = l m P n (x) n (x) y = (x) = P (X y ) l m P con X N (0, 2 (x)).

6.5.

Convergencia de sumas de sucesiones de variables aleatorias


cs p r cs p r cs p r

Teorema 6.5.1. Sean X1 , X2 , ..., Y1 , Y2 , ... variables aleatorias. 1. Si Xn X y Yn Y entonces Xn + Yn X + Y . 2. Si Xn X y Yn Y entonces Xn + Yn X + Y . 3. Si Xn X y Yn Y entonces Xn + Yn X + Y . Demostraci on: 1. Denamos los siguientes conjuntos NX = {w : Xn (w) X (w)} NY = {w : Yn (w) Y (w)} = {w : Xn (w) + Yn (w) X (w) + Y (w)} N = NX NY

NX +Y

Entonces para w / N , cuando n tenemos que |X (w) + Y (w) (Xn (w) + Yn (w))| |X (w) Xn (w)| + |Y (w) Yn (w)| 0 Por lo que concluimos que N c NX +Y . Adem as, en el teorema 6.2.16 demostramos que P (N ) = 0 por lo que P (N c ) = 1, as que se sigue que P (NX +Y ) = 1.

6.5. CONVERGENCIA DE SUMAS DE SUCESIONES DE VARIABLES ALEATORIAS 2. Sea > 0. Denamos los conjuntos A = {w : n |Xn (w) + Yn (w) (X (w) + Y ( w))| > } o B = w : |Xn (w) X (w)| > 2 n o C = w : |Yn (w) Y (w)| > 2

85

Notemos que si w A entonces w B C pues si w / B C entonces w (B C )c = w c c B C , es decir, |Xn (w) X (w)| y |Yn (w) Y (w)| y por lo tanto cuando n 2 2 tenemos que |Xn (w) + Yn (w) (X (w) + Y (w))| = |Xn (w) X (w) + Yn (w) Y (w)| |Xn (w) X (w)| + |Yn (w) Y (w)| + 2 2 = lo cual contradice que w A; por lo tanto w B C . Luego, cuando n tenemos que P (|Xn + Yn (X + Y )| > ) = P (A) P (B C ) P (B ) + P (C )


P |Xn X | >

   + P |Yn Y | > 2 2

0. 3. Cuando n tenemos por el lema 6.2.18 que E [|Xn + Yn (X + Y )|r ] = E [|(Xn X ) + (Yn Y )|r ] 2r (E [|Xn X |r ] + E [|Yn Y |r ]) 0.

Observaci on 6.5.2. Las armaciones del teorema 6.5.1 se pueden establecer tambi en para la diferencia, productos y razones. La formulaci on en el caso de convergencia en distribuci on requiere de supuestos adicionales. Teorema 6.5.3. Sean X1 , X2 , ..., Y1 , Y2 , ... variables aleatorias tales que 1. Xn y Yn son independientes para toda n, 2. Xn X y Yn Y con X y Y independientes, entonces Xn + Yn X + Y . Demostraci on: Sabemos que Xn +Yn (t) = Xn (t)Yn (t) por lo que cuando n obtenemos que Xn +Yn (t) X +Y (t), por lo que el teorema 6.3.1 nos garantiza que Xn + Yn X + Y . En ocasiones se tienen mezclas de los tipos de convergencia como se puede apreciar en la siguiente proposici on y teorema. Proposici on 6.5.4. Sean X1 , X2 , ..., Y1 , Y2 , ... variables aleatorias tales que Xn X y Yn a
d d d d d d

86

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS

donde a es una constante, entonces Xn + Yn X + a. Demostraci on: Se deja como ejercicio 18. Teorema 6.5.5 (Teorema Slutsky). Sean X1 , X2 , ..., Y1 , Y2 , ... variables aleatorias. Supongamos que Xn X y Yn a donde a es una constante. Entonces 1. Xn + Yn X + a. 2. Xn Yn X a. 3. Xn Yn Xa. 4. Xn d X , para a = 0. Yn a
d d d d p d

Demostraci on: Se deja como ejercicio 19. Ejemplo 6.5.6. Sean X1 , X2 , ... independientes con distribuci on uniforme en (0, 1). Demuestre que X1 + + Xn d 3 2 + + X 2 2 . X1 n Soluci on: Notemos que X1 + + Xn (X1 + + Xn )/n 2 + + X 2 = (X 2 + + X 2 )/n . X1 n n 1 Por otro lado, tenemos por el teorema 6.3.7 tenemos que 1 X1 + + Xn d E [X1 ] = n 2 y que
2 2 X1 + + Xn 1 d 2 E [X1 ]= n 3

por lo que por el teorema 6.5.5 concluimos que X1 + + Xn d 3 2 + + X 2 2 . X1 n

Ejemplo 6.5.7. Sean X1 , X2 , ... variables aleatorias independientes con funci on de densidad f (x) = Demuestre que X1 + + Xn d n 2 N (0, 2 ) 2 X1 + + Xn y determina 2 .
2 Soluci on: Notemos que E [Xi ] = 0 y que E [Xi ] = 2. Reescribiendo la fracci on obtenemos que

1 |x| e . 2

6.5. CONVERGENCIA DE SUMAS DE SUCESIONES DE VARIABLES ALEATORIAS X1 + + Xn (X1 + + Xn )/ n = n 2 2 + + X 2 )/n 2 X1 + + Xn (X1 n y por el teorema del l mite central obtenemos el siguiente resultado para el numerador X1 + + Xn d X1 + + Xn d = 2 2N (0, 1) = N (0, 2). n 2 n Por otro lado por el teorema 6.3.7 obtenemos la convergencia para el denominador
2 2 X1 + + Xn p 2 E [Xi ] = 2. n

87

As que por el teorema 6.5.5 concluimos que X1 + + Xn d N (0, 2) 1 n 2 = N 0, 2 X1 + + Xn 2 2 y conclumos que 2 =


1 . 2 Terminamos esta unidad con dos resultados que relacionan la funci on de una sucesi on de variables aleatorias con la misma funci on evaluada en el l mite en probabilidad de la sucesi on de variables aleatorias cuando la funci on es continua. Teorema 6.5.8. Sean X1 , X2 , ... variables aleatorias tales que Xn a donde a es constante. Suponga que g es una funci on continua en a, entonces cuando n se cumple g (Xn ) g (a). Demostraci on: La continuidad de g en a implica que para toda > 0 existe una > 0 tal que si |x a| < entonces |g (x) g (a)| < o en forma equivalente, para toda > 0 existe una > 0 tal que si |g (x) g (a)| > entonces |x a| > . De lo anterior se sigue que {w : |g (Xn (w)) g (a)| > } {w : |Xn (w) a| > } esto es, para toda > 0 existe una > 0 tal que P (|g (Xn ) g (a)| > ) P (|Xn a| > ) de donde se sigue el resultado ya que cuando n P (|Xn a| > ) 0. Existe un resultado m as general que no demostraremos debido a su complejidad. Teorema 6.5.9. Sean X1 , X2 , ... variables aleatorias tales que Xn X y g una funci on continua, entonces g (Xn ) g (X ).
p p p p

88

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS

6.6.

Ejercicios

1. Sea {Xn , n 1} una sucesi on de variables aleatorias independientes e identicamente distribuidas con funci on de densidad

f ( x) =

e(xa) 0

xa x<a

Denamos Yn = min{X1 , ..., Xn }. Demuestra que cuando n se cumple Yn a. 2. Sean X1 , X2 , ... variables aleatorias independientes e identicamente distribuidas. Sea a R el valor m as peque no para el cual se cumple que P (Xk a) = 1. Demuestra que cuando n entonces
1kn p

m ax Xk a.

3. Sean X1 , X2 , ... variables aleatorias independientes con distribuci on Cauchy (0, 1). Determina la distribuci on l mite cuando n de Yn = 1 max{X1 , ..., Xn }. n

4. Sean X1 , X2 , ... una sucesi on de variables aleatorias tales que k P Xn = n


1 para k = 1, ..., n. n

Determina la distribuci on l mite de Xn cuando n . 5. Sean {Xn , n 1} variables aleatorias con distribuci on Bin(n, pn ). a ) Supongamos que npn m cuando n . Demuestra que cuando n entonces Xn Y donde Y se distribuye P oisson(m). b ) Supongamos que pn 0 y que npn cuando n . Demuestra que cuando n Xn npn d Y npn donde Y N (0, 1). c ) Supongamos que npn (1 pn ) cuando n . Demuestra que cuando n entonces Xn npn d Y npn (1 pn ) donde Y N (0, 1).
 m 6. Sea {Xn , n 1} una sucesi on de variables aleatorias con distribuci on Bin n2 , con m > 0. n Demuestra que cuando n entonces
d

Xn nm d Y nm donde Y N (0, 1).

6.6. EJERCICIOS

89

7. Sean Xn1 , Xn2 , ..., Xnn variables aleatorias independientes con funci on de distribuci on com un P (Xnk = 0) = 1 1 1 1 1 , P (Xnk = 1) = y P (Xnk = 2) = 2 n n2 n n

donde k = 1, ..., n y n = 1, 2, .... Para n 1, sea Sn = Xn1 + + Xnn . Demuestra que cuando d n entonces Sn Y donde Y P oisson(1). 8. Proporciona todos los detalles de la observaci on 6.2.30. 9. Sean X1 , X2 , ... variables aleatorias independientes e identicamente distribuidas con funci on caracter stica
(

(t) =

1 0

|t|(2 |t|) |t| < 1 |t| 1

Sn Sea Sn = X1 + + Xn . Demuestra que 2 converge en distribuci on y determina la distribuci on n l mite cuando n . 10. Sean N, X1 , X2 , ... variables aleatorias independientes tales que N P oisson() y Xn P oisson(). Determina la distribuci on l mite de SN = X1 + + XN cuando y 0 tal que > 0. (Considera que S0 = 0.) 11. Sean X1 , X2 , ... variables aleatorias independientes con dustribuci on P oisson(m) y supongamos que N Geometrica(p) es independiente de X1 , X2 , .... Denamos SN = X1 + + XN p (S0 = 0). Supongamos que m 0 y p 0 de tal forma que > 0. Demuestra que SN m converge en distribuci on y determina la distribuci on l mite. 12. Sean X1 , X2 , ... variables aleatorias independientes con distribuci on U (0, 1) y sea Nm P oisson(m) independiente de X1 , X2 , .... Denamos Vm = max{X1 , ..., XNm } con Vm = 0 cuando Nm = 0. a ) Determina la funci on de distribuci on de Vm . b ) Determina la funci on generadora de momentos de Vm . c ) Demuestra que E [Vm ] 1 cuando m . d ) Demuestra que m(1 Vm ) converge en distribuci on cuando m y determina el l mite. 13. Se tienen dos dados A y B con las siguientes caracter sticas: el dado A tiene dos caras blancas y cuatro rojas, mientras que el dado B tiene dos caras rojas y y cuatro blancas. Una moneda es lanzada para decidir cu al de los dos dados ser a lanzado primero y cu al de segundo. Sea {Xn , n 1} una sucesi on de variables aleatorias denidas como sigue

Xn =

1 0

si se obtiene una cara roja si se obtiene una cara blanca

en el n esimo lanzamiento. Demuestra que la ley de los grandes n umeros no se puede aplicar para esta sucesi on. Por qu e sucede esto? 14. Aplicando el teorema del l mite central para variables P oisson independientes escogidas de manera adecuada, demuestra que l m en
n X nk k=0

k!

1 . 2

15. Sean X1 , X2 , ... variables aleatorias independientes con distribuci on U (1, 1).

90 a ) Demuestra que

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS

n X

Xk
n X k=1 3 Xk

Yn =

k=1 n X k=1 2 Xk +

converge en probabilidad cuando n . Determina el l mite. b ) Demuestra que Yn , adecuadamente normalizado, converge en distribuci on cuando n y determina el l mite. 16. Sea Xn Gamma(n, 1) y sea Xn n Yn = . Xn Demuestra que cuando n entonces Yn Y donde Y N (0, 1). 17. Sea {Yn , n 1} variables aleatorias independientes con distribuci on U (1, 1) y sea
n X d

Yk .

Xn =

k=1

n m ax Yk
1kn d

Demuestra que cuando n entonces Xn Y donde Y N 0, 18. Demuestra la proposici on 6.5.4. 19. Demuestra el teorema 6.5.5. 20. Sean X1 , X2 , ... variables aleatorias tales que Xn 2. Entonces
2 4. Xn p p

1 . 3

21. Sean X1 , X2 , ... variables aleatorias independientes e identicamente distribuidas con media nita 0. Demuestre que

Xn

22. Sean X1 , X2 , ... variables aleatorias independientes con distribuci on normal est andar. Demuestra que

X1 1X 2 X n i=1 i
n

N (0, 1).

23. Sean Z1 , Z2 , ... variables aleatorias normal est andar y Yn 2 n independientes. Denamos para n = 1, 2, ... Zn Tn = Yn n

6.6. EJERCICIOS y demuestre que Tn N (0, 1). 24. Sean X1 , X2 , ... variables aleatorias tales X1 = 1, P (Xn = 1) = 1 1 1 y P (Xn = n) = para n 2. n n
d

91

Sea X independiente de {Xn , n 1} normal est andar. Denamos Yn = XXn para n 1. Demuestre que cuando n se cumple Yn N (0, 1), E [Yn ] = 0 y V ar(Yn ) .
d

92

CAP ITULO 6. SUCESIONES DE VARIABLES ALEATORIAS

Cap tulo 7

Estad sticos de orden


7.1. Introducci on a los estad sticos de orden

Supongamos que las variables X1 , X2 , ..., X32 representan la proporci on de votantes que tienen preferencia por determinado partido pol tico en los 32 estados de la rep ublica mexicana y deseamos conocer la probabilidad de que la proporci on m as baja est e por encima del 30 % o que la proporci on m as alta est e por debajo del 50 %. Dichas variables (la proporci on m as peque na y la m as alta) son casos particulares de lo que conocemos como estad sticos de orden. Denici on 7.1.1. Sea X1 , .., Xn una muestra aleatoria (por lo tanto hay independencia de las variables). Para k = 1, ..., n, denimos el k esimo estad stico de orden, denotado por X(k) , como la k esima variable m as peque na entre X1 , ..., Xn . Al vector aleatorio (X(1) , ..., X(n) ) se le conoce como el estad stico de orden de las variables X1 , ..., Xn . En el ejemplo mencionado anteriormente, la proporci on m as baja de entre las proporciones X1 , X2 , ..., X32 es X(1) y la proporci on m as alta es X(32) . Observaci on 7.1.2. El estad stico de orden de las variables X1 , ..., Xn es obtenido de la muestra original mediante una permutaci on de las variables y adem as X(1) X(2) ... X(n) . En muchas ocasiones es necesario considerar el n umero n de observaciones originales e indicarlo en el estad stico de orden de la siguiente manera (X(1:n) , ..., X(n:n) ).

7.2.

Distribuci on del m nimo, m aximo y rango de los estad sticos de orden

Denici on 7.2.1. Sea X1 , ..., Xn una muestra aleatoria. Los estad siticos de orden menor y mayor est an dados respectivamente por X(1) = m n{X1 , ..., Xn } y X(n) = m ax{X1 , ..., Xn }. Proposici on 7.2.2. Sean X1 , .., Xn variables aleatorias independientes e id enticamente distribuidas con funci on de distribuci on com un F . Sean X(1) y X(n) los estad siticos de orden menor y mayor, respectivamente, entonces: 1. FX(n) (x) = (F (x))n . 2. FX(1) (x) = 1 (1 F (x))n . Demostraci on: 93

94 1. Por denici on e independencia tenemos que FX(n) (x) = = = =

CAP ITULO 7. ESTAD ISTICOS DE ORDEN

P (m ax{X1 , ..., Xn } x) P (X1 x, ..., Xn x) P (X1 x) P (Xn x) (F (x))n .

2. Por denici on e independencia tenemos que FX(1) (x) = = = = = = 1 P (X(1) > x) 1 P (m n{X1 , ..., Xn } > x) 1 P (X1 > x, ..., Xn > x) 1 P (X1 > x) P (Xn > x) 1 (1 F (x)) (1 F (x)) 1 (1 F (x))n .

Corolario 7.2.3. Sean X1 , .., Xn variables aleatorias continuas independientes e identicamente distribuidas con funci on de densidad com un f y funci on de distribuci on com un F . Sean X(1) y X(n) los estad sticos de orden menor y mayor, respectivamente, entonces: 1. fX(n) (x) = n(F (x))n1 f (x). 2. fX(1) (x) = n(1 F (x))n1 f (x). Demostraci on: 1. Por la proposici on 7.2.2 tenemos que fX(n) (x) = = d FX (x) dx (n) d (F (x))n dx

d F ( x) dx n1 = n(F (x)) f (x). = n(F (x))n1 2. Nuevamente, por la proposici on 7.2.2 tenemos que fX(1) (x) = = = = = d FX (x) dx (1) d [1 (1 F (x))n ] dx d n(1 F (x))n1 [1 F (x)] dx n(1 F (x))n1 (f (x)) n(1 F (x))n1 f (x).

Ejemplo 7.2.4. En una carrera de 100m planos, los tiempos de llegada de cada competidor se pueden suponer distribuidos uniformemente en el intervalo (9.8, 10.2). Cu al es la probabilidad de que el ganador llegue antes de 9.86 seg ?

DEL M 7.2. DISTRIBUCION INIMO, MAXIMO Y RANGO DE LOS ESTAD ISTICOS DE ORDEN95 Soluci on: Sabemos que la funci on de distribuci on de la variable uniforme est a dada por x 9.8 x 9.8 F (x) = , 9.8 < x < 10.2 > : 0.4 1, x 10.2 Por la proposici on 7.2.2 concluimos que FX(1) (9.86) = = = 1 (1 F (9.86))8
8 8 0, > <

1 1 0.7275.

9.86 9.8 0.4

Ahora encontraremos la funci on de densidad del k esimo estad stico de orden. Pero antes, enunciaremos dos lemas que utilizaremos en la prueba. Lema 7.2.5. Para 1 < k < n se cumple
Z
0 z

y k1 (1 y )nk dy =

z k1 (1 z )nk+1 k1 + nk+1 nk+1

Z
0

y k2 (1 y )nk+1 dy.

Demostraci on: Realicemos la integral por el m etodo de integraci on por partes. Sea u = y k1 y nk+1 (1 y ) dv = (1 y )nk dy , luego du = (k 1)y k2 dy y v = . Por lo tanto nk+1
Z
0 z

k1

(1 y )

nk

dy

= =

y k1 (1 y )nk+1 + nk+1 0

Z
0

k1 y k2 (1 y )nk+1 dy nk+1
Z
z 0

k1 z k1 (1 z )nk+1 + nk+1 nk+1

y k2 (1 y )nk+1 dy.

Lema 7.2.6. Para k = 1, ..., n se cumple que


n X n i=k

z i (1 z )ni =

(n + 1) (k )(n + 1 k )

Z
0

y k1 (1 y )nk dy

donde (u) = (u 1)!. Demostraci on: Procederemos por inducci on sobre k de manera decreciente: 1. Para k = n, es claro que se cumple pues
n X n i=n

z i (1 z )ni = z n =

(n + 1) (n)(n + 1 n)

Z
0

y n1 (1 y )nn dy

. 2. Supongamos cierto el resultado para k y probemos que se cumple para k 1. Por hip otesis de inducci on tenemos que
n X n i=k

z i (1 z )ni =

(n + 1) (k )(n + 1 k )

Z
0

y k1 (1 y )nk dy

96 pero el lema 7.2.5 nos dice que


Z
0 z

CAP ITULO 7. ESTAD ISTICOS DE ORDEN

y k1 (1 y )nk =

z k1 (1 z )nk+1 k1 + nk+1 nk+1

Z
0

y k2 (1 y )nk+1 dy.

Por lo tanto
n X n

i
i=k

z i (1 z )ni

= =

Z z k1 (n + 1) z (1 z )nk+1 k1 + y k2 (1 y )nk+1 dy (k)(n + 1 k) nk+1 nk+1 0

(n + 1) z k1 (1 z )nk+1 (k)(n + 2 k) Z z (n + 1) y k2 (1 y )nk+1 dy + (k 1)(n + 2 k) 0 n z k1 (1 z )nk+1 = k1 Z z (n + 1) + y k2 (1 y )nk+1 dy (k 1)(n + 2 k) 0 n Pasando el t ermino z k1 (1 z )nk+1 al lado izquierdo de la igualdad obtenemos que k1

i=k1

Z z n X (n + 1) n i z (1 z )ni = y (k1)1 (1 y )n(k1) dy. i (k 1)(n + 1 (k 1)) 0

Teorema 7.2.7. Sean X1 , ..., Xn variables aleatorias independientes con funci on de distribuci on com un F . Para k = 1, ..., n se tiene que FX(k) (x) = (n + 1) (k )(n + 1 k )
Z
0 F (x)

y k1 (1 y )nk dy.

es decir, FX(k) (x) = F (k,n+1k) (F (x)) lo que signica que la funci on de distribuci on del k esimo estad stico de orden, es la funci on de distribuci on de una variable aleatoria Beta(k, n+1k ) evaluada en F (x). Demostraci on: Para i = 1, ..., n denamos los eventos Ai (x) = {exactamente i variables de X1 , ..., Xn son menores o iguales que x}. Notemos que dichos eventos son disjuntos pues si para i < j se tiene que Ai (x) Aj (x) = , entonces exactamente i y j variables son menores o iguales a x, lo cual contradice que i < j . Luego FX(k) (x) = P (X(k) x)
n [ i=k

= P = = Por el lema 7.2.6 obtenemos que FX(k) (x) =


n X

Ai (x)

P (Ai (x)) n (F (x))i (1 F (x))ni . i

i=k n X i=k

(n + 1) (k )(n + 1 k )

Z
0

F (x)

y k1 (1 y )nk dy.

DEL M 7.2. DISTRIBUCION INIMO, MAXIMO Y RANGO DE LOS ESTAD ISTICOS DE ORDEN97 Corolario 7.2.8. Sean X1 , ..., Xn variables aleatorias continuas independientes con funci on de distribuci on com un F y funci on de densidad f . Entonces, para k = 1, ..., n la funci on de densidad de la variable X(k) es fX(k) (x) = (n + 1) (F (x))k1 (1 F (x))nk f (x) (k )(n + 1 k )

es decir fX(k) (x) = f (k,n+1k) (F (x))f (x). Demostraci on: Se sigue de aplicar el primer teorema fundamental del c alculo al resultado del teorema 7.2.7. Aunque en la siguiente secci on enunciaremos y demostraremos de manera general cu al es la funci on de densidad conjunta del estad stico de orden, ahora vamos a calcular la funci on de densidad conjunta de X(1) y X(n) pues ser au til para calcular la funci on de densidad de la variable rango que deniremos posteriormente. Teorema 7.2.9. Sea X1 , ..., Xn una muestra de variables aleatorias continuas con funci on de distribuci on com un F y funci on de densidad com un f . Entonces la funci on de densidad conjunta de X(1) y X(n) es

fX(1) ,X(n) (x, y ) = Demostraci on: Tenemos que

n(n 1)(F (y ) F (x))n2 f (y )f (x), 0,

x<y otro caso.

P (X(1) > x, X(n) y )

= = =

P (x < Xi y, para todo k = 1, ..., n)


n Y i=1

P (x < Xi y )

(F (y ) F (x))n para x < y.

Por otro lado, P (X(1) x, X(n) y ) + P (X(1) > x, X(n) y ) = P (X(n) y ), lo que equivale a FX(1) ,X(n) (x, y ) = FX(n) (y ) P (X(1) > x, X(n) y )

= Por lo tanto,

(F (y ))n (F (y ) F (x))n , (F (y ))n ,

x<y x y.

2 FX ,X (x, y ) = fX(1) ,X(n) (x, y ) = xy (1) (n)

n(n 1)(F (y ) F (x))n2 f (y )f (x), x < y 0, otro caso.

Denici on 7.2.10. Sea X1 , ..., Xn una muestra aleatoria. El rango Rn est a dado por la expresi on Rn = X(n) X(1) . Teorema 7.2.11. Sea X1 , ..., Xn una muestra aleatoria con funci on de distribuci on com un F y funci on de densidad com un f . Entonces
Z

fRn (r) = n(n 1) para r > 0. Demostraci on: Ver ejercicio 6.

(F (u + r) F (u))n2 f (u + r)f (u)du.

98 Ejemplo 7.2.12. Si Xi U (0, 1), determina: 1. La funci on de densidad de la variable Rn . 2. E [Rn ]. Soluci on:

CAP ITULO 7. ESTAD ISTICOS DE ORDEN

1. Sabemos que la funci on de densidad y distribuci on, respectivamente de cada variable Xi es

f (x) =

x0 1, 0 < x < 1 y F (x) = x, 0 < x < 1 . > 0, otro caso :1, x 1

8 > <0,

Luego por el teorema 7.2.11 tenemos que


Z

fRn (r)

n(n 1)
Z

(F (u + r) F (u))n2 f (u + r)f (u)du (u + r u)n2 1 1du

1r

= n(n 1) = n(n 1)r


0 n2

(1 r), 0 < r < 1

lo que implica que Rn es una variable Beta(n 1, 2). 2. Por denici on de esperanza, tenemos que
Z
1 0

E [Rn ]

= = = =

rn(n 1)rn2 (1 r)dr


Z
0 1

n(n 1) n(n 1) n1 . n+1

(rn1 rn )dr

1 1 n n+1

Ejemplo 7.2.13. Sean X1 , ..., Xn variables aleatorias independientes que se distribuyen exp(1). Determina: 1. fX(1) ,X(n) (x, y ). 2. fRn (r). Soluci on: Sabemos que las funciones de densidad y distribuci on, respectivamente, de la variable exponencial con par ametro 1 son

f (x) =

0, x<0 y F (x) = e x , x > 0

0, x<0 1 ex , x > 0

1. Por el teorema 7.2.9 tenemos que para 0 < x < y fX(1) ,X(n) (x, y ) = = y cero en otro caso. n(n 1)(1 ey (1 ex ))n2 ey ex n(n 1)(ex ey )n2 e(x+y)

CONJUNTA DE LOS ESTAD 7.3. DISTRIBUCION ISTICOS DE ORDEN 2. Del teorema 7.2.11 se sigue que
Z
0

99

fRn (r)

= n(n 1)
Z

(1 e(u+r) (1 eu ))n2 e(u+r) eu du (eu e(u+r) )n2 e(2u+r) du eu(n2) (1 er )n2 e(2u+r) du
Z
r n2 r 0

= n(n 1)
Z0

= n(n 1)
0

= n(n 1)(1 e

enu du

= n(n 1)(1 er )n2 er =

1 nu e 0 n r n2 r (n 1)(1 e ) e , r > 0.

7.3.

Distribuci on conjunta de los estad sticos de orden


Denici on 7.3.1. Una matriz A de tama no n n, es una matriz de permutaci on si tiene un 1 en cada la, un 1 en cada columna y cero en el resto de las posiciones.

Ejemplo 7.3.2. Las matrices A = ci on porque


1 0 0

0 0 1

0 1 0

yB=

0 0 0 1

0 1 0 0 0 0 0 1

1 0 0 0 0 1 0 0

0 0 1 0 1 0 0 0

son matrices de permuta-

a b c

1 0 0

0 0 1

0 1 0

a b c

a c b

yB

a b c d

0 0 1 0

a b c d

c b d a

es decir, s olo cambian el orden de las entradas de cada uno de las vectores. Notemos que el determinante de una matriz de permutaci on s olo puede ser 1. Como trabajamos con una muestra aleatoria X1 , ..., Xn , sabemos que existe independencia entre las variables y que adem as, tienen la misma funci on de densidad f , por lo que fX1 ,...,Xn (x1 , ..., xn ) =
n Y i=1

f (xi ).

(7.1)

Ahora consideremos la permutaci on (X1 , ..., Xn ) = (X(1) , ..., X(n) ), la cual puede ser vista en forma de matrices como

X(1) . . .

=P

X1 . . .

X(n)

Xn

donde P es una matriz de permutaci on. Notemos que si la entrada Pij = 1, entonces signicar a que X(i) = Xj . Sin embargo, el mapeo no es inyectivo, pues por simetr a, existen n! entradas que generan el mismo estad stico de orden; por ejemplo, si n = 3 y el estad stico de orden (X(1) , X(2) , X(3) ) = (2, 3, 8), entonces los valores de las variables (X1 , X2 , X3 ) que originan dicho estad stico pueden ser (2, 3, 8), (2, 8, 3), (3, 8, 2), (3, 2, 8), (8, 3, 2) y (8, 2, 3). Hagamos una partici on del espacio Rn en n! regiones que llamaremos R1 , R2 , ..., Rn! de tal manera que el mapeo sea inyectivo en cada una de las regiones. Vamos aplicar el teorema de cambio de

100

CAP ITULO 7. ESTAD ISTICOS DE ORDEN

variable en cada una de las regiones anteriores. Supongamos que X(1) = y1 , ..., X(n) = yn , lo cu al quiere decir que y1 y2 ... yn . A manera de ejemplo y sin perder generalidad supongamos que la regi on R1 es aquella donde

X1 X2 . . .

yn yn1 . . . y1

Xn

es decir, que la matriz de permutaci on P =

0 0 0 0 . . . . . . 0 1 1 0 .. .

.. . 0 1 1 0 . . . . . . 0 0 0 0

0 1 1 0 . . . . . . 0 0 0 0

pues

X(1) X(2) . . .

X(n1) X(n)

0 0 0 0 . . . . . . 0 1 1 0

yn

yn1 . . . y2 y1

entonces el determinante jacobiano J1 de la matriz P es 1. Por el teorema de cambio de variable y la ecuaci on (7.1) tendr amos que
1 fX (y1 , y2 , ..., yn1 , yn ) = fX1 ,X2 ,...,Xn1 ,Xn (yn , yn1 , ..., y2 , y1 )|J1 | = (1) ,X(2) ,...,X(n1) ,X(n) n Y i=1

f (yi ).

Repitiendo este proceso para cada una de las n! regiones Rj tendr amos que
j fX (y1 , y2 , ..., yn1 , yn ) = (1) ,X(2) ,...,X(n1) ,X(n) n Y i=1

f (yi ).

Por lo tanto, concluimos que fX(1) ,X(2) ,...,X(n1) ,X(n) (y1 , y2 , ..., yn1 , yn ) =
n! X j =1 j fX (y1 , ..., yn ) (1) ,X(2) ,...,X(n1) ,X(n)

n! Y n X j =1 i=1 n Y i=1

f (yi )

= n!

f (yi ).

La argumentaci on previa, demuestra el siguiente teorema. Teorema 7.3.3. Sea X1 , ..., Xn una muestra de variables aleatorias con funci on de densidad continua com un f . Entonces
8 > <

fX(1) ,...,X(n) (y1 , ..., yn ) =

n!

n Y k=1

f (yk ),

y1 < y2 < ... < yn otro caso.

> :0,

7.4. DISTRIBUCIONES MARGINALES DE LOS ESTAD ISTICOS DE ORDEN

101

7.4.

Distribuciones marginales de los estad sticos de orden

Del teorema 7.3.3 podemos obtener cualquier funci on marginal por integraci on, por ejemplo, las marginales simples
Z

fX(k) (yk ) =

fX(1) ,...,X(n) (y1 , ..., yn )dy1 ...dyk1 dyk+1 ...dyn .

Ejemplo 7.4.1. Sean X1 , X2 , X3 una muestra aleatoria de variables aleatorias U (0, 1). Determina las funciones de densidad marginal conjunta de las variables: 1. X(1) y X(2) . 2. X(1) y X(3) . 3. X(2) y X(3) . Soluci on: Notemos que la funci on de densidad de cada una de las variables es

f ( x) =

1, 0 < x < 1 0, otro caso

Luego, por el teorema 7.3.3 la funci on de densidad conjunta del estad stico de orden es fX(1) ,X(2) ,X(3) (y1 , y2 , y3 ) = 6, 0 < y1 < y2 < y3 < 1 0, otro caso

donde los l mites 0 y 1 aparecen porque las variables se encuentran en el intervalo (0, 1). Entonces
Z
1

1. fX(1) ,X(2) (y1 , y2 ) =


y2

6dy3 = 6(1 y2 ) para 0 < y1 < y2 < 1.


Z
y3

2. fX(1) ,X(3) (y1 , y3 ) =


y1

6dy2 = 6(y3 y1 ) para 0 < y1 < y3 < 1.


Z
y2

3. fX(2) ,X(3) (y2 , y3 ) =


0

6dy1 = 6y2 para 0 < y2 < y3 < 1.

7.5.

Ejercicios

1. Cien n umeros uniformemente distribuidos en el intervalo (0, 1) son generados por una computadora. Determina: a ) La probabilidad de que el m as grande de los n umeros sea cuando mucho 0.9. b ) La probabilidad de que el segundo m as peque no de los n umeros sea al menos 0.002. 2. Supongamos que la distribuci on F de cada una de las variables X1 , ..., Xn es continua. Calcular P (X1 = X(1) , ..., Xn = X(n) ). 3. Utiliza el resultado obtenido en el teorema 7.2.7 para demostrar que las funciones de distribuci on de los estad sticos de orden X(1) y X(n) coinciden con las expresiones de las funciones de distribuci on de la proposici on 7.2.2. 4. Utiliza el resultado obtenido en el corolario 7.2.8 para demostrar que las funciones de densidad de los estad sticos de orden X(1) y X(n) coinciden con las expresiones de las funciones de densidad del corolario 7.2.3.

102

CAP ITULO 7. ESTAD ISTICOS DE ORDEN

5. Utiliza la expresi on para la marginal del k esimo estad stico de orden encontrada en la secci on 7.4, para demostrar que coincide con la obtenida en el corolario 7.2.8. 6. Demuestra que la densidad del rango Rn para r > 0 es
Z

fRn (r) = n(n 1)

(F (u + r) F (u))n2 f (u + r)f (u)du.

7. En una carrera ol mpica de 100m los tiempos de llegada de los corredores se distribuyen U(9.8,10.2). Si se tienen 8 competidores, calcula la probabilidad de que todos los corredores lleguen a la meta en el intervalo (9.9,10.0). 8. Sean X1 , X2 y X3 variables aleatorias independientes con distribuci on exp(1). Determina E [X(3) | X(1) = x]. 9. Sean X1 y X2 variables aleatorias independientes que siguen una distribuci on exponencial con media 1. Demuestra que a ) R2 se distribuye exponencial con media 1. b ) R2 y X(1) son independientes. 10. Si X1 y X2 son variables aleatorias independientes que siguen una distribuci on geom etrica con par ametro p, demuestra que R2 y X(1) son independientes. 11. Sea A un evento que se repite de manera independiente y cuya probabilidad de ocurrencia es p con 0 < p < 1. Para k = 1, 2, ... denimos Tk como el n umero de repetici on en la cual A ocurre por k esima ocasi on. Calcular: a ) E (T3 |T1 = 5) b ) E (T1 |T3 = 5) 12. Sean X1 , X2 , X3 y X4 una muestra de una distribuci on U (0, 1). Calcula las distribuciones marginales y conjuntas de los estad sticos de orden. Cu antas marginales hay? 13. Sup ongase que X, Y y Z tienen la siguiente funci on de densidad conjunta


f (x, y, z ) = Calcular P (X < Y < Z ).

e(x+y+z) 0

, ,

para x, y, z > 0 otro caso

14. Sean X1 y X2 independientes distribuidas uniformemente en el intervalo (0, 1). Determina la distribuci on de Y = max{X1 , X2 }. 15. Sup ongase que X1 , X2 , ... son variables aleatorias i.i.d. Calcular P (Y < Z ) si Y = max{X1 , ..., Xn } y Z = min{Xn+1 , ..., Xn+m }. 16. Juanito tuvo que esperar T0 minutos el cami on que va de la escuela al centro un d a que ten a que llegar temprano a su casa. A partir de entonces, decidi o tomar el tiempo T1 , T2 , ... que tardaba en pasar el cami on. Sea N el n umero de veces que espero el cami on hasta que Tk > T0 , es decir, {N = k } = {Tj T0 , 1 j < k, Tk > T0 }. Si {Tn , n 0} son variables aleatorias iid. Determina: a ) La distribuci on de N . b ) E [N ].

7.5. EJERCICIOS

103

17. Sean X1 , ..., Xn variables aleatorias independientes continuas con funci on de distribuci on F . Calcula E [F (X(n) ) F (X(1) )]. 18. Determina el coeciente de correlaci on X(1) ,X(3) para las variables aleatorias independientes X1 , X2 y X3 que se distribuyen exponencial con media 1. 19. Sup ongase que X U (0, 1) y def nase Vi = que V1 , ..., Vn son independientes. 20. Sean X1 , ..., Xn variables aleatorias independientes distribuidas exponencialmente con media 1 nase Y1 = X(1) y Yk = X(k) X(k1) para k = 2, ..., n. Realiza lo que se te pide: a . Def a ) Demuestra que Y1 , ..., Yn son independientes. b ) Halla la distribuci on de Yi para 1 c ) Determina E [X(n) ] y V ar[X(n) ].
Z

X(i) para i = 1, ..., n 1 y Vn = X(n) . Demuestra X(i+1)

n. 1 1 1 + + + . 2 3 n

d ) Si a = 1, demuestra que
0

nx(1 ex )n1 ex dx = 1 +

21. El n umero de individuos N en una poblaci on sigue la distribuci on del primer exito con par ame1 tro p. El tiempo de vida de los individuos sigue una distribuci on exponencial con media a y es independiente entre s e independiente de N . Determina la distribuci on de la vida m as corta. 22. Sean X U (0, 1) y N Poisson () independiente de X . Consid erese Y = max{X1 , ..., XN } (Y = 0 si N = 0) para determinar E [Y ]. 23. Sup ongase que X1 , X2 , ... son variables aleatorias independientes con funci on de distribuci on F . Sup ongase que N es una variable aleatoria que toma valores enteros no negativos con funci on generadora de probabilidades g (t). Si X1 , X2 , ... y N son independientes y Y = max{X1 , ..., XN } demu estrese que FY (y ) = g (F (y )).

104

CAP ITULO 7. ESTAD ISTICOS DE ORDEN

Cap tulo 8

Distribuci on normal multivariada


8.1. Conceptos necesarios

Para estudiar las propiedades de la variable aleatoria normal bivariada, es necesario recordar algunos conceptos y resultados del algebra de matrices. Es por esto, que dedicaremos esta secci on a recordar dichos conceptos sin demostrar los resultados que se mencionan. Es importante se nalar que todos los vectores considerados ser an vectores columna a menos de que se indique lo contrario. Denici on 8.1.1. Una matriz A de tama umeros complejos C, es un no m n con entradas en los n a11 a1n . . .. . . arreglo de la forma donde aij C para toda i = 1, ..., m y j = 1, ..., n. Decimos . . . am1 amn que la matriz A es cuadrada si m = n. Denici on 8.1.2. Sea A una matriz de m n. La matriz transpuesta de A denotada por At es aquella matriz de tama no n m cuyas entradas bij = aji .

Ejemplo 8.1.3. Las matrices transpuestas de A =

1 2 2i 3

yB=

1 2

2i 3

y Bt =

1 2 i

0 2

1 0 2

1 0 1

2 2 0

i 2

son At =

Denici on 8.1.4. Una matriz cuadrada A es diagonal si aij = 0 para i = j . Ejemplo 8.1.5. Las siguientes matrices son diagonales:

2i 0

0 , 1

1 0 0 2 0 0

0 0 2+i

i 0 0 0

0 2i 0 0

0 0 i 0

0 0 0 2

Denici on 8.1.6. Una matriz cuadrada A es sim etrica si aij = aji . Ejemplo 8.1.7. Las siguientes matrices son sim etricas:

2i 2

2 , 1

1 3 1

3 2 i

1 i 2+i

i 0 0 0

0 2i 0 0

0 0 i 0

0 0 0 2

Denici on 8.1.8. un elemento C es un eigenvalor de la matriz cuadrada A si existe un vector x = 0 con entradas en C tal que Ax = x. Al vector x se le conoce como eigenvector. 105

106

NORMAL MULTIVARIADA CAP ITULO 8. DISTRIBUCION

Recordemos que asociado a una matriz A, existe un polinomio caracter stico cuyas ra ces son los eigenvalores de la matriz A. Dicho polinomio caracter stico es det(A Inn ).

Ejemplo 8.1.9. Determina los eigenvectores propios de la matriz A =

3 0

2 . 1

Soluci on: Primero calcularemos los eigenvalores de la matriz A que son las ra ces del polinomio caracter stico

det(A I22 ) = det

3 0

2 1 1 0

0 1

3 = 0

2 = (3 )(1 ). 1

Dichas ra ces son 1 = 3 y 2 = 1. Ahora calculemos los eigenvectores para el eigenvalor 1 = 3. Si eigenvalor 1 = 3 entonces

x es un eigenvector para el y

3 0

2 1

x y

= 3

x y

3x + 2y y

3x 3y

de donde se obtiene las ecuaciones 3x + 2y = 3x y y = 3y cuyas soluciones son y = 0 y x puede x ser cualquier valor, es decir, los eigenvectores asociados al eiegnvalor 1 = 3 tienen la forma 0 1 con x R. Un representante ser a el vector . 0

Ahora calculemos los eigenvectores para el eigenvalor 2 = 1. Si eigenvalor 2 = 1 entonces


x y

es un eigenvector para el

3 0

2 1

x y

1 x y

3x + 2y y

x y

de donde se obtiene las ecuaciones 3x +2y = x y y = y que implican 2x = y y y puede ser cualquier x valor, es decir, los eigenvectores asociados al eiegnvalor 2 = 1 tienen la forma con x R. Un 2x 1 representante ser a el vector . 2 Observaci on 8.1.10. Los eigenvalores de una matriz sim etrica son reales. Denici on 8.1.11. Una matriz cuadrada A es ortogonal si At A = I . Observaci on 8.1.12. Si A es una matriz ortogonal entonces A1 = At . Denici on 8.1.13. Los vectores x1 , ..., xn Cn son ortonormales si xi , xi = 1 y xi , xj = 0 para i = 1, ..., n e i = j . Proposici on 8.1.14. Sea A una matriz sim etrica. Existe una matriz ortogonal C tal que C t AC = D donde D es una matriz diagonal Qn y los elementos de la diagonal son los eigenvalores 1 , ..., n de la matriz A. Adem as, detA = i=1 i . Denici on 8.1.15. Una forma cuadrada denida para una matriz sim etrica A de tama no n n es

8.1. CONCEPTOS NECESARIOS Q(x) = xt Ax =


n X n X i=1 j =1

107 aij xi xj para x Rn .

Decimos que Q es denida positiva si Q(x) > 0 para toda x = 0. Decimos que Q es semidenida positiva si Q(x) 0 para toda x. Proposici on 8.1.16. Q es denida positiva (semidenida positiva) si y s olo si los eigenvalores son positivos (no negativos). Proposici on 8.1.17. Sean A una matriz sim etrica y Ak = {aij | i, j = 1, ..., k }. 1. Si detAk > 0 para k = 1, ..., n entonces Q es denida positiva. 2. Si detAk 0 para k = 1, ..., n entonces Q es semidenida positiva. Ejemplo 8.1.18. Demuestra que la matriz

1. A =

1 0 2 2 2 1 0 0 1

1 2 0 1 1 1

2 1 1

es denida positiva.

2. B =

es semidenida positiva.

Soluci on: Ambos casos se concluyen a partir de la proposici on 8.1.17 pues

1. como A1 = (1), A2 = 2. como B1 = (2), B2 =

1 0 2 2

1 2 0 0

y A3 = A entonces detA1 = 1, detA2 = 2 y detA3 = 8. y B3 = B entonces detB1 = 2, detB2 = 0 y detB3 = 0.

Tambi en se pudo demostrar utilizando la proposici on 8.1.16. Denici on 8.1.19. Sea A una matriz invertible de tama no n n. Para i, j = 1, ..., n, el complemento algebraico del elemento aij es la matriz Aij de tama no (n 1) (n 1) que se obtiene al eliminar la i esima la y la j esima columna de la matriz A.

Ejemplo 8.1.20. Halla los complementos algebraicos A23 y A14 de la matriz

2 1 1 4

0 3 0

1 2 0 e

3 1 3 5

Soluci on: Para calcular A23 , 2 matriz A. Luego A23 = 1 4

s olo necesitamos eliminar la segunda la y 0 3 1 3 0 3 . Analogamente A14 = 1 0 5 4

la tercera columna de la 2 0 . e

La siguiente proposici on es u til para calcular la matriz inversa de cualquier matriz invertible. Proposici on 8.1.21. Sea A una matriz invertible. Entonces A1 = (cij ) donde cij = (1)i+j detAji . detA

Ejemplo 8.1.22. Determina la matriz inversa de A =

1 0 3 1 1 1

2 1 1

Soluci on: Notemos que detA = 6. Por otro lado los complementos algebraicos son

108 A11 1 = 1 0 = 1

NORMAL MULTIVARIADA CAP ITULO 8. DISTRIBUCION 1 1 2 1

A12

3 = 1 1 = 1

1 1 2 1

A13

3 = 1 1 = 1 1 = 3

1 1 0 1

A21

A22

A23

A31

0 = 1

2 1

A32

1 = 3

2 1

A33

0 1

Luego detA11 = 2, detA12 = 4, detA13 = 2, detA21 = 2, detA22 = 1, detA 23 = 1, detA31 = 1 1 1 3 3 3 1 7 6 2, detA32 = 7 y detA33 = 1. Por lo tanto, la matriz inversa de A es A1 = 2 3 6 1 1 1 6 3 6 Denici on 8.1.23. Una matriz A sim etrica es denida positiva (semidenida positiva) si la forma cuadr atica asociada es denida positiva (semidenida positiva). A continuaci on desarrollaremos un m etodo para calcular la ra z cuadarada de la matriz sim etrica semidenida positiva A, es decir, encontrar una matriz B tal que B 2 = A. Como A es sim etrica, por on 8.1.14 existe una matriz ortogonal C tal que C t AC = D la proposici 1 0 . . .. . . donde D = con i eigenvalor de A. Por la proposici on 8.1.16 todos los eigenvalores . . . 0 n

= son no negativos por lo que tiene sentido denir la matriz D t , entonces B = C DC

1 . . .

.. .

0 . . . n

. Denamos

t )(C DC t ) = C DI DC t = CD DC t = CDC t = A. B 2 = (C DC Por n ya estamos listos para comenzar a estudiar la matriz de covarianzas.

8.2.

Matriz de Covarianzas

Denici on 8.2.1. Sea X = (X1 , ..., Xn ) un vector aleatorio tal que V ar(Xi ) < para i = 1, ..., n. 1. El vector media de X es E [X ] = (E [X1 ], ..., E [Xn ]). 2. La matriz de covarianzas de X es Cov (X ) = E [(X E [X ])(X E [X ])t ], es decir, las entradas de la matriz son ij = E [(Xi E [Xi ])(Xj E [Xj ])] para i, j = 1, ..., n. Observaci on 8.2.2. Notemos que ii = V ar(Xi ) y ij = Cov (Xi , Xj ) = ji para i = 1, ..., n y j = i. Por lo tanto, la matriz de covarianzas es sim etrica. Proposici on 8.2.3. Sea X un vector aleatorio. La matriz de covarianzas Cov (X ) es semidenida positiva, es decir, la forma cuadr atica Q(y ) = y t Cov (X )y 0 para todo y . Demostraci on: Se deja como ejercicio. Proposici on 8.2.4. Sea X = (X1 , ..., Xn ) un vector aleatorio con media y matriz de covarianzas . Sea A una matriz de tama no m n y b un vector columna de tama no m. Si Y = AX + b entonces:

DE DENSIDAD NORMAL MULTIVARIADA 8.3. FUNCION 1. E [Y ] = A + b. 2. Cov (Y ) = AAt . Demostraci on: 1. E [Y ] = E [AX + b] = AE [X ] + b = A + b. 2. Por otro lado Cov (Y ) = = = = = = = E [(Y E [Y ])(Y E [Y ])t ] E [(AX + b (A + b))(AX + b (A + b))t ] E [(AX A)(AX A)t ] E [A(X )(A(X ))t ] E [A(X )(X )t At ] AE [(X )(X )t ]At AAt .

109

Observaci on 8.2.5. Si n = 1, el teorema anterior se reduce a E [Y ] = aE [X ] + b y Cov (Y ) = a2 V ar(X ). Ya estamos listos para comenzar a estudiar al vector aleatorio normal multivariado.

8.3.

Funci on de densidad normal multivariada


Existen tres deniciones para decir que un vector aleatorio es normal multivariado. Todas ellas son equivalentes y lo iremos probando poco a poco. Denici on 8.3.1 (Primera Denici on). El vector aleatorio X = cualquier vector a Rn se tiene que la variable at X es normal. Cuando escribamos X N (, ) estaremos indicando que X es un vector normal con vector media y matriz de covarianzas . Ejemplo 8.3.2. Si X1 , ..., Xn son variables aleatorias normales independientes con medias i y X1 . 2 . varianzas i , demuestra que el vector X = es normal y calcula su media y matriz de . Xn covarianzas. Soluci on: Sea a =

X1 . . .

es normal si para

Xn

a1 . . .

Rn . Por nuestros cursos de inferencia sabemos que at X = a1 X1 + + an Xn

an
n X i =1 n X

es una variable aleatoria normal con media

ai i y varianza

2 a2 i i . Por lo tanto, X es normal. 2 1

Por la denici on 8.2.1 tenemos que E [X ] =

1 . . .

i=1

y Cov (X ) =

0 0

.. .

0 0 2 n

110

NORMAL MULTIVARIADA CAP ITULO 8. DISTRIBUCION

Proposici on 8.3.3. Sea X = (X1 , .., Xn )t N (, ) entonces: 1. Xi es una variable aleatoria normal para cada i = 1, ..., n. 2. X1 + + Xn es normal. 3. Cada distribuci on marginal es normal multivariado. Demostraci on: 1. Por denici on de vector normal multivariado sabemos que para cualquier a Rn se tiene que t esima posici on y 0 en a X es normal. En particular, para el vector a que tiene un 1 en la i X1 . . las posiciones restantes, tenemos que at X = (0, ..., 1, ..., 0) = Xi es normal. . Xn 2. An alogamente al inciso anterior, consideremos el vector a que tiene 1 s en todas sus entradas. Entonces at X = X1 + + Xn es normal.

3. Sin p erdida de generalidad veamos que Z =

X1 . . .

con m < n es normal multivariado.

Xm Para ello tendr amos que probar que para cualquier vector b =
t

b1 . . .

Rm , la variable

bm b Z = b1 X1 + + bm Xm es normal. Esto es cierto pues si seleccionamos a Rn donde las primeras m entradas coinciden con las entradas de b y las restantes n m entradas son cero, entonces bt Z = b1 X1 + + bm Xm = at X que es normal.

Proposici on 8.3.4. Sea X N (, ) un vector de tama no n y Y = AX + b donde A es una matriz de tama no m n y b es un vector de tama no m. Entonces Y N (A + b, AAt ). Demostraci on: Sea a Rm . Luego at Y = at (AX + b) = (at A)X + at b la cual es una variable normal porque X es normal multivariado. Por lo tanto Y es normal multivariado. Los par ametros de Y los calculamos a partir de la proposici on 8.2.4 que nos dice que E [Y ] = AE [X + b] = A + b y Cov (Y ) = ACov (X )At = AAt .

Ejemplo 8.3.5. Sea X N distribuci on de Y .

1 1 , 2 2

2 7

. Sea Y1 = X1 + X2 y Y2 = 2X1 3X2 . Halla la

Soluci on: Notemos que Y =

1 2 1 2

1 X . Por la proposici on 8.3.4 concluimos que 3 1 3


Y N es decir

1 1 , 2 2

1 3

1 2

2 7

1 1

2 3

Y N

3 4 17 , 4 17 91

GENERADORA DE MOMENTOS 8.4. FUNCION

111

8.4.

Funci on generadora de momentos


X
i=1

Recordemos que en la denici on 4.1.1 dijimos que la funci on generadora de momentos conjunta " ( )# n para un vector aleatorio (X1 , .., Xn ) estaba dada por mX1 ,...,Xn (s1 , ..., sn ) = E exp si Xi . En el contexto de este cap tulo, podemos escribir la funci on generadora de momentos conjunta como mX (s) = E [exp{st X }] donde X = (X1 , ..., Xn )t y s = (s1 , ..., sn )t . Bajo este contexto, deniremos a continuaci on la funci on caracter stica conjunta de un vector aleatorio. Denici on 8.4.1. La funci on caracter stica del vector aleatorio X est a dada por X (s) = E [eis Notemos que en la denici on anterior, st X = aleatoria. Teorema 8.4.2. La funci on caracter stica del vector aleatorio X N (, ) es
1 t s s . X (s) = exp ist 2 n X i=1
t

].

si Xi no es un vector aleatorio sino una variable

Demostraci on: Notemos que como X es un vector normal multivariado, Z = st X es normal univariado. Adem as, la proposici on 8.2.4 indica que E [Z ] = st E [X ] = st y el ejercicio 4 nos dice t que V ar(Z ) = s s. Luego X (s) = E [exp{ist X }] = E [exp{iZ }] = Z (1)

1 = exp iE [Z ] V ar(Z ) 2 1 = exp ist st s . 2

Denici on 8.4.3 (Segunda Denici on). Un vector X N (, ) si su funci on caracter stica es


t X (s) = exp{ist 1 2 s s}.

Teorema 8.4.4. Las deniciones 8.3.1 y 8.4.3 son equivalentes. Demostraci on: () Es lo demostrado en el teorema 8.4.2. () Sea a Rn un vector columna. Notemos que at X es una variable aleatoria univariada; luego at X (u) = E [exp{iu(at X )}] = E [exp{i(uat )X }] = X (ua) = 1 exp i(ua)t (ua)t (ua) 2 1 t 2 t = exp iua u a a 2

Por lo tanto at X N (at , at a).

112

NORMAL MULTIVARIADA CAP ITULO 8. DISTRIBUCION

Teorema 8.4.5. Si X N (, ) con det > 0 entonces

fX (x) =

1 2

n/2

1 1 exp (X )t 1 (X ) . 2 det

Demostraci on: Sea Y un vector aleatorio con componentes Y1 , ..., Yn independientes tales que Yi N (0, 1), entonces Y N (0, Inn ). Por la proposici on 8.3.4 el vector X = 1/2 Y + es normal multivariado con media

E [X ] = y matriz de covarianzas

1/2

E [Y ] + =

1 /2

0 . . . 0

+ = .

Cov (X ) = 1/2 Cov (Y )(1/2 )t = 1/2 Inn 1/2 = 1/2 1/2 = . De lo anterior concluimos que X N (, ). Por otra parte fY (y ) = =
n Y i=1 n Y

fYi (yi )
  )

y2 1 exp i 2 2 i=1 1 2 1 2
n/2 n/2 (

1X 2 y exp 2 i=1 i
n

1 exp y t y 2

y como Y = 1/2 (X ), utilizamos el teorema de cambio de variable para obtener que

fX (x) =

1 2

n/2

1 1 exp (x )t 1 (x ) . 2 det

Denici on 8.4.6 (Tercera Denici on). Sea una matriz sim etrica tal que det > 0. Un vector aleatorio X N (, ) si su funci on de densidad conjunta est a dada por

fX (x) =

1 2

n/2

1 1 exp (X )t 1 (X ) . 2 det

Teorema 8.4.7. Las deniciones 8.4.3 y 8.4.6 son equivalentes cuando det > 0. Demostarci on: () Es lo demostrado en el teorema 8.4.5. () Se deja como ejercicio.

8.5.
8.5.1.

Propiedades y teoremas principales


Distribuciones condicionales

Recordemos que en el ejercicio 15 del cap tulo 2 presentamos la funci on de densidad conjunta de un vector aleatorio (X, Y ) normal bivariado y demostramos en el ejercicio 6 del cap tulo 4 que 2 2 E [X ] = X , E [Y ] = Y , V ar(X ) = X y V ar(Y ) = Y . Adem as, en el ejercicio 21 del cap tulo 5 se demostr o que X,Y = . Entonces, por el ejercicio 15 del cap tulo 2, tenemos que


X|Y =yN

x 2 x + (y y ), x (1 2 ) . y

(8.1)

8.5. PROPIEDADES Y TEOREMAS PRINCIPALES Ejemplo 8.5.1. Sea (X, Y )t un vector aleatorio con funci on de densidad fX,Y (x, y ) = 1 1 exp (x2 2xy + 2y 2 ) . 2 2

113

Determina las distribuciones condicionales, particularmente las esperanzas y varianzas condicionales. 1 1 , E [X ] = 0 1 2 y E [Y ] = 0, tienen la funci on de densidad descrita anteriormente. Por otro lado = (1 )1 = 2 1 . Por lo tanto (X, Y )t N (0, ). Se sigue que V ar(X ) = 2, V ar(Y ) = 1, Cov (X, Y ) = 1 y 1 1 1 . Por (8.1) concluimos que por lo tanto = 2 Soluci on: Es f acil ver que un vector aleatorio normal bivariado con 1 =
X E [X |Y = y ] = E [X ] + Y (y E [Y ]) = 0 + 1 2 2 ) = 1. V ar(X |Y = y ) = X (1 ) = 2(1 2

1 2 (y 2 1

0) = y

An alogamente a (8.1) obtenemos que E [Y |X = x] V ar(Y |X = x) = = x 2 1 . 2

Ejemplo 8.5.2. Bajo el contexto del ejemplo 8.5.1, calcula la funci on de densidad condicional de la variable Y | X = x. Soluci on: En el ejemplo 8.5.1 vimos que el vector (X, Y )t es normal bivariado, que E [X ] = 0 y V ar(X ) = 2. Luego X N (0, 2) por lo que su funci on de densidad es 1 x2 1 1 fX (x) = exp . 2 2 2 2 Luego la funci on de densidad condicional de Y |X = x es fY |X (y |x) = =
1 2 2 2 exp 1 2 (x 2xy + 2y ) 1 1 2 2

1 2

 

x exp{ 1 2 2 }

1 2

exp

1 2

x2 2xy + 2y 2 2




2 1 (y x 2) 1 exp 1 2 2 2 2

que es la densidad de una variable aleatoria N

x 1 , . 2 2

Si extendemos el resultado de la normal bivariada al caso general, es decir, si X N (, ) es un vector de n entradas con det > 0 y sean Y1 = (Xi1 , ..., Xik )t y Y2 = (Xj1 , ..., Xjm )t subvectores de X donde 1 k n y 1 m n y las componentes de Y1 y Y2 las suponemos diferentes, entonces fY2 |Y1 (y2 | y1 ) = fY1 ,Y2 (y1 , y2 ) fY1 (y1 )

lo que implica que la distribuci on condicional de distribuciones normales multivariada es normal.

114

NORMAL MULTIVARIADA CAP ITULO 8. DISTRIBUCION

8.5.2.

Independencia

Teorema 8.5.3. Sea X N (, ). Las componentes de X son independientes si y s olo si son no correlacionadas. Demostraci on: () Si para i = j las componentes Xi y Xj son independientes, entonces el corolario 5.2.2 nos dice que Cov (Xi , Xj ) = 0, es decir, las componentes del vector X son no correlacionadas. () Supongamos que las componentes de X son no correlacionadas. Entonces la matriz de 2 1 0 . . .. 2 . . covarianzas es = . Si k = 0 para alg un k , entonces Xk es degenerada e in. . . 2 0 n 2 dependiente de las otras , supongamos que i > 0 para toda i = 1, ..., n, entonces existe 1 Xi . As 0 2 1 . . 1 .. . . = , por lo tanto la funci on de densidad es . . . 0 12
n

fX (x)

1 2 1 2

(n/2) (n/2)

Qn

1 exp (X )t 1 (X ) 2 i=1 i
(

1 1

1 X (Xi i )2 Qn exp 2 2 i=1 i i=1 i


n

1 (Xi i )2 1 exp = 2 2 i 2i i=1 =


n Y i=1

n Y

fXi (xi ).

Por lo tanto, las componentes del vector X son independientes. Es importante el supuesto de que el vector aleatorio X sea normal multivariado, pues de lo contrario, el hecho de que no est en correlacionados no implica que las componentes sean independientes como veremos en el siguiente ejemplo. Ejemplo 8.5.4. Sean las variables X N (0, 1) y Z independiente de X tal que P (Z = 1) = P (Z = 1 1) = 2 . Denamos Y = ZX . Demuestra que Y es una variable aleatoria normal, pero que X + Y no es normal. Soluci on: Calculemos la funci on de distribuci on de Y : FY (y ) = P (Y y ) = P (Y y | Z = 1)P (Z = 1) + P (Y y | Z = 1)P (Z = 1) 1 1 = P (X y | Z = 1) + P (X y | Z = 1) 2 2 1 1 P (X y ) + P (X y ) = 2 2 1 1 = (y ) + (1 (y )) 2 2 = (y ) Por lo tanto Y N (0, 1). Sin embargo, P (X + Y = 0) = P (Z = 1) = 1 2 , es decir, X + Y no es normal, lo que implica que (X, Y )t no es normal bivariado. Proposici on 8.5.5. Sea X N (, ) donde puede ser vista en bloques (e inclusive despu es de un reordenamiento en las componentes)

8.5. PROPIEDADES Y TEOREMAS PRINCIPALES

115 0 0 . . . 0 0 0 . . . k

1 0 . . . 0

0 2 . . . 0

.. .

donde i para i = 1, ..., k son matrices. Entonces X puede ser particionado en vectores X (1) , ..., X (k) tal que Cov (X (i) ) = i y en ese sentido los vectores X (i) son independientes.

Ejemplo 8.5.6. Sea X N (, ) donde = son independientes.

2 0 4

0 1 0

4 0 9

. Determina los subvectores de X que

Soluci on: Notemos que si hacemos el siguiente reordenamiento Y = (X2 , X1 , X3 ) entonces Cov (Y ) = 1 0 0 0 2 4 . Esto quiere decir que X2 es independiente de (X1 , X3 )t . 0 4 9 Proposici on 8.5.7. Sean X N (, ) y Y = C t X donde la matriz ortogonal C satisface C t C = D con D matriz diagonal. Entonces: 1. Y N (C t , D). 2. Las componentes de Y son independientes. 3. V ar(Yk ) = k para k = 1, ..., n donde 1 , ..., n son los eigenvalores de . Demostraci on: Como es sim etrica, la proposici on 8.1.14 nos indica que existe una matriz ortogonal C tal que C t C = D donde D es una matriz diagonal est a formado por eigenvalores de . 1. Por la proposici on 8.3.4 tenemos que Y N (C t , C t C ), es decir, Y N (C t , D). 2. Por el inciso anterior, las componentes de Y son no correlacionados y por el teorema 8.5.3, las componentes de Y son independientes. 3. Por la proposici on 8.1.14 y la denici on de matriz de covarianzas, se sigue el resultado.

Corolario 8.5.8. X = (X1 , ..., Xn )t N (0, Inn ) si y s olo si X1 , ..., Xn son variables aleatorias normal est andar independientes. Corolario 8.5.9. Sea X N (, 2 I ) donde 2 > 0. Sean C una matriz ortogonal y Y = C X , entonces Y N (C, 2 I ) y en particular, Y1 , ..., Yn son variables aleatorias normales con varianza en com un 2 . Ejemplo 8.5.10. Sean X y Y variables aleatorias independientes con distribuci on com un N (0, 1). +Y X Y Demuestra que U1 = X y U = son variables aleatorias independientes. 2 2 2 Soluci on: Es f acil ver que

U1 = U2

1 2 1 2

1 2 1 2

X Y

y que la matriz independientes.

1 2 1 2

1 2 1 2

es ortogonal. Por el corolario 8.5.9 se concluye que U1 y U2 son

116

NORMAL MULTIVARIADA CAP ITULO 8. DISTRIBUCION

Antes de enunciar un resultado que nos permite decidir si una variable aleatoria es independiente n X = 1 de la variable X Xi , necesitamos conocer cuando una funci on g : Rn R es invariante bajo n i=1 traslaci on. Denici on 8.5.11. Una funci on g : Rn R es invariante bajo traslaci on si g (x + a 1n ) = g (x) n para toda x R , a R y donde 1n es el vector columna de tama no n con todas sus entradas igual a 1. Ejemplo 8.5.12. Demuestra que la funci on g (x1 , ..., xn ) = es invariante bajo traslaci on. Soluci on: Para efectos del c alculo en este ejercicio, vamos a considerar a los vectores como la y no como columna como lo hemos hecho a lo largo de este cap tulo. Sea a R y (x1 , ..., xn ) Rn . Notemos que si y = x + a 1 = (x1 , ..., xn ) + a(1, ..., 1) = (x1 + a, ..., xn + a), entonces y = 1X (xi + a) n i=1
n

1X 1 X ( xi x )2 donde x = xi , n 1 i=1 n i=1


n n

= =

1 n = 1 n

n X

xi +

n X i=1

i=1 n X i=1

xi +

1 na n

= x + a. Luego g ((x1 , ..., xn ) + a(1, ..., 1)) = g ((x1 + a, ..., xn + a)) = = = 1 X (xi + a ( x + a))2 n 1 i=1
n

1 X ( xi x )2 n 1 i=1
n

g (x1 , ..., xn ).

Por lo tanto, concluimos que la funci on g es invariante bajo traslaci on.


X n = 1 Teorema 8.5.13 (Teorema de Daly). Sea X N (, 2 I ) y sea X Xi . Supongamos que n i=1 n y g (X ) son independientes. la funci on g : Rn R es invariante bajo traslaci on. Entonces X
n

Como una aplicaci on del teorema anterior tenemos el siguiente ejemplo.


2 n son independientes. Ejemplo 8.5.14. Si X N (, 2 I ), demuestre que Sn yX 2 Soluci on: Por el ejemplo 8.5.12, la funci on g (X ) = Sn es invariante bajo traslaci on. Por el teorema 2 8.5.13, se concluye que Sn y Xn son independientes.

Teorema 8.5.15. Sea X N (, ) con det > 0. Entonces (X )t 1 (X ) 2 (n) donde n es la dimensi on del vector X . Demostraci on: Por el ejercicio 2, la matriz 1/2 es sim etrica, es decir, (1/2 )t = 1/2 . Sea 1/2 1/2 Y = (X ), entonces E [Y ] = ( ) = 0 y Cov (Y ) = 1/2 Cov (X )(1/2 )t = 1/2 1/2 1/2 1/2 Cov (X ) = = I . Por lo tanto Y N (0, I ).

8.6. EJERCICIOS Finalmente (X )t 1 (X ) = = (X )t 1/2 1/2 (X ) (1/2 (X ))t 1/2 (X )


n X i=1

117

= Y tY = Yi2

que es una variable aleatoria 2 con n grados de libertad.

8.6.

Ejercicios

1. Determina los eigenvalores y eigenvectores de las siguientes matrices a) A = 4 2 5 . 3

b) B =

0 1 1

1 1 1 0 0 1

2. Sea una matriz sim etrica tal que det > 0. Demuestra que 1/2 es sim etrica. 3. Demuestra la proposici on 8.2.3. 4. Sean X un vector aleatorio con Cov (X ) = y s un vector columna. Si Z = st X , demuestra que V ar(Z ) = st s.(Nota que Z es una variable aleatoria univariada, no es un vector aleatorio)
d(y ) 5. Demuestra que si X es un vector aleatorio y Y = B X entonces el jacobiano d(x) = detB .

6. Provea todos los detalles del cambio de variable utilizado en la demostraci on del teorema 8.4.5. 7. Demuestra la condici on suciente del teorema 8.4.7. (Sugerencia: Utiliza el hecho de que la funci on caracter stica determina de manera u nica la distribuci on de una variable.) 8. Determina la distribuci on de Y si: a ) Y1 = X1 + 2X2 + 3X3 + 4X4 y Y2 = 4X1 + 3X2 + 2X3 + X4 con X1 , X2 , X3 y X4 variables aleatorias independientes normales est andar.

b ) Y1 = X1 + X2 y Y2 = 2X1 3X2 si X N

1 1 , 2 2

2 7

9. Determina la distribuci on de X = (X1 , X2 )t si la funci on caracter stica es 1 + 2s1 s2 6s2 X (s) = exp is1 + 2is2 s2 2 . 2 1 10. Determina la distribuci on de Y = X1 + X2 si la funci on caracter stica de X es
2 X (s) = exp{is1 2s2 1 s2 s1 s2 }.

11. Demuestra que la funci on generadora de momentos conjunta del vector X N (, ) es


1 t mX (s) = exp st + 2 s s .

118

NORMAL MULTIVARIADA CAP ITULO 8. DISTRIBUCION

12. Si X y Y tienene la funci on generadora de momentos conjunta mX,Y (s1 , s2 ) = exp{s2 1 +2s1 s2 + 4s2 } , calcula P (2 X < Y + 2). 2 13. Determina la distribuci on del vector aleatorio X si la funci on generadora de momentos es 2 mX (s) = exp{s2 + 3 s s + 4 s } . 1 2 1 2 14. Sea X N (0, ) donde =

7 2 1 2 1 2 1 2

1 0
1 2

Determina la funci on de densidad de Y si Y1 = X2 + X3 , Y2 = X1 + X3 y Y3 = X1 + X2 . 15. Calcula la funci on de densidad de la variable aleatoria X |Y = y del ejemplo 8.5.1. 16. Sea X N (, ) donde = 1 3 y= 1 1 de X1 + X2 dado que X1 X2 = 0.

1 . Encuentra la funci on de densidad condicional 2

1 2 1 2 6 0 . Sea Y1 = X1 + X3 , Y2 = 2X1 X2 y Y3 = 17. Sea X N (0, ) donde = 1 0 4 2X3 X2 . Determina la funci on de densidad condicional de Y3 dado que Y1 = 0 y Y2 = 1. 18. Considera la siguiente funci on de densidad conjunta de las variables aleatorias X y Y para demostrar que si las distribuciones condicionales de variables aleatorias es normal, no necesariamente la distribuci on conjunta es normal: fX,Y = c exp{(1 + x2 )(1 + y 2 )}, < x, y < . 19. Sean X1 y X2 dos variables aleatorias independientes con distribuci on N (0, 1). Demuestra que X1 + X2 y X1 X2 son independientes. 20. Sea (X, Y )t un vector normal bivariado con coeciente de correlaci on . Si V ar(X ) = V ar(Y ) demuestra que X y Y X son independientes. 21. Sea X N (, 2 I ) con 2 > 0. Sea B una matriz tal que BB t = D con D matriz diagonal. Demuestre que las componentes de Y = B X son independientes y se distribuyen normal.
X n = 1 22. Sean X1 , ..., Xn variables aleatorias independientes N (0, 1). Denamos X Xi y s2 n = n i=1
n

1 X n )2 . (Xi X n 1 i=1
n

n , X1 X n , ..., Xn X n ). a ) Determina la distribuci on de (X n y (X1 X n , ..., Xn X n ) son independientes. b ) Demuestra que X


2 X 2 X2 23. Sean X1 y X2 dos variables aleatorias independientes normal est andar. Dene Y1 = 1 2 + X2 X1 2 2X1 X2 y Y2 = . Demuestre que Y1 y Y2 son independientes y se distribuyen normal 2 + X2 X1 2 est andar.

24. Sea X = (X1 , X2 , X3 )t normal. Si X1 y X2 + X3 son independientes, X2 y X1 + X3 son indepenedientes, y X3 y X1 + X2 son independientes; demuestra que X1 , X2 y X3 son independientes.

8.6. EJERCICIOS 25. Sea X N (, ) donde =


119

3 4 3

y =

2 1 3

1 4 2

3 2 8

Denamos Y1 = X1 + X3 y Y2 = 2X2 . Determina la distribuci on de: a) Y . b ) Y1 | Y2 = 10. 26. Sea


2 X1 1 1 1 2 N , donde || 1. Denamos el vector aleatorio Y 2 X2 2 1 2 2 p mediante las ecuaciones X1 = 1 + 1 Y1 y X2 = 2 + 2 Y1 + 2 1 2 Y2 . Demuestra que:

a ) Y N (0, I ). b ) Y1 y Y2 son independientes. 27. Sea (X, Y, Z )t normal con funci on de densidad 1 c exp (4x2 + 3y 2 + 5z 2 + 2xy + 6xz + 4zy ) 2

Determina la distribuci on condicional de X dado X + Z = 1 y Y + Z = 0. 28. Sea X N (0, ) donde =

3 2 1

2 2 0

1 0 1

Determina la distribuci on de X1 + X3 dado X2 = 0. 29. Sea (X, Y )t un vector normal bivariado. Supongamos que la funci on generadora de momentos es mX,Y (s, u) = exp{2s + 3u + s2 + asu + 2u2 } Determina el valor de a para que X + 2Y y 2X Y sean independientes.

120

NORMAL MULTIVARIADA CAP ITULO 8. DISTRIBUCION

Bibliograf a
[1] Bean M.A. (2009) Probability: The Science of Uncertainty with applications to Investments, Insurance and engineering. Thomson. [2] DeGroot, M. (1988) Probabilidad y Estad stica, Adison-Wesley Iberoamericana, Wilmigton, USA. [3] Feller, W. (1978) Introducci on a la Teor a de Probabilidades y sus Aplicaciones. Volumen II. M exico. Editorial Limusa. [4] Gahahramani, S. (2005) Fundamentals of Probability with Stochastic Processes. Third edition. Prentice Hall. [5] Gut A.(2009) An intermediate Course in Probability, Springer-Verlag, New York. [6] Hassett, M.; Stewart, D. (2009) Probability for Risk Management. ACTEX Publications. [7] Hogg, R.V; Craig, A. T. (2004) Introduction to Mathematical Statistics. 6th Edition. New Jersey. Prentice Hall. [8] Karlin, S. Taylor, H. (1998) An introduction to Stochastic Modeling. Third Edition. Academic Press, Inc. [9] Miller, I.; Miller, M. (2004). Mathematical Statistics with applications. 7th Edition, Prentice Hall. [10] Mood, A. M. et al. (1974) Introduction to the Theory of Statistics. 3rd Edition. Mc Graw Hill. [11] Ross, S.M. (2009) A First Course in Probability. 8th Edition. Prentice Hall, New Jersey. [12] Ross, S.M. (2006) Introduction to probability models. 9th Edition. Academic Press. [13] Wackerly D., Mendenhall W., Scheaer R. (2002) Estad stica Matem atica con Aplicaciones. Sexta Edici on. Thomson.

121

Potrebbero piacerti anche