Sei sulla pagina 1di 9

Variables aleatorias conjuntas

M. en A. Vctor D. Pinilla Morn


Facultad de Ingeniera, UNAM
Resumen
Variables aleatorias conjuntas discretas; funcin de probabilidad
conjunta: su definicin y propiedades. Funcin de distribucin
acumulativa: su definicin y propiedades. Funciones marginales
de probabilidad. Funciones condicionales de probabilidad.
Variables aleatorias conjuntas continuas; funcin de probabilidad
conjunta: su definicin y propiedades. Funcin de distribucin
acumulativa: su definicin y propiedades. Funciones marginales
de probabilidad. Funciones condicionales de probabilidad.
Valor esperado de una funcin de dos o ms variables.
La curva de regresin.
Variables aleatorias independientes. Covarianza, varianza de una
suma de dos o ms variables.
5.1 Variables aleatorias conjuntas
discretas y continuas: Funcin de
probabilidad conjunta, su definicin y
propiedades. Funciones marginales de
probabilidad. Funciones condicionales de
probabilidad.
El estudio realizado hasta este momento
est restringido a espacios muestrales de
una sola dimensin en los que se registran
resultados de un experimento como valores
asumidos por una nica variable aleatoria.
Sin embargo habr situaciones donde sea
preferible
registrar
los
resultados
simultneos de varias variables aleatorias.

Probabilidad y Estadstica
Noviembre 2009

Para el caso particular de dos variables


aleatorias, stas se denominan variables
aleatorias conjuntas.
Definicin. Si X y Y son dos variables
aleatorias, la distribucin de probabilidad
de sus ocurrencias simultneas puede
representarse por una funcin F(x,y) para
cualquier par de valores (x,y) dentro del
rango de las variables aleatorias; a esto se le
denomina distribucin de probabilidad
conjunta.

M.A. Vctor Damin Pinilla Morn.


72

Propiedades caso continuo.

a) Fxy ( X , Y ) 0

P ( a < x < b, Y = y ) =

X , Y

f ( x, y )
dx
h( y )

b)

Fxy ( X , Y )d x d y

c) P[( X , Y )A] =

Fxy ( X , Y )d x d y

Propiedades caso discreto.

Ejemplo. Se seleccionan al azar 2 repuestos


para una pluma de una caja que contiene:

3 repuestos azules
2 repuestos rojos
3 repuestos verdes

a ) Pxy ( X , Y ) 0
b)x y Pxy (X , Y ) = 1

Si X representa el nmero de repuestos


azules seleccionados y Y el de rojos.
Determine: la funcin de probabilidad
conjunta.

c ) P ( X = x , Y = y ) = P ( x, y )
para cualquier regin en el plano A
P[( X , Y )A] = P( X , Y )
A

Probabilidades marginales. Se les llama


marginales cuando a partir de una funcin
conjunta se margina a una de las variables
aleatorias. Es el equivalente a la
probabilidad total de las funciones de una
sola variable.

x
0
0

3/28

9/28 3/28

g ( X ) = Pxy ( x, y)

g(X) = Pxy ( x, y)dy

6/28

6/28

h(Y ) = Pxy ( x, y)

h(Y ) = Pxy ( x, y)dx

1/28

Por otra parte, si se desea encontrar la


probabilidad de que la variable aleatoria
continua X est entre a y b cuando se sabe
que la variable aleatoria Y=y se obtiene:
P( AB)
P( B / A) =
P( A)

P( X = x, Y = y) f ( X , Y )
=
P( X = x)
g ( x)
P( X = x, Y = y) f ( X , Y )
P( X = x / Y = y ) =
=
P(Y = y)
h( y)

P(Y = y / X = x) =

Probabilidad y Estadstica
Noviembre 2009

3
C (3,2)
=
C (8,2) 28
6
C (3,1)C (2,1)
=
P (0,1) =
28
C (8,2)
1
C (2,2)
=
P (0,2) =
C (8,2) 28
9
C (3,1)C (3,1)
=
P (1,0) =
28
C (8,2)
6
C (3,1)C (2,1)
=
P (1,1) =
28
C (8,2)
3
C (3,2)
=
P (2,0) =
C (8,2) 28
P (0,0) =

Probabilidad condicional.

g(x) > 0
h(y)> 0

M.A. Vctor Damin Pinilla Morn.


73

Para el ejercicio anterior determinar las


probabilidades marginales de X y Y.

a) Determinar si se trata de una


distribucin de probabilidad
conjunta.

g ( x) = Pxy ( x, y ) = Pxy ( x, y )
y

y =0

g ( x = 0) = Pxy (0, yi) =


y =0

3 + 6 + 1 10
=
28
28

9 + 6 15
=
28
28

g ( x = 1) = Pxy (1, yi) =


y =0
0

g ( x = 2) = Pxy (2, yi) =


y =0

h( y ) = Pxy ( x, y )
3 + 9 + 3 15
=
28
28
x =0
1
6 + 6 12
h( y = 1) = Pxy ( xi,1) =
=
28
28
x =0
0
1
h( y = 2) = Pxy ( xi,2) =
28
X =0
2

h( y = 0) = Pxy ( xi,0) =

Equivale a sumar verticalmente en la tabla


x
0
1
2

y(x)
10/28
15/28
3/28

Ejercicio. Dada la funcin:

2(2 x + 3 y )

Fxy ( x, y )
0

Probabilidad y Estadstica
Noviembre 2009

b) Encuentre la probabilidad

P[( x, y ) A]
1 1
2 2

1
2

1
2

5 (2 X + 3Y )dydx = 5 2 xy + 2 y
0 1
4

h(y)
15/28
12/28
1/28

2
3
2 2 3
0 5 2 x + 2 dx = 5 x + 2 x 0 =
2 6 4 + 6 10
+
=
=
=1
5 10
10
10
1

3
28

Equivale a sumar horizontalmente en la


tabla.

y
0
1
2

2
2( 2 x + 3 y )
3 2
=
dydx
2 xy + y dx =

5
5
2 0
0

1
2

3 1

=
1
4

1
2

2 1

5 x + 8 2 x 32 dx = 5 2 x + 32 dx =
0

1
2

2 x2 9
1
9
13
+ x =
+
=
5 4 32 0 40 160 160

c) Obtener la probabilidad marginal


para la variable x.
1

2
3
2
g ( x) = (2 x + 3 y )dy = 2 xy + y 2 =
5
2 0
5
0
1

2
3 4
6
2x + = x +
5
2 5
10
4
3
g ( x) = x +
0 x 1
5
5

d) Obtener la probabilidad marginal de


la variable y.

0 x 1
0 y 1
otros casos

2
(2 x + 3 y )dx =
5
0

h( y ) =

2 2
5 x + 3 yx =
0

2 6
+ y
5 5
2 6
h( y ) = + y 0 y 1
5 5

M.A. Vctor Damin Pinilla Morn.


74

Ejemplo. Continuando con el ejemplo de


los repuestos:

e) Determinar la distribucin condicional de


X dado que Y=1 y utilcela para determinar

P ( X = 0 Y = 1)

de que menos de un octavo de las mujeres


que se inscribieron para un maratn en
particular lo finalicen si se sabe que
exactamente un medio de los atletas
hombres lo terminaron.
x

8 xy 2
g ( x) = 8 xydy =
2
0
1

h( y ) = 8 xydx =
y

P( X Y = 1) =

Pxy ( X ,1)
h(Y = 1)

Pxy ( X ,1)
h(1)

Pxy ( X ,1)
12
28

6
Pxy (0,1) 28 6 1
=
=
=
12
12 12 2
28
28
6
Pxy (1,1) 28 1
=
=
12
12 2
28
28
Pxy (2,1)
=0
12
28

8x y
2

F(X Y) =

Fxy ( X Y )

F (Y X ) =

Fxy ( X Y )

h( y )
g ( x)

=
0

8 x3
= 4 x3
2

= 4 y 4 y3
y

8 xy
2x
=
3
4y 4y
1 y2

8 xy 2 y
=
4 x3 x 2

P (Y < 1 X = 1 )
8
2
P (0 < Y < 1 , X = 1 ) =
5
2
1
8

1
8

2y

dy

1
8
4
1
2y
2 8
dy
ydy
y
=
=
=
=
8
4
0 ( 1 )2
0
0
64 16
2

Ejemplo. Para la funcin de dos variables:


X
0
1
2

P(X/Y=1)

Ejemplo. Suponga que la fraccin X de


atletas hombres y la fraccin Y de atletas
mujeres que terminan la carrera del maratn
puede describirse por la funcin de
densidad conjunta.

8 xy

Fxy

y x 1
0 yx
otros casos

X (1 + 3Y 2)

Fxy ( X Y )

0< X <2
0 <Y <1
otros casos

a) Obtener g(x), h(y),

1
1
1
P( < X < Y = )
4
2
3

Encuentre las probabilidades marginales


F(XIY), F(YIX) y determine la probabilidad
Probabilidad y Estadstica
Noviembre 2009

M.A. Vctor Damin Pinilla Morn.


75

Independencia Estadstica. Si F (x/y) no


depende de y entonces:

3
14
F (0,1) = g (0)h(1)
F (0,1) =

g (0) = F (0, y ) = F (0,0) + F (0,1) + F (0,2) =


i =0
1

h(1) = F ( x,1) = F (0,1) + F (1,1) + F (1,1) =


i =0

5
14

6
14

3 5 6

14 14 14

Los eventos no son estadsticamente


independientes.
5.3 Valor esperado de una funcin de dos
o ms variables aleatorias. Valor
esperado condicional.
Definicin: Sean X y Y dos variables
aleatorias discretas o continuas con
distribucin de probabilidad conjunta
Fxy(x/y) y distribuciones marginales g(x) y
h(y) respectivamente se dice que las
variables aleatorias son independientes
estadsticamente si se cumple que:

f ( X , Y ) = g ( X )h( y )

Valores esperados y momentos para las


funciones bivariadas. Sean X y Y dos
variables aleatorias conjuntas, el valor
esperado de la funcin se define como:

E {( X X )(Y Y )

Generalizando. Sean X1, X2, X3,... Xn,


variables aleatorias discretas o continuas
con distribucin de probabilidad conjunta
f ( X 1 , X 2 , X 3 ... X n ) y con sus respectivas
funciones
marginales
f ( X 1 ) f ( X 2 ) f ( X n )... f ( X n ) . Si las
variables aleatorias son mutuamente
independientes se cumple que:
f ( X 1 , X 2 , X 3 ... X n ) = f ( X 1 ) f ( X 2 ) f ( X n )... f ( X n )

( x X )( y Y )P ( x, y )
x y
} =
( x X )( y Y ) f ( x, y )dydx

Generalmente:

Ejemplo. Retomando el ejemplo de los


repuestos:

Probabilidad y Estadstica
Noviembre 2009

M.A. Vctor Damin Pinilla Morn.


76

En forma de funciones:
g ( x, y ) P ( x, y )
x y
( x, y ) = E{g ( x, y )} =
g ( x, y ) f ( x, y )dydx

Para el caso r = s = 1, el momento alrededor


de la media:

E{( X X )(Y Y )

Se puede demostrar que el coeficiente de


correlacin toma valores entre menos uno y
uno; esto significa que el coeficiente de
correlacin
es
slo
una
medida
estandarizada de la asociacin lineal que
existe entre las variables aleatorias X y Y
en relacin con sus dispersiones. El valor de
=0 indica la ausencia de cualquier
asociacin lineal, mientras que los valores
=-1 y =1 indican relaciones lineales
perfectas, negativa y positivamente. Es
necesario sealar que debe rechazarse
cualquier otra interpretacin del trmino
correlacin.

Interpretacin
de
la
covarianza.
Tomando dos fenmenos aleatorios:

( x X )( y Y )P( x, y )
x y
} =
( x X )( y Y ) f ( x, y )dydx

Recibe el nombre de covarianza.


Una forma alterna
covarianza es:

para

calcular

la

Cov{ X , Y } = E{( X X )(Y Y )}

= E{XY X Y Y X + X Y }

= E{XY } Y E{X } X E{Y } + X Y


= E{XY } Y X X Y + X Y
= E{XY } Y X

= E{XY } E{X }E{Y }

Si la covarianza de X y Y se divide por el


producto de las desviaciones estndar de X
y Y, el resultado es una cantidad
adimensional que recibe el nombre de
coeficiente de correlacin.

La primera variable aleatoria es el corto,


que es la cantidad de dinero que BANXICO
retira del circulante para evitar que la
inflacin se dispare. En consecuencia, la
segunda variable aleatoria es la inflacin.

: coeficiente de correlacin
=

Cov{X , Y }

X Y

Probabilidad y Estadstica
Noviembre 2009

M.A. Vctor Damin Pinilla Morn.


77

En suma, cuando las variables cambian en


la misma direccin (positiva-positiva o
negativa-negativa), el coeficiente de
correlacin es de signo positivo. Por el
contrario, cuando las variables cambian en
direcciones diferentes (positiva-negativa o
negativa-positiva), el coeficiente ser de
signo negativo.
Por otra parte, si:

En esta grfica observamos que el corto y la


inflacin crecen en la misma direccin. Si
calculramos el coeficiente de correlacin,
ste tendra signo positivo.

Cov{X , Y }

X Y

La nica posibilidad para que = 0 es que


la covarianza lo sea. Esto implica que,
cuando la covarianza es cero, las variables
aleatorias
son
estadsticamente
independientes. Esto implica que, conforme
1 , las variables tienen una relacin
ms estrecha.

Varianza de una suma de dos variables


aleatorias.

donde a y b son constantes

En esta grfica aparece una tercera variable


aleatoria, el precio del dlar. Se observa
que conforme el corto aumenta, se retira
dinero circulante y el precio del dlar baja.
En este caso, el coeficiente de correlacin
entre el corto y el dlar tendr signo
negativo.

Probabilidad y Estadstica
Noviembre 2009

Si X y Y
independientes.

son

estadsticamente

Por definicin:

M.A. Vctor Damin Pinilla Morn.


78

los que el nmero de aos x que han


transcurrido es el mismo. En otras palabras,
para cada valor de x existe una distribucin
de ingresos anuales y lo que se busca es la
media de esa distribucin, dado x. La
grfica de la media condicional E Y x

{ }

como una funcin de x recibe el nombre de


curva de regresin de Y sobre X.
De tal forma, si f ( x, y ) es la funcin de
densidad conjunta de probabilidades de X y
Y, y si f y x es la funcin de densidad

( )

condicional de Y dado x, se define la curva


de regresin como
Anlisis de regresin. El motivo de estudio
de este tipo de anlisis son las asociaciones
cuantitativas entre un nmero de variables,
en lo particular en la manera de que sea
posible ajustar una ecuacin de algn tipo
al conjunto de datos dado, con el propsito
de obtener una ecuacin emprica de
prediccin razonablemente precisa y que
proporcione un modelo terico que no est
disponible.
Las tcnicas de regresin proporcionan
medios legtimos a travs de los cuales
pueden establecerse asociaciones entre las
variables de inters en las cuales la relacin
usual no es casual. De manera bsica, la
regresin tiene dos significados: uno surge
de la distribucin conjunta de probabilidad
de dos variables aleatorias; el otro es
emprico y nace de la necesidad de ajustar
alguna funcin a un conjunto de datos.

E (Y x ) = y f ( y x )dy

Ejemplo. Considrese la funcin de


densidad conjunta de probabilidad dada
por:

2 x 0 < x < y < 1


f ( x, y ) =
otro valor
0
Obtngase la curva de regresin de Y sobre
X.
A partir de:

f (y x) =

f ( x, y )
f (x )

entonces
Como ejemplo del primer significado, se
desea predecir el salario de un profesionista
dado el nmero de aos que han
transcurrido desde su graduacin. Sea X el
nmero de aos y Y el salario anual.
Resulta obvio que para un valor dado de x
es imposible predecir, de manera exacta, el
salario anual de una persona en particular.
Sin embargo, es posible predecir el salario
promedio de todos aquellos individuos para
Probabilidad y Estadstica
Noviembre 2009

f (x ) =

f (x, y )dy = 2 xdy = 2 x(1 x )

Sustituyendo:

f (y x) =

2x
1
=
2 x(1 x ) 1 x

M.A. Vctor Damin Pinilla Morn.


79

La curva de regresin ser:

1
1+ x
dy =
1 x
2
x

E (Y K x ) =

Corresponde a una lnea recta con pendiente


e interseccin igual a

1
.
2

El segundo significado de la regresin


resulta ms prctico. En l no se tienen los
elementos necesarios para determinar la
curva de regresin como en el ejemplo
anterior. No obstante, dado un conjunto de
datos, pude asumirse una forma funcional
para la curva de regresin y entonces tratar
de ajustar sta a los datos. En estas
situaciones, la variable respuesta es una
variable aleatoria cuyos valores se observan
mediante la seleccin de los valores de las
variables de prediccin en un intervalo de
inters. Por lo tanto, las variables de
prediccin no se consideran como variables
aleatorias, sino que stas son un conjunto
de valores fijos que representan los puntos
de observacin para la variable respuesta.
El modelo de regresin propuesto debe ser
relativamente sencillo y deber contener
pocos parmetros.
Bibliografa

Un procedimiento muy til para la


seleccin inicial cuando se tiene slo una
variable de prediccin es graficar la
variable respuesta contra la variable de
prediccin. Si esta grfica revela una
tendencia lineal, deber suponerse un
modelo de regresin lineal. Si es evidente
alguna curvatura, deber suponerse un
modelo cuadrtico o de mayor grado para
ajustarse a los datos.

Canavos, Probabilidad y Estadstica,


Edit. Mc Graw Hill, Mxico 1988.
Borras, et. al. Apuntes de Probabilidad
y Estadstica, Facultad de Ingeniera
UNAM, Mxico 1985.
Villarreal , Probabilidad y Modelos
Probabilsticos, UAEM, Mxico 1989.
Hines, Montgomery; Probabilidad y
Estadstica, Edit. CECSA, 3 edicin,
Mxico 1993.
Captura y Edicin:
M.A. Mara Torres Hernndez.

Probabilidad y Estadstica
Noviembre 2009

M.A. Vctor Damin Pinilla Morn.


80

Potrebbero piacerti anche