Sei sulla pagina 1di 106

UNIVERSIDAD CENTROCCIDENTAL LISANDRO ALVARADO

DECANATO DE CIENCIAS Y TEGNOLOGA


DEPARTAMENTO DE INVESTIGACIN DE OPERACIONES Y ESTADSTICA

APUNTES DE ESTADSTICA MATEMTICA

LUZ E. RODRGUEZ Q.

BARQUISIMETO 2015

0.1.

Introduccin

La estadstica es una Ciencia que tiene como finalidad facilitar la solucin de problemas en los cuales necesitamos conocer algunas caracteristicas sobre el comportamiento de algn suceso o evento. Caractersticas que nos
permiten conocer o mejorar el conocimiento de ese suceso. Adems nos permiten inferir el comportamiento de
suscesos iguales o similares sin que estos ocurran. Esto nos da la posibilidad de tomar decisiones acertadas y a
tiempo, as como realizar proyecciones del comportamiento de algn suceso. Esto es debido a que solo realizamos
los clculos y el anlisis con los datos obtenidos de una muestra de la poblacin y no con toda la poblacin. Pues
hacerlo con todos los datos o poblacin en algunos casos seria muy difcil y en otros casos casi imposible o imposible. Difcil porque podra tratarse de una situacin donde el nmero de datos es muy grande, como por ejemplo
si quisieramos saber el promedio de goles por juego de un equipo de futbol, a pesar de que se tienen los registros
de todos los resultados de sus juegos, son muchsimos los juegos y llevara tiempo revisar todos los archivos para
obtener esos datos. O bien saber que porcentaje de personas tiene vehculos en una determinada ciudad.
El objetivo de la estadstica es el de hacer inferencias respecto a una poblacin con base en los datos que aporta
una muestra tomada de sta. Toda la teora de probabilidades, variables aleatorias discretas y continuas con sus
respectivas distribuciones, estn ntimamente relacionadas con argumentos matemticos que no se pueden dejar
de lado. En el captulo 1, se describen los momentos y la funcin generadora de momentos de una determinada
poblacin, as como tambin los distintos mtodos para hallar la distribucin de una funcin de variables aleatorias.
En el captulo 2, las variables aleatorias continuas ms usadas se describen con respecto a sus distribuciones, sus
momentos y su funcin generadora de momentos. En el captulo 3, las variables aleatorias bidimencionales se
plantean para dar comienzo al anlisis multivariado, pues muchos de los problemas de la vida real tienen ms
de una variable para poder ser estudiados. En el captulo 4 y 5, se analizan los modelos de regresin lineal y se
describe el anlisis de varianza, cuya utilidad se extiende a muchas reas sociales para representar de una manera
ms adecuada un conjuntos de datos tomados de una poblacin, adems a travs de los modelos lineales se pueden
realizar predicciones.

ndice general

0.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1. Variables Aleatorias Continuas

2.

2
6

1.1. Momentos y funcin generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

1.2. Funcin de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

1.3. Propiedades Reproductivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

1.4. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

Distribuciones Continuas

31

2.1. Distribucin uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

2.2. Distribucin exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

2.3. Distribucin Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

2.4. Distribucin Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

2.5. Distribucin 2 (Chi-cuadrado) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

2.6. Distribucin normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

2.7. Distribucin t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

3. Variables Aleatorias Bidimensionales

37

3.1. Distribuciones de probabilidad bivariadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

3.2. Distribuciones de Probabilidad Marginal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

3.3. Distribuciones de Probabilidad Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

3.4. Variables aleatorias independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

50

3.5. Valor Esperado de una Funcin de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . .

53

3.5.1. Valores Esperados Condicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

56

3.5.2. La Covarianza de dos Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . .

57

3.5.3. Valor esperado y varianza de funciones lineales de v.a. . . . . . . . . . . . . . . . . . . .

59

3.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

60

3.7. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

64

4. Regresin Mltiple y Correlacin

5.

74

4.1. Modelos Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

75

4.2. El Mtodos de los Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

75

4.3. Ajuste del modelo lineal mediante matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

77

4.4. Propiedades de los estimadores de Mnimos Cuadrados.

. . . . . . . . . . . . . . . . . . . . . .

79

4.4.1. Para el modelo Y = 0 + 1 x + . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79

4.4.2. Para el modelo lineal de regresin mltiple. . . . . . . . . . . . . . . . . . . . . . . . . .

81

4.5. Inferencia con respecto a los parmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

82

4.6. Prediccin de un valor particular de Y . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

84

4.7. Comparacin de Modelos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

85

4.7.1. Estadstico de la Prueba. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

86

4.8. Tcnicas de regresin por pasos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

90

4.9.

91

Ejercicios Propuestos

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Anlisis de Varianza

96

5.1. Procedimiento del diseo de un experimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

96

5.2. Anlisis de varianza para el diseo completamente aleatorizado . . . . . . . . . . . . . . . . . . .

97

5.2.1. Comparacin de Medias entre los grupos. . . . . . . . . . . . . . . . . . . . . . . . . . . 101


5.3. Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

Captulo 1
Variables Aleatorias Continuas

Recordemos que el proceso por medio del cual se obtiene una observacin es llamado Un Experimento.
Al analizar un experimento podemos tener uno o ms resultados que llamaremos Eventos.
Los eventos se clasifican en simples y compuestos que no se pueden descomponer.
Observacin: Un evento simple corresponde a un punto muestral.
Espacio muestral (S

o ): Es el conjunto de todos los posibles puntos muestrales.

Variable Aleatoria: Es una funcin X que asigna a cada uno de los elementos s S un nmero real X(s), es decir,
X : S R
s S X(s) R
Variable Aleatoria Continua: X es una v.a. continua si su conjunto de posibles resultados es un intervalo en la
recta real.
Sea X una v.a. La funcin de Distribucin de X (o funcin de Distribucin acumulada) denotada por F(x), est
dada por
F(x) = P(X x),
Propiedades de F(x)
1. lm F(x) = F() = 0
x

2. lm F(x) = F(+) = 1
x+

< x < +.

3. Si x1 < x2 entonces F(x1 ) F(x2 ).


Definicin 1. Sea F(x) la funcin de distribucin de una v.a. continua X. Entonces f (x), dada por,
f (x) =

d
F(x) = F 0 (x)
dx

(siempre y cuando exista la derivada) se denomina Funcin de Densidad de Probabilidad para X.


Observemos que de las definiciones anteriores
F(x) = P(X x) =

Z x

f (t)dt.

Propiedades de f (x).
1. f (x) 0,

Z +

f (x)dx = 1

2.

3. P(a x b) =

Z b

f (x)dx
a

Esperanza y varianza de una v.a. continua X con densidad de prob. f (x):


E(X) = =

Z +

x f (x)dx

Var(X) = 2 =

Z +

(x )2 f (x)dx =

Z +

x2 f (x)dx 2

Esto es,
Var(x) = E(X 2 ) [E(x)]2
=

Es la Desviacin Estndar.

Propiedades: X,Y v.a. a, b, c, R

E(c)=c

E(aX+b)=aE(X)+b

E(X+Y)=E(X)+E(Y)

E(X.Y)=E(x).E(y) si X y Y son independientes


7


Var(c) = 0

Var(aX) = a2Var(X)

Var(x) +Var(y) 2Cov(x, y)

Var(X Y ) =

Var(x) +Var(y) si X,Y son indep.

Cov(X,Y ) = E{[X E(x)][Y E(y)]}


= E(X Y ) E(X).E(Y )

Teorema 1. (Teorema de Chebyshev)


Sea X una v.a. con media finita y varianza 2 finita. Entonces, para cualquier k > 0,
P(|X | k) 1

1
K2

o
P(|X | k)
Ejemplo 1.0.1.

1
.
K2

El nmero de clientes que visitan un distribuidor de autos los sbados en la maana es una v.a.

con = 18 y = 2 5. Usar el teorema de Chebyshev para calcular


P(8 X 28)
k = 8
+ k = 28

P(8 X 28) 1

Ejemplo 1.0.2.

1ero f (x) 0,
2do

15
1
=
0 94
42
16

Determinar k tal que la siguiente funcin pueda servir como densidad de probabilidad una v.a.

kxe4x2 , x > 0
f (x) =

0
, x0
as k debe ser > 0

Z +

Z +

f (d)dx = 1,

8
10
=
=4

25
28 10
k=
=
=4

k=

esto es

kxe4x dx = 1

Haciendo u = 4x2 ,

du = 8xdx
Z

k
Z +

kxe4x dx = 1

Ejemplo 1.0.3.

xe4x dx =

k
8

eu du =

k u
e
8

k
= 1 k=8
8

Dada la siguiente funcin

f (x) =

cx

para 0 < x < 4

en otro caso

a) Determinar c tal que f (x) sea una funcin de densidad de la v.a. X.


b) Hallar F(x) y E(X).
Solucin:
a) Sabemos que si f (x) es una f.d.p. se cumple
Z +

f (x)dx = 1

Z 0

0dx +

Z 4

cx dx +
0

cx dx = 1 c

Z +

Z 4

0 dx = 1
4

x2
2

4
=1
0

16
1
=1c=
2
8

b) Busquemos F(x)
Z x

Para
Para

x<0

0x<4

Z 0

F(x) =

f (t)dt
Z
x

f (t)dt =
0

1 t2
1
t dt =
8
8 2

x

1 2
x
16
0

Z 0
Z 4
Z x
1
t2 4
f (t)dt =
0 dt +
t dt +
0 dt =
=1
16 0

0 8
4
0

Z x

0 dt = 0

F(x) =

Z x

f (t)dt +

Z x

f (t)dt =

x 4 F(x) =

0
si x < 0

F(x) =
x2/16 si 0 x < 4

1
si x 4
Para

Z +

E(x) =

Z 0

x f (x)dx =
0 dx +

4
3
1 x
1 64 8
=
=
=
8 3 0 8 3
3

Ejercicio:

Z +

Z 4
1

x x dx +
8

Z 4
1 2
0 dx =
x dx
0

Dada la funcin de densidad

f (x) =

3x2

si

0<x<1
en otro caso

a) Hallar F(x)
b) Hallar E(x)

1.1.

y Var(x)

Momentos y funcin generadora de momentos

Definicin 2.

Sea Y una v.a., el k-simo momento de Y respecto al origen se define como E(Y k ), y se denota

por 0k , siempre que la esperanza exista.


Notemos que:

Definicin 3.

01 = E(Y ) =

1er

momento

(posicin)

02 = E(Y 2 ) = 2 + 2

2do

momento

(dispersin)

03 = E(Y 3 )

3er

momento

(relacionado con asimetra)

04 = E(Y 4 )

4to

momento

(relacionado con la curtosis)

Sea Y una v.a., el k-simo momento de Y respecto a la media o el k-simo momento central de Y ,

se define como E[(Y )k ] y se denota por k .


Notemos que 2 = E[(Y )2 ] = Var(Y ) = 2 .

10

Definicin 4.

La funcin generadora de momentos de una v.a. Y es una funcin a valores reales definida por:

ety p(y)
si y es discreta
ty
y
mY (t) = E(e ) =

R + ety f (y)dy si y es continua

Siempre que el valor esperado exista para todo t (h, h), para algn h > 0.
Notemos que my (t) = (t) = E[ety ] se llama funcin generadora de momentos de Y porque
my (t) = 1 + t01 +

t2 0 t3 0
tn
2 + 3 + ... + 0n + ...
2!
3!
n!

Adems, observemos que:


1. my (t) = E(ety ) es una funcin de todos los momentos 0k respecto al origen para k = 1, 2, 3, ...
2. 0k es el coeficiente de

tk
en la expansin en series de my (t).
k!

Recordemos que:
+ (ty)k

ety =

k=0

k!
n

(a + b)n =
i=0

= 1 + ty +

(ty)2 (ty)3
+
+ ...
2!
3!

n i ni
i ab

El siguiente teorema establece que si existe el momento de orden k de Y , entonces deben existir todos los
momentos de orden inferior.
Teorema 2.

Si E(Y k ) < , para k Z+ , entonces E(Y j ) < , para cualquier enero positivo j < k.

Teorema 3.

Sea Y una v.a. para la cual existe la f.g.m. my (t). Entonces para cualquier k Z+
0k

(k)
= m(0)

d k my (t)
=
dt k


t=0

Ejemplos:
1. Sea Y una v.a. con distrib. exponencial de parmetro , o sea con densidad
f (y) =

1 y/
e ;

11

> 0,

y>0

Hallar my (t), E(y) y Var(y)

my (t)

= E(ety ) =
=
=

E(y)

R + ty 1 y/
e dy
0 e

1 R + ( 1 t)y
1 R + ( 1t
)y

dy =
dy
0 e
0 e


+
1 ( 1t
1
)y
e
=
1 t
1 t
0
1
1
my (t) = (1 t) ,t <



d

my (t)
= (1 t) 2
=
dt
t=0
t=0

Var(y) = E(y2 ) [E(y)]2




d
d2

2
= [(1 t) 2]
E(y ) = 2 mY (t)
dt
t=0  dt
t=0
2
3
2
= 2 (1 t)
= 2
t=0

Var(y)

= 22 2

= 2 .

2. Sea X Bin(n, p). Su funcin de probalidad es


 
n x
p(x) =
p (1 p)nx ,
x

si

0 x n.

Hallar mx (t), E(x) y Var(X)


n

= etx

mx (t) = E(etx )

x=0
n

=
x=0


d
E(X) = mx (t)
dt
t=0


d
E(X 2 ) = 2 mx (t)
dt

t=0

n x
nx
x p (1 p)

n t x
nx
x (e p) (1 p)

= (et p + 1 p)n = [(et 1)p + 1]n



t
n1
t
= n(e p + 1 p) e p
t=0

= np


= n(et p + 1 p)n1 et p + n(n 1)(et p + 1 p)n2 (et p)2 t=0
= np + n(n 1)p2 = np + n2 p2 np2

Por tanto,
Var(X) = E(X 2 ) [E(X)]2 = np + n2 p2 np2 (np)2 = np np2 = np(1 p) = npq.
Definicin 5.

Sea Y1 , ...,Yn una m.a. de una v-a Y .


12

El r-simo momento muesral especto al origen est dado por


Mr0 =

1 n r
Yi
n i=1

El r-simo momento muestral respecto a la media muestral Y est dado por:


Mr =

1 n
(Yi Y )r .
n i=1

Notemos que
M10 =

1 n
Yi = Y
n i=1

y M1 = 0,

M2 =

1 n
(Yi Y )2 .
n i=1

Observaciones:
1. ndice de Asimera:

La asimetra de una distribucin hace referencia al grado en que los datos se reparten

por encima y por debajo de la tendencia central.


Coeficiente de Asimetra:
g1 =
gb1 =

3
3
3
= 2 3/2 =
3
( )
(2 )3/2

3
3/2

(2 )

M3
(M2 )3/2

1 n
(Yi Y )3
n i=1
=
3/2
1 n
2
(Yi Y )
n i=1
a) g1 > 0: Asimetra positiva
b) g1 = 0: Simetra
c) g1 < 0: Asimetra negativa
2. ndice de Curtosis:

La curtosis hace referencia al grado de apuntamiento de una distribucin.

Coeficiente de Curtosis:
g2 =

4
4
3 =
3
4

(2 )2
13

1 n
(Yi Y )4
b
4
n i=1
g2
3 = 
2 3
(b
2 )2
1 n
2
)
(Y
Y
i
n i=1
n

n (Yi Y )4
=  i=1
2 3
n
(Yi Y )2
i=1

a) g2 > 0: Distribucin Leptocrtica


b) g2 = 0: Distribucin Mesocrtica
c) g2 < 0: Distribucin Platicrtica
g2 = 0 5 curva normal

Teorema 4.

Sea g(y) una funcin de una v.a. Y . Entonces la f.g.m para g(y) est dada por:

etg(y) p(y) si Y es discreta


tg(y)
y
mg(y) (t) = E[e
]=

R + tg(y)

e
f (y) dy si Y es continua

Teorema 5.

Sea X una v.a. con f-g-m mx (t) entonces si Y = aX + b, a, b R se tiene que:


mY (t) = ebt mX (at).

Teorema 6.

Supngase que X e Y son v.a. independientes y sean mx (t), my (t) sus respectivas f.g.m.

Entonces la f.g.m. para la v.a. Z = X +Y est dada por


mz (t) = mx (t) my (t).

Este teorema se puede generalizar a n v.a. independientes, es decir, si Y = x1 + x2 + ... + xn y mxi (t) existe
para i = 1, ..., n, entonces
n

mY (t) = mxi (t) = mxi (t)mx2 (t)...mxn (t)


i=1

14

Teorema 7.

Si la f.g.m. de los v.a. X e Y son idnticos para todos los valaores de t en un intervalo alrededor de

t = 0, entonces la distribucin de X e Y deben ser idnticas.


Observacin: Relacin entre los momentos con respecto al origen y los momentos centrales
r

 
r i 0
r = (1)
ri
i
i=0
i

Ejemplo: Sean X e Y v.a. i.i.d. con f.g.m m(t) = (t) = (1 2t)3/2 . Sea Z = 3x 2y + 5
(a) Hallar la f.g.m. de Z
(b) Hallar la E(Z) y Var(Z)
(a)

mz (t) = z (t) = E[et(3x2y+5) ]


= e5t mX (3t)mY (2t)
= e5t [1 2(3t)]3/2 [1 2(2t)]3/2
= e5t (1 6t)3/2 (1 + 4t)3/2

(b)

= e5t (1 2t 24t 2 )3/2






3
d
01 = mz (t) = [5e5t (1 2t 24t 2 )3/2 + e5t
(2 48t)
dt
2
t=0

(1 2t 24t 2 )5/2 ]
t=0

E(Z) = 01

= 5+3 = 8

E(Z 2 ) = 02



d2
= 2 mz (t)
dt
t=0

= [25e5t (1 2t 24t 2 )3/2 + 5e5t (

3
)(2 48t)(1 2t 24t 2 )5/2
2

+15e5t (1 + 24t)(1 2t 24t 2 )5/2 + 3e5t 24(1 2t 24t 2 )5/2




5
5t
+3e (1 + 24t)
(2 48t)(1 2t 24t 2 )7/2 ]t=0
2
= 25 + 15 + 15 + 72 + 15 = 142
Var(z) = E(z2 ) [E(z)]2 = 142 64 = 78

15

1.2.

Funcin de Variables Aleatorias

Sea Y una v.a., recordemos que U = h(Y ) es tambin una v.a., por se U una funcin de la v.a. Y . Ac nos
ocuparemos de determinar la distribucin de probabilidad de U.
Utilizaremos tres mtodos para hallar la distribucin de probabilidad de U = h(Y ):
1. Mtodo Directo:

Este se aplica, por lo general, cuando la v.a. Y es continua. Si Y tiene funcin de densidad

de probabilidad f (y) y si U es alguna funcin de Y ,


FU (u) = P(U u).

Se puede calcular directamente mediante la integracin de f (y) en la regin para la cual U u. La funcin
de densidad de probabilidad de U se obtiene derivando FU (u).
Ejemplo: Suponga que Y tiene la funcin de densidad dada por

2y, 0 y 1
f (y) =

0, en otro caso
Encuentre la funcin de densidad de probabilidad de U = 3y 1.
Solucin:
FU (u) = P(U u) = P(3Y 1 u)


u+1
=P Y
3
u < 1

U >2

Entonces

Entonces

u+1
< 0 y por tanto FU (u) = P(Y < 0) = 0
3

u+1
> 1 y por lo tanto
3


u+1
FU (u) = P Y
=1
3

16

1 u 2


 Z u+1
u+1
3 f (Y )dy
FU (u) = P Y
=
3

Z u+1

=
0

FU (u) =

u+1 

u+1 2
3
2
2y dy = Y
=
3
0

si u < 1
u+1
3

2
si

1 u 2

si u > 2

y la funcin densidad de U es

2
d FU (u) 9 (u + 1)
fU (u) =
=

du

si

1 u 2
en otro caso

Ejemplo: Sea U = h(Y ) = Y 2 , donde Y v.a. continua con f.d.a. FY (y) y f.d.p. fY (y).
u 0, FU (u) = P(U u) = P(Y 2 u) = 0
Z

u > 0, FU (u) = P(U u) = P(Y u) = P( u y u) =


2

u

= FY (y) = FY ( u) FY ( u)
u

FU (u) =

FY ( u) FY ( u), u > 0

0,

e.o.c.

Como fU (u) = FU0 (u), tenemos

fU (u) =

1
[ fY ( u) + fy ( u)], u > 0
2 u

e.o.c

2. Mtodo de las Transformaciones:

17

f (y)dy

Este es un mtodo para formular la funcin de densidad de U = h(Y ), siempre y cuando h(y) sea creciente
o decreciente. Supongamos que fY (y) es la funcin de densidad de Y y que h(y) es creciente. Entonces,
u = h(y) creciente de y y = h1 (u) es una funcin creciente de u, es decir,
u1 < u2 h1 (u1 ) < h1 (u2 )

(yi = h1 (ui ); i = 1, 2)

Y1 < Y2
Ntese que si h(Y ) y h1 (u) son funciones univaluadas de Y y u, respectivamente, la transformacin es uno
a uno.
Suponiendo la existencia de una transformacin uno a uno y adems que U = h(Y ) es una funcin creciente
y diferenciable de y, se puede determinar la f.d.p. de U de la siguiente manera:
FU (u) = P(U u) = P(h(Y ) u)
= P(Y h1 (u))

Entonces,
FU (u) = FY (h1 (u)).
Luego, al derivar respecto a u obtenemos:
d
dFU (u)
=
[FY (h1 (u))]
du
du
d
= fy (h1 (u)) [h1 (u)] como
du
dy
= fY (h1 (u)) .
du

fU (u) =

y = h1 (u)

dy = d[h1 (u)]

Si h(y) es decreciente de Y , el resultado es el mismo, excepto que la derivada de una funcin decreciente es
negativa. En general se tiene:
Teorema 8. Sea Y una v.a. continua con f.d.p. fY (y) y defnase U = h(Y ). Si u = h(y) y y = h1 (u) son
funciones univaluadas, continuas y diferenciables y si u = h(y) es una funcin creciente o decreciente de y,
18

la f.d.p. de U est dada por



dy
fU (u) = fY (h (u)) .
du
1


dy
La cantidad J = recibe el nombre de Jacobiano de la transformacin.
du
Ejemplo:
Sea Y una v.a. distribuida normalmente con media y desviacin estndar . Obtener la funcin de densidad
de probabilidad de U = exp(Y ).

Solucin:
La relacin u = exp(Y ) es una funcin creciente y diferenciable de Y . As
y = h1 (u) = ln(u) y

dy 1
= ,u > 0
du u

por lo tanto

dy
fU (u) = fY (h1 (u)) ,
du
como


 
1
1 y 2
Y N(, 2 ) fY (y) =
exp
,
2

2
tenemos que


 
1 ln(u) 2
1
exp
, u > 0.
fU (u) =
2

2
Ejemplos:

a) Sea Y una v.a. que tiene f.d.p. f (y) =

2y, 0 y 1

0,

e.c.o.c

Sea U = 3Y + 1, hallar fU (u), usando el mtodo de tansformacin.


Notemos que U = h(Y ) = 3Y + 1 es creciente. Si u = 3y + 1, entonces
h1 (u) = y =

19

u1
3

dy 1
= ,
du 3

luego





dy
u1 1 2 u1

fU (u) = fY (h (u))
= fY
=
du
3
3 3
3
1

2
= (u 1) si
9

1u4

b) Sea Y Uni f (0, ), hallar f.d.p. de U = c Sen(Y ) donde c es cualquier constante positiva.



es creciente en 0,
2 
Notemos que u = c Sen(Y )

es decreciente en
,
2
Adems, y = h1 (u) = Sen1 (u/c) y
dy
1
1
=s
 2 c =
du
u
1
c

c2
c2 u2

1
1
= (c2 u2 ) /2
c

Como

1,

Y Uni f (0, ) fY (y) =

0
1
Para (0, /2); f1 (u) = (c2 u2 )1/2 ,




1
Para
, : f2 (u) = (c2 u2 )1/2 ,
2

si

0y
e.c.o.c

0<uc
0uc

Por lo tanto, la funcin de probabilidad de U es:


fU (u) = f1 (u) + f2 (u)
=

2 2
1
(c u2 ) /2 ,

0 u c.

3. Mtodo de las funciones generadoras de momentos.


Este momento se basa en el siguiente teorema de unicidad.
Teorema 9. Supngase que existen para cada una de las siguientes v.a. X y Y las funciones generadoras de
momentos dadas por mX (t) y mY (t), respectivamente. Si mX (t) = mY (T ) para todos los valores de t, entonces X y
Y tienen la misma distribucin de probabilidad.
20

Sea Y una v.a. normal con media y varianza 2 , as




t2
mY (t) = exp t + 2
.
2
Ejemplo:
Y
Sea Y N(, 2 ), demuestre que Z =
tiene una distribucin normal estndar.




1
, as, por teorema
Notemos que Z = Y +

 2
t

 


t

1
t

mz (t) = ed t my
t = e exp + 2






t2
mz (t) = exp t exp t +

2
 2


2
t
t
= exp
= exp 0 t + 1
2
2
la cual corresponde a la f.g.m de una v.a. normal estndar, por lo tanto Z N(0, 1)

Ejemplo: Sea Z una v.a. normal estndar. Demostrar que la distribucin de Y = Z 2 es una distribucin Chicuadrado con un grado de libertad.
(a)

1
Usando el mtodo de la f.g.m: Debemos demostrar que my (t) = (1 2t)1/2 ,t < .
2

Como


1
1
Z N(0, 1), fZ (z) = exp z2 .
2
2
2

mY (t) = E[ety ] = E[etz ] =

Z +

etz f (z) dz



Z +
1
1
exp(t z2 )exp z2 dz
=
2

2


2 
Z +
1
z
1
exp
dz
=
2 (1 2t)1/2

2
 
2 
Z +
1
1
z
1

exp
= (1 2t) /2
dz
2 (1 2t)1/2

2(1 2t)1/2
1/2

= (1 2t)

21

(b)

Usando el mtodo Directo:



1
1
Y = Z 2 , Z N(0, 1) fZ (z) = exp Z 2
2
2
1

fY (y) = [ fz ( y) + fz ( y)], y > 0


2 y





1
1
1
1
1
= exp y + exp y ,
2 y
2
2
2
2


1
1
= exp y
2
y 2


1 1/2
1
= Y
exp y
2
2

 


1
1
1
1
=
= 1/2 Y /21 exp y ,
2
2
2



1
1
1
  Y 2 1 exp y , y > 0
=
1
2
21/2
2
Esta es la f.d.p. de una v.a. chi-cuadrado con 1 grado de libertad.

Y = Z 2 2(1)

(c) Usando el mtodo de las transformaciones:



dz 1
1
2
Y = Z , dy = 2z dz = =
dy
2z 2 y
dz

Por teorema: fY (y) = fz (h1 (y)). y adems y = |z| z = y


dy
z < 0, y

= z2

es decreciente: (1)

z > 0, y = z2 es creciente:

(2)



1
1
1
fY (y) = exp Y .
2
2
y
2


1
1
1
fY (y) = exp Y .
2
2 y
2

y>0
y>0

Sumando (1) y (2):




2
1
1
fY (y) = exp Y , Y > 0
2
2
y
2


1
1
1
= 1/2 y 2 exp Y , y > 0
2
2

22

y>0

 

1
=
2

1.3.

2(1)



1
o Y Gamma = , = 2
2

Propiedades Reproductivas

Si dos o ms variables aleatorias independientes que tienen cierta distribucin se suman la variable aleatoria
que resulta tiene la distribucin del mismo tipo que la de los sumandos. Esta propiedad se llama Propiedad Reproductiva.

Teorema 10. (Propiedad Reproductiva de la Distribucin Normal)


n

Sean X1 , X2 , ..., Xn n-variables aleatorias independientes con distribucin N(i , 2i ), i = 1, 2, ..., n. Sea Y = Xi .
i=1

Entonces,
n

Y N( i , 2i ).
i=1

i=1

Teorema 11. (Propiedad Reproductiva de la Distribucin de Poisson.)


n

Sean X1 , ..., Xn v.a. independientes. Supongamos que Xi Poisson(i ), i = 1, 2, ..., n y sea Y = Xi .


n

i=1

Luego, Y tiene una distribucin de Poisson con parmetro = i .


i=1
k

Teorema 12. Sean X1 , ..., Xk v.a. independientes tal que Xi 2(ni ) , i = 1, 2, ..., k Entonces, Y = Xi tiene una
i=1

distribucin Chi-cuadrado con n = ni g.l.


i=1
k

Teorema 13. Sean X1 , ..., Xk v.a. independientes, cada una con distribucin N(0, 1). Entonces Y = Xi2 tiene una
i=1

distribucin

2(k) .

Ejemplos:
1.- Suponga que la f.g.m. de una v.a. X es de la forma mX (t) = (0 4et + 0,6)8
a) Cual es la f.g.m. de la v.a. Y = 3x + 2?
23

b) Hallar E(X).
Solucin:
a) mY (t) = e2t mX (3t) = e2t (0 4 e3t + 0 6)8
b) E(X) =



d
mX (t)
= 8(0 4et + 0 6)7 0 4et
dt
t=0
t=0

= 8 0 4 = 3,2
X Bin(p = 0 4, n = 8)
E(X) = np = 3,2
Varias resitencias, Ri , i = 1, 2, ..., n, se ponen en serie en un circuito. Supngase que cada Ri N(10 ohms, 0

2.16).
a)

Si n = 5, cul es la probabilidad de que la resistencia del circuito sobrepase los 49 ohms?

b)

Cul debe ser el valor de n de manera que la probabilidad de que la resistencia total exceda los 100
ohms sea aproximadamente 0.05?

Solucin:
a)

i = 10 ohms i = 1, 2, ..., n

2i = 0 16 = 0 4.

Por Propiedad Reproductiva




5
5
5
5
2
Y = Ri N i , i con = i = 50
i=1

i=1

i=1

i=1

y 2 = 2i = 0 8
i=1




5
Y 49 50
>
P Ri > 49 = P

08
i=1
= P(Z > 1 1180)
= P(Z 1 1180) = 0 8665
n

b)

Y = Ri ,
i=1

= i = n10,
i=1

2 = 2i = n(0 16) =
i=1

24

p
n(0 16).

P(Y > 100) 0 05




Y 100 n10

P
>
0 05

04 n


100 n10
100 n10

= 1 65
P z>
0 05
04 n
04 n

100 n10 = 0,66 n 10 n = 0 066 n

n + 0 066 n 10 = 0 ( n)2 + 0 066 n 10 = 0


p

0 066 (0 066)2 4(10) 0 066 6 325


=
n=
2
2

n = 3 1295 n 9 79

3.-

Supngase que V , la velocidad de un objeto (cm/seg) tiene una distribucin N(0, 4). Si K =

m 2
V ergs. es la
2

energa cintica del objeto (donde m es la masa), encontrar la f.d.p. de K. Si m = 10 grs., calcular P(K 3).

Solucin:


1
1 V2
V N(0, 4) fV (v) =
exp
2 4
22
K=


dV


dK =
fK (k) =
=

1
Haciendo Y = V, E(Y ) = 0
2
1 2
2
Por teorema Y = V 2(1)
4

r
2
2
m 2
2
V V = K V =
K
2
m
m

1/2

1 2
1
2
m 1
K
=
=
2 m
m
2m K
2k m




dV
1
1
1 2K
1

fV (h (h)
exp
= 2
dK
2
4m
22
2m K

1
1 K

exp{
, K > 0.
2 2m
2 2m K

y Var(Y ) = 1;



1
Gamma , 2
2

Y N(0, 1).

25

Multiplicando por 2m : 2mY 2 =

2m 2
V
4

2mY 2 =

m 2
V = K;
2

Como
Y 2 2(1) mY 2 (t) = (1 2t)1/2
As
1/2

mK (t) = mY 2 (2m t) = (1 2(2m)t)

1/2

= (1 4mt)


1
K Gamma = , = 4m
2


1
Para m = 10 tenemos que K Gamma = , = 40 , as:
2

P(K 3) = P(2mY 2 3)




3
3
2
2
= P (1)
=P Y
2m
20
= P(2(1) 0 15) = 0 75

4.-

Demuestre que la distribucin binomial tiene la propiedad reproductiva.

Solucin:
Supongamos que los Xi Bin(i , p) son independientes para i = 1, 2, ..., k.
Veamos que Y = Xi + ... + Xk tiene una distribucin binomial.

Sabemos que mXi (t) = (p et + q) i , para todo i = 1, 2, ..., k


As
k

mY (t) = mX i (t) = (p e + q)
i=1

i=1



k
Y Bin n = i , p
i=1

26

= (p e + q)i=1

5.- Cierto proceso industrial produce un gran nmero de cilindros de acero cuyas longitudes estn distribuidas
normalmenmte con promedio de 3.25 pulgadas y desviacin estndar de 0.05 pulgadas. Si se elige al azar dos de
tales cilindros y se ponen extremo con extremo, cul es la probabilidad de que la longitud combinada sea menor
que 6.60 pulgadas?.
Yi : longitud del cilindro de acero i,

i = 1, 2.
Yi N(3 25 ,

(0,05)2 )

Notemos que: E(Y1 +Y2 ) = = 1 + 2 = 6 5 y Var(Y1 +Y2 ) = 2 = 2(0 05)2




(Y1 +Y2 ) 6 60 6 5
<
P(Y1 +Y2 < 6 60) = P
= P(Z < 1 414) = 0 9207

0 0707
5.- Si la v.a. X tiene una f.g.m. dada por mX (t) =

3
, obtener la desviacin estndar de X.
3t

mX (t) = 3(3 t)1


d
mX (t) = (1)3(1)(3 t)2 = 3(3 t)2
dt

d2
d2
3
2
= 6(3)3
m
(t)
=
6(3

t)

=
m
(t)
X
X
dt 2
dt 2
t=0
=

= 2 =

1.4.

2
.
3

6
2
=
27 9

Ejercicios Propuestos

1. Si Y tiene una distribucin binomial con n ensayos y una probabilidad de xito p, demuestre que la funcin
generadora de momentos para Y es
m(t) = (pe0 + q)n

donde

q = 1 p.

2. Derive la funcin generadora de momentos del ejercicio 1 para determinar E(Y ) y E(Y 2 ). Enseguida encuentre Var(Y ).
27

3. Si Y posee una distribucin geomtrica con probabilidad de xito p, demuestre que la funcin generadora de
momentos para Y es
m(t) =

pet
1 qet

donde

q = 1 p.

4. Derive la funcin generadora de momentos del ejercicio 3 para determinar E(Y ) y E(Y 2 ). Enseguida encuentre Var(Y ).
5. Determine las distribuciones de las variables aleatorias que poseen cada una de las siguientes funciones
generadoras de momentos:
a) m(t) = [(1/3)et + (2/3)]5
b) m(t) =

et
2 et
t

c) c(t) = e2(e 1) .
6. Sea m(t) = (1/6)et + (2/6)e2t + (3/6)e3t . Encuentre lo siguiente:
a) E(Y ) y Var(Y )
b) La distribucin de Y .
7. Si Y es una variable aleatoria con la siguiente funcin de densidad de propabilidad

2(1 y) 0 y 1
f (y) =

0
en cualquier otro punto
a) Determine la funcin de densidad de U1 = 2Y 1.
b) Encuentre la funcin de densidad de U2 = 1 2Y .
c) Calcule la funcin de densidad de U3 = Y 2 .
d) Determine E(U1 ), E(U2 ) y E(U3 ) utilizando las funciones de densidad deducidas para estas variables
aleatorias.

28

8. Sea Y una variable aleatoria con la siguiente funcin de densidad

(3/2)y2 1 y 1
f (y) =

0
en cualquier otro punto
a) Determine la funcin de densidad de U1 = 3Y .
b) Encuentre la funcin de densidad de U2 = 3 Y .
c) Determine la funcin de densidad de U3 = Y 2 .
9. La funcin de densidad de Weibull est determinada por

1 mym1 eym /a , y > 0


a
f (y) =

0
en cualquier otro punto
donde a y m son constantes positivas. Esta funcin de densidad se emplea con frecuencia como modelo de
la duracin de los sistemas fsicos. Suponga que Y tiene la densidad de Weibull dada.
a) Encuentre la funcin de densidad de U = Y m .
b) Determine E(Y k ) para cualquier entero positivo k.
10. La velocidad de una molcula en un gas uniforme en equilibrio constituye una variable aleatoria V , cuya
funcin de densidad est dada por
2

f (v) = av2 ebv , v > 0


donde b = m/2kT y k, T y m denotan la constante de Boltzmann, la temperatura absoluta y la masa de la
molcula, respectivamente.
a) Deduzca la distribucin de W = mV 2 /2, la energa cintica de la molcula.
b) Determine E(W ).
11. Una corriente elctrica fluctuante I se considera una variable aleatoria con distribucin uniforme en el intervalo (9,11). Si la corriente fluye por una resistencia elctrica de 2 ohms, determine la funcin de densidad
de probabilidad de la potencia P = 2I 2 .
29

12. Si Y1 y Y2 son variables aleatorias normales estndares e independientes, determine la funcin de densidad
de U = Y12 +Y22 .
13. Sean Y1 ,Y2 ...Yn variables aleatorias normales independientes con media y varianza 2 , y a1 , a2 , ..., an constantes conocidas. Determine la funcin de densidad de la combinacin lineal U = ni=1 aiYi .
14. Suponga que Y tiene una distribucin gamma en parmetros = n/2, para algn entero positivo n, y igual
a algn valor determinado. Demuestre que W = 2Y / tiene una distribucin 2 con n grados de libertad
mediante el mtodo de las funciones generadoras de momentos.
15. Sean Y1 una variable binomial con n1 ensayos y probabilidad de xito p, y sea Y2 otra variable aleatoria
binomial con n2 ensayos y probabilidad de xito tambin dada por p. Si Y1 y Y2 son independientes, determine
la funcin de probabilidad de Y1 +Y2 .
16. Sea Y1 y Y2 dos variables aleatorias de Poisson independientes con medias 1 y 2 , respectivamente. Determine la funcin de probabilidad de Y1 +Y2 .
17. Sean Y1 ,Y2 ...Yn variables aleatorias de Poisson independientes con medias 1 , 2 , ..., n , respectivamente.
Determine la funcin de probabilidad de ni=1 Yi .
18. Demuestre que si Y1 tiene una distribucin 2 , con v1 grados de libertad y Y2 tiene una distribucin 2 con
v2 grados de libertad, entonces U = Y1 +Y2 tiene una distribucin 2 con v1 + v2 grados de libertad siempre
que Y1 y Y2 sean independientes.

30

Captulo 2
Distribuciones Continuas

Ac se presentan las distribuciones de probabilidad ms importante y sus propiedades bsicas. La notacin


utilizada se resume en la siguiente tabla:

Densidad de probabilidad
Distribucin de probabilidad

f (x) P(a X b) =
F(x) =

P(X x) =

Z b

f (x)dx

Z xa

f (t)dt

Media
Varianza

= E(X)
2 = E((X )2 )

Sesgo

1 = E((X )3 )/3

Curtosis

2 = E((X )4 )/4

Funcin generadora

m(t) = E(etX )

31

2.1.

Distribucin uniforme
Densidad de probabilidad

Distribucin de probabilidad
Media
Varianza
Sesgo
Curtosis
Funcin generadora

1
,a x b
ba
xa
F(x) =
,a x b
ba
a+b
=
2
(b a)2
2
=
12
f (x) =

1 = 0
2 = 9/5
m(t) =

ebt eat
(b a)t

Ejemplo 2.1.1. El tiempo de un viaje (ida y vuelta) de los camiones que transportan el concreto hacia una
construccin, est distribuido uniformemente en un intervalo de 50 a 70 minutos. Cul es la probabilidad de que
la duracin del viaje sea mayor a 65 min. si se sabe que la duracin del viaje es mayor a 55 min.?
X: El tiempo que dura un camin al transportar concreto en un viaje (ida y vuelta); X Uni f (50, 70) y por tanto
f (x) =

1
1
=
70 50 20

para

50 x 70

y
F(x) =

x 50
20

si 50 x 70

As,
P(X > 65 | X > 55) =

P(X > 65) P(1 X 65) 1 6550


1
20
=
=
= .
5550
P(X > 55) P(1 X 55) 1 20
3

32

2.2.

Distribucin exponencial
Densidad de probabilidad

f (x) = ex =

Distribucin de probabilidad

F(x) = 1 ex

Media
Varianza

1 x/
e ,

x 0,

> 0,

>0

= 1/ =
2 = 1/2 = 2

Sesgo

1 = 2

Curtosis

2 = 9

Funcin generadora

m(t) =

Ejemplo 2.2.1. En un muelle de recepcin llegan en promedio tres camiones por hora para ser descargados,
calcular las probabilidades de que el tiempo entre el arribo de sucesivos camiones sea:
1. menor que 5 minutos;
2. de al menos 45 minutos.
Notemos que = 3 es el nmero de llegadas promedio por hora, suponiendo que el nmero de llegadas sigue un
1
proceso Poisson con = 3, entonces = . Luego, definiendo
3
X : tiempo entre llegadas sucesivas; X exp(), por tanto,
(1) P(X < 5min) = P(X <

1
hrs.) =
12

Z 1/12

3e3x dx = 1 e1/4 = 0,221

3
(2) P(X 45min) = P(X hrs.) = 1
4

33

Z 3/4
0

3e3x dx = 0,105

2.3.

Distribucin Gamma
Densidad de probabilidad

Distribucin de probabilidad

x1 ex/
,
()

f (x) =

F(x) = P(X x) =

x 0,

a > 0,

>0

Z x

f (x)dx

Media
Varianza
Sesgo
Curtosis
Funcin generadora

2.4.

=
2 = 2

1 = 2/


2
2 = 3 1 +

m(t) = (1 t)

Distribucin Beta
Densidad de probabilidad
Distribucin de probabilidad

f (x) =

( + ) 1
x (1 x)1 ,
()()

F(x) = P(X x) =

0 x 1,

Z x

f (x)dx

Media
Varianza
Sesgo
Curtosis

2 =

( + )2 ( + + 1)

p
2( ) + + 1
1 = p
( + + 2)
3( + + 1)[2( + )2 + ( + 6)]
2 =
( + + 2)( + + 3)

f.g.m. : No existe en forma cerrada

34

, > 0

2.5.

Distribucin 2 (Chi-cuadrado)
Densidad de probabilidad

Distribucin de probabilidad

f (x) =

ex/2 x(n/2)1
,
2n/2 (n/2)

F(x) = P(X x) =

x 0,

n {0, 1, 2, 3, ...}

Z x

f (x)dx

Media
Varianza
Sesgo
Curtosis
Funcin generadora

2.6.

=n
2 = 2n
p
1 = 2 2/n
2 = 3 +

12
n

m(t) = (1 2t)n/2 ,

t < 1/2

Distribucin normal
Densidad de probabilidad

1
2
2
f (x) = e(x) /2 ,
2
Z

>0

Distribucin de probabilidad

F(x) = P(X x) =

f (x)dx

Media
Varianza

=
2 = 2

Sesgo

1 = 0

Curtosis

2 = 3

Funcin generadora



2 t 2
m(t) = exp t +
2

Ejemplo 2.6.1. Se supone que los resultados de un examen tienen una distribucin normal con una media de 78
y una varianza de 36.

Y N(78, 36)

35

1. Cal es la probabilidad de que obtenga una nota mayor a 72?




Y 72 78
P(Y > 72) = P
>


= P(z > 1)

= 1 P(z < 1) = 1 P(z > 1)


= 1 0,1587 = 0,8413

2. Cal es la nota mnima aprobatoria si slo el 28 % aprueba?


Debemos hallar c tal que P(Y > c) = 0,281
0,281

2.7.



c 78
P(Y > c) = P z >
6
c 78

= 0,58 c = 81,48
6
=

Distribucin t de Student
Densidad de probabilidad

Distribucin de probabilidad


(n+1)/2
x2
1 ((n + 1)/2)
1+
,
f (x) =
(n/2)
n
n
F(x) = P(X x) =

Z x

f (x)dx

Media

=0

Varianza

2 =

Sesgo
Curtosis
Funcin generadora

n
,
n2

n3

1 = 0,

n4

2 = 3 +

6
,
n4

n5

m(t):No existe

36

n {0, 1, 2, 3, ...}

Captulo 3
Variables Aleatorias Bidimensionales

3.1.

Distribuciones de probabilidad bivariadas.

Es posible definir diversas v.a. en el mismo espacio muestral.


Definicin 6.

Si Y1 ,Y2 son dos v.a. discretas, la funcin de probabilidad conjunta (o bivariada) de Y1 y Y2 est

dada por
p(y1 , y2 ) = P(Y1 = y1

Y2 = y2 ) ,

< y1 , y2 < +.

La funcin de probabilidad conjunta p(y1 , y2 ) satisface:


1. p(y1 , y2 ) 0, para toda y1 , y2
2. p(y1 , y2 ) = 1.
y1 ,y2

Definicin 7. La funcin de Distribucin conjunta (o bivariada) F(y1 , y2 ) de dos v.a. Y1 y Y2 est dada por:
F(y1 , y2 ) = P(Y1 y1 ,Y2 y2 ),

< y1 , y2 < +.

Adems
F(y1 , y2 ) =

y1

y2

p(t1 ,t2 ),

si Y1 y Y2

son discretas

t1 = t2 =

Ejemplo: En cierto supermercado hay 3 cajas registradoras. Dos clientes llegan a ellas en diferentes momentos,
cuando no hay otros clientes. Cada cliente elige independientemente una caja al azar. Sea
Yi : el nmero de clientes que eligen la caja i,

Yi = 0, 1, 2 (2 clientes)
37

i = 1, 2, 3

a) Encuentre la distribucin conjunta de Y1 y Y2 .


b) Calcular

F(1, 2),

F(1 5, 2) y F(5, 7)

Solucin:
) El espacio muestral consiste en que dos clientes eligen una de las 3 cajas, as # puntos es 3 3 = 9,


S = {c1 , c1 }, {c1 , c2 }, {c1 , c3 }, {c2 , c1 }, {c2 , c2 }, {c2 , c3 }, {c3 , c1 }, {c3 , c2 }, {c3 , c3 }

) Cada par {ci , c j } = {i, j} representa el evento en que el 1er cliente elige la caja i y el 2do cliente elige la caja
j; i, j = 1, 2, 3.
1
) Cada punto en S tiene la misma probabilidad .
9
a) Debemos hallar p(y1 , y2 ) donde y1 , y2 = 0, 1, 2
Caja Seleccionada
Y1 ,Y2

Cliente 1

Cliente 2

c1

c1

c1

c2

c1

c3

c2

c1

c2

c2

c2

c3

c3

c1

/ =0
P(2, 1) = P(0)

c3

c2

/ =0
P(2, 2) = P(0)

c3

c3

P(0, 0) = P({c3 , c3 }) =

1
9

P(0, 1) = P({c2 , c3 } o {c3 , c2 }) =


P(0, 2) = P({c2 , c2 } =

1
9

P(1, 0) = P({c1 , c3 } o {c3 , c1 }) =


P(1, 1) = P({c1 , c2 } o {c2 , c1 }) =
/ =0
P(1, 2) = P(0)
P(2, 0) = P({c1 , c1 } =

2
9

1
9

2
9
2
9

38

La tabla anterior se construy de la siguiente manera:


p(y1 = 0, y2 = 0) = P(Y1 = 0,Y2 = 0) = P({c3 , c3 }) =

1
9

p(y1 = 0, y2 = 1) = P(Y1 = 0,Y2 = 1) = P({c2 , c3 } o {c3 , c2 }) =


p(y1 = 0, y2 = 2) = P(Y1 = 0,Y2 = 2) = P({c2 , c2 }) =

1 1 2
+ =
9 9 9

1
9

p(y1 = 1, y2 = 0) = P(Y1 = 1,Y2 = 0) = P({c1 , c3 } o {c3 , c1 }) = 2/9


p(y1 = 1, y2 = 1) = P({c1 , c2 } o {c2 , c1 }) = 2/9
p(y1 = 1, y2 = 2) = 0
p(y1 = 2, y2 = 0) = P({c1 , c1 }) =

1
9

p(y1 = 2, y1 = 1) = p(y1 = 2, y1 = 2) = 0

Y1
p(y1 ,y2 )


0

Y2 1

2
b) Calcular

F(1, 2),

1/9

2/9

1/9

2/9

2/9

1/9

0
0

F(1 5, 2) y F(5, 7)

/ =0
F(1, 2) = P(Y1 1,Y2 2) = P(0)
15

F(1 5, 2) = P(Y1 1 5,Y2 2) =

p(y1 , y2 )

Y1 =0 Y2 =0

= p(0, 0) + p(0, 1) + p(0, 2) + p(1, 0) + p(1, 1) + p(1, 2)


=

1 2 1 2 2
8
+ + + + +0 =
9 9 9 9 9
9

F(5, 7) = P(Y1 5,Y2 7)


5

p(y1 , y2 ) = 1.

Y1 =0 Y2 =0

39

Se dice que dos v.a. son continuas conjuntamente si su funcin de distribucin F(Y1 ,Y2 ) es continua en los dos
argumentos.
Sean Y1 ,Y2 v.a. continuas con funcin de distribucin conjunta F(y1 , y2 ). Si existe una funcin no

Definicin 8.

negativa f (y1 , y2 ) tal que


F(y1 , y2 ) =

Z y1 Z y2

f (t1 ,t2 )dt2 dt1

para toda < y1 , y2 < +, entonces se dice que Y1 y Y2 son v.a. continuas conjuntas. La funcin f (y1 , y2 ) se
llama funcin de densidad de probabilidad conjunta.

Propiedades de la distribucin acumulada bivariada


1. Si Y1 y Y2 son v.a. con funcin de distribucin conjunta F(y1 , y2 ), entonces
(1.1) F(, ) = F(, y2 ) = F(y1 , ) = 0
(1.2) F(+, +) = 1
(1.3) Si y1 y1

y2 y2 , entonces
F(y1 , y2 ) F(y1 , y2 ) F(y1 , y2 ) + F(y1 , y2 ) 0

2. Si Y1 y Y2 son v.a. continuas conjuntas con una funcin de densidad conjunta dada por f (y1 , y2 ), entonces:
(2.1)

f (y1 , y2 ) 0 para toda y1 , y2


Z + Z +

(2.2)

f (y1 , y2 )dy1 dy2 = 1

Observaciones:
1. Sean X y Y v.a. continuas, si existe f (x, y) se cumple para cualquier a, b, c, d que
P(a X b, c Y d) =

Z b Z d

f (x, y)dy dx
a

40

2. La funcin de densidad bivariada se encuentra diferenciando F(x, y) con respecto a x e y, es decir, f (x, y) =
2 F(x, y)
.
x y
Ejemplos:
1. Sean Y1 y Y2 dos v.a. continuas f.d.p.c. dada por

(y1 + y2 ) ; 0 y1 1, 0 y2 1
f (y1 , y2 ) =

0,
e.c.o.c.
z = y1 + y2 , entonces si y1 = 0, z = y2 y si y2 = 0, z = y1 .
Determinar la funcin de distribucin acumulativa conjunta, y obtener:
P(Y1 1/2,

Y2 3/4)

Calcular P(Y1 +Y2 1).


Funcin de distribucin acumulativa conjunta: para 0 y1 1, 0 y2 1

Z y1 
V 2 y2
(u + v)dv du =
(uv +
du
2 0
0
0

 02
Z y1 
y1
y2
u
=
y2 + 2 u
u y2 + y22 du =
2
0
0
 2
 2
y21
y22
y1 + y2
= y2 + y1 = y1 y2
2
2
2

 Z 1/2 Z 3/4
1
3
* P Y1 , Y2
=
f (y1 , y2 )dy2 dy1
4
0
0
 2
 
3
1
1 3
1 3 2+4
3 10
15
=F
,
=
=
=
2 4
2 4
2
16 8
64
Z y1 Z y2

F(y1 , y2 ) =

P(Y1 +Y2 1)
=

Z 1 Z 1y1

(y1 + y2 )dy2 dy1



y2 1y1
dy1
=
y1 y2 + 2
2 0
0


Z 1
Z
(1 y1 )2
1 1
=
y1 (1 y1 ) +
dy1 =
(2y1 2y2 + y21 2Y1 + 1) dy1
2
2 0
0




Z
y3 1 1
1
1
1 2 1
1 1
=
(1 y21 )dy1 =
y1 1
=
1
= = .
2 0
2
3
2
3
2 3 3
0
Z0 1  0

41

2. La densidad conjunta de
Y1 : Nivel de gasolina que alcanza el tanque cuando se abastece a principio de semana y
Y2 : Proporcin del combustible que vende durante la semana, est dada por:

3y1 , 0 y2 y1 1
f (y1 , y2 ) =

0,
e.c.o.c.
a) Hallar F(1/2, 1/3)
b) Calcular P(y2

y1
)
2
1
1
F(1/2, 1/3) = P(Y1 ,Y2 )
2
3

F(1/2, 1/3) =

Z 1/2 Z y1

(I)

3y1 dy2 dy1

Z 1/3 Z y1

(II)

Z 1/2

(I) : F(1/2, 1/3) =


0

1/3
1/3
Z 1/2 Z 1/3

3y1 dy2 dy1 +

3y2 dy1

1/2

Z 1/2 Z y1

Z 1/2
1/3

1/3

3y1 dy2 dy1

3y1 dy2 dy1

3y1 (y2 ]1/13 dy1

Z 1/2



1
dy1
3y1 y1
3
1/3
0

1


y21 /2 1
1
1 1
1
1
3
= y1
=

+
8
2 1/3 8
8 8 27 18
= y31

1
1
1
486 144 216
+

=
= 0 10648
8 27 18
3888

 Z 1 Z y /2

1
Y1
P Y2
=
3y1 dy2 dy1
2
0
0
1
Z 1
3 2
1
1
=
y1 dy1 = y31 = .
2
2
0 2
0
3. En una empresa hay 9 ejecutivos (4 casados, 3 solteros, 2 divorciados). Tres de ellos sern seleccionados al
azar para un ascenso. Si Y1 : # de ejecutivos casados y Y2 : # de ejecutivos solteros entre los tres elegidos para
el cargo, hallar la distribucin de probabilidad conjunta de Y1 ,Y2 .
Y1 ,Y2

son v.a. discretas

as

p(y1 , y2 ) = P(Y1 = y1 ,Y2 = y2 );


42

y1 , y2 = 0, 1, 2, 3.

9
3 = 84,

El nmero de formas de escoger 3 personas de 9 es

es decir #S = 84.

p(0, 0) = P(Y1 = 0,Y2 = 0) =P() = 0


p(1, 0) = P(Y1 = 1,Y2 = 0) = P(1 casado, 0 soltero, 2 divorciados)
4 3 2
4
= 1 09 2 =
84
3
4 3 2
24
p(1, 1) = P(Y1 = 1,Y2 = 1) = P(1c, 1s, 1d) = 1 19 1 =
84
3
4 3 2
12
p(1, 2) = P(1c, 2s, 0d) = 1 92 0 =
84
3
/ =0
p(1, 3) = P(0)
p(2, 0) = p(2c, 0s, 1d) =
p(2, 1) = P(2c, 1s, 0d) =

4 3
2 0
9
3
4 3
2 1
9
3

2
1
2
0

12
84

18
84

4
84

/ =0
p(2, 2) = P(2, 3) = P(0)
4 3 2
p(3, 0) = P(3c, 0s, 0d) =

0 0
9
3

/ =0
p(3, 1) = p(3, 2) = p(3, 3) = P(0)
4 3 2
3
P(0, 1) = 0 1 2 =
84
84
4 3 2
6
0 2 1
=
P(0, 2) =
84
84
4 3 2
1
P(0, 3) = 0 3 0 =
84
84

Y1

Y2
1

3/84

6/84

1/84

4/84

24/84

12/84

12/84

18/84

4/84

43

3.2.

Distribuciones de Probabilidad Marginal

Definicin 9.

a) Sean Y1 y Y2 v.a. conjuntas discretas con funcin de probablidad conjunta p(y1 , y2 ). Entonces,

las funciones de probabilidad marginal de Y1 y Y2 , respectivamente, estn determinadas por:


p1 (y1 ) = p(y1 , y2 ) y

p2 (y2 ) = p(y1 , y2 )

y2

y1

b) Sean Y1 y Y2 v.a. continuas con funcin de densidad conjunta f (y1 , y2 ). Entonces, las funciones de densidad
marginal de Y1 y Y2 , respectivamente, estn determinadas por:
Z +

f1 (y1 ) =

Z +

f (y1 , y2 )dy2

f2 (y2 ) =

f (y1 , y2 )dy1

Ejemplo: Usar los ejemplos anteriores para hallar las funciones marginales de y1 y y2 .
En el ejemplo 1:

f (y1 , y2 ) = y1 + y2 , 0 y1 , y2 1. Y1 ,Y2 son v.a. continuas


Z 1

f1 (y1 ) =



y22 1
1
= y1 + ; 0 y1 1
(y1 + y2 )dy2 = y1 y2 +
2 0
2

Z 1

f2 (y2 ) =


(y1 + y2 )dy1 =

y21
+ y1 y2
2

1
=
0

1
+ y2 ; 0 y2 1
2

En el ejemplo de las cajas

registradoras, Y1 ,Y2 son discretas.


4

4/9 si y1 = 0
, y2 = 0

4
p(y2 ) =
p(y1 ) = p(y1 , y2 ) =
4/9 si y1 = 1
, y2 = 1

y2
9

1 , y2 = 2
1/9 si y1 = 2
9
En el ejemplo 2:
f (y1 , y2 ) =

f1 (y1 ) =

Z y1
0

3y1

0 y2 y1 1

e.c.o.c.
y1

3y1 dy2 = 3y1 y2


0

44

= 3y21 ; 0 y1 1

Z 1

f2 (y2 ) =

y2

3
3y1 dy1 = y21
2

1
=
y2

3 3 2 3
y = [1 y22 ]; 0 y2 1
2 2 2 2

En el ejemplo 3: Y1 Y2 son v.a. Discretas.

p1 (y1 ) = p(y1 , y2 ) =
y2

p2 (y2 ) = p(y1 , y2 ) =
y1

3.3.

10
84

, y1 = 0

40
84

, y1 = 1

30

84

4
84

, y2 = 2
, y1 = 3

20
84

, y2 = 0

45
84

, y2 = 1

18

84

1
84

, y2 = 2
, y2 = 3

Distribuciones de Probabilidad Condicional

Recordemos que la Ley Multiplicativa proporciona la probabilidad de la interseccin A B como:


P(A B) = P(A)P(B|A).
Ahora, si consideramos los eventos (Y1 = y1 ) y (Y2 = y2 ), representados por el evento bivariable (y1 , y2 ):
p(y1 , y2 ) = p1 (y1 ) p(y2 |y1 ) = p2 (y2 ) p(y1 |y2 ).
Definiciones:

45

1.

Si Y1 y Y2 son v.a. discretas conjuntas con f.d.p. conjunta p(y1 , y2 )) y f.d.p. marginal p1 (y1 ) y p2 (y2 ),
respectivamente, entonces la Funcin de probabilidad discreta condicional de Y1 , dado Y2 , es
p(y1 |y2 ) = P(Y1 = y1 |Y2 = y2 ) =

P(Y1 = y1 ,Y2 = y2 )
p(y1 , y2 )
=
,
P(Y2 = y2 )
p2 (y2 )

siempre y cuando p2 (y2 ) > 0.


2.

Si Y1 y Y2 son v.a. continuas conjuntas con f.d. conjunta f (y1 , y2 ), entonces la funcin de distribucin
condicional de Y1 , dado Y2 = y2 es
F(y1 |y2 ) = P((Y1 y1 )|Y2 = y2 ).
Esta es una funcin de y1 para un valor fijo de y2 .

3.

Sea Y1 y Y2 v.a. continuas conjuntas con densidad conjunta f (y1 , y2 ) y densidad marginales f1 (y1 ) y f2 (y2 )
respectivamente. Para cualquier y2 tal que f2 (y2 ) > 0, la densidad condicional de Y1 , dado Y2 = y2 , est dada
por
f (y1 |y2 ) =

f (y1 , y2 )
.
f2 (y2 )

Anlogamente para cualquier y1 tal que f1 (y1 ) > 0, la densidad condicional de Y2 , dado Y1 = y1 , est dada
por
f (y2 |y1 ) =

f (y1 , y2 )
.
f1 (y1 )

Observemos que:
F(y1 |y2 ) = P(Y1 y1 |Y2 = y2 ) =
F(y2 |y1 ) = P(Y2 y2 |Y1 = y1 ) =

Z y1

Z Y2

f (y1 |y2 )dy1


f (y2 |y1 )dy2 .

Ejemplos:
4.

En una caja se tiene 4 fichas, cada una marcada con dos nmeros as, (3,4), (1,0), (1,4), (2,0). Se definen
las v.a.

46

Y1 : El primer nmero de una ficha extrada al azar.


Y2 : El segundo nmero de esa ficha.
La f.d.p. conjunta de Y1 y Y2 est dada por
p(Y1 ,Y2 ) =

1
4

para (Y1 ,Y2 ) = (3, 4); (1, 0); (1, 4); (2, 0)

Calcular las probabilidades condicionales de Y1 dados los valores de y2 :


Solucin:

p(1, 0) + p(1, 4), y1 = 1

p1 (y1 ) = p(y1 , y2 ) = p(y1 , 0) + p(y1 , 4) =


P(2, 0),
y1 = 2

y2

p(3, 4),
y1 = 3

p2 (y2 ) = p(y1 , y2 ) = p(1, y2 ) + p(2, y2 ) + p(3, y2 ) =


y1

p(1, 0) + p(2, 0) , y2 = 0

p(1, 4) + p(3, 4)

y2 = 4

* Las marginales estn dadas por:

1/2

p1 (y1 ) = p(y1 , y2 ) =
1/4

y2

1/4

p2 (y2 ) = p(y1 , y2 ) =
y1

, y1 = 1
y1 = 2

1/2

, y1 = 1

1/4

, y2 = 2, 3

y1 = 3

1/2 , y2 = 0

1/2 , y = 4
2


=

1
2

* Las condicionales de Y1 dado y2 :


Para y2 = 0
p(1, 0) 1/4 1
=
=
1/2
p2 (0)
2
p(2, 0) 1/4 1
p(Y1 = 2|y2 = 0) =
=
=
1/2
p2 (0)
2

p(Y1 = 1|y2 = 0) =

Para y2 = 4
p(Y1 = 1|y2 = 4) =

p(1, 4) 1/4 1
p(3, 4) 1
=
= ; P(Y1 = 3|Y2 = 4) =
=
1
p2 (4)
/2 2
p2 (4)
2
47

, y2 = 0, 4

p(y1 |y2 ) =

p(y1 |y2 = 0) = 1/2

para y1 = 1, 2

p(y |y = 4) = 1/2
1 2

para y1 = 1, 3

* La condicional
de Y2 dado y1 :

p(y2 |y1 = 1) = 1/2

p(y2 |y1 ) =
p(y2 |y1 = 2) = 1

p(y2 |y1 = 3) = 1

5.

para y2 = 0, 4
para

y2 = 0

para

y2 = 4

p(y2 = 0|y1 = 1) =

p(1, 0) 1/4 1
=
=
1/2
p1 (0)
2

p(y2 = 4|y1 = 1) =

p(1, 4) 1/4 1
=
=
1/2
p1 (1)
2

p(y2 = 0|y1 = 2) =

p(2, 0) 1/4
=1
=
1/4
p1 (2)

p(y2 = 4|y1 = 3) =

p(3, 4) 1/4
=
=1
1/4
p1 (3)

Dada la siguiente funcin de densidad de probabilidad conjunta

6(1 y2 )
, 0 y1 y2 1
f (y1 , y2 ) =

0
, e.c.o.c.
a) Hallar las funciones de densidad marginales de Y1 y Y2 .
b) Encontrar P(Y2 1/2|Y1 3/4)
c) Encontrar la funcin de densidad condicional de Y1 dado Y2 = y2
d) Encontrar la funcin de densidad condicional de Y2 dado Y1 = y1
e) Encontrar P(Y2 3/4|Y1 = 1/2)
Solucin:

48


1
6
6(1 y2 )dy2 = 6y2 y22
2
y1
y1
6 2
= 6 3 6y1 + y1 = 3 6y1 + 3y21
2
Z 1

a)

f1 (y1 ) =

= 3(y21 2y1 + 1) = 3(y1 1)2 , 0 y1 1.


f2 (y2 ) =

Z y2
0

y2
6(1 y2 )dy1 = 6y1 (1 y2 ) = 6y2 (1 y2 ), 0 y2 1.
0

2(1 y2 )
6(1 y2 )
f (y1 , y2 )
=
, y1 y2 1
=
d) f (y2 |y1 ) =
2
f1 (y1 )
3(y1 1)
(1 y1 )2
f (y1 , y2 ) 6(1 y2 )
1
c) f (y1 |y2 ) =
=
= , 0 y1 y2
f2 (y2 )  6(1 Z 1y2 ) y2


1
3
1
=
f y2 |y1 =
e) P Y2 Y1 = /2
dy2
4
2
3/4
1
Z 1
9
=
8(1 y2 )dy2 = (8y2 4y22
= 46+
4
3/4
3/4
1
=
4

3
1


 P Y1 ,Y2
1
3
4
2


b) P Y2 Y1
=
3
2
4
P Y1
4


Z 1/2 Z y2
1
3
P Y1 ,Y1
=
6(1 y2 )dy1 dy2
4
2
0
0
y2
Z 1/2
Z 1/2
(6y2 6y22 )dy2
=
6y1 (1 y2 ) dy2 =
0
0
1 0

6 2 6 3 /2 3 2 1
= =
y y
=
2 2 3 2 0
4 8 2



Z 3/4
Z 3/4
3
P Y1
=
f1 (y1 )dy1 =
3(y1 1)2 dy1
4
0
0

1/4 
Z 1/4
1 3
2
3
=
3u du = u
=
(1)3
4
1
1
63
1
= +1 =
64
64

1/2
1
64
32
3
P(Y2 Y1 ) =
=
= .
63/64
2
4
2(63) 63

49

Otra forma:

 Z 1/2 Z 1/2
1/2
Z 1/2 
y2
3
1
dy1
P Y1 ,Y2
=
6(1 y2 )dy2 dy1 =
6 y2 2
4
2
2
0
y1
0
y1



 2
1/2
Z 1/2   
y3
y2
y
9
3
6 y1 1 dy1 = y1 6 1 1
=
6
8
2
4
2
6
0
0


9
1
1
9 6 1 4 1
= 6

= + = =
8
8 48
8 8 8 8 2

3.4.

Variables aleatorias independientes

Recordemos que dos eventos A y B son independientes si P(AB) = P(A).P(B)


Definicin 10.

Si Y1 tiene una funcin de distribucin F1 (y1 ), Y2 tiene una funcin de distribucin

F2 (y2 ), y Y1 ,Y2 tienen una funcin de distribucin conjunta F(y1 , y2 ). Entonces Y1 y Y2 se dicen independientes si y slo si F(y1 , y2 ) = F1 (y1 ).F2 (y2 ) para cada (y1 , y2 ) de nmeros reales.
Si Y1 y Y2 son v.a. discretas con f.d.p. conjunta p(y1 , y2 ) y funciones marginales p1 (y1 ) y p2 (y2 ),
respectivamente, entonces la relacin anterior es verdadera si y slo si p(y1 , y2 ) = p1 (y1 ).p2 (y2 ),

los # reales (y1 , y2 ).


Si Y1 y Y2 son v.a. discretas con f.d.p. conjunta f (y1 , y2 ) y las densidades marginales f1 (y1 ) y f2 (y2 ),
respectivamente, la relacin anterior es verdadera si y slo si f (y1 , y2 ) =) f1 (y1 ). f2 (y2 ),
reales (y1 , y2 ).
Si Y1 y Y2 no son independientes, se dice que son dependientes.
Ejemplos: Usemos los ejemplos 3 y 5 para ver si las v.a. Y1 y Y2 son independientes o no.
Ejemplo 3:
24
10
45
= 0,2857, p1 (1) =
y p2 (1) =
84
84
84
450
p1 (1).p2 (1) =
= 0 064 Y1 y Y2 no son independientes.
7056
p(1, 1) =

50

los #

Ejemplo 5:
f (y1 , y2 ) = 8(1 y2 ) 0 y1 y2 1
f1 (y1 ) = 3(Y1 1)2
f2 (y2 ) = 6y2 (1 y2 ), as f1 (y1 ). f2 (y2 ) = 18y2 (1 Y2 )(y1 1)2 .
Como f1 (y1 ). f2 (y2 ) 6= f (y1 , y2 ),Y1 y Y2 son dependientes

Ejemplo 6:
En un supermercado dos clientes estn esperando para pagar sus compras en el mostrador I y un cliente en el
mostrador II. Sean Y1 y Y2 el # de clientes que compran ms de 50 dlares en comestibles en los mostradores
respectivos. Suponga que Y1 y Y2 son dos v.a. binomiales independientes con la probabilidad de que un cliente
gaste ms de 50 dlares igual a 0.2 para el mostrador I y 0.3 para el mostrador II.
a) Obtener la distribucin de probabilidad conjunta para Y1 y Y2 .
b) Calcular la probabilidad de que no ms de uno de los tres clientes gaste ms de 50 dlares.
Solucin:
Yi : Nro. de clientes que compran ms de 50$ en el mostrador i,

y1

y2

i = 1, 2

Y1 Bin(2, 0 2) p1 (y1 ) =

2
Y1
2y1
y1 (0 2) (0 8)

y1 = 0, 1, 2

Y2 Bin(1, 0 3) p2 (y2 ) =

1
Y2
1y2
y2 (0 3) (0 7)

y2 = 0, 1

a)

p(y1 , y2 ) = p1 (y1 ).p2 (y2 )



= y21 (0 2)y1 (0 8)2y2

1
y2
1y2
y2 (0 3) (0 7)

51

y1 = 0, 1, 2; y2 = 0, 1

b) B

= no ms de uno de los 3 clientes gasten ms de 50$

P(B)

= P(Y1 = 0,Y2 = 0) + P(Y1 = 0,Y2 = 1) + P(Y1 = 1,Y2 = 0)


= p(0, 0) + p(0, 1) + p(1, 0)



2
2
2
2 1
2 1
0 (0 8) 0 (0 7) + 0 (0 8) ( 1 (0 3) + 1 (0 2)(0 8)

= (0 64)(0 7) + (0 64)(0 3) + 2 (0 112)


= 0 448 + 0 192 + 0 224 = 0 864

Ejemplo 7: Sea
f (y1 , y2 ) =

4y1 y2 , 0 y1 1; 0 y2 1

0,

e.c.o.c

Demuestre que Y1 y Y2 son independientes.

Solucin:
y22
2

1

y2
4y1 y2 dy1 = 4y2 1
2

1

Z 1

f1 (y1 ) =

Z 1

f2 (y2 ) =

4y1 y2 dy2 = 4y1

= 2y1 , 0 y1 1
0

= 2y2 , 0 y2 1
0

por lo tanto
f (y1 , y2 ) = f1 (y2 ). f2 (y2 )
Teorema 14.

Sean Y1 y Y2 v.a. con una densidad conjunta f (y1 , y2 ), que es positiva si y slo si a y1

b, c y2 d, para las constantes a,b,c y d, y f (y1 , y2 ) = 0 en cualquier otro punto. Entonces Y1 y Y2 son v.a.
independientes si y slo si f (y1 , y2 ) = g(y1 ).h(y2 ) en donde g(y1 ) es slo una funcin no negativa de y1 y h(y2 ) es
slo una funcin no negativa de y2 .
Ejemplos:

52

1. Y1 y Y2 tienen a f (y1 , y2 ) =

2y1 , 0 y1 1; 0 y2 1

0,
Y1 y Y2 son independientes?

e.c.o.c.

Observamos que
f (y1 , y2 ) es positiva 0 y1 1; y 0 y2 1
f (y1 , y2 ) = g(y1 ).h(y2 ) en donde g(y1 ) = 2y1 y h(y2 ) = 1. Luego, por teorema, Y1 y Y2 son independientes.

2. Y1 y Y2 tienen a f (y1 , y2 ) =

3y1 , 0 y2 y1 1

0,

e.c.o.c.

Ac Y1 y Y2 son dependientes, ya que f (y1 , y2 ) es positiva 0 y2 y1 1 y no existen constantes a,b,c y


d tales que la densidad sea positiva en la regin a y1 b; c y2 d.
No se puede aplicar el teorema.

3.5.

Valor Esperado de una Funcin de Variables Aleatorias

Definicin 11.

Sea g(Y1 ,Y2 , ...,Yk ) una funcin de las v.a. Y1 , ...,YK , que tienen una funcin de probabilidad

p(y1 , y2 , ..., yk ) . Entonces, el valor esperado de g(Y1 ,Y2 , ...,Yk ) es


E[g(Y1 , ...,Yk )] = g(y1 , ...yk ).p(y1 , ..., yk ).p(y1 , ..., yk )
yk

y2 y1

Si Y1 , ...,Yk son v.a. continuas con la funcin de densidad conjunta f (y1 , ...yk ), entonces
Z

E[g(Y1 , ...,Yk )] =

...
Yk

Y2

Y1

g(y1 , ..., yk ). f (y1 , ..., yk )dy1 dy2 ...dyk

Teoremas:
1. Sea c una constante. Entonces E(c) = c.

53

2. Sea g(y1 , y2 ) una funcin de v.a. Y1 y Y2 , y sea c una constante. Entonces


E[c g(y1 , y2 )] = cE[g(y1 , y2 )].

3. Sean Y1 y Y2 v.a. con f.d.d. conjunta f (y1 , y2 ), y sean g1 (Y1 ,Y2 ), g2 (Y1 ,Y2 ), ..., gk (Y1 ,Y2 ) funciones de Y1 y Y2 .
Entonces
E[g1 (Y1 ,Y2 ) + ... + gk (Y1 ,Y2 )] = E[g1 (Y1 ,Y2 )] + ... + E[gk (Y1 ,Y2 )]
4. Sean Y1 y Y2 v.a. independientes con f.d.d. conjunta f (y1 , y2 ). Sea g(Y1 ) y h(Y2 ) funciones de Y1 y Y2 ,
respectivamente. Entonces
E]g(Y1 ).h(Y2 )] = E[g(Y1 )].E[h(Y2 )]
siempre y cuando los valores esperados existen.
Ejemplo 8:

En cierto proceso para elaborar una sustancia qumica, el producto resultante contiene dos tipos de

impurezas. En una muestra especfica de este proceso, Y1 denota una proporcin de impureza en la muestra y Y2
la proporcin de la impureza tipo I entre todas las impurezas encontradas. Supngase que se puede elaborar un
modelo de la distribucin conjunta de Y1 y Y2 mediante la funcin de densidad de probabilidad siguiente:

2(1 y1 ); 0 y1 1; 0 y2 1
f (y1 , y2 ) =

0
en c.o.c.
a) Encuentre el valor esperado de la proporcin de impurezas tipo I en la muestra (Por definicin).
b) Entontrar E(Y1 ,Y2 ) (usando teoremas).
Solucin:
a) Ntese que
Y1 : Es la proporcin de impurezas en la muestra, y
Y2 : Es la proporcin tipo I en relacin al total de las impurezas en la muestra.
As,
54

Y1 Y2 : Es la proporcin de impurezas tipo I en la muestra entera,


entonces debemos hallar E(Y1 ,Y2 ).
Z 1Z 1

Z 1

y1 y2 ,2(1 y1 )dy2 dy1


0
0

y2 y3 1 1 1 1
= 1 1 = =
2
3 0 2 3 6

E(Y1 ,Y2 ) =

Se espera que la muestra contenga

=2
0

Y1

y22
(1 y1 )]10 dy1 =
2

Z 1
0

y1 (1 y1 )dy1

1
de impureza tipo I.
6

b) f (y1 , y2 ) es positiva en 0 y1 1; 0 y2 1 (se puede usar teorema).


Z 1

f1 (y1 ) =

Z 1

f2 (y2 ) =

2(1 y1 )dy2 = 2y2 (1 y1 )]10 = 2(1 y1 );


2(1 y1 )dy1 = 2y1 y21 ]10 = 1;

0 y1 1

0 y2 1.

Luego,
Z 1

E(Y1 ) =

1
y21 2y31
2 1
= 1 =
Y1 2(1 y1 )dy1 = 2
2
3
3
3
0

Z 1
y2 1 1
=
E(Y2 ) =
y2 dy2 =
2 0 2
0

como f (y1 , y2 ) = f (y1 ) f (y2 ), entonces Y1 y Y2 son independientes.

1 1 1
E(Y1 ,Y2 ) = E(Y1 ).E(Y2 ) = . =
3 2 6

Ejemplo 9: Sean Y1 ,Y2 v.a. con f.d. conjunta

f (y1 , y2 ) =

3y1 , 0 y2 y1 1

0,

e.c.o.c

(dada en el ejemplo 2). Consideremos la v.a. Y1 Y2 que denota la cantidad proporcional de gasolina que queda al
final de la semana. Hallar E(Y1 Y2 ).

Solucin: Haciendo g1 (Y1 ,Y2 ) = Y1 y g2 (Y1 ,Y2 ) = Y2 tenemos por teorema que:
E[g1 (Y1 ,Y2 ) + g2 (Y1 ,Y2 )] = E[g1 (Y1 ,Y2 )] + E[g2 (Y1 ,Y2 )]
55

es decir
E(Y1 Y2 ) = E(Y1 ) + E(Y2 ) = E(Y1 ) E(Y2 ).
Ahora
Z +

Z 1

E(Y1 ) =

y1 f1 (y1 ) dy1 =

1
3
3
= y41 =
4
4
0
Z +

E(Y2 ) =
=

y1 (3y21 )dy1

Z 1

y2 f2 (y2 )dy2 =

3 y22 3 y42

2 2 2 4

1
=
0


y2


3
2
(1 y2 ) dy2
2

3 3 3
=
4 8 8

E(Y1 Y2 ) =

3 3 3
= .
4 8 8

Otra for ma de calcular E(Y1 ) y E(Y2 ) sin usar las marginales


Z + Z +

Z 1 Z y1

E(Y1 ) =

y1 f (y1 , y2 )dy2 dy1 =


y1 (3y1 )dy2 dy1

0 0
1
y1 Z 1
Z 1
3
3
=
3y21 (y2 ) =
3y31 dy1 = y41 =
4
4
0
0
0
0
Z + Z +

Z 1 Z y1

E(Y2 ) =

y2 f (y1 , y2 )dy2 dy1 =


y2 (3y1 )dy2 dy1

0 0


Z 1
Z 1
y2 y1
3 3
3 y41 1 3
=
y1 dy1 =
=
3y1 2 dy1 =
2 0
2 4 0 8
0 2
0

3.5.1.

Valores Esperados Condicionales


Si Y1 y Y2 son dos v.a. cualesquiera, el valor esperado condicional de Y1 dado que Y2 = y2 , se

Definicin 12.
define como:
E[Y1 |Y2 = y2 ] =

Z +

y1 f (y1 |y2 )dy

E[Y1 |Y2 = y2 ] = y1 p(y1 |y2 )

si Y1 y Y2 son conjuntamente continuas, y

si Y1 y Y2 son conjuntamente discretas

y1

56

3.5.2.

La Covarianza de dos Variables Aleatorias

Definicin 13.

La covarianza de Y1 y Y2 se define como el valor esperado de (Y1 1 )(Y2 2 ). En la notacin

de la esperanza, la covarianza ser:


Cov(Y1 ,Y2 ) = E[(Y1 1 )(Y2 2 )]
en donde
E(Y1 ) = 1
Definicin 14.

E(Y2 ) = 2 .

El coeficiente de correlacin lineal de la poblacin, , se relaciona con la covarianza y se define

como
=

Cov(Y1 ,Y2 )
,
1 2

donde 1 y 2 son las desviaciones estndar de Y1 y Y2 , respectivamente.


Observacin: El coeficiente de correlacin satisface la desigualdad 1 1.
1 o 1 implica una correlacin perfecta con todos los puntos sobre una lnea recta.
= 0 implica covarianza igual a cero y ninguna correlacin
positivo indica que Y2 crece cuando Y1 crece.
negativa indica que Y2 decrece cuando Y1 crece.
Teorema 15.

Sean Y1 y Y2 dos v.a. con una funcin de densidad conjunta f (y1 , y2 ). Entonces
Cov(Y1 ,Y2 ) = E(Y1Y2 ) E(Y1 ).E(Y2 )

En el ejemplo 8, la covarianza de Y1 y Y2 es:


Cov(Y1 ,Y2 ) = E(Y1Y2 ) = E(Y1 ).E(Y2 )
=

1 1 1
. =0
6 3 2
57

Teorema 16.

Si Y1 y Y2 son dos v.a. independientes, entonces


Cov(Y1 ,Y2 ) = 0.

Observacin: El recproco del teorema anterior no es verdadero.


Ejemplo 10: Sean Y1 y Y2 dos v.a. discretas con la distribucin de probabilidad conjunta dada por:

Y2

Y1
0

1
0
1

1/16

3/16

1
1/16

3/16

3/16

1/16

3/16

1/16

Demuestre que Y1 y Y2 son dependientes pero con la covarianza cero.

5/16

p1 (y1 ) =
6/16

5/16
Notemos que p(1, 1) =

si

y1 = 1

si

y1 = 0

si

y1 = 1

5/16

p2 (y2 ) =
6/16

5/16

si

y2 = 1

si

y2 = 0

si

y2 = 1

1
5 5
6= . = p1 (1).p2 (1)
6 16 16

Y1 y Y2 son dependientes.
Ahora,
E(Y1 ,Y2 ) = Y1 Y2 p(y1 , y2 )
y1 y2

1
3
1
3
3
+ (0)(1) + (1)(1) + (1)(0) + (0)(0)(0) + (1)(0) +
16
16
16
16
16
1
3
1
1
1
1
1
+ (1)(1) + (0)(1) + (1)(1) =

+
=0
16
16
16 16 16 16 16
= (1)(1)

E(Y1 ) = (1)5/16 + (0)6/16 + (1)5/16 = 0 y E(Y2 ) = 0

Cov(Y1 ,Y2 ) = E(Y1Y2 ) E(Y1 ).E(Y2 ) = 0.


58

3.5.3.

Valor esperado y varianza de funciones lineales de v.a.

Consideremos la siguiente funcin lineal


n

U1 = a1Y1 + a2Y2 + ... + anYn = aiY1


i=1

donde, a1 , a2 , ..., an son constantes y Y1 ,Y2 , ...,Yn son variables aleatorias


Teorema 17. Sean Y1 , ...Yn y X1 , ..., Xm v.a. con E(Yi ) = i y E(X j ) = j . Definamos
n

U1 = aiYi ,

U2 =

i=1

bj Xj

j=1

para las constantes a1 , ..., an , b1 , ...bm . Entonces se cumple lo siguiente:


n

a) E(U1 ) = ai i
i=1
n

b) Var(U1 ) = a2i Var(Yi ) + 2 ai a jCov(Yi ,Y j ) en donde la suma doble se forma (i, j) con i < j
i< j

i=1

c) Cov(U1 ,U2 ) = ai b j Cov(Yi , X j ).


i=1 j=1

Para U1 = aY

y U2 = bX

se tiene

Cov(aY, bX) = abCov(Y, X).

Ejemplo: Sean Y1 ,Y2 y Y3 v.a. en donde


E(Y1 ) = 1, E(Y2 ) = 2, E(Y3 ) = 1;

Var(Y1 ) = 1,Var(Y2 ) = 3,Var(Y3 ) = 5,

Cov(Y1 ,Y2 ) = 4,Cov(Y1 ,Y3 ) = 1/2,Cov(Y2 ,Y3 ) = 2


Hallar el valor esperado y la varianza de U = Y1 2Y2 +Y3 .

Solucin:

a1 = 1,

a2 = 2,

a3 = 1

E(U) = E(Y1 ) + (2)E(Y2 ) + E(Y3 ) = 1 2 2 + (1) = 4,

59

Var(U) = a21Var(Y1 ) + a22Var(Y2 ) + a23Var(Y3 ) + 2a1 a2Cov(Y1 ,Y2 ) + 2a1 a3Cov(y1 , y3 )


+ 2a2 a3Cov(Y2 ,Y3 )
= (1)2 (1) + (2)2 (3) + (1)2 (5) + (2)(1)(2)(4) + (2)(1)(1)(1/2) + (2)(2)(1)(2)
= 27.

3.6.

Ejemplos

1. Suponga que

Y1 ,Y2 estn distribuidas uniformemente en el tringulo cuyos vrtices son (-1,0); (1,0) y

(0,1). Calcular:


3
3
a) P Y1 ,Y2
4
4
b) P(Y1 Y2 0).
Solucin:
1
1
Ntesequeelreadeltringuloes b.h = (2)(1) = 1.
2
2
Ahora,

1 Y1 0

, Y2 1 +Y1 ,

0 Y1 1

, Y2 1 Y1

1, y2 y1 1

f (y1 , y2 ) =
y2 + y1 1

0 e.c.o.c.

, 1 Y1 0
, 0 Y1 1



Z 3/4 Z 1y1
Z 3/4 Z 1/4
3
3
a) P Y1 ,Y2
dy2 dy1
=
dy1 dy2 +
4
4
1/4
0
Y 1
0

Z 3/4  2
Z 3/4
5
=
(1 y1 )dy1
y2 dy2 +
4
1/4
0

3

3
y2 /4
y2 /4
5
= y2 2
+ y1 1
4
2 0
2 1/4

60

b) P(Y1 Y2 0)
=

Z 1/2 Z 1Y2
0

Z 1/2

=
0

dy1 dy2

Y2


1/2
1 1 1
(1 2y2 )dy2 = y2 y22
= =
2 4 4
0

2. En el ejemplo anterior:
a) Obtener las funciones de densidad marginales para Y1 y Y2 .
b) Calcular

1
P(Y2 > |Y1 = 1/4).
2

c)HallarE(Y1 Y2 ).
Solucin:
a)
Para
Para

f2 (Y2 ) =

Z 1y2
y2 1

1 Y1 0,
0 Y1 1,

1 dy1 = (1 y2 ) (y2 1) = 2 2y2 = 2(1 y2 ), 0 y2 1


f1 (Y1 ) =
f1 (Y1 ) =

Z 1+y1

0
Z 1y
1
0

1 dy2 = 1 +Y1

1 dy2 = 1 Y1

Y2 1 Y1

, Y1 < 0

Y2 1 Y1

, Y1 > 0

y2 1 |y1 |

y2 1 |y1 |

f1 (y1 ) = 1 |y1 | ,
f2 (y2 ) = 2(1 y2 ) ,

1 Y1 1
0 Y2 1

61

y2 1 |y1 |

Z 3/4 


1
f y2 |y1 =
dy2
4
1/2

1
Z 3/4 f y1 = , y2
4
 
=
dy2
1
1/2
f1
4
Z 3/4
1
dy2
=
1/2 3/4
3/4
Z 3/4
4
4
=
dy2 = y2
3
1/2 3
1/2


4 3 1
4 1 1

=
= . =
3 4 2
3 4 3

1
b) P(Y2 > |Y1 = 1/4) =
2

c) E(Y1Y2 ) =

Z 1 Z 1y2
0

Z 1

=
0

y2 1

Z 1

Y1Y2 dy1 dy2 =

y2

(1 y2 )2 (y2 1)2
dy2
2

(1 y2 )2 (1 y2 )2
y2
dy2 = 0
2

3. Al gerente de un restaurante de comida rpida le interesa el comportamiento conjunto de las variables aleatorias:
Y1 : tiempo total entre la llegada de un cliente al rest. y su salida a la ventanilla de servicio.
Y2 : Tiempo que el cliente espera en la formacin antes de llegar a la ventanilla de servicio.
Como Y1 incluye el tiempo que el cliente espera en la formacin, tenemos que Y1 Y2 . La distribucin de las
frecuencias relativas de los valores observados de Y1 y Y2 puede representarse por el modelo de la funcin
de densidad de probabilidad (con el tiempo medido en minutos):

ey1 , 0 y2 y1 <
f (y1 , y2 ) =

0
, e.c.o.c.
a)

Obtener P(Y1 < 2,Y2 > 1).

b)

Calcular P(Y1 2Y2 ).

c)

Si han transcurrido 2 min. entre la llegada de un cliente al rest. y su salida, calcular la probabilidad de

que haya esperado menos de 1 min. para llegar a la ventanilla de servicio.


d)

Hallar E(Y1 Y2 ) y Var(Y1 Y2 ).

Solucin:
62

a)

Obtener P(Y1 < 2,Y2 > 1)


Z 2Z 2

P(Y1 < 2,Y2 > 1) =

y1

e
1

y2

Z 2

y2

[e
1

Z 2

dy1 dy2 =

y1

e ]dy2 = e

2
dy2
y2

y2

2

e y2
1

= e2 2e2 + e1 + e2 = e1 e2

b)

Calcular P(Y1 2Y2 )


P(Y1 2Y2 ) =

Z + Z 1/2Y1
0

ey1 dy2 dy1 =

Z +
0

y2 ey1

1/2Y1
dy1
0


+ Z +

1
y1
y1
y1 e dy1 = (y1 e
=
+
e dy1
2
2
0
0
0


1
lm (b eb ) + lm [eb + 1]
=
b+
2 b+
Z +
1

y1

1
1
= (1) =
2
2
c)

Debemos calcular P(Y2 < 1|Y1 = 2).

ey1
1
f (y1 , y2 )
=
= , 0 y2 y1
f1 (y1 )
y1 ey1
y1
y1
Z y1
y1
y1
f1 (y1 ) =
e dy2 = y2 e
= y1 ey1 , 0 y1 < +
f (y2 |y1 ) =

f (y2 |y1 = 2) =

f (2, y2 )
e2
1
= 2 =
f1 (2)
2e
2

P(Y2 < 1|Y1 = 2) =


d)

Z 1
1
0

1
dy2 = .
2

Notemos que:
Z +

f2 (y2 ) =

y2

ey1 dy1 = ey1

+
y1

63

= ey2 , 0 y2 < +

por lo tanto, Y1 y Y2 son dependientes.


Y1 Gam( = 2 y = 1) f1 (Y1 ) = Y1 ey1 , 0 Y1 < +,
adems E(Y1 ) = 2(1) = 2,Var(Y1 ) = 2 = 2
Y2 Gam( = = 1) f2 (Y2 ) = ey2 , 0 Y2 < +
adems E(Y2 ) = 1,Var(Y2 ) = 1

E(Y1 Y2 ) = E(Y1 ) E(Y2 ) = 2 1 = 1


Var(Y1 Y2 ) = Var(Y1 ) +Var(Y2 ) 2 Cov(Y1 ,Y2 )

Z +

E(Y1 Y2 ) =

=
0

Z y1
0

Y1 Y2 ey1 dy2 dy1 =

Z +
1 3 y1
Y1 e dy1
0

(4)14
(4 1)!
=
=
3
2
2
Cov(Y1 ,Y2 ) = E(Y1Y2 ) E(Y1 )E(Y2 )
= 3 (2)(1) = 1

3.7.

Var(Y1 Y2 ) = 2 + 1 2(1) = 1

Ejercicios Propuestos

1. Dos contratos de obras de construccin se otorgan aleatoriamente a una o ms de las compaas A, B, o


C. Sea Y1 la cantidad de contratos concedidos a la compaa A y Y2 la cantidad de contratos otorgados a la
compaa B. Recuerde que cada empresa puede recibir 0, 1 o 2 contratos.
a) Encuentre la funcin de probabilidad conjunta de Y1 y Y2 .
b) Calcule F(1, 0).
2. Tres monedas se lanzan al aire de manera independiente. Una de las variables de inters es Y1 , el nmero de
caras: Y2 representa la cantidad de dinero que se gana en una apuesta de la siguiente manera: si en el primer
64

lanzamiento sale la primera cara, usted gana un dlar, si sale en el segundo o en el tercer lanzamiento, usted
gana 2 o 3 dlares, respectivamente; si no aparece ninguna cara, pierde un dlar (es decir, gana -1 dlar).
a) Encuentre la funcin de probabilidad conjunta de Y1 y Y2 .
b) Cul es la probabilidad de que caigan menos de tres caras y usted gane 1 dlar o menos? [Es decir,
calcule F(2, 1).]
c) Son independientes el nmero de total de caras y las ganancias?
3. En una empresa hay nueve ejecutivos, de los cuales cuatro estn casados, tres son solteros y dos son divorciados. Tres de ellos sern seleccionados al azar para un ascenso. Si Y1 es el nmero de ejecutivos casados
y Y2 el de ejecutivos solteros entre los tres elegidos para el cargo, encuentre la distribucin de probabilidad
conjunta de Y1 y Y2 .
4. Un ingeniero ambiental mide la cantidad (por peso) de partculas contaminantes en muestras de aire de determinado volumen recogidas en dos chimeneas de una planta de energa que funciona con carbn. Una de
las chimeneas est equipada con un dispositivo de purificacin. Establezca Y1 como la cantidad de contaminantes por muestra recogida en la chimenea que no tiene el dispositivo mencionado y Y2 como la cantidad de
contaminantes por muestra recogida en la que s lo tiene. Suponga que el comportamiento de la frecuencia
relativa de Y1 y Y2 puede representarse mediante la funcin:

k, 0 y1 2, 0 y2 1,
f (y1 , y2 ) =

0, en cualquier otro punto.

2y2 y1

Es decir, Y1 y Y2 estn distribuidas uniformemente en el interior del tringulo formado por y1 = 2, y2 = 0 y


2y2 = y1 .
a) Encuentre el valor de k para el que la funcin es una funcin de densidad de probabilidad.
b) Encuentre P(Y1 3Y2 ). Es decir, determine la probablilidad de que el dispositivo de purificacin reduzca una tercera parte o ms de la cantidad de contaminantes.

65

5. Suponga que Y1 y Y2 estn uniformemente distribuidas en el tringulo formado por los puntos (1, 0), (1, 0)
y (0, 1)
a) Encuentre P(Y1 3/4,Y2 3/4).
b) Encuentre P(Y1 Y2 0).
c) Encuentre las funciones de densidad marginal de Y1 y Y2 .
d) Encuentre P(Y2 > 1/2|Y1 = 1/4).
e) Son independientes Y1 y Y2 ?
6. La funcin de densidad conjunta de Y1 y Y2 se determina por la expresin

30y1 y2 , y1 1 y2 1 y1 , 0 y1 1
2
f (y1 , y2 ) =

0,
en cualquier otro punto.
a) Encuentre F(1/2, 1/2).
b) Encuentre F(1/2, 2).
c) Encuentre P(Y1 > Y2 ).
7. Suponga que las variables aleatorias Y1 y Y2 tienen una funcin de densidad de probabilidad conjunta
f (y1 , y2 ), representada por:

f (y1 , y2 ) =

6y2 y2 , 0 y1 y2 ,
1

0,

y1 + y2 2

en cualquier otro punto.

a) Compruebe que sta es una funcin de densidad conjunta vlida.


b) Cul es la probabilidad de que Y1 +Y2 sea menor que 1?.
8. La gerencia de un establecimiento de comida rpida est interesada en el comportamiento conjunto de la
variables aleatorias Y1 que se define como el tiempo total que transcurre entre el instante en que el cliente
llega al establecimiento y el momento en que abandona la ventanilla de servicio, y Y2 , el tiempo que un
66

cliente espera formado antes de llegar a la ventanilla de servicio. Puesto que Y1 incluye el tiempo que el
cliente espera en la fila, Y1 Y2 . La distribucin de frecuencia relativas de los valores observados de Y1 y Y2
puede representarse mediante la funcin de densidad de probabilidad:

ey1 , 0 y2 y1
f (y1 , y2 ) =

0,
en cualquier otro punto.
con el tiempo medido en minutos.
a) Encuentre P(Y1 < 2,Y2 > 1).
b) Encuentre P(Y1 2Y2 ).
c) Encuentre P(Y1 Y2 1). (Note que Y1 Y2 denota el tiempo invertido en la ventanilla de servicio.)
9. Sean (Y1 ,Y2 ) las coordenadas de un punto elegido aleatoriamente dentro de un crulo unitario, cuyo centro
se ubica en el origen. Es decir, Y1 y Y2 tienen una funcin de densidad conjunta representada por:

1 , y21 + y22 1

f (y1 , y2 ) =

0, en cualquier otro punto.


Encuentre P(Y1 Y2 ).
10. La distribucin conjunta de Y1 , el nmero de contratos concedidos a la compaa A y Y2 , el nmero de
contratos otorgados a empresa B, se encuentra en las entradas de la siguiente tabla:
y1
y2

0
1
2

1/9
2/9
1/9

2/9
2/9
0

1/9
0
0

a) Encuentre la distribucin de probabilidad marginal de Y1 .


b) Encuentre la distribucin de probabilidad marginal de Y2 .
c) Son independientes Y1 y Y2 ? Por qu?.
67

d) Encuentre E(Y1 ).
e) Encuentre V (Y1 ).
f) Encuentre E(Y1 Y2 ).
g) Calcule Cov(Y1 ,Y2 ). Le sorprende que Cov(Y1 ,Y2 ) sea negativa? Por qu?
11. La distribucin de probabilidad conjunta de Y1 , la cantidad de ejecutivos casados, y Y2 , la cantidad de ejecutivos solteros, est determinada por la expresin
p(y1 , y2 ) =
donde y1 y y2 son enteros, 0 y1 3, 0 y2 3


4 3
2
y1 y2 3y1 y2
9
3
y

1 y1 + y2 3.

a) Encuentre la distribucin de probabilidad marginal de Y1 , la cantidad de ejecutivos casados entre los


tres elegidos para el cargo.
b) Encuentre P(Y1 = 1|Y2 = 2).
c) Si Y3 denota el nmero de ejecutivos divorciados entre los tres elegidos para el cargo, entonces Y3 =
3 Y1 Y2 . Calcule P(Y3 = 1|Y2 = 1).
d) Son independientes Y1 y Y2 ?
e) Calcule el nmero esperado de ejecutivos casados entre los tres elegidos para la promocin.
f) Calcule Cov(Y1 ,Y2 ).
12. Anteriormente estudiamos la densidad conjunta de Y1 , la cantidad de gasolina disponible a principios de
semana, y Y2 la cantidad de gasolina vendida durante la semana, determinada por

3y1 , 0 y2 y1 1
f (y1 , y2 ) =

0,
en cualquier otro punto.
a) Encuentre la funcin de densidad marginal de Y2 .
b) Para qu valores de y2 est definida la densidad condicional f (y1 |y2 )?
68

c) Cul es la probabilidad de que se venda ms de medio tanque, si ste contiene gasolina hasta tres
cuartas partes de su capacidad?
13. Dada la siguiente funcin de densidad de probabilidad conjunta

4y1 y2 , 0 y1 1, 0 y2 1
f (y1 , y2 ) =

0,
en cualquier otro punto.
a) Encuentre las funciones de densidad marginal de Y1 y Y2
b) Encuentre P(Y1 1/2|Y2 3/4).
c) Encuentre la funcin de densidad condicional de Y1 si Y2 = y2 .
d) Encuentre la funcin de densidad condicional de Y2 si Y1 = y1 .
e) Encuentre P(Y1 3/4|Y2 = 1/2).
f) Demuestre que Cov(Y1 ,Y2 ) = 0. Le sorprende que Cov(Y1 ,Y2 ) sea igual a cero? Por qu?
14. La funcin de densidad de probabilidad conjunta para Y1 , la cantidad de contaminantes por muestra recogida
en la chimenea sin sispositivo de purificacin, y para Y2 , la cantidad de contaminantes contenidos en la
muestra recogida en la que cuenta con purificador, est dada por:

1, 0 y1 2, 0 y2 1,
f (y1 , y2 ) =

0, en cualquier otro punto.

2y2 y1

a) Si la chimenea tiene dispositivo de purificacin, calcule la probabilidad de que la cantidad de contaminantes en una muestra dada sea superior a 0.5.
b) Si la cantidad de contaminantes en una muestra tomada de la chimenea con purificador es de 0.5,
calcule la probabilidad de que la cantidad de contaminante sea superior, en 1.5, a la de la chimenea sin
dispositivo de purificacin.
c) Son independientes las cantidades de contaminantes por muestra tomada en las chimeneas con y sin
dispositivos de purificacin?.
69

d) Encuentre E(Y1 ) y E(Y2 ).


e) Encuentre V (Y1 ) y V (Y2 ).
f) La variable aleatoria Y1 Y2 representa la cantidad de contaminante que podra reducirse utilizando el
dispositivo de purificacin. Determine E(Y1 Y2 ).
g) Encuentre V (Y1 Y2 ). Dentro de qu lmites esperara usted que se localizara Y1 Y2 ?.
15. Dada la funcin de densidad conjunta de Y1 y Y2 :

30y1 y2 , y1 1 y2 1 y1 , 0 y1 1
2
f (y1 , y2 ) =

0,
en cualquier otro punto.
a) Demuestre que la densidad marginal de Y1 es una densidad beta con parmetros = 2, y = 4.
b) Deduzca la densidad marginal de Y2 .
c) Deduzca la densidad condicional de Y2 dada Y1 = y1 .
d) Calcules P(Y2 > 0|Y1 = 0,75).
e) Son independientes Y1 y Y2 ?
16. Anteriormente se demostr que

f (y1 , y2 ) =

6(1 y2 ), 0 y1 y2 1

0,

en cualquier otro punto.

es una funcin de densidad de probabilidad conjunta vlida.


a) Son independientes Y1 y Y2 ?
b) Encuentre E(Y1 ) y E(Y2 ).
c) Encuentre Var(Y1 ) y Var(Y2 ).
d) Encuentre E(Y1 3Y2 ).
e) Calcule Cov(Y1 ,Y2 ).
70

17. Las variables Y1 y Y2 denotan las duraciones, en horas, de los componentes tipo 1 y 2, respectivamente, de
un sistema electrnico. La densidad conjunta de Y1 y Y2 es

(1/8)y1 e(y1 +y2 )/2 , y1 > 0, y2 > 0


f (y1 , y2 ) =

0,
en cualquier otro punto.
a) Son independientes Y1 y Y2 ?.
b) Una forma de medir la eficiencia relativa de los dos componentes consiste en calcular la razn Y2 /Y1 .
Determine E(Y2 /Y1 ).
18. Si Y1 y Y2 son variables aleatorias independientes con distribucin exponencial y media 1, calcule P(Y1 >
Y2 |Y1 < 2Y2 ).
19. Si Y1 y Y2 son variables aleatorias independientes con una distribucin uniforme en el intervalo (0, 1), determine P(Y1 < 2Y2 |Y1 < 3Y2 ).
20. Dos clientes de un supermercado hacen fila para pagar por su mercanca en las cajas 1 y 2, respectivamente.
Represente con Y1 y Y2 , el nmero de clientes que gastan ms de 50 dlares en comestibles en las diferentes
cajas. Suponga que Y1 y Y2 son variables aleatorias binomiales independientes y las probabilidades de que
un cliente en la caja 1 pague ms de $ 50 y un cliente de la caja 2 pague mas de $ 50 son de 0.2 y 0.3,
respectivamente.
a) Encuentre la distribucin de probabilidad conjunta de Y1 y Y2 .
b) Calcule la probabilidad de que a lo ms uno de tres clientes consuma ms de $50.
21. Supongamos que las variables aleatorias discretas Y1 y Y2 tiene la funcin de probabilidad conjunta
p(y1 , y2 ) = 1/3

para (y1 , y2 ) = (1, 0), (0, 1), (1, 0).

Encuentre Cov(Y1 ,Y2 ). Observe que Y1 y Y2 son dependientes (por qu?). ste es otro ejemplo de variables
aleatorias sin correlacin que no son independientes.

71

22. La funcin
f (y1 , y2 ) =

4y1 y2 , 0 y1 1,

0,

0 y2 1

en cualquier otro punto.

es una funcin de densidad de probabilidad conjunta vlida. En ejercicios anteriores establecimos que Y1 y Y2
eran independientes; adems determinamos que E(Y1 Y2 ) = 0 y encontramos el valor de Var(Y1 ). Calcule
V (Y1 Y2 ).
23. La funcin
f (y1 , y2 ) =

6(1 y2 ), 0 y1 y2 1

0,

en cualquier otro punto.

es una funcin de densidad de probabilidad conjunta vlida. Dedujimos que E(Y1 3Y2 ) = 5/4; demostramos que Cov(Y1 ,Y2 ) = 1/40. Calcule V (Y1 3Y2 ).
24. La siguiente funcin de densidad de probabilidad conjunta corresponde a las variables aleatorias Y1 y Y2 , las
cuales representan las proporciones de dos sustancias en una muestra de una mezcla de insecticida:

2, 0 y1 1, 0 y2 1, 0 y1 + y2 1
f (y1 , y2 ) =

0, en cualquier otro punto.


Una cantidad importante para los productos qumicos en cuestin es la proporcin total de qumicos Y1 +Y2
encontrada en cualquier muestra. Calcule E(Y1 +Y2 ) y V (Y1 +Y2 ).
25. Se elegir aleatoriamente un comit de tres personas de entre un grupo formado por cuatro republicanos,
tres demcratas y dos independientes. Sea Y1 y Y2 el nmero de republicanos y demcratas en el comit,
respectivamente.
a) Cul es la distribucin de probabilidad conjunta de Y1 y Y2 .
b) Encuentre las distribuciones marginales de Y1 y Y2 .
c) Calcule P(Y1 = 1|Y2 1).

72

26. Suponga que Y1 y Y2 tienen una funcin de densidad conjunta representada por

3y1 , 0 y2 y1 1
f (y1 , y2 ) =

0,
en cualquier otro punto.
a) Encuentre las funciones de densidad marginal de Y1 y Y2
b) Encuentre P(Y1 3/4|Y2 1/2).
c) Encuentre la funcin de densidad condicional de Y1 dado que Y2 = y2 .
d) Calcule P(Y1 3/4|Y2 = 1/2).
27. La duracin Y de cierto tipo de fusibles tienen una distribucin exponencial con una funcin de densidad
dada por
f (y) =

(1/)ey/ , y 0

0,

en cualquier otro punto.

a) Si dos fusibles tienen vidas tiles independientes Y1 y Y2 , entuentre su funcin de dendidad de probabilidad conjunta.
b) Uno de los fusibles del inciso a) est colocado en un sistema principal y el otro en un sistema de
emergencia que comienza a funcionar cuando falla el sistema principal. Por consiguiente, la duracin
total efectiva de los dos fusibles es de Y1 +Y2 . Calcule P(Y1 +Y2 a), donde a > 0.

73

Captulo 4
Regresin Mltiple y Correlacin

Ac estudiaremos los procedimientos inferenciales que pueden utilizarse cuando una v.a. Y denominada variable dependiente, tiene una medida que es una funcin de una o ms variables aleatorias, x1 , x2 , ...xk , designadas
Variables Independientes.
Es posible clasificar estos modelos en dos categoras,
1. Los modelos determinsticos
2. Los modelos probabilsticos
El Modelo Determinstico se denomina as porque no permite algn error en la prediccin de Y como funcin
de x. Por ejemplo, supongamos que se tiene la relacin
Y = 0 + 1 x,
donde 0 , 1 son parmetros desconocidos; cuando x = 20, Y siempre toma el valor 0 + 1 (20).
Si se utiliza el modelo para predecir Y cuando x = 20, la prediccin tendr un error desconocido, esto nos
conduce a la aplicacin de mtodos estadsticos.
Los Modelos Probabilsticos representan una descripcin ms adecuada de la realidad, adems se pueden
obtener las propiedades del error de preciccin para Y en muchos modelos probabilsticos. Ejemplo: E(Y ) =
0 + 1 x, es un modelo dodne Y = 0 + 1 x + y es una v.a. con una distribucin de probabilidad con media
cero.
Ac nos concentraremos en el conjunto de modelos denominados Modelos Estadsticos Lineales.
74

4.1.

Modelos Lineales

Si Y es la variable de respuesta y x una variable independiente, parece razonable utilizar el modelo E(Y ) =
0 + 1 x para parmetros 0 , 1 desconocidos.
Cuando se afirma tener un modelo estadstico lineal para Y , se denota que E(Y ) es una funcin lineal de los
parmetros desconocidos 0 y 1 , y no necesariamente una funcin lineal de x.
Y = 0 + 1 Ln(x) + ,

Ejemplos:

Y = 0 + 1 sen(x) + ,
Y = 0 + 1 x3 + ,
Modelo de regresin lineal simple:

(son modelos lineales)

Son aquellos modelos que expresan a E(Y ) como una funcin lineal de 0

y 1 , solamente.
Modelo de regresin lineal mltiple:

Cuando hay ms de una variable independiente de inters, digamos

x1 , x2 , ..., xk , y el modelo est dado por E(Y ) = 0 + 1 x1 +, ..., +k xk .


x1 , ..., xk son constantes conocidas, supuestamente medidas sin error en un experimento.
Definicin 15.

El Mtodo Estadstico Lineal que relaciona una respuesta Y con un conjunto de variables inde-

pendientes x1 , x2 , ..., xk tiene la forma


Y = 0 + 1 x1 +, ..., +k xk +
en donde 0 , 1 x1 +, ..., +k son parmetros desconocidos, x1 , ..., xk son constantes conocidas y es una v.a. tal
que E() = 0 y por lo tanto,
E(Y ) = 0 + 1 x1 +, ..., +k xk

4.2.

El Mtodos de los Mnimos Cuadrados

Es un procedimiento para estimar los parmetros de cualquier modelo lineal. Supngase que se desea ajustar
el modelo E(Y ) = 0 + 1 x1 , es decir, Y = 0 + 1 x1 + donde tiene E() = 0.
75

Si b
0 y b
1 son estimadores para los parmetros 0 y 1 , entonces Yb = b
0 + b
1 x es un estimador de E(Y ).
Supongamos que se tienen n observaciones apareadas (xi , yi ), y que queremos determinar la ecuacin lineal
que mejor se ajuste a las observaciones, es decir, hallar Ybi = b
0 + b
1 xi .

Este tipo de diagrama, que muestra los puntos observacionales se llama diagrama de dispersin.
El Mtodo de Mnimos Cuadrados consiste en minimizar la suma de los cuadrados de las distancias de las
observaciones a la recta ajustada. Por lor tanto,
Ybi = b
0 + b
1 xi , es el valor que se predice del i-simo valor de y (cuando x = xi ), entonces
yi ybi es la desviacin o distancia del valor observado y a partir de la recta yb. Llamaremos error a stas desviaciones,
es decir, e = yi ybi .

Definimos La suma de los Cuadrados de los Errores (SC E) como:


n
n 
2
SC E = (Yi Ybi )2 = Yi b
0 + b
1 xi .
i=1

i=1

Observacin: Si SC E tiene un mnimo , sto ocurrir para los valores b


0 y b
1 tales que:

SC E = 0
b
0

SC E = 0,
b
1

estasecuaciones son llamadas


Ecuaciones de los Mnimos Cuadrados.




0 + b
1 xi = 0
b SC E = 0
2 yi b
0
i=1

estas ecuaciones son llamadas Ecuaciones Norn





b
b

2xi yi 0 + 1 xi = 0
SC E = 0

i=1
b
1
males.
Al resolver el sistema se obtiene:
n

(xi x)(yi y)
b
1 =

i=1
n

(xi x)2
i=1

i=1

i=1

n xi yi xi yi
i=1 i=1
= i=1

2
n
n
2
n xi xi

b
0 = Y b
1 x.

76

Ejemplo 1: Ajuste una lnea recta a travs de los cinco puntos siguientes. Obtener las estimaciones para 0 y 1 .
Grafique los puntos y trace la recta ajustada para verificar los clculos.
Y

05

(n = 5)
xi

yi

xi yi

xi2

Ybi = b
0 + b
i xi

2
1
0
1
2

3
2
1
1
05

6
2
0
1
1

4
1
0
1
4

27
21
15
09
03

xi = 0

yi = 7 5

xi yi = 6

xi2 = 10

5(6) (0)(7 5)
3
b
1 =
= = 0 6
2
5(10) (0)
5


75
3
b
0 =

(0) = 1 5
5
5
Yb = 1 5 0 6 x

4.3.

Ajuste del modelo lineal mediante matrices

Supngase que tenemos el modelo lineal


Y = 0 + ! x1 +, ..., +k xk +
y hacemos n observaciones y1 , y2 , ..., yn de Y . Podemos escribir a
yi = 0 + 1 xi1 + 2 xi2 +, ..., +k xik + i

77

como

yi
,

i = 1, 2, ..., n.

Ahora definamos las matrices siguientes

1 x11
y1

1 x21
y2

, X =
Y =

..
..
..
.
.
.

1 xn1
yn
As, podemos escribir

x12
x22
..
.
xn2

x1k

x2k

,
..

xnk

,
..

..

Y = X + .

Para n observaciones de un modelo lineal simple de la forma Y = 0 + 1 x + tenemos

1
1 x1
y1

1 x2
y2
2
0

, =
y =
, X =
Y =

..
.. ..
..
.
. .
.
1

n
1 xn
yn
Notemos que para el modelo lineal simple, las ecuaciones de mnimos cuadrados para 0 y 1 dieron
n

nb
0 + b
1 xi = yi
i=1
n

b
0

i=1
n

xi + b1 xi2 = xi yi

i=1

i=1

i=1

Ahora, usando matrices

X 0X =

xi
i=1

xi

2
xi

i=1
n

X0 Y =

i=1

yi
,

xi yi
i=1
n

i=1

as podemos escribir las ecuaciones de mnimos cuadrados como

(X 0 X)b
= X 0Y

0
b
=
.
b
1

De aqu que
b
= (X 0 X)1 X 0Y.

78

Ejemplo 2: Usar el ejemplo 1 para representarlo matricialmente.

Y =

,
1

1/2

X =

1
1
1
1
1

10

5
X 0X =
0

(X 0 X)1 =

1/5

1/10

,
0

0
=

X 0Y =

b
= (X 0 X)1 X 0Y =

1/5

0 7,5

1/10
6
75/5

=
0 6

6/10

Yb = 1 5 0 6X

4.4.

Propiedades de los estimadores de Mnimos Cuadrados.

4.4.1.

Para el modelo Y = 0 + 1 x + .

1. Los estimadores b
0 y b
1 son estimadores insesgados para 0 y 1 , respectivamente, es decir,
E(b
0 ) = 0

E(b
1 ) = 1 .

Como hemos supuesto que es una v.a. tal que E() = 0, ahora aadiremos el supuesto de que Var() = 2 ,
as:
2. Var(b
1 ) =

2
(xi x)2
79

3. Se puede probar que Cov(Y , b


1 ) = 0, luego,
Var(b
0 ) = Var(Y b
1 x)
1 ) 2x Cov(Y , b
1 )
= Var(Y ) + x 2Var(b
2
2
+x2
n
(xi x)2




2
2
x2
2 1
2 (xi x) + nx
=
+
=
n (xi x)2
n (xi x)2
=

=
x 2
(xi x)2
Notemos que b
0 y b
1 se correlacionan,

2 [ xi2 ]
n (xi x)2

4. Cov(b
0 , b
1 ) =

son dependientes.

Usando la expresin matricial,

X 0X =

n
xi

xi

2
x
i

xi2

n (x1 x)2
(X 0 X)1 =

xi
n (xi x)2

C00
=
C10

xi
n (x1 x)2

1
2
(xi x)

C01

C11

Tenemos entonces que:


Var(b
0 ) = C00 2

y Var(b
1 ) = C11 2

Cov(b
0 , b
1 ) = C01 2 = C10 2 .
La varianza del trmino del error , usualmente se desconocer y utilizaremos las observaciones muestrales
para estimarlo.
Usaremos el siguiente estimador insesgado para 2
S2 =

1
1 n
(Yi Ybi ) = n 2 SC E.
n 2 i=1

80

Usando la expresin matricial


SC E = Y 0Y b
0 X 0Y
Ejemplo 3: Usando el ejemplo 2, hallar las varianzas de b
0 , b
1 y estimar 2 .

(X X)

1/5

1/10

y Var(b
1 )

SC E = Y 0Y b
0 X 0Y

= 9+4+1+1+

1
5

C01 = C10 = 0

C11 = 1/10

Var(b
0 ) = C00 2 = (1/5)2

1
= [3 2 1 1 /2]

C00 =

= C11 2 = (1/10)2

3
2
1
1
1/2

75

[1 5 0 6]

1
61
[(1 5)(7 5) + (0 6)(6)] =
14 85
4
4

= 15 25 14 85 = 0 4
b 2 = S2 =

4.4.2.

1
1
SC E =
(0 4) = 0 1333
n2
52

Para el modelo lineal de regresin mltiple.

Sea
Yi = o + 1 Xi1 + 2 Xi2 +, ..., k Xik + i ,
donde 1 , ..., n son v.a. independientes con E(i ) = 0

i = 1, 2, ..., n

Var(i ) = 2 .

Los estimadores de mnimos cuadrados estn dados por

b
= (X 0 X)1 X 0Y

siempre que exista (X 0 X)1 .

Las propiedades de estos estimadores son:


1. E(b
i ) = i ,

i = 0, 1, 2, ..., k.

2. Var(b
i ) = Cii 2 , donde Ci j es el elemento de la i-sima fila y la j-sima columna de (X 0 X)1 .
81

3. Cov(b
i , b
j ) = Ci j 2 .
Si adems, los i N(0, 2 ), i = 1, 2, ..., n
4. Cada b
i tiene una distribucin normal.
5. Un estimador insesgado de 2 es
S2 =

SC E
,
n (k + 1)

SC E = Y 0Y b
0 X 0Y

en donde

(k + 1 es el nmero de parmeros desconocidos i ).


6. La v.a.

[n (k + 1)]S2
tiene una distribucin 2 con n (k + 1) g.l. Adems, S2 y b
i
2

independientes.

4.5.

Inferencia con respecto a los parmetros

Prueba de hiptesis para i :


H0 : i = i0

versus

i > io

Ha :
i < io

i 6= io

(cola superior)
(cola inferior)
(dos colas)

Estadstico de la prueba:
T=

b
i b

io
S Cii

t > t

Regin de Rechazo t < t

|t| > t
/2
donde t se basa en [n (k + 1)] grados de libertad.

82

RR de cola superior
RR de cola inferior
RR de dos colas

i = 1, 2, ..., k son

Basados en el estadstico t dado antes, se puede obtener: Un Intervalo de confianza de (1 )100 % para
i :
p
b
i t/2 S Cii
Ejemplo 4: Refirase al ejemplo 1:
a) Presentan los datos suficiente evidencia para indicar que la pendiente 1 difiere de cero?. Use = 0 05.
b) Encuentre un intervalo de confianza del 95 % para 1
Solucin:
a) H0 : 1 = 0

vs Ha : 1 6= 0

El estadstico de la prueba (bajo H0 ): t =

b
1 10
0 6

=
S C11
0 1333 0 1

= 5 20
(n-(k+1)=5-(1+1)=3

g.l.)
Para

= 0 05,

t/2 = t0 025, 3 = 3 182

RR: | t| > t/2 = 3 182


Como el estadstico cae en RR, existe suficiente evidencia para rechazar H0 es decir, 1 6= 0.
Usando el p-valor:
p = p valor = 2P(T(3) < 5 20) = 2P(T(3) > 5 20)
< 2P(T(3) > 5 047) = 2(0 0075) = 0 015
p < 0 015 < 0 05 =

con un nivel de = 0 05

Rechazo H0 .

83

b) (1 )100 % = 95 %, el intervalo para 1 es


p
p

b
1 t/2,3 S C11 : 0 6 3 182 0 1333 0,1
0 6 0 367

0 967 < 1 < 0 233, es decir,

(0 967, 0 233) es un intervalo de confianza del 95 % para 1 .

4.6.

Prediccin de un valor particular de Y .

Notemos que Y es una v.a. no un parmetro, y la prediccin de su valor representa algo diferente del objeto de
hacer inferencia acerca de los parmetros poblacionales.
El error que se comete al predecir un valor particular de Y mediante Yb es:
e = error = Y Yb .
El errorr tiene una distribucin normal porque es funcin lineal de v.a. normales, as
E(e) = E(Y Yb ) = E(Y ) E(Yb ) = 0

Var(e) = Var(Y Yb ) = Var(Y ) +Var(Yb ) 2Cov(Y, Yb )


Y y Yb son independientes, pus Y es un valor futuro que se predice y que no se utiliz para calcular Yb , por lo tanto
Cov(Y, Yb ) = 0, luego
Var(e) = 2 [1 + a0 (X 0 X)1 a]
donde a0 = [1 x01 x02 , ..., x0k ] y x0i corresponden a valores particulares de x1 , x2 , ..., xk , respectivamente para el
modelo Y = 0 + 1 x1 , ... + k xk + .
As
Y Yb
Z= p
N(0, 1)
1 + a0 (X 0 X)1 a

84

si es desconocido y lo reemplazamos por S, la v.a.


Y Yb
t student con [n (k + 1)] g.l.
T= p
S 1 + a0 (X 0 X)1 a

Un intervalo de prediccin de (1 )100 % para Y est dado por :


Yb t/2 S

1 + a0 (X 0 X)1 a

Se espera que el error de prediccin sea


|e| = |Y Yb | t/2 S

1 + a(X 0 X)1 a

con una probabilidad de 1 .


Ejemplo 5: Prediga el valor particular de Y con 1 = 0 90, suponiendo que debe realizar el experimento que
dieron los datos del ejemplo 1, una vez ms pero con x = 3.

1

Yb = 1 5 0 6x, por lo que la prediccin de Y con x = 3 es Yb = 1 5 (0 6)(3) = 0 3. Ac, a = por
3
lo tanto,



 1/5 0
9
11

1 1
=
= 11
a0 (X 0 X)1 a = 1 3
= +
5 10 10
0 1/10
3
S=

0 1333 = 0 3651,t/2,3 = t005,3 = 2 353

El intervalo de prediccin para Y es:

0 3 (2 353)(0,3651) 1 + 1 1
0 3 1 245
(1 545, 0 945) y

4.7.

|e| = |Y Yb | 1 245.

Comparacin de Modelos.

(Estadstico de prueba para H0 : g+1 = g+2 = ... = k = 0)


Consideremos los modelos:
85

1. Y = 0 + 1 x1 + 2 x2 + ...g xg +
2. Y = 0 + 1 x1 + ... + g xg + g+1 xg+1 + ... + k xk + .
El modelo 2 contiene todos los trminos del modelo 1 (ntese que k > g). Se calculan la suma de los errores al
cuadrado SC E1 y SC E2 de los modelos 1 y 2, respectivamente.
Si suponemos que xg+1 , ..., xk realmente contribuyen con la informacin que no est en las variables x1 , x2 , ..., xg
a la prediccin de Y (al menos un g+1 , ..., k 6= 0), entonces, el modelo 2 debera predecir con menor error de
prediccin que el modelo 1.
Por lo tanto, S C E2 < S C E1 y a mayor diferencia (S C E1 S C E2 ) ms slida ser la evidencia para apoyar
Ha : Al menos un g+1 , ..., k 6= 0 y rechazar
H0 : g+1 = g+2 = ... = k = 0.
El modelo 1 se conoce como: Modelo reducido
El modelo 2 se conoce como: Modelo completo.

4.7.1.

Estadstico de la Prueba.

Se hace una particin de SC E1 :


SC E1 = SC E2 + (SC E1 SC E2 )
Si H0 : g+1 = g+2 = ...k = 0 es verdadera, entonces el modelo (1) es el correcto y S12 =

SC E1
es un
n (g + 1)

estimador insesgado de 2 = Var().


Tambin,
S22 =

SC E2
n (k + 1)

S32 =

SC E1 SC E2
kg

son estimadores insesgados de 2 estadsticamente independientes, y debemos comparar estas cantidades.


Consideremos la razn: F =

S32
.
S22

86

Si H0 : g+1 = ... = k = 0 es verdadera, entonces S32 y S22 tendrn la misma magnitud relativa y F tomar un
valor cercano a 1. Si H0 es falsa, S22 ser un estimador insesgado de 2 pero S32 aumentar. Para valores grandes de
SC E1 SC E2 , mayor ser el exceso de S32 con respecto a S22 y mayor la evidencia a favor del rechazo de H0 .
Si H0 es verdadera, entonces
SC E1
2 con [n (g + 1)] g.l.
2
SC E2
22 =
2 con [n (k + 1)] g.l.
2
SC E1 SC E2
2 con (k g) g.l.
21 =
2

23 =

Como 22 y 21 son estadsticamente independientes:

F=

S32
S22

2 21
SC E1 SC E2
kg
kg
=
=
SC E2
2 22
n (k + 1)
n (k + 1)

tiene una distribucin F con 1 = (k g) y 2 = [n (k + 1)] grados de libertad del numerador y denominador
respectivamente.
F > f .

La regin de rechazo de tamao est dada por:


Ejemplo: Considere los siguientes datos
X

1. Al ajustar una lnea recta a los datos Y = 0 + 1 X +


b
0 = 1

y b
1 = 0 7

Yb = 1 + 0 7x

(E.M.C.)

(recta ajustada) y

con

N(0, 2 ) se obtuvo

SC E = 1 1
S2 =

SC E
= 0 367
n2

2. Para ajustar una parbola a los datos, considere el modelo


Y = 0 + 1 X + 2 X 2 +

87

Ac

Y =

n = 5 obs.

,
1

(K + 1 = 3

X =

1
1
1
1
1

1 1

,
0 0

1 1

2 4

X 0X = 0

10

parmetros)

0
1
(X X) =

17/35

1/10

1/7

1/7

,
0

1/14

10

,
10 0

0 34
0

X 0Y = 7

13

As

0 571

b
= (X 0 X)1 X 0Y 0 700

0 214

Yb = 0 571 + 0 7 X + 0 214 X 2

Parbola ajustada

SCE = Y 0Y b
X 0Y = 11 10 537 = 0 463
S2 =

SCE
= 0 232
n3

Comparamos los modelos:


1. Y = 0 +
2. Y = 0 + 1 X + 2 X 2 +
Esto equivale a contrastar las hiptesis:
H0 : 1 = 2 = 0

vs

Ha : j 6= 0
88

para algn

j = 1, 2

= 1

Notemos que para el modelo (1)

Y =

(Modelo Constante)

y X =

X 0X = 5
,
(X 0 X)1 =

1
5

As,
b
=b
0 = 1

SCE1 = Y 0Y b
0Y 0Y
=6

El modelo (2) es el modelo completo y k = 2


El modelo (1) es el modelo reducido y g = 0
Por lo tanto,
S22 =

SCE2
0 463
=
= 0 232
n (k + 1)
53

y
S32 =

SCE1 SCE2
6 0 463
=
= 2 768
kg
20

Finalmente, el Estadstico es:


F=

S32
2 768
=
= 11 931
S2
0 232

Para
= 0 05, f (k g, n [k + 1] = f005 (2, 2) = 19 00
La regin de rechazo es

RR : F > f ;

Como el estadstico NO cae en RR, entonces, a un nivel de = 0 05,

no hay suficiente evidencia para rechazar H0 (No puedo afirmar que 1 2 son 6= 0).
Observemos el p valor que viene dado por P(F > 11 931).
Notemos que en la tabla de la distribucin F;

9 00 < 11 931 < 19 00


89

0 05 < P(F > 11 931) < 0 10

No podemos afirmar que 1 6= 0 2 6= 0.


Escogemos del modelo (1).

4.8.

Tcnicas de regresin por pasos

1. Eliminacin Regresiva: (Eliminacin hacia atrs)


1.1 Se ajusta el modelo con todas las posibles variables independientes
1.2 Se toma el parmetro que tiene menor valor calculado para t, digamos i .
1.3 Se prueba la hiptesis H0 : i = 0. Si no se puede rechazar H0 , la variable Xi es eliminada del modelo,
se ajusta un nuevo modelo y se regresa al paso (1.2)
1.4 Si la hiptesis H0 : i = 0 es rechazada, el procedimiento termina.
2. Inclusin Progresiva: (Inclusin hacia adelante)
Se basa en las correlaciones de las variables independientes X1 , ..., Xk con la variable dependiente Y . Sin
embargo, cuando las variables independientes estn correlacionadas enre s, este criterio puede llevar a conclusiones incorrectas.
2.1 Se ajusta el modelo yi = 0 + 1 X1i + donde X1 es la variable indep. tal que la correlacin parcial
(X1 ,Y ) sea mxima.
2.2 Se prueba la hiptesis H0 : 1 = 0. Si no se rechaza, el procedimiento termina.
2.3 Si se rechaza H0 , se calculan las correlaciones parciales de Y con las variables restantes, y se incluye
la que tenga mayor correlacin parcial.
2.4 Se prueba H0 : i = 0 Xi presentes en el modelo. Si no se rechaza para la ltima variable incluida,
el proceso termina.

90

2.5 Si se rechaza H0 : i = 0 para la ltima variable includa, pero no se rechaza para alguna otra variable,
esta ltima se elimina del modelo, y nuevamente se trata de incluir otra.
2.6 Cuando no se pueden incluir ms variables en el modelo, el procedimiento termina.

4.9.

Ejercicios Propuestos

1. Las medianas de los precios de venta de casas nuevas para una sola familia durante un periodo de ocho
aos se indican en la tabla siguiente. Sea Y la mediana de los precios de venta y x el ao (representado con
nmeros enteros, 1,2,...,8), ajuste el modelo Y = 0 + 1 x + . Qu se puede concluir con los resultados?.

Ao

Mediana del precio


de venta (1000)

1972(1)
1973(2)
1974(3)
1975(4)
1976(5)
1977(6)
1978(7)
1979(8)

$ 27.6
$32.6
$35.9
$39.3
$44.2
$48.8
$55.7
$62.9

a)

Calcule SSE y S2 .

b)

A veces es conveniente, desde el punto de vista del clculo, contar con valores de x separados sim-

tricamene y a la misma distancia de cero. Estos valores de x se pueden reescalar (o codificar) de forma
conveniente sin prdida de informacin en el anlisis estadstico. Codifique los valores de x (originalmente
en una escala de 1 a 8) mediante la frmula
x =

x45
05

En seguida ajuste el modelo Y = 0 + 1 x + . Calcule SSE (Note que los valores de x son enteros distribuidos en forma simtrica respeco a cero.) Compare el valor de SSE con el valor que se obtuvo en el inciso
a).
91

c) Hay suficiente evidencia que permita afirmar que la mediana de los precios de venta de casas nuevas para una sola familia se ha incrementado durante el perodo de 1972 al 1979, con un nivel de
significancia de 0.01?
d) Estime el incremento anual esperado en la mediana de los precios de venta al construir un intervalo de
confianza de 99 %.
2. Los experimentos de laboratorio diseados para medir valores de CL50 en la investigacin de los efectos
de cierto producto txico en peces se efectan de acuerdo con dos mtodos. En uno de ellos, el agua fluye
continuamente a travs de los tanques del laboratorio y, en el otro, el agua est en reposo. A fn de establecer
los criterios para sustancias txicas, la Agencia para la Proteccin Ambiental de Estados Unidos (EPA, por
sus siglas en ingls) pretende ajustar los resultados a la condicin dinmica. Por consiguiente, se requiere
de un modelo que relacione los dos tipos de observaciones. Las observaciones acerca de ciertos productos
txicos analizados en ambas condiciones, esttica y dinmica, dieron los resultados que contiene la siguiente
tabla (las mediciones se expresa en partes por milln).

Producto txico

CL50 dinmico(y)

CL50 esttico (x)

1
2
3
4
5
6
7
8
9
10

23.00
22.30
9.40
9.70
0.15
0.28
0.75
0.51
28.00
0.39

39.00
37.50
22.20
17.50
0.64
0.45
2.62
2.36
32.00
0.77

a) Ajuste el modelo Y = 0 + 1 x + .
b) Cmo puede interpretar los resultados? Estime el valor dinmico para un producto txico con un valor
esttico de CL50 de x = 12 partes por milln.

92

c) Calcule SSE y S2 .
d) Hay evidencia de una relacin lineal entre los CL50 dinmicos y estticos? Haga la prueba con un
nivel de significancia de 0 05.
e) Existe evidencia de una relacin lineal entre los CL50 dinmicos y estticos?. Obtenga los lmites
para el nivel de significancia alcanzado.
3. En la siguiente tabla se muestra la clasificacin combinada del nmero de millas y el volumen del motor
establecidos por la EPA en 49 estados de la Unin Americana en 1980 (todos menos California) de nueve
automviles subcompactos con transmisin estndar de cuatro cilindros que utilizan gasolina. El tamao del
motor se da en pulgadas cbicas totales de cilindraje.

Automvil

Cilindraje(x)

mpg combinado(y)

VW Rabitt
Datsun 210
Chevrolet Chevette
Dodge Omni
Mazda 626
Oldsmobile Starfire
Mercury Capri
Toyota Celica
Datsun 810

97
85
98
105
120
151
140
134
146

24
29
26
24
24
22
23
23
21

a) Localice los datos en una grfica.


b) Encuentre la recta de mnimos cuadrados para los datos y trace la grfica para ver cuanto se ajusta a
los datos.
c) Utilice la recta de mnimos cuadrados para estimar el promedio de millas por galn (mpg) para un
automvil subcompacto con un volumen de motor de 125 pulgadas cbicas.
4. Se llev a cabo un estudio para determinar cmo afecta la privacin del sueo la habilidad de los individuos
para resolver problemas sencillos. La cantidad de horas sin dormir variaba entre 8,12, 16,20 y 24. Diez
93

individuos participaron en el estudio, dos por cada nivel de privacin de sueo. Despus del perodo de
privacin de sueo se asign a cada individuo un conjunto de problemas sencillos en los que haba que
sumar y se registr el nmero de errores. La siguiente tabla contiene los resultaos obtenidos:
Nmero de errores(y)
Nmero de horas sin dormir (x)

8,6

6,10

8,14

14,12

16,12

12

16

20

24

a) obtenga la recta de mnimos cuadrados adecuada para estos datos.


b) Presenta los datos evidencia suficiente para indicar que el nmero de errores se relaciona linealmente
con el nmero de horas sin dormir?.
c) Determine los lmites para el nivel de significancia alcanzado.
d) Qu concluira con un nivel de significancia de = 0 05?.
e) Esperara usted una relacin lineal entre y y x si variara x en un margen ms amplio, digamos, de
x = 4 a x = 48?.
f) Obtenga un intervalo de confianza de 95 % para la pendiente. D una interpretacin prctica para esta
estimacin por intervalo.
5. El octanaje Y de petrleo refinado depende de la temperatura x del proceso de refinacin, pero tambin de
la dimensin de la partcula del catalizador. Un experimento con un catalizador de partculas pequeas dio
como resultado una recta ajustada de mnimos cuadrados de
y = 9 360 + 0 155x
con n = 31,Var( 1 ) = (0 0202)2 y SSE = 2 04
Un experimento independiente con un catalizador de partculas grandes dio como resultado
y = 4 265 + 0 190x
con n = 11,Var( 1 ) = (0 0193)2 y SSE = 1 862

94

Pruebe las hiptesis de que las pendientes difieren en forma significativa de cero con un nivel de significancia
de 0 05 para cada prueba.
6. Las estadsticas de enfermedades en Florida para la dcada que termin en 1976 demuestran que la hepatitis infecciosa tena la tasa de incidencias que aparecen en la siguiente tabla (expresadas en casos por cada
100 000 habitantes).

1967 10 5
1968 18 5
1969 22 6
1970 27 2
1971 31 2
1972 33 0
1973 44 9
1974 49 4
1975 35 0
1976 27 6
a) Sea Y la tasa de incidencia y x el ao codificado (-9 para 1967, -7 para 1968, hasta 9 para 1976). Ajuste
el modelo Y = 0 + 1 x + .
b) Para los mismos datos, ajuste el modelo Y = 0 + 1 x + 2 x2 + .
c) Hay evidencia de un efecto cuadrtico en la relacin entre Y y x? (Lleve a cabo la prueba H0 : 2 = 0.)
Utilice = 0 10.
d) Encuentre un intervalo de confianza de 90 % para 2 .
e) Para el modelo cuadrtico se lleva a cabo una prueba F de H0 : 2 = 0 utilizando = 0 05. Compare
con el resultado de la prueba (c).
f) Pruebe H0 : 1 = 2 = 0 con un nivel de significancia de 5 %.

95

Captulo 5
Anlisis de Varianza

5.1.

Procedimiento del diseo de un experimento

Definiciones:
1. Los objetos sobre los cuales se hacen mediciones se denominan unidades experimentales.
2. Las variables experimentales independientes se denominan Factores.
2.1 Un factor que puede tomar valores sobre una recta real se denomina Factor Cuantitativo.
2.2 Los factores que no son cuantitativos se denominan Cualitativos.
3. Al grado de intensidad de un factor se le llama Nivel.
4. Un tratamiento es una combinacin especfica de niveles de un factor o de factores.
5. A la seleccin de muestras aleatorias independientes de k poblaciones se le denomina Diseo Completamente
Aleatorizado.
El objetivo del anlisis de varianza es identificar variables independientes importantes en un estudio y determinar cmo interactan y afectan a la respuesta. Compara las medias de los distintos grupos.
Una respuesta Y se puede afectar por dos tipos de variables independientes, las cuantitativas y las cualitativas
(Factores).

96

El anlisis de varianza divide la suma de los cuadrados de las desviaciones en partes (Suma total de los cuadrados de las desviaciones).

Suma total de cuadrados


n

5.2.

(Yi Y )2
i=1 w
w
w


Suma de Cuadrados
para la variable
indep. No. 1

Suma de Cuadrados
para la variable
indep. No. 2

Suma de Cuadrados
para la variable
indep. No. 3

Suma de Cuadrados
por el error

Anlisis de varianza para el diseo completamente aleatorizado


Supngase que se han sacado m.a. independientes de k poblaciones normales de tamao ni y medias

i , i = 1, 2, ..., k, respectivamente y adems, todas las poblaciones tienen la misma varianza 2 . El total de
observaciones en el experimento ser n = n1 + n2 + ... + nk .
Sean

Yi j : La respuestas medida de la j-sima unidad experimental en la i-sima muestra;


i = 1, 2, ..., k

j = 1, 2, ..., ni

...

Y11

Y21

...

Yk1

Y12

Y22

...

Yk2

..
.

..
.

Y1n1

Y2n2

...

Yknk

T1

T2

...

Tk

..
.

ni

Ti = Yi j :

Total de las observaciones en la i-sima muestra

j=1

97

Ti =

1
Ti :
ni

Es la media de las obs. en la i-sima muestra

La variacin total de las mediciones de la respuesta respecto a su media:


ni

(Yi j Y )2

SC total =

i=1 j=1

Definicin 16. (Correccin de la Media)



CM =

ni

2

Yi j

(Total de las obs.)2


=
n

i=1 j=1

= nY

As,
ni

SC total = Yi2j CM
i=1 j=1

Suma de los cuadrados de los tratamientos:


k

Ti2
C M
i=1 ni

SC T = ni (T i Y )2 =
i=1

Suma ponderada de los cuadrados para todas las muestras


ni

SC E = (Yi j T i )2
i=1 j=1
k

= (ni 1)Si2

Si2 =

i=1

1 ni
(Yi j T i )2
ni 1 j=1

El anlisis de varianza divide la suma de los cuadrados por:


SC total = SC T + SC E
El estimador insesgado para 2 basado en (n1 + n2 + ... + nk k) grados de libertad es:
S2 = C M E =

SC E
n1 + n2 + ... + nk k

Cuadrado medio del error

El cuadrado medio de los tratamientos es:


CMT =

SC T
k1
98

(k 1)g.l.

Para probar las hiptesis


H0 : 1 = 2 = ... = k
Se compara C M T

vs
y

Ha : Al menos una de las medias i


aplicando el Estadstico F =

CME

es distinta.

CMT
CME

con

1 = k 1 g.l.

en el numerador,

y 2 = ni k g.l.

en el denominador.

i=1

La hiptesis nula se rechazar si F > f , en donde f es el valor crtico de F para la prob. de un error tipo I igual
a .

( f (k 1, n k)).

Tabla de anlisis de varianza (para un diseo completamente aleatorizado) A N O V A


Fuente

g.l.

SC

CuMe

Tratamientos

k1

SC T

CMT

CMT
CME

Error

nk

SC E

CME

Total

n1

ni

(Yi j Y )2

= SC total

i=1 j=1

Ejemplo 1:

La siguiente tabla corresponde a los tiempos de coagulacin (seg.) para muestras de sangre tomadas

de 24 ratones de laboratorio, los cuales han recibido 4 dietas diferentes (A,B,C,D) Existe evidencia para pensar
que la dieta a la cual ha sido sometido el animal afecta el tiempo de coagulacin de su sangre?.
Denotaremos por
1:Dieta A;

2:Dieta B;

3:Dieta C;

n = n1 + n2 + n3 + n4
= 4 + 6 + 6 + 8 = 24

99

4:Dieta D;

Ti
ni
Ti

(1)
A

(2)
B

3)
C

(4)
D

62
60
63
59

63
67
71
64
65
66

68
66
71
67
68
68

56
62
60
61
63
64
63
59

244
4
61

396
6
66

408
6
68

488
8
61

Deseamos saber si las medias T i son realmente diferentes, para ello probaremos las hiptesis:
H0 : 1 = ... = 4

Ha :

vs

algn

es distinto

Esto equivale a comparar los modelos:


1. Yi j = + i j
2. Yi j = i + i j
Modelos anidados. Calculemos la tabla A N O V A:

k ni

[Yi j ]2
Co Me =

i j

(1536)2
= 98304
24

Ti2
Co Me
i=1 ni
4

SCT =

= 98542 98304
4 ni

SC total = Yi2j Co Me

= 228

i=1 j=1

SCE = SC total SCT


= 98644 98304 = 340

100

= 112

Fuente

g.l. S C

CvMe

Tratamientos

228

76 0

13 5714

Error

20

112

56

Total

23

Para = 0 05 ,

RR : F > 3 10 .

f (3, 20) = 3 10

Como el estadstico cae en RR, rechazamos H0 y existe evidencia para pensar que la dieta
afecta el tiempo de coagulacin.

Observemos que el ejemplo nos ilustra que solo podemos decir si hay diferencia o no pero de una manera general,
sin llegar a saber con exactitud cuales poblaciones difieren realmente entre si. Por esta razn, se debe realizar una
comparacin entre grupos que detallaremos a continuacin.

5.2.1.

Comparacin

de

Medias

entre

los

grupos.

Para Comparar medias entre grupos utilizaremos algunos resultados de la teora de Estimacin.
Intervalo de confianza para la media del tratamiento
S
T i t/2
ni

i:

y t/2 se basa en (n k)g.l.

Intervalo de confianza para la diferencia entre los tratamientos i


s

1
1
+ , donde S = S2 = C M E
(T i T j ) t/2 S
ni n j

j:

Comparar las medias de los grupos dos a dos equivale a probar las hiptesis:
H0 : i = j
Para un nivel de significancia -,

vs
t/2

H1 : i 6= j para cada par i , j .


es el cuantil de la distribucin T con (n k)g.l. y:
s

Rechazamos H0 |T i T j | > t/2

1
1
+
ni n j

Este mtodo se llama Mnima Diferencia Significativa.

101

Ejemplo 2: Consideremos el ejemplo 1, para comparar las medias entre las dietas.
= 0 05

|T 1 T 2 | = 5
|T 1 T 3 | = 7
|T 1 T 4 | = 0
|T 2 T 3 | = 2
|T 2 T 4 | = 5
|T 3 T 4 | = 7

y t/2; nk = t0025;20 = 2 086

Utilizando el mtodo de Mnima Diferencia Significativa:


r

1 1
> (2 086) 5 6
+ = 32
R Ho
4 6
r
1 1
> (2 086)(2 366)
+ = 3 2 R Ho
4 6
r
1 1
+ = 3 02
No R Ho Dietas A y D se
< 4 9355
4 8
comportan similares
r
1 1
< 4 9355
+ = 2 85
No R Ho Dietas B y C se
6 6
comportan similares
r
1 1
> 4 9355
+ = 2 67
R Ho
r6 8
1 1
> 4 9355
+ = 2 67
R Ho
6 8
Utilizando Intervalos de confianza para las medias i :
1 :

(58 53, 63 47)

2 : (63 98, 68 02)


3 : (65 98, 70 02)
4 :

(59 25, 62 75)

* :Estos intervalos se superponen, es decir, hay similitud en las medias y por tanto

No rechazo H0 . Las dietas

A y D se comportan similares.
** :Estos intervalos se superponen, es decir, hay similitud en las medias y por tanto

No rechazo H0 . Las

dietas B y C se comportan similares.

5.3.

Ejercicios

Propuestos

1. En una comparacin de las resistencias del concreto producido con cuatro mezclas experimentales, se preparon tres muestras de cada tipo de mezcla. Las doce muestras se sometieron a cargas de compresin crecientes
102

hasta el punto de ruptura. La siguiente tabla contiene las cargas de comprensin en toneladas por pulgada
cuadrada alcanzadas hasta el punto de ruptura. Los nmeros de los ejemplares 1 al 12 estn indicados entre
parntesis para propsitos de identificacin. Suponga que se cumplen las condiciones para un diseo de un
factor y analice los datos. Sean A y B las resistencias medias de los ejemplares de concreto preparadas con
la mezcla A y la mezcla B, respectivamente.
Mezcla A

Mezcla B

Mezcla C

Mezcla D

(1) 2.30
(5) 2.20
(9) 2.25

(2) 2.20
(6) 2.10
(10) 2.20

(3) 2.15
(7) 2.15
(11) 2.20

(4) 2.25
(8) 2.15
(12) 2.25

a) Indique si con un nivel de significancia de = 0 05 se puede sustentar, desde el punto de vista estadstico, la conclusin de que por lo menos la resistencia promedio de una de las muestras de concreto
es diferente de la de las otras.
b) Construya un intervalo de confianza de 95 % para A .
c) Construya un intervalo de confianza de 95 % para (A B ).
2. Un psiclogo clnico desea comparar tres mtodos para reducir los niveles de hostilidad entre estudiantes
universitarios. Se aplic cierto exmen psicolgico (HLT) para medir el grado de hostilidad. Una puntuacin
elevada en este exmen indica un alto grado de hostilidad. Once estudiantes que obtuvieron un puntaje alto y
casi igual participaron en el experimento. Cinco fueron elegidos aleatoriamente de entre los once casos con
problemas y se les someti a un tratamiento con el mtodo A. Tres fueron elegidos aleatoriamente de los
restantes seis estudiantes y se les someti a un tratamiento con el mtodo B. A los restantes tres estudiantes
se les trat con el mtodo C. Los tratamientos se prolongaron durante un semestre. A cada estudiante se le
aplic nuevamente el exmen HLT al final del semestre, y los resultados que se obtuvieron se muestran en
la siguiente tabla.

103

Mtodo A

Mtodo B

73
83
76
68
80
Sean A y B las

Mtodo C

54
74
71

79
95
87

medias de los resultados al final del semestre de las poblaciones de estudiantes que des-

pliegan un alto grado de agresividad, a quienes se les administr un tratamiento a lo largo del semestre de
acuerdo con el mtodo A y con el mtodo B, respectivamente.
a) Proporcionan los datos suficientes evidencia para indicar que por lo menos uno de los mtodos de
tratamiento genera una respuesta media de los estudiantes diferente de la que generan los otros mtodos? . Precise lmites para el nivel de significancia alcanzado. Qu concluira usted con un nivel de
significancia de = 0 05
b) Encuentre un intervalo de confianza de 95 % para A .
c) Encuentre un intervalo de confianza de 95 % para B .
d) Encuentre un intervalo de confianza de 95 % para (A B ).
3. Se tomaron muestras de cuatro diferentes zonas en un ro para determinar si la cantidad de oxgeno disuelto,
una medida de la contaminacin del agua, variaba de una zona a otra. Las zonas 1 y 2 se eligieron pasando
una planta industrial, una cerca de la orilla y la otra a mitad del ro; la zona 3 se encontraba junto a la descarga
industrial de agua de la planta, y la zona 4 se localizada ro abajo a la mitad de ste. Se seleccionaron
aleatoriamente 5 muestras de agua en cada zona, pero una de ellas, correspondiente a la zona 4, se perdi en
el laboratorio. Los datos aparecen en la siguiente tabla (cuanto mayor es la contaminacin, menores sern
las cantidades de oxgeno disuelto). Proporcionan los datos suficiente evidencia que indique una diferencia
en el contenido medio de oxgeno disuelto en las cuatro zonas?. Precise lmites para el nivel de significancia
alcanzado.

104

Zona

1
2
3
4

Contenido medio de oxgeno


disuelto

5.9
6.3
4.8
6.0

6.1
6.6
4.3
6.2

6.3
6.4
5.0
6.1

6.1
6.4
4.7
5.8

6.0
6.5
5.1

4. Se ha propuesto la hiptesis de que los tratamientos aplicados (despus del modelo) a un plstico utilizado
en la fabricacin de lentes pticas constribuyen a incrementar la duracin. Se van a someter a prueba cuatro
diferentes tratamientos. Para determinar si existen diferencias en la duracin media que se alcanza con cada
uno de los tratamientos, se elaboraron veintiocho piezas de una sola produccin de plstico, y se aplicaron
aleatoriamente los tratamientos a siete piezas. Se determin la duracin midiendo el incremento en el empaamiento despus de 200 ciclos de abrasin (los incrementos pequeos significan mayor duracin). La
siguiente tabla incluye los datos que se obtuvieron.

Tratamiento
A

9.16
13.29
12.07
11.97
13.31
12.32
11.78

11.95
15.15
14.75
14.79
15.48
13.47
13.06

11.47
9.54
11.26
13.66
11.18
15.03
14.86

11.35
8.73
10.00
9.75
11.71
12.45
12.38

a) Hay evidencia de que exista una diferencia en la duracin media que se consigue de acuerdo con los
cuatro tratamientos? Lleve a cabo la prueba con = 0.05.
b) Estime la diferencia media en el incremento del empaamiento de acuerdo con la aplicacin de los
tratamientos B y C utilizando un intervalo de confianza de 90 %.
c) Determine un intervalo de confianza de 90 % para la duracin media de lentes a las que se aplica el
tratamiento A.
105

5. Como consecuencia de la crisis energtica actual, los investigadores de las principales compaas petroleras
buscan otras fuentes de petrleo. Se sabe que ciertos tipos de pizarra contienen pequeas cantidades de
petrleo de fcil extraccin (aunque el mtodo no resulte muy econmico). Se han creado 4 mtodos para
extraer petrleo de la pizarra. El gobierno ha indicado que se lleven a cado algunos experimentos para
determinar si existe alguna diferencia significativa en la cantidad media de petrleo que pueda extraerse de la
pizarra de acuerdo con estos mtodos. Se sabe que el mtodo 4 es el ms caro y el mtodo 1 es el ms barato,
por consiguiente, las inferencias relacionadas con las diferencias en la aplicacin de estos dos mtodos son
de particular inters. Diecisis muestras de pizarra (del mismo tamao) se sometieron aleatoriamente a los
cuatro mtodos, con los resultados que aparecen en la siguiente tabla (las unidades se expresan en litros por
metro cbico). Las inferencias deben hacerse con un nivel de significancia de = 0.05.
Mtodo 1

Mtodo 2

Mtodo 3

Mtodo 4

3
2
1
2

2
2
4
4

5
2
5
1

5
2
4
5

a) Suponiendo que las diecisis unidades experimentales son aproximadamente iguales, lleve a cabo el
anlisis de varianza apropiado para determinar si existe alguna diferencia significativa entre las cantidades medias extradas por los cuatro mtodos. Utilice un nivel de significancia de = 0.05.
b) Genere un intervalo de confianza de 95 % para la diferencia en las cantidades medias extradas por los
dos mtodos de mayor inters. Interprete el resultado.

106

Potrebbero piacerti anche