Sei sulla pagina 1di 250

Probabilidades y Estadstica

Vicente Acu
na
Lab. de Bioinform
atica y Matem
atica del Genoma (Mathomics)
Centro de Modelamiento Matem
atico, Universidad de Chile

Primavera 2015

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

1 / 250

Advertencia 1: Las slides son s


olo un complemento de la clase,
muchos ejemplos, ejercicios, y demostraciones son realizadas en la
Pizarra. El objetivo principal es hacer una clase mas dinamica, pero
en ning
un caso las slides reemplazan a las clases!.
Advertencia 2: Estas slides son de exclusivo uso de la clase Primavera
2015, son informales, pueden contener errores o imprecisiones y solo
las he subido para facilitar el estudio a los alumnos de este curso. Por
favor no difundir!

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

2 / 250

Contenidos

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

3 / 250

Clase 1: Qu
e es estadsitica?

Clase 1: Que es estadsitica?

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

4 / 250

Clase 1: Qu
e es estadsitica?

Ejemplos cotidianos

Encuestas elecciones predecir resultados


Muestreos consumidores predecir preferencias
Experimentos clnicos determinar efectos de medicamentos
Indices economicos predecir futuro economa
Variables climaticas predecir si llueve ma
nana, etc.
La estadstica entrega la teora basica para intentar contestar a estas
preguntas

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

5 / 250

Clase 1: Qu
e es estadsitica?

Definicion/objetivos
Varias definiciones. Todas implican que la estadstica es una teora de
la informacion cuyo objetivo es la inferencia
El conjunto de los objetos de interes es la poblaci
on. Para conocer
con absoluta certeza una caracterstica tendramos que mirar toda la
poblacion generalmente es imposible!
Seleccionamos un subconjunto de la poblaci
on: la muestra. A partir
de ella inferimos caractersticas de la poblaci
on.
Medida de bondad: Cuan buena es mi predicci
on? probabilidad
de que mi estimacion sea cercana a la realidad.
La meta de la estadstica es hacer una inferencia acerca de una poblacion,
con base en informacion contenida en una muestra de esa poblacion y dar
una medida de bondad asociada para la inferencia.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

6 / 250

dependientes, por tanto, se convierte en un deseo para determinar el efecto de las variable
conceptual de mediciones de poblacin.
Una poblacin individual (o cualquier conjunto de mediciones) puede estar caracterizad
por una distribucin de frecuencia relativa, que puede estar representada por un histograma d
frecuencia relativa. Se construye una grfica al subdividir el eje de medicin en intervalos de igu
ancho. Se construye un rectngulo sobre cada intervalo, de modo que la altura del rectngu
sea proporcional a la fraccin del nmero total de mediciones que caen en cada celda. Po
Queremos estimar
el peso total de los 500 salmones en una
ejemplo, para caracterizar las diez mediciones 2.1, 2.4, 2.2, 2.3, 2.7, 2.5, 2.4, 2.6, 2.6 y 2.
piscicultura. Tenemos
los pesos
de unaenmuestra
ejemplares
podramos dividir
el eje de medicin
intervalos dede
igual10
ancho
(por ejemplo .2 unidades
comenzando con 2.05. Las frecuencias relativas (fraccin del nmero total de mediciones
escogidos al azar:
calculadas para cada intervalo, se muestran en la Figura 1.1. Observe que la figura da una cla
descripcin
grfi2.4,
ca de todo
conjunto
de las diez mediciones.
2.1, 2.4, 2.2, 2.3,
2.7, 2.5,
2.6,el2.6,
2.9.
Observe que no hemos dado reglas precisas para seleccionar el nmero, anchos o ubicacio
Una manera ranes
pida
de
caracterizar
una
muestra
distribuci
on de
de los intervalos empleados para construir
un histograma.
Esto es porque
la seleccin d
estos
elementos
est
un
poco
a
discrecin
de
la
persona
que
intervenga
en
la construccin.
frecuencia relativa histograma
Aun cuando son arbitrarias, unas cuantas guas pueden ser muy tiles para seleccionar lo
Escogemos un intervalos.
rango que
contenga
todos
losdevalores,
lo dividimos
en que
5 se
Los puntos
de subdivisin
del eje
medicin deben
escogerse de modo
Clase
1: Qu
e es en
estad
independientes
la sitica?
distribucin

Caracterizando graficamente un cjto. de mediciones

intervalos del mismo largo y contamos cuantos datos caen en cada


uno.
F I G U R A 1.1
Histograma
de frecuencia relativa

Frecuencia
relativa
.3
.2
.1
0

Vicente Acu
na (CMM, Universidad de Chile)

2.05

2.25

2.45

Prob. y Est.

2.65

2.85

3.05
Eje

7 / 250

Clase 1: Qu
e es estadsitica?

Histograma en R project
> datos <- c(2.1, 2.4, 2.2, 2.3, 2.7,
2.5, 2.4, 2.6, 2.6, 2.9)
> datos
[1] 2.1 2.4 2.2 2.3 2.7 2.5 2.4 2.6 2.6 2.9
> hist(datos)
> hist(datos, breaks=20, col=7)
> min(datos)
[1] 2.1
> max(datos)
[1] 2.9
> hist(datos, breaks=seq(2.05,3.05,0.2), col=7)

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

8 / 250

Clase 1: Qu
e es estadsitica?

Histograma en R project

Una version mas sofisticada que especifica los lmites de las barras y los
ejes.
datos <- c(2.1, 2.4, 2.2, 2.3, 2.7, 2.5, 2.4, 2.6, 2.6, 2.9)
resol <- 0.1 # Ultima cifra significativa
bar <- 0.2 # Ancho de barra. Probar distintos valores!
limites <- seq(min(datos)-0.5*resol,max(datos)+bar,bar)
h=hist(datos, breaks=limites,axes=FALSE,col=7)
axis(1,at=limites)
axis(2)

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

9 / 250

Clase 1: Qu
e es estadsitica?

Histograma en R project

Hacer histogramas de:


> x <- rnorm(n=50000, m=1, sd=1)
> y <- rbinom(n=10000, size=20,prob=1/4)
> z <- runif(10000,5,9)

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

10 / 250

estos elementos est un poco a discrecin de la persona que intervenga en la construccin.


unas cuantas guas pueden ser muy tiles para seleccionar l
intervalos. Los puntos de subdivisin del eje de medicin deben escogerse de modo que s

ClaseAun
1: Qu
e es estad
sitica?
cuando
son arbitrarias,

Interpretacion probabilistica
F I G U R A 1.1
Histograma
de frecuencia relativa

Frecuencia
relativa
.3
.2
.1
0

2.05

2.25

2.45

2.65

2.85

3.05
Eje
de medicin

Si escogemos un dato al azar, cual es la probabilidad que este entre


2.05 y 2.45?
0.5 (la mitad de los valores estan ah)
Si hacemos una nueva medici
on, cual es la probabilidad que
este entre 2.05 y 2.45?
Si no sabemos nada sobre el origen de los datos, podemos suponer
0.5

W-cap-01.indd 4

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

11 / 250

Clase
1: Qu
ede
es 2.05
estadsitica?
el intervalo
a 2.45

es .5 porque la mitad de las mediciones caen en este interv


manera correspondiente, el rea bajo el histograma de la Figura 1.1 sobre el intervalo
a 2.45 es la mitad del rea total bajo el histograma. Es claro que esta interpretacin se
la distribucin de cualquier conjunto de mediciones, es decir, una poblacin o una mu
Suponga que la Figura 1.2 da la distribucin de frecuencia relativa de utilidades
llones de dlares) para una poblacin conceptual de respuestas de utilidades para co

Interpretacion probabilistica

Supongamos que tenemos la distribuci


on de frecuencias relativas de los
pesos de toda la poblacion de salmones de la piscicultura
F I G U R A 1.2
Distribucin de frecuencia relativa

Frecuencia
relativa

2.05

2.25

2.45

2.65

2.85

3.05

cual es la probabilidad que un salm


on escogido al azar este entre
2.05 y 2.45?

W-cap-01.indd 5

es la fraccion del area bajo la curva entre los valores sobre el area
total.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

12 / 250

Clase 1: Qu
e es estadsitica?

Medida de tendencia central: la media


Otras herramientas para describir nuestro set de datos:
Definition
La media de una muestra de n datos y1 , y2 , . . . , yn esta dada por
n

y=

1X
yi .
n
i=1

Si pudieramos conocer todos los valores y1 , y2 , . . . , ym de una poblacion


finita de tama
no m podramos definir la verdadera media como
m

1 X
yi .
m
i=1

Es decir que y es la media muestral y es la media poblacional. Esta


u
ltima en general no la podemos medir: es una constante desconocida que
podemos estimar calculando y a partir de una muestra.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

13 / 250

Clase 1: Qu
e es estadsitica?

Medidas de dispersion: varianza


Cuan alejados estan los valores de mi set de datos de su centro?
Definition
La varianza de una muestra de mediciones y1 , y2 , . . . , yn esta dada por
n

sn2

1X
=
(yi y )2
n
i=1

Es decir que la varianza muestral sn2 es el promedio del cuadrado de las


distancias de los valores a la media muestral.
Nuevamente, si conocieramos el valor de todos los elementos de una
poblacion finita y1 , y2 , . . . , ym , podramos calcular 2 la varianza
poblacional:
m
1 X
2
=
(yi )2
m
i=1

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

14 / 250

Clase 1: Qu
e es estadsitica?

Medidas de dispersion: varianza


varianza poblacional (para poblaci
on finita de tama
no m) :
m

2 =

1 X
(yi )2
m
i=1

varianza muestral (para muestra de tama


no n):
n

sn2

1X
=
(yi y )2
n
i=1

Como en general el valor de la varianza poblacional 2 es desconocido,


la varianza muestral sn2 nos sirve como un estimador del valor de 2 .
Mas adelante veremos que modificando levemente
el denominador de
1 Pn
2
la definicion de varianza muestral a sn1 = n1 i=1 (yi y )2
obtendremos una estimaci
on mejor de 2 .
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

15 / 250

Clase 1: Qu
e es estadsitica?

Medidas de dispersion: desviacion estandar


2
Las definiciones de sn2 , sn1
y de la varianza poblacional 2 resultan ser
muy manejables matematicamente. Sin embargo, para una interpretacion
mas facil y directa de la dispersi
on, podemos preferir la desviacion
estandar:

Definition
Si s 2 es la varianza de una muestra de mediciones, definimos la desviacion
estandar de la muestra como la raz positiva de su varianza; es decir,

s = s2
La correspondiente
desviaci
on est
andar poblacional se denota por

= 2.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

16 / 250

Clase 1: Qu
e es estadsitica?

Medidas de dispersion: desviacion estandar

F I G U R A 1.4
Curva normal
68%

Cuando los datos tienen forma de campana o normal (lo que sucede muy a
Como
se mencion
en la Seccin
una
vez que se conozca la d
menudo)
tenemos
la siguiente
regla 1.2,
emp
rica:

de un conjunto de mediciones, se pueden hacer enunciados de prob

contienemediciones.
aproximadamente
68 % de las mediciones.
Estas probabilidades se mostraron como reas bajo un h

2 contiene
95 % de lasespecifi
mediciones.
En aproximadamente
forma anloga, las probabilidades
cadas en la regla empric
normal
la Figura 1.4.
3 contiene
casi mostrada
todas lasenmediciones..

El uso de la regla emprica se ilustra mediante el siguiente ejemp


que las calificaciones en un examen vocacional aplicado a todos los e
de preparatoria en un estado tienen, aproximadamente, una distribu

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

17 / 250

Clase 1: Qu
e es estadsitica?

Inferir a partir de una muestra

Ejemplo: en una elecci


on, queremos saber si el candidato Dr. Alberto
Ortega va a ganar la elecci
on a alcalde.
Tomamos una muestra de 20 votantes al azar: 19 votaran por Ortega.
Intuitivamente inferimos que Ortega ganara. Por que?
No creemos que la fracci
on de la poblaci
on debe ser exactamente
igual a la muestra. Tampoco que es imposible que Ortega pierda.
En realidad creemos que va a ganar porque si no, sera muy
improbable que 19 de 20 personas al azar votaran por el.
Y si fueran 12 de 20 los que votan por Ortega? Pensaramos que es
seguro que gana? Podramos predecir con seguridad el resultado?

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

18 / 250

Clase 1: Qu
e es estadsitica?

Inferir a partir de una muestra


Otro ejemplo: queremos verificar que un dado no esta cargado. Es
decir, que la poblaci
on de resultados esta igual distribuida entre los
resultados (1/6 de los resultados para cada uno)
Tomamos una muestra de 30 lanzamientos.
Dependiendo de los resultados podemos confiar o no en la hipotesis.
Si en 27 lanzamientos de los 30 obtenemos el mismo valor,
claramente supondremos que esta cargado, pues es un resultado
extremo, poco probable si suponemos un dado equilibrado.
Pero obviamente no necesitamos obtener exactamente 5 resultados
para cada valor, para creer que esta equilibrado, sino algo cercano.
Algo que sea probable suponiendo que el dado es equilibrado.
Cuando estimamos que esta equilibrado y cuando que no?.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

19 / 250

Clase 1: Qu
e es estadsitica?

Inferir a partir de una muestra

Si el dado esta equilibrado entonces tenemos el modelo probabilstico


del grafico. Esa es nuestra hip
otesis. Bajo este supuesto, nos interesa
la probabilidad de obtener una muestra dada, para poder
ptulo 2 calcular
Probabilidad
confirmar o rechazar la hip
otesis.

G U R A 2.1
stribucin de
encia para la
in generada
por un dado
balanceado

Frecuencia
relativa

1 6

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

6
Nmero de
la cara superior
del dado
20 / 250

Clase 1: Qu
e es estadsitica?

Modelos teoricos

Antes de hacer inferencias a partir de una muestra, estudiaremos los


modelos teoricos que pueden generar los datos de la poblacion.
Estos modelos teoricos son modelos idealizados. Al estudio de estos
modelos lo llamamos la teora de la probabilidad (o simplemente
Probabilidades).
As, el estudio de la teora de probabilidad nos dara la base para la
inferencia estadstica. Estaremos la mitad del curso estudiando estos
modelos.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

21 / 250

Clase 2: Probabilidades caso discreto

Clase 2: Probabilidades caso discreto

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

22 / 250

Clase 2: Probabilidades caso discreto

Experimento y eventos
Empezaremos con algunas definiciones
Definition
Un experimento es el proceso por medio del cual se hace una
observacion.
Pueden ser tanto controlables (ej: tipo laboratorio, lanzar un dado)
como incontrolables (ej: cantidad agua cada un da dado, )
Al realizar el experimento puede terminar en diferentes resultados.
Siempre vamos a preferir trabajar con un s
olo experimento, aunque
consista en repetir una acci
on. Ejemplos:
: lanzar un dado
: escoger 10 salmones,
: lanzar una moneda 5 veces
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

23 / 250

Clase 2: Probabilidades caso discreto

Punto muestral y espacio muestral


Definition
Dado un experimento, un punto muestral es un resultado individual del
experimento.
Definition
El espacio muestral asociado a un experimento es el conjunto formado por
todos los posibles puntos muestrales. Se denota por S (o tambien ).
Los puntos muestrales del espacio muestral deben ser diferentes,
mutuamente exclusivos y colectivamente exhaustivos. De modo que
cuando el experimento es realizado se obtendra uno y solo uno de los
puntos muestrales.
Se omiten detalles irrelevantes para el estudio: donde cayo el dado.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

24 / 250

Clase 2: Probabilidades caso discreto

Espacio muestral discreto

Definition
El espacio muestral discreto es aquel que esta formado ya sea por un
n
umero finito o numerable de puntos muestrales distintos.
experimento: tirar un dado y observar resultado.
S = { Observar un 1, Observar un 2, . . . , Observar un 6}
experimento: n
umero de bacterias en un cultivo luego de 3 das.
S = {1 bactera, 2 bacterias, 3 bacterias, . . .}

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

25 / 250

Clase 2: Probabilidades caso discreto

Eventos simples

Definition
Un evento simple es un conjunto que contiene un y s
olo un punto muestral
(i.e. es un singleton).
Experimento: tirar un dado y observar resultado.
Eventos simples:
E1 = {observar un 1}
E2 = {observar un 2}
E3 = {observar un 3}
E4 = {observar un 4}
E5 = {observar un 5}
E6 = {observar un 6}

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

26 / 250

Clase 2: Probabilidades caso discreto

Eventos

Definition
Un evento en un espacio muestral discreto S es un conjunto de puntos
muestrales, es decir, cualquier subconjunto de S.
: tirar un dado y observar resultado.
A : observar un n
umero impar.
A = {observar un 1, observar un 3, observar un 5} = E1 E3 E5
B : observar un n
umero menor que 5.
B = {observar un 1, observar un 2, observar un 3, observar un 4} =
E1 E2 E3 E4

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

27 / 250

Clase 2: Probabilidades caso discreto

Podemos ver los eventos en un diagrama de Venn. Por simplicidad los


2.4 Un modelo probabilstico
para un experimento: el caso discreto
eventos simples (singletons) son representados
por puntos.
F I G U R A 2.8
Diagrama de Venn
para el experimento
de lanzar un dado

S
E6

E1

E3

E5

E4

E2

si y slo si ocurre uno de los eventos simples E1, E3 o E5. As,

Todo evento, en un espacio muestral discreto, puede descomponerse como


A = {E 1 , E 3 , E 5 } o A = E 1 E 3 E 5 .
la union (disjunta) de eventos simples.
Del mismo modo, B (observar un nmero menor que 5) se puede escribir como
B = {E 1 , E 2 , E 3 , E 4 }

o B = E1 E2 E3 E4.

La regla para determinar cules eventos simples incluir en un evento compuesto es muy p
sa. Un evento simple Ei se incluye en el evento A si y slo si A ocurre siempre que ocurra
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

28 / 250

Clase 2: Probabilidades caso discreto

Eventos
Ejemplo infinito numerable:
: observar n
umero de bacterias en un cultivo luego de 3 horas.
Evento B: el n
umero de bacterias es mayor que 200.

B = {hay 201 bacterias, hay 202 bacterias, hay 203 bacterias, . . .}

B=

Ei

i=201

donde Ei es el evento simple Ei : hay i bacterias.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

29 / 250

Clase 2: Probabilidades caso discreto

Interpretacion eventos union, interseccion y complemento


2.4

F I G U R A 2.8
Diagrama de Venn
para el experimento
de lanzar un dado

Un modelo probabilstico para un experimento: el caso discreto

S
E6

E1

E3

E5

E4

E2

A : Se obtiene impar.
: Seuno
obtiene
un simples
n
umero
si y sloB
si ocurre
de los eventos
E1, E3 menor
o E5. As, que 5.
A = E 1 E3 E5

B = E1 E2 AE=3{E1 , EE43 ,

E5}

o A = E1 E3 E5.

El evento se obtienen
impar
menorunque
5menor
es que
A 5)
seBpuede
=E
1E
3.
Del mismo
modo, y
B (observar
nmero
escribir
como
El evento se obtiene impar o menor
que 5 es
B = {E 1 , E 2 , E 3 , E 4 } o
A B = E1 E2 E3 E4 E 5 .

B = E1 E2 E3 E4.

La regla para determinar cules eventos simples incluir en un evento compuesto es muy p

sa. Un evento
Ei se incluye
en el
A siEy slo
El evento no se obtiene
unsimple
impar
es A
=evento
E2
. siempre que ocurra
4 siEA6ocurre
D E FI NIC IN 2.5
Vicente Acu
na (CMM, Universidad de Chile)

Un evento en un espacio muestral discreto S es un conjunto de puntos muestrales, e


decir, cualquier subconjunto de S.
Prob. y Est.

30 / 250

Clase 2: Probabilidades caso discreto

Recuerdo algebra

Leyes distributivas
A (B C ) = (A B) (A C )
A (B C ) = (A B) (A C )
Leyes de DeMorgan
(A B) = A B
(A B) = A B

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

31 / 250

Clase 2: Probabilidades caso discreto

Modelo probabilstico
Definition
Sea S un espacio muestral asociado a un experimento. A todo evento A en
S le asignamos un n
umero, P(A), llamado probabilidad de A, de modo que
se cumplen los siguientes axiomas:
A1: P(A) 0
A2: P(S) = 1
A3: Si A1 , A2 , A3 , . . . forman una secuencia de eventos disjuntos dos a dos
(es decir, Ai Aj = si i 6= j), entonces

X
P(A1 A2 A3 . . .) =
P(Ai ).
i=1

Ojo: A3 incluye tambien la uni


on finita de conjuntos disjuntos dos a dos:
P
P(A1 A2 . . . Ak ) = ki=1 P(Ai ).
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

32 / 250

Clase 2: Probabilidades caso discreto

Modelo probabilstico
Para definir un modelo probabilstico para un experimento con un
espacio muestral discreto basta con asignar una probabilidad
numerica a cada evento simple Ei del espacio muestral S.
Este valor debe ser coherente con lo que creemos sera la frecuencia
relativa al repetir el evento muchas veces. Ej: si creemos que el dado
no esta cargado entonces P(Ei ) = 61 .
Los axiomas permiten otras asignaciones. Podramos asignar :
1
1
2
P(E1 ) = , P(E2 ) = , P(E3 ) = ,
3
15
15
1
1
1
P(E4 ) = , P(E5 ) = , P(E6 ) =
15
15
15
si suponemos que el dado esta cargado al uno.
El modelo probabilstico elegido va a depender de las suposiciones
(razonables!) que hagamos.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

33 / 250

Clase 2: Probabilidades caso discreto

As si nuestro espacio es finito o numerable, una manera para hallar la


probabilidad de un evento es la siguiente:
1. Definir el experimento y determinar con claridad c
omo describir un
evento simple.
2. Indicar todos los eventos simples asociados con el experimento
asegurandose que no se pueden descomponer. Esto define el espacio
muestral S.
3. Asignar probabilidades razonables a los puntos muestrales en S,
asegurandose de que P(Ei ) 0 y P(S) = 1.
4. Definir el evento de interes, A, como un conjunto especfico de puntos
muestrales.
5. Encontrar P(A) al sumar las probabilidades de los puntos muestrales en
A.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

34 / 250

Clase 2: Probabilidades caso discreto

Este metodo puede ser u


til en general pero bastante limitado si
tenemos grandes cantidades de posibles resultados.
Veremos que cuando todos los puntos muestrales de S tienen la
misma probabilidad de ocurrir, el calculo de la probabilidad de un
evento se reduce a contar cuantos eventos simples contiene. Para ello
veremos algunas herramientas de conteo.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

35 / 250

Clase 2: Probabilidades caso discreto

Ejercicios
(Wackerly 2.17)
Los trenes de aterrizaje hidraulicos que salen de una planta de reparacion
de aviones se inspeccionan para ver si tienen defectos. Registros historicos
indican que 8 % tienen defectos s
olo en ejes, 6 % tienen defectos solo en
bujes y 2 % tienen defectos en ejes y bujes. Uno de los trenes hidraulicos
se selecciona al azar. Cual es la probabilidad de que el conjunto tenga
(a) un buje defectuoso?
(b) un eje o buje defectuoso?
(c) exactamente uno de los dos tipos de defecto?
(d) ning
un tipo de defecto?
Sol: Pizarra

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

36 / 250

Clase 2: Probabilidades caso discreto

Ejercicios
(Wackerly 2.18)
Suponga que dos monedas balanceadas se tiran al aire y que se observan
las caras superiores.
(a) Indique los puntos muestrales para este experimento.
(b) Asigne una probabilidad razonable a cada punto muestral. (Los
puntos muestrales son igualmente probables?)
(c) Denote con A el evento de que exactamente se vea una cara y con B
el evento de que se vea al menos una cara. Indique los puntos
muestrales en A y B.
(d) De su respuesta al inciso (c), encuentre
P(A), P(B), P(A B), P(A B) y P(A B).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

37 / 250

Clase 3: Espacio muestral equiprobable

Clase 3: Espacio muestral equiprobable

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

38 / 250

Clase 3: Espacio muestral equiprobable

Espacios equiprobables

Definition
Un espacio muestral finito se denomina equiprobable si todos los eventos
simples (puntos muestrales) tienen la misma probabilidad de ocurrir.
Cuando tenemos un espacio equiprobable, entonces para cualquier evento
A tenemos
P(A) =

n
umero de puntos muestrales en A
|A|
=
n
umero de puntos muestrales en S
|S|

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

39 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


Theorem (Principio basico de conteo)
Sea un experimento del que queremos contar un n
umero de resultados
validos (i.e. que cumplan alguna propiedad). Si los resultados validos se
pueden dividir en una partici
on de n conjuntos cada uno conteniendo
exactamente m resultados, entonces el proceso tiene en total n m
resultados diferentes.
Dem: arbol (pizarra)
Parece bastante obvio pero muy u
til si entendemos como se ocupa:
ej: lanzar sucesivamente dos dados.
Dividimos los resultados validos de acuerdo a lo que sale en el primer
dado 6 grupos.
Cada grupo tiene exactamente 6 resultados (dado por el resultado del
segundo dado)
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

40 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


Otra manera de expresarlo:
Theorem (Principio basico de conteo)
Sea un experimento del que queremos contar un n
umero de resultados
validos (i.e. que cumplan alguna propiedad). Si los resultados validos
pueden ser generados por un proceso de dos etapas tales que:
la primera etapa separa los resultados posibles en n clases (que
pueden cumplir la propiedad deseada),
cada clase definida en la primera etapa tiene m valores posibles que
cumplen la propiedad.
Entonces el n
umero de resultados diferentes que cumplen la propiedad es
n m.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

41 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


lanzar dos dados de cuatro lados:
Etapa 1 de clasificaci
on: de acuerdo al resultado del primer dado (i.e.
fijamos el valor del primer dado).
Etapa 2 de clasificaci
on: de acuerdo al resultado del segundo dado
(i.e. fijamos el valor del segundo dado).
Etapa 1

(1,)

(2,)

Etapa 2
(1,1)
(1,2)
(1,3)
(1,4)
(2,1)
(2,2)
(2,3)
(2,4)

(3,)
(4,)

44
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

42 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


lanzar dos dados de cuatro lados y que salgan resultados diferentes en
cada uno (propiedad).
Etapa 1 de clasificaci
on: de acuerdo al resultado del primer dado.
Etapa 2 de clasificaci
on: de acuerdo al resultado del segundo dado.
Etapa 1

(1,)
(2,)

Etapa 2
(1,2)
(1,3)
(1,4)
(2,1)
(2,3)
(2,4)

(3,)
(4,)

43
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

43 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico

Probabilidad del evento A: lanzar dos dados de cuatro lados y que


salgan resultados diferentes en cada uno (propiedad).
Casos totales: 4 4
Casos favorables: 4 3
P(A) =

43
44

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

44 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


Ejemplos simples de conteo de casos favorables:
lanzar sucesivamente dos dados y que salgan dos pares
resultados validos: (2, 2), (2, 4), . . . , (6, 6)
generamos los resultados en dos etapas:
Etapa 1: fijamos primer dado (3 valores posibles)
Etapa 2: fijamos segundo dado (dada etapa 1, hay 3 valores posibles)
33=9
lanzar sucesivamente dos dados y que salgan consecutivos ordenados
resultados validos: (1, 2), (2, 3), . . . , (5, 6)
Etapa 1: fijamos primer dado (5 valores posibles)
Etapa 2: fijamos segundo dado (dada etapa 1, un valor posible)
51=5
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

45 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


Mas ejemplos simples:
sacar en orden dos cartas de una baraja de 52 cartas (con reposicion)
52 52
sacar en orden dos cartas de una baraja (sin reposicion)
52 51
sacar en orden dos cartas de una baraja (sin reposicion) y que la
primera carta sea un rey.
4 51
sacar en orden dos cartas de una baraja (sin reposicion) y que la
segunda carta sea un rey.
...

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

46 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


Ojo! no confundir: las etapas elegidas para clasificar los resultados
validos no tienen por que ser las etapas del experimento:
Ej: sacar dos cartas de una baraja (sin reposici
on) y que la primera
carta sea cualquiera y la segunda carta sea un rey.
Si definieramos la Etapa 1 como fijar la primera carta, y la Etapa 2
como fijar la segunda, entonces no se cumple que el n
umero de
resultados validos de cada grupo definido por la primera etapa sea el
mismo (pues depende si en la primera fijo un rey) 52?
Mejor, definimos,
Etapa 1: fijar la segunda carta: 4 resultados validos posibles.
Etapa 2: fijar la primera carta: 51 resultados validos posibles (todas
salvo la carta fijada en la primera etapa)
4 51 (Hacer el arbol!)
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

47 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico

Es generalizable a mas etapas. Ejemplos simples:


Lanzar una moneda sucesivamente (i.e. el orden importa) 10 veces:
2 2 . . . 2 = 210
Elegir una secuencia de 3 dgitos tal que ninguno se repite
10 9 8
Elegir una secuencia de 3 dgitos tal que dos consecutivos son siempre
diferentes
10 9 9
Lo importante es que la cantidad de resultados validos posibles en cada
etapa de clasificacion no dependa de las etapas anteriores.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

48 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


Las etapas de clasificacion no necesariamente fijan los valores. Ejemplo
mas complejo:
Sacar secuencialmente (el orden importa) 3 cartas en orden de un
mazo sin reposicion y que salga un par y una carta distinta:
Primera etapa de clasificaci
on: Fijar que cartas contienen el par (3
grupos: 1era y 2da / 1era y 3era / 2da y 3era)
Segunda etapa: Fijar el n
umero en el par (13 posibles)
Tercera etapa: Fijar el n
umero en la carta distinta (12 posibles)

3 13 12
Par asegurarse que la clasificaci
on esta bien, verificar que cualquier
resultado valido posible aparece una y s
olo una vez en las hojas del
arbol y que la cantidad de grupos posibles en cada etapa de
clasificacion no dependa de las etapas anteriores.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

49 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico


Y si no puedo separar en grupos del mismo tama
no?:
Ej: Sacar sucesivamente dos cartas (sin reposici
on) y que el primero
sea un mono (J,Q,K) y el segundo un diamante.
No es claro como clasificar en etapas de manera que el n
umero de
resultados de la segunda etapa no dependa de los resultados de la
primera. Podemos separar por casos y sumar:
Etapa 1: fijar primera carta. Separamos dos casos:
Caso A: primera carta es un mono de diamantes (3 valores posibles)
Etapa 2 para caso A: fijar segunda carta (12 valores posibles)
Caso B: primera carta es un mono pero no de diamantes (9 valores)
Etapa 2 para caso B: fijar segunda carta (13 valores posibles)
Total 3 12 + 9 13
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

50 / 250

Clase 3: Espacio muestral equiprobable

Herramientas de conteo: Principio basico

Recomendaci
on 1: Siempre comenzar pensando en como se codifica
un resultado particular (ej: vector de dos componentes) y calcular
primero los resultados totales. Luego los favorables.
Recomendaci
on 2: Hacer el arbol (o un esquema de el) y verificar
que: (1) Todos los valores validos esta en alguna hoja y (2) Ning
un
resultado posible esta representado en mas de una hoja.
Recomendaci
on 3: Hacer diferentes intentos, no tiene por que salir a
la primera idea. En general no es facil!

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

51 / 250

Clase 3: Espacio muestral equiprobable

Distinguible vs indistinguible

Cuando contamos resultados, debemos tener en cuenta si hay elementos


distinguibles o indistinguibles. Ej:
Extraer en orden dos bolitas de una urna conteniendo 3 bolitas de
diferente color (blanco, azul y rojo) sin reposici
on:
3 2 = 6 maneras
Que pasa si hay bolitas del mismo color (indistinguibles)?
Ej: Si hay dos blancas y una azul: {B, B}, {B, A}, {A, B} 3
maneras
Mas adelante veremos como resolver este caso.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

52 / 250

Clase 3: Espacio muestral equiprobable

Ordenando r objetos de n

Theorem
El n
umero de maneras de ocupar r posiciones diferentes utilizando n
objetos distinguibles (con r n) es
n(n 1)(n 2) . . . (n r + 1) =

n!
(n r )!

Dem: Usando el principio basico clasificamos los resultados validos fijando


cada posici
on.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

53 / 250

Clase 3: Espacio muestral equiprobable

Ordenando r objetos de n

Algunos ejemplos simples:


De cuantas maneras se puede elegir una directiva de 5 cargos
diferentes de un total de 20 personas.
20 19 18 17 16 =

20!
15!

De cuantas maneras podemos ordenar 4 bandas en un recital


4321=

4!
0!

= 24

De cuantas maneras podemos escoger sucesivamente r bolitas desde


n!
una urna conteniendo n bolitas todas diferentes (nr
)!

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

54 / 250

Clase 3: Espacio muestral equiprobable

Ejemplo: cumpleanos

(Wackerly 2.7)
Considere un experimento que consiste en registrar el cumplea
nos para
cada una de 20 personas seleccionadas al azar. Si no se presta atencion a
los a
nos bisiestos y se supone que hay s
olo 365 cumplea
nos distintos
posibles, encuentre el n
umero de puntos del espacio muestral S para este
experimento. Si suponemos que cada uno de los posibles conjuntos de
cumplea
nos es igualmente probable, cual es la probabilidad de que cada
persona de las 20 tenga un cumplea
nos diferente?
Sol:Pizarra

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

55 / 250

Clase 3: Espacio muestral equiprobable

Permutaciones

Caso particular de Teorema anterior r = n:


Corollary (Permutacion)
El n
umero de maneras de ordenar n objetos distinguibles (i.e. el n
umero de
permutaciones de n objetos) es
n(n 1)(n 2) . . . 2 1 = n!
Ej: De cuantas maneras puedo ordenar las letras A,B,C,D,E: 5!

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

56 / 250

Clase 4: Espacio muestral equiprobable II

Clase 4: Espacio muestral equiprobable II

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

57 / 250

Clase 4: Espacio muestral equiprobable II

Permutaciones

n! es el n
umero de permutaciones de n elementos distinguibles.
Que pasa si hay elementos indistinguibles entre los n?
No es lo mismo el n
umero de secuencias diferentes de 3 letras que
podemos hacer con la palabra AJO que con la palabra OJO:
AJO 3 2 1 = 6 casos.
OJO s
olo 3 casos: OJO, OOJ, JOO
Para analizar este caso podemos primero distinguir las letras de OJO
como J,O1 y O2 , luego contar el total (3 2 1) y finalmente
analizar cuantas veces aparece un resultado cuando volvemos a
indistinguir. En el ejemplo, al distinguir, cada palabra se cuenta
exactamente dos veces (OJO aparece como O1 JO2 y O2 JO1 ).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

58 / 250

Clase 4: Espacio muestral equiprobable II

Permutaciones con elementos indistinguibles


Theorem
El n
umero de maneras de ordenar n objetos donde n1 son
Pkindistinguibles,
n2 son indistinguibles, . . . y nk son indistinguibles (con i=1 ni = n) es
n!
n1 !n2 ! . . . nk !
.
Dem: Primero distinguir y luego analizar repetidas.
Ejemplo:
Cuantas arreglos de letras se pueden hacer con las letras de
ABRACADABRA
11!
5!2!2!1!1!

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

59 / 250

Clase 4: Espacio muestral equiprobable II

Ejemplo

(a) Se debe asignar a 20 periodistas a 4 trabajos diferentes: 6 reporteros,


5 editores, 5 diagramadores y 4 correctores. De cuantas maneras se
puede hacer esta asignaci
on?
Sol: Fijar las personas en una lista ordenada y repartir los 20 trabajos. Es
como ordenar las letras de la palabra RRRRRREEEEEDDDDDCCCC
20!
|S| = 6!5!5!4!
(b) Si todas las asignaciones son igualmente probables y entre los 20
periodistas hay cuatro amigos, cual es la probabilidad que a los cuatro
les toque reportear?
Sol: Propuesto. Hint: Suponer los amigos en las primeras cuatro posiciones
y fijar 4 Rs ah. Contar cuantos resultados tienen esta caracterstica

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

60 / 250

Clase 4: Espacio muestral equiprobable II

Reparticion en grupos de tamano fijo

Del ejemplo visto conclumos que la f


ormula anterior tambien aplica a este
caso:
Corollary
El n
umero de maneras de repartir n objetos distinguibles en k grupos
distinguibles
de tama
nos fijos n1 , n2 , . . . , nk respectivamente (donde
Pk
n
=
n)
es
i=1 i
n!
n1 !n2 ! . . . nk !

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

61 / 250

Clase 4: Espacio muestral equiprobable II

Combinaciones

Theorem
Dado un conjunto A de tama
no n, el n
umero de subconjuntos de A de
tama
no r es
 
n
n!
:=
r
r !(n r )!
.
Dem: Considerar dos grupos de tama
no fijo: los que quedan dentro del
subconjunto y los que quedan fuera. Aplicar resultado anterior.
Ejemplo:
Elegir un comite (sin cargos) de 5 personas de entre 20.

20
5

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

62 / 250

Clase 4: Espacio muestral equiprobable II

Ejemplo

Una empresa compra abastecimientos a M distribuidores y desea hacer n


pedidos (n < M). Suponga que la empresa hace los pedidos en forma que
permita a cada distribuidor tener igual probabilidad de obtener cualquier
pedido y no hay restriccion en el n
umero de pedidos que se puedan colocar
con cualquier distribuidor. Encuentre la probabilidad de que un distribuidor
particular, por ejemplo el distribuidor I , obtenga exactamente k pedidos
(k n).
Sol: Pizarra

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

63 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Clase 5: Probabilidad condicional, independencia y otras propiedades

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

64 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Probabilidad condicional

Considere el ejemplo de lanzar un dado balanceado. La probabilidad


de que salga un 1 es P(Ei ) = 16 .
Que sucede si suponemos que ha cado impar? Cambia nuestra
nocion de probabilidad de que salga 1?

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

65 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Probabilidad condicional

Definition
La probabilidad condicional de un evento A, dado que un evento B ha
ocurrido, es igual a
P(A B)
,
P(A|B) =
P(B)
siempre que P(B) > 0. El smbolo P(A|B) se lee probabilidad de A dado
B.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

66 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Probabilidad condicional

Ejemplo:
Considere el ejemplo de lanzar un dado balanceado. Consideremos los
eventos A : se obtiene un 1 y B: se obtiene un n
umero impar.
La probabilidad de obtener un 1 dado que se obtiene impar es la
probabilidad de A dado B:
P(A|B) =

P(A B)
1/6
1
=
=
P(B)
1/2
3

As, si suponemos que ha cado impar entonces la probabilidad de que


salga uno es 1/3.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

67 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Independencia de eventos
Que pasa si la probabilidad de un evento no es afectada cuando
suponemos la ocurrencia o no ocurrencia de otro evento?
Tenderamos a calificar estos eventos como independientes
Definition
Se dice que dos eventos son independientes si cumple cualquiera de los
siguientes casos (todos son equivalentes):
P(A|B) = P(A),
P(B|A) = P(B),
P(A B) = P(A)P(B)
Si esto no sucede decimos que los sucesos son dependientes
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

68 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Independencia de eventos
Ejemplo: Tirar una moneda no balanceada 5 veces (probabilidad de
cara 0,6). Cual es la probabilidad de obtener exactamente 2 caras?.
Ai : sale cara en lanzamiento i
P(Ai ) = 6/10 y P(Ai ) = 4/10
B : se obtienen exactamente dos caras. P(B) =?
Veamos la probabilidad de un evento simple en B:
E1 = (C , C , S, S, S) = A1 A2 A3 A4 A5 A6
Si suponemos , razonablemente, que cada tirada Ai es independiente:
6 2 4 3
P(E1 ) = P(A1 )P(A2 )P(A3 )P(A4 )P(A5 )P(A6 ) = ( 10
) ( 10 )
Todos los eventos simples en B tienen la misma probabilidad:
6 2 4 3
( 10
) ( 10 ) .

5!
Cuantos eventos simples contiene B? 2!3!
= 52
 6 2 4 3
Conclumos P(B) = 52 ( 10
) ( 10 )
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

69 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Probabilidad de la interseccion

Theorem
La probabilidad de la intersecci
on de dos eventos A y B es
P(A B) = P(A)P(B|A)
= P(B)P(A|B)
Si a A y B son independientes, entonces
P(A B) = P(A)P(B)
Dem: De la definicion de probabilidad condicional

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

70 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Probabilidad de la interseccion

Se puede extender a intersecciones mayores:


P(A B C ) = P(A)P(B|A)P(C |A B)
En general:
P(A1 A2 . . . Ak ) = P(A1 )P(A2 |A1 )P(A3 |A1 A2 ) . . .
. . . P(Ak |A1 A2 . . . Ak1 )

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

71 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Probabilidad de la union

Theorem
La probabilidad de la uni
on de dos eventos A y B es
P(A B) = P(A) + P(B) P(A B).
Si A y B son mutuamente excluyentes, P(A B) = 0 y
P(A B) = P(A) + P(B)

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

72 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Probabilidad de la union

Se puede extender a uniones mayores:


P(A B C ) =
= P(A)+P(B)+P(C )P(AB)P(AC )P(B C )+P(AB C )
y as sucesivamente...

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

73 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Probabilidad del complemento

Theorem
Si A es un evento, entonces
P(A) = 1 P(A).
Dem: S = A A
Muchas veces es mas facil calcular la probabilidad del complemento
de nuestro evento de interes. Ej: Probabilidad que entre 20 personas
al menos dos tengan cumplea
nos el mismo da.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

74 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Ley de probabilidad total

Consideremos B1 , B2 , . . . Bk una partici


on del espacio muestral S, es
decir
(a) S = B1 B2 . . . Bk .
(b) Bi Bj = para i 6= j

Claramente cualquier conjunto A en S puede descomponerse como


sigue:
A = (A B1 ) (A B2 ) . . . (A Bk )

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

75 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Ley de probabilidad total

Theorem
Suponga que {B1 , B2 , . . . , Bk } es una partici
on de S tal que P(Bi ) > 0,
para i = 1, 2, . . . , k. Entonces para cualquier evento A
P(A) =

k
X

P(A|Bi )P(Bi )

i=1

Dem: descomposicion y probabilidad de la uni


on.
Utilidad: Muchas veces es mas facil calcular los P(A|Bi ) para una
partici
on elegida adecuadamente que calcular directamente P(A).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

76 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Regla de Bayes

Theorem
Suponga que {B1 , B2 , . . . , Bk } es una partici
on de S tal que P(Bi ) > 0,
para i = 1, 2, . . . , k. Entonces
P(A|Bj )P(Bj )
P(Bj |A) = Pk
i=1 P(A|Bi )P(Bi )
Dem: ley de probabilidad total y probabilidad condicional.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

77 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Ejemplo (Wackerly)

Una prueba de diagnostico para una enfermedad es tal que


(correctamente) detecta la enfermedad en 90 % de los individuos que en
realidad tienen la enfermedad. Tambien, si una persona no tiene la
enfermedad, la prueba reportara que el o ella no la tiene con probabilidad
.9. Solo 1 % de la poblacion tiene la enfermedad en cuestion. Si una
persona es seleccionada al azar de la poblaci
on y la prueba de diagnostico
indica que tiene la enfermedad, cual es la probabilidad condicional de que
tenga, en realidad, la enfermedad? La respuesta lo sorprende? Se
considera confiable esta prueba de diagn
ostico?
Ver applet en:
http://mcsp.wartburg.edu/nmb/fall10/math313/seeingstats/Chpt2/bayesTree.html

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

78 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Ejemplo (Wackerly)
Un fusible electronico es producido por cinco lneas de produccion en una
operacion de manufactura. Los fusibles son costosos, sumamente
confiables y se envan a proveedores en lotes de 100 unidades. Como la
prueba es destructiva, la mayora de los compradores de fusibles prueban
s
olo un n
umero peque
no de ellos antes de decidirse a aceptar o rechazar
lotes de fusibles que lleguen. Las cinco lneas de produccion producen
fusibles al mismo ritmo y normalmente producen s
olo 2 % de fusibles
defectuosos, que se dispersan al azar en la producci
on.
Desafortunadamente, la lnea 1 de producci
on sufri
o problemas mecanicos
y produjo 5 % de piezas defectuosas durante el mes de marzo. Esta
situacion llego al conocimiento del fabricante despues de que los fusibles
ya haban sido enviados. Un cliente recibi
o un lote producido en marzo y
prob
o tres fusibles. Uno fall
o. Cual es la probabilidad de que el lote se
haya producido en la lnea 1? Cual es la probabilidad de que el lote haya
provenido de una de las otras cuatro lneas?
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

79 / 250

Clase 5: Prob. condicional, independencia y otras propiedades

Solucion

Desarrollo: Pizarra
Sol: 0.73 y 0.63

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

80 / 250

Clase 6: Variable aleatoria discreta

Clase 6: Variables aleatorias

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

81 / 250

Clase 6: Variable aleatoria discreta

Variables aleatorias

En lo que viene, vamos a concentrarnos en descripciones num


ericas de los
resultados en S.
Definition
Una variable aleatoria (v.a.) es una funci
on que toma valores reales y cuyo
dominio es un espacio muestral
Ojo: una variable aleatoria es una funci
on, no es una variable (a pesar del
nombre).
Y : S RY R

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

82 / 250

Clase 6: Variable aleatoria discreta

Variable aleatoria discreta

Definition
Una variable aleatoria Y es discreta si puede tomar solo un n
umero finito
o infinito numerable de valores distintos. Es decir, su recorrido RY es finito
o infinito numerable.
Ejemplo : lanzar 3 monedas equilibradas.
La v.a. Y :n
umero de caras tiene RY = {0, 1, 2, 3}. Por lo tanto Y
es discreta.
Ejemplo : lanzar una moneda hasta que salga sello
La v.a. X =n
umero de lanzamientos tiene RX = {1, 2, 3, . . .}.
Como RX es infinito numerable entonces X es discreta.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

83 / 250

Clase 6: Variable aleatoria discreta

Variable aleatoria discreta

Cuando no es discreta?
Ejemplo : lanzar un dardo en un disco de tiro al blanco y mirar su
posicion.
la variable aleatoria Y =distancia entre la posici
on y el centro del
blanco es discreta o no?
Si asumimos una medici
on perfecta, el n
umero de posibles valores de
Y es cualquier n
umero real entre 0 y el radio del disco Y no es
discreta. Mas adelante estudiaremos este caso.
En cambio si observamos la zona en que cay
o, la v.a. X =puntaje
obtenido es claramente discreta. As, para un mismo experimento
podemos definir distintas v.a. de distinta naturaleza.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

84 / 250

Clase 6: Variable aleatoria discreta

Variable aleatoria discreta

Ejemplo: Lanzar dos monedas y observar resultado.


S = {CC , CS, SC , SS}
Definimos Y la v.a. n
umero de caras que se obtuvieron
Y : S {0, 1, 2} R
Notaci
on de eventos:
{Y = 0} = {SS}, {Y = 1} = {CS, SC }, {Y = 2} = {CC }
Si la moneda es balanceada y los lanzamientos independientes:
P(Y = 0) = 14 , P(Y = 1) =

Vicente Acu
na (CMM, Universidad de Chile)

1
2

y P(Y = 2) =

Prob. y Est.

1
4

85 / 250

Clase 6: Variable aleatoria discreta

Variable aleatoria discreta

Proposition
La probabilidad de que Y tome el valor y , P(Y = y ), es la suma de las
probabilidades de todos los puntos muestrales en S a los que se asigna el
valor y . A veces denotamos P(Y = y ) como pY (y ) o simplemente como
p(y ).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

86 / 250

Clase 6: Variable aleatoria discreta

Distribucion de probabilidad

Definition
La distribucion de probabilidad para una variable discreta Y es la
descripcion de la probabilidad de cada uno de los valores que puede tomar
Y . Puede ser representada por una f
ormula, una tabla o una grafica que
produzca p(y ) = P(Y = y ) para todo y .

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

87 / 250

Clase 6: Variable aleatoria discreta

It is often instructive to present the probability mass function in a graphical for


Distribuci
onthe
dey-axis
probabilidad
plotting
p(xi ) on
against xi on the x-axis. For instance, if the probab
ss function of X is
1
1
1
p(1)equilibradas
=
p(2)
= v.a. X que
p(0) =2 monedas
Ejemplo =lanzar
y la
4
2
4
representa el n
umero de caras.
p(x)

1
1

2
1

Figura de A First..., Ross

FIGURE 4.1
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

88 / 250

Clase 6: Variable aleatoria discreta

Distribucion de probabilidad

pter 4

Ejemplo =lanzar 2 dados equilibrados y la v.a. X que representa


la
suma de los dados.
Random Variables
p(x)
6

36
5

36
4

36
3

36
2

36
1

36

10

11

12

Figura de A First..., Ross


FIGURE 4.2
Vicente Acu
nawe
(CMM,
Chile)
can Universidad
representdethis
function

Prob. yas
Est.
graphically
shown in Figure 4.1. Similarly, a graph

89 / 250

Clase 6: Variable aleatoria discreta

Distribucion de probabilidad
Algunas propiedades:
La probabilidad para Y = y debe estar entre 0 y 1 para todo y :
0 pY (y ) 1
La probabilidad para todos los valores de Y debe sumar 1
X
pY (y ) = 1
y RY

Para cualquier subconjunto M de los reales se tiene que


X
P(Y M) =
pY (y )
y MRY

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

90 / 250

Clase 6: Variable aleatoria discreta

Ejemplo
Sea =lanzar 3 monedas equilibradas y la v.a. Y que representa
el n
umero de caras.
Dada una ley de probabilidad sobre S, podemos calcular la funcion de
probabilidad de Y calculando la probabilidad de cada conjunto
{Y = k} con k = 0, . . . , 3 (es usual usar k en vez de y cuando los
valores posibles de Y son enteros)
pY (0) = P(Y = 0) = P{(S, S, S)} = 1/8
pY (1) = P(Y = 1) = P{(S, S, C ), (S, C , S), (C , S, S)} = 3/8
pY (2) = P(Y = 2) = P{(S, C , C ), (C , S, C ), (C , C , S)} = 3/8
pY (3) = P(Y = 3) = P{(C , C , C )} = 1/8

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

91 / 250

Clase 6: Variable aleatoria discreta

Ejemplo (continuacion)
En general no escribimos todos los valores. En cambio calculamos una
formula para la funcion de probabilidad:

3
pY (k) =

k = 0, . . . , 3

23

Efectivamente las probabilidades los posibles valores de Y suman 1:


3
X
k=0

pY (k) =

1 3 3 1
+ + + =1
8 8 8 8

Tambien podemos corroborarlo a partir de la f


ormula:
3
X
k=0

3  
3  
1 X 3
1 X 3 k 3k
1
pY (k) = 3
= 3
1 1
= 3 (1 + 1)3 = 1
2
k
2
k
2
k=0

Vicente Acu
na (CMM, Universidad de Chile)

k=0

Prob. y Est.

92 / 250

Clase 6: Variable aleatoria discreta

Problema

Problema: Tres bolas son elegidas al azar sin reemplazo desde una
urna conteniendo 20 bolas numeradas del 1 al 20. Si apostamos que
al menos una bola elegida tiene un n
umero mayor o igual a 17, cual
es la probabilidad de que ganemos la apuesta?

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

93 / 250

Clase 6: Variable aleatoria discreta

Solucion: Definimos : Elegir tres bolas al azar


S = {{1, 2, 3}, {1, 2, 4}, . . . , {18, 19, 20}} (el orden no importa)

S es equiprobable. |S| = 20
3
Definimos la v.a. Y como el n
umero de bolas extradas con n
umero
mayor o igual a 17.
Y puede tomar los valores 0,1,2 y 3. Es decir RY = {0, 1, 2, 3}
Contemos los casos tales que Y = k. Es decir, que exactamente k
bolitas son mayores o iguales que 17. Los casos en que eso ocurre
pueden verse como elegir k bolitas de entre las 4 bolitas mayores y
luego elegir 3 k bolitas de las 16 menores. Es decir
 16 
4
P(Y = k) =

3k

20
3

Obtenemos P(Y 1) = 1 P(Y < 1) = 1 P(Y = 0) =


(4)(16)
16! 3!17!
141516
1 0 20 3 = 1 3!13!
20! = 1 181920
(3)
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

94 / 250

Clase 6: Variable aleatoria discreta

Alternativa: Y si hubieramos elegido S tal que el orden s importa?


S = {(1, 2, 3), (1, 2, 4), . . . , (2, 1, 3), (2, 1, 4), . . . , (20, 19, 18)} (el
orden importa). S es equiprobable. |S| = 20 19 18
Contemos los casos tales que Y = k. Es decir, que exactamente k
bolitas son mayores o iguales que 17. Los casos en que eso ocurre
pueden verse como elegir primero
las k posiciones donde colocamos

las bolas mayores (esto es k3 ) y luego en esas posiciones llenarlos con
4!
) y las otras 3 k posiciones
k de las 4 bolitas mayores (esto es (4k)!
llenarlas con bolitas menores (de

16!
(16(3k))!

maneras). Es decir

3
4!
16!
k (4k)! (13+k)!
20!
17!

P(Y = k) =

Comprueben que es lo mismo que antes (es decir

16
(k4)(3k
)
) pero
20
(3)

escrito mas feo.


Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

95 / 250

Clase 7: Esperanza y varianza

Clase 7: Esperanza y varianza

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

96 / 250

Clase 7: Esperanza y varianza

Esperanza

Definition
Sea Y una v.a. discreta con funci
on de probabilidad p(y ). Entonces el
valor esperado de Y , E (Y ), se define como
X
E (Y ) =
yp(Y )
y RY

La esperanza es un promedio ponderado de los valores que puede


tomar Y
Nota: hay casos en que esta suma no es convergente, pero no los
estudiaremos en este curso.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

97 / 250

Clase 7: Esperanza y varianza

Funcion de una variable aleatoria

Recoredemos que la v.a. Y es una funci


on. Que pasa si definimos una
nueva funcion g sobre los valores que puede tomar Y ? g : R R.
Entonces la funcion g Y : S R tambien es una variable aleatoria.
Ejemplo: Y 2
Supongamos que Y puede tomar los valores RY = {2, 0, 2} con
probabilidad 1/3 cada uno.
RY 2 = {0, 4}.Cual es la distribuci
on de Y 2 ?
pY 2 (0) = 1/3

pY 2 (4) = 2/3

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

98 / 250

Clase 7: Esperanza y varianza

Esperanza de una funcion de una v.a.


Theorem
Sea Y una v.a. discreta con funci
on de probabilidad p(y ) y sea g (Y ) una
funcion de valor real de Y . Entonces el valor esperado de g (Y ) es
X
E [g (Y )] =
g (y )p(Y )
y RY

El teorema dice que no es necesario calcular la distribucion de g (Y )


para calcular su esperanza.
Continuando
P el ejemplo:
E [Y 2 ] = y {2,0,2} y 2 p(y ) = (2)2

1
3

+ 02

1
3

+ 22

1
3

8
3

Comprobar calculando la esperanza de Y 2 por definicion.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

99 / 250

Clase 7: Esperanza y varianza

Varianza

Theorem
Si Y es una v.a. con media E (Y ) = , la varianza de la v.a. Y se define
como el valor esperado de (Y )2 . Esto es,
V (Y ) = E ((Y )2 ).
La desviaci
on estandar de Y es la raz cuadrada positiva de V (Y )

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

100 / 250

Clase 7: Esperanza y varianza

Propiedades de la esperanza

Theorem
Sea Y una v.a. discreta con funci
on de probabilidad p(y ) y sea c una
constante. Entonces E (c) = c.
Una constante es cualquier valor que no vara cuando realizamos el
experimento.
Caso particular interesante: E (E (X )) = E (X ) pues la esperanza de X
no depende del resultado de X

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

101 / 250

Clase 7: Esperanza y varianza

Propiedades de la esperanza

Theorem
Sea Y una v.a. discreta con funci
on de probabilidad p(y ), g (Y ) una
funcion de Y y c una constante. Entonces
E (cg (Y )) = cE (g (Y ))
.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

102 / 250

Clase 7: Esperanza y varianza

Propiedades de la esperanza

Theorem
Sea Y una v.a. discreta con funci
on de probabilidad p(y ) y sean
g1 (Y ), g2 (Y ) . . . gk (Y ) k funciones de Y . Entonces
E (g1 (Y ) + g2 (Y ) + . . . + gk (Y )) = E (g1 (Y )) + E (g2 (Y )) + . . . E (gk (Y ))

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

103 / 250

Clase 7: Esperanza y varianza

Formula de la varianza

Theorem
Sea Y una v.a. discreta con funci
on de probabilidad p(y ) y media
E (Y ) = ; entonces
V (Y ) = 2 = E ((Y )2 ) = E (Y 2 ) 2
Dem: Pizarra
Esta f
ormula es muy usada para calcula la esperanza

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

104 / 250

Clase 7: Esperanza y varianza

Propiedad de la varianza

Theorem
Si X es una variable aleatoria y a, b son constantes, entonces
V (aX + b) = a2 V (X )
Demostracion: Pizarra

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

105 / 250

Clase 8: Variables aleatorias discretas usuales

Clase 8: Variables aleatorias discretas usuales

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

106 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria de Bernoulli


Definition
Decimos que una v.a. discreta X sigue una distribuci
on de Bernoulli de
parametro p, si la distribuci
on de X esta dada por
pX (0) = 1 p
pX (1) = p
En este caso denotamos X Bernoulli(p).
Ejemplos:
lanzar una moneda balanceada. Si X v.a. que sale 1 si cara y 0 si
sello, entonces X Bernoulli( 12 ).
lanzar un dado balanceado. Si Y v.a. que vale 0 si sale un seis y 1 si
no. Entonces X Bernoulli( 56 ).
Pizarra: Mostrar que esperanza es p y varianza p(1 p).
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

107 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria binomial


Recordemos el ejemplo: Tirar una moneda no balanceada 5 veces
(probabilidad de cara 0,6). Cual es la probabilidad de obtener
exactamente 2 caras?.
Ai : sale cara en lanzamiento i
P(Ai ) = 6/10 y P(Ai ) = 4/10
B : se obtienen exactamente dos caras. P(B) =?
Veamos la probabilidad de un evento simple en B:
E1 = (C , C , S, S, S) = A1 A2 A3 A4 A5 A6
Si suponemos, razonablemente, que cada tirada Ai es independiente:
6 2 4 3
P(E1 ) = P(A1 )P(A2 )P(A3 )P(A4 )P(A5 )P(A6 ) = ( 10
) ( 10 )
Todos los eventos simples en B tienen la misma probabilidad:
6 2 4 3
( 10
) ( 10 ) .

5!
Cuantos eventos simples contiene B? 2!3!
= 52
 6 2 4 3
Conclumos P(B) = 52 ( 10
) ( 10 )
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

108 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria binomial


Definition
Decimos que una v.a. discreta X sigue una distribuci
on binomial de
parametros n N y p [0, 1], si la distribuci
on de X esta dada por
 
n k
pX (k) =
p (1 p)nk para todo k {0, 1, . . . , n}
k
En este caso denotamos X bin(n, p).
Ejemplos:
Ejemplo: lanzar 10 veces una moneda balanceada y definir X el
n
umero de caras. Entonces X bin(10, 21 ).
Pizarra: Mostrar que esperanza de binomial es np y varianza
np(1 p).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

109 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria binomial

Un experimento binomial presenta las siguientes propiedades:


1. Consiste en un n
umero fijo, n, de pruebas identicas.
2. Cada prueba resulta en uno de dos resultados: exito, S, o fracaso, F .
3. La probabilidad de exito en una sola prueba es igual a alg
un valor p y
es el mismo de una prueba a la otra. La probabilidad de fracaso es
igual a q = (1p).
4. Las pruebas son independientes.
5. La variable aleatoria de interes es Y , el n
umero de exitos observado
durante las n pruebas.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

110 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria binomial


Problema:
Suponga que un lote de 5000 fusibles electricos contiene 5 % de
piezas defectuosas. Si se prueba una muestra de 5 fusibles, encuentre
la probabilidad de hallar al menos uno defectuoso (Como el lote es
grande con respecto a la muestra, asuma que la proporcion de piezas
defectuosas no cambia para cada fusible extrado en la muestra).
La experiencia ha demostrado que 30 % de todas las personas
afectadas por cierta enfermedad se recuperan. Una empresa fabricante
de medicamentos ha inventado una nueva medicina. Diez personas
con la enfermedad se seleccionaron al azar y recibieron la medicina;
nueve se recuperaron al poco tiempo. Suponga que la medicina no es
eficaz en absoluto. Cual es la probabilidad de que se recuperen al
menos nueve de entre diez que recibieron la medicina?

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

111 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria binomial


104

Captulo 3

Variables aleatorias discretas y sus distribuciones de probabilidad

F I G U R A 3.4
Histogramas
de probabilidad
binomial

p ( y)
.40
.30

n = 10, p = .1

.20
.10

0
0

10

10

(a)
p ( y)
.25

n = 10, p = .5

.20
.15
.10
.05

0
0

(b)

p ( y)
.18
.16
.14

n = 20, p = .5

.12
.10
.08
.06
.04
.02

0
0

Vicente Acu
na (CMM, Universidad de Chile)

10

(c)
Prob. y Est.

12

14

16

18

20

112 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria geometrica


Definition
Decimos que una v.a. discreta X sigue una distribuci
on geometrica de
parametro p [0, 1], si la distribuci
on de X esta dada por
pX (k) = (1 p)k1 p

para todo k {1, 2, . . .}

En este caso denotamos X geom(p).


Ejemplos:
Ejemplo: lanzar sucesivamente un dado hasta obtener tres. X definido
como cuantas veces se lanza el dado. X geom( 61 )
Propuesto: Mostrar que la esperanza es

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

1
p

y varianza

1p
.
p2

113 / 250

p(y), p = .5. Las


los intervalos corresponden a probabilidades, como correspondieron a las distrib
frecuencia de datos en el Captulo 1, excepto que Y puede tomar slo valores dis
1, 2, , q. Por inspeccin de los valores respectivos es obvio que p(y) 0 . En e
3.66 demostrar que estas probabilidades ascienden a 1, como se requiere para cua
tribucin de probabilidad discreta vlida.

Clase 8: Variables aleatorias


usuales
Endiscretas
la Figura
3.5 se ilustra un histograma de probabilidad para

Variable aleatoria geometrica

FIGURA 3.5
La distribucin
de probabilidad
geomtrica, p = .5

p ( y)
.5
.4
.3
.2
.1

W-cap-03.indd 115

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

114 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria binomial negativa (Pascal)


Definition
Decimos que una v.a. discreta X sigue una distribuci
on binomial negativa

de parametros r N y p [0, 1], si la distribuci


on de X esta dada por


k 1
pX (k) =
(1 p)kr p r para todo k {r , r + 1, . . .}
r 1
En este caso denotamos X BN(r , p).
Ejemplos:
Ejemplo: lanzar sucesivamente un dado hasta obtener 10 veces tres.
X definido como cuantas veces se lanza el dado. X BN(10, 61 )
Propuesto: Mostrar que la esperanza es

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

r
p

y varianza

r (1p)
.
p2

115 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria Poisson

Ejemplo motivador: Una maquina produce una gran cantidad de


fusibles continuamente durante 24 horas. Sabemos que en promedio
fabrica pocos fusibles defectuosos, digamos = 8 al da. Sabemos que
los defectuosos se producen en cualquier momento, sin preferencia por
alg
un horario y que cuando se produce un defectuoso en un instante
no influye en lo que pueda suceder en cualquier otro instante de
tiempo. Cual es la probabilidad de que produzca 9 defectuosos?
Indicacion: pensar en intervalos peque
nos que contengan a lo mas un
defectuoso.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

116 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria Poisson

Si definimos la v.a. X n
umero de defectuosos al da, solo sabemos que
E (X ) = .
Supongamos que separamos el da en N intervalos muy peque
nos
tales que: (1) es imposible que en cada intervalo se produzca mas de
un defectuoso y (2) la probabilidad de fabricar un defectuoso en un
intervalo es independiente de los que suceda en otros intervalos.
Entonces la probabilidad de que produzca un defectuoso en el
intervalo i es N y X es una binomial X bin(N, N ).
Es coherente pues E (X ) = N N = .

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

117 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria Poisson


As la distribucion de X es:
 

N k
P(X = k) =
( ) (1 )Nk
N
k N

para k {0, 1, . . . , N}

Pero queda dependiente de un N correspondiente al n


umero de
intervalos, que suponemos grande para que s
olo pueda contener a lo
mas un evento defectuoso.
Podemos hacer N . . .
Veremos (pizarra) que :
 

k
N k
lm
( ) (1 )Nk = e
n k
N
N
k!

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

118 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria Poisson

Definition
Decimos que una v.a. discreta X sigue una distribuci
on de Poisson de
parametro > 0, si la distribuci
on de X esta dada por
pX (k) = e

k
k!

para todo k {0, 1, 2, . . .}

En este caso denotamos X Poisson().

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

119 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria Poisson


Ejemplos tpicos: accidentes automovilsticos en una unidad de
tiempo, n
umero de llamadas telef
onicas recibidas en un intervalo,
n
umero de partculas radiactivas que se desintegran en un periodo
particular, n
umero de errores que comete una mecanografa al escribir
una pagina, n
umero de autom
oviles que usan una rampa de acceso a
una autopista en un intervalo de diez minutos, etc.
El parametro corresponde al promedio de eventos en el intervalo
considerado. En el ejemplo, = 8 era el promedio de bombillas
defectuosas en un da. Algo importante es que si cambiamos el
intervalo de tiempo, cambia proporcionalmente. As si X es el
n
umero de defectos en una semana, entonces X Poisson(7 8).
La distribucion de Poisson se usa tambien como una manera de
aproximar el calculo de la binomial para n grande p peque
na y = np
menor que 7, aproximadamente.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

120 / 250

Clase 8: Variables aleatorias discretas usuales

Variable aleatoria Poisson

Propuesto
Demostrar que la distribuci
on de Poisson
satisface la condicion
P
(requerida para ser distribuci
on): y RY pY (y ) = 1 (Hint: use la
expansion en serie de e )
Demostrar que la esperanza de una v.a. de Poisson con parametro
es (Hint: Busque formar la condici
on anterior)
Demostrar que la varianza tambien es (Hint: Encuentre
E (Y (Y 1)) para calcular E (Y 2 ) )

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

121 / 250

Clase 9: Variables aleatorias continuas

Clase 9: Variables aleatorias continuas

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

122 / 250

Clase 9: Variables aleatorias continuas

Funcion de distribucion (acumulada)


Hay variables aleatorias en el mundo real que podran tomar cualquier
valor en un intervalo (suponiendo una medici
on perfecta): Agua cada
en un da, vida util de una lavadora en a
nos, altura de una persona,
etc.
Sin embargo no podemos asignar una probabilidad positiva a cada
punto del intervalo, pues queremos que el total de probabilidad sea 1.
As en el caso de variables aleatorias continuas usaremos un metodo
diferente. Antes de adentrarnos en este metodo definiremos para
cualquier variable aleatoria Y , la funci
on de distribucion acumulada o
simplemente funcion de distribuci
on F (y )
Definition
Sea Y una variable aleatoria cualquiera. La funci
on de distribucion
(acumulada) de Y , denotada por F (y ) es tal que F (y ) = P(Y y ) para
< y <
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

123 / 250

Clase 9: Variables aleatorias continuas

Funcion de distribucion caso discreto


4.2

F I G U R A 4.1
Funcin de distribucin binomial,
n = 2, p = 1/2

Distribucin de probabilidad para una var

F(y)

1
3/4
1/2
1/4

Ejemplo, binomial(2, 0.5).

Todas las v.a. discretas son


funciones
n. Los
saltos
son deenY a lo
Cul
es F(2) =de
P(Yescal
2)?oComo
los nicos
valores
des positivas positiva.
son 0, 1 y 2 yElninguno
valores
son menore
los puntos donde hay probabilidad
valor deenestos
esos
puntos
es
usamos
una lgica
similar,
el lmite por la derecha. Los
saltos
suman
1. F(y) = 0 para toda y < 0. Cul es F
Vicente Acu
na (CMM, Universidad de Chile)

Y que son menores o iguales a 1.5 y tienen probabilidades dife


0 y 1.Prob.
Por yloEst.
que,
124 / 250

Clase 9: Variables aleatorias continuas

Propiedades de una funcion distribucion F (y )

Theorem
Si F (y ) es una funcion de distribuci
on de la variable aleatoria Y entonces
1

lmy F (y ) = 0

lmy F (y ) = 1

F (y ) es no decreciente en y .

F (y ) es continua por la derecha.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

125 / 250

Clase 9: Variables aleatorias continuas

Variables aleatorias continuas

En el caso de una variable aleatoria continua queremos asignar


probabilidades no a puntos especficos sino que a intervalos.
As, la funcion de distribuci
on F (y ) no puede contener saltos, pero si
puede tener una pendiente creciente.
Definition
Una variable aleatoria Y con funci
on de distribuci
on F (y ) se dice continua
si F (y ) es continua (y derivable en casi todos los puntos), para
< y <

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

126 / 250

Por tanto,
llegamos a la definicin de una variable aleatoria continua.
Clase 9: Variables aleatorias
continuas
D E F I N I C I N 4.2

Una variable aleatoria Y con funcin de distribucin F(y) se dice que es continua si F(y)
es continua, para q < y < q.2

Funcion distribucion para v.a. continuas


F I G U R A 4.2
Funcin de distribucin
para una variable
aleatoria continua

F(y)

F(y2)

F(y1)

y1

y2

La probabilidad de que Y caiga en un intervalo (y1 , y2 ) es


exactamente F (y2 ) F (y1 ).
La pendiente indica cuanto crece la probabilidad en ese punto. Es una
densidad de probabilidad.
Una v.a. que no es discreta, no necesariamente es continua. Podra
por ejemplo tener pendientes en algunos puntos y saltos en otros (es
mixta, no lo veremos en el curso)
1. Para ser matemticamente rigurosos, si F(y) es una funcin de distribucin vlida, entonces F(y) tambin debe
ser continua.

2. Para ser matemticamente precisos, tambin necesitamos que exista la primera derivada de F(y) y que sea continua excepto para, a lo sumo, un nmero finito de puntos en cualquier intervalo finito. Las funciones de distribucin
para las variables aleatorias continuas estudiadas en este texto satisfacen este requisito.

W-cap-04.indd 160

Vicente Acu
na (CMM, Universidad de Chile)

27/7/09 02:25:31

Prob. y Est.

127 / 250

Clase 9: Variables aleatorias continuas

Funcion densidad de probabilidad

Definition
Sea F (y ) la funcion de distribuci
on para una v.a. continua Y . Entonces
f (y ), dada por
dF (y )
f (y ) =
= F 0 (y )
dy
siempre que exista la derivada, se denomina funci
on de densidad de
probabilidad para la variable aleatoria Y .

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

128 / 250

frecuencia relativa (una curva suave) que caracterizara la


cante. Esta distribucin terica de frecuencia relativa corres
continuaspara la duracin de vida de una sola mquina
probabilidad

Clase 9: Variables aleatorias continuas

Variables aleatorias
F I G U R A 4.3
La funcin
de distribucin

f ( y)

F ( y0 )
y0

La funcion de distribuci
on y la densidad se relacionan por el teorema
fundamental del calculo:
Z y
-cap-04.indd 161
F (y ) =
f (t)dt.

La densidad es un modelo te
orico de la frecuencia de un evento: es el
histograma si pudieramos repetir un experimento infinitas veces.
Obviamente f (y ) es no negativa e integra 1 en el los reales.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

129 / 250

Clase 9: Variables aleatorias continuas

Propiedades de una funcion de densidad

Theorem
Si f (y ) es una funcion de densidad para una variable aleatoria continua,
entonces
1. f (y ) 0 para todo y tal que < y < .
R
2. f (y )dy = 1.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

130 / 250

bajo la funcin de densidad f(y). Esto de hecho es verdad porque, si a < b,

Clase 9: Variables aleatorias continuas

P(a < Y b) = P(Y b) P(Y a) = F(b) F(a) =


Variables aleatorias continuas

b
a

Como P(Y = a) = 0, tenemos el siguiente resultado.

Theorem
Si la variable
aleatoria
densidad
f (y
) y funcin
a < b,de entonces
TE O
R E MA 4.3 Y tiene
Si la variable
aleatoria
Y tiene
densidad f (y)la
y a < b, entonces
dad en
de que
caiga en el intervalo
[a, b] es
probabilidad de que Y caiga
el Yintervalo
[a, b] es
Z

P(a Y b) =

P(a
P Y b) !

f (y )dy .

f ( y) dy.
a

a
Esta probabilidad es el rea sombreada de la Figura 4.8.

F I G U R A 4.8
P (a Y b)

f (y)

0
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

y
131 / 250

Clase 9: Variables aleatorias continuas

Ojo con los nombres


Atencion: Muchas veces diremos distribuci
on cuando en realidad se
entrega una densidad. Esto es porque en cierto modo son equivalentes
en la informacion que entregan. Basta la densidad para obtener la
distribucion. Lo que es mas estandar es que la distribucion
(acumulada) siempre se denota por F (y ) (en may
uscula) en cambio
la densidad se denota por f (y ) (en min
uscula).
Por ejemplo los res
umenes de distribuciones continuas en realidad
se
nalan tpicamente las densidades. En cambio las tablas con valores
especficos indican las distribuciones (acumuladas).
En cualquier caso, es facil darse cuenta simplemente por las
propiedades que debiera tener (por ejemplo la distribucion es
creciente y en el infinito debiera tender a uno, en cambio la densidad
tiende a cero).
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

132 / 250

Clase 9: Variables aleatorias continuas

Valor esperado de una v.a. continua

Muchas de las definiciones que vimos para variables aleatorias


discretas se tienen en las variables aleatorias continuas siplemente
reemplazando las sumatorias por integrales
Definition
El valor esperado de una variable aleatoria continua Y es
Z
E (Y ) =
yf (y )dy

siempre que exista la integral.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

133 / 250

Clase 9: Variables aleatorias continuas

Valor esperado de una funcion de v.a. continua

Theorem
Sea g (Y ) una funcion de Y ; entonces el valor esperado de g (Y ) esta dado
por
Z
E (Y ) =
g (y )f (y )dy

siempre que exista la integral.


Es decir que no es necesario calcular la densidad de g (Y ) para
calcular su esperanza.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

134 / 250

Clase 9: Variables aleatorias continuas

Propiedades de la esperanza

Theorem
Sea c una constante y sean g (Y ), g1 (Y ), g2 (Y ), ..., gk (Y ) funciones de
una variable aleatoria continua Y . Entonces se cumplen los siguientes
resultados:
1. E (c) = c.
2. E (cg (Y )) = cE (g (Y )).
3. E [g1 (Y )+g2 (Y )+. . .+gk (Y )] = E [g1 (Y )]+E [g2 (Y )]+. . .+E [gk (Y )].

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

135 / 250

Clase 10: Variables aleatorias continuas usuales I

Clase 10: Variables aleatorias continuas usuales I

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

136 / 250

Clase 10: Variables aleatorias continuas usuales I

Distribucion uniforme

Definition
Si 1 < 2 , se dice que una variable aleatoria Y tiene distribucion de
probabilidad uniforme en el intervalo (1 , 2 ) si y s
olo si la funcion de
densidad de Y es
(
1
1 y 2
f (y ) = 2 1
0
en cualquier otro punto.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

137 / 250

D E F I NIC IClase
N 4.6
Si u1 < continuas
u2, se dice
que una variable aleatoria Y tiene distribucin de prob
10: Variables aleatorias
usuales I

forme en el intervalo (u1, u2) si y slo si la funcin de densidad de Y es

Distribucion uniforme
f ( y) =

F I G U R A 4.9
Funcin de
densidad para Y

1
,
u2 u1

u 1 y u2 ,

0,

en cualquier otro punto.

f(y)

A1

A2

9 10

04.indd 174

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

138 / 250

Clase 10: Variables aleatorias continuas usuales I

Esperanza y varianza de distribucion uniforme

Theorem
Si 1 < 2 e Y es una variable alatoriauniforme distribuida en el intervalo
(1 , 2 ), entonces

176 Captulo 4

1 + 2
(2 1 )2
2

=
E
(Y
)
=
y

=
V
(Y
)
=
.
Variables continuas y sus distribuciones de probabilidad
2
12

TE O RE MA 4.6

Si u1 < u2 y Y es una variable aleatoria uniformemente distribuida en el intervalo


(u1, u2), entonces
m = E (Y ) =

Prueba

u1 + u2
2

y s2 = V (Y ) =

(u2 u1 ) 2
.
12

Por la Definicin 4.5,


E(Y ) =

Vicente Acu
na (CMM, Universidad de Chile)

q
q

y f ( y) dy

u2
Prob.
y Est.1

139 / 250

Clase 10: Variables aleatorias continuas usuales I

4.5aleatorias
La distribucin
de probabilidad normal
Variables
continuas
La distribucin de probabilidad continua que ms se utiliza es la distribucin normal, con la
conocida forma de campana que estudiamos en relacin con la regla emprica. Los ejemplos
y ejercicios de esta seccin ilustran algunas de las numerosas variables aleatorias que tienen
distribuciones que se calculan en forma muy cercana por medio de una distribucin de probabilidad normal. En el Captulo 7 presentaremos un argumento que explica, al menos parcialmente, el suceso comn de distribuciones normales de datos en la naturaleza. La funcin de
densidad normal es como sigue:
DE F INI C IN 4.8

Se dice que una variable Y tiene una distribucin normal de probabilidad si y slo si,
para s > 0 y q < m < q, la funcin de densidad de Y es
f ( y) =

1
s2p

e( ym)

%(2s2 )

q < y < q .

Observe que la funcin de densidad normal contiene dos parmetros, m y s.


T E O REM A 4.7

Si Y es una variable aleatoria normalmente distribuida con parmetros m y s, entonces


E(Y) = m

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

V(Y) = s2.

140 / 250

bilidad normal. En el Captulo 7 presentaremos un argumento que explica, al menos parcialnormales de datos en la naturaleza. La funcin de
densidad normal es como sigue:

Clase 10: Variables


usuales
I
mente, aleatorias
el sucesocontinuas
comn de
distribuciones

Variables aleatorias continuas


D E F I N IC I N 4.8

Se dice que una variable Y tiene una distribucin normal de probabilidad si y slo si,
para s > 0 y q < m < q, la funcin de densidad de Y es
f ( y) =

1
s2p

e( ym)

%(2s2 )

q < y < q .

Observe que la funcin de densidad normal contiene dos parmetros, m y s.


TE OR E MA 4.7

Si Y es una variable aleatoria normalmente distribuida con parmetros m y s, entonces


E(Y) = m y

cap-04.indd 178

Vicente Acu
na (CMM, Universidad de Chile)

V(Y) = s2.

27/7/09 0

Prob. y Est.

141 / 250

Clase 10: Variables aleatorias continuas usuales I

Variables aleatorias continuas


4.5

F I G U R A 4.10
La funcin
de densidad de
probabilidad normal

f (y)

Vicente Acu
na (CMM, Universidad de Chile)

La d

Prob. y Est.

142 / 250

Clase 10: Variables aleatorias continuas usuales I

Variables aleatorias continuas


de
densidad normal correspondiente

b
a

1
s2p

( ym) 2$( 2s2 )

dy.

existe una expresin de forma cerrad


Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

143 / 250

asociados
con variables
aleatorias
Clase 10: Variables
aleatorias
continuas usuales
I

normalmente distribuidas tambin se pueden hallar


la aplicacin breve (applet) Normal Tail Areas and Quantiles accesibles en www.thoms
com/statistics/wackerly. El nico beneficio real obtenido al usar software para obten
babilidades y cuantiles asociados con variables aleatorias normalmente distribuidas, es
software da respuestas que son correctas hasta un gran nmero de lugares decimales.
La funcin de densidad normal es simtrica alrededor del valor m, de modo que la
tienen que ser tabuladas en slo un lado de la media. Las reas tabuladas estn a la d
de los puntos z, donde z es la distancia desde la media, medida en desviaciones estnd
rea est sombreada en la Figura 4.11.

Variables aleatorias continuas

EJEMPLO 4.8

Denote con Z una variable aleatoria normal con media 0 y desviacin estndar 1.
a Encuentre P( Z > 2).
b Encuentre P(2 Z 2).
c Encuentre P(0 Z 1.73).

179

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

144 / 250

Clase 10: Variables aleatorias continuas usuales I

Variables aleatorias continuas


180 Captulo 4 Variables continuas y sus distribuciones de probabilidad
F I G U R A 4.11
rea tabulada para la
funcin de densidad
normal

f (y)

!
z"

Solucin
Vicente Acu
na (CMM, Universidad de Chile)

! + z"

a Como m = 0 y s = 1, el valor 2 est en realidad


Prob. y Est.

145 / 250

ZI
Clase 10: Variables aleatorias continuasP(0
usuales

1.73) = .5 .0418 = .4582.

Variables
aleatorias continuas
F I G U R A 4.12

rea deseada para el


Ejemplo 4.8(b)
A1

A2
2

EJEMPLO 4.9

Las calificaciones para un examen de admisin a una universidad estn normalmente distribuidas con media de 75 y desviacin estndar 10. Qu fraccin de las calificaciones se
encuentra entre 80 y 90?

Solucin

Recuerde que z es la distancia desde la media de una distribucin normal expresada en unidades de desviacin estndar. Entonces,
z=

.indd 180

Vicente Acu
na (CMM, Universidad de Chile)

y m
.
s

27/7/09 02:

Prob. y Est.

146 / 250

Clase 10: Variables aleatorias continuas usuales I

Variables aleatorias continuas

F I G U R A 4.13
rea requerida para
el Ejemplo 4.9
A
0

.5

1.5

Entonces la fraccin deseada de la poblacin


Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

147 / 250

conforme
y aumenta.
En usuales
la Figura
Clase 10: Variables
aleatorias
continuas
I

4.15 se muestra una funcin de densidad de probabilidad


sesgada.
Los intervalos de tiempo entre mal funcionamiento de motores de aviones poseen una distribucin de frecuencia sesgada, al igual que los intervalos de llegada en una fila de espera en
las cajas de un supermercado (esto es, la fila de espera para llegar a la caja a pagar). Del mismo
modo, los intervalos de tiempo para completar una revisin de mantenimiento para un motor
de automvil o de avin poseen una distribucin de frecuencia sesgada. La poblacin asociada
con estas variables aleatorias posee con frecuencia funciones de densidad que son modeladas
de manera adecuada por una funcin de densidad gamma.

Variables aleatorias continuas

DE F IN IC IN 4.9

Se dice que una variable aleatoria Y tiene una distribucin gamma con parmetros
a > 0 y b > 0 si y slo si la funcin de densidad de Y es
f ( y) =

y a1 ey/b
,
ba

0 y < q,

0,

en cualquier otro punto,

donde
=

y a1 ey dy.

La cantidad (a) se conoce como funcin gamma. La integracin directa verificar que
(1) = 1. La integracin por partes verifica que
= (a 1
1) para cualquier a > 1
y que (n) = (n 1)!, siempre que n sea un entero.
En la Figura 4.16 se dan grficas de funciones de densidad gamma para a = 1, 2 y 4 y
b = 1. Observe en la Figura 4.16 que la forma de la densidad gamma difiere para los diferentes valores de a. Por esta razn, a recibe a veces el nombre de parmetro de forma asociado

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

148 / 250

Clase 11: Variables aleatorias continuas usuales II

Clase 10: Variables aleatorias continuas usuales II

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

149 / 250

Clase 11: Variables aleatorias continuas usuales II

Distribucion Gamma en R project


#Plot gamma distributions varying the shape parameter (alpha).
x <- seq(0, 15, length=200)
hx <- dgamma(x, shape=2, rate=1/2)
plot(x, hx, type="l", yaxs="i", xaxs="i", ylim=c(0,0.6),
xlim=c(0,10), xlab="x value", ylab="Density",
main="Probability density for gamma distribution
with variable alpha and beta=2", lwd=5)
colors <- c("red","blue", "darkgreen", "black", "purple",
"orange")
alphas <- c(0.5, 1, 1.3, 2, 3, 4)
labels <- c("alpha=0.5", "alpha=1",
"alpha=1.3", "alpha=2", "alpha=3", "alpha=4")
for(i in 1:length(alphas)) {
hx <- dgamma(x, shape=alphas[i], rate=1/2)
lines(x, hx, lwd=3, col=colors[i])}
legend("topright", inset=.05, title="Probability densities",
labels, lwd=3, col=colors)
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

150 / 250

Clase 11: Variables aleatorias continuas usuales II

Distribucion Gamma en R project

0.6

Probability density for gamma distribution


with variable alpha and beta=2
Probability densities

0.3
0.0

0.1

0.2

Density

0.4

0.5

alpha=0.5
alpha=1
alpha=1.3
alpha=2
alpha=3
alpha=4

10

x value

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

151 / 250

Clase 11: Variables aleatorias continuas usuales II

Distribucion Gamma en R project


#Plot gamma distributions varying the rate parameter (beta).
x <- seq(0, 15, length=200)
hx <- dgamma(x, shape=2, rate=1/2)
plot(x, hx, type="l", yaxs="i", xaxs="i", ylim=c(0,0.6),
xlim=c(0,10), xlab="x value", ylab="Density",
main="Probability density for gamma distribution
with alpha=2 and variable beta", lwd=5)
colors <- c("red", "blue", "black", "darkgreen", "purple",
"orange")
betas <- c(0.5, 1, 2, 3, 4, 8)
labels <- c("beta=0.5", "beta=1",
"beta=2", "beta=3", "beta=4", "beta=8")
for(i in 1:length(betas)) {
hx <- dgamma(x, shape=2, rate=1/betas[i])
lines(x, hx, lwd=3, col=colors[i])}
legend("topright", inset=.05, title="Probability densities",
labels, lwd=3, col=colors)
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

152 / 250

Clase 11: Variables aleatorias continuas usuales II

Distribucion Gamma en R project

0.6

Probability density for gamma distribution


with alpha=2 and variable beta
Probability densities

0.3
0.0

0.1

0.2

Density

0.4

0.5

beta=0.5
beta=1
beta=2
beta=3
beta=4
beta=8

10

x value

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

153 / 250

Clase 11: Variables aleatorias continuas usuales II

Distribucion Gamma en R project


x <- seq(0, 15, length=200)
hx <- dgamma(x, shape=2, rate=1/2)
plot(x, hx, type="l", yaxs="i", xaxs="i", ylim=c(0,0.6),
xlim=c(0,10), xlab="x value", ylab="Density",
main="Probability density for gamma distributions
with mean 4", lwd=5)
colors <- c("red", "blue", "darkgreen", "black", "purple",
"orange")
alphas <- c(0.5, 1, 1.33, 2, 4, 20)
betas <- c(8, 4, 3, 2, 1, 0.2)
labels <- c("alpha=0.5
beta=8", "alpha=1
beta=4",
"alpha=1.33 beta=3", "alpha=2
beta=2",
"alpha=4
beta=1", "alpha=20
beta=0.2")
for(i in 1:length(alphas)) {
hx <- dgamma(x, shape=alphas[i], rate=1/betas[i])
lines(x, hx, lwd=3, col=colors[i])}
legend("topright", inset=.05, title="Probability densities",
labels, lwd=3, col=colors)
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

154 / 250

Clase 11: Variables aleatorias continuas usuales II

Distribucion Gamma en R project


0.6

Probability density for gamma distributions


with mean 4

0.3
0.0

0.1

0.2

Density

0.4

0.5

Probability densities
alpha=0.5 beta=8
alpha=1
beta=4
alpha=1.33 beta=3
alpha=2
beta=2
alpha=4
beta=1
alpha=20 beta=0.2

10

x value

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

155 / 250

rma cerrada para


Clase 11: Variables aleatorias continuas usuales II

Variables aleatorias continuas

d
c

y a1 ey"b
dy.
ba

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

156 / 250

SPlus) genera P(Y y ), mientras que qgamma(q,a,1"b) da el psimo cu


p. Adems, una de las aplicaciones breves, Gamma
and Quantiles, accesible en www.thomsonedu.com/statistics/wackerly, se pu
determinar probabilidades y cuantiles asociados con variables aleatorias de di
mma. Otra aplicacin breve en la pgina web de Thomson, Comparison of Ga
Functions, permitir visualizar y comparar funciones de densidad gamma con d
res para a y/o b. Estas aplicaciones breves se usarn para contestar algunos de
del final de esta seccin.
Como se indica en el siguiente teorema, la media y la varianza de variables
distribucin gamma son fciles de calcular.

0 II
Clase 11: Variables aleatorias continuas usuales
de fp tal que P(Y fp) =

Variables aleatorias continuas

TE O REMA 4.8

Si Y tiene una distribucin gamma con parmetros a y b, entonces


m = E(Y ) = ab y

s2 = V (Y ) = ab2 .

04.indd 186

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

157 / 250

Clase 11: Variables aleatorias continuas usuales II

[b a+2

b
Variables aleatorias continuas

b
+ 2)] =

b 2 ( + 1

= ( + 1)b 2.

Entonces V(Y) = E[Y2][E(Y)]2, donde, desde la primera parte de la derivacin,


E(Y) = ab. Sustituyendo E[Y2] y E(Y) en la frmula para V(Y), obtenemos
V (Y ) = a(a + 1)b 2 (ab )2 = a2 b 2 + ab2 a2 b2 = ab2

Dos casos especiales de variables aleatorias con distribucin gamma ameritan consideracin particular.
DE F INI CI N 4.10

Sea un entero positivo. Se dice que una variable aleatoria Y tiene distribucin
ji cuadrada con grados de libertad si y slo si Y es una variable aleatoria con distribucin gamma y parmetros a = /2 y b = 2.
Una variable aleatoria con distribucin ji cuadrada se denomina variable aleatoria
(2) ji cuadrada. Estas variables aleatorias se presentan con frecuencia en teora estadstica.
La motivacin que hay detrs de llamar al parmetro como grados de libertad de la distribucin 2 se apoya en una de las principales formas de generar una variable aleatoria con esta
distribucin y se da en el Teorema 6.4. La media y la varianza de una variable aleatoria 2
provienen directamente del Teorema 4.8.

p-04.indd 187

Vicente Acu
na (CMM, Universidad de Chile)

27/7/09 02:2

Prob. y Est.

158 / 250

Clase 11: Variables aleatorias continuas usuales II

Variables aleatorias continuas

188

Captulo 4

Variables continuas y sus distribuciones de probabilidad

TE O RE MA 4.9

Si Y es una variable aleatoria ji cuadrada con grados de libertad, entonces


m = E(Y) =

Demostracin

Vicente Acu
na

s2 = V(Y) = 2.

Aplique el Teorema 4.8 con a = #2 y b = 2.

En casi todos los textos de estadstica se pueden ver tablas que dan probabilidades as
con distribuciones 2. La Tabla 6, Apndice 3, da puntos porcentuales asociados con d
ciones 2 para numerosas opciones de . No se dispone fcilmente de tablas de la distr
gamma general, pero demostraremos en el Ejercicio 6.46 que si Y tiene una distribucin
con a = n/2 para algn entero n, entonces 2Y/b tiene una distribucin 2 con n gra
libertad. De ah que, por ejemplo, si Y tiene una distribucin gamma con a = 1.5 =
b = 4, entonces 2Y/b = 2Y/4 = Y/2 tiene una distribucin 2 con 3 grados de libertad. En
(CMM, Universidad
Chile)
Prob. se
y Est.
1592/ de
250las
P(Y <de3.5)
= P([Y/2] < 1.75)
puede hallar usando tablas de la distribucin

Clase 11: Variables aleatorias continuas usuales II

En casi todos los textos de estadstica se pueden ver tablas que dan probabilidades asociadas
con distribuciones 2. La Tabla 6, Apndice 3, da puntos porcentuales asociados con distribuciones 2 para numerosas opciones de . No se dispone fcilmente de tablas de la distribucin
gamma general, pero demostraremos en el Ejercicio 6.46 que si Y tiene una distribucin gamma
con a = n/2 para algn entero n, entonces 2Y/b tiene una distribucin 2 con n grados de
libertad. De ah que, por ejemplo, si Y tiene una distribucin gamma con a = 1.5 = 3/2 y
b = 4, entonces 2Y/b = 2Y/4 = Y/2 tiene una distribucin 2 con 3 grados de libertad. Entonces,
P(Y < 3.5) = P([Y/2] < 1.75) se puede hallar usando tablas de la distribucin 2 de las que se
puede disponer fcilmente.
La funcin de densidad gamma en la que a = 1, se llama funcin de densidad exponencial.

Variables aleatorias continuas

DE F IN IC I N 4.11

Se dice que una variable aleatoria Y tiene una distribucin exponencial con parmetro
b > 0 si y slo si la funcin de densidad de Y es
1 y#b
e
, 0 y < ,
f ( y) = b
0,
en cualquier otro punto.
La funcin de densidad exponencial a menudo es de ayuda para modelar la vida til de
componentes electrnicos. Suponga que el tiempo que ya ha operado un componente no afecta su probabilidad de operar durante al menos b unidades de tiempo adicionales. Esto es, la
probabilidad de que el componente opere durante ms de a + b unidades de tiempo, dado que
ya ha operado durante al menos a unidades de tiempo, es la misma que la probabilidad de
que un componente nuevo opere al menos b unidades de tiempo si el componente nuevo se
pone en servicio en el tiempo 0. Un fusible es un ejemplo de un componente para el cual
a veces esta suposicin es razonable. Veremos en el siguiente ejemplo que la distribucin
exponencial proporciona un modelo para la distribucin de la vida til de ese componente.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

160 / 250

Clase 11: Variables aleatorias continuas usuales II

Variables

La funcin de densidad exponencial a menudo es de ayuda para modela


componentes electrnicos. Suponga que el tiempo que ya ha operado un com
aleatorias
continuas
ta su probabilidad de operar durante al menos b unidades de tiempo adicion
probabilidad de que el componente opere durante ms de a + b unidades de t
ya ha operado durante al menos a unidades de tiempo, es la misma que la
que un componente nuevo opere al menos b unidades de tiempo si el comp
pone en servicio en el tiempo 0. Un fusible es un ejemplo de un compone
a veces esta suposicin es razonable. Veremos en el siguiente ejemplo qu
exponencial proporciona un modelo para la distribucin de la vida til de e

TE O R E M A 4.10

Si Y es una variable aleatoria exponencial con parmetro b, entonces


m = E(Y) = b

Demostracin

EJ E MP L O 4.10

s2 = V(Y) = b2.

La demostracin se sigue directamente del Teorema 4.8 con a = 1.

Suponga que Y tiene una funcin de densidad de probabilidad exponencial. D


a > 0 y b > 0,
P(Y > a + b)Y > a) = P(Y > b).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

161 / 250

ya ha operado durante al menos a unidades de tiempo, es la misma que la probabilidad de


menos b unidades de tiempo si el componente nuevo se
pone en servicio en el tiempo 0. Un fusible es un ejemplo de un componente para el cual
a veces esta suposicin es razonable. Veremos en el siguiente ejemplo que la distribucin
exponencial proporciona un modelo para la distribucin de la vida til de ese componente.

Clase 11: que


Variables
aleatorias continuas
II
un componente
nuevo usuales
opere al

Variables aleatorias continuas


TE O RE MA 4.10

Si Y es una variable aleatoria exponencial con parmetro b, entonces


m = E(Y) = b

Demostracin

E J E MPL O 4.10

y s2 = V(Y) = b2.

La demostracin se sigue directamente del Teorema 4.8 con a = 1.

Suponga que Y tiene una funcin de densidad de probabilidad exponencial. Demuestre que, si
a > 0 y b > 0,
P(Y > a + b)Y > a) = P(Y > b).

-04.indd 188

Vicente Acu
na (CMM, Universidad de Chile)

27/7/09 02:2

Prob. y Est.

162 / 250

La distribucin de probabilidad beta


Clase 11: Variables aleatorias continuas usuales II

La funcin de densidad beta es una funcin de densidad de dos parmetros definida sobre
Variables aleatorias continuas
el intervalo cerrado 0 y 1. Frecuentemente se usa como modelo para proporciones, por
ejemplo como la proporcin de impurezas en un producto qumico o la proporcin de tiempo
que una mquina est en reparacin.
Se dice que una variable aleatoria Y tiene una distribucin de probabilidad beta con
parmetros a > 0 y b > 0 si y slo si la funcin de densidad de Y es

f ( y) =

y a1 (1 y) b1
,
B( , b)

0 y 1,

0,

en cualquier otro punto,

donde
B (, b) =

1
0

y a1 (1 y) b1 dy =

a b
.
a + b)

Las grficas de funciones de densidad beta toman formas muy diferentes para diversos
valores de los dos parmetros a y b. Algunos de stos se muestran en la Figura 4.17. Ciertos
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

163 / 250

Clase 11: Variables aleatorias continuas usuales II

Variables aleatorias continuas


4.7

F I G U R A 4.17
Funciones de
densidad beta

La distribucin de probab

f ( y)

! =5
" =3

! =3
" =3

! =2
" =2

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

164 / 250

La funcin
de distribucin
acumulativa
binomial se presenta en la Tabla 1, Apndice 3, para n
Clase 11: Variables
aleatorias
continuas usuales
II

= 5, 10, 15, 20 y 25 y p = .01, .05, .10, .20, .30, .40, .50, .60, .70, .80, .90, .95 y .99. El modo
ms eficiente de obtener probabilidades binomiales es usar un software de estadstica como
el R o SPlus (vea el Captulo 3). Una forma incluso ms fcil para hallar probabilidades y
cuantiles asociados con variables aleatorias de distribucin beta es usar directamente software
apropiado. La pgina web de Thomson contiene una aplicacin breve, Beta Probabilities,
que proporciona probabilidades de cola superior [es decir, P(Y > y0)] y cuantiles asociados
con variables aleatorias con distribucin beta. Adems, si Y es una variable aleatoria con distribucin beta y parmetros a y b, el comando pbeta(y0, a, 1$b) de R (o SPlus) genera
P(Y y0), mientras que qbeta(p, a, 1$b ) da el psimo cuantil, el valor de fp de manera
que P(Y fp) = p.

Variables aleatorias continuas

T E O R E M A 4.11

Si Y es una variable aleatoria con distribucin beta a > 0 y b > 0, entonces


m = E(Y )

a
a +b

indd 195

Vicente Acu
na (CMM, Universidad de Chile)

s 2 = V (Y ) =

ab
.
(a +b ) 2 (a + b + 1)

27/7/09 02:25

Prob. y Est.

165 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Clase 12: Funcion generadora de momento y Teo. de Tchebysheff

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

166 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Funcion generadora de momento

Consideremos una variable aleatoria discreta o continua. La esperanza


y la varianza 2 son medidas descriptivas de la distribucion de la
v.a., pero en ning
un caso la definen completamente. Muchas
distribuciones diferentes pueden tener la misma esperanza y varianza.
Vamos a ver un conjuntos de medidas descriptivas que (al menos en
ciertas condiciones) definen una distribuci
on de manera u
nica. Estas
medidas corresponden a los momentos de la distribucion.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

167 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Funcion generadora de momento


Definition
El k-esimo momento de una variable aleatoria Y se define como E (Y k ) y
se denota por 0k .
Primer momento: 01 = E (Y ) =
Segundo momento: 02 = E (Y 2 ) = 2 + 2
Bajo ciertas condiciones, si X e Y son dos v.a. con igual valor para
todos los momentos (i.e. 0iX = 0iY para todo i = {1, 2, . . .})
entonces X e Y tienen la misma distribuci
on de probabilidad.
Podemos resumir todos los momentos de una v.a. en una sola
funcion: la funcion generadora de momento.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

168 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Funcion generadora de momento

Definition
La funcion generadora de momento m(t) para una variable aleatoria Y se
define como m(t) = E (e tY ). Decimos que una funci
on generadora de
momento para Y existe si existe una constante positiva b tal que m(t) es
finita para |t| b.
Veamos (pizarra) que la f.g.m. -si existe- es igual a:
E (e tY ) = 1 + t01 +

t3
t2 0
2 + 03 + . . .
2!
3!

Es decir que efectivamente contiene todos los momentos de Y

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

169 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Funcion generadora de momento

Theorem
Si m(t) existe, entonces para cualquier entero positivo k,
#
d k m(t)
= m(k) (0) = 0k ,
dt k
t=0

En otras palabras, si calculamos la k-esima derivada de m(t) con respecto


a t y luego evaluamos t = 0, el resultado sera 0k .

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

170 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Funcion generadora de momento

Ejemplo variable discreta:


Encuentre la funcion generadora de momento m(t) para una variable
aleatoria con distribuci
on de Poisson y media .
Encontrar a partir de la f.g.m. la esperanza y varianza de la v.a. de
Poisson.
Suponga que Y es una variable aleatoria con funcion generadora de
t
momento mY (t) = e 3.2(e 1) Cual es la distribucion de Y ?

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

171 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Funcion generadora de momento

Ejemplo variable continua:


Encuentre la funcion generadora de momento m(t) para una variable
aleatoria con distribuci
on gamma.
Encontrar a partir de la f.g.m. la esperanza y varianza de la v.a.
gamma.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

172 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Funcion generadora de momento

Tpicamente los res


umenes de las variables aleatorias discretas y
continuas mas comunes incluyen la f.g.m. de la distribucion

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

173 / 250

de probabilidad comn

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

v.a. discretas: distribucion, media, varianza y fgm.


Tabla 1 Distribuciones discretas

Distribucin

Funcin de probabilidad

Binomial

p( y) =

n
y

p y (1 p) ny ;

Media

Varianza

Funcin
generadora
de momento

np

np(1 p)

[ pet + (1 p)]n

1
p

1p
p2

pet
1 (1 p)et

y = 0, 1, . . . , n
Geomtrica

p( y) = p(1 p) y1 ;
y = 1, 2, . . .

Hipergeomtrica

p( y) =

r
y

N
n

N r
ny

nr
N

r
N

N r
N

N n
N 1

No existe en
forma cerrada

y = 0, 1, . . . , n si n r ,
y = 0, 1, . . . , r si n > r
Poisson

p( y) =

l y el
;
y!

exp[l(et 1)]

r
p

r (1 p)
p2

pet
1 (1 p)et

y = 0, 1, 2, . . .
Binomial negativa

p( y) =

y1
r 1

pr (1 p) yr ;

y = r, r + 1, . . .

837
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

174 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

v.a. continuas: distribucion, media, varianza y fgm.


838 Apndice 2 Distribuciones, medias, varianzas y funciones generadoras de momento de probabilidad comn

Tabla 2 Distribuciones continuas

Distribucin
Uniforme

Normal

Funcin de probabilidad
f ( y) =

f ( y) =

1
u1 y u2
u2 u1

1
s2p

1
2s2

exp

( y m) 2

Media

Varianza

Funcin
generadora
de momento

u1 + u2
2

(u2 u1 ) 2
12

et u2 et u1
t (u2 u1 )

s2

b2

(1 bt) 1

ab

ab 2

(1 bt) a

2v

(1 2t) y/2

a
a +b

ab
(a + b) 2 (a + b + 1)

no existe en
forma cerrada

exp mt +

t 2 s2
2

q < y < + q
Exponencial

f ( y) =

1 y/b

e
b

b>0

0<y< q
Gamma

f ( y) =

y a1 ey/b ;

0 < y <q
Ji-cuadrada

f ( y) =

( y) (y/2)1 ey/2
;
2v/2 v/2)
y >0

Beta

f ( y) =

+ b)

y a1 (1 y) b1 ;

0<y <1

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

175 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Teorema de Tchebysheff

En la primera clase vimos que en una variable aleatoria normal, el


68 % de la probabilidad se concentra a una distancia de una
desviacion estandar de la media. Ademas el 95 % esta a dos
desviaciones estandar mientras que a tres desviaciones estandar se
encuentra casi toda la probabilidad.
Podemos establecer alguna cota que sirva para evaluar la dispersion
de cualquier distribuci
on (no necesariamente normal)?

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

176 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Teorema de Tchebysheff
Theorem
Sea Y una variable aleatoria con media finita y varianza 2 . Entonces,
para cualquier k > 0
P(|Y | < k) 1

1
k2

P(|Y | k) 1

1
k2

o equivalentemente

Se le llama tambien desigualdad de Tchebysheff.


Demostacion: Pizarra
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

177 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Teorema de Tchebysheff

Lo que nos da el teorema es una cota de cuanta probabilidad hay a k


desviaciones estandar de la media.
Lo interesante es que no necesitamos saber la distribucion. Solo la
esperanza y varianza. O aunque sepamos la distribucion, sirve para
evaluar rapidamente si un resultado es raro, poco frecuente.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

178 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Teorema de Tchebysheff

Ejemplo: Suponga que la experiencia ha demostrado que el tiempo Y


(en minutos) necesario para realizar una prueba periodica de
mantenimiento en una maquina de dictados sigue una distribucion
gamma con = 3.1 y = 2. Un nuevo trabajador de mantenimiento
tarda 22.5 minutos en probar la maquina. El tiempo que tardo para
realizar la prueba es mucho mayor comparado con la experiencia
anterior?
Solucion: Pizarra

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

179 / 250

Clase 12: Funci


on generadora de momento y Teo. de Tchebysheff

Teorema de Tchebysheff

Ejemplo: El n
umero de clientes por da en un mostrador de ventas, Y ,
ha sido observado durante un largo periodo y se encontro que tiene
una media de 20 y desviaci
on estandar de 2. La distribucion de
probabilidad de Y no se conoce. Que se puede decir acerca de la
probabilidad de que, ma
nana, Y sea mayor que 16 pero menor que
24?
Solucion: Propuesto

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

180 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Clase 13: Distrib. multivariantes: marginal, condicional e independencia

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

181 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Distribucion Multivariantes
Dado el experimento lanzar dos dados, podemos definir varias
variables aleatorias para describir los posibles resultados.
Luego, podemos identificar eventos interesantes que se definen a
partir de mas de una variable aleatoria.
Y1 : el n
umero de puntos que aparecen en el dado 1.
Y2 : el n
umero de puntos que aparecen en el dado 2.
Y3 : la suma del n
umero de puntos en los dados.
Y4 : el producto del n
umero de puntos que aparecen en los dados.
Si consideramos las v.a. Y1 e Y2 podemos denotar el evento sale un
seis y un cuatro como la intersecci
on de los eventos
(Y1 = 6), (Y2 = 4).
As podemos calcular la probabilidad pY1 ,Y2 (6, 4) =
calcular entonces pY1 ,Y2 (y1 , y2 ) para todo (y1 , y2 ).
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

1
36 .

Podemos

182 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Distribucion Multivariantes
5.2

F I G U R A 5.1
Funcin de probabilidad bivariante;
y1 = nmero de
puntos en el dado 1,
y2 = nmero de
puntos en el dado 2

Distribuciones de probabilidad bivariantes y mu

p ( y1, y2 )

1!36
0
1
2

6
y1

3
4
5
6

y2

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

183 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Distribucion Multivariantes

Dadas las variables aleatorias Y1 , Y2 , . . . , Yn vamos a identificar la


intersecci
on de los eventos (Y1 = y1 ), (Y2 = y2 ), . . . , (Yn = yn )
por el vector (Y1 = y1 , Y2 = y2 , . . . , Yn = yn )
o simplemente por el vector (y1 , y2 , . . . , yn ).
Queremos obtener la funci
on de probabilidad (o densidad) del vector
(y1 , y2 , . . . , yn ).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

184 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Funcion de probabilidad conjunta

Definition
Sean Y1 y Y2 variables aleatorias discretas. La funci
on de probabilidad
conjunta (o bivariante) para Y1 y Y2 esta dada por
p(y1 , y2 ) = P(Y1 = y1 , Y2 = y2 ),

Vicente Acu
na (CMM, Universidad de Chile)

< y1 < , < y2 <

Prob. y Est.

185 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Funcion de probabilidad conjunta

Theorem
Si Y1 y Y2 son variables aleatorias discretas con funci
on de probabilidad
conjunta p(y1 , y2 ), entonces
1. p(y1 , y2 ) 0 para todo y1 , y2 .
P
2.
y1 ,y2 p(y1 , y2 ) = 1 donde la suma es para todos los valores (y1 , y2 ) a
los que se asignan probabilidades diferentes de cero.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

186 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Funcion de probabilidad conjunta

Ejemplo: Un supermercado local tiene tres cajas. Dos clientes llegan a


las cajas en momentos diferentes cuando las cajas no atienden a otros
clientes. Cada cliente escoge una caja de manera aleatoria,
independientemente del otro. Denote con Y1 el n
umero de clientes
que escogen la caja 1 y con Y2 el n
umero que selecciona la caja 2.
Encuentre la funcion de probabilidad conjunta de Y1 y Y2 .

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

187 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Distribucion (acumulada) conjunta

Definition
Sean Y1 y Y2 variables aleatorias discretas. La funci
on de distribucion
(acumulada) conjunta F (y1 , y2 ) esta dada por
F (y1 , y2 ) = P(Y1 y1 , Y2 y2 ),

Vicente Acu
na (CMM, Universidad de Chile)

< y1 < , < y2 <

Prob. y Est.

188 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Densidad de probabilidad conjunta

Definition
Sean Y1 y Y2 variables aleatorias continuas con funci
on de distribucion
conjunta F (y1 , y2 ). Si existe una funci
on no negativa f (y1 , y2 ), tal que
Z y1 Z y2
F (y1 , y2 ) =
f (t1 , t2 )dt2 dt1 ,

para todo < y1 < , < y1 < , entonces se dice que Y1 y Y2


son variables aleatorias conjuntamente continuas. La funcion f (y1 , y2 )
recibe el nombre de funcion de densidad de probabilidad conjunta.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

189 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Propiedades de funcion de probabilidad conjunta


Theorem
Si Y1 y Y2 son variables aleatorias con funci
on de distribucion conjunta
F (y1 , y2 ), entonces
1.

lm F (y1 , y2 ) =

y1
y2

lm F (y1 , y2 ) =

y1

lm F (y1 , y2 ) = 0

y2

2. y l
m F (y1 , y2 ) = 1
1

3.

y2
Si y1 >

y1 y y2 > y2 entonces
F (y1 , y2 ) F (y1 , y2 ) F (y1 , y2 ) + F (y1 , y2 ) 0.

Notar que F (y1 , y2 ) F (y1 , y2 ) F (y1 , y2 ) + F (y1 , y2 ) es exactamente la


probabilidad P(y1 < Y1 y1 , y2 < Y2 y2 ) 0
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

190 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Propiedades de funcion de probabilidad conjunta

Theorem
Si Y1 y Y2 son variables aleatorias continuas conjuntas con una funcion de
densidad conjunta dada por f (y1 , y2 ), entonces
1. f (y1 , y2 ) 0 para toda y1 , y2 .
R R
2. f (y1 , y2 )dy1 dy2 = 1

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

191 / 250

Para el caso continuo univariante, las reas bajo la densidad de probabilidad para un inte
valo corresponden a probabilidades. De igual manera, la funcin de densidad de probabilid
bivariante f (y1, y2) traza una superficie de densidad de probabilidad sobre el plano (y1, y
Densidad
Bivariante
(Figura 5.2).

Clase 13: Distrib. multivariantes marginal, condicional, independ.

R A 5.2
ensidad
f (y1, y2)

f ( y1, y2 )

a1

a2

y1

b1
b2

y2

b2

a2

P(a1 < Y1 a2 , b1 < Y2 b2 ) =

f (y1 , y2 )dy1 dy2


b1

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

a1
192 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo
Suponga que una partcula radiactiva se localiza aleatoriamente en un
cuadrado con lados de longitud unitaria. Esto es, si se consideran dos
regiones de igual area y dentro del cuadrado unitario es igualmente
probable que la partcula se encuentre en cualquiera de las dos. Denote
con Y1 y Y2 las coordenadas de la ubicaci
on de la partcula. Un modelo
razonable para el histograma de frecuencia relativa para Y1 y Y2 es la
analoga bivariante de la funci
on de densidad uniforme univariante:
(
1 0 y1 1, 0 y2 1
f (y1 , y2 ) =
0 en cualquier otro punto.
a. Dibuje la superficie de densidad de probabilidad.
b. F (0.2, 0.4).
c. Encuentre P(0.1 Y1 0.3, 0 Y2 0.5).
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

193 / 250

.4

Clase 13: Distrib. multivariantes marginal, condicional, independ.

y1

.2

dy2 =

.4
0

.2 dy2 = .08.

EjemploLa probabilidad F(.2, .4) corresponde al volumen bajo f(y1, y2)= 1, que est sombread

Figura 5.3. Como lo indican consideraciones geomtricas, la probabilidad deseada (vo


es igual a .08, que obtuvimos mediante integracin al principio de esta seccin.

G U R A 5.3
resentacin
geomtrica
de f (y1, y2),
Ejemplo 5.3

f ( y1, y2 )

F(.2, .4)

.2
1

.4

y1

y2

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

194 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo
Se ha de almacenar gasolina en un enorme tanque una vez al principio de
cada semana y luego se vende a clientes individuales. Denote con Y1 el
nivel de gasolina (proporci
on) que alcanza el tanque despues de surtirlo.
Debido a suministros limitados, Y1 vara de una semana a otra. Denote
con Y2 la proporcion de la capacidad del tanque que se vende durante la
semana. Como Y1 y Y2 son proporciones, estas dos variables toman
valores entre 0 y 1. Ademas, la cantidad de gasolina vendida, y2 , no puede
ser mayor que la cantidad disponible, y1 . Suponga que la funcion de
densidad conjunta para Y1 y Y2 esta dada por
(
3y1 0 y2 y1 1
f (y1 , y2 ) =
0
en cualquier otro punto.
Encuentre la probabilidad de que menos de la mitad del tanque tenga
gasolina y mas de un cuarto del tanque se venda (Grafico en siguiente
slide).
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

195 / 250

dad de observar un valor en una regin es el volumen bajo


de la regin de inters. La funcin de densidad f(y1, y2) es p

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Figura ejemplo

R A 5.4
ensidad
para el
mplo 5.4

f ( y1, y2 )

3
1

y1

y2
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

196 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Funciones de probabilidad marginal y densidad marginal

Definition
Sean Y1 y Y2 variables aleatorias discretas conjuntas con funcion de
probabilidad conjunta p(y1 , y2 ). Entonces las funciones de probabilidad
marginal de Y1 y Y2 , respectivamente, estan dadas por
X
X
p1 (y1 ) =
p(y1 , y2 ) y p2 (y2 ) =
p(y1 , y2 ).
todos y2

Vicente Acu
na (CMM, Universidad de Chile)

todos y1

Prob. y Est.

197 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Funciones de probabilidad marginal y densidad marginal

Definition
Sean Y1 y Y2 variables aleatorias continuas conjuntas con funcion de
densidad conjunta f (y1 , y2 ). Entonces las funciones de densidad marginal
de Y1 y Y2 , respectivamente, estan dadas por
Z
Z
f1 (y1 ) =
f (y1 , y2 )dy2 y f2 (y2 ) =
f (y1 , y2 )dy1 .

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

198 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo

De un grupo de tres republicanos, dos dem


ocratas y uno independiente se
ha de seleccionar aleatoriamente un comite de dos personas. Denote con
Y1 el n
umero de republicanos y con Y2 el n
umero de democratas del
comite. Encuentre la funci
on de probabilidad conjunta de Y1 y Y2 y luego
encuentre la funcion de probabilidad marginal de Y1 .

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

199 / 250

Del mismo modo,

Clase 13: Distrib. multivariantes marginal, condicional, independ.

p1 (1) = 9#15 y p1 (2) = 3#15

Ejemplo

En forma anloga, la funcin de probabilidad marginal de Y2 est


Tabla 5.2 Funcin de probabilidad conjunta para Y1 y Y2, Ejemplo 5.5

y1
y2

Total

Total

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

200 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo

Sea
(
2y1
f (y1 , y2 ) =
0

0 y1 1, 0 y2 1
en cualquier otro punto.

Grafique f (y1 , y2 ) y encuentre las funciones de densidad marginal para Y1


y Y2 .

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

201 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo
238 Captulo 5 Distribuciones de probabilidad multivariantes
F I G U R A 5.6
Representacin
geomtrica
de f(y1, y2),
Ejemplo 5.6

f ( y1, y2 )
2

1
1
0

y1

1
y2

densidad de probabilidad triangular que se vera como el lado de la cua de la Figura 5.6. Si
la probabilidad estuviera acumulada a lo largo del eje y2 (acumulndose a lo largo de lneas
paralelas al eje y1), la densidad resultante sera uniforme. Confirmaremos estas soluciones
visuales mediante la aplicacin de la Definicin 5.4. Entonces, si 0 y1 1,
Vicente Acu
na (CMM, Universidad de Chile)

f 1 ( y1 ) =

f ( y1 , y2 ) dy2 =

Prob.
q

y Est.

1
0

2y1 dy2 = 2y1 y2

1
0

202 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Funcion de probabilidad condicional

Definition
Si Y1 y Y2 son variables aleatorias discretas conjuntas con funcion de
probabilidad conjunta p(y1 , y2 ) y funciones de probabilidad marginal
p1 (y1 ) y p2 (y2 ), respectivamente, entonces la funci
on de probabilidad
discreta condicional de Y1 dada Y2 es

p(y1 |y2 ) = P(Y1 = y1 |Y2 = y2 ) =

p(y1 , y2 )
P(Y1 = y1 , Y2 = y2 )
=
P(Y2 = y2 )
p2 (y2 )

siempre que p2 (y2 ) > 0.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

203 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo

Volvamos al ejemplo en que de un grupo de tres republicanos, dos


dem
ocratas y uno independiente se ha de seleccionar aleatoriamente un
comite de dos personas. Encuentre la distribuci
on condicional de Y1 dado
que Y2 = 1. Esto es, dado que una de las dos personas del comite es
dem
ocrata, encuentre la distribuci
on condicional para el n
umero de
republicanos seleccionados para el comite.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

204 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Funcion de distribucion condicional

Definition
Si Y1 y Y2 son variables aleatorias, entonces la funci
on de distribucion
condicional de Y1 dado que Y2 = y2 es
F (y1 |y2 ) = P(Y1 y1 |Y2 = y2 ).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

205 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Densidad condicional
Definition
Sean Y1 y Y2 variables aleatorias continuas conjuntas con densidad
conjunta f (y1 , y2 ) y densidades marginales f1 (y1 ) y f2 (y2 ),
respectivamente. Para cualquier y2 tal que f2 (y2 ) > 0, la densidad
condicional de Y1 dada Y2 = y2 esta dada por
f (y1 |y2 ) =

f (y1 , y2 )
f2 (y2 )

y, para cualquier y1 tal que f1 (y1 ) > 0, la densidad condicional de Y2 dada


Y1 = y1 esta dada por
f (y1 , y2 )
f (y2 |y1 ) =
f1 (y1 )

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

206 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo
Una maquina automatica expendedora de bebidas tiene una cantidad
aleatoria Y2 de bebida en existencia al principio de un da determinado y
dosifica una cantidad aleatoria Y1 durante el da (con cantidades
expresadas en galones). La maquina no se reabastece durante el da y, en
consecuencia, Y1 Y2 . Se ha observado que Y1 y Y2 tienen una densidad
conjunta dada por
(
1/2 0 y1 y2 2
f (y1 , y2 ) =
0
en cualquier otro punto.
Esto es, los puntos (y1 , y2 ) estan uniformemente distribuidos en el
triangulo con las fronteras dadas. Encuentre la densidad condicional de Y1
dada Y2 = y2 . Eval
ue la probabilidad de que se venda menos de 1/2
gal
on, dado que la maquina contiene 1.5 galones al empezar el da.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

207 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Independencia

Definition
Sea Y1 que tiene una funci
on de distribuci
on F1 (y1 ) y sea Y2 que tiene
una funcion de distribuci
on F2 (y2 ), y F (y1 , y2 ) es la funcion de
distribucion conjunta de Y1 y Y2 . Entonces se dice que Y1 y Y2 son
independientes si y solo si
F (y1 , y2 ) = F1 (y1 )F2 (y2 )
para todo par de n
umeros reales (y1, y2). Si Y1 y Y2 no son
independientes, se dice que son dependientes.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

208 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Independencia

Theorem
Si Y1 y Y2 son variables aleatorias discretas con funci
on de probabilidad
conjunta p(y1 , y2 ) y funciones de probabilidad marginal p1 (y1 ) y p2 (y2 ),
respectivamente, entonces Y1 y Y2 son independientes si y solo si
p(y1 , y2 ) = p1 (y1 )p2 (y2 )
para todos los pares de n
umeros reales (y1, y2).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

209 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Independencia

Theorem
Si Y1 y Y2 son variables aleatorias continuas con funcion de densidad
conjunta f (y1 , y2 ) y funciones de densidad marginal f1 (y1 ) y f2 (y2 ),
respectivamente, entonces Y1 y Y2 son independientes si y solo si
f (y1 , y2 ) = f1 (y1 )f2 (y2 )
para todos los pares de n
umeros reales (y1, y2).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

210 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo

Recordemos el ejemplo de tirar dos dados y tal que Y1 indica el valor del
primer dado e Y2 indica el valor del segundo dado. Demuestre que Y1 e Y2
son independientes.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

211 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo

Volvamos al ejemplo en que de un grupo de tres republicanos, dos


dem
ocratas y uno independiente se ha de seleccionar aleatoriamente un
comite de dos personas. Es el n
umero de republicanos en el
comite independientes del n
umero de dem
ocratas?

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

212 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo

Sea

(
6y1 y22
f (y1 , y2 ) =
0

0 y1 1, 0 y2 1
en cualquier otro punto.

Demuestre que Y1 e Y2 son independientes.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

213 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Ejemplo

Sea

(
2
f (y1 , y2 ) =
0

0 y2 y1 1
en cualquier otro punto.

Demuestre que Y1 e Y2 son independientes.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

214 / 250

Clase 13: Distrib. multivariantes marginal, condicional, independ.

Descomposicion de conjunta

Theorem
Sean Y1 y Y2 que tienen una densidad conjunta f (y1 , y2 ) que es positiva si
y s
olo si a y1 b y c y2 d, para constantes a, b, c y d; y
f (y1 , y2 ) = 0 en otro caso. Entonces Y1 y Y2 son variables aleatorias
independientes si y solo si
f (y1 , y2 ) = g (y1 )h(y2 )
donde g (y1 ) es una funcion no negativa de y1 solamente y h(y2 ) es una
funcion no negativa de y2 solamente.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

215 / 250

Clase 14: Distrib. Multivar.: esperanza de funci


on, teo. especiales

Clase 14: Distribuciones Multivariantes: valor esperado de una funcion y


teoremas especiales

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

216 / 250

Clase 14: Distrib. Multivar.: esperanza de funci


on, teo. especiales

Teoremas especiales

Definition
Sea g (Y1 , Y2 , . . . , Yk ) una funci
on de las variables aleatorias discretas,
Y1 , Y2 , . . . , Yk , que tienen funci
on de probabilidad p(y1 , y2 , . . . , yk ).
Entonces el valor esperado de g (Y1 , Y2 , . . . , Yk ) es
E (g (Y1 , Y2 , . . . , Yk )) =
X
X X
g (y1 , y2 , . . . , yk )p(y1 , y2 , . . . , yk ).
...
todo yk

todo y2 todo y1

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

217 / 250

Clase 14: Distrib. Multivar.: esperanza de funci


on, teo. especiales

Teoremas especiales

Definition
Sea g (Y1 , Y2 , . . . , Yk ) una funci
on de las variables aleatorias continuas
Y1 , Y2 , . . . , Yk con funcion de densidad conjunta f (y1 , y2 , . . . , yk )
Entonces el valor esperado de g (Y1 , Y2 , . . . , Yk ) es
E (g (Y1 , Y2 , . . . , Yk )) =
Z

...

g (y1 , y2 , . . . , yk ) f (y1 , y2 , . . . , yk )dy1 dy2 . . . dyk

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

218 / 250

Clase 14: Distrib. Multivar.: esperanza de funci


on, teo. especiales

Teoremas especiales

Theorem
Sea c una constante. Entonces
E (c) = c.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

219 / 250

Clase 14: Distrib. Multivar.: esperanza de funci


on, teo. especiales

Teoremas especiales

Theorem
Sea g (Y1 , Y2 ) una funcion de las variables aleatorias Y1 y Y2 y sea c una
constante. Entonces
E [cg (Y1 , Y2 )] = cE [g (Y1 , Y2 )].

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

220 / 250

Clase 14: Distrib. Multivar.: esperanza de funci


on, teo. especiales

Teoremas especiales

Theorem
Sean Y1 y Y2 variables aleatorias y g1 (Y1 , Y2 ), g2 (Y1 , Y2 ), . . . , gk (Y1 , Y2 )
funciones de Y1 y Y2 . Entonces
E [g1 (Y1 , Y2 ) + g2 (Y1 , Y2 ) + ... + gk (Y1 , Y2 )]
= E [g1 (Y1 , Y2 )] + E [g2 (Y1 , Y2 )] + ... + E [gk (Y1 , Y2 )].

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

221 / 250

Clase 14: Distrib. Multivar.: esperanza de funci


on, teo. especiales

Teoremas especiales

Theorem
Sean Y1 y Y2 variables aleatorias independientes y sean g (Y1 ) y h(Y2 )
funciones solo de Y1 y Y2 , respectivamente. Entonces
E [g (Y1 )h(Y2 )] = E [g (Y1 )]E [h(Y2 )],
siempre que existan los valores esperados.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

222 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Clase 15: Covarianza y correlaci


on de dos variables aleatorias.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

223 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Covarianza de dos v.a.


En muchos casos de dependencia entre dos variables Y1 y Y2 se tiene
que: cuando una variable toma valores altos la otra tambien toma
valores altos. O cuando una toma valores altos la otra toma valores
bajos.
Este grado de dependencia se puede medir utilizando dos medidas
similares: la covarianza y el coeficiente de correlacion. Estas miden
que grado de linealidad hay en la dependencia entre ellas.
Es bueno recalcar que hay otras dependencias entre variables que no
son lineales, y que estas medidas pueden no ser muy buenos
indicadores.
De hecho, si las variables son independientes, la covarianza y la
correlacion son cero (pues no hay una dependencia lineal), pero lo
contrario no es necesariamente cierto: covariana y correlacion pueden
ser cero, pero esto no es indicador que las variables sean
necesariamente independientes.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

224 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Covarianza de dos v.a.

Definition
Si Y1 y Y2 son variables aleatorias con medias 1 y 2 , respectivamente, la
covarianza de Y1 y Y2 es
Cov (Y1 , Y2 ) = E [(Y1 1 )(Y2 2 )]
Si Y1 aumenta cuando Y2 aumenta covarianza positiva
Si Y1 disminuye cuando Y2 aumenta covarianza negativa
Si no hay una tendencia clara covarianza cercana a cero
No sirve como medida absoluta de la dependencia

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

225 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Covarianza de dos v.a.

Sean Y y X v.a.s y a, b constantes. De la definici


on podemos ver las
siguientes propiedades:
Cov (Y , a) = 0
Cov (Y , Y ) = V (Y )
Cov (Y , X ) = Cov (X , Y )
Cov (aY , bX ) = ab Cov (Y , X )

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

226 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Covarianza de dos v.a.


5.7

Teorema:
F I G U R A 5.8
Observaciones
dependientes e
independientes
para (y1, y2)

y2

y2

!2

!2

!1
(a)

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

y1

Covarianza de

y1

!1
(b)

227 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Coeficiente de correlacion
Definition
Si Y1 y Y2 son variables aleatorias con medias 1 y 2 , respectivamente, el
coeficiente correlacion de Y1 y Y2 es
=

Cov (Y1 , Y2 )
1 2

donde 1 y 2 son las desviaciones estandar de Y1 y Y2 respectivamente.


Es una medida mas facil de comparar. Se puede demostrar que
1 1.
El signo es el mismo del de la covarianza.
= 1 significa correlaci
on perfecta (los puntos sobre una lnea de
pendiente positiva)
= 1 tambien significa correlaci
on perfecta (los puntos sobre una
lnea de pendiente negativa)
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

228 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Covarianza de dos v.a.

Theorem
Si Y1 y Y2 son variables aleatorias con medias 1 y 2 , respectivamente,
entonces es
Cov (Y1 , Y2 ) = E [(Y1 1 )(Y2 2 )] = E (Y1 Y2 ) E (Y1 )E (Y2 ).
Dem: Usando propiedades de la esperanza.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

229 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Ejemplo

Sean las v.a. Y1 y Y2 con densidad conjunta dada por




3y1 , 0 y2 y1 1,
f (y1 , y2 ) =
0, en cualquier otro punto.
Muestre que E (Y1 ) = 3/4 y que E (Y2 ) = 3/8.
Muestre que la covarianza entre las v.a.s es 0,02.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

230 / 250

Clase 15: Covarianza y correlaci


on de dos v.a.s

Covarianza de dos v.a.

Theorem
Si Y1 y Y2 son variables aleatorias independientes, entonces
Cov (Y1 , Y2 ) = 0.
As, las variables aleatorias independientes deben ser no correlacionadas.
Dem: Pizarra
Ojo: La recproca no es cierta. Ver ejemplo.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

231 / 250

ve
en la Tabla 5.3.
Demuestre que Y1 y Y2 son dependiente
Clase 15: Covarianza y correlaci
on de dos v.a.s

EjemploEl clculo de probabilidades marginales da p (1) = p (1)


ucin
1
1
= 6/ 16 = p2(0). El valor p(0, 0) = 0 en la celda del centro
Tabla 5.3 Distribucin de probabilidad conjunta, Ejemplo 5.24

y1
y2

+1

1
0
+1

1$16
3$16
1$16

3$16
0
3$16

1$16
3$16
1$16

Ver que p(0, 0) 6= p1 (0)p2 (0), pero que Cov (Y1 , Y2 ) = 0

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

232 / 250

Clase 16: Funciones lineales de variables aleatorias

Clase 16: Funciones lineales de variables aleatorias.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

233 / 250

Clase 16: Funciones lineales de variables aleatorias

Funciones lineales de variables aleatorias

Veamos un caso particular de funciones de varias variables aleatorias,


cuando se trata de una funci
on lineal de varias variables aleatorias. Es
decir si Y1 , Y2 , . . . , Yn son variables aleatorias y a1 , a2 , . . . , an
constantes,
estudiaremos que obtenemos con la variable aleatoria
P
U = ni=1 ai Yi .
Sabemos por teorema anterior que la esperanza es lineal, lo que
expresamos en el siguiente teorema.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

234 / 250

Clase 16: Funciones lineales de variables aleatorias

Funciones lineales de v.a.: esperanza

Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias
P tales que E (Yi ) = i , y sean
a1 , a2 , . . . , an constantes. Sea U = ni=1 ai Yi . Entonces se tiene que:
E (U) =

n
X

ai i

i=1

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

235 / 250

Clase 16: Funciones lineales de variables aleatorias

Funciones lineales de v.a.s: varianza

Sabemos que E (Y1 + Y2 ) = 1 + 2 . Pero, Cuanto vale la varianza


V (Y1 + Y2 )? Cuan dispersos estan los valores que puede tomar
Y1 + Y2 en torno a 1 + 2 ?
Si Y1 y Y2 son independientes entonces se puede demostrar que
V (Y1 + Y2 ) = V (Y1 ) + V (Y2 ). Esta varianza considera casos en que
(a)
(b)
(c)
(d)

Y1
Y1
Y1
Y1

es
es
es
es

menor que 1
menor que 1
mayor que 1
mayor que 1

y Y2
y Y2
y Y2
y Y2

es menor que 2
es mayor que 2
es menor que 2
es mayor que 2

Los casos (a) y (d) aportan mas varianza y los casos (b) y (c) menos.
Pero todas las combinaciones son posibles (pues las variables son
independientes).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

236 / 250

Clase 16: Funciones lineales de variables aleatorias

Funciones lineales de v.a.s: varianza


En cambio, si las variables no son independientes y hay una alta
covarianza positiva entre las variables entonces se tienen pocos
casos (b) y (c) (no son muy probables!) y la probabilidad se
concentra en los casos (a) y (d) que entregan mayor dispersion.
As una covarianza alta implica que la varianza de Y1 + Y2 es mayor
que la varianza que tendra la suma si fueran independientes.
Analogamante, si hay una alta covarianza negativa, se tienen pocos
casos (a) y (d). As la varianza de Y1 + Y2 es mayor que la varianza
que tendra si fueran independientes.
As la covarianza entrega una medida de la variacion conjunta de las
variables.
En general, se tiene que
V (Y1 + Y2 ) = V (Y1 ) + V (Y2 ) + 2Cov (Y1 , Y2 )

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

237 / 250

Clase 16: Funciones lineales de variables aleatorias

Funciones lineales de v.a.s: varianza


P
En general, para calcular la varianza de la funci
on U = ni=1 Yi
vamos a necesitar calcular las covarianzas entre todos los pares Yi Yj .
Es decir calculamos Cov (Yi , Yj ).
Si representamos estas covarianzas en una matriz de orden n
(simetrica pues Cov (Yi , Yj ) = Cov (Yj , Yi )), entonces en la diagonal
tendramos las varianzas, pues Cov (Yi , Yi ) = V (Yi ).
Esta matriz es la matriz de covarianzas de las variables Y1 , Y2 , . . . , Yn .
Se puede demostrar que V (U) es la suma de todos los valores de esa
matriz:
n X
n
X
V (U) =
Cov (Yi , Yj ).
i=1 j=1

Veamos el caso mas general en el siguiente teorema.


Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

238 / 250

Clase 16: Funciones lineales de variables aleatorias

Funciones lineales de v.a.s: varianza


Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias
Pn tales que E (Yi ) = i , y sean
a1 , a2 , . . . , an constantes. Sea U = i=1 ai Yi . Entonces se tiene que:
n
X
X X
V (U) =
ai2 V (Yi ) + 2
ai aj Cov (Yi , Yj ).
i=1

1i<jn

o equivalentemente:
n X
n
X
V (U) =
ai aj Cov (Yi , Yj ).
i=1 j=1

As la varianza de U es exactamente la suma de todos los terminos


de la matriz de covarianzas de los ai Yi . Puede interpretarse como: la
varianza que aporta cada termino por separado (la diagonal de la
matriz) mas la covarianza que suma (o resta) cada par de variables.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

239 / 250

Clase 16: Funciones lineales de variables aleatorias

Funciones lineales de v.a.s: covarianza


Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias tales que E (Yi ) = i ,
y sean X1 , X2 , . . . , Xm variables aleatorias tales que E (Xi ) = i . Sean
a1 , a2 , . . . , an y b 1 , b 2 , . . . P
, bm constantes. Entonces
la covarianza entre las
Pm
n
variables aleatorias U1 = i=1 ai Yi y U2 = i=1 bi Xi es
Cov (U1 , U2 ) =

n X
m
X

ai bj Cov (Yi , Xj ).

i=1 j=1

Notar que este teorema es un caso general del teorema anterior.


Podemos recuperar la f
ormula de la varianza calculando la covarianza
de U consigo misma: V (U) = Cov (U, U).

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

240 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Clase 17: Distribuciones de funciones de variables aleatorias.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

241 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Distribuciones de funciones de variables aleatorias

Veremos algunos metodos para calcular la distribucion de una funcion


de variables aleatorias:
Metodo de las funciones de distribuci
on.
Metodo de las transformaciones (auxiliar).
Metodo de las funciones generadoras de momento.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

242 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Metodo de las funciones de distribucion

Si U(Y1 , Y2 , . . . , Yn ) es una v.a. funci


on de las v.a.s Y1 , Y2 , . . . , Yn .
Determinar la funcion distribuci
on FU (u) = P(U u). Para ello
determinar la region del espacio y1 , y2 , . . . , yn tal que U u e
integramos la densidad conjunta f (y1 , y2 , . . . , yn ) en esa region.
Derivamos FU (u) para obtener la densidad

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

243 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Metodo de las funciones generadoras de momentos

Si U(Y1 , Y2 , . . . , Yn ) es una v.a. funci


on de las v.a.s Y1 , Y2 , . . . , Yn .
Calcular la f.g.m. de U definida como mU (t) = E (e tU ).
Si la f.g.m. obtenida es alguna conocida, entonces tenemos la
distribucion buscada.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

244 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Ejemplo: estandarizando una v.a. normal

Sea Y una v.a. normalmente distribuida con media y varianza 2 .


Demuestre que
Y
Z=

tiene una distribucion normal estandar, es decir, una distribucion


normal con media 0 y varianza 1.
Solucion: Propuesta

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

245 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Ejemplo: normal estandar al cuadrado

Sea Z una v.a. normalmente distribuida con media 0 y varianza 1.


Usando f.g.m. muestre que Z 2 tiene una distribucion gamma con
= 1/2 y = 2.
Solucion: Pizarra
As podemos ver que Z 2 es una gamma con parametros = 1/2 y
= 2, o lo que es lo mismo, una 2 con = 1 grado de libertad.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

246 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Suma de v.a. independientes

Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias independientes con f.g.m.
mY1 (t), mY2 (t), . . . , mYn (t), respectivamente. Si U = Y1 + Y2 + . . . + Yn ,
entonces
mU (t) = mY1 (t) mY2 (t) . . . mYn (t)
Dem: Usar esperanza de multiplicaci
on de v.a. independientes.
Este resultado permite demostrar los siguientes dos teoremas.

Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

247 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Funcion lineal de v.a. normales independientes


Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias independientes normalmente
distribuidas con E (Yi ) = i y V (Yi ) = i2 , para i = 1, 2, . . . , n y sean
a1 , a2 , . . . , an constantes. Si
U=

n
X

ai Yi = a1 Y1 + a2 Y2 + . . . + an Yn ,

i=1

entonces U es una variable aleatoria normalmente distribuida con


E (U) =

n
X

ai i = a1 1 + a2 2 + . . . + an n

i=1

V (U) =

n
X

ai2 i2 = a12 12 + a22 22 + . . . + an2 n2 .

i=1
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

248 / 250

Clase 17: Distribuciones de funciones de variables aleatorias

Suma de cuadrados de v.a. normales estandares indep.


Theorem
Sean Y1 , Y2 , . . . , Yn variables aleatorias independientes normalmente
distribuidas con E (Yi ) = i y V (Yi ) = i2 , para i = 1, 2, . . . , n y definimos
Zi =
Entonces

Pn

2
i=1 Zi

Yi i
, i = 1, 2, . . . , n.
i

tiene una distribuci


on 2 con n grados de libertad.

Las Zi son normales estandarizadas (media 0 y varianza 1).


Como vimos, la 2 con n grados de libertad es un caso particular de
la distribucion gamma. Este resultado muestra por que se le
bautiz
o con un nombre especfico.
El origen del nombre del parametro n grados de libertad viene de
las n variables independientes involucradas.
Vicente Acu
na (CMM, Universidad de Chile)

Prob. y Est.

249 / 250

Clase 17: Distribuciones de funciones de variables


f.10aleatorias
, de una

variable aleatoria x2 con 10 gl. En general,


P x 2 > xa2 = a

Figura

implica que

P x 2 xa

y que xa2 = f1a , el cuantil (1 a) de la variable aleatoria x2.


La Tabla 6, Apndice 3, contiene xa2 = f1a para diez valore
.1, .90, .95, .975, .99 y .995) para cada una de las 37 distribuci
con grados de libertad 1, 2, . . . , 30 y 40, 50, 60, 70, 80, 90 y 10
informacin acerca de estas distribuciones y la asociada con gra
F I G U R A 7.2
Una distribucin x2
que muestra el rea a
de cola superior

f(u)

!
0

Vicente Acu
na (CMM, Universidad de Chile)

x2!

Prob. y Est.

250 / 250

Potrebbero piacerti anche