Sei sulla pagina 1di 35

Modelos de Distribucin

INTRODUCCIN
El comportamiento de una variable aleatoria queda descrita por su distribucin
de probabilidad.
En muchas tareas estadsticas, se busca determinar una distribucin de
probabilidad o modelo probabilstico que satisfaga un conjunto de supuestos,
para estudiar los resultados observados de un experimento aleatorio.
Se pueden definir muchas distribuciones de probabilidad tanto de variable
aleatoria discreta como de variable aleatoria continua.
Algunas variables aleatorias se adaptan muy bien a una serie de
problemas prcticos y aparecen con bastante frecuencia. Por tanto, un estudio
detallado

de

las

mismas

facilita

bastante

la

construccin

de

las

correspondientes funciones de probabilidad, como tambin de sus principales


parmetros. As, para un problema dado, verificaremos si satisface las
condiciones de los modelos conocidos, pues esto facilita bastante nuestro
trabajo. En esta seccin estudiaremos alguno de estos modelos, tratando de
enfatizar las condiciones en que stas aparecen, su funcin de probabilidad,
parmetros, como encontrar probabilidades y para concluir con algunos
ejemplos para quedar en claro cada una de las probabilidades.

Estadstica General

Pgina 1

Modelos de Distribucin
INDICE
Introduccin

i.
Pgina.

1. DISTRIBUCIN DISCRETA
1.1. Distribucin Uniforme discreta
1.1.1. Funcin de Probabilidad
1.1.2. Teorema
1.1.3. Demostracin

05
05
05

1.2. Distribucin de Bernoulli


1.2.1. Definicin
1.2.2. Ensayo de Bernoulli
1.2.3. Funcin de probabilidad
1.2.4. Demostracin
1.3. Distribucin Binomial
1.3.1. Experimento Binomial
1.3.2. Variable Binomial
1.3.3. Funcin de probabilidad

1.3.4. Teorema
1.3.5. Demostracin09

06
06
06
07
07
07
08

09

1.4. Distribucin Geomtrica


1.4.1. Experimento geomtrico
1.4.2. Variable geomtrica
1.4.3. Funcin de probabilidad
1.4.4. Teorema
1.4.5. Demostracin
1.5. Distribucin de Pascal o binomial negativa
1.5.1. Experimento binomial negativo o de Pascal
1.5.2. Funcin de probabilidad
1.5.3. Teorema
1.5.4. Demostracin

2.

1.6. Distribucin Hipergeomtrica


1.6.1. Definicn
1.6.2. Funcin de probabilidad
1.6.3. Torema
1.7. Distribucin de Poisson
1.7.1. Funcin de probabilidad
1.7.2. Teorema
1.7.3. Demostracin
1.8. Ejemplos
DISTRIBUCIN CONTINUA

Estadstica General

Pgina 2

09
09
09
10
10
10
11
12
12
13
13
13
14
14
15

Modelos de Distribucin
2.1.

Distribucin uniforme
2.1.1. Funcin de densidad
2.1.2. Grfica
2.1.3. Teorema
2.1.4. Demostracin
2.2. Distribucin normal
2.2.1. Funcin de densidad
2.2.2. Grfica
2.2.3. Propiedades
2.2.4. Teorema
2.2.5. Demostracin
2.3. Distribucin Gamma
2.3.1. Funcin de distribucin
2.3.2. Propiedades
2.3.3. Teorema
2.3.4. Demostracin
2.3.5. Grfica
2.4. Distribucin exponencial
2.4.1. Funcin de densidad
2.4.2. Grfica
2.5. Distribucin chi-cuadrado
2.5.1. Funcin de densidad
2.5.2. Grfica
2.5.3. Propiedades
2.5.4. Uso de la tabla Chi-cuadrado
2.6. Distribucin t de Student
2.6.1. Funcin de densidad
2.6.2. Uso de la tabla t-Student
2.7. Distribucin F
2.7.1. Funcin de densidad
1.7.1. Grfica
1.7.2. Uso de la tabla F
1.7.3. Teorema
1.7.4. Demostracin
2.8. Ejemplos
CONCLUSIONES

18
18
18
19
19
20
20
21
21
22
22
23
24
24
25
25
25
26
26
27
27
27

ii.

BIBLIOGRAFIA

Estadstica General

17
17
17
18

iii.

Pgina 3

Modelos de Distribucin

1. DISTRIBUCION DISCRETA
1.1. Distribucin Uniforme Discreta
Se dice que una variable aleatoria discreta
valores

x1

= 1,

x 2=2, , x N

que toma

=N tiene distribucin uniforme.

1.1.1. Funcin de Probabilidad


Su funcin de probabilidad es dado por:
F ( x )=P [ X= X 1 ]=

1
, para i=1,2, , N
N

1.1.2. Teorema
Si

es una variable aleatoria que tiene distribucin

uniforme discreta, entonces:


N +1
E [ X ]=
i)
2
ii)

N 21
var [ x ] =
12

iii)

M x ( t )=E [ etx ]

1.1.3. Demostracin

Estadstica General

Pgina 4

Modelos de Distribucin
N

i= N1 .

N ( N + 1) N +1
=
2
2

i)
ii)

var [ x ] =E [ x ] ( E [ x ] ) = .i 2 .

i=1

iii)

i=1

i =1

1.2.

1 1
=
N N

E [ X ] = i .

1
N +1 2
(
)
N
2

2
1 N (N +1)(2 N + 1) ( N + 1 ) N 21
.

=
N
6
4
12

M x ( t )=E [ e ]= e .
tx

jt

j=1

1 1
jt
= e
N N j=1

Distribucin de Bernoulli
1.2.1. Definicin
La variable aleatoria X definida en

de manera que

atribuye a E el valor 1 y a F el valor 0, se denomina variable aleatoria de


Bernoull.
1.2.2. Ensayo de Bernoulli
Es un experimento que tiene dos posibles resultados
mutuamente excluyentes, generalmente llamados xito y fracaso.
Ejemplo:
a) En el lanzamiento de una moneda loa resultados posibles son cara o
sello.
b) En el lanzamiento de un dado los resultados posibles son nmero 5
diferentes de 5.
c) En la seleccin de una pieza de un lote de 500 piezas. Los resultados
posibles son defectuosos o no defectuosos.
d) En la seleccin de una persona al azar de un grupo de 1,000. Los
resultados posibles son hombre o mujer.
En todos estos casos, podemos estar interesados en la
ocurrencia de un xito (ocurrencia de una cara, nmero 5, pieza
defectuosa, etc.) o fracaso (ocurrencia de sello, nmero diferente de 5,
pieza buena, etc.).

Estadstica General

Pgina 5

Modelos de Distribucin
, s i ocurre xito con probabilidad p
{0 , si 1ocurre
fracaso con probabilidad 1 p=q
1.2.3. Funcin de probabilidad
La variable aleatoria x , que toma solamente dos valores 0 y 1.

x
1x
p ( x )= p [ X =x ] = p (1 p) , si x=0,1
0

Se denomina variable aleatoria de Bernoulli, donde el parmetro p


satisface
0< p<1

De la definicin tenemos:
p [ X=1 ] p

0<q=1p< 1

P [ X=0 ] =1P

1.2.4. Teorema
Si x es una variable aleatoria con distribucin Bernoulli de parmetro p,
entonces:
i)

E [ X ]= p

ii)

Var [ X ] =pq

iii)

M x ( t )=E [ etx ] = pet + q

1.2.5. Demostracin
E [ X ] =1. p+ 0. q= p
i)

1.3.

ii)

var [ X ]=E [ X 2 ] ( E [ X ] ) =( 12 . P+ 02 . q ) p2 =p p2= pq

iii)

M x ( t )=E [ e ] = e P [ X=x ] =P [ X=0 ] + e P [ X =1 ] = pe + q


tx

tx

x=0

Distribucin Binomial
1.3.1. Experimento binomial
Se denomina experimento binomial a un nmero fijo, n,
de

repeticiones

independientes de un experimento aleatorio de

Bernoull, y por lo tanto, se caracteriza porque:


a. Las n pruebas son estadsticamente independientes.
b. Los resultados de cada prueba son dos mutuamente excluyentes,
xito (E) y fracaso (F).
c. La probabilidad p de xito es invariante en cada una de las
pruebas.

Estadstica General

Pgina 6

Modelos de Distribucin
El espacio muestral del experimento binomial es el conjunto:

{( w1 , w2 ,..., wn ) / wi E F }.

1.3.2. Variable Binomial


Se denomina variable binomial a la variable aleatoria X
definida en como el nmero de xitos que ocurren en las n pruebas de
Bernoull. Los posibles valores de X son: 0, 1, 2, 3, , n. Si k es
cualquier valor de la variable binomial, el evento [X k] consiste de
todos los elementos de que contengan k xitos(E) y

nk

fracasos

(F). La probabilidad de cada uno de estos eventos elementales es igual


pk qn k

. El nmero de estos eventos elementales es igual a:

n
n!
C kn
.
k! (n k )!
k
Por tanto, la probabilidad de obtener k xitos en n pruebas Bernoull
es,

n k nk
p q , k 0,1,2,3,..., n.
k

P[ X k ]

Para verificar que la suma de las probabilidades binomiales es igual a 1,


se

utiliza el binomio:

n n k nk
a b n
Ck a (b )
k 0

k p

.En efecto,

(1 p ) n k p (1 p ) n (1) n 1.

k 0

1.3.3. Funcin de probabilidad


Se dice que la variable aleatoria X definida como el
nmero de xitos que ocurren en las n pruebas de Bernoull,

Estadstica General

Pgina 7

tiene

Modelos de Distribucin
distribucin binomial con parmetros n y p y se escribe , si su funcin de
probabilidad es:

n k nk
p q , k 0,1,2,3,..., n.
k

f (k ) P[ X k ]
NOTA.

Sean, n variables aleatorias independientes de Bernoull con

distribucin

para cada. Entonces, la suma de esta n variable aleatoria

independiente representa el nmero de xitos en n ensayos de Bernoull,


esto es, la variable aleatoria:
n

i 1

cuyos valores son: 0,1,2,..., n, tiene distribucin Binomial .

1.3.4. Teorema
X ~ B (n, p)

Si
i)

, entonces
E [ X ] =np

ii)

var [ x ] =npq

1.3.5. Demostracin
n1
E [ X ] =M X ( 0 ) =np [ p+ q ] =np (1)n1=np
i)
ii)

Var [ X 2 ] =E [ X 2 ] ( E [ X ] )
2

M X ( 0 )( np ) =[ n ( n1 ) p +np(np)
2

n2 p 2n p2+ npn2 p2 =np ( 1 p )=npq

1.4.

Distribucin Geomtrica

1.4.1. Experimento geomtrico


Se denomina experimento geomtrico a las repeticiones
independientes de un experimento aleatorio de Bernoull hasta obtener
el primer xito. En cada ensayo de Bernoull puede ocurrir un xito (E)
con probabilidad p o un fracaso (F) con probabilidad, siendo.

1.4.2. Variable geomtrica


Se denomina variable geomtrica a la variable aleatoria X
definida como el nmero repeticiones independientes de un ensayo de
Bernoull hasta que resulte el primer xito. Los posibles valores de X
son: 1, 2, 3,..., etc...

Estadstica General

Pgina 8

Modelos de Distribucin
Si k es uno de los valores de la variable, el evento, consiste del suceso

elemental de

que contenga los primeros resultados fracasos y el

ltimo o k-simo resultado un xito. La probabilidad de que ocurra el


primer xito en la k-sima prueba es igual a,
k1
q p

1.4.3. Funcin de probabilidad


Se dice que la variable aleatoria X que se define como el
nmero de repeticiones independientes de un ensayo de Bernoull hasta
que ocurra el primer xito, tiene distribucin de probabilidad geomtrica
con parmetro p y se escribe, si su funcin de probabilidad es:

f ( x) P[ X x] q x 1 p,
Para

probar

que

la

x 1,2,..., etc.

suma

de

las

probabilidades

geomtricas es igual a 1, se utiliza la suma infinita:

1 r r 2 r 3 ...

k 0

1
1 r

r 1

k 1

k 1

si

1
1
p 1
p p(1 q q 2 q 3 ...) p
p
1

En efecto,

1.4.4. Teorema
Si X es una variable aleatoria con distribucin geomtrica de
parmetro p, entonces:
1

p
i)
2

q
p2

ii)
1.4.5. Demostracin
E( X )

k 1

i)

kqk 1 p p

kq

k 1

k 1

Var ( X ) E ( X 2 ) E ( X ) 2

2 p
p2

1
(1 q )

1
p2

1
p

1 p
p2

ii)
1.5. Distribucin de Pascal o binomial negativa
1.5.1. Experimento binomial negativo o de Pascal

Estadstica General

Pgina 9

1
.
p

q
p2

Modelos de Distribucin
Se denomina experimento
Pascal

binomial negativo o de

a las repeticiones independientes de un experimento

aleatorio de Bernoull hasta obtener el xito nmero r. En cada


ensayo de Bernoull puede ocurrir un xito con probabilidad p o
q 1 p

un fracaso con probabilidad


.
A la variable aleatoria X que se define como el
nmero de intentos hasta que ocurra el xito nmero r se le
denomina variable aleatoria binomial negativa o de Pascal. Su

rango es el conjunto:

R X {r , r 1, r 2,...}
[X k]

Si k RX, el evento

ocurre, si resulta xito en

la k-sima prueba y en las restantes

k 1

pruebas resultan

r 1

(k 1) (r 1) k r
xitos y

fracasos. Luego, la probabilidad

de tener el r-simo xito en la k-sima prueba es igual a:

k 1

r 1 k r
p
q p
r 1

k 1

r k r
p
q
r 1

1.5.2. Funcin de probabilidad


Si se repite en forma independiente un ensayo de
Bernoull, donde cada resultado puede ser un xito con
probabilidad p o un fracaso con probabilidad

q 1 p

se dice que la

variable aleatoria X que se define como el nmero de intentos


hasta que ocurran r xitos, tiene distribucin binomial negativa o de
Pascal con parmetros r y p y se escribe X ~ P(r, p), si su funcin
de probabilidad es:

Estadstica General

Pgina 10

Modelos de Distribucin

f (k ) P[Y k ]

k 1

r k r
p
q
r 1

k r , r 1, r 2,..., etc.
Para verificar que la suma de las probabilidades de
Pascal es igual a uno, se usa la siguiente serie binomial negativa:
(1 q ) r

C
i 0

NOTA. Sean

X 1 , X 2 ,..., X r

r
i

(q ) i

C
k r

k 1
r 1

q k r .

, r variables aleatorias independientes cada

una con distribucin geomtrica G(p), tales que:


X1 es el nmero de repeticiones necesarias hasta la ocurrencia del
primer xito (E).
X2 es el nmero de repeticiones entre la primera ocurrencia de E
hasta la segunda ocurrencia de E.
... Etc.
Xr es el nmero de repeticiones necesarias entre la ocurrencia de E
hasta la r-sima ocurrencia de E.
Entonces, la variable aleatoria:
r

i 1

es el nmero de repeticiones

independientes de un ensayo de

Bernoull hasta que se obtenga el xito nmero r. Luego, X tiene


distribucin de Pascal con parmetros r y p.
1.5.3. Teorema

Estadstica General

Pgina 11

Modelos de Distribucin
Si x es una variable aleatoria con distribucin binomial negativa
con parmetros r y p, entonces:
M x ( t )=(

i)

E [ X ]=

ii)

p r
1
) , para t<1 n( )
t
q
1qe

rq
rq
y Var [ X ] = 2
p
p

1.5.4. Demostracin
i)

Sean

X 1 , X 2 ,..., X r

, r variables aleatorias independientes cada una

con distribucin geomtrica, G(p), entonces, la variable aleatoria:


r

i 1

tiene distribucin de Pascal con parmetros r y p. Luego,

i 1

E ( X ) E

V (X ) V

i 1

Xi

Xi

i 1

E X i

i 1

VXi

p r p
i 1

p
i 1

q
p2

ii)

1.6. Distribucin Hipergeomtrica


1.6.1. Definicin
Este modelo se utiliza

cuando

consideramos

extracciones de una poblacin que est dividida en dos


caractersticas, y estas extracciones son hechas sin reposicin.
Para ilustrar, consideremos una poblacin de N elementos, donde r
de los cuales tienen caracterstica A, y N-r tiene caracterstica B. un
grupo de n elementos es seleccionado aleatoriamente de esta
poblacin, sin reemplazamiento, y sea X la variable aleatoria de
inters que denota el nmero de elementos del grupo que tienen la
caracterstica A.
1.6.2. Funcin de probabilidad

Estadstica General

Pgina 12

Modelos de Distribucin
Se dice que una variable aleatoria X que denota el
nmero de elementos que poseen la caracterstica A en una
muestra aleatoria de tamao n seleccionada de una poblacin de N
elementos de los cuales r tiene caracterstica A y N-r caracterstica
B, tiene distribucin hipergeomtrica, si su funcin de probabilidad
es dado por:
r N r
(
x )( nx )
P ( x )=P [ X =x ] =
( Nn )
Donde mx.

{0, nN + r } < x< mn . { r , n }


H ( N , n ,r )

La notacin que utilizar ser x

1.6.3. Teorema
Si X es una variable aleatoria con distribucin hupergeomtrica
H(N,n,r), entonces:
r
i) E [ X ] =n . N

ii)

Var [ X ] =n .

r Nr Nn
.
.
N N N1

2.9. Distribucin de Poisson


Se dice que la variable aleatoria discreta X, cuyos valores posibles
son: 0,1,2,..., tiene distribucin de Poisson con parmetro

( >0)

y se escribe X~P().
2.9.1. Funcin de probabilidad
f ( x) P[ X x]

e ( ) x
,
x!

x 0,1,2,...

Para verificar que la suma de las probabilidades de Poisson es igual a


1, se utiliza la suma

k 0

Estadstica General

( ) k
e .
k!

Pgina 13

Modelos de Distribucin

e ( ) k
( ) k
e
e e e 0 1.
k!
k!
k 0
k 0

En efecto,
La distribucin de Poisson se aplica a problemas donde la variable
aleatoria es el nmero de eventos independientes que ocurren en un
intervalo de tiempo, o en una regin plana (con un promedio dado), por
ejemplo, entre otros:
* Nmero de llamadas que recibe una central telefnica en el perodo de
un minuto.
* Nmero de accidentes de trabajo que ocurren en una fbrica durante
una semana.
* Nmero de fallas en la superficie de una cermica rectangular.
mt 3 de agua.

* Nmero de bacterias en un volumen de un

2.9.2. Teorema
Si X ~ P(), entonces:

Media:

i)

ii)

Varianza:

2.9.3. Demostracin
i)

E( X )

x 0

e ( ) x

x!

x 1

e ( ) x
( )e
x!

x 1

() x 1
( )e e
( x 1)!

ii)

E[ X ( X 1)]

x 0

x ( x 1). e

( ) x

x!

2.10. Ejemplos

Estadstica General

Pgina 14

() x 2

( x 2)! .e

2 .e .

x2

.e 2

Modelos de Distribucin
Ejemplo 1. Un matemtico fumador de pipas lleva consigo, todas las
veces, 2 cajas de fsforos, 1 en su bolsillo izquierdo y en su bolsillo
derecho. Cada vez que l requiere de un fsforo la toma con igual
probabilidad de uno de sus bolsillos. Considere el momento cuando el
matemtico descubre primero que una de sus cajas de fsforos est
vaca. Si se supone que cada caja de fsforos contiene inicialmente N
fsforos, Cul es la probabilidad de que haya exactamente k fsforos
en la otra caja, k=0,1,, n?
SOLUCIN.
Sea el evento E: el matemtico descubre primero que la caja de fsforos
del bolsillo derecho est vaco y que hay exactamente k fsforos en la
caja del bolsillo izquierdo. Este evento ocurrir si y slo si la seleccin
N+1 de la caja del bolsillo derecho es hecho en el ensayo N+1+N-K.
Luego el experimento es un experimento binomial negativa con p=1/2,
r=n+1, x=N-K, entonces:
1
2

P [ E ] =P [ X =NK ] = n+ 1+ ( N K ) 1
N K

2 NK
N K

1
2

2 NK +1

)( )

Como hay igual probabilidad de que el matemtico


descubra primero que la caja del bolsillo izquierdo est vaco y que
hay exactamente k fsforos en la caja del bolsillo derecho entonces
la probabilidad deseada es:
P=2 P [ E ] = 2 NK
N K

1
2

2 NK

)( )

Ejemplo2. Una urna contiene N bolas blancas y M negras. Las

bolas son aleatoriamente seleccionadas de la urna, una en cada


extraccin, hasta obtener una bola negra. Si suponemos que cada
bola seleccionada es regresada antes de la siguiente extraccin,
Cul es la probabilidad de que?
a) exactamente N extracciones son necesarias
b) por lo menos k extracciones son necesarias

Estadstica General

Pgina 15

Modelos de Distribucin
SOLUCIN.
Sea x la variable aleatoria que denota al nmero de extracciones
necesarias antes de obtener la bola negra, entonces x tiene
distribucin geomtrica con parmetro
p=

M
N +M

y q=1 p

Luego:
a)

P [ X=n1 ] = pqn1=

b)
M

N +M

X =K 1

P [ X> K1 ] =

M
N n1 M . N n1
.(
) =
N +M N +M
(N + M )n

x=k1

N
N +M

pq x =

x=k1

M
N
N +M N + M

k1

N
N +M
M
N

.
=
N +M
N
M +N
1
N+M

3.

k1

DISTRIBUCIONES CONTINUAS
2.1. Distribucin uniforme
Se dice que la variable aleatoria continua, X, tiene distribucin uniforme (o

rectangular) en el intervalo [a, b],

ab

X ~ U [ a, b]
y se describe por

su funcin de densidad de probabilidad es


1
, si a x b

f ( x) b a
0,
en otros casos

2.1.1. Funcin de densidad


La funcin de distribucin del modelo uniforme es:

Estadstica General

Pgina 16

si

Modelos de Distribucin
0,
xa

F ( x)
,
b

1,

si x < a
si a x < b
si x b

2.1.2. Grfica
La grfica de la funcin de densidad y de la distribucin acumulada se
dan en la figura 2.1.

Figura 7.1 Funcin de densidad y de distribucin acumulada uniforme

2.1.3. Teorema
Si X es una variable aleatoria continua con distribucin uniforme en

[ a , b ] , entonces:
E( X )

i)

ab
2

Var ( X )

ii)

(b a) 2
.
12

2.1.4. Demostracin

i)

2 b

[ ]

1
1 x
E [ X ]= b x .
=
dx
ba 2
a ba
b+ a
2

ii)

Var [ x ] =E [ X 2 ] ( E [ X ] ) =

Estadstica General

b2 a .b +a2

Pgina 17

b a
a+b
=
=
2(ba)
2

Modelos de Distribucin
2.2. Distribucin normal
Se dice que la variable aleatoria continua, X, que toma los
valores reales,

< x < +

se distribuye normalmente (o ms
y

brevemente es normal) con parmetros

y se describe por

X ~ N (, 2 )
.

2.2.1. Funcin de densidad


Su funcin de densidad es:
1 x
1
f ( x)
exp

2
2

, > 0
Donde:

2.2.2. Grfica

2.2.3. Propiedades
A partir de su grfica y del anlisis de su funcin
de densidad, la curva normal tiene las siguientes propiedades:
X

1. Es simtrica con respecto al eje vertical

f (x)

, ya que
( x ) 2

slo depende de x mediante la expresin

f ( x) f ( x)

, luego:

2. Tiene valor mximo en

(su moda). Este valor mximo es:

f ()
3.

1
2

Tiene al eje X como una asntota horizontal, ya que

Estadstica General

Pgina 18

Modelos de Distribucin
lim f ( x ) 0 y lim f ( x) 0.

x , y

4. Tiene puntos de inflexin en

, por tanto, es
x

cncava hacia abajo en el intervalo

y cncava

hacia arriba en cualquier otra parte.


5. El rea total que encierra la curva y el eje X es igual a 1.

2.2.4. Teorema
Si la variable aleatoria X tiene distribucin normal

E (X )
i)
Var ( X ) 2

ii)

2.2.5. Demostracin
E( X )

i)

1
2

xe

1 x

dx

z (x )

Haciendo
E( X )

E( X )

1
2

resulta

(z )e z

ze z

dz

1
2

e z

luego,

Adems si u z y dv = ze z

Estadstica General

Pgina 19

z 2e z
2

luego,

dz
1 x

2
2

( x ) e

, resulta

E X 2

z (x )

Haciendo

dx dz
, y

dz

Var ( X ) E ( X ) 2
ii)

dx
dx dz

, y

dz

, se obtiene v = e z

, y

Modelos de Distribucin

E X 2

ze
2

z2 2

ez

dz 0 2 (1)

Var ( X ) 2
Luego
2.3. Distribucin Gamma
Se dice que la variable aleatoria continua X tiene distribucin gamma, con
parmetros

X ~ ( , )

y se representa por

, si su funcin de densidad

es:

1 x
x e , si x 0

f ( x) ( )
0,
si x 0

donde

y son constantes positivas.

2.3.1. Funcin Gamma


La funcin Gamma, denotada por r (), es dada por:

( )

x 1 e x dx,

Donde es un nmero real positivo

2.3.2. Propiedades

1.

Si

() ( 1)( 1)
, entonces,

.
u x 1 , dv e x dx

En efecto, haciendo
integrando por partes, se obtiene,

Estadstica General

Pgina 20

, en la funcin gamma, e

Modelos de Distribucin

() lim x 1e x
b

b
0

( 1)

x 2 e x dx

0 ( 1) x 2 e x dx
0

() ( 1)( 1)

Luego,

(1)

2.
1

3.
4.

Si

e x dx 1
x 1 2 e x

es igual a un nmero entero:

n 1

(n) ( n 1)!

, entonces,

(n) (n 1)(n 1)

En efecto, aplicando:
resulta,

, repetidamente,

(n) (n 1)( n 2)( n 3)...(1)


.

(n) (n 1)!
Luego,

2.3.3. Teorema
X ~ ( , )

Si

, entonces,

a) Media:

b) Varianza:

2.3.4. Demostracin

Estadstica General

Pgina 21

Modelos de Distribucin
E( X )

( )

x 1e x dx

(x)

()

e x dx

a)
x

Si

, entonces,

E( X )

( )

E( X 2 )

b)

x2

0 u

u e u du

( )

, y

1 ( 1)
( )

x 1e x dx

x u

dx du /

, luego,
( )
( )

(x ) 1

( )

e x dx

dx du /

Si

entonces,
y

1
1 ( 2) ( 1)() ( 1)
E( X 2 )
u 1e u du

2
( ) 0
2 ( )
2 ( )
2

Luego,

Var ( X ) E X 2 E ( X ) 2

( 1)

2

2.3.5. Grfica
1

La figura es la grfica de la distribucin gamma cuando


2

, para

2.4. Distribucin exponencial


Diremos que una variable aleatoria continua X tiene
distribucin exponencial con parmetro ( 0).

Estadstica General

Pgina 22

Modelos de Distribucin
2.4.1. Funcin de densidad

e x ,
f ( x)
0,

si x 0
si x 0

2.4.2. Grfica
Es un modelo apropiado a vida til de objetos.

NOTA.

La distribucin exponencial es un caso particular de la

distribucin gamma cuando

. Luego, si la variable aleatoria X tiene

distribucin exponencial con parmetro

1
,

a) Media:
Por otra parte, su

X ~ (1, )

, entonces tiene,
2

1
2

b) Varianza:

funcin de distribucin acumulada en el intervalo

[0,[

es: ,
F ( x) P [ X x ]

0 e

dt 1 e x , 0 x .

P[ X x] 1 P[ X x] e x ,

0 x .

Observar tambin que:

2.5. Distribucin chi-cuadrado


Se dice que la variable aleatoria continua X tiene distribucin chiX ~ 2 (r )

cuadrado con r grados de libertad, y se representa por

2.5.1. Funcin de densidad

Estadstica General

Pgina 23

Modelos de Distribucin
2 r 2 r
x

f ( x ) ( r 2)
0,

21 x 2

si x 0

si x 0

donde r es un nmero entero positivo.

2.5.2. Grfica

NOTA. La distribucin chi-cuadrado es un caso particular de la


r/2

distribucin gamma, cuando

X ~ 2 (r )

1/ 2

. Luego, si

o si

X ~ (r / 2, 1 / 2)

, entonces, su media y su varianza respectivamente son:


r

a)

b)

2 2r

2.5.3. Propiedades
Las siguientes proposiciones (cuya prueba omitimos) son de
importancia para el desarrollo de este texto.
Z 2 ~ 2 (1)

Z ~ N (0,1)

1) Si

Estadstica General

, entonces,

Pgina 24

Modelos de Distribucin
Z 1 , Z 2 ,..., Z r

2) Si
Z i ~ N (0,1)

, son r variables aleatorias independientes tales que


, para cada i 1,2,3,...,r, entonces,
r

2
i

~ 2 (r )

i 1

2 (r )

Con frecuencia,

, se define como la suma de los cuadrados de r


N ( 0,1)

variables aleatorias independientes distribuidas cada una como

3) Propiedad reproductiva de la distribucin chi-cuadrado


X 1 , X 2 ,..., X k

Si
X i ~ 2 (ri )

, son k variables aleatorias independientes tales que

, para cada i 1,2,3,...,k, entonces,


k

Xi
i 1

~ 2 (r1 r2 ... rk ).

2.5.4. Uso de la tabla chi-cuadrado


Si la variable aleatoria X se distribuye como una chi-cuadrado con r
X ~ 2 (r )

grados de libertad, esto es,

si

, entonces, en la tabla de

probabilidades chi-cuadrado se puede encontrar una probabilidad


c 12 , r

o un valor

, mediante la relacin

P[ X 12 ,r ] 1
como se indica en la figura 7.8.

Estadstica General

Pgina 25

Modelos de Distribucin

2.6. Distribucin t de Student


Se dice que una variable aleatoria continua T se distribuye segn t-student
(ms brevemente segn t) con r grados de libertad y se representa por
T ~ t (r )

2.6.1. Funcin de densidad


(r 1) 2

t2
1
f (t )
r
(r 2) r ()

( r 1) 2

< t < ,

donde r es un entero positivo.

2.6.2. Uso de la tabla t-Student


Si la variable aleatoria T tiene distribucin t-Student con r grados de
T ~ t (r )

libertad, o

, en la tabla de probabilidades t-Student se puede

encontrar una probabilidad

c t1 ,r

un valor

mediante la

relacin:
P[c X c] 0.95, implica P[X c] 0.975, luego c 2.228.
Por interpolacin:
Valor t

reas respectivas :

Estadstica General

1.372 c 1.812

0.90 0.92 0.95

Pgina 26

Modelos de Distribucin

Luego,

3.1.

c 1.372
0.92 0.90

1.812 1.372 0.95 0.90

, de donde resulta

c 1.548

Distribucin F
Se dice que una variable aleatoria continua X se distribuye segn F con
y

r2

grados de libertad y se representa por

F ~ F (r1 , r2 )

r1

3.1.1. Funcin de densidad


f ( x)

r1

r2

r1 2

r1 r2
2

r
1
2

r
2
2

x r1 2 1

r x
1 1

r2

( r1 r2 ) 2

, 0 x

donde y , son nmeros enteros positivos


3.1.2. Grfica

3.1.3. Uso de la tabla F


X ~ F ( r1 , r2 )

Si la variable aleatoria

, en la tabla de probabilidades F se

puede encontrar una probabilidad

c F1 ,r1 ,r2

o un valor

P[ X c] 1

la relacin:

Estadstica General

, como se indica en la figura 7.12.

Pgina 27

, mediante

Modelos de Distribucin
Para determinar valores de F correspondientes a reas

1 0.005

0.01, 0.025, 0.05, o para determinar probabilidades correspondientes a


valores de

c 1

se usa el teorema siguiente:

3.1.4. Teorema
Si X tiene distribucin F con grados de libertad
tiene distribucin F con grados de libertad
F1 , r1 , r2

r2

r1

r1

r2

1X

, entonces,

, esto es,

1
F ,r2 , r1

3.1.5. Demostracin

V r2 1
V r2 1
U / r1

1 P

c P
U r1 c
U r1 c
V / r2

1 P F F1, r1 , r2 P

V r2 1
.
U r1 c

Luego,

(V r2 ) (U r1 )

Por otra parte,


1
F, r2 ,r1
c

F ( r2 , r1 )

se distribuye segn

, esto es,
F1 ,r1 , r2

3.2.

1
F ,r2 , r1

Ejemplos

Estadstica General

Pgina 28

, entonces,

Modelos de Distribucin
Ejemplo 1. Alberto y Mara acuerdan encontrarse en la plaza San
Martn entre las 7:00 pm y 8:00 pm. Cada uno espera al otro ms de 10
minutos. Hallar la probabilidad de que se encuentren:
a) Sabiendo que Alberto llega a las 7:30 pm.
b) Sabiendo que cualquiera de ellos llega en cualquier momento, al
azar.
SOLUCION.
Dividiendo la hora de 7:00 a 8:00 pm. En 60 minutos, consideremos que
cualquiera de ellos llega en un momento entre 0 y 60.
Sean las variables aleatorias:
X: momento de llegada de Alberto entre [ 0,60 ]
Y: momento de llegada de Mara entre

[ 0,60 ]

Luego, X e Y son variable aleatoria continuas con distribucin uniforme


entre 0 y 60, y sus funciones de densidad son:

1
, si 0 x 60

f ( x) 60
0,
en otros casos

1
, si 0 x 60

f ( y ) 60
0,
en otros casos
a) Como Alberto llega a las 7:30 pm, entonces para que se
encuentre, Mara debe llegar entre las 7:20 y 7:40 pm., esto es,
entre el momento 20 y el momento 40. Luego la probabilidad
pedida es:
40

P [ 20<Y < 40 ] =
20

1
1
dy=
60
3

b) Las v.a. X e Y son independientes. Luego la funcin de


densidad conjunta de X e Y es:

1
, si 0 x 60

f ( x) 60
0,
en otros casos
La probabilidad de que se encuentren en cualquier momento es:

Estadstica General

Pgina 29

Modelos de Distribucin
10 x+10

P=
0

50 x+10

60

x
+10 x
2

]
2 60

x
( 10+ [ 20 x ] + 70 x
2
1

3600
60

= 30

60

1
1
1
dydx +
dydx +
dydx
3600
10 x10 3600
50 x10 3600

( 150+800+150 ) =

11
36

X ~ ( r )

Ejemplo 2. Si

, hallar:
P[ X a] 0.995

a) a tal que

, si

r 30

P[a X b] 0.95

b) a y b tales que

P[ X b] 0.025

P[ X a] 0.015

c) a tal que

, si

r 8

r 13

, si
.

SOLUCION.
a
a)
53.67.
P[ X b] 0.025

b) De

P[ X b] 0.975

, se tiene

, resultando

b 24. 74

0.95 P[ a X b] P[ X b] P[ X a ]

Por otra parte,

de donde resulta,
P[ X a ] 0.975 0.95 0.025

, entonces ,
c) Por interpolacin:
Area acumulada:
valor de chi-cuadrado:

Estadstica General

0.010 0.015 0.025


1.65 a 2.18

Pgina 30

5.01.

Modelos de Distribucin

luego,

4.

a 1.65
0.015 0.010

2.18 1.65 0.025 0.010

, de donde se obtiene

1.8267.

DISTRIBUCIONES MUESTRALES
4.1 Poblacin y Muestra Aleatoria
4.1.1 Poblacin.
Es el conjunto con referencia al cual se desea hacer alguna
investigacin determinada.
El nmero de elementos que forman la poblacin y que indicaremos con
la letra N, se llama tamao de la poblacin. Recordemos que la
poblacin puede ser finita o infinita.
Si el nmero de elementos de una poblacin es elevado se la considera
para el tratamiento estadstico, en algunos casos como infinita.

4.1.2 Muestra aleatoria.


El requisito fundamental de una buena muestra es que sea
representativa de la poblacin que trata de describir. La palabra
representativa es la clave de esta idea.
El objetivo de los tcnicos de muestreo es que cada elemento de la
poblacin tenga una oportunidad igual e independiente de ser incluido en
la muestra. Estos procesos de muestreo conducen a una muestra
aleatoria.
Veamos aqu una definicin precisa de muestra aleatoria.

Estadstica General

Pgina 31

Modelos de Distribucin

4.2. Parmetros y Estadsticos o Estadgrafos


4.2.1 Parmetros
Un parmetro es una caracterizacin numrica de la distribucin de la
poblacin de manera que describe, parcial o completamente, la funcin
de densidad de probabilidad de la caracterstica de inters.
Ejemplo. Cuando se especifica el parmetro de una distribucin
exponencial se describe de manera completa la funcin de densidad de
probabilidad como:

Una vez que se conoce el parmetro , puede formularse cualquier


proposicin probabilstica de inters. Por ejemplo:

Observacin. El o los parmetros inherentes a un modelo de


probabilidad, son desconocidos y por tanto es imposible calcular las
probabilidades deseadas. Por esta razn los parmetros se estiman en
base a los llamados estadsticos o estadgrafos que, a su vez, se
obtienen a partir de la informacin contenida en una muestra aleatoria.

Estadstica General

Pgina 32

Modelos de Distribucin
Antes de dar la definicin de estadstico, debe notarse que un parmetro
es una constante fija cuyo valor se desconoce.

4.2.2 Estadsticos o Estadgrafos


Definicin. Sea (X1, X2,, Xn) una muestra aleatoria de una variable
aleatoria X. Cualquier funcin real Y = H(X1, X2,, Xn) de las
observaciones de la muestra se llama estadstico o estadgrafo
Algunos estadsticos importantes
Sea (X1, X2,, Xn) una muestra aleatoria de la v.a. X. Definiremos
algunos estadsticos importantes.

Media muestral
Es

estadstico X toma

el valor

cuando:

En

la

prctica

el

trmino media muestral se aplica tanto al estadstico X como a su

valor calculado x .
Varianza muestral

La razn para dividir por n-1 es que de esta forma, como veremos
ms adelante (cuando se estudien los procedimientos de
estimacin), la medida de variabilidad resultante es el mejor
estimador de la varianza poblacional (desconocida).

Desviacin estndar

Observar que la

varianza muestral S2

se mide en trmino del cuadrado de las unidades originales de las


mediciones.

Estadstica General

Pgina 33

Modelos de Distribucin
As, si la varianza muestral se expresa en kilogramos al cuadrado
para datos originales en kilogramos, al extraer la raz cuadrada
positiva de S2, obtenemos la desviacin estndar muestral, que
regresa la medida de variabilidad a las unidades originales de las
mediciones.

Mnimo muestral

Mximo
muestral

Rango muestral

4.3. Esperanza y Varianza de la Media Muestral


Supongamos que (X1, X2,,Xn) es una muestra aleatoria de la v.a. X.
La media muestral de esas n observaciones ser:

Queremos saber cul es la distribucin de X , dado que se trata de una


variable aleatoria y podemos hallar su distribucin.
1. Calcularemos primero la esperanza matemtica de X . Si llamamos
E(X) = tendremos que E(Xi) = , i = 1, 2,, n; dado que cada Xi (i =
1, 2,, n) es una v.a. idntica a X (por definicin de muestra aleatoria).
Entonces:

Estadstica General

Pgina 34

Modelos de Distribucin

2. Calcularemos ahora la varianza de X para ver la dispersin de los


distintos valores de medias muestrales, alrededor de . Llamaremos 2 (
)

CONCLUSIONES
1.Los valores de las medidas caractersticas que se obtienen de una muestra
sern slo una aproximacin de los valores de las medidas caractersticas de
la poblacin.
2.Los valores obtenidos de las medidas caractersticas que se obtienen
dependern de la muestra utilizada. Muestras diferentes darn valores
diferentes

por tanto Var

BIBLIOGRAFA
1. MIACC MEZA, Mximo (1996), Tpicos de estadstica descriptiva y
probabilidad Lima, Per.
2. Crdova Zamora,

Estadstica General

Pgina 35

Potrebbero piacerti anche