Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
por
Jose Antonio Belinchon
Indice general
Pr ologo . V
1. Muestreo aleatorio. 1
1.1. Muestreo aleatorio simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Inferencia parametrica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Estadsticos sucientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Estimaci on puntual 15
2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Metodo de los momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. Metodo de maxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. Metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1. Introduccion a los metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2. Estimadores puntuales bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Propiedades deseables de los estimadores. . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.1. Error cuadratico medio. Estimadores insesgados. . . . . . . . . . . . . . . . . 19
2.5.2. Estimadores ecientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.3. Estimadores consistentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3. Intervalos de connaza 37
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
i
ii
INDICE GENERAL
3.2. Metodo de la cantidad pivotal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.1. Cantidades pivotales e intervalos de conanza mas frecuentes. . . . . . . . . . 38
3.2.2. Cantidad pivotal general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3. Intervalos de conanza bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4. Resumen de intervalos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.1. X N(, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.2. X Bernoulli(p) (muestras grandes). . . . . . . . . . . . . . . . . . . . . . . 42
3.4.3. X Poisson() (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.4. Dos poblaciones Normales independientes . . . . . . . . . . . . . . . . . . . . 43
3.4.5. Comparacion de proporciones (muestras grandes e independientes) . . . . . . 43
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4. Contraste de hip otesis 55
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2. Metodo de la razon de verosimilitud. . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.1. Asignacion de hipotesis en la practica. . . . . . . . . . . . . . . . . . . . . . . 59
4.2.2. Concepto de p-valor de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3. Metodos bayesianos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4. Resumen de contrastes de hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.4.1. X N(, ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4.2. X Bernoulli(p) (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.3. X Poisson() (muestras grandes) . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.4. Dos poblaciones Normales independientes . . . . . . . . . . . . . . . . . . . . 63
4.4.5. Comparacion de proporciones (muestras grandes e independientes) . . . . . . 65
4.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5. Distribuciones. 81
5.1. Distribuciones discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1.1. Bernoulli. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1.2. Binomial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
i=1
f(x
i
). (1.1)
1
2 CAP
(x
1
, ....., x
n
) =
indpen.
i=1
f
(x
i
). (1.2)
Denici on 1.1.2 Un estadstico T es una funci on medible de la muestra T : R
n
R
n
. Formal-
mente T es un variable o vector aleatorio. T viene a ser el resumen de la muestra.
Ejemplo 1.1.2 Veamos algunos ejemplos de estadsticos:
1. Media muestral
X =
1
n
n
i=1
X
i
, (1.3)
2. Varianza muestral
var(X) =
1
n
n
i=1
_
X
i
X
_
2
=
1
n
_
n
i=1
X
2
i
nX
2
_
, (1.4)
3. Cuasi-varianza muestral
S
2
=
1
n 1
n
i=1
_
X
i
X
_
2
=
1
n 1
_
n
i=1
X
2
i
nX
2
_
, (1.5)
4. Estasticos de orden
_
X
(1)
, ......, X
(n)
_
, (1.6)
donde
X
(1)
= mn (X
1
, ...., X
n
) ,
... (1.7)
X
(n)
= max (X
1
, ...., X
n
) .
1.1. MUESTREO ALEATORIO SIMPLE. 3
Proposici on 1.1.1 Propiedades de los estadsticos. Sea (X
1
, ...., X
n
) una m.a. tal que E (X) =
y var(X) =
2
, entonces:
1. E
_
X
= ,
se observa que
E
_
1
n
n
i=1
X
i
_
=
1
n
n
i=1
E [X
i
]
indp.
=
1
n
nE [X
i
] =
2. var
_
X
=
2
n
,
Vemos que
var
_
X
= var
_
1
n
n
i=1
X
i
_
=
1
n
2
var
_
n
i=1
X
i
_
indp.
=
1
n
2
nvar(X
i
) =
2
n
3. E
_
S
2
=
2
.
Sea X =
1
n
n
i=1
X
i
, o
n
i=1
X
i
. En general tenemos, a partir de la proposicion anterior, que
E
_
X
= , var
_
X
=
2
n
, etc... pero si estamos en la distribucion de X o en la de
n
i=1
X
i
,
que podemos hacer?. Estudiar su funcion caracterstica. Sea (X
1
, ...., X
n
) una m.a. de X con
funcion caracterstica
X
(t), entonces encontramos que
X
i
(t) =
indpen.
X
i
(t) =
i.d.
n
X
(t), (1.8)
mientras que
X
(t) = 1
n
n
i=1
X
i
(t) =
n
i=1
X
i
(
t
n
) =
n
X
(
t
n
), (1.9)
basandonos en las propiedades de las funciones caractersticas.
Ejemplo 1.1.3 Sea (X
1
, ...., X
n
) una m.a. de X N(,
2
), con funci on caracterstica
X
(t),
que podemos decir sobre la distribuci on de la media muestral, X?. Vemos que
X
(t) = e
it
1
2
t
2
2
entonces teniendo en cuenta las f ormulas anteriores encontramos que:
X
(t) =
n
X
(
t
n
) = e
in
t
n
n
2
(
t
n
)
2
2
= e
it
1
2
t
n
2
2
,
donde observamos que E
_
X
= , y var
_
X
=
2
n
.
Volmemos otra vez sobre los estadsticos de orden.
4 CAP
i=1
f (x
i
) . (1.12)
1.2. Inferencia parametrica.
Sea (X
1
, ...., X
n
) una m.a. de X f
2
n
=
n
i=1
X
2
i
. (1.13)
Denici on 1.2.2 t-Student, con n-grados de libertad, t
n
.
Considermos X N(0, 1) e Y
2
n
de tal forma que (X, Y ) son independientes, denimos
t
n
=
X
_
Y
n
=
N(0, 1)
_
2
n
/n
(1.14)
1.3. ESTAD
ISTICOS SUFICIENTES. 5
El calculo de la funcion de densidad es facil ya que al tratarse de v.a.i. entonces f
XY
= f
X
f
Y
Denici on 1.2.3 F Fisher-Snedecor. F
m,n
con m y n grados de libertad. Sea X
2
m
, e Y
2
n
v.a.i. entonces denimos
F
m,n
=
X
m
Y
n
=
Xn
Y m
=
2
m
/m
2
n
/n
(1.15)
Teorema 1.2.1 Fisher. Sea (X
1
, ...., X
n
) una m.a. de X N(,
2
), entonces:
1.
X
n
N(,
2
n
),
2.
X
n
y S
2
n
son independientes,
3.
(n 1) S
2
n
2
=
(X
i
)
2
2
2
n1
, (1.16)
El segundo apartado del teorema es el resultado realmente importante.
1.3. Estadsticos sucientes.
Empezaremos con una idea intuitiva. Como siempre consideramos (X
1
, ...., X
n
) una m.a. de X
f
(X), Un estadstico
T es suciente para si (X
1
, ...., X
n
| T = t) no depende de .
Esta denicion no ayuda demasiado a encontrar un estadstico ademas el calculo de las distribu-
ciones condicionadas puede resultar algo pesado, por eso consideramos el siguiente teorema
Teorema 1.3.1 de Factorizacion. Consideramos (X
1
, ...., X
n
) una m.a. de X f
(X), entonces
T ser a estadstico suciente para sii f
(x
1
, ..., x
n
) puede factorizarse de la siguiente forma:
f
(x
1
, ..., x
n
) = g (t, ) h(x
1
, ..., x
n
) , (1.17)
donde t = T (x
1
, ..., x
n
) .
6 CAP
=
(log )
x
1
I
(0,1)
(x) , > 1,
entonces un estadstico suente puede ser
n
i=1
f
(x
i
) =
n
i=1
_
(log )
x
i
1
I
(0,1)
(x
i
)
_
=
_
(log )
1
_
n
x
i
n
i=1
I
(0,1)
(x
i
)
por lo tanto
T =
x
i
ser a un estadstico suciente en virtud del teorema de factorizaci on.
Ejemplo 1.3.2 Si
f
=
2x
2
I
(0,)
(x) , > 0,
entonces un estadstico suente puede ser
T =
_
n
i=1
x
i
, X
(n)
_
ya que en virtud del teorema de facotrizaci on tenemos que:
n
i=1
f
(x
i
) =
n
i=1
_
2x
2
I
(0,)
(x
i
)
_
=
_
2
2
_
n n
i=1
(x
i
)
n
i=1
I
(0,)
(x
i
) =
=
_
2
2
_
n n
i=1
(x
i
) I
(X
(n)
,)
() ,
por lo tanto
T = X
(n)
ser a un estadstico suciente y T =
_
n
i=1
x
i
, X
(n)
_
tambien.
1.4. Ejercicios.
Ejercicio 1.4.1 Sea (X
1
, ...., X
n
) una muestra sin reemplazamiento de una poblaci on nita
{x
1
, ...., x
N
} ,
Probar que X
1
y X
2
no son independientes, pero tienen la misma distribuci on.
(b) Sea (X
1
, ...., X
10
) una muestra sin reemplazamiento de la poblaci on nita:
{1, 2, ......, 1000}
Calcular la probabilidad de que todas las observaciones sean mayores que 200, primero de
manera exacta y despues de manera aproximada admitiendo independencia.
1.4. EJERCICIOS. 7
Soluci on. Con respecto al primer apartado, vemos que las (X
i
)
n
i=1
son v.a.i.d. pero no indepen-
dientes. Lo usual es trabajar con v.a.i.i.d. Por lo tanto vemos que
P (X
1
= x) =
1
N
,
P (X
2
= x) =
prob.total
P (X
1
= y) P (X
2
= x | X
1
= y)
y por lo tanto
P (X
2
= x) = P (X
1
= x) P (X
2
= x | X
1
= x) +
y=x
P (X
1
= y) P (X
2
= x | X
1
= y) =
=
1
N
0 +
1
N
1
N 1
= (N 1)
1
N
1
N 1
=
1
N
de esta forma vemos que siguen igual distribucion.
Para ver la independencia i.e.
P (X
1
= x, X
2
= y) = P (X
1
= x) P (X
2
= y)?
as que
P (X
1
= x, X
2
= x) = 0,
sin embargo
P (X
1
= x) P
2
(X
2
= x) =
1
N
1
N
por lo que no son independientes. Es grave esta perdida?,es importante?.
Sea (X
1
, ...., X
10
) una muestra sin reemplazamiento de la poblacion nita:
{1, 2, ......, 1000}
queremos calcular
P (todas las observaciones sean > 200)
para ello denimos la v.a.
Y := n umero de observaciones mayores que 200 entre las 10.
Calculo exacto: al no ser independientes los sucesos entonces las nBernoullis no forman una
Binomial sino una hipergeometrica
P (Y = 10) =
_
800
10
__
200
0
_
_
1000
10
_ 0,10616,
mientras que el calculo aproximado lo haremos considerando que los sucesos son independientes y
por lo tanto siguen un Binomial Bin(n, p) , donde la probabilidad de exito vendra dada por
p = P
_
Exito
_
=
800
1000
= 0,8
8 CAP
X
n
=
1
n
n
i=1
X
i
.
Hallar la esperanza y la varianza del estadstico
T =
_
n
n + 1
_
X
n+1
X
n
_
.
Soluci on. Vemos que
E [T] = E
__
n
n + 1
_
X
n+1
X
n
_
_
= 0
=
_
n
n + 1
E
__
X
n+1
X
n
__
=
_
n
n + 1
_
E (X
n+1
) E
_
X
n
__
= 0,
ya que E (X
n+1
) = E
_
X
n
_
= , mientras que
var [T] = var
__
n
n + 1
_
X
n+1
X
n
_
_
=
n
n + 1
var
_
X
n+1
X
n
_
=
n
n + 1
_
var (X
n+1
) +var
_
X
n
_
2cov
_
X
n+1
,
X
n
__
ya que no se de antemano si se tratade dos v.a. independientes, pero vemos que
(X
1
, ...., X
n+1
)
X
n
,
X
n+1
X
n+1
,
son independientes por lo cov
_
X
n+1
,
X
n
_
= 0, quedando la anterior expresion reducida a:
var [T] =
n
n + 1
_
var (X
n+1
) +var
_
X
n
__
,
ahora es facil comprobar que
var (X
n+1
) =
2
,
var
_
X
n
_
=
2
n
quedando por lo tanto
var [T] =
n
n + 1
_
2
+
2
n
_
=
2
,
tal y como queramos hacer ver.
1.4. EJERCICIOS. 9
Ejercicio 1.4.3 Sea (X
1
, ...., X
n
) una muestra aleatoria de una N(0, 1). Probar:
1. X
2
1
Gamma
_
a =
1
2
; p =
1
2
_
, esta distribuci on es la
2
1
.
2.
n
i=1
X
2
i
Gamma
_
a =
1
2
; p =
n
2
_
, que es la
2
n
.
Soluci on. Con respecto al primer apartado vemos que:
X
2
1
Gamma
_
a =
1
2
; p =
1
2
_
donde
X
1
N(0, 1) = f
X
1
=
1
2
exp
_
x
2
1
2
_
denimos la nueva v.a. Y = X
2
1
, viendose as que X
1
=
2
exp
_
y
2
_
1
2
y
+
1
2
exp
_
y
2
_
1
2
y
=
1
2y
exp
_
y
2
_
donde
|J| =
1
2
y
por lo que
f
Y
=
1
2
exp
_
y
2
_
y
1/2
,
y si tenemos en cuenta que
f
(a,p)
=
a
p
(p)
exp (ax) x
p1
,
llegamos a la igualdad deseada puesto que
_
a =
1
2
, p =
1
2
_
, (p) =
, y a
p
=
1
2
.
Con respecto al segundo apartado vemos que
n
i=1
X
2
i
Gamma
_
a =
1
2
, p =
n
2
_
operamos de forma parecida. Teniendo en cuenta las funciones caractersticas etc... vemos que al
ser independientes
n
i=1
X
2
i
=
X
2
i
(entiendase la expresion) de esta forma vemos que
n
i=1
X
2
i
=
X
2
i
=
_
1
it
a
_
p
=
_
1
it
1/2
_
n
2
Gamma
_
a =
1
2
, p =
n
2
_
donde la funcion caracterstica de la funcion Gamma es:
(a,p)
=
_
1
it
a
_
p
tal y como queramos hacer ver.
10 CAP
1dx = x, x (0, 1) ,
por lo que
f
X
(j)
=
n!
(j 1)! (n j)!
[F(x)]
j1
f (x) [1 F (x)]
nj
=
=
n!
(j 1)! (n j)!
[x]
j1
1 [1 x]
nj
Beta (p, q)
obteniendose de forma inmediata la analoga con la funcion beta
1
B(p, q)
=
n!
(j 1)! (n j)!
=
(p +q)
(p) (q)
con j = p, q = n j + 1. De esta forma
E
_
X
(j)
=
_
xf
X
(j)
=
p
p +q
=
j
n + 1
,
var
_
X
(j)
=
pq
(p +q)
2
(p +q + 1)
=
j (n j + 1)
(n + 1)
2
(n + 2)
,
etc.... falta desarrollar todos estos calculos pesadsimos.
Ejercicio 1.4.5 Si
X es la media de una muestra aleatoria (X
1
, ...., X
n
) de una N(,
2
= 100),
hallar n para que
P
_
5 <
X < + 5
_
= 0,0954.
1.4. EJERCICIOS. 11
Soluci on. Vemos que
X N
_
,
100
n
_
= N
_
,
10
n
_
,
por lo que
P
_
5 <
X < + 5
_
= P
_
5
10
n
<
X
10
n
<
+ 5
10
n
_
,
donde
Z =
X
10/
n
N (0, 1) ,
as que la anterior expresion se reduce a:
P
_
n
10
< Z <
5
n
10
_
,
y por simetra se obtiene
P
_
Z >
n
2
_
=
1 0,0954
2
= 0,0230,
por lo que
n
2
2...
mirar tablas
= n 16,
tal y como queramos calcular.
Ejercicio 1.4.6 Sean (X
1
, ...., X
25
) e (Y
1
, ...., Y
25
) dos muestras aleatorias de dos distribuciones
independientes N( = 0,
2
= 16) y N( = 1,
2
= 9) respectivamente. Calcular P
_
X >
Y
_
.
Soluci on. Vemos que
(X
1
, ...., X
25
)
X N( = 0,
2
= 16),
(Y
1
, ...., Y
25
)
Y N( = 1,
2
= 9),
y queremos calcular P
_
X >
Y
_
. Lo que hacemos en este caso es lo siguiente:
P
_
X >
Y
_
= P
_
X
Y > 0
_
= P (Z > 1) = 0,1587
donde la nueva v.a.
_
X
Y
_
N( = 1,
2
= 1) y la normalizamos a Z N (0, 1) , obteniendo
el resultado requerido. Ver las propiedades de la distribucion normal en el ultimo captulo.
ESTAD
ISTICOS SUFICIENTES
Ejercicio 1.4.7 Encontrar un estadstico suciente en cada uno de los siguientes casos basado en
una muestra aleatoria de tama no n de:
12 CAP
(x) =
_
e
x+
x (, ) ,
0 resto,
4.
f
,
=
1
x
2
exp
_
1
2
2
log (x )
2
_
,
con x > 0.
Soluci on. En todos los casos se trata de una aplicacion sistematica del teorema de factorizacion.
1. X Beta(, )
= (, )
f
=
1
B(, )
x
1
(1 x)
1
,
por lo que
f
(x
1
, ...., x
n
) =
(x
i
) =
_
1
B(, )
_
n
x
1
i
(1 x
i
)
1
,
de esta forma
f
(x
1
, ...., x
n
) = K
_
x
1
i
__
(1 x
i
)
1
_
= g(t, )h(x
1
, ...., x
n
)
donde elejimos h(x
1
, ...., x
n
) = 1. Denimos por lo tanto el estadstico
T =
_
x
1
i
,
(1 x
i
)
1
_
es el estadstico suciente buscado para (, ). No obstante debemos resaltar que no se trata
del unico estadstico suciente, la muestra en s misma es un estadstico suciente o
T =
_
log x
i
,
log (1 x
i
)
_
tambien es suciciente ya que
x
i
= e
log
_
x
i
_
= e
log x
i
,
luego reescribiendo adecuadamente todas estas transformaciones biyectivas obtenemos lo mis-
mo, la moraleja esta en que dado cualquier estadstico suciente (e.s.), entonces cualquier
transformacion biyectiva nos da otro e.s..
1.4. EJERCICIOS. 13
2. X Gamma(p, a), donde
f
(a,p)
=
a
p
(p)
exp (ax) x
p1
siguiendo el anterior esquema vemos que
f
(x
1
, ...., x
n
) =
(x
i
) =
_
a
p
(p)
_
n _
exp(ax
i
)
x
p1
i
_
de esta forma llegamos a la conclusion de que
T =
_
x
i
,
x
i
_
es un estadstico suciente para = (p, a).
Observaci on 1.4.1 En realidad se han omitido los detalles m as sangrientos, ya que hasta
que se llega al estadstico T, la verdad, hay que hacer unas cuantas cuentas:
exp (ax
i
) = exp
_
na
x
i
_
,
x
p1
i
= ....
manipular
. f (n, p)
x
i
3. X e
x+
, con x > . Intentamos la misma argumentacion i.e.
f
(x
1
, ...., x
n
) =
(x
i
) =
_
e
x
1
+
......e
x
n
+
_
= e
n
e
x
i
llegando a la conclusion de que
f
(x
1
, ...., x
n
) = g(t, )h(x
i
)
por lo que podramos tomar
g(t, ) = e
n
, h(x
i
) = e
x
i
de esta forma
T = n
sera el estadstico suciente. NO. Hemos operado mal intencionadamente. Aqu hay que tener
muy en cuenta que x > , por lo que empezamos reescribiendo la f
como
f
= e
x+
I
(,)
(x)
y volvemos a rehacer el ejercicio con esta nueva consideracion
f
(x
1
, ...., x
n
) =
(x
i
) =
e
x
i
+
I
(,)
(x
i
) = e
n
I
(,)
(x
i
)e
x
i
donde
g(t, ) = e
n
I
(,)
(X
(1)
), h(x
i
) = e
x
i
observar que
I
(,)
(x
i
) = I
(,)
(X
(1)
), donde X
(1)
= mn (x
1
, ...., x
n
) por lo que podemos
denir el e.s. T como
T =
_
X
(1)
_
,
sorprendente, no?.
14 CAP
2
exp
_
1
2
2
log (x )
2
_
i.e. el modelo log-normal. En este caso el estadstico suente sera
T =
_
log x
i
,
log x
2
i
_
.
Para llegar a esta conclusion podemos considerar (X
1
, ...., X
n
) m.a. de X una N(,
2
), por
lo que
T =
_
x
i
,
x
2
i
_
sera un e.s. para este caso, aplicando el teorema de Fisher, entonces T =
_
X, S
2
_
es un e.s.
(falta probarlo).
Ejercicio 1.4.8 Sea (X
1
, ...., X
n
) una muestra aleatoria de X U(0, ), ( > 0). Estudiar la
suciencia de T = X
(n)
Soluci on. Vemos que
f
U
=
1
, = f
(x
1
, ...., x
n
) =
1
I
(0,)
(x
i
)I
(,)
(x
i
)
aqu es donde esta toda la miga del problema, por lo que
f
=
_
1
_
n
I
(0,)
(x
i
)
I
(,)
(x
i
)
y al igual que antes observamos que
I
(0,)
(x
i
) = I
(0,)
(X
(1)
),
I
(,)
(x
i
) = I
(,)
(X
(n)
),
de esta forma llegamos a la conclusion de que
f
(x
1
, ...., x
n
) = g(t, )h(x
i
)
por lo que podramos tomar
g(t, ) =
_
1
_
n
I
(,)
(X
(n)
), h(x
i
) = I
(0,)
(X
(1)
)
obteniendo as T
T = X
(n)
sera el estadstico suciente. Lo principal del problema esta en ver
f
(x
1
, ...., x
n
) =
1
I
(0,)
(x
i
)I
(,)
(x
i
),
lo cual no siempre es facil.
Captulo 2
Estimacion puntual
2.1. Introduccion
Sea (X
i
)
n
i=1
una muestra aleatoria (m.a.) donde X f
ITULO 2. ESTIMACI
ON PUNTUAL
2.2. Metodo de los momentos
Denici on 2.2.1 Sea (X
i
)
n
i=1
m.a. donde X f
[X] =
1
n
X
i
,
.
.
. (2.1)
E
_
X
k
_
=
1
n
X
k
i
,
Ejemplo 2.2.1 Sea (X
i
)
n
i=1
m.a. donde X f
X
i
,
por lo tanto
p =
1
n
x
i
.
Ver la secci on de ejercicios para aclarar este metodo con ejemplos m as complicados.
2.3. Metodo de maxima verosimilitud
Denici on 2.3.1 Sea (X
i
)
n
i=1
m.a. donde X f
(x
i
)
n
i=1
=
n
i=1
f
(x
i
). Por lo tanto
L() =
n
i=1
f
(x
i
).
El estimador de m axima verosimilitud
es el valor del par ametro que maximiza L() .
Observaci on 2.3.1 En la mayora de los casos para la obtenci on de
se maximiza la funci on
log L() en vez de L()
2.4. M
ETODOS BAYESIANOS. 17
Ejemplo 2.3.1 Se trata del mismo ejemplo que el del MM i.e. sea (X
i
)
n
i=1
m.a. donde X f
(x),
, donde X Bernoulli(p), i.e.
X Bernoulli(p) = p
x
(1 p)
1x
,
lo que queremos estimar es p as que
L(p) = P
p
(x
1
, .., x
n
)
indp.
=
n
i=1
P
p
(x
i
) = p
x
i
(1 p)
n
x
i
tomamos logaritmos
log (L(p)) =
x
i
log (p) +
_
n
x
i
_
log (1 p)
y pasamos a calcular el m aximo i.e.
p
log (L(p)) = 0
x
i
1
p
_
n
x
i
_
1
1 p
= 0
despejamos p, encontr andose que
p =
1
n
x
i
.
Vemos que en tos ejemplos hemos obtenido que p = p, pero esto no siempre pasa.
2.4. Metodos bayesianos.
2.4.1. Introduccion a los metodos bayesianos.
Sea (X
i
)
n
i=1
m.a. donde X f
(x) = f (x | ) , (2.2)
considerando a como una v.a.
1. Disponemos de informacion muestral
f
(x
1
, ..., x
n
) = f (x
1
, ..., x
n
| ) =
n
i=1
f(x
i
| ). (2.3)
2. Nuevo. Disponemos de informacion previa sobre el parametro , que modelizamos mediante
una densidad a priori (no proviene de la muestra) () .
3. Obtenemos la densidad conjunta
f (x
i
| ) () . (2.4)
18 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
4. Obtenemos la densidad o funcion de masa de condicionada por (X
i
)
n
i=1
, densidad a poste-
riori,
( | x
1
, ..., x
n
) =
f (x
1
, ..., x
n
| ) ()
_
f (x
1
, ..., x
n
| ) d
f (x
i
| ) () . (2.5)
esta expresion no es mas que la expresion de Bayes para el caculo de la probabilidad condi-
cionada.
Los metodos bayesianos obtienen todas sus conclusiones sobre a partir de ( | x
i
) (densidad
condicionada) que recibe el nombre de densidad a posteriori.
El problema en la practica esta en la eleccion de () . A menudo se utilizan familias conjungadas
de densidades a priori facilitandose as los calculos.
Denici on 2.4.1 Familia conjungada. Sea (X
i
)
n
i=1
m.a. donde X f (x | ) , . Una
familia P = { ()} de densidades a priori es conjungada para muestras de X f (x | ) cuando
() P, entonces
( | x
1
, ..., x
n
) f (x
i
| ) () P. (2.6)
La idea en la practica es que cualquier tecnica estadsitica basada en metodos bayesianos obten-
dra conclusiones a partir de ( | x
i
) .
2.4.2. Estimadores puntuales bayesianos.
Un estimador puntual bayesiano sera una medida de centralizacion de la densidad a posteriori. Los
mas habituales son:
1. Media a posteriori
_
( | x
1
, ..., x
n
) d, (2.7)
2. Mediana a posteriori
_
M
( | x
1
, ..., x
n
) d =
1
2
. (2.8)
Ejemplo 2.4.1 Estimaci on de = p = P(E), probabilidad de exito. Disponemos de una m.a.
(X
i
)
n
i=1
donde
X =
_
1 P(E) =
0 P(F) = 1
por lo que X Bernoulli(), tal que (0, 1) , as que sabemos que X f (x | ) =
x
(1 )
1x
.
Consideramos la siguiente densidad a priori
() Beta (p = a, q = b)
2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES. 19
por lo tanto la densidad a posteriori ser a
f (x
1
, ..., x
n
| ) =
n
i=1
f(x
i
| ) =
x
i
(1 )
n
x
i
() =
a1
(1 )
b1
B(a, b)
entonces
( | x
1
, ..., x
n
) f (x
i
| ) ()
x
i
(1 )
n
x
i
_
_
a1
(1 )
b1
B(a, b)
_
a+
x
i
1
(1 )
n+b
x
i
1
Beta (p, q)
as llegamos a la conclusi on de que
p = a +
x
i
, q = n +b
x
i
.
Entonces la media a posteriori ser a
_
( | x
1
, ..., x
n
) d =
_
1
0
Beta (p, q) d
pero para hecharse esta cuenta uno debe considerar las constantes que hemos ido despreciando. Lo
mejor en estos casos es jarse en los resultados ya conocidos, por lo que
E [Beta (p, q)] =
p
p +q
=
a +
x
i
a +b +n
.
Vemos que la densidad a priori era una Beta y que la densidad a posteriori ha salido otra Beta i.e.
hemos tomado una familia conjugada
P ={Beta (p, q) , p, q > 0}
si p = q = 1 = Beta (1, 1) U ([0, 1]) , la uniforme sera el caso en el que no tenemos ni idea
sobre . Si P(E) = =
1
2
(o se aproxima mucho a este valor) entonces tomamos p, q tales que 1/2
sea el m aximo para la funci on Beta (p, q) .
2.5. Propiedades deseables de los estimadores.
2.5.1. Error cuadratico medio. Estimadores insesgados.
Denici on 2.5.1 El error cuadratico medio de un estimador T para estimar () es:
ECM = E
_
(T ())
2
_
=
_
f
(x
i
) (T ())
2
dx
n
. (2.9)
20 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
Si desarrollamos el formulon anterior entonces vemos que
ECM = E
_
(T ())
2
_
= var (T) + (E
[T] ())
2
, (2.10)
donde se dene el sesgo como
sesgo := E
[T] () . (2.11)
Denici on 2.5.2 Un estimaodor es insesgado o centrado para estimar una funci on del par ametro
si E
_
(T ())
2
_
= var (T) + (E
[T] ())
2
= var (T) . (2.12)
Ejemplo 2.5.1 Sea (X
i
)
n
i=1
m.a. donde X N
_
,
2
_
, donde =
_
,
2
_
, entonces:
1. T
1
=
X, es insesgado para estimar = () , ya que
E
_
= = ()
2. T
2
= S
2
, es insesgado para estimar
2
= () , ya que
E
_
S
2
=
2
= ()
recordar que S
2
=
1
n1
_
x
i
X
_
2
3. T
3
= var(X), es sesgado para estimar
2
= () , ya que
E [var(X)] =
2
= ()
por lo tanto se tratara de un estimador sesgado.
Teorema 2.5.1 Cota de Frechet-Cramer-Rao. Sea (X
i
)
n
i=1
m.a. donde X f
(x), .
para cualquier estimador T insesgado para () se verica:
var (T)
_
d()
d
_
2
E
_
_
d
d
log f
(x
1
, ..., x
n
)
_
2
_ =
_
d()
d
_
2
nE
_
_
d
d
log f
(x)
_
2
_. (2.13)
Lema 2.5.1
E
_
_
d
d
log f
(x)
_
2
_
= nE
_
d
2
d
2
log f
(x)
_
(2.14)
por lo tanto
var (T)
_
d()
d
_
2
nE
_
d
2
d
2
log f
(x)
_ (2.15)
2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES. 21
2.5.2. Estimadores ecientes.
Denici on 2.5.3 Un estimador T es eciente para estimar un par ametro () si:
1. Es insesgado,
2. Su varianza alcanza la cota de FCR
En consecuencia si es eciente tiene mnima varianza. Al denominador de la cota de FCR (2.15)
recibe el nombre de informacion de Fisher.
Denici on 2.5.4 Informacion de Fisher.
IF = E
_
_
d
d
log f
(x
i
)
_
2
_
(2.16)
Obtenci on de un estimador eciente.
Si T es eciente su varianza alcanza la cota de FCR por lo que
2
_
T,
d
d
log f
(x
i
)
_
= 1,
el coeciente de correlacion vale uno, de este modo casi seguro
y y =
cov(x, y)
var(x)
(x x)
obtenemos la recta de regresion que traducimos en este caso como
T E
[T] =
cov(T,
d
d
log f
(x
i
))
var(
d
d
log f
(x
i
))
_
d
d
log f
(x
i
) E
_
d
d
log f
(x
i
)
__
de donde sabemos que E
_
d
d
log f
(x
i
)
()
nE
_
d
2
d
2
log f
(x)
_ (log f
(x
i
))
, (2.17)
i.e.
T = +
IF
(log f
,
observandose que
E
[T] = () ,
cov(T,
d
d
log f
(x
i
)) =
d ()
d
=
() ,
var(
d
d
log f
(x
i
)) = nE
_
d
2
d
2
log f
(x)
_
,
as que si T es eciente entonces debe tener la pinta de (2.17). Si T no depende de , entonces
ser a eciente.
22 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
2.5.3. Estimadores consistentes.
Sea (X
i
)
n
i=1
m.a. donde X f
T
n
(t) = e
it()
(2.20)
entonces T
n
P
() y por lo tanto se trata de un estimador consistente para () .
Esta tactica suele ser util cuando estamos trabajando con sumas y medias muestrales.
Teorema 2.5.2 Sea T
n
un estimador tal que
1. lm
n
var
(T
n
) = 0,
2. lm
n
E
[T
n
] = () ,
entonces T
n
es consistente para estimar () .
Teorema 2.5.3 Bajo ciertas condiciones de regularidad el estimador de m axima verosimilitud es
consistente.
2.6. EJERCICIOS 23
2.6. Ejercicios
Ejercicio 2.6.1 Dada una m.a. de tama no n de una v.a. X calcular el estimador de m axima
verosimilitud y el del los momentos en los siguentes casos:
1. X Poisson(),
2. X Exponencial(),
3. X N(,
2
), conocido,
4. X N(,
2
), conocido,
5. X N(,
2
).
Soluci on. Siguiendo el mismo esquema que el propuesto en los ejemplos de teora vemos que:
1. X Poisson(), Veremos los dos metodos
MM Sabemos que X Poisson(), =E [X] =
E [X] = =
1
n
n
i=1
x
i
por lo que
=
1
n
n
i=1
x
i
.
MMV Tomamos como funcion de verosimilitud
L() =
P(x
i
) =
e
n
n
i=1
x
i
(x
1
!) ... (x
n
!)
tomando logaritmos entonces:
log (L()) = log
_
e
n
n
i=1
x
i
(x
1
!) ... (x
n
!)
_
=
= n +
_
n
i=1
x
i
_
log
n
i=1
log ((x
i
)!)
y por lo tanto
log (L()) = 0,
n +
_
n
i=1
x
i
_
1
= 0
despejando se llega con facilidad a:
=
1
n
n
i=1
x
i
como era de esperar.
24 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
2. X Exponencial(), por lo que
f(x) = e
x
,
MM Sabemos que X exp(), =E [X] =
1
E [X] =
1
=
1
n
n
i=1
x
i
por lo que
=
n
n
i=1
x
i
.
MMV Tomamos como funcion de verosimilitud
L() =
f(x
i
) =
n
e
n
i=1
x
i
tomando logaritmos entonces:
log (L()) = log
_
n
e
n
i=1
x
i
_
= nlog
_
n
i=1
x
i
_
y por lo tanto
log (L()) =
n
+
_
n
i=1
x
i
_
= 0
despejando se llega con facilidad a:
=
n
n
i=1
x
i
.
como era de esperar.
3. X N(,
2
), conocido,
MM Sabemos que X N(,
2
), =E [X] =
E [X] = =
1
n
n
i=1
x
i
, = =
1
n
n
i=1
x
i
MMV Tomamos como funcion de verosimilitud
L() =
f(x
i
) =
1
n
_
2
_
n
exp
_
1
2
2
n
i=1
(x
i
)
2
_
,
tomando logaritmos entonces:
log (L()) = log
_
1
n
_
2
_
n
exp
_
1
2
2
n
i=1
(x
i
)
2
__
=
= nlog nlog
_
2
_
_
1
2
2
n
i=1
(x
i
)
2
_
2.6. EJERCICIOS 25
y por lo tanto
log (L()) =
1
2
n
i=1
x
i
n = 0
despejando se llega con facilidad a:
=
1
n
n
i=1
x
i
.
como era de esperar.
4. X N(,
2
), conocido,
MM Sabemos que X N(,
2
) =E [X] =
E [X] = =
1
n
n
i=1
x
i
no sirve en este caso pues este dato es conocido, por lo que tendremos que recurrir al
momento de orden 2 i.e.
E
_
X
2
=
1
n
n
i=1
x
2
i
de donde se obtiene que (recordar la denicion de varianza, var(X) = E
_
X
2
E [X]
2
)
2
+
2
=
1
n
n
i=1
x
2
i
despejando
2
=
1
n
n
i=1
x
2
i
2
pero este resultado nos lleva a obtener un absurdo pues puede ser negativa esta magnitud
! Por ejemplo tomando = 3, x
i
= (1, 2, 4).
MMV Tomamos como funcion de verosimilitud
L() =
f(x
i
) =
1
n
_
2
_
n
exp
_
1
2
2
n
i=1
(x
i
)
2
_
tomando logaritmos entonces:
log (L()) = nlog nlog
_
2
_
_
1
2
2
n
i=1
(x
i
)
2
_
y por lo tanto
log (L()) =
n
+
1
3
n
i=1
(x
i
)
2
= 0,
26 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
despejando se llega con facilidad a:
2
=
1
n
n
i=1
(x
i
)
2
.
como era de esperar. Aqu se ve que no siempre
2
=
2
, y que siempre el mejor etimador
sera el de MV i.e.
2
.
5. X N(,
2
),
MM Sabemos que X N(,
2
)
E [X] = =
1
n
n
i=1
x
i
, = =
1
n
n
i=1
x
i
,
E
_
X
2
=
2
+
2
=
1
n
n
i=1
x
2
i
=
2
=
1
n
n
i=1
(x
i
)
2
.
MMV Tomamos como funcion de verosimilitud
L(, ) =
f(x
i
) =
1
n
_
2
_
n
exp
_
1
2
2
n
i=1
(x
i
)
2
_
tomando logaritmos entonces:
log (L(, )) = nlog nlog
_
2
_
_
1
2
2
n
i=1
(x
i
)
2
_
y por lo tanto
log (L(, )) =
1
2
n
i=1
x
i
n = 0,
log (L(, )) =
n
+
1
3
n
i=1
(x
i
)
2
= 0,
despejando se llega con facilidad a:
=
1
n
n
i=1
x
i
,
2
=
1
n
n
i=1
(x
i
)
2
.
como era de esperar.
Ejercicio 2.6.2 Para cada uno de los siguientes casos encontrar la familia conjugada natural y
hallar la distribuci on a posteriori.
2.6. EJERCICIOS 27
1. (X
i
)
n
i=1
es una m.a. de X Poisson(),
2. (X
i
)
n
i=1
es una m.a. de X Gamma (p = 1, a = )
3. (X
i
)
n
i=1
es una m.a. de X N
_
, var =
1
r
_
, donde r es conocido.
Soluci on. Seguimos el guion expuesto en el ejemplo de la teora
1. (X
i
)
n
i=1
es una m.a. de X Poisson(),
f
(x) = P (x | ) =
e
x
x!
, x = 0, 1
familia de muestras para una Pisson
P (x | ) =
P (x
i
| ) e
n
x
i
P (x | ) es el n ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = { () Gamma (p, a)}
recordamos que
f
a
p
(p)
e
ax
x
p1
por lo que
()
a
()
e
a
p1
as que
( | x
1
, ..., x
n
) P (x
i
| ) () e
n
x
i
a
()
e
a
p1
e
(n+a)
p+
x
i
1
para > 0, por lo tanto
( | x
1
, ..., x
n
) Gamma
_
p = +
x
i
, a = +n
_
.
Ademas podemos calcular la media a posteriori
_
( | x
1
, ..., x
n
) d =
p
a
=
+
x
i
+n
este sera un estimador puntual bayesiano.
2. (X
i
)
n
i=1
es una m.a. de X Gamma (p = 1, a = )
f
(x) = f (x | ) =
(1)
e
x
x
11
= e
x
, x > 0
familia de muestras para una Poisson
P (x | ) =
P (x
i
| )
n
e
x
i
,
28 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
P (x | ) es el n ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = { () Gamma (p, a)} ,
recordamos que
f
a
p
(p)
e
ax
x
p1
,
por lo que
()
a
()
e
a
p1
,
as que
( | x
1
, ..., x
n
) f (x
i
| ) ()
n
e
x
i
,
para > 0. por lo tanto
( | x
1
, ..., x
n
) Gamma
_
p = +
x
i
, a = +n
_
.
Ejercicio 2.6.3 Sea X una observaci on de la densidad
f (x | ) =
2x
2
I
(0,)
(x) , > 0,
supongamos que tiene una distribuci on a priori uniforme sobre (0, 1) . Hallar la mediana de la
distribuci on a posteriori.
Soluci on. Tenemos la siguiente situacion:
f (x | ) =
2x
2
I
(0,)
(x) , > 0,
y suponemos que
() = U [0, 1] = 1, (0, 1) ,
entonces:
( | x
i
) f (x
i
| ) ()
2x
2
1 =
2x
2
, (0, 1) ,
pero x (0, 1) , x < , por lo que (x, 1) , as que
( | x
i
)
f (x
i
| ) ()
_
1
x
f (x
i
| ) d
=
2x
2
_
1
x
2x
2
d
=
x
2
(1 x)
, (x, 1) .
Para calcular la media a posteriori vemos que
1
2
=
_
M
( | x
i
) d =
_
M
2
(1 x)
d
2.6. EJERCICIOS 29
por lo que
M =
2x
1 +x
,
tal y como queramos calcular.
Ejercicio 2.6.4 Encontrar la cota de FCR y el estimador eciente (si existe) en los siguientes
casos:
1. m.a. de
f
(x) =
1
exp
_
_
, > 0, x > 0,
para estimar
2. m.a. de
f
(x) = (1 )
x
, x = 0, 1.., (0, 1) ,
para estimar
3. m.a. de
f
(x) =
1
2
exp
_
x
2
2
2
_
,
para estimar , lo mismo para estimar
2
.
Soluci on. Recordamos que
FCR =
_
d
d
_
2
nE
_
d
2
log f
(x)
d
2
_, I.F. = nE
_
d
2
log f
(x)
d
2
_
mientras que el estimador eciente
+
d
d
I.Fisher
d log f
(x
i
)
d
, T = +
IF
(log f
,
as que:
1. En este caso
f
(x) =
1
exp
_
_
, > 0, x > 0,
por lo que tomando logaritmos tenemos que
log f
(x) = log
_
1
exp
_
_
_
= log
x
,
y de forma inmediata se calculan las derivadas etc...
log f
(x) =
1
+
x
2
,
2
log f
(x) =
1
2
2x
3
,
30 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
de esta forma vemos que
E
_
1
2
2x
3
_
=
1
2
2
3
E [x] =
1
2
2
3
=
1
2
ya que
E [X] =
_
R
x
1
exp
_
_
dx =
ademas podemos observar que
E [X] =
p
a
=
ya que
_
p = 1, a =
1
_
. Por lo tanto:
FCR =
_
d
d
_
2
nE
_
d
2
log f
(x)
d
2
_ =
1
n
_
2
_ =
2
n
.
Para calcular el estimador eciente vemos que
f
(x
i
) =
(x
i
) =
1
n
exp
_
x
i
_
tomando logaritmos
log (f
(x
i
)) = log
_
1
n
exp
_
x
i
__
= nlog
x
i
y por lo tanto
(log (f
(x
i
))) =
x
i
_
=
n
x
i
2
de esta forma llegamos a que
T = +
d
d
I.Fisher
d log f
(x
i
)
d
=
= +
1
n
_
2
_
_
x
i
2
_
= +
2
n
_
x
i
2
_
=
x
i
n
.
2. De forma mecanica vemos que
f
(x) = (1 )
x
, x = 0, 1.., (0, 1) ,
es una geometrica
E [X] =
1
, I.F. =
n
2
(1 )
por lo que
FCR =
2
(1 )
n
sin embargo
T =
2
(1 )
n
_
d log f
(x
i
)
d
_
= 2
2
x
i
2.6. EJERCICIOS 31
i.e. no es un estimador eciente. FALTA completar las cuentecillas.
log (f
(x
i
)) = log
_
n
(1 )
x
i
_
.
d log f
(x
i
)
d
=
n
x
i
(1 )
,
3. En este caso
f
(x) =
1
2
exp
_
x
2
2
2
_
N
_
0,
2
_
,
evitando pasos intermedios vemos que
FCR =
_
d
d
_
2
nE
_
d
2
log f
(x)
d
2
_ =
1
nE
_
1
2
3x
2
4
_ =
1
2
+
3n
4
E
[X
2
]
observandose que: var(X) = E
_
X
2
E
2
[X]
E
_
X
2
= var(X) +E
2
[X] = var(X) =
2
ya que X N
_
0,
2
_
, as que
FCR =
2
2n
.
El estimador eciente:
T = +
d
d
I.Fisher
d log f
(x
i
)
d
= +
2
2n
_
d log f
(x
i
)
d
_
donde
_
d log f
(x
i
)
d
_
=
d
d
log
_
1
_
2
_
n
exp
_
x
2
i
2
2
_
_
=
n
x
2
i
3
entonces
T = +
2
2n
_
x
2
i
3
_
por lo que no hay estimador eiciente para .
Sin embargo si repetimos estas cuentecillas para
2
, vemos que
FCR =
_
d
d
_
2
nE
_
d
2
log f
(x)
d
2
_ =
4
2
2
+
3n
2
=
2
n
4
.
mientras que el estimador eciente verica
T = +
d
d
I.Fisher
d log f
(x
i
)
d
=
=
2
+
2
2n
2
_
x
2
i
3
_
=
x
2
i
n
luego T =
x
2
i
n
es un estimador eciente en este caso.
32 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
Tal y comoqueramos hacer ver.
Ejercicio 2.6.5 Sea (X
i
)
n
i=1
m.a. de una distribuci on tipo Poisson .
1. Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de e
.
2. Determinar el valor de la constante c tal que el estimador exp(c
X
i
) sea un estimador
insesgado de e
.
Soluci on. De forma inmediata vemos que
FCR =
_
d
d
_
2
nE
_
d
2
log f
(x)
d
2
_ =
e
2
nE
_
d
2
log f
(x)
d
2
_ =
e
2
n
no olvidar que estamos estimando e
.
T = exp (c
X
i
) insesgado para estimar e
[T] () = 0 E
[T] = e
por lo tanto
e
= E [T] = E
_
exp
_
c
X
i
__
=
E [exp (cx
i
)] = (E [exp (cx
i
)])
n
= (exp ((1 e
c
)))
n
= exp (n(1 e
c
))
despejando se obtiene
c = log
_
1
1
n
_
.
veamos un paso delicado de la anterior cadenas de igualdades:
E [exp(cx)] =
e
cx
P(X = x) =
x=0
e
cx
e
x
x!
= e
x=0
(e
c
)
x
x!
= e
e
e
c
.
tal y como queramos hacer ver.
Ejercicio 2.6.6 Sea (X
i
)
n
i=1
m.a. de una distribuci on tipo uniforme U (0, ) , > 0.
1. Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de .
2. Estudiar si X
(n)
es un estimador insesgado para .
3. Hallar el estimador de m axima verosimilitud para .
2.6. EJERCICIOS 33
Soluci on. En este caso vemos que
E [T] = E
_
X
(n)
=
_
R
tf
X
(n)
(t)dt
para calcular f
X
(n)
(t) puedo mirar la funcion de densidad del maximo:
F
X
(n)
(t) =
_
_
_
0 t < 0,
t
n
n t (0, ) ,
1 t > ,
vemos que
F
X
(n)
(t) =
P(X
i
t) = (P(X
i
t))
n
=
__
t
fdx
_
n
=
__
t
0
1
dx
_
n
=
t
n
n
as
f
X
(n)
=
_
n
t
n1
n t (0, )
0 resto
de esta forma
E [T] = E
_
X
(n)
=
_
R
tf
X
(n)
(t)dt =
_
0
n
t
n
n
dt =
n
n + 1
[T] () = 0.
Hallar el estimador de maxima verosimilitud para . En este caso
f
(x) =
1
, x (0, ) ,
por lo que la funcion
L() = f
(x
i
) =
(x
i
) =
1
n
,
as que
log L() = nlog , =
log L() =
n
log L() =
n
= 0 =
= ,
llegando as a una cagada monumental.
Rehacemos el camino para hacer ver que en esta ocasion f
(x) =
1
n , si
X
(n)
, en este caso el rango de las observaciones depende del parametro por lo que hay que ser
un poco mas cuidadoso a la hora de escribir las cosas. As se llega a la conclusion de que
= X
(n)
tal y como queramos hacer ver.
34 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
Ejercicio 2.6.7 Sea (X
i
)
n
i=1
m.a. de la densidad
f
x
i
, Es consistente para ? .i.e.
P
.?? Para verlo tendremos
que comprobar si E
_
_
n
, y var
_
_
n
0.
Por lo tanto:
E
_
_
= E
_
n
x
i
_
= E
_
n
Y
_
=
_
0
n
y
f (y) dy =
_
0
n
y
n
(n)
e
y
y
n1
dy =
= n
n
(n)
_
0
e
y
y
n2
dy = n
n
(n)
(n 1)
n1
=
n
n 1
por lo tanto
E
_
_
= E
_
n
Y
_
=
n
n 1
, E
_
_
n
en estos calculos hemos empleado los siguientes trucos: Y =
x
i
Gamma(p = n, a = ). las
exponenciales son casos particulares de una Gamma y la suma de Gammas es otra Gamma. Si X
Gamma(p, a) entonces:
f(x) =
a
p
(p)
e
ax
x
p1
,
_
0
e
ax
x
p1
dx =
(p)
a
p
, (p) = (p 1) (p 1) .
Mientras que
var
_
_
= var
_
n
x
i
_
= n
2
var
_
1
Y
_
= n
2
_
E
_
Y
2
E
2
_
Y
1
_
=
= n
2
__
0
1
y
2
n
(n)
e
y
y
n1
dy
2
(n 1)
2
_
= n
2
_
2
(n 1) (n 2)
2
(n 1)
2
_
de esta forma var
_
_
n
0, as que
es consistente.
Ejercicio 2.6.8 Sea (X
i
)
n
i=1
m.a. de una distribuci on tipo uniforme U (0, ) , (0, ) . De-
mostrar que X
(n)
es consistente para . Es Y
n
= 2X
n
consistente para ?
Soluci on. Seguimos los mismos que en ejercicios anteriores viendo que
F
X
(n)
(t) =
_
_
_
0 t < 0,
t
n
n t (0, ) ,
1 t > ,
2.6. EJERCICIOS 35
observamos que
F
X
(n)
(t) =
_
0 t < 0
1 t
comprobando que
X
(n)
L
D() X
(n)
P
X
(n)
consistente para .
Es Y
n
= 2X
n
consistente para ?. Esperamos que 2X
n
este cerca de .
E [Y
n
] = E
_
2X
n
= 2E
_
X
n
= 2E [X] = 2
2
=
n
,
var(Y
n
) = var(2X
n
) = 4var(X
n
) = 4
var(X)
n
=
4
n
2
12
=
2
3n
n
0,
por lo que es consistente para . Sin embargo tiene una peque na pega pues si tomamos X U(0, 10)
supongamos que
X = 6, entonces Y
n
= 2X
n
= 12, por lo que a veces sobre-estima.
Ejercicio 2.6.9 Sea (X
i
)
n
i=1
m.a. de una distribuci on discreta con funci on de masa
P
(X = x) = (1 )
x1
, x = 1, 2, ..., (0, 1)
1. Estudiar si T =
X
i
, es un estadstico suciente para .
2. Hallar el estimador de por el metodo de los momentos,
3. Obtener el estiamdor de m axima verosimilitud de .
4. Calcular la media de la distribuci on a posteriori cuando la distribuci on a priori para el
par ametro (0, 1) .
5. Calcular la cota de FCR para la varianza de los estiamdores insesgados para () =
1
.
6. Hay estimador eciente para estimar () =
1
?.
Soluci on. De forma telegraca vemos que
1. S, aplicando el teorema de facotrizacion obtenemos
_
(1 )
x
i
1
_
=
_
n
(1 )
x
i
n
_
por lo tanto T =
X
i
, es un estadstico suciente para
2. Sabemos que al tratarse de un geometrica
E [X] =
1
p
=
1
y por lo tanto
=
n
x
i
,
36 CAP
ITULO 2. ESTIMACI
ON PUNTUAL
3. Vemos que
L() =
_
n
(1 )
x
i
n
_
as que tomando logaritmos
log L = nlog +
_
x
i
n
_
log (1 )
calculamos el maximo, encontrando
n
x
i
n)
(1 )
= 0
de esta forma llegamos a:
=
n
x
i
,
4.
( | x
i
) Beta
_
p = n + 1, q =
x
i
n + 1
_
La media a posteriori es:
E [X] =
p
p +q
=
n + 1
x
i
+ 2
5.
T =
x
i
n
es eciente para =
1
, donde
E [X] =
x (1 )
x1
=
1
.
Captulo 3
Intervalos de connaza
3.1. Introduccion
Disponemos de (X
i
)
n
i=1
m.a. de X f
{ (L, U)} = P
{(x
i
)
n
i=1
: L < < U} = 1 .
Consideramos los siguientes metodos de construccion
1. Metodo clasico (cantidad pivotal), intervalos de conanza mas frecuentes en las aplicaciones.
2. Metodos bayasianos.
3.2. Metodo de la cantidad pivotal.
Denici on 3.2.1 Una cantidad pivotal para estimar
i
es una funci on
T ((x
i
)
n
i=1
:
i
)
cuya distribuci on no depende de
i
.
La idea es la de obtener una cantidad pivotal T para
i
, que sea una funcion continua y monotona
de
i
. Queremos hallar ( (
1
) , (
2
)) tales que
P
{(x
i
)
n
i=1
: (
1
) < T < (
2
)} = 1 .
37
38 CAP
(x) = N
_
,
2
0
_
donde
2
0
es una cantidad conocida. El objetivo es
estimar mediante IC con un nivel de conanza (NC) 1 .
Para ello seguiremos la siguiente tactica:
Consideramos
X N
_
,
2
0
n
_
y tipicando i.e.
0
/
n
N (0, 1)
nos preguntamos si
T =
0
/
n
es una cantidad pivotal para estimar . Ademas, para una muestra ja es T continua y
monotona?. Ambas respuestas son armativas.
P
{(x
i
)
n
i=1
: (
1
) < T < (
2
)} = 1 ,
P
_
(x
i
)
n
i=1
: (
1
) <
0
/
n
< (
2
)
_
= 1 ,
vemos que T N (0, 1) entonces por simetra la ultima ecuacion la podemos reescribir como
P
_
(x
i
)
n
i=1
: Z
/2
< T < Z
/2
_
= 1 ,
as que despejamos
Z
/2
< T,
T < Z
/2
,
de donde obtenemos que
<
X +Z
/2
n
, >
X Z
/2
n
,
por lo que llegamos a:
IC
1
= (L, U) =
_
X Z
/2
n
_
.
Vemos de esta forma que al aumentar n la longitud del intervalo decrece (i.e. la estimacion es
mas precisa). De igual forma se observa que al aumentar el NC 1 entonces Z
/2
aumenta
i.e. la longitud del intervalo aumenta y por lo tanto la estimacion es menos precisa).
3.2. M
X
/
n
N (0, 1) ,
y nos preguntamos si
T =
X
/
n
es una cantidad pivotal para estimar . Ademas, para una muestra ja es T continua y
monotona?. En esta caso no, ya que T depende de un parametro desconocido, , por lo tanto
no puede ser cantidad pivotal.
En este caso deberemos apelar al teorema de Fisher (recordar el primer captulillo) viendo
que
X
/
n
N (0, 1) ,
(n 1) S
2
2
2
n1
por lo tanto
N (0, 1)
_
2
n1
/ (n 1)
=
X
/
n
_
(n1)S
2
2
/ (n 1)
=
X
S/
n
t
n1
por lo tanto si denimos
T =
X
S/
n
ahora s es cantidad pivotal para estimar . Por lo tanto y siguiendo el procedimiento anterior
vemos que
P
_
t
n1;/2
< T < t
n1;/2
_
= 1
donde hemos vuelto a tener en cuenta las simetras de la distribucion. As que despejando se
llega a que
IC
1
() =
_
X t
n1;/2
S
n
_
.
Siguiendo los mismos paso, podemos ahora estimar
2
. Para ello consideramos
T =
(n 1) S
2
2
,
como cantidad pivotal y obtenemos por lo tanto
IC
1
_
2
_
=
_
(n 1) S
2
2
n1;/2
,
(n 1) S
2
2
n1;1/2
_
.
3. (X
i
)
n
i=1
m.a. de X Bernoulli(p). El objetivo es estimar p mediante IC con un nivel de
conanza (NC) 1 . En este caso seguremos las siguientes consideraciones:
n
i=1
X
i
= # exitos Bin(n, p)
T
a
De Moivre
N
_
= np,
2
= npq
_
40 CAP
i=1
X
i
N
_
= np,
2
= npq
_
tipicando
n
i=1
X
i
np
_
np (1 p)
N(0, 1)
arreglando las cuentecillas llegamos a
X p
_
p(1p)
n
X p
_
p(1 p)
n
=
X p
_
X(1
X)
n
N(0, 1)
as que
T =
X p
_
X(1
X)
n
.
observamos que para llegar a este resultado hemos utilizado resultdos previos como p =
X.
Por lo tanto y siguiendo los mismos pasos que los anteriores casos vemos que
IC
1
(p) =
_
_
X Z
/2
X
_
1
X
_
n
_
_
.
3.2.2. Cantidad pivotal general.
Sea (X
i
)
n
i=1
m.a. de X F
i=1
log F
(x
i
)
es cantidad pivotal para estimar el parametro , pues depende de (X
i
)
n
i=1
y y se comprueba con
facilidad que la funcion de distribucion de T no depende de .
Denici on 3.2.2 Denimos el error en la estimaci on de un intervalo de conenaza como
E =
longitud del intervalo
2
.
En muchos estudios es muy interesante saber el tama no muestral necesario para obtener un error
en la estimacion inferior a E.
Ejemplo 3.2.1 Sea (X
i
)
n
i=1
m.a. de X N
_
,
2
0
_
donde
2
0
es una cantidad conocida. Cu al es
el mnimo valor de n para que el error en la estimaci on de un intervalo con nivel de conanza 1
sea inferior a E?
3.3. INTERVALOS DE CONFIANZA BAYESIANOS. 41
Sabemos que
IC
1
=
_
X Z
/2
n
_
.
por lo tanto
E = Z
/2
n
por lo que de aqu despejamos n
Z
/2
0
E
n
as que
n
_
Z
/2
0
E
_
2
.
3.3. Intervalos de conanza bayesianos.
Sea (X
i
)
n
i=1
m.a. de X f (X | ) donde . Tenemos la informacion muestral (verosimilitud)
f (x
1
, ...., x
n
| ) =
n
i=1
f (x
i
| )
y de la informacion a priori
()
as que aplicando Bayes
( | x
1
, ...., x
n
) =
()
n
i=1
f (x
i
| )
_
()
n
i=1
f (x
i
| )
() f (x
1
, ...., x
n
| )
y todas las conclusiones las obtendremos a partir de ( | x
1
, ...., x
n
) la distribucion a posteriori.
Denici on 3.3.1 Un intervalo de conanza bayesiano al nivel 1 es un intervalo (L, U) tal que
_
U
L
( | x
1
, ...., x
n
) d = 1 .
Denici on 3.3.2 El intervalo de conanza bayesiano con m axima densidad a posteriori (HPD) al
nivel 1 es el intervalo (L, U) tal que
_
U
L
( | x
1
, ...., x
n
) d = 1 ,
y
1
(L, U) y
2
/ (L, U) ,
(
1
| x
1
, ...., x
n
) > (
2
| x
1
, ...., x
n
) .
El intervalo HPD es el de mnima longitud para un nivel 1 jado.
42 CAP
ON:
(X
1
, . . . , X
n
) muestra aleatoria (m. a.) de X.
x =
1
n
x
i
s
2
=
1
n 1
(x
i
x)
2
.
3.4.1. X N(, )
Intervalos de conanza 1 para :
1. conocida:
I =
_
x z
/2
n
_
.
2. desconocida
I =
_
x t
n1;/2
s
n
_
.
Intervalo de conanza 1 para
2
:
I =
_
(n 1)s
2
2
n1;/2
,
(n 1)s
2
2
n1;1/2
_
.
3.4.2. X Bernoulli(p) (muestras grandes).
Intervalo de conanza 1 para p:
I =
_
x z
/2
_
x(1 x)
n
_
.
3.4.3. X Poisson() (muestras grandes)
Intervalo de conanza 1 para :
I =
_
x z
/2
_
x/n
_
.
3.4. RESUMEN DE INTERVALOS 43
3.4.4. Dos poblaciones Normales independientes
X N(
1
,
1
); (X
1
, . . . , X
n
1
) m. a. de X; se calcula x y s
2
1
.
Y N(
2
,
2
); (Y
1
, . . . , Y
n
2
) m. a. de Y ; se calcula y y s
2
2
.
s
2
p
=
(n
1
1)s
2
1
+ (n
2
1)s
2
2
n
1
+n
2
2
.
Intervalos de conanza 1 para
1
2
:
1.
1
,
2
conocidas:
I =
_
_
x y z
/2
2
1
n
1
+
2
2
n
2
_
_
.
2.
1
,
2
desconocidas,
1
=
2
:
I =
_
x y t
n
1
+n
2
2;/2
s
p
_
1
n
1
+
1
n
2
_
.
3.
1
,
2
desconocidas,
1
=
2
:
I =
_
_
x y t
f;/2
s
2
1
n
1
+
s
2
2
n
2
_
_
,
donde f = entero mas proximo a
(s
2
1
/n
1
+s
2
2
/n
2
)
2
(s
2
1
/n
1
)
2
n
1
1
+
(s
2
2
/n
2
)
2
n
2
1
.
Intervalo de conanza 1 para
2
1
/
2
2
:
I =
_
s
2
1
/s
2
2
F
n
1
1;n
2
1;/2
,
s
2
1
/s
2
2
F
n
1
1;n
2
1;1/2
_
.
3.4.5. Comparacion de proporciones (muestras grandes e independientes)
X Bernoulli(p
1
); (X
1
, . . . X
n
1
) m. a. de X.
Y Bernoulli(p
2
); (Y
1
, . . . Y
n
2
) m. a. de Y .
Intervalo de conanza 1 para p
1
p
2
:
I =
_
_
x y z
/2
x(1 x)
n
1
+
y(1 y)
n
2
_
_
.
44 CAP
X 1,
X + 1
.
Soluci on. Queremos calcular el NC que como sabemos
NC = P
_
(X
i
)
4
i=1
:
_
X 1,
X + 1
_
= P
X 1 < <
X + 1
_
si tenemos en cuenta que
X =
X
i
n
= ,
X N
_
,
2
n
_
= N
_
,
1
4
_
, = = 1/2,
entonces
P
X 1 < <
X + 1
_
= P
_
1
1/2
<
X
1/2
<
+ 1
1/2
_
simplicando queda:
P {2 < Z < 2}
donde como es habitual Z =
X
1/2
. Teniendo en cuenta las simetras de la N(0, 1) la anterior
expresion queda reducida a:
2P (Z > 2) = 0,9544
donde dicho valor se ha obtenido de las tablas para la nornal tipicada.
Ejercicio 3.5.2 Sea (X
i
)
n
i=1
una m.a. de X U (0, ) , > 0.
1. Nivel de conanza del estimador por intervalos
_
aX
(n)
, bX
(n)
_
_
X
(n)
+c, X
(n)
+d
_
tal que 1 c < d.
Soluci on. Para el primero de los apartados vemos que
[L, U] =
_
aX
(n)
, bX
(n)
, 1 a < b,
por lo tanto el NC sera
NC = P
{(X
i
)
n
i=1
: [L, U]} = P
_
aX
(n)
< < bX
(n)
_
o lo que es lo mismo
P
b
< X
(n)
<
a
_
recordar que X
(n)
= m ax(X
i
). Ademas si rememoramos las cuentecillas del primer capitulillo vemos
que
f
X
(n)
= n[F
X
(t)]
n1
f
X
(t)
3.5. EJERCICIOS 45
as que
f
X
(n)
= n
_
t
_
n1
1
=
nt
n1
n
, t (0, )
por lo tanto
P
b
< X
(n)
<
a
_
=
_
a
b
f
X
(n)
dt =
_
a
b
nt
n1
n
dt =
1
a
n
1
b
n
y como vemos en este caso no depende de .
En el segundo de los casos vemos que
[L, U] =
_
X
(n)
+c, X
(n)
+d
, 1 c < d,
as que seguimos el mismo procedimiento por lo que llegamos sin problemas a:
P
_
X
(n)
+c < < X
(n)
+d
_
= P
_
d < X
(n)
< c
_
=
_
1
c
_
n
_
1
d
_
n
al depender de no se le llama nivel de conenza.
Ejercicio 3.5.3 Sea (X
i
)
n
i=1
una m.a. de X cuya densidad viene dada por
f (x | ) =
_
e
x
x > 0
0 resto
probar que T =
n
i=1
X
i
es una cantidad pivotal y obtener los intervalos de conanza correspond-
intes.
Soluci on. Observamos que T es funcion solo de la muestra y del parametro y tenemos que ver que
la distribucion es funcion continua y monotona.
X f
i=1
X
i
=
n
i=1
Y
i
Gamma (p = n, a = 1)
vemos que si
Y = X = X =
Y
=
dX
dY
=
1
por lo tanto
f
Y
= f
X
dX
dY
= e
= e
y
, y (0, )
ademas se observa que f
Y
Gamma (p = 1, a = 1) . De esta forma vemos que al solo depender de
(X
i
)
n
i=1
se trata de una cantidad pivotal para el parametro , igualmente se observa que es continua
y monotona creciente en .
46 CAP
1
<
n
i=1
X
i
<
2
_
= 1
1
<
n
i=1
X
i
, =
1
()
n
i=1
X
i
<
i=1
X
i
<
2
, = <
2
()
n
i=1
X
i
por lo tanto el IC sera
IC
1
() =
_
1
()
n
i=1
X
i
,
2
()
n
i=1
X
i
_
Para obetener los (
1
,
2
) calculamos
_
1
()
0
f
T
dt =
2
,
_
0
2
()
f
T
dt =
2
,
donde
T =
n
i=1
X
i
Gamma (p = n, a = 1)
f
T
(t) =
1
(n)
e
t
t
n1
, t > 0,
tal y como queramos hacer ver.
Ejercicio 3.5.4 Sea (X
i
)
n
i=1
una m.a. de X cuya densidad viene dada por
f (x | ) =
_
e
(x)
x > > 0
0 resto
Hallar el intervalo bayesiano de m axima densidad a posteriori con nivel 4/5 si la densidad a priori
viene dada por
() =
_
e
> 0
0 resto
.
Soluci on. Teniendo en cuenta resultados del captulo anterior vemos que
( | X
i
) ()
n
i=1
f (x
i
| ) = e
x
i
+n
= e
(n1)
x
i
e
(n1)
,
_
0, X
(1)
_
3.5. EJERCICIOS 47
el termino e
x
i
lo hemos suprimido al tratarse de una constante. Por lo tanto
( | x
i
) =
e
(n1)
_
X
(1)
0
e
(n1)
d
_
0, X
(1)
_
integrando vemos que
( | x
i
) =
e
(n1)
1
n1
_
e
(n1)X
(1)
1
_
_
0, X
(1)
_
de esta forma el intervalo bayesiano viene dado por
(L, U) =
_
1
, X
(1)
_
tal que
_
X
(1)
1
( | x
i
) d = 1 =
4
5
as que
_
X
(1)
1
e
(n1)
1
n1
_
e
(n1)X
(1)
1
_d =
4
5
por lo tanto integrando obtenemos
4
5
=
e
(n1)X
(1)
e
(n1)
1
e
(n1)X
(1)
1
y tomando logaritmos
1
=
1
n 1
log
_
e
(n1)X
(1)
_
4
5
__
e
(n1)X
(1)
1
__
tal y como queramos hacer ver.
Ejercicio 3.5.5 Sea (X
i
)
n
i=1
una m.a. de X N
_
,
2
= 1
_
y supongamos que la distribuci on a
priori viene dada por N (0, 1) . Hallar el IC bayesiano (L, U) de m axima densidad a posteriori con
NC 1 .
Soluci on. Teniendo en cuenta resultados del captulo anterior vemos que
( | x
i
) N
_
+nrX
+nr
,
1
+nr
_
= N
_
x
i
n + 1
,
1
n + 1
_
ya que = r = 1 y = 0. Apelando a las simetras de la normal entonces:
(L, U) =
_
1
=
x
i
n + 1
a,
2
=
x
i
n + 1
+a
_
48 CAP
1
( | x
i
) d = 1
i.e.
P
_
x
i
n + 1
a < Y <
x
i
n + 1
+a
_
= 1
donde Y ( | x
i
) . As que tipicando vemos que
P
_
_
_
x
i
n+1
a
x
i
n+1
_
1
n+1
<
Y
x
i
n+1
_
1
n+1
<
x
i
n+1
+a
x
i
n+1
_
1
n+1
_
_
_
= 1
simplicamos
P
_
a
n + 1 < Z < a
n + 1
_
= 1
o lo que es lo mismo
P
_
Z > a
n + 1
_
=
2
por lo tanto despejando a
a
n + 1 = Z
/2
= a =
Z
/2
n + 1
de esta forma vemos que
(L, U) =
_
x
i
n + 1
Z
/2
n + 1
,
x
i
n + 1
+
Z
/2
n + 1
_
tal y como queramos hacer ver.
Ejercicio 3.5.6 Sea X una observaci on de la densidad
f
(x) =
_
x
1
x (0, 1) , > 0
0 resto
,
1. Hallar la densidad de la variable aleatoria Y = log X.
2. Hallar el nivel de conanza del siguiente estimador por IC para
I =
_
1
2 (log X)
,
1
log X
_
Estudiar si T = log X es una cantidad pivotal para .
3. Hallar la densidad a priori para si la distribuci on a priori es la unirme en (0, 1) y el valor
observado es x = 1/e. Indicar cu al sera, en este caso, la forma del intervalo de conanza
bayesiano de m axima densidad a posteriori (para un NC 1 .
3.5. EJERCICIOS 49
Soluci on. Vemos que Y = log X, consideramos el c.v.
y = log x, y = log x, x = e
y
,
dx
dy
= e
y
por lo tanto
f
Y
(y) = f
X
(x)
dx
dy
= x
1
e
y
=
_
e
y
_
1
e
y
= e
y
luego
f
Y
(y) =
_
e
y
(0, ) ,
0 resto
.
Para calcular el nivel de conanza seguimos los mismos pasos como en los ejercicios anteriores y
vemos que (se trata simplemente de despejar en y)
NC = P
_
1
2
Y
1
_
= e
1/2
e
1
.
De igual forma vemos que la densidad T = log X (utlizando el c.v. anterior) se llega a
f
T
=
_
e
t
t > 0,
0 resto
.
Por ultimo
( | x
i
) e
1
, si (0, 1)
por lo tanto
( | x
i
) =
_
e
1
e2
(0, 1) , x = 1/e
0 resto
e I = (a, 1)
Ejercicio 3.5.7 En una poblaci on se desea conocer la probabilidad de que un individuo sea alergico
al polen de las acacias. En 100 individuos tomados al azar se observaron 10 alergicos. Hallar el
IC al 95 % para la probabilidad pedida. Cu antos individuos se deberan observar para que con
probabilidad 0,95 el error m aximo en la estimaci on de la proporci on de alergicos sea del 0,01?
Soluci on. La estrategia en estos casos es siempre la misma. Consideramos la v.a. X y queremos
estimar la probabilidad de ser alergico i.e. si/no (Bernoulli(p), exito/fracaso). Entonces tenemos
(X
i
)
n
i=1
una m.a. de X Bernoulli(p) (con n = 100 grande) y por lo tanto del resultado de teora
sabemos que
IC
0,95
=
_
X Z
/2
_
p (1 p)
n
_
=
_
_
X Z
/2
X
_
1
X
_
n
_
_
50 CAP
X =
X
i
n
=
n
o
alergicos
n
=
10
100
= 0,10,
Z
/2
= Z
0,025
= 1, 96
as que
IC
0,95
=
_
0,10 1,96
_
(0,10) (0,90)
100
_
= (0,04, 0,16)
i.e. la proporcion de alergicos esta entre un 4 % y un 16 %.
Queremos ahora estimar el valor de n para obetener un error maximo de 0,01 (1 %) a un NC del
95 %. Sabemos que
error = Z
/2
X
_
1
X
_
n
< 0,01
y tomamos como estimacion para
X la obetenida en la prueba piloto i.e.
X = 0,10, por lo tanto
1,96
_
(0,10) (0,90)
n
< 0,01
y despejamos n obteniendo
n > 3458
por lo que concluimos que necesitamos del orden de 3500 pruebas para hacer un buen estudio.
Ejercicio 3.5.8 Se supone que el n umero de erratas por p agina en un libro sigue una Poisson().
Elegidas al azar 95 p aginas se obtienen los siguientes resultados
N
o
erratas 0 1 2 3 4 5
N
o
p agina 40 30 15 7 2 1
hallar intervalos de conanza al 90 % para el n umero medio de erratas por p agina en todo el libro.
Soluci on. Como en el ejercicio anterior podramos modelizar la situacion de la siguiente manera:
X Bernoulli(p)
errata/correcto, pero como en este caso tenemos n paginas entonces nBernoullis se convierten en
Binomial (n, p) . Pero de forma operativa si n es grande y p peque na entonces es mejor aproximar
la binomial por una Poisson( = np) de la que sabemos que E [X] = .
Por lo tanto queremos estimar
IC
0,90
() =
_
_
X Z
/2
n
_
_
=
X Z
/2
_
X
n
3.5. EJERCICIOS 51
en este caso tenemos que
Z
/2
= 1,64,
X =
X
i
n
=
(40 0) + (30 1) +.... + (1 5)
95
= 0,98,
por lo que
IC
0,90
() = (0,82, 1,16) .
Si queremos anar mas entonces hacemos lo mismo que en el ejercicio anterior i.e.
error = Z
/2
_
X
n
y despejamos n.
Ejercicio 3.5.9 Se mide el tiempo (en segundos) de duraci on de un proceso qumico realizado 20
veces en condiciones similares obteniendose los siguientes resultados
93, 90, 97, 90, 93, 91, 96, 94, 91, 91, 88, 93, 95, 91, 89, 92, 87, 88, 90, 86
suponiendo que la duraci on sigue una dostribuci on normal hallar los IC al 90 % para ambos par amet-
ros.
Soluci on. Tenemos por lo tanto (X
i
)
20
i=1
m.a. de X N
_
,
2
_
, para estimar a un NC del 90 %
tenemos
IC
90 %
() =
_
X t
n1;/2
n
_
=
_
X t
n1;/2
S
n
_
= (90,11, 92,39)
ya que
X =
X
i
n
= 91,25
S
2
=
1
n 1
_
X
i
X
_
2
=
1
19
_
X
2
i
20
X
2
_
= 8,61, =S = 2,94,
t
n1;/2
= t
19;0,005
= 1, 729.
Como en ejercicios anteriores si queremos mas precision para estimar entonces tendremos que
hacer mas ensayos, de esta forma
error = t
n1;/2
n
Z
/2
2,94
n
= Z
0,05
2,94
n
y despejamos n. Vemos que hemos cambiado de la t-student a la normal, esto es as ya que cuando
n entonces t
n1;/2
Z
/2
Para estimar
2
con un nivel de conanza del 90 %
IC
90 %
_
2
_
=
_
(n 1) S
2
2
n1;/2
,
(n 1) S
2
2
n1;1/2
_
=
_
19 (8,61)
30,144
,
19 (8,61)
10,117
_
= (5,43, 16,19)
52 CAP
X Z
/2
n
_
entonces
error = Z
/2
n
2 n 38
tal y como queramos hacer ver.
Ejercicio 3.5.11 Se intenta estudiar la inuencia de la hipertensi on en los padres sobre la presi on
sangunea de los hijos. Para ello se seleccionan dos grupos de ni nos, uno con padres de presi on
sangunea normal (G1) y el otro con padres hipertensos (G2) obteniendose las siguientes presiones
sist olicas:
G1 104 88 100 98 102 92 96 100 96 96
G2 100 102 96 106 110 110 120 112 112 90
hallar el IC para la diferencia de las medias suponiendo que las varianzas en las de los ni nos son
iguales.
Soluci on. La situacion es la siguiente. Disponemos de dos m.a.
(X
i
)
n
i=1
m.a. de X N
_
1
,
2
1
_
(Y
i
)
n
i=1
m.a. de Y N
_
2
,
2
2
_
donde estamos suponiendo que
2
1
=
2
2
. Queremos estimar la diferencia de presiones medias en las
poblaciones con un NC del 95 %.
son las poblciones independientes? podemos tener estas dos situaciones:
1.- Datos estan emparejados, entonces las poblaciones NO son independeintes,
2.- Datos no emparejados, por lo tanto las poblaciones son independientes.
3.5. EJERCICIOS 53
En este caso seobserva que las dos poblaciones son independientes y por lo tanto utilizaremos el
siguiente formulon:
IC
1
(
1
2
) =
_
X
Y t
m+n2;/2
S
p
_
1
m
+
1
n
_
donde
S
2
p
=
(m1) S
2
1
+ (n 1) S
2
2
m+n 2
=
9 (22,4) + 9 (78,6)
18
= 50,51
es la varianza residual. De esta forma
IC
1
(
1
2
) =
_
97,2 105,8 (2,101)
_
50,51
_
1
10
+
1
10
_
= (15,28, 1,92) .
Si las muestras no son independientes entonces lo que habra que hacer sera lo siguiente. Considerar
(X
i
Y
i
)
n
i=1
m.a. de D = (X Y ) N
_
2
,
2
_
y el formulon a aplicar en esta ocasion sera:
IC
1
(
1
2
) =
_
(X Y ) t
n1;/2
S
dif
n
_
donde (X Y ) representa la media de las diferencias.
54 CAP
R
() = P
(R)
i.e. la probabilidad de rechazar H
0
cuando el verdadero valor del par ametro es .
Situacion ideal.
P (error de tipo I) = 0,
P (error de tipo II) = 0,
55
56 CAP
OTESIS
Denici on 4.1.3 El nivel de signicaci on o tama no de un test R para contrastar H
0
:
0
frente a H
1
:
1
es:
= sup
0
P
(R)
i.e. m axima probabilidad de rechazar H
0
cuando H
0
es cierta o lo que es lo mismo, la m axima
probabilidad de cometer un error de tipo I.
Se suelen utilizar test de hipotesis que tienen un nivel de signicacion, 0,01, 0,05, 0,1.
Veremos dos metodos de construccion de un test:
1. Metodo de la razon de verosimilitud,
2. Metodo bayesiano.
4.2. Metodo de la razon de verosimilitud.
El estadstico utilizado en este metodo es:
(x
1
, ..., x
n
) =
sup
0
f (x
1
, ..., x
n
)
sup
f (x
1
, ..., x
n
)
=
sup
0
L()
sup
L()
i.e. el cociente entre la maxima verosimilitud que da a la muestra y la maxima verosimilitud de la
muestra. Vemos que (x
1
, ..., x
n
) [0, 1] y que por lo tanto
(x
1
, ..., x
n
) esta proximo a cero, entonces rechazamos H
0
,
(x
1
, ..., x
n
) esta proximo a uno, entonces aceptamos H
0
,
Denici on 4.2.1 El test de raz on de verosimilitud para contrastar H
0
:
0
frente a H
1
:
1
al nivel de signicaci on es:
R = {(x
1
, ..., x
n
) : (x
1
, ..., x
n
) c}
donde c se determina a partir de = sup
0
P
(R) .
Proposici on 4.2.1 Relaci on con los estadsticos sufucientes. El test de raz on de verosimilitudes
es funci on de cualquier estadstico suciente T
Consideramos a continuacion un ejemplo que nos permite ver la relacion entre el contraste de
hipotesis y los intervalos de conanza.
Considermos (X
i
)
n
i=1
m.a. de X f
(x) := N
_
,
2
_
donde
estamos interesados en estimar (aqu
2
es un parametro perturbador). Consideramos el siguiente
contraste de hipotesis
H
0
: =
0
,
H
1
: =
0
,
4.2. M
ETODO DE LA RAZ
ON DE VEROSIMILITUD. 57
y jamos un nivel de signicacion . Formalmente la situacion es la siguiente:
=
_
=
_
,
2
_
: R, > 0
_
0
=
_
=
_
,
2
_
: =
0
, > 0
_
as que
(x
1
, ..., x
n
) =
sup
0
f (x
1
, ..., x
n
)
sup
f (x
1
, ..., x
n
)
=
sup
0
L()
sup
L()
(4.1)
queda en este caso como sigue:
f
(x) =
1
2
exp
_
1
2
2
(x )
2
_
,
L() = f
(x
1
, ..., x
n
) =
n
i=1
f
(x
i
) =
1
n
_
2
_
n
exp
_
1
2
2
n
i=1
(x
i
)
2
_
el sup
i=1
(x
i
x)
2
(aqu estamos suponiendo que conocemos =
0
por lo que queremos estimar
2
, de esta forma
(4.1) queda:
(x
1
, ..., x
n
) =
1
(
1
n
n
i=1
(x
i
0
)
2
)
n/2
(
2)
n
exp
_
n
2
n
i=1
(x
i
0
)
2
n
i=1
(x
i
0
)
2
_
1
(
1
n
n
i=1
(x
i
x)
2
)
n/2
(
2)
n
exp
_
n
2
n
i=1
(x
i
x)
2
n
i=1
(x
i
x)
2
_
simplicamos
(x
1
, ..., x
n
) =
_
n
i=1
(x
i
x)
2
n
i=1
(x
i
0
)
2
_
n/2
=
_
n
i=1
(x
i
x)
2
n
i=1
(x
i
x + x
0
)
2
_
n/2
=
=
_
n
i=1
(x
i
x)
2
n
i=1
(x
i
x)
2
+n( x
0
)
2
_
n/2
=
_
_
_
n
i=1
(x
i
x)
2
n
i=1
(x
i
x)
2
n
i=1
(x
i
x)
2
+n( x
0
)
2
n
i=1
(x
i
x)
2
_
_
_
n/2
=
=
_
_
_
1
1 +n
( x
0
)
2
n
i=1
(x
i
x)
2
_
_
_
n/2
=
_
_
1
1 +n
( x
0
)
2
(n1)S
2
_
_
n/2
=
_
_
_
1
1 +
1
n1
_
x
0
S/
n
_
2
_
_
_
n/2
por lo tanto llegamos a que
R = {(x
1
, ..., x
n
) : (x
1
, ..., x
n
) c}
i.e.
R =
_
_
(x
1
, ..., x
n
) :
_
_
_
1
1 +
1
n1
_
x
0
S/
n
_
2
_
_
_
n/2
c
_
_
=
_
(x
1
, ..., x
n
) :
x
0
S/
> c
1
_
(4.2)
58 CAP
OTESIS
y = sup
0
P
x
0
S/
y que
= sup
0
P
(R) = = sup
0
P
_
(x
1
, ..., x
n
) :
x
0
S/
> c
1
_
= sup
=
0
P
((x
1
, ..., x
n
) : |t
n1
| > c
1
)
ya que cuando (X
i
)
n
i=1
m.a. de X N
_
0
,
2
_
sabemos que una cantidad para estimar
x
0
S/
n
t
n1
de esta forma llegamos a la conclusion de que
c
1
= t
n1;/2
y que por lo tanto
R =
_
(x
1
, ..., x
n
) :
x
0
S/
> t
n1;/2
_
=
_
(x
1
, ..., x
n
) : | x
0
| > t
n1;/2
S/
n
_
sera la region de rechazo del test de razon de verosimilitud. Veamos ahora la relacion con el
IC
1
(). La situacion hasta ahora es la siguiente:
X= R A, A =
_
(x
1
, ..., x
n
) : | x
0
| < t
n1;/2
S/
n
_
,
esto signica que aceptamos H
0
:
H
0
: =
0
| x
0
| < t
n1;/2
S/
n t
n1;/2
S/
n < x
0
< t
n1;/2
S/
n
x t
n1;/2
S/
n <
0
< x +t
n1;/2
S/
n
0
_
x t
n1;/2
S/
n
_
0
IC
1
() .
De forma alternativa vemos que
H
0
: =
0
,
H
1
: =
0
,
y jamos un nivel de signicacion . Entonces IC
1
() . =
_
x t
n1;/2
S/
n
_
, por lo tanto si
0
IC
1
() = aceptamos H
0
,
0
/ IC
1
() = rechazamos H
0
de esta forma hemos visto la relacion existente entre el contraste de hipotesis y los intervalos de
conanza.
Si la distribucion de (x
1
, ..., x
n
), bajo H
0
, es desconocida o muy complicada de calcular entonces
existe una solucion aproximada (asintotica) para contrastar H
0
:
0
, frente a H
1
:
1
.
4.2. M
ETODO DE LA RAZ
ON DE VEROSIMILITUD. 59
Teorema 4.2.1 Sea (X
i
)
n
i=1
m.a. de X f
2
kk
bajo H
0
.
De esta forma tenemos que
R =
_
(x
1
, ..., x
n
) : 2 log (x
1
, ..., x
n
) >
2
kk
;
_
Con el ejemplo que venimos arrastrando, si (X
i
)
n
i=1
m.a. de X f
(x) := N
_
,
2
_
donde estamos interesados en estimar (aqu
2
es un parametro perturbador).
Consideramos el siguiente contraste de hipotesis
H
0
: =
0
,
H
1
: =
0
,
y jamos un nivel de signicacion . Formalmente la situacion es la siguiente:
=
_
=
_
,
2
_
: R, > 0
_
= dim = 2
0
=
_
=
_
,
2
_
: =
0
, > 0
_
= dim
0
= 1
as que
2 log (x
1
, ..., x
n
)
d
2
1
.
4.2.1. Asignacion de hipotesis en la practica.
1. Disponemos de (X
i
)
n
i=1
m.a. de X f
OTESIS
4.2.2. Concepto de p-valor de los datos.
El p-valor o signicacion de los datos es la maxima probabilidad bajo H
0
de obtener un resultado
mas desfavorable a H
0
que el obtenido.
Veamos un ejemplillo.
Ejemplo 4.2.1 (X
i
)
n
i=1
m.a. de X f
(x) := N
_
,
2
= 1
_
.
Consideramos el siguiente contraste de hip otesis
H
0
: 10,
H
1
: > 10,
y jamos un nivel de signicaci on . Hemos obtenido la muestra con n = 9 y resulta que x = 12
p valor = max
10
P {m as desfavorable a H
0
que x = 12} = max
10
P { x = 12} = P
=10
{ x = 12}
pero sabemos que
X N
_
,
1
9
_
as que
P
_
x 10
1/3
>
12 10
1/3
_
= P
_
Z >
12 10
1/3
_
0.
Interpretmos el p-valor como el apoyo de los datos a H
0
1. p-valor proximo a cero, entonces poco apoyo de los datos a H
0
2. p-valor alejado del cero, entonces apoyo suciente de los datos a H
0
La regla practica que se sigue para tomar decisiones a un nivel de signicacion previamente jado
es la siguiente:
1. p valor < , entonces poco apoyo de los datos a H
0
, rechazamos H
0
,
2. p valor > , entonces apoyo suciente de los datos a H
0
, aceptamos H
0
.
4.3. M
ETODOS BAYESIANOS. 61
4.3. Metodos bayesianos.
Sea (X
i
)
n
i=1
m.a. de X f (X | ) donde . Queremos contrastar H
0
:
0
, frente a
H
1
:
1
=
c
0
. Tenemos la informacion muestral (verosimilitud)
f (x
1
, ...., x
n
| ) =
n
i=1
f (x
i
| )
que recoje la informacion sobre que llevan los datos y tambien disponemos de la informacion a
priori
()
que recoje la informacion sobre antes que los datos, as que aplicando Bayes obtenemos
( | x
1
, ...., x
n
) =
()
n
i=1
f (x
i
| )
_
()
n
i=1
f (x
i
| )
() f (x
1
, ...., x
n
| )
y todas las conclusiones las obtendremos a partir de ( | x
1
, ...., x
n
) la distribucion a posteriori.
La decision de rechazar o aceptar H
0
estara basada en;
P (
0
| x
1
, ...., x
n
) =
_
0
( | x
1
, ...., x
n
) d,
P (
1
| x
1
, ...., x
n
) =
_
1
( | x
1
, ...., x
n
) d = 1 P (
0
| x
1
, ...., x
n
) ,
por ejemplo podemos rechazar H
0
:
0
si
P (
0
| x
1
, ...., x
n
) <
1
2
.
4.4. Resumen de contrastes de hipotesis
CONTRASTES DE HIP
OTESIS
NOTACI
ON:
= nivel de signicacion del contraste.
n= tama no de la muestra.
H
0
= hipotesis nula.
R= region crtica o de rechazo de H
0
.
62 CAP
OTESIS
4.4.1. X N(, )
1. H
0
: =
0
( conocida);
R =
_
| x
0
| > z
/2
n
_
.
2. H
0
: =
0
( desconocida);
R =
_
| x
0
| > t
n1;/2
s
n
_
.
3. H
0
:
0
( conocida);
R =
_
x
0
> z
n
_
.
4. H
0
:
0
( desconocida);
R =
_
x
0
> t
n1;
s
n
_
.
5. H
0
:
0
( conocida);
R =
_
x
0
< z
1
n
_
.
6. H
0
:
0
( desconocida);
R =
_
x
0
< t
n1;1
s
n
_
.
4.4. RESUMEN DE CONTRASTES DE HIP
OTESIS 63
7. H
0
: =
0
;
R =
_
n 1
2
0
s
2
/
_
2
n1;1/2
,
2
n1;/2
_
_
.
8. H
0
:
0
;
R =
_
n 1
2
0
s
2
>
2
n1;
_
.
9. H
0
:
0
;
R =
_
n 1
2
0
s
2
<
2
n1;1
_
.
4.4.2. X Bernoulli(p) (muestras grandes)
1. H
0
: p = p
0
;
R =
_
| x p
0
| > z
/2
_
p
0
(1 p
0
)
n
_
.
2. H
0
: p p
0
;
R =
_
x p
0
> z
_
p
0
(1 p
0
)
n
_
.
3. H
0
: p p
0
;
R =
_
x p
0
< z
1
_
p
0
(1 p
0
)
n
_
.
4.4.3. X Poisson() (muestras grandes)
1. H
0
: =
0
;
R =
_
| x
0
| > z
/2
_
0
/n
_
.
2. H
0
:
0
;
R =
_
x
0
> z
0
/n
_
.
3. H
0
:
0
;
R =
_
x
0
< z
1
_
0
/n
_
.
4.4.4. Dos poblaciones Normales independientes
X N(
1
,
1
); (X
1
, . . . , X
n
1
) m. a. de X; se calcula x y s
2
1
.
Y N(
2
,
2
); (Y
1
, . . . , Y
n
2
) m. a. de Y ; se calcula y y s
2
2
.
s
2
p
=
(n
1
1)s
2
1
+ (n
2
1)s
2
2
n
1
+n
2
2
.
64 CAP
OTESIS
1. H
0
:
1
=
2
(
1
,
2
conocidas);
R =
_
_
_
| x y| > z
/2
2
1
n
1
+
2
2
n
2
_
_
_
.
2. H
0
:
1
=
2
(
1
=
2
);
R =
_
| x y| > t
n
1
+n
2
2;/2
s
p
_
1
n
1
+
1
n
2
_
.
3. H
0
:
1
=
2
(
1
=
2
);
R =
_
_
_
| x y| > t
f;/2
s
2
1
n
1
+
s
2
2
n
2
_
_
_
.
4. H
0
:
1
2
(
1
,
2
conocidas);
R =
_
_
_
x y > z
2
1
n
1
+
2
2
n
2
_
_
_
.
5. H
0
:
1
2
(
1
=
2
);
R =
_
x y > t
n
1
+n
2
2;
s
p
_
1
n
1
+
1
n
2
_
.
6. H
0
:
1
2
(
1
=
2
);
R =
_
_
_
x y > t
f;
s
2
1
n
1
+
s
2
2
n
2
_
_
_
.
7. H
0
:
1
2
(
1
,
2
conocidas);
R =
_
_
_
x y < z
1
2
1
n
1
+
2
2
n
2
_
_
_
.
8. H
0
:
1
2
(
1
=
2
);
R =
_
x y < t
n
1
+n
2
2;1
s
p
_
1
n
1
+
1
n
2
_
.
9. H
0
:
1
2
(
1
=
2
);
R =
_
_
_
x y < t
f;1
s
2
1
n
1
+
s
2
2
n
2
_
_
_
.
10. H
0
:
1
=
2
;
R =
_
s
2
1
/s
2
2
/
_
F
n
1
1;n
2
1;1/2
, F
n
1
1;n
2
1;/2
__
.
4.5. EJERCICIOS 65
11. H
0
:
1
2
;
R =
_
s
2
1
/s
2
2
> F
n
1
1;n
2
1;
_
.
12. H
0
:
1
2
;
R =
_
s
2
1
/s
2
2
< F
n
1
1;n
2
1;1
_
,
donde f = entero mas proximo a
(s
2
1
/n
1
+s
2
2
/n
2
)
2
(s
2
1
/n
1
)
2
n
1
1
+
(s
2
2
/n
2
)
2
n
2
1
.
4.4.5. Comparacion de proporciones (muestras grandes e independientes)
X Bernoulli(p
1
); (X
1
, . . . , X
n
1
) m. a. de X.
Y Bernoulli(p
2
); (Y
1
, . . . , Y
n
2
) m. a. de Y .
1. H
0
: p
1
= p
2
;
R =
_
| x y| > z
/2
p(1 p)
_
1
n
1
+
1
n
2
_
_
.
2. H
0
: p
1
p
2
;
R =
_
x y > z
p(1 p)
_
1
n
1
+
1
n
2
_
_
.
3. H
0
: p
1
p
2
;
R =
_
x y < z
1
p(1 p)
_
1
n
1
+
1
n
2
_
_
,
donde p =
x
i
+
y
i
n
1
+n
2
=
n
1
x +n
2
y
n
1
+n
2
.
4.5. Ejercicios
Ejercicio 4.5.1 Sea (X
1
, X
2
) una m.a. de
f
=
_
x
1
0 < x < 1
0 resto
donde = {1, 2}. Para contrastar H
0
: = 1 frente a H
1
: = 2, denimos la regi on de
rechazo
R = {(x
1
, x
2
) : 4x
1
x
2
3} .
Hallar la funci on de potencia test.
66 CAP
OTESIS
Soluci on. Queremos contrastar H
0
: = 1 frente a H
1
: = 2, en R = {(x
1
, x
2
) : 4x
1
x
2
3} , por
lo tanto nos preguntamos si
R
() = P
(R) , = 1, 2.
Represetamos la region, 4x
1
x
2
3, por lo tanto cuando = 1, tenemos:
f
=1
(x
1
, x
2
) = f
=1
(x
1
) f
=1
(x
2
) = 1 1 = 1
de esta forma
P
=1
(R) =
_ _
R
f
=1
(x
1
, x
2
) dx
1
dx
2
=
_
x
1
=1
x
1
=3/4
_
_
x
2
=1
x
2
=3/4x
1
1dx
2
_
dx
1
=
1
4
+
3
4
log
_
3
4
_
0,03
y hacemos lo mismo para = 2, obreniendo as:
P
=1
(R) =
_
x
1
=1
x
1
=3/4
_
_
x
2
=1
x
2
=3/4x
1
4x
1
x
2
dx
2
_
dx
1
=
7
16
+
9
8
log
_
3
4
_
0,11.
ya que
f
=2
(x
1
, x
2
) = f
=2
(x
1
) f
=2
(x
2
) = 2x
1
2x
2
= 4x
1
x
2
.
El nivel de signicacion es por lo tanto
sup
0
P
(R) = P
=1
(R) 0,03
tal y como queramos hacer ver.
Ejercicio 4.5.2 Sea (X
i
)
n
i=1
una m.a. de una poblaci on N(, 1), donde = {
0
,
1
} con
(
0
<
1
) . Para contrastar H
0
: =
0
frente a H
1
: =
1
se considera el test que rechaza H
0
si
x > k. Hallar k para que el test tenga nivel de signicaci on .
Soluci on. La situacion es la siguiente:
H
0
: =
0
H
1
: =
1
R = {(x
i
)
n
i=1
: x > k}
queremos calcular k para un nivel de signicacion . Recordamos de teora que
= sup
0
P
(R) = P
1
(R) = P
1
( x > k) = P
_
_
_
x
1
_
1
n
>
k
1
_
1
n
_
_
_
= P
_
Z >
k
1
_
1/n
_
recordar que
X N
_
1
,
1
n
_
4.5. EJERCICIOS 67
por lo tanto
k
1
_
1/n
= Z
obteniendo as
k =
1
+
Z
n
tal y como queramos hacer ver.
Ejercicio 4.5.3 Sea (X
i
)
12
i=1
una m.a. de una poblaci on que sigue una Poisson(), donde =
(1, 1/2]. Si la regi on de rechazo, para contrastar H
0
: = 1/2 frente a H
1
: < 1/2, denimos la
regi on de rechazo
R =
_
(x
i
)
12
i=1
:
x
1
2
_
.
Hallar la potencia del test en = 1/2, = 1/4, = 1/12.
Soluci on. La situacion es la siguiente: (X
i
)
12
i=1
una m.a. X Poisson()
H
0
: = 1/2,
H
1
: < 1/2,
R =
_
(x
i
)
12
i=1
:
12
i
x
1
2
_
.
En = 1/2
R
() = P
(R) = P
=1/2
(R) = P
=1/2
_
12
i
x
1
2
_
= P {Poisson( = 6) 2} =
ya que
12
i
x
1
=
_
1
2
+
12veces
..... +
1
2
_
2 Poisson( = 6) ,
X
i
= e
(e
it
1)
y por lo tanto (mirando las tablas de la Poisson)
= 0,0025 + 0,0149 + 0,0446 = 0,0620 0,06
Si hacemos lo mismo para los otros dos casos obtenemos:
P
=1/4
(R) = ...... = 0,4232,
P
=1/12
(R) = ...... = 0,9197,
tal y como quermos hacer ver.
68 CAP
OTESIS
Ejercicio 4.5.4 En una piscifactora se desea contrastar la hip otesis (H
0
) de que el procentaje de
adultos que miden menos de 20cm es como m aximo el 10 %. Para ello se va a tomar una muestra
de 6 peces y rechazamos H
0
si encontramos m as de un pez con longitud inderior a 20cm.
1. Cu al es el nivel de signicaci on de este contraste?.
2. Calcular la potencia del contraste si en realidad hay un 20 % de peces que miden menos de
20cm.
Soluci on. Modelizamos mediante una Bernoulli(p) i.e. disponemos de una m.a. (X
i
)
6
i=1
donde
X Bernoulli(p)
X =
_
1 si el pez mide < 20cm
0 si el pez mide > 20cm
as que
H
0
: p 0,10,
H
1
: p > 0,10,
R = {Mas de un pez con longitud inferior a 20 cm} = {T > 1} .
el estadstico que estamos usando en este contraste es:
T = n
o
de peces, de entre los 6, que miden de 20cm Bin(n = 6, p = 0,10).
Por lo tanto, el nivel de signicacion de este contraste es:
sup
p0,10
P
p
(R) = P
p=0,10
(R) = P
p=0,10
(T > 1) = P (Bin(n = 6, p = 0,10) > 1) =
= 1 P (Bin(n = 6, p = 0,10) 1) = 1 0,5314 0,3543 = 0,114.
Con respecto a la segunda pregunta, i.e. Calcular la potencia del contraste si en realidad hay un
20 % de peces que miden menos de 20cm. vemos que
P
p=0,20
(T > 1) = P (Bin(n = 6, p = 0,20) > 1) = ... = 0,3447
tal y como queramos hacer ver.
Ejercicio 4.5.5 Para estudiar si una prueba de laboratorio puede resultar demasiado nociva para
la salud, contrastamos la hip otesis H
0
de que la probabilidad de que una persona sometida a esa
prueba resulte afectada sea como m aximo 0, 001. Para ello sometemos a esa prueba a 1000 personas
elegidas al azar y aceptamos H
0
si como m aximo ha habido un afectado.
1. Cu al es el nivel de signicaci on de este contraste?.
2. Si en realidad la prueba afecta a la salud de una persona con probabilidad 0, 003 cu al es la
probabilidad deaceptar H
0
?.
4.5. EJERCICIOS 69
Soluci on. En este ejercicio disponemos de una m.a. (X
i
)
1000
i=1
donde X Bernoulli(p)
X =
_
1 si resulta afectada
0 si no resulta afectada
as que
H
0
: p 0,001,
H
1
: p > 0,001,
R = {Hay como maximo un afectado entre 1000} = {T 1} .
el estadstico que estamos usando en este contraste es:
T = n
o
de afectados entre 1000 Bin(n = 1000, p = 0,001),
al ser n = 1000 y p = 0,001 entonces aproximamos la binomial mediante una Poisson
Bin(n = 1000, p = 0,001) Poisson( = np) .
De esta forma encontramos que el nivel de signicacion de este contraste es:
sup
p0,001
P
p
(R) = P
p=0,001
(R) = P
p=0,001
(T > 1) = P (Bin(n = 1000, p = 0,001)) > 1) =
= 1 P (Poisson( = np = 1)) 1) = 0,2642.
Con respecto a la segunda pregunta, i.e. Si en realidad la prueba afecta a la salud de una persona
con probabilidad 0, 003 cual es la probabilidad de aceptar H
0
?. Vemos que
P (Poisson( = np = 3)) 1) = 0,1992
tal y como queramos hacer ver.
Ejercicio 4.5.6 Sea (X
i
)
n
i=1
una m.a. de una poblaci on con una densidad
f
=
_
e
(x)
x > R
0 resto
Hallar el test de raz on de verosimilitud, de nivel , para contrastar H
0
:
0
frente a H
1
: >
0
.
Soluci on. Tenemos
H
0
:
0
,
H
1
: >
0
,
nivel de signicacion
queremos calcular c
R = {(x
i
)
n
i=1
: (x
1
, ..., x
n
) c}
70 CAP
OTESIS
tal que
= sup
0
P
(R)
de esta forma vemos que
(x
1
, ..., x
n
) =
sup
0
f (x
1
, ..., x
n
)
sup
R
f (x
1
, ..., x
n
)
=
sup
0
L()
sup
R
L()
(4.3)
donde
L() = f
(x
1
, ..., x
n
) =
n
i=1
f
(x
i
) = e
n
e
x
i
, si X
(1)
observamos que x , signica (x
i
)
n
i=1
y por lo tanto X
(1)
, de este modo obtenemos la
siguiente funcion
L() =
_
e
n
e
x
i
X
(1)
0 > X
(1)
y por lo tanto
sup
R
L() = e
nX
(1)
x
i
,
sup
0
L() =
_
e
nX
(1)
x
i
X
(1)
0
e
n
0
x
i
X
(1)
>
0
as que la ecuacion (4.3) queda
_
1 X
(1)
0
e
n
0
x
i
e
nX
(1)
x
i
= e
n
0
nX
(1)
X
(1)
>
0
entonces
R = {(x
i
)
n
i=1
: (x
1
, ..., x
n
) c} =
_
(x
i
)
n
i=1
: X
(1)
> C
0
_
= (4.4)
donde
C
0
: = sup
0
P
(R) = sup
0
e
n(
0
C
0
)
por lo tanto
C
0
=
0
log
n
ya que
P
(R) = P
_
X
(1)
> C
0
_
=
n
i=1
P
(X
i
> C
0
) = (P
(X > C
0
))
n
=
=
__
C
0
f
(x) dx
_
n
=
__
C
0
e
(x)
dx
_
n
= e
n(
0
C
0
)
as que
R =
_
(x
i
)
n
i=1
: X
(1)
>
0
log
n
_
tal y como queramos hacer ver.
4.5. EJERCICIOS 71
Ejercicio 4.5.7 Sea (X
i
)
n
i=1
una m.a. de una poblaci on con una densidad
f
=
_
(1 x)
1
0 x 1, > 0
0 resto
Deseamos contrastar H
0
: = 2 frente a H
1
: = 2, al nivel de signicaci on 0,1. Si n = 60 y
i
(1 x
i
) = 0,0003. Cu al sera la decisi on adoptada utilizando el test de raz on de verosimilitudes
asint oticamente?
Soluci on. En este ejercicio queremos ver
R = R = {(x
i
)
n
i=1
: (x
1
, ..., x
n
) c}
_
(x
1
, ..., x
n
) : 2 log (x
1
, ..., x
n
) >
2
kk
;
=
2
1;0,1
_
en este caso
(x
1
, ..., x
n
) =
sup
0
L()
sup
L()
=
2
n
_
i
(1 x
i
)
_
_
_
n
_
i
(1 x
i
)
_
1
ya que
L() = f
(x
1
, ..., x
n
) =
n
i=1
f
(x
i
) = ()
n
_
i
(1 x
i
)
_
1
,
log L() = nlog () + ( 1) log
_
i
(1 x
i
)
_
d log L()
d
=
n
+ log
_
i
(1 x
i
)
_
= 0 =
=
n
log
_
i
(1 x
i
)
_
vemos que (en la muestra)
=
n
log
_
i
(1 x
i
)
_ =
(60)
ln (0,0003)
= 7,3967
por lo tanto
2 log (x
1
, ..., x
n
) = 2 ln
_
2
60
(0,0003)
(7,3967)
60
(0,0003)
6,3967
_
= 69,39,
2
1;0,1
= 2,706
as que rechazamos H
0
, i.e. el valor = 2 no es aceptable.
72 CAP
OTESIS
Ejercicio 4.5.8 Sea (X
i
)
n
i=1
una m.a. de una poblaci on X con una funci on de densidad
f
=
_
e
x
x > 0
0 x 0
donde > 0. Deseamos contrastar H
0
: 1 frente a H
1
: < 1.
1. Si adoptamos como regi on de rechazo de H
0
R =
_
(x
i
)
n
i=1
: x
(1)
c
_
.
determinar el valor de c, para que el test tenga tama no .
2. Si tomamos como densidad a priori para
() =
_
e
> 0
0 resto
calcular la probabilidad a posteriori de la regi on que constituye la hip otesis nula, cuando la
muestra consta de una sola observaci on.
Soluci on. Tenemos
H
0
: 1,
H
1
: < 1,
nivel de signicacion
queremos calcular c
R = {(x
i
)
n
i=1
: (x
1
, ..., x
n
) c} =
_
(x
i
)
n
i=1
: x
(1)
c
_
tal que
= sup
1
P
(R)
de esta forma vemos que si
P
(R) = P
_
x
(1)
c
_
=
_
P
_
x
(1)
c
__
n
=
__
c
e
x
dx
_
n
= e
nc
entonces
= sup
1
P
(R) = P
=1
(R) = e
nc
, = c =
log
n
.
Con respecto al segundo de los apartados vemos que
() =
_
e
> 0
0 resto
por lo tanto
( | x) f (x | ) () = e
x
e
= e
(x+1)
, > 0
4.5. EJERCICIOS 73
por lo que
( | x) Gamma(p = 2, a = x + 1) =
a
p
(p)
p1
e
a
=
=
(x + 1)
2
(2)
e
(x+1)
= (x + 1)
2
e
(x+1)
, > 0
encontramos as que la probabilidad a posteriori de
0
es:
_
=1
(x + 1)
2
e
(x+1)
d =
_
e
(x+1)
( +x + 1)
_
1
= (x + 2) e
(x+1)
.
tal y como queramos hacer ver.
Ejercicio 4.5.9 Se van a probar dos medicamentos A y B contra una enfermedad. Para esto
tratamos 100 ratones enfermos con A y otros 100 con B. El n umero medio de horas que sobreviven
con A es x = 1200 y para B y = 1400. Suponiendo normalidad en mabos casos se pide:
1. Se puede aceptar igualdad de varianzas si sabemos que
i
(x
i
x)
2
= 900000,
i
(y
i
y)
2
= 950000, ?.
(tomar = 0, 10)
2. Es m as efectivo el medicamento B?. Plantear el contraste adecuado para estudiar esto con
un nivel de conanza del 95 %.
Soluci on. Tenemos
X N(
1
,
2
1
), Y N(
2
,
2
2
)
donde ademas supondremos independencia.
Se puede aceptar igualdad de varianzas? i.e.
H
0
:
1
=
2
,
H
1
:
1
=
2
,
= 0, 10
R =
_
S
2
1
S
2
2
/
_
F
m1;n1;1/2
, F
m1;n1;/2
_
_
donde
S
2
1
S
2
2
=
1
m1
i
(x
i
x)
2
1
n1
i
(y
i
y)
2
=
90
95
0,95,
F
m1;n1;/2
= F
99;99;0,05
F
120;120;0,05
= 1,3519,
F
m1;n1;1/2
= F
99;99;0,95
1
F
120;120;0,05
= 0,74
74 CAP
OTESIS
donde estamos usando los valores mas cercanos y recordamos que
F
m;n;1
=
1
F
m,n,
de esta forma aceptamos H
0
y podemos decir que
1
=
2
.
Con respecto a la segunda cuestion vemos que nos preguntan si
1
<
2
. As que
H
0
:
1
2
,
H
1
:
1
<
2
,
= 0, 05
con
R =
_
X
Y < t
m+n2;1
S
p
_
1
m
+
1
n
_
donde
S
p
=
(m1) S
2
1
+ (n 1) S
2
2
m+n 1
96,66,
t
m+n2;1
= t
198;0,95
t
200;0,95
= t
200;0,05
= 1,65
as que
R = {200 < 22,60}
por lo rechazamos H
0
:
1
2
y aceptamos H
1
i.e. podemos armar que hay suciente evidencia
muestral para asegurar que B es mas efectivo.
Ejercicio 4.5.10 La duraci on media de una m.a. de 10 bombillas es x = 1250 horas, con una
cuasidesviaci on tpica muestral de s
X
= 115. Se cambia el material del lamento por otro nuevo
y entonces de una nueva m.a. de 12 bombillas se obtuvo una duraci on media de y = 1340 con
s
Y
= 106.
1. puede aceptarse que las varianzas, antes y despues del cambio de lamento sean iguales?
2. Ha aumentado la duraci on media de las bombilla?
Soluci on. Se puede aceptar igualdad de varianzas? i.e.
H
0
:
1
=
2
,
H
1
:
1
=
2
,
= 0, 10
R =
_
S
2
1
S
2
2
/
_
F
m1;n1;1/2
, F
m1;n1;/2
_
_
4.5. EJERCICIOS 75
donde
S
2
1
S
2
2
=
1
m1
i
(x
i
x)
2
1
n1
i
(y
i
y)
2
=
13225
11236
= 1,18,
F
m1;n1;/2
= F
9;11;0,05
2,89,
F
m1;n1;1/2
= F
9;11;0,95
1
2,89
0,34
donde estamos usando los valores mas cercanos y recordamos que
F
m;n;1
=
1
F
m,n,
de esta forma aceptamos H
0
y podemos decir que
1
=
2
.
Con respecto a la segunda cuestion vemos que nos preguntan si
1
<
2
. As que
H
0
:
1
2
,
H
1
:
1
<
2
,
= 0, 10
con
R =
_
X
Y < t
m+n2;1
S
p
_
1
m
+
1
n
_
donde
S
p
=
(m1) S
2
1
+ (n 1) S
2
2
m+n 1
110,14,
t
m+n2;1
= t
20;0,10
= 1,325
as que
R = {90 < 62,49}
por lo rechazamos H
0
:
1
2
y aceptamos H
1
i.e. podemos armar que ha aumentado la duracion
media.
Ejercicio 4.5.11 Con objeto de estudiar si las pulsaciones en los hombres (X) pueden considerarse
menores que en las mujeres (Y ) se tomaron muestrasde 16 hombre y mujeres obteniendose los
siguientes resultados (ya resumidos)
16
i=1
x
i
16
i=1
x
2
i
X 1248 97570
Y 1288 103846
Que podemos decir al respecto?
76 CAP
OTESIS
Soluci on. Los datos no estan emparejados y por lo tanto tenemos
X N(
1
,
2
1
), Y N(
2
,
2
2
)
donde ademas supondremos independencia. Vemos que
X =
1
n
x
i
=
1248
16
78,
Y = 80,5
nos preguntamos si esta diferencia a favor de las mujeres es concluyente. podemos armar que
1
<
2
?. As que
H
0
:
1
2
,
H
1
:
1
<
2
,
= 0, 05
pero consideremos una cuestion previa: podemos aceptar
1
=
2
?, i.e.
H
0
:
1
=
2
,
H
1
:
1
=
2
,
= 0, 10
Al ser
1
= 3,7 y
2
= 3,2, podemos concluir que son razonablemente identicas (comprobar todas
estas cuentecillas) i.e.
var(X) =
1
n
_
16
i=1
x
2
i
n
X
2
_
, etc..
por lo tanto al considerar igualdad de varianzas (si esto no fuese as tendramos que utilizar otro
modelo), tenemos
R =
_
X
Y < t
m+n2;1
S
p
_
1
m
+
1
n
_
= {2,5 < 2,16}
y por lo tanto al vericarse la condicion debemos rechazar H
0
y aceptar H
1
i.e. podemos concluir
que
1
<
2
.
Si hubiesemos aceptado H
0
no podramos concluir que
1
2
(no sera coherente con los datos
obtenidos) y por lo tanto diramos que los datos no son concluyentes.
Ejercicio 4.5.12 Se sospecha que en cierta estaci on de servicio nos estafan en la gasolina. Para
comprobarlo se hacen 50 llenados de 30 litros cada uno. Llamando x
i
a cada uno de estos llenados,
los resultados obtenidos son
50
i=1
x
i
= 1475,
50
i=1
x
2
i
= 43550. Se puede considerar estadstica-
mente probado, al nivel 0,01 que nos sirven menos gasolina?.
Soluci on. En este caso la situacion es la siguiente:
H
0
: 30,
H
1
: < 30,
= 0, 01
4.5. EJERCICIOS 77
tenemos
R =
_
X 30 < t
49;0,99
S
50
_
= {0,5 < 0,30}
donde
S
2
=
1
49
_
50
i=1
x
2
i
49X
2
_
= 0,76,
t
49;0,99
= 2, 403
por lo que debemos rechazar H
0
y aceptar H
1
i.e. podemos concluir que
1
< 30 i.e. que NO nos
estafan.
Ejercicio 4.5.13 Un fabricante de lavadoras produce un determinado modelo en dos colores A y B.
De las 1000 primeras lavadoras vendidas 560 fueron de color A. Proporcionan estos datos suciente
evidencia estadstica (al nivel 0,01) para concluir que los consumidores preeren mayoritariamente
el color A?.
Soluci on. Queremos estimar la proporcion de personas que preeren A frente a B, para ello
modelizamos de la siguiente manera
X =
_
1 A
0 B
i.e. una Bernoulli (muestras grande n = 1000). podemos concluir que p > 0,5? entonces haremos
las siguientes hipotesis
H
0
: p 0,50,
H
1
: p > 0,50,
= 0, 01
tenemos
R =
_
X p
0
> Z
_
p
0
(1 p
0
)
n
_
=
_
0,060 > Z
_
0,5 (1 0,5)
1000
_
= {0,06 > 0,037}
donde
Z
= Z
0,01
= 2,33,
X =
1
n
i=1
x
i
=
560
1000
= 0,56
por lo que rechazamos H
0
y aceptar H
1
i.e p > 0,50.
Antes de terminar veamos si el p valor es mayor o menor que 0,01. Sabemos por denicion que
el p valor es:
sup P
H
0
= {obtener un resultado mas desfavorable a H
0
que el obtenido}
78 CAP
OTESIS
i.e. apoyo de los datos a H
0
?.
si p valor < entonces rechazamos H
0
,
si p valor > entonces aceptamos H
0
,
luego un pvalor < rechazar H
0
. Como nosotros hemos rechazado H
0
entonces el pvalor
debe ser menor que = 0,01 (esto nos evita el tener que calcular explcitamente el p valor).
Ejercicio 4.5.14 Una prueba de detecci on de la hepatitis vrica produce un 2 % de falsos positivos
y un 5 % de falsos negativos. Se aplica esta prueba a 800 personas tomadas al azar.
1. Hallar la relaci on entre p =Probabilidad de dar positivo y r =Probabilidad de padecer
hepatitis vrica.
2. En 45 pruebas, de las 800, el resultado es positivo. Se puede considerar estadsticamente
probado que la enfermedad afecta a menos del 8 % de la poblaci on? (tomando = 0,01).
Soluci on. Tenemos la siguiente situacion
P(positivo | sano) = 0,02
P(negativo | enfermo) = 0,05
n = 800
estamos interesados en calcular la proporcion de personas enfermas, r.
La probabilidad de dar positivo sera por lo tanto
p = P(positivo) = P(sano)P(positivo | sano) +P(enfermo)P(positivo | enfermo) =
= (1 r)(0,02) +r(0,95)
luego
p = 0,02 + 0,93r.
Con respecto al segundo apartado modelizaremos de la siguiente manera:
X =
_
1 positivo
0 negativo
i.e. mediante una Bernoulli(p). Cuando podremos concluir que r < 0,08? i.e. cuando podremos
concluir que p < 0,02 + 0,93r = 0,094?, entonces haremos las siguientes hipotesis
H
0
: p 0,094,
H
1
: p < 0,094,
= 0, 01
4.5. EJERCICIOS 79
tenemos
R =
_
X p
0
< Z
1
_
p
0
(1 p
0
)
n
_
por lo tanto podremos concluir que p < 0,094 cuando
_
X (0,094) < Z
1
_
0,094 (1 0,094)
800
_
=
_
X (0,094) > Z
1
_
1,031 8 10
2
__
donde
Z
1
= Z
0,99
= 2,33,
X =
# de positivos
800
as que despejamos
X y obtenemos que
X < 55,92
por lo que podemos concluir que la proporcion de enfermos es menor que 0,08 cuando el n umero
de positivos sea menor que 55.
80 CAP
OTESIS
Captulo 5
Distribuciones.
5.1. Distribuciones discretas
5.1.1. Bernoulli.
1. Funcion generatriz
G
X
(s) = q +ps.
2. Funcion de masa
p
k
= P(X = k) = p
k
q
1k
= p
k
(1 p)
1k
con k = 0, 1.
3. Funcion caracterstica y generatriz de momentos
X
(t) = q +pe
it
, M
X
(t) = q +pe
t
.
4. Esperanza y varianza
E [X] = p, var [X] = pq, =
pq
5. Resumen
p
k
X
(t) M
X
(t) E [X] var [X]
p
k
q
1k
q +pe
it
q +pe
t
p pq
5.1.2. Binomial.
Probabilidad de obtener exactamente k exitos.
1. Funcion generatriz
G
X
(s) =
n
k=0
_
n
k
_
p
k
q
nk
s
k
= (q +ps)
n
.
81
82 CAP
ITULO 5. DISTRIBUCIONES.
2. Funcion de masa
Bin(n, p) =
_
n
k
_
p
k
q
nk
con k = 0, 1, ....
3. Funcion caracterstica y generatriz de momentos
X
(t) =
_
q +pe
it
_
n
, M
X
(t) =
_
q +pe
t
_
n
.
4. Esperanza y varianza
E(X) = np, var(X) = npq, =
npq
5. Resumen
p
k
X
(t) M
X
(t) E [X] var [X]
_
n
k
_
p
k
q
nk
_
q +pe
it
_
n
_
q +pe
t
_
n
np npq
Teorema 5.1.1 Suma de binomiales independientes es otra binomial.
X
i
Bin
_
n
i
, p
_
.
5.1.3. Geometrica.
Tiempo de espera hasta que aparece el suceso X por primera vez.
1. Funcion generatriz
G
X
(s) =
k=1
p
k
q
k1
s
k
=
ps
1 qs
.
2. Funcion de masa
Geo(p) = (1 p)
k1
p con k = 1, ....
3. Funcion caracterstica y generatriz de momentos
X
(t) =
pe
it
1 qe
it
, M
X
(t) =
pe
t
1 qe
t
.
4. Esperanza y varianza
E(X) =
1
p
, var(X) =
q
p
2
, =
_
q
p
2
.
5. Resumen
p
k
X
(t) M
X
(t) E [X] var [X]
(1 p)
k1
p
pe
it
1qe
it
pe
t
1qe
t
1
p
q
p
2
5.1. DISTRIBUCIONES DISCRETAS 83
5.1.4. Binomial negativa.
Si en vez de buscar la probabilidad de k exitos en n ensayos (njo) consideramos la variable X
igual al n umero de fallos antes del exito nesimo entonces encotramos la binomial negativa.
Observaci on 5.1.1 Geometrica es un caso particular de una binomial negativa
Geo BinN (1, p) .
1. Funcion generatriz
G
X
(s) =
_
p
1 qs
_
n
.
2. Funcion de masa
BinN(n, p) =
_
n +k 1
k
_
p
n
q
k
con k = 0, 1, ....
3. Funcion caracterstica y generatriz de momentos
X
(t) =
_
p
1 qe
it
_
n
, M
X
(t) =
_
p
1 qe
t
_
n
.
4. Esperanza y varianza
E(X) =
n
p
, var(X) =
nq
p
2
, =
_
nq
p
2
5. Resumen
p
k
X
(t) M
X
(t) E [X] var [X]
_
n +k 1
k
_
p
n
q
k
_
p
1qe
it
_
n
_
p
1qe
t
_
n
n
p
nq
p
2
5.1.5. Poisson.
1. Funcion generatriz
G
X
(s) = exp((s 1)).
2. Funcion de masa
Poisson() = exp()
k
k!
con k = 0, ....
3. Funcion caracterstica y generatriz de momentos
X
(t) = e
_
e
it
1
_
, M
X
(t) = e
(e
t
1)
.
84 CAP
ITULO 5. DISTRIBUCIONES.
4. Esperanza y varianza
E(X) = , var(X) = , =
i
Observaci on 5.1.2 Binomial Poisson
Bin(n, p) Poiss() / = np 5 y p 0,1.
5.1.6. Hipergeometrica
1. Funcion de masa
f
X
(x) =
_
k
x
__
N k
n x
_
_
N
n
_
2. Esperanza y varianza
E(X) =
kn
N
, var(X) =
N n
N 1
n
k
N
_
1
k
N
_
,
5.2. Variables continuas (v.a.c.).
5.2.1. Uniforme en [a, b].
1. Funcion de distribucion.
F
X
(t) =
_
_
_
0 t < a
t t [a, b]
1 t > b
2. Funcion de densidad.
f
X
(t) =
_
1
ba
t [a, b]
0 t / [a, b]
3. Funcion caracterstica y generatriz de momentos
X
(t) =
e
itb
e
ita
it (b a)
, M
X
(t) =
e
tb
e
ta
t (b a)
.
4. Esperanza y varianza.
E(X) =
1
2
(a +b), var(X) =
1
12
(b a)
2
.
5.2. VARIABLES CONTINUAS (V.A.C.). 85
5.2.2. Gamma.
1. Funcion de densidad (p, a).
f
X
(t) =
_
a
p
(p)
x
p1
e
ax
x > 0
0 resto
donde
(p) =
_
0
x
p1
e
x
dx
2. Funcion caracterstica y generatriz de momentos
X
(t) =
_
1
it
a
_
p
, M
X
(t) =
_
1
t
a
_
p
.
3. Esperanza y varianza.
E(X) =
p
a
, var(X) =
p
a
2
.
5.2.3. Exponencial.
1. Funcion de distribucion.
F
X
(t) =
_
1 exp(t) t > 0
0 t 0
donde > 0.
2. Funcion de densidad.
f
X
(t) =
_
exp(t) t > 0
0 t 0
o f
X
(t) = exp(t)I
(0,)
(x)
vemos que
exp () = (p = 1, ) .
3. Funcion caracterstica y generatriz de momentos
X
(t) =
_
1
it
a
_
1
, M
X
(t) =
_
1
t
a
_
1
.
4. Esperanza y varianza.
E(X) =
1
, var(X) =
1
2
Teorema 5.2.1 Sea X v.a. exponencial, entonces:
P(X > a +t | X > a) = P(A > t),
i.e. X tiene la propiedad de no memoria.
86 CAP
ITULO 5. DISTRIBUCIONES.
Teorema 5.2.2 (X
i
)
n
i=1
exp () v.a.i.i.d., entonces
X
i
(n, ) .
5.2.4. Beta
1. Funcion de densidad.
f
X
(t) =
1
B(p, q)
x
p1
(1 x)
q1
I
(o,1)
(x),
2. Esperanza y varianza.
E(X) =
p
p +q
, var(X) =
pq
(p +q)
2
(p +q + 1)
5.2.5. Normal.
1. Funcion de distribucion.
F
X
(t) =
1
2
_
t
exp
_
1
2
_
x
_
2
_
dx x R
2. Funcion de densidad.
f
X
(t) =
1
2
exp
_
1
2
_
x
_
2
_
x R
3. Funcion caracterstica y generatriz de momentos
X
(t) = e
it
1
2
2
t
2
, M
X
(t) = e
t
1
2
2
t
2
.
4. Esperanza y varianza.
E(X) = , var(X) =
2
Si X N(,
2
), tipicando la variable i.e.
Z =
X
=Z N(0, 1)
Observaci on 5.2.1 Aproximaci on Normal de una binomial. Versi on m as simple del TCL (ver
captulo 7)
Binomial Normal.
Bin(n, p) N(np,
npq)
5.2. VARIABLES CONTINUAS (V.A.C.). 87
Si Bin(n, p) tal que np 5 y nq 5, entonces podemos aproximar dicha binomial mediante una
distribuci on normal.
La probabilidad binomial P(k) puede aproximarse por la probabilidad normal
P(k) P(k 0,5 X k + 0,5)
Teorema 5.2.3 Si {X
i
}
n
i=1
son v.a. independientes tales que X
i
N(
i
,
i
) i = 1, ..., n entonces
i
X
i
N
_
_
i
,
i
_
_
.
Teorema 5.2.4 Si {X
i
}
n
i=1
son v.a. independientes tales que X
i
N(, ) i.e. son v.a.i.i.d., en-
tonces
i
X
i
n
N
_
,
2
n
_
.
5.2.6. Cauchy
1. Funcion de densidad.
f
X
(t) =
1
1
1 +
_
xp
_
2
.
2. Funcion caracterstica
X
(t) = e
itp|t|
.
3. Esperanza y varianza.
E(X) =, var(X) = .
5.2.7.
2
n
. Chi-cuadrado
2
n
. Distribucion Chi-cuadrado con n-grados de libertad. Consideramos (X
1
, ...., X
n
) v.a.i.i.d. que
siguen una N(0, 1). Denimos
2
n
=
n
i=1
X
2
i
. (5.1)
1. Funcion de densidad.
f
X
(t) =
1
2
n/2
_
n
2
_e
1
2
x
x
n
2
1
I
(o,)
(x) x R
viendose que
2
n
=
_
n
2
,
1
2
_
88 CAP
ITULO 5. DISTRIBUCIONES.
2. Funcion caracterstica y generatriz de momentos
X
(t) = (1 2it)
n/2
, M
X
(t) = (1 2t)
n/2
.
3. Esperanza y varianza.
E(X) = n, var(X) = 2n.
5.2.8. t-Student
t-Student, con n-grados de libertad, t
n
.
Denici on 5.2.1 Considermos X N(0, 1) e Y
2
n
de tal forma que (X, Y ) son independientes,
denimos
t
n
=
X
_
Y
n
=
N(0, 1)
_
2
n
/n
(5.2)
El calculo de la funcion de densidad es facil ya que al tratarse de v.a.i. entonces f
XY
= f
X
f
Y
.
1. Funcion de densidad.
f
X
(t) =
1
_
n+1
2
_
_
1
2
_
_
n
2
_
_
1 +
x
2
n
_
n+1
2
, x R
2. Funcion caracterstica y generatriz de momentos
X
(t) = (1 2it)
n/2
, M
X
(t) = (1 2t)
n/2
.
3. Esperanza y varianza.
E(X) = 0, si n > 1, var(X) =
n
n 2
, si n > 2.
4.
t
n;1
= t
n;
5.2. VARIABLES CONTINUAS (V.A.C.). 89
5.2.9. F Fisher-Snedecor
F Fisher-Snedecor. F
m,n
con m y n grados de libertad. Sea X
2
m
, e Y
2
n
v.a.i. entonces
denimos
F
m,n
=
X
m
Y
n
=
Xn
Y m
=
2
m
/m
2
n
/n
. (5.3)
1. Funcion de densidad.
f
X
(t) =
_
m+n
2
_
_
m
2
_
_
n
2
_
_
m
n
_m
2
x
m2
2
_
1 +
m
n
x
_
m+n
2
, x R
2. Esperanza y varianza.
E(X) =
m
m2
, m > 2, var(X) = 2
_
n
n 2
_
2
m+n 2
m(n 4)
, n > 4.
3. Propiedades
a) Si X F
m,n
=
1
X
F
n,m
F
m;n;1
=
1
F
n;m;1
F
m;n;1
=
1
F
m;n;