Sei sulla pagina 1di 7

ESTIMACIN PUNTUAL

Hugo Alvarado - Lidia Retamal



La estadstica es una disciplina que se preocupa de desarrollar tcnicas y modelos que
permitan estudiar la forma como la incertidumbre de un fenmeno es alterada por informacin
disponible.
El anlisis de la informacin disponible en el contexto de un modelo estadstico, para inferir
aspectos relacionados con la incertidumbre de un fenmeno corresponde a lo que se denomina
Inferencia Estadstica.
La Inferencia Estadstica puede dividirse en dos grandes reas : Estimacin de Parmetros y
Pruebas de hiptesis.

En muchos problemas estadsticos, es necesario utilizar una muestra de observaciones
tomadas de la poblacin de inters con objeto de obtener conclusiones sobre ella. A
continuacin se presenta una definicin formal de algunos trminos.

Una Poblacin est formada por la totalidad de las observaciones de las cuales se tiene cierto
inters.
Una Muestra es un subconjunto de observaciones seleccionadas de una poblacin.
Una Muestra Aleatoria (m.a.) de una poblacin X es un conjunto de variables
aleatorias
n
X X X ,......., ,
2 1
independientes e idnticamente distribuidas cada una con la distribucin
de X. La funcin de probabilidad conjunta de las observaciones muestrales es

n
i
i X n
x f x x x f
1
2 1
) ( ) ,...., , (
=
=

El proceso de muestreo permite obtener informacin acerca de los parmetros de la distribucin
de la poblacin. Generalmente, se sabe el tipo de distribucin que tiene la poblacin, pero se
desconocen los parmetros.
Un Estadstico es una funcin de los valores de la muestra que no depende del parmetro de
la poblacin. Si
n
X X X ,......., ,
2 1
es una muestra aleatoria de tamao n, entonces la media de
la muestra
n
X
X
n
i
i
=
=
1
, la varianza de la muestra
( )
1
1
2
2

=
n
x x
S
n
i
i
, y la desviacin estndar
muestral S, son estadsticas.
Un estadstico es una variable aleatoria, sta tiene una distribucin de probabilidad.



A. ESTIMACIN PUNTUAL DE PARMETROS

El objeto de muestrear una poblacin es tener estimaciones de los parmetros poblacionales
mediante las observaciones obtenidas en una muestra aleatoria .
Un Estimador Puntual es un estadstico cuyos valores son utilizados como valores estimados
de un parmetro. El valor de un estimador puntual recibe el nombre de estimacin.
Si en una distribucin se conoce su distribucin , pero se ignora los valores que toma el
parmetro , el problema estadstico consiste en estimar dicho valor a travs de la informacin
entregada por una muestra.
Llamaremos Estimador de un parmetro a cualquier estadstico o funcin de la muestra
aleatoria que nos permite hacer conjeturas acerca del verdadero valor que es desconocido.
Por ejemplo, a menudo es necesario estimar:
1) La media de una poblacin
2) La varianza
2
de una poblacin
3) La proporcin p de objetos de una poblacin que pertenecen a cierta clase de inters
4) La diferencia entre medias de dos poblaciones,
2 1

5) La diferencia entre proporciones de dos poblaciones,
2 1
p p

Observacin :
a) Un estimador

de un parmetro es una variable aleatoria porque depende de los datos


muestrales: , ,
2
S x ...., etc.
b) As un estimador tiene una esperanza y una varianza |
.
|

\
|

E y |
.
|

\
|

J .


2
Propiedades de los Estimadores Puntuales

1. Insesgamiento: Un estimador es insesgado si el valor medio de todas sus estimaciones
obtenidas en una muestra de tamao n, es igual al parmetro que estima. Entonces

es un
estimador insesgado si = |
.
|

\
|

E . De lo contrario se dice que es sesgado.

EjempIo : Seo

p eI esfimodor de Io proporcion p de eIemenfos de uno pobIocion que fiene cierfo


ofribufo. Se define
n
X
p
n
i
i

=
1
donde

=
interes de atributo el posee no elemento el si 0
interes de atributo el posee elemento el si 1
i
X
PesuIfo que : i)

p es esfimodor insesgodo de p.
ii) Io vorion;o de

p es
n
p p ) 1 (

2. El sesgo B de un estimador puntual

est dado por B = |


.
|

\
|

E
3. Consistencia: La consistencia de un estimador est relacionada con su proximidad al
parmetro que estima cuando el tamao de la muestra que se utiliza tiende a ser infinita.

Definicin : Un estimador de

de un parmetro es consistente si 1 lim =


|
|
.
|

\
|


P
n

Por razones prcticas se utiliza el siguiente teorema para verificar la consistencia de un
estimador.
Teorema : Si para un estimador

de un parmetro se cumplen las siguientes condiciones:


i) 0 ) ( lim = |
.
|

\
|


E
n

ii) 0 V lim = |
.
|

\
|

n

Entonces,

es un estimador consistente.

EgempIo : De uno pobIocion con medio E(x) ~

y vorion;o V(X) ~
2
, se exfroe uno muesfro
oIeoforio
n
X X X ,......., ,
2 1
. Pruebe que X es un esfimodor consisfenfe de .
En efecfo : E( X ) ~

y V( X ) ~
n
2

.
Luego, ( ) 0 - ) X E( lim =

n
y ( ) 0 X V lim =
n
.
Por fonfo, X es un esfimodor consisfenfe de .

Tureu : Pruebe que
2
S es un esfimodor consisfenfe de
2
.

Teorema : Si

1
es un estimador consistente del parmetro
1
y

2
es un estimador
consistente del parmetro
2
. Se cumple :

a)

1
+

2
es un estimador consistente del parmetro
1
+
2
.
b)

2
es un estimador consistente del parmetro
1

2
.
c)

1
/

2
es un estimador consistente del parmetro
1 /

2
.


4. Estimadores de Mnima Varianza
Si se consideran todos los estimadores insesgados de , el que tiene la menor varianza
recibe el nombre de estimador insesgado de varianza mnima (EIVM). Este estimador es
llamado el mejor de todos los estimadores.

EgempIo: Supongo que de uno pobIocion con E(X) ~ y V(X) ~
2
se obfiene uno muesfro de fomoo
3. Decido cuoI de Ios siguienfes esfimodores es mejor.

I
~
3 2 1
4
1
2
1
4
1
X X X + + y

Z
~ X
E(

I
) ~ ) (
4
1
) (
2
1
) (
4
1
3 2 1
X E X E X E + + ~ |
.
|

\
|
+ +
4
1
2
1
4
1
~ y E (

Z
) ~ E ( X ) ~


3
Los dos esfimodores son insesgodos, veomos ohoro su vorion;o
V(

I
) ~ ) (
16
1
) (
4
1
) (
16
1
3 2 1
X J X J X J + + ~
2
8
3
y V (

Z
) ~
2
3
1

Por Io fonfo,

Z
es eI mejor.


5. Error Cuadrtico Medio
Definicin : El error cuadrtico medio (ECM) es el valor esperado de la desviacin cuadrtica
entre el estimador y el parmetro que estima ECM =
2
) (

E , desarrollando la expresin, se
obtiene:
2
) (

E =
2
) ( ) (
(
(
(

|
.
|

\
|
+
|
|
|
.
|

\
|


E E E = ) (

J + ) (
2
B
Esto es, el error cuadrtico medio de

es igual a la varianza del estimador ms el cuadrado


del sesgo. Si

es un estimador insesgado de , el error cuadrtico medio de

es igual a la
varianza de

.
El error cuadrtico medio es un criterio importante para comparar dos estimadores.
De acuerdo a valores que pueda tomar el parmetro, es posible que un estimador sesgado sea
mejor que uno insesgado.

EjempIo : Supongo que

I
y

Z
son dos esfimodores deI poromefro . Se sobe que
E(

I
) ~ , V(

I
) ~ 3 , E(

Z
) ~ 0.9 y V(

Z
) ~ Z, comporondo Ios errores cuodroficos medios se
fiene que

Z
es eI mejor

I.


6. Suficiencia

Dada una poblacin distribuida f(X, ) que depende de un solo parmetro , se extrae una
muestra aleatoria
n
X X X ,......., ,
2 1
y un estadstico

= g(
n
X X X ,......., ,
2 1
) es utilizada para estimar
. Dado que

es una sola variable aleatoria disponemos de n v. a., cabe preguntarse si se perdi alguna
informacin al usar

. si

= X
1
por ejemplo, es evidente que no fue usada toda la informacin.

Un estadstico

que contempla toda la informacin respecto al parmetro que est en la


muestra, recibe el nombre de Estadstico Suficiente.
Ningn otro estimador definido con la misma muestra puede suministrar informacin adicional
respecto a . Para determinar cuando un estadstico es suficiente se har uso del siguiente
teorema.


Teorema : Sea
n
X X X ,......., ,
2 1
una muestra aleatoria sacada de una poblacin f(X, ) si

n
i
i X n
x f x x x f
1
2 1
) ( ) ,...., , (
=
= y ) ( ) , ( ) , ( X h g X f =

, en donde ) (X h no depende , entonces


es un estadstico suficiente para .

EjempIo: Consideremos uno m. o.
n
X X X ,......., ,
2 1
de uno pobIocion , enfonces
( )
( )

=
n
i
i
X n
e X f
1
2
2
1
2 2 ) , (


Como
2
1
) (
=

n
i
i
X ~ ( ) ( )
2
1
2
+
=
X n X X
n
i
i
{ Verifique|||}
As, X f ( , ) ~ ( )
( )
2
2
1
2
) (
2
2 /
01
2

n
i
i
x X
x
n
n
e e

.

Luego, X es un esfodsfico suficienfe poro






4
Un estadstico suficiente que resume los datos tanto como sea posible, es llamado Estadstico
Suficiente Minimal . Para encontrar estos estadsticos suficientes minimales usaremos el
mtodo de Lehmann y Scheffe:

Sean
n
X X X ,......., ,
2 1
e
n
Y Y Y ,......., ,
2 1
dos conjuntos de valores que toman las variables
n
X X X ,......., ,
2 1
de la m. a. Si se forma la razn


) , ( ....... ) , ( ) , (
) , ( ....... ) , ( ) , (
2 1
2 1


n
n
Y f Y f Y f
X f X f X f




si esta razn no incluir al parmetro , si existe una funcin g tal que ) ,......., , (
2 1 n
X X X g =
) ,......., , (
2 1 n
Y Y Y g , en tal caso ) ,......., , (
2 1 n
X X X g es el estadstico suficiente minimal para .

EjempIo : Seo ) ( p B X , se formo Io ro;on
n n
n n
v v v v
x x x x
q p q p
q p q p




1 1
1 1
.......
.......
1 1
1 1
~

i i
v x
p
p
)
1
( .
Si =
i i
Y X Io ro;on es independienfe de p. Luego, = ) ( X g
=
n
i
i
X
1
es un esfodsfico suficienfe
mnimal de p, o sea ,

p =
n
X
n
i
i

=1
es estimador que contiene toda la informacin de la muestra
con un mnimo de informacin. Este es por tanto, un estimador insesgado lineal de mnima
varianza (EIMV).


7. Eficiencia
En el estudio de la consistencia de un estimador se percibe que mientras menor es la varianza
de un estimador incrementa la probabilidad de obtener estimaciones ms prximas al verdadero
valor del parmetro que se estima. Luego, mientras ms pequea es su varianza, mayor es la
eficiencia del estimador.

Definicin: Un estimador insesgado

es el ms eficiente de todos los estimadores insesgados


si su varianza satisface la Cota Inferior de la Desigualdad de Cramer Rao.


2
) , ( ln
1
) (
)
`

x f
nE
J

Si

no es un estimador insesgado de , se puede probar que la cota de Cramer-Rao est


dada por


2
2
) , ( ln
)) ( ' 1 (
) (
)
`

x f
nE
B
J =
) (
) ( 1
2

I
B
|
.
|

\
|
+



La cantidad ) ( I representa la cantidad de informacin conocida como informacin de Fisher.
De aqu, que la CCR se conoce con el nombre de Desigualdad de Informacin.

EgempIo: Si X es evoIuodo con voIores de uno m. o.
n
X X X ,......., ,
2 1
socodo de uno disfribucion normoI
con vorion;o
2
0
conocido, demuesfre que X es eI esfimodor mos eficienfe poro esfimor Io medio .


8. Eficiencia Relativa
Si hay dos estimadores

1
y

2
insesgados, para el mismo parmetro , el estimador

2
es
ms eficiente que

1
si V(

2
) < V(

1
).

Definicin: la eficiencia relativa de

2
respecto a

1
se obtiene formando el cuociente de las
varianzas E = V(

2
) / V(

1
) . Si E < 1,

2
es ms eficiente que

1
.
5

Ejercicio1 : Sea la variable aleatoria Y con distribucin binomial de parmetros n y p.
Considere los siguientes estimadores: n Y p /
1
=

y ( ) ( ) 2 / 1
2
+ + = n Y p


a) Verifique que
1
p

es un estimador insesgado de p .
b) Obtenga el sesgo de
2
p

.
c) Obtenga ( )
1
p ECM

y ( )
2
p ECM

.
d) Es
1
p

un estimador eficiente del parmetro p ?. Justifique estadsticamente.



Ejercicio2: Suponga que

1
y

2
son estimadores del parmetro . Se sabe que =
|
.
|

\
|

1 E
y =
|
.
|

\
|

2 E
2

. 10 1 =
|
.
|

\
|

J , 4 2 =
|
.
|

\
|

J . Qu estimador es mejor?. En qu sentido lo es?.



B. Mtodos de Estimacin

Los mtodos para determinar estimadores de parmetros son : Mtodo de Mxima Verosimilitud
y Mtodos de los Momentos. Uno de los mejores mtodos para obtener un estimador puntual
de un parmetro es el mtodo de mxima verosimilitud.


I. Mtodo de Mxima Verosimilitud (EMV)
Consideremos una voriobIe oIeoforio X con distribucin de forma conocida f que depende de un
parmetro desconocido. Si una m. a. de n observaciones
n
X X X ,......., ,
2 1
es tomada, se
define la funcin de verosimilitud de dicha muestra

) ; ,...., , (
2 1

n
X X X L

n
i
i X
x f
1
) ; (
=
=

A la funcin de probabilidad conjunta, si X es discreta o funcin de densidad conjunta si X es
continua que resulta para un determinado valor de . Para cada valor de , la funcin de
Verosimilitud de la muestra sera distinta.

Definicin: El EMV de , denotado por

, basado en una muestra aleatoria (


n
X X X ,......., ,
2 1
)
es aquel que hace mxima a la funcin de verosimilitud.

Observacin:
1. Para simplificar el clculo del mximo de la funcin de verosimilitud aplicamos logaritmo
natural a la funcin ) ; ( X L , lo que es posible dado que la funcin logaritmo es una funcin
creciente y por tanto, el mximo valor de ) ; ( X L se obtiene para el mismo valor que la funcin
logaritmo natural.
2. Si la distribucin depende de un parmetro entonces ) , ( ln

X l
d
d
= 0 se llama
Ecuacin de Verosimilitud. Si la distribucin depende de dos parmetros = ( ) , entonces
se forma un sistema de ecuaciones de verosimilitud.


Ejemplo : Sea X una poblacin distribuida Poisson de parmetro . Determinar el EMV de
sacado de una muestra aleatoria
n
X X X ,...., ,
2 1
extrada de la poblacin.
Solucin :
i
X ) ( P
!
) (
i
x
i
x
e
X p
i


= con x = 0,1,2,....
La funcin de verosimilitud es


=
!
) , (
i
n x
x
e
X L
i


Aplicando logaritmo natural ln ) , ( X L =
=
+
n
i
i i
x x n
1
! ln ln
Derivando con respecto a , se tiene que x =

.





6
Propiedades de los EMV.

1.Insesgamiento: Los EMV pueden ser sesgados, pero al incrementar el tamao de la muestra
n se hace asintticamente insesgados. Por ejemplo: El estimador de la varianza obtenida en
una muestra n de una poblacin normal es
( )
2
2
1
S
n
n
=

.

2. Consistencia : Bajo ciertas condiciones los EMV son consistentes.

3. Invarianza: Esto significa que si existe una funcin de un parmetro, se obtiene un estimador
de la funcin sustituyendo el parmetro por su EMV.
La funcin ) ( g es estimada por ) ( ) (

= g g .

4. Distribucin Asinttica Normal : La varianza asinttica de un estimador es la cota inferior
de Cramer-Rao.
2
) , ( ln
1
) (
)
`

x f
nE
J .
As, un EMV

tiene una distribucin normal con parmetros


0
y ( J

), siendo
0
el verdadero
valor del parmetro .

Ejercicio 3: Sea
n
X X X .., ,......... ,
2 1
una muestra aleatoria que proviene de una distribucion Gamma
( ) , 3 = donde 0 ; > >
|
|
.
|

\
|
=

y x e x x f
x
0
2
1
2
3
) ( .
a) Obtenga la estimacion de maxima verosimilitud de .
b) Es

un estimador insesgado de ?. JustiIique su respuesta.


c) Pruebe que el estimador maximo verosimil encontrado es un estimador eIiciente.
d) Para n 30 y
2
7
. Calcule la probabilidad aproximada de P( 12 > x )


II. Mtodos de los Momentos

Es una tcnica simple y muy antigua para obtener los estimadores de los parmetros de una
distribucin. Esta basado en el hecho de que si dos distribuciones tiene cierto nmero de
momentos iguales sern muy parecidos, De hecho si los momentos de todos los rdenes son
iguales, las distribuciones sern idnticas.
Si la distribucin de una variable depende de k parmetros, este mtodo permite obtener los
estimadores de dichos parmetros igualando los k primeros momentos muestrales con los k
primeros momentos poblacionales.
El k-simo momento muestral respecto al origen se define
=
=
n
i
k
i
k
n
X
m
1

Segn si la variable es discreta o continua, el k-simo momento poblacional respecto al origen
es ) (
k
k
X E = .
EjempIo: Lo fdp. De uno pobIocion es


=
. . . 0
0
2
) (
2
c o e
x
x
x f


8osondose en uno muesfro oIeoforio de fomoo n , demuesfre que eI esfimodor por eI mefodo de Ios
momenfos de es x
2
3
=

.














7
Ejercicios Propuestos de Estimacin Puntual

1. Sea
n
X X X ,......., ,
2 1
una muestra aleatoria de la variable aleatoria distribuida Poisson de
parmetro desconocido. Considere los siguientes estimadores :
1

=
n
X
n
i
i

=1
y 2

=
+ =
n
i
i
X i
n n 1 ) 1 (
2
Ind.:
2
) 1 (
1
+
=
=
n n
i
n
i

a) Demuestre que 1

y 2

son estimadores insesgados de .


b) Es 1

un estimador consistente de ?. Justifique su respuesta.


c) Demuestre que
=
n
i
i
X
1
es suficiente para .
d) Determine el estimador mximo verosmil para
2
e .
e) Encuentre la distribucin aproximada para 1

.
f) Obtenga el estimador mediante el mtodo de los momentos de .


2. Suponga que
3 2 1
, , X X X forman una muestra aleatoria de una distribucin exponencial con la
funcin densidad 0 ;
1
) ; (

> =

x e x f
x


Considerando los estimadores
1 1
`
X =
3
2
`
2 1
2
X X +
=
a) Pruebe que los estimadores
1
`
y
2
`
son insesgados de .
b) Cul tiene la menor varianza?.
c) Calcular la eficiencia relativa de
1
`
con respecto a
2
`

d) Obtener el estadstico suficiente minimal para .

3. Sea X
1
, ...., X
n
una muestra aleatoria de una poblacin con media y varianza
2
.
Considere los tres estimadores siguientes para :

1
=
2
2 1
X X +
;

2
=
4
) 2 ( 2
.....
4
1 2 1 n n
X
n
X X X
+

+ +
+

;

3
= X
a) Demuestre que cada uno de los tres estimadores es insesgado.
b) Determine la eficiencia relativa de

3
con respecto a

2
y

1
, respectivamente.


4. Sea
n
X X X ,... ,
2 1
una muestra aleatoria con funcin densidad de probabilidad
f(x) =

> < <


. . . 0
0 ; 1 0 X
1 -
c o e
x


a) Demuestre que X es un estimador consistente de
1 +

.
b) Obtenga el estadstico mnima suficiencia para .
c) Obtenga un estimador para por el mtodo de los momentos.
d) Obtenga el estimador de mxima verosimilitud para . Compare su respuesta con el
estimador mediante momentos encontrado en parte c).


5. Sea X X X
n 1 2
, ,... una muestra aleatoria de una distribucin Rayleigh con parmetro ,
dada por f(x) =

> |
.
|

\
|

. . . 0
0
2
/
2
c o e
x e
x
x

.
a) Demuestre que
=
n
i
i
X
1
2
es suficiente para .
b) Utilice
=
n
i
i
X
1
2
para encontrar un estimador insesgado de mnima varianza de .
c)
Determinar el estimador mximo verosmil de
y por el mtodo de los momentos.