Sei sulla pagina 1di 7

ESTIMACIN PUNTUAL

1.INTRODUCCIN:ESTIMACIN Y ESTIMADOR

2.PROPIEDADES DE LOS ESTIMADORES

3. MTODOS DE ESTIMACIN .

EJEMPLO 1 , EJEMPLO 2

1.Introduccin :Estimacin y Estimador


En este tema se analizan las formas adecuadas para el establecimiento del conocimiento
numrico o abstracto de un parmetro de una poblacin , y que evidentemente nos es
desconocido , partiendo ,claro est, de la informacin suministrada por la muestra.
LA ESTIMACIN , como proceso, consiste en que dada una poblacin que siga una

distribucin de cierto tipo con funcin de probabilidad (de cuanta o de densidad)


f( X, ) dependiente de un parmetro o varios desconocido(s) " ", aventurar en base
a los datos muestrales el valor que toma o puede tomar el parmetro o parmetros .
UN ESTIMADOR (x) es una funcin de una muestra genrica

x=[x 1,x2 , ,...,x n ], es decir , un estadstico que utilizaremos para estimar el valor del
parmetro . Por tanto es una variable aleatoria y ser necesario para la estimacin
conocer la distribucin muestral del estimador.
UNA ESTIMACION ser el valor concreto que tomar el estimador al aplicar la muestra

concreta obtenida y ser ,por tanto ,la solucin concreta de nuestro problema. (Cuando
no haya lugar para la confusin designaremos al estimador, a veces, como en vez de
(x) )
LA TEORIA DE LA ESTIMACION se ocupar, dentro del marco de la perspectiva clsica,

de estudiar las caractersticas deseables de los estimadores permitindonos escoger


aquel estimador que rena ms propiedades ventajosas para que realicemos buenas
estimaciones .

lejarza & lejarza 1

2.Propiedades de los Estimadores


INSESGADEZ: un estimador es insesgado o centrado cuando verifica que

E( ) = . (Obsrvese que deberamos usar (x) y no , pues hablamos de


estimadores y no de estimaciones pero como no cabe la confusin ,para simplificar ,
aqu , y en lo sucesivo usaremos ) . En caso contrario se dice que el estimador es
sesgado . Se llama sesgo a B E

[se designa con B de BIAS ,sesgo en ingls]


Como ejemplo podemos decir que : la media muestral es un estimador insesgado de la
media de la poblacin (y lo es sea cual fuere la distribucin de la poblacin) ya que:
si el parmetro a estimar es

y establecemos como estimador de

tendremos que
luego la media muestral es un estimador insegado de la media poblacional.
En cambio la varianza muestral es un estimador sesgado de la varianza de la poblacin ,
ya que: si utilizamos como estimador de
la varianza muestral

es decir :

tendremos que
que es el parmetro a estimar .
existe pues un sesgo que ser

Dado que la varianza muestral no es un estimador de la varianza poblacional con


propiedades de insesgadez , conviene establecer uno que si las tenga ; este estimador no
es otro que la cuasivarianza muestral , de ah su importancia ;as
la cuasivarianza es en funcin de la varianza

y tomada como estimador

lejarza & lejarza 2

tendramos que
dado que la esperanza del estimador coincide con el parmetro a estimar podemos decir
que la cuasivarianza muestral es un estimador insesgado de la varianza de la poblacin.
No obstante , y dado que ,cuando el tamao de la muestra tiende a infinito el sesgo
tiende a cero, se dice que el estimador es asintticamente insesgado o asintticamente
centrado: podemos establecer que :

Por tanto la varianza muestral es un estimador sesgado pero asintticamente


insesgado de la varianza de la poblacin.

CONSISTENCIA . Un estimador es consistente si converge en probabilidad al parmetro

a estimar . Esto es:

si
LINEALIDAD. Un estimador es lineal si se obtiene por combinacin lineal de los

elementos de la muestra ; as tendramos que un estimador lineal sera :

EFICIENCIA. Un estimador es eficiente u ptimo cuando posee varianza mnima o bien

en trminos relativos cuando presenta menor varianza que otro . Quedando claro que el
hecho puede plantearse tambin en trminos ms coherentes de Error Cuadrtico Medio
(ECM). Tendramos que :
ECM(

)=

por lo expresado podemos aventurar que un estimador insegado , luego

es el nico capaz de generar eficiencia.

lejarza & lejarza 3

SUFICIENCIA . Un estimador es suficiente cuando

no depende del parmetro a estimar .


En trminos ms simples : cuando se aprovecha toda la informacin muestral.

3. Mtodos de Estimacin
MTODO POR ANALOGA. Consiste en aplicar la misma expresin formal del parmetro

poblacional a la muestra , generalmente , estos estimadores son de cmoda operatividad


, pero en ocasiones presentan sesgos y no resultan eficientes . Son recomendables , para
muestras de tamao grande al cumplir por ello propiedades asintticas de consistencia.
METODO DE LOS MOMENTOS. Consiste en tomar como estimadores de los momentos

de la poblacin a los momentos de la muestra . Podramos decir que es un caso


particular del mtodo de analoga. En trminos operativos consiste en resolver el
sistema de equivalencias entre unos adecuados momentos empricos (muestrales) y
tericos(poblacionales).
Ejemplo :
conocemos que la media poblacional de una determinada variable x depende de un
parmetro K que es el que realmente queremos conocer (estimar). As
por el mtodo de los
momentos tendramos que
de donde
ESTIMADORES MAXIMO-VEROSIMILES. La verosimilitud consiste en otorgar a un

estimador/estimacin una determinada "credibilidad" una mayor apariencia de ser el


cierto valor(estimacin) o el cierto camino para conseguirlo(estimador).
En trminos probabilsticos podramos hablar de que la verosimilitud es la probabilidad
de que ocurra o se d una determinada muestra si es cierta la estimacin que hemos
efectuado o el estimador que hemos planteado.
Evidentemente , la mxima verosimilitud , ser aquel estimador o estimacin que nos
arroja mayor credibilidad .En situacin formal tendramos :
Un estimador mximo-verosmil es el que se obtiene maximizando la funcin de
verosimilitud (likelihood) de la muestra

Que es la funcin de probabilidad (densidad o cuanta) que asigna la probabilidad de


que se obtenga una muestra dependiendo del (o de los) parmetro(s) " " pero
considerada como funcin de . Si la distribucin de la poblacin es tal que su

lejarza & lejarza 4

densidad depende de uno o ms parmetros , la probabilidad (densidad) de


cada realizacin muestral xi
(con i=1,2,..,n) ser:
y, a partir de aqu podremos obtener la funcin de
verosimilitud de la muestra

Si el muestreo es simple:

por ser independientes cada una de las realizaciones muestrales.


El estimador que maximice
ser el estimador mximo-verosmil (E.M.V.) Y ser aquel valor/expresin para
el que se verifique la derivada :

Si lo planteado fuera EMV de varios parmetros


las expresiones seran. .

Debido a que la funcin de verosimilitud es a fin de cuentas una funcin de


probabilidad ,ser una funcin definida no negativa y por lo tanto alcanzar su mximo
en los mismos puntos que su logaritmo . Por esta razn suele maximizarse

en lugar de la propia funcin de verosimilitud . Suele hacerse esto en todos aquellos


casos en los que la funcin de verosimilitud depende de funciones exponenciales.

lejarza & lejarza 5

ejemplo 1
Obtener el E.M.V. del parmetro de una distribucin de Poisson
Para una muestra de tamao n tendremos que la funcin de de verosimilitud
ser:

maximizar L ser equivalente a maximizar el numerador de L


si llamamos L' a dicho numerador y tomamos logaritmos tendremos que es

tomando logaritmos
maximizando dicho logaritmo :

luego el
estimador mximo verosmil de

ejemplo 2
En una poblacin normal estimar por el mtodo de mxima verosimilitud los
parmetros

la funcin de verosimilitud ser:

lejarza & lejarza 6

maximizar L es equivalente a maximizar ln L .

Maximizando :

=0
despejando : de la primera :

de la segunda :

el estimador (MV) de la media poblacional ser la media de la poblacin mientras que


el de la varianza poblacional corresponder a su homnima muestral . Ambos
estimadores renen casi-todas las propiedades salvo en el caso de la varianza muestral
que es asintticamente insesgada.

lejarza & lejarza 7

Potrebbero piacerti anche