Sei sulla pagina 1di 56

ESTIMACIÓN ESTADÍSTICA

Profesor: Eduardo Villa M.


Introducción a la Inferencia
Estadística
PROBLEMA:
En muchos casos no será posible determinar el
valor de un parámetro poblacional analizando
todos los valores poblacionales, pues el proceso
a seguir para determinar el valor del parámetro
puede ser destructivo, o nos puede costar
mucho tiempo o mucho dinero el analizar cada
unidad poblacional.
Introducción a la Inferencia
Estadística
PROBLEMA:
En estas situaciones, la única salida que
tenemos es utilizar la inferencia estadística para
obtener información sobre los valores de los
parámetros poblacionales, basándonos en la
información contenida en una muestra aleatoria
Introducción a la Inferencia
Estadística
Parámetros poblacionales importantes:
• La renta media de todas las familias de Lima
Metropolitana.
• El tiempo medio de espera en el supermercado
Metro.
• La desviación estándar del error de medida de
un instrumento electrónico.
• La proporción de familias que poseen TV a color.
• La proporción de automóviles que se averían
durante el primer año de garantía.
Introducción a la Inferencia
Estadística
• Objetivo Básico: Hacer inferencias o sacar
conclusiones sobre la población a partir de la
información contenida en una muestra aleatoria
de la población.
• Específicamente: Consiste en un proceso de
selección y utilización de un estadístico muestral,
mediante el cual, utilizando la información que
nos proporciona una muestra aleatoria, nos
permite sacar conclusiones sobre características
poblacionales.
Introducción a la Inferencia
Estadística
Población Espacio Muestral Rn
F(x; θ ) (X1,X2,…..,Xn)
Muestreo

Parámetro n
θ (x1,x2,…..,xn)
෡ =(x1,x2,…,xn)
𝜽
Introducción a la Inferencia
Estadística
Población Espacio Muestral Rn
F(x;σ2) (X1,X2,…..,Xn)
Muestreo

Parámetro n
σ2 (x1,x2,……,xn)
𝟏
ෝ 2=s2 =
𝝈 σ𝒏𝒊=𝟏(𝒙𝒊 ഥ)2
−𝒙
𝒏−𝟏

Estimador
Introducción a la Inferencia
Estadística
• Cualquier inferencia o conclusión obtenida de
la población, necesariamente estará basada
en un estadístico muestral, es decir, en la
información proporcionada por la muestra.
• El valor verdadero del parámetro será
desconocido y un objetivo será estimar su
valor, por lo que tal estadístico se denomina
estimador.
Introducción a la Inferencia
Estadística
Las inferencias sobre el valor de un parámetro
poblacional θ se pueden obtener básicamente
de dos maneras:
1. Por estimación
– Estimación puntual
– Estimación por intervalos
2. Por contrastación de hipótesis
ESTIMACIÓN PUNTUAL
Definición: Consiste en obtener un único
número, calculado a partir de las observaciones
muestrales y que es utilizado como estimación
del valor del parámetro θ.
Se le llama estimación puntual porque a ese
número, que se utiliza como estimación del
parámetro θ, se le puede asignar un punto
sobre la recta real.
ESTIMACIÓN PUNTUAL

Población Espacio Muestral Rn


F(x;σ2) (X1,X2,…..,Xn)
Muestreo

Parámetro n
θ (x1,x2,….,xn)
෡ =g(x1,x2,…,xn)
𝜽

Inferencia
Estimación Puntual
ESTIMACIÓN PUNTUAL
• ESTIMADOR

෡ = g(X1,X2,……Xn)
𝜽

• ESTIMACIÓN

෡ = g(x1,x2,…,xn)
𝜽
Parámetros poblacionales,
estimadores y estimaciones
Parámetro poblacional Estimador Estimación

Media μ σ𝑛𝑖=1 𝑋𝑖 σ𝑛𝑖=1 𝑥𝑖


𝜇Ƹ = 𝑋ത = 𝑥ҧ =
𝑛 𝑛

𝑛 ത 𝑛
Varianza 𝜎 2 2 2
σ𝑖=1 𝑋𝑖 − 𝑋
2 σ𝑖=1 𝑥𝑖 − 𝑥ҧ
2
𝜎ො = 𝑆 = 𝑠2 =
𝑛−1 𝑛−1

Proporción P 𝑋 𝑁º 𝑑𝑒 é𝑥𝑖𝑡𝑜𝑠 𝑥
𝑝Ƹ = 𝑝𝑋 = 𝑛=𝑁º 𝑑𝑒 𝑝𝑟𝑢𝑒𝑏𝑎𝑠 𝑝Ƹ = 𝑝𝑥 =
𝑛
Ejemplo
Las ventas de una muestra aleatoria de 10
grandes establecimientos comerciales de Lima,
el día 2 de enero de 2013 fueron
respectivamente : 16, 10, 8, 12, 4, 6, 5, 4, 10, 5
miles de nuevos soles. Obtener estimaciones
puntuales de la venta media, de la varianza de
las ventas de todos los establecimientos
comerciales y de la proporción de éstos cuyas
ventas fueron superiores a 5 mil nuevos soles.
Solución
• Estimación puntual de la media poblacional:
σ10
𝑖=1 𝑥𝑖 80
𝜇Ƹ = 𝑥ҧ = = =8
10 10
• Estimación puntual de la varianza poblacional:
σ10 𝑥 −𝑥ҧ 2 σ10 2
𝑖=1 𝑥 −10𝑥ҧ
2
𝜎ො 2 = 𝑠 2 = 𝑖=1 𝑖
=
10−1 9
1
= 782 − 10. 82 = 15,8
9
• Estimación puntual de la proporción poblacional:
𝑥 6
𝑝Ƹ = 𝑝𝑥 = = = 0,6
𝑛 10
ERROR CUADRÁTICO MEDIO

Definición: ECM 𝜽
𝟐
෡ =𝑽𝒂𝒓 𝜽
𝑬𝑪𝑴 𝜽 ෡ + 𝒔𝒆𝒔𝒈𝒐 𝜽

Donde:
2
𝑉𝑎𝑟 𝜃መ =𝐸 𝜃መ 2 − 𝐸 𝜃መ
2 2
𝑠𝑒𝑠𝑔𝑜 𝜃መ = 𝐸 𝜃መ − 𝜃
Ejemplo
Sea 𝑋1 , 𝑋2 , 𝑋3 , una muestra aleatoria simple de
tamaño 3, cuyos valores son siempre positivos y
procedentes de una población con media 𝜇 y
varianza 𝜎 2 = 25 . Consideremos como posibles
estimadores de 𝜇 los estadísticos:
1
𝜇ො1 = 𝑋1 + 2𝑋2 + 𝑋3
4
1
𝜇ො2 = 𝑋1 + 2𝑋2 + 𝑋3
5
Obtener los errores cuadráticos medios de 𝜇ො1 y
𝜇ො2 y comparar sus valores para diferentes valores
del parámetro poblacional 𝜇
Propiedades de los estimadores
puntuales
1. Insesgadez
2. Eficiencia
3. Consistencia
4. Suficiencia
5. Invarianza
6. Robustez
1. INSESGADEZ
෡ = g(X1,X2,……Xn)
Definición: El estadístico 𝜽
es un estimador insesgado o centrado del
parámetro si:
෡ =𝜽
E(𝜽)
para todos los valores de 𝜽, y entonces:

෡ = b(𝜽
sesgo(𝜽) ෡ ) = E(𝜽)
෡ -𝜽=0
1. INSESGADEZ

෡ ) = E(𝜽)
Casos: b(𝜽 ෡ -𝜽

෡ ) > 0: 𝜽
1. Si b(𝜽 ෡ sobreestima el valor de 𝜽
෡ ) < 0: 𝜽
2. Si b(𝜽 ෡ subestima el valor de 𝜽
෡ ) = 0: 𝜽
3. Si b(𝜽 ෡ es estimador i nsesgado de 𝜽
Ejemplo
Demostrar que los estadísticos:
1 𝑛
1. 𝑆 = 𝑛 σ𝑖=1 𝑋𝑖 − 𝑋ത 2 es un estimador sesgado de
∗2

𝜎2
1
2. 𝑆 = 𝑛−1 σ𝑛𝑖=1 𝑋𝑖 − 𝑋ത 2 es un estimador insesgado
2

de 𝜎 2
1 𝑛
3. 𝑆 = 𝑛 σ𝑖=1 𝑋𝑖 − 𝜇 2 es un estimador insesgado de
∗∗2

𝜎2
NOTA: La desviación típica muestral NO es un estimador
insesgado de la desviación típica poblacional, es decir:
𝐸 𝑆 ≠𝜎
Ejemplo
Sea una población formada por los elementos
(1,2,3). Obtener 𝐸 𝑆 2 y 𝐸 𝑆 .
1. Construir todas las muestras posibles de
tamaño n=2 CON REEMPLAZAMIENTO.
2. Calcular lo solicitado y comprobar la
propiedad de insesgadez para 𝑆 2 y S.
𝟐
𝟐 𝟐 𝟐
𝟏 𝟐
Muestras ഥ
𝒙 ഥ
𝒙𝟏 − 𝒙 ഥ
+ 𝒙𝟐 − 𝒙 𝑺 = ഥ
෍ 𝒙𝒊 − 𝒙 𝑺= 𝑺𝟐
𝟐−𝟏
(x1,x2) 𝒊=𝟏

(1,1) 1 0,00 0,00 0,00


(1,2) 1,5 0,50 0,50 0,71
(1,3) 2 2,00 2,00 1,41
(2,1) 1,5 0,50 0,50 0.71
(2,2) 2 0,00 0.00 0,00
(2,3) 2,5 0,50 0,50 0,71
(3,1) 2 2,00 2,00 1,41
(3,2) 2,5 0,50 0,50 0,71
(3,3) 3 0,00 0,00 0,00
Total 6,00 6,00 5,66
…sigue ejemplo
La media de la varianza muestral será:
2 6 2
𝐸 𝑆 = =
9 3
2 2
La varianza poblacional 𝜎 =
3
Por tanto: 𝐸 𝑆 2 =𝜎 2 y concluimos que
𝑆 2 𝑒𝑠 𝑢𝑛 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 𝑑𝑒 𝜎2

De otro lado: 5,66


E(S) = = 0,6288 y 𝜎 = 0,8164
9
Por tanto: E(S) ≠ 𝜎 y entonces, S no es un
estimador insesgado de 𝜎
Proposición
Si 𝜃෠1 𝑦𝜃෠2 son dos estimadores insesgados del
parámetro 𝜃, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑒𝑙 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 𝜃෠
definido como:

𝜃෠ = λ𝜃෠1 + 1 − λ 𝜃෠2

es también un estimador insesgado del


parámetro 𝜃
1. INSESGADEZ
Estimador insesgado de varianza mínima
෡ = 𝜽 y ECM(𝜽)
Cuando E(𝜽) ෡ = Var(𝜽)

Buscamos el que tenga la menor varianza.

Estimador insesgado uniformemente de mínima varianza


෡ 0 es insesgado y uniformemente de mínima varianza
El estimador 𝜽
(UMVUE: Uniformly minimum-variance unbiased estimators) para 𝜽, si
෡ de él, se verifica que:
dado cualquier otro estimador insesgado 𝜽
෡ 0 ) ≤ Var (𝜽)
Var (𝜽 ෡ para todos los valores posibles de 𝜽.
1. INSESGADEZ
COTA DE FRECHET-CRAMER-RAO
Sea (X1,X2,…..,Xn) una m.a.(n), obtenida de una
población con función de densidad o de cuantía
f(x; 𝜽), entonces, la varianza del estimador está
acotada inferiormente:

෡ ≥
Var (𝜽) 1
𝜕𝑙𝑛𝑓(𝑥;𝜃) 2
𝑛𝐸
𝜕𝜃
1. INSESGADEZ
NOTA:

La cota o desigualdad de F-C-R nos da un límite inferior para la varianza del


෡ , pero esto no implica que la varianza de un estimador UMVUE
estimador 𝜽
tenga que ser igual al límite inferior de la varianza dada por la cota de F-C-R.
෡ que tenga su varianza
Es decir, se puede obtener un estimador insesgado 𝜽
más pequeña que la de todos los demás estimadores insesgados de 𝜽, pero
mayor que el límite inferior dado por la cota de F-C-R. Un estimador que
verifique lo anterior seguirá siendo un estimador UMVUE del parámetro 𝜽.
2. EFICIENCIA
Estimador eficiente:
Un estimador 𝜽 ෡ del parámetro poblacional 𝜽, es
eficiente si es insesgado y además su varianza
alcanza la cota de Frechet-Cramer-Rao. Esto es
equivalente a decir que, un estimador 𝜽 ෡ es
eficiente si su varianza coincide con la cota de F-
C-R:
෡ =
Var (𝜽) 1
𝜕𝑙𝑛𝑓(𝑥;𝜃) 2
𝑛𝐸
𝜕𝜃
2. EFICIENCIA
Eficiencia de un estimador:
Se define la eficiencia de un estimador
insesgado 𝜽෡ , del parámetro 𝜽, como:

෡ ) = 𝐶𝑜𝑡𝑎 𝐹.𝐶.𝑅.
eff.(𝜽 ෡
𝑉𝑎𝑟(𝜽)

෡ ) ≤ 1.
verificándose que eff.(𝜽
2. EFICIENCIA
Eficiencia Relativa:

Dados dos estimadores 𝜽 ෡1 y ෡ 2 de 𝜽, se define


𝜽
෡1 a
la eficiencia relativa de 𝜽 ෡ 2 como:
𝜽

෡ ) ෡ )
෡ ෡ 𝑉𝑎𝑟(𝜽 𝑒𝑓𝑓.(𝜽
eff.relativa (𝜽1 , 𝜽2 ) = 𝑉𝑎𝑟(𝜽෡ ) = 𝑒𝑓𝑓.(𝜽෡1)
2
1 2
Proposición
• Dada una población 𝑁 𝜇, 𝜎 se verifica que la
media muestral 𝑋ത es un estimador eficiente de la
media poblacional 𝜇 .
• Se demostrará que se cumple la igualdad de la
cota F-C-R, es decir:

1 𝜎2
𝑉𝑎𝑟 𝜇ො = 𝑉𝑎𝑟 𝑋ത = 2 =
𝜕𝑙𝑛𝑓 𝑥, 𝜃 𝑛
𝑛𝐸
𝜕𝜃
Ejemplo
Dada una población 𝑁 𝜇, 7 y los estimadores de la media
poblacional 𝜇 para muestras aleatorias simples de tamaño
n=3:
1

𝜃1 = 𝑋1 + 𝑋2 + 𝑋3
3
1 1 1
𝜃෠2 = 𝑋1 + 𝑋2 + 𝑋3
2 3 4
Se pide:
1. Comprobar si los estimadores 𝜃෠1 y 𝜃෠2 son o no insesgados.
2. Calcular la varianza de ambos estimadores.
3. ¿Son ambos estimadores eficientes?
2. EFICIENCIA
Estimador asintóticamente eficiente:
Diremos que un estimador 𝜽 ෡ , del parámetro 𝜽,
es asintóticamente eficiente si se verifica:


𝑉𝑎𝑟(𝜽)
lím 𝐶𝑜𝑡𝑎 𝑑𝑒 𝐹.𝐶.𝑅
=1
n→∞
3. CONSISTENCIA
Estimador consistente:
Una sucesión de estimadores 𝜽 ෡ 𝑛 es consistente si
la sucesión converge en probabilidad hacia el
parámetro 𝜽, es decir, si para todo ε > 0 se verifica:

෡ 𝑛 − 𝜽 < ε) = 1
lím P( 𝜽
n→∞
y cada elemento de la sucesión se dirá que es un
estimador consistente.
3. CONSISTENCIA
Consistencia en media cuadrática:
Una sucesión de estimadores 𝜽෡ 𝑛 es consistente en
media cuadrática para el parámetro 𝜽, cuando se
verifica:

෡𝑛 − 𝜽 2 = 0
lím E 𝜽
n→∞
y cada elemento de la sucesión se dirá que es un
estimador consistente en media cuadrática.
Teorema

Si un estimador es consistente en media


cuadrática, también es consistente en
probabilidad, pero no necesariamente se
verifica al revés.
3. CONSISTENCIA
Consistencia casi segura:
Una sucesión de estimadores 𝜽 ෡ 𝑛 es consistente
casi seguro para el parámetro 𝜽, cuando se verifica:

෡ 𝒏 = 𝜽 )= 1
P(lím 𝜽
n→∞
y cada elemento de la sucesión se dirá que es un
estimador consistente casi seguro.
Ejemplo
Sea (X1,X2,…..,Xn) una muestra aleatoria de
tamaño n procedente de una población 𝑁 𝜇, 𝜎 .
Demostrar que la media muestral 𝑋ഥ y la
varianza muestral 𝑆 2 son estimadores
consistentes de la media y varianza poblacional,
respectivamente.
4. SUFICIENCIA
Intuitivamente:

Un estadístico es suficiente para un parámetro 𝜽


cuando utiliza toda la información relevante
contenida en la muestra aleatoria, con respecto
a 𝜽 y ningún otro estadístico puede
proporcionar más información adicional sobre
el parámetro poblacional 𝜽.
4. SUFICIENCIA
Estimador suficiente:
Sea (X1,….,Xn) una m.a.(n) de una población cuya
distribución depende de un parámetro 𝜽
desconocido. Diremos que el estadístico o
estimador T = T(X1,….,Xn) es suficiente para el
parámetro 𝜽, si la distribución condicionada de
X1,….,Xn dado el valor del estadístico T=t, no
depende del parámetro 𝜽.
Ejemplo
• Sea una muestra aleatoria (X1,X2,X3) procedente
de una distribución B(1,p) y sean los estadísticos:

𝑇1 = 𝑋1 + 𝑋2 + 𝑋3
𝑇2 = 𝑋1 + 2𝑋2 + 𝑋3

Tales que para la muestra de tamaño n=3 toman


los valores 𝑇1 = 2 𝑦 𝑇2 =2.
Comprobar que 𝑇1 es suficiente y que 𝑇2 no es
suficiente.
4. SUFICIENCIA
Teorema de Factorización de Fisher-Neyman:
Sea (X1,….,Xn) una m.a.(n) de una población con F(x; 𝜽) y sea la
función de cuantía de la muestra:
P(x1,….,xn; 𝜽) = P 𝜽(X1 = x1,…..,Xn=xn), o la función de densidad de
la muestra: f (x1,…,xn; 𝜽)
Entonces, el estadístico T = T (X1,….,Xn) es suficiente para el
parámetro 𝜃 si y solamente si podemos descomponer la función
de probabilidad o la función de densidad de la muestra como
producto de dos factores no negativos:
P 𝜽(x1,…..,xn) = g(T(x1,….,xn); 𝜽 ).h(x1,….,xn)
f (x1,…,xn; 𝜽)= g(T(x1,….,xn); 𝜽 ).h(x1,….,xn)
4. SUFICIENCIA
Teorema de Factorización de Fisher-Neyman:
en donde g(T, 𝜽) es una función que depende
solamente de 𝜽 y de la muestra a través del
estadístico T(X1,…..,Xn) y h(x1,……,xn) no
depende de 𝜽.
Ejemplo

Sea una muestra aleatoria (X1, X2,……,Xn) de una


distribución B(1,p). Comprobar utilizando el
teorema de factorización que el estadístico 𝑇 =
σ𝑛𝑖=1 𝑋𝑖 es suficiente para el parámetro p.
5. INVARIANZA
Estimador invariante:
Diremos que un estimador 𝜃෠ es invariante frente
a la transformación f(.), si se verifica que el
estimador de esa fuinción del parámetro 𝜽, es
igual al propio estimador del parámetro, es decir
cuando se verifica que:
෠ 1,….,Xn)) = 𝜃෠ (X1,….,Xn)
𝜃(f(X
5. INVARIANZA

Tipos de invarianzas o de estimadores


invariantes:
1. Estimador invariante a cambios de origen.
2. Estimador invariante a cambios de escala.
3. Estimador invariante a cambios de origen y
de escala.
4. Estimador invariante a permutaciones.
5. INVARIANZA
Estimador invariante a cambio de origen:

Dados una m.a.(n) X1,….,Xn y un estimador


෠ 1,….,Xn) del parámetro 𝜽, entonces si se realiza
𝜃(X
un cambio de origen en los datos de la muestra,
sumando una constante k: (X1+k,…..,Xn+k), diremos
que 𝜃෠ es invariante a cambios de origen o de
localización si y solamente si se verifica que:
෠ 1 + k,…..,Xn+k) = 𝜃(X
𝜃(X ෠ 1,….,Xn) para todo k Є𝕽
Ejemplo
Estudiar si son o no invariantes frente a cambios de
origen los siguientes estimadores:
1. La media muestral 𝑋ത
2. La varianza muestral
3. La desviación típica muestral
𝑌1 +𝑌2
4. El estimador , donde:
2
𝑌1 = 𝑚í𝑛 𝑋1 , … . . , 𝑋2
𝑌2 = 𝑚á𝑥 𝑋1 , … . . , 𝑋2
5. El coeficiente de correlación lineal
5. INVARIANZA
Estimador invariante frente a cambios de
escala:
Si consideramos una constante c≠ 0, la muestra
se transforma en: (cX1,….,cXn), entonces 𝜃෠ es
invariante a cambios de escala si y solamente si
se verifica que:
෠ 1 ,…..,cXn) = 𝜃(X
𝜃(cX ෠ 1,….,Xn) para todo c Є𝕽, tal
que c≠ 0.
Ejemplo

Comprobar que los estimadores media y


varianza muestral no son invariantes frente a
cambios de escala, y sin embargo el coeficiente
de correlación lineal si lo es.
5. INVARIANZA
Estimador invariante a cambios de origen y de
escala:
𝜃෠ es invariante a cambios de origen y de escala
si y solamente si se verifica que:
෠ 1+k ,…..,cXn+k) = 𝜃(X
𝜃(cX ෠ 1,….,Xn)
para todo c,k Є𝕽, tal que c≠ 0.
Ejemplo

Comprobar que el coeficiente de correlación


lineal es invariante a cambios de origen y de
escala.
5. INVARIANZA
Estimador invariante a permutaciones:
Un estimador 𝜃෠ es invariante frente a
permutaciones si se verifica que:

෠ i1 ,…..,Xin) = 𝜃(X
𝜃(X ෠ 1,….,Xn)

Para todas las permutaciones ( i1,….,in) de 1 ,….,n


6. ROBUSTEZ
Estimador robusto:
Diremos que un estimador es robusto cuando
pequeños cambios en las hipótesis de partida
del procedimiento de estimación considerado
no producen variaciones significativas en los
resultados obtenidos.
Ejemplo
En la distribución 𝑁 𝜇, 𝜎 al estudiar la distribución de la
media muestral veíamos que si no se conoce la varianza
poblacional recurríamos a la distribución t-Student mediante
el estadístico:
𝑋ത − 𝜇
~𝑡𝑛−1
𝑆
𝑛
de manera que pequeñas variaciones en la distribución
𝑁 𝜇, 𝜎 no producirían cambios sustanciales en los
procedimientos estadísticos basados en el estadístico t-
Student con n-1 grados de libertad, cuando n es relativamente
grande, ya que estos procedimientos estadísticos son
robustos.

Potrebbero piacerti anche