Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
MARCOS
FACULTAD DE CIENCIAS MATEMATICAS
CURSO : Muestreo 2
INTEGRANTE:
➢ Sullca Damián José Tito
2019
INTRODUCCION
A medida que la aplicación y teoría de muestreo han cobrado terreno, son cada
vez más los estudios encaminados a establecer y comparar métodos para calcular
la varianza de un estimador cuando no se tiene una expresión para su estimación.
En casi todos los diseños de muestreo complejos, es posible conseguir un
estimador insesgado de la varianza, cuando la estadística de interés es una
combinación lineal de las observaciones. Sin embargo, es muy común el hecho de
que la función de los datos de la muestra con la que se construye el estimador sea
una función no lineal, como son las razones, diferencia de razones, coeficientes de
regresión y correlación, entre otros. En estos casos, no se cuenta con una
expresión para el estimador de la varianza, por lo que se hace necesario el apoyo
de otras formas para estimarla. Existen varios métodos para estimar la varianza en
muestreos complejos. Quizás algunos de los métodos más usados e importantes,
se basan en el remuestreo, entre los cuales destacamos el de los Grupos
Aleatorios Dependientes y el de Jackknife.
El método de los grupos aleatorios dependientes (GAD), fue una de las primeras
técnicas para estimar la varianza de un estimador en diseño de muestras
complejas. Las primeras ideas fueron introducidas por Mahalanobis (1946), se vio
en la necesidad de reducir las fuentes de error en sus encuestas. Por tal razón,
comenzó a diseñar muestras a las que llamó interpenetrantes, o muestras a la
mitad (“half-sampling”). Básicamente su técnica consistía en numerar
consecutivamente las unidades de muestreo dentro de cada estrato o unidad
primaria; posteriormente, separaba la muestra de acuerdo a dicho número en
impares y pares, formando dos conjuntos de datos que daban dos estimaciones.
El término interpenetrante alude a la aplicación del método al evaluar márgenes de
error diferentes a la variabilidad del fenómeno que se observa. Sin embargo, la
idea de Mahalanobis fue considerada por autores como Hansen, Hurwitz y Madow
(1953), llamándole la técnica del conglomerado último o del grupo aleatorio,
dándole un carácter más general. Deming (1956), la utilizó con el simple propósito
de obtener un estimador de varianza sin importar lo complicado que fuera el
estimador o el diseño muestral y le llamó Muestreo replicado
Las ventajas del método de los GAD es que no se requiere de Software especial
para estimar la varianza, siendo fácil calcular la estimación de la varianza. Es
adecuado para los problemas multiparamétricos o no paramétricos; puede servir
para estimar varianza de percentiles y de funciones no suaves, así como para
varianzas de funciones suaves de los totales de la población. No es necesario
conocer las probabilidades de inclusión de segundo orden para estimar la varianza
de un estimador. Puede ser utilizado fácilmente después de los ajustes de
ponderación para la ausencia de respuestas y la subcobertura. Pero también tiene
algunas desventajas, entre las que se destacan la cantidad de grupos aleatorios
que por lo menos deben ser 10 para no obtener estimaciones imprecisas de la
varianza. La otra dificultad al aplicar el método GAD, es el establecimiento de los
grupos aleatorios que puede ser difícil en los diseños complejos, ya que cada
grupo debe tener la misma estructura de diseño que la encuesta completa.
Los Métodos de Estimación De varianzas
➢ Método de Replicación Simple
➢ Método de Grupos Aleatorios
➢ Método de los Conglomerados Últimos
➢ Método de Replicación Repetida Balanceada
➢ Método de Jacknife
➢ Método Bootstrap
Si
(ˆ − ˆ)
r
2
Vˆ (ˆ) = r =1
k (k − 1)
Estimadores aplicados:
∑kr=1(θ̂r )
θ̂ =
k
̂ 𝒆𝒔 𝒖𝒏 𝒆𝒔𝒕𝒊𝒎𝒂𝒅𝒐𝒓 𝒊𝒏𝒔𝒆𝒔𝒈𝒂𝒅𝒐 de 𝜽
Demostración que 𝜽
∑kr=1(θ̂r )
E(θ̂) = E [ ]
k
k
1
E(θ̂) = E [∑(θ̂r )]
k
r=1
k
1
E(θ̂) = [∑ E(θ̂r )]
k
r=1
1
E(θ̂) = [k. θ]
k
E(θ̂) = θ
II. METODO DE GRUPOS ALEATORIOS EN GENERAL
II.1 El teorema anterior puede extenderse a diseños más complejos. Supongamos
que para un diseño muestral dado, 𝜃̂ es un estimador insesgado del parámetro 𝜃 .
Supongamos también que la muestra completa, de tamaño n, obtenida según el
𝑛
citado diseño, se divide aleatoriamente en k submuestras de tamaño 𝑚 = 𝑘 , de
modo que cada una de esta conserva las mismas propiedades que aquella
(estratificación, probabilidades de selección, etc.) aunque es de menor tamaño.
Designemos por 𝜃̂ el estimador aplicado a la muestra completa y por 𝜃̂𝑟 (𝑟 =
1,2,3, . . , 𝑘) el aplicado a cada grupo aleatorio.
Forma general:
Estimador de 𝜃 con la muestra matriz
𝑘
1
𝜃̂ = ∑ 𝜃̂𝑖
𝑘
𝑖=1
2 2
𝑉(𝜃̂𝑟 ) = 𝐸(𝜃̂𝑟 − 𝜃̂ ) + 𝐸(𝜃̂ − 𝜃)
Entonces
2
𝑘𝑉(𝜃̂ ) = 𝐸(𝜃̂𝑟 − 𝜃̂ ) + 𝑉(𝜃̂ )
Despejando
2
𝐸(𝜃̂𝑟 − 𝜃̂ ) = 𝑘𝑉(𝜃̂ ) − 𝑉(𝜃̂ ) = (𝐾 − 1)𝑉(𝜃̂ )
Despejando
2
𝐸(𝜃̂𝑟 − 𝜃̂ ) = 𝑘𝑉(𝜃̂ ) − 𝑉(𝜃̂ )
2
𝐸(𝜃̂𝑟 − 𝜃̂ ) = (𝑘 − 1)𝑉(𝜃̂ )
Y sumando en r=1, 2, 3,…., k los dos términos de la última igualdad
tenemos
𝑘 𝑘
2
∑ [𝐸(𝜃̂𝑟 − 𝜃̂ ) ] = ∑(𝑘 − 1)𝑉(𝜃̂ )
𝑟=1 𝑟=1
𝑘
2
𝐸 [∑(𝜃̂𝑟 − 𝜃̂ ) ] = 𝑘[(𝑘 − 1)𝑉(𝜃̂ )]
𝑟=1
2
∑𝑘𝑟=1(𝜃̂𝑟 − 𝜃̂ )
𝐸[ ] = 𝑉(𝜃̂ )
𝑘(𝑘 − 1)
Por lo tanto
→ 𝑅̂1 = 2.3288
→ 𝑅̂2 = 2.5802
→ 𝑅̂3 = 2.4591
→ 𝑅̂4 = 3.1110
El promedio muestral de las cuatro estimaciones independientes de 𝑌̅ es 𝑦̅
𝑆(𝑅̂𝑟 )
𝑦̅ = ; 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑟 = 1,2,3,4
𝑘
𝑆(𝑦̅𝑟 − 𝑦̅)2
̂
𝑉(𝑦
̅) =
𝑘(𝑘 − 1)
̂ √0.117649
√𝑉(𝑦
̅) =
√4
̂
√𝑉(𝑦
̅) = 0.1702
de modo que un intervalo de confianza de 90% para la razón en cuestión
INTERVALOS DE CONFIANZA
Ademas
= 0.06496741