Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Augusto E. Hoszowski1
aehoszowski@gmail.com
1 UNTREF
I Cuatrimestre 2017
Temario
1 Bibliografı́a
2 El muestreo de poblaciones finitas
3 El Muestreo probabilı́stico
4 Universo , marco de muestreo y muestra
5 Diseños Muestrales Basicos
6 Parámetros poblacionales y estimadores
7 Varianza y Desvı́o Standard de un estimador
8 Intervalos de confianza
Muestreo I
Bibliografı́a
Muestreo I
Bibliografı́a
Muestreo I
Bibliografı́a
Muestreo I
Bibliografı́a
Muestreo I
Bibliografı́a
a1
Temario
1 Bibliografı́a
2 El muestreo de poblaciones finitas
Antecedentes
Los Censos de Población en Europa
Las encuestas pre electorales
Nicolás Kiaer
3 El Muestreo probabilı́stico
4 Universo , marco de muestreo y muestra
5 Diseños Muestrales Basicos
6 Parámetros poblacionales y estimadores
7 Varianza y Desvı́o Standard de un estimador
8 Intervalos de confianza
Augusto E. Hoszowski (UNTREF) Licenciatura en Estadistica I Cuatrimestre 2017 4 / 114
El muestreo de poblaciones finitas Antecedentes
Roma, 1924
Se crea una comisión compuesta por Arthur Bowlye, Corrado Gini,
Adolphe Jensen, Lucien March..para estudiar el método representativo
Roma, 1924
Se crea una comisión compuesta por Arthur Bowlye, Corrado Gini,
Adolphe Jensen, Lucien March..para estudiar el método representativo
Temario
1 Bibliografı́a
2 El muestreo de poblaciones finitas
3 El Muestreo probabilı́stico
Jerzy Neyman
Definición y ejemplos básicos
Muestreo no probabilı́stico
4 Universo , marco de muestreo y muestra
5 Diseños Muestrales Basicos
6 Parámetros poblacionales y estimadores
7 Varianza y Desvı́o Standard de un estimador
8 Intervalos de confianza
El Muestreo Probabilı́stico
Jerzy Neyman
El Muestreo Probabilı́stico
Jerzy Neyman
El Muestreo Probabilı́stico
Jerzy Neyman
El Muestreo Probabilı́stico
Jerzy Neyman
Muestreo probabilı́stico
Qué es lo aleatorio?
Muestreo probabilı́stico
Qué es lo aleatorio?
Muestreo Probabilı́stico
Definicion
Una muestra (o diseño muestral) es ’probabilı́stica’ si todo elemento del
universo U tiene una probabilidad positiva y conocida de ser seleccionado
Muestreo Probabilı́stico
Ejemplos
Ejemplo I
Selección probabilı́stica de un alumno del curso
Ejemplo II
Selección probabilı́stica = Selección ’azarosa’ ?
Ejemplo III
Porqué el muestreo por cuotas no es probabilı́stico?
Muestreo Probabilı́stico
Ejemplos
Ejemplo I
Selección probabilı́stica de un alumno del curso
Ejemplo II
Selección probabilı́stica = Selección ’azarosa’ ?
Ejemplo III
Porqué el muestreo por cuotas no es probabilı́stico?
Muestreo Probabilı́stico
Ejemplos
Ejemplo I
Selección probabilı́stica de un alumno del curso
Ejemplo II
Selección probabilı́stica = Selección ’azarosa’ ?
Ejemplo III
Porqué el muestreo por cuotas no es probabilı́stico?
II
Que cada unidad tenga asociada cierta caracterı́stica ’constante’ Y posible
de ser medida
III
Que podamos a la muestra seleccionada medirle la caracterı́stica Y
II
Que cada unidad tenga asociada cierta caracterı́stica ’constante’ Y posible
de ser medida
III
Que podamos a la muestra seleccionada medirle la caracterı́stica Y
II
Que cada unidad tenga asociada cierta caracterı́stica ’constante’ Y posible
de ser medida
III
Que podamos a la muestra seleccionada medirle la caracterı́stica Y
s= i j
r= . Yj
s= i j
r= . Yj
s= i j
r= . Yj
s= i j
r= . Yj
s= i j
r= . Yj
s= i j
r= . Yj
s= i j
r= . Yj
Métodos no probabilı́sticos
Opinión pública
Muestreo por cuotas
Encuestas telefónicas
Encuestas web
Muestreo de redes
Medicina
Selección por conveniencia
Biologı́a/ Ecologı́a
Captura y recaptura (abudancia animal)
Métodos no probabilı́sticos
Opinión pública
Muestreo por cuotas
Encuestas telefónicas
Encuestas web
Muestreo de redes
Medicina
Selección por conveniencia
Biologı́a/ Ecologı́a
Captura y recaptura (abudancia animal)
Métodos no probabilı́sticos
Opinión pública
Muestreo por cuotas
Encuestas telefónicas
Encuestas web
Muestreo de redes
Medicina
Selección por conveniencia
Biologı́a/ Ecologı́a
Captura y recaptura (abudancia animal)
Métodos no probabilı́sticos
Opinión pública
Muestreo por cuotas
Encuestas telefónicas
Encuestas web
Muestreo de redes
Medicina
Selección por conveniencia
Biologı́a/ Ecologı́a
Captura y recaptura (abudancia animal)
Métodos no probabilı́sticos
Opinión pública
Muestreo por cuotas
Encuestas telefónicas
Encuestas web
Muestreo de redes
Medicina
Selección por conveniencia
Biologı́a/ Ecologı́a
Captura y recaptura (abudancia animal)
Métodos no probabilı́sticos
Opinión pública
Muestreo por cuotas
Encuestas telefónicas
Encuestas web
Muestreo de redes
Medicina
Selección por conveniencia
Biologı́a/ Ecologı́a
Captura y recaptura (abudancia animal)
Poblaciones elusivas
Temáticas sensibles
Poblaciones raras (< 1/ 10,000 ?)
Poblaciones nómades
Poblaciones elusivas
Temáticas sensibles
Poblaciones raras (< 1/ 10,000 ?)
Poblaciones nómades
Poblaciones elusivas
Temáticas sensibles
Poblaciones raras (< 1/ 10,000 ?)
Poblaciones nómades
Poblaciones elusivas
Temáticas sensibles
Poblaciones raras (< 1/ 10,000 ?)
Poblaciones nómades
Ingreso
Trabajo infantil
Heroinómanos
Población transexual
Personas afectadas de una enfermedad rara
Personas sin techo (Poblaciones nómades)
....
Ingreso
Trabajo infantil
Heroinómanos
Población transexual
Personas afectadas de una enfermedad rara
Personas sin techo (Poblaciones nómades)
....
Ingreso
Trabajo infantil
Heroinómanos
Población transexual
Personas afectadas de una enfermedad rara
Personas sin techo (Poblaciones nómades)
....
Ingreso
Trabajo infantil
Heroinómanos
Población transexual
Personas afectadas de una enfermedad rara
Personas sin techo (Poblaciones nómades)
....
Ingreso
Trabajo infantil
Heroinómanos
Población transexual
Personas afectadas de una enfermedad rara
Personas sin techo (Poblaciones nómades)
....
Ingreso
Trabajo infantil
Heroinómanos
Población transexual
Personas afectadas de una enfermedad rara
Personas sin techo (Poblaciones nómades)
....
Ingreso
Trabajo infantil
Heroinómanos
Población transexual
Personas afectadas de una enfermedad rara
Personas sin techo (Poblaciones nómades)
....
Leslie Kish
Leslie Kish
1902 Hungrı́a - 2000
EEUU
Census Bureau
Universidad de Michigan
’Encuestas por Muestreo’
(1960)
Efecto Diseño
Tabla de Kish
Selección controlada
......
Leslie Kish
Leslie Kish
1902 Hungrı́a - 2000
EEUU
Census Bureau
Universidad de Michigan
’Encuestas por Muestreo’
(1960)
Efecto Diseño
Tabla de Kish
Selección controlada
......
Leslie Kish
Leslie Kish
1902 Hungrı́a - 2000
EEUU
Census Bureau
Universidad de Michigan
’Encuestas por Muestreo’
(1960)
Efecto Diseño
Tabla de Kish
Selección controlada
......
Leslie Kish
Leslie Kish
Great advances of the most successful sciences - astronomy, physics, chemistry - were
and are, achieved without probability sampling. Statistical inference in these researches
is based on subjective judgment about the presence of adequate, automatic, and natural
randomization in the population . . . No clear rule exists for deciding exactly when
probability sampling is necessary, and what price should be paid for it . . .Probability
sampling for randomization is not a dogma, but a strategy, especially for large numbers.
(pp. 28-29) (1965)
Temario
1 Bibliografı́a
2 El muestreo de poblaciones finitas
3 El Muestreo probabilı́stico
4 Universo , marco de muestreo y muestra
5 Diseños Muestrales Basicos
6 Parámetros poblacionales y estimadores
7 Varianza y Desvı́o Standard de un estimador
8 Intervalos de confianza
Marco de muestreo
Unidad de muestreo
Unidad de análisis
Marco de muestreo
Unidad de muestreo
Unidad de análisis
Marco de muestreo
Unidad de muestreo
Unidad de análisis
Marco de muestreo
Unidad de muestreo
Unidad de análisis
Marco de muestreo
Unidad de muestreo
Unidad de análisis
Marco de muestreo
Unidad de muestreo
Unidad de análisis
Marco de muestreo
Unidad de muestreo
Unidad de análisis
Universo y marco de
muestreo
Omisiones
Duplicaciones
Elementos extraños
Universo y marco de
muestreo
Omisiones
Duplicaciones
Elementos extraños
Universo y marco de
muestreo
Omisiones
Duplicaciones
Elementos extraños
Universo y marco de
muestreo
Omisiones
Duplicaciones
Elementos extraños
Marco de Muestreo
Marco de Muestreo
Conjunto de archivos, cartografı́a, etc. que permiten la selección de
unidades
En la práctica puede haber varios niveles de marcos de muestreo, uno
para cada etapa de selección
Marco de Muestreo
Marco de Muestreo
Conjunto de archivos, cartografı́a, etc. que permiten la selección de
unidades
En la práctica puede haber varios niveles de marcos de muestreo, uno
para cada etapa de selección
Marco de Muestreo
Marco de Muestreo
Conjunto de archivos, cartografı́a, etc. que permiten la selección de
unidades
En la práctica puede haber varios niveles de marcos de muestreo, uno
para cada etapa de selección
La EPH
Muestra probabilı́stica de viviendas
Unidades de análisis: hogares y personas
Universo bajo estudio: hogares y personas que habitan en viviendas
particulares
La EPH
Muestra probabilı́stica de viviendas
Unidades de análisis: hogares y personas
Universo bajo estudio: hogares y personas que habitan en viviendas
particulares
La EPH
Muestra probabilı́stica de viviendas
Unidades de análisis: hogares y personas
Universo bajo estudio: hogares y personas que habitan en viviendas
particulares
La EPH
Muestra probabilı́stica de viviendas
Unidades de análisis: hogares y personas
Universo bajo estudio: hogares y personas que habitan en viviendas
particulares
La EPH
Muestra probabilı́stica de viviendas
Unidades de análisis: hogares y personas
Universo bajo estudio: hogares y personas que habitan en viviendas
particulares
La EPH
Muestra probabilı́stica de viviendas
Unidades de análisis: hogares y personas
Universo bajo estudio: hogares y personas que habitan en viviendas
particulares
Temario
1 Bibliografı́a
2 El muestreo de poblaciones finitas
3 El Muestreo probabilı́stico
4 Universo , marco de muestreo y muestra
5 Diseños Muestrales Basicos
Definición de diseño muestral
Probabilidades de selección
Diseños Muestrales Básicos
6 Parámetros poblacionales y estimadores
7 Varianza y Desvı́o Standard de un estimador
8 Intervalos de confianza
Con la condición
Para todo i ∈ U, ∃ s ∈ S / i ∈ s
En palabras: Todo elemento del universo está en alguna muestra posible
Con la condición
Para todo i ∈ U, ∃ s ∈ S / i ∈ s
En palabras: Todo elemento del universo está en alguna muestra posible
Con la condición
Para todo i ∈ U, ∃ s ∈ S / i ∈ s
En palabras: Todo elemento del universo está en alguna muestra posible
Con la condición
Para todo i ∈ U, ∃ s ∈ S / i ∈ s
En palabras: Todo elemento del universo está en alguna muestra posible
Probabilidades de Selección
P
Probabilidad de selección de segundo orden πij = s3i,j P(s)
1
Factor de expansión Fi = πi
∆ij = πij − πi πj
Probabilidades de Selección
P
Probabilidad de selección de segundo orden πij = s3i,j P(s)
1
Factor de expansión Fi = πi
∆ij = πij − πi πj
Probabilidades de Selección
P
Probabilidad de selección de segundo orden πij = s3i,j P(s)
1
Factor de expansión Fi = πi
∆ij = πij − πi πj
Probabilidades de Selección
P
Probabilidad de selección de segundo orden πij = s3i,j P(s)
1
Factor de expansión Fi = πi
∆ij = πij − πi πj
Probabilidades de Selección
P
Probabilidad de selección de segundo orden πij = s3i,j P(s)
1
Factor de expansión Fi = πi
∆ij = πij − πi πj
N
X
πi = E (n(s))
i=1
Demostración:
N
X N X
X
πi = P(s) =
i=1 i=1 s3i
XX X X
= P(s) = P(s) 1=
s i∈s s i∈s
X
= P(s)n(s) = E (n(s))
s
N
X
πij = E (n(s) · (n(s) − 1))
i6=j
Demostración:
N
X N X
X
πij = P(s) =
i6=j i6=j s3i,j
XX X X
P(s) = P(s) 1=
s i6=j s i6=j
i,j∈s i,j∈s
X
P(s) · n(s) · (n(s) − 1) = E (n(s) · (n(s) − 1))
s
U=1, 2, 3 , s1 = 1, 2, s2 = 2, 3 , s1 = 1, 2, 3
P(s1 ) = 0,1 , P(s2 ) = 0,3 , P(s3 ) = 0,6
π12 = π21 = 0,1 + 0,6 = 0,7 π13 = π31 = 0,6 π23 = π32 0,3 + 0,6 = 0,9
(este diseño no tendrı́a sentido en la práctica: una de las muestras es U y
con P(U)=0.6)
MAS(n, N)
U: Universo finito
P(s)= 1/ Nn
MAS(n, N)
U: Universo finito
P(s)= 1/ Nn
MAS(n, N)
U: Universo finito
P(s)= 1/ Nn
N
#S =
n
n=20 , N=40
#S = 137, 846, 528, 820
N=10,000 , n=2,000
1655555752355035584608929837527483376968630780990107639501226245279278369803227806624082499
5318806222772111210005426016020418065598071742873644401690919319335377095372278810640478652
0413339850951599929567643032803416164290936680088121145665954509987077953596641237451927908
5366245926365914714564881420608121809337614087081699727977511397993529081097631668957722811
0919596856791192334318746659600262757013932175504380326709133080441488983122983274425603811
7150720178689066894068507531026417815624234453195871008113238128934831837842040515600131726
0960391232798761539165046472416930838295530819010752780423265026993240120148179690854435505
2385528434122170804525355871678981192929859080385594746155471317881539915068852904830622278
6951038548880400191620565711291586700534540755526276938422405001345270278335726581375322976
0146113329991262165505009516699852893226357290535415654659407445246637262058188665134449520
4818520869743805424667419921175000623063780639488267205333549383140708983099413505886737083
3787098758113596190447219426121568324685764151601296948654893782399960327514764114467176417
1250601334540197087007822824805719350208982047634711216849131907359084143018261401250109369
1016194213027790687455272134662680020109302668903599687603532918015047819158239383782473199
4055511844267891121846403164857127885959745644323971338513739214928092232132691519007718752
7194667508917483274048937834514362518058947363924336172894596464292041241297602733962350332
2048092117538605933105935440926734806737558151600385206036037857107552265095615779105884699
3826792047806030332676423336065499519953076910418838626376480202828151673161942289092221049
2839024106999519123661634690999173102393364546370624825997336062993299235897148756965095480
2966835872346542760275822542764463354994480201097335259997004191897152445021872734562272174
4933664742499521140235707102217164259438766026322532351208348119475549696983427008567651685
9213559660367800804157236880443250995626931244887587281027299477537522287857862009983229788
0143251160834154923406732428021436134694019425135786782053546689135601921990424885927739965
7389914429390105240751239760865282709465029549690591863591028864648910033430399
(verificarlo)
Diseño de Bernoulli
Diseño de Bernoulli
Diseño de Bernoulli
Diseño de Bernoulli
Diseño de Bernoulli
Diseño de Bernoulli
Diseño de Bernoulli
Tamaño medio λ · N
U∈S
∅∈S
P(U) = λN
P(∅) = (1 − λ)N
Diseño de Bernoulli
Diseño de Bernoulli
Diseño de Bernoulli
Diseño de Bernoulli
Muestreo de Bernoulli
Muestreo Sistemático
Muestreo Sistemático
Muestreo Sistemático
Muestreo Sistemático
Muestreo Sistemático
Muestreo Sistemático
#S = I
1
πi =
I
Si si y sj son dos muestras entonces:
si ∩ si = ∅ o si = sj
Localidades
Población o viviendas particulares
Empresas
Facturación, ventas, empleados..
Colegios
Matrı́cula
Localidades
Población o viviendas particulares
Empresas
Facturación, ventas, empleados..
Colegios
Matrı́cula
Localidades
Población o viviendas particulares
Empresas
Facturación, ventas, empleados..
Colegios
Matrı́cula
Localidades
Población o viviendas particulares
Empresas
Facturación, ventas, empleados..
Colegios
Matrı́cula
Localidades
Población o viviendas particulares
Empresas
Facturación, ventas, empleados..
Colegios
Matrı́cula
Madow(n, Xi , Xi > 0)
Generamos e = U(0, 1)
λi = n · PXi (sup λi < 1)
Xk
Calculamos A0 = −e, Ai+1 = Ai + λi+1 , i > 0
i ∈ s si [Vi−1 , Vi ) contiene un entero, i > 1
Madow(n, Xi , Xi > 0)
Generamos e = U(0, 1)
λi = n · PXi (sup λi < 1)
Xk
Calculamos A0 = −e, Ai+1 = Ai + λi+1 , i > 0
i ∈ s si [Vi−1 , Vi ) contiene un entero, i > 1
Madow(n, Xi , Xi > 0)
Generamos e = U(0, 1)
λi = n · PXi (sup λi < 1)
Xk
Calculamos A0 = −e, Ai+1 = Ai + λi+1 , i > 0
i ∈ s si [Vi−1 , Vi ) contiene un entero, i > 1
Madow(n, Xi , Xi > 0)
Generamos e = U(0, 1)
λi = n · PXi (sup λi < 1)
Xk
Calculamos A0 = −e, Ai+1 = Ai + λi+1 , i > 0
i ∈ s si [Vi−1 , Vi ) contiene un entero, i > 1
Madow(n, Xi , Xi > 0)
Generamos e = U(0, 1)
λi = n · PXi (sup λi < 1)
Xk
Calculamos A0 = −e, Ai+1 = Ai + λi+1 , i > 0
i ∈ s si [Vi−1 , Vi ) contiene un entero, i > 1
Método de Madow
Caracterı́sticas
Método de Madow
Caracterı́sticas
Método de Madow
Caracterı́sticas
Método de Madow
Caracterı́sticas
Método de Madow
Caracterı́sticas
Método de Madow
Caracterı́sticas
#S=4
Xi = 3, X2 = 2, X3 = 4, X4 = 5
n=2
Generamos un número e (pseudo) aleatorio uniformemente distribuido en
(0,1)
Supongamos e=0.17. La muestra seleccionada será entonces
V
i X π -0,170 Selec
1 3 0,4286 0,259 1
2 2 0,2857 0,544 0
3 4 0,5714 1,116 1
4 5 0,7143 1,830 0
Probabilidades de Selección
En algunos diseños muestrales básicos
MAS(n,N)
n(n−1)
πi = n/N πij = N(N−1) si i 6= j
Sist(I)
B(λ)
πi = λ πij = λ2 si i 6= j
Diseños muestrales
Ejemplo de selección de muestras
Ejercicio I
U={1, 2, 3, 4, 5, 6, 7}
Diseños muestrales
Ejemplo de selección de muestras
Ejercicio I
U={1, 2, 3, 4, 5, 6, 7}
Diseños muestrales
Ejemplo de selección de muestras
Ejercicio II
U={1, 2, 3, 4, 5, 6, 7}
Diseños muestrales
Ejemplo de selección de muestras
Ejercicio II
U={1, 2, 3, 4, 5, 6, 7}
Temario
1 Bibliografı́a
2 El muestreo de poblaciones finitas
3 El Muestreo probabilı́stico
4 Universo , marco de muestreo y muestra
5 Diseños Muestrales Basicos
6 Parámetros poblacionales y estimadores
Parámetros Poblacionales
Estimadores muestrales
Propiedades de un estimador muestral
Esperanza, Varianza y Desvı́o Standard de un estimador
Estimadores insesgados
7 Varianza y Desvı́o Standard de un estimador
8 Intervalos de confianza
Augusto E. Hoszowski (UNTREF) Licenciatura en Estadistica I Cuatrimestre 2017 66 / 114
Parámetros poblacionales y estimadores Parámetros Poblacionales
Variables objetivo
En la práctica, a cada unidad i le mediremos un vector de variables
i ∈ U , i −→ Yi = (Yi1 , Yi2 , ..., Yik )
Medidas resumen
Deseamos estimar alguna medida resumen de las Yi (o de algunas de sus
componentes)
PN
Total Y = i=1 Yi
PN
Media Y = i=1 Yi /N
PN
i=1 Yi
Razon R = PN
i=1 Xi
Medidas resumen
Deseamos estimar alguna medida resumen de las Yi (o de algunas de sus
componentes)
PN
Total Y = i=1 Yi
PN
Media Y = i=1 Yi /N
PN
i=1 Yi
Razon R = PN
i=1 Xi
Medidas resumen
Deseamos estimar alguna medida resumen de las Yi (o de algunas de sus
componentes)
PN
Total Y = i=1 Yi
PN
Media Y = i=1 Yi /N
PN
i=1 Yi
Razon R = PN
i=1 Xi
Medidas resumen
Deseamos estimar alguna medida resumen de las Yi (o de algunas de sus
componentes)
PN
Total Y = i=1 Yi
PN
Media Y = i=1 Yi /N
PN
i=1 Yi
Razon R = PN
i=1 Xi
Y Y
Cociente de dos totales R = X = X
Y Y
Cociente de dos totales R = X = X
Y Y
Cociente de dos totales R = X = X
Y Y
Cociente de dos totales R = X = X
Y Y
Cociente de dos totales R = X = X
Y Y
Cociente de dos totales R = X = X
1 PN
S2 = N−1 · i=1 (Yi − Ȳ )2
1 PN
Sxy = N−1 · i=1 (Yi − Ȳ ) · (Xi − X̄ )
1 PN
S2 = N−1 · i=1 (Yi − Ȳ )2
1 PN
Sxy = N−1 · i=1 (Yi − Ȳ ) · (Xi − X̄ )
1 PN
S2 = N−1 · i=1 (Yi − Ȳ )2
1 PN
Sxy = N−1 · i=1 (Yi − Ȳ ) · (Xi − X̄ )
1 PN
S2 = N−1 · i=1 (Yi − Ȳ )2
1 PN
Sxy = N−1 · i=1 (Yi − Ȳ ) · (Xi − X̄ )
Estimadores muestrales
Estimadores muestrales
Variable cuyos valor depende de los valores {Yi }i∈s de la muestra
Estimadores muestrales
Estimadores muestrales
Variable cuyos valor depende de los valores {Yi }i∈s de la muestra
Estimadores muestrales
Estimadores muestrales
Variable cuyos valor depende de los valores {Yi }i∈s de la muestra
Estimadores muestrales
Estimadores muestrales
Variable cuyos valor depende de los valores {Yi }i∈s de la muestra
s1 −→ θ̂1 (Y )
s2 −→ θ̂2 (Y )
s3 −→ θ̂3 (Y )
s4 −→ θ̂4 (Y )
s5 −→ θ̂5 (Y )
.........
Estimadores muestrales
Estimacion de la media poblacional
Ejemplo III
Supongamos una variable bajo estudio Yi
X
y= Yi
i∈s
Estimadores muestrales
Estimacion de la media poblacional
Ejemplo III
Supongamos una variable bajo estudio Yi
X
y= Yi
i∈s
Estimadores muestrales
Estimacion de la media poblacional
Ejemplo III
Supongamos una variable bajo estudio Yi
X
y= Yi
i∈s
Estimadores muestrales
Estimacion de la media poblacional
Ejemplo III
Supongamos una variable bajo estudio Yi
X
y= Yi
i∈s
Estimadores muestrales
Estimacion de la media poblacional
Ejemplo IV
Seleccionamos s, una muestra Sist(I)
A partir de s, calculamos la media muestral:
X
y= Yi /n(s)
i∈s
Ejemplo V
Seleccionamos s, una muestra Sist(I)
A partir de s, calculamos :
b = I · XY
Y i
N
i∈s
Augusto E. Hoszowski (UNTREF) Licenciatura en Estadistica I Cuatrimestre 2017 74 / 114
Parámetros poblacionales y estimadores Estimadores muestrales
Estimadores muestrales
Estimacion de la media poblacional
Ejemplo IV
Seleccionamos s, una muestra Sist(I)
A partir de s, calculamos la media muestral:
X
y= Yi /n(s)
i∈s
Ejemplo V
Seleccionamos s, una muestra Sist(I)
A partir de s, calculamos :
b = I · XY
Y i
N
i∈s
Augusto E. Hoszowski (UNTREF) Licenciatura en Estadistica I Cuatrimestre 2017 74 / 114
Parámetros poblacionales y estimadores Estimadores muestrales
Estimador de Horvitz-Thompson
Resultado importantes
t̂πy = N · ȳ
ˆt̄πy = ȳ
Estimador de Horvitz-Thompson
Ejercicio I
#U=7, Yi = 2, 2, 6, 3, 8, 2, 12 P
Diseño muestral: Sist(3) Hallar 71 · N
i=1 Yi . Completar el siguiente cuadro
s ȳ ˆt̄πy
1, 4, 7 . .
Para hallar ˆt̄πy calcular
2, 5 . .
previamente los πi
3, 6 . .
Promedio . .
Estimador de Horvitz-Thompson
Ejercicio I
#U=7, Yi = 2, 2, 6, 3, 8, 2, 12 P
Diseño muestral: Sist(3) Hallar 71 · N
i=1 Yi . Completar el siguiente cuadro
s ȳ ˆt̄πy
1, 4, 7 . .
Para hallar ˆt̄πy calcular
2, 5 . .
previamente los πi
3, 6 . .
Promedio . .
Estimador de Horvitz-Thompson
Ejercicio I
#U=7, Yi = 2, 2, 6, 3, 8, 2, 12 P
Diseño muestral: Sist(3) Hallar 71 · N
i=1 Yi . Completar el siguiente cuadro
s ȳ ˆt̄πy
1, 4, 7 . .
Para hallar ˆt̄πy calcular
2, 5 . .
previamente los πi
3, 6 . .
Promedio . .
Estimadores
Propiedades deseables
⇒ Estimador acurado
Estimadores
Propiedades deseables
⇒ Estimador acurado
Estimadores
Propiedades deseables
⇒ Estimador acurado
Esperanza de un estimador
Esperanza de un estimador
X
E (θ)
b = b · P(s)
θ(s)
s
Estimadores insesgado
Estimador insesgado
E (θ)
b =θ
Estimadores insesgados
Ejemplos importantes
s 2 es un estimador insegado de S 2
Estimadores insesgados
Ejemplos importantes
s 2 es un estimador insegado de S 2
Estimadores insesgados
Ejemplos importantes
s 2 es un estimador insegado de S 2
Estimadores insesgados
Ejemplos importantes
s 2 es un estimador insegado de S 2
Estimadores insesgados
Estimador de Horvitz - Thompson
Demostración:
Utilizaremos para la demostración las variables indicadoras
X Yi N
X Yi
t̂πy = = Ii (s) · ⇒
πi πi
i∈s i=1
N N
X Yi X Yi
E (t̂πy ) = E ( Ii (s) · ) = E (Ii (s) · ) =
πi πi
i=1 i=1
N N N
X Yi X Yi X
= · E (Ii (s) = · πi = Yi = ty
πi πi
i=1 i=1 i=1
Estimadores insesgados
Algunos ejemplos
En el Muestreo Sistemático:
Estimadores insesgados
Algunos ejemplos
y
R̂ =
x
no es un estimador insesgado de
Y
R=
X
El sesgo en la práctica es en general despreciable
Estimadores insesgados
Ejercicio II (con Excel)
#U= 4, Yi = 2, 1, 4, 6 ; Xi = 3, 3, 8, 10
Estimadores insesgados
Ejercicio II (con Excel)
#U= 4, Yi = 2, 1, 4, 6 ; Xi = 3, 3, 8, 10
Estimadores insesgados
Ejercicio II (con Excel)
#U= 4, Yi = 2, 1, 4, 6 ; Xi = 3, 3, 8, 10
Estimadores insesgados
Ejercicio II (con Excel)
#U= 4, Yi = 2, 1, 4, 6 ; Xi = 3, 3, 8, 10
Estimadores insesgados
Ejercicio II (con Excel)
#U= 4, Yi = 2, 1, 4, 6 ; Xi = 3, 3, 8, 10
Estimadores insesgados
Ejercicio III (con Excel)
#U= 4, Yi = 1, 2, 3, 4 ; Xi = 2, 3, 6, 8
Estimadores insesgados
Ejercicio III (con Excel)
#U= 4, Yi = 1, 2, 3, 4 ; Xi = 2, 3, 6, 8
Temario
1 Bibliografı́a
2 El muestreo de poblaciones finitas
3 El Muestreo probabilı́stico
4 Universo , marco de muestreo y muestra
5 Diseños Muestrales Basicos
6 Parámetros poblacionales y estimadores
7 Varianza y Desvı́o Standard de un estimador
Varianza y Desvı́o Standard de un estimador
Sesgo y Error Medio Cuadrático
Varianza del estimador de Horvitz-Thompson
Varianza de la media muestral en el MAS
Variables dicotómicas y estimación de proporciones
DS y CV
8 Intervalos de confianza
Augusto E. Hoszowski (UNTREF) Licenciatura en Estadistica I Cuatrimestre 2017 87 / 114
Varianza y Desvı́o Standard de un estimador Varianza y Desvı́o Standard de un estimador
Varianza de un estimador
X
b − E (θ(s))) 2
Var (θ) = (θ(s) b · P(s)
s
Varianza de un estimador
X
b − E (θ(s))) 2
Var (θ) = (θ(s) b · P(s)
s
Sesgo de un estimador
b = θ − E (θ)
Sesgo(θ) b
EMC de un estimador
X
EMC (θ) = b − θ)2 · P(s) = Var + Sesgo 2
(θ(s)
s
Sesgo de un estimador
b = θ − E (θ)
Sesgo(θ) b
EMC de un estimador
X
EMC (θ) = b − θ)2 · P(s) = Var + Sesgo 2
(θ(s)
s
Se cumple lo siguiente:
X Yi Yj
V (t̂πy ) = ∆ij · · =
Yi Yj
i,j
N
X X
= Yi2 · (1/πi − 1) + Yi Yj · (πij /(πi πj ) − 1)
i=1 i6=j
X ∆ij Yi Yj
V̂ (t̂πy ) = · ·
πij πi πj
i,j∈s
1X Yi Yj
V (t̂πy ) = − ∆ij ( − )2
2 πi πj
i,j
Que se estima en forma insesgada (si todos los πij > 0) mediante
1 X ∆ij Yi Yi
V̂ (t̂πy ) = − ( − )2
2 πij πi πi
i,j
Halar los π
Verificar que E(t̂πy ) = ty
Hallar Var(t̂πy )
Hallar CV(t̂πy )
Hallar las relaciones Yi /pii
Halar los π
Verificar que E(t̂πy ) = ty
Hallar Var(t̂πy )
Hallar CV(t̂πy )
Hallar las relaciones Yi /pii
Halar los π
Verificar que E(t̂πy ) = ty
Hallar Var(t̂πy )
Hallar CV(t̂πy )
Hallar las relaciones Yi /pii
Halar los π
Verificar que E(t̂πy ) = ty
Hallar Var(t̂πy )
Hallar CV(t̂πy )
Hallar las relaciones Yi /pii
Halar los π
Verificar que E(t̂πy ) = ty
Hallar Var(t̂πy )
Hallar CV(t̂πy )
Hallar las relaciones Yi /pii
Halar los π
Verificar que E(t̂πy ) = ty
Hallar Var(t̂πy )
Hallar CV(t̂πy )
Hallar las relaciones Yi /pii
ˆt̄Hy = P t̂πy
i∈s 1/πi
t̂Hy = N · ˆt̄Hy
N
1
Donde S 2 = (Yi − Ȳ )2
P
N ·
i=1
De aquı́ se deduce
n S2
Var(N ·ȳ ) = N 2 · (1 − N) · n
N
1
Donde S 2 = (Yi − Ȳ )2
P
N ·
i=1
De aquı́ se deduce
n S2
Var(N ·ȳ ) = N 2 · (1 − N) · n
N
1
Donde S 2 = (Yi − Ȳ )2
P
N ·
i=1
De aquı́ se deduce
n S2
Var(N ·ȳ ) = N 2 · (1 − N) · n
N
1
Donde S 2 = (Yi − Ȳ )2
P
N ·
i=1
De aquı́ se deduce
n S2
Var(N ·ȳ ) = N 2 · (1 − N) · n
#U = 9
Yi = 10 , 12 , 8 , 6 , 5, 14 , 16 , 8 , 3
Diseño muestral: MAS(4)
#U = 9
Yi = 10 , 12 , 8 , 6 , 5, 14 , 16 , 8 , 3
Diseño muestral: MAS(4)
#U = 9
Yi = 10 , 12 , 8 , 6 , 5, 14 , 16 , 8 , 3
Diseño muestral: MAS(4)
Variables dicotómicas
Estimación de proporciones
1 si i ∈ C
Yi =
0 si i ∈
/C
ty = #C
#C
t̄y = =P
N
P = Ȳ , Q =1−P
N n
S2 = · PQ , s2 = · pq
N −1 n−1
n N 1
V (p) = (1 − )· · PQ ·
N N −1 n
n 1
V̂ (p) = (1 − ) · pq ·
N n−1
P = Ȳ , Q =1−P
N n
S2 = · PQ , s2 = · pq
N −1 n−1
n N 1
V (p) = (1 − )· · PQ ·
N N −1 n
n 1
V̂ (p) = (1 − ) · pq ·
N n−1
P = Ȳ , Q =1−P
N n
S2 = · PQ , s2 = · pq
N −1 n−1
n N 1
V (p) = (1 − )· · PQ ·
N N −1 n
n 1
V̂ (p) = (1 − ) · pq ·
N n−1
P = Ȳ , Q =1−P
N n
S2 = · PQ , s2 = · pq
N −1 n−1
n N 1
V (p) = (1 − )· · PQ ·
N N −1 n
n 1
V̂ (p) = (1 − ) · pq ·
N n−1
Ȳ
R=
X̄
ȳ
R̂ = x̄ (no es un estimador insesgado de R en el MAS)
1 (1 − f )
Var R̂ ≈ 2 · · (Sy2 + R 2 · Sx2 − 2 · R · Sxy )
X̄ n
Ȳ
R=
X̄
ȳ
R̂ = x̄ (no es un estimador insesgado de R en el MAS)
1 (1 − f )
Var R̂ ≈ 2 · · (Sy2 + R 2 · Sx2 − 2 · R · Sxy )
X̄ n
Diseño de Midzuno
Desvı́o Standard
r
Var θb
Coeficiente de Variación
DS(θ)
b
100 ·
θ
(θ 6= 0)
Nos dice qué proporción del valor a estimar es el DS
Desvı́o Standard
r
Var θb
Coeficiente de Variación
DS(θ)
b
100 ·
θ
(θ 6= 0)
Nos dice qué proporción del valor a estimar es el DS
θ=280kg
DS(θ)=28kg
b
CV = 10 %
θ=280kg
DS(θ)=28kg
b
CV = 10 %
θ=280kg
DS(θ)=28kg
b
CV = 10 %
Coeficiente de Variación
Algunas propiedades
Coeficiente de Variación
Algunas propiedades
Coeficiente de Variación
Algunas propiedades
Coeficiente de Variación
Algunas propiedades
Coeficiente de Variación
Ejercicio VI
#U = 4
Coeficiente de Variación
Ejercicio VI
#U = 4
Coeficiente de Variación
Ejercicio VI
#U = 4
Temario
1 Bibliografı́a
2 El muestreo de poblaciones finitas
3 El Muestreo probabilı́stico
4 Universo , marco de muestreo y muestra
5 Diseños Muestrales Basicos
6 Parámetros poblacionales y estimadores
7 Varianza y Desvı́o Standard de un estimador
8 Intervalos de confianza
yi = 30 , 32 , 28 , 36 , 45, 24 , 36 , 38 , 33, 36
42 , 31 , 39 , 35 , 29, 37 , 28 , 29 , 30, 30
39 , 35 , 29 , 37
yi = 30 , 32 , 28 , 36 , 45, 24 , 36 , 38 , 33, 36
42 , 31 , 39 , 35 , 29, 37 , 28 , 29 , 30, 30
39 , 35 , 29 , 37
yi = 30 , 32 , 28 , 36 , 45, 24 , 36 , 38 , 33, 36
42 , 31 , 39 , 35 , 29, 37 , 28 , 29 , 30, 30
39 , 35 , 29 , 37
yi = 30 , 32 , 28 , 36 , 45, 24 , 36 , 38 , 33, 36
42 , 31 , 39 , 35 , 29, 37 , 28 , 29 , 30, 30
39 , 35 , 29 , 37
n S2
De la fórmula básica Var (ȳ ) = (1 − N)· n se deduce que el n mı́nimo que
hace que
DS(ȳ ) < c es
S2
n=
V + S 2 /N
(en la práctica redondearemos n a un entero)
S2
n≥
(c/100)2 · Ȳ 2 + S 2 /N
En la práctica redondearemos n a un entero
PQ
n≈ =
(c/100)2 · P 2 + PQ/N
Q
(c/100)2 · P + Q/N