Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
TALLER
Muestreo
Universidad de Córdoba
Sede Montería
2012
2.2 Considere el diseño del ejemplo 1,5,1 (The Hink Survey) una muestra S de n individuos es extraída
mediante M AS de una marco que lista N individuos. Las familias correspondientes a los individuos
seleccionados son identicados. Calcular la probabilidad de inclusión de una familia compuesta de
M individuos, donde M < n. Obtener expresiones aproximadas para la probabilidad de inclusión de
M = 1, 2, 3 suponga que N, n son grandes con N n
= f > 0.
Luego:
• Para M = 1, se tiene:
πH = 1 − (NN−1)! (N −n)! (N −n) n
! (N −1−n)! = 1 − N =1− 1− N = 1 − (1 − f ) = f
• Para M = 2, tenemos:
.
πH = 1 − (NN−2)! (N −n)! (N −n)(N −n−1) n n 2
! (N −2−n)! = 1 − N (N −1) =1− 1− N 1− N −1 = 1 − (1 − f )
• Para M = 3, obtenemos:
πH = 1 − (NN−3)!
!
(N −n)!
(N −3−n)! = 1 −
(N −n)(N −n−1)(N −n−2)
N (N −1)(N −2) =1− 1− n
N 1− n
N −1 1− n
N −2
. 3
πH = 1 − (1 − f )
(a) Sea πk = 0,1 para todo k ∈ U1 , πk = 0,2 para todo k ∈ U2 y πk = 0,8 para todo k ∈ U3 .
Halle el valor esperado y la varianza del tamaño ns , bajo este diseño.
(b) Suponga que πk es constante para todo k U . Determine esta constante de modo que el valor
esperado del tamaño de muestra coincida con el tamaño de muestra obtenido en (a), obtenga la vari-
anza del tamaño de muestra; comparelo con la del caso (a).
2
Entonces E(ns ) = π = N π , con π = N ,
ns
donde ns esel tamaño de la muestra.
P P P
E(Ik ) = πk =
k∈U k∈U k∈U
Notese:
• E(ns1 ) = N1 π1 = 600(0,1) = 60
• E(ns2 ) = N2 π2 = 300(0,2) = 60
• E(ns3 ) = N3 π3 = 100(0,8) = 80
Así
A demás:
• V ar(ns1 ) = N1 π1 (1 − π1 ) = (600)(0,1)(0,9) = 54
• V ar(ns2 ) = N2 π2 (1 − π2 ) = (300)(0,2)(0,8) = 48
• V ar(ns3 ) = N3 π3 (1 − π3 ) = (100)(0,8)(0,2) = 16
Por lo tanto:
(b) Como πk = π para todo k ∈ U bajo diseño Bernoulli. Sea ns jo, entonces,
200
E(ns ) = N π⇒ 200 = 1000π⇒π = 1000 = 0,2
V ar(ns ) = V ar(ns1 ) + V ar(ns2 ) + V ar(ns3 ) = 600(0,2)(1 − 0,2) + 300(0,2)(1 − 0,2) + 100(0,2)(1 − 0,2)
V ar(ns ) = 96 + 48 + 16 = 160
Al comparar ns aleatorio y ns jo, observamos que hay mayor variabilidad cuando ns es jo.
2.4 Una población de 1600 individuos esta divididad en 800 conglomerados (Hogares) tales que hay
Na conglomerados de tamaño a (a = 1, 2, 3, 4)de acuerdo con la siguiente tabla:
a 1 2 3 4
Na 250 350 150 50
Una muetsra de individuos es seleccionada como sigue: 300 conglomerados son seleccionados de los
800 bajo un diseño de muestreo M AS , y todos los individuos en el conglomerado seleccionado son
entrevistados. Si ns denota el número total de individuos entrevistados. Calcule E(ns ) y V ar(ns ).
N = 1600 individuos
3
nI = 300 de NI = 800 conglomerados, entonces πI = nI
NI = 300
800 = 0,375
(
1 i ∈ SI
Ii , con Ii = luego
P
ns =
i∈UI 0 i∈ / SI
P P P nI
E(ns ) = E( Ii ) = E(Ii ) = πI = NI πI = NI N I
= nI
i∈UI i∈UI i∈UI
2
i2 + (πIJ − πI πJ )
P P P P P P
V ar(ns ) = i πI (1 − πI ) + ij(πIJ − πI πJ ) = πI (1 − πI ) ij
i∈UI i∈UI j∈UI i∈UI i∈UI j∈UI
i6=j i6=j
n2I
h i h i P P
nI nI NI (NI +1)(2NI +1) nI (nI+1 )
V ar(ns ) = NI (1 − NI ) 6 + NI (NI +1) − NI2
ij
i∈UI j∈UI
i6=j
Notese que: ( )
2 NI (NI +1) NI2 (NI +1)2 NI (NI +1)(2NI +1)
i2 =
P P P P P P
ij = i j −i = 2 i− 4 − 6
i∈UI j∈UI i∈UI j∈UI i∈UI i∈UI
i6=j
En consecuencia
i 2 2
N n +nI NI2 −n2I NI2 −n2I NI
h n o
nI nI NI (NI +1)(2NI +1) NI (NI +1) (2NI +1)
V ar(ns ) = NI 1− NI + I I N
6 3 (N +1)
I
N I (N I + 1) 4 − 6
I
2.5 Considere una población de tamaño N = 3, U = {1, 2, 3}. Sea S1 = {1, 2}, S2 = {1, 3}, S3 = {2, 3},
S4 = {1, 2, 3}, P (S1 ) = 0,4, P (S2 ) = 0.3, P (S3 ) = 0.2 y P (S4 ) = 0.1
(b) Halle el valor de E(ns ) de dos formas; (1) por el calculo directo usando usando la denición
(2) por el uso de la formula que expresa E(ns ) como una función de los πk
4
Mientras que las probabilidades de inclusión de segundo orden, son:
• π12 = P (1 y 2 ∈ S) = P (S1 ) + P (S4 ) = 0,4 + 0,1 = 0,5
• π13 = P (1 y 3 ∈ S) = P (S2 ) + P (S4 ) = 0,3 + 0,1 = 0,4
• π23 = P (2 y 3 ∈ S) = P (S3 ) + P (S4 ) = 0,2 + 0,1 = 0,3
• π21 = π12 = 0,5
• π31 = π13 = 0,4
• π32 = π23 = 0,3
2.6 Considere la población y el diseño en el ejercicio 2.5, sean y1 = 16, y2 = 21, y y3 = 18 los
valores de la variable de estudio y. Entonces tenemos que t = 55.
(a) Calcule el valor esperado y la varianza del π − estimador de la denición en la sección 2,7
(b) Calcule la varianza del π − estimador usando el resultado 2.8.1
(c) Calcule el coeciente de Varianza del π − estimador
(d) Calcule la varianza estimada V̂ ar(tˆπ )usando el estimador de la varianza (2.8.6) para cada una de
las posibles muestras determine el valor esperado del estimador de la varianza en la presente situación
usando la denición del valor esperado en la sección 2.7.
Luego:
4 P
P yk P yk P yk P yk P yk
t̂π = πk = πk + πk + πk + πk
i=1k∈Si k∈S1 k∈S2 k∈S3 k∈S4
y1 y2 y1 y3 y2 y3 y1 y2 y3 16 21 16 18 21 18 16 21 18
t̂π = 0,8 + 0,7 + 0,8 + 0,6 + 0,7 + 0,6 + 0,8 + 0,7 + 0,6 = 0,8 + 0,7 + 0,8 + 0,6 + 0,7 + 0,6 + 0,8 + 0,7 + 0,6
t̂π = 240
Así:
5
P
E(t̂π ) = P (Si )t̂π (Si ) = 0,4(50) + 0,3(50) + 0,2(60) + 0,1(80) = 20 + 15 + 12 + 8 = 55
k∈Si
2
P (Si ) t̂π (Si ) − E(t̂π ) = 0,4(50−55)2 +0,3(50−55)2 +0,2(60−55)2 +0,1(80−55)2 = 85
P
V ar(t̂π ) =
k∈Si
Luego
2 yk 2 2
yk
∆kl πykk πyll πk2 ∆kl πykk πyll yk
P P P P P P
V ar(t̂π ) = ∆kk πk + = πkk − πk + − ∆kk πk
k∈U k∈U l∈U k∈U k∈U l∈U
2 2
πk ) πykk + yk
∆kl πyll − πk (1 − yk
P P P
V ar(t̂π ) = πk (1 − πk πk ) π k
k∈U k∈U l∈U
2 2 2
yk yk
V ar(t̂π ) = π1 (1 − π1 ) + π2 (1 − π2 )
π2 + π3 (1 − π3 ) πyk3 + ∆12 πy11 πy22 + ∆13 πy11 πy33 + ∆23 πy22 πy33
π2
h i
0,2
V ar(t̂π ) = 0,8 162 + 0,3
0,7 21 2
+ 0,4
0,6 18 2
− 0,06 16
0,8
21
0,7 − 0,08 16
0,8
18
0,6 − 0,12 21
0,7
18
0,6
V̂ ar(t̂π ) = 582.875
2.7 Sea S una muestra estraída mediante un diseño Bernoulli con πk = π para todo k ∈ U . Sea
ns el tamaño aleatorio de S . Muestre que la probabilidad condicional de obtener S dado ns es igual a
la probabilidad de una muestra bajo un diseño M AS con tamaño ns jo de N .
P (S∩ns ) π ns (1−π)N −ns 1
P (S | ns ) = = N =
P (ns ) ( ns )πns (1−π)N −ns ( nNs )
Lo cual es igual a la probabilidad bajo el diseño M AS con ns jo.
.
2 2
EM AS SyS = SyU
6
Pruebe esto usando:
2 2
, con una expresion analoga para SyU
2
y
PP
i) S (yk − yl ) = 2n (n − 1) SyS
PP 2 PP 2
ii) S (yk − yl ) = U Ik Il (yk − yl )
PP 2
S (yk −yl )
De i tenemos que: SyS
2
= 2n(n−1)
Luego:
2
nPP o nP P o
S (yk −yl ) 1 2
2
EM AS SyS = EM AS 2n(n−1) = 2n(n−1) EM AS S (yk − yl )
Por la parte ii
nP P o
2 1 2 1
PP 2
EM AS SyS = 2n(n−1) EM AS U Ik Il (yk − yl ) = 2n(n−1) U EM AS [Ik Il ] (yk − yl )
2 1
PP 2 1
PP h n(n−1)
i
2
EM AS SyS = 2n(n−1) U πkl (yk − yl ) = 2n(n−1) U N (N −1) (yk − yl )
2 1
PP 2 1
PP 2
EM AS SyS = 2n(n−1) U πkl (yk − yl ) = 2N (N −1) U (yk − yl )
1 1
2 P P 2 P P
yk2 − 2yk yl + yl2 = yk2 − 2
PP PP
EM AS SyS = 2N (N −1) U yk yl + U yl
2N (N −1) U U
h i
2 1
P 2 PP 1
P 2 P 2
EM AS SyS = 2N (N −1) 2N U yk − 2 U yk yl = 2N (N −1) 2N U yk − 2 ( U yk )
h 2 i
1 2 1 2N
2 P 2 P P 2 2
EM AS SyS = 2N (N −1) 2N y
U k − 2N N U y k = 2N (N −1) U yk − N ȲU
1
2 P
EM AS SyS = N −1 U yk2 − N ȲU2
Ahora
2 1
2 1
1
P
yk2 − 2yk ȲU + ȲU2 = yk2 − 2ȲU yk + N ȲU2
P P P
SyU = N −1 U yk − ȲU = N −1 U N −1 U U
1
2
P
SyU = N −1 U yk2 − N ȲU2
En consecuencia:
2 2
EM AS SyS = SyU
P 2
S (yk −ȳs )
2.9 Sea S una muestra extraída con un diseño BER. Sea SyS 2
= ns −1 si ns ≥ 2 y SyS
2
= 0 si
ns ≤ 1. Demostrar que el sesgo relativo de SyS está dado por:
2
EBER {SyS
2
}−SyU
2
N −1
2
SyU
= −P (ns ≤ 1) = − (1 − π) [1 + (N − 1) π]
7
Bajo un diseño BER las muestras de igual tamaño, tienen la misma probabilidad de selección, en
consecuencia:
2 P 2
P 2
P 2
EBER SyS = SySi
P (si ) + · · · + SySi
P (si ) + · · · + SySi
P (si )
si Qr si Qr si Qr
{ns =2} {ns =n} {ns =N }
N
Ahora el número de muestras de tamaño 2 es m = , mientras que las de tamaño n es
2
N
w= . Además cuando ns = N , se tiene una única muestra y SyS
2 2
= SyU ; por lo que:
n
"m # w
# "
N −2 N −n N −N
X X
2 2
2
EBER SyS = SySi
π 2 (1 − π) + ··· + SySi π n (1 − π) 2
+ · · · + SyU π N (1 − π)
i=1 i=1
Para ns ≥ 2, se tiene que:
2
P hP i
S (yk −ȳs ) 1 1 1 2
y
2
P 2
2
P
SyS = ns −1 = ns −1 s yk − ns ȳs = ns −1 s yk − ns ( s yk )
" !#
hP i
2 1 1 2 1 1
yk2 − yk2 − yk2 +
P P P PP
SyU = N −1 U N ( U yk ) = N −1 U N U U yk yl
k6=l
" # " #
1 1 1 1 N −1 1
2
P P
yk2 − yk2 −
PP PP
SyU = N −1 1− N U N U yk yl = N −1 N U N U yk yl
k6=l k6=l
" #
2 1 2
; luego:
P PP
SyU = N (N −1) (N − 1) U yk − U yk yl
k6=l
m m hP 2 i P m P m P 2
1
2
1P
yk2 − 2
P P P
SySi
= si yk 2 = si si yk − 2 s i yk
i=1 i=1 i=1 i=1
" #
m N −1 P 2 1 N −1 P 2 N − 2 PP
2
P
SySi
=
1 U yk − 2 1 U yk + 0 U yk yl
i=1 k6=l
m
N −1 P 2 1 N − 2 PP
h
(N −1)!
iP
2
= 1 − 12 1
yk2 − 21
P PP
SyS U y k − 2 U y y
k l = 2 (N −2)!1! U U yk yl
i=1
i 1 0 k6=l k6=l
( ) " #
m h i h ih i
P 2 1 (N −1)(N −2)! P 2
PP N (N −1) 1
P 2 PP
SySi
=2 (N −2)! U yk − U yk yl = 2 N (N −1) (N − 1) U yk − U yk yl
i=1 k6=l k6=l
m
N
h i h i h i
2
= N (N2−1) SyU 2
= N (N(N−1)(N −2)! 2 N! 2 2
P
SyS −2)!2! S yU = (N −2)!2! SyU = SyU
i=1
i 2
De forma analoga
w w n hP w P w P
P 2
P 1 2 1
P 2 io 1
P 2
1
P 2
SySi
= n−1 si yk − n si yk = n−1 si yk − n si yk
i=1 i=1 i=1 i=1
( " #)
w N −1 P 2 1 N −1 P 2 N − 2 PP
2 1
P
SySi
= n−1 n−1 U yk − n n−1 U yk + n−2 U yk yl
i=1 k6=l
( )
w N −1 P 2 1 N − 2 PP
2 1 1
P
SyS = n−1 1− n U yk − n U yk yl
i=1
i n−1 n−2 k6=l
8
( )
w h iP h iPP
2 1 n−1 (N −1)! 1 (N −2)!
yk2
P
SySi
= n−1 n [(N −1)−(n−1)]!(n−1)! − n [(N −2)−(n−2)]!(n−2)! U yk yl
i=1 k6=l
( )
w h iP h iPP
2 1 (N −1)(N −2)! 1 (N −2)!
yk2
P
SySi
= (n−1)(n − 1) −(N −n)!n! U yk yl
n (N −n)!(n−2)!
i=1 k6=l
" # ( " #)
w h i h i
P 2 (N −2)! P 2 PP N (N −1)(N −2)! 1
P 2 PP
SySi
= (N −n)!n! (N − 1) yk − U yk yl = (N −n)!n! N (N −1) (N − 1) yk − U yk yl
i=1 k6=l k6=l
w
N
h i
2 N! 2 2
P
SyS = (N −n)!n! SyU = SyU
i=1
i n
2 N
2 2 2
P
EBER SyS = SyU [P (ns = 2) + · · · + P (ns = n) + · · · + P (ns = N )] = SyU P (ns = k) = SyU P (ns ≥ 2)
k=2
2
2
EBER SyS = SyU [1 − P (ns ≤ 1)]
Por lo tanto:
EBER {SyS
2
}−SyU
2 2
SyU 2
[1−P (ns ≤1)]−SyU 2
SyU 2
−SyU 2
P (ns ≤1)−SyU 2
−SyU P (ns ≤1)
2
SyU
= 2
SyU
= 2
SyU
= 2
SyU
= −P (ns ≤ 1)
EBER {SyS
2
}−SyU
2
N 0 N −0 N 1 N −1
2
SyU
= − [P (ns = 0) + P (ns = 1)] = − π (1 − π) + π (1 − π)
0 1
EBER {SyS
2
}−SyU
2 h i
N N −1 N −1
2
SyU
= − (1 − π) + N π (1 − π) = − (1 − π) [(1 − π) + N π]
EBER {SyS
2
}−SyU
2
N −1
2
SyU
= − (1 − π) [1 + π (N − 1)]
2.10 Sea S (S ⊂ U ) una muestra Extraída bajo un diseño M AS , y sea S1 (S1 ⊂ U − S ) una muestra
extraída bajo un diseño M AS del resto de porción de la población sea y U = S ynk y y U1 = S1 nyk1
P P
donde n y n1 son los respectivos tamaños (jos) de S y S1 . Halle la covarianza entre y U y y U1 .
Cov y U , y U1 | S = 0 y E (y U | S) = y U .
Mientras que:
hP i P
yk 1 1 n1 1
P P
E y U1 | S = E S1 n1 |s = n1 U −S yk E [Ik (S1 )] = n1 N −n U −S yk = N −n U −S yk
1
P P N Ȳ −ny U
E y U1 | S = N −n [ U yk − S yk ] = N −n
9
En consecuencia:
h i
N Ȳ −ny U N
n
Cov y U , y U1 = 0 + Cov y U , N −n = N −n Cov y U , Ȳ − N −n Cov (y U , yU )
n N −n
ar (y U ) = − N n−n
1 n
Sy2 = − N n−n n1
Cov y U , y U1 = 0 − N −n V n 1− N N Sy2
Cov y U , y U1 = − N1 Sy2
A continuación se presentan las expresiones de los diseños M AS , BER y SIS a través del estimador
de Horvitz - Thompson
Inicialmente recordemos:
S πk , y
yk yk yl ∆kl yk yl
P PP PP
t̂yπ = V ar t̂yπ = U 4kl πk πl V̂ ar t̂yπ = S πkl πk πl
πk = n
N y πkl = n(n−1)
N (N −1)
Luego:
S πk = N
P yk 1
P N
P
t̂yπ = n S yk = n S yk
Así:
P 2 h N −n i P P
N N −n
P 2 h N −n i h P 2 P 2i
V ar(b
tyπ ) = −1 n U ky − n(N −1) y k yl = n U ky − n(N −1) ( U y k ) − U yk
k6=l
h i h i
2
tyπ ) = N n−n N −n N −n
P 2 P P 2
V ar(b U yk − n(N −1) ( U yk ) + n(N −1) U yk
P h i P h i
2 2
tyπ ) = N n−n + n(N N −n N −n N −n
2
P 2 N −n P
V ar(b −1) y
U k − n(N −1) ( U y k ) = n(N −1) (N − 1 + 1) U yk − n(N −1) ( U yk )
h i h i P h i hP i
(N −n) P 2 N (N −n) 2
tyπ ) = Nn(N 2 N −n 2 1
P
V ar(b −1) y
U k − n(N −1) ( U y k ) = n(N −1) U ky − N ( U yk )
n hP io n o
N −n 2 2
tyπ ) = N 1 1 N n 1
2
P P 2 2
V ar(b n N N N −1 U ky − N N U y k = n 1 − N N −1 U ky − N ȲU
10
N2 n
2
V ar(b
tyπ ) = n 1− N SyU
De forma analoga:
2
PP ∆kl yk yl P ∆kk yk PP ∆kl yk yl
V̂ ar(b
tyπ ) = S πk πk πl = S πk πk2 + πkl πk πl
k6=l
Luego:
h iP P 2 h 1−f i h P P 2i
N 2 N 2 1−f N 2 2
(1 − f ) S yk2 − N
P 2
P
V̂ ar(b
tyπ ) = n (1 − f ) S yk − n (n−1) yk yl =n n(n−1) ( S y k ) − S yk
k6=l
2 h
2 1−f i h i
2 N 2 1−f
tyπ ) = N (1 − f ) S yk2 − N
P P P 2
V̂ ar(b n n (n−1) ( S yk ) + n (n−1) S yk
2 h
2 1−f i h i
N 2 1−f 2
tyπ ) = N (1 − f ) + N
P 2 P
V̂ ar(b n n (n−1) S yk − n (n−1) ( S yk )
2 h 1−f i N 2
h 1−f i P 2
tyπ ) = N
P 2
V̂ ar(b n (n−1) (n − 1 + 1) y
S k + n (n−1) ( S yk )
2h iP h 1−f i P 2 h i hP i
1−f N 2 2 2
tyπ ) = Nn 2 N 1 2 1
P
V̂ ar(b (n−1) y
S k − n (n−1) ( S yk ) = n (1 − f ) (n−1) y
S k − n ( S yk )
N2 2
V̂ ar(b
tyπ ) = n (1 − f ) SyS
πk = π , πkl = π 2 y
( ( (
πk (1 − πk ) si k = l π (1 − π) si k = l π (1 − π) si k = l
∆kl = = =
πkl − πk πl si k =6 l π 2 − ππ si k 6= l 0 si k 6= l
Luego:
S πk = π
P yk 1
P
t̂yπ = S yk
Así:
11
1
P 2
V ar(b
tyπ ) = π −1 U yk
De forma similar:
2
PP ∆kl yk yl P ∆kk yk PP ∆kl yk yl
V̂ ar(b
tyπ ) = S πk πk πl = S πk πk2 + πkl πk πl
k6=l
Luego:
2
P ∆kk yk
V̂ ar(b
tyπ ) = S πk πk2
1 1
P
V̂ ar(b
tyπ ) = π π −1 S yk2
Algunas probabilidades de inclusión de segundo orden son nulas, por tal motivo no se tiene un es-
timador de la varianza.
12