Sei sulla pagina 1di 12

Muestreo Probabilístico y Estimadores

TALLER

Jairo Luis Montes Guerra

Dr. Guillermo Martínez Flórez

Muestreo

Universidad de Córdoba

Sede Montería

2012
2.2 Considere el diseño del ejemplo 1,5,1 (The Hink Survey) una muestra S de n individuos es extraída
mediante M AS de una marco que lista N individuos. Las familias correspondientes a los individuos
seleccionados son identicados. Calcular la probabilidad de inclusión de una familia compuesta de
M individuos, donde M < n. Obtener expresiones aproximadas para la probabilidad de inclusión de
M = 1, 2, 3 suponga que N, n son grandes con N n
= f > 0.

La probabilidad de inclusión de la familia h compuesta por M < n individuos, puede modelarse a


través de la distribución hipergeométrica, así:

/ S) = 1 − P (Ninguno de los M salió en la muestra)


πH = P (H ∈ S) = 1 − P (H ∈
(N −M )!
( M0 )( N −M ) (N −M −n)!n! (N −M )! (N −n)!
πH = 1 − n
=1− =1−
( Nn ) N!
n!(N −n)!
N! (N −M −n)!

(N −n)···(N −n−M +1)


πH = 1 − N ···(n−M +1)

Luego:
• Para M = 1, se tiene:
πH = 1 − (NN−1)! (N −n)! (N −n) n

! (N −1−n)! = 1 − N =1− 1− N = 1 − (1 − f ) = f

• Para M = 2, tenemos:
 .

πH = 1 − (NN−2)! (N −n)! (N −n)(N −n−1) n n 2
! (N −2−n)! = 1 − N (N −1) =1− 1− N 1− N −1 = 1 − (1 − f )

• Para M = 3, obtenemos:
  
πH = 1 − (NN−3)!
!
(N −n)!
(N −3−n)! = 1 −
(N −n)(N −n−1)(N −n−2)
N (N −1)(N −2) =1− 1− n
N 1− n
N −1 1− n
N −2
. 3
πH = 1 − (1 − f )

2.3 Considere una población por 3 subpoblaciones a disyuntas U1 , U2 , y U3 de tamaños N1 = 600,


N2 = 300 y N3 = 100, respectivamente. Así U es de tamaño N = 1000 para cada elemento k  U ,
la inclusión o no inclusión en la muestra S , es determinado por un experimento Bernoulli que da al
elemento k la probabilidad πk de ser seleccionado. Los experimentos son independientes.

(a) Sea πk = 0,1 para todo k ∈ U1 , πk = 0,2 para todo k ∈ U2 y πk = 0,8 para todo k ∈ U3 .
Halle el valor esperado y la varianza del tamaño ns , bajo este diseño.

(b) Suponga que πk es constante para todo k  U . Determine esta constante de modo que el valor
esperado del tamaño de muestra coincida con el tamaño de muestra obtenido en (a), obtenga la vari-
anza del tamaño de muestra; comparelo con la del caso (a).

(a) Inicialmente N = 1000 y


N1 = 600 N2 = 300 N3 = 100
π1 = 0,1 π2 = 0,2 π3 = 0,8
(
1 k∈S
Como ns = Ik , con Ik =
P
k∈U 0 k∈
/S

2
Entonces E(ns ) = π = N π , con π = N ,
ns
donde ns esel tamaño de la muestra.
P P P
E(Ik ) = πk =
k∈U k∈U k∈U

Notese:
• E(ns1 ) = N1 π1 = 600(0,1) = 60
• E(ns2 ) = N2 π2 = 300(0,2) = 60

• E(ns3 ) = N3 π3 = 100(0,8) = 80
Así

E(ns ) = E(n1 ) + E(n2 ) + E(n3 ) = 60 + 60 + 80 = 200

A demás:
• V ar(ns1 ) = N1 π1 (1 − π1 ) = (600)(0,1)(0,9) = 54
• V ar(ns2 ) = N2 π2 (1 − π2 ) = (300)(0,2)(0,8) = 48
• V ar(ns3 ) = N3 π3 (1 − π3 ) = (100)(0,8)(0,2) = 16

Por lo tanto:

V ar(ns ) = V ar(ns1 ) + V ar(ns2 ) + V ar(ns3 ) = 54 + 48 + 16 = 118

(b) Como πk = π para todo k ∈ U bajo diseño Bernoulli. Sea ns jo, entonces,
200
E(ns ) = N π⇒ 200 = 1000π⇒π = 1000 = 0,2

Ahora bajo el mismo diseño Bernoulli

V ar(ns ) = N π(1 − π), con N = 1000, π = 0,2 se tiene que:

V ar(ns ) = V ar(ns1 ) + V ar(ns2 ) + V ar(ns3 ) = 600(0,2)(1 − 0,2) + 300(0,2)(1 − 0,2) + 100(0,2)(1 − 0,2)

V ar(ns ) = 96 + 48 + 16 = 160

Al comparar ns aleatorio y ns jo, observamos que hay mayor variabilidad cuando ns es jo.

2.4 Una población de 1600 individuos esta divididad en 800 conglomerados (Hogares) tales que hay
Na conglomerados de tamaño a (a = 1, 2, 3, 4)de acuerdo con la siguiente tabla:

a 1 2 3 4
Na 250 350 150 50

Una muetsra de individuos es seleccionada como sigue: 300 conglomerados son seleccionados de los
800 bajo un diseño de muestreo M AS , y todos los individuos en el conglomerado seleccionado son
entrevistados. Si ns denota el número total de individuos entrevistados. Calcule E(ns ) y V ar(ns ).

N = 1600 individuos

3
nI = 300 de NI = 800 conglomerados, entonces πI = nI
NI = 300
800 = 0,375

Ahora denamos yk el número de individuos en el conglomerado seleccionado.

(
1 i ∈ SI
Ii , con Ii = luego
P
ns =
i∈UI 0 i∈ / SI
 
P P P nI
E(ns ) = E( Ii ) = E(Ii ) = πI = NI πI = NI N I
= nI
i∈UI i∈UI i∈UI

Entonces, como E(ns ) = nI = 300, corresponde al número de conglomerados seleccionados de NI = 800


conglomerados, por tanto E(ns ) = 300, luego;
P P P P 2 P P
V ar(ns ) = V ar( Ii ) = ijCov(Ii , Ij ) = i V ar(Ii ) + ijCov(Ii , Ij )
i∈UI i∈UI j∈UI i∈UI i∈UI j∈UI
i6=j

2
i2 + (πIJ − πI πJ )
P P P P P P
V ar(ns ) = i πI (1 − πI ) + ij(πIJ − πI πJ ) = πI (1 − πI ) ij
i∈UI i∈UI j∈UI i∈UI i∈UI j∈UI
i6=j i6=j

n2I
h i h i P P
nI nI NI (NI +1)(2NI +1) nI (nI+1 )
V ar(ns ) = NI (1 − NI ) 6 + NI (NI +1) − NI2
ij
i∈UI j∈UI
i6=j

Notese que: ( )
2 NI (NI +1) NI2 (NI +1)2 NI (NI +1)(2NI +1)
i2 =
P P P P P P
ij = i j −i = 2 i− 4 − 6
i∈UI j∈UI i∈UI j∈UI i∈UI i∈UI
i6=j

En consecuencia
i  2 2
N n +nI NI2 −n2I NI2 −n2I NI
 h n  o
nI nI NI (NI +1)(2NI +1) NI (NI +1) (2NI +1)
V ar(ns ) = NI 1− NI + I I N
6 3 (N +1)
I
N I (N I + 1) 4 − 6
I

nI NI2 −n2I NI 6NI2 +6NI −8NI −4


 h i   n  o
nI nI NI (NI +1)(2NI +1)
V ar(ns ) = N 1− N 6 + N 3 NI (NI + 1) 24
I I I (NI +1)
 h i   2 
nI nI N (N +1)(2N +1) n (N −n ) 6N −2N I −4
V ar(ns ) = N I
1− N I
I I
6
I
+ I NII I I
24
 h 800(801)(1601) i  300(500)   6(800)2 −1597 
V ar(ns ) = 300
800 1 − 300
800 6 + 800 24

V ar(ns ) = 40075031 + 29987523 = 70062555

2.5 Considere una población de tamaño N = 3, U = {1, 2, 3}. Sea S1 = {1, 2}, S2 = {1, 3}, S3 = {2, 3},
S4 = {1, 2, 3}, P (S1 ) = 0,4, P (S2 ) = 0.3, P (S3 ) = 0.2 y P (S4 ) = 0.1

(a) Calcule todas las probabilidades de inclusión de primero y segundo orden

(b) Halle el valor de E(ns ) de dos formas; (1) por el calculo directo usando usando la denición
(2) por el uso de la formula que expresa E(ns ) como una función de los πk

(a) Las Probabilidades de inclusión de Primer orden son:


• π1 = P (1 ∈ S) = P (S1 ) + P (S2 ) + P (S4 ) = 0,4 + 0,3 + 0,1 = 0,8
• π2 = P (2 ∈ S) = P (S1 ) + P (S3 ) + P (S4 ) = 0,4 + 0,2 + 0,1 = 0,7
• π3 = P (3 ∈ S) = P (S2 ) + P (S3 ) + P (S4 ) = 0.3 + 0.2 + 0.1 = 0.6

4
Mientras que las probabilidades de inclusión de segundo orden, son:
• π12 = P (1 y 2 ∈ S) = P (S1 ) + P (S4 ) = 0,4 + 0,1 = 0,5
• π13 = P (1 y 3 ∈ S) = P (S2 ) + P (S4 ) = 0,3 + 0,1 = 0,4
• π23 = P (2 y 3 ∈ S) = P (S3 ) + P (S4 ) = 0,2 + 0,1 = 0,3
• π21 = π12 = 0,5
• π31 = π13 = 0,4
• π32 = π23 = 0,3

(b1) Usando la denición de E(ns ) se tiene:


4
P
E(ns ) = nsi P (si ) = 2(0,4) + 2(0,3) + 2(0,2) + 3(0,1) = 2,1
i=1

(b2) Como una función de los πk

2.6 Considere la población y el diseño en el ejercicio 2.5, sean y1 = 16, y2 = 21, y y3 = 18 los
valores de la variable de estudio y. Entonces tenemos que t = 55.

(a) Calcule el valor esperado y la varianza del π − estimador de la denición en la sección 2,7
(b) Calcule la varianza del π − estimador usando el resultado 2.8.1
(c) Calcule el coeciente de Varianza del π − estimador
(d) Calcule la varianza estimada V̂ ar(tˆπ )usando el estimador de la varianza (2.8.6) para cada una de
las posibles muestras determine el valor esperado del estimador de la varianza en la presente situación
usando la denición del valor esperado en la sección 2.7.

(a) Sean y1 = 16, y2 = 21 y y3 = 18 ; Por denición tenemos que:


h i2 h i2
P (s) θ̂ − E(θ̂) ; Con Qr el conjunto de todas las muestras, es
P
V ar(θ̂) = E θ̂ − E(θ̂) =
s∈Qr
decir Qr = {S1 , S2 , S3 , S4 }.

Para t = yk , un estimador para el total poblacional t esta dado por:


P
k∈U
yk yk
para, i ∈ {1, 2, 3}
P P
t̂π = πk = πk
k∈S k∈Si

Luego:
4 P
P yk P yk P yk P yk P yk
t̂π = πk = πk + πk + πk + πk
i=1k∈Si k∈S1 k∈S2 k∈S3 k∈S4
y1 y2 y1 y3 y2 y3 y1 y2 y3 16 21 16 18 21 18 16 21 18
t̂π = 0,8 + 0,7 + 0,8 + 0,6 + 0,7 + 0,6 + 0,8 + 0,7 + 0,6 = 0,8 + 0,7 + 0,8 + 0,6 + 0,7 + 0,6 + 0,8 + 0,7 + 0,6

t̂π = 240

Así:

5
P
E(t̂π ) = P (Si )t̂π (Si ) = 0,4(50) + 0,3(50) + 0,2(60) + 0,1(80) = 20 + 15 + 12 + 8 = 55
k∈Si
 2
P (Si ) t̂π (Si ) − E(t̂π ) = 0,4(50−55)2 +0,3(50−55)2 +0,2(60−55)2 +0,1(80−55)2 = 85
P
V ar(t̂π ) =
k∈Si

(b) Por denición tenemos que:

∆kl πykk πyll ; ∆kl = πkl − πk πl y


P P
V ar(t̂π ) =
k∈U l∈U

∆12 = π12 − π1 π2 = 0,5 − (0,8)(0,7) = −0,06


∆13 = π13 − π1 π3 = 0,4 − (0,8)(0,6) = −0,08
∆23 = π23 − π2 π3 = 0,3 − (0,7)(0,6) = −0,12

Luego 
 2   yk 2  2 
yk
∆kl πykk πyll πk2 ∆kl πykk πyll yk
P P P P P P
V ar(t̂π ) = ∆kk πk + = πkk − πk + − ∆kk πk
k∈U k∈U l∈U k∈U k∈U l∈U
 2   2 
πk ) πykk + yk
∆kl πyll − πk (1 − yk
P P P
V ar(t̂π ) = πk (1 − πk πk ) π k
k∈U k∈U l∈U
 2 2  2

yk yk
V ar(t̂π ) = π1 (1 − π1 ) + π2 (1 − π2 )
π2 + π3 (1 − π3 ) πyk3 + ∆12 πy11 πy22 + ∆13 πy11 πy33 + ∆23 πy22 πy33
π2
          h    i
0,2
V ar(t̂π ) = 0,8 162 + 0,3
0,7 21 2
+ 0,4
0,6 18 2
− 0,06 16
0,8
21
0,7 − 0,08 16
0,8
18
0,6 − 0,12 21
0,7
18
0,6

V ar(t̂π ) = 64 + 189 + 216 − 36 − 48 − 108 = 277

(c) Calcule el coeciente de Varianza del π − estimador es:


√ √
V ar(t̂π ) 277
CV = t̂π
= 55 × 100 % = 30,26 %

(d) La estimación de la varianza es:

∆kl πykk πyll


P P
V̂ ar(t̂π ) =
k∈U l∈U
   2    2    2        
V̂ ar(t̂π ) = 0,16
0,5
16
+ 0,21 21
+ 0,24 18
− 0,06 16 21
− 0,08 16 18
0,6 −
    0,8 0,7 0,4 0,6 0,6 0,5 0,8 0,7 0,4 0,8
0,12 21 18
0,2 0,7 0,6

V̂ ar(t̂π ) = 582.875

2.7 Sea S una muestra estraída mediante un diseño Bernoulli con πk = π para todo k ∈ U . Sea
ns el tamaño aleatorio de S . Muestre que la probabilidad condicional de obtener S dado ns es igual a
la probabilidad de una muestra bajo un diseño M AS con tamaño ns jo de N .
P (S∩ns ) π ns (1−π)N −ns 1
P (S | ns ) = = N =
P (ns ) ( ns )πns (1−π)N −ns ( nNs )
Lo cual es igual a la probabilidad bajo el diseño M AS con ns jo.

2.8 Considerese un diseño M AS , con n elementos extraídos de N . Entonces:

.
 2 2
EM AS SyS = SyU

6
Pruebe esto usando:
2 2
, con una expresion analoga para SyU
2
y
PP
i) S (yk − yl ) = 2n (n − 1) SyS
PP 2 PP 2
ii) S (yk − yl ) = U Ik Il (yk − yl )
PP 2
S (yk −yl )
De i tenemos que: SyS
2
= 2n(n−1)

Luego:
2
nPP o nP P o
S (yk −yl ) 1 2
 2
EM AS SyS = EM AS 2n(n−1) = 2n(n−1) EM AS S (yk − yl )

Por la parte ii
nP P o
 2 1 2 1
PP 2
EM AS SyS = 2n(n−1) EM AS U Ik Il (yk − yl ) = 2n(n−1) U EM AS [Ik Il ] (yk − yl )
 2 1
PP 2 1
PP h n(n−1)
i
2
EM AS SyS = 2n(n−1) U πkl (yk − yl ) = 2n(n−1) U N (N −1) (yk − yl )
 2 1
PP 2 1
PP 2
EM AS SyS = 2n(n−1) U πkl (yk − yl ) = 2N (N −1) U (yk − yl )

1 1
 2  P P 2 P P
yk2 − 2yk yl + yl2 = yk2 − 2
PP PP
EM AS SyS = 2N (N −1) U yk yl + U yl
2N (N −1) U U
h i
 2 1
 P 2 PP  1
P 2 P 2
EM AS SyS = 2N (N −1) 2N U yk − 2 U yk yl = 2N (N −1) 2N U yk − 2 ( U yk )
h 2 i
1 2 1 2N
 2 P 2 P P 2 2

EM AS SyS = 2N (N −1) 2N y
U k − 2N N U y k = 2N (N −1) U yk − N ȲU

1
 2 P 
EM AS SyS = N −1 U yk2 − N ȲU2

Ahora
2 1
2 1
 1
P 
yk2 − 2yk ȲU + ȲU2 = yk2 − 2ȲU yk + N ȲU2
P P P
SyU = N −1 U yk − ȲU = N −1 U N −1 U U

1
2
P 
SyU = N −1 U yk2 − N ȲU2

En consecuencia:
 2 2
EM AS SyS = SyU

P 2
S (yk −ȳs )
2.9 Sea S una muestra extraída con un diseño BER. Sea SyS 2
= ns −1 si ns ≥ 2 y SyS
2
= 0 si
ns ≤ 1. Demostrar que el sesgo relativo de SyS está dado por:
2

EBER {SyS
2
}−SyU
2
N −1
2
SyU
= −P (ns ≤ 1) = − (1 − π) [1 + (N − 1) π]

Inicialmente por denión de valor esperado tenenemos que:


 2 P 2 P 2
P 2
P 2
EBER SyS = SySi P (si ) = SySi
P (si ) + SySi
P (si ) = SySi
P (si )
si Qr si Qr si Qr si Qr
{ns ≤1} {ns ≥2} {ns ≥2}

7
Bajo un diseño BER las muestras de igual tamaño, tienen la misma probabilidad de selección, en
consecuencia:
 2 P 2
P 2
P 2
EBER SyS = SySi
P (si ) + · · · + SySi
P (si ) + · · · + SySi
P (si )
si Qr si Qr si Qr
{ns =2} {ns =n} {ns =N }
 
N
Ahora el número de muestras de tamaño 2 es m = , mientras que las de tamaño n es
  2
N
w= . Además cuando ns = N , se tiene una única muestra y SyS
2 2
= SyU ; por lo que:
n
"m # w
# "
N −2 N −n N −N
X X
2 2
2

EBER SyS = SySi
π 2 (1 − π) + ··· + SySi π n (1 − π) 2
+ · · · + SyU π N (1 − π)
i=1 i=1
Para ns ≥ 2, se tiene que:
2
P hP i
S (yk −ȳs ) 1 1 1 2
y
2
P 2
 2
P
SyS = ns −1 = ns −1 s yk − ns ȳs = ns −1 s yk − ns ( s yk )

" !#
hP i
2 1 1 2 1 1
yk2 − yk2 − yk2 +
P P P PP
SyU = N −1 U N ( U yk ) = N −1 U N U U yk yl
k6=l
" # " #
1 1 1 1 N −1 1
2
P P
yk2 − yk2 −
PP PP
SyU = N −1 1− N U N U yk yl = N −1 N U N U yk yl
k6=l k6=l
" #
2 1 2
; luego:
P PP
SyU = N (N −1) (N − 1) U yk − U yk yl
k6=l
m m hP 2 i P m P m P 2
1
2
 1P
yk2 − 2
P P P
SySi
= si yk 2 = si si yk − 2 s i yk
i=1 i=1 i=1 i=1
  "    #
m N −1 P 2 1 N −1 P 2 N − 2 PP
2
P
SySi
=
1 U yk − 2 1 U yk + 0 U yk yl
i=1 k6=l
m
   
 N −1 P 2 1 N − 2 PP
h
(N −1)!
iP
2
= 1 − 12 1
yk2 − 21
P PP
SyS U y k − 2 U y y
k l = 2 (N −2)!1! U U yk yl
i=1
i 1 0 k6=l k6=l
( ) " #
m h i h ih i
P 2 1 (N −1)(N −2)! P 2
PP N (N −1) 1
P 2 PP
SySi
=2 (N −2)! U yk − U yk yl = 2 N (N −1) (N − 1) U yk − U yk yl
i=1 k6=l k6=l
m
 
N
h i h i h i
2
= N (N2−1) SyU 2
= N (N(N−1)(N −2)! 2 N! 2 2
P
SyS −2)!2! S yU = (N −2)!2! SyU = SyU
i=1
i 2

De forma analoga
w w n hP  w P w P

P 2
P 1 2 1
P 2 io 1
P 2
 1
P 2
SySi
= n−1 si yk − n si yk = n−1 si yk − n si yk
i=1 i=1 i=1 i=1
(    "  #)
w N −1 P 2 1 N −1 P 2 N − 2 PP
2 1
P
SySi
= n−1 n−1 U yk − n n−1 U yk + n−2 U yk yl
i=1 k6=l
(     )
w  N −1 P 2 1 N − 2 PP
2 1 1
P
SyS = n−1 1− n U yk − n U yk yl
i=1
i n−1 n−2 k6=l

8
( )
w h iP h iPP
2 1 n−1 (N −1)! 1 (N −2)!
yk2
P
SySi
= n−1 n [(N −1)−(n−1)]!(n−1)! − n [(N −2)−(n−2)]!(n−2)! U yk yl
i=1 k6=l
( )
w h iP h iPP
2 1 (N −1)(N −2)! 1 (N −2)!
yk2
P
SySi
= (n−1)(n − 1) −(N −n)!n! U yk yl
n (N −n)!(n−2)!
i=1 k6=l
" # ( " #)
w h i h i
P 2 (N −2)! P 2 PP N (N −1)(N −2)! 1
P 2 PP
SySi
= (N −n)!n! (N − 1) yk − U yk yl = (N −n)!n! N (N −1) (N − 1) yk − U yk yl
i=1 k6=l k6=l
w
 
N
h i
2 N! 2 2
P
SyS = (N −n)!n! SyU = SyU
i=1
i n

En virtud de los resultados anteriores:


        
N N −2 N N −n N N −N
π 2 (1 − π)
 2 2
EBER SyS = SyU +· · ·+ π n (1 − π) 2
SyU +· · ·+ π N (1 − π) 2
SyU
2 n N
 2 2 2 2
EBER SyS = SyU P (ns = 2) + · · · + SyU P (ns = n) + · · · + SyU P (ns = N )

 2 N
2 2 2
P
EBER SyS = SyU [P (ns = 2) + · · · + P (ns = n) + · · · + P (ns = N )] = SyU P (ns = k) = SyU P (ns ≥ 2)
k=2
 2
2
EBER SyS = SyU [1 − P (ns ≤ 1)]

Por lo tanto:
EBER {SyS
2
}−SyU
2 2
SyU 2
[1−P (ns ≤1)]−SyU 2
SyU 2
−SyU 2
P (ns ≤1)−SyU 2
−SyU P (ns ≤1)
2
SyU
= 2
SyU
= 2
SyU
= 2
SyU
= −P (ns ≤ 1)
    
EBER {SyS
2
}−SyU
2
N 0 N −0 N 1 N −1
2
SyU
= − [P (ns = 0) + P (ns = 1)] = − π (1 − π) + π (1 − π)
0 1
EBER {SyS
2
}−SyU
2 h i
N N −1 N −1
2
SyU
= − (1 − π) + N π (1 − π) = − (1 − π) [(1 − π) + N π]
EBER {SyS
2
}−SyU
2
N −1
2
SyU
= − (1 − π) [1 + π (N − 1)]

2.10 Sea S (S ⊂ U ) una muestra Extraída bajo un diseño M AS , y sea S1 (S1 ⊂ U − S ) una muestra
extraída bajo un diseño M AS del resto de porción de la población sea y U = S ynk y y U1 = S1 nyk1
P P
donde n y n1 son los respectivos tamaños (jos) de S y S1 . Halle la covarianza entre y U y y U1 .

Haciendo uso de la covarianza condicional, tenemos:


    
Cov y U , y U1 = E Cov y U , y U1 | S + Cov E (y U | S) , E y U1 | S

De donde y U es una constante condicionada a S, por lo que:

Cov y U , y U1 | S = 0 y E (y U | S) = y U .


Mientras que:
hP i  P
yk 1 1 n1 1
 P P
E y U1 | S = E S1 n1 |s = n1 U −S yk E [Ik (S1 )] = n1 N −n U −S yk = N −n U −S yk
 1
P P N Ȳ −ny U
E y U1 | S = N −n [ U yk − S yk ] = N −n

9
En consecuencia:
h i
 N Ȳ −ny U N
 n
Cov y U , y U1 = 0 + Cov y U , N −n = N −n Cov y U , Ȳ − N −n Cov (y U , yU )

n N −n
ar (y U ) = − N n−n
1 n
Sy2 = − N n−n n1
     
Cov y U , y U1 = 0 − N −n V n 1− N N Sy2

Cov y U , y U1 = − N1 Sy2


De donde Ȳ y Sy2 corresponden a la media y la varianza poblacional respectivamente.

A continuación se presentan las expresiones de los diseños M AS , BER y SIS a través del estimador
de Horvitz - Thompson

Inicialmente recordemos:

S πk , y
yk yk yl ∆kl yk yl
P  PP  PP
t̂yπ = V ar t̂yπ = U 4kl πk πl V̂ ar t̂yπ = S πkl πk πl

Bajo diseño M AS se tienen los siguienes resultados:

πk = n
N y πkl = n(n−1)
N (N −1)

Luego:

S πk = N
P yk 1
P N
P
t̂yπ = n S yk = n S yk

Por denición de varianza


y2
∆kl πykk πyll = ∆kl πykk πyll
PP P PP
V ar(b
tyπ ) = U U ∆kk πk2 +
k
k6=l

Para k 6= l se tiene que:


n(n−1) h i h i h i
4kl πkl −πk πl πkl N (N −1) N (n−1) N (n−1)−n(N −1) n−N N −n
πk πl = πk πl = πk πl −1 = −1 = n(N −1) − 1= n(N −1) = n(N −1) =− n(N −1)
( )( )
N
n n
N

Mientras que para k = l


2
4kk πk −πk 1 N N −n
2
πk
= πk2 = πk −1= n −1= n

Así:
 P 2 h N −n i P P
N N −n
 P 2 h N −n i h P 2 P 2i
V ar(b
tyπ ) = −1 n U ky − n(N −1) y k yl = n U ky − n(N −1) ( U y k ) − U yk
k6=l
h i h i
2
tyπ ) = N n−n N −n N −n
P 2 P P 2
V ar(b U yk − n(N −1) ( U yk ) + n(N −1) U yk
 P h i P h i
2 2
tyπ ) = N n−n + n(N N −n N −n N −n
2
P 2 N −n P
V ar(b −1) y
U k − n(N −1) ( U y k ) = n(N −1) (N − 1 + 1) U yk − n(N −1) ( U yk )
h i h i P h i hP i
(N −n) P 2 N (N −n) 2
tyπ ) = Nn(N 2 N −n 2 1
P
V ar(b −1) y
U k − n(N −1) ( U y k ) = n(N −1) U ky − N ( U yk )
n hP io n o
N −n 2 2
tyπ ) = N 1 1 N n 1
 2
P   P 2 2
V ar(b n N N N −1 U ky − N N U y k = n 1 − N N −1 U ky − N ȲU

10
N2 n
 2
V ar(b
tyπ ) = n 1− N SyU

De forma analoga:
2
PP ∆kl yk yl P ∆kk yk PP ∆kl yk yl
V̂ ar(b
tyπ ) = S πk πk πl = S πk πk2 + πkl πk πl
k6=l

Para k 6= l se tiene que:


h i h i
4kl πkl −πk πl 1 1 N 2 N (N −1) N 2 n(N −1) N 2 n−N
  
πkl πk πl = πkl πk πl = πk πl − πkl = n − n(n−1) = n 1− N (n−1) = n N (n−1)
h i
N 2
4kl 1−f
, con f = n

πkl πk πl =− n (n−1) N

Mientras que para k = l


2
4kk πk −πk 1 1 N 2 N N 2 n N 2
   
3
πk
= πk3 = πk2 − πk = n − n = n 1− N = n (1 − f )

Luego:
h iP P 2 h 1−f i h P P 2i
N 2 N 2 1−f N 2 2
(1 − f ) S yk2 − N
 P 2
 P 
V̂ ar(b
tyπ ) = n (1 − f ) S yk − n (n−1) yk yl =n n(n−1) ( S y k ) − S yk
k6=l
2 h
2 1−f i h i
2 N 2 1−f
tyπ ) = N (1 − f ) S yk2 − N
P P  P 2
V̂ ar(b n n (n−1) ( S yk ) + n (n−1) S yk
 2 h
2 1−f i h i
N 2 1−f 2
tyπ ) = N (1 − f ) + N
P 2  P
V̂ ar(b n n (n−1) S yk − n (n−1) ( S yk )
2 h 1−f i N 2
 h 1−f i P 2
tyπ ) = N
P 2
V̂ ar(b n (n−1) (n − 1 + 1) y
S k + n (n−1) ( S yk )
 2h iP  h 1−f i P  2 h i hP i
1−f N 2 2 2
tyπ ) = Nn 2 N 1 2 1
P
V̂ ar(b (n−1) y
S k − n (n−1) ( S yk ) = n (1 − f ) (n−1) y
S k − n ( S yk )

N2 2
V̂ ar(b
tyπ ) = n (1 − f ) SyS

Bajo diseño BER se tienen los siguienes resultados:

πk = π , πkl = π 2 y
( ( (
πk (1 − πk ) si k = l π (1 − π) si k = l π (1 − π) si k = l
∆kl = = =
πkl − πk πl si k =6 l π 2 − ππ si k 6= l 0 si k 6= l
Luego:

S πk = π
P yk 1
P
t̂yπ = S yk

Por denición de varianza


y2
∆kl πykk πyll = ∆kl πykk πyll
PP P PP
V ar(b
tyπ ) = U U ∆kk πk2 +
k
k6=l
y2 π(1−π) 1−π
yk2 = yk2
P P P
V ar(b
tyπ ) = U ∆kk πk2 = π2 U π U
k

Así:

11
1
P 2
V ar(b
tyπ ) = π −1 U yk

De forma similar:
2
PP ∆kl yk yl P ∆kk yk PP ∆kl yk yl
V̂ ar(b
tyπ ) = S πk πk πl = S πk πk2 + πkl πk πl
k6=l

Para k = l se tiene que:


4kk π(1−π) 1−π 1 1−π 1 1
−1 .
 
π3 = π3 = π2 = π π = π π

Es claro que para k 6= l se tiene que ∆kl yk yl


= 0, puesto que ∆kl = 0
PP
πkl πk πl
k6=l

Luego:
2
P ∆kk yk
V̂ ar(b
tyπ ) = S πk πk2

1 1
P
V̂ ar(b
tyπ ) = π π −1 S yk2

Para el diseño SIS , tenemos lo siguiente:


(
1
Si k y l pertenecen a sr
πk = a1 , y πkl = a
0 en otro caso
Luego:
yk
yk = atsr , mientras que:
P P
t̂yπ = s r πk =a sr
 PP yk yl PP yk yl P P  πkl 
V ar t̂yπ = U 4 kl πk πl = U (π kl − π k π l ) πk πl = U πk πl − 1 yk yl
 PP πkl PP PP πkl P 2
V ar t̂yπ = U πk πl yk yl − U yk yl = U πk πl yk yl −( U yk )
πkl
 PP
V ar t̂yπ = U πk πl yk yl − t2
!
 a  a
yk yl − t2 = a − t2
P PP P P P
V ar t̂yπ = a sr yk yl
r=1 r=1 ksr lsr
 a 2 a
− t2 = a t2sr − t2
P P P
V ar t̂yπ = a sr yk
r=1 r=1
a a
(tsr − t̄) ; de donde t̄ =
 P 2 P tsr t
V ar t̂yπ = a a = a
r=1 r=1

Algunas probabilidades de inclusión de segundo orden son nulas, por tal motivo no se tiene un es-
timador de la varianza.

12

Potrebbero piacerti anche