Sei sulla pagina 1di 5

Solucionario de la Práctica Calificada II -

Estadı́stica Bayesiana
Angie Crisóstomo Casasola1
1
Asignatura: Estadı́stica Bayesiana
2
Profesor: MSc. Christian Amao Suxo
3
Escuela Profesional de Ingenierı́a Estadı́stica
4
Universidad Nacional de Ingenierı́a

10/06/2019

Resumen
El presente trabajo muestra la resolución de la Práctica Califi-
cada, con las técnicas aprendidas en el actual semestre, los temas a
evaluar son Teorema de Bayes, Prioris no-informativas y Proceso de
Elicitación.

1. Solucionario de ejercicios
1.1. Problema 1
Responda si son ciertas las siguientes proposiciones. Encaso no sean ciertas,
comente cuál es su punto de vista.

a) La priori de Jeffreys es un tipo de priori subjetiva que considera la informa-


ción esperada de Fisher para su definición.
b) En un proceso de elicitación, se requiere la máxima cantidad de informa-
ción posible del parámetro por parte del facilitador para poder elicitar una
distribución adecuada.
c) La priori de Jeffreys posee la propiedad de invarianza frente a transformacio-
nes de escala y traslación del parámetro. Esto es si p(θ) ∝ I(θ)1/2 entonces
ϕ = (θ − a)/b con b 6= 0, tiene una distribución priori p(ϕ) ∝ I(ϕ)1/2 .

d) En un proceso de elicitación es recomendable usar la priori de Jeffreys porque


esta considera la cantidad de información muestral a través de la información
esperada de Fisher, haciendo de esta manera que la distribución posteriori
aproveche la máxima información disponible de la muestra.
e) Para definir prioris jerárquicas de un parámetro, se tiene que establecer pri-
mero la fase estructural en donde se establecen las relaciones que hay entre
las observaciones de la muestra y su estadı́stico máximo verosı́mil.

1
Solución:

a) (F) La distribución priori de Jeffreys, es una priori objetiva, que surgen


por la poca o nula información disponible que también se les conoce como
prioris no informativas, para el caso de la priori de Jeffreys esta dada por
π(θ) ∝ I(θ)1/2 , donde I(θ) es la información esperada de Fisher.

b) (F) En un proceso de elicitación, la información sobre el parámetro la provee


el experto.
c) (V) La priori de Jeffreys es invariante frente a transformaciones, debido a
que esta función es biyectiva, ϕ = (θ − a)/b con b 6= 0.

d) (F) El proceso de elicitación es un proceso de evaluación del conocimiento de


alguien sobre una cantidad incierta involucrada, es decir hay una información
previa que estarı́a sujeta a en la elicitacion; por lo que la priori involucrada
es una distribución priori subjetiva.
e) (F) Para la definición de prioris jerárquicas de un parámetro, en la fase
estructural se establecen las relaciones que hay con los parámetros.

1.2. Problema 2
Dos biólogos marinos están interesados en estudiar cómo evoluciona la pobla-
ción de anchovetas en el norte del Perú. Para ello, los biólogos realizan medicio-
nes de la cantidad de anchovetas por pie cúbico en dos lugares distintos del litoral
peruano. Además ambos biólogos realizan la misma cantidad de mediciones y
denotando por θ y φ a la cantidad promedio de anchovetas por metro cúbico
observados en los dos distintos lugares. Por su parte, un estadı́stico establece
que por las condiciones del experimento, lo más adecuado para la distribución
priori serı́a

p(θ, φ) = p(θ)p(φ) ∝ k

Si los biólogos están interesados en ψ = θ/(θ + φ) y η = θ + φ.


a) Obtenga la distribución priori para (ψ, η).

b) Halle la densidad posteriori de ψ y η usando la información muestral de


ambos biólogos. ¿Son estas distribuciones independientes? Justifique.
Solución:

a) Para obtener la distribución priori conjunta p(ψ, η), utilizaremos el método


de transformación de vectores aleatorios, que estarı́a expresado de la siguiente
forma:

p(ψ, η) = p(θ(ψ, η); φ(ψ, η)) ∗ abs(|J|)

2
Ya que la distribución conjunta de θ y φ es proporcional a una constante k,
la distribución conjunta de ψ y η, p(ψ, η) resulta:

p(ψ, η) ∝ abs(|J|)

Donde la determinante del Jacobiano, queda determinado por:


!
∂θ ∂θ
∂ψ ∂η
J= ∂φ ∂φ (1)
∂ψ ∂η

Expresando θ y φ en función de ψ y η:

θ = ψη
φ = η(1 − ψ)

De las derivadas parciales se obtiene:


∂θ
∂ψ =η
∂θ
∂η =ψ
∂φ
∂ψ = −η
∂φ
∂η =1−ψ

Reemplazando en (1), la determinante del jacobiano resultarı́a

 
η ψ
J= (2)
−η 1−ψ

Entonces la determinante del Jacobiano; |J| = η(1 − ψ) + ηψ = η


Finalmente la distribución conjunta de ψ y η sólo dependerá del rango de
η para saber si esta distribución esta bien definida, deberemos evaluar los
valores de ψ y η

p(ψ, η) ∝ η

Del problema θ, φ > 0, ya que son valores discretos que sirven para una
medida de conteo.

ψ = θ/(θ + φ) > 0,
η =θ+φ>0

De esto finalmente la distribución priori de ψ y η es impropia porque la


integral en su rango no llega 1.

3
b) Describiendo lo enunciado, sean Xi y Yi son las mediciones hechas por el
biólogo 1 y 2 respectivamente para i : 1, 2, ..., m

Xi |θ ∼ P(θ)
Yi |θ ∼ P(φ)

Estas son independientes pues son las medidas hechas en dos lugares distin-
tos, asi, entonces
L(θ, φ) = p(X, Y |θ, φ), resume la información de las muestras.

L(θ, φ) = p(X|θ, φ)p(Y |θ, φ) pues X, Y son independientes.

L(θ, φ) = p(X|θ)p(Y |φ)


Qn Qn
L(θ, φ) = i=1 e−θ θxi i=1 e−φ φyi
Pn Pn
L(θ, φ) ∝ e−n(θ+φ) θ i=1 xi
φ i=1 yi

Se pide:

p(ψ, η|X, Y ) ∝ p(ψ, η)LX,Y (ψ, η)

Reemplazando los valores de θ y φ en función de ψ y η


Pn Pn
L(ψ, η) ∝ e−n(η) (nψ) i=1 xi
(n(1 − ψ)) i=1 xi

Pn
xi + n
P Pn Pn
p(ψ, η|X, Y ) ∝ ηe−n(η) n( i=1 i=1 yi ) ψ i=1 xi
(1 − ψ) i=1 yi

Pn
xi + n
P Pn Pn
p(ψ, η|X, Y ) ∝ [e−n(η) n( i=1 i=1 yi +1) ][ψ i=1 xi
(1 − ψ) i=1 yi
]

Ası́ finalmente el primer producto es el kernel de la distribución Gamma,


mientras que el segundo producto es el kernel de la distribución Beta. De lo
que resulta
Pn
n|X, Y ∼ G( i=1 (xi + yi + 2); η)
Pn Pn
ψ|X, Y ∼ B( i=1 xi + 1; i=1 yi + 1)

Estas distribuciones son independientes pues es el producto de p(η|X, Y ) y


p(ψ|X, Y ) nos resulta la distribución conjunta de p(ψ, η|X, Y ).

4
1.3. Problema 3
La Universidad Nacional de Ingenierı́a desea hacer un estudio sobre el IQ
de sus estudiantes, por lo que contrata a un grupo de psicólogos expertos que
deciden extraer una muestra de n estudiantes de pregrado cuyo IQ medio real
cada uno es θi , para i = 1, 2, ..., n. Por practicidad, los psicólogos suponen que
los θi , constituyen una muestras aleatoria de una población de IQs con media
desconocida µ y varianza conocida b. Un test para medir el IQ es aplicado,
brindando las observaciones independientes Y1 , ..., Yn donde Yi ∼ N (θ, a), con
a conocido. Con los datos experimento, construya una priori jerárquica para los
parámetros θ1 , θ2 , ..., θn .
Solución:
Piden una priori jerárquica, entonces la estructura jerárquica queda deter-
minada de la siguiente manera. Se realiza una prueba tal que se extrae una
muestra Y1 , Y2 , ..., Yn , donde cada uno tiene un IQ
IQc/estudiante = θi

Fase Estructural, donde estableceremos los niveles de jerarquı́a del paráme-


tro.

Yi |θi ∼ N (θi , a)
θi |µ ∼ N (µ, b)
µ ∼ N (α, β)

Fase de Elicitación
R
Qn1 , θ2 , ..., θn |µ)p(µ)dµ
p(θ1 , θ2 , ..., θn ) = R p(θ
p(θ1 , θ2 , ..., θn ) = i=n p(θi |µ)p(µ)dµ
Donde se conoce
−b 2
p(θi |µ, b) =√ 1 e 2 (θi −µ)
2πb
−β 2
1
p(µ|α, β) = √2πβ e 2 (µ−α)
R∞ 1 Pn 2 2
p(θ1 , θ2 , ..., θn ) = √ 1 √ e−0,5∗[b i=1 (θi −µ) +β(µ−α) ] dµ
(2π)− (n+1)/2 0 2πbβ

De esto todas las constantes las tomaremos como un k, por lo que sólo dependerá
de una exponencial, esto pertenece al kernel de la distribución norma.
−1 αβ 2
p(θ1 , θ2 , ..., θn ) ∝ e 2 [µ− β−1 ] [β−1]

Potrebbero piacerti anche