Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Una idea es la distribución a priori débilmente informativa, que contiene cierta información,
suficiente para "regularizar" la distribución posteriori, es decir, para mantenerla
aproximadamente dentro de límites razonables, pero sin intentar capturar completamente el
conocimiento científico sobre el parámetro subyacente.
*Método de Jeffreys.
Método de Bayes-Laplace (Principio de razón insuficiente)
Este principio dice que sino hay información para diferenciar entre los diferentes valores
del parámetro 𝛉, se debe dar la misma probabilidad de ocurrencia a todos los valores. Este
principio implica usar como distribución a priori una distribución Uniforme para 𝜃. Así:
1
1. Si Θ = 𝜃1 , 𝜃2 , … , 𝜃𝑛 entonces 𝜋 𝜃 = .
𝑛
1
2. Si 𝜃 ∈ 𝑎, 𝑏 entonces 𝜋 𝜃 = .
𝑏−𝑎
3. Si Θ = 𝜃1 , 𝜃2 , … entonces 𝜋 𝜃 ∝ 1.
4. Si 𝜃 ∈ −∞, ∞ entonces 𝜋 𝜃 ∝ 1.
𝐿 𝜃 𝑥1 , 𝑥2 , … , 𝑥𝑛 = 𝜃 𝑡 1 − 𝜃 𝑛−𝑡
𝜃𝑡 1 − 𝜃 𝑛−𝑡
∗1 𝜃𝑡 1 − 𝜃 𝑛−𝑡
𝜋 𝜃 𝑥1 , 𝑥2 , … , 𝑥𝑛 = 1 = 1
0 𝜃 𝑡 1−𝜃 𝑛−𝑡 ∗ 1 𝑑𝜃 0 𝜃 𝑡 1 − 𝜃 𝑛−𝑡 𝑑𝜃
Γ(𝑎 + 𝑏) 𝑎
𝜃 𝑡 1 − 𝜃 𝑛−𝑡
𝑓 𝑥 = 𝑥 1−𝑥 𝑏−1
0<𝑥<1 𝜋 𝜃 𝑥1 , 𝑥2 , … , 𝑥𝑛 =
Γ 𝑎 Γ(b) Γ 𝑡 + 1 Γ(𝑛 − 𝑡 + 1)
Γ(𝑡 + 1 + 𝑛 − 𝑡 + 1)
1
න 𝑓 𝑥 𝑑𝑥 = 1
0
1 Γ(𝑡 + 1 + 𝑛 − 𝑡 + 1) 𝑡 𝑛−𝑡
Γ(𝑎 + 𝑏) 𝜋 𝜃 𝑥1 , 𝑥2 , … , 𝑥𝑛 = 𝜃 1−𝜃
න 𝑥 𝑎−1 1 − 𝑥 𝑏−1
𝑑𝑥 = 1 Γ 𝑡 + 1 Γ(n − t + 1)
Γ 𝑎 Γ(b) 0
1
Γ 𝑎 Γ(𝑏)
න 𝑥 𝑎−1 1 − 𝑥 𝑏−1
𝑑𝑥 =
0 Γ(𝑎 + 𝑏)
𝜃|𝑥1 , 𝑥2 , … , 𝑥𝑛 ∼ 𝐵𝑒𝑡𝑎 (𝑡 + 1, 𝑛 − 𝑡 + 1)
Método de Bayes-Laplace (Principio de razón insuficiente)
El principal problema de emplear una distribución Uniforme como distribución a
priori no informativa es que la distribución Uniforme no es invariante bajo
reparametrizaciones, es decir, sino se cuenta con información sobre 𝜃 entonces
tampoco sobre 𝜙 = 𝑔(𝜃) (Una transformación uno a uno).
𝜋 𝜃 = 1 𝜃 ∼ 𝑈𝑛𝑖𝑓𝑜𝑟𝑚𝑒(0,1)
Suponga ahora que más que estar interesado en 𝜃 directamente estamos interesados
𝜃
en una función uno a uno de 𝜃, digamos 𝜙 = log .
1−𝜃
𝜃
Retomando el ejemplo anterior, si 𝜙 = log 1−𝜃
y 𝜋 𝜃 = 1 entonces:
𝜃 𝑒𝜙
𝜙 = log
1−𝜃 𝜋 𝜙 =1
1 + 𝑒𝜙 2
𝜃
𝑒𝜙 = 𝑒𝜙
1−𝜃
𝜋 𝜙 = 𝜙 ∈ (−∞, ∞)
1 + 𝑒𝜙 2
𝑒𝜙
𝜃=
1 + 𝑒𝜙 𝜙 ∼ 𝑙𝑜𝑔𝑖𝑠𝑡𝑖𝑐𝑎 𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟 (𝜇 = 0, 𝜎 2 = 1)
𝑑𝜃 𝑒𝜙 La distribución de 𝜙 no cumple el principio de razón insuficiente. La
=
𝑑𝜙 1 + 𝑒𝜙 2
ignorancia sobre 𝜃 no implica la ignorancia sobre 𝜙.
Método de Jeffreys
La carencia de invarianza de la distribución a priori derivada del principio de la razón
insuficiente, ha conducido a la búsqueda de una distribución a priori no informativas, las
cuales sean invariantes ante transformaciones del parámetro, ya que por ejemplo, Jeffreys
dice: “Cualquier parametrización arbitraria del modelo debe de llevar a los mismos
resultados”. Se han dado muchas sugerencias para resolver este problema. Harold Jeffreys
desarrollo un método que cumple este principio basado en la medida de información de
Fisher.
𝜕 2 log 𝑓 𝑥 𝜃
𝐼 𝜃 = −𝐸
𝜕𝜃𝑖 𝜕𝜃𝑗
Método de Jeffreys
Entonces la distribución a priori no informativa de Jeffreys será:
• Si tenemos un parámetro:
𝜋(𝜃) ∝ 𝐼 𝜃
𝑌 ∼ 𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝜃)
𝑃 𝑌 = 𝑦 𝜃 = 𝜃𝑦 1 − 𝜃 1−𝑦
𝜕 log 𝑃 𝑌 = 𝑦 𝜃 𝑦 1−𝑦
= −
𝜕𝜃 𝜃 1−𝜃
𝜕 2 log 𝑃 𝑌 = 𝑦 𝜃 𝑦 1−𝑦
=− 2−
𝜕𝜃 2 𝜃 1−𝜃 2
Método de Jeffreys
Ejemplo: Sea Y una variable aleatoria con función de distribución Bernoulli de parámetro
𝜃. Encuentre la distribución a priori de Jeffreys para 𝜃.
𝜕 2 log 𝑃 𝑌 = 𝑦 𝜃 𝑦 1−𝑦
=− −
𝜕𝜃 2 𝜃2 1−𝜃 2
𝜕 2 log 𝑃 𝑌 = 𝑦 𝜃 𝐸 𝑦 𝐸(1 − 𝑦)
𝐸 =− 2 −
𝜕𝜃 2 𝜃 1−𝜃 2
𝜕 2 log 𝑃 𝑌 = 𝑦 𝜃 𝜃 1−𝜃 1 1
𝐸 =− 2 − =− −
𝜕𝜃 2 𝜃 1−𝜃 2 𝜃 1−𝜃
𝜕 2 log 𝑃 𝑌 = 𝑦 𝜃 1 1 1
−𝐸 = + =
𝜕𝜃 2 𝜃 1 − 𝜃 𝜃(1 − 𝜃)
Método de Jeffreys
Ejemplo: Sea Y una variable aleatoria con función de distribución Bernoulli de
parámetro 𝜃. Encuentre la distribución a priori de Jeffreys para 𝜃.
𝜕 2 log 𝑃 𝑌 = 𝑦 𝜃 1 1 1
−𝐸 = + =
𝜕𝜃 2 𝜃 1 − 𝜃 𝜃(1 − 𝜃)
1
𝜋(𝜃) ∝
𝜃(1 − 𝜃)
1 1
− −
𝜋 𝜃 ∝ 𝜃 2 1−𝜃 2
1 1
𝜋 𝜃 ∝ 𝜃 2−1 1−𝜃 2
−1
1 1
𝜃 ∼ 𝐵𝑒𝑡𝑎 𝑎 = , 𝑏 =
2 2
Método de Jeffreys
Ejemplo: Suponga que se tiene una variable aleatoria normal con 𝜇 y 𝜎 desconocidas.
Calcule la distribución a priori de Jeffreys para 𝜇, 𝜎 .
1 1 𝑥−𝜇 2
−
𝑓 𝑥 𝜇, 𝜎 = 𝑒 2 𝜎2
2𝜋𝜎
1 2
1 2
log 𝑓 𝑥 𝜇, 𝜎 = − log 2𝜋𝜎 − 2 𝑥 − 𝜇
2 2𝜎
𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 𝜕 2 log 𝑓 𝑥 𝜇, 𝜎
−𝐸 −𝐸
𝜇 𝜕𝜇 2 𝜕𝜎𝜕𝜇
𝐼 =
𝜎 𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 𝜕 2 log 𝑓 𝑥 𝜇, 𝜎
−𝐸 −𝐸
𝜕𝜇𝜕𝜎 𝜕𝜎 2
Método de Jeffreys
Ejemplo: Suponga que se tiene una variable aleatoria normal con 𝜇 y 𝜎 desconocidas.
Calcule la distribución a priori de Jeffreys para 𝜇, 𝜎 .
𝜕 log 𝑓 𝑥 𝜇, 𝜎 1 𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 1
= 𝑥−𝜇 =−
𝜕𝜇 𝜎2 𝜕𝜇2 𝜎2
2
𝜕 log 𝑓 𝑥 𝜇, 𝜎 1 𝑥−𝜇 𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 1 3 𝑥−𝜇 2
=− + = 2−
𝜕𝜎 𝜎 𝜎3 𝜕𝜎 2 𝜎 𝜎4
𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 2 𝑥−𝜇
=−
𝜕𝜇𝜕𝜎 𝜎3
𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 1 1
−𝐸 = −𝐸 − 2 = 2
𝜕𝜇 2 𝜎 𝜎
𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 2 𝑥−𝜇 2
−𝐸 = −𝐸 − 3
= 3
𝐸 𝑥−𝜇 =0
𝜕𝜎𝜕𝜇 𝜎 𝜎
𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 1 3 𝑥−𝜇 2 2
−𝐸 = −𝐸 2 − =
𝜕𝜎 2 𝜎 𝜎4 𝜎2
Método de Jeffreys
Ejemplo: Suponga que se tiene una variable aleatoria normal con 𝜇 y 𝜎 desconocidas.
Calcule la distribución a priori de Jeffreys para 𝜇, 𝜎 .
𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 𝜕 2 log 𝑓 𝑥 𝜇, 𝜎 1
−𝐸 −𝐸 0
𝜇 𝜕𝜇 2 𝜕𝜎𝜕𝜇 𝜎2
𝐼 = =
𝜎 2
𝜕 log 𝑓 𝑥 𝜇, 𝜎 2
𝜕 log 𝑓 𝑥 𝜇, 𝜎 2
−𝐸 −𝐸 0
𝜕𝜇𝜕𝜎 𝜕𝜎 2 𝜎2
𝜇
𝜋(𝝁, 𝝈) ∝ det 𝐼
𝜎
1 2
𝜋(𝝁, 𝝈) ∝ ∗ 2 −0
𝜎2 𝜎
2
𝜋(𝝁, 𝝈) ∝
𝜎2
1
𝜋(𝝁, 𝝈) ∝ 2
𝜎
Método de Jeffreys
Ejercicio: Para cada caso encuentre la distribución a priori de Jeffreys: