Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1 Método de aceptación-rechazo
Como ya sabemos, encontrar una fórmula explícita para F - 1 ( y) para el cdf de un rv X deseamos generar, F (x) = P (X ≤ X), No
siempre es posible. Además, incluso si es así, puede haber métodos alternativos para generar un rv distribuido como F eso es
más eficiente que el método de transformación inversa u otros métodos que hemos encontrado. Aquí presentamos un método
muy inteligente conocido como el método de aceptación-rechazo.
Comenzamos asumiendo que el F queremos simular desde tiene una función de densidad de probabilidad
f (x); es decir, el caso continuo. Más adelante también daremos una versión discreta, que es muy similar.
La idea básica es encontrar una distribución de probabilidad alternativa SOL, con función de densidad g (x),
desde el cual ya tenemos un algoritmo eficiente para generar desde (por ejemplo, método de transformación inversa o lo que sea),
pero también de modo que la función g (x) esta cerca de f (x). En particular, suponemos que la relación f (x) / g (x) está limitado por
una constante c> 0; cenar X{ f (x) / g (x)} ≤ C. ( Y en la práctica nos gustaría C lo más cerca posible de 1)
2. Generar U ( independiente de Y)
3. Si
U ≤ f (Y)
cg (Y) ,
• f (Y) y g (Y) son rvs, por lo tanto, también lo es la relación f (Y) cg (Y) y esta relación es independiente de U en
Paso 2).
• La cantidad de veces norte que los pasos 1 y 2 deben llamarse (por ejemplo, la cantidad de iteraciones necesarias para
generar con éxito X ) es en sí un rv y tiene una distribución geométrica con probabilidad de "éxito" p = P (U ≤ f (Y)
• Al final obtenemos nuestro X como teniendo la distribución condicional de un Y dado que el evento { U ≤ f (Y)
cg (Y)} ocurre.
cg (Y) | Y = y) = f (y) cg (y); por lo tanto, descondicionando y recordando que Y tiene densidad g (y) rendimientos
∫ ∞ −∞
f (y) cg (y) × g (y) dy
p=
1
∫ ∞ −∞ f (y) dy
=1
C
=1
C,
donde sigue la última igualdad desde F es una función de densidad (por lo tanto, por definición se integra a
1) Así E (N) = C, la constante límite, y ahora podemos ver que es deseable elegir nuestra densidad alternativa gramo para
minimizar esta constante c = cenar X{ f (x) / g (x)}. Por supuesto, la función óptima sería g (x) = f (x) lo cual no es lo que tenemos
en mente ya que el objetivo es elegir una alternativa diferente (fácil de simular) de F. En resumen, es un poco arte encontrar
una adecuada sol. En cualquier caso, resumimos con
El número esperado de iteraciones del algoritmo requerido hasta un X se genera con éxito es exactamente la
constante delimitadora c = cenar X{ f (x) / g (x)}.
Prueba: Debemos demostrar que la distribución condicional de Y Dado que U ≤ f (Y) cg (Y) , es de hecho F;
eso es eso P (Y ≤ y | U ≤ f (Y) cg (Y) ) = F (y). Dejando B = {U ≤ f (Y) cg (Y)}, A = {Y ≤ y}, recordando
ese P (B) = p = 1 / C, y luego usando el hecho básico de que P (A | B) = P (B | A) P (A) / P (B) rendimientos
P (U ≤ f (Y)
cg (Y) | Y ≤ y) × G (y) 1 / c = F (y)
cG (y) × G (y)1 / c = F (y),
cg (Y) , Y ≤ y) G (y)
P (U ≤ f (Y)
cg (Y) | Y ≤ y) = P (U ≤ f (Y)
∫y
P (U ≤ f (y) cg (y) | Y = w ≤ y) G (y)
= g (w) dw
−∞
∫y
f (w) cg (w) g (w)
=1 dw
G (y) −∞
∫y
1
=
cG (y) −∞ f (w) dw
= F (y)
cG (y) .
Si deseamos un X ∼ N (µ, σ 2) entonces podemos expresarlo como X = σZ + µ, dónde Z denota un rv con el NORTE( 0, 1) distribución. Por lo
tanto, basta con encontrar un algoritmo para generar Z ∼ NORTE( 0, 1) Además, si podemos generar a partir del valor absoluto, | Z | entonces
por simetría podemos obtener nuestro
Z generando independientemente un rv S ( para firmar) que es ± 1 con probabilidad 1/2 y ajuste
2
Z = S | Z |. En otras palabras, generamos un U y establecer Z = | Z | Si U ≤ 0.5 y establecer Z = - | Z | Si
U> 0.5.
El | Z | no es negativo y tiene densidad
f (x) = 2 √ 2 πe - X 2 / 2, X ≥ 0.
2. Generar U
Como una buena idea de último momento, tenga en cuenta que por la propiedad sin memoria de la distribución exponencial, la cantidad
por la cual Y 2 excede ( Y - 1) 2 / 2 en el Paso 2 del algoritmo cuando Y 1 es aceptado, es decir, la cantidad Y def
3
2.2 Distribución beta
En general, una distribución beta en el intervalo de la unidad, X ∈ ( 0, 1), tiene una densidad de la forma
f (x) = bx norte( 1 - X) metro con norte y metro no negativo (enteros o no). El constante si es la constante de normalización
] - 1)
b=[∫1 X norte( 1 - X) metro dx
00
(Tales distribuciones generalizan la distribución uniforme y son útiles para modelar proporciones aleatorias).
Consideremos un caso especial de esto: f (x) = bx norte( 1 - X) n = b (x ( 1 - X)) norte. Como la distribución uniforme en (0, 1), esto tiene
una media de 1/2, pero su masa está más concentrada cerca de 1/2 que cerca de 0 o 1; Tiene una variación menor que el uniforme.
Si usamos g (x) = 1, X ∈ ( 0, 1) (la densidad uniforme), entonces f (x) / g (x) = f (x) y como se verifica fácilmente, c = cenar X f (x) se logra
en x = 1/2;
c = b ( 1/4) norte.
Así podemos generar desde f (x) = b (x ( 1 - X)) norte como sigue:
1. Generar U 1 y U 2)
2. Si U 2 ≤ 4 4 norte( U 1 ( 1 - U 1)) norte, luego establecer X = U 1; de lo contrario, vuelva a 1. Es interesante observar que en este ejemplo, y de
son enteros, los gammas se convierten en Erlang (representados por sumas de iid exponenciales); por ejemplo, si X 1 y X 2 son iid
exponenciales, entonces X = X 1 / ( X 1 + X 2) es uniforme en (0, 1) La distribución gamma siempre se puede simular usando el
rechazo de aceptación usando la densidad exponencial g (x) = λe - λx en el que 1 / λ se elige como la media de la gamma (se
puede demostrar que este valor de λ es óptimo)
3 Caso discreto
2. Generar U ( independiente de Y)
44