Sei sulla pagina 1di 12

Simulacin Numrica de Modelos Estocsticos

Programa de Doctorado
Biometra y Estadstica

NOTAS SOBRE LA GENERACIN


DE PROCESOS ESTOCSTICOS
Jordi Ocaa Rebull
Marzo de 2001

Contenido
1.

Procesos de Poisson

1.1.

Procesos de Poisson homogneos

1.2.

Procesos de Poisson no homogneos

1.3.

Procesos de Poisson bidimensionales

2.

Generacin de procesos gausianos

2.1.

Mtodo de Cholesky

2.2.

Mtodo condicional

2.3.

Mtodo de Fourier

11

2.4.

Comparacin de los mtodos para generar procesos gausianos

12

Bibliografa

12

GENERACIN DE PROCESOS ESTOCSTICOS


1.

Procesos de Poisson

La generacin de un proceso de Poisson o, ms en general, un proceso de vida


y/o muerte es asimilable a la generacin del correspondiente proceso de los
tiempos de llegada, T1, T2,.
1.1.

Procesos de Poisson homogneos

Como es bien conocido, un proceso de Poisson homogneo, con tasa o frecuencia


de llegadas >0, constante, se puede simular a partir de la generacin de una
serie de tiempos Ti= Ti-1+(logRi)/ a partir de incrementos de tiempo iid con
distribucin exponencial de parmetro , con densidad f(t)=exp(t) para
t>0. Esto es equivalente a que el proceso complementario de contajes de
llegadas en un tiempo t, que indicaremos indistintamente Nt N(t), tenga
distribucin de Poisson de parmetro t.
1.2.

Procesos de Poisson no homogneos

A menudo son ms realistas los modelos basados en procesos de Poisson no


homogneos, en los que la tasa de llegadas es una funcin del parmetro de
tiempo, (t). Esta suposicin se puede introducir estableciendo que la
probabilidad de una o ms llegadas en un tiempo t a partir de t, es
aproximadamente proporcional a t,
P {N t +t N t > 0} = (t ) t + o (t )
P {N t +t N t > 1} = o (t )
En este caso resulta que, para un tiempo prefijado t0, N ( t0 ) P ( ( t0 ) ) , con
(t ) =

(u )du .

Los tres mtodos ms conocidos de generacin de un proceso de Poisson no


homogneo de este tipo se basan en la modificacin de la escala de tiempo, en el
condicionamiento y en una adaptacin del mtodo de rechazo.

1.2.1.

Cambio de la escala de tiempo

Supongamos que T1, T2, son los tiempos de llegada segn un proceso de
Poisson no homogneo. Si se realiza el siguiente cambio de escala de tiempo:
=

T
0

(u )du = (T ) ,

el proceso asociado a los tiempos 1, 2, es un proceso de Poisson homogneo


con tasa de llegadas 1. Inversamente, el proceso asociado a los tiempos
T1 = 1 (1 ),

T2 = 1 (2 ),

(1.1)

donde 1, 2, corresponden a los tiempos asociados a un proceso homogneo


de tasa 1, es un proceso de Poisson no homogneo de tasa (t). Las
transformaciones (1.1) sugieren un mtodo obvio de generacin, cuya
aplicabilidad depende fuertemente de la forma de (y por lo tanto de etc.).
Se detendr la generacin del proceso homogneo cuando deje de cumplirse la
condicin i ( t0 ) .
Como ejemplo de este mtodo supongamos que (t) = exp( + t). En este
caso,
= (T ) =

e t
du = (e 1)

+u

y, por lo tanto,
T = 1 ( ) =

1.2.2.

1
log (1 + e ) .

Mtodos basados en el condicionamiento

Condicionado a N(t0)=n, los tiempos de llegada corresponden a los valores del


estadstico ordinal T(1), T(2),, T(n), generados a partir de la distribucin

si
u<0
0

(u )
F (u ) =
si 0 u t
(t )

si
u > t.
1

(1.2)

Una vez generado el valor n a partir de una distribucin de Poisson de


parmetro (t0), el problema reside en cmo generar valores ordenados a partir
de la distribucin (1.2). Una posibilidad est en el mtodo de inversin:

supongamos que hemos conseguido generar el estadstico ordinal uniforme,

U(0,1), R(1), R(2), , R n . Dado que


( )

( )=R

T(i )

(t )

(i )

tenemos que

T(i ) = 1 (t ) R(i ) .

(1.3)

Una forma eficiente de generar el estadstico ordinal uniforme (ascendente) se


basa en el mtodo condicional. En efecto, la distribucin marginal de R(1)
permite indicar:

H 1 (r1 ) = P R(1) > r1 = (1 r1 )

( ) (

R1 U (0,1),

R1 = H 1 R(1) = 1 R(1) ,
de manera que

R(1) = H 11 (R1 ) = 1 R1 n .
1

(1.4)

Por otra parte, cualquier distribucin condicionada R(j+1)|R(j)=rj,,R(1)=r1 es


equivalente a R(j+1)|R(j)=rj. Por lo tanto:

H j +1 (rj +1 ) = P R( j +1) > rj +1 Rj = rj

nj

1 r

j +1
=

1 rj
n j

Rj = H j +1 R( j +1) Rj = R( j )

1 R

( j +1)
=

1 R

(j )

Rj U (0,1),

de donde

R( j +1) = 1 1 R( j )
El mtodo consistente en generar n

(n j )

Rj +1.

(1.5)

variables aleatorias Ri iid U(0,1) y

ordenarlas es desaconsejable, por razones de eficiencia. Si en (1.3) no es posible


invertir , hay que recurrir al procedimiento, muy poco eficiente, de generar los
n tiempos Ti y ordenarlos.

1.2.3.

Rechazo a partir de un proceso homogneo

Supongamos que, a partir del instante s (seguramente el ltimo punto temporal


al que ha llegado la simulacin), se pretende generar el siguiente incremento de
tiempo, X, de manera que el proceso de simulacin avanzar hasta el instante
s+X. Supongamos que existe y es finito el valor:
s* = sup { (t )} .

(1.6)

s t t0

Se puede demostrar que el siguiente algoritmo genera los momentos de llegada,


T1, T2,, Ti , Ti-1, , de un proceso de Poisson no homogneo de tasa (t):

T = Ti-1
repetir:
1. Evaluar T* segn la expresin (1.6),
2. generar R U (0,1) y un incremento de tiempo exponencial X (s* ) , e
3. incrementar el tiempo T = T + X
hasta que se verifique que R s* (T ) ;
Ti = T.

Se continuarn generando valores de tiempo mientras Ti t0.


A costa de aumentar la probabilidad de rechazo, el punto 1 del algoritmo se
puede suprimir tomando como tasa constante del proceso homogneo el valor
* = sup { (t )} o (peor todava) cualquier valor *. El algoritmo tambin
0t t0

es vlido si en lugar de un proceso homogneo se emplea un proceso no


homogneo de tasa * ( t ) tal que * ( t ) ( t ) para todo t. Si * ( t ) es
cercana a (t) y el proceso asociado es fcil de generar, el algoritmo puede
resultar ms eficiente que el basado en un proceso homogneo.

1.3.

Procesos de Poisson bidimensionales

Los procesos de Poisson con parmetro bidimensional (asimilable en general a


las coordenadas en una superficie) son una generalizacin natural de los procesos
de Poisson homogneos. En ocasiones se desea
simular la distribucin de puntos en el
espacio (organismos, yacimientos,
etc.), de manera que para una
regin de superficie s (y con
i1

cualquier forma) el nmero de

Di1
i
Di

puntos Ns tenga distribucin


de Poisson, P(s). En estas
condiciones, siempre respecto
de un punto de partida o

centro arbitrario, consideremos


un punto, i1, a una distancia
Di1 de este centro y la corona

circular hasta el punto ms prximo, a una


distancia Di del centro. Fijmonos en que la posicin de cada punto puede ser
descrita mediante la distancia, o radio, Di, y un ngulo, . La distribucin de la
superficie de esta corona circular, Si = ( Di2 Di21 ) , es exponencial de
parmetro :
P { Si s } = P { "Ningn punto en la superficie s" } = 1 e s

de manera que
1
log R = ( Di2 Di21 ) , R U ( 0,1 )

de donde
log R1i

i = 2R2i , R1i , R2i U ( 0,1 ) , independientes,

Di =

Di21

(1.7)

sugiere un mtodo de generacin de las sucesivas coordenadas polares de los


puntos ( D1, 1 ) , ( D2, 2 ) , a partir de un centro inicial cualquiera.
Para una regin A, de forma irregular, el siguiente algoritmo de rechazo
generara de forma apropiada los puntos:

Escjase un punto dentro de A (por ejemplo central). Se considerar como


el origen de coordenadas, con Di=0 para i=0 y no formar parte del proceso
generado.

Repetir:

b.1

i=i+1,

b.2

determinacin de las coordenadas polares del punto i segn (1.7),

b.3

si el punto (Di,i) pertenece a A, queda aceptado como punto generado (y


se almacena como parte del resultado final del algoritmo)

hasta que A B ( Di ) , donde B(Di) indica la bola de radio Di.

El mtodo anterior es independiente de la forma de la regin a la cual deben


pertenecer los puntos. Existen mtodos ms eficientes para regiones de formas
especficas. Por ejemplo, para una regin rectangular de lados de longitud x0,y0,
tenemos que s = x0y0 y Ns P(x0y0). En este caso suele ser preferible el
siguiente algoritmo:
Genrese un valor de Ns. Sea este valor n. Condicionado a Ns = n, las
coordenadas eucldeas de los puntos a generar, (X1,Y1),,(Xn,Yn) corresponden
a los estadsticos uniformes ordinales
X(1 ), , X

Y(1 ), ,Y n
(

n)
)

para una U ( 0, x 0 )
para una U ( 0, y0 ) ,

que se pueden generar de acuerdo con el algoritmo descrito en el punto 1.2.2.


Alternativamente, se puede emplear el hecho de que los procesos proyectados
sobre cada eje son independientes y corresponden a procesos de Poisson
homogneos de tasa .
Para una regin circular de radio d0 la ltima idea anterior no es directamente
aplicable. Las proyecciones sobre los ejes x e y son procesos no homogneos.
Considerando coordenadas polares, la proyeccin sobre el eje de los radios (que
antes hemos denominado D) es un proceso de Poisson no homogneo, de tasa
integrada, para d d0,

(d ) =

( u )du = d 2 .

Por lo tanto, para generar los radios Di seran aplicables los algoritmos descritos
en 1.2. El algoritmo condicional 1.2.2 es especialmente adecuado puesto que
para este proceso estocstico la forma de la distribucin condicionada (1.2) es

d 2
(d )
= , 0 d d0 .
( d0 ) d0
Los radios generados se tendran que complementar con componentes angulares
generadas como i = 2Ri , Ri U ( 0,1 ) .

2.

Generacin de procesos gausianos

Uno de los procesos estocsticos con espacio de estados y parmetro continuo


ms importantes en las aplicaciones es el proceso {Xt}, donde para todo n y
todo t1,,tn, X = ( Xt , , Xtn ) N ( n , n ) . Aunque los instantes t1,,tn para
1

los que se desea generar una realizacin del proceso pueden corresponder a
cualquier valor positivo, a menudo interesa el caso en el que son valores
equiespaciados. Sin prdida de generalidad se puede suponer que se pretende
generar el caso n = 0.
Aparentemente, el problema sigue siendo el de generar vectores con distribucin
normal multivariante. Recordemos que los dos mtodos principales son:
2.1.

Mtodo de Cholesky

1. Obtengamos la matriz L, triangular inferior, tal que n = LL,


2. generemos Z = (Z1,,Zn) iid N(0,1),
3. finalmente, X = LZ.
Mtodo condicional

2.2.

Para la distribucin normal multivariante, todas las distribuciones condicionales


son tambin normales. En concreto, la matriz de varianzas-covarianzas de

Xn +1 = Xt , , Xtn , Xt
1

n +1

) N ( 0, n +1 ) se puede expresar como:


n +1

n
=
1n

1' n

11

Si ya se ha generado hasta el instante tn, es decir, se ha obtenido una realizacin


xn = ( xt , , x tn )
1

de

Xn N ( 0, n ) , se tiene la siguiente distribucin

condicionada
Xt

n +1

Xn = xn N ( 1n n1xn , 11 1n n11' n ) .

Los dos mtodos son equivalentes en el sentido de que produciran la misma


secuencia de valores a partir de la misma secuencia de valores independientes
generados segn una N(0,1). En principio el mtodo de Cholesky es ms
eficiente para n fijo, mientras que el mtodo condicional permitira generar una
secuencia de longitud indefinida. En realidad el problema de la generacin de
procesos gausianos no coincide exactamente con el de generar vectores normales,
como mnimo por dos razones:
a) n puede ser muy grande; no solamente la velocidad puede ser un factor
limitante, tambin puede serlo la memoria, al tener que almacenar y
manipular matrices de varianzas-covarianzas enormes,
b) sera deseable poder continuar fcilmente una serie de longitud n
previamente generada.
En principio ninguno de los dos mtodos anteriores admite muchas mejoras.
Pero aqu es donde puede ser decisiva la estructura precisa de la matriz de
varianzas-covarianzas: en general no interesa simular un proceso con matriz
cualquiera sino con una estructura concreta. El caso ms interesante es el de un
proceso estacionario, con matriz de correlaciones con estructura de Toeplitz:
1 2


1

2

3 n 1

2 n 2

especificada totalmente por el vector rn = (1, 2,,n). En este caso el algoritmo


condicional se puede mejorar bastante puesto que:

E Xt

n +1

var Xt

Xn = xn = ( Wy ) xn

n +1

Xn = xn = 1 + rn y

donde

10

0 0 1

W =

0
1
0

1 0 0
nn
e y = n1rn son las soluciones de las ecuaciones de Yule-Walker, n y = rn ,
obtenidas mediante el algoritmo de Durbin. Este algoritmo de generacin no es
muy eficiente pero tiene pocos requerimientos de memoria. A costa de un
consumo mucho mayor de memoria, se convierte en un algoritmo rpido (en
cuanto a tiempos marginales de generacin, es decir, para generar los valores
propiamente, sin contar el tiempo de inicializacin) si se almacena previamente
una matriz con todas las soluciones de las ecuaciones de Yule-Walker:
y21

y31 y32

y 41 y 42 y 43

2.3.

Mtodo de Fourier

Este mtodo requiere un tiempo de inicializacin bastante grande pero es muy


rpido marginalmente. Si expandimos el vector rn en el vector hN definido como
h N = ( h0 = 1, h1 = 1, h2 = 2, , n 2, n 1, n 2, , hN 1 = 1 )
N = 2(n-1), y calculamos la transformada de Fourier g de este vector
N 1

gk =

h j exp ( 2ikj N ), k = 0, , N 1
j =0

(o, preferiblemente la transformada de Fourier rpida, FFT, que requiere que N


sea una potencia de 2, N = 2l), podremos almacenar finalmente el vector
=

g de longitud N.

Una vez superada la fase anterior de inicializacin, el proceso de generacin de


la realizacin de tamao n del proceso consiste en los siguientes pasos:
a) Generamos un vector ZN consistente en N valores iid N(0,1). La
transformada de Fourier discreta del vector ZN proporcionar el vector eN.
b) Obtenemos una realizacin del proceso normal estacionario mediante

11

1
Xj =
N
2.4.

N 1

kek exp (

k =0

2ijk
, 0 j n 1.
N

Comparacin de los mtodos para generar procesos gausianos

Los tres mtodos expuestos en los puntos anteriores tienen sus ventajas y sus
inconvenientes. En general se puede decir que cada investigador puede elegir
entre ellos en funcin de sus necesidades y de su valoracin de tres
caractersticas: generalidad, eficiencia y estabilidad numrica. Si significa la
peor valoracin, x una valoracin intermedia y + la mejor, los tres mtodos
estaran situados en la siguiente escala:

Mtodo

generalidad

eficiencia

estabilidad

Cholesky

Condicional + algoritmo de Durbin

Fourier

Bibliografa
La seccin dedicada a la generacin de procesos de Poisson est basada,
principalmente, en:
Dagpunar, J. (1988). Principles of Random Variate Generation. Clarendon
Press.
Bratley, P., Fox, B.L. and Schrage, L.E. (1983). A Guide to Simulation.
Springer-Verlag.
La seccin dedicada a la generacin de procesos gausianos est basada en la
monografa:
Hauser, M.A., Hrmann, W. The Generation of Stationary Gaussian Time
Series. Institut f. Statistik, Wien, Austria.

12

Potrebbero piacerti anche