Sei sulla pagina 1di 133

Relacin entre los Procesos o de Ramificacin y los Procesos o de Lvy e

Indice general
Introduccin. o 1. El Proceso de Ramificacin de Galton-Watson. o 1.1. Introduccin. . . . . . . . . . . . . . . . . . . . . . . . . o 1.2. Definicin. . . . . . . . . . . . . . . . . . . . . . . . . . o 1.3. Descripcin matemtica. . . . . . . . . . . . . . . . . . . o a 1.4. La Funcin Generadora para el Proceso de Ramificacin. o o 1.5. Los Momentos de Zn . . . . . . . . . . . . . . . . . . . . . 1.6. La Probabilidad de Extincin. . . . . . . . . . . . . . . . o 1.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
III

1 . 1 . 2 . 3 . 4 . 6 . 8 . 15 29 29 30 31 34 37 44 49 51 56 59 63 63 64 65 72

2. El Proceso Markoviano de Ramificacin a Tiempo Continuo o 2.1. Introduccin. . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.2. Definicin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.3. Construccin . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.4. Las Ecuaciones Backward y Forward de Kolmogorov . . . . . 2.5. Funcin Generadora . . . . . . . . . . . . . . . . . . . . . . . o 2.6. Existencia y Unicidad de las Soluciones. . . . . . . . . . . . . 2.7. Hiptesis de no explosin. . . . . . . . . . . . . . . . . . . . . o o 2.8. Los Momentos de Z(t) . . . . . . . . . . . . . . . . . . . . . . 2.9. Probabilidad de Extincin . . . . . . . . . . . . . . . . . . . . o 2.10. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. El C.B. Proceso 3.1. Introduccin . . . . . . . . . . . . . . . . . o 3.2. Definicin . . . . . . . . . . . . . . . . . . o 3.3. Existencia y Construccin del C.B. proceso o 3.4. Los Momentos del C.B. Proceso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

II

INDICE GENERAL

3.5. El C.B. Proceso como Proceso 3.6. Probabilidad de Extincin . . o 3.7. El C.B. Proceso como Proceso 3.7.1. Distribuciones L mite . 3.7.2. Teoremas L mite . . .

de Difusin. o . . . . . . . L mite . . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

74 79 81 81 89

4. Relacin entre los P. de Ramificacin y los P. de o o 4.1. Introduccin . . . . . . . . . . . . . . . . . . . . . o 4.2. Deniciones . . . . . . . . . . . . . . . . . . . . . 4.3. El C.B.P. y el P. de Lvy con saltos no negativos e

Lvy e 107 . . . . . . . 107 . . . . . . . 107 . . . . . . . 109 113 . 113 . 114 . 117

A. Procesos de Markov. A.1. Funcin de Transicin . . . . . . . . . . . . . . . . . . . . . o o A.2. Semigrupos . . . . . . . . . . . . . . . . . . . . . . . . . . . A.3. Procesos de Markov . . . . . . . . . . . . . . . . . . . . . . .

B. Procesos de Lvy e 121 B.1. Denicin y algunas propiedades . . . . . . . . . . . . . . . . 121 o B.2. Procesos de Lvy con saltos no negativos. . . . . . . . . . . . . 123 e Bibliograf a 127

Introduccin o
En este trabajo se estudian los procesos de ramificacin y la relacin de o o estos con los procesos de Lvy, nuestro objetivo principal es el de presentar e de manera detallada dicha relacin, ya que pocos libros bsicos mencionan o a esto. Esta relacin es importantisima ya que es el prembulo del estudio de o a los superprocesos. Hay una manera de clasicar a los procesos de ramificacin de acuerdo o con su condicin cr o tica, su parmetro del tiempo, el caso sencillo o mula tiple de part culas, el caracter Markoviano o no Markoviano, etc. Nosotros solamente nos limitamos al estudio del caso Markoviano y sencillo, pero en cada cap tulo vamos cambiando el parmetro tiempo y el espacio de estados, a as por ejemplo en el primer cap tulos analizamos el caso de tiempo y espacio de estados discreto, en el segundo el caso de espacio de estados discreto y tiempo continuo y por ultimo el caso de espacio de estado y tiempo contui nuo. En el cap tulo uno se desarrolla un poco de la teor del proceso de Galtona Watson,el cual es el proceso de ramificacin mas sencillo, bsicamente damos o a su denicin, su construccin, sus momentos, algunos ejemplos y por ultimo o o la probabilidad de extincin del procesos. En el cap o tulo dos analizaremos a el proceso Markoviano de ramificacin a tiempo cotinuo, el cual no es ms o a que una extensin del proceso de Galton-Watson. Hay que sealar que dicho o n anlisis no es tan simple como en el caso del proceso de Galton-Watson, pero a aun as se pueden obtener sus momentos y la probabilidad de extincin. o El cap tulo tres y cuatro son la parte ms importante de este trabajo y esa tan basados en los trabajos hechos por Lamperti y Silverstein. En el cap tulo tres se hace un estudio del proceso de ramificacin continua. En dicho estudio o vemos la construccin del proceso, su existencia, sus momentos, que es un o proceso de difusin, su probabilidad de extincin y lo mas importante, que o o se puede ver como un proceso l mite de procesos de Galton-Watson. Por ulti

IV

Introduccin o

mo en el cuarto cap tulo vemos la relacin entre el proceso de ramificacin o o continua y el proceso de Lvy con saltos no negativos. e Adems se agregan dos apndices con material auxiliar para el desarrollo a e de este trabajo.

Cap tulo 1 El Proceso de Ramificacin de o Galton-Watson.


1.1. Introduccin. o

Fue en 1874 cuando Francis Galton y H. W. Watson trabajaron en el problema de extincin de familias, mostrando como la probabilidad puede o ser aplicada al estudio de los efectos del azar en el desarrollo de familias o poblaciones. Lamentablemente este primer trabajo ten una hiptesis que a o no pod ser aceptada, ya que asum que las familias distinguidas son ms a a a dadas a desaparecer que las ordinarias. Es as como Galton vuelve a plantear el problema de la siguiente manera: Sean p0 , p1 , p2 ,. . . , las respectivas probabilidades de que un hombre tenga 0, 1, 2,. . . , hijos varones; donde cada hijo varn tiene o las mismas probabilidades que sus padres de tener hijos varones; y as sucesivamente.Cul es la probabilidad de que la lnea mas a culina se extinga despus de r-generaciones? O de una manera e ms general Cul es dicha probabilidad para un nmero de desa a u cendientes en la linea masculina de una generacin dada? o Este planteamiento da nacimiento al estudio de los procesos de ramificacin. o Estos trabajos fueron olvidados por varios aos, pero fueron retomados exn tensivamente entre los aos veinte y treinta de este siglo por su gran inters n e matemtico y como una base terica para estudios de poblaciones de indivia o duos como serian: genes, neutrones o rayos csmicos. o

El Proceso de Ramificacin de Galton-Watson. o

La primera correcta y completa determinacin de la probabilidad de extino cin para dicho proceso fue dada por J. F. Steffenson (1930, 1932). Despus o e el modelo fue retomado por Kolmogorov y Dimitriev (1938), los cuales aumentaron notablemente su estudio y le dieron el nombre de los Procesos de Ramificacin. o En este cap tulo estudiaremos el proceso de ramificacin ms simple como o a una introduccin al estudio de los procesos de ramificacin ms generales. El o o a objetivo principal es el de mostrar con claridad el modelo, as como algunas de sus propiedades que nos sern de gran utilidad en los siguientes cap a tulos; adems vamos a resolver el problema de extincin de familias, que es el tema a o principal en este cap tulo.

1.2.

Definicin. o

Para empezar con el estudio de este modelo, es necesario imaginar individuos que puedan generar nuevos individuos del mismo tipo, por ejemplo: el hombre, las bacterias reproducindose o neutrones en una reaccin en cae o dena. Primero vamos a empezar con un conjunto inicial de individuos, al cual llamaremos generacin cero, si estos individuos tienen descendientes, estos nuevos o integrantes van a conformar a la primera generacin y los descendientes de o esta primera generacin van a conformar a la segunda generacin y as suceo o sivamente. Es necesario aclarar que se estudiar al proceso de ramificacin a o de Galton-Watson ms simple. a Hay que hacer notar que seguiremos con atencin el tamao de las generao n ciones sucesivas, no el tiempo al cual cada individuo nace; as como tampoco la relacin familiar de cada individuo. o Vamos a denotar por Z0 , Z1 , Z2 ,. . . , como el nmero de individuos de la u generacin cero, primera generacin, segunda generacin, . . . Tambin vamos o o o e a agregar las siguientes dos hiptesis: o i) Si el tamao de la n-sima generacin es conocido, entonces la ley de n e o probabilidades que gobierna a las generaciones siguientes, no depende del tamao de las generaciones previas a la n-sima; en otras palabras n e Z0 , Z1 , Z2 ,. . . forma una cadena de markov. ii) La cadena de Markov considerada en este cap tulo, tiene una propiedad especial, la cual consiste en que diferentes individuos no intereren

1.3 Descripcin matemtica. o a

con los otros; en el sentido de que el nmero de descendientes de un u individuo no depende en cuantos otros individuos estan presentes.

1.3.

Descripcin matemtica. o a

Sean Z0 , Z1 , Z2 ,. . . , variables aleatorias. Interpretaremos a Zn como el nmero de individuos en la n-sima generacin; durante todo este cap u e o tulo vamos a suponer que el proceso inicia con un solo individuo, o de otra manera tenemos que Z0 = 1. Adems vamos a denir {Xi,n : n 1, i 1} una sucesin de variables a o aleatorias independientes e idnticamente distribuidas, las cuales representan e el nmero de descendientes que puede tener el i-simo individuo de la n-sima u e e generacin. o De esta manera vamos a escribir a Zn+1 como: Zn+1 =
Zn

Xi,n+1

i=1

Por esta ultima relacin vemos que si Zn = 0, la suma siempre va a ser cero, o en consecuencia vamos a armar que el cero es un estado absorbente. Denotaremos por P como la medida de probabilidad del proceso. Entonces la funcin masa de probabilidad de Xi esta dada por: o P Xi,n = k = k para toda k, n {0, 1, 2, 3, . . .} y

k = 1

k=0

donde k es la probabilidad de que un individuo de la n-sima generacin e o tenga k hijos. Con toda esta informacin podemos obtener una probabilidad de transicin o o para el proceso que denotaremos por Pij la cual representa la probabilidad de que en la (n+1)-sima generacin haya j individuos dado que en la generacin e o o pasada (n-sima) la poblacin total era de i individuos. La probabilidad de e o transicin para toda i, j, n {0, 1, 2, 3, . . . } esta dada por: o Pij = P Zn+1 = j|Zn = i = P
i

Xk,n+1 = j

k=1

El Proceso de Ramificacin de Galton-Watson. o

1.4.

La Funcin Generadora para el Proceso o de Ramificacin. o

La funcin generadora para la variable aleatoria Zn la vamos a denir como: o fn (s) = P(Zn = k)sk para toda n {0, 1, 2, 3, . . . }. Como vamos a tener que P Z0 = 1 = 1 en este cap tulo, o al menos que se diga lo contrario, entonces podemos obtener la siguiente relacin o f0 (s) = P(Z0 = k)sk = s
k=0 k=0

Deniremos a la funcin generadora para la variable aleatoria X1 como: o k s k donde s [1, 1] R fX (s) =
k=0

Teorema 1.4.1 (Funciones Generadoras). Sean X1 , X2 , X3 , . . . una sucesin o de variables aleatorias independientes e idnticamente distribuidas, con valoe res en los enteros, y sea N otra variable aleatoria independiente de la sucesin o {Xi }i1 y con valores en los enteros positivos, entonces la variable aleatoria N Y = Xk tiene por funcin generadora a: o
k=1

y podemos notar que la variable aleatoria Z1 se distribuye igual que la variable aleatoria X1 entonces f1 (s) = P(Z1 = k)sk = fX (s).
k=0

fY (s) = fN (fX1 (s)).

Demostracin. Primero vamos a hacer una particin en el espacio de estao o S dos , donde = {N = n} y denamos a 1 A como la funcin indicadora l o
n=1

del conjunto A , es decir 1A (x) = 1 si y slo si x A; si utilizamos el l o teorema de convergencia dominada tenemos que P P N n Xk Xk Y k=1 k=1 fY (s) = E[s ] = E s 1 = E l s 1{N =n} l (X1 +X2 ++Xn ) = E s 1{N =n} l
n=1 n=1

1.4 La Funcin Generadora para el Proceso de Ramificacin. o o

Usando el hecho de que {Xi }i1 son independientes entre s e independientes de la variable aleatoria N , e identicamentes distribuidas tenemos que n n X fY (s) = E s k P(N = n) = E[sXk ]P(N = n) = = fN (fX (s))
n=1 n=1

n X1 E[s ] P(N = n) = [fX (s)]n P(N = n)


n=1

k=1

n=1 k=1

Para obtener la funcin generadora del proceso en la (n+1)-sima generacin o e o Zn es necesario recordar que Zn+1 = Xk,n+1 , as podemos aplicar el teorema de las funciones generadoras y llegar a la siguiente relacin o fn+1 (s) = fn (fX (s)).
k=1

(1.1)

Esta relacin tambin se puede obtener anal o e ticamente, desarrollarlo es un ejercicio importante ya que utilizaremos algunas tcnicas que necesitaremos e ms adelante. a Por denicin tenemos o fn+1 (s) = P(Zn+1 = k)sk = P(Zn+1 = k|Zn = j)P(Zn = j)sk = = =
k=0 j=0 j=0 k=0 j=0

P(Zn = j)

j=0

= fn (fX (s)).

j P(Zn = j) E[sX1 ] =

P j j Xi,n+1 P(Zn = j)E s i=1 = P(Zn = j) E[sXi,n+1 ]


j=0 i=1 j=0

k=0

P(X1,n+1 + X2,n+1 + + Xj,n+1 = k)sk

j P(Zn = j) fX (s)

Siguiendo con este procedimiento por induccin obtenemos que para cualo quier k {0, 1, 2, . . . , n} fn+1 (s) = fnk (fk+1 (s))

Ahora podemos iterar esta funcin y obtener el siguiente resultado: o fn+1 (s) = fn (fX (s)) = fn1 fX (fX (s) = fn1 (f2 (s)) = fn2 fX (f2 (s)) = fn2 (f3 (s))

El Proceso de Ramificacin de Galton-Watson. o

y si k = n 1 tenemos

fn+1 (s) = fX (fn (s)).

(1.2)

1.5.

Los Momentos de Zn.

Lema 1.5.1. Sean = E[X1 ] y 2 = Var[X1 ] y suponemos que son nitas. Entonces n 2 si = 1, E[Zn ] = n y Var[Zn ] = 2 (n1) n 1 si = 1. 1
Demostracin. Hay que notar que fX (1) = y 2 = fX (1) + 2 . Si o derivamos la ecuacin (1.1) tenemos que o fn+1 (s) = fn (fX (s))fX (s)

y si tomamos s = 1 tenemos
fn+1 (1) = fn (1)fX (1)

hasta llegar a que

si iteramos esta ultima relacin obtenemos que o 2 3 fn+1 (1) = fn (1)fX (1) = fn1 (1) fX (1) = fn2 (1) fX (1) n n+1 fn+1 (1) = fX (1) fX (1) = fX (1) . E[Zn+1 ] = n+1 .

como la primera derivada de la funcin generadora de X1 evaluada en uno o es igual a entonces tenemos que

Para obtener la Var [Zn+1 ] primero hacemos notar que


fn (1) = 2 2 k(k 1)P(Zn = k) = E[Zn ] E[Zn ] = E[Zn ] fn (1)

k=2

de esta manera vamos a ver que V ar[Zn ] = fn (1) + fn (1) fn 1))2 .

1.5 Los Momentos de Zn .

Si ahora derivamos dos veces a la ecuacin (1.2) obtenemos la siguiente reo lacin: o 2 fn+1 (s) = fX (fn (s)) fn (s) + fX (fn (s))fn (s) y si tomamos s = 1 obtenemos 2 fn+1 (1) = fX (1) fn (1) + fX (1)fn (1)

sustituyendo tenemos que

fn+1 (1) = ( 2 + 2 )2n + fn (1) = ( 2 + 2 )2n + ( 2 + 2 )2(n1) + fn1 (1) = ( 2 + 2 )(2n + 2n1 ) + 2 fn1 (1) = ( 2 + 2 )(2n + 2n1 ) + 2 ( 2 + 2 )2(n2) + fn2 (1) = ( 2 + 2 )(2n + 2n1 + 2n2 ) + 3 fn2 (1)

siguiendo la iteracin por induccin llegamos a o o


fn+1 (1) = ( 2 + 2 )(2n + 2n1 + 2n2 + + n ).

Ahora, gracias a este desarrollo vamos a obtener la varianza de Zn+1 . V ar[Zn+1 ] = ( 2 + 2 )(2n + 2n1 + 2n2 + + n ) + n+1 2n+2 = 2 (2n + 2n1 + 2n2 + + n ) + (2n+2 + 2n+1 + 2n + + n+2 ) (2n+1 + 2n + 2n1 + + n+1 ) + n+1 2n+2 = 2 (2n + 2n1 + 2n2 + + n ) = 2 n (n + n1 + n2 + + 1). De aqu se ve claramente que n+1 1 2 n 1 V ar[Zn+1 ] = 2 (n + 1) si = 1, si = 1.

Observacin 1.5.1. La varianza crece o decrece geomtricamente, segn si o e u > 1 < 1, y linealmente si = 1. o

El Proceso de Ramificacin de Galton-Watson. o

1.6.

La Probabilidad de Extincin. o

En esta seccin vamos a calcular la probabilidad de extincin del proceso, o o pero antes tenemos que dar las siguientes deniciones. Definicin 1.6.1. Por extincin vamos a entender como el evento en que la o o sucesin {Zn }n=0 de variables aleatorias consiste en ceros para toda n n o para algn n nito. u Como Zn es un valor entero, la extincin es el evento tal que o
n

l Zn = 0 m

Definicin 1.6.2. Tomaremos a como la probabilidad de extincin de una o o familia, es decir, = P {|Zn () = 0 para alguna n 1} Teorema 1.6.1. El l P(Zn = 0) es igual a m
n

donde es la raz no negativa ms pequea de la ecuacin s = fX (s). Adems a n o a = 1 si 1 y < 1 si > 1 siempre y cuando P(Z1 = 1) < 1. Demostracin. Primero vamos a denir a los conjuntos A y An , como: o A = {|Zn () = 0 para alguna n 1} y An = {|Zn () = 0},

P {|Zn () = 0 para alguna n 1} =

y la probabilidad del evento An como n = P(An ). Claramente se ve que An An+1 por ser el cero un estado absorbente, entonces tenemos que
n

l An = m

n=1

as vemos que = P(A) = P An = P

An = A

n=1

l An = l P(An ) = l n m m m
n n

1.6 La Probabilidad de Extincin. o

y adems sabemos que fn (0) = P(Zn = 0) de esta manera tenemos que a


n

l P(Zn = 0) = l fn (0) = l n m m m
n n

entonces n = fn (0) = f (fn1 (0)) = f (n1 ) y sabemos que l n = , por lo cual tenemos m
n

En esta ultima igualdad, para poder meter el l mite en la esperanza se utiliz el Teorema de Convergencia Dominada. o Ahora mostraremos que si e es cualquier ra no negativa de la ecuacin z o s = f (s) entonces e . Como f (s) es no decreciente en [0, 1] tenemos 1 = f (0) f (e) = e 2 = f (1 ) f (e) = e y si seguimos iterando veremos que para toda n N., n e concluyendo que e. Entonces es la ra ms pequea no negativa de la ecuacin z a n o s = fX (s). Para vericar la segunda armacin del teorema, necesitamos el hecho de o que fX (s) es convexa en [0, 1] y esto es fcil de ver porque a
fX (s) = E[Z1 (Z1 1)s(Z1 2) ] 0 si

= l n = l f (n1 ) = l E (n1 )Z1 m m m n n n Z1 Z1 = E l (n1 ) m = E[ ] = f ().


n

s 0.

Entonces fX (s) es convexa y no decreciente en [0, 1] con fX (1) = 1, adems a se puede vericar que las curvas y = fX (s) y y = s generalmente tienen dos intersecciones en dicho intervalo y esto ocurre cuando s = y s = 1. Ahora probaremos que si 1 y P(Z1 = 1) < 1 la ecuacin fX (s) = s no o tiene ra en [0, 1) y si > 1, entonces tiene una unica ra en [0, 1). ces z Supongamos que < 1, esto nos permite armar que fX (1) < 1; como fX (s) es no decreciente armamos que fX (s) < 1 para toda s [0, 1). Si suponemos que = 1 y P(Z1 = 1) < 1, entonces P(Z1 = n) > 0 para algn n 2, y u como fX (1) = 1 armamos que fX (s) < 1 para toda s [0, 1) ya que el l fX (s) = 1 y fX (s) es estrictamente creciente. m
s1

10

El Proceso de Ramificacin de Galton-Watson. o

Lo que acabamos de mostrar es que si tenemos que 1 y P(Z1 = 1) < 1 entonces fX (s) < 1 para toda s [0, 1); por lo tanto

d (fX (s) s) < 0 para 0 s < 1. ds Ahora tenemos que fX (s) s es estrictamente decreciente en [0, 1) y como fX (1) 1 = 0 entonces fX (s) s > 0 en [0, 1). Por esta razn la funcin o o fX (s) = s no tiene raices en [0, 1). Ahora si suponemos que > 1, lo que vamos a tener es que l s1 fX (s) > 1, m por continuidad de fX (s) existe un s0 en el intervalo (0, 1) tal que para toda s (s0 , 1), fX (s) > 1 y por el teorema del valor medio para derivadas tenemos que fX (1) fX (s0 ) fX () = >1 para alguna (s0 , 1) 1 s0 y como fX (1) = 1 entonces fX (s0 ) s0 < 0. Ahora fX (s) s es continua en s y no negativa en s = 0, entonces por el teorema del valor intermedio vamos a tener un cero en [0, s0 ). Por lo tanto armamos que tenemos una ra en . z Si suponemos que existe otra ra 1 entonces fX (s) s vale cero en , en 1 z y en 1. Si 0 < 1 < 1, por el teorema de Rolle la primera derivada tiene al menos dos ra ces en el intervalo (0, 1) y la segunda al menos una ra en z el mismo intervalo. Pero si > 1, entonces al menos para una n 2 pasa que P(Z1 = n) > 0, por lo cual tenemos que la segunda derivada no tiene raices en [0, 1) y es aqu donde cae la contradiccin. Con esto podemos armar que fX (s) = s o tiene una unica ra en el intervalo [0, 1). z Con esto hemos mostrado que si < 1, la unica ra de fX (s) = s es cuando z = 1 en [0, 1], cuando > 1 tenemos una unica ra que es menor a uno z y si = 1 tenemos que distinguir entre el caso no aleatorio en donde 2 = 0, fX (s) = s y = 0, y en el caso aleatorio cuando 2 > 0, fX (s) > s para s [0, 1) y = 1. Con la teor general podemos resumir la evolucin a travs del tiempo de a o e un proceso de ramificacin. o La cadena no es irreducible pero existe una unica distribucin estacionaria o dada por 0 = 1, i = 0 si i > 0. Esto no nos dice nada acerca del comportamiento del proceso y debemos buscar en otro lado, para obtener mayor informacin. o

1.6 La Probabilidad de Extincin. o

11

Una de las dicultades, es que el proceso puede comportarse relativamente diferente dependiendo del momento en que llegue la extincin. o Una forma de atacar el problema es estudiando el comportamiento del proceso condicionado con la ocurrencia de algn evento como la extincin o el u o valor de una variable aleatoria como el nmero total de progenie. u Sean g(k) y f (s) la funcin de densidad y la funcin generadora de Z1 , esto o o es: g(k) = P(Z1 = k) fX (s) = E[sZ1 ]. Sea T el tiempo en que ocurre la extincin, denido como o {n : Zn = 0} si la extincin ocurre, nf o T = en otro caso. Hablando de manera estricta si T = entonces el proceso crecer ms a a all de toda cota, en cambio si T < entonces el tamao del proceso nunca a n llegar a ser muy grande y en consecuencia se ir a cero. a a Como sabemos P(T < ) es la ms pequea ra no negativa de la ecuacin a n z o s = fX (s). Ahora, sea En = {n < T < } el evento de que la extincin ocurra en algn o u tiempo despus de n. e Debemos estudiar la distribucin de Zn condicionado a la ocurrencia de En , o n para lo cual deniremos P0j = P(Zn = j|En ); la cual es la probabilidad condicional de que en la n-sima generacin haya j individuos dada la futura e o extincin del proceso. o En lo que estamos interesados es en el valor l mite de dicha probabilidad, esto es 0 j = l P0j m n
n

si es que dicho l mite existe. Para evitar algunos casos triviales supondremos que 0 < g(0) + g(1) < 1 y g(0) > 0, estas condiciones implican por ejemplo que 0 < P(En ) < 1 y que la probabilidad de extincin nal = P(T < ) satisface 0 < 1. o
0 Teorema 1.6.2. Si E[Z1 ] < entonces l P0j = j existe. m n n 0 j La funcin generadora f (s) = o j s satisface la ecuacin o j=0

f ( 1 fX (s)) = f (s) + 1

(1.3)

12

El Proceso de Ramificacin de Galton-Watson. o

donde es la probabilidad de la extincin nal y = fX (). o Notemos que si = E[Z1 ] 1 entonces = 1 y = por lo tanto la ecuacin (1.3) se reduce a o

f (fX (s)) = f (s) + 1 .


Cualquiera que sea el valor de tenemos que fX () 1 dndose la igualdad a si y slo si = 1. o

Demostracin. Para s [0, 1) sea o

fn (s) =

j=0

Donde

fn (s) = E sZn En
n sj P0j = j=0

sj

P(Zn = j, En ) . P(En )

P(En ) = P(n < T < ) = P(T < ) P(T n) = fn (0) y P(Zn = j, En ) = P(Zn = j y todas las lineas siguientes mueran) = P(n < T < |Zn = j)P(Zn = j) = P(T < |Z0 = j)P(Zn = j) = j P(Zn = j) j1 adems tenemos que P(Zn = 0, En ) = P(Zn = 0), entonces a
fn (s) = P(Zn = j, En ) 1 j = s P(Zn = j) j P(En ) P(En ) j=0 j=0 1 fn (s) fn (0) . = (s)j P(Zn = j) = fn (0) j=0 fn (0)

sj

Ahora, vamos a denir dos funciones de gran utilidad para la demostracin o de este teorema de la siguiente manera: Hn (s) = fn (s) fn (0) y h(s) = fX (s) s 0 s < .

1.6 La Probabilidad de Extincin. o


De esta manera renombramos a fn (s) de la siguiente relacin o fn (s) = 1 Hn (s)

13

(1.4)

veamoslo 1 Hn (s) = 1 fn (s) fn (0) + fn (s) = fn (0) fn (0) fn (s) fn (0) = = fn (s) fn (0)

Ntese que Hn tiene dominio en el intervalo [0, ) y fn (s) tiene dominio en o el intervalo [0, 1). Ahora proponemos la siguiente relacin o

Hn (s) h(fn1 (s)) = Hn1 (s) h(fn1 (0)) esto por que fn (s) Hn (s) ( fn (s))( fn1 (0)) fn (0) = = . Hn1 (s) fn1 (s) ( fn1 (s))( fn (0)) fn1 (0) Por el otro lado tenemos fX (fn1 (s)) h(fn1 (s)) ( fX (fn1 (s)))( fn1 (0)) fn1 (s) = = h(fn1 (0)) fX (fn1 (0)) ( fn1 (s))( fX (fn1 (0))) fn1 (0) = ( fn (s))( fn1 (0)) ( fn1 (s))( fn (0))

de cualquier modo fn1 (s) es no decreciente y h(s) es no decreciente porque f (s) es convexa en [0, ). Por lo tanto tenemos para s < Hn (s) Hn1 (s)

14

El Proceso de Ramificacin de Galton-Watson. o

entonces por la ecuacin (1.4) tenemos o f (s) = 1 H(s) si se satisfacen estos l mites para s [0, 1)
n

si 0 s < 1

l Hn (s) = H(s) m

l fn (s) = f (s) m

pero claramente se ve que sucede. 0 Entonces el coeciente j de sj en f (s) existe para toda j como se deseaba. An ms, si 0 s < tenemos u a Hn (f (s)) = fn (fX (s)) fX (fn (0)) fn+1 (s) = = h(fn (0))Hn+1 (s). fn (0) fn (0) fn+1 (0) (1.5)

Cuando n tiende a innito fn (0) tiende a y entonces podemos decir l h(fn (0)) = l m m fX (s) = fX () s

haciendo tender n a innito en (1.5) obtenemos


H(f (s)) = fX ()H(s)

si 0 s <

y f (s) = 1 H(s). Con esto podemos ver que f ( 1 fX (s)) = 1 H( 1 fX (s)) = 1 H(fX (s)) = 1 fX ()H(s) = 1 H(s) = 1 (1 f (s)) = 1 + f (s) lo cual era a lo que quer amos llegar.

1.7 Ejemplos

15

1.7.

Ejemplos

Ejemplo 1.7.1 (Clculo de Esperanzas). a Sea un proceso de ramicacin Z con E[Z1 ] = < . Para calcular o E[Zm Zn ] para m n primero tenemos que mostrar que E[Zn |Zm ] = Zm nm , lo cual haremos por induccin. o Para demostrar que es vlido para n = m + 1 primero veremos que a j j j E[Zm+1 |Zm = j] = E Xi Zm = j = E[Xi ] = = j.
i=1 i=1 i=1

De esta manera tenemos que E[Zm+1 |Zm ] = Zm . Ahora supondremos que es vlido para un n > m + 1 y lo probaremos para n + 1. a E[Zn+1 |Zm ] = E E[Zn+1 |Zn ]Zm = E[Zn |Zm ] = Zm nm = n+1m Zm entonces, con este resultado podemos calcular lo siguiente
2 E[Zm Zn |Zm ] = Zm E[Zn |Zm ] = Zn nm

y es as como obtenemos 2 2 E[Zn Zm ] = E E[Zn Zm |Zm ] = E[Zm nm ] = nm E[Zm ]. Lo cual era lo que queriamos calcular. Ejemplo 1.7.2 (Probabilidad de un ancestro comn). u Consideremos un procesos de ramificacin Z en el cual P(Z0 = 1) = 1 y o P(Z1 = 0) = 0. Tomamos dos individuos aleatoriamente (con reemplazo) de la n-sima generacin y sea L el indicador de la generacin que contiene su e o o ms reciente ancestro comn. Para probar que a u
1 1 P(L = r) = E[Zr ] E[Zr+1 ]

para 0 r < n

supongamos 0 r n, y que todo es conocido en el proceso hasta la generacin r. Condicionando con esta informacin, se toma aleatoriamente o o 1 a un individuo en la n-sima generacin con probabilidad Zr de tener un e o ancestro en la r-sima generacin, para cualquier miembro de la r-sima e o e

16

El Proceso de Ramificacin de Galton-Watson. o

generacin. La probabilidad de que dos individuos de la n-sima generacin, o e o tomados aleatoriamente e independientemente uno del otro, tengan el mismo 1 ancestro en la r-sima generacin es entonces Zr . Entonces e o P(L < r) =
P(L < r, Zr = i) = P(L < r|Zr = i)P(Zr = i) i=1 i=1 1 = E P(L < r|Zr ) = E[1 Zr ]

de esta manera para 0 r < n

1 1 P(L = r) = P(L < r + 1) P(L < r) = E[1 Zr+1 ] E[1 Zr ] 1 1 = E[Zr ] E[Zr+1 ].

Si ahora tenemos que 0 < P(Z1 = 0) < 1 entonces P(L < r|Zn > 0) = =

P(L < r|Zn > 0, Zr = i)P(Zr = i|Zn > 0) = E P(L < r|Zn > 0, Zr )Zn > 0
i=1 1 1 = E[1 Zr |Zn > 0] = 1 E[Zr |Zn > 0]

i=1

P(L < r, Zr = i|Zn > 0)

con este resultado obtenemos que


1 1 P(L = r|Zn > 0) = E[Zr |Zn > 0] E[Zr |Zn > 0].

Ejemplo 1.7.3 (Tiempo de extincin). o Consideremos un proceso de ramificacin Z cuyo tamao de familia tiene o n k una funcin geomtrica g(k) = qp , para k 0 y donde p + q = 1. Sea o e T = m n{n : Zn = 0} el tiempo de extincin del proceso de ramificacin o o Z, y supongamos Z0 = 1. Para calcular P(T = n) primero se mostrar que a el nmero de descendientes de la n-sima generacin satisface la siguiente u e o relacin: o n si p = q P(Zn = 0) = n+1n qn ) q(p si p = q pn+1 q n+1

1.7 Ejemplos

17

Este hecho se demostrar por induccin. Cuando n = 1 se ve claramente que a o esta relacin se satisface o 1 si p = q P(Z1 = 0) = 2 q si p = q Ahora suponemos que es vlida para n = k y demostraremos que se cumple a para n = k + 1 P(Zk+1 = 0) = fk+1 (0) = f (fk (0)) =
j=0

[fk (0)]j P(Z1 = j).

Si p = q vamos a tener que j k j 1 j+1 1 k 1 fk+1 (0) = = = 2k 2 2 j=0 2(k + 1) 2 2(k+1) j=0 k + 1 = k+1 k+1 = . 2(k + 1) k k+2

Si p = q vamos a ver que q(pn q n ) j q(pn q n ) j j fk+1 (0) = P(Z1 = j) = qp n+1 q n+1 n+1 q n+1 j=0 p j=0 p qp(pn q n ) j q =q = qp(pn q n ) n+1 q n+1 j=0 p 1 n+1 n+1
p q

= =

q(pn+1 q n+1 ) q(pn+1 q n+1 ) = n+1 pn+1 q n+1 [qp(pn q n )] p q n+1 qpn+1 + pq n+1 q(pn+1 q n+1 ) q(pn+1 q n+1 ) = n+2 . pn+1 (1 q) q n+1 (1 p) p q n+2 P(T = n) = P(Zn = 0) P(Zn1 = 0).

Ya demostrado lo anterior, ahora vamos a realizar el siguiente clculo a

Si p = q tenemos que P(T = n) = = n n1 n2 (n + 1)(n 1) = n+1 n n(n + 1) n2 (n2 1) 1 = . n(n + 1) n(n + 1)

18

El Proceso de Ramificacin de Galton-Watson. o

Y para p = q vamos a tener que P(T = n) = = = = = q(pn q n ) q(pn1 q n1 ) pn+1 q n+1 pn q n

q(pn q n )2 q(pn1 q n1 )(pn+1 q n+1 ) (pn q n )(pn+1 q n+1 ) q(pn1 q n+1 2pn q n + q n1 pn+1 ) (pn q n )(pn+1 q n+1 ) q n pn1 (q 2 2pq + p2 ) (pn q n )(pn+1 q n+1 ) q n pn1 (p q)2 . (pn q n )(pn+1 q n+1 )

Con este resultado se puede ver que E(T ) < si y slo si p < q aplicando o el criterio del cociente. Ejemplo 1.7.4 (Funciones generadoras). Para un proceso de ramificacin con Z0 = 1, encontraremos una expresin o o para la funcin generadora fn de Zn , en los casos en que Z1 tiene funcin o o generadora dada por: i) f (s) = 1 (1 s) 0 < , < 1. Lo primero que tenemos que hacer para resolver este ejercicio es proponer una relacin para la n-sima iterada de la funcin generadora. o e o Para proponer dicha relacin nos ser de gran utilidad analizar los casos o a cuando n = {2, 3}. f2 (s) = f (f (s)) = 1 {[1 (1 s) ]} = 1 [(1 s) ] = 1 (+1) (1 s) ,
2 2 ++1) 2

f3 (s) = f (f2 (s)) = 1 {1 [1 (+1) (1 S) ]} = 1 [(+1) (1 s) ] = 1 (

(1 s) .

El analizar estos dos casos nos dio una idea de como podr ser la a n-sima iterada de la funcin generadora, la cual proponemos como e o fn (s) = 1 (
n1 + n2 +++1)

(1 s) .

1.7 Ejemplos

19

Ahora slo falta demostrar que esta relacin se cumple, lo cual haremos o o por induccin. Supongamos que se cumple para n = k y demostraremos o que es vlido para n = k + 1. a fk+1 (s) = f (fk (s)) = 1 [1 ( = 1 [( = 1 (
n + n1 +++1) k1 + k2 +++1)

k1 + k2 +++1)

(1 s)

(1 s) ]
n+1

(1 s) ]

ii) f (s) = g 1 (P (g(s))) donde P es una funcin generadora y g es una o funcin conveniente que satisface g(1) = 1. o De la misma manera que en el caso anterior, tenemos que proponer una relacin para la n-sima iterada, entonces vamos a analizar los casos o e cuando n = {2, 3}. Como P es una funcin generadora tenemos que o P (P (s)) = P2 (s) f (s) = g 1 (P (g(s))) f2 (s) = f (f (s)) = g 1 (P (g(g 1 (P (g(s)))))) = g 1 (P (P (g(s)))) = g 1 (P2 (g(s))), f3 (s) = f (f2 (s)) = g 1 (P (g(g 1 (P2 (g(s)))))) = g 1 (P (P2 (g(s)))) = g 1 (P3 (g(s))). De esta manera vamos a proponer a la n-sima iterada de la funcin e o generadora como fn (s) = g 1 (Pn (g(s))) para n 1

la cual se va a demostrar por induccin. o Vamos a suponer que es vlido para n = k y demostraremos que se a cumple para n = k + 1. fk+1 (s) = f (fk (s)) = g 1 (P (g(g 1 (Pk (f (s)))))) = g 1 (P (Pk (f (s)))) = g 1 (Pk+1 (f (s))). iii) Para el caso (ii) calcular la respuesta expl cita cuando g(x) = xm y P (s) = s( ( 1)s)1 donde > 1. Como podemos ver este ejemplo es un caso particular del ejemplo anterior. Para resolverlo va ser necesario proponer la n-sima iterada para e

20

El Proceso de Ramificacin de Galton-Watson. o

la funcin generadora P , nuevamente va ser de gran utilidad analizar o los casos cuando n = {2, 3}. Pero antes vamos a hacer un cambio de 1 variable dado por = , entonces tenemos que P (s) = s s = . 1 1 (1 )s (1 (1 )s)

De esta manera va ser ms fcil analizar estos casos a a s 1(1)s P2 (s) = P (P (s)) = s 1 (1 ) 1(1)s = 1 (1 )s (1 )s 2
s 1(12 )s s3 1(12 )s

s 1(1)s

[1 (1 )s]

s s = , 2 1 s + s 1 (1 2 )s

P3 (s) = P (P2 (s)) = s2 1 (1 ) 1(12 )s s3 s3 = . 1 (1 2 )s (1 )s2 1 s + s3 1 (1 3 )s Entonces proponemos la siguiente relacin: o = = Pn (s) = sn . 1 (1 n )s [1 (1 2 )s]

La demostracin de que esta relacin se cumple la haremos por induco o cin. Suponemos que es vlido para n = k y demostraremos que se o a cumple para n = k + 1, sn 1(1n )s Pn+1 (s) = P (Pn (s)) = sn 1 (1 ) 1(1n )s = = 1 (1 n )s (1 )sn sn+1 n+1 = 1 s + sn+1 1 (1 n+1 )s
sn+1 1(1n )s

[1 (1 n )s]

1.7 Ejemplos

21

Ejemplo 1.7.5 (Ramificacin con migracin). o o

Como tenemos que g(x) = xm y conocemos la n-sima iterada para la e funcin generadora P , entonces concluimos que o 1 m 1 n sm 1 m m fn (s) = g (Pn (g(s))) = Pn (s ) = . 1 (1 n )sm

Cada generacin de un proceso de ramificacin (con un solo progenitor), auo o menta por un nmero aleatorio de inmigrantes los cuales son indistinguibles u de los otros miembros de la poblacin. Supongamos que el nmero de ino u migrantes en diferentes generaciones son independientes de cada uno, en la historia pasada del proceso, dado tal nmero se tiene la funcin generadora u o H(s). Sea Zn el nmero de miembros de la n-sima generacin. La n + 1-sima u e o e generacin tiene tamao Cn+1 + In+1 donde Cn es el nmero de descendieno n u tes naturales de la generaciones previa, e In es el nmero de inmigrantes. u Entonces por independencia tenemos E[sZn+1 |Zn ] = E[sCn+1 +In+1 |Zn ] = E[sCn+1 |Zn ]E[sIn+1 |Zn ] = E[sCn+1 |Zn ]H(s) = f (s)Zn H(s) y de esta manera tenemos que fn+1 (s) queda determinada por fn+1 (s) = E[sZn+1 ] = E E[sZn+1 |Zn ] = E[f (s)Zn ]H(s) = fn (f (s))H(s). Ejemplo 1.7.6 (Martingala). Consideremos a {Zn } un proceso de ramificacin con E[Z1 ] = . Sao n=0 r n bemos que E[Zn+r |Zn ] = Zn donde r, n N. Si denimos a Wn = Zn se puede ver que {Wn } es una martingala, veamoslo n=0 E[Wn+r |Wn ] = 1 n+r E[Zn+r |Zn ] = 1 n+r Z n r = W n .

Ejemplo 1.7.7 (Funcin generadora fraccional lineal.). o Consideremos un proceso de ramificacin Z cuyo tamao de familia tiene o n una funcin de densidad dada por P(Z1 = k) = bc(k1) donde b, c > 0 y o b + c < 1. Lo que deseamos ver es que para la n-sima generacin la funcin e o o generadora fn (s) y P(T = n) donde T = nf{n : Zn = 0} y s0 es la ra no z negativa mas pequea de f (s) = s, cumplen con n

22

El Proceso de Ramificacin de Galton-Watson. o

i) Si = 1

1 s0 (1 s0 ) n s 0 fn (s) = 1 + n s 0 n 1 1s n s0
n

n s

P(T = n) = (n1) s0 ii) Si = 1 fn (s) = y P(T = n) =

(n

( 1)(1 s0 ) s0 )((n1) s0 )

nc s[(n + 1)c 1] 1 + (n 1)c ncs

c(1 c) [1 + (n 1)c][1 + (n 2)c]


Como k = bc(k1) para toda k {1, 2, 3, . . .} entonces 0 = 1


i=1

i = 1

i=1

bc(i1) = 1 b

c(i1)

i=1

=1b

j=0

cj = 1

b . 1c

La funcin generadora para Z1 esta dada por o f (s) =


i=0

P(Z1 = i)si = 1

=1 =1

b b + bs (cs)(i1) = 1 + bs (cs)j 1c 1c i=1 j=0

(i1) i b + bc s 1 c i=1

La esperanza de Z1 esta dada por f (1) = entonces f (s) = de aqu que = (1 cs)b bs(c) b = (1 cs)2 (1 cs)2 b . (1 c)2

b bs + . 1 c 1 cs

1.7 Ejemplos

23

Ahora tenemos que para todad u [1, 1] se cumple la siguiente relacin: o f (s) f (u) = 1 = b bs b bu + 1+ 1 c 1 cs 1 c 1 cu

bs(1 cu) bu(1 cs) b(s u) = (1 cs)(1 cu) (1 cs)(1 cu) b(s v) . (1 cs)(1 cv)

entonces tambin tenemos que para toda v [1, 1] se cumple e f (s) f (v) =

De esta manera llegamos a la siguiente relacin o b(s u) f (s) f (u) (1 cs)(1 cu) (s u)(1 cv) = = . f (s) f (v) (s v)(1 cu) b(s v) (1 cs)(1 cv) Como ya sabemos que la ecuacin f (s) = s tiene ra en s0 y en 1 armamos o ces que si > 1 tenemos que s0 < 1, si = 1 entonces s0 = 1 y nalmente si < 1 la ra s0 > 1. Si tomamos a u = s0 y v = 1 entonces para = 1 la z relacin que se acaba de obtener queda o f (s) s0 (s s0 )(1 c) = f (s) 1 (s 1)(1 cs0 ) por lo tanto tenemos que 1c f (s) s0 s s0 f (s) s0 s s0 = = . 1 cs0 f (s) 1 s 1 s 1 f (s) 1 Aplicando el l mite cuando s tiende a 1 a toda la igualdad se puede ver que 1c f (s) s0 s 1 f (s) s0 s1 1 = l m = l m l m = 1 cs0 s1 s s0 f (s) 1 s1 s s0 s1 f (s) 1 Ya que tenemos que al aplicar la regla de LHospital para el segundo l mite obtenemos s1 1 1 l m = l m = s1 f (s) 1 s1 f (s)

24

El Proceso de Ramificacin de Galton-Watson. o

y el otro l mite claramente es 1. Estos resultados nos permite armar que f (s) s0 1 s s0 = . f (s) 1 s1

Este ultimo resultado va ser de gran utilidad para obtener una frmula o expl cita para fn (s). Primero vamos analizar los casos n = {2, 3} para proponer dicha forma expl cita para fn (s). Para f2 tenemos f2 (s) s0 f (f (s)) s0 1 f (s) s0 1 s s0 = = = 2 . f2 (s) 1 f (f (s)) 1 f (s) 1 s1

Para f3 (s) tenemos que

Entonces proponemos a fn (s) como

f3 (s) s0 f2 (f (s)) s0 1 f (s) s0 1 s s0 = = 2 = 3 . f3 (s) 1 f2 (f (s)) 1 f (s) 1 s1 fn (s) s0 1 s s0 = n . fn (s) 1 s1

Esta relacin se va a demostrar por induccin, entonces vamos a suponer que o o es vlido para n = k 1 y probaremos que se cumple para n = k, veamoslo. a fk (s) s0 fk1 (f (s)) s0 1 f (s) s0 1 s s0 = = (k1) = k . fk (s) 1 fk1 (f (s)) 1 f (s) 1 s1 fn (s) = n s0 (s 1) (s s0 ) . n (s 1) (s s0 )

Si resolvemos esta ecuacin vamos a ver que nos queda como: o

Para obtener el resultado al cual queremos llegar tenemos que manipular esta ecuacin, entonces tenemos que o (s s0 ) s0 (s 1) (s s0 ) n (s 1) fn (s) = n = (s 1) (s s0 ) (s s0 ) 1 n (s 1)
n

s0

(s s0 ) + s0 1 1 s0 n (s 1) =1 (s s0 ) (s s0 ) 1 n 1 n (s 1) (s 1)

1.7 Ejemplos

25

fn (s) = 1

n (1 s0 )(s 1) n (1 s0 )(s 1) =1+ n s(n 1) + s0 n s0 s(n 1) n n s0 (1 s0 )(s 1) =1+ n s0 n s0 s(n 1) =1+ n (1 s0 ) (n s0 )(s 1) n s0 n s0 s(n 1)

n (1 s0 ) n (s 1) s0 (s 1) =1+ n s0 n s0 s(n 1) =1+ n (1 s0 ) n (s 1) s0 (s 1) + s s n s 0 n s0 s(n 1)

n (1 s0 ) (1 s0 )s (n n s s0 + s) =1+ n s 0 n s0 s(n 1) n n s s 0 + s n s(1 s0 )2 n (1 s0 ) n s 0 n s 0 =1+ n s0 s(n 1) 1 s0 (1 s0 ) n s 0 =1 + . ns n 1 0 1s n s0


n

sn

De esta manera demostramos la forma expl cita para fn (s) a la cual queriamos llegar si = 1. Esta relacin nos servira para obtener P(T = n). o Sea A = {|T () n}, entonces A = {|T () n} = {|existe una s {1, 2, 3, . . . , n}tal que Zs () = 0} n = {|Zi () = 0} = {|Zn () = 0}
i=1

De esta manera tenemos que P(T n) = P(Zn = 0) = fn (0) y fn (0) es equivalente a 1 s0 fn (0) = 1 n n . s0

26

El Proceso de Ramificacin de Galton-Watson. o

Con todos estos resultados, vamos a calcular P(T = n) P(T = n) = P(T n) P(T n 1) = fn (0) fn1 (0) = 1 n = n1 1 s0 1 s0 1 + n1 (n1) n s 0 s0

(1 s0 )(n s0 ) (1 s0 )(n1 s0 ) (n1 s0 )(n s0 ) ( 1)(1 s0 ) . (n s0 )(n1 s0 )

= n1 s0

Ahora veremos el caso en que = 1. En este caso podemos ver que b = (1 c)2 y solamente tenemos una unica ra la cual es s0 = 1, con toda esta z, informacin vemos que f (s) nos queda como: o 1 c (1 c)2 s(1 c)2 s(1 c)2 + =c+ 1c 1 cs 1 cs c(1 cs) + s(1 c)2 c s(2c 1) = , 1 cs 1 cs

f (s) = =

para f2 (s) tenemos c (2c 1)s c (2c 1) c (2c 1)f (s) 1 cs f2 (s) = f (f (s)) = = 1 cf (s) c (2c 1)s 1c 1 cs c(1 cs) (2c 1)(c s(2c 1)) 1 cs c2 + cs(2c 1) 2c 2c2 + s[(2c 1)2 c2 ] = 1 c2 + cs(2c 2) = =

2c(1 c) + s(3c2 4c + 1) 2c (3c 1)s = . (1 c)(1 + c) + 2cs(c 1) 1 + c 2cs

1.7 Ejemplos

27

y para f3 (s) tenemos c (2c 1)s 2c (3c 1) 2c (3c 1)f (s) 1 cs f3 (s) = f2 (f (s)) = = 1 + c 2cf (s) c (2c 1)s 1 + c 2c 1 cs = = = 2c(1 cs) (3c 1)[c s(2c 1)] (1 + c)(1 cs) 2c[c s(2c 1)]

3c 3c2 + s[(2c 1)(3c 1) 2c2 ] 1 + c 2c2 + cs[2(2c 1) 1 c] 3c(1 c) + s(4c2 5c + 1) 3c (4c 1)s = . 1 c + 2c(1 c) + 3cs(c 1) 1 + 2c 3sc nc [(n + 1)c 1]s . 1 + (n 1)c ncs

Entonces vamos a proponer la siguiente relacin para fn (s) : o fn (s) =

Esta funcin la vamos a probar por induccin. Supongamos que se cumple o o para k 1 , entonces basta ver que se cumple para k fk (s) = fk1 (f (s)) = (k 1)c (kc 1)f (s) 1 + (k 2)c (k 1)cf (s)

c s(2c 1) 1 cs = c s(2c 1) 1 + (k 2)c (k 1)c 1 cs (k 1)c (kc 1) = = =

(k 1)c(1 sc) c(kc 4) + s(kc 1)(2c 1) 1 cs + (k 2)c(1 cs) (k 1)c2 + s(2c 1)(k 1)c kc kc2 + s[(2c 1)(kc 1) (k 1)c2 ] 1 c + (k 1)c (k 1)c2 + cs[(2c 1)(k 1) 1 (k 2)c] kc(1 c) + s[(k + 1)c2 (k + 2)c + 1] kc s((k + 1)c 1) = . 1 c + (k 1)c(1 c) + csk(c 1) 1 + (k 1)c kcs

Ya demostrada la n-sima iterada,vamos a calcular fn (0) la cual es necesaria e

28

El Proceso de Ramificacin de Galton-Watson. o

para obtener P(T = n) fn (0) = entonces

nc 1 + (n 1)c nc (n 1)c 1 + (n 1)c 1 + (n 2)c

P(T = n) = fn (0) fn1 (0) = = =

nc(1 + (n 2)c) c(n 1)[1 + (n 1)c] [1 + (n 2)c][1 + (n 1)c] c(1 c) . [1 + (n 1)c][1 + (n 2)c]

Lo cual era a lo que queriamos llegar.

Cap tulo 2 El Proceso Markoviano de Ramificacin a Tiempo o Continuo


2.1. Introduccin. o

En el cap tulo anterior estudiamos el proceso de ramificacin de Galtono Watson ms simple, en el cual el tiempo de vida de cada individuo es de una a unidad de tiempo. Como podemos darnos cuenta, este proceso no es suficiente para modelar el crecimiento de muchas poblaciones f sicas o biolgicas, es por o esto, que ahora se presenta una extensin a tiempo continuo del proceso de o ramificacin de Galton-Watson, el cual llamaremos el Proceso Markoviano o de Ramificacin a Tiempo Continuo. o Ser de gran inters ver que tanto el proceso de ramificacin de Galtona e o Watson como el Proceso Markoviano de Ramificacin a Tiempo Continuo o tienen propiedades muy similares y que en algunas ocasiones no es ms que a el resultado de una extensin. Adems se analizar el problema de como deo a a nir la n-sima iterada de una funcin cuando n no es un entero, que desde e o tiempo atrs ha interesado a un gran nmero de matemticos. a u a Este proceso tambin modela el crecimiento de una poblacin, salvo que e o ahora el tiempo de vida de cada individuo es una variable aleatoria. Nuevamente no tenemos un mecanismo matemtico para representar las relaciones a entre los individuos de la poblacin total, aunque se tengan en mente cuano do se plantea el modelo. La primera formulacin del proceso markoviano o

30

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

de ramificacin a tiempo continuo aparece en los trabajos de Kolmogorov y o Dimitriev en 1947.

2.2.

Definicin. o

Como se hab sealado, en el proceso de ramificacin de Galton-Watson a n o el tiempo de vida de cada individuo es de una unidad de tiempo, una generalizacin natural para la construccin del proceso markoviano de ramificacin o o o a tiempo continuo es la de permitir que estos tiempos de vida sean aleatorios. En el cap tulo anterior se consider una cadena de Markov a tiempo discreto o {Zn : n = 0, 1, 2, . . .}, ahora deniremos un proceso {Z(t) : t 0} donde Z(t) es el nmero de individuos al tiempo t. Este proceso en general no u es de Markov, al menos que los tiempos de vida sean independientes y se distribuyan como variables aleatorias exponenciales, que para nuestros nes es lo que se va a suponer. Definicin 2.2.1. Un proceso estocstico {Z(t, ) : t 0} denido en un o a espacio de probabilidad (, , P) es llamado como el Proceso Markoviano de Ramificacin a Tiempo Continuo Unidimensional si: o i) Su espacio de estados esta dado por el conjunto de enteros no negativos. ii) Es una cadena de Markov estacionaria con respecto a los campost = {Z(s, ) : s t}, (para cualquier coleccin D de valores reales, o variables aleatorias Borel medibles denidas en (, , P), (D) denota la sub--lgebra generada por D). a iii) Las probabilidades de transicin Pij (t) = P(Z(t) = j|Z(0) = i) satisfao cen: i j j Pij (t)s = P1j (t)s
j=0 j=0

Los incisos (i) y (ii) nos dicen que Z(t) es un Proceso Markoviano a Tiempo Continuo en los enteros, y el inciso (iii) caracteriza la propiedad bsica de ramificacin. a o Como era de esperarse gran parte de la teor del proceso de ramificacin a o de Galton-Watson se puede desarrollar en el caso continuo con tcnicas sie milares a las ya vistas. Ser de gran inters ver que el Proceso Markoviano de a e Ramificacin a Tiempo Continuo tiene una estructura mucho ms compleja. o a

para toda i 0 y |s| 1.

2.3 Construccin o

31

2.3.

Construccin o

Para la construccin del Procesos Markoviano de Ramificacin a Tiempo o o Continuo es indispensable estudiar las probabilidades de transicin, las cuales o estan dadas por Pij (, + t) = P(Z( + t) = j|Z( ) = i) para toda i, j {0, 1, 2, . . . }. Debido a la hiptesis de homogeneidad del tiempo estas satisfacen que o Pij (, + t) = Pij (t) t 0.

Estudiaremos las probabilidades de transicin mediante los dos sistemas o de ecuaciones diferenciales, las ecuaciones backward y forward de Kolmogorov. Para escribir de una manera expl cita dichas ecuaciones, primero obtendremos a ciertas funciones ai (t) y ij (t), con i, j = {0, 1, 2, . . .}. Si se tiene que Z(t) = i, entonces la probabilidad de que un cambio de estado ocurra en un intervalo de tiempo (t, t + h) es ai (t)h + o(h). Si nosotros sabemos que el cambio ocurre al tiempo t cuando el estado es i, entonces ij (t) es la probabilidad de que el nuevo estado sea j. Ahora vamos a suponer que un individuo presente al tiempo t tiene una probabilidad a(t)h + o(h) de morir en el intervalo de tiempo (t, t + h), donde a(t) es una funcin continua y no negativa. Si este individuo muere en un o tiempo , las probabilidades de que sea reemplazado por 0, 2, 3, . . . individuos son 0 (t), 2 (t), 3 (t), . . . Se omitir la posibilidad de muerte seguida de un a slo reemplazo, debido a la falta de dependencia en la edad, ya que parecer o a que no hubo cambio alguno. Por esta misma razn, la muerte de un individuo o y su reemplazo por n nuevos individuos (n 2), es equivalente a que dicho individuo no muera y tenga (n 1) nuevos descendientes. Es importante notar que si un individuo nace en un tiempo t1 , la probabilidad de que dicho individuo tenga un tiempo de vida adicional esta dada por
t1 +

a(t1 + ) exp

a(x)dx

t1

la cual se convierte en una funcin de densidad exponencial si a es constante. o Si ahora en vez de tener un slo individuo, tenemos i presentes a un tiemo po t, entonces la probabilidad de que mueran 0, 1 y un nmero mayor a 2 en u un intervalo de tiempo (t, t + h) son 1 ia(t)h + o(h), ia(t)h + o(h) y o(h)

32

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

respectivamente. Si ocurre una muerte al tiempo , entonces la probabilidad de que el tamao de la poblacin sea j dado que a cierto tiempo antes a n o el nmero de individuos era i, es ji+1 ( ). Al obtener estos resultados u podemos concluir que ai (t) = a(t) y ij (t) = ji+1 (t). Las k (t) son llamadas las probabilidades innitesimales, las cuales para nuestro proceso en estudio no dependen del tiempo; lo mismo le sucede a a(t) la cual no le queda ms que ser una constante. Las probabilidades innitesia males y el parmetro a deben cumplir con las siguientes propiedades: a 0 < a < , 0 < k y

k = 1.

k=0

Las probabilidades innitesimales determinan a las probabilidades de transicin como soluciones de las ecuaciones de Kolmogorov, dichas ecuao ciones son
j+1 d Pij (t) = jaPij (t) + a kPik (t)jk+1 dt k=1 k=j

forward

(2.1)

con condiciones en la frontera


+

d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1

backward

(2.2)

1 si i = j, Pij (0 ) = ij = 0 si i = j. Las probabilidades innitesimales nos dan una interpretacin probabilista o en trminos de un proceso de ramificacin, el cual construiremos de la siguiene o te manera. Supongamos que se empieza con un cierto nmero de individuos u a un determinado tiempo, la longitud de vida adicional de cada individuo es una variable aleatoria exponencial con prametro a. Al morir cada individuo a deja k descendientes con probabilidad k , donde k = {0, 1, 2, 3, . . .}. Como en el cap tulo anterior el comportamiento de cada individuo es independiente al de otros individuos y de la historia del proceso. Ahora supongamos que el proceso est en el estado i a un tiempo dado, a este contina ah por una cantidad de tiempo el cual se distribuye expou nencialmente con parmetro ia. Si el proceso salta a los estados j i 1, a

2.3 Construccin o

33

estos saltos estan determinados por las probabilidades ji+1 , entonces la probabilidad de transicin est dada por o a Pij ( ) = iaji+1 + o( ) cuando 0 y para j i 1 con j = i. Si el proceso se encuentra en el estado i y contina ah por cierta cantiu dad de tiempo, pero ahora no hay salto alguno, entonces la probabilidad de transicin queda determinada por o Pii ( ) = 1 ia + o( ) cuando 0. Y si el proceso se encuentra en el estado i y contina ah por cierta u cantidad de tiempo, pero ahora salta a los estados j < i 1, entonces la probabilidad de transicin queda determinada por o Pij = o( ) cuando 0 y para j < i 1. Este proceso que se acaba de construir se llama el proceso minimal. Nosotros acabamos de mencionar la construccin de Harris de un espacio o de probabilidad para un proceso de ramificacin. En esta construccin cada o o punto en el espacio muestral representa un completo arbol familiar, especicando el tiempo de nacimiento, longitud de vida, ancestros y descendientes de cada individuo, y una apropiada medida de probabilidad es construida en la extensin de Borel en los conjuntos cil o ndricos de estos espacios. Cuando la distribucin del tiempo de vida es exponencial, Harris prueba o que el proceso es de Markov, y tiene una funcin de transicin que satisface o o las ecuaciones de Kolmogorov. El obtuvo un proceso markoviano con el mismo mecanismo de transicin o ya descrito, pero en espacios muestrales subyacentes espec camente identicados como espacios de rboles de familias. a Esta identicacin ser de utilidad para nosotros. Por ejemplo sta nos o a e posibilitar para denir variables aleatorias como a Z(t,) (i) Zt (, ) si Z(t, ) > 0 Z(t + , ) = i=1 0 si Z(t, ) = 0

34
(i)

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

donde Zt (, ) es el nmero de descendientes que estan vivos hasta el tiemu po (t + ) del i-simo individuo de los Z(t, ) existentes al tiempo t. e (i) Los procesos Z(t, ) y {Zt (, ); 0} son independientes y equivalentes a {Z(u, ); u 0}, con la hiptesis usual de que Z(0, ) = 1. o

2.4.

Las Ecuaciones Backward y Forward de Kolmogorov

En esta seccin vamos a construir a las ecuaciones de Kolmogorov. El o proceso minimal es indispensable para dicha construccin. o

Proposicin 2.4.1. El proceso markoviano de ramificacin a tiempo contio o nuo satisface la ecuacin forward de Kolmogorov dada por o

j+1 d kPik (t)jk+1 Pij (t) = jaPij (t) + a dt k=1 k=j

Demostracin. Supongamos que Z(t + h) = j y Z(t) = i para cualquier o i {1, 2, 3, . . .} y j {0, 1, 2, 3, . . .}, entonces tenemos que Pij (t + h) = P(Z(t + s + h) = j|Z(s) = i) = P(Z(t + s + h) = j, Z(t + s) = k|Z(s) = i) =
k=1 k=1

P(Z(t + s + h) = j|Z(t + s) = k)P(Z(t + s) = k|Z(s) = i)

2.4 Las Ecuaciones Backward y Forward de Kolmogorov

35

Pij (t + h) =

k=1 k=j

+ P(Z(t + s + h) = j|Z(t + s) = j)Pij (t)+ + P(Z(t + s + h) = j|Z(t + s) = k)Pik (t)


k=j+2

j+1

P(Z(t + s + h) = j|Z(t + s) = k)Pik (t)+

k=1 k=j

j+1

Pik (t)(kahjk+1 + o(h))+


+ Pij (t)(1 jah + o(h)) + =


k=1 k=j j+1

o(h)Pik (t)

k=j+2

akhPik (t)jk+1 +

jahPij (t) + o(h) + = Pij (t) jaPij (t)h +

j+2

k=1 k=j

j+1

k=1 k=j

j+1

Pik (t)o(h) + Pij (t)

o(h)Pik (t)

kahPik (t)jk+1 + o(h)

Ahora si restamos en ambos lados Pij (t) y dividimos entre h, entonces la ecuacin nos queda o
j+1 Pij (t + h) Pij (t) kPik (t)jk+1 + o(1) = jaPij (t) + a h k=1 k=j

y si a h la hacemos tender a cero tenemos a la ecuacin forward de Kolmoo gorov j+1 d kPik (t)jk+1 Pij (t) = jaPij (t) + a dt k=1
k=j

Proposicin 2.4.2. El proceso markoviano de ramificacin a tiempo contio o nuo satisface la ecuacin backward de Kolmogorov dada por o
d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1 k=i

36

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

Demostracin. Para obtener la ecuacin backward de Kolmogorov, nueo o vamente vamos a suponer que Z(t + h) = j y Z(t) = i para cualquier i {1, 2, 3, . . .} y j {0, 1, 2, 3, . . .}, entonces tenemos que Pij (t + h) = P(Z(t + s + h) = j|Z(s) = i) = P(Z(t + s + h) = j, Z(h + s) = k|Z(s) = i) = =
k=1 k=1 i2

P(Z(t + s + h) = j|Z(h + s) = k)P(Z(h + s) = k|Z(s) = i)

Pkj (t)P(Z(h + s) = k|Z(s) = i)+

k=1

+ Pij (t)P(Z(h + s) = i|Z(s) = i)+ + Pkj (t)P(Z(h + s) = k|Z(s) = i)


k=i1 k=i

k=1

i2

Pkj (t)o(h) + Pij (t)(1 iah + o(h))+


Pkj (iahki+1 + o(h))


k=i1 k=i

= Pij (t) iahPij (t) +

Pkj (t)iahki+1 h + o(h)

k=i1 k=i

Ahora si restamos Pij (t) en ambos lado de la igualdad y dividimos entre h, entonces la ecuacin nos queda o
Pij (t + h) Pij (t) = iaPij (t) + Pkj (t)iaki+1 + o(1) h k=i1 k=i

y si hacemos tender h a cero vamos a tener a la ecuacin backward de Kolo mogorov. d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1
k=i

Definicin 2.4.1. Llamaremos al conjunto de funciones {Pij (t)} una soluo cin de las ecuaciones backward y forward de Kolmogorov si son no negativas, o

2.5 Funcin Generadora o

37

absolutamente continuas en 0 y en t, satisfacen las ecuaciones de Kolmogorov y las siguientes condiciones i) Pij (t) =

Pik (t1 )Pkj (t)

i, j = 0, 1, 2, . . .

j=0

0 t1 t

(ecuacin de Chapman-Kolmogorov) o ii)


j=0

Pij (t) 1

i = 0, 1, 2, . . .

2.5.

Funcin Generadora o

Por el momento vamos a suponer que {Pij (t)} es una unica solucin de o las ecuaciones de Kolmogorov, por ser unica satisface

Pij (t) = 1.

j=0

La funcin generadora juega un papel importante en el anlisis de los o a procesos continuos. Antes de denir a la funcin generadora del proceso, o vamos a denir una funcin f (s) como o f (s) = y otra funcin u(s) como o u(s) = a[f (s) s]. El nmero a, que toma valores en el intervalo (0, ), y la funcin u o {j : j = 0, 1, 2, . . .} son los datos totales del proceso {Z(t) : t 0}. Deniremos a la funcin generadora del proceso {Z(t) : t 0} como o Fk (s, t) = =
j=0 j=0

j s j

donde

j=0

|s| 1

P(Z(t) = j|Z(0) = k)sj Pkj (t)sj

= E[sZ(t) ].

38

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

Si k = 1 entonces la funcion generadora se denota por F (s, t). Por las ecuaciones de Kolmogorov podemos ver que F (s, t) satisface las siguientes relaciones las cuales demostraremos mas adelante F (s, t) = u(F (s, t)) t y (ecuacin backward ) o (2.3)

F (s, t) = u(s) F (s, t) (ecuacin forward ) o t s con condicin de frontera o F (s, 0) = s.

(2.4)

Proposicin 2.5.1. El Proceso Markoviano de Ramificacin a Tiempo Cono o tinuo con solucin unica satisface la ecuacion backward de Kolmogorov para o la funcin generadora o F (s, t) = u(F (s, t)). t Demostracin. Para la construccin de la ecuacin backward para la funo o o cin generadora, primero tenemos que ver que de la ecuacin backward orio o ginal d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1
k=i

se puede armar que porque cuencia a


n

j=0

Pij (t) converge uniformemente en (0, t) a


d P (t) dt ij

converge uniformemente en (0, t) a


j=0

Pij (t) y en conse-

d P (t), dt ij

j=0 k=i1 k=i

es decir,

Si la ecuacin backward original es multiplicada por sj en ambos lados, o al introducir la suma nita hasta n podemos ver que esta nueva relacin o d converge uniformemente en el intervalo (0, t) a P (t)sj , ya que |s| 1, dt ij
j=0 n d c.u. d Pij (t)sj Pij (t)sj . dt dt j=0 j=0

j=0 k=i1 k=i

j=0 n

j=0

Pkj (t)ki+1 converge uniformemente en el mismo intervalo

Pkj (t)ki+1 .

2.5 Funcin Generadora o

39

De esta manera podemos aplicar el siguiente teorema. Teorema 2.5.1. Sean a < b y {fn : n N} una sucesin de funciones o derivables en (a, b) tal que la sucesin {fn : n N} converge uniformemente o en (a, b) y existe un punto x0 (a, b) tal que la sucesin {fn (x0 ) : n N} o converge. Entonces la sucesin {fn : n N} converge uniformemente en o (a, b) y
n

l fn m

= l fn m
n

Demostracin. Para demostrar que la sucesin {fn : n N} converge o o uniformemente, es suciente mostrar que dicha sucesin es de Cauchy. Sea o > 0. La sucesin {fn (x0 ) : n N} converge, entonces es de Cauchy, y existe o N1 N tal que |fn (x0 ) fm (x0 )| < 2 para todo m, n N1 . Tambin, la sucesin {fn : n N} es de Cauchy; sea N N1 tal que e o |fn (x) fm (x)| < 2(b a) para todo m, n N y x (a, b). Para todo n, m N y x (a, b) ahora tenemos |fn (x) fm (x0 )| |fn (x) fn (x0 ) fm (x) + fm (x0 )| + |fn (x0 ) fm (x0 )| |(fn fm )(x) (fn fm )(x0 )| + 2 = |(fn fm ) ()||x x0 | + 2 < |x x0 | + 2(b a) 2 < donde (x0 , x); la existencia de se deduce del Teorema del Valor Medio. Entonces, la sucesin {fn : n N} converge uniformemente, es decir o f = l fn . m
n

Para nalizar la demostracin tenemos que mostrar que f es diferenciable o y que f = l fn . Sea g = l fn ; lo que tenemos que vericar es m m
n n

f (x + t) = f (x) + g(x)t + o(t)

t0

40

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

para todo x (a.b); esto es equivalente a la siguiente armacin: o Para toda x (a, b) y > 0 existe una > 0 tal que |f (x + t) f (x) g(x)t| |t| para toda t con |t| < . Sean x (a, b) y > 0. Ya que l fn = g existe, m n tenemos que existe N N tal que para toda n N
|fn () fN ()| <

para toda (a, b). Entonces, cuando n N , fn (x + t)fn (x) fn (x)t fN (x + t) fN (x) fN (x)t = |(fn fN )(x + t) (fn fN )(x) (fn fN ) (x)t| |(fn fN )(x + t) (fn fN )(x)| + |(fn fN ) (x)|t 2 sup{|(fn fN ) ()| : (a, b)}t t < 2 Tomando el l mite cuando n se va a innito en la desigualdad fn (x + t) fn (x) fn (x)t fN (x + t) fN (x) fN (x)t < t 2

obtenemos f (x + t) f (x) g(x)t fN (x + t) fN (x) fN (x)t < t . 2 t 2

La funcin fN es diferenciable en x, entonces existe > 0 tal que para o toda t con |t| < ,
|fN (x + t) fN (x) fN (x)t| <

de donde
|f (x + t) f (x) g(x)t| < |fN (x + t) fN (x) fN (x)t| +

t < t 2

para toda t tal que |t| < .

2.5 Funcin Generadora o

41
Pij (t)sj y fn (t) = d P (t)sj dt ij

Si tomamos fn (t) =

j=0

teorema 2.5.1, entonces tenemos que d d Pij (t)sj = Pij (t)sj . dt j=0 dt j=0

y aplicamos el

j=0

Ahora, con este resultado ya se puede obtener la ecuacin backward de o Kolmogorov para la funcin generadora. Sea la ecuacin backward de Kolo o mogorov original d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1
k=i

para i = 1 tenemos
d Pkj (t)k . P1j (t) = aP1j (t) + a dt k=0 k=1

ahora vamos a introducir la suma sobre j, lo cual nos da d P1j (t)sj = a P1j (t)sj + a Pkj (t)k sj j=0 dt j=0 j=0 k=0
k=1

Si multiplicamos en ambos lados por sj tenemos d P1j (t)sj = aP1j (t)sj + a Pkj (t)k sj dt k=0
k=1

aplicando el teorema 2.5.1 tenemos que d P1j (t)sj = a P1j (t)sj + a Pkj (t)k sj dt j=0 j=0 j=0 k=0 = aF (s, t) + a
k=0 k=1

j=0

d P1j (t)sj = aF (s, t) + a k Fk (s, t) dt j=0 k=0

k=1

Pkj (t)sj

= aF (s, t) + a

= aF (s, t) + af (F (s, t))

k=1 k=0 k=1

k [F (s, t)]k

42

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

Gracias a esta ultima relacin tenemos o F (s, t) = u(F (s, t)) t que es a lo que se quer llegar. a Proposicin 2.5.2. El Proceso Markoviano de Ramificacin a Tiempo Cono o tinuo con solucin unica satisface la ecuacin forward de Kolmogorov para o o la funcin generadora o F (s, t) = u(s) F (s, t) t s Demostracin. Para obtener a la ecuacin forward de Kolmogorov de la o o funcin generadora se tiene que hacer el mismo anlisis que en el caso de la o a ecuacin backward, para as aplicar el teorema 2.5.1. o Sea la ecuacin forward de Kolmogorov o
j+1 d kPik jk+1 Pij (t) = jaPij (t) + a dt k=1 k=j

para i = 1 tenemos
j+1 d P1j (t) = jaP1j (t) + a kP1k jk+1 . dt k=1 k=j

Si ahora multiplicamos en ambos lados por sj tenemos que


j+1 d P1j (t)sj = jaP1j (t)sj + a kP1k jk+1 sj dt k=1 k=j

e introducimos la suma sobre j, lo cual nos da


d j+1 P1j (t)sj = a jP1j (t)sj + a kP1k jk+1 sj j=0 dt j=0 j=0 k=1 k=j

2.5 Funcin Generadora o

43

aplicando el teorema 2.5.1 tenemos que


j+1 d kP1k jk+1 sj P1j (t)sj = a jP1j (t)sj + a dt j=0 j=0 j=0 k=1 k=j

= as

j=1

jP1j (t)sj1 + a

j=0 k=1 k=j

j+1

kP1k jk+1 sj

sea y = k 1 tenemos
j j F (s, t) = as F (s, t) + a s (y + 1)P1(y+1) jy t s y=0 j=0 y=j1

en el ultimo trmino de la derecha vemos que es una multiplicacin de series, e o entonces la igualdad nos queda F (s, t) = as F (s, t) + a sj (j + 1)P1(j+1) (t) s j j t s j=0 j=0 ahora sea r = j + 1 rs(r1) P1r (t) F (s, t) = as F (s, t) + a s j j t s r=1 j=0 = as F (s, t) + a F (s, t)f (s) s s = a[f (s) s] F (s, t) s = u(s) F (s, t) s Para obtener la iterada de la funcin generadora es necesario utilizar o

44

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

la ecuacin de Chapman-Kolmogorov, de esta manera tenemos que o F (s, t + u) = = = = =


P1k (t + u)sk P1j (u)Pjk (t)sk P1j (u)Pjk (t)sk


k=0

k=0 j=0 j=0 k=0 j=0 j=0

P1j (u)

Pjk (t)sk

k=0

= F (F (s, t), u)

j P1j (u) F (s, t)

Dicha relacin es anloga a la frmula iterada para fn (s) en el Proceso de o a o Ramificacin de Galton-Watson. o

2.6.

Existencia y Unicidad de las Soluciones.

De algunos resultados de Feller (1940)1 tenemos que siempre existe una solucin {Pij (t)} comn para ambas ecuaciones de Kolmogorov. Ms adelante o u a veremos que cualquier solucin de la ecuacin (2.1) tiene la propiedad o o Pij (t) = P1r1 (t)P1r2 (t) P1rk (t). (2.5)
r1 +r2 ++rk =j

unicas. Relacionado con esta dicultad est el hecho de que la interpretacin a o probabil stica de todo lo anterior puede no ser siempre vlido. Este problema a surge con la posible produccin innita de part o culas en un tiempo nito, es decir al explotar, una situacin que existe cuando hay soluciones para las o
1

Lo que nos dice esta relacin es que si la poblacin a un cierto tiempo t, o o que empieza con i individuos al tiempo inicial 0, se distribuye como la suma de i poblaciones independientes que empiezan con un slo individuo. o Desafortunadamente aunque las ecuaciones de Kolmogorov siempre ten gan una solucin que satisface o Pij (t) 1 estas soluciones pueden no ser
j=0

Ver [7]

2.6 Existencia y Unicidad de las Soluciones.

45

ecuaciones de Kolmogorov que satisfacen la desigualdad

Pij (t) < 1.


j=0

Si tenemos que existen soluciones para la cuales se satisface

Pij (t) < 1,

j=0

entonces la ecuacin (2.2) tiene muchas soluciones, aunque la ecuacin (2.1) o o tenga solamente una. En el caso en que la solucin de la ecuacin (2.1) satiso o faga Pij (t) = 1, entonces la ecuacin (2.2) tiene una unica solucin, este o o
j=0

resultado se ver a continuacin pero antes demostraremos el siguiente lema. a o Lema 2.6.1. Si {Pij (t)} es una solucin de la ecuacin (2.1) entonces o o Pij (t) eat Demostracin. De la ecuacin (2.1) o o
j+1 d Pij (t) = jaPij (t) + a kPik jk+1 dt k=1 k=j

(2.6)

si tenemos que i = j = 1 entonces la ecuacin queda de la siguiente manera o d P11 (t) = aP11 (t) + 2aP12 0 . dt Con esto armamos que d P11 (t) aP11 (t). dt Al resolver esta desigualdad con tcnicas de ecuaciones diferenciales ore dinarias tenemos que P11 (t) eat i Ahora como tenemos que Fi (s, t) = F (s, t) entonces podemos obte ner una relacin para t Fi (s, t), suponiendo que tenemos una solucin para o o la ecuacin (2.1). De la ecuacin (2.4) tenemos o o F (s, t) = u(s) F (s, t). t s

46

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

Y para Fi (s, t) tenemos que i Fi (s, t) = F (s, t) t t i1 = i F (s, t) F (s, t) t i1 = i F (s, t) u(s) F (s, t). s

Pero tenemos que

entonces tenemos que

i i1 Fi (s, t) = F (s, t) = i (F (s, t) F (s, t), s s s Fi (s, t) = u(s) Fi (s, t). t s (2.7)

Teorema 2.6.1. Existe una unica solucin {Pij (t)} de la ecuacin forward de o o Kolmogorov si la funcin generadora Fi (s, t) satisface la ecuacin (2.7) para o o i |s| < 1, Fi (s, t) = F (s, t) para toda i {0, 1, 2, . . .} y como consecuencia tenemos que la ecuacin (2.5) se satisface o Demostracin. Sea s0 un punto jo en el intervalo (0, 1), y t esta en el o intervalo (0, T ) donde T es un nmero positivo jo y arbitrario. Adems u a vamos a considerar a i como un entero positivo jo. Sea A = sup u(s)
s0 ss0 s0 ss0

y sea n un entero positivo tan grande que se cumple que s0 A T > 0. n Hay que notar que sup s u(s) <

Ahora de un resultado muy bien conocido de la teor de ecuaciones dia ferenciales parciales (Kamke [9]), la ecuacin (2.7) tiene exactamente una o solucin en el trapezoide 0 t T , (s0 At) s s0 At, tomando o n como valor inicial a Fi (s, 0+ ) = si . Si Fi (s, t) es una solucin tal que es una serie de potencias en s, cono vergente para |s| s0 , entonces nosotros tendremos que Fi (s, t) = Fi (s, t)

2.6 Existencia y Unicidad de las Soluciones.

47

en el rectangulo 0 t T , s0 s s0 , ya que Fi (s, t) = Fi (s, t) en el n trapezoide. Podemos utilizar el mismo argumento para demostrar la unicidad en el siguiente rectangulo con T de ancho, y seguir as hasta llegar a T . Como T n es arbitrario podemos ver que la ecuacin (2.7) tiene una unica solucin en o o la regin s0 s s0 , t 0, y esto es para cada t en una serie de potencias o en s que es convergente para |s| s0 . Si la equacin forward tuviese una segunda solucin {Pij (t)} su correso o pondiente funcin generadora Fi (s, t) es una solucin de la serie de poo o tencias de la ecuacin (2.7) que tiene que coincidir con Fi (s, t), entonces o {Pij (t)} = {Pij (t)}. Esto prueba la unicidad de la solucin para la ecuacin o o forward de Kolmogorov. Si F (s, t) es solucin de la ecuacin ( 2.7) con valor inicial s, entonces o o i F (s, t) es una solucin con el valor inicial si . Por la propiedad de la unicio i dad tenemos que F (s, t) = Fi (s, t), y esto prueba que la ecuacin (2.5) se o satisface.

Lema 2.6.2. La funcin generadora F (s, t) satisface la desigualdad para o |s| 1 F (s, t) (1 P11 (t))(1 |s|) + |s| y si t esta en un intervalo nito, entonces existe una constante c (0, 1), tal que F (s, t) 1 c(1 |s|). Demostracin. Primero vamos a ver que la desigualdad para F (s, t) se o

48

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

cumple para toda t en un intervalo nito j F (s, t) = P1j (t)s


j=0 j=0

= P1j (t)sj P11 (t)|s| + P11 (t)|s| P11 (t)|s| P11 (t) + P1j (t)sj
j=0 P1j (t)

P11 (t)|s| P11 (t) +

j=0

P11 (t)|s| P11 (t) + 1

P11 (t)|s| P11 (t) + 1 |s| + |s| (1 P11 (t))(1 |s|) + |s|. Ahora nosotros sabemos que P11 (t) satisface la siguiente desigualdad por el Lema 2.6.1 P11 (t) eat por lo tanto tenemos que 1 P11 (t) 1 eat Como t est en un intervalo nito y la funcin 1 eat es montona a o o creciente y su dominio es [0, 1) para toda t > 0, entonces existe un nmero u c en (0, 1) tal que 1 eat c para toda t en el intervalo nito. Con esto tenemos que F (s, t) (1 P11 (t))(1 |s|) + |s| c(1 |s|) + |s|

Teorema 2.6.2. La ecuacin backward de Kolmogorov tiene exactamente o una unica solucin que satisface la propiedad de ramificacin (2.5), y sta es o o e la solucin unica de la ecuacin forward de Kolmogorov. La funcin generao o o dora .F (s, t) satisface a la ecuacin (2.3) para |s| 1. o Demostracin. Si |s| < 1 entonces por el Lema 2.6.2, F (s, t) est acotada o a por una constante < 1, cuando t est en un intervalo nito. a

2.7 Hiptesis de no explosin. o o

49

Si s y t1 son nmeros jos, el lado derecho de la ecuacin (2.3) satisface u o la condicin de Lipschitz en la regin F (s, t) , 0 t t1 . Entono o ces la ecuacin (2.3) tiene para cada s con |s| < 1 una unica solucin que o o est acotada por alguna constante menor a uno. Pero si la ecuacin (2.2) tiea o ne otra solucin {Pij (t)} que satisface la ecuacin (2.7), su correspondiente o o funcin generadora F (s, t) va a ser una solucin a la ecuacin (2.3), la cual o o o est acotada por una constante menor a uno, entonces F (s, t) = F (s, t) y a {P1j (t)} = {P1j (t)}. Desde que {Pij (t)} est determinada por {P1j (t)} entonces por la propiea dad (2.7) la unicidad esta probada. La siguiente condicin asegura que la unica solucin de la ecuacin foo o o rward satisface Pij (t) = 1. En este caso la solucin es una unica solucin o o
j=0

para la ecuacin backward. o

Condicin 2.6.1. La serie o tervalo nito (0, t).

j=0

jj (t) converge uniformemente en cada in-

Supongamos una t1 ja y t (0, t1 ), y sea F (1, t) = G(t). Entonces G(t) satisface la ecuacin diferencial ordinaria o d G(t) = au(G(t)) dt con G(t ) = 1 y 0 G(t) 1. 1 El lado derecho de la ecuacin diferencial satisface la condicin de Lipso o chitz en la regin 1 G(t) 1 y 0 t t1 , gracias a la condicin 2.6.1 o o y de la denicin de f (s). Entonces la solucin es unica y como 1 es una o o solucin tenemos que G(t) = 1. o

2.7.

Hiptesis de no explosin. o o

En esta seccin veremos que bajo la hiptesis de no explosin vamos o o o a tener que la solucin a las ecuaciones de Kolmogorov van a satisfacer o Pij (t) = 1 para t 0, lo cual nos dice que dicha solucin va a ser unica. o
j=0

50

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

De la ecuacin 2.3 tenemos que o F (s, t) = a f (F (s, t)) F (s, t) t con condicin en la frontera F (s, 0) = s, de donde se sigue que o armamos que F (s, t) t =a f (F (s, t)) F (s, t) y de aqu vemos que F (s,t) dx = at f (x) x s Hiptesis de no explosin : Para toda > 0 tenemos o o 1 dx = 1 f (x) x

Entonces

Teorema 2.7.1. La hipotesis de no explosin es necesaria y suciente para o que se satisfaga que P(Z(t) < ) = 1 F (1, t) = 1 o

Demostracin. Primero hay que ver la equivalencia entre P(Z(t) < ) y o F (1, t) F (1, t) = =
j=0 j=0

P1j (t) P(Z(t) = j|Z(0) = 1)

= P(Z(t) < |Z(0) = 1) = P(Z(t) < ). Ahora tomamos un s0 (0, 1), de tal manera que f (x) x no se acerque mucho a cero para cualquier x [s0 , 1). Tomamos s1 y t1 tal que s0 < s1 < 1, t1 > 0 y s1 at1 > s0 , entonces vemos que t F (s, t) a, de esta manera armamos que F (s, t) sat > s0 para s1 s < 1 y 0 t t1 . Del Lema 2.6.2 podemos ver que |F (s, t)| < 1 si |s| < 1, entonces aplicamos F (s,t1 ) 1 dx = at1 para s1 s < 1 f (x) x s

2.8 Los Momentos de Z(t)

51

Para poder retener el valor at1 cuando s tiende a 1, debemos tener que F (1, t1 ) < 1 si la integral del fenomeno de no explosin converge, cuando t1 o es positiva; y vamos a tener que F (1, t1 ) = 1 si dicha integral diverge donde t1 es nita. Corolario 2.7.1. Si f (1) < , entonces F (1, t) = 1 Demostracin. Solamente tenemos que ver que la relacin o o f (h) h = (f (1) 1)(u 1) + o(u 1) u1

se va a cero cuando u tiende a 1, de esta manera utilizando el Teorema que acabamos de demostrar, armamos que F (1, t) = 1.

2.8.

Los Momentos de Z(t)

Vamos a denir el k-simo momento factorial de Z(t), donde k = 1, 2, 3, . . ., e como mk (t) = E Z(t)(Z(t) 1) (Z(t) k + 1)Z(0) = 1 . k Si la serie j k converge uniformemente en cada intervalo nito (0, t),
j=0

entonces mk (t) es nito y se puede obtener derivando a las ecuaciones de Kolmogorov para la funcin generadora k veces con respecto a s y evaluando o en s = 1. Teorema 2.8.1. Sea b = a[f (1) 1] y tomamos Z(0) = 1, entonces E[Z(t)] = ebt y V ar[Z(t)] =
f (1)f (1)+1 bt bt e (e f (1)1

f (1)at

1) si b = 0, si b = 0.

Demostracin. Denimos para |s| < 1 o m1 (s, t) =


F (s, t) = kP1k (t)sk1 , s k=1

52

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

entonces de la ecuacin (2.3) tenemos o F (s, t) = a f (F (s, t)) F (s, t) . t Si a esta ecuacin le calculamos la derivada parcial con respecto a s vamos o a tener F (s, t) = a f (F (s, t)) F (s, t) s t s s = a f (F (s, t) F (s, t) F (s, t) s s = a f (F (s, t)) 1 F (s, t) s = a f (F (s, t)) 1 m1 (s, t) y adems se cumple que a F (s, t) = m1 (s, t). s t t El intercambio de derivadas es vlido para |s| < 1 por la convergencia a absoluta y uniforme de las series. La condicin Pij (0+ ) = ij implica que o + m1 (s, 0 ) = 1. La solucin a esta ecuacin diferencial parcial o o m1 (s, t) = a f (F (s, t)) 1 m1 (s, t) t se obtiene jando a s y utilizando tcnicas de ecuaciones diferenciales ordie

2.8 Los Momentos de Z(t)

53

narias, entonces tenemos d m1 (s, t) = a f (F (s, t)) 1 m1 (s, t) dt dm1 (s, t) = a f (F (s, t)) 1 dt m1 (s, t) m1 (s,t) t dx =a f (F (s, y)) 1 dy x 1 0 t ln m1 (s, t) = a f (F (s, y)) 1 dy
0 0

t m1 (s, t) = exp a f (F (s, y)) 1 dy


j=1

Si hacemos a s tender a 1, la condicin de que la o

jj converge unifor-

y como sabemos que b = a f (1) 1 , entonces t m1 (1, t) = exp b dy = ebt


0

memente implica que el integrando en la ecuacin a la cual se acaba de llegar o esta acotado y se aproxima a un l mite acotado, por lo tanto t m1 (1, t) = exp a f (1) 1 dy
0

Con esto hemos demostrado la relacin para la esperanza. Para la varianza o primero vamos a suponer que b = 0. Al calcular la primera derivada parcial con respecto a s de la ecuacin backward de Kolmogorov para la funcin o o generadora tenemos la siguiente relacin o F (s, t) = a f (F (s, t)) 1 m1 (s, t). s t

Si a esta ultima ecuacin le calculamos la derivada parcial con respecto o a s tenemos m1 (s, t) 2 F (s, t) = a f (F (s, t)) 1 + af (F (s, t))m2 (s, t) 1 s st s

54

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

y adems vemos que a

2 F (s, t) m2 (s, t) = . s st t Nuevamente el intercambio de derivadas es vlido para |s| < 1 por la a convergencia absoluta y uniforme de las series. La solucin a la ecuacin o o m2 (s, t) = a(f (F (s, t)) 1)m2 (s, t) + af (F (s, t))m2 (s, t) 1 t se obtiene jando a s y por tcnicas de ecuaciones diferenciales ordinarias, e entonces tenemos que dm2 (s, t) = a f (F (s, t)) 1 m2 (s, t) + af (F (s, t))m2 (s, t). 1 dt

Ahora multiplicamos por una funcin (s, t) con (s, 0) = 1, la ecuacin o o nos queda (s, t) dm2 (s, t) a f (F (s, t))1 (s, t)m2 (s, t) = af (F (s, t))(s, t)m2 (s, t) 1 dt

y de esta manera tenemos que del segundo termino de la izquierda no le queda mas que ser la derivada de (s, t) con respecto a t, es decir: d(s, t) = a f (F (s, t)) 1 (s, t) dt d(s, t) = a f (F (s, t)) 1 dt (s, t) (s,t) t dx = a f (F (s, y)) 1 dy x 1 0 t ln (s, t) = a f (F (s, y)) 1 dy
0

De este modo

(s, t) = exp(a entonces

(f (F (s, y)) 1)dy)

d d d [m2 (s, t)(s, t)] = (s, t) m2 (s, t) + (s, t)m2 (s, t). dt dt dt

2.8 Los Momentos de Z(t)

55

Regresando a nuestra ecuacin original vemos o d m2 (s, t)(s, t) = af (F (s, t))m2 (s, t)(s, t) 1 dt
t

m2 (s, t)(s, t) =

af (F (s, y))m2 (s, y)(s, y)dy 1

Si hacemos a s tender a 1, la condicin de que o

j=1

convergen uniformemente implica que ambos integrandos en la ecuacin a la o cual se acaba de llegar estan acotados y se aproximan a un l mite acotado, de esta manera
t

jj y que

j=1

j(j 1)j

m2 (1, t)e

bt

af (1)m2 (1, y)eby dy 1


t

= af (1)

eby dy

t af (1) by = e b =

af (1) bt (e 1) b

entonces m2 (t) = af (1) bt bt e (e 1). b

Ahora para obtener la varianza solamente tenemos que sustituir en la siguiente relacin o V ar[Z(t)] = m2 (t) + m1 (t) m2 (t). 1

56

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

Al sustituir vemos V ar[Z(t)] = = af (t) bt bt e (e 1) + ebt e2bt b f (t) bt bt e (e 1) ebt (ebt 1) f (1) 1

f (t) f (1) + 1 bt bt e (e 1) f (1) 1 Si suponemos que b = 0, entonces t m2 (t) = af (1)dy = af (1)t =


0

f (t) bt bt f (1) 1 bt bt = e (e 1) e (e 1) f (1) 1 f (1) 1

m1 (t) = 1 de esta manera vamos a tener que V ar[Z(t)] = af (1)t Por lo tanto hemos demostrado el teorema.

2.9.

Probabilidad de Extincin o

En esta seccin vamos a resolver el problema de extincin de familias para o o el Proceso Markoviano de Ramicacin a Tiempo Continuo. Primero vamos o a asumir que 0 > 0, ya que de otra manera la extincin ser imposible. o a Tambin vamos a considerar el caso en donde el proceso al tiempo cero eme pieza con un solo individuo. Por propiedad del Proceso de Ramificacin vamos a tener que o i Pi0 (t) = P10 (t) . Intuitivamente podemos considerar que Pi0 (t) es una funcin no decreo ciente al tiempo t. Nosotros podemos probarlo formalmente considerando que para una h > 0 tenemos i i i Pi0 (t h) = Fi (0, t + h) = F (0, t + h) = F (F (0, h), t) P10 (t)

2.9 Probabilidad de Extincin o

57

Definicin 2.9.1. La probabilidad de extincin puede denirse como la proo o babilidad de que la familia generada por un solo individuo va a desaparecer, o sea = l P10 (t) m
t

Utilizando la teor del proceso de ramificacin de Galton-Watson, resula o tara fcil determinar la probabilidad de extincin en el caso continuo. a o Teorema 2.9.1. La probabilidad de extincin del proceso markoviano de o ramificacin a tiempo continuo Z(t) es la raz no negativa ms pequea de o a n la ecuacin F (s, t0 ) = s, donde t0 es cualquier nmero positivo o u Demostracin. Sea t0 un nmero positivo jo y consideremos a el proceso o u de Galton-Watson Z(0), Z(t0 ), Z(2t0 ), . . . , Z(nt0 ), . . ., donde Z(t) es la poblacin al tiempo t correspondiente al Proceso Markoviano de Ramificacin o o a Tiempo Continuo original, que empieza con un slo individuo al tiempo o t = 0. Como Z(t) es un proceso de Markov, el proceso a tiempo discreto Yn = Z(nt0 ) obviamente sera una cadena de Markov y describe a un proceso de Galton-Watson. Por la hiptesis de homogeneidad del tiempo y por la o propiedad de ramificacin podemos obtener o

k=0

P(Yn+1 = k|Yn = i)sk = E[sYn+1 |Yn = i] = E[sZ((n+1)t0 ) |Z(nt0 ) = i] = E[sZ(t0 ) |Z(0) = i] i = E[sZ(t0 ) |Z(0) = 1] i = E[sY1 |Y0 = 1]

Esto muestra que Yn es un proceso de ramificacin y la funcin generadora o o de el nmero de descendientes de un solo individuo es F (s, t0 ). Nosotros u sabemos que la probabilidad de extincin para Yn es la ra no negativa ms o z a

58

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

pequea de la ecuacin F (s, t0 ) = s. Pero n o P(Yn = 0 para algn n N) = l P(Yn = 0) u m


n

= l P(Z(nt0 ) = 0) m
n

= l P(Z(t) = 0) m
t

= Entonces la probabilidad de extincin del Proceso Markoviano de Ramifio cacin a Tiempo Continuo Z(t) es la ra no negativa ms pequea de la o z a n ecuacin F (s, t0 ) = s, donde t0 es cualquier nmero positivo. o u Como es la ra de F (s, t0 ) = s para cualquier t0 , podemos pensar z que se podr calcular a de una ecuacin que no dependa del tiempo. Lo a o cual si sucede y se puede probar el siguiente resultado. Teorema 2.9.2. La probabilidad de extincin es la raz no negativa ms o a pequea de la ecuacin u(s) = 0. Donde = 1 si y slo si u (1) 0. n o o Demostracin. Como satisface F (s, t0 ) = s para cualquier t0 , podemos o armar que u() = 0. Como (j2) u (s) = a j(j 1)j 0
j=2

u(s) es convexa en el intervalo [0, 1]. Si u(1) = 0 y u(0) = a0 , u(s) tiene a lo ms una ra en [0, 1). a z Hay que notar que E(Z(t0 )) = E(Y1 ) > 1 si y slo si u (1) > 0. Esto o signica que para el Proceso de Ramificacin de tiempo discreto Z(nt0 ), o n = 0, 1, 2, . . . y t0 > 0 jo, tiene una unica ra en el intervalo (0, 1) y en z consecuencia tambin se vale para el Proceso Markoviano de Ramificacin a e o Tiempo Continuo Z(t) . De manera similar se tiene que E(Z(t0 )) = E(Y ) 1 si y slo si u (1) 0, entonces = 1. o

2.10 Ejemplos

59

2.10.

Ejemplos

Resolver las ecuaciones de Kolmogorov resulta en la mayor de los casos a una tarea muy dif y por ello la distribucin de Z(t) muy pocas veces puede cil o determinarse de manera expl cita. Sin embargo, existen dos ejemplos importantes que si se pueden resolver, estos son el Proceso de Yule y el Proceso de Nacimiento y Muerte. Ejemplo 2.10.1 (El Proceso de Yule de Fisin Binaria). o Denamos a {Z(t) : t 0} como un proceso markoviano de ramificacin o a tiempo continuo, en donde cada part cula vive una longitud de tiempo que se distribuye de manera exponencial y enseguida se divide en dos part culas. Lo que queremos ver es que la funcin generadora es de la forma o F (s, t) = seat 1 s(1 eat ) con F (s, 0) = s

Como cada part cula al morir se divide en dos part culas podemos armar que 2 = 1, como consecuencia vemos que f (s) = s2 . Con todos estos resultados la ecuacin backward de Kolmogorov para la funcin generadora o o queda de la siguiente manera F (s, t) = a F 2 (s, t) F (s, t) t

Para obtener la solucin a est ecuacin diferencial parcial vamos a jar o a o a s, entonces el problema se restringe a solucionar una ecuacin diferencial o ordinaria. Primero vamos a proponer una funcin (t) con (0) = 1, entonces o (t) y (t) dF (s, t) 1 a(t) + = a(t). 2 (s, t) dt F F (s, t)
d(t) dt

dF (s, t) + a(t)F (s, t) = a(t)F 2 (s, t) dt

Entonces proponemos a

como

d(t) = a(t) dt

60

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

cuya solucin se obtiene de la siguiente manera o d(t) = adt (t) ln (t) = at (t) = eat . De esta manera tenemos que d eat = aeat dt F (s, t) t eay = eax t 0 F (s, y) 0

eat 1 = eat + 1 F (s, t) s

multiplicando por un menos y al desarrollar esta relacin tenemos o eat 1 (1 eat )s = F (s, t) s de aqu se ve claramente que F (s, t) = que era a lo que queriamos llegar. Ejemplo 2.10.2 ( El Proceso de Nacimiento y Muerte). Denamos a {Z(t); t 0} como un Proceso Markoviano de Ramificacin o a Tiempo Continuo en donde cualquier individuo en un cierto tiempo t tiene una probabilidad dt de morir en un intervalo (t, t + dt) y una probabilidad dt de desaparecer y ser reemplazado por dos nuevos individuos en el mismo intervalo de tiempo. Vamos a ver que la funcin generadora esta determinada o por F (s, t) = (s 1) e()t (s ) (s 1) e()t (s ) con F (s, 0) = s seat 1 (1 eat )s

2.10 Ejemplos

61

Como tenemos que cualquier individuo tiene una probabilidad de morir sin reproducirse , entonces 0 = + , pero si se reproduce solamente tiene dos descendientes, entonces 2 = + . De esta manera vemos que f (s) = + s2 + y a = + .

Entonces la ecuacin backward de Kolmogorov para la funcin generadora o o nos queda como F (s, t) + F 2 (s, t) = ( + ) F (s, t) t + = F 2 (s, t) ( + )F (s, t) + . El lado derecho de la ecuacin se puede factorizar y nos queda como o F (s, t) = (F (s, t) 1) F (s, t) . t Para resolver esta ecuacin diferencial parcial jamos a s, de esta manera o nos limitaremos a resolver una ecuacion diferencial ordinaria, entonces vamos a tener que dF (s, t) = dt (F (s, t) 1) F (s, t) Por el mtodo de fracciones parciales vamos a tener que e dF (s, t) dF (s, t) dF (s, t) + = (F (s, t) 1)(F (s, t) ) F (s, t) 1 F (s, t) entonces nos limitaremos a solucionar la siguiente ecuacin diferencial o dF (s, t) dF (s, t) + = dt F (s, t) 1 F (s, t) dF (s, t) dF (s, t) + = ( )dt F (s, t) 1 F (s, t)

62

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

de esta manera t dx = ( ) dy x1 s s 0 F (s,t) x ln x 1 ln = ( )t


F (s,t)

dx x

F (s,t)

F (s,t) x ln = ( )t (x 1) s s F (s, t) ln (F (s, t) 1) ln (s 1) = ( )t F (s, t) (s 1) ln (F (s, t) 1) s = ( )t F (s, t) (s 1) = e()t (F (s, t) 1) s

Ahora la unico que nos hace falta por hacer es obtener una forma expl cita para F (s, t), de esta manera vamos a tener que F (s, t) = F (s, t) (F (s, t) 1)(s )e()t (s 1)

F (s, t)(s )e()t (s 1) (s )e()t = (s 1) (s 1) 2 (s 1) (s )e()t (s 1) (s )e()t F (s, t) = (s 1) (s 1) entonces vemos que F (s, t) = (s 1) (s )e()t (s 1) (s )e()t

Lo cual era a lo que queriamos llegar.

Cap tulo 3 El C.B. Proceso


3.1. Introduccin o

En este cap tulo vamos a estudiar al Proceso de Ramificacin Continua o o C. B. Proceso, donde bsicamente vamos a analizar y desarrollar sus prina cipales propiedades. Primero vamos a denir a la funcin de ramificacin continua, a la cual o o vamos a asociarle un semigrupo de contraccin y gracias a este, veremos que o tiene asociado un proceso de Markov fuerte, al que llamaremos Proceso de Ramificacin Continua o C.B. proceso. Despus vamos a obtener sus momeno e tos, veremos que este proceso ,en especial, es un Proceso de Difusin y gracias o a esta propiedad obtendremos la probabilidad de extincin del proceso. o Un problema importante es el de analizar la relacin que existe entre el o Proceso de Ramificacin de Galton-Watson con el C.B. Proceso, ya que este o ultimo se puede ver como un proceso l mite de Procesos de Galton-Watson normalizados. Tenemos un proceso de Galton-Watson {Zn } y denimos Zt
(r)

Z[rt] ar br

donde

Z0 = c r

(r)

y donde ar R, br > 0 son constantes normalizadoras y cr son enteros positivos cuyo l mite se va a innito cuando r crece a innito. (r) Es claro que para cada r > 0 ja, {Zt : t > 0} es un proceso estcstico a que denotaremos por U r . Lo que nos va a interesar es el comportamiento l mite de U r cuando r tiende a innito. En particular veremos los casos en que ar = 0 y l ar /br = , los cuales nos daran diferentes resultados. m
r

64

El C.B. Proceso

El C.B. proceso fue estudiado por primera vez por Jirina en 1957, cuya denicin es ms general que la que se presenta en este cap o a tulo y la relacin o de los procesos de ramificacin de Galton-Watson y los C.B. procesos por o Lamperti a nales de los aos sesenta. n

3.2.

Definicin o

El proceso va a ser denido a travs de sus funciones de transicin. e o Definicin 3.2.1. Una familia {Pt (x, E) : t 0} de funciones ser llao a mada una funcin de ramificacin continua o C.B. funcin si satisface las o o o siguientes condiciones: i) Pt (x, E) esta denida para t 0, x 0 y E un subconjunto de Borel de la semi-recta [0, ). Pt : R+ B([0, )) [0, 1] para cada t 0.

ii) Para x y t fijas, Pt (x, ), es una medida de probabilidad; y para un conjunto E fijo, Pt (x, E) es conjuntamente medible en x y t. iii) La ecuacin de Chapman-Kolmogorov, es decir, o Pt+s (x, E) =

Pt (u, E)Ps (x, du)

iv) Para cualquier x, y, t 0, {Pt } satisface Pt (x + y, E) = = para cada E B([0, )). v) Existen t > 0 y x > 0 tal que Pt (x, {0}) < 1
0

Pt (x, E u)Pt (y, du)

1E (v + w)Pt (x, dv)Pt (y, dw) l

3.3 Existencia y Construccin del C.B. proceso o

65

Observacin 3.2.1. Por la propiedad ( iv) tenemos que o f (u)Pt (x + y, du) = f (v + w)Pt (x, dv)Pt (y, dw)
0 0 0

para cualquier funcin f medible y acotada. o Si examinamos estas condiciones lo primero que vamos a notar es que las primeras tres condiciones corresponden a la denicin de funcin de transio o 1 cin de Markov . La propiedad (iv ) es la propiedad de ramificacin; la cual o o nos dice que si empezamos en x + y el proceso resultante es equivalente a la suma de dos procesos, uno que empieza en x y otro que empieza en y. Y nalmente la propiedad (v ) elimina el caso trivial, en el cual el proceso empieza en cualquier x 0, muere instantaneamente y permanece ah . En este cap tulo vamos a ver que una C.B. funcin va dar lugar a un o proceso fuerte de Markov en los reales no negativos. Este proceso va a ser llamado Proceso de Ramificacin con Espacio de Estados Continuo o simpleo mente C.B. proceso. Uno de las principales propiedades de este proceso es que se puede ver como un proceso l mite de una sucesin de procesos de Galton-Watson, en o los cuales la poblacin inicial va a innito y la escala del tiempo se encoge o de una manera espec ca.

3.3.

Existencia y Construccin del C.B. proo ceso

Para la construccin del C.B. proceso es necesario introducir la denicin o o de medidas de probabilidad innitamente divisibles. Definicin 3.3.1. Sea Y una variable aleatoria, con funcin de distribucin o o o PY y transformada de Laplace Y (), se dice que es innitamente divisible si para todo n N existe una sucesin {k }n de variables aleatorias o k=1 independientes e identicamente distribuidas tal que Y tiene la misma distribucin que la o suma de estas (Y = 1 + + n ) o de manera equivalente si n Y () = 1 PY = P1 P2 Pn . o
1

Ver apndice A e

66

El C.B. Proceso

Sea {Pt (x, E)} una C.B. funcin; por la propiedad (iv ) es claro que para o cada pareja (x, t) la medida Pt (x, E) es innitamente divisible, ya que dado x>0ynN Pt (x, E) = Pt x n + x x x (n) + + , E = Pt , E n n n

La transformada de Laplace de Pt (x, E) es t (x, ) = ey Pt (x, dy)


0

Vamos a ver que por la propiedad (iv ) t (x, ) satisface la siguiente relacin o t (x + y, ) = t (x, )t (y, ) Veamoslo t (x + y, ) = = = =

ez Pt (x + y, dz) ez Pt (x, dz) Pt (y, dz) e

e(u+v) Pt (x, du)Pt (y, dv)


0

eu Pt (x, du)Pt (y, dv)

= t (x, )

ev Pt (y, dv)

= t (x, )t (y, ) esto prueba la relacin. o Sabemos por la propiedad (ii ) que para una t y jas, t (x, ) es una funcin medible de x. Adems es claro que t (x, ) es montona decreciente o a o en x y podemos concluir por la relacin anterior, que para cada t y existe o un nmero t () tal que u t (x, ) = ext () (3.1)

3.3 Existencia y Construccin del C.B. proceso o

67

Usando la propiedad (iii ), podemos ver que {t ()} satisface t+s () = t (s ()) ya que e
xt+s ()

para toda

>0

(3.2)

= = = =

ez Pt+s (x, dz) e


z

Ps (u, dz)Pt (x, du)

ez Ps (u, dz)Pt (x, du)

eus () Pt (x, du)

= ext (s ()) esto prueba la relacin. o Esta es la forma anloga de la iterada de la funcin generadora del proceso a o de Galton-Watson. Para ir de una funcin de transicin {Pt (, )} a un proceso de Markov que o o corresponde a esta, se utilizan las herramientas de la Teor de Semigrupos. a Para cualquier funcin medible y acotada f en [0, ) denimos o (Tt f )(x) = f (y)Pt (x, dy)
0

Esto dene a una familia de operadores lineales acotados {Tt ; t 0}, de norma unitaria en el espacio de Banach L de funciones medibles y acotadas en [0, ) con la norma ||f || = sup |f (x)|.
x0

De la ecuacin de Chapman-Kolmogorov tenemos que {Tt } satisface la o relacin o Tt+s = Tt Ts y esto hace que la familia {Tt } sea un semigrupo2 .
2

Ver apndice A e

68

El C.B. Proceso

Usando la denicin o (Tt+s f )(x) = = = =

f (y)Pt+s (x, dy) f (y)

Ps (u, dy)Pt (x, du)

f (y)Ps (u, dy)Pt (x, du)

(Ts f )(u)Ps (x, du)

= Tt (Ts f (x)) demostrando que {Tt } es un semigrupo. Lema 3.3.1. Una C.B. funcin satisface o Pt (x, {0}) < 1 para toda t, x > 0 y Pt (0, {0}) = 1

Demostracin. Sabemos que Pt (x, {0}) es una medida de probabilidad en o B [0, ) , puede suceder que Pt (x, {0}) > 0 que Pt (x, {0}) = 0. o En cualquier caso se tiene e
xt ()

= Pt (x, {0}) +

ey Pt (x, dy)

0+

Tomamos el l mite cuando tiende a innito en ambos lados, y tenemos que xt () l e m = Pt (x, {0}) + l m ey Pt (x, dy)
0+

Es claro que si y > 0, tenemos que l ey = 0. De esta manera podemos m aplicar el Teorema de Convergencia Dominada, con lo cual vamos a obtener que para toda x, , t > 0 se cumple exp x l t () = Pt (x, {0}) m

(3.3)

3.3 Existencia y Construccin del C.B. proceso o

69

Por la hiptesis (v ) sabemos que existe x0 , t0 > 0 tal que Pt0 (x0 , {0}) < 1, o de donde vemos que exp x0 l t0 () < 1 m

x0 l t0 () < 0 m

l t0 () > 0 m

Esto muestra que Pt0 (x, {0}) < 1 para cualquier x > 0. Ahora sea r > 0 de tal manera que r > t0 y s = r t0 , entonces Pr (x, {0}) = Pt0 (u, {0})Ps (x, du)
0

como sabemos que Pt0 (u, {0}) < 1 para cualquier u > 0, concluimos que Pr (x, {0}) < 1 para toda r > t0 . Si 0 < r < t0 podemos armar que existe n tal que (t0 /n) < r; basta ver que P t0 (x, {0}) < 1 para una x > 0, ya que por consecuencia tendremos que n vale para toda x > 0 y por un razonamiento anlogo al anterior obtendremos a que Pr (x, {0}) < 1. Por denicin tenemos que o Pt0 (x, {0}) = P t0 (u, {0})P (n1)t0 (x, du) < 1
0
n n

Supongamos que P t0 (u, {0}) = 1 para toda u > 0, en consecuencia tenn driamos que Pt0 (x, {0}) = 1, lo cual contradice nuestra hiptesis. Por lo tanto o P t0 (x, {0}) < 1 para una x > 0. n Es as como hemos probado que Pt (x, {0}) < 1 para toda t, x > 0. Para mostrar que Pt (0, {0}) = 1 basta sustituir x = 0 en la relacin (3.3). o Sea C0 = f : [0, ) R l f (x) = 0 m
x

dene un semigrupo de contraccin en el espacio C0 , es decir, si f C0 o entonces Tt f C0 .

Teorema 3.3.1. Si {Pt (x, E)}t0 es una C.B. funcin , el operador o Tt f (x) = f (y)Pt (x, dy)
0

70

El C.B. Proceso

Demostracin. Primero vamos a ver que Tt f dene un semigrupo de cono traccin, o sea que tiene que cumplir con o ||Tt f || ||f ||. Nosotros sabemos que |Tt f (x)| = f (y)Pt (x, dy) 0 f (y)Pt (x, dy)
0 0

||f ||.

f Pt (x, dy)

Ahora si al lado izquierdo de la ecuacin le aplicamos el supremo sobre o las x [0, ), tenemos ||Tt f || ||f || esto arma que es un semigrupo de contraccin. o Ahora solamente es necesario mostrar que Tt vive.en el espacio C0 . Si f (x) es de la forma f (x) = ex , Tt f (x) es una funcin continua en x, ya que o el lado derecho de (3.1) es continua en x. Por el teorema de continuidad para la transformada de Laplace-Stielges, es claro que Tt f (x) es continua en x para toda f C0 . Lo unico que nos hace falta ver es que
x

l Tt f (x) = 0. m

Por el Lema 3.3.1 tenemos que t () > 0 para cada > 0, entonces cuando x tiende a innito la transformada de Laplace de Pt (x, ) tiende a cero para > 0. Esto implica que la medida Pt (x, ) tiene su masa en innito, en consecuencia tenemos que Tt f (x) tienda a cero.

Teorema 3.3.2. Una C.B. funcin es estocsticamente continua. o a

3.3 Existencia y Construccin del C.B. proceso o

71

Demostracin. Vamos a entender por continuidad estocstica3 que para o a cada x, la medida Pt (x, ) converge dbilmente a una unidad de masa en x e + cuando t tiende a 0 . Vamos a empezar con la observacin de que, por la o propiedad (ii ), la funcin o g(t) =

(dx)

f (y)Pt (x, dy)

es medible en t > 0 para cualquier medida de Borel nita en [0, ) y cualquier f C0 . Esto es equivalente a la armacin de que el semigrupo {Tt }t0 o 4 es medible dbilmente . Un resultado conocido es el de que la medibilidad e dbil implica que {Tt }t0 es en efecto fuertemente continua5 para t > 0. e Fijandonos en el caso f (x) = ex , > 0, la continuidad fuerte implica que la funcin t () es continua en t > 0 para cada jo. Usando la relacin o o (3.2) vemos que esto se puede escribir como l h (t ()) = t () m

h0+

para cada t > 0, > 0. En otra palabras l h (u) = u m

h0+

para cada nmero u el cual puede ser representado como t () para alguna u t y para alguna . Pero por la ecuacin (3.1) y por el Lema 3.3.1 el conjunto o formado por los valores de u contiene algn intervalo [0, a], a > 0. De esta u manera para cada x y cada [0, a], la transformada de Laplace de Ph (x, ) converge a ex cuando h tiende a 0+ , entonces aplicando el teorema de continuidad tenemos la conclusin a la cual se quer llegar. o a Mostrando que una C.B. funcin es estocsticamente continua y que mao a pea el espacio de la funciones continua en [0, ) y que se van a cero en innito, en el mismo, entonces armamos que es un proceso de Markov fuerte.
Ver apndice A e Ver apndice A e 5 La definicin de continuidad fuerte y el teorema se encuentran en el apndice A o e
3 4

72

El C.B. Proceso

3.4.

Los Momentos del C.B. Proceso

Los momentos se van a obtener a travs de las ecuaciones (3.1) y (3.2), e si es que existen. Proposicin 3.4.1. Si el primer y segundo momento existen entonces o Ex [Z(t)] = E[Z(t)|Z(0) = x] = xet y xt si = 0 Varx [Z(t)] = Var[Z(t)|Z(0) = x] = 2t t x(e e ) si = 0

Demostracin. Lo primero que vamos a observar es que t (0) = 0, que es o una consecuencia directa de la ecuacin (3.1). o Si derivamos a la ecuacin (3.1) con respecto a , lo cual es permisible ya o que el nuevo integrando es continuo y acotado, tenemos yey Pt (x, dy) = xt ()ext ()
0 donde t () signica la derivada con respecto a y si evaluamos cuando = 0 vemos yPt (x, dy) = x l t () = xt (0+ ). m 0 0

Ahora si derivamos a la ecuacin (3.2) con respecto a , tenemos o


t+s () = t (s ())s ()

y si = 0, entonces
t+s (0+ ) = t (0+ )s (0+ ) de esta manera si t (0+ ) es nito, tiene que ser de la forma et donde es una constante. Como resultado tenemos yPt (x, dy) = xet (3.4) 0

y por tanto Ex [Z(t)] = xet .

3.4 Los Momentos del C.B. Proceso

73

El segundo momento se puede obtener de una manera similar, si es que este existe. Si a la ecuacin (3.2) la derivamos dos veces con respecto a o tenemos 2 t+s () = t (s ()) s () + t (s ())s () y si = 0, entonces
t+s (0+ ) = t (0+ )e2s + s (0+ )et

(3.5)

Si = 0 la ecuacin (3.5) tiene una solucin de la forma t (0+ ) = t, o o por ser lineal en t, donde es una constante; ya que dicha ecuacin se reduce o a t+s (0+ ) = t (0+ ) + s (0+ )

Si = 0 observaremos que si intercambiamos a s y a t en la ecuacin o (3.5) tenemos


s (0+ )e2t + t (0+ )es = t (0+ )e2s + s (0+ )et

y si agrupamos, vemos que


t (0+ )(es e2s ) = s (0+ )(et e2t ).

Si ahora tomamos a s = 1, entonces


t (0+ ) = 1 (0+ ) 2t e et e2 e

y si =

1 (0+ ) e e2

esta ultima ecuacin se nos reduce a o


t (0+ ) =

evaluando en = 0, vemos que 2 y 2 Pt (x, dy) = xt (0+ ) xt (0+ )


0

Derivando a la ecuacin (3.1) dos veces con respecto a , lo cual es pero misible ya que el nuevo integrando es continuo y acotado; tenemos 2 y 2 ey Pt (x, dy) = xt () ext () xt ()ext ()
0

2t e et .

74

El C.B. Proceso

De esta manera obtenemos la siguiente relacin o x2 + xt si = 0 2 y Pt (x, dy) = 2 2t 2t t x e + x(e e ) si = 0 0 2 Y como la V arx [Z(t)] = Ex Z(t)2 Ex [Z(t)] , entonces xt si = 0 V arx [Z(t)] = 2t t x(e e ) si = 0

(3.6)

De esta manera se ha demostrado la proposicin. o

3.5.

El C.B. Proceso como Proceso de Difusin. o

Para ver que este C.B. proceso es un proceso de difusin, primero tenemos o que ver que se cumple el siguiente Lema. Lema 3.5.1. Si se satisfacen las ecuaciones (3.4) y (3.6), entonces las siguientes relaciones se cumplen 1 l m (y x)Pt (x, dy) = x (3.7) t0 t 0 y 1 l m t0 t

(y x)2 Pt (x, dy) = x

(3.8)

Demostracin. Para la ecuacin (3.7) tenemos o o 1 1 x (y x)Pt (x, dy) = yPt (x, dy) t 0 t 0 t = xet x t et 1 t

=x

3.5 El C.B. Proceso como Proceso de Difusin. o

75

al aplicar el l mite cuando t tiende a cero, claramente vemos que la relacin o se cumple, ya que et 1 l m = t0 t Esto prueba la relacin (3.7). o Para la ecuacin (3.8) tenemos o 1 1 2 2 (y x) Pt (x, dy) = (y 2xy + x2 )Pt (x, dy) t 0 t 0 2x 1 2 x2 y Pt (x, dy) yPt (x, dy) + = t 0 t 0 t 1 2x2 et x2 = y 2 Pt (x, dy) t 0 t Si = 0 x2 + xt 2x2 + x2 1 t (y x)2 Pt (x, dy) = = x = x t 0 t t Si = 0 x2 e2t + x(e2t et ) 2x2 et + x2 1 2 (y x) Pt (x, dy) = t 0 t = x2 (et 1)2 x et (et 1) + t t

al aplicar el l mite cuando t tiende a cero, claramente vemos que la relacin o se cumple, ya que (et 1)2 l m =0 t0 t y et (et 1) l m = t0 t

Esto prueba la relacin (3.8). o Este resultado nos hace pensar que si Z(t) es un Proceso de Difusin o entonces x y x van a ser los coecientes de difusin correspondientes, y o que la ecuacin backward de Kolmogorov que satisface Z(t) es o 2 t (x, ) = x 2 t (x, ) + x t (x, ). t x x (3.9)

76

El C.B. Proceso

Entonces si la C.B. funcin {Pt (x, E)}t0 es la probabilidad de transicin o o de un proceso de difusin, va a existir uno con la ecuacin backward de o o Kolmogorov ya descrita. Este resultado se puede encontrar en los art culos de Lamperti. De esta manera el exponente de Laplace t () queda determinado por si = 0 t 1 + 2 t t () = e si = 0 1 (1 et ) 2 Veamoslo: Sea t (x, ) = ext () , la cual satisface la relacin (3.9). Donde o t (x, ) = t ()ext () x 2 2 t (x, ) = t () ext () x2

t (x, ) = x t ()ext () t t De esta manera, la relacin (3.9) nos queda o x 2 x t ()ext () = t () ext () xt ()ext () t 2

si = 0. Si multiplicamos por ext () y dividimos por x en ambos lados de la igualdad vemos que dicha ecuacin nos queda o 2 t () = t () t () t 2

y si jamos a en la ecuacin diferencial parcial vamos a tener una ecuacin o o diferencial ordinaria, la cual nos queda 2 d t () = t () t (). dt 2

3.5 El C.B. Proceso como Proceso de Difusin. o

77

Para resolver esta ecuacin diferencial primero vamos a pasar a t () al o 2 lado izquierdo de la ecuacin y despus vamos a dividir por t () toda la o e igualdad. Luego a toda la igualdad la vamos a multiplicar por una funcin o (t) donde (0) = 1, de esta manera dicha ecuacin nos queda o (t) d (t) (t) t () + = . 2 dt t () 2 t () Claramente se ve que esta ultima ecuacin es lo mismo que o d (t) (t) = dt t () 2 d (t) = (t) dt d(t) = dt (t) ln (t) = t (3.10)

donde

entonces (t) = et

de esta manera la ecuacin (3.10) nos queda o d et et = dt t () 2 entonces et 1 = t () 2


t

ey dy =

es as que

t e 1 2

de aqu claramente se ve que

1 et t = e 1 + t () 2 et . 1 1 et 2

t () =

78

El C.B. Proceso

Ahora si = 0 tenemos que la relacin ( 3.9) se reduce a o 2 d t () = t () dt 2 dt () 2 = dt 2 t ()


t ()

2 y si dividimos por t () en ambos lados de esta ultima ecuacin, tenemos o

e integrando en ambos lados tenemos

1 dx = 2 x 2

dy

1 1 = t t () 2 de aqu claramente se ve que t () = . 1+ t 2

De esta manera el exponente de Laplace queda determinado. Ahora vamos a ver que se cumple la relacin (3.2). o Sea si = 0 (t + s) 1 + 2 t+s () = e(t+s) si = 0 1 (1 e(t+s) ) 2 Por otro lado tenemos que si = 0 entonces s (t) 1 + s t (s ()) = = 2 ts () t 1+ 1+ 2 2 1 + s 2

3.6 Probabilidad de Extincin o

79

s (t) 1 + s 2 t (s ()) = = = s+t ts () (t + s) 1+ 2 1+ 1+ s 2 2 1+ 2 y si = 0 tenemos t (s ()) = s ()et s () 1 (1 et ) 2 es = 1 1 1 e


(1 2 s

et es )

(1 2

es ) (1 et ) 1

1 (1 es ) 2 es 1 (1 et ) 2 1 (1 es ) 2 e(s+t) s 1 (1 es ) e (1 et ) 2 2

e(t+s)

t (s ()) =

e(s+t) 1 (1 e(s+t) ) 2 de esta manera hemos visto que dicha relacin si se cumple. o =

3.6.

Probabilidad de Extincin o

Primero vamos a notar que la transformada de Laplace de un C.B. proceso es equivalente a Z(t) Ex e = ext ()

80

El C.B. Proceso

entonces tenemos que Px (Z(t) = 0) +

ey Pt (x, dy) = ext ()

0+

donde Px (Z(t) = 0) = Pt (x, {0}), de esta manera Px (Z(t) = 0) = exp x l t () m

Pero como Z(t) es un proceso de difusin que satisface la ecuacin o o backward de Kolmogorov tenemos que 2x exp si = 0 t t Pt (x, {0}) = 2xe exp si = 0 (1 et ) Ya que si = 0, entonces l t () = l m m 1 2 = l m = t 1 t t 1+ + 2 2

y si = 0, tenemos et l t () = l m m 1 (1 et ) 2 = l m

et 1 (1 et ) 2

2et (1 et )

Definicin 3.6.1. La probabilidad de extincin de un C.B. proceso esta dada o o por (x) = Px (Z(t) = 0 para alguna t).

3.7 El C.B. Proceso como Proceso L mite

81

Entonces (x) no es ms que a (x) = l Pt (x, {0}) m


t

de esta manera si = 0, tenemos (x) = l Pt (x, {0}) = exp m


t

2x l m t t

=1

Para < 0, tomamos = c, donde c > 0 es una constante 2xcect 2xc (x) = exp l m = exp l m 1 t (1 ect ) t ( ct 1) e 2xc = exp l m =1 t (ect 1) y si > 0 2xet (x) = l Pt (x, {0}) = exp l m m t t (1 et ) 2x 2x = exp l m = exp t (et 1) Entonces (x) = 1 si 0 2x si > 0

3.7.
3.7.1.

El C.B. Proceso como Proceso L mite


Distribuciones L mite

exp

Primero vamos a denir a Z = {Zn }n0 un Proceso de Ramificacn de o Galton-Watson con distribucin {i }i0 . Nuestro propsito es el de realizar o o un anlisis detallado de las distribuciones l a mite para Z, donde el estado inicial Z0 se va a innito conforme el nmero de generaciones va aumentando. u Dichas distribuciones se van a encontrar para ciertas sucesiones {an }n0 y {bn > 0}n0 de nmeros reales y una sucesin de enteros positivos {cn }n0 , u o

82

El C.B. Proceso

en el sentido usual de convergencia dbil de funciones de distribucin. e o Analizar las clases de distribuciones G(x) y las condiciones sobre {i }i0 y {cn }n0 , bajo las cuales obtendremos una distribucin en particular, es un o problema complicado y lejos de ser resuelto por completo. Si {i }i0 tiene varianza nita este problema se resuelve por completo, mientras que en el caso de varianza innita el problema se complica y slo o se resuelve en algunos casos. Varianza Finita

esta ultima se va a innito conforme n crece. De esta manera nuestro estudio va a estar centrado en la existencia de Zn an l P m xZ0 = cn = G(x) (3.11) n bn

Sea < la media del nmero de descendientes por individuo y sea u f (s) la funcin generadora de {i }i0 . o Primero vamos a estudiar el caso en que > 1, para ello necesitaremos el siguiente lema. Lema 3.7.1. Sea {Fn (x)}n0 una sucesin de funciones de distribucin, las o o cuales convergen a una funcin de distribucin no degenerada F (x) y adems o o a supongamos que el segundo momento de Fn converge a F , suponiendo que son nitos. Sea {cn }n0 una sucesin de enteros positivos que se van a ino nito cuando n tiende a innito y, {an }n0 y {bn > 0}n0 dos suceciones de nmeros reales, tal que u
n

l Fn n ) (bn x + an cn ) = (x) m (c

(3.12)

para toda x, donde (x) es la distribucin de una normal estandar. o La notacin G(n) (x), donde G es una funcin de distribucin, signica la o o o n-sima convolucin de G consigo misma. e o Demostracin. Escojamos a an como la media de la distribucin Fn y o o (c ) sea bn = cn V ar(Fn ). Lo primero que veremos es que Fn n (bn x + an cn ) es una distribucin con media cero y varianza unitaria. o Para ver que dicha distribucin tiene media cero, primero vamos a realio zar el siguiente clculo. a

3.7 El C.B. Proceso como Proceso L mite

83

Y , si denimos a la funcin caracter o sti cn ca de Z por Z (t) = E[eitZ ] es claro que Z (t) = Y (t) y derivando obtenemos (cn 1) dY (t) dZ (t) = cn Y (t) . dt dt Si t = 0 vamos a tener que E[Z] = cn an ya que E[Y ] = an . De esta manera y an cn (cn ) (cn ) En [X] = xdFn (bn x + an cn ) = dFn (y) bn R R 1 an cn (c = ydFn n ) (y) =0 bn R bn
i=1

Sea Y = bn X + an cn y Z =

cn

Para que dicha distribucin tiene varianza unitaria, primero tenemos que o 2 calcular E(Z ), entonces (cn 1) d2 Y (t) (cn 2) dY (t) 2 d2 Z (t) = cn (cn 1) Y (t) + cn Y (t) dt2 dt dt2 y si t = 0, tenemos que
2

E[Z ] = cn (cn 1)(an ) + cn


2

Entonces V arn [X] = = =

b2 n + a2 n cn

= c2 a2 + b2 n n n

(c dFn n ) (bn x

+ an cn) = 2an cn b2 n

1 b2 n

(c y 2 dFn n ) (y)

y 2 2yan cn + a2 c2 n n (c dFn n ) (y) b2 n a2 c2n n b2 n

ydF (cn ) (y) +

c2 a2 + b2 2a2 c2 a2 c2 n n n n n + n2 n = 1. b2 b2 bn n n

Para continuar con la demostracin es necesario utilizar el Teorema del o L mite Central para sucesiones dobles, cuya prueba omitiremos. Teorema 3.7.1. Sea {i }n una sucesin de variables aleatorias indepeno i=1 dientes y sea Fi (x) la distribucin de i . De tal manera que la funcin de o o distribucin de la suma normalizada, dada por o n n (i E[i ]) 2 n = i=1 2 donde Bn = V ar(i ) Bn i=1

84

El C.B. Proceso

converge a una distribucin normal estandar: si se satisface la condicin de o o Linderberg n 1 x2 dFk (x + E[i ]) 0 cuando n 2 Bn i=1 |x|>Bn para toda > 0. De este teorema vemos que l cn m
n

x2 dFn (bn x + an ) = 0

|x|>

es una condicin necesaria y suciente para que se satisfaga (3.12). Pero o cn 2 y 2 dFn (y + an ) cn x dFn (bn x + an ) = 2 bn |y|>bn |x|> y (cn /bn ) = (V ar(Fn ))1 . Entonces es suciente ver que V ar(Fn ) esta acotada, lejos del cero y adems a cn y 2 dFn (y + an ) 0 cuando n b2 |y|>bn n para cada > 0. La primera de estas condiciones es inmediata, ya que si V ar(Fn ) 0 implicar que el l a mite F ser una funcin de distribucin degenerada. Por a o o la convergencia del segundo momento vamos a tener que an a (a la media de F ); y adems bn cuando cn y que la V ar(Fn ) esta acotada. a Para n sucientemente grande tenemos 2M 2 2 y dFn (y + an ) y dFn (y + an ) y 2 dFn (y + an )
|y|>bn R

2M

(u an ) dFn (u)

(u an )2 dFn (u)

donde M es cualquier constante mayor a a. Si M son puntos de continuidad de F (x), podemos pasar al l mite cuando n tiende a innito y usar la hiptesis o para obtener M 2 l sup m y dFn (y + an ) V ar(F ) (u an )2 dFn (u)
n |y|>bn M

3.7 El C.B. Proceso como Proceso L mite

85

la cual es arbitrariamente pequea si M se escoge muy grande. n

Teorema 3.7.2. Supongamos que > 1 y V ar[i ] = 2 < . Sea {cn }n0 cualquier sucesin de enteros positivos que tienda a innito (cuando n ). o Entonces Z n n c n Z0 = cn = (x) l P m x (3.13) n bn 1 donde bn n cn (2 ) 2 . Demostracin. Sea o Zn Z0 = 1 Fn (x) = P n x

De un resultado muy conocido sobre convergencia de martingalas tenemos que para Z0 = 1, la martingala {Zn /n }n0 converge en media cuadrtica a a una variable aleatoria Z, en consecuencia tenemos que Fn (x) satisface las hiptesis del lema que acabamos de demostrar. Adems por la denicin de o a o Proceso de Ramificacin vemos que si Z0 = cn la funcin de distribucin de o o o Zn (con Z0 = 1) tiene el efecto de convolucionarse con ella misma cn veces. Por lo tanto (3.12) toma la forma (3.13) en este caso. En esta caso existe una distribucin l o mite cuando cn converge a c, y es exactamente la c-sima potencia de la distribucin de Z. Claro, solamente e o cuando cn obtendremos una distribucin l o mite innitamente divisible. Regresando al caso en el que < 1 y 2 < , vamos necesitar las siguiente armaciones i) Sea c una constante positiva, tenemos que P(Zn = 0|Z0 = 1) cn ii) Y que se satisface que l P(Zn = j|Z0 = 1, Zn = 0) = fj m donde
n

fj = 1

j=1

86

El C.B. Proceso

Teorema 3.7.3. Si cn dn , d > 0, entonces


n

l P(Zn = j|Z0 = cn ) = gj m

para

j 0,

(3.14)

donde {gj }j0 es la distribucin con funcin generadora o o


j=0

gj xj = ecd(f (x)1)

donde

f (x) =

j=1

fj xj .

(3.15)

Si en cambio tenemos que cn n se va a innito, la ecuacin (3.13) se satisface o n 2 2 1 2 , y como resultado obtenemos una distribucin o con bn [cn /( )] lmite normal. Estas son la unicas posibilidades para lmites no degenerados. El caso en que = 1 es muy parecido al anterior. En este caso utilizamos los siguientes resultados 2 P(Zn = 0|Z0 = 1) 2 (3.16) n Zn Z0 = 1, Zn = 0 = 1 e 2x 2 l P m x (3.17) n n Dichos resultados se satisfacen bajo la hiptesis de que o
i=0

existe, donde

Teorema 3.7.4. Supongamos que = 1 y que la V ar[i ] < . Si cn dn, d > 0, entonces Zn l P m xZ0 = cn = G(x) n n

i3 i < .

dG(x) = exp

2d 2 ( + 2/ 2 )

Si en cambio cn /n , la ecuacin (3.13) se satisface con bn ncn ; no o existen otras distribuciones lmites excepto las distribuciones degeneradas. Las demostraciones de estos ultimos dos teoremas las podemos encontrar en el art culo de Lamperti [12].

3.7 El C.B. Proceso como Proceso L mite

87

Varianza Innita Aqu vamos a considerar los casos en que > 1 y = . Ser muy a natural pensar en utilizar los teoremas l mites generales para sumas de variables aleatorias independientes de una manera anloga al lema 3.7.1, pero a no parece sencillo llevarlo a cabo. En cambio vamos a ver un mtodo que nos e va a permitir identicar distribuciones l mite no-normales, pero antes vamos a necesitar las siguientes deniciones. Definicin 3.7.1. Sea Y una variable aleatoria. Denotaremos por PT su o distribucin y a su funcin caracteristica por T . Se dice que es estable si o o para cualquier n N existen constantes an > 0, bn R y variables aleatorias independientes 1 , 2 , . . . , n , con la misma distribucin de T tales que o an T + bn = 1 + 2 + + n o equivalentemente PT o bien x bn an = PT (x) PT (x)

Si T converge en distribucin, cuando n se va a innito, a una funcin o o de distribucin V (x), entonces decimos que PT (x) atraida a V (x). El total de o funciones de distribucin atraidas a V (x) es llamado el dominio de atraccin o o de la ley V (x). Definicin 3.7.2. Vamos a decir que PT (x) pertenence al dominio de atraco cin parcial de la distribucin V (x), si existe una subsucesin n1 < n2 < o o o < nk < tal que la funcin de distribucin de las sumas de nk convero o ge a V (x) para ciertas constantes que se escogen de manera conveniente an y an > 0 Si > 1 y 2 = , el l mite de Zn /n cuando n se va a innito existe por el Teorema de Convergencia de la Martingala y la llamaremos Z. Sea F (x) = P(Z x) es su funcin de distribucin. El mtodo para identicar o o e distribuciones l mites esta basado en este teorema

n () = (an ) eibn

88

El C.B. Proceso

Teorema 3.7.5. Si G(x) es una funcin de distribucin que contiene a F (x) o o en su dominio de atraccin parcial, entonces G(x) es un posible lmite; esto o signica que existen sucesiones de constantes para las cuales se satisface la ecuacin (3.11) o La demostracin a este teorema la podemos ver en [12]. o Para aplicar este resultado, es necesario determinar las leyes a las cuales F (x) es parcialmente atraida. Como F (x) no la conocemos de manera expl cita, esto parece ser muy dif en general. De cualquier modo, existe cil una situacin que se puede trabajar, y el resultado es de un gran interes, o pero antes de mencionar el resultado vamos a denir que es un dominio de atraccin normal. o Definicin 3.7.3. Decimos que la ley de PT (x) pertenece al dominio de o atraccin normal de la ley V (x), si para alguna a > o y alguna bn la siguiente o relacin se satisface: o
n 1 l P m i bn < x n an1/ i=1

= V (x)

donde es esl exponente caracterstico de la ley V (x). Teorema 3.7.6. La distribucin F (x) esta en el dominio de atraccin noro o mal de una ley estable con indice 1 < < 2 si y slo si la distribucin {i } o o pertenece al mismo dominio de atraccin. o La demostracin a este teorema la podemos encontrar en [12]. o

Corolario 3.7.1. Si un Proceso de Ramicacin de Galton-Watson tiene o > 1 y {i } es normalmente atraida a una ley estable en particular, entonces existen constantes an , bn , cn para las cuales la ecuacin (3.11) se satisface, o donde G juega el papel de la ley estable. Demostracin. La demostracin a este corolario es una consecuencia dio o recta de los teoremas que acabamos de mencionar.

3.7 El C.B. Proceso como Proceso L mite

89

3.7.2.

Teoremas L mite
(r)

Vamos a considerar una sucesin de procesos {Zt } denida de la sio guiente manera Zt
(r)

Z[rt] ar br

donde

Z0 = c r

donde para cada r, {Zn } es un proceso de ramicacin de Galton-Watson con o probabilidades {k } y con funcin generadora f (x), y [] es la funcin mximo o o a entero. Estos pueden depender de r pero no se indica para no complicar la notacin. o Nuestra suposicin bsica es que existe un proceso estocstico {Zt }, t 0, o a a (r) el cual es el l mite de {Zt } cuando r tiende a innito en el sentido de (r) que las distribuciones conjuntas nito-dimensionales de {Zt } converge a las de {Zt }, o de otra manera, esto signica que para cada conjunto nito 0 = t0 < t1 < < th
r

l P(Zt0 y0 , . . . , Zth yh ) = P(Zt0 y0 , . . . , Zth yh ) m

(r)

(r)

(3.18)

en el sentido de convergencia dbil de medidas. e Primero vamos a ver el caso en que ar = 0 para toda r. Teorema 3.7.7. Supongamos que se satisface la relacin ( 3.18) con ar = 0, o cr y P(Zt = 0) < 1 para alguna t > 0. Entonces {Zt } es un C.B. proceso en el sentido de este cap tulo. Demostracin. De las hiptesis del teorema podemos considerar la exiso o tencia de la distribucin l o mite unidimensional.
r

l P(Z[rt] ybr |Z0 = cr ) = Gt (y) m

para toda

t0

(3.19)

Donde Gt (y) = P(Zt y), de tal manera que para alguna t > 0 no tiene su masa concentrada en el origen. Primero vamos a demostrar que el l mite, como en ( 3.19), tiene sentido cuando cr es reemplazado por [xcr ] donde x es un real positivo distinto de cero. Por el hecho de que se satisface la relacin ( 3.19), entonces armamos o que se cumple la siguiente relacin o Z[rt] l E exp m (3.20) Z0 = cr = t () r br

90

El C.B. Proceso

debido a un resultado conocido de que si una sucesin de variables aleatoo rias reales {Xn } que convergen dbilmente a una variable aleatoria real X e entonces para toda funcin f : R R continua y acotada tenemos que o E[f (Xn )] E[f (X)] cuando n tiende a innito. t () es la transformada de Laplace-Stieltjes de Gt . Como sabemos que {Zn } es un proceso de ramicacin de Galton-Watson, o tenemos que cr Z[rt] E exp Z0 = cr = f[rt] e br br Entonces E exp Z[rt] br [xcr ] Z0 = [xcr ] = f[rt] e br

adems sabemos que xcr 1 < [xcr ] xcr , donde xcr > 3, entonces a donde xcr [xcr ] xcr 1 f[rt] e br f[rt] e br < f[rt] e br f[rt] e br
b

f[rt] e

= E exp

Z[rt] br

= y
r

E exp

Z[rt] br

Z0 = 1

l m

E exp

Z[rt] br

es exactamente exp

Z[rt] 1 l m ln E exp =1 Z0 = c r r cr br

c1 r Z0 = c r

c1 r Z0 = c r

3.7 El C.B. Proceso como Proceso L mite

91

de esta manera aplicando el l mite cuando r tiende a innito en la desigualdad que tenemos, vemos que xcr [xcr ] (xcr 1) l m f[rt] e br l m f[rt] e br < l m f[rt] e br
r r

es as como vemos que

x t () l m f[rt] e br
r

[xcr ]

x < t ()

para cada x > 0, la distribucin es claramente innitamente divisible. La o convergencia se satisface cuando x = 0, adems la convergencia es uniforme a en x para cada ja. En nuestro proximo paso vamos a considerar la relacin existente entre o br y cr . De ( 3.18) si t = 0, tenemos
r

[xcr ] x l m f[rt] e br = t ()

l P(Z0 < ybr |Z0 = cr ) = G0 (y) m

entonces Z0 =

(r)

cr br

tiene como funcin de distribucin a o o 0 si y < (r) F0 (y) = 1 si y


cr br cr br

y
r

l F0 = G0 (y) m

(r)

donde

o si y < c G0 (y) = 1 si y c
cr br

donde

c [0, )

rk { crk } k=1 b

Supongamos que l supr m rk tal que crk > c. b

> c, entonces existe una subsucesin o


(rk)

rk Sea y tal que c < y < crk de esta manera armamos que F0 b pero (rk) l F0 (y) = G0 (y) = 1 m

(y) = 0,

92

El C.B. Proceso

esto es una contradiccin. o Ahora supongamos que l inf r m crk crk { brk }k=1 tal que brk < c. Sea y tal que pero
crk brk

cr br

< c, entonces existe una subsucesin o


(rk)

< y < c de esta manera armamos que F0


k

(y) = 1,

l F0 m

(rk)

(y) = G0 (y) = 0

esto es una contradiccin. o Es as como armamos que cr l m =c r br

donde

c [0, )

Ahora demostraremos que c es estrictamente positiva, al menos de que se contradiga la hiptesis de que P(Zt = 0) < 1 para alguna t > 0. o Tomamos una t > 0 tal que Gt (0+ ) < 1; en consecuencia t () < 1 para toda > 0. Por ( 3.20) y por la propiedad de Markov de {Zn } nosotros podemos escribir Z[2rt] 2t = l E exp m Z0 = c r r br y

Z[rt] Z[2rt] E exp Z0 = cr = E E exp Z[rt] = ycr Z0 = cr br br Z[2rt] = E exp Z[rt] = ycr dP Z[rt] cr y Z0 = cr br 0 Z[rt] = E exp Z0 = ycr dP Z[rt] cr y Z0 = cr br 0 2t () = l m E exp Z0 = ycr dP Z[rt] cr y Z0 = cr r 0 (3.21) Para continuar con la demostracin es necesario demostrar el siguiente o lema

Entonces

Z[rt] br

3.7 El C.B. Proceso como Proceso L mite

93

Lema 3.7.2. Si Yn , Y : [a, b] R variables aleatorias y Yn () Y () < c.u. para toda [a, b] y > 0 (i.e. Yn Y en [a, b]). Y si (n ) es una n=1 familia de medidas positivas acotada en [a, b], n ([a, b]) c para toda n N y adems existe a b Y dn L = l m
n a

entonces
n

l m

Yn dn = l m

Y dn

Demostracin. Por demostrar que para toda > 0 existe una N N tal o que para toda n N b Yn dn L <
a

Por hiptesis tenemos que para toda > 0 existe una M N tal que para o toda n M b Y dn L < 2
a

entonces

b b b b Yn dn L = Yn dn Y dn + Y dn L
a a a a a a a

b b b Yn dn Y dn + Y dn L b b < Yn dn Y dn + 2 a a Yn Y <

pero sabemos que Yn converge uniformemente a Y , entonces para toda > 0 existe una N0 N tal que para toda n N0

94

El C.B. Proceso
, 2c

donde =

b b b Yn dn L < Yn dn Y dn + 2 a a a b < dn + 2c a 2 < Es as como el lema queda demostrado.

de esta manera para toda n (M N0 ) tenemos

De la relacin ( 3.21) y por este lema que acabamos de demostrar, tenemos o y 2t () = l m t dP(Z[rt] ycr |Z0 = cr )
r

= l E exp m
r

En otras palabras, la transformada de Laplace de la variable aleatoria dado Z0 = cr , tiene l mite para cada de la forma = ln t (). Por que estos valores llenan al intervalo [0, ] (aqu se utiliza la no degeneracin o Z[rt] de Gt ), la distribucin de cr tiene que ser convergente por el teorema de o continuidad de la transformada de Laplace. Z[rt] Ahora sabemos que la variable aleatoria cr converge dbilmente a una e
Z[rt] , cr

ln t ()Z[rt] Z0 = c r cr

variable aleatoria Xt y donde P(Zt = 0) = 1. Supongamos que

Z[rt] br

converge dbilmente a una variable aleatoria Zt , e cr =0 r br l m cr < br

entonces para toda > 0 existe un r0 tal que para toda r r0 0

Sea M > 0, > 0 y x ja, tal que x > M , existe un R0 tal que para toda r R0 xcr 0 < br

3.7 El C.B. Proceso como Proceso L mite

95

entonces

Z[rt] FXt (x) = l P m x r cr Z[rt] br = l P m x r br c r Z[rt] cr = l P m x r br br Z[rt] l P m r br = Gt ()

pero como es para toda > 0, tenemos FXt (x) Gt (0+ ) < 1 y al aplicar el l mite cuando x tiende a innito, vemos que
x

l FXt (x) < 1 m

por lo tanto esto es una contradiccin, ya se hab supuesto que FXt es una o a funcin de distribuccin, entonces o o cr = 0 r br l m Ahora tenemos que
r

l P(Z[rt] ybr |Z0 = [xbr ]) = Pt (x, [0, y]) m

(3.22)

y demostraremos que Pt (o mejor dicho, la extensin de Pt es una medida) o es una C.B. funcin, y que la distribucin conjunta la cual est genera, too o a mando a c como el estado inicial, son aquellas del proceso l mite {Zt }. Las propiedades (i ), (ii ) y (v ) de la decin de C.B. funcin son evidentes, lo o o que hace falta es ver que las propiedades (iii ) y (iv ) se cumplen. Por la relacin ( 3.22) podemos obtener o x Z[rt] Z0 = [xbr ] = t () c l E exp m (3.23) r br

96

El C.B. Proceso

Veamoslo. b b b Sabemos que xcr cr 1 < [xbr ] xcr cr , para xcr cr > 3 y x ja, entonces r r r
b b xcr cr [xbr ] xcr cr 1 r f r b f[rt] e br < f[rt] e br [rt] e r

Es suciente ver que br Z[rt] Z0 = xbr = l f[rt] e b xcr cr r l E exp m m r r br xcr br = exp l m ln f[rt] e br r cr x 1 = exp ln t () c con esto queda demostrado dicho l mite. Con esta relacin podemos denir a t () si tomamos que o x t () c = ext () x = t () c

entonces

1 t () = ln t () c de esta manera la propiedad (iv ) es evidente, por el hecho de que aparece la x en la exponencial. Por ultimo hay que demostrar que Pt satisface la ecuacin de Chapman o Kolmogorov y que la ley bidimensional de {Zt } son aquellas generadas por Pt . Para demostrar esto, es necesario utilizar la transformada de Laplace y es suciente mostrar que se satisface Zt Zt+s E e = eu Pt (c, du)ev Ps (u, dv) (3.24)
0 0

pero sabemos que

ey Pt (x, dy) = ext ()

3.7 El C.B. Proceso como Proceso L mite

97

entonces vamos a obtener

Pt (c, du)e

Ps (u, dv) = = =

ev Ps (u, dv)Pt (c, du)

eu eut () Pt (c, du) e(+t ())u Pt (c, du)

= ect (+s ())

Si hacemos a tender a cero tenemos

E eZt+s = ect (s ())

que es la transformada de la ecuacin de Chapman-Kolmogorov. o Para demostrar la relacin ( 3.24) tenemos que por el hecho de que el o l cr = c, el lado izquierdo de dicha relacin se puede escribir como m br o
r

Zt Zt+s Z[rt] + Z[r(t+s)] Z0 = cbr E e = l E exp m r br

98

El C.B. Proceso

y nuevamente podemos expresar a dicha esperanza de la siguiente manera

E exp

Z[rt] + Z[r(t+s)] Z[rt] = xbr Z0 = cbr = E E exp br Z[rt] + Z[r(t+s)] Z[rt] = xbr dP(Z[rt] xbr |Z0 = cbr ) = E exp br 0 xbr + Z[r(t+s)] Z[rt] = xbr dP(Z[rt] xbr |Z0 = cbr ) = E exp br 0 Z[r(t+s)] Z[rt] = xbr dP(Z[rt] xbr |Z0 = cbr ) = ex E exp br 0 Z[rs] Z0 = xbr dP(Z[rt] xbr |Z0 = cbr ) = ex E exp br 0

Z[rt] + Z[r(t+s)] Z0 = cbr = br

Argumentando como antes, vemos que podemos reemplazar el integrando por su l mite, entonces

Z[rt] + Z[r(t+s)] Z0 = cbr = l E exp m r br Z[rs] Z0 = xbr dP(Z[rt] xbr |Z0 = cbr ) = l m ex E exp r 0 br

3.7 El C.B. Proceso como Proceso L mite

99

= l m = =

ex exs () dP(Z[rt] xbr |Z0 = cbr )

exxs () dPc (Zt x) exxs () dPt (c, dx)

Esto completa la demostracion. r Si pasamos a la hiptesis de que ar = 0, es evidente que si ar tiende a o b un l mite nito estamos an en la situacin ya descrita, y el proceso va a ser u o simplemente un C.B. proceso trasladado. r Pero si ahora consideramos que ar tiende a innito entonces vamos a tener b un proceso con incrementos independientes y estacionarios. Teorema 3.7.8. Supongamos que la relacin ( 3.18) se satisface donde ahora o ar tiende a innito cuando r tiende a innito. Entonces {Zt } es un proceso br con incrementos independientes y estacionarios o un Proceso de Lvy. e Demostracin. De las hiptesis tenemos que en particular que el l o o mite dbil e l P(Z[rt] ar ybr |Z0 = cr ) = Ht (y) m (3.25)
r

= ect (s ()+) = E eZt Zt+s

existe para cada t 0 con Ht (y) = P(Zt y) una funcin de distribucin en o o r donde ar tiende a innito. b Primero vamos a considerar la relacin que hay entre cr ar y br . o Si en la relacin ( 3.25) consideramos que t = 0, entonces vemos que o
r

l P(Z0 ar ybr |Z0 = cr ) = H0 (y) m tiene como funcin de distribucin o o


(r) F0 (y)

en donde Z0 =

(r)

cr ar br

0 si y < = 1 si y >

cr ar br cr ar br

100

El C.B. Proceso

y esta funcin de distribucin converge dbilmente a una funcin de distrio o e o bucin H0 (y), donde o 0 si y < c H0 (y) = 1 si y > c
a Supongamos que l supr cr br r > c entonces existe uns subsucesin m o crk ark crk ark ( brk )k=1 tal que brk > c. rk Sea y tal que c < y < crkbark , por lo tanto F0 (y) = 0. rk Pero por otro lado tenemos que

l F0 (y) = H0 (y) = 1 m rk

esto es una contradiccin. o Ahora supongamos que l inf r m crk ark crk ark cesin ( brk )k=1 tal que brk < c. o

cr ar br

< c entonces existe una subsu(rk)

Sea y tal que crkbark < y < c, por lo tanto F0 rk Pero por otro lado tenemos que
k

(y) = 1.

l F0 m

(rk)

(y) = H0 (y) = 0

lo cual es una contradiccin. o De esta manera armamos que l m crk ark =c brk donde 0c<

Claramente si sumamos un factor o(br ) a ar no tiene efecto en el l mite, a pesar de que sumar un mltiplo representa una traslacin del proceso l u o mite. De esta manera si asumimos que ar = cr no se pierde generalidad y claro tendr amos c = 0, lo cual supondremos durante la demostracin. o Si expresamos a la relacin ( 3.25) en trminos de su funcin caracter o e o stica, tenemos i(Z[rt] cr ) Z0 = cr = E eiZt = t () l E exp m r br y expresando a la funcin caracter o stica en trminos de la funcin generadora, e o

3.7 El C.B. Proceso como Proceso L mite

101

vemos que i(Z[rt] cr ) Z0 = c r = E exp br i(j cr ) = exp P(Z[rt] = j|Z0 = cr ) br j=0 icr ij = exp exp P(Z[rt] = j|Z0 = cr ) br br j=0 cr icr i = exp f[rt] exp br br entonces t () = l exp m
r

icr br

f[rt] exp

i br

cr

donde t () tiene que ser innitamente divisible, ya que su ra estan bien z denida. Como t () es innitamente divisible el ln t () + o(1)

Esto se puede expresar como 1 i icr f[rt] exp = exp t () + o(1) cr br br

(3.26)

esta determinado para una r grande en la manera usual. Ahora vamos a necesitar una extensin de la relacin ( 3.26), dada por o o i r i + ln t () + o(1) + = exp + (3.27) f[rt] exp br cr br cr donde r es cualquier sucesin de nmeros complejos con parte real no posio u tiva la cual tiende a cuando r va a innito. Asumiendo esto por el momento, podemos vericar que Z[rt] cr Z[r(t+s)] Z[rt] Z0 = cr = t ()s () l E exp i m + i r br br (3.28)

102

El C.B. Proceso

Primero tenemos que ver que la siguiente igualdad se satisface j E xZn y Zn+m Z0 = j = fn xfm (y)
s=0 k=0

entonces

k s E xZn y Zn+m Z0 = j = x y P(Zn+m = s, Zn = k|Z0 = j)

s=0 k=0

xk y s P(Zn+m = s|Zn = k)P(Zn = k|Z0 = j) y s P(Zn+m = s|Zn = k)P(Zn = k|Z0 = j) y s P(Zm = s|Z0 = k)P(Zn = k|Z0 = j)

= = =

xk xk

k=0

s=0

k=0

s=0

k=0

j = fn xfm (y)

k xk fm (y) P(Zn = k|Z0 = j)

Z[rt] cr Z[r(s+t)] Z[rt] Z0 = c r = E exp i + i br br cr i( ) i = exp i E exp Z[rt] + Z[r(s+t)] Z0 = cr br br br cr i( ) i cr = exp i f[rt] exp f[rs] exp br br br y como resultado tenemos E exp iZt + i(Zt+s Zt ) = = l exp m
r

cr i br

f[rt]

exp

cr i( ) i f[rs] exp br br

3.7 El C.B. Proceso como Proceso L mite

103

entonces cr cr i( ) i exp i f[rt] exp f[rs] exp = br br br cr c1 cr i( ) i = exp i f[rt] exp exp s () + o(1) r br br br cr c1 cr i = exp i f[rt] exp s () + o(1) r br br icr cr = exp i exp + ln s () + o(1) + ln t () + o(1) br br = s ()t () + o(1) y al aplicar el l mite se ve claramente que la igualdad ( 3.28) se satisface. Para obtener la relacin ( 3.27) es necesario utilizar el siguiente lema, o cuya demostracin se omite. o Lema 3.7.3. Supongamos que para cada n, tenemos una pareja (An , Bn ) (posiblemente dependientes) que esta determinada en algn espacio de prou babilidad. Adems supongamos que An es real; tal que para cada real se a tiene l E eiAn = t () m (3.29)
n

Pero reemplazando a f[rs] por su expresin ( 3.26), tenemos que o (r) r = ln E exp iZt = ln t () + o(1)

existe, donde () es una funcin caracterstica, tal que Re(Bn ) M casi o seguramente para toda n, y Bn converge en distribuccin a cero. Entonces o l E eiAn +Bn = () m (3.30)
n

Para obtener la relacin ( 3.27) por el Lema denimos o Ar = Z[rt] cr br Br = r Z[rt] cr cr

(3.31)

104

El C.B. Proceso

donde Zn es el r-simo proceso de ramicacin con Z0 = cr . La convergencia e o de la ecuacin ( 3.25) (con ar = cr ) permite la existencia de ( 3.29), siempre o y cuando Br converge en distribucin a cero, veamoslo o Primero vamos a demostrar la siguiente proposicin o Proposicin 3.7.1. Supongamos que Xn converge en distribucin a X y n o o tiende a cero, cuando n tiende a innito, entonces n Xn converge en distribucin a cero o Demostracin. Damos > 0 y > 0, y tomamos una x tan grande tal que o P |X| x < y P(X = x) = 0
despus tomamos un n0 tal que n n0 implica que |n | < x y e P(Xn y) P(X y) < para y = x

entonces

en particular

P(Xn x) + P(X x) < +P X |n |

y si a esta relacin le sumamos y restamos un uno tenemos o 1 P Xn 1+P X < |n | |n | despus a esta misma relacin le sumamos e o P Xn P X < |n | |n | tenemos 1 P Xn + P Xn |n | |n | 1+P X P X < |n | |n | P |n Xn | > < 3

P Xn |n |

<

esto es lo mismo que

3.7 El C.B. Proceso como Proceso L mite

105

para n n0 . De esta manera queda demostrada la proposicin. o


b Entonces Br converge en distribucin ya que r cr tiende a cero. Finalo r mente Z[rt] 0 y r tiende a con Re(r ) 0, esto nos dice que Re(Br ) esta acotado superior y uniformemente en r. Entonces la relacin ( 3.30) se o cumple para las variables Ar y Br dadas en la relacin ( 3.31) con t () igual o a (), esto implica inmediatamente que Z[rt] cr Z[rt] Z0 = cr = e t () l E exp i m + r (3.32) r br cr

Expresando la esperanza en trminos de la funcin generadora. la relacin e o o ( 3.32) se transforma en ( 3.27). Esto completa la demostracin de que {Zt } o es un proceso aditivo.

106

El C.B. Proceso

Cap tulo 4 Relacin entre los Procesos de o Ramificacin y los Procesos de o Lvy e
4.1. Introduccin o

En el cap tulo anterior vimos como un C.B. proceso y un proceso de Lvy e forman precisamente una clase de procesos l mites para una sucesin de proo cesos de Galton-Watson cuyos tiempos y espacios de estados se van a innito. En esta cap tulo vamos a estudiar la construccin del C.B. proceso ms o a general, el cual se obtiene mediante un cambio de tiempo aleatorio en un proceso de Lvy con saltos no negativos. e Para empezar con la relacin del C.B. proceso y el proceso de Lvy con o e saltos no negativos vamos a necesitar algunas deniciones previas muy importantes

4.2.

Deniciones

Primero vamos a empezar con las caracter sticas que deden cumplir tanto el C.B. proceso como el proceso de Lvy con saltos no negativos. La denicin e o de un proceso de Lvy con saltos no negativos la podemos ver en el Apndice e e B.

108

Relacin entre los P. de Ramificacin y los P. de Lvy o o e

Definicin 4.2.1. Sea X = {Xt }t0 un proceso de Lvy con saltos no negao e tivos que cumple con lo siguiente: i) P(X = 0) = 1 ii) E exp{Xt } = exp{t()} q 2 2 () = d + + 2
(0,)

donde

(ex 1 + x1{x<1} )(dx) l

y d R, q R+ y es la medida de Lvy que cumple con e


R{0}

(1 x2 )(dx) <

Ahora vamos a denir a Yt = Xt + x donde x > 0, entonces su transformada de Laplace esta dada por E exp{Yt } = E exp{(Xt + x)} = exp{x}E exp{Xt } = exp{x + t()} Definicin 4.2.2. Sea {Zt }t0 un C.B. proceso si es un proceso de Markov o en [0, ) con trayectorias continuas por la derecha cuyas probabilidades de transicin estan dadas por una C.B. funcin y que satisface o o Ex exp{Zt } = exp{x(, t)} (, t) = ((, t)) t Esta propiedad del exponente de Laplace para el C.B. proceso fue demostrado por Silverstein.

donde (, t) satisface

4.3 El C.B.P. y el P. de Lvy con saltos no negativos e

109

4.3.

Relacin entre el C.B. proceso y el proo ceso de Lvy con saltos no negativos. e

Teorema 4.3.1. Sea {Yt }t0 un proceso de Lvy con saltos no negativos, que e empieza en un punto x > 0. Vamos a denir a I(t) =
t

du Yu

donde t < Tx = nf{u > 0 : Yu = 0} y I(t) = para toda t Tx . Adems vamos a tener un cambio de tiempo aleatorio dado por a J(t) = nf{u : I(u) > t} Entonces vamos a tener que el proceso {Zt }t0 denido por Zt = Y J(t) es un C.B. proceso. Hablando de una manera informal este resultado nos dice que cada C.B proceso {Zt }t0 puede obtenerse si empezamos con un proceso de Lvy con e saltos no negativos {Yt }t0 y este va a una velocidad, la cual es directamente proporcional a la posicin. Esto es fcil de entender si pensamos en trminos o a e de una coleccin de part o culas indistinguibles con una masa muy pequea, n donde todas se comportan de manera independiente una de otra y cada una crea una nueva part cula (y posiblemente sean aniquiladas) a una misma razn, y si uno, interpreta a Zt como la masa local de las part o culas vivas al tiempo t. De hecho esta interpretacin puede hacerse precisa al pasar al o l mite. Demostracin. Como {Yt }t0 es un proceso de Lvy con saltos no negativos o e y con Y0 = x > 0, su transformada de Laplace esta dada por E exp{Yt } = exp{x + t()}

claramente este proceso tiene asociado un semigrupo al cual denotaremos por {Qt }t0 . Si f (x) = exp{x} entonces tenemos que Qt exp{x} = E exp{Yt }

110

Relacin entre los P. de Ramificacin y los P. de Lvy o o e

En particular vamos a tener que d d Qt exp{x} = E exp{Yt } dt dt =

d exp{x + t()} dt

Y vamos a obtener a su operador innitesimal, si evaluamos a dicha derivada cuando t = 0, por lo tanto A exp{x} = () exp{x}. De esta manera podemos armar que la funcin exp{x} pertenece al o dominio del operador innitesimal y por el teorema A.2.51 armamos que dicha funcin tambin pertenece al dominio del operador caracter o e stico, ya que Yt es un proceso normal de Markov. Por otro lado tenemos que Zt = YJ(t) es un proceso de Markov, por que Yt es proceso de Markov; ya que la teor de cambio de tiempo aleatorio2 a permite que Zt adquiera las propiedades de Yt dependiendo de las propiedades del funcional I(t). En nuestro caso el funcional permite que sea proceso de Markov Normal3 . Por ser Zt un proceso de Markov, este tiene un semigrupo asociado el cual denotaremos por {Rt }t0 de tal manera que Rt exp{x} = E exp{Zt }

= exp{x}() exp{t()} = ()E exp{Yt } .

Como tanto Yt y Zt son procesos Normales de Markov con respecto a la ltracin Ft = (Ys : s t) entonces podemos aplicar el teorema de o Volkonski4 . Este resultado es muy importante ya que relaciona el operador caracter stico de un proceso de Markov Yt con el operador caracter stico de Zt , el cual es el generado por el cambio de tiempo aleatorio en Yt . Pero
Ver Ver 3 Ver 4 Ver
1 2

apndice A e Dynkin apndice A e apndice A e

4.3 El C.B.P. y el P. de Lvy con saltos no negativos e

111

como ambos son procesos de Markov Normales tenemos que el operador innitesimal y el operador caracter stico son iguales, es as como tenemos que si B es el operador innitesimal de Zt y f (x) pertenece a un espacio de Banach , entonces Bf (x) = xAf (x) Ahora si {Zt }t0 tiene exponente de Laplace dado por (, t), tenemos Rt exp{x} = exp{x(, t)} en particular vemos que d d Rt exp{x} = exp{x(, t)} dt dt d (, t) exp{x(, t)} dt y por otro lado aplicando el teorema A.2.15 vemos que = x d Rt exp{x} = B(Rt exp{x}) dt Y si ahora nombramos a f (x) = Rt exp{x}, vamos a tener B(Rt exp{x}) = xA(Rt exp{x}) y como Rt exp{x} = exp{x(, t)}, entonces B(exp{x(, t)}) = xA(exp{x(, t)}) = x((, t)) exp{x(, t)} pero a su vez tenemos que d (, t) exp{x(, t)} dt De esta manera se ve claramente que (, t) = (, t) t con (, 0) = B(exp{x(, t)}) = x Es as como queda demostrado que {Zt }t0 es un C.B proceso.
5

Ver Apndice A e

112

Relacin entre los P. de Ramificacin y los P. de Lvy o o e

Apndice A e Procesos de Markov.


A.1. Funcin de Transicin o o

Definicin A.1.1 (Funcin de Transicin). Consideremos un espacio de o o o estados arbitrario (E, B). La funcin P (t, x, ) (t 0, x E, B) es o llamada funcin de transicin si se satisfacen las siguientes condiciones o o i) Para una t y una x jas la funcin P (t, x, ) es una medida en la o -lgebra B. a ii) Para una t y jas, P (t, x, ) es una funcin B-medible de x o iii) P (t, x, ) 1 iv) P (0, x, x) = 0. v) P (s + t, x, ) = P (s, x, dy)P (t, y, )
E

(s, t 0).

De las propiedades ( v) y ( iii) tenemos: P (s + t, x, E) P (s, x, dy) = P (s, x, E)


E

(s, t 0).

Definicin A.1.2 (Continuidad Estocstica). Sea E un espacio mtrico, B o a e es la -lgebra de Borel. Una funcin de transicin P (t, x, ) ( B) en a o o (E, B) se dice estocsticamente continua si a
t0+

l P (t, x, N (x)) = 1 m

para toda > 0, x E

114

Procesos de Markov.

donde N (x) = {y E : (y, x) < } y una mtrica. e Si este lmite se cumple uniformemente en x para cada > 0 ja P (t, x, ) es llamada estocstica y uniformente continua. a

A.2.

Semigrupos

Definicin A.2.1 (Espacio de Banach). Llamaremos a un conjunto L espao cio de Banach si las operaciones de adicin y de multiplicacin por numeros, o o donde estas operaciones tienen la propiedades algebraicas usuales, estn dea nidas en l, y si se les asocia con cada elemento f L un nmero no negativo e u ||f ||, llamado la norma del vector f tal que se cumplen las siguientes condiciones i) ||f1 + f2 || ||f1 || + ||f2 ||. ii) ||f || = || ||f || ( es cualquier nmero). u

iii) ||f || = 0 si y slo si f = 0. o iv) Si m ||fm fn || = 0, entonces existe un vector f L tal que l m
n n

l ||fn f || = 0 m

o tambin dicho l e mite(lmite fuerte) se puede denotar como s l fn = f. m


n

Definicin A.2.2 (Semigrupo). Sea {Tt }, t R, una familia de operadoo res lineales acotados en un espacio de Banach L, esta familia es llamada semigrupo si para toda s 0, t 0 se tiene Ts+t = Ts Tt Definicin A.2.3 (Semigrupo de Contraccin). Un semigrupo Tt es llamado o o semigrupo de contraccin si para toda t 0 y f L se tiene o ||Tt f || ||f ||

A.2 Semigrupos

115

Definicin A.2.4 (Operador Innitesimal de Semigrupo). El operador ino nitesimal de un semigrupo Tt se dene como Af = s l + m
h0

Th f f h

si dicho lmite existe Definicin A.2.5 (Dominio del Operador Innitesimal). El dominio de un o operador innitesimal es el conjunto de vectores f L para los cuales existe s l + m
h0

Th f f h

y se denota por DA Definicin A.2.6 (Semigrupo de Feller). Un semigrupo de Feller en C0 (E) o es una familia {Tt }t0 de operadores lineales positivos en C0 (E) tal que i) Tt f C0 (E) ii) Si f C0 (E) y 0 f 1 entonces 0 Tt f 1. iii) T0 = I y Tt+s = Tt Ts para s, t 0 iv) Para toda f C0 (E), l t0+ ||Tt f f || = 0 m Vamos a denotar por L0 como el conjunto de todos los vectores f L para los cuales se cumple s l + Tt f = f m
t0

Definicin A.2.7 (Denicin de derivada fuerte). Sea f : [a, b] L donde o o L es un espacio de Banach. Decimos que f (t) es diferenciable en t (a, b) si el siguiente lmite existe s d f (t + h) f (t) f (t) = s l m ho dt h f (t + h) f (t) g < h

o existe g L tal que para toda > 0 existe > 0 tal que |h| < entonces

116

Procesos de Markov.

Teorema A.2.1. Sea f DA . Entonces Tt f DA para cada t > 0, y vamos a tener d s Tt f = A(Tt f ) = Tt (Af ) t>0 dt Demostracin. Primero vamos a jar una t > 0. Para cualquier h > 0 o pequea tenemos que n Tt+h f Tt f Th f f Th I = Tt = Tt f h h h y al aplicar el l mite fuerte cuando h 0+ por la continuidad de Tt observamos que Th f f s l + Tt m = Tt (Af ) h0 h entonces dicho l mite existe y por consecuencia tenemos que Tt f DA y A(Tt f ) = Tt (Af ) = d+ Tt f dt

Ahora tenemos una h < 0 de tal manera que t + h > 0. Entonces T f T f T f f |h| t+h t Tt (Af ) = Tt+h T|h| (Af ) h |h| T f f |h| T|h| (Af ) |h| T f f |h| Af + Af T|h| (Af ) |h|

si hacemos tender a h a cero vemos que T f T f t+h t Tt (Af ) = 0 l m h0 h esto prueba el teorema.

Teorema A.2.2 (Hille-Yosida). Sea A un operador lineal L con dominio DA . Para que A sea un operador innitesimal de un semigrupo de contraccin en o L es necesario y suciente que A satisfaga las siguientes tres condiciones i) DA es denso en L.

A.3 Procesos de Markov

117

ii) Para toda > 0 y g L la ecuacion f Af = g tiene una unica solucin f DA o iii) La solucin en (ii) satisface o ||f || ||g||

Definicin A.2.8 (Medibilidad Dbil). Sea E un intervalo arbitrario. Una o e funcin ut (t E) con valores en un espacio de Banach L es llamada medible o dbilmente si, para cualquier funcional lineal l, l(ut ) es una funcin numrica e o e la cual es medible con respecto a la -lgebra BE generada por todos los a subintervalos de E. Definicin A.2.9 (Continuidad Fuerte). Sea L un espacio de Banach. Sea o ut (a t b) una funcin con valores en L. Vamos a decir que la funcin ut o o es fuertemente continua en el punto t si
h0

l ||ut+h ut || = 0 m

Vamos a denotar por S(L, E), E es un intervalo arbitrario, como el conjunto de todas la funciones ut (t E) con valores en L (espacio de Banach), las cuales son acotadas en norma y medibles dbilmente. e Teorema A.2.3. Sea Tt un semigrupo de contraccin en un espacio de Bao nach separable L. Si para alguna f L, la funcin Tt f (t > 0) es medible o dbilmente entonces es fuertemente continua. e

A.3.

Procesos de Markov

Definicin A.3.1 (Proceso Estocstico). Un proceso estocstico X con cono a a junto ndice f y espacio de estados (E, B) denido en un espacio de probabili dad (, F, P) es una funcin denida en f con valores en E tal que para o cada t f, X(t, ) : Ees una variable aleatoria evaluada en E, esto es, { : X(t, ) } F para toda B.

118

Procesos de Markov.

Definicin A.3.2. Una coleccin {Ft } = {Ft , t [0, )} de -lgebras de o o a conjuntos en F es una ltracin si Ft Ft+s para t, s [0, ). o Intuitivamente Ft corresponde a la informacin conocida a un observador o al tiempo t. En particular Para un proceso X vamos a denir {Ft } por Ft = X(s) : s t . Definicin A.3.3 (Procesos de Markov). Sea {Xt }t0 un proceso estocstico o a denido en un espacio de probabilidad (, F, P) con valores en E, y sea Ft = Xs : s t . Entonces X es un proceso de Markov si P(Xt+s |Ft ) = P(Xt+s |Xt ) para toda s, t 0 y B(E). Definicin A.3.4 (Proceso de Markov Normal). Sea {Xt }t0 un proceso o estocstico en (, F) y dada una ltracin {Ft }t0 , se dice que {Xt , FtX }t0 a o si i) {Xt }t0 es un proceso continuo por la derecha. ii) {Xt }t0 es un proceso de Markov iii) La familia {Ft }t0 es completa, esto es, que si tenemos A B {Ft }t0 y P(B) = 0 implica que A {Ft }t0 ;y continua por la derecha, esto es, que Ft = Ft+ para cada t 0, donde Ft+ = Fs .
{s>t}

Definicin A.3.5. Un proceso X evaluado en E se dice que es {Ft }-progresivo o si la restriccin de X a [0, t] es B[0, t] Ft -medible para cada t 0, esto o es, que si {(s, ) : Xs () } ([0, t] ) B[0, t] F para cada t 0 y B(E) Definicin A.3.6 (Proceso de Markov Fuerte). Sea {Xt }t0 proceso de Maro kov evaluado en E, denido en un espacio de probabilidad (, F, P), con respecto a la ltracin {Ft }t0 tal que X es {Ft }-progresivo. Supongamos que o P (t, x, ) es una funcin de transicin para X, y sea un tiempo de paro o o con < casi seguramente. Entonces X es un proceso de Markov fuerte en si P(X +t |Ft ) = P (t, X( ), )

A.3 Procesos de Markov

119

para toda t 0 y B(E), a lo que es equivalente E[f (X +t )|Ft ] = f (y)P (t, X( ), dy) para toda t 0 y f en un espacio de Banach de funciones acotadas. X es un proceso de Markov fuerte con respecto a {Ft }t0 si X es un proceso de Markov fuerte en para todo tiempo de paro con < casi seguramente. Definicin A.3.7 (Operador Caracter o stico). Sea f cualquier funcin acoo tada de Borel en E, y supongamos que el lmite Af (x) = s l m Ex [f (X (U ) )] f (x) U {x} Ex [ (U )]

existe, donde U {x} signica que las vecindades U se encogen alrededor de x en la manera en que el sup{(y, x) : y U } tienda a cero; y un tiempo de paro con espectacion nita. Entonces vamos a decir que f DA(x); si f DA(x) para toda x entonces f DA. El operador A es lineal en DA y A es llamado el operador caracterstico del proceso de Markov y DA el dominio del operador caracterstico. Teorema A.3.1 (Lema de Dynkin). Sea {Xt , Ft }t0 un proceso normal de Markov con generador innitesimal A y estado inicial x, y sea un tiempo de paro cualquiera con esperanza nita. Entonces para toda f DA

Ex

Af (Xt )dt = Ex [f (X )] f (x)

Teorema A.3.2. Sea {Xt , Ft }t0 un proceso normal de Markov con generador innitesimal A y operador caracterstico A. Entonces DA = {f C(E) : f DA yAf C(E)} donde C(E) denota el espacio de Banach de las funciones continuas y acotadas. Para cada funcin f , tenemos o Af = Af

120

Procesos de Markov.

Teorema A.3.3 (Teorema de Volkonski). Sea X un proceso de Markov en el espacio de estados (E, B), y sea el proceso Y que se obtiene a partir de X por un cambio de tiempo aleatorio. Entonces la topologa intrnseca, la -lgebra a B y la distribucin de salida del interior de cualquier conjunto para el proceso o X coincide con los entes correspondientes al proceso Y . Sea AX y AY los operadores caractersticos de los procesos X y Y res pectivamente, en alguna topologa C. amos a asumir que Y se obtiene de X por un cambio de tiempo aleatorio, correspondiente a la funcional aditiva t s t = V (Xu )du
s

donde V es positiva y una funcin B-medible. Si la funcin V es continua en o o un punto x, entonces DAY (x) = DAX (x) y AY f (x) = 1 AX f (x) V (x)

Teorema A.3.4. Sea E localmente compacto y separable, y sea {Tt }t0 un semigrupo de Feller en C0 (E). Entonces para cada P(E), donde P(E) es el conjunto de medidas de probabilidad de Borel en E, existe un proceso de Markov X correspondiente a {Tt }t0 con distribucin inicial y trayectorias o muestrales en DE [0, ) (el espacio de las trayectorias cadlag). Adems X es a un proceso de Markov fuerte con respecto a la ltracin Ft+ = o Ft+
>0

Apndice B e Procesos de Lvy e


B.1. Denicin y algunas propiedades o

Vamos a considerar a como el punto cementerio y a D[0,) como el espacio de todas las funciones cadlag( continuas por la derecha y con l mite por la izquierda). Se dene la ltracin cannica asociada al proceso estocstico o o a real {Xt }t0 y completada con respecto a P como {Ft }t0 = (Xs s t). : A partir de aqu vamos a considerar a = y a = D[0,) {} y a un espacio de probabilidad ltrado (, F, {Ft }t0 , P). Definicin B.1.1 (Procesos de Lvy). Sea X = {Xt }t0 un proceso eso e tocstico real denido en (, F, {Ft }t0 , P). Se dice que X es un proceso de a Lvy si cumple: e

i) Para cualquier n 1 y 0 t0 < t1 < < tn , las variables aleatorias Yj = Xtj Xtj1 con j {1, 2, 3, . . . , n} son independientes. ii) X0 = 0 casi seguramente. iii) Para toda t, s > 0 la distribucin Xt+s Xt depende de s y no de t, es o decir Xt+s Xt = Xs .

Estos procesos tambin son conocidos como procesos con incrementos ine dependientes y estacionarios. Una observacin importante es que la variable aleatoria Xt es innitao mente divisible, lo cual es posible mostrar si denimos a una sucesin de o n variables aleatorias {i }i=1 donde i = Xt i Xt i1
n n

para toda i {1, 2, . . . , n}

122

Procesos de Lvy e

de esta manera vamos a tener que Xt =


n

i=1

entonces armamos que Xt es una variable aleatoria innitamente divisible. Por ser Xt innitamente divisible su exponente caracter stico esta dado por la relacin de Lvy-Kintchine, la cual es o e q 2 2 () = id + + 2 (1 eix + ix1{|x|<1} )(dx) l

R{0}

donde d R y es conocida como derivada o drift, q R+ y es el coeciente gaussiano y es la medida de Lvy que cumple e (1 x2 )(dx) <
R{0}

Ahora vamos a mencionar tres teorema que son fundamentale dentro de la teor de los procesos de Lvy, cuyas demostraciones vamos a omitir. a e Teorema B.1.1. Si {Xt }t0 es un proceso de Lvy, entonces la distribue cin de Xt es innitamente divisible para toda t y si X1 () = exp{()}, o entonces Xt () = exp{t()} Teorema B.1.2. Si d R, q 0, es una medida denida en R {0} tal que
R{0}

(1 x2 )(dx) <

y para toda R, se tiene q 2 2 () = id + + 2

R{0}

(1 eix + ix1{|x|<1} )(dx) l

entonces existe un espacio de probabilidad (, F, P) y un proceso X bajo ste, e tal que X es un proceso de Lvy con exponente caracterstico (). e Teorema B.1.3. Todo proceso de Lvy es proceso de Markov e

B.2 Procesos de Lvy con saltos no negativos. e

123

B.2.

Procesos de Lvy con saltos no negatie vos.

Vamos a suponer que X es un proceso de Lvy con saltos no negativos, e esto es que la medida de Lvy del proceso tiene soporte en [0, ). Tambin e e es conocido como el proceso de Lvy espectralmente positivo. e Aunque Xt puede tomar los valores tanto positivos como negativos, podemos ver que la siguiente proposicin se cumple o Proposicin B.2.1. Para toda > 0 tenemos o E[exp{Xt }] < Demostracin. Sea Yt = Xt y Ta = o nf{t 0 : Yt a}, entonces podemos ver que YTa = a P c.s. en {Ta < }

Despus vamos a considerar un tiempo aleatorio exponencial (q) con e parmetro q > 0 el cual es independiente de {Xt }to . a Ahora vamos a mostrar que para cada a, b > 0 se tiene P Ta+b < (q) = P Ta < (q) P Tb < (q) veamoslo: P Ta+b < (q) = P P Ta+b < (q), Tb < (q)FTb = E 1{Tb < (q)} E 1{Ta+b < (q)} YTb l l = E 1{Tb < (q)} Eb 1{Ta+b < (q)} l l = E 1{Tb < (q)} E 1{Ta < (q)} l l = P Ta < (q) P Tb < (q)

Si denimos a S (q) = sup{Ys : 0 s < (q)} podemos ver que P(S (q) > ) = P(T < (q)) solamente mostrando que {T < (q)} es equivalente a {S (q) > }. Supongamos que {T < (q)} y sabemos que T = nf{s : Ys },

124

Procesos de Lvy e

entonces ST = y por lo tanto S (q) ST = ; entonces armamos que {S (q) > }. Si ahora suponemos que {S (q) > } entonces tenemos que S (q) ST y por lo tanto (q) T ; entonces armamos que {T < (q)}. Entonces {T < (q)} es equivalente a {S (q) > }. Usando la falta de memoria de la ley exponencial la cual cumple S (q) gracias a lo que acabamos de demostrar, entonces podemos armar que dicha variable tiene distribucin exponencial con parmetro (q). o a Ahora vamos a ver que P (q) > se va cero cuando q se acerca a innito, esto es fcil de ver ya que a P (q) > = eq al aplicar el l mite tenemos
q

l eq = 0 m

Esto nos va a ser util para mostrar que S (q) converge a cero en probabilidad cuando q se va a innito. Sea P(S (q) > ) = P T < (q) = P P T < (q)T = P T < (q)T = y QT (dy) = pero sabemos que P (q) > y converge a cero cuando q se va a innito, entonces claramente S (q) converge en probabilidad a cero, como consecuancia vamos a tener que (q) > cuando se escoge una q sucientemente grande. De esta manera para una t [0, (q)) tenemos que E eYt E eS (q) = e((q))x (q)dx
0

P (q) > y QT (dy)

<

B.2 Procesos de Lvy con saltos no negativos. e

125

De esta manera queda demostrado, por la propiedad de que el proceso es continuo por la derecha y permite que apartir del intervalo que tenemos extenderlo a la semirecta [0, ). La funcin caracter o stica E exp{iXt } ( R) puede extenderse al plano superior complejo {I() 0} y dene a una funcin anal o tica. Por otro lado, la formula de Lvy-Kintchine y el hecho de que la medida de Lvy e e desaparezca en el semi-eje negativo muestra que el exponente caracter stico () esta bien denido y es anal tico en {I() 0}. Entonces podemos introducir la siguiente relacin o q 2 2 () = (i) = d + + (ex 1 + x1{x<1} )(dx) l 2 (0,) de esta manera tenemos la identidad E exp{Xt } = exp{t()}

126

Procesos de Lvy e

Bibliograf a
[1] Athreya, K. B.; Ney, P. E. Springer-Verlag, 1972 Branching Processes Berlin,

[2] Bertoin, Jean Lvy Processes e Cambridge, Cambridge University Press, 1996 [3] Bingham, N.H. Continuos Branching Processes and Spectral Positivity Stochastic Processes and Their Aplications, 4 (1976) 217 242 [4] Dynkin, E. B. Markov Processes, Volume I Berlin, Springer-Verlag, 1965 [5] Dynkin, E. B. Markov Processes, Volume II Berlin, Springer-Verlag, 1965 [6] Ethier, Stewart N.; Kurtz, Thomas G. Markov Processes Characterization and Convergence John Wiley & Sons, 1985 [7] Harris, Theodore E. The Theory of Branching Processes Berlin, Springer-Verlag, 1963 [8] Jirina, M. Stochastic Branching Processes with Continuos State Space Czech. Math. J., 8 (1958) 292 313

128

BIBLIOGRAF IA

[9] Kamke, E. Dierentialgleichungen, Lsungs-Methoden und o Lsungen o II. Liepzig: Akademische Verlagsgesellschaft, 1944 [10] Kolmogorov, A. N.; Gnedenko, B. V. Limit Distributions for Sums of Independent Random Variables Mass., Addison-Wesley Publishing Company, 1954 [11] Lamperti, John Continuos State Branching Processes Bull. Am. Math. Soc., 73 (1967) 382 386 [12] Lamperti, John cesses Limiting Distributions of Branching Pro-

Proc. Fifth Berkeley Symp., Vol. II, Part 2 (1967) 225 241 [13] Lamperti, John Stochastic Processes a Survey of the Mathematical Theory Berlin, Springer-Verlag, 1977 [14] Lamperti, John The Limit of a Sequence of Branching Processes Z. Wahrscheinlichkeitstheorie verw. Geb., 7 (1967) 271 288 [15] Silverstein, M. L. A New Aproach to Local Time J. Math. Mech., 17 (1968) 1023 1054 [16] Tudor, Constantin Procesos Estocsticos a Mxico, D.F., SMM, 1994 e [17] Taylor, M. Howard; Karlin, Samuel A First Course in Stochastic Processes San Diego, Academic Press, 1975 [18] Yosida, Ksuka Funtional Analysis o Berlin, Springer-Verlag, 1971

Potrebbero piacerti anche