Sei sulla pagina 1di 36

Prof. Juan Carlos Briceo Escuela de Ciencias de la Computacin e Informtica Curso: CI-1453 Investigacin de Operaciones.

Facultad de Ingeniera Universidad de Costa Rica.

La Distribucin Exponencial y Procesos de Poisson.

1. Introduccin. En la confeccin de un modelo matemtico, para un fenmeno del mundo real, es siempre necesario hacer algunas presunciones simplificadoras de forma poder observar el desarrollo de las matemticas. Por otro lado no podemos hacer demasiadas simplificaciones ya que nuestras conclusiones, obtenidas del modelo matemtico, no seran aplicables al fenmeno de la vida real. Es decir en resumen, debemos hacer suficientes presunciones para permitirnos manejar las matemticas involucradas, pero no tantas como para que el modelo matemtico resultante no refleje el fenmeno de la vida real. Una de las presunciones que se establecen es la de asumir que ciertas variables aleatorias, son exponencialmente distribuidas. La razn, es que la distribucin exponencial es a la vez fcil de trabajar y es una buena aproximacin de la variable aleatoria bajo observacin. La propiedad esencial de la distribucin exponencial que hace de ella fcil de analizar es que no se deteriora con el tiempo. Por esto entendemos que si la variable, del fenmeno de la vida real, es exponencialmente distribuida, entonces un artculo, o pieza, que ha sido utilizado por un nmero determinado de horas, es tan bueno como cualquier artculo nuevo en vista del tiempo restante hasta que el artculo falle. Esto se demostrar posteriormente donde se ver que la exponencial es la nica distribucin que procesa esta propiedad. Luego estudiaremos procesos de conteo haciendo nfasis en lo que llamamos un proceso de Poisson. Descubriremos luego su relacin ntima con la distribucin exponencial.

Todos los Derechos Reservados, Juan Carlos Briceo.

22. La Distribucin de Exponencial. 2.1. Definicin. Una variable aleatoria continua X, se dice tener una distribucin exponencial con parmetro l, l >0, si su funcin de densidad de probabilidad est dada por: f ( x) =

e kx ,
0,

x0 x<0

O, igualmente, su funcin de distribucin acumulativa o de densidad de probabilidad est dada por:


F ( x) =
x

f ( y )y = 1 e x , x 0 0, x<0

La media de la distribucin exponencial, E[X], est dada por:


E [ X ] = xf ( x)x = xe x x
x x

Integrando por partes ( u = x, v = e

x ) nos da:

E [ X ] = xe x | + e x x = 0
0

La funcin generadora del primer momento (t ) de la distribucin exponencial est dado por:

(t ) = E etX
= etx e x x =
0

para t <

(2.1)

Y en general todos los momentos de X pueden ahora ser obtenidos por ecuaciones diferenciales, por ejemplo: 2 E X 2 = (t ) t =0 t 2 = t =0 ( t ) 3 2 = 2

Todos los Derechos Reservados, Juan Carlos Briceo.

De3 lo anterior, obtenemos tambin: Var(X) = E X 2 ( E [ X ])


= = 2
2

2.2. Propiedades de la Distribucin Exponencial.

Una variable aleatoria X se dice sin memoria, si:

P { X > s + t X > t} = P { X > s} para toda s, t 0.

(2.2)

Si suponemos X siendo la vida media de un instrumento, la ecuacin (2.2) afirma que la probabilidad que el instrumento funcione por lo menos s +t horas dado que ha funcionado t horas, es la misma que la probabilidad inicial de que funcione por lo menos s horas. En otras palabras, si el instrumenta funciona en el tiempo t, entonces la distribucin del resto del tiempo de que funcione es la misma que la distribucin de esperanza de vida original, es decir que, el instrumento no recuerda que ha funcionado por un tiempo t. La probabilidad condicional de la ecuacin (2.2) es equivalente a:
P { X > s + t , X > t} P { X > t} o, = P { X > s}

P { X > s + t} = P { X > s} P { X > t}

(2.3)

Puesto que la ecuacin (2.3) se satisface para X exponencialmente distribuida puesto que (e ( s +t ) = e s e t ), entonces variables aleatorias exponencialmente distribuidas son sin memoria.

Todos los Derechos Reservados, Juan Carlos Briceo.

Ejemplo a.4 Suponga que el tiempo que duramos en un banco es exponencialmente distribuido de media 1 10 minutos, es decir = 10 . Cul es la probabilidad de que un cliente durar ms de 15 minutos en el banco? Cul es la probabilidad que un cliente durar ms de 15 minutos dado que permanece an en el banco luego de 10 minutos?

Solucin. Si X representa el tiempo que un cliente dura en el banco, entonces la primera probabilidad es: P { X > 15} = e 15 = e 3/ 2 0.220 La segunda pregunta pide la probabilidad que un cliente que ya ha durado 10 minutos en el banco deber durar por lo menos 5 minutos ms. Sin embargo dado que la distribucin exponencial es sin memoria, es decir no recuerda que el cliente ha durado ya 10 minutos en el banco, debe ser igual a la probabilidad de que un cliente que acaba de entrar tenga una expectativa de durar por lo menos 5 minutos en el banco. Es decir, la probabilidad deseada es: P { X > 5} = e 5 = e 1/ 2 0.604

Ejemplo b. Considere una oficina de correos atendida por dos empleados postales. Suponga que cuando el seor S. entra en el sistema descubre que el seor J. est siendo servido por uno de los empleados y el seor B. por el otro. Suponga tambin que al seor S. se le comunica que ser atendido tan pronto como el seor J. o el seor B. hayan sido atendidos. Si el tiempo que un empleado postal dura en atender un cliente es una variable aleatoria exponencialmente distribuida con media 1/ , cul es la probabilidad que, de los tres clientes, el seor S. sea el ltimo en salir de la oficina de correos?

Solucin. La solucin se obtiene razonando: Considere el tiempo en el cual el seor S. encuentra un empleado postal libre.

En este punto, o el seor J. o el seor B. estar siendo atendido an. Sin embargo, por la falta de memoria de la exponencial, el tiempo que este hombre (el seor J. o el seor B.) debera an ser atendido es una distribucin exponencialmente distribuida con media 1/ . Es decir, es el mismo que si acabase de llegar. Por lo tanto, por simetra, la probabilidad que termine antes que el seor S. debe ser igual a .

Todos los Derechos Reservados, Juan Carlos Briceo.

Resulta5 que no slo la distribucin exponencial es sin memoria, sino que es la nica que posee esta propiedad. Suponga que X es sin memoria, y sea F ( x) = P { X > x}. Entonces por la ecuacin (2.3) se deduce que:
F ( s + t ) = F ( s ) F (t )

Es decir, F ( x) satisface la ecuacin funcional: g ( s + t ) = g ( s ) g (t ) Sin embargo, slo soluciones continuas a la derecha de esta ecuacin funcional son: g ( x) = e x (*) y puesto que la funcin de distribucin es siempre continua a la derecha, debemos tener que: F ( x) = e x o, F ( x) = P { X x} = 1 e x Lo que muestra que X es exponencialmente distribuida. (*) Se demuestra de la siguiente forma: 2 Si g ( s + t ) = g ( s) g (t ), entonces: g ( n ) = g ( 1 + 1 ) = g 2 ( 1 ) n n n Repitiendo esto, g (m / n) = g m (1/ n). Adems: g (1) = g ( 1 + 1 + ... + 1 ) = g n ( 1 ), o g ( 1 ) = ( g (1) ) n n n n n Entonces, g (m / n) = ( g (1) ) que g ( x) = ( g (1) ) . = log( g (1)).
x m/n

1/ n

lo que implica que, puesto que g es continua a la derecha, tal

Puesto que, g(1)=

( g( 1 )) 2

0 obtenemos que g ( x) = e x , donde

Todos los Derechos Reservados, Juan Carlos Briceo.

La6 propiedad de sin memoria se ilustra por la funcin de tasa de fallo (tambin llamada funcin de tasa de azar) de la distribucin exponencial. Considere una variable aleatoria continua X con funcin de distribucin F y densidad f. La funcin de tasa de fallo o azar, r(t) se define por: r (t ) = f (t ) 1 F (t ) (2.4)

Para interpretar r(t), supongamos que X ha sobrevivido, contina en funcionamiento, por t horas, y deseamos obtener la probabilidad que X no sobrevivir por un tiempo adicional t. Es decir, considerando P { X (t , t + t ) X > t} : P { X (t , t + t ) X > t} = = P { X > t}

P { X (t , t + t ), X > 1}

P { X (t , t + t )} P { X > 1}

f (t )t 1 F (t ) = r (t )t

Es decir que, r(t) es la densidad de la probabilidad condicional que un artculo de t aos de antigedad fallar. Supongamos ahora que la distribucin de esperanza de vida es exponencial. Entonces, por la propiedad de no memoria, se tiene que la distribucin de vida restante para un artculo de t aos de antigedad es la misma que para un artculo nuevo. Entonces r(t) debe de ser constante. Puesto que:
r (t ) = = f (t ) 1 F (t )

e t
e t

Por esto, el parmetro es referido como la tasa de la distribucin. (Note que la tasa es el recproco de la media y viceversa.)

Todos los Derechos Reservados, Juan Carlos Briceo.

Es7 de notar que la tasa de fallo r(t) determina la distribucin F. Para probarlo notemos que por la ecuacin (2.4): r (t ) = Integrando en ambos lados:
log(1 F (t )) = r (t )t + k
t

/ tF (t ) 1 F (t )

o,

1 F (t ) = e exp r (t )t
k
0

Si t =0, entonces k=0 y por lo tanto:

F (t ) = 1 exp r (t )t
0

2.3. Propiedades suplementarias de la Distribucin exponencial.

Sean X 1 , X 2 ,...., X n variables aleatorias independientes e idnticamente exponencialmente distribuidas con media 1/ . Entonces del curso de probabilidades y estadstica, resulta que X 1 + X 2 + .... + X n tiene una distribucin gama de parmetros n y . Podemos retomar esa propiedad y demostrarla por induccin. Como no hay nada que probar para el caso n = 1, iniciemos con asumir que X 1 + X 2 + .... + X n 1 tiene densidad la gamma dada por:
f X1 + X 2 +...+ X n1 (t ) = e t ( t ) n 2 (n 2)!

Entonces,
f X1 + X 2 +...+ X n1 + X n (t ) = f X n (t s ) f X1 + X 2 +...+ X n1 ( s )s
0

= e
0

(t s )

( s ) n 2 s (n 2)

= e t

( t ) n 1 (n 1)!

Lo que prueba el resultado.

Todos los Derechos Reservados, Juan Carlos Briceo.

Otro8 clculo til es la determinacin de la probabilidad que una variable aleatoria exponencial es ms pequea que otra exponencial. Es decir, suponiendo que X1 y X2 son variables aleatorias independientes exponencialmente distribuidas con medias respectivas 1/ 1 y 1/ 2 ; entonces cul es el valor de P { X 1 < X 2 } ? Esta probabilidad se calcula condicionando en X2:
P { X 1 < X 2 } = P { X 1 < X 2 X 2 = x} 2 e 2 x x

= P { X 1 < x} 2 e 2 x
0

= (1 e1x )2 e 2 x = 2 e 2 x x 2 e ( 1 + 2 ) x x
0 0

=1

1 + 2

1 + 2

(2.5)

Ejemplo Supongamos que tenemos un sistema estreo, que consiste en dos partes principales, una radio y un parlante. Si el tiempo de vida de la radio es exponencialmente distribuida, con media de 1000 horas, y el tiempo de vida del parlante es exponencialmente distribuido con media 500 horas independiente del tiempo de vida de la radio, entonces cul es la probabilidad de falla del sistema (cuando ocurra) por causa de falla de la radio?

Solucin. De la ecuacin (2.5) con ( 1 = 1/1000, 2 = 1/ 500 ) entonces la respuesta es: 1/1000 1 = . 1/1000 + 1/ 500 3

Todos los Derechos Reservados, Juan Carlos Briceo.

3. El Proceso de Poisson. 9 3.1. El proceso de conteo.

Un proceso estocstico { N (t ), t 0} , se dice un proceso de conteo si N(t) representa el nmero total de eventos que ocurrieron en el tiempo t. De la definicin, se ve que un proceso de conteo debe de satisfacer: (i) (ii) (iii) (iv)
N(t) 0. N(t) es de valor entero. Si s < t, entonces N ( s ) N (t ). Para s<t, N (t ) N ( s) es igual al nmero de eventos que ocurrieron en el intervalo (s,t).

Un proceso de conteo se dice poseer incrementos independientes si el nmero de eventos que ocurren en intervalos de tiempo disjuntos son independientes. Por ejemplo, esto significa que el nmero de eventos que ocurrieron en el tiempo 10 (N(10)) debe ser independiente del nmero de eventos que ocurren entre 10 y 15 (es decir, N (15) N (10) ).

Un proceso de conteo se dice poseer incrementos estacionarios si la distribucin del nmero de eventos que ocurren en cualquier intervalo de tiempo depende nicamente del tamao del intervalo de tiempo. Es decir, el proceso posee incrementos estacionarios si el nmero de eventos en los intervalos ( t1 + s, t2 + s ) es decir ( N (t2 + s ) N (t1 + s ) ) tiene las misma distribucin que el nmero de eventos en el intervalo ( t1 , t2 ), (es decir N (t2 ) N (t1 ) ) para todo t1 < t2 , y s > 0.

Todos los Derechos Reservados, Juan Carlos Briceo.

3.2. Definicin de Proceso de Poisson10.

Uno de los procesos de conteo ms importantes es el Proceso de Poisson que se define como sigue:
Definicin 3.1. El proceso de conteo { N (t ), t 0} se dice Proceso de Poisson con tasa

, > 0, si:
(i) (ii) (iii)
N(0) =0. El proceso posee incrementos independientes. El nmero de eventos, en cualquier intervalo de tamao t es distribuido Poisson con media t. Esto es, si para todo s, t 0. P { N (t + s ) N ( s ) = n} = e
t

( t ) n , n = 0,1,... n!

Notemos que de la condicin (iii) un proceso de Poisson tiene incrementos estacionarios y que: E [ N (t ) ] = t lo que explica por qu es llamado la tasa del proceso. La forma de determinar si un proceso de conteo arbitrario es un proceso de Poisson, es la de mostrar que las condiciones (i), (ii) y (iii) se satisfacen. La condicin (i), simplemente anuncia que el conteo de eventos inicia en el tiempo t=0, y la condicin (ii) puede usualmente ser verificada del conocimiento del proceso. Sin embargo, no es para nada claro cmo la condicin (iii) se satisface, y por esta razn una definicin equivalente de proceso de Poisson sera til.

Definicin.

La funcin f(.) se dice o(h) si: lim


h 0

f ( h) =0 h

Definicin 3.2. El proceso de conteo { N (t ), t 0} se dice ser un proceso de Poisson con

tasa , > 0, si (i) N(0) =0 El proceso tiene incrementos estacionarios e independientes. (ii) P { N (h) = 1} = h + o(h). (iii) (iv)
P { N (h) 2} = o(h).

10

Todos los Derechos Reservados, Juan Carlos Briceo.

10

11

Teorema 3.1 Las definiciones 3.1 y 3.2 son equivalentes.

Demostracin.
Probemos (3.2.)(3.1) Sea: Pn (t ) = P { N (t ) = n}

Derivemos una ecuacin de diferencias para P0(t): P0 (t + h) = P { N (t + h) = 0} = P { N (t ) = 0, N (t + h) N (t ) = 0} = P0 (t ) [1 h + o(h) ] = P { N (t ) = 0} P { N (t + h) N (t ) = 0}

(* ) (**)

Donde las ecuaciones (*) y (**) son consecuencia de la presuncin (ii) ms el hecho que las presunciones (iii) y (iv) implican que P { N (h) = 0} = 1 h + o(h), entonces: P ( t + h ) P0 (t ) h = P0 (t ) + o( h) h

Haciendo h 0 obtenemos P0(t ) = P0 (t ) P(t ) O de forma equivalente: 0 = P0 (t ) Lo que implica por integracin: log P0 (t ) = t + c P0 (t ) = Ke t

Puesto que P0 (0) = P { N (0) = 0} = 1, Entonces: P0 (t ) = e t (3.1)

Similarmente, para n >0, Pn (t + h) = P { N (t + h) = n} = P { N (t ) = n, N (t + h) N (t ) = 0} + P { N (t ) = n 1, N (t + h) N (t ) = 1} + P { N (t ) = n k , N (t + h) N (t ) = k }


k =2 n

11

Todos los Derechos Reservados, Juan Carlos Briceo.

11

Sin12 embargo por la hiptesis (iv), el ltimo trmino es o(h); entonces, por la hiptesis (ii), obtenemos: Pn (t + h) = Pn (t ) P0 (h) + Pn 1 (t ) P (h) + o(h) 1 = (1 h) Pn (t ) + hPn 1 (t ) + o(h)

Entonces: Pn (t + h) Pn (t ) o( h) = Pn (t ) + Pn 1 + h h y, haciendo h 0 conduce a: Pn(t ) = Pn (t ) + Pn 1 (t ) o de forma equivalente,


et [ Pn(t ) + Pn (t ) ] = et Pn 1 (t )

entonces: t (e Pn (t )) = et Pn 1 (t ) t Por la ecuacin (3.1) tenemos: t (e P (t )) = 1 t o, P (t ) = ( t + c)e t 1 y, puesto que P (0) = 0, conduce a: 1 P (t ) = te t 1 Para mostrar que Pn (t ) = e t ( t ) n / n !, usamos induccin. Asumamos n= 1, por la ecuacin (3.2): t nt n 1 (e Pn (t )) = t (n 1)! (3.2)

12

Todos los Derechos Reservados, Juan Carlos Briceo.

12

O13: ( t ) n +c n! Lo que implica el resultado ya que Pn (0) = 0. et Pn (t ) = Esto muestra que la definicin (3.2) implica la definicin (3.1). El inverso se deja al lector como ejercicio.

Observaciones. El resultado que N(t) tenga una distribucin de Poisson es una consecuencia de que, la distribucin de Poisson, es una aproximacin de la distribucin binomial (ver el curso de Probabilidades y Estadstica).

Podemos verlo subdividimos el intervalo [0, t] uniformemente en k partes, con k muy grande.

t k

2t k

t=

kt k

Usando el axioma (iv) de la definicin (3.2) cuando k se incrementa hacia la probabilidad de tener dos o ms eventos en cualquiera de los k intervalos tiende a 0. Entonces, N(t) (con probabilidad tendiendo a 1) igualar el nmero de subintervalos en los cuales ocurre un evento. Sin embargo por incrementos estacionarios e independientes este nmero tendr una distribucin binomial con parmetros k y p = t / k + o(t / k ). Entonces, aproximando por Poisson la binomial, vemos que, dejando k aproximarse a , N(t) tendr una distribucin de Poisson con media igual a:

t [to(t / k )] = t t lim k + o = t + lim k 0 k t/k k k


Lo anterior, usando la definicin de o(h) y el hecho que t / k 0 cuando t .

13

Todos los Derechos Reservados, Juan Carlos Briceo.

13

3.314. Distribuciones de tiempo entre arribos y tiempos de espera.

Consideremos un proceso de Poisson, y denotemos el tiempo del primer arribo por T1, y sea para n>1, Tn el tiempo transcurrido entre el (n- 1)simo y el nsimo evento. La secuencia {Tn , n = 1, 2,..} es llamada la secuencia de tiempos entre arribos. Por ejemplo si T1= 5 y T2= 10, entonces el primer evento ocurri en el tiempo 5 y el segundo en el tiempo 15. Determinaremos la distribucin de tiempos Tn. Notemos primero que el evento {T1 > t} tiene lugar si y solamente si, ningn evento del proceso de Poisson ocurre en el intervalo [0, t] y por lo tanto: P {T1 > t} = P { N (t ) = 0} = e t Entonces, T1 tiene una distribucin exponencial con media 1/ . Para: Sin embargo, P {T2 > t} = E P {T2 > t T1} (3.3)

P {T2 > t T1 = s} = P {0 eventos en ( s, s + t ) T1 = s}

= P {0 eventos en ( s, s + t )} = e t Las dos ltimas ecuaciones consecuencia de incrementos independientes y estacionarios. Por lo tanto de la ecuacin (3.3) concluimos que T2 es tambin una variable aleatoria exponencial con media 1/ , y adems que T2 es independiente de T1. Repitiendo el mismo argumento, inferimos:

Proposicin 3.1. Tn, = 1,2,.., son variables aleatorias exponencialmente distribuidas con media 1/ .

independientes indnticamente

Nota. La proposicin anterior no debera sorprendernos, la presuncin de incrementos estacionales e independientes es bsicamente equivalente a afirmar que en cualquier tiempo, el proceso probabilsticamente se reinicia a s mismo. Esto es que, el proceso a partir de cualquier punto es independiente de todo lo previamente ocurrido (por incrementos independientes), y adems tiene la misma distribucin que el proceso original (por incrementos estacionarios). En otras palabras, El proceso no tiene memoria, y por lo tanto, tiempos entre arribos exponenciales son predecibles.

14

Todos los Derechos Reservados, Juan Carlos Briceo.

14

Otra cantidad de inters es Sn, el tiempo de arribo del ensimo evento, tambin llamado tiempo de espera hasta el ensimo evento.
Sn = Ti ,
i =1 n

15

n 1

Y por la proposicin 3.1. y la seccin anterior (2.2), se deduce que Sn tiene una distribucin gama con parmetros n y . Es decir que, la densidad de probabilidad de Sn, est dada por:
f Sn (t ) = e t (t ) n 1 , t0 (n 1)!

(3.4)

La ecuacin (3.4) puede tambin ser derivada por el ensimo evento que ocurrir a priori o en el tiempo t si y slo si el nmero de eventos ocurriendo en el tiempo t es por lo menos n. Es decir, N (t ) n Sn t y por lo tanto, usando su funcin de distribucin: FSn (t ) = P {Sn t} = P { N (t ) n} = e
j =n t

( t ) j j!

Lo cual, bajo diferenciacin conduce a: f Sn (t ) = e


j =n t j 1 ( t ) j t ( t ) + e j! ( j 1)! j =n

= e t = e
t

(t ) n 1 (t ) j 1 ( t ) j + e t e t j! (n 1)! j = n +1 ( j 1)! j = n

(t ) n 1 (n 1)!

Ejemplo. Supongamos que la gente emigra de un lugar a otro con una tasa de Poisson = 1 por da. (a) Cul es el tiempo esperado hasta el arribo del 10mo emigrante? (b) Cul es la probabilidad de que el tiempo transcurrido entre la10sima y la 11ava llegada exceda 2 das?

Solucin (a) E [ S10 ] = 10 / = 10 das. (b) P {T11 > 2} = e 2 = e 2 0.133


15

Todos los Derechos Reservados, Juan Carlos Briceo.

15

La16 proposicin 3.1. nos da una forma alterna de definir un proceso de Poisson. Supongamos que iniciamos con una secuencia {Tn , n 1} de variables aleatorias independientes, idnticamente exponencial distribuidas cada una con media 1/ . Luego definamos un proceso de conteo diciendo que el nsimo evento de de este proceso ocurre en el tiempo: Sn = T1 + T2 + ... + Tn . El proceso de conteo resultante { N (t ), t 0} ser Poisson con tasa . Formalmente, la definicin de N(t) est dada por: N (t ) max {n : S n t} donde S0 0.

3.4. Propiedades suplementarias de los Procesos de Poisson. Consideremos un proceso de Poisson, { N (t ), t 0} con tasa y supongamos que cada vez

que un evento ocurre, se clasifica como de tipo I o de tipo II. Supongamos adems que todo evento clasificado de tipo I tiene probabilidad p y de tipo II tiene probabilidad 1-p independientemente de cualquier otro evento. Por ejemplo, supongamos que clientes llegan a un almacn de acuerdo con un proceso de Poisson con tasa ; y suponga que en cada arribo, un hombre tiene una probabilidad de llegada de y una mujer de tambin. Entonces, definimos arribos de tipo I como llegadas masculinas y de tipo II de llegadas femeninas. Sean N1(t) y N2(t) respectivamente el nmero de eventos de tipo I y de tipo II que ocurren en [0, t]. Notemos que N (t ) = N1 (t ) + N 2 (t ).

Proposicin 3.2.

{ N1 (t ), t 0}

y { N 2 (t ), t 0} son procesos de Poisson con tasas

respectivas p y (1 p ). Adems los dos procesos son independientes. Demostracin. Para demostrar esto, calculemos la probabilidad conjunta: P { N1 (t ) = n, N 2 = n}. Condicionando sobre N (t ) = k , k > 0 P { N1 (t ) = n, N 2 = n} = P { N1 (t ) = n, N 2 (t ) = m N (t ) = k} P { N (t ) = k }
k =0

De manera a tener n eventos de tipo I y m eventos de tipo II deben haber un total de n +m eventos ocurriendo en [0, t]. Es decir: P { N (t ) = n, N 2 (t ) = m N (t ) = k} = 0 cuando, k n + m

16

Todos los Derechos Reservados, Juan Carlos Briceo.

16

Entonces17, P { N1 (t ) = n, N 2 (t ) = m} = P { N 1(t ) = n, N 2 = m N (t ) = n + m} P { N (t ) = n + m}
= P { N1 (t ) = n, N 2 (t ) = m N (t ) = n + m} e t ( t ) n + m (n + m)!

Sin embargo, dado que n +m eventos ocurren y puesto que cada evento de tipo I tiene probabilidad p y cada uno de tipo II tiene probabilidad (1-p), entonces la probabilidad que n de ellos sean de tipo I y m de ellos sean de tipo II es la probabilidad binomial: ( nn+m ) p n (1 p)m . Entonces.
P { N1 (t ) = n, N 2 (t ) = m} = ( n + m ) p n (1 p ) m e t n ( t ) n + m (n + m)!

=e Entonces,

tp

(tp) n t (1 p ) ( t (1 p)) m e n! m!

(3.5)

P { N1 (t ) = n} = P { N1 (t ) = n, N 2 (t ) = m}
m=0

=e =e

tp

(tp) n n! (tp) n n!

m=0

t (1 p )

(t (1 p)) m m!

tp

Es decir { N1 (t ), t 0} es un proceso de Poisson con tasa p. Similarmente: (t (1 p )) m m! Y por lo tanto { N 2 (t ), t 0} es un proceso de Poisson con tasa (1 p). P { N 2 (t ) = m} = e t (1 p ) Finalmente, de la ecuacin (3.2) se deduce que ambos procesos son independientes (puesto que la funcin de distribucin conjunta est compuesta de factores separados de funciones de distribucin de cada distribucin).

17

Todos los Derechos Reservados, Juan Carlos Briceo.

17

Observaciones. 18 No es sorprendente que { N1 (t ), t 0} y { N 2 (t ), t 0} sean procesos de Poisson. Lo que si

puede serlo es el hecho que sean independientes. Por ejemplo asuma que clientes llegan a un banco con una tasa de Poisson de = 1 cada hora y supongamos que cada cliente tiene un probabilidad de ser hombre de y de ser mujer de . Supongamos que 100 hombres llegan en las primeras 10 horas. Entonces, cuntas mujeres se espera hayan llegado en ese tiempo? Se podra decir que dado que el nmero de llegadas de hombres es 100 y cada una de esas llegadas es de probabilidad , entonces el nmero de llegadas total esperadas en ese perodo de tiempo es de 200 de las cuales 100 son mujeres. Pero como se mostr en la proposicin anterior, un tal razonamiento es falso y el nmero esperado de llegadas de mujeres en esas 10 horas es de 5, independientemente del nmero de llegadas de hombres. Para obtener de forma intuitiva como la proposicin anterior es verdadera, veamos lo siguiente: Si se subdivide el intervalo (0, t) en n subintervalos de tamao igual t/n, donde n es muy grande, entonces (descuidando eventos de probabilidad o(h)) cada subintervalo tendr un probabilidad t / n de contener un slo evento. Como cada evento tiene probabilidad p de ser de tipo I, entonces cada n de los subintervalos tendr sea no eventos, eventos de tipo I, o eventos de tipo II con probabilidades respectivamente: 1

t t
n , n

p,

t
n

(1 p)

De la proposicin que establece la Poisson como lmite de la binomial, podemos concluir entonces que N1(t) y N2(t) son distribuidas Poisson respectivamente con medias p y t (1 p). Para ver que son independientes, supongamos que N1(t) = k, entonces de los n intervalos, k contender un evento de tipo I y los otros n -k contendrn un evento de tipo II con probabilidad: t (1 p ) t t n = (1 p ) + o P {de tipo II no es de tipo II} = t n n 1 p n

18

Todos los Derechos Reservados, Juan Carlos Briceo.

18

Entonces, 19 como n -k sera un nmero muy grande, vemos a partir del teorema de Poisson siendo el lmite, que dado N1(t) = k, N2(t) ser de Poisson con media lim [ (n k ) t (1 p ) / n ] = t (1 p ), y entonces se establece la independencia.
n

Ejemplo Si los emigrantes a la zona A llegan con una tasa de Poisson de 10 por semana, y si cada emigrante de descendencia espaola es con probabilidad 112 , entonces cul es la probabilidad que ninguna persona de descendencia espaola emigrar a la zona A durante el mes de febrero?

Solucin. Por la proposicin anterior, el nmero de descendientes espaoles emigrando a la zona A 1 durante el mes de febrero es distribuido Poisson con media 4*10* 12 = 10 . Entonces, la 3 probabilidad deseada es: e 3 .
10

La proposicin, se puede generalizar fcilmente al caso donde la clasificacin es de uno de r grupos, tenemos la siguiente aplicacin a un modelo de agentes mutando en una organizacin.
Ejemplo Considere un sistema donde agentes en cualquier perodo de tiempo pueden clasificarse estando en uno de r estados de acuerdo a una cadena de Markov con probabilidades de transicin Pij, i,j = 1,2..,r. Es decir, si un agente est en el estado i durante un perodo de tiempo entonces, independientemente de sus estados anteriores, estar en el estado j durante el prximo perodo de tiempo con probabilidad Pij. Se supone que los agentes mutan independientemente de los otros agentes del sistema.

Supongamos que el nmero de agentes inicialmente en los estados 1,2,..,r son variables aleatorias independientes de Poisson con media respectivas: 1 , 2 ,..., r . Estamos interesados en determinar la distribucin conjunta del nmero de agentes en estados 1,2,,r en algn tiempo n. Solucin. Para un i fijo, sea Nj(i), j= 1,2,..,r, el nmero de esos individuos inicialmente en el estado i, que estn en el estado j en el tiempo n. Cada uno de los nmeros de agentes (distribuidos Poisson) inicialmente en el estado i estar, independientemente de los otros, en el estado j en el tiempo n con probabilidad Pijn , donde Pijn es la probabilidad de nsima transicin de estado para la cadena de Markov con probabilidad de transicin Pij. Entonces, las Nj(i), j= 1,2..,r sern variables aleatorias de Poisson independientes con medias respectivas i Pij , j = 1, 2,..r.

19

Todos los Derechos Reservados, Juan Carlos Briceo.

19

Puesto que la suma de variables aleatorias de Poisson independientes es una variable aleatoria de Poisson, entonces el nmero de agentes en el estado j en el tiempo n r ( i =1 N j (i ) ) sern variables aleatorias de Poisson independientes con media respectiva:

20

P ,
i n i ij

para j = 1, 2,.., r.

La prxima probabilidad relacionada con los procesos de Poisson que nos interesa es la probabilidad que n eventos ocurran en un proceso de Poisson antes que m eventos ocurran en un segundo proceso independiente de Poisson. Formalmente, sean

{ N1 (t ), t 0}

y { N 2 (t ), t 0} dos procesos de Poisson con medias


1 n

2 respectivas 1 y 2 . Sea tambin S el tiempo del nsimo evento del primer proceso, y S m el tiempo del msimo evento del segundo proceso.
1 2 Buscamos: P {S n < Sm } .

(3.6)

Antes de calcular (3.6) para un n y m generales, consideremos el caso especial n = m = 1.


1 Puesto que S1 , el tiempo del primer evento del proceso N1(t), y S12 , el tiempo del primer evento del proceso N2(t), son ambos variables aleatorias exponencialmente distribuidas (por la proposicin 3.1) con medias respectivas 1 1 y 1 2 , se concluye (por la seccin 2) que: 1 P {S1 < S12 } =

1 + 2

(3.7)

Calculemos ahora la probabilidad de que dos eventos ocurran en el proceso N1(t) antes que 1 ningn evento ocurra en el proceso N2(t). Esto es P {S2 < S12 } . Para calcular esto, razonamos de la siguiente forma: Para que el proceso N1(t) tenga dos eventos antes que ninguno que ocurra sea un evento del proceso N2(t), es necesario que el primer evento que ocurra debe ser un evento del proceso N1(t) (esto ocurre por la ecuacin (3.7) con probabilidad 1 ( 1 + 2 ) ).
1 Puesto que el evento inicial es del proceso N1(t), la prxima ocurrencia para que S2 sea menos que S12 es que el prximo evento tambin ocurra en el proceso N1(t).

Sin embargo, cuando el primer evento ocurre ambos procesos se reinician nuevamente (por la propiedad de no memoria de los procesos de Poisson) y entonces su probabilidad condicional es tambin 1 ( 1 + 2 ) .

20

Todos los Derechos Reservados, Juan Carlos Briceo.

20

Entonces21 la probabilidad deseada est dada por:


1 P {S < S } = 1 + 2
1 2 2 1 2

En realidad este razonamiento muestra que cada evento que ocurre ser un evento del proceso con probabilidad 1 ( 1 + 2 ) y un evento del proceso N2(t) con probabilidad 1 ( 1 + 2 ) , independientemente de todo lo ocurrido previamente. En otras palabras, la probabilidad de que el proceso N1(t) llegue a n antes de que el proceso N2(t) llegue a m es justamente la probabilidad de que n cruces aparezcan antes de m caras si uno tira una moneda con probabilidad p = 1 ( 1 + 2 ) de que aparezca una cara. Pero observando que este evento ocurrir si y solo si las primeras n + m -1 tiradas resultan en n o ms cabezas. Vemos entonces que la ecuacin de probabilidad deseada est dada por:
P {S < S
1 n

2 m

}= (
k =n

n + m 1

n + m 1 k

) 1 2 1+ 2 1+ 2

n + m 1 k

21

Todos los Derechos Reservados, Juan Carlos Briceo.

21

3.5. Distribucin condicional de tiempos de arribo22. Supongamos que exactamente un evento de un proceso de Poisson ocurri en el tiempo t, y buscamos determinar la distribucin de tiempo en el cual ste ocurri.

Puesto que el proceso de Poisson tiene incrementos estacionarios e independientes, es razonable suponer que cada intervalo en [0, t] de igual tamao, tienen la misma probabilidad de contener un evento. En otras palabras, el tiempo del evento debe ser uniformemente distribuido sobre [0, t]. Esto es fcil de verificar: Para s t :

P {T1 < s N (t ) = 1} =
= = = =

P {T1 < s, N (t ) = 1}
P {1 evento en [0, s ), 0 eventos en [ s, t )} P { N (t ) = 1} P {1 evento en [0, s)} P {0 eventos en [ s, t )} P { N (t ) = 1}

P { N (t ) = 1}

se s e ( t s ) te t
s t

Definicin. Sean Y1 , Y2 ,..., Yn

n variables aleatorias. Decimos que Y(1) , Y(2) ,..., Y( n ) son el

orden estadstico correspondiente a Y1 , Y2 ,..., Yn si Y( k ) es el ksimo valor ms pequeo entre Y1 , Y2 ,..., Yn , k = 1, 2..., n. Por ejemplo si n = 3, y Y1 = 4, Y2 = 5, Y3 = 1 , entonces Y(1) = 1, Y(2) = 4, Y(3) = 5.
Lema. Si las Y1 , Y2 ,..., Yn son independientes, variables aleatorias continuas idnticamente distribuidas con densidad de probabilidad f, entonces la densidad conjunta del orden estadstico Y(1) , Y(2) ,..., Y( n ) est dado por:

f ( y1 , y2 ,..., yn ) = n ! f ( yi ),
i =1

y1 < y2 < ... < yn

22

Todos los Derechos Reservados, Juan Carlos Briceo.

22

23

Lo anterior es consecuencia de: ( Y(1) , Y(2) ,..., Y( n ) ) igualar ( y1 , y2 ,..., yn ) si ( Y1 , Y2 ,..., Yn ) es igual a cualquiera de (i) (ii) las n! permutaciones de ( y1 , y2 ,..., yn ). La densidad de probabilidad que ( Y1 , Y2 ,..., Yn ) es igual a yi1 , yi2 ,..., yin es

f ( yi j ) = j =1 f ( y j ) cuando ( i1 , i2 ,..., in ) es una permutacin de 1, 2,..., n. j =1


n

Si las Y1 , Y2 ,..., Yn son uniformemente distribuidas sobre (0, t) obtenemos entonces, de lo anterior, que la funcin de densidad conjunta del orden estadstico Y(1) , Y(2) ,..., Y( n ) es:
f ( y1 , y2 ,..., yn ) = n! , 0 < y1 < y2 < ... < yn < t. tn

Teorema 3.2. Dado que N(t) = n; los n tiempos de llegada S1 , S 2 ,..., S n tienen la misma distribucin que el orden estadstico correspondiente a n variables aleatorias independientes uniformemente distribuidas en el intervalo (0, t).

Demostracin.

Para obtener las densidades condicionales de S1 , S 2 ,..., S n dado que N(t) = n notemos que para 0 < s1 < s2 < ... < sn < t el evento que S1 = s1 , S2 = s2 ,..., S n = sn , N (t ) = n es equivalente al evento donde los primeros n +1 tiempos entre arribos que satisfacen T1 = s1 , T2 = s2 s1 ,..., Tn = sn sn 1. Entonces, usando la proposicin 3.1 tenemos que las densidades condicionales conjuntas de S1 , S 2 ,..., S n dado que N(t)=n estn dadas por:
f ( s1 , s2 ,..., sn n) = = f ( s1 , s2 ,..., sn , n) P { N (t ) = n}
1 2 1 n n1 n)

e s e ( s s ) ... e ( s s ) e (t s e t ( t ) n / n ! n! = n 0 < s1 < ... < sn < t


t

lo que prueba el resultado.

23

Todos los Derechos Reservados, Juan Carlos Briceo.

23

24

Aplicacin el teorema 3.2. (Muestreo de un Proceso de Poisson)

En la proposicin 3.2. mostramos que si un evento de Poisson es clasificado independientemente de tipo I con probabilidad p y como tipo II con probabilidad (1-p) entonces los procesos de conteo de los eventos de tipo I y II son proceso de Poisson independientes con tasas respectivas p y (1 p ). Supongamos que existen ahora k tipos posibles de eventos y que la probabilidad de que un evento sea clasificado como de tipo i , i = 1,2,,k, depende del tiempo en que el evento ocurre. Especficamente, suponga que si un evento ocurre en el tiempo y entonces se clasificar como de tipo i, independientemente de cualquier otro que haya ocurrido, con probabilidad k Pi ( y ), i = 1, 2,..., k donde i =1 Pi ( y ) = 1.

Proposicin 3.3. Si N i (t ), i = 1,...., k , representa el nmero de eventos de tipo i ocurriendo en el tipo t entonces, Ni(t), i = 1,2,..,k, son variables de Poisson independientes con media:
E [ N i (t ) ] = Pi ( s )s
t
0

Antes de demostrarla veamos la siguiente aplicacin.

Ejemplo (Un servicio de servidores de cola infinito) Suponga que clientes llegan a un puesto de servicio de acuerdo a un proceso de Poisson con tasa . A su arribo, el cliente es atendido inmediatamente por uno del nmero infinito de servidores y asumimos que los tiempos de servicio son independientes con distribucin comn G.

Cul es la distribucin de X(t), el nmero de clientes que completaron su servicio en el tiempo t? Cul es la distribucin de Y(t), el nmero de clientes que son servidos en el tiempo t? Para responder a las preguntas, llamemos a clientes de tipo I aquellos que han completado el servicio en el tiempo t y de tipo II aquellos que no han terminado su servicio en el tiempo t. Si un cliente entra en el tiempo s, s t , entonces ser de tipo I si su tiempo de servicio es menor que t -s.
24

Todos los Derechos Reservados, Juan Carlos Briceo.

24

25

Puesto que, la distribucin de tiempos de servicio es G, la probabilidad anterior ser G (t s ). Similarmente, un cliente entrando en el tiempo s, s t , ser de tipo II con probabilidad 1 G (t s). Entonces,

P ( s) = G (t s ), s t

Y, por la proposicin anterior, obtenemos que la distribucin de X(t), el nmero de clientes que han terminado el servicio para el tiempo t, es distribuida Poisson con media:
E [ X (t )] = G (t s )s = G ( y )y
t t
0 0

(3.8)

Similarmente, la distribucin de Y(t), el nmero de clientes que estn siendo servidos en el tiempo t es Poisson con media:
E [Y (t ) ] = (1 G (t s ))s = (1 G ( y ))y
t t
0 0

(3.9)

Adems, X(t) y Y(t) son independientes. Supongamos ahora que estamos interesados en calcular la distribucin conjunta de Y(t) y Y(t +s), que es la distribucin conjunta del nmero de clientes en el sistema en el tiempo t y en el tiempo t + s. Digamos por ejemplo que la legada de un cliente es:
Tipo 1: Si llega antes del tiempo t y completa el servicio entre t y t +s. Tipo 2: Si llega antes del tiempo t y completa el servicio despus de t +s. Tipo 3: Si llega entre t y t +s y completa el servicio luego de t +s. Tipo 4: De cualquier otra forma.

Entonces, una llegada en el tiempo y ser de tipo i con probabilidad Pi ( y ) dado por:
P ( y) = 1 G (t + s y ) G (t y ) si y < t 0 de otra forma

P2 ( y ) =

1 G (t + s y ) si y < t 0 de otra forma

25

Todos los Derechos Reservados, Juan Carlos Briceo.

25

P3 ( y ) =

1 G (t + s y ) 0

si t < y < t + s de otra forma

P4 ( y ) =

1 P ( y ) P2 ( y ) P3 ( y ) 1

26

Entonces, si Ni = Ni(s +t), i = 1, 2, 3 denota el nmero de eventos de tipo i que ocurren, entonces de la proposicin 3.3, las Ni, i = 1, 2, 3 son independientes variables aleatorias de Poisson con media respectiva:
E [ Ni ] =
t+s

Pi ( y )y, i = 1, 2,3

Puesto que,
Y (t ) = N1 + N 2 Y (t + s ) = N 2 + N 3

Es ahora inmediato calcular probabilidades conjuntas por ejemplo:


Cov [Y (t ), Y (t + s ) ] = Cov( N1 + N 2 , N 2 + N 3 ) = Cov( N 2 , N 2 ) por independencia de N1 , N 2 , N 3 = Var( N 2 ) = [1 G (t + s y ) ]y = [1 G (u + s ) ] u
t t 0 0

La ltima ecuacin pues la varianza de una variable aleatoria de Poisson es igual a su media y por el cambio de variable u = t -y. Tambin, la distribucin de Y(t) y Y(t+s):
P {Y (t ) = i, Y (t + s ) = j} = P { N1 + N 2 = i, N 2 + N 3 = j} = =
min( i , j ) l =0

P {N P {N
l =0

= l , N1 = i l , N 3 = j l} = l} P { N1i l} P { N 3 = j l}

min( i , j )

26

Todos los Derechos Reservados, Juan Carlos Briceo.

26

27

Prueba de la proposicin 3.3. Calculemos la probabilidad conjunta P { N i (t ) = n, i = 1,...k }.

De manera a tener ni eventos de tipo i para i = 1,2,..k deben haber habido un total de k i=1 ni eventos, condicionando un N (t) nos da:
P { N1 (t ) = n1 ,..., N k (t ) = nk }
k k = P N1 (t ) = n1 ,...., N k (t ) = nk = nk N (t ) = ni P N (t ) = ni i =1 i =1

Considerando un evento arbitrario que ocurre en el intervalo [0, t]. Si ocurre en el tiempo s entonces la probabilidad de que sea de tipo i ser Pi(s). Entonces, por el teorema 3.2 este evento ocurri en algn tiempo uniformemente distribuido en (0, t), entonces la probabilidad que este evento sea de tipo i es: Pi = 1 t Pi ( s )s t 0

Independiente del orden de los eventos. Entonces, P N i (t ) = ni , i = 1,..., k N (t ) = i =1 ni igualar la probabilidad multimodal de ni
k

de salida tipo i para i =1,,k cuando cada salida i con probabilidad Pi i = 1,2,,k. Esto es,

i =1 i

n ensayos independientes resultan con

k ni ! k P N1 (t ) = n1 ,..., N k (t ) = nk N (t ) = i =1 ni = i =1 P n1 ...Pknk 1 n1 !...nk !

Consecuentemente,
ni ni ! k n i P n1 ...P nk ( t ) i = P { N1 (t ) = n1 ,..., N k (t ) = nk } = etPi ( tPi ) i ni ! k 1 n1 !...nk ! i =1 ni ! i

27

Todos los Derechos Reservados, Juan Carlos Briceo.

27

28

3.6 Estimacin de la fiabilidad de programas.

Cuando se desarrolla un paquete de programas, normalmente se implementa un procedimiento de prueba para la eliminacin de fallas, faltas y errores. Un procedimiento comn es la de probar el paquete en un conjunto de problemas bien conocidos y ver si ocurre algn error. Se procede por un perodo de tiempo fijo, anotando todos los posibles errores que ocurran. Luego el proceso de pruebas se detiene y el paquete se comprueba para determinar las fallas especficas que son responsables de los errores observados. Luego se altera el paquete de programas de forma a eliminar estos errores. En realidad no podemos estar seguros que todos los errores del paquete hayan sido subsanados, sin embargo, un problema de gran importancia es la estimacin de la tasa de error del paquete de programas revisado. Para modelar lo anterior, supongamos que inicialmente el paquete tiene un nmero indefinido de fallas, m, al que referiremos como falla 1, falla 2, ..., falla m. Supongamos tambin que la falla i causar que los errores ocurran como un proceso de Poisson con tasa desconocida i , i= 1,2,, m. Entonces, el nmero de errores debido a la falla i que ocurre en cualquiera de las s unidades de tiempo es distribuido Poisson con media i s. Supongamos tambin que esos procesos de Poisson causados por la falla i, i = 1,, m son independientes. Supongamos tambin que el paquete de programas debe de ser ejecutado por t unidades de tiempo con todos los posibles errores anotados. Al final de este tiempo, se hace un control al paquete para determinar las fallas especficas que los causaron, Estos errores se corrigieron y el problema es ahora, el de determinar la tasa de error para el paquete revisado. Definamos.

i (t ) =

1 si la falla i no ha causado un error en el tiempo t 0 de otra forma

Entonces, la cantidad que deseamos estimar es: (t ) = i (t ) i


i

(3.10)

la tasa de error del paquete final.


28

Todos los Derechos Reservados, Juan Carlos Briceo.

28

29

Observemos que:
E [ (t ) ] = i E [ i ]
i

= i e it
i

Cada falla descubierta es causante de un cierto nmero de errores. Sea M j (t ) el nmero de fallas que son responsables por j errores, j 1. Es decir M 1 (t ) es el nmero de fallas causantes exactamente de un solo error, M 2 (t ) es el nmero de fallas causantes de 2 errores, etc. con jMj (t ) igualando el nmero total de
j

errores resultantes. Para calcular E [ M 1 (t ) ] , definamos la variables indicador I i (t ), i 1, por


I i (t ) = 1 si la falla i causa exactamente 1 error 0 si no

Entonces, Y entonces,

M 1 (t ) = I i (t ) E [ M 1 (t ) ] = E [ I i (t ) ] = i te it (3.11)
i i i

Y, de las ecuaciones (3.10) y (3.11) obtenemos que: M (t ) E (t ) 1 = 0 t (3.12)

El resultado (3.12) sugiere el uso de M 1 (t ) t como un estimado de (t ). Para determinar que tan buen estimador M 1 (t ) t puede ser de (t ), debemos determinar cuan separadas estas cantidades tienden a ser. Es decir debemos calcular:
2 M (t ) E (t ) 1 t

(* )

29

Todos los Derechos Reservados, Juan Carlos Briceo.

29

30

A partir de (3.12) M (t ) 2 1 (*) = Var (t ) 1 = Var( (t )) Cov( (t ), M 1 (t )) + 2 Var( M 1 (t )) t t t Pero, Var( (t )) = i2 Var( i (t )) = i2 e it (1 e it )
i i

Var( M 1 (t )) = Var( I i (t )) = i te it (1 i te it )
i i

Cov ( (t ), M 1 ) = Cov i (t ), I j (t ) i j i
i
j

= Cov ( i (t ), I j (t ) ) i = i Cov ( i (t ), I i (t ) )
i

(a) (b)

= i e it i te it
i

Donde (a) y (b) se deducen del hecho que i (t ) y I j (t ) son independientes cuando i j puesto que se refieren a diferentes procesos de Poisson y i (t ) I i (t ) = 0. Entonces, se obtiene:
2 E [ M 1 (t ) + 2 M 2 (t ) ] M 1 (t ) 1 i t 2 i t E (t ) = i e + i e = t i t i t2

(c)

Donde (c) se obtiene de (3.11) y de la identidad:


E [ M 2 (t ) ] =
1 2

( t )
i i

e it

(3.13)

30

Todos los Derechos Reservados, Juan Carlos Briceo.

30

31

4. Generalizaciones de Los Procesos de Poisson.

4.1. Procesos de Poisson no Homogneos.

Los procesos de Poisson en los cuales se permite que la tasa de tiempos de llegada en el tiempo t sea una funcin de t.
Definicin. El proceso de conteo

{ N (t ), t 0}

se dice un Proceso de Poisson no

homogneo con funcin de densidad (t ), t 0, si: (i) N(0) = 0 (ii) { N (t ), t 0} tiene incrementos independientes (iii) (iv)
P { N (t + h) N (t ) 2} = o(h) P { N (t + h) N (t ) = 1} = (t )h + o(h).

Si definimos m(t ) = ( s )s, entonces tenemos que:


0

P { N (t + s ) N (t ) = n} = e

[ m ( t + s ) m ( t ) ]

[ m(t + s) m(t )]
n!

,n0

(4.1)

La prueba se efecta en (**). De (4.1), N (t + s ) N (t ) es distribuida Poisson con media m(t + s ) m(t ). Tenemos tambin que N(t) es distribuida Poisson con media m(t), y por esta razn m(t) es llamada la funcin de valor medio del proceso. Observemos que, si (t ) = (es decir que tenemos un proceso de Poisson), entonces m(t ) = t , y la ecuacin (4.1) se reduce a al hecho que para un proceso de Poisson, N (t + s ) N (t ) es distribuida Poisson con media s. (**) Para un t fijo, definimos: Pn ( s ) = P { N (t + s ) N (t ) = n} Entonces, P0 ( s + h) = P { N (t + s + h) N (t ) = 0}

= P {0 eventos en (t , t + s ), 0 eventos en [t + s, t + s + h ]} = P {0 eventos en (t , t + s )} P {0 eventos en [t + s, t + s + h ]} = P0 ( s ) [1 (t + s )h + o(h) ] (a) (b)

31

Todos los Derechos Reservados, Juan Carlos Briceo.

31

32

Donde las ecuaciones (a) y (b) se deducen de la propiedad de incrementos independientes y del hecho que las propiedades (iii) y (iv) de la definicin, implican que P { N (t + s + h) N (t + s ) = 0} = 1 (t + s )h + o(h).

Entonces,

P0 ( s + h) P0 ( s ) o( h) = (t + s ) P0 ( s ) + h h Y, haciendo que h 0 obtenemos que: P0( s ) = (t + s ) P0 ( s )


O, bajando el trmino P0 e integrado, tenemos que:
log ( P0 ( s ) ) = (t + u )u =
s 0 t+s

( y )y

O, equivalentemente:

P0 ( s ) = e

[ m ( t + s ) m ( t )]

Lo que queda de la demostracin sigue bajo la misma dinmica y es fcilmente desarrollada. El hecho importante de los procesos no homogneos de Poisson es que no necesitamos ms de la hiptesis de incrementos estacionarios. Y por lo tanto, ahora permitimos la posibilidad que los eventos sean ms probables de ocurrir en algunos momentos de tiempo que en otros.

Ejemplo. Un servicio de comida rpida abre a las 8 am. Desde las 8 hasta las 11 am. los clientes parecen llegar, en media, con una tasa de incremento constante iniciando en 5 clientes hora y alcanza un mximo de 20 clientes hora a las 11 am. Desde las 11 am hasta la 1 pm. la tasa media parece constante en 20 cliente por hora. Sin embargo, la tasa media de arribo cae constantemente a partir de la 1 pm. hasta el cierre a las 5 pm. en cuyo perodo de tiempo tiene un valor de 12 clientes hora.

Si asumimos que el nmero de clientes llegando durante intervalos de tiempo disjuntos es independiente, entonces: (i) (ii) (iii)
32

Cul es un buen modelo probabilstico para el servicio de comida? Cul es la probabilidad de que ningn cliente llegue entre 8 am. y 9:30 am. durante la maana del lunes? Cul es el nmero esperado de llegadas durante ese intervalo de tiempo?

Todos los Derechos Reservados, Juan Carlos Briceo.

32

Solucin. Un modelo no homogneo de Poisson asume el tipo de llegadas planteado y en el caso del ejemplo, la funcin de intensidad (t ) est dada por:

33

5 + 5t ,

0t 3

(t ) =

20, 3t 5 20 2(t 5), 5 t 9

(1)

Y,

(t ) = (t 9) para t > 9

Observemos que en las ecuaciones anteriores, hemos asumido que N(t) representa el nmero de llegadas durante las t horas en que el servicio de comida est abierto. Es decir que no estamos contando las horas entre 5 pm. y 8 am. Si deseamos que N(t) represente el nmero de llegadas en las t horas sin consideracin de que el servicio est abierto o no, asumiendo que el proceso inicia a la media noche, entonces: 0, 5 + 5(t 8), 20, 20 2(t 13), 0, 0t <8 8 t 11 11 t 13 13 t 17 17 t 24

(t ) =

(2)

y,

(t ) = (t 24) para t > 24.

Como el nmero de llegadas entre las 8:30 am. y las 9:30 am. ser un proceso de Poisson con media m ( 3 ) m ( 1 ) en el modelo (1), y m ( 19 ) m ( 17 ) en el modelo (2), tenemos que 2 2 7 2 la probabilidad de que este nmero sea cero es: exp 1 (5 + 5t )t = e 10
2 2

y el nmero medio de arribos es:

33

3 1

(5 + 5t )t = 10

Todos los Derechos Reservados, Juan Carlos Briceo.

33

34

Cuando la funcin de intensidad (t ) es acotada, podemos pensar que el proceso no homogneo es un muestreo aleatorio de un proceso homogneo. Especficamente, sea (t ) para todo t 0, y consideremos un proceso de Poisson con tasa .

Si suponemos que un evento ocurriendo en el tiempo t se cuenta con probabilidad (t ) , entonces el proceso de conteo de eventos es un proceso de Poisson no homogneo con funcin de intensidad (t ). La afirmacin anterior es consecuencia de la definicin 4.1. Por ejemplo (i), (ii) y (iii) se deducen pues estas son verdaderas para el proceso homogneo de Poisson. El axioma (iv) se deduce de: P {un evento contado en (t , t + h)} = P {un evento en (t , t + h)}
= h

= (t )h + o(h)

(t ) + o( h)

(t ) + o( h)

Ejemplo. El proceso de salida de un Servidor de Poisson de Colas Infinito (M/G/ ). El proceso de salida del (M/G/ ) es decir, un servidor infinito de colas con arribos de Poisson y distribucin general de servicios G, es un proceso de Poisson no homogneo con funcin de intensidad (t ) = G (t ).

Demostracin. Observemos que la funcin de densidad de probabilidad conjunta que un cliente llegue en el tiempo s y salga en el tiempo t es igual a , la probabilidad (en realidad la intensidad) de arribo en el tiempo s, multiplicado por g(t -s), la densidad de probabilidad que su tiempo de servicio sea t -s. Entonces, (t ) = g (t s ) = G (t ) es la intensidad de probabilidad de una salida en el
0 t

tiempo t. Supongamos que se nos informa que ocurre una salida en el tiempo t, cmo afecta esto la probabilidad de otros tiempos de salida? Aunque conozcamos el tiempo de arribo del cliente que sale en el tiempo t, esto no afectar los tiempos de arribo de otros clientes (por la presuncin de incrementos independientes del proceso de arribos de Poisson)

34

Todos los Derechos Reservados, Juan Carlos Briceo.

34

Entonces, puesto que siempre hay servicios disponibles para arribos, esta informacin no puede afectar las probabilidades de otros tiempos de partida. Por lo tanto, el proceso tiene incrementos independientes, y por lo tanto para salidas ocurriendo en t con intensidad (t ), lo que verifica la afirmacin.

35

4.2. Procesos de Poisson compuestos.

Un proceso estocstico { X (t ), t 0} se dice un proceso compuesto de Poisson si se puede representar de la forma: X (t ) = Yi ,


i =1 N (t )

t0

(4.2)

Donde, { X (t ), t 0} es un proceso de Poisson, y {Yn , n 0} es una familia independiente de variables aleatorias idnticamente distribuidas que tambin son independientes de { X (t ), t 0} .

Ejemplos.

(i) (ii)

Si Yi 1, entonces X(t) = N(t), y tenemos el proceso de Poisson usual. Supongamos que buses llegan a un evento deportivo de acuerdo a un proceso de Poisson, y supongamos que el nmero de clientes en cada bus son independientes e idnticamente distribuidos. Entones { X (t ), t 0} es un proceso de Poisson compuesto donde X(t) es el nmero de clientes llegados en el tiempo t. En la ecuacin (4.2.) Yi representa el nmero de clientes llegados en el bus i. Supongamos que los clientes salen de un supermercado de acuerdo con un proceso de Poisson. Si Yi, es la cantidad de dinero gastada por el isimo cliente, i = 1,2.., son independientes e idnticamente distribuidas, entonces { X (t ), t 0} es un proceso de Poisson compuesto cuando X(t) es la cantidad total de dinero gastada para el tiempo t.

(iii)

35

Todos los Derechos Reservados, Juan Carlos Briceo.

35

Calculemos la media y la varianza de X(t). Recordemos que E [ X (t ) ] = E E X (t ) N (t )

36

N (t ) Entonces, E X (t ) N (t ) = n = E Yi N (t ) = n i =1 n = E Yi N (t ) = n i =1 n = E Yi i =1 = nE [Yi ] En la que hemos asumido la independencia de las Yi y de N(t). Entonces, E X (t ) N (t ) = N (t ) E [Y1 ] (4.3) Y por lo tanto,
E [ X (t ) ] = tE [Y1 ]

(4.4)

De la misma forma, para calcular Var [ X (t ) ] usamos la frmula de varianza condicional: Var [ X (t ) ] = E Var ( X (t ) N (t ) ) + Var E X (t ) N (t ) Entonces, N (t ) Var X (t ) N (t ) = n = Var Yi N (t ) = n i =1 n = Var Yi i =1 = nVar (Y1 ) Y por lo tanto, Var X (t ) N (t ) = N (t )Var(Y1 ) (4.6)

(4.5)

Usando (4.3) y (4.6) en (4.5) obtenemos: 2 Var [ X (t ) ] = E [ N (t )Var(Y1 ) ] +Var [ N (t ) EYi ] = tVar (Y1 ) + ( EYi ) t (4.7) = (t ) Var(Y1 ) + ( EYi ) = tE Y12 Donde usamos el hecho que Var [ N (t ) ] = t , puesto que N(t) es distribuida Poisson con
2

media t.

36

Todos los Derechos Reservados, Juan Carlos Briceo.

36

Potrebbero piacerti anche