Sei sulla pagina 1di 57

Procesos Estoc asticos para Ingenieros: Teor a y Aplicaciones

Materiales complementarios

Francisco Montes Suay


Departament dEstad stica i Investigaci o Operativa Universitat de Val` encia

Copyright c 2007 de Francisco Montes Este material puede distribuirse como el usuario desee sujeto a las siguientes condiciones: 1. No debe alterarse y debe por tanto constar su procedencia. 2. No est a permitido el uso total o parcial del documento como parte de otro distribuido con nes comerciales. Departament dEstad stica i Investigaci o Operativa Universitat de Val` encia 46100-Burjassot Spain

Indice general
1. Probabilidad. Variable aleatoria. Vector aleatorio 1.1. Detecci on de agrupaciones . . . . . . . . . . . . . . . . . 1.2. Estimaci on del tama no de una poblaci on animal a partir 1.3. Atenci on al cliente . . . . . . . . . . . . . . . . . . . . . 1.4. Distribuci on de Poisson vs distribuci on Exponencial . . 1.5. Control de la se nal de voz . . . . . . . . . . . . . . . . . 1.5.1. Simulaci on de una variable aleatoria Laplace . . 1.6. Tasa de fallo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . de datos de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . recaptura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 . 1 . 3 . 4 . 5 . 7 . 9 . 10 . . . . . . . . . . . . . 13 13 14 15 16 17 19 19 20 25 25 25 26 26 27 29 29 31 34 37 37 39 39

2. Esperanza. Desigualdades. Funci on caracter stica 2.1. Entrop a de una variable discreta: compresi on de datos . . . . . 2.1.1. Entrop a relativa . . . . . . . . . . . . . . . . . . . . . . 2.1.2. La entrop a como medida de informaci on . . . . . . . . 2.1.3. Compresi on de datos . . . . . . . . . . . . . . . . . . . . 2.2. Comprobaci on de software cr tico . . . . . . . . . . . . . . . . . 2.3. Codicaci on de im agenes . . . . . . . . . . . . . . . . . . . . . 2.3.1. Recta de regresi on . . . . . . . . . . . . . . . . . . . . . 2.3.2. Codicaci on de im agenes y regresi on m nimo cuadr atica

3. Sucesiones de variables aleatorias. Teoremas de convergencia 3.1. Aplicaciones de la ley de los grandes n umeros . . . . . . . . . . . . . . . 3.1.1. El teorema de Glivenko-Cantelli . . . . . . . . . . . . . . . . . . 3.1.2. C alculo aproximado de integrales por el m etodo de Monte-Carlo 3.1.3. Aproximaci on de funciones . . . . . . . . . . . . . . . . . . . . . 3.2. Una curiosa aplicaci on del TCL: estimaci on del valor de . . . . . . . .

4. Procesos Estoc asticos 4.1. Derivaci on alternativa del Proceso de Poisson . . . . . . . . . . . . . . . . . . . . 4.2. Planicaci on de sem aforos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Cadenas de Markov continuas en el tiempo: abilidad de un multiprocesador . . 4.4. Procesos de nacimiento y muerte (Birth-death) . . . . . . . . . . . . . . . . . . . 4.4.1. Colas de longitud innita . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2. Colas con par ametros de nacimiento y muerte constantes y longitud nita 4.4.3. Aplicaci on a la transmisi on de datos a trav es de una red de comunicaciones

5. Transformaci on lineal de un proceso estacionario 41 5.1. Procesos autoregresivos de medias m oviles (ARMA) . . . . . . . . . . . . . . . . 41 5.2. Vibraciones aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

INDICE GENERAL

Bibliograf a

48

Cap tulo 1

Probabilidad. Variable aleatoria. Vector aleatorio


1.1. Detecci on de agrupaciones

La detecci on de agrupaciones (clusters) es de gran inter es en muchas areas. En epidemiolog a, por ejemplo, es importante conocer si ciertas enfermedades aparecen con mayor frecuencia en determinadas areas geogr acas, dando lugar a una agrupaci on anormal de casos. La asignaci on de recursos por parte de la polic a local a los distintos distritos de una ciudad deber a hacerse teniendo en cuenta la posible existencia de clusters de mayor criminalidad. La acumulaci on inesperada e inexplicada de accidentes de tr aco en ciertos sectores de una ciudad, o de una carretera, exige la atenci on de las autoridades de tr aco. Todos estos ejemplos, y muchos m as que podr an citarse, exigen previamente comprobar que, efectivamente, en la zona geogr aca observada el fen omeno en estudio ocurre con mayor frecuencia de lo que cabr a esperar. Como se trata de fen omenos aleatorios de lo que estamos hablando es de frecuencia de un suceso: casos de gripe, robos a personas o accidentes mortales. Una forma sencilla, por los conceptos te oricos que exige, es la que vamos a presentar a continuaci on, aunque puden encontrarse m etodos m as sosticados y ecientes para abordar el problema. Supongamos que para facilitar la incidencia y localizaci on del suceso que nos interesa, hemos dividido el area geogr aca de una ciudad en un total de 2500 celdas sobre un ret culo de 50 50. La Figura 1.1 muestra a la izquierda un conjunto de ocurrencias del suceso, celdas en negro, en las que hay ausencia de cluster. El suceso ha ocurrido en 29 de las 2500, es decir en un 29/2500 = 1,16 % de ellas. En la parte derecha de la gura se observa un area sombreada que contiene 145 celdas en las que hay 11 incidencias. De acuerdo con la incidencia observada en el patr on de no agrupaci on, la derecha, hubi eramos esperado 145 0,0116 = 1,68 ocurrencias en las 145 celdas, un n umero muy inferior a las 11 observadas. Signica ello que estamos en presencia de un cluster? Designemos por B ={existe un cluster } y por A ={datos observados } y vamos a calcular el cociente P (B c |A) P (no cluster|datos observados) = . (1.1) P (cluster|datos observados) P (B |A) Este tipo de cocientes recibe el nombre de odds en contra y nos indica cuantas veces es m as probable que no ocurra un suceso frente a que ocurra. Si (1.1) es claramente mayor que 1, nos inclinaremos a rechazar la hip otesis de la existencia de un cluster en los datos observados.

Probabilidad. Variable aleatoria. Vector aleatorio

50

50

45

45

40

40

35

35

30

30

25

25

20

20

15

15

10

10

10

15

20

25

30

35

40

45

50

10

15

20

25

30

35

40

45

50

Figura 1.1: Incidencia geogr aca de cierto suceso en una misma ciudad. Sin cluster en la izquierda y con un posible cluster en la parte sombreada de la derecha Para el c alculo de (1.1) utilizaremos la f ormula de Bayes, P (B c |A) P (A|B c )P (B c )/P (A) P (A|B c )P (B c ) = = , P (B |A) P (A|B )P (B )/P (A) P (A|B )P (B ) (1.2)

lo que exige conocer P (B ), P (A|B ) y P (A|B c ). Veamos c omo podemos conocerlas. La probabilidad de que exista un cluster depender a del fen omeno en estudio y nuestro conocimiento del mismo nos ayudar a a asignar un valor a priori a P (B ). Si creemos que un cluster es muy improbable, asignaremos un valor muy peque no, por ejemplo P (B ) = 106 . Las otras dos son, respectivamente, las probabilidades de haber observado 11 veces el suceso en el area sombreada seg un que admitamos o no la existencia de un cluster. Para su c alculo observemos que en cada celda ocurre o no el suceso con independencia de las dem as y que lo hace en todas ellas con la misma probabilidad, pc o pnc seg un el caso. Es decir, la ocurrencia del suceso en cada celda puede asimilarse a una prueba de Bernoulli y por tanto el total de ocurrencias en las 145 celdas ser an una variable aleatoria Binomial. Es decir, P (A|B ) = P (k = 11|cluster) = y P (A|B c ) = P (k = 11|no cluster) = 145 11 p (1 pnc )134 . 11 nc 145 11 p (1 pc )134 , 11 c

Qu e decir respecto de pc y pnc ? Hemos visto que cuando no hab a cluster s olo en un 1,16 % de celdas hab a ocurrido un suceso, con lo que podemos tomar pnc 0,01. Si admiti eramos que la zona sombreada es un cluster, la incidencia del suceso ha sido 11/145 = 0,07 y podemos tomar pc 0,1. Sustituyendo en las anteriores expresiones y en (1.2) tendremos, odds =
145 11

(0,01)11 (0,99)134 (1 106 )


145 11

(0,1)11 (0,9)134 106

= 3,52.

Parece pues dif cil de asumir la existencia de un cluster. Aunque debemos se nalar que la asignaci on de una probabilidad a priori tan peque na para B tiene una una gran inuencia en el

1.2 Estimaci on del tama no de una poblaci on animal a partir de datos de recaptura 3

resultado nal, lo que debe de hacernos reexionar sobre dicha asignaci on antes de llevarla acabo.

1.2.

Estimaci on del tama no de una poblaci on animal a partir de datos de recaptura

Queremos estimar la poblaci on de peces en un lago1 , para ello hemos capturado 1000 peces a los que, marcados mediante una mancha roja, hemos arrojado nuevamente al lago. Transcurrido un cierto tiempo, el necesario para que se mezclen con los restantes peces del lago, llevamos a cabo una nueva captura de otros 1000 peces entre los que hay 100 marcados. Qu e podemos decir acerca del total de peces en el lago? El problema que planteamos en un problema t pico de estimaci on estad stica y vamos a dar una soluci on que, aunque particular para la situaci on descrita, est a basada en una metodolog a de aplicaci on general en los problemas de estimaci on. Observemos en primer lugar que el n umero de peces marcados en la segunda captura (recaptura) es una variable aleatoria Hipergeom etrica, X H (1000, N, 1000), siempre bajo el supuesto de que ambas capturas constituyen sendas muestras aleatorias de la poblaci on total de peces del lago (en la pr actica semejante suposici on excluye situaciones en las que las capturas se efect uan en el mismo lugar y en un corto periodo de tiempo). Suponemos tambi en que el n umero de peces en el lago, N , no cambia entre las dos capturas. Generalizemos el problema admitiendo tama nos arbitrarios para ambas muestras: N r n = poblaci on de peces en el lago (desconocida) = n umero de peces en la 1a captura = n umero de peces en la 2a captura

x = n umero de peces en con mancha roja en la 2a captura px (N ) = probabilidad de x peces con mancha roja en la 2a captura Con esta formulaci on sabemos que r x N r nx . N n

px (N ) =

En la pr actica, r, n y x son conocidos por observaci on, como en el ejemplo que planteamos, mientras que N es desconocido pero jo y en modo alguno depende del azar. Al menos una cosa conocemos de N y es que N r + n x, que es el total de peces capturados entre ambas capturas. En nuestro ejemplo, N 1000 + 1000 100 = 1900. Qu e ocurre si aceptamos N = 1900? Aunque se trata de un valor te oricamente posible, si calculamos p100 (1900), 1000 900 100 900 1900 1000

p100 (1900) =

10430 ,

1 El ejemplo est a sacado del libro de W. Feller (1968), An Introduction to Probability Theory and Its Application, Vol. I, 3rd. Edition, un libro cl asico cuya lectura y consulta recomendamos vivamente.

Probabilidad. Variable aleatoria. Vector aleatorio

1 (podemos valernos de la f ormula de Stirling, n! 2nn+ 2 en , para aproximar las factoriales), habremos de aceptar que ha ocurrido un suceso, X = 100, con una probabilidad extraordinariamente peque na. Resulta dif cil de admitir una hip otesis que exige casi un milagro para que el suceso observado tenga lugar. Otro tanto nos ocurre si suponemos que N es muy grande, por ejemplo N = 106 . Tambi en ahora p100 (106 ) es muy peque na. Una respuesta adecuada puede ser la de buscar el valor de N que maximiza px (N ). Dicho , recibe el nombre de estimaci valor, que designamos mediante N on m aximo-veros mil de N . Para encontrarlo, observemos que px (N ) (N r)(N n) N 2 N r N n + rn = = 2 , px (N 1) (N r n + x)N N Nr Nn + Nx de donde se deduce px (N ) > px (N 1), px (N ) < px (N 1), si N x < rn, si N x > rn.

As pues, a medida que aumenta N la funci on px (N ) crece primero para decrecer despu es, = 10000. alcanzando su m aximo en N = [rn/x], la parte entera de rn/x. En nuestro ejemplo, N

1.3.

Atenci on al cliente

El problema de atender a los clientes que llegan a una cola, es de vital importancia en muchas actividades. Se trata de hacer compatible una atenci on eciente al cliente, reduciendo al m aximo su tiempo de espera, con un uso racional de los recursos disponibles. Evidentemente poner en funcionamiento un gran n umero de puestos de atenci on es una soluci on, pero sin duda no es la mejor para la empresa. Imaginemos una situaci on sencilla y veamos c omo hacerle frente recurriendo a una distribuci on de probabilidad bien conocida, la distribuci on de Poisson. Supongamos para ello la hora punta de un supermercado, entre las 7 y las 8 de la tarde cuando la gente aprovecha la vuelta a casa desde el trabajo para hacer algunas compras de necesidad imperiosa, que no suelen ser muy numerosas. El gerente del supermercado abre todos los d as a esa hora una caja r apida, no m as de 10 art culos, pero viene observando que u ltimamente se acumulan en ella los clientes y, lo que es peor para su negocio, muestran claramente su descontento quej andose de la falta de servicio. Para remediar la situaci on ha decidido recurrir a un experto, se supone que probabilista, para que le aconseje cuantas cajas adicionales debe abrir. La experiencia acumulada a lo largo del tiempo le permite saber que la duraci on media de la atenci on a los clientes de la cola r apida es de 1 minuto, y lo que desea es que en el 95 % de las ocasiones no haya m as de una persona esperando a ser atendida. Teniendo en cuenta el minuto que tardan en ser atendidos, lo ideal ser a que a lo sumo llegaran 2 personas a la caja por minuto. Lo primero que hizo el experto fue observar el total de gente que era atendida en la u nica caja r apida disponible entre las 7 y las 8 de la tarde. L ogicamente la observaci on la hizo a lo largo de varios d as, de martes a viernes, y obtuvo como resultado 68, 70, 59 y 66 clientes, respectivamente. Es decir, por t ermino medio aproximadamente unos 70 clientes a la hora o 1,167 por minuto. Por otra parte, el experto interpret o, ... que en el 95 % de las ocasiones no haya m as de una persona esperando a ser atendida, en t erminos de probabilidad, a saber, que P (N 2) = 0,95, donde N es la variable que representa el n umero de personas en la cola de la caja. Las caracter sticas del problema no ofrecieron duda al experto en cuanto al comportamiento probabil stico de N , se trataba de una variable aleatoria Poisson.

1.4 Distribuci on de Poisson vs distribuci on Exponencial

Recordemos que una variable Poisson toma valores enteros no negativos, N = {0, 1, 2, 3, . . .} y su funci on de cuant a es de la forma, fN (k ) = P (N = k ) = exp() k . k!

El problema para el experto era conocer el valor del par ametro , pero para eso hizo sus observaciones, porque depende de las caracter sticas del fen omeno y representa el n umero medio de ocurrencias del suceso en estudio por unidad de tiempo. En su caso estaba claro, = 1, 167 clientes/minuto. Con estos datos para una sola caja,
2

P (N 2) =
k=0

fN (k ) = exp() 1 + +

2 2

que para = 1, 167 vale P (N 2) = 0,88. Este resultado no satisfac a las exigencias del gerente y explicaba, por otra parte, la indeseada acumulaci on de clientes en la caja. Hab a que abrir m as cajas r apidas, pero cuantas? El experto pens o que abrir otra caja supon a dividir por 2 el n umero de medio de clientes por minutos, con lo que el par ametro de Poisson com un a las dos cajas valdr a ahora 2 = 1, 167 = 0, 583. Observemos que la condici on de que no lleguen m as de dos clientes a la caja signica ahora, a ninguna de las dos cajas ahora abiertas. La probabilidad de este suceso se calcula haciendo uso de las variables de Poisson asociadas a cada caja, P (a lo sumo 2 llegadas a ambas cajas) = = P (a lo sumo 2 llegadas a la caja 1) P (a lo sumo 2 llegadas a la caja 2) P (a lo sumo 2 llegadas a la caja 1)2 0,5832 exp(0,583) 1 + 0,583 + 2
2

= 0,957.

La soluci on que aport o el experto fue por tanto abrir una nueva caja en ese horario punta.

1.4.

Distribuci on de Poisson vs distribuci on Exponencial

La distribuci on de Poisson y la distribuci on Exponencial surgen de manera natural en el denominado Proceso de Poisson, del que nos ocuparemos con detalle en el cap tulo dedicado a los procesos estoc asticos. PA los efectos que ahora nos interesa bastar a con hacer una sencilla descripci on del mismo. Un proceso de Poisson surge cuando nos ocupamos de la ocurrencia de un suceso a lo largo del tiempo: llamadas que llegan una centralita telef onica, desintegraciones radioactivas que alcanzan un contador Geiger, clientes que llegan a un punto de atenci on, accidentes en un central nuclear,.... Para el estudio de este tipo de fen omenos se hacen ciertas hip otesis simplicadoras, 1. las distintas ocurrencias del suceso son independientes unas de otras, as ocurrencias del suceso en un intervalo peque no de tiempo 2. la probabilidad de dos o m es pr acticamente nula, y

Probabilidad. Variable aleatoria. Vector aleatorio

3. si I1 e I2 son dos intervalos de tiempo tales que I1 I2 = , las variables aleatoria N1 y N2 , que designan el n umero de ocurrencias en cada uno de ellos, son independientes. Con estas hip otesis, se puede demostrar que el n umero de ocurrencias en cualquier intervalo de longitud t sigue una distribuci on de Poisson de par ametro t, Nt P o(t). A se nalar que a la hora de determinar la distribuci on de Nt lo u nico que importa es la longitud del intervalo y no donde est e situado, esta propiedad recibe el nombre de estacionariedad.
N =2
t

t X

t X

t X

t X

t X

Figura 1.2: Tiempos de ocurrencia en un proceso de Poisson En la Figura 1.2 hemos representado un esquema del proceso en la que se muestran los tiempos en los que ha ocurrido el suceso. Dos conjuntos de variables son de inter es en un proceso de estas caracter sticas, {Nt }tR+ , variables discretas con distribuci on Poisson que denotan el n umero de ocurrencias del suceso en el intervalo de longitud t, y {Xi }i1 , variables continuas que denotan el tiempo transcurrido entre dos ocurrencias consecutivas del suceso, la i- esima y la (i-1)- esima. C omo de distribuyen las variables Xi ? Dada la independencia entre las ocurrencias de los sucesos, las Xi son independientes y, l ogicamente, todas tiene la misma distribuci on. Obtengamos la funci on de distribuci on com un. Recordemos que Fi (t) = P (Xi t) = 1 P (Xi > t), pero el suceso {Xi > t} = {Nt = 0} y por tanto, Fi (t) = 1 exp(t), con lo que su funci on de densidad vale fi (t) = exp(t), t 0; 0, t < 0,

que es la funci on de densidad de una Exponencial con par ametro , Xi Exp(), i. El proceso de Poisson podr a tambi en haberse denido a partir de los tiempos transcurridos entre las ocurrencias consecutivas del suceso. Si postulamos como hip otesis la independencia de dichos tiempos y como distribuci on com un la Exp(), c omo se distribuyen entonces las Nt ? Para obtenerla consideremos Sn = X1 + X2 + + Xn ; se verica {Nt = n} = {Sn t} {Sn+1 > t}, pero como {Sn+1 t} {Sn t}, {Sn t} {Sn+1 > t} = {Sn t} {Sn+1 t},

1.5 Control de la se nal de voz

y tomando probabilidades P (Nt = n) = P (Sn t) P (Sn+1 t). (1.3)

La distribuci on de una suma de n exponenciales independientes, id enticamente distribuidas es (ver Cap tulo 2, apartado de Funci on Caracter stica) una G(n, ), cuya funci on de distribuci on es (t)n1 , t 0; 1 exp(t) 1 + t 1! + + (n1)! P (Sn t) = 0, en el resto. Sustituyendo en (1.3), P (Nt = n) = exp(t) (t)n , n!

y concluimos que Nt P o(t). Este resultado evidencia la dualidad de ambos conjuntos de variables y su equivalencia a la hora de denir el proceso de Poisson.

1.5.

Control de la se nal de voz

Cuando se transmite la voz es importante que no se produzcan distorsiones. Las emisoras comerciales de radio controlan la potencia de la se nal mediante instrumentos adecuados, que permiten reducirla manualmente en el caso de que sea demasiado grande. En otras ocasiones, las comunicaciones telef onicas, por ejemplo, el control se lleva a cabo de manera autom atica. En cualquier caso, es necesario conseguir un control de la se nal para evitar distorsiones cuando la transmisi on es anal ogica, o recortes (clip) cuando la transmisi on es digital. El modelo probabil stico utilizado para describir el comportamiento de la potencia de la se nal es el modelo de Laplace cuya funci on de densidad viene dada por 1 2 2 2 |x| . 2

fX (x) =

exp

(1.4)

Con este modelo, la amplitud X toma valores alrededor de 0, valores tanto m as dispersos cuanto mayor sea 2 , el par ametro de dispersi on del modelo. En la gr aca de la izquierda de la Figura 1.3 se aprecia c omo se ensancha la curva a medida que crece 2 , que est a por ello directamente relacionado con la potencia de la se nal. Los recortes autom aticos de se nal act uan tal como se muestra en la gr aca de la derecha de la Figura 1.3. Mientras la el valor absoluto de la potencia est e dentro de los l mites establecidos, |X | U , la entrada y la salida coincidir an, si |X | > U , la se nal de salida se recorta. El valor U es una caracter stica del sistema que debe ser dise nado de forma tal que s olo en muy pocas ocasiones sea superado. Muy pocas ocasiones ha de ser interpretado aqu en t erminos de probabilidad. Por ejemplo, si deseamos que a lo sumo en un 1 % del tiempo la se nal sea

Probabilidad. Variable aleatoria. Vector aleatorio

0.6

0.7

0.3

0.4

0.5

0.2

0.0

0.1

Figura 1.3: Densidad de Laplace con 2 = 1 (-----) y 2 = 4 (- - -) y relaci on entre la entrada y la salida de una se nal de voz recortada recortada, Precorte 0,01, y U deber a satisfacer, Precorte = P (|X | > U )
+

= 2
U

1 2 2

exp 2 x 2 ,

= 2

1 exp 2 2 U 2

2 |x| dx 2

= exp y de aqu exp 2 U 2

(1.5)

0,01 U

2 ln 2

1 0,01

(1.6)

El aumento de la potencia de la voz, medida a trav es de 2 , exige incrementar el umbral U 2 para evitar recortes frecuentes. Por ejemplo, si = 2, y el valor de U fuera jo e igual a 2, sustituyendo en (1.5) obtendr amos Precorte = 0,1357 un valor muy alejado del 0,01 deseado. El valor de U deber a ser 1 = 4,60. U ln 0,01

1.5 Control de la se nal de voz

1.5.1.

Simulaci on de una variable aleatoria Laplace

La comprobaci on emp rica de la probabilidad de recorte obtenida en el p arrafo anterior, cuando U = 2 y 2 = 2, podemos llevarla cabo simulando valores de una distribuci on de Laplace con esas caracter sticas y calculando la frecuencia relativa de los que superan dicho umbral. C omo simular los valores de una variable aleatoria Laplace o, en general, de cualquier otra variable? La transformaci on integral de probabilidad explicada en la Secci on 1.6 del manual Procesos Estoc asticos para Ingenieros: Teor a y Aplicaciones responde a la pregunta. El resultado concreto que nos interesa se enuncia en la siguiente proposici on: Proposici on 1.1 (Transformada integral de probabilidad) Sea U U (0, 1), F una funci on de distribuci on de probabilidad y denimos X = F 1 (U ). Entonces, FX = F . Para aplicarlo a nuestra situaci on hemos de obtener en primer lugar la funci on de distribuci on de la variable Laplace. Integraremos (1.4),
x

FX (x) =

1 2 2

exp

2 |t| dt. 2

Para x <= 0,
x

FX (x) =
x

1 2 2 1 2 2

exp

2 |t| dt 2 2 t dt 2 (1.7)

1 exp 2

exp

= y para x 0,
x

2 x , 2

FX (x)

=
0

1 2 2 1 2 2

exp

2 |t| dt 2 2 |t| dt + 2 2 t 2
x x

exp

1 2 2

exp

2 t dt 2

(1.8)

1 1 exp 2 2 1 exp 2

(1.9)
0

= 1

2 x , 2

(1.10)

donde el paso de (1.8) a (1.9) se justica porque dada la simetr a de la variable Laplace, 0 P (X 0) = fX (x)dx = 1/2. 1 Seg un la Proposici on 1.1, si denimos X = FX (Z ), siendo Z U (0, 1), obtendremos una variable Laplace. Hemos de obtener las inversas de (1.7) y (1.10). Para ello observemos que

10

Probabilidad. Variable aleatoria. Vector aleatorio

x < 0 0 < z < 1/2 y x 0 1/2 z < 1. En denitiva 2 0 < z < 1/2; 2 ln(2z ), X= 2 1 2 ln 2(1z ) , 1/2 z < 1. La gr` aca de izquierda en la Figura 1.4 muestra el histograma de 5000 simulaciones de X obtenidas a partir de las expresiones anteriores mediante 5000 simulaciones de una variable U (0, 1), accesible a trav es de la funci on rnd() en cualquier sistema operativo, hoja de c alculo o software apropiado. Se ha utilizado 2 = 2. Al histograma le hemos superpuesto la gr aca de la correspondiente funci on de densidad te orica que se ajusta, como era de esperar, a los frecuencias observadas.

0.5

0.4

histograma y funcin de densidad

0.3

0.2

0.1

0.0

1 x

6 0

10

20

30

40

50

60

70

80

90

100

muestra

Figura 1.4: Histograma de 5000 simulaciones de una variable aleatoria Laplace y su correspondiente densidad te orica superpuesta (izquierda). Simulaci on de 100 valores de variable aleatoria Laplace con 2 = 2 (derecha) La gr` aca de derecha en la Figura 1.4 muestra los valores de 100 simulaciones Laplace con 2 = 4, en ella sendas rectas, U = 2 y U = 2, indican los umbrales a partir de los cuales la se nal de voz ser a recortada, lo que ocurre para 14 de los 100 valores simulados, lo que da una frecuencia relativa de 0,14 muy pr oxima a Precorte = 0,1357.

1.6.

Tasa de fallo

Son muchas las actividades en las que es necesario llevar un control riguroso de los fallos de los objetos, sean estos m aquinas o humanos. Por ejemplo, en p olizas de seguros de vida la probabilidad de muerte (fallo ) del sujeto es un criterio determinante del precio de la prima. No pagar a lo mismo una mujer de 25 a nos que un hombre de 75. El precio se establece a partir de las llamadas tablas de vida, o mortalidad, que recogen las probabilidades de muerte por edades en funci on de varios factores, principalmente el sexo. No s olo las probabilidades absolutas de muerte son de inter es, tambi en lo son las condicionadas al hecho de haber sobrevivido a un cierta edad. Por ejemplo, probabilidad de sobrevivir a la

1.6 Tasa de fallo

11

edad de 87 a nos, dado que ya se ha sobrevivido a los 85 a nos, que indudablemente ser a mayor que la probabilidad absoluta de sobrepasar los 87 a nos. Estas probabilidades condicionadas, y algunas funciones con ellas relacionadas, son de inter es en todos los procesos que exigen un control de los fallos del sistema. Si X es la variable aleatoria que denota el tiempo en que se producen los fallos, el teorema de Bayes nos permite calcular la probabilidad del suceso que el fallo se produzca en [t, t+dt] dado que el objeto ha sobrevivido al tiempo t, P (t < X t + dt|X > t) = P (t < X t + dt) P (t < X t + dt, X > t) = , P (t < X ) P (t < X )

porque {t < X t + dt} {X > t}. Pero P (t < X t + dt) = FX (t + dt) FX (t), y P (t < X ) = 1 FX (t). Sustituyendo, P (t < X t + dt|X > t) = FX (t + dt) FX (t) . 1 FX (t)

Si FX (t) es diferenciable, FX (t + dt) FX (t) = FX (t)dt, y como FX (t) es una densidad de la variable aleatoria X podemos escribir P (t < X t + dt|X > t) == donde (t) = FX (t)dt fX (t)dt = = (t)dt, 1 FX (t) 1 FX (t) fX (t) , 1 FX (t) (1.11)

es conocida como la tasa condicional de fallo o simplemente tasa de fallo, aunque seg un el contexto recibe otros nombres, como fuerza de mortalidad o tasa de morbilidad en el campo actuarial. Un objeto con un determinada tasa de fallo tiene mayor probabilidad de sobrevivir en el pr oximo t que otro con una tasa menor. A partir de (1.11) podemos obtener sendas expresiones para las funciones de distribuci on y densidad de X . Partamos de FX (t)dt dFX (t) = = (t)dt, 1 FX (t) 1 FX (t) (1.12)

e integremos, teniendo en cuenta que es l ogico exigir a FX (t) las siguientes condiciones iniciales, 1. FX (0) = 0 por la naturaleza de la variable tiempo, y 2. l mt FX (t) = 1 porque asumimos que el objeto acabar a fallando. Tendremos,
FX (t) FX (0)

dFX = ln[1 FX (t)] = 1 FX


t

(u)du,
0

(1.13)

y de aqu FX (t) = 1 exp


0

(u)du .

(1.14)

Derivando (1.14) obtendremos la funci on de densidad,


t

fX (t) = (t) exp


0

(u)du .

(1.15)

La forma de (t) determina la forma de FX (t) y fX (t). Veamos algunos ejemplos.

12

Probabilidad. Variable aleatoria. Vector aleatorio

Gompertz propuso en 1825 un crecimiento exponencial para la fuerza de mortalidad, (t) = Bct , t > 0, lo que da lugar a FX (t) = 1 exp B t (c 1) , ln c fX (t) = Bct exp B t (c 1) . ln c

Weibull sugiere en 1939 un modelo en el que (t) crece como una potencia de t en lugar de hacerlo exponencialmente, (t) = ktn , t > 0, y FX (t) = 1 exp k tn+1 n+1 , fX (t) = ktn exp k tn+1 n+1 .

Si suponemos que la tasa de fallo es constante, (t) = , t > 0, nos encontramos con que X Exp(), FX (t) = 1 exp(t), fX (t) = exp(t).

Cap tulo 2

Esperanza. Desigualdades. Funci on caracter stica


2.1. Entrop a de una variable discreta: compresi on de datos

Consideremos la variable aleatoria discreta X cuyo soporte es DX = {x1 , x2 , . . . , xk } con funci on de cuant a, fX (xi ) = P (X = xi ) = pi i = 1, . . . , k . Queremos encontrar una funci on que mida la incertidumbre del suceso Ai = {X = xi }. Sabemos que cuanto mayor sea pi menor ser a esta incertidumbre, por lo que la funci on, I (X = xi ) = ln 1 = ln P (X = xi ), P (X = xi )

satisface el objetivo buscado. A partir de la incertidumbre de cada uno de los sucesos elementales ligados a X denimos el concepto de entrop a de la variable X . Denici on 2.1 (Entrop a de una variable aleatoria discreta) La entropia de X es la esperanza de la incertidumbre de sus resultados, es decir, HX 1 = E [I (X )] = P (X = xi ) ln = P (X = xi ) ln P (X = xi ). P ( X = xi ) i=1 i=1
k k

La entrop a, denida en t erminos del logaritmo natural, utiliza como unidad de medida el nat, pero si utilizamos el logaritmo en base 2 para su denici on, cosa que suele hacerse, la unidad es el bit. Ambas unidades dieren en un factor constante puesto que ln a = ln 2 log2 a. Ejemplo 2.1 (Entrop a de una variable binaria) Si DX = {0, 1} y p = P (X = 0), la entrop a de X viene dada por HX = p log2 p (1 p) log2 (1 p), cuya gr aca para los distintos valores de p se muestra en la Figura 2.1. Se observa que el m aximo de la entrop a se alcanza para p = (1 p) = 1/2, situaci on en la que se da, efectivamente, la m axima incertidumbre en cuanto al valor que pueda tomar X . Como veremos a continuaci on, este resultado se generaliza al caso de una variable discreta uniforme, es decir, con equiprobabilidad para todos los valores de su soporte.

14

Esperanza. Desigualdades. Funci on caracter stica

Hx(p)

0.2 0.0

0.4

0.6

0.8

1.0

0.2

0.4 p

0.6

0.8

1.0

Figura 2.1: Entrop a de una variable aleatoria binaria para los distintos valores de p = P (X = 0)

2.1.1.

Entrop a relativa

Supongamos dos distribuciones de probabilidad sobre un mismo soporte, p = (p1 , p2 , . . . , pk ) y q = (q1 , q2 , . . . , qk ). La entrop a relativa de q respecto a p se dene mediante
k

H (q ; p) =
i=1

pi ln

1 HXp = qi

pi ln
i=1

pi , qi

(2.1)

donde HXp es la entrop a de X bajo la distribuci on p. De esta denici on se derivan los siguientes resultados de inter es. 1. H (q ; p) 0 y H (q ; p) = 0 pi = qi , i. En efecto, si en (2.1) tenemos en cuenta que ln(1/x) 1 x, podemos escribir,
k

H (q ; p) =
i=1

pi ln

pi qi

pi 1
i=1

qi pi

=
i=1

pi
i=1

qi = 0,

y la igualdad se alcanza si y s olo si pi = qi , i. 2. Si DX = {x1 , x2 , . . . , xk } entonces HXp ln k alcanz andose el m aximo si y solo pi = 1/k, i. Supongamos que qi = 1/k, i, tendremos en (2.1) que
k k

H (q ; p) =
i=1

pi ln

1 HXp = ln k HXp = 1/k

pi ln
i=1

pi 0, 1/k

de donde se deduce la desigualdad, que se convierte en igualdad cuando hay equiprobabilidad, pi = 1/k, i. Se generaliza as el resultado que hab amos obtenido para la variable binaria.

2.1 Entrop a de una variable discreta: compresi on de datos

15

2.1.2.

La entrop a como medida de informaci on

Al llevar cabo el experimento ligado a la variable X cuyo soporte es DX = {x1 , x2 , . . . , xk }, el resultado ser a X = xi . Un interlocutor est a interesado en dicho resultado y para conocerlo realiza una serie de preguntas que s olo admiten como respuesta un s o un no. Cu al ser a el n umero medio de preguntas que habr a de plantear para conocer el resultado? Existe un m nimo para dicha media? Antes de responder y de establecer la relaci on entre la respuesta y HX , veamos un ejemplo que ayude a comprender el problema que hemos planteado. Ejemplo 2.2 Un urna contiene 32 bolas numeradas del 1 al 8 siendo su composici on la que muestra la Tabla 2.1. Se extrae una al azar y queremos saber qu e estrategia seguir para minimizar el n umero de preguntas necesarias para conocer el n umero extra do. d gito n umero de bolas P (bola = i) 1 8 1/4 2 8 1/4 3 4 1/8 4 4 1/8 5 2 1/16 6 2 1/16 7 2 1/16 8 2 1/16

Tabla 2.1: Composici on de la urna Puesto que los n umeros que aparecen en un mayor n umero de bolas son m as probables, una estrategia razonable consiste en preguntar por los n umeros en orden de probabilidad descendente. El esquema 1 de la gura nos muestra dicha estrategia. Otra estrategia alternativa consiste en preguntar de forma que las dos posibles respuestas tengan la misma probabilidad. El esquema 2 muestra esta segunda estrategia.
X = 1? no s X=2 s X=3 X = 2? no X = 3? no

s X=1

X 2? no X 4? no X 6? no X = 7?

X = 1?

s no s no s no

X=1 X=2 X=3 X=4 X=5 X=6

X = 3?

X = 5?

X=7

s X=7

X = 7? no X=8 Esquema 1

no X=8
Esquema 2

Figura 2.2: Estrategias para averiguar la bola extra da mediante preguntas de respuesta dicot omica Si representamos por N1 y N2 el n umero de preguntas necesarias en cada estrategia para conocer el n umero de la bola extra da, sus valores dependen de dicho n umero y pueden obtenerse

16

Esperanza. Desigualdades. Funci on caracter stica

bola extra da valor de N1 valor de N2 P (bola = i)

1 1 2 1/4

2 2 2 1/4

3 3 3 1/8

4 4 3 1/8

5 5 4 1/16

6 6 4 1/16

7 7 4 1/16

8 7 4 1/16

Tabla 2.2: Valores N1 y N2 en funci on de la bola extra da f acilmente a partir de los esquemas de la Figura 2.2. Se muestran en la Tabla 2.2. A partir de la tabla podemos calcular las esperanzas de ambas variables, 1 1 1 51 E (N1 ) = (1 + 2) + (3 + 4) + (5 + 6 + 7 + 8) = 4 8 16 16 y 1 1 44 1 E (N2 ) = (2 + 2) + (3 + 3) + (4 + 4 + 4 + 4) = . 4 8 16 16 La segunda estrategia es mejor que la primera. Si denimos ahora X como el n umero que muestra la bola, su entrop a en bits vale HX = 2 1 1 1 1 1 1 44 log2 2 log2 4 log2 = , 4 4 8 8 16 16 16

que coincide con E (N2 ), coincidencia que explicaremos a continuaci on. El problema de dise nar una estrategia de preguntas con respuesta dicot omica para identicar exactamente el valor de la variable X ={n umero que nos muestra la bola extra da }, es el mismo que se presenta cuando queremos codicar la salida de una fuente de informaci on. En efecto, la secuencia de respuestas que conduce a la identicaci on del valor de X puede asimilarse a una secuencia de 0s y 1s, seg un las respuestas hayan sido negativas o positivas, respectivamente. Se trata en denitiva de un c odigo binario y el problema de encontrar la mejor estrategia de preguntas es equivalente al de encontrar el c odigo binario m as corto. Dos resultados fundamentales de teor a de la informaci on nos permiten establecer el papel relevante del concepto de entrop a. Los enunciaremos sin demostraci on. 1. La longitud media de cualquier c odigo binario no puede ser menor que el valor en bits de la entrop a. 2. Si los valores de la funci on de cuant a de X son potencias de 2, existe una estrategia (codicaci on) cuyo valor medio iguala a la entrop a. Tal como ocurre con la segunda estrategia del ejemplo anterior. Como consecuencia de estos dos resultados podemos armar que la entrop a de una variable aleatoria X es el menor n umero medio de bits necesarios para identicar su valor.

2.1.3.

Compresi on de datos

El crecimiento exponencial que la informaci on en formato digital ha experimentado en los u ltimos a nos, ha obligado a recurrir a t ecnicas de compresi on de los datos con el n de optimizar los recursos de almacenamiento y de facilitar su transmisi on. Qu e nivel de compresi on podemos alcanzar? La entrop a, expresada en bits, es la respuesta a la pregunta, porque como acabamos de ver, establece el m nimo n umero medio de bits necesarios para codicar una informaci on.

2.2 Comprobaci on de software cr tico

17

Veamos un ejemplo cticio que nos ayude a relacionar lo expuesto en los apartados anteriores con el proceso de compresi on de datos. La Tabla 2.3 resume las caracter sticas de un archivo de datos compuesto por una secuencia de las primeras 8 letras del alfabeto, ABCDEFGH. La columna frec recoge las frecuencias relativas de aparici on de cada letra en la secuencia, la letras est an ordenadas seg un las frecuencias decrecientes. Las columnas cod1 y cod2 recogen dos codicaciones binarias distintas, cuyas correspondientes longitudes (n umero de bits) aparecen en las columnas lcod1 y lcod2, respectivamente. Las codicaciones se corresponden con las estrategias 1 y 2 de la Figura 2.2. As , cod1 supone que vamos preguntando secuencialmente de qu e letra se trata, estando las letras ordenadas seg un las frecuencias decrecientes y no alfab eticamente, porque lo l ogico es asignar los c odigos m as cortos a las letras m as frecuentes. Por otra parte, cod2 es un c odigo binario de 3 d gitos que se corresponde, es sencillo comprobarlo, con el supuesto de uniformidad en las frecuencias de aparici on. Letra A B E C D G F H frec 0,58 0,11 0,09 0,07 0,06 0,05 0,03 0,01 cod1 1 10 100 1000 10000 100000 1000000 0000000 lcod1 1 2 3 4 5 6 7 7 cod2 000 001 010 011 100 101 110 111 lcod2 3 3 3 3 3 3 3 3

Tabla 2.3: Distribuci on de frecuencias de las letras en los datos y dos posibles c odigos Las longitudes medias de cada uno de los c odigos valen,
8 8

L1 =
i=1

lcod1i f reci = 2, 23

L2 =
i=1

lcodi = 8

8 i=1

3 = 3. 8

Como la equiprobabilidad, en nuestro caso la igualdad de frecuencias, supone la m axima incertidumbre, L2 = 3 es el m aximo n umero de bits por car acter que necesitaremos para codicar el archivo. El c odigo 1 exige, por t ermino medio, 2,23 bits y supondr a una reducci on del 25 %. La entrop a de una variable X con soporte DX = {A, B, C, D, F, G, H } y funci on de cuant a, pi = f reci , i = 1, . . . , 8, vale
8

HX =
i=1

f reci log2 (f reci ) = 2, 0651.

Esta es la m axima reducci on que podremos alcanzar.

2.2.

Comprobaci on de software cr tico

Son muchos los dispositivos hoy en d a que funcionan con un software interno. Algunos de estos dispositivos, por el tipo de actividad a la que est an ligados, no pueden fallar nunca, entendiendo por nunca que su tasa de fallos sea extremadamente peque na. En otras ocasiones, el fallo del dispositivo da lugar a molestias soportables y las exigencias de funcionamiento del software son, l ogicamente, menores.

18

Esperanza. Desigualdades. Funci on caracter stica

Un ejemplo de esta segunda situaci on son los programas que hacen funcionar nuestros aparatos electrodom esticos o nuestros tel efonos m oviles. Pero imaginemos el software que controla el funcionamiento de un avi on o de un dispositivo cl nico del cual depende la vida de una persona. En estos casos los fallos esperables han de ser m nimos, del orden quiz as de 1 fallo por cada 106 horas de funcionamiento. Si reparamos que tal cantidad de horas son, aproximadamente, 114 a nos caeremos en la cuenta de la dicultad que implica efectuar un control de calidad del software para comprobar si, efectivamente, su tasa de fallos es la deseada. En la industria, ante situaciones semejantes, se somete a los sistemas a una situaci on de stress que induzca fallos m as frecuentes. Un m etodo semejante puede adoptarse para controlar la calidad de este tipo de software altamente able. Para ello podemos introducir en el sistema datos que produzcan tasas de fallo mucho m as elevadas de las habituales en la pr actica, calcular la frecuencia relativa de fallos obtenida y aplicar el reajuste correspondiente mediante el factor de stress utilizado. Lo que se propone, si T es la variable que mide el tiempo de fallo, es simplemente multiplicar P (T > t0 ) por un factor adecuado. Esta aproximaci on probabil stica al problema se conoce con el nombre de muestro de importancia 1 , cuya aplicaci on veremos a continuaci on con un ejemplo simulado. Queremos estimar P (T > t0 ), donde t0 es el l mite admitido de fallo del software. La metodolog a habitual consiste en probar repetidamente el software y contar las ocasiones en las que el tiempo de fallo, T , sobrepasa t0 , pero si la probabilidad a estimar es del orden de 106 necesitar amos llevar a cabo del orden de 108 simulaciones para poder efectuar la estimaci on. Aunque en la pr actica raras veces se conoce la distribuci on de T , para el ejemplo podemos suponer que T N (0, 1) y vamos a estimar P (T > 4,75) que sabemos es del orden de 2, 85 106 . Recordemos que
+

P (T > 4,75) =
4,75

1 x2 exp 2 2

dx,

que podemos escribir,


+

P (T > 4,75) =
4,75

x 1 exp 2 2 fY (x)

fY (x)dx

(2.2)

donde f (x) es la densidad de alguna variable aleatoria Y tal que P (Y > 4,75) P (T > 4,75). Por ejemplo, si Y Exp(1), P (Y > 4,75) = exp(4,75) = 0,086. Si utilizamos esta distribuci on, (2.2) se escribe
+

P (T > 4,75) =
4,75 +

x 1 exp 2 exp(x)dx 2 exp(x)

=
0 +

1]4,75;+[ (x)

x2 1 exp + x exp(x)dx 2 2 (2.3)


2

=
0

g (x) exp(x)dx.

Pero (2.3) no es m as que E [(g (Y )] con g (y ) = 1]4,75;+[ (y ) 1 exp y2 + y y donde 1]4,75;+[ (y ) 2 es la funci on indicatriz del intervalo ]4,75; +[. C omo utilizar esta esperanza a efectos pr acticos? Podemos estimar la esperanza mediante la media aritm etica de los valores de g (y ) obtenidos mediante una simulaci on de Montecarlo.
1 R.

Y. Rubinstein (1981), Simulation and the Monte Carlo Method. New York. Wiley.

2.3 Codicaci on de im agenes

19

N 104 105 106 107

P (T > 4,75) estimada real 8,13 107 1,02 106 9,86 107 1,02 106 1,03 106 1,02 106 9,89 107 1,02 106

#{Y > 4,75} 83 880 8765 86476

Tabla 2.4: Aplicaci on del muestreo de importancia a la estimaci on de probabilidades muy peque nas Para ello generaremos N valores de la Exp(1) y con ellos calcularemos g (x) y a continuaci on su media aritm etica, (T > 4,75) P 1 N 1 N
N

g (xi )
i=1 N i=1

1]4,75;+[ (xi )

1 x2 exp i + xi . 2 2

La ventaja del m etodo estriba en que obtener valores de Y que excedan 4,75 es mucho m as probable. Por ejemplo, si N = 10000 esperaremos que haya alrededor de 86 valores mayores que 4,75. Se nalemos que g (y ) representa el cociente entre dos densidades, la que realmente corresponde a al variable a controlar y la cticia que corresponde a una nueva variable elegida porque P (Y > t0 ) P (T > t0 ). Es este cociente el que estimamos con el m etodo de Montecarlo descrito. La Tabla 2.4 muestra las estimaciones obtenidas para P (T > 4,75) con simulaciones de distinto tama no. Se muestra tambi en en cada caso el n umero de valores de la variable de importancia que han excedido el umbral de 4,75.

2.3.

Codicaci on de im agenes

El almacenamiento y transmisi on de archivos de im agenes plantea problemas semejantes a los generados por los archivos de datos. Si cabe de mayor entidad dada la mayor complejidad de aquellos archivos. El formato de codicaci on JPEG, uno de los m as standard, se basa en el hecho de que existen partes en una imagen en las que no cambia sustancialmente su contenido. Por ejemplo, si estamos barriendo horizontalmente la imagen de una casa cuyas paredes son de color blanco existir an largas secuencias de p xels con pr acticamente el mismos valor, de forma que conocido el valor en p xel conocemos, casi con seguridad, cual es el valor del siguiente o, de forma m as general, de sus vecinos. La raz on para ello es que las variables aleatorias que representan el valor en cada pixel est an fuertemente correlacionadas. Es decir, si X1 y X2 representa a dos p xels vecinos, X1 X2 1. Qu e ventaja podemos obtener de este hecho? Para dar respuesta a la pregunta necesitamos introducir el concepto de recta de regresi on.

2.3.1.

Recta de regresi on

Consideremos un vector aleatorio (X, Y ). Queremos encontrar una relaci on funcional entre Y y X , Y = f (X ), con nes predictivos que cumpla las condiciones de bondad y sencillez.

20

Esperanza. Desigualdades. Funci on caracter stica

La funci on m as sencilla posible es la recta y por lo que respecta a la bondad haremos uso del principio de los m nimos cuadrados, lo que implica elegir los par ametros de la recta de forma que L(a, b) = E (Y aX b)2 sea m nimo. La obtenci on de a y b se reduce a un problema de m aximos y m nimos y basta igualar a 0 las derivadas parciales L/a y L/b. Si lo hacemos obtendremos, a= cov (X, Y ) , var(X ) b = E (Y ) aE (X ).

La ecuaci on de la que se conoce como recta de regresi on de Y sobre X tendr a por expresi on, Y E (Y ) = cov (X, Y ) (X E (X )). var(X ) (2.4)

2.3.2.

Codicaci on de im agenes y regresi on m nimo cuadr atica

El pixel i de la imagen se modeliza mediante una variable aleatoria, Xi , de manera que todas las Xi tienen la misma distribuci on de probabilidad. Sin perdida de generalidad podemos suponer que las variables est an centradas y su media es 0. En este caso, el coeciente de correlaci on entre dos cualesquiera de ellas puede escribirse, Xi Xj = cov (Xi , Xj ) var(Xi ) var(Xj ) = cov (Xi , Xj ) , var(Xi )

puesto que var(Xi ) = var(Xj ). A partir de (2.4), la recta de regresi on de Xj sobre Xi adoptar a la expresi on Xj = Xi Xj Xi . Si se trata de p xels vecinos con |Xi Xj = 1|, el valor que tome Xj ser a Xi , dependiendo del signo de Xi Xj . Parece absurdo, desde el punto de vista de la optimizaci on de recursos, sea para almacenar o transmitir, escribir Xi = xi y a continuaci on Xi+1 = xi+1 = xi . i+1 = |Xi | = xi . Ahora bien, si |X X | < 1 Podemos almacenar Xi y predecir Xi+1 como X i i+1 cometeremos un error que ser a tanto m as perceptible cuanto m as alejado est e de la unidad el valor de Xi Xi+1 . La codicaci on JPEG utiliza las propiedades de la correlaci on entre las componentes del vector aleatorio X = (X1 , X2 , . . . , Xn ) constituido por los n p xels de la imagen. Se trata de una versi on de la transformada de Karhunen-Lo` eve, de la que m as adelante nos ocuparemos, cuyo algoritmo es el siguiente: 1. Transformar X en un nuevo vector Y cuyas componentes son incorreladas, mediante una transformaci on lineal Y = AX , donde A es una matriz cuadrada invertible de dimensi on n. na frente a las del resto. 2. Eliminar aquellas componentes de Y cuya varianza es muy peque con algunas componentes iguales a 0, que ser Ello dar lugar a un nuevo vector Y a el que se almacena o transmite. L ogicamente, las componentes nulas no necesitan ser codicadas, pero s es necesario conocer su posici on. = A 1 Y que ser on inicial para obtener X a una aproximaci on 3. Deshacer la transformaci del vector original.

2.3 Codicaci on de im agenes

21

Si X y Y designan las matrices de covarianza del vector original y del transformado, la incorrelaci on de las componentes de Y implica que Y es una matriz diagonal. La matriz A es por tanto la matriz que diagonaliza X , es decir, A = V T , donde V es la matriz de los vectores propios de X . Tendremos Y = = AX AT V T X V var(Y1 ) 0 0 var (Y2 ) = = . . . . . . 0 0

. . .

0 0 . . . var(Yn )

En los dos ejemplos que siguen consideramos dos situaciones distintas: la primera que permite una reconstrucci on id entica de la imagen original y la segunda en la que la reconstrucci on comporta errores. Ejemplo 2.3 (Reconstrucci on id entica) Supongamos que la imagen a codicar est a representada por el vector X = (X1 , X2 , X3 , X4 ), con vector de medias nulo y cuyas matrices de covarianzas y correlaciones valen, 5 1 2 5 1,0000 0,2582 0,4473 0,4663 1 3 1 5 0,2582 1,0000 0,2887 0,6019 X = = 2 1 4 9 , 0,4473 0,2887 1,0000 0,9383 . 5 5 9 23 0,4663 0,6019 0,9383 1,0000 Aun cuando ninguna correlaci on es la unidad, si calculamos E [(X4 (X2 + 2X3 ))2 ], recordando que E (Xi ) = 0, i, obtendremos, E [(X4 (X2 + X3 ))2 ] = = = =
2 E [X4 + (X 2 + 2X3 )2 2X4 (X2 + 2X3 )] 2 E (X4 ) + E ((X 2 + 2X3 )2 ) 2E [X4 (X2 + 2X3 )] 2 2 2 E (X4 ) + E (X2 + 4X 3 + 4X2 X3 ) 2[E (X4 X2 ) + 2E (X4 X3 )] var(X4 ) + var(X 2) + 4var(X3 ) + 4cov (X2 , X3 ) 2[cov (X4 , X2 ) + cov (X4 , X3 )] = 0,

y como (X4 (X2 + 2X3 ))2 0, se deduce que P (X4 = X2 + X3 ) = 1, con lo que el valor de X4 viene determinado por el de X2 y X3 . La matriz A es la traspuesta de la matriz de los vectores propios de X , 0,2236 0,1940 0,3478 0,8896 0,9718 0,1123 0,0450 0,2022 , A=VT = 0,0743 0,8849 0,4587 0,0324 0,0000 0,4082 0,8165 0,4082 y Y valdr a, 28,8660 0 0 0 3 , 7513 0 T = = AX A = 0 0 2,3826 0 0 0 0 0 . 0 0

22

Esperanza. Desigualdades. Funci on caracter stica

En el vector transformado, Y , podemos prescindir de la cuarta componente por tener varianza = (Y1 , Y2 , Y3 , 0). Observemos que nula. El vector que almacenaremos o transmitiremos ser aY Y = BY con 1 0 0 0 0 1 0 0 B= 0 0 1 0 . 0 0 0 0 Si queremos ahora reconstruir el vector original, como V V T = I , A1 = V , tendremos = A1 Y =VY = V BY = V BV T X . X Calculemos V BV T , V BV T = con lo que X1 5 1 X X + 1X = 6 2 3 3 6 4 X 1 1 3 X2 + 1 3 X3 + 3 X4 1 1 5 6 X2 + 3 X3 + 6 X4 = (sustituyendo X4 = X2 + 2X3 ) = X1 X2 . X3 X4 1 0 0 0 0
5 6 1 3 1 6

0 1 3
1 3 1 3

0
1 6 1 3 5 6

Hemos recuperado un vector id entico al original. Ejemplo 2.4 (Reconstrucci on con error) Supongamos ahora que la imagen a codicar est a representada por el vector X = (X1 , X2 , X3 , X4 ), con vector de medias nulo y cuyas matrices de covarianzas y correlaciones valen, 6 5,7 0 0 1,00 0,95 0,00 0,00 5,7 6 0,95 1,00 0,00 0,00 0 0 , X = = 0 0,00 0,00 1,00 0,95 . 0 4 3 ,8 0 0 3,8 4 0,00 0,00 0,95 1,00 A diferencia del ejemplo anterior, observamos ahora que las variables X1 , X2 , y X3 , X4 est an muy correlaciondas, X1 X2 = X3 X4 = 0,95. Veamos ahora que valen las distintas matrices y, en particular, c omo es el vector reconstruido. La matriz A es la traspuesta de la matriz de los vectores propios de X , 0,7071 0,7071 0,0000 0,0000 0,0000 0,0000 0,7071 0,7071 , A=VT = 0,7071 0,7071 0,0000 0,0000 0,0000 0,0000 0,7071 0,7071 y Y valdr a, Y 11,7 0 0 0 0 7 ,8 0 0 . = = AX AT = 0 0 0 ,3 0 0 0 0 0,2

2.3 Codicaci on de im agenes

23

Como las varianzas de las dos u ltimas componentes del vector transformado son muy peque nas frente a las de las los primeras, podemos prescindir de ellas. El vector que almacenaremos o = (Y1 , Y2 , 0, 0). Observemos que Y = BY con transmitiremos ser aY 1 0 0 0 0 1 0 0 B= 0 0 0 0 . 0 0 0 0 Para reconstruir el vector original, como V V T = I , A1 = V , y =VY = V BY = V BV T X . = A1 Y X Obtengamos V BV T , V BV
T

= 0 0
1 2 (X1 1 2 (X1

1 2 1 2

1 2 1 2

0 0
1 2 1 2

0 0

0 0 , 1 2
1 2

y nalmente

+ X2 ) . 1 2 (X3 + X4 ) 1 2 (X3 + X4 ) + X2 )

= X

Las componentes originales X1 y X2 son reemplazadas por la media de sus valores, al igual que X3 y X4 . La explicaci on reside en los valores elevados, cercanos a 1, de los correspondientes coecientes de correlaci on. El error cuadr atico medio, M SE , que esta reconstrucci on supone podemos calcularlo.
4

M SE

= = = = =

E
i=1 2

i )2 (Xi X
4

E
i=1

{Xi (X1 + X2 )/2}

+E
i=3

{Xi (X3 + X4 )/2}

1 1 E [(X1 X2 )2 ] + E [(X3 X4 )2 ] 2 2 1 1 [var(X1 ) + var(X2 ) 2cov (X1 , X2 )] + [var(X3 ) + var(X4 ) 2cov (X3 , X4 )] 2 2 1 (6 + 6 2 5,7 + 4 + 4 2 3,7) = 0,5. 2

Obs ervese que, dados los valores de las varianzas, si las correlaciones hubieran valido 1 el error cuadr atico medio hubiera sido 0. Por u ltimo, hemos generado 20 vectores X = (X1 , X2 , X3 , X4 ) de una normal multivariante con vector de medias nulo y matriz de covarianzas la X del ejemplo. Estos 4 20 = 80 valores constituyen la imagen original. Ella y su imagen recuperada se muestran en la Figura 2.3 con el n de comprobar visualmente la calidad del proceso.

24

Esperanza. Desigualdades. Funci on caracter stica

Imagen original

X4

2 0 2 4

X3

X2

X1

10 11 12 13 14 15 16 17 18 19 20

Imagen recuperada

X4

2 0 2 4

X3

X2

X1

10 11 12 13 14 15 16 17 18 19 20

Figura 2.3: Im agenes original y recuperada

Cap tulo 3

Sucesiones de variables aleatorias. Teoremas de convergencia


3.1.
3.1.1.

Aplicaciones de la ley de los grandes n umeros


El teorema de Glivenko-Cantelli

Para las variables aleatorias X1 , X2 , . . . , Xn se dene la funci on de distribuci on emp rica mediante n 1 Fn (x, ) = 1],x] (Xk ( )). n
k=1

Cuando todas las variables tienen la misma distribuci on, Fn (x, ) es el estimador natural de la funci on de distribuci on com un, F (x). El acierto en la elecci on de este estimador se pone de maniesto en el siguiente resultado. Teorema 3.1 Sea {Xk } una sucesi on de variables aleatorias i.i.d. con funci on de distribuci on a.s. com un F (x), entonces Fn (x, ) F (x). Demostraci on.- Para cada x, Fn (x, ) es una variable aleatoria resultante de sumar las n variables aleatorias independientes, 1],x] (Xk ( )), k = 1, . . . , n, cada una de ellas con la misma esperanza, E (1],x] (Xk ( ))) = P (Xk x) = F (x). Aplicando la ley fuerte de los grandes n umeros, a.s. Fn (x, ) F (x), que es el resultado buscado. Este resultado es previo al teorema que da nombre al apartado y que nos permite contrastar la hip otesis de suponer que F es la distribuci on com un a toda la sucesi on. on de variables aleatorias i.i.d. con Teorema 3.2 (Glivenko-Cantelli) Sea {Xk } una sucesi funci on de distribuci on com un F (x). Hagamos Dn ( ) = supx |Fn (x, ) F (x)|, entonces a.s. Dn 0. La demostraci on, muy t ecnica, la omitimos y dejamos al inter es del lector consultarla en el texto de Billingsley (1995), Probability and Measure. 3rd Edition, Wiley, N.Y.

26

Sucesiones de variables aleatorias. Teoremas de convergencia

3.1.2.

C alculo aproximado de integrales por el m etodo de MonteCarlo


1

Sea f (x) C ([0, 1]) con valores en [0, 1]. Una aproximaci on al valor de 0 f (x)dx puede obtenerse a partir de una sucesi on de pares de variables aleatorias distribuidas uniformemente en [0, 1], (X1 , Y1 ), (X2 , Y2 ), . . .. Para ello hagamos, Zi = 1, si f (Xi ) Yi 0, si f (Xi ) < Yi .

As denidas las Zi son variables Bernoulli con par ametro p = E (Zi ) = P (f (Xi ) Yi ) = 1 f (x)dx, y aplic andoles la ley fuerte de los grandes n umeros tendremos que 0 1 n
n i=1

Zi
0

a.s.

f (x)dx,

lo que en t erminos pr acticos supone simular los pares (Xi , Yi ), i = 1, . . . , n, con Xi e Yi U (0, 1), y calcular la proporci on de ellos que caen por debajo de la gr aca y = f (x).

3.1.3.

Aproximaci on de funciones
n

Sea g una funci on acotada denida sobre [0, 1], la funci on Bn denida sobre [0, 1] mediante Bn (x) =
k=0

k n

n k x (1 x)nk , k

es conocida como polinomio de Bernstein de grado n. El teorema de aproximaci on de Weierstrass asegura que toda funci on continua sobre un intervalo cerrado puede ser aproximada uniformemente mediante polinomios. Probemos dicha armaci on para los polinomios de Bernstein. Si la funci on g a aproximar es continua en [0, 1], ser a uniformemente continua, entonces > 0, > 0 tal que |g (x) g (y )| < , si |x y | < . Adem as g estar a tambi en acotada y por tanto |g (x)| < M, x [0, 1]. Sea ahora un x cualquiera en [0, 1],
n

|g (x) Bn (x)| =

g (x)
k=0 n

n k x (1 x)nk k k n

g
k=0

k n

n k x (1 x)nk k

g (x) g
k=0

n k x (1 x)nk k k n k n n k x (1 x)nk + k n k x (1 x)nk k

=
|k/nx|<

g (x) g +
|k/nx|

g (x) g

+ 2M
|k/nx|

n k x (1 x)nk . k

3.2 Una curiosa aplicaci on del TCL: estimaci on del valor de

27

Si Zn B (n, x), el u ltimo sumatorio no es m as que P y tendremos |g (x) Bn (x)| + 2M P pero por la ley de los grandes n umeros Zn P x y por tanto n P Zn x n 0, Zn x , n Zn x n =
|k/nx|

n k x (1 x)nk , k

lo que demuestra la convergencia uniforme de Bn a g en [0, 1].

3.2.

Una curiosa aplicaci on del TCL: estimaci on del valor de

De Moivre y Laplace dieron en primer lugar una versi on local del TCL al demostrar que si X B (n, p), 1 2 1 P (X = m) np(1 p) e 2 x , (3.1) 2 on nos va a servir para estudiar para n sucientemente grande y x = mnp . Esta aproximaci
np(1p)

la credibilidad de algunas aproximaciones al n umero obtenidas a partir del problema de la aguja de Buon. Recordemos que en el problema planteado por Buon se pretende calcular la probabilidad de que una aguja de longitud l, lanzada al azar sobre una trama de paralelas separadas entre si una distancia a, con a > l, corte a alguna de las paralelas. Puestos de acuerdo sobre el signicado de lanzada al azar, la respuesta es P (corte) = 2l , a

resultado que permite obtener una aproximaci on de si, conocidos a y l, sustituimos en = 2l la probabilidad de corte por su estimador natural la frecuencia relativa de corte, p, a aP (corte) lo largo de n lanzamientos. Podremos escribir, si en lugar de trabajar con lo hacemos con su inverso, 1 am = , 2ln donde m es el n umero de cortes en los n lanzamientos. El a no 1901 Lazzarini realiz o 3408 lanzamientos obteniendo para el valor 3,1415929 con 6 cifras decimales exactas!!. La aproximaci on es tan buena que merece como m nimo alguna peque na reexi on. Para empezar supongamos que el n umero de cortes aumenta en una unidad, las aproximaciones de los inversos de correspondientes a los m y m + 1 cortes diferir an en a 1 a(m + 1) am = , 2ln 2ln 2ln 2n
4 que si n 5000, da lugar a 21 . Es decir, un corte m as produce una diferencia mayor n 10 que la precisi on de 106 alcanzada. No queda m as alternativa que reconocer que Lazzarini

28

Sucesiones de variables aleatorias. Teoremas de convergencia

tuvo la suerte de obtener exactamente el n umero de cortes, m, que conduc a a tan excelente aproximaci on. La pregunta inmediata es, cual es la probabilidad de que ello ocurriera?, y para responderla podemos recurrir a (3.1) de la siguiente forma, P (X = m) 1 2np(1 p) e 2np(1p)
(mnp)2

1 2np(1 p)

que suponiendo a = 2l y p = 1/ nos da para P (X = m) la siguiente cota P (X = m) . 2n( 1)

Para el caso de Lazzarini n=3408 y P (X = m) 0,0146, m. Parece ser que Lazzarini era un hombre de suerte, quiz as demasiada.

Cap tulo 4

Procesos Estoc asticos


4.1. Derivaci on alternativa del Proceso de Poisson

Al describir el proceso de Poisson en el Cap tulo 4 de Montes (2007), se nal abamos la existencia de un m etodo alternativo para derivar el proceso. Este m etodo se basa en resultados elementales de Teor a de la Probabilidad y requiere establecer las siguientes condiciones iniciales para el fen omeno aleatorio, en las que la variable aleatoria Nt ={n umero de sucesos ocurridos hasta el tiempo t}: CA1) si t1 < t2 < t3 , los sucesos {Nt2 t1 = n} y {Nt3 t2 = m} son independientes, para cualesquiera valores no negativos de n y m, CA2) los sucesos {Nt2 t1 = n}, n = 0, 1, . . ., constituyen una partici on del espacio muestral y P (Nt2 t1 = n) depende s olo de la diferencia t2 t1 , CA3) si t es sucientemente peque no, entonces P (Nt 2) es despreciablemente peque na comparada con P (Nt = 1), es decir l m
t 0

P (Nt 2) 1 P (Nt = 0) P (Nt = 1) = l m = 0, t 0 P (Nt = 1) P (Nt = 1) 1 P (Nt = 0) = 1. P (Nt = 1)

(4.1)

lo que equivale a l m
t 0

(4.2)

Es decir, la probabilidad de que ocurra al menos un suceso es, en el l mite, igual a la probabilidad de que ocurra exactamente uno. Comencemos por observar que dadas las tres condiciones se deduce que P (N0 = 0) = 1, P (N0 = k ) = 0, k 1, y P (Nt = 0) es una funci on mon otona decreciente. Estas propiedades junto las condiciones CA1 y CA2 nos permiten escribir, para t1 < t2 < t3 , t2 t1 = t y t3 t2 = s, P (Nt+s = 0) = = = = P (Nt3 t1 = 0) P (Nt2 t1 = 0, Nt3 t2 = 0) P (Nt2 t1 = 0)P (Nt3 t2 = 0) P (Nt = 0)P (Ns = 0).

30

Procesos Estoc asticos

Se trata por tanto de una funci on aditiva. Un funci on exponencial que cumple esta condici on puede ser la soluci on. As , podemos suponer que P (Nt = 0) = pt . (4.3)

Obviamente se cumple que 0 P (Nt = 0) 1 por tratarse de una probabilidad. Ello supone que p puede responder a una de las tres alternativas siguientes: 1. p = 0, lo que implica P (Nt > 0) = 1, t, y supone que ocurrir an una innidad de sucesos en cualquier intervalo de tiempo. Un proceso de estas caracter sticas carece de inter es. 2. p = 1, supone que no ocurre nunca ning un suceso y estamos nuevamente ante un fen omeno carente de inter es. nica alternativa de inter es y de la que nos vamos a ocupar 3. 0 < p < 1, que representa la u en adelante. Supuesto por tanto que en (4.3) 0 < p < 1, podemos escribir p = e , con = ln p > 0. Podremos reescribir (4.3) de la forma P (Nt = 0) = et . Para determinar el valor de P (Nt = k ), observemos en primer lugar que P (Nt = k ) = 0, t0 t l m En efecto, 0 P (Nt = k )
k2

(4.4)

k 2.

(4.5)

P (Nt = k ) = 1 P (Nt = 0) P (Nt = 1),

k 2,

y de aqu , 0 P (Nt = k ) 1 P (Nt = 0) P (Nt = 1) P (Nt = 1) . t P (Nt = 1) t (4.6)

Si aplicamos ahora (4.1) al primer factor del u ltimo miembro de la desigualdad obtendr amos (4.5) siempre que P (Nt = 1) l m t0 t se mantuviera nito, pero si recurrimos a (4.2),
t0

l m

[1 P (Nt = 0)]/t = 1. P (Nt = 1)/t

Es decir,

1 P (Nt = 0) P (Nt = 1) = l m , (4.7) t0 t0 t t pero el primer l mite es justamente P (N0 = 0), que existe dada la expresi on (4.4), y el segundo l mite ser a por tanto nito. En denitiva, (4.5) se cumple y si tenemos en cuenta adem as que P (N0 = k ) = 0, se deduce que l m P (N0 = k ) = 0, k 2, (4.8)

lo que prueba la existencia de dicha derivada. Supongamos ahora que {el suceso ha ocurrido k veces en el intervalo [0, t + t[ }. Tres son las posibles alternativas para este hecho,

4.2 Planicaci on de sem aforos

31

k 1 ocurrencias en [0, t[ y 1 en [t, t + t[, k ocurrencias en [0, t[ y 0 en [t, t + t[, o a lo sumo k 2 ocurrencias en [0, t[ y al menos 2 en [t, t + t[. De acuerdo con las CA1 y CA2 tendremos P (Nt+t = k ) = P (Nt = k 1)P (Nt = 1) + P (Nt = k )P (Nt = 0) + R. De aqu , P (Nt+t = k ) P (Nt = k ) = P (Nt = k )[P (Nt = 0) 1] + P (Nt = k 1)P (Nt = 1) + R, (4.10) y dividiendo por t, pasando al l mite y teniendo en cuenta (4.3), (4.5) y que por (4.7) P (N0 = 0) = P (N0 = 1), obtendremos P (Nt = k ) = [P (Nt = k 1) P (Nt = k )], k = 1, 2, . . . , (4.11) (4.9)

un sistema recursivo de ecuaciones diferenciales lineales de primer orden, cuyas condiciones iniciales son, recordemos, P (N0 = 0) = 1, P (N0 = k ) = 0, k 1, derivadas de las condiciones iniciales impuestas al fen omeno. Conocemos adem as una soluci on particular, P (Nt = 0) = et , la soluci on general ser a de la forma P (Nt = k ) = et Ck (t). Respecto de las condiciones iniciales de Ck (t), por (4.4), CO (t) = 1, y P (N0 = 0) = 1 P (N0 = k ) = 0 Sustituyendo (4.15) en (4.11) obtenemos Ck (t) = Ck1 (t), y aplicando la recursividad y los valores iniciales encontrados, llegamos a Ck (t) = y nalmente, (t)k , k! (4.14) (4.13) CO (0) = 1 CO (k ) = 0, k 1. (4.12)

(t)k t e , k 0. k! Es decir, que la variable Nt se distribuye como una Poisson de par ametro t. P (Nt = k ) =

(4.15)

4.2.

Planicaci on de sem aforos

La instalaci on de sem aforos es una decisi on que toman los ingenieros de tr aco en funci on de una serie de criterios, entre los cuales el m as decisivo es una elevada tasa de accidentes en el lugar examinado. El proceso de Poisson es una herramienta v alida para estimar la tasa de accidentes en un punto conictivo de tr aco. Ve amoslo en un ejemplo hipot etico. En el cruce de calles que se muestra en la Figura (4.1) conuyen dos calles de sentido u nico, N-S y E-O, y cuenta como u nica se nalizaci on con sendas se nales de Stop. La tasa de accidentes

32

Procesos Estoc asticos

llegadas de automviles

E-O
S T O P STOP

Figura 4.1: Esquema del cruce de calles (izquierda) y secuencia de llegadas de autom oviles en ambas calles (derecha)

es elevada, probablemente debida a que los conductores no respetan la se nal de Stop, a lo sumo reducen su velocidad. Esta es la hip otesis de manejan los ingenieros de tr aco de la ciudad. Para corroborarla deben estimar la media de accidentes que cabe esperar que ocurran si dicha hip otesis es cierta. La estimaci on requiere, en primer lugar, un an alisis del tr aco en el cruce. Concretamente datos referidos a los tiempos de llegada de los veh culos en cada una de las dos calles. La Figura (4.1) muestra parte de las dos secuencias de llegada. Una primera y razonable hip otesis, que puede corroborarse con los datos observados, es aceptar que se trata de sendos proceso de Poisson con igual par ametro, , y que los tiempos entre llegadas en cada sentido son independientes. Si por TE y TN designamos los tiempos de llegadas en el sentido E-O y N-S, respectivamente, ambos se distribuyen Exp(). Si la hip otesis de que los conductores no se detienen es cierta, dos veh culos colisionar an cuando lleguen ambos en un corto intervalo de tiempo, |TE TN | t0 . El diferencial de tiempo t0 se calcula en funci on de la longitud de los coches y de su velocidad. Si por simplicar admitimos que tienen igual longitud, l, y circulan a igual velocidad, v , t0 = l/v . Por ejemplo, para coches de 4,5 metros de longitud que circulen a 40 km/hora (unos 11 m/s) t0 0,4 segundos. Ocurrir a un accidente si los coches llegan con un lapso de tiempo menor a 4 d ecimas de segundo. Para poder contar los accidentes denimos una nueva variable Yi =
(i)

donde TE es el tiempo de llegada del i- esimo autom ovil en sentido E-O, y TN es el tiempo de llegada del j - esimo autom ovil en sentido N-S. Tal como la condici on est a planteada, comparamos la llegada de un autom ovil jo, el i- esimo, en la direcci on E-O con todos los autom oviles que llegan en la otra direcci on. Podr amos tambi en expresar la condici on de la forma m n |TE TN | t0 .
j (i) (j )

S-N
NS
| | ||| | || | | | | | | || || | | || | || | |

EO
| | || | || | | | | || || | || | | || | |

500

1000

1500 segundos

2000

2500

3000

1, 0,

si al menos un j tal que |TE TN | t0 ; en caso contrario,


(j )

(i)

(j )

4.2 Planicaci on de sem aforos

33

El n umero total de accidentes en un intervalo de tiempo [0, t] vendr a dado por la suma,
Nt

Xt =
i=1

Yi .

(4.16)

Hemos de llamar la atenci on sobre esta suma porque su l mite superior es una variable aleatoria, concretamente el n umero de llegadas que han tenido lugar en la direcci on E-O durante el intervalo de tiempo [0, t], cuya distribuci on es P o(). A la hora de calcular su esperanza lo m as sencillo es recurrir a la esperanza condicionada y hacer uso de la igualdad, E (Xt ) = E [E (Xt |Nt )], pero E (Xt |Nt = nt ) =
i=1 nt

E (Yi ) = nt E (Yi ).

De aqu E (Xt ) = E [E (Xt |Nt )] = E [Nt E (Yi )] = tE (Yi ). Por otra parte E (Yi ) = P (m n |TE TN | t0 ).
j (i) (j )

(4.17)

Para obtener esta probabilidad podemos recurrir a condicionarla, P (m n |TE TN | t0 ) =


j (i) (j ) 0 j

P (m n |TE TN | t0 |TE = t)fE (t)dt


j

(i)

(j )

(i)

(4.18) (4.19) (4.20)

=
0

P (m n |t TN | t0 )fE (t)dt P (t t0 m n TN t + t0 )fE (t)dt,


j (j )

(j )

=
0 (i)

donde fE (t) es la funci on densidad de TE . El paso de (4.18) a (4.19) se justica porque las (i) (j ) (j ) variables TE y TN son independientes j . El suceso {t t0 m nj TN t + t0 } que aparece en la integral (4.20) equivale a que en el intervalo [t t0 , t + t0 ] tenga lugar al menos una llegada de veh culos en sentido N-S, su complementario supone que no hay ninguna llegada en dicho intervalo y por tanto, P (t t0 m n TN t + t0 ) =
j (j )

1 P (N[tt0 ,t+t0 ] = 0)

(4.21) (4.22) (4.23)

= 1 P (N2t0 = 0) = 1 exp(2t0 ).

El paso de (4.21) a (4.22) se justica por la propiedad de los incrementos independientes estacionarios. Sustituyendo (4.23) en (4.20) y a su vez en (4.17) E (Yi ) = =
0

P (m n |TE TN | t0 )
j

(i)

(j )

(1 exp(2t0 ))fE (t)dt 1 exp(2t0 ).

34

Procesos Estoc asticos

Por u ltimo E (Xt ) = t(1 exp(2t0 )), que podemos expresar tambi en en t erminos de n umero medio de accidentes por unidad de tiempo. E (Xt ) = (1 exp(2t0 )). t Si, como en el ejemplo que propon amos t0 = 0,4 segundos, la media de accidentes por segundo ser a E (Xt ) = (1 exp(0,8)). t Para utilizar la hora como unidad de tiempo haremos el cambio h = 3600 y al sustituir en la anterior expresi on, 3600E (Xt ) 0,8h Mh = = h 1 exp , t 3600 donde t se expresa ahora en horas. En la gr aca de la Figura 4.2 vemos la evoluci on de Mh a medida que aumenta h .

media de accidentes por hora

0.0 0

0.2

0.4

0.6

0.8

1.0

10

20

30 tasa de llegadas

40

50

60

Figura 4.2: Media de accidentes por hora en funci on de la tasa de llegadas

4.3.

Cadenas de Markov continuas en el tiempo: abilidad de un multiprocesador

Disponen de un computador con dos procesadores independientes y queremos modelizar el comportamiento del sistema a lo largo del tiempo. Se trata de un sistema con tres estados: s1 = 0, que indica que ambos procesadores no funcionan. s1 = 1, que indica que s olo uno de los procesadores funciona. s1 = 2, que indica que ambos procesadores funcionan.

4.3 Cadenas de Markov continuas en el tiempo: abilidad de un multiprocesador 35

El modelo probabil stico que describe los tiempos de espera, sea de un fallo o de una reparaci on, es el modelo exponencial. Supondremos por tanto que el tiempo de fallo Tf Exp() y el tiempo de reparaci on Tr Exp(), y que ambos son independientes. El proceso Xt , t 0 designa el estado del sistema en el instante t. Se trata de una cadena de Markov continua en el tiempo y homog enea. Para comprobarlo obtendremos los tiempos de transici on para cada cada estado, y siendo estos exponenciales la propiedad de falta de memoria har a el resto. Veamos dichos tiempos. Transici on 0 1.- Una transici on de este tipo se produce cuando ambos procesadores est an fuera de servicio y uno de ellos es reparado. Si T01 es el tiempo de transici on correspondiente y Tr1 y Tr2 los tiempos de reparaci on de los procesadores, T01 coincidir a con el tiempo del que primero est e reparado, luego T01 = m n(Tr1 , Tr2 ), y de aqu P (T01 > t) = = = = y T01 Exp(2). Transici on 1 2.- Esta transici on implica que el procesador averiado ha sido reparado y por tanto T12 = Tr Exp(). Transici on 1 0.- Para que ello ocurra el procesador que funciona debe fallar y T10 = Tf Exp(). Transici on 2 1.- Uno de los dos procesadores en funcionamiento ha de fallar y T21 ser a el tiempo del que menos tarde en hacerlo, por tanto T21 = m n(Tf1 , Tf2 ), y razonado como antes, T21 Exp(2). El resto de transiciones, 0 2 y 2 0, tienen probabilidades nulas. La obtenci on de (t), la distribuci on sobre los estados en el tiempo t, requiere un peque no rodeo. Obtendremos en primer lugar la matriz de transici on para el instante de tiempo t, P(t), y estableceremos su relaci on con (t) y (t + t). Consideremos, por ejemplo, los sucesos {Xt+t = 2} y {Xt = 1}, que representan el sistema est a en 2 en el instante de tiempo t + t y el sistema est a en 1 en el instante de tiempo t. Con la consabida notaci on, p12 (t) = P (Xt+t = 2|Xt = 1), P (m n(Tr1 , Tr2 ) > t) P (Tr1 > t, Tr2 > t) et et e2t ,

36

Procesos Estoc asticos

representa la correspondiente probabilidad de transici on. Para su c alculo escribimos, p12 (t) = = = = = = P (Xt+t = 2|Xt = 1) P (t < Tr t + t|Tr t) FTr (t + t) FTr (t) 1 FTr (t) et e(t+t) et 1 et t + o(t).

De forma an aloga podemos obtener las probabilidades para las restantes transiciones entre diferentes estados para un instante de tiempo t. Para las transiciones a un mismo estado utilizaremos las relaciones, p00 (t) = P (Xt+t = 0|Xt = 0) = P (m n(Tr1 , Tr2 ) > t + t| m n(Tr1 , Tr2 ) > t), p11 (t) = P (Xt+t = 1|Xt = 1) = P (Tf > t + t, Tr > t + t|Tf > t, Tr > t), p22 (t) = P (Xt+t = 2|Xt = 2) = P (m n(Tf1 , Tf2 ) > t + t| m n(Tf1 , Tf2 ) > t). Podemos generalizar (4.48) de Montes (2007) mediante la expresi on matricial siguiente, 0 (t + t) 1 2t t 0 0 (t) 1 (t + t) = 2t 1 ( + )t 2t 1 (t) + o(t). 2 (t + t) 0 t 1 2t 2 (t) Con unas sencillas operaciones con matrices podemos reescribir la anterior igualdad de la forma 0 (t + t) 0 (t) 2 0 0 (t) 1 (t + t) 1 (t) = 2 ( + ) 2 1 (t) t + o(t). 2 (t + t) 2 (t) 0 2 2 (t) Y dividiendo ambos lados por t y haciendo que t 0, d (t) = A (t). dt (4.24)

La matriz A recibe el nombre de generador de la cadena de Markov. La soluci on de la ecuaci on diferencia matricial (4.24) con condici on inicial dada por (0) = , distribuci on inicial sobre los estados, es (t) = eAt , donde la matriz exponencial viene dada por la serie e A t = I + At + que converge para todo t nito. 1 (At)2 + , 2! t 0,

4.4 Procesos de nacimiento y muerte (Birth-death)

37

La soluci on del anterior sistema de ecuaciones no es sencilla, pero bajo ciertos supuestos puede resolverse con facilidad. Uno de ellos es suponer que las i son constantes en el tiempo, la derivada en (4.24) ser a nula y A (t) = 0. El correspondiente sistema de ecuaciones es 20 + 1 = 0, +1 22 = 0, 0 + 1 + 2 = 1, con soluci on 2 1 2 . = ( + )2 2

Se observa que la probabilidad de que ambos procesadores fallen vale 0 = [/( + )]2 . Se puede comprobar que en un modelo para un solo procesador y con la misma distribuci on para los tiempos de fallo y reparaci on 0 = /( + ), mayor que la anterior.

4.4.

Procesos de nacimiento y muerte (Birth-death)

Una cadena de Markov en la que s olo est an permitidas las transiciones entre estados vecinos se denomina un proceso de nacimiento y muerte. Veamos dos ejemplos este tipo de procesos, con un n umero innito de estados el primero, y con un n umero nito el segundo.

4.4.1.

Colas de longitud innita

El diagrama de la Figura 4.3 muestra las transiciones entre estados vecinos, las u nicas posibles. Cuando el sistema cambia de i a i + 1 decimos que se ha producido un nacimiento, mientras que el paso contrario i a i 1 denota una muerte. Con la notaci on habitual, j (t) denota la probabilidad de que el proceso est e en el estado j en el instante t. Podemos tambi en decir que hay una poblaci on j en el instante t. Los nacimientos y las muertes muertes est an generados por un proceso de Poisson de manera que los tiempos entre ellos son variables exponenciales independientes. As , el tiempo entre nacimientos, B Exp(i ), y el tiempo entre muertes, D Exp(j ), indicando los sub ndices que los par ametros dependen del estado donde se encuentra el sistema.

i-1

i+1

i+1

i+1

i+2

Figura 4.3: Diagrama de transici on en un proceso de nacimiento y muerte Este tipo de modelos se han utilizan en teor a de colas para modelizar su evoluci on. Un nacimiento se corresponde con la llegada de un individuo a la cola y una muerte con su abandono

38

Procesos Estoc asticos

por haber sido ya atendido. Nos vamos a ocupar de una cola hipot etica sin restricciones en cuanto a su longitud, en teor a puede ser innita. En una cola de estas caracter sticas, el tiempo que ha de esperar en la cola el n- esimo llegado hasta que empieza a ser atendido puede expresarse Wn = m ax(0, Wn1 + s i ), donde s es el tiempo que tarda en ser servido el (n 1)- esimo cliente de la cola y i el tiempo entre la llegadas de los clientes n 1 y n. Siguiendo el procedimiento del ejemplo anterior podemos escribir (t + t) = B (t), donde la matriz B se obtiene por un razonamiento similar, la u nica diferencia matriz tiene innitas las y columnas. 1 0 t 1 t 0 0 t 1 ( + ) t t 0 1 1 2 B= 0 t 1 ( + ) t t 0 1 2 2 2 . . . . . . . . . . . . . . . Operando, dividiendo por t y haciendo que t 0, d (t) = A (t). dt donde la matriz generador A vale 0 1 0 0 (1 + 1 ) 2 A= 0 ( + 2 ) 1 2 . . . . . . . . . Si se alcanza equilibrio = 0 y de A = 0 obtendremos 1 = 1 0 , 2 = 2 1 = 1 2 0 , j = j j 1 = 1 j 0 , donde j = j 1 /j , j > 1. Hagamos rj = 1 j , con r0 = 1. Para que i =
i 0 i 0 i0

ahora es que la .

(4.25) .

0 2 . . .

0 . . .

i = 1 debe cumplirse, ri = 1
i 0

1 i 0 = 0

lo que exige que la serie

i0 ri

sea convergente. Si as ocurre, 0 = 1


i0 ri

y la cadena alcanza una distribuci on de equilibrio, rj j = rj 0 =

i 0 r i

, j 0.

(4.26)

En caso contrario, el denominador de (4.26) es innito y las j = 0, j y no existe distribuci on de equilibrio.

4.4 Procesos de nacimiento y muerte (Birth-death)

39

4.4.2.

Colas con par ametros de nacimiento y muerte constantes y longitud nita

Una variaci on de inter es en la situaci on anterior es suponer que los par ametros de los tiempos de nacimiento y muerte no dependen del estado, son constantes, i = , i = , y que la cola es nita y no puede sobrepasar los N individuos. Las matrices A y B son de dimensi on N N y (4.25) proporciona el siguiente sistema de ecuaciones, d0 /dt = 0 + 1 , d1 /dt = +0 ( + )1 + 2 , dN /dt = +N 1 N . La primera y la u ltima ecuaciones contienen s olo dos t erminos porque aqu ella no admite salidas y esta no permite m as llegadas. Si existe distribuci on de equilibrio, las derivadas ser an nulas y las soluciones (4.26) adquieren la forma j = j 0 , 0 j N, donde = /. Como la colas deben contener necesariamente alg un n umero de clientes j, 0 j N , se cumple, N 1 j 0 = 1 = 0 = . 1 N +1 j =0 La cola se saturar a con una probabilidad N = N (1 ) . 1 N +1

Por ejemplo, para una ratio nacimiento/muerte de 1/2 y con un tama no m aximo de cola de 10 clientes, la probabilidad de saturaci on es 4,8 104 .

4.4.3.

Aplicaci on a la transmisi on de datos a trav es de una red de comunicaciones

El movimiento de paquetes de datos a trav es de los nodos de una red de comunicaci on puede describirse mediante los modelos de colas anteriores. Los tiempos de llegada de los paquetes, los de espera en el nodo y el de procesamiento en la CPU son cantidades aleatorias cuya modelo habitual es una Exponencial. Supongamos que los nodos funcionan con un protocolo del tipo primer llegado/primer servido. Vamos a considerar los casos de buer innito y buer nito. Buer innito Si las llegadas tienen lugar seg un un proceso de Poisson homog eneo de par ametro llegadas por unidad de tiempo, y el tiempo en ser despachado el paquete es una Exp(), la expresi on (4.26) adquiere la forma, i = i 0 , 0 i, con = /. La serie i0 i converge y suma (1 )1 , s olo si < 1, u nica situaci on que por otra parte tiene sentido. Tendremos como distribuci on de equilibrio i = i (1 ), i 0.

40

Procesos Estoc asticos

Es interesante calcular el n umero medio de paquetes que habr a en la cola, E (N ) =


i0

ii = (1 )
i0

ii .

(4.27)

Se trata de una serie aritm etico-geom etrica cuya suma se obtiene de la siguiente forma. Si denotamos por S la suma de la serie, S S Restando (4.29) de (4.28), S (1 ) =
j 1

= 0 0 + 1 1 + 2 2 + 3 3 + 4 4 + = + 0 1 + 1 2 + 2 3 + 3 4 +

(4.28) (4.29)

j =

, 1

S=

, (1 )2

y sustituyendo en (4.27), E (N ) = Buer nito

. 1

Con las mismas caracter sticas del sistema anterior, pero con un buer de capacidad nita, N , es interesante obtener la probabilidad de perder un paquete. Precisemos que entendemos por ello. Supongamos que en instante t el buer est a lleno, un paquete est a siendo procesado y otro paquete est a de camino. Si el tiempo que transcurre entre el u ltimo paquete que lleg o y el que est a en camino, i , es menor que el tiempo que tarda la CPU en procesar su paquete, s , el paquete en camino se perder a. La probabilidad de este suceso, A, es P (A) = P ({buer lleno} {i < s }) N (1 ) = P (s i > 0), 1 N +1

porque los sucesos {buer lleno } y {s i > 0} son independientes. Los tiempos s y i son tambi en independientes, su densidad conjunta vale fs i (ts , ti ) = exp(ts ) exp(ti ), ts , ti 0, y P (s i > 0) =
0

exp(ti )
ti

exp(ts )dts dti = N +1 (1 ) . (1 N +1 )(1 + )

= . + 1+

Sustituyendo, P (A) =

Para = 1/2 y N = 10, la probabilidad de perder el paquete es 1,6 104 , tres veces menor que la que hab amos calculado para llenar el buer en las mismas condiciones.

Cap tulo 5

Transformaci on lineal de un proceso estacionario


5.1. Procesos autoregresivos de medias m oviles (ARMA)
q

A partir de una sucesi on de ruido blanco, Zt , podemos denir un proceso mediante el ltrado lineal nito del proceso Zt , Xt = Zt +
j =1

j Ztj .

(5.1)

El nuevo proceso recibe el nombre de proceso de medias m oviles de orden q, MA(q). Otro tipo de proceso puede denirse mediante la combinaci on lineal de los elementos que le preceden,
p

Xt =
i=1

i Xtj + Zt ,

(5.2)

que recibe el nombre de proceso autoregresivo de orden p, AR(p). Obs ervese que de esta denici on se deduce que Zt es el resultado de aplicar un ltro lineal nito al proceso Xt . La combinaci on de ambos tipos de procesos da lugar a un proceso autoregresivo de medias m oviles de orden (p,q), ARMA(p,q), cuya expresi on es,
p q

Xt =
i=1

i Xtj + Zt +
j =1

j Ztj .

(5.3)

A efectos de simplicar la notaci on, podemos introducir el operador desplazamiento hacia atr as, B , que actua de la siguiente forma, BXt = Xt1 ; se aplica reiteradamente, B 2 Xt = B (BXt ) = BXt1 = Xt2 , y en general, B m Xt = Xtm ; el operador nulo, B 0 , se representa mediante 1, de forma que 1Xt = Xt ; las funciones matem aticas de B se interpretan de la forma habitual, por ejemplo, (1 B/2)1 Xt =
i0

(B/2)i Xt = 2i Xti .

42

Transformaci on lineal de un proceso estacionario

Con este operador, un proceso ARMA(p,q) puede expresarse, (B )Xt = (B )Zt , (5.4)

donde (B ) y (B ) so polinomios de grado p y q en B , respectivamente, que cumplen la condici on (0) = (0) = 1, impuesta para evitar confusiones derivadas de cambios de escala en el proceso. Por ejemplo, si (B ) = 4 B y (B ) = 2 + 3B , (5.4) se escribe de la forma, 4Xt Xt1 = 2Zt + 3Zt1 , con Zt un ruido blanco de varianza 2 . Un expresi on equivalente ser a, 3 1 Xt Xt1 = Zt + Zt1 , 4 2 con Zt un ruido blanco de varianza 2 /4. Los polinomios en B del nuevo proceso, (B ) = 1B/4 y (B ) = 1 + 3B/2, cumplen con la condici on. Funciones de momento y espectro del proceso MA(q) En el proceso MA(q), Xt = (B )Zt , el polinomio (B ) es un polinomio de grado q ,
q

(B ) =
j =0

j B j ,

con 0 = 1. Como Zt es un ruido blanco de varianza 2 , la media y varianza de Xt valen,


q

(t) = 0,

2 (t) = 2
j =1

2 . j

La funci on de autocovarianza y autocorrelaci on, que ahora coinciden, valen R(k ) = = E (Xt xtk )
q

q i=0

i Ztki

E
j =0 q q

j Ztj

=
j =0 i=0

j i E (Ztj Ztki ).

(5.5)

Como Zt es una sucesi on de ruido blanco, las esperanzas que aparecen en (5.5) ser an distintas de cero s olo cuando t j = t k i, es decir, j = i + k . As , k 2 q i=0 i+k i , k = 0, 1, . . . , q ; R (k ) = (5.6) 0, k > q. Un rasgo caracter stico de los procesos MA(q) es el corte que se produce en la funci on de autocovarianza para valores de k > q . El espectro del proceso se deduce f acilmente de la expresi on que obtuvimos para el espectro del ltrado lineal de una sucesi on de ruido blanco, el denominado proceso lineal general (v ease (5.15) de Montes (2007)). Esta expresi on era PX ( ) = 2 |h( )|2 ,

5.1 Procesos autoregresivos de medias m oviles (ARMA)

43

donde |h( )| es la funci on de transferencia, que ahora vale


q

h( ) = (ei2 ) =
j =0

j ei2j .

As pues, PX ( ) = = 2 |h( )|2 2 2 q q 2 j sin 2j j cos 2j + j =0 j =0 2 2 q q j sin 2j 2 1 + j cos 2j + j =1 j =1

(5.7)

Ejemplo 5.1 (Proceso MA(1)) Si Xt es un proceso MA(1), (B ) = 0 + 1 B = 1 + B . Sustituyendo en (5.6) y en (5.7) obtendremos la funci on de autocorrelaci on y el espectro, respectivamente. 2 = (1 + 2 ) 2 , R(1) = 2 , R(0) = X donde 2 es la varianza de Zt . Para el espectro, PX ( ) = = 2 [(1 + cos 2 )2 + ( sin 2 )2 ] 2 (1 + 2 cos 2 + 2 ).

Funciones de momento y espectro del proceso AR(p) El proceso AR(p), (5.2), expresa Xt en funci on de los p valores anteriores del proceso m as p un ruido blanco, Xt = i=1 i Xtj + Zt . Esta forma de presentar el proceso es muy intuitiva y justica el nombre que recibe. Para el c alculo del espectro es m as conveniente ver el proceso como un ruido blanco resultado de aplicar un ltro lineal nito a Xt , Zt = (B )Xt , con
p

(B ) = 1
i=1

i B i .

Si recordamos ahora que el espectro de Zt es constante y vale 2 y aplicamos la expresi on (5.13) de Montes (2007), PZ ( ) = |(ei2 )|2 PX ( ) = 2 . Despejando PX ( ), PX ( ) = 2 1
l=1 p 2 p 2

1 . (5.8)

l cos 2l

+
l=1

l sin 2l

La existencia de PX ( ) esta condicionada a que el denominador de (5.8) sea siempre distinto de 0, lo que exige imponer ciertas restricciones a los coecientes de (B ). Por ejemplo, para p = 1 y 1 = 1, (5.8) adquiere la forma, PX ( ) = 2 , 2(1 cos2 )

44

Transformaci on lineal de un proceso estacionario

que vale 0 para = 0. El problema enlaza directamente con la WSS del proceso. En efecto, si desarrollamos [(B )]1 como serie de potencias de B , se puede expresar Xt como un proceso lineal general Xt = =
j 0

[(B )]1 Zt a j B j Zt aj Ztj .


j 0

(5.9)

De acuerdo con (5.18) de Montes (2007), la condici on para que el proceso sea WSS es que 2 a < . Esta condici o n puede a su vez expresarse en t erminos de los i a trav es del j j 0 siguiente teorema, cuya demostraci on puede consultarse en la p agina 76 de Diggle (1990). Teorema 5.1 La condici on necesaria y suciente para que un proceso AR(p), (B )XY = Zt , sea WSS es que el m odulo de todas la ra ces del polinomio (u) sea mayor que la unidad. Las funciones de autocorrelaci on y autocovarianza coinciden porque de (5.9) se deduce que (t) = 0. Para su obtenci on recurriremos a la expresi on original de Xt ,
p

Xt =
i=1

i Xtj + Zt .

Multiplicando ambas partes de la igualdad por Xtk , tomando esperanzas y teniendo en cuenta que Xtk y Zt son independientes,
p

R(k ) = E (Xt Xtk ) =


i=1

i E (Xti Xtk ).

Pero E (Xti Xtk ) = R(i k ) y por tanto,


p

R(k ) =
i=1

i R(i k ),

k = 1 , 2, . . .

(5.10)

Si dividimos por R(0), obtendremos una expresi on an aloga para la funci on de correlaci on,
p

(k ) =
i=1

i (i k ),

k = 1, 2, . . .

(5.11)

que proporciona un sistema de ecuaciones conocido como las ecuaciones de Yule-Walker. Estas ecuaciones y las (5.10) permiten calcular (k ) y R(k ) a partir de los coecientes i , pero pueden tambi en usarse en sentido inverso para estimar dichos coecientes a partir de las autocorrelaciones o correlaciones muestrales. Ejemplo 5.2 El proceso Xt es un proceso AR(2), Xt = 1 Xt1 + 2 Xt2 + Zt . Para obtener su funci on de autocorrelaci on utilizamos las ecuaciones de Yule-Walker (5.11), (k ) = 1 (k 1) + 2 (k 2). (5.12)

5.1 Procesos autoregresivos de medias m oviles (ARMA)

45

Se trata de una ecuaci on en diferencias homog enea cuyas soluciones dependen a su vez de las soluciones de su ecuaci on caracter stica 2 1 2 = 0. (5.13)

Supondremos que hay dos soluciones reales y distintas, 1 y 2 , en cuyo caso la soluci on de (5.12) es k (k ) = ak 1 + b2 . La condiciones iniciales determinan los valores de a y b. As , sabemos que (0) = 1 = b = 1 a. Por otra parte, si k = 1 de (5.12) se obtiene (1) = 1 + 2 (1), pero (1) = a1 + (1 a)2 . Despejando (1) e igualando obtendremos el valor de a. Supongamos que 1 = 0,4 y 2 = 0,2. Con estos valores las dos ra ces de (5.13) son 1 0,69 y 2 0,29, (1) = 0,5 y a 0,81. Puede comprobarse que con los valores asignados a 1 y 2 ra ces de (u) = 0 tiene ambas m odulos mayores que 1, tal como exige el Teorema 5.1 para que el proceso sea WSS. La expresi on general de las correlaciones del proceso es (k ) = 0,81 0,69k + 0,19 0,29k . Funciones de momento y espectro del proceso ARMA(p,q) Recordemos que el proceso se expresa de la forma
p q

Xt =
i=1

i Xtj + Zt +
j =1

j Ztj ,

o en forma polin omica (B )Xt = (B )Zt . Aplicando los resultados del ltrado lineal de un ruido blanco ((5.18) de Montes (2007)), el espectro del proceso verica, |(ei2 )|2 PX ( ) = 2 |(ei2 )|2 . Y de aqu , PX ( ) = 2 |h( )|2 = 2 |(ei2 )|2 |(ei2 )|2 ,

que bajo el supuesto de WSS se expresa, 2 2 q q 2 PX ( ) = 1+ j cos 2j + j sin 2j j =1 j =1 1


l=1 p 2 p 2

1 . (5.14)

l cos 2l

+
l=1

l sin 2l

46

Transformaci on lineal de un proceso estacionario

Las condiciones para que el proceso sea WSS son las mismas que las exigidas para el proceso AR(p). Por lo que respecta a la funci on de autocorrelaci on, su obtenci on es m as sencilla si expresamos el proceso de la forma, Xt = [(B )]1 (B )Zt =
j 0

aj B j Zt =
j 0

aj Ztj ,

donde los coecientes aj dependen del desarrollo en serie de [(B )]1 . Ejemplo 5.3 El proceso Xt es el resultado de aplicar un ltro lineal a un ruido blanco Gaussiano, Zt , de varianza 2 . En concreto, (B )Xt = (B )Zt , un proceso ARMA(2,2) con (B ) = 1 1,2B + 0,4B 2 , y (B ) = 1 0,8B + 0,1B 2 .

El proceso es estacionario porque las ra ces de (u) = 0 son u1 = 3 1 + i, 2 2 u1 = 3 1 i, 2 2

cuyo m odulo es mayor que la unidad, cumpli endose as el Teorema 5.1.

densidad espectral de potencia de X

0 0.0

0.1

0.2 frecuencia

0.3

0.4

0.5

Figura 5.1: Densidad espectral de potencia del proceso ARMA(2,2) con 2 = 1 El cuadrado del m odulo de la funci on de transferencia vale, |h( )|2 = |(ei2 )|2 1,65 1,44 cos 2 0,2 cos 4 = . |(ei2 )|2 2,60 3,36 cos 2 0,8 cos 4

5.2 Vibraciones aleatorias

47

La PSD valdr a por tanto, PX ( ) = 2 1,65 1,44 cos 2 0,2 cos 4 . 2,60 3,36 cos 2 0,8 cos 4 (5.15)

La gr aca de este proceso, para 2 = 1, se muestra en la Figura 5.1

5.2.

Vibraciones aleatorias

Durante los aterrizajes y despegues de los reactores se producen vibraciones de tal nivel, que cualquier pasajero puede percibirlas. Estas vibraciones son debidas a la interacci on de las corrientes de aire con la estructura met alica del aparato, que producen cambios de presi on que se traducen en las vibraciones mencionadas, conocidas como turbulencias de la capa l mite (TBL del ingl es Turbulence Boundary Layer). Se trata de un fen omeno que puede ser descrito mediante un proceso estoc astico y cuya modelizaci on es de gran inter es para poder simularlo en el laboratorio. Los fabricantes de componentes para la aviaci on han de tener en cuenta el fen omeno y sus posibles efectos negativos sobre sus productos. Para ello los someten a un test de vibraciones aleatorias que reproduzcan, lo m as elmente posibles, las condiciones reales de vuelo. Con este n se monta el componente, por ejemplo una antena exterior, sobre una mesa a la que se hace vibrar para que transmita sus vibraciones. El problema es c omo conseguir simular la realidad. Veamos una posible soluci on que utiliza un proceso estoc astico generado mediante un ordenador. La PSD del proceso estoc astico que describe estas turbulencias ha sido determinada mediante estudios de laboratorio para el caso de los transportadores espaciales que utiliza la NASA. Su expresi on es P (500), 0 500 Hz; PXt ( ) = (5.16) 14 2 9 10 r , 500 < 50000 Hz, + 11364 donde r2 es una constante de referencia cuyo valor es 20Pa, siendo Pa una unidad de presi on igual a 106 nw/m2 . La gr aca de P ( ) se muestra a la izquierda de la Figura 5.2 para un valor normalizado de r = 1. Se observa su semejanza con un ltro de pasa bajo. La se nal que hemos de enviar a la tabla para que se agite y haga vibrar el componente adosado como deseamos, se ha de generar en un ordenador y mediante un convertidor digital anal ogico se convertir a en una se nal continua. Hemos de encontrar un proceso WSS discreto cuya PSD se ajuste a la PSD te orica de la Figura 5.2. Recordemos, para ello, cuanto se dice en las p aginas 121 y 122 de Montes (2007) respecto a la relaci on entre la RXt ( ) de un proceso continuo en el tiempo y la RXn (k ) del proceso obtenido mediante muestro del anterior. En concreto, RXn (k ) = RXt (kT ), donde T es la frecuencia de muestreo. A partir de (5.16) obtendremos la PSD muestreada tomando T = 1/(20 ) = 1/100000 puesto que la m axima frecuencia era 0 = 50000 Hz. La gr aca correspondiente a PXn ( ) es la de la derecha en la Figura 5.2, cuyos valores est an multiplicados por 1/2 porque hemos representado la gama completa de frecuencias, | | 0,5, y tambi en por un factor 1/T = 100000 que se introducer al muestrear. Un modelo sencillo y con una PSD similar a la de la Figura 5.2 (izquierda) es el proceso AR(1), Xt = Xt1 + Zt , (5.17) con > 0 (v ease el Ejemplo 5.2 de Montes (2007)). Determinaremos y 2 del ruido blanco, Zt , para que sean compatibles con la PSD que conocemos, y una vez conocidos podemos generar

48

Transformaci on lineal de un proceso estacionario

8x1010

PXn(w)
5x104

PXt(w)

8x1015

0.2

0.2

0.4

frecuencia

frecuencia

Figura 5.2: Densidad espectral de potencia de la vibraci on aleatoria (TBL) te orica (izquierda) y muestreada (derecha) una realizaci on discreta del proceso a partir de la ecuaci on en diferencias Xn = Xn1 + Zn . (5.18)

Elevando al cuadrado ambos miembros de (5.18) y tomando esperanzas se obtiene la relaci on, 2 = RXn (0)(1 2 ), y si multiplicamos ahora ambos miembros por Xn y tomamos esperanzas obtendremos, a= RXn (1) . RXt (0)

Los valores de RXn (0) y RXn (1) pueden calcularse a partir de las integrales,
+1/2

RXn (0) = RXn (1) =

1 /2 +1/2 1 /2

PXn ( )d PXn ( ) cos 2d,

que pueden evaluarse de num ericamente. Una aproximaci on mediante sumas de rect angulos da RXn (0) = 1,5169 1015 y RXn (1) = 4,8483 1014 , lo que conduce a = 0,3196 y 2 = 1,362 1015 .

En la Figura 5.3 se comprueba que el modelo AR(1) tiene una PSD que se ajusta bien a la original, excepto en los valores alrededor de 0. Podemos utilizar para generar una se nal continua que simular a muy aproximadamente la vibraci on real sobre la mesa de pruebas.

5.2 Vibraciones aleatorias

49

PSD

4x1015

0.4

0.2

0.2

0.4

frecuencia

Figura 5.3: Densidad espectral de potencia del proceso real (- - -) y del AR(1) ajustado (-----)

50

Transformaci on lineal de un proceso estacionario

Bibliograf a
Diggle, P. (1990). Time Series. A Biostatistical Introduction. Oxford University Press, N.Y. Montes, F. (2007). Procesos Estoc asticos para Ingenieros: Teor a y Aplicaciones. dEstad stica i I. O. Universitat de Val` encia. Dpt.

Potrebbero piacerti anche