Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
a) Dibuja unas cuantas realizaciones del proceso suponiendo que R y S son v. a. independientes distribuidas N(0, 1)
b) Si de nuevo R y S son independientes con distribucin N(0; 1), calcular y dibujar E[X(t)], Var[X(t)] y la autocovarianza.
c) En el caso anterior Qu ocurre si R tiene media igual a 1?
d) Repetir el apartado anterior suponiendo que ahora R y S tienen distribucin N(0,1) con Cov(A; B) = 0.5.
e) Es {X(t)} estacionario?
2) Cundo un PE tiene incrementos independientes?
Si un PE tiene incrementos independientes entonces es una cadena de Markov. (V o F. Explique)
3) Pruebe que si un estado es transitorio y la probabilidad de que regrese al estado i es fii entonces la probabilidad de
que no regrese al estado i ser 1 - fii y el nmero esperado de perodos en que el proceso est en estado i es 1/(1 - fii).
4) En una cadena de Markov, las probabilidades de transicin son probabilidades condicionales. Cmo podemos
calcular las probabilidades no condicionales? PXn = j.
5) Si se cumple que P[Xt+1 = jXt = i] = P[X1 = j X0 = i] para todo i, j Z. y todo t = 0,1, entonces se dice que las
probabilidades de transicin, de un paso, son estacionarias. Demuestre que lo anterior implica que
6) Una partcula realiza una caminata aleatoria simtrica (con p = ) sobre Z (conjunto de los nmeros enteros)
empezando en cero. Encuentre, por simulacin, la probabilidad de que la partcula se encuentre nuevamente en el
origen en el sexto paso,
Leer y entender el tema sobre caminatas aleatorias en el texto de L. Rincn (pginas 7 a 11) en especial la proposicin
2.2 que nos sirve para calcular sta probabilidad y compararla con el resultado de la simulacin.
7) Considere un caso igual al del inventario de cmaras discutido en clase, con la siguiente distribucin de probabilidad
para la demanda: P[D = 0] = 0.30; P[D = 1] = 0.25; P[D = 2] = 0.30; P[D 3] = 0.15. La poltica de pedido consiste en
ordenar 3 unidades siempre que no queden cmaras en la tienda.
a) Encuentre la matriz de transicin (de un paso)
b) Simule o realiza un posible resultado para las primeras 5 semanas, despus de abrir la tienda por primera vez.
8) Para la cadena de Markov, definida por la siguiente matriz de transicin, determine la fraccin a largo plazo del
tiempo que estar ocupado cada estado. Determine los tiempos promedios de recurrencia para cada estado.
ESTADOS 1 2 3
1 0,8 0,2 0,0
2 0,0 0,2 0,8
3 0,8 0,2 0,0
9) Dado el laberinto de la Figura, a partir de cada posicin slo se permite pasar a los estados como indica el diagrama
con idntica probabilidad para todas las posibilidades. Suponga que no se permite permanecer en la misma posicin al
efectuar un movimiento.
a) Porqu esta situacin puede modelarse con una cadena de Markov? Explique el modelo
b) Encuentre la matriz de probabilidades de transicin de esta cadena de Markov
c) Calcule p(2)44. p(3)23. Qu significan estas probabilidades?
d) Cmo podemos calcular las probabilidades no condicionales PXn = j?. Aplique su deduccin para calcular P(X4 = 3)
en la cadena de Markov definida por esta matriz de transicin.
e) Es este proceso es estacionario?
f) Escriba las ecuaciones de estado estable de este proceso markoviano
g) Es esta una cadena irreducible? Explique
e) determine la fraccin de largo plazo del tiempo que estar ocupado cada estado. Determine los tiempos promedios
de recurrencia para cada estado.
10) Una partcula realiza una caminata aleatoria simtrica sobre Z empezando en cero.
11) Una matriz cuadrada es doblemente estocstica si sus elementos son no negativos y la suma de los elementos de
cada fila y de cada columna es igual a 1. Para cualquier matriz ergdica, doblemente estocstica, demuestre que los
estados tienen la misma probabilidad de estado estable.
13) Una urna tiene inicialmente dos bolas sin pintar. Se elige una bola al azar y se lanza una moneda. Si la bola elegida
no est pintada y resulta cara en la moneda, la bola extrada se pinta de rojo y se regresa a la urna. Si la bola elegida no
est pintada y resulta sello en la moneda, la bola extrada se pinta de blanco y se regresa a la urna. Si la bola ya est
pintada se cambia el color de la bola (ya sea que resulte cara o sello en la moneda).
Ayuda: defina t como el tiempo despus de que la moneda se lanz la t-sima vez y se pint la bola elegida. Para definir
los estados use una terna de la forma (u, r, b) donde u es el # de bolas sin pintar, r es el # de bolas rojas y b el # de bolas
blancas.
15) Sea 1, 2, una sucesin de v. a. iid que cumple P[i = +1] = p y P[i = -1] = q, i en donde p + q = 1, definimos la
siguiente relacin: Xn = X0 + 1 + 2 + + n [tomar X0 = 0]
a) Es {Xn} un proceso estocstico? Por qu? b) puede usted identificar esta relacin con algn proceso en particular
de los definidos en clase? Cul? y Por qu? c) Demuestre que, para cualquier n 0, E(Xn) = n(p q) d) Demuestre que,
para cualquier n 0, Var(Xn) = 4npq
17) Suponga que la moneda 1 tiene una probabilidad 0.7 de caer cara y la moneda 2 tiene una probabilidad 0.6 de caer
cara. Cada da lanzamos una de las monedas. Si la moneda lanzada hoy cae cara entonces seleccionamos la moneda 1
para ser lanzada maana y si cae sello seleccionamos la moneda 2 para lanzarla maana. Suponga que inicialmente se
escoge la moneda para ser lanzada (1 2) con igual probabilidad.
a) Describa este experimento mediante un procesos estocstico. Especifique todos sus elementos lo mejor posible.
b) Use su modelo para responder: Cul es la probabilidad de que la moneda lanzada el tercer da despus de iniciados
los lanzamientos sea la moneda 1? Suponga que la moneda lanzada el da lunes cay cara, cul es la probabilidad de
que la moneda lanzada el da viernes de la misma semana, tambin caiga cara?
18) La licuadora de mi casa se deteriora con el tiempo (como todas las cosas) por lo que hemos decidido inspeccionarla
al finalizar cada semestre. Despus de cada inspeccin se clasifica su condicin en uno de cuatro casos posibles, a saber:
1) muy buena, 2) buena, 3) aceptable, 4) mala (se reemplaza).
a) Justifique porque es posible modelar la evolucin del deterioro de la licuadora como una cadena de Markov de
tiempo discreto (que se puede denotar como {Xn}).
Suponga que las probabilidades de transicin estn dadas por (considerar los estados 0, 1, 2, y 3 para los casos
anteriormente descritos):
19) Sea 1, 2, una sucesin de v. a. iid que cumple P[i = +1] = p y P[i = -1] = q, i en donde p + q = 1, definimos la
siguiente relacin: Xn = X0 + 1 + 2 + + n [tomar X0 = 0]
a) Es {Xn} un proceso estocstico? Por qu? Puede usted identificar esta relacin con algn proceso en particular de
los visto en clase? Cul? y Por qu? Es este proceso una cadena de Markov? Por qu?
b) Demuestre que para cuales quiera que sean los enteros x y n tales que n x n y para cuando x y n sean ambos
pares o ambos impares se cumple que:
20) Seis bolas (numeradas del 1 al 6) estn distribuidas en dos urnas (A y B). Inicialmente 3 de ellas en cada urna. Cada
minuto se escoge una bola, de las 6, al azar y se cambia de urna (ver figura). Sea Xn el nmero de bolas en la urna A
despus de n extracciones.
a) Modele este experimento como un proceso estocstico (especifique lo mejor posible sus elementos). Muestre que
este proceso estocstico es una cadena de Markov.
b) Deduzca y escriba la matriz de transicin de un paso
c) Calcule e interprete las siguientes probabilidades p23, p(3)23
d) Calcule las probabilidades (no condicionales) de los estados reflejantes
e) Calcule, si existen, las probabilidades de estado estable
21) En un da cualquiera Gary est alegre (A), bien (B) o triste (T). Si est alegre hoy entonces estar A, B o T maana con
probabilidades 0.5, 0.4, 0.1 respectivamente. Si el se siente bien hoy el se sentir A, B o T maana con probabilidades
0.3, 0.4, 0.3 respectivamente. Si est triste hoy entonces estar A, B o T con probabilidades 0.2, 0.3, 0,5 maana.
22) Para el problema del inventario de las cmaras, calcular las probabilidades de estado estable (a largo plazo),
suponiendo la demanda Poisson ( = 1). Utilice el mtodo de valores y vectores propios.
23) Se dice que una matriz de transicin P es doblemente estocstica si la suma de los elementos por cada fila es igual a
1 y por cada columna es tambin igual a 1. Si una matriz de estas modela una cadena de Markov irreducible y aperidica
consistente en M + 1 estados. Demuestre que las probabilidades de estado estable j = 1/(M + 1) para j = 0, 1, 2, , M