Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Processos de Markov
{X t ; t ∈ T } . (5.1)
processo de Markov quando, para qualquer tempo t0 < t1 < < tn < t , a distribuição
P( X t = x | X tn = xn , X t n −1 = xn −1, , X t0 = x0 ) = P( X t = x | X t n = xn ) , (5.2)
P( X t ≤ x | X tn = xn , X t n −1 = xn −1, , X t0 = x0 ) = P( X t ≤ x | X t n = xn ) . (5.3)
igual a um certo valor x no tempo t , dado apenas que a variável tenha assumido o valor xn
no tempo tn .
A Definição 5.1 pode ser traduzida para a linguagem natural, como segue:
um processo estocástico é um processo de Markov se o futuro do processo, conhecido o
estado presente, é independente do passado.
147
É fundamental no estudo de processos de Markov a noção de estado.
Propriedades em comum entre indivíduos (ou objetos) caracterizam o que designamos por
estados. São apresentados a seguir exemplos de objetos ou coisas que possuem propriedade
em comum:
- máquinas em uma linha de produção, cujos estados podem ser máquina
funcionando, máquina parada e em reparo, máquina parada aguardando por reparo;
- uma população que migra de uma região para outra, podendo encontrar-se
em um dos seguintes estados: população ociosa, população empregada;
- safras de soja na região Centro-Oeste do Brasil, sendo que os estados
podem ser safra boa, safra ruim ou safra razoável.
Os processos de Markov sempre envolvem a variável ‘tempo’, seja
considerada na forma discreta onde o tempo varia em saltos (ou seja, intervalos regulares), ou
na forma contínua podendo assumir valores reais.
Nos exemplos citados anteriormente podemos notar que o tempo está
presente. Uma máquina ao estragar requer tempo para ser consertada, podendo, portanto,
exibir alteração em seu estado se observada a intervalos regulares de tempo. Povos que
migram de um lugar a outro fazem isto com certa periodicidade. Safras ocorrem em meses
determinados que diferem em função da região e da cultura considerada.
148
- estudo de fenômenos econômicos e movimentos sociais;
- análise de processos biológicos, como a evolução de certas espécies vivas
seja para fins de exploração comercial ou para a preservação;
- análise da evolução de certa epidemia numa comunidade.
Na bibliografia de Pesquisa Operacional são encontradas aplicações de
processos de Markov que compreendem desde o estudo de sistemas móveis de comunicação,
passando pelo tráfego de sinais digitais e o desenvolvimento de técnicas que objetivam
disponibilizar o serviço aos usuários, bem como a análise da evolução de corporações e
sistemas sociais com o passar do tempo. Em todas as aplicações nota-se um traço comum – o
tempo.
Conforme estabelecido na Definição 5.1, há duas categorias de processos de
Markov: (1) os processos de tempo discreto, em que o índice t assume apenas valores inteiros
não negativos, ou seja, t = 0, 1, 2, ; e (2) os processos nos quais a variável tempo é contínua,
ou seja, t ∈ [0, ∞) . Em ambas as categorias, os estados são caracterizados por números
inteiros não negativos definidos a partir dos valores que a variável aleatória X pode assumir.
P( X t +1 = j | X t = i) , para t = 0, 1, 2, ,
149
são chamadas de probabilidades de transição. Se, para cada i e j ,
P( X t +1 = j | X t = i) = P ( X1 = j | X 0 = i) , para todo t = 0, 1, 2, ,
então as probabilidades de transição para um passo são ditas estacionárias e usualmente são
denotadas por pij .
P( X1 = j | X 0 = i) = pij ,
P( X n = j | X 0 = i ) = pij (n) .
pi (n) = P( X n = i ) , para i = 0, 1, 2, ,M .
150
Especificamente para o instante inicial tem-se a distribuição inicial de
probabilidades de estados, a qual é representada por um vetor linha p (0) , cujas componentes
são as probabilidades pi (n) , i = 0, 1, 2, ,M .
Exemplo 5.1: Numa certa região durante o período de chuvas, que dura cerca de seis meses a
cada ano, os estados observados são dois: dias ensolarados e dias chuvosos, os quais serão
designados pelos índices 0 e 1, respectivamente. A partir de observações históricas, foram
obtidas para um passo (ou seja, um dia) as probabilidades de transição supostas constantes. A
um dia chuvoso sucederá um dia chuvoso com probabilidade igual a 3 4 e, um dia ensolarado,
com probabilidade 1 4 . Dias ensolarados sucedem dias ensolarados com probabilidades iguais
descrito como um processo de Markov. Como primeira informação desse estudo, precisamos
inferir sobre o número esperado de dias chuvosos anualmente se a tendência descrita pelas
probabilidades permanecer inalterada.
151
Para encontrar a probabilidade do estado 0 em um passo, p0 (1) , podemos
utilizar o conceito de probabilidade total, o qual para dois estados possui a seguinte expressão:
p0 (1) = P ( X1 = 0) = P( X1 = 0 | X 0 = 0) P( X 0 = 0) + P( X1 = 0 | X 0 = 1) P( X 0 = 1) ,
p1(1) = P( X1 = 1) = P( X1 = 1 | X 0 = 1) P ( X 0 = 1) + P( X1 = 1 | X 0 = 0) P( X 0 = 0) ,
p00 p01
[ p0 (1) p1 (1)] = [ p0 (0) p1 (0)] .
p10 p11
152
Analogamente, das expressões de cálculo de p0 (2) e p1 (2) , extraímos a
representação matricial mostrada a seguir:
p00 p01
[ p0 (2) p1(2)] = [ p0 (1) p1(1)] .
p10 p11
2
p00 p01
[ p0 (2) p1(2)] = [ p0 (0) p1(0)] .
p10 p11
n
p p01
[ p0 (n) p1(n)] = [ p0 (0) p1(0)] 00 .
p10 p11
154
Tabela 5.1: Planilha de cálculo da probabilidade do estado 1.
Produtos de probabilidades de transição Probabilidades parciais
p00 p00 p00 p01 = 1 1 1 1 1
2222 16
p00 p00 p01 p11 = 1 1 3
1 3
2224 32
p00 p01 p10 p01 = 1 1 1
1 1
2242 32
p00 p01 p11 p11 = 1 3 3
1 9
2244 64
p01 p10 p00 p01 = 1 1 1 1 1
2422 32
p01 p10 p01 p11 = 1 1 3
1 3
2424 64
p01 p11 p10 p01 = 3 1 1
1 3
2442 64
p01 p11 p11 p11 = 3 3 3
1 27
2444 128
Probabilidade total (probabilidade do estado 1 em quatro passos) 85 ≈ 0,664
128
estendermos os cálculos para mais passos não é difícil concluir que a probabilidade do estado
1 encaminhará para 2 3 , enquanto que a probabilidade do estado 0 será de 13 , preservadas as
condições.
Com estes cálculos podemos responder à questão formulada no enunciado
do Exemplo 5.1. Portanto, espera-se que, em seis meses, 120 dias serão chuvosos
155
0 ≤ p ij ( n) ≤ 1 para ∀ (i, j ) ∈ S × S e pij (n) = 1 para ∀ i ∈ S , define-se a matriz P n (leia-
j∈S
p00 p01 p0 M
p10 p11 p1M
P= . (5.7)
pM 0 pM 1 pMM
1, se i = j
pij (0) = .
0, se i ≠ j
156
A partir da expressão (5.8) podemos concluir que a matriz P n é relacionada
à distribuição inicial de probabilidades, p (0) , definida pela expressão (5.5), e ao vetor de
probabilidades de estados para n passos, através da expressão (5.9)
(5.9)
p ( n ) = p ( 0) P n .
Markov com espaços de estados contáveis, porém infinitos, o cálculo de P n não é trivial.
Contudo, existem métodos para determinar o comportamento assintótico, isto é, quando
n → ∞ , de p (n) e P n .
P( X n = j | X n −1 = i ) = P( X1 = j | X 0 = i ) = pij
157
Exemplo 5.2: Considere o problema enunciado no Exemplo 5.1. Desejamos utilizar a
representação sob a forma de diagrama de transição de uma cadeia de Markov para expressar
o problema daquele enunciado.
p00 p01 1 1
P= →P= 2 2 .
p10 p11 1 3
4 4
p01 = 1 2
p00 = 1 2 0 1 p11 = 3 4
p10 = 1 4
Figura 5.2: Diagrama de transição de uma cadeia de Markov com dois estados.
158
Seja fii a probabilidade de que o processo retornará ao estado i dado que o
processo tenha partido deste estado, então segue a definição de estado recorrente.
0 1
P= .
1 0
Uma cadeia de Markov com dois estados recorrentes está ilustrada na Figura
5.3.
p00 = 1 0 1 p11 = 1
Figura 5.3: Diagrama de transição de uma cadeia de Markov com dois estados recorrentes.
Definição 5.7: (Estado absorvente) Um estado i é dito ser um estado absorvente se e somente
se a probabilidade pii é igual a 1.
159
A cadeia cujo diagrama de transição está ilustrado na Figura 5.3 tem ambos
os estados absorventes.
É importante ressaltar que só é possível ‘escapar’ de um estado absorvente
se o processo for reiniciado, ou seja, se o processo partir novamente de qualquer outro estado
que não seja absorvente. Vamos apresentar um exemplo para tornar mais claras as definições.
Exemplo 5.3: Considere um navio com dois sistemas propulsores, que são duas turbinas
idênticas. Seja X n a variável aleatória tal que seu valor é o número de turbinas em operação
normal no passo n . Se uma das turbinas falhar, ela poderá ser consertada, enquanto se ambas
falharem, o navio pára, mas ainda haverá possibilidade de que uma das turbinas seja
consertada sendo esta a reignição do processo de Markov e não a transição para outro estado.
As probabilidades são as seguintes: se uma turbina que nunca passou por reparo é boa no
tempo tn −1 , ela tem confiabilidade de 90% no tempo tn ; porém, uma turbina que se estragou
O estado 0 é absorvente uma vez que entrando nele não se pode abandoná-
lo exceto se o processo partir novamente, portanto, p00 = 1 .
2 1 0
2 0,81 0,18 0,01
.
P = 1 0,54 0,42 0,04
0 0 0 1
161
requerida para a existência de v j , tal como definida anteriormente, é que a cadeia seja
aperiódica.
0 1
0 0 1 ,
P=
1 1 0
é periódica com período 2. A árvore de probabilidades ilustrada na Figura 5.4 mostra isto
claramente.
Figura 5.4: Árvore de probabilidades de uma cadeia de Markov com dois estados periódicos.
Por outro lado, ambos os estados da cadeia de Markov da Figura 5.3 são
aperiódicos. Outro exemplo de cadeia com estados aperiódicos é a cadeia cuja árvore está
ilustrada na Figura 5.1. Na árvore da Figura 5.1 é fácil visualizar que, partindo do estado 0, é
possível alcançar o estado 0 em um passo; de modo análogo, se a partida for do estado 1
alcança-se o mesmo estado em um passo.
Em contraposição aos estados absorventes, se todos os estados de uma dada
cadeia de Markov se comunicam a matriz de probabilidades de transição dessa cadeia exibirá
propriedades especiais. A definição de estados comunicantes é dada em seguida.
162
Definição 5.10: (Estados comunicantes) O estado i se comunica com o estado j se, partindo
do estado i , é possível alcançar o estado j direta ou indiretamente, observando-se o sentido
do arco que os une.
Exemplo 5.4: Dadas as matrizes de transição associadas às cadeias de Markov, identificar se
os estados se comunicam ou não. As posições marcadas com * (asterisco) representam
números positivos (probabilidades de transição para um passo).
0 1 2
0 * 0 *
a) .
P=1 * * *
2 * * *
0 1
Figura 5.5: Diagrama de transição de uma cadeia de Markov onde o estado 1 é absorvente.
163
Ao analisarmos a cadeia da Figura 5.5 é imediata a constatação de que os
estados 0 e 2 se comunicam e que o estado 1 não se comunica com os demais.
Teorema 5.1: Uma condição suficiente para uma cadeia ser identificada como irredutível é
que exista algum número n inteiro não negativo tal que pij (n) > 0 para todo i e j .
não é irredutível. Conclusão idêntica pode ser extraída se aplicarmos o resultado do Teorema
5.1 à matriz do Exemplo 5.4(b), confirmando assim a identificação feita pelo método dos
estados comunicantes.
Para complementar a seção que trata da classificação das cadeias de
Markov, considere a definição de estado recorrente positivo (ou não nulo).
Definição 5.11: (Estado recorrente positivo) O estado i é recorrente positivo se, partindo do
estado i , o tempo esperado para o processo visitar novamente este estado é finito. Por outro
lado, ao partir do estado i se o tempo esperado para o processo visitar este estado for infinito,
o estado é dito recorrente nulo.
∞ ∞
µii = nfii (n) , para fii (n) = 1 , (5.10)
n =1 n =1
165
onde, fii (n) é a probabilidade de re-visitar o estado i em n passos.
∞
µij = nfij (n) , (5.11)
n =1
estado i .
∞
Dado que fij (n) = 1 para (i, j ) ∈ S × S , onde, S = {0, 1, 2, , M } , as
n =1
probabilidades fij (n) podem ser calculadas pelas relações recursivas (5.12)
166
é o único vetor de probabilidades de regime estacionário e satisfaz as relações (5.13) e (5.14),
a saber:
v = vP , (5.13)
M
v j = 1, v j ≥ 0 . (5.14)
j =0
inicial v (0) , até que a convergência seja alcançada. Uma maneira alternativa para a obtenção
de v é o método analítico: constrói-se o sistema (5.13) e troca-se uma das M + 1 equações
lineares pela relação (5.14), para, em seguida, solucionar o sistema de equações resultante.
Vamos aplicar o resultado do Teorema 5.2 para calcular as probabilidades
estacionárias dos estados do sistema do Exemplo 5.1.
Exemplo 5.6: Dado que a cadeia do Exemplo 5.1 atende as condições do Teorema 5.2, isto é,
é irredutível e aperiódica com estados recorrentes positivos, calcule as probabilidades de
regime estacionário.
Primeiramente, vamos utilizar a equação de iteração tomando o vetor inicial
v (0) = [1 0] , que para este exemplo fica conforme está mostrada a seguir:
1 1
[v0( k +1) v1( k +1) ] = [v0( k ) v1( k ) ] 2 3
2 , com v (0) = [1 0] .
1
4 4
167
Em função da precisão requerida nos cálculos, mais iterações podem ser
realizadas. Sugerimos que o leitor repita o procedimento iterativo mostrado anteriormente
Figura 5.6: Probabilidades dos estados em função do número de passos para dois vetores de
probabilidades iniciais distintos.
168
O leitor é convidado a voltar ao Exemplo 5.1 e traçar um paralelo entre a
solução obtida aqui através do processo iterativo e os cálculos efetuados naquele exemplo.
Agora, o cálculo das probabilidades estacionárias será feito analiticamente.
Para tal, com base na expressão (5.13) obtemos o sistema de equações:
1 1 1v − 1v = 0
[v0 v1 ] = [v0 v1] 2 2 → 2 0 4 1 .
1
4
3
4 − 1 v0 + 1 v1 = 0
2 4
1v − 1v = 0
2 0 4 1 .
v0 + v1 = 1
1
µii = , para i = 0,1, 2, ,M ,
vi
169
- seja f uma função da variável aleatória X , por exemplo, custos
financeiros associados aos estados. As probabilidades estacionárias vi podem ser utilizadas
M
E ( f ( X )) = vi f (i) . (5.15)
i =0
Exemplo 5.7: Uma fábrica possui duas máquinas idênticas essenciais ao processo de
manufatura e são operadas continuamente, exceto quando elas estão quebradas. Devido ao
fato que essas máquinas são muito sensíveis e quebram freqüentemente, é necessário
remunerar em tempo integral um técnico para reparar a máquina quando ocorrer alguma falha.
Suponha que o intervalo de tempo de observação seja de um dia e que a variável
aleatória X n representa o número de máquinas quebradas no dia n . Os valores possíveis para
a variável aleatória são X n = 0, 1 e 2 . Admita que durante cem dias de observações foram
anotadas as situações das duas máquinas, chegando-se às probabilidades de transições dos
estados para 1 dia, que estão mostradas na matriz P :
2 1 0 2 1 0
2 40 20 40 2 0,4 0,2 0,4
1 .
P = 1 40 40 20 → P = 1 0,4 0,4 0,2
100
0 20 20 60 0 0,2 0,2 0,6
Outro dado importante é que custos de estar nos estados 0, 1 e 2 são, respectivamente, $ 0,00,
$ 1.500,00 e $ 10.000,00, e há também o custo fixo de remuneração do técnico, que é $
100,00 ao dia. O custo de duas máquinas paradas é alto porque implica na parada da linha de
produção, podendo causar sérios transtornos à fábrica. A partir das probabilidades de regime
estacionário, calcule:
(a) se ambas as máquinas se estragam, a probabilidade que o tempo para consertar uma dessas
máquinas seja de dois dias;
170
(b) na ocorrência de ambas as máquinas fora de operação, em quantos dias espera-se que esta
situação ocorra novamente;
(c) o número esperado de dias de ociosidade do técnico;
(d) o custo por dia a longo prazo para manter as máquinas.
Portanto, a probabilidade que o tempo para consertar uma dessas máquinas seja de dois dias é
igual a:
f 01 (2) = p01 (2) − f 01 (1) p11 → f 01 (2) = 0,24 − 0,2 × 0,4 → f 01 (2) = 0,16 .
171
µ22 = 1
0,3125 → µ22 = 3,2 dias.
µ00 = 1
0, 4375 → µ00 = 2,3 dias.
Finalmente, para o item (d), o custo por dia a longo prazo para manter as
máquinas é a esperança matemática da função custo em regime estacionário.
de que a potência P n para n tendendo ao infinito resulta numa matriz cujas linhas são todas
iguais. A expressão (5.16) exprime a mencionada propriedade de forma mais clara
v0 v1 vM
v0 v1 vM
lim P n = . (5.16)
n →∞
v0 v1 vM
Por exemplo, a matriz do Exemplo 5.6 ao ser elevada a expoentes cada vez
mais altos resulta na seguinte matriz:
1 1 n 1 2
n
lim P = lim 1 2
3
2 = 13 2
3 .
n →∞ n →∞ 4 4 3 3
172
processos que não exibem tal propriedade. Por exemplo, a matriz do Exemplo 5.3 é um caso
que não atende à propriedade.
O estudo das cadeias de Markov finitas com estados absorventes requer que
a matriz de probabilidades de transição P seja expressa de modo especial. Isto implica que as
linhas de P que correspondem aos estados não absorventes devem ser arranjadas em primeiro
lugar e, em seguida, nas últimas linhas figuram os estados absorventes.
A expressão (5.17) mostra uma representação na forma canônica da matriz
de probabilidades de transição quando há estados absorventes,
(5.17)
0 0 0 1
~
k Qk C
P = , (5.18)
0 I
∞
Qk = Q0 + Q + Q2 + + Q∞ ,
k =0
lembrando que Q 0 = I e que a norma da matriz Q seja menor que 1 (isto é, Q < 1 ).
matrizes, que nos permite concluir que o somatório anterior é igual à matriz ( I − Q )−1 .
Teorema 5.4: Para uma cadeia de Markov com pelo menos um estado absorvente, a
probabilidade do processo que partiu do estado não absorvente i ser absorvido no estado j é
174
Outra forma possível para se concluir pela validade do Teorema 5.4 é
mostrar que o limite lim P n comporta-se como mostrado a seguir (TRIVEDI, 2002).
n →∞
n
Q C 0 ( I − Q) −1C
lim P n = lim = . (5.20)
n →∞ n →∞ 0 I 0 I
2 1 0
2 0,81 0,18 0,01
.
P = 1 0,54 0,42 0,04
0 0 0 1
175
A primeira pergunta refere-se ao número de passos para alcançar o estado
−1
−1 0,19 − 0,18 44,6154 18,8462
( I − Q) = = .
− 0,54 0,58 41,5385 14,6154
−1
0,19 − 0,18 0,01 44,6154 18,8462 0,01 1,000
( I − Q) −1C = = = .
− 0,54 0,58 0,04 41,5385 14,6154 0,04 1,000
2 1,000
( I − Q) −1C = .
1 1,000
s1 s2 s3 s4 s5
s1 0 0,8 0 0,1 0,1
s2 0 0,1 0,7 0,1 0,1
.
P = s3 0 0,5 0,2 0,2 0,1
s4 0 0 0 1 0
s5 0 0 0 0 1
177
O grafo da cadeia de Markov deste exemplo está ilustrado na Figura 5.7 a
título de ilustração apenas. Note-se nesta figura o estado transitório s1 e os estados
absorventes s4 e s5 .
0,1
0,8
s1 s2
s5
1 s4 0,1 s3
0,2 1 0,2
1 0 0 0 0,8 0 1 − 0,8 0
I − Q = 0 1 0 − 0 0,1 0,7 = 0 0,9 − 0,7 →
0 0 1 0 0,5 0,2 0 − 0,5 0,8
−1
1 − 0,8 0 1 1,73 1,51
−1
( I − Q) = 0 0,9 − 0,7 = 0 2,16 1,89 .
0 − 0,5 0,8 0 1,35 2,43
178
s1 1 1,73 1,51
−1
( I − Q) = s2 0 2,16 1,89 .
s3 0 1,35 2,43
Tabela 5.3: Cálculos dos passos esperados antes da absorção a partir dos elementos da matriz
fundamental.
Estado não absorvente de partida Passos esperados antes da absorção
s1 1 + 1,73 + 1,51 = 4,24 meses
s2 2,16 + 1,89 = 4,05 meses
s3 1,35 + 2,43 = 3,78 meses
s4 s5
s1 0,58 0,42
−1 .
( I − Q) C = s2 0,59 0,41
s3 0,62 0,38
Exemplo 5.6. Arbitrando o vetor inicial v (0) = [1 0 0 0 0] , após trinta iterações, obtém-
179
se o vetor v (30) = [0 0,0001 0,0001 0,5756 0,4243] . Os dois últimos elementos de v (30)
referem-se aos estados absorventes.
Para j = 5 , temos:
f15 (1) = p15 (1) = 0,1 ,
f15 (2) = p15 (2) − f15 (1) p55 → f15 (2) = 0,18 − 0,1 × 1 → f15 (2) = 0,08 ,
f15 (3) = p15 (3) − f15 (1) p55 (2) − f15 (2) p55 → f15 (3) = 0,244 − 0,1 × 1 − 0,08 × 1 →
→ f15 (3) = 0,064 ,
f15 (4) = p15 (4) − f15 (1) p55 (3) − f15 (2) p55 (2) − f15 (3) p55 →
→ f15 (4) = 0,2896 − 0,1 × 1 − 0,08 × 1 − 0,064 × 1 → f15 (4) = 0,0456 ,
f15 (5) = p15 (5) − f15 (1) p55 (4) − f15 (2) p55 (3) − f15 (3) p55 (2) − f15 (4) p55 →
f15 (5) = 0,3244 − 0,1 × 1 − 0,08 × 1 − 0,064 × 1 − 0,0456 × 1 → f15 (5) = 0,0348 , .
180
Adicionando os dois tempos médios, encontramos o número esperado de
passos antes da absorção partindo do estado s1 , 2,5448 + 1,6981 = 4,2429 meses. Este
resultado se arredondado com duas casas decimais é o mesmo obtido anteriormente através da
matriz fundamental (vide Tabela 5.3).
f14 (k ) f15 (k )
0,1000 0,0091 0,0005 0,0000 0,1000 0,0058 0,0003 0,0000
0,0800 0,0068 0,0004 0,0000 0,0800 0,0043 0,0002 0,0000
0,1200 0,0050 0,0003 0,0000 0,0640 0,0032 0,0002 0,0000
0,0624 0,0037 0,0002 0,0000 0,0456 0,0024 0,0001 0,0000
0,0583 0,0028 0,0001 0,0000 0,0348 0,0018 0,0001 0,0000
0,0381 0,0021 0,0001 0,0000 0,0255 0,0013 0,0001 0,0000
0,0307 0,0015 0,0001 0,0000 0,0191 0,0010 0,0001 0,0000
0,0218 0,0011 0,0001 0,0000 0,0142 0,0007 0,0000 0,0000
0,0167 0,0009 0,0000 0,0000 0,0106 0,0005 0,0000 0,0000
0,0122 0,0006 0,0000 0,0000 0,0078 0,0004 0,0000 0,0000
181
Em primeiro lugar, a Definição 5.1 se aplica aos processos de Markov de
tempo contínuo, em particular a expressão (5.3). Resta definir probabilidades de transição.
pij (u , t ) = P( X (t ) = j | X (u ) = i ) ,
sendo i , j = 0,1, 2, ,e
1, se i = j
pij (t , t ) = .
0, se i ≠ j
tempos t − u .
Para definirmos completamente um processo de Markov de tempo contínuo
precisamos definir as probabilidades dos estados, p j (t ) no instante t , para j = 0,1, 2, .
p j (t ) = P( X (t ) = j ) .
P( X (t ) = j | X (u ) = i) P( X (u ) = i) ,
i
182
p j (t ) = pij (0, t ) p j (0) . (5.21)
i
P(Y ≤ t + r | Y ≥ t ) = P(Y ≤ r )
presente futuro
0 r t t+r tempo
183
A demonstração deste teorema é como segue. Seja fY (t ) a função
dFY (t )
densidade de probabilidade exponencial, tal que fY (t ) = βe − βt , t ∈ [0, ∞) , fY (t ) = ,
dt
P (t ≤ Y ≤ t + r ) F (t + r ) − FY (t )
P(Y ≤ r ) = → FY (r ) = Y .
P(Y ≥ t ) 1 − FY (t )
FY'(t )
FY'(0) = ,
1 − FY (t )
'
FY (t ) = 1 − e − FY (0)t → FY (t ) = 1 − e − β t .
Definição 5.14: (Taxa de transição) À função contínua não negativa qij (t ) definida por
∂pij (t , u )
qij (t ) =
∂t t =u
184
Para uma cadeia de Markov de tempo contínuo, as taxas de transição e as
probabilidades dos estados são relacionadas por meio da equação de Kolmogorov mostrada
em (5.22) (TRIVEDI, 2002).
dp j (t )
= −q j (t ) p j (t ) + qij (t ) pi (t ) . (5.22)
dt i≠ j
q01
p0 (t ) 0 1 p1 (t )
q10
Figura 5.9: Diagrama de transição de uma cadeia de Markov de tempo contínuo com dois
estados.
q0 = q01 e q1 = q10 .
dp0
= − q0 p0 + q10 p1 ,
dt
dp1
= −q1 p1 + q01 p0 .
dt
Para efeito de simplificação admitiremos as taxas de transição constantes e a
seguinte notação: q01 = λ e q10 = µ . Em regime estacionário, as equações diferenciais
reduzem-se a equações algébricas linearmente dependentes.
185
− λp0 (∞) + µp1 (∞) = 0 ,
− µp1 (∞) + λp0 (∞) = 0 .
µ
p0 (∞) = ,
λ+µ
λ
p1 (∞) = .
λ+µ
dp0
= −λp0 + µp1 ,
dt
dp1
= − µp1 + λp0 .
dt
dp0
+ (λ + µ ) p0 = µ ,
dt
dp1
+ (λ + µ ) p1 = λ .
dt
186
Ao resolvermos estas equações, supondo que o processo tenha partido do
estado 0, isto é, p0 (0) = 1 e p1 (0) = 0 , obtemos as soluções que são as probabilidades
instantâneas dos estados.
µ λ
p0 (t ) = e − ( λ + µ )t ,
+
λ+µ λ+µ
λ λ − ( λ + µ )t
p1 (t ) = − e .
λ+µ λ+µ
µ λ µ µ
lim p0 (t ) = lim + e − ( λ + µ )t = , → v0 =
t →∞ t →∞λ+µ λ+µ λ+µ λ+µ
λ µ − ( λ + µ )t λ λ
lim p1 (t ) = lim − e = → v1 = .
t →∞ t →∞ λ + µ λ+µ λ+µ λ+µ
187
Para permitir a análise em regime estacionário, o elemento chave é a matriz
de transição a exemplo do que foi feito para cadeias de tempo discreto. O primeiro passo
naturalmente consistirá em estabelecer procedimentos sistemáticos para obter tal matriz.
Exemplo 5.11: Dado o diagrama da cadeia de Markov ilustrado na Figura 5.10, obtenha a
matriz de transição correspondente. Observe que nem todos os nós estão interligados.
λ1
0 1
188µ1
µ2 λ2 λ4 µ4
λ3
Figura 5.10: Diagrama de transição de uma cadeia de Markov de tempo contínuo com quatro
estados.
189
0 1 2 3
0 1 − (λ1 + λ2 ) λ1 λ2 0
1 µ1 1 − ( µ1 + λ4 ) 0 λ4 .
P=
2 µ2 0 1 − ( µ 2 + λ3 ) λ3
3 0 µ4 µ3 1 − ( µ3 + µ 4 )
Exemplo 5.12: Dado o sistema de equações de uma cadeia de Markov de três estados, obtenha
a matriz de transição correspondente.
0 = − 3v0 + v1 + 2v2
0 = − 4v1 + v0 + v2 .
0 = − 3v2 + 3v1 + 2v0
v0 = v0 − 3v0 + v1 + 2v2
v1 = v1 − 4v1 + v0 + v2 .
v2 = v2 − 3v2 + 3v1 + 2v0
190
v0 = (1 − 3)v0 + v1 + 2v2 v0 = − 2v0 + v1 + 2v2
v1 = (1 − 4)v1 + v0 + v2 → v1 = − 3v1 + v0 + v2 ,
v2 = (1 − 3)v2 + 3v1 + 2v0 v2 = − 2v2 + 3v1 + 2v0
v0 = − 2v0 + v1 + 2v2
v1 = v0 − 3v1 + v2 .
v2 = 2v0 + 3v1 − 2v2
Por fim, resulta o sistema na forma matricial, onde a matriz de transição está
explícita.
−2 1 2
[v0 v1 v2 ] = [v0 v1 v2 ] 1 − 3 1 ,
2 3 −2
0 1 2
0 −2 1 2
.
P = 1 1 −3 1
2 2 3 −2
para i ≠ j , de modo que, uma vez que se o processo entra neste estado, o mesmo é destinado
a permanecer nele. Como definido anteriormente, em uma cadeia irredutível todo estado pode
ser alcançado de qualquer outro estado.
Os processos de Markov de tempo contínuo encontram aplicações em
diversas áreas, dentro as quais destacamos sistemas de filas de espera (processo conhecido
como nascimento e morte) e confiabilidade de sistemas físicos em geral.
191
Vamos ilustrar a análise de cadeias de Markov de tempo contínuo através da
solução de dois exemplos. O primeiro exemplo é transcrito do livro (HILLIER e
LIEBERMAN, 1995).
Exemplo 5.13: Um shopping tem duas máquinas idênticas que são operadas continuamente
exceto quando estão quebradas. Assim que uma máquina se quebra, ela é reparada
imediatamente por um técnico que fica de plantão para atender a emergência. O tempo
requerido para reparar uma máquina tem distribuição exponencial com média de 0,5 dia.
Uma vez que a operação de reparo é concluída, o tempo até a próxima falha é também uma
variável aleatória exponencial com média de 1 dia, sendo estas distribuições independentes.
Defina a variável aleatória X (t ) como
reparo é 0,5 dia, a taxa de reparo de qualquer uma das máquinas é 2 . Então, q21 = 2 e
192
q10 = 2 reparos por dia. O tempo esperado até que uma máquina que está em operação se
q01 = 2 q12 = 1
0 1 2
q10 = 2 q21 = 2
0 1 2
0 −1 2 0
.
P =1 2 −2 1
2 0 2 −1
v0 = 0,4
v1 = 0,4 .
v2 = 0,2
193
Exemplo 5.14: É usual em subestações de energia elétrica utilizar dois transformadores
idênticos em paralelo, de modo que a potência de cada um dos equipamentos é suficiente para
atender a instalação. A motivação para isto é aumentar a confiabilidade da subestação
relativamente à alternativa de usar um único transformador. A Figura 5.12 ilustra o esquema
elétrico simplificado para a análise de falha. A seta da figura indica o sentido do fluxo da
energia.
2λ λ
0 1 2
µ 2µ
ambos em um em ambos em
operação operação e o falha
outro em falha
194
Supondo que as condições de regime estacionário sejam verificadas, isto é, t → ∞ , determine
as seguintes informações:
(a) a probabilidade de falha do sistema;
(b) a disponibilidade do sistema; e
(c) o tempo médio para o sistema falhar dado que se encontra em plena operação.
0 1 2
0 1 − 2λ 2λ 0
P=1 µ 1 − (λ + µ ) λ
2 0 2µ 1 − 2µ
µ2
v0 = ,
(λ + µ ) 2
2λµ
v1 = ,
(λ + µ ) 2
λ2
v2 = .
(λ + µ ) 2
λ2 + 2λµ
v1 + v2 = .
(λ + µ ) 2
195
µ 2 + 2λµ
v0 + v1 = .
(λ + µ ) 2
0 1 2
0 1 − 2λ 2λ 0
P=1 µ 1 − (λ + µ ) λ
2 0 0 1
0 1
0 1 − 2λ 2λ
Q= .
1 µ 1 − (λ + µ )
1 λ + µ 2λ
( I − Q)−1 =
2λ 2 µ 2λ
196
Partindo do estado 0 (que é o sistema em plena operação), o MTTF (isto é, o
tempo antes do estado absorvente) é
1 (3λ + µ )
MTTF = (λ + µ + 2λ ) → MTTF = .
2λ2 2λ2
2. Um representante comercial visita seus clientes cada mês. A experiência passada mostra
que, se um cliente fez um pedido no último mês, a probabilidade de um novo pedido no mês
corrente é 0,3, e se não foi efetuado pedido algum no mês passado, a probabilidade é 0,6.
Assim, em cada um dos meses subseqüentes ao primeiro, cada cliente deve encontrar-se em
um dos dois estados:
- estado 0: nenhum pedido no mês passado; e
- estado 1: um pedido no mês passado.
Dessa forma, com base nas probabilidades de transição podemos predizer o comportamento
no futuro. Para um cliente do universo dos que não fizeram pedidos no mês anterior,
determine a probabilidade que o tempo transcorrido para efetuar um novo pedido seja de 3
meses.
Modele o problema como uma cadeia de Markov de tempo discreto com passo igual a um
ano.
Determine:
(a) a matriz de probabilidades de transição para este processo;
(b) a classificação desta cadeia;
(c) as probabilidades estacionárias;
(d) o tempo médio que o comprador de um Ford permanece com esta marca; e
(e) o número esperado de anos que o cliente que atualmente possui um Ford compre um
Plymouth.
Como sugestão para resolver a questão (e) faça artificialmente o estado s3 um estado
absorvente e calcule o tempo esperado para a absorção.
4. Dadas as matrizes de transição para um passo, classifique cada uma das cadeias.
1 1 1 1
0,2 0,1 0,7 3 6 4 4
0 0 0 1
(a) P = 0,1 0,3 0,6 ; (b) P = .
0 0 1 0
0,3 0,4 0,3 1 1 1 1
8 8 4 2
198
uso residencial 30% → estado s1 ;
uso comercial 20% → estado s2 ;
uso industrial 50% → estado s3 .
(a) Calcule os percentuais de ocupação do solo nesta cidade em 2003, assumindo que as
probabilidades de transição para intervalos de 5 anos são dados pela seguinte matriz:
s1 s2 s3
s1 0,8 0,1 0,1
.
P = s2 0,1 0,7 0,2
s3 0 0,1 0,9
(b) Encontre as probabilidades limites dos estados de utilização do solo nesta cidade.
6. Em relação exercício anterior sobre ocupação do solo da cidade, suponha que se uma área é
destinada à indústria esta fica imprestável para uso residencial ou comercial. Imaginando o
estado s3 como estado absorvente, determine o número esperado de passos (em anos) até que
uma região que é residencial se torne industrial.
199
0 1 2 3
0 0,4 0,4 0,1 0,1
1 0 1 0 0 .
P=
2 0,3 0,1 0,5 0,1
3 0,1 0 0,6 0,3
que a partir dos dados do Exemplo 5.9 sejam reproduzidos os resultados que constam da
Tabela 5.4.
µ2
disponibilidade do sistema vale e que a MTTF é igual a 1 2λ . (MTTF é o tempo
(λ + µ ) 2
médio para a falha).
10. Um sistema com um único servidor aberto ao público tem seus tempos de atendimentos
distribuídos exponencialmente com taxa igual a µ . Os tempos entre chegadas dos usuários
que demandam pelo serviço desses guichês também exibem a distribuição exponencial com
taxas iguais a λ . Os usuários que acessam o sistema surgem segundo o modelo de Poisson. O
estado é caracterizado pelo número de usuários presentes, 0 , 1, 2 , , ∞ . Nessas condições,
o sistema se enquadra como um processo de nascimento e morte, podendo ser descrito como
uma cadeia de Markov infinita de tempo contínuo. Desenhe o diagrama de transição dessa
cadeia e escreva as equações de Kolmogorov para o regime estacionário. Supondo que λ < µ ,
com base em séries convergentes, prove que a expressão para a probabilidade estacionária v0
em função do quociente ρ = λ µ é
v0 = 1 − ρ ,
onde, v0 é a probabilidade de encontrar o sistema vazio, ou seja, livre de usuários. Neste
exercício você precisará usar o resultado da série:
∞ i 1
S= x = x 0 + x1 + x 2 + + x∞ = , se 0 < x < 1 .
i =0 1− x
200