Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Introduo
Por que aparecem as filas?
No eficiente, nem racional, que cada
um disponha de todos os recursos
individualmente. Por exemplo:
Introduo
Sistemas de fluxo
Sistemas de fluxo
Sistemas de fluxo
Sistemas de fluxo
Chegadas ao
sistema
Fila
m
Servidores
Sadas do
sistema
A/B/C/K/m/Z
distribuio do
tempo entre chegadas
A/B/C/K/m/Z
distribuio do
tempo entre chegadas
distribuio do
tempo de servio
A/B/C/K/m/Z
distribuio do
tempo entre chegadas
distribuio do
tempo de servio
nmero de
servidores
A/B/C/K/m/Z
distribuio do
tempo entre chegadas
distribuio do
tempo de servio
K omitido quando:
nmero de
servidores
K=
nmero mximo de
clientes permitidos
no sistema
A/B/C/K/m/Z
m se omite quando:
distribuio do
tempo entre chegadas
distribuio do
tempo de servio
m=
nmero de
servidores
tamanho da
populao
nmero mximo de
clientes permitidos
no sistema
A/B/C/K/m/Z
distribuio do
tempo entre chegadas
distribuio do
tempo de servio
disciplina
de servio
nmero de
servidores
tamanho da
populao
nmero mximo de
clientes permitidos
no sistema
Z se omite quando:
= FIFO
xi)
(se = wi +
Servidor
Fila
ri
ri+1
ti+1
Ci
Ci+1
Ci
xi
Ci
Ci+1
Ci+2
xi+1
Ci+1
xi+2
Ci+2
ri+2
ti+2
Ci+2
Tempo
instante t
L = E[k]: nmero mdio de usurios no
sistema (em estado estacionrio)
LQ: nmero mdio de usurios na fila (em
estado estacionrio).
T = E[s]: tempo mdio de permanncia de um
usurio no sistema = E[k]/ (frmula de Little)
CADEIAS DE MARKOV
DISCRETAS
Cadeias de Markov
discretas
Definies
Observaes
Observaes
Propriedade Markoviana:
P{Xn+1 = j | Xn = i, Xn-1= in-1,... X0 = i0}
=P{Xn+1 = j | Xn = i} = Pij 0
Cadeias de Markov
discretas
X2
Rancagua
X3
Santiago
X4
Valparaso
X5
Serena
...
Me leva?
Cadeias de Markov
discretas
Curic
Rancagua
Santiago
Valparaso
Serena
...
Me leva?
Cadeias de Markov
discretas
Curic
Rancagua
Santiago
Valparaso
Serena
...
Me leva?
Cadeias de Markov
discretas
Curic
Rancagua
Santiago
Valparaso
Serena
...
Me leva?
Cadeias de Markov
discretas
Curic
Rancagua
Santiago
Valparaso
Serena
...
Continuarei mais ao
Norte?
Cadeias de Markov
discretas
Definies
Exemplo
1/4
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
1/4
(2)
1/2
(1)
Valpo
1/4
3/4
3/4
Santiago
(0)
1/4
1/4
Serena
1/4
1/2
(2)
Valpo
1/4
3/4
3/4
Santiago
(0)
(1)
1/4
1/4
Serena
1/4
(2)
1 / 4 1 / 4 1 / 2
1/2
Definies
Estados 1 e 2 so transientes
Definies
Estados 1, 2 e 3 so recorrentes
Cadeias de Markov
discretas
Cadeias de Markov
discretas
Cadeia de Markov fica definida por:
0
1
1
Graficamente:
1
1
Cadeias de Markov
discretas
Exemplo 2: transformar um processo
Andar 2
Andar 1
Cadeias de Markov
discretas
Cadeias de Markov
discretas
Cadeias de Markov
discretas
Cadeias de Markov
discretas
Cadeias de Markov
discretas
Exemplo 2.1: transformar um processo
Cadeias de Markov
discretas
Cadeias de Markov
discretas
Estados:
0: Choveu, choveu
2: Choveu, no choveu
1: No choveu, choveu
3: No choveu, no choveu
0,7 0 0,3 0
0,5 0 0,5 0
P
0 0,4 0 0,6
0 0,2 0 0,8
Definies
(1)
( 0)
Definies
Exemplo:
(1) (1)
0 1
( 0) ( 0)
0 1
P00
P
10
Aplicando recursivamente:
(n)
( n 1) P
(n)
( 0) P n
ou
P01
P11
Definies
lim
( 0)
Pn
Obteno de :
0.7 0.3
P
0
.
4
0
.
6
Cadeias de Markov
discretas
Aplicando o teorema da probabilidade
total:
seja a probabilidade incondicional de
que chover amanh.
= P(amanh chover | hoje choveu) +
P(amanh chover | hoje no choveu)
02
. P00 08
. P10
Cadeias de Markov
discretas
0 1
(1 ) 0 (1 ) 1
1 0 1
Cadeias de Markov
discretas
Voltando ao exemplo do turista:
Me leva?
Valpo
1/4
3/4
3/4
Santiago
(0)
(1)
1/4
1/4
Serena
1/4
(2)
1/2
1 / 4 1 / 4 1 / 2
Cadeias de Markov
discretas
Considerando-se a relao
obtm-se que
3
1
3
2
1
4
4
3
1
1 4 0 0 1 4 2
1
1
1
2 4 0 4 1 2 2
com
1 0 1 2
0 0
Cadeias de Markov
discretas
Resolvendo-se as equaes obtm-se
as probabilidades em estado de
equilbrio:
1
0 020
.
5
7
1
028
.
25
13
2
052
.
25
CADEIAS DE MARKOV DE
TEMPO CONTNUO
Cadeias de Markov de
tempo contnuo
Cadeias de Markov de
tempo contnuo
ij
ik
ij
Cadeias de Markov de
tempo contnuo
Definio:
tij (tik): tempo de permanncia no estado i
Cadeias de Markov de
tempo contnuo
Propriedades:
O tempo de permanncia em um estado
Cadeias de Markov de
tempo contnuo
Cadeias de Markov de
tempo contnuo
Definio formal:
Um processo aleatrio X(t) uma cadeia de Markov
de tempo contnuo se:
P X (t s) j | X ( s) i, X (u ) x(u ),0 u s
P X (t s ) j | X ( s ) i
Cadeias de Markov de
tempo contnuo
j-i chegadas
j-i arribos
N(t) = i
t+s
P{ N (t s ) j / N (t ) i , N (u ) X (u ) 0 u t}
P{ N (t s ) j / N (t ) i}
P{( j i )chegadasem(t , t s ]}
encontrar as probabilidades de
transio de qualquer estado i a qualquer
estado j em um dado instante.
Princpio de balano
global
Definies:
i i1
2 2i
i i2
...
k ki
...
11i
i ij
Princpio de balano
global
Definies:
k
Unidad de tiempo de tempo
Unidade
Unidad de tiempo
Unidade
de tempo
Princpio de balano
global
Definies:
Princpio de balano
global
1 ( t ) 1i t
Nmero mdio de
entradas de qualquer
estado k ao estado i
em t
...
...
k ( t ) ki t
i ( t ) i1t
i ( t ) ij t
nmero mdio de
sadas do estado i a
qualquer estado j
em t
Princpio de balano
global
( t ) ki t o( t )
( t )
j
ij
t o( t )
Princpio de balano
global
Balano de fluxos
Entradas lquidas
nmero mdio de nmero mdio de
mdias por unidade = entradas totais por - sadas totais por
de tempo (EN)
unidade de tempo
unidade de tempo
EN t
k i
( t ) ki i ( t ) ij t o( t )
j i
Princpio de balano
global
i t
Unidad de tiempo
Unidade de tempo
i t
EN t i ( t t ) i ( t ) o( t )
i ( t ) o( t )
Princpio de balano
global
nmero de
Variao do tempo de
permanncia no estado i, = entradas totais em t
por unidade de tempo
nmero de
sadas totais
em t
i ( t )
k i
( t ) ki i ( t ) ij t o( t ) (1)
j i
Princpio de balano
global
i ( t )
k i
( t ) ki
o( t )
(2)
i ( t ) ij
t
j i
k i
( t ) ki i ( t ) ij
j i
(3)
Princpio de balano
global
Equao
qualquer:
i ( t )
k i
( t ) ki i ( t ) ij
j i
Pode-se
0i
i ( t )
0 ( t ) ... i ( t ) ... n ( t ) ij
j i
t
:
ni
Princpio de balano
global
Definindo-se:
( t ) 0 ( t )
( t ) 0 ( t )
t
t
0 j
...
...
...
j 0
i0
n0
n (t)
...
i ( t )
t
0i
...
...
... ij
j i
i (t)
...
ni
...
n ( t )
t
0n
in
... nj
j n
Equaes de balano
global
( t )
( t )Q
t
Alm disso, sempre:
(t) 1
i
Equaes de balano
global
Q 0
Equaes de balano
global
Exemplo: Cadeia de
Markov de dois estados
Exemplo: Cadeia de
Markov de dois estados
0
1
En
Em
reparo
Reparacin
Operacional
Se
tem que :
01
Condies iniciais:
( 0) 0 ( 0)
10
1 ( 0) 1 0
Exemplo: Cadeia de
Markov de dois estados
0 ( t ) 1 ( t ) 1
Forma
i ( t )
k i
( t ) ki i ( t ) ij
j i
k , i, j 0,1
Exemplo: Cadeia de
Markov de dois estados
Portanto:
0 ( t )
0 ( t ) 1 ( t )
t
1 ( t )
0 ( t ) 1 ( t )
t
0 ( t ) 1 ( t ) 1
(4)
(5)
(6)
Exemplo: Cadeia de
Markov de dois estados
( ) t
0 (t)
1 ( t )
e ( ) t
Exemplo: Cadeia de
Markov de dos estados
0
t
t
0 1 0
(7)
0 1 0
(8)
0 1 1
(9)
Exemplo: Cadeia de
Markov de dois estados
Observao:
Exemplo: Cadeia de
Markov de dois estados
Grfico de 0 com =4
0
=2
=5
=7
Exemplo: Cadeia de
Markov de dois estados
Grfico de 0 com =4
0
=7
=5
=2
Exemplo: Cadeia de
Markov de dois estados
Grfico de 1 com =4
1
=7
=5
=2
Exemplo: Cadeia de
Markov de dois estados
Grfico de 1 com =4
1
=2
=5
=7
Problema 1
02
20
Problema 1
Define-se:
t01: tempo de permanncia no estado 0 antes de
Problema 1
Portanto:
P( t 01 t 02 ) P( t 01 t 02 / t 02 s) P( t 02 s)ds
0
P( t 01 s) P( t 02 s) ds
0
(1 e 01s ) 02 e 02s ds
0
01
01 02
Problema 1
Pij
onde
ij
k i
ik
Problema 2
Alm disso:
Pij
ij
k i
ik
Problema 2
Portanto:
Pii 1
j i
ij
k i
1
Pii 1
ik
k i
Pii 1 1 0
ik
j i
ij
Problema 3
P{sair do estado i at t} 1 e
P{permanecer no estado i at t}
ik t
k i
ik t
k i