Sei sulla pagina 1di 25

Luis M. Bergasa.

Departamento de Electrnica
1
Luis Miguel Bergasa Pascual
Departamento de Electrnica. Universidad de Alcal.
Email:bergasa@depeca.uah.es
INTRODUCCIN A LOS MODELOS
OCULTOS DE MARKOV
Luis M. Bergasa. Departamento de Electrnica
2
CONTENIDOS CONTENIDOS
Introduccin
Revisin de conceptos
Procesos de Markov
Modelos ocultos de Markov
Ejemplos de aplicacin
Luis M. Bergasa. Departamento de Electrnica
3
Fenmenos Naturales Fenmenos Naturales
Emiten seales o tienen propiedades observables con
caractersticas estadsticas que pueden variar con el
tiempo.
Clasificacin de las seales:
Discretas (p.e. el alfabeto) o continuas (p.e. la voz)
Estacionarias o estocsticas
Puras o distorsionadas por el ruido
Luis M. Bergasa. Departamento de Electrnica
4
Problema: modelar dichos fenmenos Problema: modelar dichos fenmenos
Establecer una representacin matemtica del fenmeno que
permita explicarlo.
Deben permitir analizar el fenmeno sin necesidad de ser
observado directamente
Deben tener una representacin adecuada:
Buena capacidad de reconocimiento
Prediccin
Tipos:
Deterministas: exploran caractersticas conocidas de la seal
Estadsticos: caracterizan la seal con valores estadsticos
Luis M. Bergasa. Departamento de Electrnica
5
Modelos Estadsticos de Seales Modelos Estadsticos de Seales
Cadenas de Markov (Markov,1906)
Seales observables representadas como un proceso
aleatorio paramtrico
Los parmetros pueden determinarse con precisin
Modelos Ocultos de Markov (HMM)
(Baum et al, 1966-72)
Extensin de las cadenas de Markov cuando las seales no
son observables
Luis M. Bergasa. Departamento de Electrnica
6
Ejemplo: estado del tiempo Ejemplo: estado del tiempo
Dado que hoy esta soleado, cul es la probabilidad de la
secuencia soleado, nuboso, lluvioso?
S
1
S
2
0.4
0.6
0.2
0.8
S
3
0.3
0.2
0.1
0.1
0.3
Lluvioso
Nuboso
Soleado
Luis M. Bergasa. Departamento de Electrnica
7
Tipos de Modelos de Tipos de Modelos de Markov Markov
Caractersticas generales
Elementos bsicos de todo modelo de Markov:
El sistema tiene varios estados seS
El sistema evoluciona de unos estados a otros con transiciones probabilsticas p(s|s)
s0
s1
s2
s3
s4
0.6
0.2
0.2
0.5
0.5
0.1
0.9
0.2 0.8
0.7
0.3
MODELO DE TRANSICIN p(s|s)
s s s0 s1 s2 s3 s4
s0 0.2 0.6 0 0.2 0
s1 0 0 0.5 0.5 0
s2 0 0 0.1 0.9 0
s3 0 0 0 0.2 0.8
s4 0.7 0 0.3 0 0
PROPIEDAD DE MARKOV: El estado en t+1 slo depende del estado en t,
y no de la evolucin anterior del sistema.
Luis M. Bergasa. Departamento de Electrnica
8
Estado observable
Estado oculto
(observaciones)
No hay acciones
(slo transiciones
estocsticas)
Cadenas de Markov
(Markov Chains)
Modelos Ocultos de Markov
(HMMs)
Hay acciones
(que producen
transiciones
estocsticas)
Procesos de Decisin
de Markov
(MDPs)
Procesos de Decisin de Markov
Parcialmente Observables
(POMDPs)
Tipos de Modelos de Tipos de Modelos de Markov Markov
Clasificacin
Luis M. Bergasa. Departamento de Electrnica
9
En una Cadena de Markov el ESTADO es COMPLETAMENTE
OBSERVABLE (conocido en todo momento), y NO EXISTEN ACCIONES (no
hay toma de decisiones -> equivale a una sla accin)
s0
s1
s2
s3
s4
0.6
0.2
0.2
0.5
0.5
0.1
0.9
0.2 0.8
0.7
0.3
MODELO DE TRANSICIN p(s|s)
s s s0 s1 s2 s3 s4
s0 0.2 0.6 0 0.2 0
s1 0 0 0.5 0.5 0
s2 0 0 0.1 0.9 0
s3 0 0 0 0.2 0.8
s4 0.7 0 0.3 0 0
Tipos de Modelos de Tipos de Modelos de Markov Markov
1. Cadenas de Markov (Markov Chains)
Luis M. Bergasa. Departamento de Electrnica
10
En un Modelo Oculto de Markov el ESTADO es PARCIALMENTE
OBSERVABLE (no se conoce, pero existen observaciones oeO), y NO EXISTEN
ACCIONES (no hay toma de decisiones -> equivale a una sla accin)
MODELO DE TRANSICIN p(s|s)
Y
MODELO DE OBSERVACIN p(o|s)
(ejemplo con 3 posibles observaciones)
s o o0 o1 o2
s0 0.2 0.8 0
s1 0 0 1
s2 0 0.5 0.5
s3 0.3 0.7 0
s4 0.7 0 0.3
s0
s1
s2
s3
s4
0.6
0.2
0.2
0.5
0.5
0.1
0.9
0.2 0.8
0.7
0.3
o2 con prob 100%
o1 con prob 50%
o2 con prob 50%
o0 con prob 30%
o1 con prob 70%
o0 con prob 70%
o2 con prob 30%
o0 con prob 20%
o1 con prob 80%
Aqu el problema es estimar el
estado (variable oculta)
Tipos de Modelos de Tipos de Modelos de Markov Markov
2. Modelos Ocultos de Markov (HMMs)
Luis M. Bergasa. Departamento de Electrnica
11
En un Proceso de Decisin de Markov el ESTADO es COMPLETAMENTE
OBSERVABLE (conocido en todo momento), y EXISTEN DIFERENTES
ACCIONES (un modelo de transicin para cada accin -> p(s|s,a))
MODELO DE TRANSICIN p(s|s,a)
(en este caso, al haber 2 acciones, son dos
matrices: p(s|s,a0) y p(s|s,a1) )
s0
s1
s2
s3
s4
a0 a0
a0
a0
a1
a1
a1
a1
Aqu el problema es la toma de decisiones
(seleccionar las acciones para maximizar una
recompensa futura). Para ello se define el:
MODELO DE RECOMPENSA r(s|a)
(POLTICA: asocia una accin ptima a cada
estado, que maximiza la recompensa futura.
Varios algoritmos)
Tipos de Modelos de Tipos de Modelos de Markov Markov
3. Procesos de Decisin de Markov (MDPs)
Luis M. Bergasa. Departamento de Electrnica
12
En un Proceso de Decisin de Markov Parcialmente Observable el ESTADO es
PARCIALMENTE OBSERVABLE (no se conoce, pero se dispone de
observaciones), y EXISTEN DIFERENTES ACCIONES (un modelo de transicin
para cada accin -> p(s|s,a))
MODELO DE TRANSICIN p(s|s,a)
MODELO DE OBSERVACIN p(o|s)
MODELO DE RECOMPENSA r(s,a)
Aqu hay dos problemas:
la estimacin del estado (como en HMM)
la toma de decisiones (como en MDP)
s0
s1
s2
s3
s4
a0 a0
a0
a0
a1
a1
a1
a1
o2 con prob 100%
o1 con prob 50%
o2 con prob 50%
o0 con prob 30%
o1 con prob 70%
o0 con prob 70%
o2 con prob 30%
o0 con prob 20%
o1 con prob 80%
Tipos de Modelos de Tipos de Modelos de Markov Markov
4. Procesos de Decisin de Markov Parcialmente
Observables (POMDPs)
Luis M. Bergasa. Departamento de Electrnica
13
)
q = ds ) s ( Bel ) s | ' s ( p ) ' s | o ( p ) ' s ( Bel
)
q = ds ) s ( Bel ) a , s | ' s ( p ) ' s | o ( p ) ' s ( Bel
FILTROS BAYESIANOS
Para estimar el estado cuando es oculto
CREENCIA Bel(S)
Estado observable
Estado oculto
(observaciones)
No hay acciones
(slo transiciones
estocsticas)
Cadenas de Markov
(Markov Chains)
Modelos Ocultos de Markov
(HMMs)
Hay acciones
(que producen
transiciones
estocsticas)
Procesos de Decisin
de Markov
(MDPs)
Procesos de Decisin de Markov
Parcialmente Observables
(POMDPs)
TEORA DE DECISIONES
Para seleccionar la accin a ejecutar
Poltica a=t(s) Poltica a=t(Bel(S))
Tipos de Modelos de Tipos de Modelos de Markov Markov
Algoritmos probabilsticos tiles
Luis M. Bergasa. Departamento de Electrnica
14
Cadenas de Cadenas de Markov Markov (MC) (MC)
Dado un proceso representado por N estados, S
i
, i=1,...,N,
cambia de estado segn cierta probabilidad asociada a cada
estado, en puntos discretos en el tiempo t =1,...,T. Se dice que en
el tiempo t el sistema est en el estado q
t
.
La descripcin probabilstica del proceso es
P[q
t
= S
j
| q
t-1
= S
i
, q
t-2
= S
k
,]=P[q
t
= S
j
| q
t-1
= S
i
], (primer orden).
Considerndolo independiente del tiempo, se tienen las
probabilidades de transicin entre estados,
a
ij
= P[q
t
= S
j
| q
t-1
= S
i
], i,j = 1,...,N,
donde a
ij
> 0 y Ea
ij
= 1.
Probabilidades del estado inicial,
t
i
= P[q
1
= S
i
], i = 1,...,N.
Luis M. Bergasa. Departamento de Electrnica
15
Ejemplo de MC: estado del tiempo Ejemplo de MC: estado del tiempo
Modelo de Markov observable: cada estado es un evento
fsico observable.
Matriz de probabilidad de transicin de estados:
Dado que hoy esta soleado, cul es la probabilidad la
secuencia soleado, nuboso, lluvioso, O ={S
3
S
2
S
1
}?
P(O/Modelo) = P[S
3
].P[S
2
|S
3
]. P[S
1
|S
2
]
=
3
a
32
a
21
= 1 0.1 0.2= 0.02
(
(
(

= =
8 . 0 1 . 0 1 . 0
2 . 0 6 . 0 2 . 0
3 . 0 3 . 0 4 . 0
} {
ij
a A
Luis M. Bergasa. Departamento de Electrnica
16
Extensin a HMM Extensin a HMM
En las cadenas de Markov el estado es observable, el
parmetro es la probabilidad de transicin.
En HMM la observacin es una funcin probabilstica
del estado.
El modelo tiene dos procesos estocsticos embebidos,
uno no es observable (estados ocultos), pero puede ser
observado mediante el otro proceso (secuencia de
observaciones).
Luis M. Bergasa. Departamento de Electrnica
17
Ejemplo HMM: lanzamiento de monedas Ejemplo HMM: lanzamiento de monedas
Del experimento solo se sabe los resultados del
lanzamiento de las monedas (las monedas estn
ocultas).
Se observan los smbolos cara (C) y cruz (X):
O = CXXCCXCXX ...
Cmo construir un modelo que explique la
secuencia de monedas?
A qu corresponden los estados?
Luis M. Bergasa. Departamento de Electrnica
18
Ejemplo HMM: Ejemplo HMM: 1. Asumiendo una 1. Asumiendo una
moneda moneda
S
1
S
2
1-P(C)
1-P(C)
P(C)
P(C)
Cruz
Cara
Cada estado podra representar el resultado del
lanzamiento
- Modelo observable
- Especificado con solo determinar: P(C)
- Parmetros: 1
Luis M. Bergasa. Departamento de Electrnica
19
Ejemplo HMM: Ejemplo HMM: 2. Asumiendo dos 2. Asumiendo dos
monedas monedas
S
1
S
2
a
11
a
22
1a
22
1a
11
Cada estado podra representar una moneda
P(C)=p
1
, P(X)=1p
1
P(C)=p
2
, P(X) =1p
2
- Cada estado tiene una funcin de distribucin de prob.
- Especificado con 4 parmetros: (p
1
, p
2
, a
11
, a
22
) .
Luis M. Bergasa. Departamento de Electrnica
20
Ejemplo HMM: Ejemplo HMM: 3. Asumiendo tres 3. Asumiendo tres
monedas monedas
- Parmetros = 9
(p
1
, p
2
, p
3
, a
11
, a
12
, a
21
, a
22
, a
31
, a
32
)
Cul es el mejor modelo?
- Correspondencia con el fenmeno fsico
- Cantidad de parmetros: flexibilidad vs. esfuerzo clculo
1 2
a
11
a
22
a
21
a
33
3
a
12
a
23
a
32
a
31
a
13
P(C)=p
2
P(X)=1-p
2
P(C)=p
1
P(X)=1-p
1
P(C)=p
3
P(X)=1-p
3
Luis M. Bergasa. Departamento de Electrnica
21
Ejemplo HMM: modelo de urnas y bolas Ejemplo HMM: modelo de urnas y bolas
Observaciones: color de las bolas
Estados: urnas de donde se extraen las bolas (ocultos)
Parmetros: n(n-1)+n(m-1), n=n de urnas, m= n de colores
Urna 1 Urna 2 Urna N
P(Rojo)=b1(1)
P(Azul)=b1(2)
.
.
P(Verde)=b1(M)
P(Rojo)=b2(1)
P(Azul)=b2(2)
.
.
P(Verde)=b2(M)
P(Rojo)=bn(1)
P(Azul)=bn(2)
.
.
P(Verde)=bn(M)
O={Rojo, Azul, Azul, Verde, Verde, ,Verde}
Urna 1 Urna 2 Urna n
Luis M. Bergasa. Departamento de Electrnica
22
Formalizacin de HMM Formalizacin de HMM
N: cantidad de estados (ocultos, pero con significado).
M: cantidad de smbolos observales por estado, V = {v
1
,...,v
M
}.
Distribucin de probabilidad de la transicin entre estados,
A = {a
ij
}, a
ij
= P[q
t+1
= S
j
| q
t
= S
i
], i,j = 1,...,N.
Distribucin de prob. de observacin de smbolo en cada estado,
B = {b
j
(k)}, b
j
(k) = P[v
k
| q
t
= S
j
], j=1,...,N, k=1,..,M.
Distribucin de probabilidad del estado inicial,
t = {t
i
}, t
i
= P[q
i
= S
i
], i=1,...,N.
Notacin
- Observacin: O = O
1
O
2
...O
T
(de tamao T)
- Modelo: =(A, B, t)
Luis M. Bergasa. Departamento de Electrnica
23
Obtencin de los parmetros del modelo Obtencin de los parmetros del modelo
1. Elegir un estado inicial q
1
=S
i
segn la distribucin inicial de
estados t.
2. Poner t=1.
3. Elegir O
t
=V
k
segn la probabilidad de distribucin de smbolo
en el estado S
i
, p.e. b
i
(k).
4. Pasar a un nuevo estado q
t+1
=S
j
, segn la distribucin de
probabilidad de transicin para el estado S
i
, p.e. a
ij
.
5. Poner t=t+1, vuelta al paso 3) si t<T, en caso contrario terminar
el proceso.
Luis M. Bergasa. Departamento de Electrnica
24
Problemas fundamentales Problemas fundamentales
Evaluacin: Dado el modelo =(A, B, t) y la secuencia de
observaciones O = O
1
O
2
...O
T
, calcular P(O|)
(algoritmo forward-backward).
Dado el modelo =(A, B,t) y la secuencia de observaciones
O = O
1
O
2
...O
T
, encontrar la secuencia de estados
correspondientes Q = q
1
q
2
...q
T
que mejor explique las
observaciones (algoritmo de Viterbi).
Entrenamiento: dada la secuencia de observaciones O =
O
1
O
2
...O
T
, encontrar los parmetros del modelo =(A, B, t)
que maximicen P(O|) (algoritmo de Baum-Welch)
Luis M. Bergasa. Departamento de Electrnica
25
Solucin al problema de Solucin al problema de Evaluacin Evaluacin
Dados O = O
1
O
2
...O
T
y , calcular P(O|).
Para ello se enumeran las secuencias de estados de tamao T.
Para la secuencia Q = Q
1
Q
2
...Q
T
,
Asumiendo independencia en las observaciones:
P(O|Q,) = b
q1
(O
1
) b
q2
(O
2
) ... b
qT
(O
T
).
La probabilidad de la sec., P(Q|) = t
q1
a
q1q2
a
q2q3
...a
qT-1qT
.
La probabilidad conjunta de O y Q es, P(O,Q|) = P(O|Q,) P(Q|)
Sumando para todas las posibles secuencias de estados,
[
=
=
T
t
t t
q O P Q O P
1
) , / ( ) , / (
_ _


= =
Q q
T q q q q q q q q
Q b a O b a O b Q P Q O P O P
T T T
) ( )... ( ) ( ) / ( ) , / ( ) / (
1 2 2 1 1 1
2 1
t
Luis M. Bergasa. Departamento de Electrnica
26
Algoritmo Algoritmo forward forward- -backward backward
El clculo requiere de 2TNT operaciones inviable
Solucin: algoritmo forward-backward
Clculo de 2 variables intermedias:
Forward:
probabilidad de la secuencia de observaciones parciales
O
1
,O
2
O
t
y el estado S
i
en el instante t, para el
modelo .
Backward:
probabilidad de la observacin parcial de la secuencia
desde t+1 hasta el final, dado un estado S
i
, y un modelo

) / , ... ( ) (
2 1
o
i t t t
S q O O O P i = =
) , / ... ( ) (
2 1
|
i t T t t t
S q O O O P i = =
+ +
Luis M. Bergasa. Departamento de Electrnica
27
Inicializacin:
Induccin:
Conclusin:
Operaciones: N
2
T
Clculo de la variable Clculo de la variable
) ( ) (
1 1
O b i
i i
t o =
) (i
t
o
N i t s s = 1 , 1
) ( ) ( ) (
1
1
1 +
=
+
(

=
_ t j
N
i
ij t t
O b a i j o o
_
=
=
N
i
T
i O P
1
) ( ) / ( o
1 1 , 1 s s s s T t N j
Luis M. Bergasa. Departamento de Electrnica
28
Inicializacin:
Induccin:
Conclusin:
Operaciones: N
2
T
Clculo de la variable Clculo de la variable
N i t s s = 1 , 1
) (i
t
|
_
=
=
N
i
T
i O P
1
) ( ) / ( |
1 ,..., 2 , 1 , 1 = s s T T t N j
1 ) ( = i
T
|
_
=
+ +
=
N
j
t t j ij t
j O b a i
1
1 1
) ( ) ( ) ( | |
Luis M. Bergasa. Departamento de Electrnica
29
Solucin al problema de Solucin al problema de Sec Sec. de estados . de estados
No hay secuencia ptima nica, existen muchos criterios.
Una forma, basada en programacin dinmica, es el algoritmo
de Viterbi:
- Dada O = O
1
O
2
...O
T
, encontrar Q = Q
1
Q
2
...Q
T
.
- Se define:
o
t
(i) = max
q1q2...qt-1
P[q
1
q
2
...q
t
= i , O
1
O
2
...O
T
| ]
la mx. probabilidad en el camino, en tiempo t y final en
estado S
i
.
- Inductivamente:
o
t+1
(j) = [max
i=1,...,N
o
t
(i) a
ij
] b
j
(O
t+1
), j=1,...,N, t=1,...,T-1.
Luis M. Bergasa. Departamento de Electrnica
30
Inicializacin:
Recursividad:
Terminacin:
Secuencia de estados ptima:
Algoritmo de Algoritmo de Viterbi Viterbi
T t N j s s s s 2 , 1
) ( ) (
1 1
O b i
i i
t o = 0 ) (
1
= i
| | ) ( ) ( max ) (
1
1
t j ij t
N i
t
O b a i j

s s
= o o
| |
ij t
N i
t
a i j ) ( max arg ) (
1
1

s s
= o
| | ) ( max *
1
i P
T
N i
o
s s
= | | ) ( max arg *
1
i q
T
N i
T
o
s s
=
*) ( *
1 1 + +
=
t t t
q q
N i t s s = 1 , 1
1 ,..., 2 , 1 = T T t
Luis M. Bergasa. Departamento de Electrnica
31
Solucin al problema de Solucin al problema de Entrenamiento Entrenamiento
No se conoce resolucin analtica de los parmetros del
modelo, que maximice la probabilidad de la secuencia de
observaciones.
No hay forma ptima de estimar los parmetros.
Se puede resolver, con mtodos ptimos locales, mediante
procedimientos iterativos:
Baum-Welch
Mtodos de gradientes.
Luis M. Bergasa. Departamento de Electrnica
32
El algoritmo El algoritmo Baum Baum- -Welch Welch
Mtodo de optimizacin local problema de mnimos locales
Requiere de parmetros (A, B, ) iniciales
Luis M. Bergasa. Departamento de Electrnica
33
El algoritmo El algoritmo Baum Baum- -Welch Welch
Realiza la estimacin de (A, B, ) apoyndose en:
Calcula una variable intermedia:
) , / , ( ) , (
1
c O S q S q P j i
j t i t t
= = =
+
__
= =
+ +
+ + + +
= =
N
i
N
j
t t j ij t
t t j ij t t t j ij t
t
j O b a i
j O b a i
O P
j O b a i
j i
1 1
1 1
1 1 1 1
) ( ) ( ) (
) ( ) ( ) (
) / (
) ( ) ( ) (
) , (
| o
| o

| o
c
__
= =
=
!
N
i
N
j
t
j i
O P
1 1
1 ) , (
) / (
c

Luis M. Bergasa. Departamento de Electrnica


34
El algoritmo El algoritmo Baum Baum- -Welch Welch
Tambin es necesario calcular:
Nmero de transiciones desde el estado S
i
:
Nmero de transiciones del estado S
i
al estado S
j
:
Frmulas de estimacin de A, B, :
_
=
=
N
j
t t
j i i
1
) , ( ) ( c
_

=
1
1
) (
T
t
t
i
_

=
1
1
) , (
T
t
t
j i c
) (
1
i
i
t =
_
_

=
=
1
1
1
1
) (
) , (
T
t
t
T
t
t
ij
i
j i
a

c
_
_
=
=
=
=
T
t
t
T
V O Observando
t
t
j
j
j
k b
k t
1
1
) (
) (
) (

N i s s 1
N j i s s , 1
M k N j s s s s 1 , 1
Luis M. Bergasa. Departamento de Electrnica
35
El algoritmo El algoritmo Baum Baum- -Welch Welch
Con estas frmulas pasamos de un modelo a otro
modelo
Procedimiento iterativo siempre que:
La iteracin finaliza cuando (mx. verosimilitud del HMM)
En cada iteracin se cumple:
) , , ( t B A =
) , , ( t B A =
) / ( ) / ( O P O P >
=
1
1
=
_
=
N
i
i
t
N i a
N
j
ij
s s =
_
=
1 , 1
1
N j k b
M
k
j
s s =
_
=
1 , 1 ) (
1
Luis M. Bergasa. Departamento de Electrnica
36
El algoritmo El algoritmo Baum Baum- -Welch Welch
INICIO Relleno del buffer de entrenamiento [A] = [A
inicial
]
[B] = [B
inicial
]
[t] = [t
inicial
]
= (A, B, t)
= 0
SI
FIN
DEL
ENTRENAMIENTO
NO

) / ( O P ) / ( ) / ( O P O P =
N i O b i
i i
s s = 1 , ) ( ) (
1 1
t o
1 1 , 1 , ) ( ) ( ) (
1
1
1
s s s s
(

=
+
=
+ _
L t N j O b a i j
t j
N
i
ij t t
o o
_
=
=
N
i
L
i O P
1
) ( ) / ( o
) / ( ) / ( O P O P =
Luis M. Bergasa. Departamento de Electrnica
37
El algoritmo El algoritmo Baum Baum- -Welch Welch
SI
SI
N i i
L
s s = 1 , 1 ) ( |
1 ,..., 1 , 1 , ) ( ) ( ) (
1
1 1
= s s =
_
=
+ +
L t N i j O b a i
N
j
t t j ij t
| |
1 ,..., , , 1 ,
) ( ) ( ) (
) ( ) ( ) (
) , (
1 1
1 1
1 1
L t N j i
j O b a i
j O b a i
j i
N
i
N
j
t t j ij t
t t j ij t
t
= s s =
__
= =
+ +
+ +
| o
| o
c
1 ,..., , 1 , ) , ( ) (
1
L t N i j i i
N
j
t t
= s s =
_
=
c
N i i
i
s s = 1 , ) (
1
t
N j i
i
j i
a
L
t
t
L
t
t
ij
s s =
_
_

=
, 1 ,
) (
) , (
1
1
1
1

c
M k N j
j
j
k b
L
t
t
L
V O Observando
t
t
j
k t
s s s s =
_
_
=
=
=
1 , 1 ,
) (
) (
) (
1
1

Luis M. Bergasa. Departamento de Electrnica


38
Limitaciones Limitaciones
Supone que las observaciones sucesivas son independientes.
Suposicin Markoviana: la probabilidad de estar en un estado
en determinado tiempo, slo depende del estado en el tiempo
anterior.
Luis M. Bergasa. Departamento de Electrnica
39
Ejemplos de aplicacin Ejemplos de aplicacin
Reconocimiento de gestos faciales mediante visin artificial
usando HMMs.
Identificacin de blancos areos mediante radar usando HMMs
Luis M. Bergasa. Departamento de Electrnica
40
Reconocimiento de gestos Reconocimiento de gestos
Se han colocado unas pegatinas
en la cara del usuario y se estudia
su evolucin en la realizacin de
gestos mediante HMMs
Las pegatinas se segmentan
mediante un algoritmo de
deteccin de color con funciones
Gaussianas a priori
Se han creado cuatro HMMs:
dos modelan la apertura de los
ojos, otro la apertura de la boca, y
el ltimo el estiramiento de la
boca.
abierto semicerrado
cerrado
a12
a21
a31
a23
a13
a32
a11 a22
a33
Luis M. Bergasa. Departamento de Electrnica
41
Reconocimiento de gestos Reconocimiento de gestos
Como observacin para obtener el grado de apertura del ojo se
usa la colinealidad presentada por su contorno
Como observacin para estimar la apertura de la boca se utiliza
la diferencia entre los centros de gravedad de las pegatinas
superior e inferior de la boca.
Para el estiramiento se utiliza la diferencia de componentes x
de las pegatinas izquierda y derecha.
Definicin de estados:
Para los ojos: cerrado, semicerrado y abierto.
Para la apertura de la boca: abierta, semiabierta y cerrada.
Para el estiramiento de la boca: estirada, semiestirada y encogida
Luis M. Bergasa. Departamento de Electrnica
42
Reconocimiento de gestos Reconocimiento de gestos
Se capturan observaciones de cada tipo (boca y ojos) y se
efecta el entrenamiento de los 4 HMM.
El entrenamiento ajusta los valores de [A], [B] y [t]
Luis M. Bergasa. Departamento de Electrnica
43
Reconocimiento de gestos Reconocimiento de gestos
A partir de la informacin anterior se pueden reconocer una
serie de gestos:
Luis M. Bergasa. Departamento de Electrnica
44
Reconocimiento de gestos Reconocimiento de gestos
Luis M. Bergasa. Departamento de Electrnica
45
Identificacin de blancos areos Identificacin de blancos areos
Objetivo: Obtener identificacin positiva de un blanco areo
sin la colaboracin de ste.
Se usa el mtodo HRR (HIGH RESOLUTION RADAR)
Se basa en el estudio de las caractersticas del eco recibido
Se produce una reflexin radar diferente en funcin de la forma del
blanco
Depende de los centros
de scatter
Luis M. Bergasa. Departamento de Electrnica
46
Identificacin de blancos areos Identificacin de blancos areos
Las seales a clasificar son muy parecidas entre si
Dependen del ngulo de observacin
Las regiones de decisin estn muy solapadas
La correlacin equivoca a menudo la clasificacin
Blanco 1
Blanco 2 Blanco 3 Blanco 4
Blanco 5 Blanco 6 Blanco 7
Blanco 8 Blanco 9
Luis M. Bergasa. Departamento de Electrnica
47
Identificacin de blancos areos Identificacin de blancos areos
CORRELADOR
BASE DE
DATOS
MODELOS
DETECCION
BUFFER
???????????
1111111111
MODELO 1
1 2 1 2 1 3 1 1 3 1
HMM
1
2
3
DETECCION FINAL
1
Luis M. Bergasa. Departamento de Electrnica
48
Identificacin de blancos areos Identificacin de blancos areos
Resultados:
SE UTILIZAN SECUENCIAS DE ENTRENAMIENTO PARA
CADA MODELO.
EXISTE UNA BASE DE DATOS DE OBSERVACIONES CON 800
ARRAYS DE 10 ELEMENTOS.
PORCENTAJE DE ERROR MODELOS O. MARKOV CORRELACION
Modelo 1 0 % 40 %
Modelo 2 0 % 50 %
Modelo 3 0 % 40 %
Modelo 4 0 % 40 %
Modelo 5 0 % 40 %
Modelo 6 0 % 40 %
Modelo 7 0 % 30 %
Modelo 8 0 % 40 %
Luis M. Bergasa. Departamento de Electrnica
49
Bibliografa Bibliografa
Rabiner, L.R, 1989. A tutorial on Hidden Markov Models and
Selected Applications in Speech Recognition. Proceedings of the
IEEE, 77(2).
(http://www.ai.mit.edu/courses/6.867-f02/papers/rabiner.pdf)
GHMM Library en Max Planck Institute for Molecular
Genetics, http://www.ghmm.org
Murphy, K. 1998. HMM Toolbox for Matlab
(http://www.ai.mit.edu/~murphyk/Software/HMM/hmm.html)