Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
DE MADRID
ESCUELA TECNICA
SUPERIOR DE INGENIEROS INDUSTRIALES
CON COMPUTADOR
COMUNICACION
MEDIANTE SENALES
CEREBRALES.
A LA TECNOLOGIA DE LA
APLICACION
REHABILITACION.
Tesis Doctoral
2009
DEPARTAMENTO DE AUTOMATICA,
INGENIER
IA ELECTRONICA
E INFORMATICA INDUSTRIAL
ESCUELA TECNICA
SUPERIOR DE INGENIEROS INDUSTRIALES
CON COMPUTADOR
COMUNICACION
MEDIANTE SENALES
CEREBRALES.
A LA TECNOLOGIA DE LA
APLICACION
REHABILITACION.
Tesis Doctoral
Autor:
2009
Ttulo:
REHABILITACION.
Autor:
Jose Luis Martnez Perez.
Tribunal:
Presidente
Vocales
Ram
on Gal
an
XXXXXXX
Secretario
Suplentes
XXXXXXX
Madrid, XX de YY de 2008
Resumen
Avances recientes en hardware para ordenadores personales y procesamiento de se
nal
ha hecho posible el uso de se
nales EEG u ondas cerebrales para comunicaci
on entre
personas y computadores. Pacientes que sufren de sndromes bloqueantes disponen ahora
de una nueva forma de comunicaci
on con el resto del mundo, pero incluso con las m
as
modernas tecnicas, estos sistemas a
un tienen tasas de comunicacion del orden de 2-3
actividades / minuto. En suma, los dispositivos existentes no son dise
nados con la idea de
exibilidad en mente, dando lugar a sistemas lentos que son difciles de mejorar.
Este proyecto explora la efectividad de las tecnicas de analisis en tiempo y en
frecuencia para la clasicaci
on de diferentes actividades mentales haciendo uso de
electroencefalografa (EEG). Se
nales EEG de de dos canales provenientes de varios
voluntarios han sido estudiadas durante la realizaci
on de tres tareas mentales (lnea
base, imaginaci
on de movimiento, actividad matem
atica). La distinci
on entre ellas en
clasicacion On-line es el principal objetivo del proyecto.
Diferentes metodos basados en representaciones temporales y frecuenciales han sido
considerados para la clasicaci
on entre las tareas mencionadas. Los resultados indican
la utilizaci
on de este metodo para ventanas de un tercio de segundo, distinguir las
caractersiticas de los datos, con porcentajes de acierto aceptables.
ix
Indice general
Lista de Figuras.
XV
Lista de Tablas.
1. Introducci
on.
1.1. La tecnologa de Interfaz Cerebro Computador.
1.1.1. Clasicaci
on de dispositivos ICC. . . . .
1.1.2. Componentes de un dispositivo ICC. . .
1.2. Aplicaci
on de la tecnologa ICC. . . . . . . . .
1.2.1. Ciencia de la rehabilitacion. . . . . . . .
1.2.2. Teleoperacion de robots industriales. . .
1.2.3. Sector militar. . . . . . . . . . . . . . .
1.2.4. Sector del ocio y entretenimiento. . . . .
1.3. Motivaciones de la tesis. . . . . . . . . . . . . .
1.3.1. Objetivos de la tesis. . . . . . . . . . . .
1.3.2. Aportaciones de la tesis. . . . . . . . . .
1.4. Estructura de la tesis. . . . . . . . . . . . . . .
XXI
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
5
9
10
11
11
11
12
12
13
14
2. Estado de la t
ecnica.
2.1. Fundamentos siol
ogicos. . . . . . . . . . . . . . . . . . . . .
2.1.1. Fisiologa. . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2. La neurona. . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3. El Sistema Nervioso. . . . . . . . . . . . . . . . . . . .
2.1.4. El Cerebro. . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Tecnicas para la adquisici
on de actividad cerebral. . . . . . .
2.2.1. Electroencefalografa. . . . . . . . . . . . . . . . . . .
2.2.2. Magnetoencefalografa. . . . . . . . . . . . . . . . . . .
2.2.3. Imagen cerebral mediante rayos X. . . . . . . . . . . .
2.2.4. Imagen cerebral mediante imagen nuclear. . . . . . . .
2.2.5. Imagen cerebral mediante tomografa computerizada. .
2.2.6. Imagen cerebral: MRI. . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
18
22
26
27
27
37
41
42
43
44
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE GENERAL
XII
. . . . . . .
. . . . . . .
. . . . . . .
frecuencial.
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
45
45
46
51
. . .
. . .
. . .
. .
. . .
. . .
57
59
60
60
64
65
65
4. Tipologa de clasicadores.
4.1. Metodos estadsticos : Comparaci
on de dos poblaciones. . . . . . . . . . . .
4.1.1. Introducci
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2. Descripci
on del test de contraste de la igualdad de dos poblaciones. .
4.1.3. Procedimiento operacional. . . . . . . . . . . . . . . . . . . . . . . .
4.2. Metodos estadsticos: An
alisis por discriminantes lineales. . . . . . . . . . .
4.2.1. Introducci
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2. Referencia hist
orica. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.3. Discriminacion lineal cl
asica. . . . . . . . . . . . . . . . . . . . . . .
4.2.4. Discriminante lineal de Fisher. . . . . . . . . . . . . . . . . . . . . .
4.2.5. Procedimiento operacional. . . . . . . . . . . . . . . . . . . . . . . .
4.3. Clasicadores basados en redes neuronales. . . . . . . . . . . . . . . . . . .
4.3.1. Clasicador Perceptr
on Multicapa MLP. . . . . . . . . . . . . . . . .
4.3.2. Clasicador basado en red neuronal de tipo RBF. . . . . . . . . . . .
4.3.3. Clasicador basado en red neuronal de tipo PNN. . . . . . . . . . .
4.4. Clasicador bietapa basado en Modelo Oculto de Markov y RBF. . . . . . .
4.4.1. Descripci
on Modelo Oculto de Markov. . . . . . . . . . . . . . . . .
4.4.2. Soluci
on a los problemas canonicos. . . . . . . . . . . . . . . . . . .
4.4.3. Densidades de observaci
on continuas en MOM. . . . . . . . . . . . .
4.4.4. Tipos de Modelos Ocultos de Markov . . . . . . . . . . . . . . . . .
4.4.5. Consideraciones pr
acticas en la implementacion de Modelos Ocultos
de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.6. Descripci
on del algoritmo de clasicacion bietapa. . . . . . . . . . .
4.5. Clasicador basado en M
aquina de Soporte de Vectores. . . . . . . . . . . .
4.5.1. Introducci
on a las M
aquinas de Soporte de Vectores. . . . . . . . . .
4.5.2. Descripci
on del clasicador lineal optimo. . . . . . . . . . . . . . . .
4.5.3. Descripci
on del problema de optimizaci
on lineal. . . . . . . . . . . .
4.5.4. Margen blando. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
68
68
71
74
77
77
78
78
80
82
83
85
94
102
104
104
107
114
115
122
125
129
129
130
131
133
INDICE GENERAL
4.5.5. Descripci
on del clasicador no lineal. . . . .
4.5.6. Comparaci
on entre M
aquinas de soporte
Neuronales. . . . . . . . . . . . . . . . . . .
4.5.7. Implementaciones. . . . . . . . . . . . . . .
XIII
. .
de
. .
. .
. . . . . . .
Vectores y
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . 134
Redes
. . . . . 136
. . . . . 138
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6. An
alisis y discusi
on de los resultados experimentales.
6.1. Resultados del metodo estadstico de comparaci
on de poblaciones. . . . .
6.1.1. Presentacion de resultados. . . . . . . . . . . . . . . . . . . . . . .
6.1.2. An
alisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.3. Discusi
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.4. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2. Resultados obtenidos aplicando la tecnica LDA. . . . . . . . . . . . . . . .
6.2.1. Presentacion de resultados. . . . . . . . . . . . . . . . . . . . . . .
6.2.2. An
alisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.3. Discusi
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.4. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3. Resultados obtenidos con clasicadores basados en redes neuronales. . . .
6.3.1. Presentacion de resultados. . . . . . . . . . . . . . . . . . . . . . .
6.3.2. An
alisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.3. Discusi
on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.4. Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4. Resultados obtenidos con clasicadores bietapa basados en redes neuronales
y Modelos Ocultos de Markov. . . . . . . . . . . . . . . . . . . . . . . . .
139
. 139
. 140
. 141
. 142
. 144
. 145
. 146
. 147
. 148
. 149
. 150
. 151
. 151
. 151
. 155
. 158
161
. 161
. 162
. 162
. 165
. 166
. 167
. 167
. 174
. 174
. 175
. 176
. 176
. 185
. 185
. 186
. 187
XIV
INDICE GENERAL
.
.
.
.
187
189
189
189
.
.
.
.
.
.
190
190
204
204
205
206
213
. 213
. 215
. 217
219
Lista de Figuras
1.1. Representacion del sistema ICC . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Clasicacion de dispositivos ICC. . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Componentes de un sistema ICC. . . . . . . . . . . . . . . . . . . . . . . . .
2.1. Diagrama frenol
ogico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Neuronas. Ramon y Cajal. . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Neuronas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Topologa de la celula neuronal. . . . . . . . . . . . . . . . . . . . . . . . .
2.5. Tipos de neuronas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6. Tipos de sinapsis. (a - Axoaxi
onica. b - Axodendrtica . c - Axosomatica.)
2.7. Sistema Nervioso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.8. Encefalo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9. Cabeza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.10. Tronco encef
alico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11. Nervios craneales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.12. Distribuci
on de las funciones de la corteza cerebral. . . . . . . . . . . . . .
2.13. Tecnicas de registro monopolar y diferencial. . . . . . . . . . . . . . . . .
2.14. Sistema electroencefalograco 10 - 20. . . . . . . . . . . . . . . . . . . . .
2.15. Electroencefalograma normal. . . . . . . . . . . . . . . . . . . . . . . . . .
2.16. Localizacion somatosensorial. . . . . . . . . . . . . . . . . . . . . . . . . .
2.17. Localizacion de potenciales auditivos evocados. . . . . . . . . . . . . . . .
2.18. Componentes de los potenciales auditivos evocados. . . . . . . . . . . . . .
2.19. Potenciales sensoriales evocados. . . . . . . . . . . . . . . . . . . . . . . .
2.20. Componentes de los potenciales visuales evocados. . . . . . . . . . . . . .
2.21. Intensidad de campos bio-magneticos. . . . . . . . . . . . . . . . . . . . .
2.22. Magnetocardiograma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.23. Magnetoencefalograma con campos magneticos auditivos inducidos. . . . .
2.24. Magnetoencefalograma con campos magneticos sensitivos inducidos. . . .
2.25. Rayos X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.26. Camara Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.27. Tomografa computerizada. . . . . . . . . . . . . . . . . . . . . . . . . . .
2.28. Tomografa computerizada. . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
4
5
16
17
18
19
20
21
22
22
23
24
25
27
29
30
31
33
34
35
36
36
38
39
39
40
41
42
43
43
LISTA DE FIGURAS
XVI
. 52
. 56
3.1.
3.2.
3.3.
3.4.
3.5.
3.6.
3.7.
3.8.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
58
58
59
61
62
63
63
63
4.1.
4.2.
4.3.
4.4.
4.5.
4.6.
4.7.
4.8. Funci
on de activacion, (x ) = e 2 2 . . . . . . . . . . . .
4.9. Comparaci
on clasicacion MLP vs RBF. . . . . . . . . . .
4.10. Arquitectura de una red neuronal tipo PNN. . . . . . . .
4.11. Representacion Modelo Oculto de Markov. . . . . . . . . .
4.12. Algoritmo adelante-atr
as. Procedimiento hacia delante.
4.13. Algoritmo adelante-atr
as. Procedimiento hacia atr
as. .
4.14. Representacion de la obtenci
on de t (i, j). . . . . . . . . .
4.15. Esquema del modelo erg
odico. . . . . . . . . . . . . . . . .
4.16. Esquema del modelo izquierda-derecha. . . . . . . . . . . .
4.17. Esquema del modelo rutas paralelas. . . . . . . . . . . . .
4.18. Esquema del modelo entrada-salida. . . . . . . . . . . . .
4.19. Algoritmo de clasicacion bietapa. . . . . . . . . . . . . .
4.20. Arquitectura de la red neuronal RBF. . . . . . . . . . . .
4.21. Entrenamiento de la red neuronal RBF. . . . . . . . . . .
4.22. Entrenamiento de los MOMs. . . . . . . . . . . . . . . . .
4.23. Funcionamiento MSV. . . . . . . . . . . . . . . . . . . . .
4.24. Seleccion del hiperplano optimo. . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 44
. 44
. 45
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
68
76
85
86
87
88
94
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
96
100
102
104
109
109
112
115
116
116
117
126
127
128
128
129
131
LISTA DE FIGURAS
XVII
4.25. Separaci
on lineal: margen blando. . . . . . . . . . . . . . . . . . . . . . . . . 134
4.26. Separaci
on no lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.1. Localizacion de los electrodos. . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Componentes del sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Flujograma procedimiento O-line. . . . . . . . . . . . . . . . . . . . .
5.4. Flujograma procedimiento On-line. . . . . . . . . . . . . . . . . . . . .
5.5. Procedimiento de procesamiento registros EEG. . . . . . . . . . . . . . . .
5.6. Procedimiento estadstico de comparacion de poblaciones. . . . . . . . . .
5.7. Procedimiento de aplicaci
on de la tecnica LDA. . . . . . . . . . . . . . . .
5.8. Procedimiento de aplicaci
on de clasicadores basados en redes neuronales.
5.9. Procedimiento de aplicaci
on del clasicador bietapa RBF-MOM. . . . . .
5.10. Procedimiento de aplicaci
on del clasicador basado en MSV. . . . . . . .
5.11. Casos de uso de la aplicacion. . . . . . . . . . . . . . . . . . . . . . . . . .
5.12. Interfaz de la aplicaci
on demostrador. . . . . . . . . . . . . . . . . . . . .
5.13. Interfaz de la aplicaci
on demostrador. . . . . . . . . . . . . . . . . . . . .
5.14. Diagrama de secuencia del caso de uso Puesta en marcha del sistema. . .
5.15. Diagrama de secuencia del caso de uso Deletrear palabra. . . . . . . . .
5.16. Diagrama de secuencia del caso de uso Finalizaci
on de la aplicaci
on. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
140
141
142
144
145
146
147
148
149
150
151
152
157
158
159
160
. 163
. 164
. 168
. 168
. 169
. 169
. 170
. 170
. 171
. 171
. 172
.
.
.
.
.
.
.
172
173
173
177
177
178
178
XVIII
LISTA DE FIGURAS
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
179
179
180
180
181
181
182
182
183
183
184
192
192
193
193
194
194
195
195
. 196
. 196
. 197
. 197
. 198
. 198
. 199
. 199
. 200
. 200
. 201
LISTA DE FIGURAS
XIX
vs.
. .
vs.
. .
vs.
. .
vs.
. .
vs.
. .
Vectores
. . . . .
Vectores
. . . . .
Vectores
. . . . .
Vectores
. . . . .
Vectores
. . . . .
Soporte. Canal
. . . . . . . . .
Soporte. Canal
. . . . . . . . .
Soporte. Canal
. . . . . . . . .
Soporte. Canal
. . . . . . . . .
Soporte. Canal
. . . . . . . . .
2. Kernel polinomico
. . . . . . . . . . . .
1. Kernel polin
omico
. . . . . . . . . . . .
2. Kernel polin
omico
. . . . . . . . . . . .
1. Kernel polin
omico
. . . . . . . . . . . .
2. Kernel polin
omico
. . . . . . . . . . . .
. 201
. 202
. 202
. 203
. 203
XX
LISTA DE FIGURAS
Lista de Tablas
2.1. Terminologa de formas de onda para EEG. . . . . . . . . . . . . . . . . . . 32
2.2. Componentes potenciales sensoriales evocados. . . . . . . . . . . . . . . . . 35
3.1. Tipos de ventanas de preprocesamiento considerados. . . . . . . . . . . . . . 62
3.2. Determinaci
on del vector de caractersticas. . . . . . . . . . . . . . . . . . . 65
4.1. Vector de caractersticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. Funciones Kernel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3. Comparaci
on entre SVM y Redes Neuronales. . . . . . . . . . . . . . . . . . 137
6.1. Resultados voluntario AL01. . . . . . . . . . . . . . . . . .
6.2. Resultados voluntario RO01. . . . . . . . . . . . . . . . .
6.3. Resultados voluntario JA01. . . . . . . . . . . . . . . . . .
6.4. Resultados voluntario DA01. . . . . . . . . . . . . . . . .
6.5. Resultados voluntario RA01. . . . . . . . . . . . . . . . .
6.6. Resultados voluntario RA02. . . . . . . . . . . . . . . . .
6.7. Familia de funciones Kernel y par
ametros caractersticos.
6.8. Resultados Kernel gaussiano (P:1). . . . . . . . . . . . . .
6.9. Resultados Kernel gaussiano (P:2). . . . . . . . . . . . . .
6.10. Resultados Kernel gaussiano (P:3). . . . . . . . . . . . . .
6.11. Resultados Kernel gaussiano (P:5). . . . . . . . . . . . . .
6.12. Resultados Kernel gaussiano (P:10). . . . . . . . . . . . .
6.13. Resultados Kernel polin
omico (P:2). . . . . . . . . . . . .
6.14. Resultados Kernel polin
omico (P:3). . . . . . . . . . . . .
6.15. Resultados Kernel polin
omico (P:4). . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
188
188
188
188
188
188
190
196
197
198
199
200
201
202
203
XXII
LISTA DE TABLAS
Captulo 1
Introducci
on.
1.1.
En terminologa sajona esta tecnologa se conoce bajo las siglas BCI:Brain Computer Interface
Introducci
on.
1.1.1.
Clasicaci
on de dispositivos ICC.
Introducci
on.
1.1.2.
Introducci
on.
1. Adquisici
on de se
nal encefalogr
aca. En este bloque se contempla el proceso a traves
del cual se procede a realizar la adquisici
on de se
nal cerebral. Comprende los procesos
de amplicaci
on de se
nal, ltrado anal
ogico, muestreo y cuanticaci
on.
En caso de utilizar un sistema electroencefalogr
aco como sistema de adquisicion,
para poder llegar a una aplicaci
on pr
actica, la se
nal adquirida, del orden de
microvoltios, ha de ser ltrada de otras fuentes de perturbaci
on como ruido ambiente,
actividad muscular y perturbaciones por movimiento, e incluso deben ir m
as alla,
puesto que deben permitir su empleo en ambientes ruidosos, a
un en el caso en
que las ordenes de mando sean dadas de forma poco frecuente, por lo que se
requerir
an algoritmos de deteccion robustos, en donde por ejemplo el efecto de
ventaneado sea considerado, [Wolpaw 02]. Debido a que es la se
nal captada la que
porta los mensajes del usuario, el objetivo de su an
alisis es la maximizacion de
la relaci
on se
nal frente al ruido, por lo que es preciso considerar las fuentes de
ruido m
as importantes, [McFarland 97], estas pueden ser tanto extraneuronales:
movimientos de los ojos, EMG, ruido electrico; como neuronales: cualquier otro tipo
de se
nales diferentes a las utilizadas para la comunicacion. La deteccion del ruido
y clasicacion presentan mayor dicultad cuando la se
nal de ruido es similar en
frecuencia, tiempo o amplitud a la se
nal deseada. Por ejemplo, analizando potenciales
evocados lentos, se comprueba que su espectro de frecuencia se sobrepone con el
espectro de movimiento de los ojos, igual ocurre cuando se analizan ritmos y se
producen movimientos musculares. Es preciso por tanto, tener suciente informacion
como para permitir discriminar entre se
nal y ruido. La actividad muscular puede
enmascarar la caracterstica de control EEG utilizada, incluso puede aparecer ruido
no muscular por actividad reeja en aquellos usuarios con falta total de control
muscular voluntario. En este caso, el ruido por causas no neuronales provoca una
degradaci
on en el rendimiento del dispositivo ICC, ya que disminuye la relacion se
nal
ruido. Es as mismo importante distinguir entre diferentes caractersticas neuronales.
El ritmo visual es una fuente de ruido, cuando se considera el ritmo como
caracterstica de control. Metodos de ltrado temporal y espacial pueden ayudar en
la distinci
on, se
nales de diferentes fuentes podran tener espectros frecuenciales y
distribuciones espaciales parecidas, [Florian 98]. Si el ruido, tanto neuronal como no
neuronal, puede ser identicado en lnea durante el transcurso del funcionamiento,
su impacto podra ser reducido o incluso eliminado. Por ejemplo un dispositivo
ICC controlado por potenciales corticales lentos, cuya entrada se vea contaminada
por movimientos oculares puede ser bien ltrada y restaurada, o bien rechazada,
[Birbaumer 00]. Esta aproximacion puede dar lugar a que el usuario aprenda a
reducir la producci
on de dicho ruido.
2. Preprocesamiento. Este bloque comprende las operaciones que se realizan sobre la
se
nal digitalizada, previas a la obtenci
on de los par
ametros que denen el segmento
temporal de se
nal analizado, por ejemplo: ltrado digital, conversi
on de dominio
temporal a dominio frecuencial, an
alisis de fase, etc.
Introducci
on.
1.2 Aplicaci
on de la tecnologa ICC.
1.2.
Aplicaci
on de la tecnologa ICC.
10
Introducci
on.
Los objetivos deben ser claramente denidos, as como las necesidades hacia las que va
destinado, deseos y motivadores primarios, aplicaciones y utilizacion por parte del usuario,
para todo lo cual ser
a preciso el analisis comportamental del conjunto, incluido el usuario.
El desarrollo de ICC no s
olo debe incorporar principios tecnicos y electrosiologicos, sino
que tambien es preciso bases de aprendizaje bien denidas, [Florian 98], [Harrington 97].
Usuarios con una enfermedad progresiva, como por ejemplo Esclerosis Lateral
Amiotroca, ELA, podran utilizar dispositivos ICC que particularizaran sus
caractersticas de entrada al usuario y su salida controlar
a un interfaz convencional
de comunicaci
on aumentada, [Reilly 99], [Isaacs 00]. De tal modo que seg
un avance la
enfermedad, el usuario podra realizar una transicion suave, del uso del interfaz de
comunicacion aumentada est
andar al dispositivo ICC, [Jacques 94].
El desarrollo reciente y la aplicaci
on comercial de Freehand Functional Electrical
Stimulation system (FES) en Case Western Reserve University, Cleveland OH.,
demuestra las condiciones necesarias para el exito, [Lauer 00]. Estas condiciones incluyen:
estabilizacion de todos los aspectos de dise
no y documentaci
on, una poblaci
on de usuarios
bien denida, protocolos de entrenamiento normalizados, demostraci
on de la viabilidad de
aplicaciones especcas, medida de caractersticas de salida bien denidas que documenten
adecuadamente el uso y eciencia, asistencia regular en varios centros y la identicaci
on
de centros de fabricaci
on y estrategia de comercializacion. Todo lo cual requiere la
colaboraci
on de los usuarios y el convencimiento por parte de los mismos de que la
tecnologa empleada es u
til y segura. Es tambien precisa la cooperaci
on de profesionales
de centros de salud, los cuales deben convencerse de que la relacion benecio / riesgo es
favorable, que la tecnologa es segura y u
til, y que es igual o superior a las alternativas
actualmente disponibles. Por u
ltimo es preciso convencer a las compa
nas de seguros, que
a largo plazo la inversi
on realizada en este tipo de tecnologa sera recuperada con creces.
Pacientes que esten paralizados, o con da
no traum
atico que afecte a la medula
espinal, o pr
otesis en extremidades superiores, se podran beneciar de la aplicaci
on
de la tecnologa ICC, siempre y cuando sea segura y efectiva. Para ser justicable, un
sistema implantado debe ofrecer una sustancial ventaja funcional sobre la tecnologa de
comunicacion aumentada convencional o metodos ICC no invasivos.
Las areas de aplicaci
on en las que se propone la utilizaci
on de esta tecnologa son:
1.2.1.
Ciencia de la rehabilitaci
on.
1.2 Aplicaci
on de la tecnologa ICC.
11
que permitan ha personas paralizadas comunicarse bien con el entorno que les
rodea, [Birbaumer 03], [Robinson 00a], [Birbaumer 00], o bien con un entorno simulado,
[Bayliss 03], o mejorar su capacidad de movimiento ayudandose con dispositivos rob
oticos,
por ejemplo el control de movimiento de pr
otesis mecanicas de miembros perdidos, [Bai 01],
[Birch 00], [Kositsky 03]. Del mismo modo se han desarrollado prototipos para el control
de sillas de ruedas motorizadas, [Birch 00], [Millan 03], [Millan 04], [Gerstner 04].
Ademas de su empleo en casos de paralisis asociados con accidentes traumaticos,
Esclerosis Lateral Amiotroca, [Leeb 05], u otras enfermedades neurodegenerativas, la
tecnologa ICC ha sido propuesta como posible va de comunicaci
on afasia y otros
desordenes de comunicacion, como autismo, haciendo que la persona autista interaccione
con entornos virtuales 3D, cuya complejidad aumenta progresivamente aproxim
andose a
la real seg
un criterio del rehabilitador, [Birbaumer 00]. Mediante la prevenci
on de las
zonas de lenguaje comprometidas de la zona del cortex temporal-frontal, y por medio
del mecanismo de plasticidad cerebral, [Ratey 03], [Bronzino 95b], [Jessell 91], se podran
concebir mecanismos de comunicacion, siendo una alternativa efectiva para pacientes que
no puedan controlar el alfabeto, o un sistema de representaci
on pict
orica.
Como bancos de demostracion se han desarrollado prototipos que permiten el control
unidimensional y bidimensional de un cursor en la pantalla de un computador, empleando
los resultados obtenidos en aplicaciones para deletrear palabras y teclados de conceptos,
[Donchin 00], [Allison 03], [Bayliss 00], [Bianchi 03].
1.2.2.
Teleoperaci
on de robots industriales.
En el campo de la teleoperaci
on de dispositivos se han hecho demostradores
tecnologicos que eval
uan la aplicabilidad de la tecnologa ICC en la teleoperaci
on de robots
industriales, [Chapin 99], [Taylor 03], [HONDA 09].
1.2.3.
Sector militar.
El sector militar fue el que a traves de las investigaciones en bionica del Dr. J.J.Vidal,
en la decada de los 70, dio lugar al nacimiento de esta tecnologa, [Vidal 77].
En la actualidad la tecnologa ICC, basando en el efecto de realimentaci
on neuronal3 ,
se emplea en el entrenamiento avanzado de pilotos de combate para potenciar la
concentraci
on en misiones que requieren un alto nivel de alerta, as como la gestion y
evaluacion de riesgos en el menor tiempo posible, [NASA 08].
1.2.4.
12
Introducci
on.
1.3.
Motivaciones de la tesis.
1.3.1.
Objetivos de la tesis.
1.3.2.
13
Aportaciones de la tesis.
14
1.4.
Introducci
on.
Estructura de la tesis.
Captulo 2
Estado de la t
ecnica.
En este captulo se comienza dando unas nociones b
asicas de la siologa del sistema
nervioso, necesarias para comprender los principios biol
ogicos en los que se fundamenta
la tecnologa de Interfaz Cerebro Computador, que si bien pueden ser innecesarias
para investigadores familiarizados con ciencias biologicas, pueden no serlo tanto para
investigadores del area de las ingenieras, menos familiarizados con las bases siol
ogicas
del sistema nervioso.
Posteriormente se hace una revision de las tecnicas empleadas para la adquisicion
de se
nal de la actividad cerebral, entre las que se encuentran la electroencefalografa,
magnetoencefalografa y diversas tecnicas aplicadas en imagen medica como: imagen
cerebral por rayos X, imagen nuclear, tomografa computerizada, imagen de resonancia
magnetica, tomografa computerizada por emision individual de fotones (SPECT),
tomografa por emision de positrones (PET); a la vez que se analiza su aplicabilidad a
la tecnologa de Interfaz Cerebro Computador.
Seguidamente se analizan las referencias historicas sobre el desarrollo de la tecnologa
ICC, para nalmente presentar el estado actual en el que se encuentra esta tecnologa.
2.1.
Fundamentos siol
ogicos.
16
2.1.1.
Estado de la t
ecnica.
Fisiologa.
La siologa es la ciencia que tiene por objeto el estudio de las funciones de los
seres organicos. Su aplicaci
on al sistema nervioso es clave para comprender las diferentes
variantes que existen sobre ICC.
El estudio de la siologa del sistema nervioso humano no es reciente, existen referencias
en las que sacerdotes del antiguo Egipto pretendan reconocer a traves de la inspeccion
visual de la cabeza los instintos, sentimientos y hasta la capacidad intelectual de la persona
en cuestion. La civilizacion griega adquiri
o y mejor
o dichos conocimientos, dando lugar al
nacimiento de ciencias como la Psicologa, o a representaciones artsticas de dioses o heroes,
en donde la conguraci
on de la cabeza estaba en armona con los atributos y facultades
que se queran presentar al pueblo llano en sus formas m
as palpables. Los escritos mas
antiguos acerca del particular son los de Plat
on o Arist
oteles [Velazquez 97].
En el siglo IX de nuestra era, el fsico y medico Avicena investigo sobre la localizaci
on de
las facultades cerebrales [Chinchilla 43]. Investigaciones que fueron retomadas por Alberto
el Grande cuatrocientos a
nos despues, en el siglo XIII, quien dibuj
o una cabeza en la
que represento el sitio en que radicaban las diferentes facultades humanas [Espinoza 03],
coloco el sentido com
un en la frente o en el primer ventrculo, el juicio en el segundo, la
memoria y la fuerza motriz en el tercer ventrculo.
Trabajos similares fueron realizados en Italia por Pedro de Montagna, quien en 1491
publica su obra adornada con una l
amina que representaba el sitio del sentido com
un y la
imaginaci
on dentro de la cabeza [Montaner 91].
Poco despues, en 1562, Luis Dolei dene el primer sistema de Frenologa, deniendo tal
ciencia como: Doctrina psicol
ogica seg
un la cual las facultades psquicas est
an localizadas
en zonas precisas del cerebro y en correspondencia con relieves del cr
aneo. El examen de
estos permitira reconocer el car
acter y aptitudes de la persona. Sin embargo es Gail quien
en 1781 populariz
o este sistema [Colbert 98], [Segovia 38], perfeccionado posteriormente
junto con Spurzheim en 1804, con investigaciones acerca de la anatoma y siologa del
sistema nervioso, y en particular del cerebro.
17
18
Estado de la t
ecnica.
2.1.2.
La neurona.
19
20
Estado de la t
ecnica.
21
22
Estado de la t
ecnica.
No todos los tipos de actividad neuronal tienen el mismo tipo de impacto sobre los
registros electroencefalogracos. Factores como la profundidad, orientaci
on y la simetra
intrnseca de las conexiones en el cortex, presentan una marcada inuencia sobre dichos
registros. Las celulas de mayor importancia en el neocortex son las de tipo piramidal. Es
conocido que sus neurotransmisores son potentes transmisores excitatorios. Las celulas
piramidales reciben muchas entradas de celulas tipo estrella, que tambien son de tipo
excitatorio. Las celulas piramidales, a diferencia de otro tipo de neuronas, permiten que
los axones produzcan potenciales de accion, que transmiten informaci
on de una neurona
a otra, mientras que en las dendritas se pueden producir potenciales lentos, tanto de
tipo excitatorio como inhibitorio, que se suman al del ax
on. En el caso de las neuronas
piramidales, las dendritas apicales, con forma de eje alargado entre la regi
on basal y
la apical, pueden provocar potenciales de acci
on, que a su vez act
uan para amplicar
los potenciales de acci
on producidos por las salidas de los sistemas sensorial, motor o
aut
onomo. Por esta raz
on se considera que, las neuronas piramidales son las causantes de
la porci
on m
as signicativa de la se
nal electroencefalograca.
2.1.3.
El Sistema Nervioso.
23
24
Estado de la t
ecnica.
25
sistema nervioso central y llevan los mensajes de este hacia el exterior. Las primeras vas
se llaman aferentes y las u
ltimas eferentes. En funci
on de la parte del cuerpo que alcanzan,
a los impulsos nerviosos aferentes se les denomina sensitivos y a los eferentes, somaticos o
motores viscerales. La mayora de los nervios son mixtos, es decir, estan constituidos por
elementos motores y sensitivos.
El Sistema Nervioso Negetativo esta compuesto por grupos de bras de neuronas
motoras que llevan los impulsos nerviosos a los organos que se encuentran en las cavidades
del cuerpo, como el corazon, pulmones, estomago, intestinos, p
ancreas, hgado, etc.,
permitiendo su regulaci
on. El Sistema Nervioso Vegetativo se divide en dos secciones con
una funci
on m
as o menos antagonica y con unos puntos de origen diferentes al Sistema
Nervioso Central. Las bras del Sistema Nervioso Vegetativo Simp
atico se originan en la
region media de la medula espinal, unen la cadena ganglionar simp
atica y penetran en
los nervios espinales, desde donde se distribuyen de forma amplia por todo el cuerpo. Las
bras del Sistema Nervioso Vegetativo Parasimp
atico se originan por encima y por debajo
de las simp
aticas, tanto en el cerebro como en la parte inferior de la medula espinal. Estas
dos secciones controlan las funciones de los sistemas respiratorio, circulatorio, digestivo y
urogenital.
26
2.1.4.
Estado de la t
ecnica.
El Cerebro.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
27
2.2.
T
ecnicas para la adquisici
on de actividad cerebral.
2.2.1.
Electroencefalografa.
28
Estado de la t
ecnica.
Para el registro de la actividad electrica del cerebro se pueden utilizar tres tipos
de electrodos: superciales, corticales e intracorticales. Cuando se emplean electrodos
superciales el registro se denomina electroencefalograma (EEG), mientras que si los
electrodos se disponen sobre la supercie expuesta del cerebro al registro se denomina
electrocorticograma (ECoG), por u
ltimo, si se utilizan electrodos intracorticales se
emplea el termino registro profundo para denominar a esta tecnica, [Webster 04]. Con
independencia del tipo de electrodo, las variaciones de potencial registradas representan
la actividad de neuronas en las que se est
an produciendo los correspondientes potenciales
de accion y uctuaciones de membrana.
2.2.1.1.
Referencias hist
oricas.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
29
denomin
o ritmo alfa. Este ritmos desaparece cuando el sujeto se concentra, se muestra
alerta o focaliza su atenci
on en objetos de su campo visual. No es hasta 1949 cuando
Moruzzi y Magoun establecen las bases siol
ogicas de dichas observaciones, demostrando
la existencia de caminos ampliamente distribuidos a traves del n
ucleo reticular central
del tallo cerebral, que son capaces de ejercer una inuencia de activaci
on sobre el cortex
cerebral. A este sistema de activacion reticular se la ha llamado selector de respuesta
cerebral, debido a que alerta al cortex para focalizarse en ciertas piezas de informaci
on
entrante, mientras que otras son descartadas [Webster 95].
2.2.1.2.
30
Estado de la t
ecnica.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
31
Actividad electroencefalogr
aca normal.
32
Estado de la t
ecnica.
Forma de onda
Ritmo Alfa.
Frecuencia (Hz)
8 - 13
Ritmo Beta.
18 - 30
Delta.
1 - 3.5
Teta.
4-7
Sigma.
Sleep spindle
12 - 14
Lambda.
Transitorio.
Onda y pulso.
Transitorio.
Complejo K
Transitorio.
Ritmo Mu
8 - 12
Consideraciones.
Zona parietal y occipital. Asociado a
estado de vigilia con sujeto relajado
M
as prominente con los ojos cerrados.
Zona frontal y parietal.
Se muestra mejor con Alfa bloqueado.
Asociado a sue
no normal. Presente
en ni
nos menores de un a
no. En adultos se asocia con cerebros enfermos.
Zona parietal y temporal.
Prominente en ni
nos de 2 a 5 a
nos.
Se muestra durante el sue
no.
Modulaci
on de onda senoidal parecida
a un eje de revoluci
on.
Evocacion visual. Onda occipital de
peque
na amplitud, resultado del reconocimiento de una nueva imagen retinal.
Pico abrupto en una onda, seguido de
una onda m
as redondeada asociada con
crisis de ausencia epileptica.
Pulso de 150 a 250 milisegundos
registrado sobre la coronilla.
Onda vertice seguida algunas veces de
un pulso. Registrada durante el sue
no
y en respuesta a estmulos auditivos.
Dominante en la zona central.
Semeja media sinusoide.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
33
neurol
ogico pueden ser estudiadas a traves de la aplicacion de corrientes de estimulaci
on
electrica a nervios perifericos y medula espinal.
La gura 2.16 es una vista lateral del cerebro mostrando las dos cisuras m
as
prominentes: la cisura de Rolando y la de Silvio. Anterior a la cisura de Rolando
se encuentra el giro pre-central, el cual contiene las areas motoras primarias; detr
as
se encuentra el giro post-central que contiene las areas somatosensoriales; informacion
sensorial de toda la supercie del cuerpo se encuentra dispuesta a lo largo de esta
tira sensorial. Peneld y Rasmussen, en 1950 [Baker 89], determinaron la distribuci
on
topogr
aca de las sensaciones a lo largo del giro post-central en humanos y la representaron
como un hom
unculo. Las partes del cuerpo del hom
unculo son dibujadas para representar
el tama
no del area sensora cortical correspondiente.
La deteccion optima de las respuestas somatosensoriales evocadas precisan que los
electrodos sean colocados en las areas corticales contralaterales adecuadas. Por ejemplo,
los potenciales evocados debidos a estimulacion de la pierna derecha son detectados
con electrodos dispuestos sobre el lobulo izquierdo, del mismo modo, los causados por
estimulacion facial del lado derecho se muestran en la supercie lateral izquierda del
cerebro hacia el lobulo temporal. La respuesta a estmulos visuales aparecen en la parte
posterior del cortex (polo occipital). Potenciales evocados a estmulos auditivos se detectan
sobre la parte superior del l
obulo temporal. La mayor parte de las sensaciones son
representadas bilateralmente [Baker 89], [Ratey 03].
Para la detecci
on de los potenciales evocados Dawson entre 1951 y 1954, [Baker 89],
34
Estado de la t
ecnica.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
35
Tiempo de retardo.
15 mseg
19 mseg
26 mseg
4
5
6
7
8
Comentario.
Onda de pico positiva temprana
asociada a la activaci
on de alguna
estructura subcortical profunda.
Mejor capacidad de registro en la
zona somatosensorial primaria.
Polaridad contraria a cada lado del
surco central.
Su origen es a
un desconocido se
considera que la activaci
on de areas
sensoriales secundarias pueden ser
las causantes de estos potenciales.
Equivalentes en morfologa y distribuci
on a las componentes N 1 y N 2
de los potenciales auditivos evocados.
36
Estado de la t
ecnica.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
2.2.2.
37
Magnetoencefalografa.
Referencias hist
oricas.
38
Estado de la t
ecnica.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
Magnetoencefalogramas
promediados
de
campos
magneticos auditivos evocados han sido reportados
por el grupo de Dr. Hari
en 1980, junto con los potenciales auditivos evocados
[Baker 89]. La gura 2.23
ilustra los potenciales auditivos evocados registrados
por un electrodo en P z, y los
campos magneticos evocados
en las localizaciones P3 y F7 ,
sobre el lado izquierdo de la
cabeza.
Figura 2.22: Magnetocardiograma.
39
40
Estado de la t
ecnica.
El estmulo consista en un
pulso de frecuencia 1KHz de
0,8seg de duraci
on presentado simult
aneamente en ambos
odos. El tiempo entre pulsos
era de 4seg. El magnetoencefalograma muestra tres componentes a 100 y 180 mseg
y la componente continua del
campo. La polaridad para dichas componentes fue estudiada en varios emplazamientos
sobre el hemisferio derecho a
lo largo de la cisura de Silvio,
las cruces representan campos
entrantes, los crculos cerrados campos salientes. Se demuestra que aunque el area
auditiva se extiende sobre el
l
obulo temporal, existen respuestas corticales que se reparten a todo lo largo del cerebro, tal y como demuestran
los potenciales auditivos evocados. Del mismo modo el Dr.
Okada en 1981, realiz
o magnetoencefalogramas de la respuesta sensora evocada sobre
el hemisferio cerebral izquierdo debida a la estimulaci
on Figura 2.24: Magnetoencefalograma con campos magneticos
sensitivos inducidos.
del nervio medio derecho
utilizando pulsos de 1milisegundo de duraci
on con una frecuencia de repetici
on de 1.9Hz.
La gura 2.24 muestra las respuestas obtenidas en diferentes posiciones sobre el cr
aneo a
lo largo de la cisura de Rolando, el registro comienza en la sien y se desplaza 1 cm hacia
abajo. La localizaci
on cortical mostrada por los campos magneticos sensoriales evocados es
similar a la obtenida con los potenciales sensoriales evocados. A pesar de su utilizacion por
mas de dos decadas, el futuro de la magnetoencefalografa a
un no se puede predecir, como
herramienta de investigaci
on es extremadamente u
til por su capacidad de localizar fuentes
bioelectricas, pero el coste asociado para su implantacion es su principal desventaja en la
medicina clnica.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
2.2.3.
41
Los rayos X son ondas electromagneticas de longitud de onda muy corta, = 100nm,
producidas cuando los electrones en r
apido movimiento colisionan con sustancias a su
paso. Son similares a los rayos de luz, con la excepcion de que su longitud de onda es
una diez milesima de la longitud de onda de la luz visible, debido a lo cual son capaces
de penetrar sustancias muy densas, e impresionar pelculas fotogracas creando im
agenes
con diferentes tipos de niveles de gris, denominadas radiografas, est
a caracterstica la hace
u
til en diagn
ostico ya que diferencias en la densidad entre las diferentes estructuras del
cuerpo producen im
agenes que varan en su intensidad de luz sobre la pelcula de rayos
X, de modo similar al negativo de una fotografa. Estructuras densas como el hueso del
craneo aparecen blancas, mientras que aquellas areas rellenas de aire o lquido, aparecen
negras. En neurologa su aplicaci
on principal es el diagn
ostico de enfermedades del cerebro
mediante el an
alisis de radiografas.
La gura 2.25 muestra la estructura
Tubo de
de un sistema de rayos X. Los electrones
Rayos X
emitidos por un lamento incandescente
son acelerados hacia el anodo de tungsteno
Filtro de
a +100 KV, emitiendo rayos X. Un ltro
Aluminio
de aluminio detiene los rayos X de baja
Colimador
energa, ya que no atravesaran el cuerpo
para formar la imagen. Como los rayos
X son emitidos en todas direcciones, para
Cuerpo
evitar da
nos al sujeto y al operador, son
apantallados a traves de un colimador,
de modo que s
olo los que queden libres
Radiacion
son los que dan lugar a la formaci
on
primaria
de la imagen. Para evitar que radiaci
on
Radiacion
secundaria pueda da
nar la pelcula se
secundaria
emplean unas rejillas en forma de persiana
Rejilla
veneciana. Con objeto de aumentar el
Pantalla
contraste se emplean pantallas de fosforo
Pelicula
que emiten gran cantidad de fotones por
cada rayo X incidente. As mismo, para
Figura 2.25: Rayos X
reducir la dosis de radiaci
on se puede
emplear un intensicador de imagen. Los rayos X golpean una pantalla de f
osforo en
un tubo al vaco, produciendo gran cantidad de fotones que estimulan un foto-c
atodo
aumentando la emision de electrones, estos son acelerados hasta incidir sobre una pantalla
de f
osforo a +25 kV, consiguiendose as una buena calidad de imagen con baja dosis de
rayos X [Webster 78][Baker 89].
Aunque a traves de los rayos X es posible la deteccion de las estructuras internas del
encefalo, no es detectable el funcionamiento del cerebro, por lo que no es aplicable en la
tecnologa ICC.
42
Estado de la t
ecnica.
2.2.4.
Un radio-is
otopo es un a
tomo con un n
ucleo inestable. Con objeto de alcanzar la estabilidad el radiois
otopo emite uno o m
as tipos de radiaci
on, el ejemplo m
as com
un es las partculas alfa, beta y la radiaci
on
electromagnetica gamma.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
2.2.5.
43
44
2.2.6.
Estado de la t
ecnica.
2.2 T
ecnicas para la adquisici
on de actividad cerebral.
2.2.7.
45
2.2.8.
Algunos isotopos producen positrones que reaccionan con los electrones emitiendo dos
fotones a 511 keV en direcciones opuestas. La gura 2.31.a muestra los dos detectores
dispuestos en lados opuestos del sujeto. Los detectores determinan si ambos destellos
son coincidentes y tienen niveles de energa cercanos a 511 keV. Parejas adicionales de
detectores, g.2.31b y c permiten una rapida operaci
on. La reconstrucci
on de la imagen
es similar a la empleada en la tomografa computerizada.
La principal ventaja del PET es que la mayora de los radio-is
otopos utilizados 15 O,
13 N , 11 C y 18 F , pueden ser compuestos como metabolitos. Por ejemplo, CO puede ser
on del cerebro se encuentra activada, el incremento del ujo
hecho con 11 C. Si una porci
de sangre transporta el is
otopo hasta ella, apareciendo en la imagen. Funcionamientos
anormales, tumores, ataques y otro tipo de anomalas pueden ser mapeados de este modo.
Por ejemplo, medidas del metabolismo de FDG (glucosa-uordeoxyglucosa) se emplea
para determinar el crecimiento de tumores. La deteccion de tumores tempranos es posible
antes de que se produzcan cambios estructurales detectables mediante MRI o CT, ya que
peque
nas cantidades de FDG pueden ser visualizadas [Webster 78], [Baker 89].
46
Estado de la t
ecnica.
2.3.
Referencias hist
oricas sobre la tecnologa ICC.
47
Denominaci
on inglesa: Evoked Potentials EPs
Denominaci
on inglesa: Event-Related Potentials ERPs
48
Estado de la t
ecnica.
El ritmo es el ritmo (9Hz) que se registra sobre la zona motora del cortex.
49
50
Estado de la t
ecnica.
2.4.
51
Las investigaciones anteriores han resuelto una gran cantidad de problemas, como por
ejemplo la discriminacion de actividad electromiograca de la electroencefalograca, pese
a que a nivel de cuero cabelludo la primera es de mayor amplitud que la segunda en
la misma localizaci
on, y la comunicaci
on basada en EMG puede llegara enmascarar la
comunicacion basada en EEG. Para realizar una correcta discriminaci
on de ambas fue
preciso realizar analisis espectral y topograco. Este trabajo inicial tambien sirvi
o para
esclarecer la distincion entre sistemas de comunicacion basados en EEG que dependan del
control muscular (por ejemplo potenciales visuales evocados dependen de la direcci
on de los
ojos) y aquellos que no dependan del control muscular (actividad gurativa, imaginativa
o matematica), estableciendose una primera discriminaci
on entre sistemas ICC exogenos
y end
ogenos. Estas distinciones fueron las que dieron lugar a la actual denici
on del
termino Interfaz Cerebro Computador ICC como aquel sistema de comunicaci
on que
no depende de los canales cerebrales de salida habituales, sistema nervioso periferico y
m
usculos [Wolpaw 00a]. Denici
on que justica el interes actual que la tecnologa ICC
ha suscitado entre los diversos grupos de investigaci
on en interfaces hombre-m
aquina a
nivel mundial, y las posibilidades que como nueva tecnologa de comunicaci
on aumentada
ofrece su aplicacion en campos como la tecnologa de la rehabilitaci
on, teleoperacion de
dispositivos robotizados, sector militar o industria del ocio expuestos en la seccion 1.2 del
captulo 1.
La proliferaci
on que en los u
ltimos a
nos se ha producido en los grupos de investigaci
on
en la tecnologa ICC y la gran variedad en los tipos de se
nal de entrada, algoritmos
de traducci
on, salidas y otras caractersticas de los dispositivos basados en ICC, ha
motivado el aumento de la diversidad de criterios tanto en la consideraci
on de las areas
prioritarias de desarrollo para la mejora de la tecnologa ICC, como en el establecimiento de
procedimientos de medida y comparaci
on de resultados. Mientras que diferentes sistemas
se ajustan mejor para diferentes aplicaciones, medidas de rendimiento est
andar son u
tiles
como bancos de pruebas de prop
osito general, con el cual seguir el desarrollo de la
tecnologa ICC. Una medida estandar en los sistemas de comunicacion es la velocidad
de transferencia de informaci
on o cantidad de informaci
on transmitida por unidad de
10
52
Estado de la t
ecnica.
53
54
Estado de la t
ecnica.
55
56
Estado de la t
ecnica.
Captulo 3
Adquisici
on y procesamiento de
se
nal EEG.
En este captulo se presentan las tecnicas de adquisicion y procesamiento de se
nal
electroencefalograca, previas al empleo de las diferentes tecnicas de clasicacion descritas
en el captulo 4. Las tecnicas de adaptacion y procesamiento de se
nal utilizadas incluyen:
1. Acondicionamiento de la se
nal electroencefalograca.
2. Muestreo y cuanticaci
on.
3. Normalizacion y enventanado.
4. Transformacion de la se
nal del espacio temporal al espacio frecuencial.
5. Obtenci
on del vector de caractersticas.
6. Deteccion de artefactos.
La se
nal electroencefalograca considerada proviene de dos canales; el canal 1 registra
nal en las
la se
nal en las proximidades de C31 , mientras que el canal 2 registra la se
proximidades de C4; ambos canales son de tipo diferencial, empleando dos electrodos
equidistantes a los puntos de referencia mencionados, separados una distancia de 3 cm, tal
y como se muestra en la gura 3.1. Con objeto de poder detectar los artefactos causados
por el parpadeo, un tercer canal se encarga de registrar la actividad mioelectrica en las
proximidades de la comisura del ojo izquierdo; un cuarto canal, al que no se han conectado
electrodos, se emplea para la estimaci
on del nivel de ruido presente durante la adquisici
on
de la se
nal; el electrodo de referencia de masa del bio-amplicador queda dispuesto sobre
el mastoide derecho [Bronzino 95b], la gura 3.2 muestra el conexionado electrico entre el
usuario y el bio-amplicador. El procedimiento experimental seguido para la preparaci
on
del usuario y equipamiento se presenta en el captulo 5.
La denominaci
on proviene del sistema internacional de referencia electroencefalogr
afico 10-20.
58
Adquisici
on y procesamiento de se
nal EEG.
1
0
0
1
Canal 1
1
0
1
0
Canal 2
11
00
1
0
0
1
Canal 3
1
0
Figura 3.2: Esquema de conexionado electrico.
+
Vcc
3.1 Acondicionamiento de la se
nal electroencefalogr
aca.
3.1.
59
Acondicionamiento de la se
nal electroencefalogr
aca.
El acondicionamiento de la se
nal considera tanto las medidas de aislamiento electrico
del usuario respecto a la red electrica, como la amplicacion y ltrado de la se
nal adquirida
[Bronzino 95b], [Rubio 00], [Webster 04].
Como se ha indicado en la seccion 2.2.1 y 2.2.1.3, la se
nal electroencefalograca
se caracteriza por tener un rango de amplitud del orden del centenar de microvoltios
y un rango en frecuencia comprendida entre los 0,4Hz y los 60Hz, sin embargo el
rango de frecuencia m
as com
un detectado en condiciones de consciencia se presenta
entre los 4Hz a 25Hz [Webster 04],[Webster 98],[Rubio 00]. Por este motivo, con objeto
de poder detectar y clasicar actividades cognitivas es necesario amplicar y ltrar la
se
nal electroencefalograca [Baker 89], para lo que se utiliza un bio-amplicador con una
ganancia de G = 10000 y ancho de banda de 0 60Hz. La gura 3.3 muestra la se
nal
tpica registrada durante una sesion experimental, en donde por claridad, para diferenciar
la evoluci
on temporal de cada canal, a cada uno de ellos le ha sido a
nadida una componente
continua de valor igual al de su cardinal.
Tras la amplicaci
on de la se
nal electroencefalograca, se procede a su ltrado
analogico [Proakis 97], aplicando tanto un ltro de rechazo de banda tipo Notch
sintonizado a 50Hz, como un ltro paso alto que elimina todas aquellas componentes
frecuenciales inferiores a 0,4Hz. El ltro de rechazo de banda minimiza el ruido y artefactos
electromagneticos causados por la red de suministro electrico; mientras que el ltro paso
alto minimiza artefactos de acoplamiento supercial entre el electrodo y la epidermis del
cuero cabelludo en la zona de disposici
on de los electrodos.
60
3.2.
Adquisici
on y procesamiento de se
nal EEG.
Muestreo, cuanticaci
on y codicaci
on de la se
nal
EEG.
3.3.
Normalizaci
on y ventaneado.
3.3 Normalizaci
on y ventaneado.
61
y(t)
Seal original.
t
Ventana.
Seal ventaneada.
Esta operaci
on es equivalente a la convoluci
on en el espacio frecuencial de la
transformadas de la se
nal electroencefalograca original y la ventana de preprocesamiento
empleada [Oppenheim 96], [Proakis 97].
Como la caracterizacion de la se
nal electroencefalograca se realiza en el domino
frecuencial, es preciso analizar la inuencia que dicha convoluci
on tiene sobre la
transformada en frecuencia de la se
nal, ya que como caracteriza el efecto de derrame en
frecuencia [Oppenheim 96], [Proakis 97], cuando una se
nal formada por componentes de
baja frecuencia se convoluciona con una ventana temporal de bordes alados, se da lugar
a que en la transformada en frecuencia de la se
nal resultante aparezcan componentes
frecuenciales mayores a las existentes en la se
nal original, causadas por los l
obulos
secundarios de la transformada de la se
nal de la ventana de preprocesamiento empleada,
vease gura 3.8.
Por tal motivo en la batera de experimentos realizados en el desarrollo de esta tesis
se consideran los tipos de ventanas descritos en la tabla 3.1, cuyas representaciones
temporales y frecuenciales se muestran en las guras 3.5 a 3.7 2 .
2
M : longitud en n
umero de muestras de la ventana de procesamiento.
on de Bessel modificada de primera clase de orden cero.
Io : funci
: n
umero real arbitrario que determina la forma de la ventana. Por defecto = 0,5.
62
Adquisici
on y procesamiento de se
nal EEG.
Secuencia temporal:
h(n),
Ventana rectangular.
0 n M 1.
h(n) = 1.
h(n) = 1
2|n M21 |
M 1 .
Ventana de Hanning.
2n
h(n) = 12 (1 cos( M
1 )).
Ventana de Hamming.
Ventana de Blackman.
4n
h(n) = 0,42 0,5cos( M2n
1 ) + 0,08cos( M 1 ).
Ventana de Kaiser.
Ventana de Tukey.
h(n) =
h(n) =
1
2
Io ( M21 )2 (n M21 )2
Io [( M21 )]
1)/2
)
1 + cos( n(1+)(M
(1)(M 1)/2
(M 1)
2
|n
M 1
2 |
M 1
2 .
3.3 Normalizaci
on y ventaneado.
63
64
3.4.
Adquisici
on y procesamiento de se
nal EEG.
Transformaci
on de la se
nal del espacio temporal al
espacio frecuencial.
+inf
X(F ) =
x(t)ej2kFo t dt
(3.2)
inf
N 1
1
x(n)ej2kn/N
N n=0
(3.3)
on de x(n) en el dominio de la
Los coecientes de Fourier, ck , proporcionan la descripci
frecuencia, representando la amplitud y la fase asociada a cada componente frecuencial.
Considerando que cada bloque dispone de 128 muestras, y que la frecuencia de muestreo
on frecuencial obtenida ser
a de: f = 384Hz
es de Fs = 384Hz, la resoluci
128 = 3Hz.
Debido a que la informaci
on m
as relevante se encuentra en la amplitud de las
componentes frecuenciales, en los experimentos descritos en el captulo 5 no se considera
la informaci
on relativa al angulo de fase de dichas componentes frecuenciales, por lo
que la atenci
on se centra en la estimacion espectral de potencia de cada una de las
ventanas de an
alisis consideradas. Procedimiento semejante se realiza en los trabajos de
S.J. Roberts y W.D. Penny [Penny 00], o C. Neuper [Pfurtscheller 00]. Estudios realizados
por el equipo de Dr. G. Pfurtscheller de la Universidad de Graz (Austria) han demostrado
que en sistemas con un mayor n
umero de electrodos el an
alisis de la diferencia de fase
entre los mismos permite una mejor identicacion de los patrones cognitivos empleados
[Blankertz 04], [Scherer 04].
Por otro lado, teniendo en cuenta las propiedades de la Transformada de Fourier y que
la se
nal electroencefalograca en el dominio temporal s
olo tiene componentes reales, en el
espectrograma se produce el efecto de reexion en el valor de la frecuencia de Nyquist, por
lo que la informaci
on relevante de la se
nal se puede encontrar analizando s
olo la primera
mitad de las componentes frecuenciales.
3.5 Obtenci
on del vector de caractersticas.
3.5.
65
Obtenci
on del vector de caractersticas.
Frecuencia.
0-2
3-5
6-8
9 - 11
12 - 14
15 - 20
21 - 29
30 - 38
39 - 192
Denominaci
on.
No considerada.
No considerada.
.
1 .
2.
1 .
2 .
3 .
No considerada.
3.6.
Detecci
on de artefactos.
En an
alisis y procesamiento de se
nal se entiende por artefacto a todo aquel efecto que,
siendo externo a la fuente originaria de la se
nal, causa variaciones indeseadas en la misma,
pudiendo llegar a corromperla [Proakis 97].
Las fuentes de artefactos en procesamiento de se
nal electroencefalograca pueden ser
tanto externas como internas al sistema de adquisicion. Fuentes externas son por ejemplo,
el caso de ruido electrico inducido por perturbaciones electromagneticas provocadas por
equipos electronicos externos, o perturbaciones en la tension de alimentaci
on del conversor
analogico / digital causada por uctuaciones en la red de suministro electrico. Fuentes
internas de artefactos son variaciones de la se
nal provocadas por actividad mioelectrica
en la zona de colocaci
on de los electrodos, o variaciones provocadas por la variacion de la
impedancia en la interfase del electrodo con la piel por leve desplazamiento relativo entre
los mismos [Areny 93].
Tal y como se indica en al comienzo de este captulo, en los experimentos descritos en
el captulo 5, uno de los canales de se
nal se emplea para adquirir la se
nal en la comisura del
ojo izquierdo, con la nalidad de detectar si la se
nal electroencefalograca registrada en
3
La denominaci
on de las bandas frecuenciales se basa en el sistema est
andar neurol
ogico.
66
Adquisici
on y procesamiento de se
nal EEG.
los otros dos canales ha podido ser modicada por la actividad electromiogr
aca debida a
movimientos de los ojos. As mismo con independencia del an
alisis de la actividad ocular,
la propia se
nal electroencefalograca es sometida a un proceso de deteccion de artefactos,
en donde se considera que la ventana de an
alisis en consideracion tiene artefactos si
la diferencia en el valor de amplitud entre una muestra y su inmediata anterior es
nula o excede en dos veces el valor de desviacion tpica de dicha ventana de an
alisis.
Este procedimiento es similar a la tecnica estadstica de Bootstraping empleada en la
identicaci
on y extraccion de muestras an
omalas del conjunto de muestras bajo estudio
[McLachlan 04], [Pe
na S
anchez 86].
Si el n
umero de veces que se detectan artefactos en una ventana de analisis es superior a
tres, dicha ventana no se considera como v
alida para la posterior fase de clasicaci
on. Para
evitar que dicha ventana pueda modicar los resultados obtenidos del resto de ventanas
de an
alisis de la sesion experimental considerada, su vector de caractersticas es sustituido
por el valor medio del resto de vectores de caractersticas obtenidos de ventanas de an
alisis
v
alidas de dicha sesion experimental. Una posible alternativa que causara un menor
impacto podra ser la sustituci
on del vector de caractersticas de la ventana de an
alisis
con artefactos por la media de los vectores de caractersticas asociados a las ventanas de
an
alisis inmediatamente anterior y posterior.
Actualmente en el estudio de la deteccion y clasicaci
on de patrones cerebrales
asociados a enfermedades nerviosas (como por ejemplo la epilepsia), basado en el
empleo de EEG, se han propuesto algoritmos que permiten la detecci
on, identicaci
on
y supresi
on de artefactos, sin embargo estos algoritmos requieren disponer de la se
nal
electroencefalograca completa, lo que les hace inviables para su uso en aplicaciones OnLine con un n
umero reducido de muestras [Tome 07].
Captulo 4
Tipologa de clasicadores.
En este captulo se describen las diferentes tecnicas de clasicacion empleadas para
distinguir los registros de se
nal EEG, los cuales han sido adquiridos cuando el sujeto realiza
las actividades cognitivas propuestas en los experimentos del captulo 5, los resultados y
conclusiones obtenidas de su aplicaci
on se presentan en el captulo 6.
Las tecnicas utilizadas se enumeran a continuaci
on, present
andose seg
un su orden de
aparici
on cronol
ogica y por complejidad creciente, llegandose as para este captulo al
siguiente listado de contenidos:
1. Tecnicas estadsticas.
Comparaci
on de poblaciones.
An
alisis de Discriminantes Lineales.
2. Redes neuronales.
Perceptron multicapa: MLP.
Funciones de base radial: RBF.
Red neuronal probabilstica: PNN.
3. Modelos ocultos de Markov: HMM.
4. M
aquina de soporte de vectores: SVM.
Las tecnicas estadsticas permiten jar el marco con el que realizar el analisis de
la capacidad de discriminaci
on entre las poblaciones de muestras electroencefalogracas
de actividad cerebral mediante las pruebas bilaterales de comparaci
on de poblaciones;
mientras que por su parte mediante la tecnica de Analisis de Discriminantes Lineales
se dene la metodologa a emplear para la reducci
on de la dimensi
on del espacio de
caractersticas original a traves de la combinaci
on lineal de las mismas.
Tras presentar las tecnicas empleadas para el analisis de la capacidad de discriminaci
on
se procede a describir los clasicadores empleados basados en diferentes tipos de tecnologas
como son: redes neuronales de aprendizaje supervisado (MLP, RBF y PNN), modelos
ocultos de Markov (HMM), y m
aquinas de soporte de vectores (SVM).
68
Tipologa de clasicadores.
4.1.
M
etodos estadsticos : Comparaci
on de dos poblaciones.
4.1.1.
Introducci
on.
Observaciones
Comparacion.
Hipotesis inicial Ho
Aceptar
Ho?
Si
Ho explica el proceso
real dentro del margen
de error aceptable.
No
Predicciones
Funcion de discrepancia :
^
d( o ; )
Nivel de significacion :
Calcular nivel
critico p del
contraste
Buscar hipotesis
alternativa H1
La hip
otesis H0 se elige deacuerdo a un principio de simplicidad cientca, s
olo se debe
rechazar un modelo simple en favor de otro de mayor complejidad cuando la evidencia a
otesis mas simple es
favor del segundo sea mas fuerte que la del primero1 , ya que la hip
mas f
acil de contrastar empricamente y encontrar sus deciencias, a la vez que permite
aprender de las observaciones con mayor seguridad y rapidez.
Los tipos de hip
otesis estadsticas o suposiciones que determinan, parcial o totalmente,
la distribuci
on de probabilidad de una o varias variables aleatorias se pueden clasicar
seg
un que:
1
Tambien conocido como principio de la Navaja de Ockham: en igualdad de condiciones la soluci
on
m
as sencilla es probablemente la correcta.
4.1 M
etodos estadsticos : Comparaci
on de dos poblaciones.
69
3. Denir la regi
on de discrepancia entre y 0 bajo la que se considera aceptable H0
o atribuible al azar, y aquella bajo la que se considera inadmisible.
4. Proceder a la adquisici
on de muestras del proceso real, calcular el estimador y la
Si esta es peque
na, aceptar H0 ; en caso contrario rechazar H0
discrepancia d(0 ; ).
y aceptar H1 .
La hip
otesis alternativa H1 inuye en la forma en la que se mide la discrepancia, en
contrastes bilaterales el signo de la desviacion entre y 0 es irrelavante, por lo que se
suelen considerar medidas de la forma:
0 M V
|
(4.1)
d1 = |
M V
M V su desviaci
on tpica,
En donde M V es el estimador de maxima verosimilitud de y
obteniendose as para muestras grandes una distribuci
on conocida:
P (d1 a|H0 ) = P (|z| a) = P (a z a)
en donde z se distribuye seg
un una normal N (0, 1).
2
(4.2)
70
Tipologa de clasicadores.
M V 0
si M V 0
M V
on
en donde para d2 positiva las probabilidades se calculan de nuevo con la distribuci
normal est
andar.
La realizaci
on de un contraste implica dividir el rango de discrepancias que pueden
observarse cuando H0 es acaptada en dos regiones, region de aceptacion de H0 y regi
on
de rechazo, de modo tal que, siempre y cuando H0 sea cierta, discrepancias grandes
tienen asociado niveles de probabilidad de ocurrir peque
nos, = {0,05; 0,01; 0,001};
esta cantidad a su vez puede interpretarse como la probabilidad asumible de rechazar H0
cuando esta es cierta, a la cual tambien se la denomina nivel de signicaci
on , o Error
Tipo I.
Nivel de signicaci
on () = P (rechazar H0 |H0 es cierta)
Con la determinaci
on del nivel de signicaci
on y conocida la distribucion de la funci
on
(4.4)
Hay que destacar que el valor de p no se ja a priori, sino que se ja a partir de las
observaciones realizadas. Cuanto menor sea p, menor sera la credibilidad de H0 . As pues
a de:
la aceptaci
on o rechazo de H0 depender
La opini
on a priori que se tenga se su validez.
Las consecuencias de sus errores.
La evidencia aportada por la muestra.
4.1 M
etodos estadsticos : Comparaci
on de dos poblaciones.
71
El nivel de signicaci
on se ja en funci
on de los dos primeros, mientras que el nivel crtico
pone de maniesto el tercero.
A parte del nivel de signicaci
on, o Error Tipo I, existe el complementario, Error Tipo
II, o la probabilidad de aceptar H0 cuando esta es falsa:
() = P (aceptar H0 |)
denominada funci
on o curva caracterstica del contraste. En el caso de H0 se verica que:
(0 ) = P (aceptar H0 |0 ) = 1
() contiene la informacion m
as relevante del contraste, ya que determina la probabilidad
de aceptar H0 para cada valor del par
ametro . En su lugar tambien se emplea la curva de
potencia que indica la probabilidad complementaria de rechazar H0 para cada valor del
par
ametro .
Potencia() = P (rechazar H0 |)
Ante dos contrastes que tengan medidas de discrepancia distintas pero con igual nivel
de signicaci
on, se escogera el que tenga menores probabilidades de error tipo II, o lo que
es lo mismo, el que sea mas potente.
4.1.2.
Descripci
on del test de contraste de la igualdad de dos
poblaciones.
72
Tipologa de clasicadores.
on.
S2 : estimacion de la varianza de la segunda poblaci
F : distribucion de Fisher.
T : distribucion de Student.
4.1.2.1.
Comparaci
on de la igualdad de la media de dos poblaciones
homoced
asticas y muestras independientes.
La hip
otesis nula, H0 , mantiene la igualdad del valor de la media de ambas poblaciones,
mientras que la hip
otesis alternativa, H1 , indica su desigualdad de forma bilateral.
Ho : 1 2 = vs. H1 : 1 2 =
(4.5)
(X1 X2 ) (1 2 )
1 + 1)
S(
n1
n2
(4.6)
(4.7)
La regi
on de aceptacion de Ho es:
TT eo = t(n1 +n2 2,1 2 )
(4.8)
Comparaci
on de la igualdad de varianza de dos poblaciones.
1
1
= R vs. H1 :
R
=
2
2
(4.9)
4.1 M
etodos estadsticos : Comparaci
on de dos poblaciones.
73
Considerando que:
(n1 1)S1
; 2n1 1
1
1 (n1 1)S1
n1 1
1
1 (n2 1)S2
n2 1
2
(n2 1)S2
; 2n2 1
2
2 S1
; Fn1 1,n2 1
1 S2
(4.10)
(4.11)
1 S1
; Fn1 1,n2 1
R S2
(4.12)
=
F (1 )n1 1,n2 1
ateo
2
=
F (1 )n1 1,n2 1
bteo
2
ateo FExp bteo
4.1.2.3.
(4.13)
(4.14)
(4.15)
Comparaci
on de la igualdad de la media de dos poblaciones
heteroced
asticas y muestras independientes.
Tanto la hip
otesis nula, H0 , como la alternativa, H1 , son equivalentes a las del apartado
4.1.2.1.
Ho : 1 2 = vs. H1 : 1 2 =
(4.16)
(X1 X2 ) (1 2 )
; tf
S1
S2
+
n1
n2
(4.17)
En donde f es el n
umero de grados de libertad calculados con la f
ormula de Welch
[Pe
na S
anchez 86]:
f=
S2 2
n2 )
S1 2
S2 2
1
1
n1 +1 ( n1 ) + n2 +1 ( n2 )
( Sn11 +
(4.18)
(4.19)
74
Tipologa de clasicadores.
4.1.3.
Procedimiento operacional.
4.1 M
etodos estadsticos : Comparaci
on de dos poblaciones.
Componente
1
2
3
4
5
6
Denominaci
on.
.
1 .
2.
1 .
2 .
3 .
75
76
Tipologa de clasicadores.
4.2 M
etodos estadsticos: An
alisis por discriminantes lineales.
4.2.
M
etodos
lineales.
4.2.1.
estadsticos:
An
alisis
por
77
discriminantes
Introducci
on.
En
En
5
En
6
En
7
En
4
ingles
ingles
ingles
ingles
ingles
se
se
se
se
se
78
Tipologa de clasicadores.
4.2.2.
Referencia hist
orica.
La tecnica LDA fue desarrollada por R.A.Fisher, C.Rao y J.G.Bryan, [Ripley 96], como
metodo de clasicaci
on, a traves del cual una nueva observaci
on x poda ser asignada a
una de entre dos o m
as clases Ci , constitudas por conjuntos de observaciones previas a las
que se denomina conjunto de entrenamiento.
R.A.Fisher publica en 1936 el artculo titulado: The use of multiple
measurements in taxonomic problems [Fisher 36], a partir del cual se genera una
familia de metodos de clasicacion conocidos como Discriminantes Lineales de Fisher, los
cuales permiten llegar a criterios de clasicacion en los que la asignacion de una nueva
on de la combinaci
on lineal de la
observaci
on,
x, a una clase concreta, Ci , es solo funci
nueva observaci
on y las muestras ya conocidas del conjunto de entrenamiento, asumiendo
determinadas restricciones como:
Las muestras de cada clase se distribuyen seg
un una funci
on de distribuci
on normal8
Ci ; N (i , i ).
Las poblaciones presentan varianzas semejantes9 . = i = j /i = j
Aunque originalmente R.A.Fisher, en su artculo inicial, realiza una descripci
on
ligeramente diferente, en la que dichas restricciones no son necesarias.
Para el caso de clasicacion entre dos clases o binaria, la conclusi
on es inmediata, sin
embargo para el caso de clasicacion m
ultiple a lo largo del tiempo se han desarrollado
diferentes tecnicas que pueden ser empleadas, entre las que destacan uno contra todos y
clasicaci
on por parejas [Ripley 96].
En el primer caso los puntos de una clase son asignados a un grupo, mientras que
todos los demas, el resto, se asignan a otro; posteriormente se aplica la tecnica de
clasicacion LDA. En este metodo de clasicaci
on se emplean tantos clasicadores como
clases consideradas, siendo el resultado nal la combinaci
on de los mismos.
En el caso de
on por parejas se crea un clasicador por cada pareja de clases,
clasicaci
dando lugar a n2 clasicadores diferentes, al igual que en el caso anterior el resultado
nal se genera como combinacion de los clasicadores anteriores.
4.2.3.
Discriminaci
on lineal cl
asica.
Restricci
on f
acilmente asumible a traves del Teorema Central del Lmite. Esta restricci
on puede ser
comprobada a traves del test de Kolmogorov-Smirnof. [Pe
na S
anchez 86]
9
Esta restricci
on puede ser comprobada a traves del test de homocedasticidad. [Pe
na S
anchez 86]
4.2 M
etodos estadsticos: An
alisis por discriminantes lineales.
79
f : Rp C N
(4.20)
x)).
1. Tomando fk (
x) = p(k|
x) = E[I(Y = k|X =
x)]; k = {1, 2, . . . , K} y f (
x) = (fk (
El teorema de Bayes selecciona el maximizador de fk (
x), deniendo la clase objetivo,
tk , como el k-esimo vector unitario. Aplicando que
f (
x) tK = 2fk (
x) + 1 + f (
x)2
(4.21)
f : Rp Z = {0, 1}m
(4.22)
f2
v = x
X Rp G C N
Si el clasicador se basa en seleccionar el mejor grupo, se estara empleando
implcitamente un clasicador basado en estructura de coste que penaliza la elecci
on
incorrecta del grupo m
as que la clase, ya que aunque se elige la clase que tiene mayor
probabilidad a posteriori, esta se obtiene como suma de las probabilidades a posteriori de
cada uno de los grupos que la forman.
80
Tipologa de clasicadores.
(4.23)
(4.24)
(4.25)
4.2.4.
W T SB W
W T SW W
(4.26)
4.2 M
etodos estadsticos: An
alisis por discriminantes lineales.
81
SW
=
(xi c )(xi c )T
c
(4.28)
ic
1
xi
Nc
ic
1
1
xi =
Nc c
N
N c
c =
x
=
(4.29)
(4.30)
(4.33)
1
SB W = W
SB W = SW W SW
(4.34)
ser escrita como SB2 SB2 , en donde SB2 se construye a partir de su descomposicion por
1
1 2
SB V = V
SB2 SW
(4.35)
1
1 2
SB , con
que es un problema de un autosistema con una matriz simetrica positiva SB2 SW
on:
soluciones k como autovalor y Vk como autovector, dando lugar a la soluci
1
W = SB 2 V
(4.36)
En la cual se ha introducido por conveniencia el factor 1/2, sin que ello de lugar a una perdida de
generalidad
82
Tipologa de clasicadores.
4.2.5.
Procedimiento operacional.
(4.37)
Xb
(4.38)
Xc
(4.39)
Xb
Xc
(4.40)
WT
Xb
(4.41)
WT
Xc
(4.42)
4.3.
83
13 :
84
Tipologa de clasicadores.
6. Aplicaci
on de un ltro Butterworth pasa banda con frecuencias de corte inferior de
fi = 4Hz y frecuencia de corte superior fs = 40Hz.
7. Obtenci
on de la estimacion espectral de potencia utilizando la FFT.
8. Calculo del vector de caractersticas, obtenido para cada una de las ventas de an
alisis
de 128 muestras de la se
nal.
9. En un nuevo bucle, y tras el procesamiento de las 21 ventanas de an
alisis que
se obtienen por sesion, vease 3.5, se identican aquellas ventanas que presentan
artefactos, reemplazandose su vector de caractersticas por el valor medio del resto
de las ventanas de an
alisis sin artefactos.
10. Agrupaci
on de los resultados para cada canal: C3-C3 y C4-C4.
Cada clasicador aplica el siguiente procedimiento al conjunto de vectores de
caractersticas extrado con anterioridad:
1. Determinaci
on de los conjuntos de datos empleados para aprendizaje(50 %), prueba
(25 %) y validaci
on (25 %).
2. Obtenci
on de la matriz de normalizaci
on para el conjunto de datos de aprendizaje.
3. Aplicaci
on del An
alisis de Componentes Principales al conjunto de datos de
aprendizaje para reducir la dimensi
on del espacio de entrada14 .
4. Entrenamiento de la red neuronal con el conjunto de datos de aprendizaje.
5. Aplicaci
on del conjunto de datos de prueba a la red neuronal, si el error de test
es inferior al error objetivo el proceso de aprendizaje se considera v
alido, en caso
contrario se procede a entrenar nuevamente la red neuronal.
6. Aplicaci
on del conjunto de datos de validaci
on a la red neuronal con el objetivo de
estimar el error de ejecucion.
7. Aplicaci
on de la red neuronal al conjunto de datos y registro de resultados.
8. Obtenci
on de las matrices de confusi
on asociadas a cada experimento.
14
La aplicaci
on de la tecnica de An
alisis de Discriminantes Lineales permite concluir que es factible
realizar una reducci
on del espacio de original de caractersticas de entrada sin perder la capacidad de
discriminaci
on, sin embargo los resultados obtenidos de su aplicaci
on indican que de las dos posibles
proyecciones ( tengase en cuenta que se consideran tres actividades cognitivas) s
olo una se muestra
significativa, por lo que como tecnica alternativa se ha optado por procesar los vectores de caractersticas
a traves de la tecnica de An
alisis de Componentes Principales, manteniendo el 90 % de la variabilidad de
los datos como valor explicativo, mientras que el 10 % restante se atribuye a ruido.
4.3.1.
85
Clasicador Perceptr
on Multicapa MLP.
4.3.1.1. Denici
on.
Las redes neuronales de tipo perceptr
on multicapa, tambien denominadas redes de
15
propagaci
on hacia delante [Ripley 96], son redes compuestas por dos o mas capas de
unidades b
asicas de computacion o neuronas, vease gura 4.3, que combinan linealmente
En ingles a este tipo de redes se las conoce indistintamente como feed-forward networks o MLP: Multi
Layer Perceptron
86
Tipologa de clasicadores.
4.3.1.2.
Descripci
on matem
atica.
d
(1)
wji xi
i=1
(1)
wj0
d
(1)
wji xi
(4.43)
i=0
(1)
on
entrada i con la neurona oculta j, y wj0 representa al termino que considera la desviaci
de dicha neurona, termino que puede ser considerado de forma implcita incluyendo una
variable de entrada extra, denominada x0 , cuyo valor se ja a x0 = 1, obteniendose la
ecuaci
on 4.43
El resultado o activaci
on de la neurona j-esima se obtiene transformando el resultado
de la ecuaci
on 4.43 a traves de la funci
on g(.):
zj = g(aj )
(4.44)
(4.45)
Aplicaciones de la funci
on escal
on. Mediante la funci
on escal
on es posible aprender
cualquier tipo de funci
on booleana si se utilizan entradas binarias, lo que desde un
punto de vista pr
actico da lugar a la creaci
on de plantillas; mientras que si se utilizan
entradas continuas es posible aprender fronteras de decisi
on, con aplicaci
on directa
a la clasicacion de patrones.
87
Funciones sigmoideas.
Funci
on de activacion sigmoidea logstica.
g(a) =
1
1 + ea
(4.46)
Tangente hiperb
olica.
ea ea
g(a) = a
e + ea
(4.47)
Aplicaciones de la funci
on sigmoidea. La salida de la funci
on de activacion sigmoidea
queda dentro del rango (0, 1), lo que permite que pueda ser interpretada desde un
punto de vista probabilstico. Por su parte, la aplicaci
on de la funci
on hiperb
olica
permite una convergencia m
as rapida del algoritmo de entrenamiento que el
conseguido con la funci
on logstica.
Funciones lineales.
g(a) = Ka
(4.48)
Aplicaciones de la funci
on lineal. Utilizada por lo general en neuronas en la capa de
salida cuando se precisa que la salida no quede restringida a funciones de clase, por
ejemplo en aplicaciones en las que se requiere aproximar la salida de una funci
on y
es necesaria la extrapolacion de resultados.
Funciones de activacin.
1.5
0.5
0.5
1.5
10
F. Escaln
F. Logstica
F. Tangente hiperblica
Lineal
8
10
88
Tipologa de clasicadores.
Las salidas de la red neuronal se obtienen transformando los resultados de las neuronas
de la capa oculta a traves de la capa de salida, obteniendose la siguiente ecuaci
on para
cada una de las k-esimas unidades de salida:
ak =
M
(2)
wkj zj
(1)
wk0
j=1
M
(2)
wkj zj
(4.49)
j=0
yk = g(ak )
(4.50)
i=0
4.3.1.3.
89
Procedimiento de entrenamiento.
N
(yi yi )2
(4.52)
i=1
Error logstico.
E=
N
(yi log(
i=1
yi
1 yi
) + (1 yi )log(
))
yi
1 yi
(4.53)
Propagando la evaluaci
on y minimizaci
on de la funci
on de error hacia las capas de
on en que deben ser modicados los pesos de las
entrada17 es posible obtener la direcci
neuronas. Para la minimizaci
on del error se utilizan metodos de optimizacion numerica
como el descenso del gradiente [Fuente OConnor 93], o bien otros procedimientos de
optimizacion m
as avanzados; para lo cual es necesario evaluar la derivada de la funci
on
de error con respecto a los pesos de las neuronas, disponer de funciones de activaci
on
diferenciables facilita la propagaci
on del error hacia las capas de entrada, sin embargo
para el caso de funciones de activaci
on de tipo escalon esta propagaci
on del error no es
factible ya que no son continuas en el punto de decisi
on, dando lugar a lo que se conoce
como problema de asignacion de credito 18 .
Tras determinar la direcci
on de modicaci
on, la cantidad en la que esta se realiza
queda determinada a traves del par
ametro , dando lugar a la ecuaci
on 4.54, conocida
como regla generalizada.
t1
t0
= wij
wij
E
wij
(4.54)
La definici
on de una red neuronal de tipo MLP implica la determinaci
on del n
umero de capas a emplear,
as como el n
umero de neuronas a utilizar en cada capa.
17
Tecnica conocida como propagaci
on hacia atr
as, Back-propagation en ingles.
18
Credit assignment problem, si una neurona de salida produce una respuesta err
onea cuando a la red
neuronal se le presenta el vector de entrada asociado, no hay forma de determinar cual de las neuronas
de la capa oculta es responsable de la generaci
on del error, de modo tal que no se puede determinar que
pesos se han de ajustar y por cuanto.
90
Tipologa de clasicadores.
por el vector de entrada y salida objetivo, o bien una vez que todos los patrones de
entrenamiento han sido presentados y evaluados, las necesidades computacionales en cada
caso son diferentes, ya que en el primer caso se obtiene una convergencia m
as lenta pero
requiere menos memoria que el segundo, ya que trabaja directamente sobre los parametros
de la red; no siendo preciso, como en el segundo caso, almacenar las modicaciones a aplicar
una vez han sido procesados todos los patrones del conjunto de entrenamiento.
El proceso de modicaci
on de los par
ametros de la red se itera, bien hasta que se alcanza
un error total inferior al permitido, o bien hasta que se alcanza un n
umero maximo de
ciclos.
Con el objetivo de evitar el sobre-aprendizaje del conjunto de entrenamiento, lo que
ocasionara una mala generalizaci
on, se emplean varias tecnicas:
Descomposicion del conjunto de patrones disponibles en conjunto de entrenamiento,
validaci
on y test. Con el conjunto de entrenamiento se modican los par
ametros de
la red, con el conjunto de validaci
on se determina el error esperado, mientras que
con el conjunto de test se determina la capacidad de generalizaci
on.
Denici
on de la red neuronal de menos a m
as. Comenzando con un n
umero reducido
de neuronas en la capa oculta, se procede a realizar el proceso de entrenamiento,
evaluando los errores obtenidos con los conjuntos de entrenamiento, validaci
on y
test. El n
umero de neuronas en la capa oculta se incrementa paulatinamente hasta
que se obtienen niveles de error aceptables. El disponer de un n
umero reducido de
neuronas en la capa oculta, en comparaci
on con el n
umero de patrones presentes
en el conjunto de entrenamiento, indica que los par
ametros de cada neurona se ven
inuidos por m
as de un patr
on, asegurando cierta capacidad de generalizaci
on.
Detenci
on del proceso de aprendizaje en un n
umero relativamente bajo de
iteraciones, de modo tal que no se permite a los par
ametros de la red alcanzar valores
denitivos causados por el efecto de memorizacion de los patrones del conjunto de
entrenamiento; por lo general el ndice que error asociado a esta tecnica tambien es
alto.
4.3.1.4.
Evaluaci
on de las derivadas de la funci
on de error.
Cada una de las neuronas de una red neuronal de tipo MLP realiza la combinaci
on
lineal de las entradas empleando la f
ormula:
wji zi
(4.55)
aj =
i
en donde zi es la activacion de una neurona en una capa precedente, o una entrada, que
conecta con la neurona j, wji es el peso asociado a dicha conexion, el sumatorio se aplica
a todas las neuronas o entradas que se conectan a la neurona j. La suma es transformada
por la funci
on de activacion no lineal g(.) para dar lugar a la salida zj .
zj = g(aj )
(4.56)
91
El objetivo es determinar los valores apropiados para los pesos de la red a traves
de la minimizaci
on de la funci
on de error elegida, la cual podr
a ser expresada como
sumatorio de los errores obtenidos con cada uno de los n patrones que forman el conjunto
de entrenamiento.
En
(4.57)
E=
n
(4.58)
(4.59)
(4.60)
y aplicando la notaci
on
j
E n
aj
(4.61)
se obtiene:
E n
= j zi
wij
(4.62)
Ecuaci
on que indica que la derivada buscada se obtiene multiplicando el valor de la
neurona de salida por el valor z de la neurona de entrada, por lo que s
olo sera preciso
on 4.62. Para las neuronas
calcular el valor j para cada neurona de la red y aplicar la ecuaci
de salida la evaluaci
on de k es inmediata, obteniendose:
k
E n
E n
= g (ak )
ak
yk
(4.63)
(4.64)
92
Tipologa de clasicadores.
que indica que el valor de para una neurona oculta se obtiene propagando hacia atr
as los
valores de s desde las neuronas superiores, como las derivadas de las funciones de salida
son conocidas, aplicando de forma recursiva 4.65 se obtienen los s de todas las neuronas
de la capa oculta. As pues los pasos a seguir para evaluar la derivada de la funci
on de
error E n con respecto a los pesos son:
1. Aplicaci
on de un vector de entrada xn a la red y propagar hacia delante, utilizando
las ecuaciones 4.55 y 4.56, para hallar la activaci
on de todas las neuronas de la red.
2. Evaluar k para todas las neuronas de salida utilizando 4.63.
3. Propagar hacia atr
as los s utilizando 4.65 para obtener j de cada una de las
neuronas ocultas.
4. Utilizar 4.62 para evaluar las derivadas requeridas.
La derivada total del error se obtiene repitiendo los pasos anteriores para cada uno de
los patrones que forman el conjunto de entrenamiento y realizando su suma:
E n
E
=
(4.66)
wij
wij
n
Cuando es necesario evaluar la sensibilidad de la salida, yk , ante los valores de entradas
on hacia atr
as para el calculo de la matriz
xi es posible emplear el metodo de propagaci
jacobiana 4.67.
Jki
yk
xi
(4.67)
2 E
wji wlk
(4.68)
4.3.1.5.
93
Implementaci
on del clasicador basado en red neuronal de tipo MLP.
En la implementaci
on de los clasicadores basados en este tipo de red neuronal, se han
utilizado los siguientes parametros:
Algoritmo de aprendizaje: Levenberg-Marquardt (Backpropagation).
N
umero de neuronas en la capa oculta: 60.
Funci
on de activacion en las neuronas de la capa oculta:
2
1
(4.69)
tansig(x) =
1 + e2x
N
umero de neuronas en la capa de salida: 3.
Funci
on de activacion en las neuronas de la capa de salida:
1
logsig(x) =
(4.70)
1 + ex
Error objetivo = 1e5 .
N
umero maximo de iteraciones en el proceso de aprendizaje = 400.
Max. fallo = 5.
Mem. reduc. = 1.
Min. grad. = 1e10 .
= 1e3 .
dec = 0,1.
inc = 10.
max = 1e5 .
La capa de salida queda compuesta por tres neuronas, ya que son tres las actividades
consideradas en el resultado de la clasicaci
on, el rango de salida de su funci
on de
activacion, logsig, queda restringido a [0, 1], lo que permite indicar de forma sencilla,
con un valor pr
oximo a la unidad, la asignaci
on de un nuevo candidato a una de las clases
consideradas.
En la capa oculta se han considerado 60 neuronas, para conseguir esta cifra se realiz
o un
an
alisis considerando la inuencia que el n
umero de neuronas en la capa oculta ejerca sobre
el resultado nal de la clasicaci
on, se observo que con valores pr
oximos a 60 neuronas en
la capa oculta se obtenan mejores resultados de clasicacion correcta que los conseguidos
con un n
umero de neuronas inferior a 40 o superior a 80. El n
umero de entradas no es
directamente igual a la dimensi
on del vector de caractersticas, N = 6, ya que se observa
cierta correlacion entre las mismas, mediante el empleo de PCA (Principal Component
Analysis) se ha mantenido el 90 % de la variabilidad de los vectores de caractersticas
derivados de las muestras tomadas, el 10 % restante queda atribudo a ruido, por lo que
para la gran mayora de las pruebas el n
umero de componentes ha quedado en N = 4.
En el apartado 5.6.3 se describe el diagrama de actividad asociado al empleo de
clasicadores basados en redes neuronales, mientras que por su parte en el apartado 6.3 se
presentan, analizan y discuten los resultados obtenidos de la aplicaci
on de los clasicadores
basados en los anteriores tipos de redes neuronales.
94
4.3.2.
4.3.2.1.
Tipologa de clasicadores.
Las redes neuronales de tipo RBF son modelos no parametricos, que comprenden todos
aquellos modelos de redes neuronales, en los que la funci
on de activacion de las neuronas
de la capa oculta tiene como variable de entrada la distancia entre el vector propuesto y
un vector prototipo propio de cada neurona [Ripley 96].
La topologa de una red neuronal de tipo RBF se muestra en la gura 4.7.
Las redes neuronales de tipo RBF se emplean entre otras aplicaciones como:
aproximadores de funciones, regularizadores, interpolaci
on ruidosa, estimacion de
funciones de densidad, teora de clasicacion optima, funciones potenciales [Bishop 95].
Debido a la gran multitud de aplicaciones, los metodos de entrenamiento utilizados
con las redes neuronales de tipo RBF han llegado a ser sustancialmente mas rapidos que
los empleados en el entrenamiento de las redes neuronales de tipo perceptron multicapa;
esto en parte es debido al procedimiento de entrenamiento en dos fases derivado de la
interpretaci
on dada a la forma de representacion interna de las neuronas de la capa oculta.
En la primera fase, los pesos de las funciones de base radial que corresponden a las neuronas
de la capa oculta se determinan mediante metodos no supervisados, m
as rapidos que los
metodos supervisados al considerar s
olo los vectores de entrada de los patrones del conjunto
de entrenamiento y no tener que considerar los valores asociados de la salida [Nabney 02],
en una segunda etapa de entrenamiento se determinan los pesos de las neuronas de la
capa de salida, lo que implica la soluci
on de un problema lineal, emple
andose metodos de
resolucion r
apidos, ecientes y optimizados [Ripley 96] [Rich 94].
4.3.2.2.
95
Descripci
on de la t
ecnica de interpolaci
on exacta.
n = 1, ..., N
(4.71)
La aproximaci
on de funci
on de base radial introduce un conjunto de N funciones de
base, una por cada vector de entrada, que toman la forma (||x xn ||) en donde (.) es
una funci
on no lineal que depende de la distancia ||x xn ||, siendo esta por lo general la
on lineal de las funciones
distancia eucldea entre x y xn . La salida de la red es la combinaci
de base que realizan la asociaci
on.
wn (||x xn ||)
(4.72)
h(x) =
n
Ecuaci
on que tiene la misma forma que una funci
on de discriminacion lineal generalizada
[Bishop 95]. Las condiciones de interpolacion pueden expresarse en forma matricial como:
W = t
W=
(4.73)
(4.74)
(x ) = e 2 2
(4.75)
96
Tipologa de clasicadores.
2
x 2
2
Otra funci
on de base con la misma propiedad es la funci
on
(x) = (x2 + 2 ) ,
>0
(4.76)
Sin embargo no es preciso que las funciones sean localizadas, otras posibles elecciones son:
(x) = x2 ln(x)
2
(4.77)
(x) = (x + ) ,
(x) = x
0<<1
(4.78)
(4.79)
(x) = x
(4.80)
Todas ellas tiene la propiedad de que cuando x , por otro lado hay que
tener en cuenta que aunque la funci
on (x) = x sea lineal en x, no lo es en x, ya que
n
x = ||x x ||.
La generalizaci
on a funciones de salida multivariable es inmediata. Cada vector de
n
entrada x debe ser mapeado exactamente a un vector de salida tn , el cual tiene por
componentes tnk , lo cual da lugar a:
hk (xn ) = tnk ,
n = 1, ...., N
(4.81)
97
(4.83)
n
on de salida.
en donde la misma matriz 1 se utiliza para cada funci
La asociacion realizada por las funciones de base radial consigue que la funci
on de salida
pase exactamente por los puntos de datos suministrados como datos de aprendizaje, si el
conjunto de datos de entrenamiento de que se dispone es ruidoso, como salida de la red
neuronal se obtendr
an valores con variaciones muy bruscas y comportamiento oscilatorio,
sin embargo la funci
on de interpolaci
on deseada tpicamente presenta una salida mas
suavizada, promediando los datos de entrada afectados de ruido. Una limitaci
on adicional
del procedimiento de interpolaci
on exacta proviene de la necesidad de disponer de tantas
funciones de base como patrones en el conjunto de datos de entrenamiento, esto provoca
que para grandes conjuntos de datos sea muy costosa la evaluacion de la asociacion entre
entradas y salidas.
4.3.2.3.
Denici
on matem
atica de las redes neuronales de tipo RBF.
M
j=1
(4.84)
98
Tipologa de clasicadores.
j (x) = e
||xj ||2
2 2
j
(4.85)
j (x) = e 2 (xj ) j
(xj )
(4.86)
on de base
Considerando que las matrices de covarianza j son simetricas, cada funci
tiene d(d + 3)/2 par
ametros independientes ajustables, en donde d es la dimension del
espacio de entrada, en comparaci
on con los d+1 par
ametros independientes de las funciones
de base radial de la ecuaci
on 4.85, en la pr
actica se busca un equilibrio entre usar un
n
umero peque
no de funciones de base con muchos par
ametros ajustables, muy exibles, y
un n
umero mayor de funciones de base menos exibles.
4.3.2.4.
Como se ha indicado con anterioridad, las funciones de base pueden ser interpretadas
de modo tal que los pesos de la primera capa, es decir los par
ametros que controlan
las funciones de base, puedan ser determinados mediante tecnicas de entrenamiento no
supervisadas. Lo que conduce a un proceso de entrenamiento basado en dos etapas, en la
primera las entradas del conjunto de entrenamiento, Xn , son utilizadas para determinar
los parametros de las funciones de base: j y j , para las funciones Gausianas esfericas;
mientras que en la segunda etapa manteniendo las funciones de base se determinan los
pesos de la capa de salida.
Debido a que existe un n
umero menor de funciones de base que patrones, por lo general
no sera posible determinar un conjunto de pesos que consiga ajustar la salida de la funci
on
de forma exacta a los patrones presentados [Freeman 93].
99
Teniendo en cuenta que la salida de la red neuronal queda dada por la ecuaci
on:
M
yk (x) =
wkj j (x)
(4.87)
j=0
y(x) = W
(4.88)
E=
1
(yk (xn ) (tnk ))2
2 n
(4.89)
(4.90)
en donde (T)nk = tnk y ()nj = j (xn ). El valor de los pesos de las neuronas de la red
viene dados por:
W = T
(4.91)
Aplicaci
on en clasicaci
on
A diferencia de la clasicaci
on por hiperplanos realizada con las redes neuronales de
tipo MLP, la clasicaci
on obtenida con las redes neuronales de tipo RBF se basa en
funciones de kernel locales.
El objetivo de los clasicadores es modelar la probabilidad a posteriori p(x|Ck ) para
cada una de las Ck clases consideradas siendo conocida la probabilidad a priori p(x|Ck ).
Aplicando el teorema de Bayes:
P (Ck |x) =
=
p(x|Ck )P (Ck )
p(x)
p(x|Ck )P (Ck )
k p(x|Ck )P (Ck )
(4.92)
(4.93)
100
Tipologa de clasicadores.
Que puede ser interpretado como una red de funciones de base con funciones de
normalizaci
on dada por:
p(x|Ck )
k p(x|Ck )P (Ck )
k (x) =
(4.94)
M
p(x|j)P (j|Ck )
(4.95)
j=1
k
p(x|Ck )P (Ck ) =
M
p(x|j)P (j)
(4.96)
j=1
en donde se han denido las probabilidades a priori para las funciones de base:
P (j|Ck )P (Ck )
P (j) =
(4.97)
101
en donde en la ecuaci
on 4.98 representa una red de funciones de bases, en la que la funci
on
base de normalizaci
on esta dada por:
p(x|j)P (j)
= P (j|x)
j (x) = M
j =1 p(x|j )P (j )
(4.99)
P (j|Ck )P (Ck )
= P (Ck |j)
P (j)
(4.100)
Implementaci
on del clasicador basado en red neuronal de tipo RBF.
En la implementaci
on de los clasicadores basados en este tipo de red neuronal, se han
utilizado los siguientes parametros:
N
umero de neuronas ocultas: Determinado por el algoritmo de aprendizaje a traves
de un proceso iterativo que permite el crecimiento din
amico de la cantidad de
neuronas ocultas empleadas.
El algoritmo de entrenamiento inicialmente crea la red con un n
umero reducido de
neuronas en la capa oculta, con cada iteraci
on se ajustaran los pesos de las neuronas
y se guarda aquel vector de entrada que causa el menor error, se eval
ua el error
global de la red para la iteraci
on actual, si el error es superior al jado se a
nade
una nueva neurona en la capa oculta utilizando como valores de partida los del
vector anteriormente guardado, a continuaci
on se procede a repetir el proceso de
aprendizaje. El algoritmo naliza cuando el error global presentado por la red es
inferior al error objetivo, o en la capa oculta se han alcanzado tantas neuronas como
vectores hay en el conjunto de entrenamiento.
Funci
on de activacion de las neuronas ocultas:
(x) = ex
x = b(w
p)
(4.101)
102
Tipologa de clasicadores.
4.3.3.
4.3.3.1.
(4.102)
La denominaci
on de este tipo de redes neuronales se debe a Specht [Ripley 96], quien
acu
no este nombre para referirse a metodos en los que empleando la tecnica de dejar
uno fuera como metodo de validaci
on cruzada, empleaba las siguientes ecuaciones de
probabilidad para realizar la clasicaci
on.
1
K(x xi )
(4.103)
Pj (x) =
nj
i
x
)
P
i
k
i n[i]
k
En caso de que las probabilidades a priori sean estimadas por:
nk
Pk =
n
(4.105)
La ecuaci
on 4.104 se simplica a:
[i]=k K(x xi )
P (k|x) =
i n[i] K(x xi )
103
(4.106)
Este tipo de redes neuronales se asemeja a las redes neuronales de tipo RBF, en que
ambas utilizan funciones de base radial en las neuronas de la capa oculta, como medio para
estimar la distancia entre un nuevo vector de entrada y los vectores patrones propuestos
durante la fase de entrenamiento. Sin embargo las redes neuronales probabilsticas se
diferencian de las RBF en que, las neuronas de la capa de salida suma las contribuciones
para cada clase produciendo un vector de probabilidades, el cual es procesado a traves de
una funci
on de transferencia de tipo competitivo, en la que la salida selecciona el valor
maximo de dichas probabilidades, asignando un 1 a dicha clase y un 0 a todas las dem
as.
Por otro lado, el algoritmo empleado en la fase de entrenamiento tambien es diferente,
ya que aunque en ambos casos queda encuadrado dentro de la clasicaci
on de algoritmo
de entrenamiento supervisado en dos etapas, para el caso de redes neuronales PNN en
la primera etapa se crean tantas neuronas en la capa oculta como patrones se emplean
en el conjunto de entrenamiento, procedimiento derivado de la tecnica de interpolacion
exacta; en la segunda fase se procede a denir los pesos de las neuronas de la capa de
salida minimizando una funci
on de error del tipo:
E=
n
||yi ti ||
(4.107)
i=1
4.3.3.2.
Implementaci
on del clasicador basado en red neuronal de tipo PNN.
En la implementaci
on de los clasicadores basados en este tipo de red neuronal, se han
utilizado los siguientes parametros:
1. Constante de extension, b = 0.25.
2. N
umero de neuronas en la capa oculta = tantas como parejas vector de entrada clase a la que pertenece, tenga el conjunto de entrenamiento.
3. N
umero de neuronas en la capa de salida = 3. Tantas como clases consideradas.
Al igual que ocurre con la red RBF la capa oculta se construye a partir de neuronas
de base radial, durante la fase de aprendizaje se adquiere la localizaci
on de los vectores
del conjunto de entrenamiento, las neuronas de la capa de salida, tantas como clases
independientes se consideran, memorizan la asignacion de las salidas de las funciones de
activacion a cada una de las clases presentadas, la u
ltima parte de la capa de salida queda
formada por unidades de tipo competitivo, de forma tal que el vector de entrada presentado
se asigna a la neurona cuyo valor de activaci
on sea mas alto.
Como conclusion principal, tal y como puede extraerse del apartado 6.3, los
clasicadores basados en este tipo de redes neuronales son los que presentan mayores
porcentajes de clasicacion correcta, aunque as mismo presentan una menor capacidad
de generalizaci
on que los clasicadores basados en redes neuronales de tipo RBF.
104
Tipologa de clasicadores.
4.4.
4.4.1.
Descripci
on Modelo Oculto de Markov.
aij = 1
1iN
(4.109)
j=1
Las probabilidades de transicion y emision dependen del estado actual y no del pasado.
P (qt = j|qt1 = i, qt2 = k, ...) = P (qt = j|qt1 = i) = aij (t)
(4.110)
105
1jN
(4.111)
1kM
En la gura 4.11 se representa por las echas continuas B1 (O) a B4 (O).
= (1 , 2 , ..., N ). Es el vector de probabilidades de estado inicial.
i = P (q1 = Qi ), 1 i N.
(4.112)
Los par
ametros de un MOM se expresan por: = {A, B, }.
La primera cuestion en la denici
on de un MOM es decidir con que se corresponden
los estados del modelo y cuantos estados han de considerarse.
Existen tres tipos de problemas basicos o canonicos asociados al dise
no de los MOM
[Rabiner 89]:
1. Primer problema. Dados los par
ametros del modelo, , calcular la probabilidad de
una secuencia de observaciones, O, en particular. Este problema se resuelve con el
algoritmo de adelante-atr
as, vease apartado 4.4.2.2. Se puede interpretar tambien
como un ndice de c
omo el modelo se ajusta a la secuencia dada.
Un ejemplo de aplicaci
on de este problema sera: dado un MOM con cinco estados,
N = 5, que representan respectivamente la pronunciaci
on de los n
umeros del uno
al cinco, y que ha sido entrenado con la secuencia O = { 1 , 2 , 3 , 4 , 5 , 4 , 2 },
T = 7, calcular la probabilidad con la que este modelo producira la secuencia
inversa O = { 2 , 4 , 5 , 4 , 3 , 2 , 1 }.
2. Segundo problema. Datos los parametros del modelo, , encontrar la secuencia mas
probable de estados ocultos, Q, que puedan haber generado una secuencia de salida
dada. Este problema se resuelve con el algoritmo de Viterbi [Forney 73]. Trata de
descubrir la parte oculta del modelo.
Siguiendo con el modelo del ejemplo anterior una aplicaci
on de este problema sera
determinar la secuencia de estados que da lugar a la secuencia inversa.
106
Tipologa de clasicadores.
4.4.2.
4.4.2.1.
107
Soluci
on a los problemas can
onicos.
Soluci
on al primer problema.
T
P (Ot |qt , )
(4.113)
t=1
Desarrollando la expresi
on anterior se obtiene:
P (O|Q, ) = bq1 (O1 ) bq2 (O2 ) . . . bqT (OT )
(4.114)
(4.116)
(4.117)
q1 ,q2 ,...,qT
El c
alculo de probabilidad utilizando este metodo implica 2T N T calculos [Rabiner 89],
para cada t existen N posibles estados que se pueden alcanzar, en los ejemplos del
apartado anterior N = 5 y la longitud de la secuencia T = 7, por lo que hay N T posibles
secuencias de estados, y por cada secuencia 2T operaciones, siendo mas exactos se necesitan
on del ejemplo
(2T 1)N T multiplicaciones y N T 1 sumas, por lo que para la resoluci
del primer problema del apartado anterior se necesitaran (2 7 1) 57 = 1,015,625
multiplicaciones y 57 1 = 78,124 sumas.
Puede comprobarse que el procedimiento directo, para cadenas de observaciones
obtenidas en aplicaciones pr
acticas23 excede la capacidad de computo de las computadoras
actuales, por lo que se hace necesario un algoritmo de c
alculo m
as eciente, el cual se
denomina adelante-atr
as.
21
N
otese que T es el n
umero de observaciones.
Se asume la independencia de observaciones.
23
Por ejemplo en aplicaciones de reconocimiento de palabras habladas cada estado podra modelar la
pronunciaci
on de una letra, lo que da lugar a N = 27, con palabras de seis letras, T = 6, se obtendran
4,65109 operaciones.
22
108
Tipologa de clasicadores.
4.4.2.2.
Algoritmo adelante-atr
as.
(4.118)
1iN
(4.119)
2. Inducci
on:
t+1 (j) =
N
t (i)aij bj (Ot+1 )
1 t T 1;
1jN
(4.120)
i=1
3. Terminaci
on:
P (O|) =
N
T (i)
(4.121)
i=1
El primer paso inicializa las probabilidades hacia delante como la probabilidad conjunta
de encontrarse el sistema en el estado Si y que se de la observacion O1 , vease gura 4.12.
El estado j puede alcanzarse en el instante t + 1 desde N posibles estados. Ya que
t (i) es la probabilidad conjunta de que O1 . . . Ot sean observados, y que el estado en el
instante t sea Si , t (i)aij es la probabilidad conjunta de que O1 . . . Ot sean observados, y
de que el estado Sj sea alcanzado a traves del estado Si en el instante t + 1. Sumando este
producto para todos los posibles estados se obtendr
a la probabilidad de estar en el estado
Sj en el instante t + 1 teniendo en cuenta las observaciones realizadas.
on Ot+1 , y
Conociendo el estado Sj , t+1 se obtendra teniendo en cuenta la observaci
multiplicando su probabilidad por la suma de probabilidades t (i)aij anteriores.
Por u
ltimo, la probabilidad P (O|) se obtiene como la suma de las variables hacia
delante terminales, es decir T (i).
as exactos
En este caso, el n
umero de calculos necesarios es del orden de N 2 T . Siendo m
son necesarias N (N +1)(T 1)+N multiplicaciones y N (N 1)(T 1) sumas [Rabiner 89],
para el caso del ejemplo anterior se tendran 5 (5 + 1) (7 1) + 5 = 185 multiplicaciones
y 5 (5 1) (7 1) sumas.
109
Aunque en la soluci
on del primer problema no se utilizan las variables hacia atr
as, si
lo son en la soluci
on del tercer problema. Por semejanza con la descripci
on realizada, su
explicaci
on se realiza a continuaci
on.
Se dene la variable hacia atr
as, t (i) como:
t (i) = P (Ot+1 , Ot+2 , . . . , OT , qt = Si |)
(4.122)
1iN
(4.123)
2. Inducci
on:
t (i) =
N
t = T 1, T 2, . . . , 1;
1 i N (4.124)
j=1
on tiene
El paso de inicializaci
on arbitrariamente iguala T (i) a uno. El paso de inducci
en cuenta que para estar en el estado Si en el instante t, utilizando las observaciones
futuras, hay que considerar todos los posibles estados Sj en el instante t + 1, al igual que
las transiciones aij , as como la observacion Ot+1 en el estado Sj , vease gura 4.13.
110
Tipologa de clasicadores.
4.4.2.3.
Soluci
on al segundo problema.
La soluci
on del segundo problema implica la denici
on de la funci
on de optimizacion a
utilizar. Debido a la multiplicidad de criterios que pueden aplicarse, la soluci
on no es u
nica.
Una posible elecci
on es la de maximizar la probabilidad de encontrarse en un determinado
estado en un instante t dada la secuencia de observaciones obtenida, o lo que es equivalente
a maximizar la probabilidad P (qt = Si |O, ).
Este criterio de optimizacion individualizada, en la que no se tienen en cuenta los
estados anteriores,
puede llevar a obtener secuencias de estados que en la pr
actica no pueden darse debido
a que las probabilidades de transicion entre ellos, aij , son nulas. Esto es as debido a que
implcitamente se busca el estado mas probable en cada instante, sin tener en cuenta la
probabilidad de aparici
on de secuencias de estados.
Con la nalidad de evitar el inconveniente anterior, la soluci
on a este problema
empleada con mayor frecuencia modica el criterio de optimizaci
on, buscando aquella
secuencia de estados que maximiza:
P (Q|O, ) P (Q, O|)
(4.125)
(4.126)
Siendo la probabilidad m
as alta a lo largo de una secuencia, en el instante t, teniendo en
on se tiene que:
cuenta las primeras t observaciones, y termina en el estado Si . Por inducci
t+1 (j) = [maxi t (i)aij ]bj (Ot+1 )
(4.127)
1iN
(4.128)
2. Inducci
on:
t (j) = max1iN (t1 (i)aij ) bj (Ot )
t (j) = argmax1iN (t1 (i)aij )
2tT
(4.129)
1jN
(4.130)
111
3. Terminaci
on:
P = max
(T (i))
(4.131)
qT = argmax(T (i))
(4.132)
1iN
1iN
4. Obtenci
on de la secuencia:
)
qt = t+1 (qt+1
t = T 1, T 2, . . . , 1
(4.133)
Soluci
on al tercer problema.
(4.134)
t (i, j) =
= ...
(4.135)
112
Tipologa de clasicadores.
Realizando el sumatorio de cada uno de los valores que representa la ecuacion anterior
para todo instante t, se obtiene la esperanza del n
umero de veces que va a ser alcanzado el
umero de transiciones hechas desde
estado Si a lo largo del tiempo, o lo que es lo mismo, el n
el estado Si . De forma semejante, si se realiza el sumatorio de t (i, j) para todo instante
t, lo que se obtiene es la esperanza de transiciones desde el estado Si al Sj . Expresando lo
anterior formalmente:
T
1
t=1
T
1
t=1
Con las f
ormulas anteriores se puede obtener un metodo para la reestimacion de los
par
ametros de un Modelo Oculto de Markov:
i = 1 (i)
T 1
t=1 t (i, j)
a
ij =
t=1 T 1t (i)
T 1
(j)
t =k t
bj (k) = t=1,O
T 1
t=1 t (j)
(4.137)
(4.138)
(4.139)
113
La ecuaci
on 4.137 indica la esperanza del n
umero de veces que se va a encontrar el
on 4.138 es el cociente entre la
modelo en el estado Si en el instante inicial. La ecuaci
umero
esperanza del n
umero de transiciones desde el estado Si al Sj y la esperanza del n
de transiciones que se producen desde el estado Si . Por u
ltimo la ecuaci
on 4.139 es el
cociente entre la esperanza del n
umero de veces que se encuentra en el estado Sj y se da
umero de instantes en el estado Sj .
la observaci
on k , y la esperanza del n
=
Utilizando el modelo actual, = {A, B, }, para calcular un modelo nuevo,
B,
{A,
}, Baum y su equipo [Baum 66], [Baum 70], [J. 75], probaron que:
1. El modelo inicial, , dene un punto crtico de la funci
on de coste P (O|) en el caso
de que = .
es mejor que el en el sentido en que P (O|)
> P (O|), es decir, que
2. El modelo ,
que con
la probabilidad de producir la secuencia de observaciones sea mayor con
.
De este modo, reiterando el proceso descrito por el sistema de ecuaciones 4.137 a 4.139,
se mejora el modelo ya que se aumenta la probabilidad de que la secuencia de observaciones
sea producida por el modelo, hasta llegar a un lmite. Al resultado as obtenido se le
denomina estimacion de m
axima verosimilitud del Modelo Oculto de Markov.
Las ecuaciones de reestimacion de par
ametros se pueden obtener maximizando, a traves
de metodos de optimizacion por restricciones, la funci
on auxiliar de Baum en la variable
:
=
P (Q|O, )log[P (O, Q|)]
(4.140)
Q(, )
Q
(4.141)
Las f
ormula de reestimacion se pueden interpretar como la implementaci
on del metodo
estadstico de Esperanza - Maximizacion, EM. El paso de esperanza sera el calculo de la
funci
on Q, y el de modicaci
on sera el de maximizacion.
En cada iteraci
on se cumplen las restricciones estocasticas:
N
i = 1
i=1
N
(4.142)
a
ij = 1
1iN
(4.143)
bj (k) = 1
1jN
(4.144)
j=1
M
k=1
114
Tipologa de clasicadores.
4.4.3.
Densidades de observaci
on continuas en MOM.
cjm = 1
1jN
(4.146)
cjm 0
1 j N, 1 m M
(4.147)
m=1
(4.148)
jk =
T
t=1 t (j, k)
T
T
t=1 t (j, k)(Ot jk )(Ot jk )
jk =
U
T
t=1 t (j, k)
cjk (Ot , jk , Ujk )
t (j)t (j)
M
t (j, k) = N
j=1 t (j)t (j)
m=1 cjk (Ot , jk , Ujk )
(4.149)
(4.150)
(4.151)
(4.152)
4.4.4.
115
En la modelizaci
on de secuencias temporales empleando Modelos Ocultos de Markov,
la consideraci
on a priori de las posibles transiciones entre los estados del modelo simplica
la resoluci
on de los problemas can
onicos anteriores, por ejemplo en aquellos casos donde la
sintaxis subyacente de generaci
on de la cadena de observaciones provoque un determinado
orden de aparici
on de las mismas, dando lugar a que en la matriz de probabilidades de
transicion de estados, determinados elementos sean nulos.
Dependiendo de las restricciones de transici
on entre estados, se presentan los diferentes
tipos de modelos que se describen a continuaci
on:
4.4.4.1.
Modelo erg
odico.
Modelo izquierda-derecha.
j<i
(4.153)
Es decir, no se permiten transiciones a estados cuyos ndices sean menores que el actual.
El estado inicial tiene la propiedad:
0 i = 1
(4.154)
i =
1 i=1
En la gura 4.16 se muestra una representaci
on gr
aca de lo que sera este modelo
suponiendo que lo componen cuatro estados.
116
Tipologa de clasicadores.
j > i + , N.
(4.155)
En el caso del u
ltimo estado se tendra que:
aN N = 1
aN i = 0
4.4.4.3.
(4.156)
i<N
(4.157)
4.4.4.4.
Hasta el momento se ha tratado con modelos probabilsticos en los que en cada instante
de tiempo, t, se observa una variable, vt , generada desde un estado discreto oculto, qt ,
el cual evoluciona seg
un una din
amica de Markov; sin embargo existe una variante de
modelos probabilsticos derivados de los anteriores, denominados modelos de entradasalida 25 aplicados en clasicacion, en donde para cada intervalo de tiempo, t 1, . . . , T ;
25
La denominaci
on anglosajona de los mismos es Input-Output Hidden Markov Model, IOHMM
117
existe una variable yt que depende tanto del estado oculto en el que se encuentra el modelo,
qt , como de una variable de entrada observable, xt , [Bengio 96].
La variable de entrada representa el proceso observado, por lo que en la pr
actica
puede existir cierto preprocesamiento asociado al mismo; mientras que la variable de salida
representa las clases.
La distribuci
on conjunta de estado y variables de salida condicionadas a las variables
de entrada vienen dada por:
P (q1:T , y1:T |x1:T ) = P (y1 |x1 , q1 )P (q1 |x1 )
T
(4.158)
t=2
Cuya representacion gr
aca se muestra en la gura 4.18 [Lauritzen 96].
ez
p(qt = i|xt , qt1 = j) = z k
ke
(4.159)
En donde:
zk =
W
j=0
wkj f
U
uji xit
i=0
(4.160)
118
Tipologa de clasicadores.
La distribuci
on de la funci
on probabilidad de emision p(yt = c|xt , qt = j) se modela
de forma semejante, observese el paralelismo con las redes neuronales tipo perceptron
multicapa [Bishop 95]. El denominador en la ecuaci
on 4.159 asegura que la funci
on de
distribuci
on queda correctamente normalizada.
Este modelo permite especicar para cada instante de tiempo, t, la clase yt . De
forma alternativa, es posible asignar una sola etiqueta a todas aquellas secuencias de
entrenamiento que, siendo de tama
no T , provienen de una misma clase.26
4.4.4.5.
Clasicaci
on continua utilizando Modelos Ocultos de Markov de
entrada-salida.
on T , se desea
En este tipo de modelo, por cada secuencia de entrada, xt , de duraci
obtener la clase o patron al que m
as se aproxima; por lo que las secuencias utilizadas
durante el proceso de entrenamiento llevan asociada informaci
on de la clase a la que
on de probabilidad objetivo
pertenecen, formando el binomio: (xt , yt ), por lo que la funci
en forma logartmica es:
L() = log
M
m
P (y1:T
|xm
1:T , )
(4.161)
m=1
(4.162)
Una aproximaci
on com
un para maximizar la funci
on de probabilidad, considerando
los parametros del modelo , es mediante el algoritmo de Esperanza - Maximizacion
(EM) [McLachlan 97][Nabney 02]. Sin embargo el paso de Maximizaci
on no puede
ser llevado a cabo en forma cerrada debido a las limitaciones de las funciones de
densidad de probabilidad asociadas a las transiciones y emisiones, por lo que se utiliza
una variante de dicho algoritmo, denominada Algoritmo de Expectaci
on-Maximizaci
on
Generalizado,GEM, [McLachlan 97], en el que para la iteraci
on iesima se realizan los
siguientes pasos:
1. Paso de Expectaci
on. Resuelve la ecuaci
on:
Q(, i1 ) = E(logP (q1:T , y1:T |x1:T , ))P (q1:T ,y1:T |x1:T ,i1 )
26
(4.163)
Todas aquellas secuencias menores de T son separadas bien para su descarte final o bien para formar
una secuencia de tama
no apropiado.
119
2. Paso de Maximizaci
on. Modica el valor de los par
ametros del modelo de modo
que:
Q(i , i1 ) Q(, i1 )
(4.164)
T
t=1
T
t=2
(4.165)
= P (yt |xt , qt )
qt1
= P (yt |xt , qt )
qt1
qt+1
qt+1
qt+1
(4.167)
120
Tipologa de clasicadores.
(4.168)
=i1
En donde es el parametro de entrenamiento, que puede ser determinado utilizando
un conjunto de validaci
on. Las derivadas de logP (yt |qt , xt , ), logP (qt |qt1 , xt , ) y
logp(q1 |x1 , ) con respecto a los parametros del modelo se calculan empleando la regla
de la cadena (algoritmo de propagaci
on hacia atr
as [Rabiner 89]).
El procedimiento de entrenamiento descrito obliga a especicar la clase a la que
pertenece cada una de las secuencias de entrada, optimizando la funci
on objetivo:
i = i1 +
log
M
(4.170)
m=1
M
C
(4.171)
Sin embargo, cuando se especica la misma clase para varias secuencias de entrada se
fuerza a que los recursos del modelo sean empleados para aprender esta caracterstica,
con la consecuencia de que el modelo se centra en aprender la prediccion de la misma
clase para cada intervalo de tiempo t, en lugar de centrarse en la clase que se predice.
Para solucionar este problema o bien se reconsidera la funci
on objetivo a maximizar, una
alternativa sera:
log
M
(4.172)
4.4.4.6.
121
Clasicaci
on de punto nal utilizando Modelos Ocultos de Markov
de entrada-salida.
M
P (yTm |xm
1:T , )
(4.173)
m=1
Al igual que en el caso anterior, una vez entrenado el modelo, una nueva secuencia
de entrada puede ser aplicada con la nalidad de encontrar la clase a la que con mayor
probabilidad pertenecera.
De forma an
aloga al procedimiento anterior se utiliza el algoritmo GEM en la
determinaci
on de los par
ametros del modelo.
1. Paso de Expectaci
on. Resuelve la ecuaci
on:
Q(, i1 ) = E(logP (q1:T , yT |x1:T , ))P (q1:T |x1:T ,yT ,i1 )
(4.174)
2. Paso de Maximizaci
on. Modica el valor de los par
ametros del modelo de modo
que:
Q(i , i1 ) Q(, i1 )
(4.175)
La ecuaci
on 4.175 puede expresarse como:
Q(, i1 ) = E(log(P (yT |xT , qT , )))P (qT |x1:T ,yT ,i1 ) +
+
T
t=2
(4.176)
(4.177)
122
Tipologa de clasicadores.
on hacia atr
as:
Mientras que P (qt |x1:T , yT se obtiene a traves de la iteraci
P (qT |x1:T , qt+1 yT )P (qt+1 |x1:T 1 , yT ) =
P (qt |x1:T , yT ) =
qT 1
(4.179)
qt+1
En donde:
P (qt |x1:T +1 , qt+1 ) P (qt:t+1 |x1:t+1 ) =
= P (qt+1 |xt , qt )P (qt |x1:t )
4.4.5.
(4.180)
Consideraciones pr
acticas en la implementaci
on de Modelos
Ocultos de Markov.
Escalado.
Considerando las f
ormulas de reestimacion se observa que son sumatorios que contienen
terminos de la forma:
t1
t
aqs qs+1
bqs (Os )
s=1
s=1
Ya que tanto a como b son terminos menores a 1, se comprueba que cuando t alcanza
valores altos, por ejemplo 10 o m
as, cada termino tiende exponencialmente a cero; con
cadenas de longitud suciente el c
alculo de t (i) llega a exceder el rango de precision
de cualquier computadora, incluso empleando doble precisi
on, de lo que se deduce que
la u
nica forma razonable de realizar el calculo de los par
ametros del modelo implique la
incorporaci
on de un proceso de reescalado.
El metodo b
asico de escalado consiste en multiplicar t (i) por un coeciente de escala
independiente de i, es decir que solo dependa de t, con el objetivo de mantener el valor
amico de calculo de la computadora para 1 t T .
escalado de t (i) dentro del rango din
Procedimiento semejante se realiza con los coecientes t (i).
4.4.5.2.
123
M
ultiples secuencias de observaci
on.
(4.181)
K
P (O(k) |) =
k=1
K
Pk
(4.182)
k=1
1 Tk 1
k
k
k=1 Pk
t=1,Ot =xt t (j)t (j)
K 1 Tk 1 k
k
t=1 t (j)t (j)
k=1 Pk
(4.184)
(4.185)
Estimaci
on de los par
ametros iniciales.
124
Tipologa de clasicadores.
4.4.5.4.
(4.186)
Elecci
on del modelo.
4.4.6.
125
Descripci
on del algoritmo de clasicaci
on bietapa.
(x) = e(x ) ;
x = (wp pp )sc
(4.187)
126
Tipologa de clasicadores.
De estudios previos se concluye que este tipo de red neuronal presenta un mejor
comportamiento que otros tipos de redes neuronales como por ejemplo MLP o PNN
[Martnez 08].
Para el proceso de aprendizaje se consideran vectores de caractersticas provenientes
de la se
nal EEG, capturada cuando el usuario realiza una de las diferentes actividades
mentales entre las que se quiere discriminar. De toda la poblaci
on de caractersticas
disponible por experimento, el 75 % se emplea para formar el conjunto de entrenamiento,
mientras que el 25 % restante se emplea para el conjunto de validaci
on. Tras la
determinaci
on de los conjuntos de aprendizaje y validaci
on se obtienen las constantes
que permiten denir la normalizaci
on de los datos de entrada, posteriormente se obtiene
una matriz de transformaci
on con objeto de reducir la dimensi
on del espacio de entrada de
la red neuronal [Martnez 07] [Martnez 08], dicha matriz permite proyectar los vectores de
127
caractersticas en la direcci
on de los ejes sobre los que mejor se discriminan las actividades
cognitivas consideradas. Esta matriz de proyecci
on se calcula de modo tal que el 90 % de
la variabilidad de las caractersticas se mantenga, el 10 % restante de la variabilidad se
atribuye a ruido.
El proceso de entrenamiento permite el crecimiento din
amico del n
umero de neuronas
de entrada que conforman la red neuronal de modo que se minimice el efecto de sobreaprendizaje, en la etapa de salida se utilizan tantas neuronas como actividades cognitivas
a discriminar. Por lo que los par
ametros denitorios de la red neuronal y su proceso de
umero
aprendizaje son: sc (dene la zona de inuencia de cada neurona de la red), el n
de actividades cognitivas a discriminar, y el error objetivo de entrenamiento (goal). El
bloque asignador que sigue a la red neuronal en la gura 4.19, se encarga de evaluar las
componentes del vector de salida de la red, detectar el que es mayor y si su valor es superior
a un determinado nivel de umbral , asignar la se
nal recibida al orden del componente
mayor del vector; si por el contrario resulta que ninguna de las componentes supera el valor
de umbral, la se
nal introducida no ser
a asignada a ninguna de las actividades propuestas.
Una vez entrenada la red neuronal, cuando se introduce un vector de caractersticas nuevo,
la actividad cognitiva que haya presentado muestras de aprendizaje m
as pr
oximas al vector
de entrada presentado tendr
a un nivel de activaci
on m
as alto, y la salida correspondiente
tendr
a un valor mayor al de las otras actividades mentales, vease g.4.21.
4.4.6.2.
128
Tipologa de clasicadores.
La implementaci
on del algoritmo de clasicacion descrito en esta seccion se describe
en el apartado 5.6.4, a la vez que los resultados obtenidos de su utilizaci
on por varios
voluntarios se presentan en el apartado 6.4, la conclusi
on m
as signicativa que se obtiene
en dicho apartado es que la capacidad de aprendizaje que se obtiene con este clasicador es
superior a la obtenida con un clasicador basado en redes neuronales de tipo RBF, aunque
con el tama
no del conjunto de datos utilizado para el aprendizaje el clasicador tiende al
sobre-aprendizaje de dicho conjunto, por lo que su capacidad de generalizaci
on no es todo
lo optima que cabra esperar atendiendo a los resultados de la fase de aprendizaje.
4.5.
Clasicador
Vectores.
4.5.1.
basado
en
M
aquina
129
de
Soporte
de
Introducci
on a las M
aquinas de Soporte de Vectores.
Bajo la denominaci
on de M
aquinas de Soporte de Vectores, MSV27 , se engloba
a un conjunto de metodos de aprendizaje supervisado, pertenecientes a la familia de
clasicadores lineales generalizados, aplicables tanto en problemas de clasicacion como
de regresion [Cristianini 05b], [Burges 98], [Ivanciuc 07].
Su estructura se basa en una red est
atica de n
ucleos,28 los cuales operan sobre vectores
de caractersticas que han sido transformados a un espacio de dimensi
on mayor a la del
espacio de caractersticas original [Cristianini 05a], [Gunn 98], [Gunn 03].
Las MSVs se emplean tanto en aplicaciones de clasicacion como en regresion, su
caracterstica mas importante es su buena capacidad de generalizaci
on, basada en la
determinaci
on del hiperplano que da lugar a la m
axima distancia de separacion entre
los vectores transformados [Cristianini 05b],[Castro 03]. Esta distancia de separacion se
obtiene mediante la construccion de dos hiperplanos paralelos al hiperplano de separaci
on
optima, localizados a ambos lados del mismo y que contengan al menos a uno de los
vectores transformados, denominado vector soporte, vease g.4.23; se asume que cuanto
mayor sea esta distancia, mejor sera la capacidad de generalizaci
on del clasicador
[Burges 98].
original
Espacio de caracteristicas
(.)
Espacio de caracteristicas
transformado
m<n
X2
m
U
2
H0
H1
H2
Hiperplano de
separacion
optima
Margen
X1
U1
En ingles la denominaci
on es Support Vector Machine (SVM).
Tambien denominados como Kernels
130
Tipologa de clasicadores.
4.5.2.
Descripci
on del clasicador lineal o
ptimo.
131
Hiperplano optimo
Vectores
soporte
Margen
4.5.3.
Descripci
on del problema de optimizaci
on lineal.
(4.188)
wxi + b yi /
yi = 1 xi Ci = B
(w , b ) / w x + b = 0 Hiperplano optimo
Aunque para el desarrollo formal se empleen s
olo dos clases: {A, B}, las conclusiones
son extrapolables para el caso de m
ultiples clases bajo el paradigma de uno contra uno, o
uno contra todos, generando tantos clasicadores como clases.
El mejor hiperplano, para la clasicaci
on de nuevos datos, es aquel cuya distancia de
separacion a los vectores vecinos de ambas clases sea maxima.
on optima, para el
Al hiperplano, H0 , as obtenido se le denomina hiperplano de separaci
cual el margen es maximo. Este margen se obtiene como la distancia entre dos hiperplanos,
H1 y H2 , paralelos a H0 , que contienen al menos a un vector de cada clase, denominados
vectores soporte.
La expresion matematica de H1 y H2 se muestra en las ecs.: 4.189 y 4.190.
(4.189)
H1 : wx b = 1
H2 : wx b = 1
(4.190)
Si los vectores de entrada son linealmente separables, es posible elegir dos hiperplanos entre
los que no haya datos y maximizen la distancia entre ellos [Cristianini 05b], [Burges 98],
[Gunn 98].
132
Tipologa de clasicadores.
b
|w|
(4.191)
Utilizando las ecs. 4.189 y 4.190 se obtiene que la distancia entre H1 y H2 es:
d=
2
|w|
(4.192)
1 i n.
(4.193)
Minimizar
Considerando la restricci
on yi (wxi b) 1,
29 :
(4.194)
1 i n.
(4.195)
(4.196)
i=1
i=1
N
i yi = 0
(4.198)
i=1
(4.199)
i=1 j=1
N
i=1
29
El factor
1
2
1
i j yi yj xi xj
2
N
i=1 j=1
(4.200)
133
i yi = 0
i=1
(4.201)
i 0
i = 1, ..., N.
N
i yi xi b = 1 w T xs
(4.202)
i=1
4.5.4.
Margen blando.
En el an
alisis anterior se considera que en la regi
on comprendida entre los hiperplanos
H1 y H2 no han de existir vectores, ni que estos pudieran ser erroneamente clasicados.
Esta consideraci
on es muy exigente para su aplicaci
on en casos pr
acticos, lo que motiv
o que
en 1995 Corinna Cortes y Vladimir Vapnik propusieran una nueva idea de margen m
aximo
[Vapnik 95], a la que denominaron Margen Blando la cual, para el caso en que no es
posible encontrar un hiperplano de separaci
on optimo, H0 , seleccionara aquel hiperplano
que separando los vectores de entrada tan limpiamente como fuera posible, permitiera
errores de clasicacion a la vez que maximiza la distancia al resto de los datos que han
sido correctemante identicados, vease la gura 4.25. Esta nueva variante introduce un
nuevo conjunto de variables, denominadas variables de holgura: hi , i = {1, ..., N }, que
permiten ponderar el grado de desclasicaci
on de cada vector, tal que:
yi (wT xi + b) 1 hi ,
En donde:
hi 0
i = 1, . . . , N
(4.203)
0 hi 1 clasicacion correcta.
clasicacion incorrecta.
hi > 1
(4.204)
yi (wxi b) 1,
1 i n.
(4.206)
134
Tipologa de clasicadores.
hj
hi
1
1
Funciones de penalizaci
on no lineales tambien han sido propuestas, sobre todo en
aquellos casos donde es preciso minizar el efecto de muestras anomalas; presentan el
inconveniente de aumentar la complejidad de la resoluci
on del problema de optimizaci
on,
pues se tiende a perder la convexidad, siendo m
as complejo encontrar una soluci
on global.
4.5.5.
Descripci
on del clasicador no lineal.
135
Rn Rm ,
m>n
(w, h) =
(4.207)
i=1
i = 1, . . . , N
hi 0
(4.208)
136
Tipologa de clasicadores.
4.5.5.1.
Funci
on Kernel K.
N
1
i j yi yj (xi )T (xj )
2
N
i=1
(4.209)
i=1 j=1
(4.210)
(4.211)
(4.212)
= (a1 b1 + a2 b2 + 1) = (a b + 1)
(4.213)
am m (u)m (v),
am 0
(4.214)
g L2
(4.215)
Este teorema no indica sin embargo como construir las funciones (x). La tabla 4.2
recoge los tipos de funciones kernel m
as utilizados [Gunn 98].
Las funciones compuestas por sumas y/o productos de funciones kernel tambien son
funciones kernel [Cristianini 05b], [Burges 98], [Gunn 98].
4.5.6.
Comparaci
on entre M
aquinas de soporte de Vectores y Redes
Neuronales.
Tipo MSV.
Funci
on kernel.
Polin
omica.
(xT y + 1)p
RBF Gaussianas.
e(
RBF Exponeciales.
e(
Perceptr
on
de 2 capas
sin(N + 21 )(xy)
sin( 21 (xy))
N
N
s=1 (x
B splines.
|xxi |
)
2 2
Comentario.
tanh(0 xT xi + 1 )
Serie
de
Fourier.
Splines.
|xxi |2
)
2 2
r r
r=0 x y +
s )k+ (y s )k+
B2N +1 (x y)
137
El orden de la curva k y el n
umero
de los N puntos localizados en s lo especica
el usuario.
El valor de N lo especica el usuario.
MSV.
Las funciones Kernel transforman los
datos de entrada a espacios de dimensi
on
muy superior.
El espacio de b
usqueda tiene s
olo un
mnimo global.
El entrenamiento es muy eciente.
Clasicaci
on eciente.
Se dise
na la funci
on Kernel y el par
ametro
de coste C.
Buen funcionamiento en problemas tipo.
Comportamiento muy robusto para generalizaci
on, menor necesidad de heursticos
para entrenamiento.
Redes neuronales.
Las capas ocultas transforman los datos a
espacios de cualquier dimensi
on.
El espacio de b
usqueda tiene m
ultiples
mnimos locales.
El entrenamiento es costoso.
Clasicaci
on eciente.
Se dise
na el n
umero de capas ocultas y
nodos.
Buen funcionamiento en problemas tipo.
Precisan controlar el sobre-aprendizaje.
138
Tipologa de clasicadores.
4.5.7.
Implementaciones.
Captulo 5
Procedimientos experimentales y
aplicaci
on de demostraci
on.
En este captulo se describen las actividades cognitivas propuestas a modo de
interfaz, as como los protocolos de preparacion del usuario y del equipo de adquisici
on
y procesamiento, que han sido empleados en la realizaci
on de los procedimientos
experimentales a cuyos resultados se les aplican las diferentes tecnicas de clasicacion
presentadas en el captulo 4. Por u
ltimo se presenta una propuesta de arquitectura para
el empleo de la tecnologa ICC en un dispositivo generico que ha sido implementada en la
aplicaci
on de demostracion.
5.1.
Protocolo preparaci
on del usuario.
140
5.2.
Descripci
on del equipo de adquisici
on y procesamiento.
El equipo de adquisici
on y procesamiento se compone de los siguientes dispositivos, en
los que se ajustan los par
ametros indicados.:
Electrodos superciales tipo Au-Cu. Impedancia entre el electrodo activo N y el
electrodo de referencia de masa del bio-amplicador: ZN 4KOhms.
Bio-amplicador. Modelo: g.BSamp Fabricante: g.tec. Filtro Notch de rechazo de
banda sintonizado a 50 Hz. Filtro paso alto sintonizado a 0.5 Hz. [Guger 05].
Acumulador. Modelo: Akkupack. Fabricante: g.tec
Tarjeta de adquisici
on. Modelo: PCI-MIO-16 E-4. Fabricante: National Instrument.
Frecuencia de muestreo: Fs = 384Hz. Bloque de muestras considerado: N = 128.
[Instruments 01]
PC para procesamiento de se
nal e interfaz con el usuario.
5.3 Descripci
on de las actividades cognitivas.
141
5.3.
Descripci
on de las actividades cognitivas.
142
5.4.
Descripci
on del protocolo para el procedimiento Oline.
5.4 Descripci
on del protocolo para el procedimiento O-line.
143
2
3
144
5.5.
Descripci
on del protocolo para el procedimiento Online.
En el proceso experimental
On-line al usuario se le realimenta informacion del proceso de
clasicacion de la se
nal adquirida en el instante inmediatamente anterior. En pantalla se muestra el icono objetivo, en forma
de cuadrado, dispuesto aleatoriamente en la parte izquierda o en
la derecha; un cursor, en forma
de rombo, se desplaza horizontalmente dependiendo del resultado
de la clasicacion.
La gura 5.4 presenta el ujograma de desarrollo del experimento. Se emplean las mismas actividades cognitivas que en el procedimiento O-line, utilizando
los registros de se
nal previamente
adquiridos para entrenar un clasicador basado en redes neuronales de tipo RBF. El supervisor
del experimento indica el n
umero de actividades cognitivas conumero de
sideradas, Nact , y el n
replicas a realizar, Nrep , as mismo se realiza la asociaci
on de actividad cognitiva con el sentido
de movimiento, comunicandoselo
verbalmente al usuario. La duracion del experimento es de siete segundos, presentando el icono
objetivo con una antelaci
on de
cinco segundos. En cada replica
el sistema presenta el icono objetivo aleatoriamente en la derecha
o en la izquierda de la pantalla.
5.6.
145
En esta seccion se muestran los diagramas de actividad [Arlow 05] empleados en los
procedimientos de aplicaci
on de las diferentes tecnicas de clasicacion presentadas en el
capitulo 4, cuyos resultados se recogen en el captulo 6.
En la gura 5.5 se muestra el diagrama asociado al procesamiento de los registros de
se
nal electroencefalograca, que permite obtener los vectores de caractersticas a partir de
las muestras de se
nal EEG adquiridas.
146
5.6.1.
5.6.2.
An
alisis Discriminante Lineal.
147
148
5.6.3.
5.6.4.
149
150
5.6.5.
Clasicador basado en M
aquinas de Soporte de Vectores.
5.7 Descripci
on de arquitectura dispositivo ICC.
5.7.
151
Descripci
on de arquitectura dispositivo ICC.
5.7.1.
Identicaci
on de actores.
En la aplicaci
on para deletrear palabras se han identicado dos actores.
Usuario. Persona encargada de controlar la aplicaci
on a traves de sus patrones
cerebrales endogenos, asociados a las actividades cognitivas propuestas.
Controlador. Persona a cargo de realizar los protocolos de preparaci
on del usuario
y del sistema, as como supervisar el correcto funcionamiento de la aplicaci
on y la
puesta en marcha / apagado del sistema.
5.7.2.
Descripci
on de casos de uso.
152
5.7.2.1.
Deletrear palabra.
Condiciones iniciales:
Los procedimientos de preparaci
on de usuario y equipo han sido llevados a cabo y
el sistema funciona correctamente.
La aplicaci
on presenta en pantalla una ventana semejante a la mostrada en la gura
5.12, en donde en la parte superior aparecen letras del alfabeto, mientras que en la
parte inferior se muestran caracteres numericos, as como las secuencias de control
de Espacio y Fin. En la parte izquierda se muestra el cursor controlado por
el usuario. En la parte central se muestran mensajes de aviso para el usuario. Por
u
ltimo, inmediatamente debajo de la secuencia de caracteres, en la parte inferior se
muestran los caracteres seleccionados.
La asociacion de movimiento vertical del cursor con las actividades cognitivas, se ha
realizado conforme a la eleccion del usuario.
El usuario ha identicado tanto la palabra que desea deletrear, como la primera letra
de dicha palabra.
5.7 Descripci
on de arquitectura dispositivo ICC.
153
4
5
N ser
a configurable, siendo su valor por defecto N = 3.
La selecci
on de los caracteres se realiza por dicotoma.
154
5.7.2.2.
Condiciones iniciales:
La preparaci
on del usuario se ha realizado conforme a lo indicado en el apartado 5.1.
El supervisor realiza la puesta en marcha del sistema, vericando el correcto
funcionamiento de los componentes seg
un se describe en el apartado 5.2.
Flujo principal del caso de uso:
1.a El supervisor inicia la aplicaci
on.
2.a La aplicaci
on solicita del supervisor los parametros de la sesion:
3.a
4.a
5.a
6.a
7.a
8.a
9.a
Identicacion de usuario.
N
umero de sesion.
N
umero de actividades cognitivas.
Identicacion de las actividades cognitivas.
N
umero de replicas consideradas.
El supervisor introduce los par
ametros de conguraci
on de la sesi
on.
El sistema crea una estructura de cheros para almacenar las muestra de se
nal
electroencefalograca adquiridas, procesamiento de las mismas, as como los datos
de clasicaciones a las que dieran lugar y estructuras de datos de aprendizaje de los
clasicadores.
on
La aplicaci
on procede a comunicar que en N6 segundos se va a efectuar la adquisici
de registros de se
nal EEG relacionada con la actividad cognitiva propuesta. En la
parte central de la ventana se mostrar
a la cuenta atr
as de tiempo para comienzo de
la adquisici
on de muestras.
La aplicaci
on procede a la captura de muestras de se
nal electroencefalograca, seg
un
se ha descrito en el apartado 5.4. Los registros de actividad electroencefalograca se
almacenaran en la estructura de datos del experimento.
La aplicaci
on procede a extraer y guardar el conjunto de vectores de caractersticas
de los registros de se
nal efectuados.
Con la poblaci
on de vectores de caractersticas obtenidos se procede a entrenar
al clasicador, tras lo cual se indica al supervisor el porcentaje de clasicaciones
correctas obtenido. La parametrizacion del clasicador se almacenara en la estructura
de datos del experimento.
El supervisor decide si con el porcentaje de clasicacion obtenido se procede con
el caso de uso de Deletrear palabra, o se procede a repetir el caso de uso actual
devolviendo el control al punto 2.a, o bien se naliza la aplicaci
on.
Postcondiciones.
El sistema guarda tanto la informaci
on de los registros de se
nal electroencefalograca,
como las estructuras de datos que denen el entrenamiento del clasicador.
Flujos alternativos.
4.b Si el sistema detecta que la identicaci
on de la sesi
on ya existe, procede a
comunicarselo al supervisor, devolviendo el control al punto 2.a, para evitar la
corrupci
on de datos de sesiones anteriores.
6
N ser
a configurable, por defecto se consideran 5 segundos.
5.7 Descripci
on de arquitectura dispositivo ICC.
5.7.2.3.
155
Finalizaci
on de la aplicaci
on.
Condiciones iniciales:
Se ha realizado la puesta en marcha del sistema seg
un el caso de uso 5.7.2.2.
Flujo principal del caso de uso:
1.a El supervisor decide nalizar la aplicacion, comunic
andolo a traves de la consola de
la aplicaci
on.
2.a La aplicaci
on procede a nalizar el proceso de adquisici
on de muestras de se
nal
electroencefalograca. Guardando los u
ltimos registros de se
nal que no hubieran
sido almacenados.
3.a La aplicaci
on procede a cerrar los ujos de datos de la tarjeta de adquisici
on.
4.a La aplicaci
on deja de realizar clasicaciones. Guardando la u
ltima clasicaci
on no
almacenada.
5.a La aplicaci
on comunica la nalizaci
on de la aplicaci
on al usuario y cierra la ventana
de di
alogo.
Postcondiciones.
La aplicaci
on queda nalizada y la informaci
on asociada a la sesion realizada almacenada en la estructura de cheros, creada por el caso de uso Puesta en marcha del sistema.
Flujos alternativos.
1.b El usuario procede a seleccionar Fin como car
acter a deletrear.
5.7.3.
Estructura de clases de an
alisis.
156
Clasicaci
on: actividad cognitiva a la que se asocia el vector de caractersticas
suministrado.
Cad Caract Deletreados: representa a la cadena de caracteres seleccionados por el
usuario.
Cad Caract Inferior: conjunto de caracteres alfanumericos dispuestos en la parte
inferior de la ventana.
Cad Caract Superior: conjunto de caracteres alfanumericos dispuestos en la parte
superior de la ventana.
Cadena Aviso: representa al mensaje textual que se comunica al usuario.
Las clases de analisis identicadas han sido:
Tarjeta de Adquisici
on: clase perteneciente a la capa de interfaz, encargada de
representar la tarjeta de adquisicion desde el punto de vista Software. Sus funciones
clave son: conguraci
on, adquisici
on de muestras y generaci
on de Registro EEG. Tal
y como se indica en el apartado 3.2, se consideran ventanas de an
alisis de duraci
on
1
s,
con
una
frecuencia
de
muestreo
de
F
=
384Hz.
s
3
Procesamiento Se
nal EEG: clase perteneciente a la capa de logica de la aplicaci
on,
se encarga de extraer los vectores de caractersticas frecuenciales a partir de los
registros de se
nal electroencefalograca, seg
un lo indicado en el apartado 3.5.
Clasicador: clase perteneciente a la capa de logica de la aplicaci
on, encargada de
aprender y reconocer los patrones cerebrales del usuario asociados a las actividades
cognitivas consideradas, vease apartado 5.3. Tras el analisis de los resultados de
los experimentos de la secci
on 5.6, presentados en el captulo 6, se ha optado por
implementar una versi
on de clasicador basada en redes neuronales de tipo RBF, y
otra en MSV.
Ventana Di
alogo Usuario: clase perteneciente a la capa de interfaz, encargada de
la comunicaci
on con el usuario, gestionando el movimiento del cursor en pantalla,
presentacion de secuencia de caracteres y avisos.
Consola Supervisor: es el interfaz con el supervisor, muestra avisos y opciones; punto
de entrada para par
ametros de conguraci
on y selecciones.
Grabador Datos: clase perteneciente a la capa de almacenamiento de datos, se
encarga de guardar la informaci
on de la sesi
on en curso.
Control: clase encargada de la secuenciacion de funciones de cada una de las clases
anteriores, es en esta clase en donde reside la logica de la aplicaci
on.
5.7 Descripci
on de arquitectura dispositivo ICC.
157
158
5.7.4.
Realizaci
on de los Casos de Uso.
La realizaci
on de los Casos de Uso muestran como interact
uan las instancias de las
clases de analisis para realizar la funcionalidad del sistema. Representan la Vista Dinamica
del comportamiento del sistema, identicando a alto nivel las relaciones entre las clases de
an
alisis, operaciones y atributos.
La descripci
on de la Realizacion de los Casos de Uso se lleva a cabo mediante
los Diagramas de Interacci
on, de entre los cuatro tipos existentes7 se han escogido los
diagramas de secuencia como va de documentaci
on de la aplicaci
on de demostracion,
debido a su facilidad de comprensi
on, as en las guras 5.15 a 5.16 se muestra la realizacion
de los casos de uso anteriores con las clases de analisis consideradas.
Figura 5.14: Diagrama de secuencia del caso de uso Puesta en marcha del sistema.
7
UML 2.0 re
une los diagramas de: Secuencia, Comunicaci
on, Tiempo y Visi
on de Interacci
on, dentro
del tipo de Diagramas de Interacci
on.
5.7 Descripci
on de arquitectura dispositivo ICC.
159
160
Captulo 6
An
alisis y discusi
on de los
resultados experimentales.
En este captulo se presentan, analizan y discuten los resultados obtenidos
con los clasicadores descritos en el captulo 4, empleando los registros de se
nal
electroencefalograca adquiridos a traves de los procedimientos experimentales descritos
en el captulo 5, que a su vez aplican las tecnicas de adquisicion y procesamiento de se
nal
descritas en el captulo 3.
Tras analizar y comprobar que existe evidencia de diferencia estadstica entre las
poblaciones de los vectores de caractersticas, obtenidos cuando los sujetos de los
experimentos realizan las actividades cognitivas propuestas, se procede a comprobar que
dicha diferencia estadstica se mantiene aplicando la tecnica de Analisis Discriminativo
Lineal, lo que permite proceder a la reducci
on de la dimensionalidad del espacio de entrada
en clasicadores basados en redes neuronales de los tipos MLP, RBF y PNN. Finalmente
se analizan y discuten los resultados obtenidos con clasicadores de mayor complejidad,
como clasicadores bietapa basados en redes neuronales y modelos ocultos de Markov,
as como clasicadores basados en maquinas de soporte de vectores.
Como conclusion, el an
alisis de los resultados experimentales obtenidos muestra que
los ndices de clasicacion m
as altos se obtienen con maquinas de soporte de vectores, con
Kernels polin
omicos de orden 4, empleando las ventanas de procesamiento de Tukey.
6.1.
Resultados del m
etodo estadstico de comparaci
on de
poblaciones.
162
An
alisis y discusi
on de los resultados experimentales.
6.1.1.
Presentaci
on de resultados.
6.1.2.
An
alisis.
El an
alisis de las guras 6.1 y 6.2 muestra la existencia de diferencia estadstica, entre
las poblaciones de caractersticas extradas de la muestras de se
nal electroencefalograca,
2
cuando el usuario realiza diferentes actividades cognitivas. As mismo se observa que,
siendo el voluntario analizado diestro, la mayor capacidad de discriminacion se obtiene en
el segundo canal electroencefalograco, asociado a C4 - C4 (hemisferio cerebral derecho),
lo que muestra una elevada lateralidad cerebral.
Estudiando cada una de las comparaciones de parejas de actividades cognitivas se
observa que:
Comparando C
alculo matem
atico con Imaginaci
on de movimiento, vease lado
superior izquierdo de las guras 6.1 y 6.2, se comprueba que las ventanas de
procesamiento de tipo Tukey, Kaiser y rectangular, son las que presentan mayor
evidencia de diferencia estadstica en la comparaci
on de las poblaciones de los
vectores de caractersticas en ambos hemisferios. As mismo se observa que para todos
los tipos de ventanas de procesamiento, las componentes del vector de caractersticas
con mayor poder de discriminaci
on son 1 y 2 .
Analizando C
alculo matem
atico frente a Realizaci
on de movimiento, vease zona
superior central de las guras 6.1 y 6.2, se observa que las ventanas de procesamiento
con mayor n
umero de componentes signicativas son las de Blackman, Hanning y
Tukey, ya que presentan caractersticas signicativas tanto en el hemisferio izquierdo
como en el derecho. Por otro lado las componentes con mayor relevancia en la
discriminaci
on de actividades son 1 y 2 .
1
Este valor es equivalente a la suma de caractersticas que muestran diferencia estadstica, divido por
el n
umero de veces que el experimento ha sido replicado, N = 10.
2
N
otese que a efectos experimentales se ha considerado tanto la Imaginaci
on de movimiento como
la Realizaci
on de movimiento, aunque est
au
ltima actividad no deba ser considerada en dispositivos de
Interfaz Cerebro Computador.
163
Analizando C
alculo matem
atico frente a Relax, vease parte superior derecha de
las guras 6.1 y 6.2, se observa que las ventanas de procesamiento mas signicativas
son las de Tukey y rectangular; mientras que las componentes del vector de
caractersticas con mayor poder de discriminaci
on son 1 seguida de 2 y 3 .
Del estudio de Imaginaci
on de movimiento frente a Relax, vease parte
inferior izquierda de las guras 6.1 y 6.2, se observa que la ventana rectangular
164
An
alisis y discusi
on de los resultados experimentales.
165
6.1.3.
Discusi
on.
166
An
alisis y discusi
on de los resultados experimentales.
Del an
alisis de las ventanas de procesamiento, los mejores resultados se obtienen con
las ventanas de Tukey, Kaiser y rectangular. Las dos primeras son las que menos distorsion
en frecuencia ocasionan sobre la se
nal que enmarcan. Por su parte la ventana rectangular,
al tener una extensi
on igual al n
umero de datos considerados en la FFT, N = 27 , minimiza
el efecto de fuga en el dominio frecuencial, ya que considera que la se
nal, es la repetici
on
peri
odica de la ventana de an
alisis considerada. El resto de las ventanas suavizan los bordes
de la ventana de an
alisis en el dominio temporal, aunque en menor grado, obteniendose
los peores resultados con la ventana de tipo triangular o de Bartlett.
En la comparaci
on de la actividad de Relax en sesiones diferentes, zona inferior derecha de las guras 6.1 y 6.2, se detectan falsos positivos debido a la captaci
on de ruido en
la se
nal electroencefalograca de entrada. Observese que la ventana de Tukey no muestra
diferencia para el hemisferio izquierdo, detectandose solo la componente 2 , en el hemisferio derecho, como falso positivo.
Considerando las caractersticas que presentan una mejor capacidad de discriminaci
on,
se observa que la banda mas signicativa comprende a las componentes 2 , 1 y 2 ,
observ
andose una mayor signicaci
on en aquellas componentes cercanas a la zona de
inuencia del ritmo , en las comparaciones que involucran actividades en las que se
emplea imaginaci
on o realizaci
on de movimiento.
6.1.4.
Conclusiones.
Del an
alisis y discusion de los resultados de las pruebas presentadas en el apartado
6.1.2, empleando tests estadsticos de comparacion bilateral de poblaciones, descritos en
la seccion 4.1, se obtienen las siguientes conclusiones:
1. Un clasicador que discriminara entre actividad matem
atica e imaginaci
on de
movimiento debera considerar en la fase de ltrado y acondicionamiento de la
se
nal electroencefalograca ventanas de tipo Tukey y considerar al menos las
caractersticas 2 , 1 y 2 . Es importante destacar que la ventana de Tukey minimiza
el n
umero de falsos positivos, por lo que es mas robusta que otros tipos de ventanas.
2. En los test llevados a cabo, el canal localizado en C4-C4 es mas signicativo que
el formado por C3-C3.
6.2.
167
6.2.1.
Presentaci
on de resultados.
3
Los resultados, an
alisis y conclusiones acerca de LDA han sido presentados en [Martnez 07] y
[Martinez 09].
4
Vease el apartado 4.1 del captulo 4.
168
An
alisis y discusi
on de los resultados experimentales.
169
170
An
alisis y discusi
on de los resultados experimentales.
171
172
An
alisis y discusi
on de los resultados experimentales.
173
174
6.2.2.
An
alisis y discusi
on de los resultados experimentales.
An
alisis.
6.2.3.
Discusi
on.
Por lo general, para los dos tipos de experimentos, todas las ventanas de ltrado
muestran evidencia de diferencia estadstica entre las actividades cognitivas propuestas;
los mejores resultados, representados por niveles crticos p mas altos y menor dispersi
on,
son obtenidos para X1 con las ventanas de Tukey y Kaiser. De los resultados numericos se
observa que cuanto mayor es la magnitud del autovalor, caso de X1 , mayor es la aportacion
de una de las componentes del vector de caractersticas original, normalmente en la banda
de frecuencia , por el contrario, cuanto menor es el autovalor, mayor es la contribuci
on
del resto de los componentes del autovector.
As mismo se observa que, la presencia de artefactos es mayor para los experimentos
On-line que para los experimentos O-line.
Por otra parte, para los sujetos analizados, se conrma que le hemisferio derecho
presenta una capacidad de discriminaci
on superior a la del hemisferio izquierdo, excepto
cuando, empleando las actividades cognitivas de C
alculo matem
atico e Imaginaci
on de
movimiento, al sujeto se le realimenta informaci
on sobre el resultado de la clasicaci
on;
lo que conrma lo indicado en el apartado 6.1.3 acerca de la especializaci
on del
funcionamiento de cada hemisferio.
6.2.4.
175
Conclusiones.
Del an
alisis y discusion de los resultados de las pruebas presentadas en el apartado
6.2.2, basado en la utilizaci
on de la tecnica de Analisis Discriminatorio Lineal, se obtienen
las siguientes conclusiones:
1. Estadsticamente se ha probado que a traves del uso de la tecnica LDA es posible
reducir la dimensionalidad del espacio de caractersticas de entrada original, a la
vez que la capacidad de discriminaci
on entre las actitividades cognitivas propuestas
se mantiene, permitiendo as el control de dispositivos externos por medio de la
asociacion de dichas tareas a comandos del dispositivo.
2. De los resultados de experimentos On-line y O-line llevados a cabo con cinco
voluntarios se concluye que, la realimentaci
on del resultado de la clasicaci
on al
usuario provoca una disminuci
on de la capacidad de discriminaci
on, pero sin llegar a
comprometer su uso en dispostivos ICC en lnea, conclusiones tambien conrmadas
en [Pineda 03].
3. Se demuestra que las ventanas de procesamiento de tipo Tukey y rectangular mejoran
la capacidad de discriminaci
on entre las actividades cognitivas consideradas.
176
6.3.
An
alisis y discusi
on de los resultados experimentales.
6.3.1.
Presentaci
on de resultados.
Las guras siguientes resumen los resultados obtenidos, con cinco voluntarios, tras la
aplicaci
on de los clasicadores una vez han sido entrenados con las muestras adquiridas.
En el eje de ordenadas se muestran los porcentajes de clasicaciones correctas obtenidos de
las matrices de confusi
on, ve
ase apendice B, aplicadas a cada uno de los tres clasicadores.
N
otese que la escala ha sido divida a efectos de apreciar la dispersi
on de los resultados.
En el eje de abcisas se muestran los diferentes tipos de ventanas de preprocesamiento
considerados.
A efectos de mostrar la dispersion en los valores obtenidos, para cada clasicador y
tipo de ventana de procesamiento se muestra una barra con los porcentajes de clasicaci
on
maximo, mnimo y valor de la mediana. As mismo se representan los resultados obtenidos
para las dos modalidades de clasicadores.
177
178
An
alisis y discusi
on de los resultados experimentales.
179
180
An
alisis y discusi
on de los resultados experimentales.
181
182
An
alisis y discusi
on de los resultados experimentales.
183
184
An
alisis y discusi
on de los resultados experimentales.
6.3.2.
185
An
alisis.
6.3.3.
Discusi
on.
186
An
alisis y discusi
on de los resultados experimentales.
As mismo, en lnea con lo discutido en los apartados 6.1.3 y 6.2.3, se observa que los
resultados obtenidos con el clasicador basado en redes RBF presenta mejores resultados
para el hemisferio derecho que para el izquierdo.
Por otro lado, la variabilidad de resultados entre los clasicadores basados en redes
neuronales de tipo PNN y los basados en redes neuronales de tipo RBF, se debe no tanto a
la estructura intrnseca de ambas redes neuronales, muy pr
oximas entre s, tal y como puede
verse en los apartados 4.3.2 y 4.3.3, sino al proceso de aprendizaje y n
umero de neuronas
considerados en la capa oculta. Mientras que para las redes neuronales RBF el n
umero de
neuronas se determina incrementalmente mediante el proceso de aprendizaje, para las redes
neuronales PNN este n
umero se determina a partir del n
umero de elementos considerados
en el conjunto de entrenamiento, dando lugar a que las redes neuronales de tipo PNN
tengan mas neuronas en la capa oculta que las redes neuronales de tipo RBF, lo que a su
vez provoca un mayor sobre-aprendizaje del conjunto de entrenamiento, caraterizado por
un porcentaje mayor en el n
umero de clasicaciones correctas sobre dicho conjunto, pero
tambien una menor capacidad de generalizaci
on sobre los conjuntos de validaci
on y test.
6.3.4.
Conclusiones.
Del an
alisis y discusion de los resultados de las pruebas realizadas con cinco voluntarios,
presentados en el apartado 6.3.2, empleando clasicadores basados en redes neuronales
descritos en la seccion 4.3, se obtienen las siguientes conclusiones:
1. Es factible la discriminaci
on entre las actividades cognitivas propuestas, empleando
los registros de se
nal electroencefalograca provenientes de los canales C3-C3 y
C4-C4.
2. Es preferible el empleo de un clasicador en cuya arquitectura se empleen dos redes
neuronales diferentes, especializadas respectivamente en cada uno de los dos canales
de se
nal electroencefalograca, siendo sus resultados evaluados en un ponderador
que otorgue mayor peso a la red asociada al hemisferio derecho.
3. Se recomienda la utilizaci
on de ventanas de procesamiento de Tukey o Kaiser, ya
que dan lugar a un porcentaje mayor de clasicaciones correctas.
6.4.
Resultados obtenidos con clasicadores bietapa basados en redes neuronales y Modelos Ocultos de Markov.
En la secci
on anterior se mostraron los resultados de clasicacion conseguidos con
diferentes topologas y arquitecturas de redes neuronales. En esta secci
on se presentan,
analizan y discuten los resultados obtenidos tras la aplicacion del clasicador bietapa,
descrito en el apartado 4.4.6, a las muestras de se
nal electroencefalograca provenientes
de seis sesiones realizadas con cinco voluntarios diestros, siguiendo el procedimiento
experimental O-line del captulo 5.
Como se describe en el apartado 4.4.6, el clasicador implementado emplea en una
primera etapa de clasicaci
on una red neuronal de tipo RBF, ya que como se muestra en
el punto 6.3.2 anterior, esta da lugar a un elevado porcentaje de aciertos, semejante al
maximo obtenido con las redes neuronales de tipo PNN, pero con menor dispersi
on. En
una segunda etapa se compara la secuencia de preclasicaciones proveniente de la etapa
anterior con tres modelos de Markov, entrenados cada uno de ellos con secuencias de
preclasicaciones provenientes de cada una de las actividades cognitivas, la presecuencia
es asignada a la actividad cognitiva cuyo Modelo Oculto de Markov de lugar a una mayor
alisis anteriores acerca de la
probabilidad de observaci
on.5 As mismo, considerando los an
inuencia del tipo de ventana de preprocesamiento en la clasicaci
on, veanse apartados
6.1.2 y 6.2.2, en la implementaci
on del clasicador se han empleado ventanas de tipo Tukey.
Una primera estimacion del efecto de entrenamiento en el usuario puede ser extrada de
la comparaci
on de los resultados de las dos sesiones realizadas por el mismo voluntario.
6.4.1.
Presentaci
on de resultados.
188
An
alisis y discusi
on de los resultados experimentales.
6.4.1.2.
Evaluaci
on de la capacidad de generalizaci
on.
Sc = 0,5
= 0,65
94
103
103
4 % 14 % 14 %
Sc = 0,95
= 0,55
94
81
87
4 % -10 % -3 %
Sc = 0,5
= 0,55
93
92
87
3 % 2 % -3 %
Sc = 0,95
= 0,80
86
97
81
-4 % 8 % -10 %
Sc = 0,5
= 0,65
103
97
92
14 % 8 % 2 %
Sc = 0,95
= 0,55
118
109
118
31 % 21 % 31 %
Sc = 0,5
= 0,55
97
87
86
8 % -3 % -4 %
Sc = 0,95
= 0,80
117
106
110
30 % 18 % 22 %
Sc = 0,5
= 0,65
106
97
110
18 % 8 % 22 %
Sc = 0,95
= 0,55
87
90
107
-3 % 0 % 19 %
Sc = 0,5
= 0,55
99
106
107
10 % 18 % 19 %
Sc = 0,95
= 0,80
98
108
99
9 % 20 % 10 %
Sc = 0,5
= 0,65
109
102
104
21 % 13 % 15 %
Sc = 0,95
= 0,55
83
92
92
-8 % 2 % 2 %
Sc = 0,5
= 0,55
106
91
110
18 % 1 % 22 %
Sc = 0,95
= 0,80
86
87
92
-4 % -3 % 2 %
Sc = 0,5
= 0,65
106
97
110
18 % 8 % 22 %
Sc = 0,95
= 0,55
87
90
107
-3 % 0 % 19 %
Sc = 0,5
= 0,55
99
106
107
10 % 18 % 19 %
Sc = 0,95
= 0,80
91
76
99
1 % -15 % 10 %
Sc = 0,5
= 0,65
102
102
98
13 % 13 % 8 %
Sc = 0,95
= 0,55
102
107
114
13 % 19 % 26 %
Sc = 0,5
= 0,55
103
105
96
14 % 16 % 6 %
Sc = 0,95
= 0,80
116
99
98
29 % 10 % 9 %
6.4.2.
An
alisis.
6.4.3.
Discusi
on.
La dispersi
on de m
aximos en los valores de clasicaciones correctas obtenidos en
las pruebas de validaci
on cruzada, indican que la combinaci
on de los par
ametros
y Sc es dependiente del usuario, por lo que para un dispositivo ICC que utilice un
algoritmo de este tipo, se debera prever al menos una fase de sintonizacion que permitiera
ajustar estos par
ametros. Si bien es cierto que el algoritmo se comporta mejor que un
clasicador equiprobable, su comportamiento no es todo lo optimo que cabra esperar
considerando su capacidad de aprendizaje, observ
andose un sobre-aprendizaje del conjunto
de entrenamiento. El tama
no del conjunto de datos de entrenamiento es determinante
en los resultados obtenidos en la fase de ejecuci
on. El efecto de sobre-aprendizaje se
minimizara aumentando el conjunto de datos disponibles para el entrenamiento.
6.4.4.
Conclusiones.
Del an
alisis y discucion anteriores, empleando clasicadores bietapa basados en redes
neuronales de tipo RBF y Modelos Ocultos de Markov descritos en la seccion 4.4.6, se
obtienen las siguientes conclusiones:
1. La informaci
on contenida en la secuencia de asignaciones mejora la capacidad de
clasicacion, siendo los modelos ocultos de Markov una tecnica valida para la
extraccion y utilizaci
on de dicha informaci
on.
2. Los par
ametros de ajuste del algoritmo, y Sc, han de modicarse en funci
on
del usuario, ya que inuyen notoriamente en la capacidad de generalizaci
on y
clasicacion del algoritmo, por lo que se precisa un proceso previo de optimizaci
on
que determine el valor de dichos par
ametros.
190
6.5.
An
alisis y discusi
on de los resultados experimentales.
Se han seleccionado estos valores con el proposito de evaluar la inuencia que, tanto su
magnitud, como la forma de la funci
on Kernel a la que dan lugar6 , tienen tanto sobre
el porcentaje de clasicaciones correctas obtenido, como sobre el n
umero de vectores
soporte seleccionados. As mismo destacar que, un clasicador basado en funciones Kernel
polin
omicas de orden 1 dara lugar a un clasicador lineal.
6.5.1.
Presentaci
on de resultados.
A continuci
on se representan para los Kernels considerados, tanto los resultados de
porcentajes de clasicaciones correctas, como el n
umero de vectores soporte seleccionados
del total del conjunto de entrenamiento. Por u
ltimo, para cada tipo de Kernel, se
muestra una familia de gracas donde se representa la correlaci
on entre el porcentaje de
clasicaciones correctas y vectores soporte, considerando los diferentes tipos de ventanas
de procesamiento.
6.5.1.1.
N
umero de vectores soporte frente a par
ametros del Kernel.
Las guras 6.34 a 6.37, muestran los resultados de porcentaje de vectores soporte
seleccionados en el clasicador, en funcion de los par
ametros considerados para los
diferentes tipos de funciones Kernel.
6.5.1.3. Clasicaciones correctas frente a n
umero de vectores soporte.
Por u
ltimo en las guras 6.38 a 6.53 se representan para ambos canales: C1 y
C2, el porcentaje de clasicaciones correctas en funci
on del porcentaje del n
umero de
vectores soporte seleccionados, considerando tanto los diferentes tipos de ventanas de
preprocesamiento, como los valores de parametrizacion de las funciones Kernel. As mismo
se muestra una tabla con los valores numericos de valores medios y desviaciones tpicas
obtenidos en cada caso.
Al igual que en el apartado anterior, se representa tanto el valor medio como la
desviacion tpica asociada a ambos porcentajes, por lo que en lugar de utilizar diagrama
de cajas se utiliza una elipse para cada tipo de ventana de preprocesamiento, su centro
representa el valor medio, mientras que los diametros horizontal y vertical muestran,
respectivamente, las desviaciones tpicas de los porcentajes del n
umero de vectores soporte
y clasicaciones correctas.
A diferencia de los apartados anteriores, la representaci
on para Kernels polin
omicos
de grado 5 o superior no se realiza, ya que como se muestra en las guras 6.36 y 6.37 se
obtiene la pr
actica totalidad de clasicaciones correctas con Kernels polinomicos de grado
4, salvo casos excepcionales.
192
An
alisis y discusi
on de los resultados experimentales.
194
An
alisis y discusi
on de los resultados experimentales.
196
An
alisis y discusi
on de los resultados experimentales.
Tabla 6.8: Resultados Kernel gaussiano (P:1).
Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey
(vs)
100.00
97.50
98.17
98.33
98.17
99.67
99.67
C1
(vs (cc)
0.1 96.87
3.90 95.96
3.61 95.90
3.39 96.18
3.61 95.90
0.78 96.77
0.78 96.75
(cc)
10.85
10.45
10.10
10.25
10.10
10.83
11.04
(vs)
100.00
97.92
98.75
98.75
98.75
100.00
100.00
C2
(vs) (cc)
0.1
96.81
2.75 96.93
1.66 96.89
1.66 96.82
1.66 96.89
0.10 96.81
0.10 96.81
(cc)
11.06
10.10
10.01
10.50
10.01
11.06
11.06
Figura 6.38: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=1.
Figura 6.39: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=1.
Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey
(vs)
99.75
84.67
88.50
90.33
88.58
96.92
98.58
C1
(vs (cc)
0.62 96.88
10.89 93.49
8.23 93.67
7.08 94.48
8.28 93.65
3.82 96.70
2.97 96.33
(cc)
10.64
10.38
10.20
9.87
10.22
9.28
10.46
(vs)
100.00
85.25
88.08
90.17
88.08
97.75
99.08
C2
(vs) (cc)
0.10 96.90
11.26 96.15
9.05 96.11
7.63 96.50
9.05 96.13
2.26 97.12
1.24 96.98
(cc)
10.74
9.19
9.19
9.20
9.18
9.93
10.45
Figura 6.40: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=2.
Figura 6.41: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=2.
198
An
alisis y discusi
on de los resultados experimentales.
Tabla 6.10: Resultados Kernel gaussiano (P:3).
Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey
(vs)
98.83
77.08
81.00
80.92
80.08
91.00
94.17
C1
(vs (cc)
2.08 96.84
17.50 89.84
14.89 90.74
14.18 91.54
15.10 90.82
6.58 95.68
4.88 95.59
(cc)
9.77
12.78
11.90
11.69
11.83
8.84
10.17
(vs)
98.67
74.92
77.83
79.17
77.92
91.08
94.08
C2
(vs) (cc)
1.92 97.17
17.39 92.92
16.04 93.59
15.26 95.03
16.06 93.63
5.99 96.58
5.12 96.80
(cc)
9.81
10.36
10.61
9.85
10.58
9.28
9.75
Figura 6.42: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=3.
Figura 6.43: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=3.
Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey
(vs)
89.67
77.50
78.08
77.00
78.17
78.75
81.58
C1
(vs (cc)
7.08 95.83
17.83 81.03
16.98 83.53
17.79 84.78
16.88 83.59
15.48 91.41
13.48 92.60
(cc)
9.49
14.47
13.87
14.11
13.87
11.32
11.23
(vs)
89.75
75.08
75.42
74.67
75.42
76.67
79.67
C2
(vs) (cc)
7.82 97.03
17.87 83.88
18.08 85.78
18.22 86.89
18.08 85.82
15.98 94.52
14.48 95.13
(cc)
8.60
11.78
12.10
11.52
12.13
10.00
10.44
Figura 6.44: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=5.
Figura 6.45: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=5.
200
An
alisis y discusi
on de los resultados experimentales.
Tabla 6.12: Resultados Kernel gaussiano (P:10).
Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey
(vs)
74.67
85.33
84.00
83.25
84.00
78.58
76.83
C1
(vs (cc)
19.06 88.08
14.15 65.71
14.81 67.94
15.27 68.29
14.81 67.97
17.80 78.27
18.36 81.55
(cc)
13.56
13.86
14.00
13.68
13.96
14.75
15.19
(vs)
74.25
83.08
82.33
80.83
82.33
76.00
75.00
C2
(vs) (cc)
18.48 91.52
16.30 69.52
17.12 72.38
17.31 73.68
17.12 72.48
17.65 81.22
17.70 85.46
(cc)
11.03
11.93
12.24
11.95
12.24
12.00
11.85
Figura 6.46: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel gaussiano P=10.
Figura 6.47: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel gaussiano P=10.
Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey
(vs)
69.33
75.83
77.42
76.33
77.42
73.50
73.67
C1
(vs (cc)
18.97 66.63
19.08 61.20
19.64 60.99
19.46 61.20
19.64 60.97
19.57 63.51
19.18 62.78
(cc)
15.51
11.59
9.95
9.71
9.95
11.89
10.79
(vs)
71.83
72.50
73.50
72.50
73.42
71.33
72.67
C2
(vs) (cc)
20.85 67.47
20.30 67.71
20.02 66.93
20.59 67.42
20.10 66.95
20.50 66.59
21.01 65.92
(cc)
13.96
12.16
12.44
13.04
12.42
13.14
11.33
% Clasificaciones correctas.
75
70
65
60
55
55
60
65
70
75
% Vectores soporte.
80
85
90
Figura 6.48: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel polin
omico P=2.
Canal 2. Kernel polinomico, n=2
80
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.
% Clasificaciones correctas.
75
70
65
60
55
55
60
65
70
75
% Vectores soporte.
80
85
90
Figura 6.49: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel polin
omico P=2.
202
An
alisis y discusi
on de los resultados experimentales.
Tabla 6.14: Resultados Kernel polin
omico (P:3).
Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey
(vs)
56.00
57.17
57.58
56.58
57.58
54.67
55.75
C1
(vs (cc)
15.62 85.54
13.97 85.08
13.63 87.26
13.41 85.25
13.66 85.83
14.59 85.81
15.11 85.83
(cc)
11.81
11.59
9.82
10.80
10.91
11.43
11.06
(vs)
55.92
56.50
57.58
56.58
57.58
54.58
54.75
C2
(vs) (cc)
16.75 86.57
15.44 85.40
15.38 85.51
15.56 85.02
15.38 85.51
15.64 86.98
16.73 85.57
(cc)
12.48
12.61
12.82
12.77
12.82
12.30
13.03
92
% Clasificaciones correctas.
90
88
86
84
82
80
78
76
46
48
50
52
54
56
58
% Vectores soporte.
60
62
64
66
Figura 6.50: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel polin
omico P=3.
Canal 2. Kernel polinomico, n=3
94
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.
92
% Clasificaciones correctas.
90
88
86
84
82
80
78
76
46
48
50
52
54
56
58
% Vectores soporte.
60
62
64
66
Figura 6.51: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel polin
omico P=3.
Canal:
Ventana:
Rectangular
Triangular
Blackman
Hamming
Hanning
Kaiser
Tukey
C1
(vs)
45.25
48.00
49.67
47.83
49.75
45.25
45.50
(vs
10.52
10.79
12.02
10.14
12.11
9.28
9.96
C2
(cc)
100.00
99.40
99.27
99.53
99.27
99.96
99.98
(cc)
0.10
1.35
1.58
1.22
1.58
0.14
0.10
(vs)
45.00
45.42
46.25
45.25
46.17
44.33
43.25
(vs)
11.36
8.20
9.56
8.41
9.49
9.03
10.90
(cc)
96.58
99.94
100.00
100.00
100.00
100.00
96.26
(cc)
11.84
0.20
0.10
0.10
0.10
0.10
12.96
% Clasificaciones correctas.
100.5
100
99.5
99
98.5
98
40
42
44
46
48
% Vectores soporte.
50
52
54
56
Figura 6.52: Clasicaciones Correctas vs. Vectores Soporte. Canal 1. Kernel polin
omico P=4.
Canal 2. Kernel polinomico, n=4
Rect.
Trian.
Black.
Hamm.
Hann.
Kaiser
Tukey.
102
% Clasificaciones correctas.
100
98
96
94
92
90
38
40
42
44
46
% Vectores soporte.
48
50
52
Figura 6.53: Clasicaciones Correctas vs. Vectores Soporte. Canal 2. Kernel polin
omico P=4.
204
An
alisis y discusi
on de los resultados experimentales.
6.5.2.
An
alisis.
De la inspecci
on de los resultados obtenidos con los clasicadores basados en Kernels
gaussianos se observa que:
Conforme se aumenta la extension de la zona de inuencia de la funci
on Kernel: 1,
2, 3, 5 y 10; el porcentaje de clasicaciones correctas disminuye, con independencia
tanto del canal como del tipo de ventana de procesamiento, pasando de un 100 % de
clasicaciones correctas para n=1 con cualquier tipo de ventana de preprocesameinto
a valores comprendidos entre el 80 % - 90 % en el caso de ventanas de tipo rectangular,
Kaiser y Tukey, o 65 % - 75 % para el resto de ventanas de preprocesamiento, cuando
se consideran clasicadores con funciones Kernel gaussianas con n=10.
Conforme aumenta el par
ametro de la funci
on Kernel, el porcentaje de vectores
soporte considerados disminuye, pasando del 100 % del conjunto de datos de
entrenamiento para n=1, a valores comprendidos entre el 74 % - 85 % dependiendo del
tipo de ventana de preprocesamiento, al igual que para el porcentaje de clasicaciones
correctas, los valores menores se obtienen con ventanas de tipo rectangular, Kaiser
y Tukey, obteniendose la menor variabilidad para ventanas de Kaiser.
El mismo tipo de an
alisis llevado a cabo sobre los clasicadores basados en Kernels
polin
omicos muestra que:
Al aumentar el orden del polinomio aumenta el n
umero de clasicaciones correctas,
a la vez que disminuye el porcentaje de vectores soporte, llegandose a obtener un
100 % de clasicaciones correctas con Kernels polinomicos de orden 4 o superior, para
Kernels de orden 4 se obtiene un 100 % de clasicaciones correctas con ventanas de
preprocesamiento de tipo rectangular, Kaiser y Tukey, ver guras 6.32 y 6.33.
Para Kernels de orden 4 o superior el porcentaje de vectores soporte seleccionados se
estabiliza entre el 45 % - 50 % dependiendo del tipo de ventana de preprocesamiento,
los valores menores se obtienen para ventanas de tipo rectangular, Kaiser, Tukey
(ver guras 6.36, 6.37, 6.52, 6.53), volviendose a obtener la menor variabilidad para
ventanas de Kaiser.
Realizando una comparaci
on entre los resultados obtenidos con clasicadores cuya
informaci
on proviene del canal C3-C3 frente a los del C4-C4, se observa que
el segundo muestra un mejor comportamiento al presentar porcentajes ligeramente
mayores de clasicaciones correctas con menores porcentajes de vectores soporte que
los mostrados por sus homologos en C3-C3, ver guras 6.30 y 6.31, 6.32 y 6.33.
6.5.3.
Discusi
on.
6.5.4.
Conclusiones.
Del an
alisis y discusion de los resultados de las pruebas realizadas con cinco voluntarios,
presentados en los apartados anteriores, empleando clasicadores basados en MSV
descritas en la seccion 4.5.5, se obtienen las siguientes conclusiones:
1. Es preferible la utilizaci
on de Kernels polin
omicos a Kernels gaussianos.
2. La arquitectura del clasicador a emplear debera emplear Kernels polin
omicos
de orden 4 o 5 ( 5 con la nalidad de aumentar la conanza en la capacidad de
generalizaci
on del mismo, mas no de orden superior, ya que no se aprecia mejora
signicativa), utilizando una ventana de preprocesamiento de tipo Kaiser, Tukey o
rectangular.
206
6.6.
An
alisis y discusi
on de los resultados experimentales.
Corolario.
Captulo 7
Conclusiones.
208
Evaluaci
on de las diferentes tecnicas de clasicacion con experimentos realizados
por sujetos reales, a n de evaluar la aplicaci
on de esta tecnologa en el control de
dispositivos externos genericos, lo que permite concluir que:
Es factible el empleo de la tecnologa de Interfaz Cerebro Computador, bajo el
paradigma de sistema end
ogeno, empleando un n
umero mnimo de electrodos
superciales localizados sobre las zonas encefalicas con mayor poder de
discriminaci
on; estando en lnea con lo expuesto en [Alarcon 00], [Gazzaniga 92]
y [Jessell 97], entre otros.
El empleo de ventanas de procesamiento de tipo Tukey, Kaiser o rectangular de
duraci
on equivalente al tama
no de la FFT de procesamiento empleada, mejora
la capacidad de discriminaci
on; un estudio detallado sobre este punto puede
encontrarse en [Martnez 06].
La banda frecuencial con mayor capacidad de discriminaci
on comprende a
las componentes y , coincidiendo con los ritmos de des-sincronizacion
y posterior sincronizacion asociados a la planicaci
on de movimiento; lo cual
esta en lnea con lo expuesto en [Pfurtscheller 03].
El hemisferio cerebral derecho presenta una mayor capacidad de discriminaci
on.
Es posible reducir la dimensi
on del espacio de caractersticas, realizando una
combinaci
on de las mismas, sin que esto de lugar a una perdida de la capacidad
de discriminaci
on. Un an
alisis detallado sobre esta conclusion ha sido presentada
en [Martnez 07].
Los clasicadores basados en redes neuronales de tipo PNN o RBF presentan
un mejor comportamiento que clasicadores basados en redes neuronales
de tipo MLP, tanto desde el punto de vista de clasicaciones correctas
conseguidas, como estabilidad de las mismas. La descripci
on pormenorizada
de esta conclusion ha sido descrita en [Martnez 08]
Un clasicador basado en un algoritmo bi-etapa RBF-HMM tiende a sobreaprender el conjunto de datos de entrenamiento, presentando una muy buena
capacidad de aprendizaje, pero una reducida generalizaci
on; por lo que se
recomienda el uso de dicho clasicador cuando exita una elevada cantidad
de informaci
on que pueda ser empleada durante el aprendizaje, por ejemplo
registros electroencefalogracos de varias horas de duraci
on. La descripci
on
detallada tanto del algoritmo de clasicaci
on, como los resultados y conclusiones
extraidos de su aplicaci
on pueden encontrarse en [Martinez 10].
El clasicador vasado en M
aquina de Soporte de Vectores con Kernel polin
omico
de orden 4 y ventana de procesamiento de tipo Tukey es el que mejores resultado
de clasicacion aporta.
La realimentaci
on del resultado de la clasicaci
on al usuario ocasiona una
disminuci
on de la capacidad de discriminaci
on, en lnea con lo expuesto en
on detallada de esta conclusi
on ha sido expuesta en
[Pineda 03], la descripci
[Martinez 09].
7.2.
209
Futuros desarrollos.
Con la aplicaci
on de demostracion desarrollada seg
un lo expuesto en la secci
on 5.7
bajo el paradigma de dispositivo end
ogeno empleando un mnimo n
umero de electrodos
superciales, es posible analizar y evaluar la aplicabilidad de un dispositivo basado en la
tecnologa ICC a una persona y anticipar una estimaci
on de los resultados obtenibles.
Las actuales lneas de investigaci
on existentes sobre ICC daran respuesta a las carencias
que esta tecnologa presenta hoy da para una utilizaci
on masiva de la misma, como por
ejemplo el desarrollo e implantaci
on de un algoritmo de clasicacion seguro que permita
una adaptaci
on continua al usuario, que considere el efecto que el cansancio y otros tipos
de factores psicol
ogicos causan sobre la capacidad de producci
on de los patrones cerebrales
del usuario.
Para que la tecnologa ICC pase de la fase de demostracion tecnologica a ser una
realidad en la vida diaria, se precisa que el modo de operaci
on del clasicador pueda ser
supervisado por parte del usuario, deciendo este cuando el dispositivo se encuentra activo,
en estado de reposo, o en fase de aprendizaje y adaptaci
on. Para ello es preciso que se
desarrollen estudios a mas largo plazo, que consideren la interacci
on entre el dispositivo
y el usuario. Estos estudios requerir
an la creacion de equipos multidisciplinares, donde se
considere el desarrollo de este tipo de tecnologa a nivel global, no s
olo desde un punto
de vista de ingeniera, considerando aspectos neurol
ogicos y psicologicos, como los efectos
que el aprendizaje por parte del usuario en el uso de un determinado tipo de dispositivo
ICC causaran sobre su capacidad de clasicaci
on.
La evaluacion de la ergonoma en la usabilidad del dispositivo tambien es de gran
importancia, un dispositivo que sea ergon
omico en su empleo es mas comodo para el
usario, a la vez que evita que se produzcan lesiones o molestias en su empleo; as mismo
la consideraci
on de aspectos motivacionales por parte del usuario en el empleo de este
tipo de tecnologa son fundamentales, ya que esta tecnologa supone el desarrollo de un
nuevo canal de comunicacion, distinto a los utilizados conmunmente, lo que puede dar
lugar a que inicialemente en la fase de aprendizaje se produzcan en el usuario momentos
de frustraci
on ante la respuesta obtenida.
Por u
ltimo, pero no por ello menos importante, queda el aspecto comercial y econ
omico,
para que la tecnologa ICC alcance un nivel de implantaci
on elevado, es preciso que el
precio nal de comercializacion de este tipo de dispositivos sea admisible por parte del
usuario nal, en donde se ha de considerar tanto los costes de investigaci
on y desarrollo
como mantenimiento y reparaci
on. Actualmente esta tecnologa se encuentra en la fase de
demostracion tecnologica obteniendose resultados aceptables en escenarios de aplicacion
muy especcos.
210
Ap
endices
Ap
endice A
Adquisici
on de se
nal.
Las se
nales biol
ogicas, al igual que la gran mayora de se
nales presentes en la naturaleza,
son de car
acter anal
ogico lo que implica su continuidad en el tiempo y en los valores de su
amplitud; sin embargo los procesadores digitales operan sobre codigos discretos asociados
a determinados instantes de tiempo. La conversi
on anal
ogico/digital permite convertir un
tipo de se
nal en otro, conservando la mayor cantidad de informaci
on, idealmente la se
nal
analogica recuperada a partir de la se
nal digital debera ser una copia el de la se
nal
analogica de partida.
La conversion anal
ogico/digital contempla la realizaci
on de tres procesos distintos:
muestreo, cuanticaci
on y codicaci
on; a traves de los cuales la informacion de la se
nal se
convierte de un tipo a otro.
A.1.
Muestreo de se
nales.
El muestro de se
nal es un proceso lineal que transforma una se
nal continua en el tiempo
y de banda limitada, en una serie temporal de valores de amplitud en instantes discretos.
Si los instantes de tiempo en que se adquieren los valores de amplitud est
an equiespaciados
al muestreo se le denomina muestreo uniforme, siendo este el mas habitual.
Existen diferentes tipos de muestreos de se
nal:
Muestreo natural. La serie temporal de valores es un tren de impulsos cuya amplitud
queda modulada por el valor de la amplitud de la se
nal que se muestrea, lo que puede
interpretarse como el producto de se
nal de entrada por la se
nal muestreadora.
Sm (nT ) = S(t)m(t)
(A.1)
fM
2
(A.2)
214
Adquisici
on de se
nal.
n=+
S(nT )
n=
sen(2fM (t nT ))
2fM (t nT )
(A.3)
sen(2fM t
2fM t
(A.4)
se la denomina retenci
on cardinal, coincidiendo con la respuesta impulsional de un
ltro de paso bajo ideal.
Muestreo de se
nales pasabanda. Este tipo de muestreo se da en aplicaciones
industriales e instrumentacion, cuando la se
nal portadora se modula en amplitud
por la magnitud de interes, cuya frecuencia es mucho menor que la de la portadora.
Muestreo repetitivo secuencial. Cuando a priori se conoce que la se
nal que se
muestrea es repetitiva, se puede emplear este conocimiento para tomar muestras
de la se
nal en periodos diferentes. Se precisa de un punto de sincronismo y un
circuito de temporizaci
on que genere con respecto a dicho punto la base de tiempos
para la adquisici
on. En caso de no conocer el periodo de la se
nal original es preciso
determinarlo. Esta tecnica de submuestreo se emplea en osciloscopios digitales de
bajo coste y voltmetros digitales de precision.
A.2 Cuanticaci
on.
A.2.
215
Cuanticaci
on.
216
Adquisici
on de se
nal.
Dependiendo del n
umero de estados considerados, N , as sera la resolucion de
cuanticador, la cual se expresa en bits (n), N = 2n .
El margen de entrada, M , viene determinado por la diferencia entre los valores
maximo y mnimo aceptados a la entrada. Para los cuanticadores uniformes q es
constantes en todo el margen M , cumpliendose:
q=
M
2n
(A.5)
(A.7)
De d
onde se desprende que para reducir el valor del ruido hay que reducir
proporcionalmente el intervalo de cuanticaci
on, q. Reducci
on que queda limitada
por factores tecnologicos y el ruido asociado a los componentes electronicos.
La relacion se
nal / ruido (S/R), calculada como el cociente del valor ecaz de una
a:
se
nal senoidal de amplitud entre 0 y (2n 1/2)q y el ruido presente ser
S/R =
(2n 1/2)2 q 2 /2
= 6 22n para n > 4.
q 2 /12
(A.8)
(A.9)
A.3 Codicaci
on.
217
A.3.
Codicaci
on.
218
Adquisici
on de se
nal.
Ap
endice B
Matriz de confusi
on.
Para presentar los resultados de clasicacion obtenidos con la tras la aplicaci
on de un
Calculo matematico
60
0
0
Imaginaci
on movimento
0
65
0
Relax
0
0
55
Mientras que en la matriz de la tabla B.2 se observa que un tercio de las muestras
pertenecientes a C
alculo matem
atico son clasicadas de forma err
onea, con tendencia
a confundirlas con las muestras de la clase Relax. Por su parte todas las muestras de
Imaginaci
on de movimiento son catalogadas de forma correcta. Por u
ltimo, analizando
la clase Relax se observa que el n
umero de muestras consideradas es del orden de la
220
Matriz de confusi
on.
Calculo matematico
40
0
0
Imaginaci
on movimento
8
65
5
Relax
12
0
7
Real
()
(+)
Prediccion
() (+)
a
b
c
d
a es el n
umero de predicciones correctas para la clase de muestras negativas.
b es el n
umero de falsos positivos o muestras negativas clasicadas erroneamente.
c es el n
umero de falsos negativos o muestras positivas clasicadas como positivas.
d es el n
umero de predicciones correctas para la clase de muestras positivas.
Deniendose la siguiente terminologa:
Exactitud (E): porporci
on de clasicaciones correctas.
a+d
E=
a+b+c+d
Tasa de Verdaderos Positivos (TVP):
correctamente clasicadas.
d
TV P =
c+d
proporci
on
(B.1)
de
muestras
positivas
(B.2)
proporci
on de muestras negativas
(B.4)
Bibliografa
[Alarcon 00]
[Allen 77]
[Allison 03]
[Ambler 05]
[Areny 93]
[Arlow 05]
Jim Arlow & Ila Neustadt. Uml 2. Anaya Multimedia, Madrid, 2005.
[Arnao 97]
[Babiloni 00]
[Bai 01]
Ou Bai, M.Nakamura
& H. Shibasaki.
Compensation of hand
movement for patients by assistant force: relationship between human
hand movement and robot arm motion.
Neural Systems and
222
BIBLIOGRAF
IA
L. A. Geddes; L. E. Baker.
Principles of applied biomedical
instrumentation.
Wiley, New York ; Chichester, 1989.
L.A.
Geddes, L.E. Baker; .A Wiley-Interscience publication.; Includes
bibliographies.
[Barreno 97]
[Barreno 02]
[Baum 66]
[Baum 70]
[Bayliss 00]
[Bayliss 03]
[Bengio 96]
[Bianchi 03]
[Birbaumer 00]
BIBLIOGRAF
IA
223
[Birch 00]
[Birch 03]
G. E. Birch, S. G. Mason & J. F. Boriso. Current trends in braincomputer interface research at the Neil Squire foundation. Neural
Systems and Rehabilitation Engineering, IEEE Transactions on [see
also IEEE Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages
123126, 2003.
[Bishop 95]
[Blankertz 04]
[Boriso 04]
J. F. Boriso, S. G. Mason, A. Bashashati & G. E. Birch. Braincomputer interface design for asynchronous control applications:
improvements to the LF-ASD asynchronous brain switch. Biomedical
Engineering, IEEE Transactions on, vol. 51, no. 6, pages 985992, 2004.
[Bronzino 95a]
[Bronzino 95b]
[Burges 98]
224
BIBLIOGRAF
IA
[Cajal 05]
[Canu 05]
[Castro 03]
[Chang 07]
[Chapin 99]
Silvia Chiappa. ANALYSIS AND CLASSIFICATION OF EEG SIGNALS USING PROBABILISTIC MODELS FOR BRAIN COMPUTER INTERFACES. PhD thesis, IDIAP Research Institute, 2006.
[Chinchilla 43]
[Cincotti 03]
[Colbert 98]
[Cox 00]
[Cristianini 00]
[Cristianini 05a]
BIBLIOGRAF
IA
225
[Cristianini 05b]
[Donchin 00]
[Duda 01]
Richard Oswald Duda, Peter Elliot Hart & David G. Strok. Pattern
classication. John Wiley and sons, New York etc., 2001. Richard O.
Duda, Peter E. Hart, David G. Strok.
[Espinoza 03]
[Ferre 97]
M. Ferre. Dise
no de Interfases Avanzados para Robots Teleoperados.
Desarrollo de un Entorno de Teleoperaci
on. PhD thesis, Universidad
Politecnica de Madrid, 1997.
[Fisher 36]
[Florian 98]
[Forney 73]
[Freeman 93]
[Friedman 89]
[Fuente OConnor 93] Jose Luis Fuente OConnor. Tecnologas computacionales para
sistemas de ecuaciones, optimizacion lineal y entera. Editorial Reverte,
Espa
na, 1993.
BIBLIOGRAF
IA
226
[Galan 07]
[Garrett 03]
[Gazzaniga 92]
[Gerstner 04]
[Guger 99]
[Guger 05]
[Gunn 98]
Steve R. Gunn.
Regression, 1998.
[Gunn 03]
[Gunn 05]
[Harrington 97]
[Herreo 98]
Oscar Luengo Herreo. TELEOPERACION BILATERAL SEMIATOMATICA EN ACTIVIDADES CON ELEVADAS FUERZAS DE REACCION CON EL CONTORNO, 1998.
BIBLIOGRAF
IA
227
[Holzapfel 98]
[HONDA 09]
[Hoogerwerf 94]
[Instruments 01]
[Isaacs 00]
[Ivanciuc 07]
Ovidiu Ivanciuc.
Chemistry, 2007.
[J. 75]
[Jacques 94]
G. E. Jacques.
Application of quality function deployment in
rehabilitation engineering, 1994. ID: 1.
[Jelinek 80]
[Jessell 91]
[Jessell 97]
[Juang 91]
[Kennedy 97]
[Kennedy 00]
228
BIBLIOGRAF
IA
[Kipke 03]
D. R. Kipke, R. J. Vetter, J. C. Williams & J. F. Hetke. Siliconsubstrate intracortical microelectrode arrays for long-term recording
of neuronal spike activity in cerebral cortex. Neural Systems and
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages 151155,
2003.
[Kositsky 03]
M. Kositsky, A. Karniel, S. Alford, K. M. Fleming & F. A. MussaIvaldi. Dynamical dimension of a hybrid neurorobotic system. Neural
Systems and Rehabilitation Engineering, IEEE Transactions on [see
also IEEE Trans.on Rehabilitation Engineering], vol. 11, no. 2, pages
155159, 2003.
[Kostov 00]
[Krusienski 00]
[Kumlbler 01]
[Laitinen 03]
[Larman 03]
[Lauer 00]
[Lauritzen 96]
[Lauzon; 01]
BIBLIOGRAF
IA
229
[Leeb 05]
[Levine 00]
[Luengo 98]
O. Luengo. Teleoperaci
on Bilateral Semiaut
onoma en Actividades con
Elevadas Fuerzas de Reacci
on con el Entorno. PhD thesis, Universidad
Politecnica de Madrid, 1998.
[Mahajan 98]
[Mardia 79]
[Martinez 01]
[Martinez 09]
[Martinez 10]
[Martnez 06]
[Martnez 07]
230
BIBLIOGRAF
IA
[Martnez 08]
[Maynard 99]
[McFarland 97]
[McLachlan 97]
[McLachlan 04]
[Middendorf 00]
M. Middendorf, G. McMillan, G. Calhoun & K. S. Jones. Braincomputer interfaces based on the steady-state visual-evoked response.
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages 211
214, 2000.
[Millan 03]
[Millan 04]
[Miner 98]
[Montaner 91]
[Montoya 02]
BIBLIOGRAF
IA
231
[Moreno 06]
[Muller 03a]
[Muller 03b]
[Nabney 02]
[NASA 08]
NASA. Air Force and NASA Research on pilots has revealed the
secrects of peak mental performance, 2008.
[Neuper 01]
[Nicolau 08]
[Obermaier 01a]
[Obermaier 01b]
[Oppenheim 96]
Virtual Keyboard
[Pe
na S
anchez 86] Daniel Pe
na S
anchez. Estadstica : modelos y metodos, volume 109110. Alianza, Madrid, 1986. Daniel Pe
na S
anchez de Rivera; 2 v. 23
cm; 1. Fundamentos 2. Modelos lineales y series temporales.
[Penny 99]
232
BIBLIOGRAF
IA
[Penny 00]
W. D. Penny, S. J. Roberts, E. A. Curran & M. J. Stokes. EEGbased communication: a pattern recognition approach. Rehabilitation
Engineering, IEEE Transactions on [see also IEEE Trans.on Neural
Systems and Rehabilitation], vol. 8, no. 2, pages 214215, 2000.
[Perelmouter 99]
[Perelmouter 00]
[Pe
nn 98]
L.F. Pe
nn. Control Bilateral de Robots Teleoperados. Contribuci
on en
Reexi
on de Fuerzas. PhD thesis, Universidad Politecnica de Madrid,
1998.
[Pilone 05]
Dan Pilone & Neil Pitman. Uml 2.0 in a nutshell. OReilly, 2005.
[Pineda 00]
J. A. Pineda, B. Z. Allison & A. Vankov. The eects of selfmovement, observation, and imagination on /spl mu/ rhythms and
readiness potentials (RPs): toward a brain-computer interface (BCI).
Rehabilitation Engineering, IEEE Transactions on [see also IEEE
Trans.on Neural Systems and Rehabilitation], vol. 8, no. 2, pages 219
222, 2000.
BIBLIOGRAF
IA
233
[Pineda 03]
[Pintado 77]
[Proakis 97]
[Rabiner 89]
[Ratey 03]
[Reilly 99]
R. B. Reilly.
Adaptive noncontact gesture-based system for
augmentative communication, 1999.
[Rezek 00]
[Rich 94]
Elaine Rich & Kevin Knight. Inteligencia articial. McGrawHill, Madrid, 1994. Elaine Rich, Kevin Knight; Agotado (3-11-05);
19950223.
[Ripley 96]
[Roberts 89]
[Robinson 93]
[Robinson 00a]
[Robinson 00b]
DeBolsillo,
234
BIBLIOGRAF
IA
[Rockstroh 89]
[Rocon 06]
[Rousche 98]
[Rubio 00]
Jose Luis Bardasano Rubio & Jose Ignacio Elorrieta Perez de Diego.
Bioelectromagnetismo. ciencia y salud. McGraw-Hill, Madrid etc.,
2000. 019: M. 10344-2000; Jose Luis Bardasano Rubio, Jose Ignacio
Elorrieta Perez de Diego.
[Rumbaugh. 99]
[Rupp 06]
[Sarcinelli 09]
[Schalk 04]
[Scherer 04]
BIBLIOGRAF
IA
235
[Schmidt 88]
[S.E.; 83]
[Segovia 38]
[Sellers 06]
[Shannon 48]
[Shannon 75]
[Sheikh 03]
[Siegfried 97]
[Sutter 92]
[Sykacek 03]
[Taylor 03]
236
BIBLIOGRAF
IA
[Tome 07]
[Vapnik 63]
[Vapnik 92]
[Vapnik 95]
[Vel
azquez 97]
J.M. Vel
azquez. Curso elemental de Psicologa, October 1997.
[Vidal 73]
[Vidal 77]
[Wang 04]
Yijun Wang, Zhiguang Zhang, Yong Li, Xiaorong Gao, Shangkai Gao
& Fusheng Yang. BCI competition 2003-data set IV:An algorithm
based on CSSD and FDA for classifying single-trial EEG. Biomedical
Engineering, IEEE Transactions on, vol. 51, no. 6, pages 10811086,
2004.
[Wang 08]
[Webster 78]
[Webster 92]
[Webster 95]
[Webster 98]
BIBLIOGRAF
IA
237
[Webster 04]
[Williams 99]
[Wolpaw 00a]
[Wolpaw 00b]
[Wolpaw 02]
[Wolpaw 03]
[Wolpaw 07]
[Zhong 02]