Sei sulla pagina 1di 106

INSTITUTO POLITÉCNICO NACIONAL

SECRETARIA DE INVESTIGACIÓN Y POSGRADO

CENTRO DE INVESTIGACIÓN EN COMPUTACIÓN

Laboratorio de Redes y Ciencia de los Datos

Interfaz cerebro-computadora utilizando un dispositivo


inalámbrico de electroencefalografía

T E S I S

PARA OBTENER EL GRADO DE:


Maestría en Ciencias de la Computación

PRESENTA:
Ing. Jorge Adrian García Márquez

DIRECTORES DE TESIS:
Dr. Rolando Menchaca Méndez
Dr. Ricardo Menchaca Méndez

Ciudad de México Junio 2017

i
ii
i
Resumen

El estudiar el funcionamiento del cerebro humano se ha vuelto una tarea


multidisciplinaria integrada por áreas de investigación, entre las cuales se
involucran las matemáticas y la psicología, que han dado origen a las
neurociencias. Las ciencias computacionales han aportado métodos, herramientas
de análisis y visualización de la información obtenida a partir de técnicas de
estudio del cerebro humano, tal es el caso de la electroencefalografía.

El avance de la tecnología en el desarrollo de la electroencefalografía, ha


conseguido que el análisis de señales cerebrales haya dejado de ser una actividad
reservada sólo al ámbito médico, hoy en día ya existen también interfaces
cerebrales aplicadas en publicidad, en seguridad vehicular, en el campo de
entretenimiento, entre otros. Debido a esto, se considera entonces imprescindible
el hacer uso de estas tendencias tecnológicas donde se prioriza el desarrollo de
sistemas que ayuden al ser humano, aun particularmente, el análisis de
tecnologías sobre señales cerebrales para poder realizar aplicaciones de incursión
social.

El presente trabajo está relacionado con la Electroencefalografía, por lo


tanto dentro de este documento se desarrollan los conceptos generales del área,
así como detalles del dispositivo Emotiv EPOC empleado para obtener las señales
cerebrales. Del mismo modo se pretende dar un panorama general de sus
aplicaciones en la actualidad para así conocer y poder generar una interfaz
cerebro-computadora para el sector entrenamiento (videojuegos) con un
dispositivo inalámbrico de electroencefalografía.

i
Abstract

Studying the functioning of the human brain has become a multidisciplinary task
integrated by areas of research, including mathematics and psychology, which
have given rise to neurosciences. The computational sciences have contributed
methods, tools of analysis and visualization of the information obtained from
techniques of study of the human brain; such is the case of
electroencephalography.

The advancement of technology in the development of


electroencephalography, has made the analysis of brain signals no longer an
activity reserved only for the medical field, nowadays already exist brain interfaces
applied in advertising, in vehicle safety, in the field of entertainment, among others.
Because of this, it is therefore considered essential to make use of these
technological trends where the development of systems that help the human being,
even in particular, the analysis of technologies on brain signals in order to carry out
social raid applications is prioritized.

The present work is related to Electroencephalography, therefore in this


document the general concepts of the area are developed, as well as details of the
Emotiv EPOC device used to obtain the brain signals. In the same way it is
intended to give an overview of its applications at the present time so as to know
and be able to generate a brain computer interface for the entertainment field
(videogames) with a wireless electroencephalography device.

II
Agradecimientos

Primero quiero agradecer a dios por guiarme en el buen camino y darme salud y
sabiduría para saber elegir las mejores elecciones en mi vida.

Quiero agradecer a la hermosa familia que tengo, a mis padres Irma Márquez y
Javier García por darme el don de la vida, por brindarme una excelente formación
académica, por estar conmigo todo el tiempo estando al pendiente de mí y
llenándome de todo su amor, apoyo y energía para cumplir con este logro. A mi
hermano Aldo García, por acompañarme siempre en momentos importantes y ser
un compañero de vida. A mi tía Blanca por siempre mostrarme su ánimo, amor y
apoyo incondicional desde que era pequeño.

Agradezco a mi novia Ilse, por brindarme todo su amor, comprensión, cariño y


apoyo incondicional día a día que me dio mucha fortaleza para poder superar esta
meta.

Tengo que agradecer a mis directores de Tesis Dr. Rolando Menchaca y Dr.
Ricardo Menchaca por su apoyo y orientación en el desarrollo de este proyecto a
lo largo de esta etapa de mi vida.

Agradezco firmemente al Instituto Politécnico Nacional (IPN) por promoverme


siempre los valores de trabajo arduo, deber y honorabilidad que me permiten
representar de manera digna a la institución.

Por último quiero agradecer al Centro de Investigación en Computación (CIC) que


me abrió las puertas para superarme y desarrollarme profesionalmente a nivel
posgrado y vivir experiencias inigualables de vida, así como también al Consejo
Nacional de Ciencia y Tecnología (CONACyT) por brindarme el apoyo económico
a lo largo de mis estudios.

III
Índice General
RESUMEN…………...………………………………………...…………………………...I

ABSTRACT…………….………………………………………...………………………..II

AGRADECIMIENTOS..………………………………………...………………………..III

ÍNDICE GENERAL….………………………………………...…………………………IV

ÍNDICE DE FIGURAS………………………………………...………………………...VII

GLOSARIO, SIGLAS Y ACRÓNIMOS…………………..…………………………….X

CAPITULO 1

INTRODUCCIÓN………………………………………………………………………….1

1.1Introducción……………………………………………………………………1

1.2 Planteamiento del Problema……………………………..………………....2

1.3 Objetivos………….……………………..…………………………………….3

1.4 Justificación……….…………………………………………………………..4

CAPÍTULO 2

ELECTROENCEFALOGRAFÍA…………………………………………………………6

2.1 Evolución de la Electroencefalografía………………………………..........6

2.1.1 Estudios Previos.………………………………………………...…6

2.1.2 Siglo XX………………………………………………………………7

2.1.3 Siglo XXI………………………………………………...…………...8

2.2 Electroencefalografía…………………………………………………………9

2.3 Electroencefalograma………………………………………………………...9

2.4 Electroencefalógrafo………………………………………………………...10

2.4.1 Componentes…………………………….………........................10

2.5 Señales…………………………………………………………………........13

IV
2.6 Electrodos…………………………………………………………………….15

2.6.1 Definición……….……………………………………....................15

2.6.2 Clasificación…………………………….………..........................16

2.7 Electrodos…………………………………………………………………….17

2.7.1 Dispositivos portables BCI………………………………………..17

2.7.2 Aplicaciones recientes…………………………………………….24

CAPÍTULO 3

TEORÍA DE ALGORITMOS DE APRENDIZAJE DE MÁQUINA………………….30

3.1 Aprendizaje de Máquina (Machine Learning).……………………...........30

3.2 Clasificación de algoritmos de Machine Learning…………..…………...30

3.2.1 Por tipo de aprendizaje……………………………………….......30

3.2.1.1 Aprendizaje Supervisado……………………………….31

3.2.1.2 Aprendizaje No Supervisado…………………………...31

3.2.1.3 Aprendizaje Semi-Supervisado..….…………………...32

3.2.2 Por su función……………………………………………………...33

3.2.2.1 Algoritmos de Regresión….……………………..……..33

3.2.2.2 Algoritmos basados en instancias….……………........36

3.2.2.3 Algoritmos de Regularización……..…………………...38

3.2.2.4 Algoritmos de Árboles de Decisión….………………...40

3.2.2.5 Algoritmos Bayesianos..………………………………..44

3.2.2.6 Algoritmos de Agrupamiento….………………………..47

3.2.2.7 Algoritmos con Aprendizaje de Regla de


Asociación………….……………………………………………..51

3.2.2.8 Algoritmos de Redes Neuronales


Artificiales……………………………………………..…………..52

V
3.2.2.9 Algoritmos de Aprendizaje Profundo (Deep
Learning)………………………………………………….…........55

3.2.2.10 Algoritmos de Reducción de Dimensionalidad…….58

3.2.2.11 Meta-Algoritmos de aprendizaje de máquina ……...63

CAPÍTULO 4

METODOLOGÍA Y PROCEDIMIENTO……………………………………………….67

4.1 Diseño de la aplicación (videojuego)……………………………………..67

4.2 Diseño de la interfaz………………………………………………………...68

4.3 Sistema BCI………………………………………………………………….69

4.3.1 Procesado de la señal y configuración de módulos del sistema


en interfaz………………………………………………………………...70

4.3.2 Preparación de entorno y adquisición de la Señal……………74

CAPÍTULO 5

ANÁLISIS Y RESULTADOS…………………………………………………………...76

5.1 Pruebas Alpha.………………………………………………………………76

5.2 Pruebas Beta…………..…………………………………………………….76

5.2.1 Funcionamiento (Adquisición de datos)……………………….76

5.2.2 Clasificación de las señales eléctricas cerebrales…………...79

5.2.3 Análisis de Resultados…………………………………………..81

CAPÍTULO 6

CONCLUSIONES Y TRABAJO FUTURO……..……….…………………………….84

RECOMENDACIONES………………………………………………………………….85

APORTACIONES………………………………………………………………………..86

REFERENCIAS CONSULTADAS……...……………………………………………..87

VI
Índice de Fíguras
Figura 1.1 Ingresos de la industria de entretenimiento en los últimos años
Figura 2.1 Experimentos de Luis Galvani en animales
Figura 2,2. Electroencefalógrafo tradicional
Figura 2.3. Representación gráfica de comportamiento de señales EEG
Figura 2.4. Rango de frecuencia de señales cerebrales
Figura 2.5. Electrodos conectados al cerebro
Figura 2.6. Portación del sistema Móvil-72
Figura 2.7. Elementos del sistema diadema multiposicional
Figura 2.8. Sistema Portable Nautilus
Figura 2.9. Sensor Portable Enobio
Figura 2.10. Diadema Mindwave
Figura 2.11. Diadema B-Alert X10
Figura 2.12. Dispositivo Emotiv EPOC
Figura 2.13. Dispositivo Emotiv Insight
Figura 2.14. Aplicaciones recientes de BCI
Figura 2.15. Discapacidad motriz - silla de ruedas utilizando una interfaz BCI
Figura 2.16. Entorno de una casa inteligente utilizando BCI
Figura 2.17. Usuarios jugando BrainBall
Figura 3.1. Ejemplo visual de aplicación de aprendizaje supervisado utilizando
clasificación
Figura 3.2. Ejemplo visual de aplicación de aprendizaje no supervisado sin
conocimiento a priori
Figura 3.3. Ejemplo visual de aplicación de aprendizaje semi-supervisado con
pequeños datos etiquetados
Figura 3.4. Ejemplo de algoritmo de regresión utilizando una medida de error
Figura 3.5. Gráfica que muestra regresión con tendencia creciente
Figura 3.6. Ejemplo de algoritmo utilizando una medida de similitud para
predicción

VII
Figura 3.7. Ejemplo visual donde se ve la aplicación del método KNN por
distancias
Figura 3.8. Ejemplo visual donde se ve la extensión que se hace de un
algoritmo
Figura 3.9. Muestra de estimación para LASSO (izq) y Regresión de Cresta (der);
región azul=regiones de restricción
Figura 3.10. Ejemplo de un árbol de decisión
Figura 3.11 Ejemplo de visualización del procedimiento arriba hacia abajo del
algoritmo ID3
Figura 3.12 Ejemplo de visualización del procedimiento algoritmo C 4.5
Figura 3.13 Ejemplo de aplicación probabilidad bayesiana, distribución posterior y
priori
Figura 3.14 Fórmula del teorema de Bayes
Figura 3.15 Función de distribución gaussiana
Figura 3.16 Ejemplo de una red bayesiana. Los nodos representan variables
aleatorias y los arcos relaciones de dependencia
Figura 3.17 Ejemplo de agrupamiento modelando 2 grupos de objetos
Figura 3.18 Ejemplo de agrupamientos (rojo, azul, verde), donde se ubica el
centroide al centro
Figura 3.19 Dendrograma con agrupamiento ascendente
Figura 3.20 Ejemplo donde se aprecian reglas de asociación de objetos
Figura 3.21 Ejemplo de estructura de una red neuronal
Figura 3.22 Ejemplo de estructura perceptrón con 5 neuronas de entrada
Figura 3.23 Neurona básica en backpropagation
Figura 3.24 Ejemplo de algoritmo Deep Learning visto desde una red neuronal
compleja
Figura 3.25 Arquitectura de la máquina de Boltzmann
Figura 3.26. Esquema general de una red de creencia profunda
Figura 3.27 Ejemplo de visualización de datos dimensionales
Figura 3.28 Variación de la diferencia entre PCA original y PCA iterativo en bloque
según el número de componentes principales utilizadas.

VIII
Figura 3.29 Un ejemplo de muestra de Sammon mapeando en distintas
coordenadas
Figura 3.30 Ejemplo de mapa perceptual
Figura 3.31. Ejemplo de combinación de modelos para una única predicción
Figura 3.32 Ejemplo de muestreo del algoritmo bagging
Figura 3.33 Diagrama de flujo de funcionamiento de Adaboost
Figura 4.1. Etapas de desarrollo de la interfaz BCI
Figura 4.2. Aplicación Akapong
Figura 4.3. Diseño de la Interfaz
Figura 4.4 Esquema básico del sistema para el control cerebral de un videojuego
utilizando el Emo-Engine
Figura 4.5. Entorno TestBench de Emotiv Suite
Figura 4.6 Esquema general del diseño lógico del sistema de software para el
control cerebral.
Figura 4.7. Archivos .java del SDK de Emotiv en el Proyecto
Figura 4.8. Código de configuración principal de diadema Emotiv
Figura 4.9. Hidratación de sensores
Figura 4.10. Pantalla de verificación del estado de los sensores Emotiv
Figura 5.1. Funcionamiento Interfaz BCI y Generación de archivos
Figura 5.2. Ejemplo de archivo .csv con datos crudos de la señal cerebral
Figura 5,3. Ejemplo de muestreo de la señal cerebral generada
Figura 5.4 Muestra de resultados al discretizar la señal (datos tratados)
Figura 5.5. Matriz de distancias entre los conjunto de datos de los usuarios
Figura 5.6. Resultado del muestro de matriz distancias en weka
Figura 5.7. Cuadro de desempeño de usuarios y observaciones

IX
Glosario, Siglas y Acrónimos

API: Por sus siglas en inglés Application Programming Interface, se


refiere a un conjunto de procedimientos y funciones que cierta
biblioteca ofrece para ser utilizado por otro software.

BCI: Por sus siglas (Brain Computer-Interface) son las interfaces


cerebro-computadora que se encargan principalmente de la
adquisición de las señales cerebrales para que posteriormente
puedan ser procesadas e interpretadas por una computadora.

Clúster: En Aprendizaje de Máquina es un conjunto de observaciones


similares del algún sentido pertenecientes a un grupo
(Agrupamiento).

Edit Distance: Número mínimo de operaciones requeridas para transformar una


cadena de caracteres en otra, se usa ampliamente en teoría de la
información y ciencias de la computación.

EEG: Estas siglas hacen referencia a la técnica llamada


electroencefalografía que se basa en el registro de la actividad
bioeléctrica cerebral en condiciones basales de reposo, en vigilia o
sueño.

Entropía: Es la medida de la incertidumbre que hay en un sistema. Es decir,


ante una determinada situación, la probabilidad de que ocurra cada
uno de los posibles resultados.

Ganancia: Es la diferencia entre la entropía de un nodo y la de uno de sus


descendientes.

X
Heurística: Conjunto de técnicas o métodos para resolver un problema.

Mapeado Es una técnica de análisis multidimensional utilizada para


perceptual: representar gráficamente la percepción de los encuestados en un
estudio, teniendo en cuenta dos o más dimensiones percibidas,
generalmente sobre un producto.

Neuroergonomía: Es la aplicación de la neurociencia a la ergonomía, se basa en


explicaciones y métodos biológicos para mejorar el rendimiento de
los factores humanos tales como: seguridad, tiempo de respuesta,
y las lesiones por esfuerzo repetitivo.

Neuromarketing: Consiste en la aplicación de técnicas pertenecientes a las


neurociencias, al ámbito de la mercadotecnia, analizando cuáles
son los niveles de emoción, atención y memoria que poseen los
diferentes estímulos percibidos de forma consciente o
subconsciente con la intención de mejorar la gestión de recursos
en las empresas sin incrementar los gastos innecesariamente y
aumentar los productos que existen en el mercado, así se mejora
el bienestar social y se entiende la toma de decisión del
consumidor.

SDK: Software utilizado por Emotiv que significa Software Development


Kit, que forma parte de las herramientas de investigación y
desarrollo.

XI
CAPÍTULO 1
Introducción
La tecnología de interfaces cerebro-computadora (BCI’s) es una poderosa
herramienta de comunicaciones entre usuarios y sistemas que basa su
funcionamiento en la electroencefalografía, que permite acceder y extraer la
actividad cerebral, permitiendo a una computadora analizar la información de los
patrones de ondas cerebrales que son producidas por el pensamiento. La
comunidad científica inicialmente ha desarrollado BCI’s con aplicaciones
biomédicas permitiendo la generación de dispositivos de ayuda que han facilitado
la restauración de la capacidad de movimiento para los usuarios físicamente con
discapacidad y reemplazando la funcionalidad perdida de sus movimientos.

Si bien, existen muchas aplicaciones BCI útiles tales como en sillas de


ruedas en el campo biomédico, gran parte de esta tecnología todavía no es muy
utilizada y uno de los principales factores de que esto ocurra son los dispositivos
de EEG, ya que la mayoría de estos dispositivos usados para medicina e
investigación son caros, grandes y requieren un gran número de gente con ciertas
habilidades para poderlos configurar.

La tecnología continuamente se está haciendo más pequeña y más barata,


sin embargo y recientemente, algunos dispositivos se han vuelto más accesibles.
Un ejemplo de esto es el dispositivo Emotiv EPOC, una diadema inalámbrica que
requiere comparativamente poco esfuerzo para configurarla y permite mayor
flexibilidad y movilidad que la tradicional EEG. El EPOC estaba dirigido en un
principio al mercado de los videojuegos y no es clasificado como un dispositivo
médico, aunque algunos investigadores lo han adoptado desde entonces para una
gran variedad de aplicaciones. El dispositivo viene con algunas herramientas de
procesamiento que pueden detectar movimientos faciales, estados emocionales y
un motor de movimiento, estas últimas requieren entrenamiento individual al igual
que el sistema empleado para poder controlar el dispositivo.

1
El propósito de este trabajo es utilizar las señales EEG para interactuar con un
videojuego, y el resultado es una herramienta que pueda ser usada como un
control de videojuegos para realizar un análisis en tiempo real de las señales
generadas por el dispositivo EEG.

Este trabajo está dividido en 6 secciones principales, donde en el capítulo 1


se específica el planteamiento del problema y los objetivos que se pretenden
cumplir con el proyecto, en el capítulo 2 se habla del contexto de la encefalografía
y su evolución a lo largo del tiempo, en el capítulo 3 se mencionan los diferentes
algoritmos de aprendizaje de máquina que existen y se hace alusión al que se
usará para el desarrollo del proyecto, en el capítulo 4 se expone la metodología
usada para el desarrollo de la interfaz BCI, en el capítulo 5 se despliegan los
resultados obtenidos del análisis de las señales y finalmente el capítulo 6 la parte
de conclusiones y aportaciones principalmente.

Planteamiento del problema:

Hoy en día, la electroencefalografía ha tenido un desarrollo importante, y


actualmente es una herramienta sumamente útil para el estudio del
comportamiento del cerebro humano, ya que por medio de los datos obtenidos en
los estudios de EEG se obtiene una gran diversidad de información generada por
la actividad del cerebro. En este trabajo se propone utilizar este tipo de señales
para generar comandos básicos para un videojuego por ejemplo los comandos de
moverse a la izquierda o a la derecha. Para esto utilizaremos algoritmos de
aprendizaje de máquina para clasificar las señales eléctricas del cerebro en
comandos que serán ocupados en tiempo real. Es importante mencionar que en el
ámbito tecnológico, específicamente en el desarrollo de videojuegos, se ha hecho
muy poco uso de este tipo de señales y podría ser un principio importante para
una nueva forma de juego.

De esta forma, el presente trabajo de investigación aborda tres problemas


principales.

2
1. Diseñar una serie de experimentos donde se obtiene la respuesta eléctrica
cerebral de un conjunto de sujetos de prueba, al momento de estar jugando
en el sistema propuesto. Las señales obtenidas son anotadas con los
comandos que los usuarios estén ejecutando para que sirvan de conjuntos
de entrenamiento a algoritmos de aprendizaje supervisado.

2. Experimentar con una serie de algoritmos de aprendizaje de máquina


supervisados, entre los que se encuentran los de tipo de agrupamiento
jerárquico [41], para caracterizar su desempeño y determinar cuál es el más
efectivo para responder a nuestras necesidades.

3. Utilizar los modelos entrenados para implementar una interfaz de control


para videojuegos. Adicionalmente, se deben desarrollar una serie de
experimentos que sirvan para caracterizar el desempeño del sistema. Entre
las métricas utilizadas está el tiempo de respuesta en la ejecución de un
comando, así como el porcentaje del tiempo que el sistema concluye el
comando correcto.

La resolución de los problemas planteados anteriormente se traduce en los


objetivos de la presente tesis.

Objetivo General:

Diseñar, implementar y caracterizar experimentalmente una interfaz cerebro-


computadora para videojuegos utilizando un dispositivo inalámbrico de
electroencefalografía.

 Objetivos Específicos:

 Diseñar una serie de experimentos que caractericen la respuesta


eléctrica cerebral de un conjunto de sujetos de prueba ante los
estímulos generados por participar en un juego de video sencillo.

 Generar una base de datos de señales eléctricas cerebrales


anotadas con los comandos que en cada momento estaban
ejecutando los sujetos de prueba.

3
 Caracterizar el desempeño de un conjunto de algoritmos de
aprendizaje de máquina supervisados para recuperar los comandos
ejecutados a partir de la actividad cerebral.

 Diseñar e implementar una interfaz simple de control para


videojuegos basada en la actividad eléctrica cerebral.

 Realizar una serie de experimentos para caracterizar la efectividad


del sistema propuesto.

Justificación:

Una BCI te permite implementar un canal natural de interacción entre el hombre y


la máquina así como tener acceso a información cognitiva y emocional humana
[2]. La principal ventaja de la EEG es su precio, ya que es una técnica
moderadamente cara que puede utilizarse con relativa facilidad ofreciendo libertad
de movimientos al sujeto, ya que éste puede moverse en una estancia e
interactuar, lo que permite tener una mayor facilidad de hacer pruebas. Por otro
lado, el utilizar señales cerebrales para generar un control de movimiento que sea
utilizado en un videojuego podría dar lugar a una nueva forma de juego diferente e
innovadora a las que conocemos hoy en día.

Actualmente, la industria de los videojuegos genera más ingresos que los


sectores de la música y el cine juntos, para más detalle ver Figura 1.1 [47]. Esto
convierte al sector del entretenimiento tecnológico en unos de los pilares de la
economía actual del sector del consumo, demostrando que los títulos ofrecidos por
las empresas ya no son cosa de niños, puesto que el público objetivo principal son
los adolescentes y los jóvenes, y cada vez más adultos. De este modo, el generar
tantos ingresos también conlleva grandes inversiones de los estudios de
videojuegos, con el objetivo de sorprender a los espectadores, esto gracias a la
constante innovación que se hacen en este campo, en cuanto al control e
interacción con un videojuego.

4
12
10
8 Cine
6 Música
4 Videojuegos
2
0
2011 2012 2013 2014 2015 2016

Figura 1.1 Ingresos de la industria de entretenimiento en los últimos años

En 2016, la industria de los videojuegos movió unos 90.000 millones de


dólares y, para 2018, podría superar los 113.300 millones cifras que convierten al
mercado de los videojuegos en la industria del entretenimiento y el ocio digital más
rentable de todo el mundo. Una de las facetas más interesantes de los
videojuegos es su capacidad para ir no sólo sobreviviendo, sino sacando provecho
de todas las nuevas tendencias tecnológicas que se van abriendo paso.
Actualmente, las nuevas tendencias en el mercado son la Realidad Virtual
(innovación en la forma de jugar) y los desarrollos para móviles [55].

En la actualidad los avances con respecto a sistemas BCI han ido creciendo
permitiendo así tener un campo grande para el desarrollo de muchos proyectos de
investigación, siendo una base firme para el desarrollo de nuevas tecnologías. Las
aplicaciones de los dispositivos BCI normalmente se han visto en el ámbito médico
donde permiten darles una ayuda de forma integral y funcional a personas que
presentan ciertas enfermedades o discapacidades, por ejemplo se han
desarrollado aplicaciones para ayudar a las personas con escasa movilidad
motora, interfaces de escritura, que pueden hacer de intérpretes entre el usuario y
un dispositivo robótico, aplicaciones para interpretar intenciones del usuario y que
éstas se traduzcan en movimiento, por ejemplo al usar una silla de ruedas para
combatir la necesidad de desplazamiento en caso de padecer una discapacidad
motora, así como aplicaciones en el campo de los videojuegos donde se ha
empezado analizar el estado emocional, ansiedad y cansancio de los jugadores.

5
CAPÍTULO 2
Electroencefalografía
En este capítulo se describe la técnica de electroencefalografía, la evolución que
ha tenido a lo largo del tiempo, el impacto que ha tenido con sus distintas
aplicaciones en la vida social, así como los distintos aparatos para captar señales
cerebrales.

2.1 Evolución de la Electroencefalografía:

La historia de la electroencefalografía se remonta a fines del siglo XVIII cuando


Luis Galvani demostró la presencia de actividad eléctrica en los tejidos vivos al
estimular un nervio y observar como respuesta la contracción de un músculo, ver
Figura 2.1. A este hecho le llamo “electricidad animal”. Posteriormente en 1875
Richard Catón publicó la primera investigación en donde documenta el registro de
actividad eléctrica cerebral a través de la experimentación con animales vivos. [2]

Figura 2.1 Experimentos de Luis Galvani en animales

A raíz de dichas investigaciones se realizaron múltiples trabajos relacionados con


el registro de la actividad eléctrica, como por ejemplo el Galvanómetro de
Einthoven (1895) que permitía hacer registros de la actividad eléctrica del corazón
y más tarde del cerebro humano.

6
Algunos dispositivos que son considerados como las bases para el
electroencefalógrafo actual fueron, el electroscopio de Benjamín Franklin (1700),
el Estimulador de Batería de Claudio Bernard (1850), la Bobina de inducción de
Boy Reymond (1850), y el Galvanómetro de Arsnoval (1822). Otra aportación
importante es la lámpara eléctrica de Thomas A. Edison, pues al colocarle un
elemento denominado “plate” en el interior del tubo de vacío con el objetivo de
facilitar el flujo de la corriente, permitió fabricar un precursor de los actuales
diodos. [2] [16]

2.1.2 Siglo XX

Los primeros registros electroencefalógrafos con humanos fueron realizados en


1924 por Hans Berguer, utilizando tiras de metal pegadas al cuero cabelludo de
los sujetos y un galvanómetro sensible como instrumento de registro. A partir de
esa época y hasta 1938, Berguer estableció las bases para lo que posteriormente
serían las diversas aplicaciones del electroencefalógrafo y por ende, de la
electroencefalografía; además fue él quien estableció el término
electroencefalografía para describir el potencial eléctrico en humanos. Gracias a
las notables aportaciones que Berguer dio a la electroencefalografía se le
considera como el “padre de la electroencefalografía”.

Por otro lado en la década de los años 20`s el neurofisiólogo Alexander


Forbes registró potenciales electroencefalógráficos espontáneos con un
galvanómetro de cuerda. Posteriormente, con el desarrollo de un amplificador de
entrada diferencial con sistema de registro de inscripción de tinta, elaborado por
Matthews en 1934 y perfeccionado por Grass se logró eliminar interferencias
ocasionadas en el medio ambiente.

A partir de ello el desarrollo de la electroencefalografía creció rápidamente,


implementándose en la ciencia médica aproximadamente en la década de los
30`s. La rápida evolución de la tecnología facilitó el desarrollo de la
electroencefalografía. Además, a raíz de estudios realizados por autores como

7
Bickford o Cairns, con heridos durante la Segunda Guerra Mundial se aportaron
posibilidades de tratamiento neuroquirúrgico [6].

De este modo se demostró que el EEG era útil en el diagnóstico de


múltiples padecimientos cerebrales. Después el método se extendería también a
otros padecimientos sistémicos, tales como los metabólicos y endocrinos, y así
progresivamente se utilizó en otros síntomas y entidades como la cefalea, vértigo,
estados de coma, trastornos de conducta y como instrumento de investigación.

2.1.3 Siglo XXI

El electroencefalógrafo ha evolucionado a través del tiempo en consecuencia del


desarrollo de nueva tecnología, particularmente de la electrónica; adoptando cada
vez más elementos que permiten fabricar equipos de menores dimensiones y
mayor sensibilidad, a tal grado que se han diseñado electroencefalógrafos cuyas
dimensiones son menores que las de un portafolios común y en donde la
información obtenida puede verse directamente en un monitor o ser guardada para
su posterior análisis.

Los primeros electroencefalógrafos que fueron fabricados en serie, eran de


grandes dimensiones y contaban con una gran cantidad de controles manuales
que tenían que manipularse para cada estudio, además era necesario esperar a
que el equipo se calentara a cierta temperatura, ya que funcionaba a base de
tubos de vacío. Posteriormente se utilizaron transistores; lo que permitió disminuir
las dimensiones de los dispositivos. [16]

Actualmente los electroencefalógrafos son equipos computarizados que


facilitan el trabajo por la automatización de sus sistemas además son capaces de
realizar múltiples procesamientos de datos.

8
2.2 Electroencefalografía

La Electroencefalografía es el registro y evaluación de los potenciales eléctricos


generados por el cerebro y obtenidos por medio de electrodos situados sobre la
superficie del cuero cabelludo [1] [40] .Es una de las técnicas de las neurociencias
que el neuromarketing utiliza con mayor frecuencia, especialmente por su reducido
precio frente a los sistemas de imagen cerebral.

La actividad coordinada de miles de neuronas produce diferencias de


potencial en el cuero cabelludo que pueden ser registradas utilizando electrodos
en conjunción con amplificadores de señal. Es decir, colocando una serie de
electrodos repartidos por la cabeza podemos hacernos una idea de en qué zonas
de nuestro cerebro se está produciendo mayor actividad.

2.3 Electroencefalograma:

De raíces griegas, “electrón”, (que hace referencia al ámbar amarillo que sirvió
para los primeros experimentos de electricidad), la palabra encéfalo, formada por
“en” que significa dentro de, y “kephalé” que significa cabeza. Por último, “graphé”
que significa grabado o estructura. Concertando la definición con la unión de todas
las raíces griegas, electroencefalograma se define como el registro de la actividad
eléctrica del encéfalo [1].

Por otro lado se puede decir que el electroencefalograma es el registro de


la actividad eléctrica de las neuronas del encéfalo; posee formas complejas que
cambian dependiendo la localización de los electrodos y varían también respecto a
los individuos. Esto es debido al inmenso número de conexiones entre las
neuronas y por el hecho de que el encéfalo es una estructura no uniforme.

9
2.4 Electroencefalógrafo

Es el dispositivo capaz de captar y transformar en información gráfica las señales


eléctricas cerebrales, como el que se ve en la Figura 2.2 facilitando un mejor
procesamiento de la información y su análisis [2].

Figura 2,2. Electroencefalógrafo tradicional

2.4.1 Componentes

Dentro de los componentes básicos de un electroencefalógrafo los primordiales


son:

Cables: Son los encargados de efectuar la unión entre los electrodos y la caja de
conexiones. Están conformados por un conjunto de hilos metálicos (que son
buenos conductores) flexibles donde en un extremo poseen un caimán y al otro se
le une un vástago que recibe el nombre de “banana”, estos últimos se insertan en
pequeños receptáculos. Cada uno de estos es sumamente frágil, por lo que su
manejo debe ser manipulado con delicadeza.

Caja de conexiones: Denominada también cabezal o panel de electrodos. Es aquí


donde se conectan todos los cables que proceden de los electrodos colocados al
paciente. Por lo general la caja de la ley de conexiones se encuentra fija, aunque
existen algunos portátiles que son capaces de colocarse más cerca del paciente;
éstos últimos son paneles pequeños, de entre 10 y un poco más de 18 cm de
longitud.

10
Cable blindado: Es el cable de unión entre el panel de electrodos y el equipo de
electroencefalografía. Éste tiene una longitud de hasta 5 metros y está cubierto
por una malla que le proporciona el blindaje necesario para evitar en su mayor
parte las señales emitidas por el medio ambiente.

Selector de electrodos: Formado por múltiples interruptores, en hileras,


controlados por botones para transmitir pares de señales a los amplificadores.

Monitor: Monitor donde se permite visualizar los cambios que se realizan en el


tablero de controles.

Sector general de electrodos: Control maestro o conmutador general donde se


seleccionan y toman cierto orden los pares de electrodos. Solo se necesita
presionar, girar, o en algunas ocasiones tocar un botón para cambiar de un
montaje a otro. Simplificando la tarea del técnico.

Control de calibración: Todos los aparatos de electroencefalografía tienen incluido


un regulador de voltaje.

Control de ganancia: El EEG posee controles de las ondas que recibe. El voltaje
se expresa gráficamente como la amplitud o altura de las ondas. La altura que
marca la deflexión de la plumilla se puede modificar con el “control de ganancia”.

Medidor de resistencia: En la mayoría de los aparatos de EEG se encuentra un


dispositivo para medir la resistencia de los electrodos, esta lectura se hacen en un
óhmetro (instrumento empleado para medir la resistencia eléctrica). Los valores de
la resistencia comúnmente utilizados en electroencefalografía están entre los 5KΩ
y 10KΩ (Kilohms)

Conmutador constante de tiempo: Un control que, dependiendo el modelo, puede


ser regulado por un botón giratorio, tecla de tacto o presión y se puede observar
en un monitor.

Filtros: El medio ambiente está lleno de señales eléctricas que pueden ser
captadas fácilmente, estas señales pueden crear interferencia con las que se

11
desean registrar en un estudio de electroencefalografía. Los filtros están
diseñados para impedir el registro de la interferencia con el medio ambiente. Son
clasificados en: filtro de baja frecuencia, filtro de alta frecuencia, filtro de corriente
alterna

Preamplificador y Amplificador: Los módulos de amplificación constan por una


serie de dos: un preamplificador y un amplificador para cada canal del
electroencefalógrafo. La corriente pasa de una fuente de alimentación al
preamplificador, donde recibe la señal que procede de los electrodos. De este
módulo se procesa por acción de los filtros y se aumenta su voltaje. Después la
señal pasa al amplificador en donde se produce un segundo aumento, elevando
su potencia aproximadamente mil veces más.

Sensibilidad: La cantidad de micro voltios de entrada que se requieren para


producir una deflexión de la plumilla.

Sistemas de registro: La señal de salida del electroencefalógrafo se registra


mediante diversos métodos: presentación momentánea de la imagen en la
pantalla del monitor, registro en cintas magnéticas, en sobre papel. Actualmente
los electroencefalógrafos digitales transforman las señales cerebrales análogas a
impulsos digitales facilitando el mejor proceso de información y su análisis.

Fuente de poder: Dispositivo que convierte el flujo de la corriente alterna


(proveniente de las líneas de alimentación domestica) a una corriente directa.

Galvanómetro: Está formado por una bobina que se encuentra en el interior de un


campo magnético que forman dos imanes. El eje sostiene la plumilla inscriptora.

Plumilla: Consiste en un delgado tubo capilar metálico fijo al eje del galvanómetro.

Papel: Especial, liso, que permite el desplazamiento de las plumillas.


Generalmente se elabora con líneas verticales de diversos colores, unas más
gruesas otras más delgadas con el objetivo de facilitar las lecturas de trazado. Así
mismo las líneas tienen una distancia específica entre sí. Acorde al número de
canales del EEG, será la dimensión del papel.

12
2.5 Señales

Como ya se mencionó, el Electroencefalógrafo está diseñado para captar y


procesar señales eléctricas generadas por el Cerebro [40]. Para ello existen
patrones básicos de frecuencia de ondas que pueden ser producidas por las
diversas actividades cerebrales y estados mentales. Los patrones de ondas más
importantes son cinco (Gamma, Beta, Alfa, Theta, Delta), ver Figura 2.3, y una
considerada de rango especial (Mu):

Figura 2.3. Representación gráfica de comportamiento de señales EEG

a) Ondas Delta:

Se ubican en el rango de frecuencias entre 0 Hz y 4 Hz con amplitud variable.


Éstas se manifiestan principalmente durante sueño profundo, o en ciertos estados
de meditación. Su presencia en estado de vigilia indican defectos o daños
cerebrales.

b) Ondas Theta:

Se encuentran en el rango de frecuencias entre 4 Hz y 8 Hz, y poseen amplitudes


que generalmente superan los 20 microvolts. Las ondas theta se asocian a
estados emocionales de estrés, como decepción o frustración, y sueño MOR

13
(Movimientos Oculares Rápidos o en siglas del inglés REM). También se ha
mostrado que está relacionada a funciones mentales que involucran el acceso a
material subconsciente, meditación profunda e inspiración creativa.

c) Ondas Alfa:

Se encuentran en el rango de frecuencias entre los 8 Hz y 12 Hz, con amplitudes


generalmente superiores a los 20 microVolts. Las ondas Alfa se asocian a
relajación y actividad mental leve; se manifiestan principalmente en el lóbulo
occipital y frontal, aumentando su manifestación con los ojos cerrados y pueden
reducirse abriendo los ojos, presentando estímulos no familiares al sujeto como
flashes de luz, también la ansiedad y la actividad mental intensa disminuye su
manifestación en el EEG donde se observa las relaciones anatómicas de los ojos
y los lóbulos occipitales, en los cuales se produce las ondas alfa con el cierre de
los ojos.

d) Ondas Beta:

Se encuentran en el rango de frecuencias entre 12 Hz y 30 Hz. Su voltaje es


usualmente bajo, cercano a los 5-30 micro Voltios. Las ondas Beta generalmente
se asocian al pensamiento activo, estado de alerta y resolución de problemas.
Durante actividades mentales intensas puede alcanzar hasta los 50 Hz. Esta onda
ocurre principalmente en el lóbulo frontal y parietal.

e) Ondas Gama:

Se encuentran desde los 30 Hz hacia arriba. Se piensa que éstas reflejan el


mecanismo subyacente de la conciencia. Se ha observado que las ondas Gama
están asociadas a procesos de comunicación y sincronización entre las distintas
zonas neuronales durante la realización de actividades mentales complejas.

14
f) Ondas Mu:

Son ondas espontáneas que se encuentran en la banda de frecuencia entre 8 Hz y


13 Hz, igual que las ondas Alfa. Ellas se registran principalmente en la zona
Sensorio-motora, manifestando una atenuación durante el movimiento.

En la Figura 2.4, se aprecia de manera más concreta el rango de frecuencia que


presenta cada señal.

Banda Espectral Rango (Hz)


Delta () 0-4
Theta () 4-8
Alfa (α) 8-14
Beta () 14-30
Gama () 30 en adelante
Mu () 8-13

Figura 2.4. Rango de frecuencia de señales cerebrales

2.6 Electrodos

Son aquellos dispositivos que se conectan al cerebro (ver Figura 2.5), y que se
encuentran entre los generadores eléctricos del cerebro (neuronas) y el aparato
que registra su actividad (electroencefalógrafo). Son piezas de metal que son
colocados sobre la superficie corporal. Los electrodos actúan como transductores,
pues convierten una forma de energía en otra, que posteriormente se amplifica en
los circuitos del electroencefalógrafo.

Figura 2.5. Electrodos conectados al cerebro

15
2.6.1 Clasificación

En la electroencefalografía se utiliza una gran variedad de electrodos, de acuerdo


a las necesidades y finalidades que se requieran. El registro de la actividad
bioeléctrica cerebral recibe distintos nombres según la forma de captación, y por
ende, los electrodos que se utilizan son diferentes en cada caso [3].

Por otro lado, y según el sitio donde se colocan los electrodos se clasifican de la
siguiente manera:

Extracraneales

a) Adheridos:

Son pequeños discos metálicos de 5 mm de diámetro. Se adhieren con pasta


conductora y se fijan con colodión que es aislante. Aplicados correctamente dan
resistencias de contacto muy bajas.

b) De contacto:

Consisten en pequeños tubos de plata clorurada roscados a soportes de plástico.


En su extremo de contacto se colocan una almohadilla que se humedece con
solución conductora. Se sujetan al cráneo con bandas elásticas y se conectan con
pinzas de cocodrilo. Son de colocación muy fácil, pero incómodos para el
paciente. Por esto no permiten registros de larga duración.

Intracraneales

a) De aguja o sub-dérmicos:

Consisten en agujas generalmente elaborados de una aleación de platino o de


acero inoxidable, su diámetro es de 0.5 mm.

16
b) Epi o subdurales:

Vástagos de acero inoxidable o material flexible con una borla que se pone en
contacto con las meninges, se utilizan generalmente para la detección de focos
epileptógenos.

c) Para Electrocorticografía:

Construidos en forma de vástago con una pequeña esfera de plata en su extremo,


utilizados exclusivamente para cirugía de epilepsia.

d) Intracerebrales:

Son largos vástagos fabricados generalmente de acero inoxidable con una


cubierta aislante, con varias zonas libres mediante los cuales se hacen registros a
diferentes niveles.

2.7 Interfaz Cerebro-Computadora (BCI)

Es un sistema de comunicación capaz de monitorear la actividad cerebral del ser


humano y traducir determinadas características en comandos de control de un
dispositivo [11]. Es decir, provee un canal de comunicación que interconecta el
cerebro con un dispositivo externo.

2.7.1 Dispositivos portables BCI

Tanto los sistemas de adquisición de señales EEG como las diademas portátiles,
han experimentado diversos cambios en los últimos años. Aquí una descripción de
los más recientes dispositivos BCI portátiles [4] [5].

2.7.1.1 Sistema EEG portable Móvil-72:

El Móvil-72 es un sistema de alta densidad ultra portable donde todo el sistema se


ajusta a un gorro que pesa sólo 250 gramos proporcionando total libertad al sujeto

17
de prueba; el gorro utiliza electrodos de (Ag y AgCl) para mediciones de señales
EEG de alta calidad [40], ver Figura 2.6 para más detalle.

Figura 2.6. Portación del sistema Móvil-72

El sistema portable es adecuado para estudios que implican movimientos


corporales sin restricciones o fuera de un laboratorio en entornos reales. Incluye
también un sistema de blindado avanzado de electrónica avanzada que ofrece un
nivel de alta calidad de la señal en todos los ambientes e incluso en condiciones
ambulatorias.

2.7.1.2 Diadema inalámbrica multiposicional:

La diadema multiposicional está diseñada para ser una plataforma experimental


de señales EEG simple y flexible [41]. El sistema está diseñado para equiparse
con un sistema de adquisición de datos EEG inalámbrico en miniatura y sensores
Flex y DryPad (ver Figura 2.7), para proporcionar grabaciones de electrodos secos
de bajo ruido y confiables.

Figura 2.7. Elementos del sistema diadema multiposicional

18
La diadema es totalmente reconfigurable para distintos experimentos y
aplicaciones, los sensores se pueden fijar y mover a cualquiera de las 12
posiciones a lo largo de la circunferencia de la diadema para medir las señales de
las regiones frontal, occipital y temporal. Por otro lado cuenta con un tejido
altamente elástico que garantiza comodidad, se adapta a cualquier tamaño de
cabeza y proporciona presión de contacto para los electrodos secos.

2.7.1.3 Sistema de adquisición portable de señales EEG Nautilus:

Su diseño es completamente diferente de todos los demás dispositivos y establece


un nuevo estándar de usabilidad. El dispositivo es pequeño y ligero se une al gorro
de EEG para evitar movimientos del cable y permitir movimientos completamente
libres [43].

Figura 2.8. Sistema Portable Nautilus

El sistema cuenta con una batería de iones de litio incorporada, que permite
grabaciones continuas de hasta 10 horas. La batería se recarga a través de un
cojín de carga sin contacto dentro de 2 a 3 horas. El dispositivo es completamente
impermeable, lo que permite una fácil limpieza de los electrodos junto con la tapa,
sin necesidad de desconectar o desmontar algún elemento, ver Figura 2.8. El
Nautilus transmite datos a través de la banda de 2.4 GHz con un rango de
funcionamiento en interiores de unos 10 m.

19
2.7.1.4 Enobio 8:

Es un sensor de electrofisiología inalámbrico portátil para la grabación de señales


EEG que viene integrado con una interfaz de usuario intuitiva y potente para la
fácil configuración, grabación y visualización de datos de EEG [44], incluyendo
espectrogramas y visualizaciones 3D en tiempo real de características espectrales
ver Figura 2.9 para más detalle.

Figura 2.9. Sensor Portable Enobio

Es utilizado para la investigación o uso clínico, así como la telemedicina


utilizando el sistema de nube “NUBE” para la recopilación de datos experimentales
y la organización de los mismos. Además de señales EEG, los datos del
acelerómetro triaxial se recogen automáticamente. También se puede utilizar una
tarjeta microSD para guardar los datos sin conexión. Enobio es un producto con
certificación médica CE.

2.7.1.5 Diadema Mindwave Móvil:

Es un sistema en el cual los sensores detectan señales de ondas cerebrales


débiles de forma segura y pasiva; la tecnología Neurosky interpreta el significado
de las señales cerebrales provocando varios efectos sobre una aplicación en
particular. [45]

20
Figura 2.10. Diadema Mindwave

La diadema MindWave emite de forma segura los espectros de potencia


EEG (ondas alfa, beta y gama) medidores NeSoSky eSense (atención y
meditación) y parpadeos oculares. El dispositivo se compone de un auricular, un
clip para el oído y un brazo sensor como se ve en la Figura 2.10. Los electrodos
de referencia y de tierra del auricular están en el clip para el oído y el electrodo
EEG está en el brazo sensor, apoyándose en la frente sobre el ojo. Utiliza una
sola batería AAA con 8 horas de duración de la batería.

2.7.1.6 Diadema B-Alert X10:

Este sistema es una solución para aplicaciones móviles de EEG, que ofrece un
equilibrio de funcionalidad y simplicidad. El auricular ligero se coloca fácilmente y
sigue siendo cómodo para grabaciones de alta calidad extendidas en cualquier
hogar, laboratorio o entorno operativo, posee una combinación de 9 canales de
EEG de línea media y lateral [46].

21
Figura 2.11. Diadema B-Alert X10

Es un sistema cómodo y no intrusivo como se observa en la Figura 2.11


que se configura en 10 minutos, presenta controles automatizados de impedancia
inalámbrica y transmisión de señal inalámbrica. Por otro lado cuenta con
tecnología Bluetooth de hasta 10 metros, una batería recargable de 8 horas de
vida y un acelerómetro para cuantificar el movimiento y la posición de la cabeza.

2.7.1.7 Emotiv EPOC:

Este sistema tiene 14 canales de EEG y 2 sensores de referencia así como un


sensor giroscópico de 2 ejes como se observa en la Figura 2.12, está diseñado
para la investigación práctica contextualizada y avanzada para aplicaciones de
interfaz de control del cerebro (BCI). Proporciona acceso a datos de EEG crudos,
de alta calidad y de alta densidad espectral; es decir donde presentan las señales
alta potencia o energía. [47]

Figura 2.12. Dispositivo Emotiv EPOC

22
Se pueden llevar a cabo investigaciones que aprovechan la detección de
expresiones faciales, métricas de rendimiento y emoción y mandatos mentales.
Presenta conectividad inalámbrica Bluetooth mediante un receptor USB trabajando
en la banda de 2.4 GHz, un ancho de banda de 0.2-43 Hz, una resolución de
muestreo de 16 bytes de los cuales 14 son efectivos y 2 son utilizados para la
identificación y descarte por ruido [7]. También tiene una tasa de muestreo
secuencial de los sensores de 128 Hz, es decir produce 128 muestras por
segundo. Debido a su fácil configuración y portabilidad, será el dispositivo que se
manejará durante este proyecto.

2.7.1.8 Emotiv Insight:

Es un auricular móvil de EEG de 5 canales que registra ondas cerebrales y las


traduce en datos significativos que se puedan entender [47]. Está diseñado para
uso extendido en investigación de campo, BCI y casos avanzados de auto
evaluación. Insight cuenta con electrónica avanzada que está totalmente
optimizada para producir señales limpias y robustas en cualquier momento y en
cualquier lugar.

Figura 2.13. Dispositivo Emotiv Insight

Es el único dispositivo en su categoría que ofrece 5 sensores EEG + 2


sensores de referencia como se observa en la Figura 2.13. Esta alta resolución

23
espacial proporciona información en profundidad sobre su actividad cerebral.
Insight presenta un diseño elegante, ligero y fácil de usar.

2.7.2 Aplicaciones recientes

Este tipo de sistemas han contribuido en varios campos de la investigación. Como


se observa en la Figura 2.14, se han incursionado en áreas médicas, de
neuroergonomía y entornos ambientales, educacionales, de juegos y
entretenimiento, de neuromarketing y de publicidad y en seguridad y
autentificación [10] [12].

Medicina Educación

Neuroergonomía CAMPOS DE
Juegos y
y entornos APLICACIÓN
Entretenimiento
inteligentes DE BCI

Neuromarketing Seguridad y
y Publicidad Autentificación

Figura 2.14. Aplicaciones recientes de BCI

2.7.2.1 Medicina:

El campo de la medicina en cuanto al cuidado de la salud tiene una amplia


variedad de aplicaciones que aprovechan las señales cerebrales en todas las
fases tales como prevención (tabaquismo, alcoholismo), detección y diagnóstico
(tumores, desórdenes cerebrales) y en la fase de rehabilitación y restauración
(discapacidades motrices como se observa en la Figura 2.15, desórdenes
psicológicos).

24
Figura 2.15. Discapacidad motriz - silla de ruedas utilizando una interfaz BCI

2.7.2.2 Neuroergonomía y entornos inteligentes:

Los entornos de este tipo como casas inteligentes (como la que se ve en la Figura
2.16), lugares de trabajo o transportes explotan el uso de este tipo de interfaces
para ofrecer seguridad, lujos y control fisiológico para la vida diaria del ser
humano. Este tipo de entornos por ejemplo han estado vinculados con el Internet
de las Cosas (IOT) y las tecnologías BCI [13]. Se ha llegado a proponer un
sistema de control cognitivo llamado “Sistema de Control Ambiental con Auto-
Ajuste” para vida inteligente el cual monitorea el estado mental del usuario y se
adapta a sus componentes de entorno en consecuencia.

Figura 2.16. Entorno de una casa inteligente utilizando BCI

25
Las señales cerebrales también han llegado a ayudar a mejorar las
condiciones del área de trabajo por la evaluación del estado cognitivo de un
operador. Éstas también analizan el impacto de fatiga mental por carga de trabajo
y el tiempo de tarea en las características de EEG. Un cuarto de operaciones por
supuesto también representa un lugar ideal para un lugar de trabajo inteligente
usando una aplicación basada en BCI, ya que ésta mide el nivel de estrés de una
cirugía y notifica de acuerdo al tipo de respuesta [38].

2.7.2.3 Neuromarketing y publicidad:

El campo del marketing también tiene un interés por la investigación de BCI. Se


han explicado los beneficios de usar la evaluación de EEG para anuncios de
televisión relacionados tanto al campo comercial como al político [13].

Por otro lado también se ha investigado el considerar el impacto de otra


función cognitiva en el campo de neuromarketing; por ejemplo se ha puesto
interés en estimar la memorización de los anuncios de TV para proveer otro
método para la evaluación de la publicidad.

2.7.2.4 Educación y autorregulación:

La reacción neuronal es un enfoque prometedor para mejorar el desempeño


cerebral a través de la modulación de la actividad cerebral humana. Ésta se lleva a
cabo en los sistemas de educación los cuales utilizan las señales eléctricas
cerebrales para determinar el grado de claridad de la información estudiada, de
esta manera la interacción personalizada con cada estudiante se establece de
acuerdo con su respuesta experimental [38].

El aprendizaje para auto-regularse por medio de una BCI no invasiva


también se ha estudiado al igual que la inteligencia emocional basada en la EEG
que se ha aplicado en competiciones deportivas con el fin de controlar el estrés y
nerviosismo [13]. Finalmente la tecnología BCI también se ha visto implicada en la

26
autorregulación y aprendizaje de habilidades, a través de la reacción neuronal
emitida por la resonancia magnética.

2.7.2.5 Juegos y entretenimiento:

El entretenimiento y aplicaciones de videojuegos han abierto el mercado para


interfaces cerebro computadora no médicas [13]. El combinar las características
de los juegos existentes con las capacidades de control cerebral has sido sujeto
de muchas investigaciones que tienden a proveer una experiencia de juego
multicerebral, ejemplo de esto el videojuego llamado BrainArena en el cual los
jugadores pueden unirse a un juego de fútbol colaborativo o competitivo a través
de dos BCIs. Ellos pueden marcar goles al hacer movimientos de mano izquierda
y derecha [9].

Figura 2.17. Usuarios jugando BrainBall

Por otro lado algunos juegos serios que utilizan EEG han sido empleados
para control emocional y rehabilitación neuroprostética. Por ejemplo el juego
BrainBall tiende a disminuir el nivel de estrés. Los usuarios pueden sólo mover la
pelota si se relajan, por el que el vencedor del juego es el jugador que logre estar
más relajado es decir, el que tenga más control de estrés, como se observa en la
Figura 2.17.

27
2.7.2.6 Seguridad y Autentificación:

Los sistemas de seguridad involucran la autentificación basada en el conocimiento


en algún objeto o en los biométricos [38]; sin embargo éstos han demostrado ser
vulnerables a muchos inconvenientes como una contraseña insegura, biométricos
cancelables, al crimen, entre muchos otros. Los biométricos cognitivos o la
electrofisiología donde solamente las modalidades usando señales biológicas
(como las señales cerebrales) son usadas como fuentes de información de
identidad que da una solución a esas vulnerabilidades, éste proceso resulta ser
relativamente sencillo como se observa en la Figura 2.18.

Figura 2.18. Proceso de un sistema BCI para autentificación de usuario

La motivación detrás de la exploración de la electrofisiología es que las


señales biológicas no pueden ser adquiridas por observadores externos. Además
el electroencefalograma (EEG) como modalidad biométrica puede ser usado para
enviar una conversación de advertencia cuando el usuario autorizado esté bajo
condiciones externas de forzamiento. [38]

28
2.7.3 Problemática de las interfaces BCI:

La obtención de la actividad cerebral de un individuo no es una tarea fácil, hay una


serie de situaciones que deben tenerse en cuenta antes de realizar una interfaz
BCI basada en señales cerebrales [39].

Además de la no estacionariedad de las señales que se desean obtener y


de la existencia de otros muchos potenciales simultáneamente en la región del
cerebro a analizar hay que considerar también otros factores de ruido externo,
incluyendo ruido introducido por el sistema de lectura de señales, riesgo en la
pérdida de información relevante debido a una mala digitalización o amplificación
de la señal, etc.

Por otro lado se tiene que prestar atención en todas las etapas que
componen la interfaz BCI para que la fiabilidad de la lectura obtenida sea
aceptable. En el caso de señales de tipo endógenas, éstas son producidas en el
interior del cerebro a partir de una intención o movimiento y sin ningún estímulo
externo que sirva de guía. Esto explica el hecho de que el entrenamiento de las
interfaces endógenas sea tan costoso en tiempo dado que no existe una
referencia exterior al sistema no estacionario y éste puede estar sujeto a múltiples
factores variables [38][39]. Por otro lado, para interfaces de tipo exógenas se debe
poner extremo cuidado en la generación de los estímulos, dado que la actividad
cerebral a analizar dependerá directamente de ellos. El tratamiento en la
generación de los estímulos es vital para que se generen patrones de señales en
el cerebro que ayuden a deducir las intenciones del usuario, considerando que
siempre habrá una cierta no estacionariedad [8].

29
CAPÍTULO 3
Teoría de algoritmos de aprendizaje de máquina
En este capítulo se describe el concepto de Aprendizaje de Máquina y sus
distintas técnicas para la manipulación y clasificación de datos a partir de sus
distintas clasificaciones existentes.

3.1 Aprendizaje de Máquina:

Es la rama de la Inteligencia Artificial que se dedica al estudio de los


agentes/programas que aprenden o evolucionan basados en su experiencia, para
realizar una determinada tarea [41]. El objetivo principal de todo proceso de
aprendizaje es utilizar la evidencia conocida para poder crear una hipótesis y
poder dar una respuesta a nuevas situaciones no conocidas.

Por otro lado su objetivo es desarrollar técnicas que permitan a las computadoras
aprender. De forma más concreta, de crear programas capaces de generalizar
comportamientos a partir de una información no estructurada suministrada en
forma de ejemplos. Es, por lo tanto, un proceso de inducción del conocimiento.

3.2 Clasificación de Algoritmos de Aprendizaje de Máquina:

Los Algoritmos de Aprendizaje de Máquina los podemos clasificar de 2 grandes


formas, la primera por tipo de aprendizaje y la segunda por su función, y éstos los
describimos de la siguiente manera.

3.2.1 Por tipo de Aprendizaje:

Dentro de esta clasificación encontramos al Aprendizaje Supervisado, al No


Supervisado y al Semi-supervisado.

30
3.2.1.1 Aprendizaje Supervisado:

Es una técnica para deducir una función a partir de datos de entrenamiento, los
cuales consisten de pares de objetos (normalmente vectores): una componente
del par son los datos de entrada y el otro, los resultados deseados [38] [41]. La
salida de la función puede ser un valor numérico o una etiqueta de clase. El
algoritmo produce una función que establece una correspondencia entre las
entradas y las salidas deseadas del sistema. Los tipos de problemas que resuelve
son los de clasificación (como el de la Figura 3.1, donde se trata de clasificar las
pelotas blancas en un grupo de los de la izquierda) y regresión.

Figura 3.1. Ejemplo visual de aplicación de aprendizaje supervisado utilizando clasificación

Dentro de esta categoría se encuentran los algoritmos de regresión, la Red


Neuronal BackPropagation entre otros.

3.2.1.2 Aprendizaje No Supervisado:

Es un método donde un modelo es ajustado a las observaciones. Se distingue del


Aprendizaje supervisado por el hecho de que no hay un conocimiento a priori
como se observa en la Figura 3.2. Así, el aprendizaje no supervisado típicamente
trata los objetos de entrada como un conjunto de variables aleatorias, siendo
construido un modelo de densidad para el conjunto de datos.

31
Figura 3.2. Ejemplo visual de aplicación de aprendizaje no supervisado sin conocimiento a priori

Con este método podemos resolver problemas de clustering, de reducción de


dimensionalidad y de reglas de asociación de aprendizaje. En esta categoría
destacan algoritmos como el A priori y el K-means.

3.2.1.3 Aprendizaje Semi-Supervisado:

Es una técnica de ML, que utiliza datos de entrenamiento tanto etiquetados como
no etiquetados: normalmente una pequeña cantidad de datos etiquetados junto a
una gran cantidad de datos no etiquetados, como se observa en la Figura 3.3. Hay
un problema de predicción deseado, pero el modelo debe aprender las estructuras
para organizar los datos, así como hacer predicciones [38].

Figura 3.3. Ejemplo visual de aplicación de aprendizaje semi-supervisado con pequeños datos
etiquetados

Al igual que el aprendizaje supervisado también se pueden resolver problemas de


regresión y clasificación. Destacan algoritmos como extensiones a otros métodos

32
flexibles que hacen suposiciones acerca de cómo modelar los datos no
etiquetados.

3.2.2 Por su función:

Dentro de esta clasificación encontramos algoritmos de regresión, los basados en


instancias, los de regularización, los de árboles de decisión, los bayesianos, los de
agrupamiento (clustering), los de regla de asociación, los de la familia de neuronas
artificiales, los de aprendizaje profundo (Deep Learning) y los de reducción de
dimensionalidad. Estos algoritmos se describen de la siguiente manera [38].

3.2.2.1 Algoritmos de Regresión:

La regresión tiene que ver con el modelado de la relación entre las variables
existentes utilizando una medida de error en las predicciones realizadas por el
modelo, como se observa en la Figura 3.4. Los métodos de regresión son muy
utilizados en estadística y se han enfocado en el aprendizaje de máquina
estadístico. Esto puede ser confuso, ya que podemos utilizar la regresión para
hacer referencia a la clase de problema y a la clase de algoritmo.

Figura 3.4. Ejemplo de algoritmo de regresión utilizando una medida de error

33
Los algoritmos de regresión más importantes son:

 Mínimos cuadrados ordinarios de regresión (OLSR)

Este algoritmo consiste en encontrar una método para hallar una recta que se
ajuste de una manera adecuada a la nube de puntos definida por todos los pares
de valores muestrales (Xi,Yi).

Este método de estimación se fundamenta en una serie de supuestos, los


que hacen posible que los estimadores poblacionales que se obtienen a partir de
una muestra, adquieran propiedades que permitan señalar que los estimadores
obtenidos sean los mejores. Por lo tanto, el método de los mínimos cuadrados
ordinarios consiste en hacer mínima la suma de los cuadrados residuales, es decir
lo que tenemos que hacer es hallar los estimadores que hagan que esta suma sea
lo más pequeña posible.

 Regresión lineal:

La primera forma de regresión lineal documentada fue el método de los mínimos


cuadrados que fue publicada por Adrien Legendre en 1805 [49]. Este modelo
permite hallar el valor esperado de una variable aleatoria “a” cuando “b” toma un
valor específico. La aplicación de este método implica un supuesto de linealidad
cuando la demanda presenta un comportamiento creciente o decreciente, por tal
razón, se hace indispensable que previo a la selección de este método exista un
análisis de regresión que determine la intensidad de las relaciones entre las
variables que componen el modelo.

El pronóstico de regresión lineal simple es un modelo óptimo para patrones


de demanda con tendencia (creciente o decreciente), es decir, patrones que
presenten una relación de linealidad entre la demanda y el tiempo, (ver ejemplo de
la Figura 3.5).

34
Figura 3.5. Gráfica que muestra regresión con tendencia creciente

 Regresión logística

Este método resulta útil para los casos en los que se desea predecir la presencia o
ausencia de una característica o resultado según los valores de un conjunto de
predictores. Es similar a un modelo de regresión lineal pero está adaptado para
modelos en los que la variable dependiente es dicotómica (sólo puede tomar 2
valores). La regresión logística se puede aplicar a un rango más amplio de
situaciones de investigación que el análisis discriminante [48].

 Regresión por pasos

Es el método que identifica aquellas variables que habrán de integrar la función


que a la postre será empleada como modelo resumen del proceso bajo estudio,
aquí se van incorporando variables al modelo (forward selection), o se van
eliminando variables de él (backward elimination).

Consiste en conservar las variables independientes que contienen


información relevante y a la vez prescindir de aquellas que resulten redundantes
respecto de las que quedaron en el modelo. Se trata de procedimientos
completamente estadísticos, donde una vez elegido el conjunto inicial de
variables, no intervienen los juicios teóricos de los investigadores. Sin embargo,
por lo general este método se usa para identificar los factores verdaderamente
influyentes y no para construir modelos de predicción [49]. Tras la aplicación de la
RPP, los resultados suelen ser interpretados como sigue: las variables que se

35
“quedan” dentro del modelo final son parcialmente responsables (quizá las
principales y hasta las únicas responsables) de las modificaciones que
experimenta la variable dependiente; las que no permanecen, no influyen
causalmente en el proceso, o su influencia no es apreciable.

3.2.2.2 Algoritmos Basados en Instancia:

Modelan un problema de decisión con casos o ejemplos de datos de


entrenamiento que se consideren importantes o necesarios para el modelo [41].

Figura 3.6. Ejemplo de algoritmo utilizando una medida de similitud para predicción

Estos métodos suelen construir una base de datos de datos de ejemplo y


comparar nuevos datos a la base de datos utilizando una medida de similitud con
el fin de encontrar el mejor y hacer una predicción, como se observa en la Figura
3.6. Se enfocan en la representación de los casos almacenados y medidas de
similitud utilizados entre instancias.

Los algoritmos más importantes son:

 k- vecino más cercano (KNN)

El algoritmo KNN fue diseñado, desarrollado y publicado el artículo por Fix y


Hodges en su artículo “An important contribution to nonparametric discriminant
analysis and density estimation” en 1951, como método de clasificación

36
supervisada, el cual realiza un aprendizaje supervisado basado en un conjunto de
entrenamiento y prototipos [50].

Figura 3.7. Ejemplo visual donde se ve la aplicación del método KNN por distancias

Es uno de los algoritmos más simples que existen que muestran la esencia
del aprendizaje basado en instancias. Asume que todas las instancias
corresponden a puntos que se encuentran en un espacio de dimensión n a partir
del cual se calcula la distancia más cercana (ver Figura 3.7 para más detalle). El
vecino más cercano de una instancia es definido en términos de la distancia
Euclidiana estándar.

 Cuantificación Vectorial de aprendizaje (LVQ)

El método Vector Quantization (LVQ) es una técnica en la cual el espacio de


entradas es dividido en un número determinado de regiones y para cada una de
ellas es definido un vector que la caracteriza. Un espacio continuo tiene que ser
discretizado. La entrada al sistema son vectores n-dimensionales y la salida es
una representación discreta del espacio de entradas. Fue originalmente
desarrollado por Linde (1980) y Gray (1984).

Es una técnica usada para reducir la dimensionalidad de datos. Los datos


originales es un conjunto de vectores de dimensión n. Los vectores son mapeados
en un conjunto más pequeño de valores los cuales son usados para almacenaje o

37
transmisión (Se pierde alguna información contenida) y después son re-
trasladados a valores cercanos de los datos originales (no serán exactos) [51].

 Mapeo Auto-Organizador (SOM)

En 1982 T. Kohonen presentó un modelo de red denominado mapas auto-


organizados o SOM (Self-Organizing Maps) en su trabajo llamado “Self-Organized
Formation of Topologically Correct Feature Maps. Biological Cybernetics”, basado
en ciertas evidencias descubiertas a nivel cerebral. Este tipo de red posee un
aprendizaje no supervisado competitivo [52].

Es un tipo de red neuronal artificial que es entrenada usando aprendizaje no


supervisado para producir una representación discreta del espacio de las
muestras de entrada, llamado mapa. Los mapas auto-organizados son diferentes
de otras redes neuronales artificiales, en el sentido que estos usan una función de
vecindad para preservar las propiedades topológicas del espacio de entrada.

3.2.2.3 Algoritmos de Regularización:

Son extensiones hechas a otro método (normalmente a los métodos de regresión)


que penalizan los modelos en función de su complejidad, favoreciendo modelos
más simples que también son mejores para generalizar, (ver Figura 3.8 para
identificas las extensiones).

Figura 3.8. Ejemplo visual donde se ve la extensión que se hace de un algoritmo

38
Los algoritmos más importantes son:

 Regresión Ridge

Es un algoritmo propuesto por Hoerl y Kennard en su artículo “Ridge Regression:


Biased Estimation for Nonorthogonal Problems” en 1970. Supone un
procedimiento de ajuste de los estimadores mínimos cuadráticos con el objetivo de
reducir su variación [14].

Proporciona una evidencia gráfica de los efectos de la colinealidad en la


estimación de los coeficientes de regresión; así como nuevos estimadores que
garantizan minimizar la varianza asociada a la estimación de los coeficientes de
regresión, de forma que constituye un método alternativo cuando las variables
explicativas son altamente no ortogonales. Añade un pequeño sesgo factor para
las variables con el fin de aliviar este problema.

 Least Absolute Shrinkage and Selection Operator (LASSO)

Es un método de análisis de regresión que realiza tanto la selección de variables


como su regularización con el fin de mejorar la precisión de predicción y la
interpretabilidad del modelo estadístico que produce. Fue desarrollado por Robert
Tibshirani en 1996 en su artículo “Regression Shrinkage and Selection via the
LASSO” [15].

Figura 3.9. Muestra de estimación para LASSO (izq) y Regresión de Cresta (der);

región azul=regiones de restricción

39
LASSO fue originalmente formulado para modelos de mínimos cuadrados y
este caso simple revela una cantidad sustancial sobre el comportamiento del
estimador, incluyendo su relación con la regresión de cresta (regression ridge) y la
mejor selección de subconjuntos y las conexiones entre las estimaciones de
coeficiente LASSO y el llamado umbral suave (ver Figura 3.9 para identificar esta
estimación). También revela que (como la regresión lineal estándar) las
estimaciones de coeficientes no necesitan ser únicas si las covariables son
colineales.

 Red Elástica

Zou y Hastie en su artículo “Regularization and variable selection via the elastic
net” en 2005, proponen una nueva técnica de regularización y selección de
variables conocido como “Elastic Net” o red elástica, la cual retiene las ventajas de
Lasso, hace automáticamente selección de variables y contracción continua, y al
mismo tiempo supera algunas de sus limitaciones [16]. Con este nuevo método se
puede seleccionar grupos de variables correlacionadas. Este método es
particularmente útil cuando el número de predictores (P) es mucho más grande
que el número de observaciones (n).

3.2.2.4 Algoritmos de Árbol de Decisión:

Construyen un modelo de las decisiones tomadas sobre la base de los valores


reales de atributos en los datos, como se observa en la Figura 3.10. Las
decisiones de la horquilla en estructuras de árbol hasta una decisión de predicción
se hace para un registro dado [41]. Los árboles de decisión se aplican para los
problemas de clasificación y regresión; son rápidos y precisos muy utilizados en
aprendizaje de máquina.

40
Figura 3.10. Ejemplo de un árbol de decisión

Los algoritmos más importantes son:

 La clasificación y el árbol de regresión (CART):

Este algoritmo fue desarrollado en 1984 por Leo Breiman en su trabajo


“Classification and Regression Trees” y cuyo resultado es en general, un árbol de
decisión, las ramas representan conjuntos de decisiones y cada decisión genera
reglas sucesivas para continuar la clasificación (partición) formando así grupos
homogéneos respecto a la variable que se desea discriminar [17] .Las particiones
se hacen en forma recursiva hasta que se alcanza un criterio de parada, el método
utiliza datos históricos para construir el árbol de decisión, y este árbol se usa para
clasificar nuevos datos [18].

CART es un método no-paramétrico de segmentación binaria donde el


árbol es construido dividiendo repetidamente los datos. En cada división los datos
son partidos en dos grupos mutuamente excluyentes. El nodo inicial es llamado
nodo raíz o grupo madre y se divide en dos grupos hijos o nodos, luego el
procedimiento de partición es aplicado a cada grupo hijo por separado. Las
divisiones se seleccionan de modo que “la impureza” de los hijos sea menor que la
del grupo madre y éstas están definidas por un valor de una variable explicativa. El
objetivo es particionar la respuesta en grupos homogéneos y a la vez mantener el
árbol razonablemente pequeño. Para dividir los datos se requiere un criterio de
particionamiento el cual determinará la medida de impureza, esta última
establecerá el grado de homogeneidad entre los grupos.

41
 Induction Decision Trees (ID3)
Fue desarrollado por J. Ross Quinlan en 1983 en su trabajo “Induction of Decisión
Trees”. Emplea un procedimiento de arrriba a abajo haciendo un recorrido voraz
por el espacio de las posibles ramificaciones sin backtracking (ver Figura 3.11
para más detalle de este procediiento). Para ello, ID3 hace uso de conceptos
como entropía y ganancia de información [19].

Figura 3.11 Ejemplo de visualización del procedimiento arriba hacia abajo del algoritmo ID3

Este algoritmo realiza un proceso recursivo sobre todas las ramas del
árbol generado. Inicialmente, se le llama con el conjunto de ejemplos, el de
atributos, y el nodo raíz del árbol de decisión que estará vacío. Su objetivo es
construir un árbol de decisión que explique cada instancia de la secuencia de
entrada de la manera más compacta posible a partir de una tabla de inducción.
Durante el proceso se elige el mejor atributo dependiendo de una determinada
heurística, se determinan las variables que portan información relevante para la
solución del problema y se establecen la secuencia dentro del árbol de decisión.

ID3 examina todos los atributos y escoge el de máxima ganancia, forma


la ramificación y usa el mismo proceso recursivamente para formar sub-árboles a
partir de los v nodos generados

42
 C4.5
Es un algoritmo usado para generar un árbol de decisión. Fue desarrollado y
publicado por Ross Quinlan en 1992 en su artículo “C4.5 Programs for Machine
Learning” y es una extensión del algoritmo ID3 desarrollado también por Quinlan
previamente [19]. Los árboles de decisión generados con C4.5 se pueden usar
para clasificación, por ello es conocido como un clasificador estadístico (ver Figura
3.12 para visualizar ejemplo).

Figura 3.12 Ejemplo de visualización del procedimiento algoritmo C 4.5

Las mejoras que propone C4.5 frente a ID3 son:


 Manejo de los datos perdidos. A la hora de construir el árbol se ignoran los
campos perdidos, de manera que solo se tienen en cuenta los registros que
tienen valor para ese atributo.
 Posibilidad de trabajar con datos continuos. Para poder trabajar con datos
continuos, C4.5 divide los datos en rangos en base a los valores
encontrados en el conjunto de entrenamiento.
 Propone soluciones para el sobreaprendizaje, pudiendo usar pre-poda (se
decide cuando dejar de subdividir el árbol) y post-poda (se construye el
árbol y después se poda).

 Detección Automática de Interacción ChiCuadrada (CHAID)

Este algoritmo fue desarrollado por G.V Kass en su trabajo “An Exploratory
Technique for Investigating Large Quantities of Categorical Data” a principios de
los años 80 [42]. Asume que las variables explicativas son categóricas u ordinales.

43
Cuando no lo son, se discretizan. Inicialmente se diseñó para el caso de variable
respuesta Y categórica y posteriormente se extendió a variables continuas. Utiliza
contrastes de la χ2 de Pearson y la F de Snedecor.

CHAID considera todos los cortes posibles en todas las variables.


Durante el procedimiento se selecciona el corte que da el menor p-valor asociado
a una medida de contraste estadístico. Si la variable criterio es categórica la
medida es la χ2 de Pearson. Si es continua la medida es F de Snedecor. En cada
paso, CHAID elige la variable independiente (predictora) que presenta la
interacción más fuerte con la variable dependiente. Las categorías de cada
predictor se funden si no son significativamente distintas respecto a la variable
dependiente [20].

3.2.2.5 Algoritmos Bayesianos:

Son aquellos que se enfocan explícitamente en aplicar el Teorema de Bayes, la


probabilidad bayesiana y la distribución posterior y priori (ver Figura 3.13) para
resolver problemas de clasificación y regresión [41].

Figura 3.13 Ejemplo de aplicación probabilidad bayesiana, distribución posterior y priori

Los algoritmos más importantes son:

 Naive Bayes

Está basado en el teorema de bayes propuesto por Thomas Bayes en 1763, en su


trabajo “An Essay towards solving a Problem in the Doctrine of Chances” [53],
donde se expresa la probabilidad condicional de un evento aleatorio A dado B en

44
términos de la distribución de probabilidad condicional del evento B dado A y la
distribución de probabilidad marginal de sólo A [21].

Figura 3.14 Fórmula del teorema de Bayes

Este método es utilizado para clasificar una nueva instancia D dentro de un


conjunto finito C de clases predeterminadas. Esto significa que, dada una clase C
y un conjunto de palabras W de la nueva instancia a clasificar, se calcula la
probabilidad de que dicho instancia se clasifique dentro de la categoría C. Al final
P(C) representará la probabilidad a priori de la clase y P (W|C) es la probabilidad
condicional de la palabra W dada la clase C (ver Figura 3.14 para observar la
fórmula).

Es una técnica de clasificación y predicción que construye modelos que


predicen la probabilidad de posibles resultados. Naive Bayes utiliza datos
históricos para encontrar asociaciones y relaciones y hacer predicciones. Por otro
lado se trata de un clasificador probabilístico fundamentado en el teorema de
Bayes y algunas hipótesis simplificadoras adicionales. Es a causa de estas
simplificaciones, que se suelen resumir en la hipótesis de independencia entre las
variables predictoras, que recibe el apelativo de ingenuo.

 Gauss Naive Bayes

En este método a diferencia del anterior se utilizan distribuciones gaussianas en


vez de histogramas. Con esto se tiene la ventaja de que se requiere mucha menos
información para caracterizar la distribución, además del hecho de que es posible

45
caracterizar matemáticamente una distribución gaussiana de N dimensiones [54].
De esta forma se tiene la Figura 3.15:

1
1 (− (𝒙−𝝁)𝑇 𝚺 −1 (𝒙−𝝁))
2
𝑁 1𝑒
(2𝜋) 2 ⋅ |𝚺|2
Figura 3.15 Función de distribución gaussiana

Donde:

𝑵: denota el número de dimensiones.

𝚺 ∶ denota la matriz de covarianza de la distribución.

𝝁: corresponde a la media, como un vector de N dimensiones.

𝒙: es el vector que se desea evaluar en la distribución.

En esta técnica se tiene como entrada el conjunto de pruebas, además del


conjunto de parámetros que definen las gaussianas.

 Red bayesiana

El término fue acuñado por Judea Pearl en 1985 en su texto seminal


“Razonamiento Probabilístico en Sistemas Inteligentes y Razonamiento
Probabilístico en Sistemas Expertos” [22] para hacer hincapié en tres aspectos:

1. El carácter a menudo subjetivo de la información de entrada.


2. La dependencia de acondicionamiento de Bayes como base para la
actualización de la información.
3. La distinción entre los modos causales y probatorio de razonamiento, lo que
subraya Thomas Bayes en un documento publicado póstumamente en
1763.

46
Es un grafo acíclico dirigido (DAG) en la cual cada nodo representa una
variable y cada arco una dependencia probabilística, en la cual se especifica la
probabilidad condicional de cada variable dados sus padres. La variable a la que
apunta el arco es dependiente (causa-efecto) de la que está en el origen de éste.

Figura 3.16 Ejemplo de una red bayesiana. Los nodos representan variables

aleatorias y los arcos relaciones de dependencia

En otras palabras, los nodos representan variables aleatorias y los arcos


representan relaciones de dependencia directa entre las variables. La Figura
muestra un ejemplo hipotético de una red bayesiana (RB) que representa cierto
conocimiento sobre medicina. En este caso, los nodos representan enfermedades,
síntomas y factores que causan algunas enfermedades. La variable a la que
apunta un arco es dependiente de la que está en el origen de éste, por ejemplo
fiebre depende de tifoidea y gripe como se ve en el ejemplo de la Figura 3.16 La
topología o estructura de la red nos da información sobre las dependencias
probabilísticas entre las variables.

3.2.2.6 Algoritmos de Agrupamiento:

El agrupamiento (clustering) al igual que la regresión describe la clase de


problema y la clase de métodos. Los métodos de clustering están organizados
típicamente por los métodos de modelización como el de tipo jerárquico y el
basado en el centroide [38] [41]. Todos los métodos utilizan estructuras inherentes

47
a los datos para organizarlos en grupos con características comunes, como se
observa en la Figura 3.17

Figura 3.17 Ejemplo de agrupamiento modelando 2 grupos de objetos

Los algoritmos más importantes son:

 K-medias

El algoritmo de las K-medias (presentado por MacQueen en 1967) es uno de los


algoritmos de aprendizaje no supervisado más simples para resolver el problema
de la clusterización [24]. El procedimiento aproxima por etapas sucesivas un cierto
número (prefijado) de clústeres haciendo uso de los centroides de los puntos que
deben representar.

Figura 3.18 Ejemplo de agrupamientos (rojo, azul, verde), donde se ubica el centroide al centro

48
El algoritmo se compone de los siguientes pasos:

1. Sitúa KK puntos en el espacio en el que "viven" los objetos que se quieren


clasificar. Estos puntos representan los centroides iniciales de los grupos o
clusters (ver Figura 3.18 para más detalle).
2. Asigna cada objeto al grupo que tiene el centroide más cercano.
3. Tras haber asignado todos los objetos, recalcula las posiciones de los KK
centroides.
4. Repite los pasos 2 y 3 hasta que los centroides se mantengan estables.
Esto produce una clasificación de los objetos en grupos que permite dar
una métrica entre ellos.

Aunque se puede probar que este algoritmo siempre termina, no siempre la


distribución que se alcanza es la más óptima, ya que es muy sensible a las
condiciones iniciales.

 Agrupamiento jerárquico

Es un método de análisis de grupos puntuales, el cual busca construir una


jerarquía de grupos, fue desarrollado por Berkhin en 2006, en su trabajo “A survey
of clustering data mining techniques, in Grouping Multidimensional Data” [23].
Tienen por objetivo agrupar clústeres para formar uno nuevo o bien separar
alguno ya existente para dar origen a otros dos, de tal forma que, si
sucesivamente se va efectuando este proceso de aglomeración o división, se
minimice alguna distancia o bien se maximice alguna medida de similitud. Sus
resultados son usualmente presentados en un dendrograma como el que se ve en
la Figura 3.19.

49
Figura 3.19 Dendrograma con agrupamiento ascendente

Los métodos jerárquicos se subdividen en aglomerativos y disociativos. Se


describen como sigue:

1. Métodos aglomerativos: También conocidos como ascendentes,


comienzan el análisis con tantos grupos como individuos haya. A partir
de estas unidades iniciales se van formando grupos, de forma
ascendente, hasta que al final del proceso todos los casos tratados
están englobados en un mismo conglomerado.

2. Métodos disociativos: También llamados descendentes, constituyen el


proceso inverso al anterior. En esta ocasión comienzan con un
conglomerado que engloba a todos los casos tratados y, a partir de este
grupo inicial, a través de sucesivas divisiones, se van formando grupos
cada vez más pequeños. Al final del proceso se tienen tantas
agrupaciones como casos han sido tratados.

Para el desempeño de este proyecto se decidió emplear agrupamiento jerárquico


para la obtención de clústeres debido a que con esta técnica se podía garantizar
un alto rendimiento al momento de poder tratar de identificar el tipo de datos
obtenidos.

50
3.2.2.7 Algoritmos con Aprendizaje de Regla de Asociación:

Son métodos que extraen reglas que explican mejor las relaciones observadas
entre las variables de datos [41]. Estas reglas pueden descubrir asociaciones
importantes y comercialmente útiles en grandes conjuntos de datos
multidimensionales que pueden ser explotadas por una organización, ver Figura
3.20 para identificar las reglas de asociación dadas en el ejemplo.

Figura 3.20 Ejemplo donde se aprecian reglas de asociación de objetos

Los algoritmos más importantes son:

 Algoritmo a priori

Fue propuesto por Agrawal y Srikant en 1994 dentro de su trabajo “Fast algorithms
for mining association rules”. Este algoritmo se utiliza en bases de datos
transaccionales, que permite encontrar de forma eficiente "conjuntos de objetos
frecuentes", los cuales sirven de base para generar reglas de asociación. Procede
identificando los ítems individuales frecuentes en la base y extendiéndolos a
conjuntos de mayor tamaño siempre y cuando esos conjuntos de datos aparezcan
suficientemente seguidos en dicha base de datos [25].

Este algoritmo se ha aplicado grandemente en el análisis de transacciones


comerciales y en problemas de predicción.

51
 Algoritmo Eclat

Este algoritmo propuesto por J. Mohammed Zaki, un profesor de ciencias


informáticas en el Instituto Politécnico Rensselaer, en 2000 en su trabajo
"Algoritmos escalables para minería de asociación” utiliza una intersección de
conjuntos para determinar los conjuntos de elementos frecuentes y se repite hasta
que no hay más conjuntos de elementos frecuentes que se pueden encontrar [26].

Tiene como deficiencia la cantidad considerable de conjunto de objetos


procesados que, por no generarse completamente a lo ancho, no pueden podarse
por no tenerse todos los frecuentes del mismo nivel. No obstante, se han
propuesto implementaciones eficientes de este método. Particularmente, debido a
su estrategia descendente y a las características del árbol de búsqueda, Eclat
puede encontrar conjunto de objetos maximales previos que serán supraconjuntos
de otros desde donde se descendería posteriormente, evitándose recorridos
innecesarios. Basado en esta característica, se han realizado implementaciones
que logran el descubrimiento de conjunto de objetos maximales en menos tiempo
que el método Apriori clásico.

3.2.2.8 Algoritmos de Redes Neuronales Artificiales:

Las Redes Neuronales Artificiales (RNA) son modelos que se inspiran en la


estructura y función de las redes neuronales biológicas. Son una clase de
clasificación de patrones que se utilizan comúnmente para problemas de regresión
y clasificación pero son realmente un enorme subcampo compuesto por cientos de
algoritmos y variaciones para todo tipo de tipos de problemas [39] [41]. Este tipo
de algoritmos esta comúnmente formado por un conjunto de entradas y salidas de
elementos, como se observa en la Figura 3.21, donde hay una entrada y 4 salidas.

52
Figura 3.21 Ejemplo de estructura de una red neuronal

Los algoritmos más importantes son:

 Perceptron

Este algoritmo surge a partir del diseño de una neurona artificial en forma de
discriminador lineal por parte de Rosenblatt en 1957 descrita en su trabajo “The
perceptron: A Probabilistic model for Visual Perception” [39], el perceptrón; que
cuenta con señales de entrada, una asignación de pesos, una función de
activación, una unión sumadora y una salida además de características como el
reconocimiento y clasificación de patrones sencillos linealmente separables (ver
Figura 3.22 para identificar estos elementos).

Su contribución principal fue la introducción de una regla de aprendizaje


para la formación de redes perceptrón para resolver problemas de reconocimiento
de patrones. Demostró que su regla de aprendizaje siempre convergirá a los
pesos correctos de la red, si existen pesos que solucionan el problema. El
Perceptrón pudo incluso aprender cuando se inicializaba con valores aleatorios de
sus pesos y bias.

Figura 3.22 Ejemplo de estructura perceptrón con 5 neuronas de entrada

53
Con esta teoría, se desarrolla un algoritmo capaz de generar un criterio
para seleccionar un sub-grupo a partir de un grupo de componentes más grande.
La limitación de este algoritmo es que si dibujamos estos elementos, se deben
poder separar con un hiperplano únicamente los elementos "deseados"
discriminándolos (separándolos) de los "no deseados". El perceptrón puede
utilizarse con otros perceptrones u otro tipo de neurona artificial, para formar redes
neuronales más complicadas.

 Back-Propagation

Este algoritmo fue desarrollado por David Rumelhart y McClelland en 1986, en su


trabajo “The appeal of parallel distributed processing, in Parallel Distributed
Processing: Explorations in the Microstructure of Cognition” [26].

El algoritmo emplea un ciclo propagación–adaptación de dos fases. Una


vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se
propaga desde la primera capa a través de las capas siguientes de la red, hasta
generar una salida. La señal de salida se compara con la salida deseada y se
calcula una señal de error para cada una de las salidas. Las salidas de error se
propagan hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de
la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas
de la capa oculta solo reciben una fracción de la señal total del error, basándose
aproximadamente en la contribución relativa que haya aportado cada neurona a la
salida original. Este proceso se repite, capa por capa, hasta que todas las
neuronas de la red hayan recibido una señal de error que describa su contribución
relativa al error total.

La red de retropropagación adapta sus pesos, para adquirir un


entrenamiento a partir de un conjunto de pares de patrones entrada/salida.
Después que la red ha aprendido, se le puede aplicar un conjunto de patrones de
prueba, para ver como esta generaliza a patrones no proporcionados.

54
Figura 3.23 Neurona básica en backpropagation

Es un método de entrenamiento general para redes multicapas, requiriendo


diferenciabilidad en la capa de salida. Es decir la función debe ser diferenciable
(sigmoide). En la figura 3.23 se observa una neurona básica en backpropagation,
con sus capas de entrada, oculta y de salida. La de salida activada con una
función sigmoidal que describe valores de z entre 0 y 1.

3.2.2.9 Algoritmos de aprendizaje profundo (Deep Learning):

Los métodos de Deep Learning son la modernización de las redes neuronales


artificiales que explotan abundante cómputo barato. Se preocupan por la
construcción de redes neuronales mucho más grandes y más complejas como el
de la Figura 3.24, muchos métodos tienen que ver con problemas de aprendizaje
semi - supervisado donde grandes conjuntos de datos contienen datos muy poco
marcados [39] [41].

Figura 3.24 Ejemplo de algoritmo Deep Learning visto desde una red neuronal compleja

55
Los algoritmos más importantes son:

 Máquina Boltzmann

Este algoritmo se le atribuye a los investigadores Geoffrey Hinton y Terry


Sejnowski donde plasmaron su idea en su trabajo “Learning and Relearning in
Boltzmann Machines” en 1986 [27]. La máquina de Boltzmann es útil para el
reconocimiento de patrones, intentando recuperar información no disponible de un
estado y está constituida por unidades de proceso (neuronas) estocásticas con
conexiones sinápticas simétricas entre las mismas. Dichas unidades de proceso
son de dos tipos funcionales: visibles u ocultas, como se muestra en la Figura
3.25.

Figura 3.25 Arquitectura de la máquina de Boltzmann

Hay dos arquitecturas principales para las máquinas de Boltzmann: Completación


de Boltzmann y la red de Boltzmann de entrada-salida.

La diferencia está en la capa visible, pues en las de completación sólo hay


un tipo y están conectadas entre ellas de forma bidireccional (todas las neuronas
con todas, inclusive las no visibles); en la red de entrada-salida las visibles se
dividen en las neuronas de entrada y en las de salida, siendo las de entrada
únicamente conectadas unidireccionalmente con la capa no visible y las neuronas
de salida. Las de salida se conectan con todas las que no son de entrada de forma
bidireccional.

56
 Redes profundas de creencia (DBN)

Este algoritmo representa un modelo gráfico o alternativamente un tipo de red


neuronal, compuesto de múltiples capas de variables latentes (llamadas unidades
escondidas), con conexiones entre las capas, como se ve en la Figura 3.26 pero
no entre unidades dentro de cada capa.

Figura 3.26. Esquema general de una red de creencia profunda

Al momento que se está entrenando un algoritmo DBN con un conjunto de


ejemplos como entrada de forma no supervisada, una DBN puede aprender a
probabilísticamente reconstruir estas entradas. Las capas entonces actúan como
detectores de características en dicha entrada. Después de este paso de
aprendizaje, una DBN puede de nuevo ser entrenada de forma supervisada para
mejorar la etapa de clasificación [41].

 Red convolucional

Este tipo de redes se basan en el Neocognitron, introducido por Kunihiko


Fukushima en su artículo “Neocognitron: A Self-organizing Neural Network Model
for a Mechanism of Pattern Recognition Unaffected by Shift in Position” en 1980
[28]. Este modelo fue más tarde mejorado por Yann LeCun et al. en 1998 al

57
introducir un método de aprendizaje basado en Backpropagation para poder
entrenar el sistema correctamente.

Son muy similares a las redes neuronales ordinarias como el perceptrón


multicapa que se compone de neuronas que tienen pesos y sesgos que pueden
aprender. Cada neurona recibe algunas entradas, realiza un producto escalar y
luego aplica una función de activación. Al igual que en el perceptrón multicapa
también vamos a tener una función de pérdida o costo sobre la última capa, la cual
estará totalmente conectada. Lo que diferencia a las redes neuronales
convolucionales y a su algoritmo es que suponen explícitamente que las entradas
son imágenes, lo que permite codificar ciertas propiedades en la arquitectura;
permitiendo ganar en eficiencia y reducir la cantidad de parámetros en la red.

3.2.2.10 Algoritmos de Reducción de Dimensionalidad:

Así como los métodos de clustering, la reducción de dimensionalidad busca y


explota la estructura inherente a los datos, pero en este caso de una manera no
supervisada para resumir o describir datos utilizando menos información [39][41].

Figura 3.27 Ejemplo de visualización de datos dimensionales

Esto puede ser útil para visualizar datos dimensionales o para simplificar los datos
que pueden ser usados en un método de aprendizaje supervisado, ver Figura 3.27
para más detalle. Muchos de estos métodos se pueden adaptar para usarse en
clasificación y regresión.

58
Los algoritmos más importantes son:

 Análisis de los componentes principales (PCA)

Este algoritmo fue estudiado por Hotelling en su trabajo “Analysis of a complex of


statistical variables into principal components” en los años 30 del siglo XX[29]. Sin
embargo, hasta la aparición de las computadoras fue cuando se empezó a
popularizar. Es una técnica que busca reducir la dimensionalidad de los datos sin
eliminar datos buscando una nueva y precisa representación de los datos que
tenga una más baja dimensionalidad. Este proceso se realiza mediante la
proyección de los datos en la dirección máxima varianza [49].

Figura 3.28 Variación de la diferencia entre PCA original y PCA iterativo en bloque según el
número de componentes principales utilizadas.

PCA preserva tanta varianza como sea posible. Para que sea efectiva es
necesario que los datos tengan una dirección con una mayor varianza que otras,
sino la técnica deja de ser efectiva. También podemos entender a este algoritmo
como una transformación lineal de los datos en un nuevo sistema de coordenadas.
Así los datos se proyectan sobre nuevos ejes, siendo el primer eje el de mayor
varianza (ver Figura 3.28).

59
 Regresión de los mínimos cuadrados parciales (PLSR)

El método original de regresión PLSR fue introducido alrededor de 1975 por el


estadístico Herman Wold para un tratamiento de cadenas de matrices y
aplicaciones en econometría en su trabajo “Soft Modeling by Latent Variables; The
Non-linear Iterative Partial Least Squares Approach” [30]. Es una técnica que
reduce los predictores a un conjunto más pequeño de componentes no
correlacionados y realiza una regresión de mínimos cuadrados con estos
componentes, en lugar de hacerlo con los datos originales. La regresión de PLS
resulta especialmente útil cuando se tiene más predictores que observaciones y la
regresión de mínimos cuadrados ordinarios produce coeficientes con altos errores
estándar o falla por completo.

Se utiliza para encontrar las relaciones fundamentales entre las dos


matrices (X e Y), es decir, un enfoque de variable latente para modelar la
estructura de covarianza en estos dos espacios. Un modelo de PLSR trata de
encontrar el sentido multidimensional en el espacio de X que explica la dirección
de la máxima varianza multidimensional en el espacio Y. regresión de mínimos
cuadrados parciales es especialmente adecuada cuando la matriz de predictores
tiene más variables que observaciones, y cuando hay multicolinealidad entre los
valores de X. Por el contrario, de no usarse este modelo se producirá un error
estándar de la regresión en estos casos.

 Mapeo de Sammon

Es un algoritmo que mapea un espacio de alta dimensión a un espacio de menor


dimensionalidad intentando preservar la estructura de las distancias entre puntos
en el espacio de alta dimensión en la proyección de la dimensión inferior. Es
particularmente adecuado para su uso en el análisis exploratorio de datos (ver
Figura 3.29 para visualizar ejemplo de este tipo de mapeo). El método fue
propuesto por John W. Sammon en 1969 en su trabajo “A nonlinear mapping for
data structure analysis” [31].

60
Figura 3.29 Un ejemplo de muestra de Sammon mapeando en distintas coordenadas

Se considera para este algoritmo un enfoque no lineal ya que el mapeo no


puede representarse como una combinación lineal de las variables originales
como en el caso del análisis de componentes principales, lo que también hace que
sea más difícil de usar para aplicaciones de clasificación.

 Escalonamiento Multidimensional (MDS)

El MDS es una técnica multivariante de interdependencia desarrollada por


Torgerson en 1952 en su trabajo “Multidimensional Scaling: Theory and Method”
que trata de representar en un espacio geométrico de pocas dimensiones las
proximidades existentes entre un conjunto de objetos o de estímulos; esta técnica
representa distancias (euclídeas o no) en pocas dimensiones (habitualmente 2D ó
3D), buscando la solución óptima en forma de mejoras en cada iteración [32].

Por otro lado también se refiere al conjunto de técnicas estadísticas


utilizadas habitualmente en marketing y ciencias sociales para la visualización y
exploración de datos y de esta forma realizar un procedimiento para tomar
preferencias y percepciones de los encuestados y representarlos en un diagrama
visual. Estos diagramas, llamados mapas perceptuales tienen generalmente dos

61
dimensiones, pero pueden representarse en más de dos (Ver Figura 3.30 como
ejemplo de este caso).

Figura 3.30 Ejemplo de mapa perceptual

En cada iteración posterior podemos encontrar alguna ordenación diferente en


algún aspecto (No representa una única solución al análisis)

Ventajas:

 Propone una solución a la representación de n-Dimensionalidad


 Utiliza un concepto fácil de interpretar (distancia) en 2D
 Se puede asociar con conceptos de orden ecológico (Bray-Curtis)
 No tiene requisitos estrictos (puede trabajar incluso con rangos nMDS)

Inconvenientes:

 Problema cuando tenemos gráficos muy congestionados


 Puede no encontrar una única solución (ha llegado a un mínimo local)

62
 Análisis Discriminante Lineal (LDA)

Es un método utilizado en estadística, reconocimiento de patrones y aprendizaje


de máquina para encontrar una combinación lineal de rasgos que caracterizan o
separan dos o más clases de objetos o eventos. La combinación resultante puede
ser utilizada como un clasificador lineal, o, más comúnmente, para la reducción de
dimensiones antes de la posterior clasificación. Se utiliza para conocer qué
variables son las que mejor definen a las clases a explicar (mediana de la
distribución) y obtener así los coeficientes discriminantes que proporcionan el
poder predictivo de las mismas. Fue un aporte del estadístico Ronald Fisher que
desarrollo en su trabajo “The Use of Multiple Measurements in Taxonomic
Problems” en 1936 [33].

Es una técnica que permite asignar nuevos casos a grupos previamente


conocidos. Su objetivo es clasificar un nuevo caso a partir del conocimiento de los
valores que presenta en ciertas variables discriminadoras. A diferencia del Análisis
de Clusters, se deben conocer los grupos de antemano y a qué grupo pertenecen
ciertos casos en los que se han medido ciertas variables discriminadoras.

3.2.2.11 Meta-Algoritmos de aprendizaje de máquina:

Son modelos compuestos por múltiples modelos más débiles que se entrenan de
manera independiente y cuyas predicciones se combinan para hacer una
predicción general, como se aprecia en la Figura 3.31.

Figura 3.31. Ejemplo de combinación de modelos para una única predicción

63
Los algoritmos más comunes dentro de éste grupo son:

 Boosting

Es un meta-algoritmo de aprendizaje automático que reduce el sesgo y varianza


en un contexto de aprendizaje supervisado. Está basado en el cuestionamiento
planteado por Kearns y Valiant en 1989 ¿Puede un conjunto de clasificadores
débiles crear un clasificador robusto? y que posteriormente respondieron en su
trabajo “Crytographic limitations on learning Boolean formulae and finite autómata”
[34].

Éste consiste en combinar los resultados de varios clasificadores débiles


para obtener un clasificador robusto. Cuando se añaden estos clasificadores
débiles, se lo hace de modo que estos tengan diferente peso en función de la
exactitud de sus predicciones. Luego de que se añade un clasificador débil, los
datos cambian su estructura de pesos: los casos que son mal clasificados ganan
peso y los que son clasificados correctamente pierden peso. Así, los clasificadores
débiles se centran de mayor manera en los casos que fueron mal clasificados por
los clasificadores débiles.

 Bootstrap Aggregation (Bagging)

Es un algoritmo diseñado para mejorar la estabilidad y precisión de algoritmos de


aprendizaje automático usados en clasificación estadística y regresión así como
para reducir la varianza y ayudar a reducir el sobreajuste. Fue propuesto por Leo
Breiman en 1994 en su trabajo “Bagging predictors” para mejorar la clasificación
combinando clasificaciones de conjuntos de entrenamientos generados
aleatoriamente [35].

64
Figura 3.32 Ejemplo de muestreo del algoritmo bagging

En general cuando se promedian varios modelos se obtiene un mejor ajuste


que cuando se utiliza un solo modelo de algoritmo de aprendizaje. La idea básica
es remuestrear los datos y calcular las predicciones sobre el conjunto de datos
remuestreados como se ve en la Figura 3.32). Al promediar varios modelos
conjuntamente se obtiene un mejor ajuste debido a que se mitigan tanto los
modelos con sesgo como los modelos con alta varianza. La mejora producida por
bagging es más importante para clasificadores que varían significativamente con
leves variaciones del conjunto de datos de entrenamiento. Por ejemplo, bagging
produce una importante mejora en árboles de decisión pero no en KNN.

 AdaBoost

El algoritmo fue creado por Freund y Shapire en su trabajo “A decision-theoretic


generalization of on-line learning and an application to boosting” en 1997, con el fin
de mejorar el algoritmo boosting. Es una contracción de “Adaptative Boosting” y
propone entrenar una serie de clasificadores débiles de manera iterativa de modo
que cada nuevo clasificador se enfoque en los datos que fueron erróneamente
clasificados por su predecesor, de esta manera el algoritmo se adapta y logra
obtener mejores resultados [36].

65
Figura 3.33 Diagrama de flujo de funcionamiento de Adaboost

Por otro lado se puede decir que se utiliza en conjunto con otros tipos de
algoritmos de aprendizaje para mejorar su rendimiento. La salida de los otros
algoritmos de aprendizaje ("aprendizajes débiles") se combina para representar la
salida final de este clasificador como se aprecia en la Figura 3.33. Es una técnica
adaptativa en el sentido de que los aprendizajes débiles son ajustados en favor de
aquellas instancias mal clasificadas por los clasificadores anteriores; sin embargo
es sensible a datos ruidosos y valores atípicos.

 Gradient Boosting Machine (GBM)

Es una técnica de aprendizaje automático para problemas de regresión y


clasificación, que produce un modelo de predicción en forma de un conjunto de
modelos de predicción débiles, típicamente árboles de decisión. Construye el
modelo de una manera escénica como otros métodos de impulso, y los generaliza
al permitir la optimización de una función de pérdida diferenciable arbitraria. Fue
desarrollada por Jerome Friedman en su trabajo “Greedy boosting approximation:
a gradient boosting machine” [37].

66
CAPÍTULO 4
Metodología y procedimiento
En este capítulo se describen el diseño y desarrollo de la interfaz BCI propuesta
que permite la conexión a un videojuego sencillo a través de la cual se obtienen
señales cerebrales para procesarlas e interpretarlas para realizar un movimiento
en específico.

El desarrollo general de este proyecto, se llevó a cabo como se observa en la


Figura 4.1 en 4 etapas, primero el diseño de la aplicación, después el de la interfaz
visual de usuario, posteriormente la parte más importante del proyecto, el sistema
BCI, y finalmente la etapa de pruebas y resultados.

Desarrollo de Interfaz BCI

Diseño de la Diseño de la Pruebas y


aplicación interfaz Sistema BCI Resultados
(videojuego) gráfica

Figura 4.1. Etapas de desarrollo de la interfaz BCI

4.1 Diseño de la aplicación (videojuego):

En esta etapa se desarrolló una aplicación concebida como un videojuego en 2D,


cuya dinámica consiste en el clásico juego akapong (ping-pong) en el cual se
tienen elementos como una mesa, raquetas, y una pelota que rebota en todo el
escenario. El juego fue desarrollado con swing de Java (ver Figura 4.2) y cuyo fin
simplemente consiste en repeler o rebotar la pelota de un lado a otro y hacer la
mayor cantidad de puntos posibles.

67
Figura 4.2. Aplicación Akapong

El fin de desarrollar este tipo de aplicación era poder obtener a través del
dispositivo Emotiv, los comandos direccionales de izquierda y derecha del
movimiento de la raqueta, en su búsqueda de impactar la pelota en el escenario.

4.2 Diseño de la interfaz:

En esta etapa se desarrolló una interfaz visual de recolección de datos que


permitiera obtener y guardar la información generada por la diadema Emotiv
(señales) al momento de probar la aplicación.

Figura 4.3. Diseño de la Interfaz

68
El diseño de la interfaz se pensó con la idea de que fuera amigable y fácil de usar
con el fin de recolectar información del usuario como lo es su nombre, sexo, edad
y el tipo de prueba que se le va a realizar (prueba de comandos derecha, prueba
de comandos izquierda y prueba híbrida) para más detalle ver Figura 4.3.

4.3 Sistema BCI:

En esta etapa una vez desarrolladas tanto la aplicación como la interfaz de


usuario, ahora es momento de unir ambas partes para lograr que el sistema BCI
esté completo. Lo anterior se implementó en lenguaje de programación Java
debido a que se aprovecharon las API’s y herramientas respectivas incluidas en el
software Emotiv Epoc que permitieron unir los elementos para poder obtener la
información de la interfaz y poder realizar los movimientos (izquierda-derecha) en
el juego. El esquema básico de funcionamiento se aprecia en la Figura 4.4.

Configuración de Preparación de entorno y Resultado sobre la


elementos y Procesado de
adquisición de la Señal Aplicación (Pruebas)
la Señal

Emotiv API
Visualización

Control de Interfaz
EmoEngine
Aplicación de comandos
Obtención de
Análisis de la Señal
Características

EmoState

Figura 4.4 Esquema básico del sistema para el control cerebral de un videojuego utilizando el
Emo-Engine

69
4.3.1 Procesado de la señal y configuración de módulos del sistema en interfaz:

Este es el primer paso en el procedimiento para obtener una interfaz BCI, es la


más importante del proyecto, ya que de aquí depende que se realice una buena
conexión entre todas las partes del sistema BCI y que se pueda lograr mover la
aplicación a través del sistema Emotiv con base en las características y facilidades
que ofrece.

Por un lado una de las facilidades que se usaron en esta ocasión es el


hecho de que se pueda acceder al estado de calidad de señal de los sensores y
grabación de la información procesada (señales) mediante la aplicación
“Testbench” (ver Figura 4.5). A través de este panel podemos visualizar el
comportamiento de la señal de manera gráfica en tiempo real mostrando el
resultado de cada sensor con un color diferente, así como el número de muestras
producidas por segundo, la batería de la diadema, entre otras propiedades.

Figura 4.5. Entorno TestBench de Emotiv Suite

Por otro lado para el diseño lógico del sistema de software se utilizó otra de
las facilidades de usar Emotiv que es el kit de desarrollo (SDK) que se
esquematiza en la Figura 58, que forma parte del esquema de la Figura 56 en la
que se indica la interacción que existe entre los diferentes módulos internos y

70
externos que lo conforman, permitiendo así la identificación de patrones
cerebrales generados a partir de tareas mentales.

Figura 4.6 Esquema general del diseño lógico del sistema de software para el control cerebral.

El diseño lógico del sistema de software presentado en el punto anterior (Ver


esquema de la Figura 4.6), está formado por varios módulos que se mencionan a
continuación:

API Emotiv: Es una biblioteca de funciones proporcionada por Emotiv Systems


que permite implementar aplicaciones de software que funcionan con Emotiv
EPOC Neuroheadset. Utiliza el estándar ANSI C, se declara en 3 archivos de
cabecera (edk.h, EmoStateDLL.h, edkErrorCode.h) y está implementada en 2
archivos DLL en el caso de Windows: edk.dll y edk_util.dll.

EmoEngine (edk.dll): Este módulo se comunica con Emotiv EPOC


Neuroheadset, es decir, recibe datos pre-procesados en modo EEG, administra la
configuración específica del usuario de la aplicación, realiza el post-procesamiento
y traduce los resultados de la detección Emotiv en una estructura fácil de usar
llamada EmoState.

EmoState es considerada una estructura de datos que contiene el estado


actual de las detecciones que realiza el Emotiv EPOC Neuroheadset, reflejando a

71
su vez un estado facial, emocional o cognitivo del usuario. Estos datos se
recuperan mediante funciones definidas en la API Emotiv con el prefijo "ES_".

Post-procesamiento de EEG: Es un submódulo de la parte lógica del sistema,


encargado de recibir las señales eléctricas cerebrales transformadas en datos
digitales, con el fin de analizar los patrones cerebrales generados por el usuario, y
así poder identificar las tareas mentales que se han invocado.

EmoStateBuffer: Corresponde a una zona de memoria donde se almacenan los


datos correspondientes al estado actual detectado por Emotiv EPOC
Neuroheadset.

EmoState and EmoEventQueryHandling: Se refiere al submódulo dedicado a la


correcta manipulación lógica del estado mental obtenido por Emotiv EPOC
Neuroheadset y la acción que se desea realizar con ésta.

Para la implementación de estos módulos en el programa, se cargaron 7


archivos tipo java al proyecto principal como se observa en la Figura 4.7, los
cuales son métodos y clases establecidos para poderlos ocupar dentro del
proyecto para establecer las condiciones iniciales necesarias de conexión con la
diadema. Los nombres de estos archivos son Edk, EdkErrorCode,
EdkStateLogger, EmoStateLogger, EmotivCloudClient, EmotivCloudErrorCode y
HeadSetInformationLogger.

72
Figura 4.7. Archivos .java del SDK de Emotiv en el Proyecto

Posteriormente para hacer que la diadema Emotiv reaccionara a la


ejecución del proyecto, una vez que se ejecutara la aplicación y que de este modo
se pudieran ejecutar los comandos gestuales y mentales necesarios para el
control de la raqueta de juego es necesario principalmente inicializar los
parámetros de configuración de la diadema como se ve en la Figura 4.8.
Finalmente, el resto del trabajo consiste en utilizar los métodos disponibles para la
configuración del comando que se desea ejecutar (izquierda y derecha) y
adapatarlos al controlador o mando de la raqueta para de esta forma activar el
modo de sincronización con la diadema para que respondiera la aplicación a los
estímulos mentales proporcionados por gel usuario.

Figura 4.8. Código de configuración principal de diadema Emotiv

73
4.3.2 Preparación de entorno y adquisición de la Señal:

El Emotiv Epoc es el medio de adquisición de datos de EEG que se utilizará en el


presente proyecto. Se trata de un casco/diadema cuya principal virtud es su fácil
configuración y uso, requiriendo unos pocos minutos de preparación por parte del
usuario que lo vaya a utilizar. Éste cuenta con 14 canales de detección de señales
EEG y dos referencias que toman lecturas de la actividad cerebral a una
frecuencia de 128 Hz y realizándose la transmisión de datos desde la diadema a la
computadora de forma inalámbrica.

Lo primero que se debe hacer es limpiar correctamente los 14 sensores de


la diadema, colocarlos en el espacio correspondiente y después hidratarlos de
solución salina como se observa en la Figura 4.9; esto con el fin de evitar alguna
interferencia y garantizar un buen contacto de los sensores con la cabeza del
usuario al momento de realizar las pruebas.

Figura 4.9. Hidratación de sensores

Posteriormente se procede a conectar el dispositivo usb en la computadora


que fungirá como el medio de conexión inalámbrica entre la diadema y la
computadora. Una vez conectado el dispositivo se coloca la diadema al usuario de
modo que uno se asegure que todos los sensores realicen contacto y que generen
una señal aceptable; para esto el software de Emotiv cuenta con una pantalla en
la cual se puede ver el estado actual de cada sensor como la que se observa en la
Figura 4.10. En ella los sensores pueden tomar distintos colores dependiendo la
forma que estén conectados, verde indica una señal excelente, amarillo una señal
buena, naranja señal regular y rojo señal mala. Lo ideal es siempre buscar obtener

74
todos los sensores de color verde para no tener problema alguno al momento de
probar la aplicación.

Figura 4.10. Pantalla de verificación del estado de los sensores Emotiv

Con los 2 primeros pasos desarrollados, la configuración y adaptación de la


aplicación hacia el sistema Emotiv y la correcta hidratación y colocación de la
diadema en el usuario ya se cuenta con lo necesario para pasar a la parte final de
este proyecto que es la parte de pruebas y análisis de resultados.

75
CAPÍTULO 5
Pruebas y resultados
En este capítulo se describe la última parte en el desarrollo de la interfaz que
consiste en realizar pruebas iniciales y pruebas definitivas a distintos usuarios con
el fin primeramente de obtener señales a partir de las cuales se infiere el comando
que el usuario desea ejecutar.

5.1 Pruebas Alpha:

Se realizaron prácticas iniciales con 2 usuarios de prueba con el fin de corroborar


el correcto funcionamiento de los módulos de adquisición de datos. Una vez
concluida esta etapa preliminar de pruebas se pasó a recolectar los datos
necesarios para el funcionamiento del sistema.

5.2 Pruebas Beta:

Se realizaron una serie de pruebas definitivas a 10 diferentes usuarios (5 hombres


y 5 mujeres) con características físicas y edad diferentes, con el fin de obtener en
primera instancia información de resultados como el tiempo de respuesta de cada
uno de ellos para mover la raqueta sobre la pantalla, verificar si el rendimiento es
igual en hombres y mujeres, etc.

5.2.1 Funcionamiento (Adquisición de datos):

Una vez teniendo la diadema bien conectada en la cabeza asegurándose que los
sensores hagan el contacto adecuado, que el dispositivo usb esté conectado ls
computadora y emitiendo una luz verde (prueba de que la diadema y el software
ya están sincronizados) y que los programas están configurados correctamente,
tanto de la aplicación como la interfaz, se procede a ejecutar el proyecto.

76
Al ejecutarlo se despliega la ventana de la interfaz de usuario donde se
registra el nombre, la edad y el sexo del usuario y lo más importante el tipo de
prueba a realizar.

Aplicación
(videojuego)

Interfaz gráfica BCI


(Selección de
prueba)
Panel
TestBench
(muestreo de
señal)

Figura 5.1. Funcionamiento Interfaz BCI y Generación de archivos

Al momento de tener todos los campos llenos y seleccionar comenzar


prueba, la interfaz nos despliega la aplicación (videojuego) a la vez que utilizamos
el panel TestBench de Emotiv para comenzar la prueba, los cuales nos van a
generar archivos de gran importancia para el análisis de los resultados y de
señales como se observan en la Figura 5.1; por un lado por parte del videojuego al
realizar las pruebas generaremos un archivo .csv que almacenará los datos
crudos de las señales cerebrales obtenidos de la prueba (base de datos) el cual
tendrá información de la potencia que cada uno de los sensores de la diadema
midió al momento de la prueba, el tiempo transcurrido y el comando que se llevó a
cabo en la prueba. Este archivo se generará por cada prueba realizada, por lo que
por cada usuario se obtiene un total de 2 archivos semejantes al de la Figura 5.2,
uno para cuando el usuario se le dice que piense mover la raqueta a la izquierda y
otro cuando piensa a la derecha,

77
Figura 5.2. Ejemplo de archivo .csv con datos crudos de la señal cerebral

Por otro lado el panel TestBench nos ayudará a generar un archivo .edf
para poder visualizar gráficamente el comportamiento de la señal durante el lapso
de tiempo que duró la prueba como se ve en la Figura 5.3.

Figura 5,3. Ejemplo de muestreo de la señal cerebral generada

78
5.2.2 Clasificación de las señales eléctricas cerebrales:

Posteriormente una vez que hemos realizado las pruebas a los usuarios y hemos
obtenido los archivos .csv (generación de base de datos) y .edf (para visualización
de señal cerebral) ahora pasamos a la parte de clasificación de las señales para
saber si el comando detectado fue derecha o izquierda.

Para esto, por cada usuario y comando probado se tomaron muestras


aleatorias de 3 segundos cada una de los pulsos o intensidad de señal de los 14
sensores de la diadema registrados en los archivos .csv con el fin de ver la
secuencia de la información proporcionada y verificar si ésta variaba con el tiempo
o permanecía constante. Posteriormente debido a que los datos proporcionados
son cantidades muy grandes que no permiten observar con claridad una tendencia
y también para tener un mejor manejo de la información, se procedió a discretizar
los datos y la señal mostrada por medio del cálculo de las diferencias entre los
valores de cada sensor.

Una vez que se obtienen los valores de diferencias se calculan el valor


máximo y mínimo para poder establecer un rango de valores, que a su vez sea
dividido en 5 partes otorgando a cada una de ellas los caracteres A, B, C, D, E y
de esta manera asignar esos caracteres a los valores de todos los sensores de
acuerdo a al rango en el que se encuentre y de esta manera obtener una vector
de valores discretos. Para más detalle observar Figura 5.4 donde se pueden
apreciar en la primera columna los datos originales generados, en la siguiente
columna de color azul el vector de diferencias y finalmente la columna de color
verde la asignación correspondiente para formar el vector con valores discretos.

79
Figura 5.4 Muestra de resultados al discretizar la señal (datos tratados)

Ahora el siguiente paso ya con los valores discretos en todas las pruebas
fue utilizar el método de “edit distance” para cuantificar qué tan parecidos eran los
conjuntos de vectores de un usuario con otro para así poder obtener por medio de
la normalización de estos valores cuantificados un valor único que representaría la
distancia de un conjunto de datos de un usuario con otro. Este proceso se repitió
con todos los datos de todas las pruebas de los 10 usuarios hasta obtener una
matriz de distancias como se observa en la Figura 5.5.

Figura 5.5. Matriz de distancias entre los conjunto de datos de los usuarios

80
Finalmente con estos resultados se procedió a tratar de clasificar estas
señales en izquierda o derecha según su caso utilizando la técnica de aprendizaje
de máquina de agrupamiento (clúster) jerárquico por medio de los software de
Weka al cual se le metieron los valores obtenidos de la matriz de distancias.

5.2.3 Análisis de Resultados

Una vez utilizado el software de weka para intentar determinar el origen de los
datos es decir, si vienen de una prueba usando el comando izquierda o el
comando derecha a partir de la matriz de distancias, se observó que se generaron
2 grupos distintos o clústeres donde el grupo de color azul corresponde a toda
aquella información proveniente del comando derecha y de color rojo la del
comando izquierda, para más detalle ver Figura 5.6.

Comando Derecha

Comando Izquierda

Figura 5.6. Resultado del muestro de matriz distancias en weka

Con esto se puede decir que sí es posible a partir del nivel de intensidad de los
sensores generados en las pruebas, aunque no de una manera sencilla debido a
la complejidad de la información, determinar si el usuario estaba pensando a la
izquierda o a la derecha.

81
Ahora bien, posteriormente se realizaron 2 tipos de pruebas a los usuarios
para conocer más sobre su actividad cerebral, primero se sometió a los individuos
a tratar de mover la raqueta en el menor tiempo posible ya sea que la movieran o
a la izquierda o a la derecha, y posteriormente ya con esa experiencia de poder
moverla, la segunda etapa de experimentos consistió en tratar ahora no sólo de
poder mover la raqueta sino que también trataran de golpear la pelota y repelerla.

Estos experimentos arrojaron resultados interesantes como se observa en


la Figura 5.7 de los cuales destacan el tiempo de respuesta para realizar las
acciones mover el objeto, el estado de ánimo que presentaban los usuarios y las
reacciones que tuvo cada usuario al finalizar la prueba.

Estado de P1. Tiempo de P2. Tiempo Reacciones


Usuario Sexo Edad Animo respuesta promedio en a las
Actual promedio para golpear la pruebas
mover objeto pelota
P1 F 25 Relajado 30 seg 26 seg -
P2 F 26 Relajado 25 seg 12 seg -
24 seg 15 seg Dolor de
P3 F 18 Alegre cabeza,
mareo
P4 F 10 Alegre 18 seg 10 seg -
P5 F 25 Alegre 20 seg 14 seg Dolor de
Cabeza
P6 M 13 Alegre 12 seg 8 seg -
P7 M 25 Enojado 35 seg 20 seg Dolor de
cabeza
P8 M 28 Preocupado 45 seg 31 seg Dolor de
cabeza
P9 M 24 Relajado 33 seg 19 seg -
P10 M 20 Relajado 26 seg 21 seg -

Figura 5.7. Cuadro de desempeño de usuarios y observaciones

De manera general se puede decir que debido a la diversidad en las


características de los usuarios sometidos a prueba se obtuvieron resultados
observables tales como por ejemplo que en los usuarios de menor edad el tiempo
de respuesta para mover el objeto en el videojuego fue menor que los demás
usuarios, esto por supuesto tiene coherencia debido a que para poder mover y

82
utilizar de una manera más eficiente la diadema Emotiv se requiere la mayor
concentración posible y una imaginación amplia o considerablemente
desarrollada, requisito que cumplen a la perfección los niños.

Por otro lado se puede decir que en estos experimentos que se realizaron,
las mujeres presentaron un mejor desempeño al momento de utilizar la aplicación.
Otra observación interesante que se hizo fueron las secuelas que se presentaron
en algunos usuarios una vez terminadas las pruebas ya que hubo ocasiones
donde les ocasionaba dolor de cabeza debido al esfuerzo mental que realizaron al
intentar mover el objeto.

83
CAPÍTULO 6
Conclusiones y Trabajo Futuro
El objetivo inicial del proyecto era la creación de una interfaz cerebro-computadora
que permitiera obtener la información captada por los sensores de la diadema de
Emotiv al someter a un usuario a jugar una aplicación tratando de mover un objeto
a la izquierda o a la derecha el cual se cumplió de manera satisfactoria. El analizar
las diferentes ondas cerebrales fue de vital importancia para el cumplimiento del
mismo ya que están involucradas en las diferentes acciones cerebrales que
responden frente a estados mentales los cuales nos indican la reacción de nuestro
cerebro mediante impulsos eléctricos que son reflejadas en tiempo real.

El poder utilizar el método de agrupamiento (clustering) para determinar si


la información proporcionada por los sensores era suficiente para poder clasificar
los comandos de izquierda y derecha fue bastante eficiente debido a su alta
eficiencia y al uso de herramientas como el vector de diferencias o la distancias de
edición (edit distance) que permitió poder tener una manipulación de . Si bien es
cierto los datos obtenidos tenían cierta similitud entre ellos gracias a los
experimentos realizados fue posible caracterizar las señales eléctricas obtenidas
por parte de los usuarios en 2 grandes grupos (izquierda y derecha).

Por otro lado, se puede afirmar que gracias a la correcta implementación de


la interfaz y al correcto uso de la misma para realizar los experimentos sobre la
aplicación fue posible obtener una vasta base de datos con la información de los
sensores, que me permitió conocer sobre el tratamiento de las señales cerebrales
en tiempo real así como también sobre el uso y funcionamiento del dispositivo
Emotiv EPOC.

Cabe mencionar que también al revisar los resultados de las pruebas se


puede concluir que el comportamiento cerebral varía en cada persona
dependiendo sus características físicas, su edad y su estado de ánimo ya que
pueden influir al momento de obtener las señales cerebrales y al momento de
determinar si tienen un correcto control mental o no.

84
A pesar de los problemas que puedan aún existir en el procesamiento de
las señales EEG se ha recorrido un gran camino en el desarrollo de este tipo de
tecnología que sin duda nos llevará a ese panorama idealizado del futuro en
donde todo nuestro entorno pueda ser controlado por algo más que las fuerzas
mecánicas a las que estamos acostumbrados y podamos entrar en una nueva era
en donde explotemos todo el potencial aún desconocido que poseemos los seres
humanos en nuestro cerebro y sea una nueva puerta al desarrollo que vendrá de
manera más común a futuro.

Dicho lo anterior puedo concluir que se cumplieron de manera satisfactoria


con los objetivos trazados en este proyecto.

Trabajo Futuro:

A partir de la realización de este trabajo se puede decir que la primera línea


de continuación de este trabajo de investigación es el llevar lo hecho en este
trabajo para poder realizar tareas de predicción de los datos por medio de
algoritmos establecidos como knn o redes neuronales recurrentes. Para ello será
necesario contar con un mayor número de pruebas, un mayor número de
experimentos para poder tener una base de datos más robusta.

Finalmente también se puede derivar de este trabajo un desarrollo que


permita incorporar un sistema de control de comandos más fuerte y no sólo se
limite al uso de izquierda y derecha, sino también a utilizar otros como arriba
abajo, oprimir, jalar, entre otros, (incluidos para su uso en el sistema Emotiv) que
permita dar una mayor funcionalidad, variedad y novedad a un sistema de
entretenimiento como lo son los videojuegos.

85
Recomendaciones

Como experiencia al momento de realizar los experimentos se puede constatar


que la colocación de la solución salina en los electrodos es necesaria al momento
de realizar las diferentes pruebas de comunicación y vale recalcar que la
colocación de estos electrodos en el cuero cabelludo se debe realizar de manera
correcta para obtener un buen acoplamiento al momento del registro de las
señales. El trabajar con el dispositivo por un periodo largo de tiempo, ocasiona
dolores de cabeza, por lo que es recomendable el descanso en periodos de
tiempo para evitar malestares en su uso constante.

Realizar las distintas pruebas de comunicación y adquisición de las


diferentes señales se deben realizar en un medio libre de interferencias que
puedan afectar el desempeño y la comunicación propia del dispositivo con el
computador.

Aportaciones
Como resultado de realizar este proyecto se aporta principalmente a la comunidad
científica una nueva forma de tratamiento de información de señales cerebrales
desde que está en su forma original (en datos crudos) hasta poder interpretarla,
analizarla y clasificarla de acuerdo al nivel de intensidad de los sensores.

Por otro lado en el área de entretenimiento, en el área de los videojuegos


específicamente se aporta una nueva forma interactiva de mando o control de
movimiento que sin duda alguna puede resultar una forma innovadora en el área
en cuanto a la forma de jugar para futuros desarrollos.

86
Referencias Consultadas

[1] Martínez Villar R. G., Técnicas de electroencefalografía, (2a ed.). D.F., México:
(1998). Comunicaciones Científicas. pp. 75-85

[2] Barea Navarro R. Instrumentación Biomédica: Electroencefalografía, Madrid;


España, (2009) Universidad de Alcalá, pp. 100-153.

[3] Graimann, B., Allison, B. Z., Pfurtscheller, G., Brain-Computer Interfaces


Revolutionizing Human Computer Interaction. Springer, 2010.

[4] Wolpaw, J. R., Birbaumer, N., McFarland, D. J., Pfurtscheller, G., Vaughan, T.
M., “Brain-computer Interfaces for Communication and Control,” Clin.
Neurophysiol., 2002.

[5] Marttson, S., Paryni, J., y Fast-Berglund A. (2016). Evaluating four devices that
present operator emotions in real-time. Science Direct ELSEVIER. 50, p.p 524-
528.

[6] Minguillón, Jesus., Lopez-Gordo, M.Ángel y Pelayo, Francisco. (2016). Trends


in EEG-BCI for daily-life: Requirements for artifact removal. Science Direct
ELSEVIER, 31, p.p 407-418.

[7] Fakhruzzaman, Muhammad., Riksakomora, Edwin y Suryotrisongko, Hatma.


(2015). EEG Wave Identification in Human Brain with Emotiv EPOC for Motor
Imagery. Science Direct ELSEVIER, 72, p.p 269-276.

[8] Cecilio, José., Andrade, Joao., Martins, Pedro., Castelo-Branco Miguel y


Furtado Pedro. (2016). BCI framework based on games to teach people with
cognitive and motor limitations. Science Direct ELSEVIER, 83, p.p 74-81.

[9] Liarokapis, Fotis., Debattista, Kurt., Vourvopoulus, Athanasios., Petridis,


Panagiotis y Ene, Alina. (2014). Comparing interaction techniques for serious
games through brain–computer interfaces: A user perception evaluation study.
Science Direct ELSEVIER, 5, p.p 391-399.

87
[10] Nijholt, Anton., Plas-Oude Danny y Reuderink Boris. (2009). Turning
shortcomings into challenges: Brain–computer interfaces for games. Science
Direct ELSEVIER, 83, p.p 85-94.

[11] Ramadan, Rabie y Vasilakos, Athanasios. (2016). Brain computer interface:


control signals review. Science Direct ELSEVIER, 87.

[12] Abdulkader, Sarah., Atia, Ayman y Mostafa, Mostafa-Sami. (2015). Brain


computer interfacing: Applications and challenges. Science Direct ELSEVIER, 16,
p.p 213-240.

[13] Minguillón, Jesús., López-Gordo, Ángel y Pelayo, Francisco. (2016). Trends in


EEG-BCI for daily-life: Requirements for artifact removal Jesus. Science Direct
ELSEVIER, 31, p.p 407-418.

[14] Kennard Robert y Hoerl Arthur (1970). Ridge Regression: Biased Estimation
for Nonorthogonal Problems. Technometrics, p.p 55-67

[15] Tibshirani, Robert. (1996). Regression Shrinkage and Selection via the
LASSO. Journal of the Royal Statistical Society, Volumen 58, p.p 267-288.

[16] Hui Zou y Hastie Trevor. (2005). Regularization and variable selection via the
elastic net. J.R Statist, Vol 67, p.p 301-320.

[17] Breiman, Leo, Friedman Jerome, Stone Charles y Oishen R.A. (1984).
Classification and Regression Trees. Wadsworth.

[18] Quinlan, J.R (1983). "Induction of Decision Trees". Machine Learning I, p.p 81-
106.

[19] Quinlan, J.R. (1992). C4.5 Programs for Machine Learning, San Mateo, CA:
Morgan Kaufmann.

[20] Kass, G.V (1980). An Exploratory Technique for Investigating Large Quantities
of Categorical Data. Applied Statistics, Vol 29, p.p 119-127.

[21] Bayes, Thomas. (1763) .An Essay towards solving a Problem in the Doctrine
of Chances. Vol 53, p.p 370-418.

88
[22] Pearl, Judea. (1980). Razonamiento Probabilístico en Sistemas Inteligentes. y
Razonamiento Probabilístico en Sistemas Expertos. p.p 552

[23] Berkhin P., A Survey of Clustering Data Mining Techniques. In Kogan J.,
Nicholas C, Teboulle M. (Eds.), Grouping Multidimensional Data, Recent Advances
in Clustering, 25-71, Springer-Verlag, 2006.

[24] Macqueen, J. (1967). Some methods for classification and analysis of


multivariate observations. Proc. Fifth Berkeley Symp. on Math. Statist. and Prob.,
Vol. 1, p.p 281-297

[25] Agrawal, R. and Srikant, R. (1994) Fast Algorithms for Mining Association
Rules in Large Databases. Proceedings of the 20th International Conference on
Very Large Data Bases, Santiago de Chile, 12-15 September 1994, 487-499.

[26] David E. Rumelhart, James L. McClelland and PDP Research Group (1987).
Parallel Distributed Processing: Explorations in the Microstructure of Cognition

[27] Hinton, G. E. and Sejnowski, T. J. (1986). Learning and relearning in


Boltzmann machines. In Rumelhart, D. E. and McClelland, J. L., editors, Parallel
Distributed Processing: Explorations in the Microstructure of Cognition. Volume 1:
Foundations, MIT Press, Cambridge, MA.

[28] K. Fukushima: "Neocognitron: A self-organizing neural network model for a


mechanism of pattern recognition unaffected by shift in position", Biological
Cybernetics, 36[4], pp. 193-202 (April 1980).

[29] H. Hotelling, Analysis of a complex of statistical variables into principal


components. Journal of Educational Psychology, 24, 1933.

[30] Wold, H. (1975), Soft Modeling by Latent Variables; The Non-linear Iterative
Partial Least Squares Approach. Perspectives in Probability and Statistics, , P.P 1-
2.

[31] Sammon, J.W., A nonlinear mapping for data structure analysis. JEEE
Transactions on Computers, 1969.18: p. 401-409

89
[32] Torgerson, W. S. (1952): Multidimensional Scaling: Theory and Method.
Psychometrika, 4, 401-419.

[33] Fisher, R. A. (1936). The Use of Multiple Measurements in Taxonomic


Problems. Annals of Eugenics. 7 (2): 179–188

[34] Michael Kearns; Leslie Valiant (1989). Crytographic limitations on learning


Boolean formulae and finite automata. Symposium on Theory of computing (ACM)
21: 433-444.

[35] Breiman, Leo (1996). Bagging predictors. Machine Learning. pp. 123-140.

[36] Freund, Yoav; Schapire, Robert E (1997). A decision-theoretic generalization


of on-line learning and an application to boosting. Journal of Computer and System
Sciences. 55: 119

[37] Friedman J. (2001). Greedy boosting approximation: a gradient boosting


machine. Ann. Stat. 29, 1189–1232

[38] Morán García, Álvaro. (2015). Diseño de Interfaces cerebro-máquina


controlados mediante registros de EEG. Universidad Autónoma de Madrid, Madrid,
España.

[39] Guevara Mosquera, Sergio. (2012). Adquisición de señales


electroencefalográficas para el movimiento de prototipo de silla de ruedas en un
sistema BCI. Universidad Politécnica Salesiana, Cuenca, Ecuador.

[40] “Electroencefalografía”. Google. Internet. 10 de diciembre del 2016. Disponible


en:
http://neuromarca.com/neuromarketing/eeg/

[41] “Machine Learning”. Google. Internet. 10 de diciembre del 2016. Disponible


en:
http://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/

90
[42] “Diadema multiposicional”. Google. Internet. 18 de diciembre del 2016.
Disponible en:
http://www.cognionics.com/index.php/products/mini-systems/multi-position-dry-
headband

[43] “Dispositivo Nautilus”. Google. Internet. 18 de diciembre del 2016. Disponible


en:
http://www.gtec.at/Products/Hardware-and-Accessories/g.Nautilus-Specs-Features

[44] “Dispositivos Neuroelectrics”. Google. Internet. 18 de diciembre del 2016.


Disponible en:
http://www.neuroelectrics.com/get-a-quote/?add=3

[45] “Dispositivos Mindwave Neurosky”. Google. Internet. 18 de diciembre del


2016. Disponible en:
http://store.neurosky.com/pages/mindwave

[46] “Dispositivos “Monitoreo de señales cerebrales”. Google. Internet. 18 de


diciembre del 2016. Disponible en:
http://www.advancedbrainmonitoring.com/xseries/x10/

[47] “Características dispositivo Emotiv”. Google. Internet. 18 de diciembre del


2016. Disponible en:
https://www.emotiv.com/product/emotiv-epoc-14-channel-mobile-eeg/

[48] “Regresión Logística”. Google. Internet. 20 de abril del 2017. Disponible en:
https://www.ibm.com/support/knowledgecenter/es/SSLVMB_22.0.0/com.ibm.spss.
statistics.help/spss/regression/idh_lreg.htm

[49] “Regresión”. Google. Internet. 20 de abril del 2017. Disponible en:


http://lcsilva.sbhac.net/Otros/Aplicacionest/Regpap/regpap.htm

91
[50] “KNN”. Google. Internet. 20 de abril del 2017. Disponible en:
https://www.researchgate.net/publication/50390105_E_Fix_and_JL_Hodges_1951
_An_Important_Contribution_to_Nonparametric_Discriminant_Analysis_and_Densi
ty_Estimation_Commentary_on_Fix_and_Hodges_1951

[51] “LVQ”. Google. Internet. 20 de abril del 2017. Disponible en:


http://www.neural-forecasting.com/lvq_neural_nets.htm

[52] “SOM”. Google. Internet. 20 de abril del 2017. Disponible en:

https://www.researchgate.net/publication/226370746_Kohonen_T_Self-
Organized_Formation_of_Topologically_Correct_Feature_Maps_Biological_Cyber
netics_431_59-69

[53] “Algoritmo Naive Bayes”. Google. Internet. 20 de abril del 2017. Disponible en:

http://algoritmosmineriadatos.blogspot.mx/2009/12/algoritmo-naive-bayes.html

[54] “Gauss Naive Bayes”. Google. Internet. 20 de abril del 2017. Disponible en:

http://machinelearningmastery.com/naive-bayes-classifier-scratch-python/

[55] “Estatus Videojuegos”. Google. Internet. 15 de mayo del 2017. Disponible en:

http://www.ticbeat.com/cyborgcultura/videojuegos-la-industria-multimillonaria-
detras-del-mayor-entretenimiento-del-planeta/

92

Potrebbero piacerti anche