Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
SEMINARIO DE TESIS
CICLO: 2019-A
II. HISTORIA
Entre los métodos teóricos más utilizados están las Redes Neuronales Artificiales
(RNA). Las RNA se han integrado dentro de los métodos ya clásicos del análisis de
las relaciones cuantitativas entre la estructura y la actividad biológica u otras
propiedades. Constituyen una de las áreas de la inteligencia artificial que ha
despertado mayor interés en los últimos años. La razón principal es que
potencialmente son capaces de resolver problemas cuya solución por otros
métodos convencionales resulta extremadamente difícil dada su capacidad de
aprender. Estos modelos de aprendizaje se clasifican en: Híbridos, Supervisados,
No Supervisados y Reforzados. Dentro de los Supervisados se encuentra la técnica:
Máquinas de Soporte Vectorial (MSV). Las MSV son un paradigma aparte de la
Redes Neuronales, pero a pesar de tener similitudes están mejor fundamentadas
en la teoría y tienen mucho mejor capacidad de generalización. Las máquinas de
vectores soporte (SVM, del inglés Support Vector Machines) tienen su origen en los
trabajos sobre la teoría del aprendizaje estadístico y fueron introducidas en los años
90 por Vapnik y sus colaboradores. Aunque originariamente las MSVs fueron
pensadas para resolver problemas de clasificación binaria. (Jiménez & Rengifo,
2010)
III. DEFINICION
KERNEL
Las funciones kernel son funciones matemáticas que se emplean en las Máquinas
de Soporte Vectorial. Estas funciones son las que le permiten convertir lo que sería
un problema de clasificación no-lineal en el espacio dimensional original, a un
sencillo problema de clasificación lineal en un espacio dimensional mayor.(Smola &
Schölkopf, 2001)
w⋅ z + b = 0 (2)
Definido por el par (w, b), tal que podamos separar el punto xi de acuerdo a la
función:
(3)
(4)
Para tratar con datos que no son linealmente separables, el análisis previo puede
ser generalizado introduciendo algunas variables no-negativas ≥ 0 ξi de tal modo
que (4) es modificado a:
Los ξi ≠ 0 en (5) son aquellos para los cuales el punto xi no satisface (4). Entonces
el término ∑𝑙𝑖=1 𝜉𝑖 puede ser tomado como algún tipo de medida del error en la
clasificación.
El problema del hiperplano óptimo es entonces redefinido como la solución al
problema
(6)
Buscando el hiperplano óptimo en (6) es un problema QP, que puede ser resuelto
construyendo un Lagrangiano y transformándolo en el dual
(7)
(8)
(9)
De esta igualdad se deduce que los únicos valores 𝛼̅𝑖 ≠ 0 (9) son aquellos que para
las constantes en (5) son satisfechas con el signo de igualdad. El punto xi
correspondiente con 𝛼̅𝑖 > 0 es llamado vector de soporte. Pero hay dos tipos de
vectores de soporte. Nos referimos a estos vectores de soporte como errores. El
punto xi correspondiente con 𝛼̅𝑖 = 0 es clasificado correctamente y está claramente
alejado del margen de decisión.
(10)
(11)
(12)
Figure 6: Idea del uso de un kernel para la transformación del espacio de los datos
Las Funciones que satisfacen el teorema de Mercer pueden ser usadas como
productos punto y por ende pueden ser usadas como kernels. Podemos usar el
kernel polinomial de grado d
(13)
(14)
Y la función de decisión es
(15)
(Betancourt, 2005)
V. CONSIDERACIONES DE LAS MSV
VI. CRITICAS
Clasificadoras las máquinas de soporte vectorial son muy eficientes desde diversas
perspectivas Por una parte se obtienen muy buenos resultados Aún con conjunto
de datos de entrenamiento muy pequeño. Además, el proceso de aprendizaje es un
proceso matemático que permite obtener siempre el mejor clasificado no tan sólo
un buen clasificador Cómo se obtiene en entrenamientos de redes neuronales.
VII. REFERENCIAS BIBLIOGRAFICAS
Hsu, C. W., & Lin, C. J. (2002). A comparison of methods for multiclass support
vector machines. IEEE Transactions on Neural Networks, 13(2), 415–425.
https://doi.org/10.1109/72.991427
Jiménez, L., & Rengifo, P. (2010). Al Interior de una Máquina de Soporte Vectorial.
Revista de Ciencias Universidad Del Valle, 14, 73–85.
Smola, A., & Schölkopf, B. (2001). Learning with Kernels: Support Vector
Machines, Regularization, Optimization, and Beyond. In MIT Press
Cambridge, MA, USA.