Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Clasificacin y prediccin
Introduccin
Uso y construccin de modelos de clasificacin
Evaluacin de la precisin de un modelo de clasificacin
El problema del sobreaprendizaje
Modelos de clasificacin
rboles de decisin
Induccin de reglas
Evaluacin
Mtricas
Mtodos de evaluacin
Tcnicas de regresin
Apndice: Otros modelos de clasificacin
1
Introduccin
Clasificacin vs. Prediccin
Clasificacin:
Para predecir el valor de un atributo categrico
(discreto o nominal).
Prediccin:
Para modelar funciones que toman valores continuos
(esto es, predecir valores numricos desconocidos).
Introduccin
Aplicaciones
Concesin de crditos
Diagnstico mdico
Deteccin de fraudes
3
Introduccin
Construccin del modelo
El conjunto de datos utilizado para
construir el modelo de clasificacin
se denomina conjunto de entrenamiento.
entrenamiento.
Cada caso/tupla
caso/tupla/muestra
/muestra corresponde a una clase
predeterminada: los casos de entrenamiento vienen
etiquetados por su atributo de clase.
Introduccin
Aprendizaje
Supervisado vs. No Supervisado
5
Introduccin
Tid Attrib1 Attrib2 Attrib3 Class
1 Yes Large 125K No
2 No Medium 100K No
3 No Small 70K No
4 Yes Medium 120K No
5 No Large 95K Yes
6 No Medium 60K No
7 Yes Large 220K No
8 No Small 85K Yes
9 No Medium 75K No
10 No Small 90K Yes
10
Introduccin
Estimacin de la precisin del modelo
un conjunto de entrenamiento
(para construir el modelo) y
un conjunto de prueba
(para evaluar el modelo).
7
Introduccin
Estimacin de la precisin del modelo
Introduccin
El problema del sobreaprendizaje
10
Introduccin
Sobreaprendizaje
debido a la presencia de ruido en los datos:
11
Introduccin
Sobreaprendizaje
debido a la escasez de muestras:
12
Modelos de clasificacin
Se pueden construir distintos tipos de clasificadores:
rboles de decisin
Reglas (p.ej. listas de decisin)
Clasificadores basados en casos
Clasificadores paramtricos
Redes neuronales
Redes bayesianas
SVMs (Support Vector Machines)
13
rboles de decisin
Yes No
NO MarSt
Single, Married
Divorced
TaxInc NO
< 80K > 80K
NO YES
14
rboles de decisin
Yes No
NO MarSt
Single, Married
Divorced
TaxInc NO
< 80K > 80K
NO YES
15
rboles de decisin
Yes No
NO MarSt
Single, Married
Divorced
Clase NO
NO
TaxInc NO
< 80K > 80K
NO YES
16
rboles de decisin
rboles de decisin
Construccin de rboles de decisin
rboles de decisin
Construccin de rboles de decisin
Cul es mejor?
21
rboles de decisin
Construccin de rboles de decisin
rboles de decisin
Construccin de rboles de decisin
Reglas de divisin
(heursticas para la seleccin de atributos):
C1 1 Entropa = 0.65
C2 5 = (1/6) log2 (1/6) (5/6) log2 (5/6)
C1 2 Entropa = 0.92
C2 4 = (2/6) log2 (2/6) (4/6) log2 (4/6)
C1 3 Entropa = 1
C2 3 = (1/2) log2 (1/2) (1/2) log2 (1/2)
24
rboles de decisin
Ganancia de informacin (ID3)
pi Estimacin de la probabilidad de que
un ejemplo de D pertenezca a la clase Ci
Entropa
(informacin necesaria para clasificar un ejemplo en D)
m
Info( D) = pi log 2 ( pi )
i =1
25
rboles de decisin
Ganancia de informacin (ID3)
rboles de decisin
Criterio de proporcin de ganancia
(Gain Ratio, C4.5)
C1 0 C1 1 C1 2 C1 3
C2 6 C2 5 C2 4 C2 3
Gini=0.000 Gini=0.278 Gini=0.444 Gini=0.500
28
rboles de decisin
Comparacin de reglas de divisin
Para problemas con dos clases:
29
rboles de decisin
Comparacin de reglas de divisin
Ganancia de informacin
Sesgado hacia atributos con muchos valores diferentes.
Criterio de proporcin de ganancia
Tiende a preferir particiones poco balanceadas
(con una particin mucho ms grande que las otras)
ndice de Gini
Funciona peor cuando hay muchas clases y tiende a
favorecer particiones de tamao y pureza similares.
rboles de decisin
Otros aspectos de inters
32
rboles de decisin
Ejemplo n log2(n)
Para el clculo de las entropas 1 0,000
2 1,000
3 1,585
4 2,000
5 2,322
6 2,585
7 2,807
8 3,000
9 3,170
10 3,322
11 3,459
12 3,585
13 3,700
14 3,807
15 3,907
16 4,000 33
rboles de decisin
Ejemplo
Clculo de las entropas E(+,-
E(+,-)
E(+,--) = P(+) log2 P(+) P(-
E(+, P(-) log2 P(-
P(-)
E(+,-) 0- 1- 2- 3- 4- 5-
0+ 0,000 0,000 0,000 0,000 0,000
1+ 0,000 1,000 0,918 0,811 0,722 0,650
2+ 0,000 0,918 1,000 0,971 0,918 0,863
3+ 0,000 0,811 0,971 1,000 0,985 0,954
4+ 0,000 0,722 0,918 0,985 1,000 0,991
5+ 0,000 0,650 0,863 0,954 0,991 1,000
6+ 0,000 0,592 0,811 0,918 0,971 0,994
7+ 0,000 0,544 0,764 0,881 0,946 0,980
8+ 0,000 0,503 0,722 0,845 0,918 0,961
9+ 0,000 0,469 0,684 0,811 0,890 0,940
34
rboles de decisin
Ejemplo
Raz del rbol (9+,5-
(9+,5-)
Info(D)
Info (D) = E(9+,5-
E(9+,5-) = 0.940 bits
InfoOutlook(D)
= (5/14) Info(
Info(Dsunny) + (4/14) Info(
Info(Dovercast) + (5/14) Info(
Info(Drainy)
= (5/14) E(2+,3-
E(2+,3-) + (4/14) E(4+,0-
E(4+,0-) + (5/14) E(3+,2-
E(3+,2-)
= (5/14) 0.971 + (4/14) 0 + (5/14) 0.971 = 0.693 bits
Gain(Outlook)
Gain Info(D) - InfoOutlook(D) = 0.247 bits
(Outlook) = Info(D)
35
rboles de decisin
Ejemplo
Raz del rbol (9+,5-
(9+,5-)
Info(D)
Info (D) = E(9+,5-
E(9+,5-) = 0.940 bits
InfoTemperature(D)
Info(Dcool) + (6/14) Info(
= (4/14) Info( Info(Dmild) + (4/14) Info(
Info(Dhot)
= (4/14) E(3+,1-
E(3+,1-) + (6/14) E(4+,2-
E(4+,2-) + (4/14) E(2+,2-
E(2+,2-)
= (4/14) 0.811 + (6/14) 0.918 + (4/14) 1 = 0.911 bits
Gain((Temperature)
Gain Temperature) = Info(D)
Info(D) - InfoTemperature(D) = 0.029 bits
36
rboles de decisin
Ejemplo
Raz del rbol (9+,5-
(9+,5-)
Info(D)
Info (D) = E(9+,5-
E(9+,5-) = 0.940 bits
InfoHumidity(D)
= (7/14) Info(
Info(Dhigh) + (7/14) Info(
Info(Dnormal)
= (7/14) E(3+,4-
E(3+,4-) + (7/14) E(6+,1-
E(6+,1-)
= (7/14) 0.985 + (7/14) 0.592 = 0.789 bits
Gain((Humidity)
Gain Info(D) - InfoHumidity(D) = 0.151 bits
Humidity) = Info(D)
37
rboles de decisin
Ejemplo
Raz del rbol (9+,5-
(9+,5-)
Info(D)
Info (D) = E(9+,5-
E(9+,5-) = 0.940 bits
InfoWindy(D)
Info(Dfalse) + (6/14) Info(
= (8/14) Info( Info(Dtrue)
= (8/14) E(6+,2-
E(6+,2-) + (6/14) E(3+,3-
E(3+,3-)
= (8/14) 0.811 + (6/14) 1 = 0.892 bits
Gain((Windy)
Gain Windy) = Info(D)
Info(D) - InfoWindy(D) = 0.048 bits
38
rboles de decisin
Ejemplo
Raz del rbol (9+,5-
(9+,5-)
Gain(Outlook)
Gain(Outlook) = Info(D)
Info(D) - InfoOutlook(D) = 0.247 bits
Gain((Temperature)
Gain Temperature) = Info(D)
Info(D) - InfoTemperature(D) = 0.029 bits
Gain((Humidity)
Gain Humidity) = Info(D)
Info(D) - InfoHumidity(D) = 0.151 bits
Gain((Windy)
Gain Info(D) - InfoWindy(D) = 0.048 bits
Windy) = Info(D)
40
rboles de decisin
Ejemplo
Nodo Outlook = sunny
sunny (2+,3-
(2+,3-)
Info((Ds) = E(2+,3-
Info E(2+,3-) = 0.971
Temperature: { (0+,2-
Temperature: (0+,2-), (1+,1-
(1+,1-), (1+,0-
(1+,0-) }
Gain((Temperature)
Gain Temperature) = Info(
Info(Ds) - InfoTemperature(Ds) = 0.571 bits
Humidity: { (0+,3-
Humidity: (0+,3-), (2+,0-
(2+,0-) }
Gain((Humidity)
Gain Info(Ds) - InfoHumidity(Ds) = 0.971 bits
Humidity) = Info(
Windy: { (1+,2-
Windy: (1+,2-), (1+,1-
(1+,1-) }
Gain((Windy)
Gain Windy) = Info(
Info(Ds) - InfoWindy(Ds) = 0.019 bits
41
rboles de decisin
Ejemplo
Nodo Outlook = overcast
overcast (4+,0
(4+,0--)
Info(D
Info (Do) = E(4+,0-
E(4+,0-) = 0.000
42
rboles de decisin
Ejemplo
Nodo Outlook = rainy
rainy (3+,2-
(3+,2-)
Info((Dr) = E(3+,2-
Info E(3+,2-) = 0.971
Temperature: { (0+,0-
Temperature: (0+,0-), (2+,1-
(2+,1-), (1+,1-
(1+,1-) }
Gain((Temperature)
Gain Temperature) = Info(
Info(Dr) - InfoTemperature(Dr) < 0
Humidity: {(2+,1
Humidity: {(2+,1--), (1+,1-
(1+,1-) }
Gain((Humidity)
Gain Info(Dr) - InfoHumidity(Dr) < 0
Humidity) = Info(
Windy: { (0+,2-
Windy: (0+,2-), (3+,0-
(3+,0-) }
Gain((Windy)
Gain Info(Dr) - InfoWindy(Dr) = 0.971 bits
Windy) = Info(
43
rboles de decisin
Ejemplo
Resultado final
44
rboles de decisin
El problema del sobreaprendizaje
45
rboles de decisin
El problema del sobreaprendizaje
46
rboles de decisin
El problema del sobreaprendizaje
Tcnicas de poda
48
rboles de decisin
Algoritmos eficientes y escalables
49
rboles de decisin
DEMO
TDIDT
Top-Down Induction of Decision Trees
50
Reglas
51
Reglas
A partir de un rbol de decisin
Por qu?
Las reglas son ms fciles de interpretar
que un rbol de decisin complejo.
Cmo?
Se crea una regla para cada hoja del rbol.
Reglas
A partir de un rbol de decisin
age?
<=30 >40
31..40
Reglas
Induccin de reglas
(directamente a partir del conjunto de entrenamiento)
p.ej.. LISTAS DE DECISIN
p.ej
Cmo?
Las reglas se aprenden de una en una.
Cada vez que se escoge una regla, se eliminan del
conjunto de entrenamiento todos los casos cubiertos
por la regla seleccionada.
El proceso se repite iterativamente hasta que se
cumpla alguna condicin de parada.
55
Reglas
R1 R1
R2
56
(iii) Step 2 (iv) Step 3
Reglas
Induccin de reglas
(directamente a partir del conjunto de entrenamiento)
p.ej.. LISTAS DE DECISIN
p.ej
57
Reglas
Induccin de reglas
A3=1&&A1=2
A3=1&&A1=2
&&A8=5A3=1
Ejemplos Ejemplos
positivos negativos
58
Reglas
Induccin de reglas
(directamente a partir del conjunto de entrenamiento)
p.ej.. LISTAS DE DECISIN
p.ej
FOIL (Quinlan
(Quinlan,, Machine Learning,
Learning, 1990)
CN2 (Clark & Boswell,
Boswell, EWSL1991)
RIPPER (Cohen, ICML1995)
PNrule (Joshi
Joshi,, Agarwal & Kumar,
Kumar, SIGMOD2001)
59
Reglas
DEMO
CN2
Metodologa STAR: Unordered CN2
RIPPER
Repeated Incremental Pruning to Produce Error Reduction
(basado en IREP, Iterative Reduced Error Pruning)
60
Evaluacin
La evaluacin de un algoritmo de construccin de modelos de
clasificacin se puede realizar atendiendo a distintos aspectos:
Precisin
(porcentaje de casos clasificados correctamente).
Eficiencia
(tiempo necesario para construir/usar el clasificador).
Robustez
(frente a ruido y valores nulos)
Escalabilidad
(utilidad en grandes bases de datos)
Interpretabilidad
(el clasificador, es slo una caja negra?)
Complejidad
(del modelo de clasificacin) Navaja de Occam.
Occam. 61
Evaluacin
Mtricas
Cmo evaluar la calidad
de un modelo de clasificacin.
Mtodos
Cmo estimar, de forma fiable,
la calidad de un modelo.
Comparacin
Cmo comparar el rendimiento relativo
de dos modelos de clasificacin alternativos 62
Evaluacin: Mtricas
Matriz de confusin
(confusion matrix)
matrix)
Prediccin
CP CN
CP TP: True FN: False
Clase real
positive negative
CN FP: False TN: True
positive negative
Evaluacin: Mtricas
Alternativa: Matriz de costes
Prediccin
C(i|j) CP CN
CP C(P|P) C(N|P)
Clase real
CP C(P|N) C(N|N)
Clase real
positive negative
CN FP: False TN: True
precision = TP/(TP+FP) positive negative
Evaluacin: Mtricas
Medidas cost
cost--sensitive
sensitive Prediccin
CP CN
CP TP: True FN: False
Clase real
positive negative
CN FP: False TN: True
positive negative
F-measure
Media armnica de precision y recall:
F = 2*precision*recall / (precision+recall
(precision+recall))
F = 2TP / (2TP+FP+FN)
67
Evaluacin: Mtricas
Medidas cost
cost--sensitive
sensitive
Prediccin Prediccin
CP CN CP CN
CP TP FN CP TP FN
Real
Real
CN FP TN CN FP TN
Accuracy Recall
Prediccin Prediccin
CP CN CP CN
CP TP FN CP TP FN
Real
Real
CN FP TN CN FP TN
68
Precision F-measure
Evaluacin: Mtodos
69
Evaluacin: Mtodos
Validacin cruzada
[k
[k--CV: k-
k-fold Cross
Cross--Validation]
Validation]
Evaluacin: Mtodos
Validacin cruzada
Variantes de la validacin cruzada
72
Evaluacin: Mtodos
Bootstraping
0.632 bootstrap
100
90
audiology
80 car
Precisin del clasificador
chess
70
hayesroth
lenses
60
lungcancer
50 mushroom
nursery
40 soybean
splice
30 tictactoe
titanic
20 vote
10
0
ART C4.5 CN2-STAR CN2-DL RIPPER Naive Bayes Por defecto
74
Evaluacin: Comparacin
Complejidad del clasificador
1000
audiology
car
Complejidad del clasificador
chess
100 hayesroth
lenses
lungcancer
mushroom
nursery
soybean
splice
10
tictactoe
titanic
vote
1
ART C4.5 AQR CN2-STAR CN2-DL RIPPER
75
Evaluacin: Comparacin
Tiempo de entrenamiento
1000000
100000 audiology
Tiempo de entrenamiento (ms)
car
chess
10000 hayesroth
lenses
lungcancer
1000 mushroom
nursery
soybean
splice
100
tictactoe
titanic
vote
10
1
ART C4.5 CN2-STAR CN2-DL RIPPER Naive Bayes
76
Evaluacin: Comparacin
Operaciones de E/S: Recorridos
1000000
100000 audiology
Operaciones de E/S (recorridos)
car
chess
10000 hayesroth
lenses
lungcancer
1000 mushroom
nursery
soybean
splice
100
tictactoe
titanic
vote
10
1
ART C4.5 CN2-STAR CN2-DL RIPPER Naive Bayes
77
Evaluacin: Comparacin
Operaciones de E/S: Registros
1000000000
100000000
audiology
Operaciones de E/S (registros)
10000000 car
chess
1000000 hayesroth
lenses
100000 lungcancer
mushroom
nursery
10000
soybean
splice
1000
tictactoe
titanic
100
vote
10
1
ART C4.5 CN2-STAR CN2-DL RIPPER Naive Bayes
78
Evaluacin: Comparacin
Operaciones de E/S: Pginas de disco
1000000000
100000000
ART
10000000
Operaciones de E/S (pginas)
C4.5
1000000
CN2 - STAR
100000
10000 CN2 - DL
1000 RIPPER
10
1
1 2 4 8 16 32 64 128 256 512 1024
Tamao de pgina 79
Evaluacin: Comparacin
Curvas ROC
Receiver
Operating
Characteristics
Evaluacin: Comparacin
Curvas ROC
Evaluacin: Comparacin
Curvas ROC
TPR = TP/(TP+FN)
83
FPR = FP/(FP+TN)
Evaluacin: Comparacin
Curvas ROC Ejemplo P(+|E) Clase
1 0.95 +
2 0.93 +
3 0.87 -
4 0.85 -
5 0.85 -
6 0.85 +
7 0.76 -
8 0.53 +
9 0.43 -
10 0.25 +
Clase + - + - - - + - + +
0.25 0.43 0.53 0.76 0.85 0.85 0.85 0.87 0.93 0.95 1.00
TP 5 4 4 3 3 3 3 2 2 1 0
FP 5 5 4 4 3 2 1 1 0 0 0
TN 0 0 1 1 2 3 4 4 5 5 5
FN 0 1 1 2 2 2 2 3 3 4 5
TPR 1 0.8 0.8 0.6 0.6 0.6 0.6 0.4 0.4 0.2 0 84
FPR 1 1 0.8 0.8 0.6 0.4 0.2 0.2 0 0 0
Tcnicas de regresin
La prediccin (numrica) es
Similar a la clasificacin:
Se construye un modelo a partir de un conjunto de
entrenamiento.
Se utiliza el modelo para predecir el valor de una
variable (continua u ordenada).
Diferente a la clasificacin:
El modelo define una funcin continua.
Mtodos de regresin
Regresin lineal
Regresin no lineal
rboles de regresin (p.ej. CART)
86
Tcnicas de regresin
Regresin lineal simple
Una nica variable independiente:
y = w0 + w1 x
donde w0 (desplazamiento
desplazamiento)) y w1 (pendiente
pendiente))
son los coeficientes de regresin.
regresin.
(x i x )( y i y )
w = y w x w = i =1
0 1 1 |D|
(x x )2
i =1
i
87
Tcnicas de regresin
Regresin lineal simple
88
Tcnicas de regresin
Regresin lineal simple
Tcnicas de regresin
Regresin lineal mltiple
Varias variables independientes:
y = w0 + w1 x1+ w2 x2 +
92
Tcnicas de regresin
Regresin lineal simple
93
Tcnicas de regresin
Regresin lineal simple
94
Tcnicas de regresin
Coeficiente de correlacin
95
Tcnicas de regresin
Coeficiente de correlacin
Tcnicas de regresin
Coeficiente de correlacin
97
Tcnicas de regresin
Coeficiente de correlacin
98
Tcnicas de regresin
Coeficiente de correlacin
El cuarteto de Anscombe
(4 conjuntos de datos con el mismo coeficiente de correlacin) 99
Tcnicas de regresin
Coeficiente de correlacin
Ventaja de r
No depende de las unidades usadas en la medicin.
Limitaciones de r
Slo mide dependencia lineal entre las variables.
100
Tcnicas de regresin
Coeficiente de correlacin
Forecasting
http://en.wikipedia.org/wiki/Forecasting
102
Bibliografa
Pang-Ning Tan,
Pang-
Michael Steinbach
& Vipin Kumar:
Kumar:
Introduction to Data Mining
Addison--Wesley
Addison Wesley,, 2006.
ISBN 0321321367 [captulos 4&5]
Jiawei Han
& Micheline Kamber:
Kamber:
Data Mining:
Mining:
Concepts and Techniques
Morgan Kaufmann,
Kaufmann, 2006.
ISBN 1558609016 [captulo 6] 103
Bibliografa
F. Berzal, J.C. Cubero,
Cubero, D. Snchez,
Snchez, and J.M. Serrano: ART: A hybrid classification
method. Machine Learning, 2004
method.
L. Breiman,
Breiman, J. Friedman, R. Olshen,
Olshen, and C. Stone. Classification and Regression Trees.
Trees.
Wadsworth International Group, 1984.
W. Cohen. Fast effective rule induction.
induction. ICML'95
R. O. Duda,
Duda, P. E. Hart, and D. G. Stork. Pattern Classification,
Classification, 2ed. John Wiley and Sons,
2001
U. M. Fayyad. Branching on attribute values in decision tree generation.
generation. AAAI94
Y. Freund and R. E. Schapire.
Schapire. A decision-
decision-theoretic generalization of on-
on-line learning
and an application to boosting.
boosting. J. Computer and System Sciences, 1997.
J. Gehrke,
Gehrke, V. Gant, R. Ramakrishnan,
Ramakrishnan, and W.-
W.-Y. Loh,
Loh, BOAT -- Optimistic Decision Tree
Construction.. SIGMOD'99.
Construction
J. Gehrke,
Gehrke, R. Ramakrishnan,
Ramakrishnan, and V. Ganti.
Ganti. Rainforest: A framework for fast decision
tree construction of large datasets.
datasets. VLDB98.
104
Bibliografa
T.
T.--S. Lim, W.
W.--Y. Loh, and Y.-
Y.-S. Shih. A comparison of prediction accuracy, complexity,
and training time of thirty-
thirty-three old and new classification algorithms. Machine
Learning, 2000.
S. K. Murthy, Automatic Construction of Decision Trees from Data: A Multi-
Multi-
Disciplinary Survey,
Survey, Data Mining and Knowledge Discovery 2(4): 345-
345-389, 1998
trees. Machine Learning, 1:81-
J. R. Quinlan. Induction of decision trees. 1:81-106, 1986.
J. R. Quinlan and R. M. Cameron-
Cameron-Jones. FOIL: A midterm report.
report. ECML93.
J. R. Quinlan. C4.5: Programs for Machine Learning.
Learning. Morgan Kaufmann, 1993.
J. R. Quinlan. Bagging, boosting, and c4.5.
c4.5. AAAI'96.
R. Rastogi and K. Shim. Public: A decision tree classifier that integrates building and
pruning. VLDB98
pruning.
H. Yu, J. Yang, and J. Han. Classifying large data sets using SVM with hierarchical
clusters.. KDD'03.
clusters
105
Apndice
Otros modelos de clasificacin
Modelos basados en reglas de asociacin
Por qu?
106
Apndice
Otros modelos de clasificacin
Modelos basados en reglas de asociacin
Modelos de clasificacin parcial
Bayardo,, KDD1997
Bayardo
Modelos asociativos de clasificacin
CBA (Liu
(Liu,, Hsu & Ma
Ma,, KDD1998)
RCBT (Cong
(Cong et al., SIGMOD2005)
Patrones emergentes
CAEP (Dong
(Dong et al., ICDS1999)
rboles de reglas
Wang et al., KDD2000
Reglas con excepciones
Liu et al., AAAI2000
107
Apndice
Otros modelos de clasificacin
Modelos basados en reglas de asociacin
CMAR
Classification based on Multiple Association Rules
Li, Han & Pei, ICDM2001
CPAR
Classification based on Predictive Association Rules
Yin & Han, SDM2003
ART
Association Rule Trees
Berzal et al., Machine Learning, 2004 108
Apndice
Otros modelos de clasificacin
Modelos basados en reglas de asociacin
ART [Association
[Association Rule Trees]
Trees]
109
Apndice
Otros modelos de clasificacin
Modelos basados en reglas de asociacin
ART TDIDT
XY Y
00 else 0 1
01
0 1 Z X X
0 1 0 1 0 1
0 1 0 Z 1 Z
0 1 0 1
0 1 0 1
110
Apndice
Otros modelos de clasificacin
DEMO
ART
Association Rule Trees 111
Apndice
Otros modelos de clasificacin
Clasificadores bayesianos
Nave Bayes
Aplicando el Teorema de Bayes,
Bayes, se maximiza:
Apndice
Otros modelos de clasificacin
Clasificadores bayesianos
Redes Bayesianas
X Y
Nodos: Variables
Nodos:
Enlaces: Dependencias Z
P
113
Apndice
Otros modelos de clasificacin
Clasificadores bayesianos
Family
Smoker (S)
Redes Bayesianas History (FH)
Apndice
Otros modelos de clasificacin
Clasificadores bayesianos
Redes Bayesianas
Como aproximadores
aproximadores universales,
pueden aplicarse para predecir el valor de un atributo
(tanto nominal como numrico).
Ejemplo de modelo predictivo pero no descriptivo
(podemos verlo como una caja negra). 116
Apndice
Otros modelos de clasificacin
SVMs [Support Vector Machines]
x
x x
x x
x
x x x o
o
x o o
oo o
o o
o o o o
117
Apndice
Otros modelos de clasificacin
SVMs [Support Vector Machines]
118
Apndice
Otros modelos de clasificacin
SVMs [Support Vector Machines]
Ventajas
Precisin generalmente alta.
Robustez frente a ruido.
Desventajas
Costosos de entrenar
(eficiencia y escalabilidad).
Difciles de interpretar
(basados en transformaciones matemticas para
conseguir que las clases sean linealmente separables).119
Apndice
Otros modelos de clasificacin
Clasificadores basados en casos
[lazy learners]
learners]
Ejemplos
k-NN (k Nearest Neighbors
Neighbors))
Razonamiento basado en casos (CBR)
120
Apndice
Otros modelos de clasificacin
Clasificadores basados en casos
k-NN
X X X