Sei sulla pagina 1di 30

FUNDACIÓN UNIVERSITARIA KONRAD LORENZ

FACULTAD DE INGENIERÍA
ESPECIALIZACIÓN EN INFORMÁTICA Y CIENCIAS DE LA COMPUTACIÓN
SISTEMAS INTELIGENTES
Septiembre de 2005
Prof. Nelson Obregón Neira

APLICACIÓN DE UN MODELO NEURODIFUSO (ANFIS) AL PROBLEMA DE


PREDICCIÓN DE UN PASO DEL ÍNDICE DE PRECIO AL CONSUMIDOR EN
COLOMBIA.
Pervys Rengifo Rengifo , Leonardo Jiménez2 y Sara Serrato3
1

El presente trabajo tiene como propósito ilustrar la aplicación de los modelos ANFIS al problema
de predicción de un paso en la serie de tiempo del índice de precios al consumidor(IPC) a partir
de la ventana temporal 1990-2005.

ANALISIS PRELIMINAR

A continuación de muestran los datos del IPC, que fueron consultados de la página del DANE4

Tabla No. 1 Datos originales de la serie IPC 1990-2005

Estos datos se organizaron secuencialmente en una sola columna con el fin de facilitar su análisis
preliminar.

1
Ingeniero, estudiante del Programa de Especialización en Informática y Ciencias de la Computación de la
Fundación Universitaria Konrad Lorenz( FUKL)
2
Matemático, estudiante del Programa de Especialización en Informática y Ciencias de la Computación de la
Fundación Universitaria Konrad Lorenz (FUKL).
3
Psicóloga, estudiante del Programa de Especialización en Informática y Ciencias de la Computación de la
Fundación Universitaria Konrad Lorenz (FUKL)
.
4
Consultado en http://www.dane.gov.co/inf_est/ipc_variacion_porcentual.htm, en el mes de septiembre
Gráfica No. 1 Serie IPC 1990-2005, con valor promedio y tendencia lineal

De la gráfica se puede apreciar claramente el comportamiento periódico de la serie, lo cual era de


esperarse ya que el índice de precios al consumidor está afectado por diferentes factores (por
ejemplo cosechas, abundancia de efectivo circulante en diciembre, etc) que tienen
comportamiento periódico. Por otra parte se puede aprecia que la serie presenta un tendencia
lineal negativa, lo que indica que el valor promedio del IPC, no se podría considerar constante, al
igual que su varianza, ya que se observa que la amplitud de la variación de los valores del IPC
también muestra una clara tendencia de decrecimiento con el tiempo. Todo lo anterior sugiere que
la serie del IPC, no sería estacionaria. Esto estará asociado a la crisis económica por las que ha
pasado el país, y a las políticas gubernamentales en diferentes contextos económicos. Esto
indicaría aplicar algún procedimiento para eliminar o reducir la no estacionariedad, tales como
diferenciación de la serie. En este estudio, no se hará ningún tratamiento adicional, debido al
alcance de la tarea, ya que propósito de este trabajo no es hacer una exploración meticulosa de
la serie del IPC; por lo tanto, solo se hará un análisis básico de la serie, de tal forma que se
evidencien algunas características útiles en la construcción del modelo conceptual predictivo.

HISTOGRAMA DE LA SERIE

Gráfica No. 2 Histograma de la Serie IPC 1990-2005, con algunas distribuciones de probabilidad (realizado con MATLAB 7.0)

2
En la Gráfica No. 2 se aprecia el histograma de la serie del IPC, donde claramente se nota que la
distribución de la serie es unimodal y sesgada hacia la derecha, es decir el sesgo es positivo(para
una distribución normal se esperaría un sesgo de cero, ya que la distribución normal es
simétrica), se obtuvo un coeficiente de asimetría(M3 en la gráfica No. 2) de 0.85237. En el caso
de la curtosis se nota que la distribución del IPC, tiene un aplanamiento similar a una distribución
normal, ya que la curtosis(M4 en la gráfica No. 2) obtenida en el IPC es de 3.034. La serie
definitivamente no sigue una distribución normal, con base en la información aportada por la
serie IPC 1990-2005. Sin embargo, un análisis visual de la gráfica No. 2, podría sugerir, que entre
las distribuciones que se han superpuesto al histograma, la función de densidad que más se
aproxima a la distribución de la serie IPC 1990-2005, sería la distribución de Gumbel,
obviamente esto requeriría la aplicación de pruebas estadísticas( tales como Prueba Chi cuadrada
o Prueba de Kolmogorov-Smirnov)

A continuación se incluye una tabla resumen de estadísticos básicos de la series IPC 1990-
2005(realizado con la herramienta estadística descriptiva de EXCEL)

Estadísticas Valores
Media 1.24454545
Error típico 0.06909355
Mediana 1.09
Moda 1.11
Desviación estándar 0.94484008
Varianza de la muestra 0.89272278
Curtosis 3.06846718
Coeficiente de asimetría 0.85928004
Rango 4.15
Mínimo -0.14
Máximo 4.01
Suma 232.73
Cuenta 187

Tabla No. 2 Resumen de estadísticos de la serie IPC 1990-2005.

A continuación se construye el autocorrelograma, que es la función de autocorrelación estimada


de la serie.

3
Grafica No. 3 Función de autocorrelación muestral de la serie IPC 1990-2005.

En la gráfica No. 3, se evidencia el comportamiento periódico de la serie IPC 1990-2005, y la


dependencia lineal entre el valor del IPC, de sus valores pasados. Esto sugiere que se podría
estudiar una aproximación basada en un modelo autorregresivo lineal, antes que otros modelos,
más complejos.

A partir del la gráfica de la función de autorrelación muestral se puede establecer algunos


hechos:

 La serie presenta un comportamiento periódico.

 La serie presenta una fuerte dependencia lineal con rezago 1, con rezago 11, 12 y 13
principalmente( entre otros).

Esto sugiere el siguiente modelo conceptual, teniendo en cuenta que se intenta predecir sólo un
paso hacia adelante: IPCt=f(IPCt-1,IPCt-11, IPCt-12, IPCt-13), el cual se ilustra en la gráfica 4:

4
Gráfica No. 4 Modelo conceptual, que podría sugerir el autocorrelograma de la serie IPC 1990-2005.

A continuación se incluye otro gráfico importante en este análisis: el periodograma.

Gráfica No. 5 Periodograma de la serie IPC 1990-2005

El periodograma ofrece una visión de la serie en el dominio de la frecuencias, por lo tanto


permite apreciar muchos aspectos de la serie muchas veces ocultos por simple inspección de la
gráfica de la serie en el dominio del tiempo.

5
En el periodograma de la serie IPC 1990-2005(Gráfica No. 5) se evidencia claramente el carácter
periódico de la serie, al igual se puede apreciar que existen diferentes periodicidades, y
armónicos principales. Esto podría también sugerir que un modelo basado en los armónicos
podría resultar conveniente para la serie del IPC 1990-2005. En la gráfica No. 6 se muestra esta
modelación con 2 armónicos principales y con 8 armónicos principales.

Gráfica No. 6 Aproximación mediante la agregación de algunos armónicos en la serie IPC 1990-2005

Como se puede observar el modelo basado en armónicos, debido a la predominancia de algunos


armónicos, podría indicar que un buen modelo, para estos datos debería hibridar varias
aproximaciones, con el fin de aprovechar la fortaleza de cada técnica, en un modelo aditivo; es
decir, extraer de la series los componentes periódicos y la tendencia, y al residual resultante
aplicar alguna(s) de las técnicas de minería de datos y aprendizaje de máquina.

MODELO CONCEPTUAL Y PREPARACIÓN DE DATOS

Para el desarrollo de este proyecto se adopta el modelo conceptual soportado en las correlaciones
lineales identificadas a través del la función de autocorrelación muestral. Por lo tanto, se
adoptará, el siguiente modelo conceptual, ya indicado en el análisis de la función de
autocorrelación muestral.:

IPCt=f(IPCt-1,IPCt-11, IPCt-12, IPCt-13)

Aunque podrían plantearse otros modelos alternativos, de los cuales escoger el que tenga mejor
desempeño, debido a las limitaciones de tiempo sólo se considerara este, al cual se le intentarán
aplicar diferentes aproximaciones.

6
Con base en este modelo conceptual, se construyen los patrones que se utilizarán durante el
entrenamiento y validación de cada técnica, los cuales en total son 173 y se anexan al final de
este informe. Muchos autores recomiendan utilizar entre el 70 y 80% de los datos para el
entrenamiento y el resto para validación, o incluso sugieren que es más recomendable dividir el
conjunto en tres partes, una para entrenamiento, otra para validación cruzada( para evitar el
sobreentrenamiento)[2] y otra para verificar el modelo. En este trabajo se tomará el 70% de los
patrones para el entrenamiento, y el resto para la validación, con lo que resulta, 121 patrones para
entrenamiento y 53 patrones para validación, los cuales se obtienen a través de un muestreo
aleatorio simple del conjunto total de patrones.

En la tabla 3 se presenta un muestra del conjunto de patrones del problema.

Vector de entradas Salida deseada


No IPCt-13 IPCt-12 IPCt-11 IPCt-1 IPCt
1 2.2 1.58 1.81 2.32 2.24
2 0.96 0.81 0.61 0.35 0.17
3 2.21 1.7 0.94 1.29 2.3
4 1.2 0.98 0.46 1.02 0.77
5 1.49 1.84 3.52 0.92 2.51
6 1.35 1.58 2.37 1.81 1.27
7 2.51 4.01 2.1 1.65 3.11
8 0.29 0.35 0.17 0.33 0.35
9 0.35 0.17 0.91 0.35 0.48
10 1.6 1.54 1.23 1.54 0.9
11 0.61 1.79 3.28 0.91 2.21
12 1.4 3.49 3.34 0.94 3.24
13 3.41 2.52 2.8 3.34 2.31
14 1.71 1 0.52 1.48 1.15
15 0.78 0.27 1.17 0.35 0.61
16 0.77 0.63 0.84 1.51 1.1
17 1.1 1.19 1.15 1.14 1.26
18 0.72 0.94 3.24 1.29 1.13
19 3.52 2.61 2.23 4.01 2.1
20 0.43 0.15 0.33 0.37 0.19

... ... ... ... ... ...


172 1.2 0.83 1.14 1.22 0.47
173 0.83 0.85 0.72 1.12 1.06

Tabla No. 3 Muestra de la tabla de patrones.

Como elemento de apoyo, se presenta la matriz de correlaciones, para este conjunto de datos

IPCt-13 IPCt-12 IPCt-11 IPCt-1 IPCt


IPCt-13 1
IPCt-12 0.776 1
IPCt-11 0.53264 0.769663 1
IPCt-1 0.86497 0.693342 0.4935 1

7
IPCt 0.7224 0.862083 0.6862 0.76701 1
Tabla No. 4 Matriz de autocorrelaciones de la tabla de patrones

La matriz de autocorrelaciones, indica una mayor correlación lineal para IPCt, se presenta con
IPCt-12, lo cual se debe al carácter cuasiperiódico de la serie por la presencia de ciertos
componentes estacionales. En general se observa algún grado de autocorrelación lineal de IPC
con cada una de las variables elegidas para el modelo. Lo que no muestra esta matriz de
autocorrelaciones es la ganancia relativa cuando se agrega una variable en presencia de las otras,
esto podría apreciarse en la Función de autocorrelación muestral Parcial.

Gráfica No. 7 Función de autocorrelación parcial de la serie IPC 1990-2005

En la función de autocorrelación parcial, se puede apreciar que los rezagos 11 y 12, aportan
mucha información en la predicción lineal del IPC, incluso en presencia de las demás variables
con rezagos menores. Esto soporta un poco más el modelo conceptual, aunque también indicaría
que no se debió tomar el IPCt-13, sino, IPCt-9, que aporta mucha más ganancia en presencia de
variables de rezagos menores. Para este trabajo se adoptará (por tiempo) el modelo conceptual ya
indicado antes.

MODELO DE REGRESIÓN LINEAL MÚLTIPLE.

Los autores piensan que, en un proceso de simulación, antes de intentar cualquier técnica
compleja de aproximación, es preciso intentar un modelo simple basado en regresión lineal
8
directa, a través de formas lineales o formas no lineales linealizables( mediante alguna
transformación). Debido a la fuerte correlación lineal indicada en la función de autocorrelación
muestral, se inicia con un modelo de regresión lineal múltiple simple, con el que se espera
encontrar algún resultado interesante que sea consistente con el análisis realizado. Con este
propósito se utilizan los patrones de entrenamiento para la construcción del modelo mediante las
herramientas de regresión lineal que se encuentran en EXCEL.

Los resultado obtenidos se resumen en las siguientes tablas:

Estadísticas de la regresión
Coeficiente de correlación
múltiple 0.89807412
Coeficiente de determinación
R^2 0.80653712
R^2 ajustado 0.79986599
Error típico 0.39234869
Observaciones 121

Tabla No. 4 Tabla de estadísticas de regresión

Coeficientes
Intercepción -0.00689133
IPCt-13 -0.14073479
IPCt-12 0.53347443
IPCt-11 0.16197524
IPCt-1 0.41320876

Tabla No. 5 Tabla de coeficientes de regresión

Esto indica que el modelo obtenido fue:

IPCt=-0.00689133-0.14073479*IPCt-13+0.53347443* IPCt-12+0.16197524* IPCt-11+0.41320876 *IPCt-1

Lo que indica que la variable que menos aporta en la predicción es la IPCt-13.

Los resultados gráficos se muestran en la gráfica No. 8. Tal y como se esperaba el modelo de
regresión lineal, da un resultado aceptable y una simplicidad muy conveniente, que se evidencia
por el número de parámetros obtenido: 5. Con lo que el factor de compresión quedaría:
173/5=34.6. Excelente para muchos propósitos prácticos.

9
Gráfica No. 8 Resultados para el modelo de regresión lineal, para el entrenamiento y para la validación

Los residuales se grafican contra cada una de las variables en la gráfica No. 9, con el fin de
identificar alguna tendencia que indicaría la violación de algunas suposiciones básicas de los
modelos de regresión lineal y la posibilidad de mejorar el modelo agregando la relación residuo–
variable al modelo de regresión inicial. Observando los residuales, se aprecia una amplitud
creciente en los residuales, lo que evidencia que el fenómeno presenta
heterodasciticidad( varianza no constante).

Luego, en la gráfica No. 10 se muestra la salida simulada en el entrenamiento contra cada


variable, con el fin de analizar gráficamente la bondad del modelo de regresión. En ella se aprecia
gráficamente un desempeño aceptable del modelo con cada una de las variables predictoras.

10
Gráfica No. 9 Residuales del modelo de regresión contra cada variables predictora

11
Gráfica No. 10 Salida simulada contra cada variable predictora

MODELO DE RED NEURONAL

Aprovechando las herramientas disponibles en MATLAB se aplicará una red neuronal tipo MLP,
por medio del Toolbox de Redes Neuronales de MATLAB.

Se probaron mucha arquitecturas de la red, utilizando las recomendaciones de algunos autores


para su dimensionamiento, ya que no hay una regla universal que permita dimensionar una red
neuronal( hasta donde conocen los autores de este trabajo). Algunas recomendaciones pueden
hallarse en Martín del Brio, B. & Sanz M, A(2002)5 y una regla propuesta por Baum-Haussler6,
5
Martín del Brio, B. & Sanz M, A(2002) ,Redes Neuronales y Sistemas Difusos, pág. 71-73
6
El artículo original de Eric B. Baum y David Haussler: “What Size Nets Gives Valid Generalizations” puede hallarse en:
http://books.nips.cc/papers/files/nips01/0081.pdf.
12
para redes tipo MLP, con unas sola capa oculta. Algunas recomendaciones al igual que un
tratamiento matricial de las redes tipo MLP, se pueden encontrar en el texto que publicaron los
autores del Toolbox de Redes Neuronales, Martin Hagan y Howard Demuth(Hagan M. &
Demuth H, 1996)7

Siguiendo esas recomendaciones se hicieron varios experimentos, con redes de una sola capa
oculta, obteniéndose resultados aceptables(coeficientes de determinación, r2 alrededor de 0.7).

Sin embargo el mejor resultado se obtuvo con una red de 2 capas ocultas, con la arquitectura
observada en la gráfica No. 11.

Gráfica No.11 Esquema del modelos Neuronal utilizado para el problema de predicción de un paso en la serie IPC 1990-2005

El modelo tiene un total de 56 parámetros libres( pesos).

A continuación se resumen las características del las red neuronal artificial usada:

 No. Capas 4 ( incluyendo la de distribución de las entradas)

 No. Neuronas capa de distribución de las entradas: 4(determinada por el modelo


conceptual)

 No. Neuronas primera capa oculta: 5

 No. Neuronas segunda capa oculta: 5

Otras referencia son: http://journal-ci.csse.monash.edu.au/ci/vol02/cmxhk/cmxhk.html,http://wwwis.win.tue.nl/~acristea/HTML/NN/NN6c.ppt,


http://www.cs.hmc.edu/courses/current/cs152/slides/bptricks.pdf
7
Se puede consultar en la Internet la página del libro, en donde se pueden desacargar algunos recursos:
http://hagan.ecen.ceat.okstate.edu/nnd.html
13
 No. Neuronas capa de salida: 1

Es decir la red tipo MLP, tiene topología 4-5-5-1.

 Regla de propagación: Combinación lineal de la entradas, a través de los pesos.

 Función de activación, de las capas ocultas: tangente hiperbólica.

 Función de activación, de la capa de salida: identidad( los datos no se escalaron).

 El método de entrenamiento que se utilizó fue en le Levenberg-Marquart, ya que fue con


el que se evidenció mejor comportamiento, y es el recomendado como primera opción, de
acuerdo a los desarrolladores del Toolbox.

 Se utilizó como tasa de aprendizaje para todas las capas 0.02.

 Número de iteraciones 3000 ( más allá se notó un deterioro en el desempeño de la red por
sobreentrenamiento).

 No. Parámetros libres de la red 56.

 Factor de compresión: 173/56=3.09.

Luego del entrenamiento se obtuvieron los pesos indicados en la tabla No. 6.

14
PESOS DE LA RED NEURONAL DE MEJOR DESEMPEÑO
W11 -1.5853 -6.5403 13.1063 13.9007
-0.9201 0.8806 -2.6191 -1.2322
0.0139 -1.5441 -0.2047 -0.8324
4.8376 2.7434 6.5932 -6.2971
0.1639 -0.1522 -0.9001 0.9171
b1 -9.5339
-5.7764
7.2124
-0.0655
1.3994
W21 -0.4476 -11.9022 3.6378 3.3659 -35.5888
-23.2831 -20.4916 -30.2125 -1.4838 -35.3337
53.7991 8.7783 -83.4169 45.4638 -0.0700
-13.0076 -2.6268 6.8437 -12.9449 -14.9732
26.1567 -16.9138 15.2423 2.2534 -36.6405
b2 13.3523
21.5144
-7.3544
4.7928
20.9818
W32 0.0475 0.3375 0.3538 0.9058 0.2479
b3 -0.0842

Tabla No. 6 Pesos finales para la red neuronal

Los resultados obtenidos se ilustran en la gráfica No. 12.

Gráfica No. 12 Resultados obtenidos con una red neuronal tipo MLP 4-5-5-1

15
MODELO DE INFERENCIA NEURODIFUSO

A continuación se aplica un modelo Neurodifuso tipo Sugeno, denominado ANFIS, mediante las
herramientas del Toolbox de Lógica difusa de MATLAB 7.0.

Se hicieron muchas pruebas con diferentes números y tipos de funciones de membresía, aquí se
muestran las que dieron mejores resultados. Para generar las funciones de membresía se decide
utilizar la función genfis1, que permite generar automáticamente las funciones de membresía
equiespaciadas para cada entrada. Se ingresan decide tomar 2 funciones de membresía tipo
triangular( trimf en el Toolbox, y con tres parámetros )por cada entrada, con lo que resultan 16
reglas con consecuentes lineales, cada una con 5 parámetros, esto da un total de 104 parámetros a
estimar( 80 lineales-de las reglas- y 24 no lineales-de las funciones de membresía) , mediante la
función ANFIS, empleando un método híbrido que combina backpropagation para los parámetros
no lineales y mínimos cuadrados para los parámetros de las reglas.

El esquema del modelo se muestra en la gráfica No. 13, mientras que en la gráfica No. 14 se
muestra la estructura específica del modelo obtenido con genfis1.

Grafica No. 13 Estructura general del modelo neurodifuso ANFIS, para la serie IPC 1990-2005.

16
Gráfica No. 14 Estructura del modelo Neurodifuso, tipo Sugeno, resultante al aplicar las opciones indicadas y la función genfis1 del Toolbox de
Lógica Difusa de Matlab( comando anfisedit)

Resumen de las características del modelo( tomadas del reporte de la función anfis):

Información ANFIS –genfis1

 Número de nodos: 55

 Número de parámetros lineales: 80

 Número de parámetros no lineales: 24

 Número total parámetros: 104

 Número de pares de datos de entrenamiento: 122

 Número de pares de datos de chequeo: 0

17
 Número de relgas difusas: 16

 Factor de compresión: 173/104= 1.66

A continuación se muestran en la gráfica No. 15 los resultados, luego de 100 iteraciones.

Gráfica No. 15 Funciones de membresía al final del entrenamiento

El resultado del entrenamiento y de la validación se muestra en la gráfica No. 16.

18
Gráfica No. 16 Resultados obtenidos con el Modelos ANFIS

En los experimentos realizados con el modelo ANFIS, se evidenció algo muy normal en los
procesos de modelación, cuando se incrementa el número de parámetros del modelo, tiende a
ajustar muy bien los patrones de entrenamiento(memorización o sobreentrenamiento), pero su
desempeño con los patrones de validación es muy pobre, es decir presenta deficiencias en su
capacidad de generalización. También se pudo apreciar, que si se itera demasiadas veces durante
el entrenamiento el modelo tiende a sobreentrenarse, por los tanto se decidió utilizar alrededor de
unas 100 iteraciones.

Teniendo en cuenta, la complejidad de los modelos resultantes al aplicar la función genfis1 de


Toolbox, se decidió explorar una opción muy atractiva que presenta el Toolbox, se hace
agrupamiento difuso, para determinar el número de funciones de membresías, con lo que se
obtuvieron modelos más parsimoniosos y con mejor capacidad predictiva. Esto se hace a través
de la función genfis2.

Para utilizar esta función se utilizó un radio de influencia de 0.5 para todas las variables( se
utilizaron otras combinaciones, pero fueron menos afortunadas), es decir la distancia que
determina límites de vecindad. No se usó la opción de escalamiento de los valores de las
variables de entrada y salida que tiene esta función debido a las limitaciones de tiempo.

19
La estructura del modelo obtenido al aplicar esta función de muestra a continuación en la gráfica
No. 17, donde se puede apreciar que resultó un modelo mucho más parsimonioso que el obtenido
con la función genfis1.

Gráfica No. 17. Estructura del modelo Neurodifuso, tipo Sugeno, resultante al aplicar las opciones indicadas y la función genfis2 del Toolbox de
Lógica Difusa de Matlab( comando anfisedit).

Los elementos más importantes del modelo se resumen a continuación:

 Información del modelo ANFIS-genfis2:

 Información ANFIS –genfis1

 Número de nodos: 37

 Número de parámetros lineales: 15

 Número de parámetros no lineales: 24

 Número total parámetros: 39

 Número de pares de datos de entrenamiento: 122


20
 Número de pares de datos de chequeo: 0

 Número de reglas difusas: 3

 Factor de compresión: 173/39= 4.44

Un factor de compresión mucho más atractivo.

Para el entrenamiento del modelo se hicieron muchas pruebas para determinar el mejor número
de iteraciones, ya que se pudo observar que, al igual que para el caso anterior, demasiadas
iteraciones no resultan convenientes, lastima que la validación cruzada que realiza el editor de
anfis no detenga el entrenamiento en el mejor momento( mínimo error en los datos de chequeo).
Se observó que alrededor de 100 iteraciones puede resultar conveniente para en la mayoría de los
casos.

Los resultados obtenidos con este modelo en cuanto a la definición de las funciones de
membresía se muestran en la gráfica No. 18. La superficie de salida para este modelo se observa
en la gráfica N0. 19, mientras que en la gráfica No. 20 se aprecia un ejemplo de la operación del
modelo ANFIS-genfis2.

Gráfica No. 18 Funciones de membresía finales(tipo gaussmf), para el modelo ANFIS-genfis2

21
Gráfica No. 19 Superficie correspondiente a la salida del modelo ANFIS-genfis2, contra las entradas 1 y 2

Gráfica No. 20 Ejemplo de la operación del modelo ANFIS-genfis2

22
Grafica No. 21 Resultados del Modelo ANFIS-genfis2 para los datos de entrenamiento y validación.

En los experimentos realizados con el modelo ANFIS, se evidenció algo muy normal en los
procesos de modelación, cuando se incrementa el número de parámetros del modelo, tiende a
ajustar muy bien los patrones de entrenamiento(memorización o sobreentrenamiento), pero su
desempeño con los patrones de validación es muy pobre, es decir presenta deficiencias en su
capacidad de generalización. También se pudo apreciar, que si se itera demasiadas veces durante
el entrenamiento el modelo tiene a sobreentrenarse, por los tanto se decidió utilizar alrededor de
unas 100 iteraciones.

Resumen modelo ANFIS-genfis2( Obtenidos del archivo fis correspondiente)


[System]
Name='fis2'
Type='sugeno'
Version=2.0
NumInputs=4
NumOutputs=1
NumRules=3
AndMethod='min'
OrMethod='probor'
ImpMethod='prod'
AggMethod='sum'
DefuzzMethod='wtaver'

[Input1]

23
Name='in1'
Range=[-0.14 3.66]
NumMFs=3
MF1='in1mf1':'gaussmf',[0.672920793128622 0.46056564179974]
MF2='in1mf2':'gaussmf',[0.676570305497397 1.23260060249941]
MF3='in1mf3':'gaussmf',[0.673380847273068 2.29866110889886]

[Input2]
Name='in2'
Range=[-0.14 4.01]
NumMFs=3
MF1='in2mf1':'gaussmf',[0.733525575553613 0.380066077623797]
MF2='in2mf2':'gaussmf',[0.71903363875026 1.24839089153039]
MF3='in2mf3':'gaussmf',[0.745037101987767 1.71233919457317]

[Input3]
Name='in3'
Range=[-0.05 4.01]
NumMFs=3
MF1='in3mf1':'gaussmf',[0.717304442647132 0.600070554486529]
MF2='in3mf2':'gaussmf',[0.702062025390371 1.11806271317004]
MF3='in3mf3':'gaussmf',[0.73369145617574 1.00183964970185]

[Input4]
Name='in4'
Range=[-0.14 4.01]
NumMFs=3
MF1='in4mf1':'gaussmf',[0.734187394776891 0.44051728039445]
MF2='in4mf2':'gaussmf',[0.73495986165982 0.910992826301592]
MF3='in4mf3':'gaussmf',[0.734330692952329 1.88982276341902]

[Output1]
Name='out1'
Range=[-0.14 3.68]
NumMFs=3
MF1='out1mf1':'linear',[0.00345259285832737 0.224366951035919 0.202932191151846 0.443162752649023 0.0117975213830043]
MF2='out1mf2':'linear',[-0.300883646834468 0.24649982329804 0.234101817913331 0.371165086538829 0.375835980826044]
MF3='out1mf3':'linear',[-0.528571010958265 0.737209582529607 0.149280230034743 0.422417875530927 0.652731925502957]
[Rules]
1 1 1 1, 1 (1) : 1
2 2 2 2, 2 (1) : 1
3 3 3 3, 3 (1) : 1

24
CONCLUSIONES

En primera instancia se van a comparar los resultados obtenidos para el coeficiente de correlación
con cada uno de los modelos; gráficamente se observa en la gráfica No. 22.

En primera instancia se observa que la aplicación de los diferentes modelos neuronales y


neurodifusos mejoran el valor del coeficiente de correlación obtenido para entrenamiento. El
mejor resultado obtenido en entrenamiento corresponde al modelo neuronal, con r 2=0.9250; sin
embargo, el valor r2 decae bastante para validación, donde este mismo modelo obtiene el peor
resultado, con r2=0.7425 y por lo tanto podemos esperar de él una pobre capacidad predictiva,
comparado con los otros modelos trabajados. Se puede decir que el modelo ha memorizado el
conjunto de datos, pero no ha generalizado lo suficiente.

El modelo ANFIS, aún cuando provee el segundo mejor resultado para el r 2 en entrenamiento,
con r2=0.8606, tiene deficiencias predictivas, ya que tiene el segundo peor valor de r2 (0.7711).

Gráfica No. 22 Comparación del coeficiente de correlación obtenido para entrenamiento y para validación con los diferentes modelos.

Examinando la misma gráfica, se observa que tanto el modelo de regresión lineal como el modelo
ANFIS-Genfis2, además de mostrar resultados aceptables para el coeficiente de correlación, sus
resultados son similares tanto para entrenamiento como para validación. Además, presentan una
25
buena capacidad predictiva, como se observa al obtener el coeficiente de correlación con los
datos de validación. Se puede considerar que el modelo ha generalizado lo suficientemente bien
como para obtener un buen valor con nuevos datos.

Por lo tanto, para la aplicación definitiva se podría escoger el modelo ANFIS-Genfis2, cuyos
valores de coeficiente son ligeramente superiores al modelo de regresión lineal. Sin embargo, si
se involucra una medida de la simplicidad del modelo tal como la asociada con el factor de
compresión, se observa que el modelo de regresión lineal involucra tan solo 5 parámetros, contra
39 parámetros que involucra el modelo ANFIS-Genfis2, con unos factores de compresión de
34.6 y 4.04 respectivamente.

La tabla No. 8 muestra un resumen de las características mencionadas.

r2 r2 Cantidad Factor de
MODELO Entrenamiento Validación Parámetros Compresión
REGRESION LINEAL 0.8065 0.8212 5 34.60
NEURONAL 0.9250 0.7425 56 3.09
ANFIS 0.8606 0.7711 104 1.66
ANFIS-Genfis2 0.8101 0.8350 39 4.04

Tabla No. 8 Cuadro resumen de algunas características del modelo.

Por lo tanto, para el conjunto de datos objeto del presente estudio, se puede concluir que el
modelo ANFIS-Genfis2 proporciona el mejor resultado final, con el costo implícito de su
complejidad relativa (alto número de parámetros). Sin embargo, para el presente caso la
eficiencia la tiene el modelo de regresión lineal, que con un escaso número de parámetros
obtiene resultados muy cercanos al ANFIS-Genfis2.

26
La tabla No. 7 muestra los patrones resultantes para el problema de predicción del IPC obtenidos
con este modelo.
No. IPCt-13 IPCt-12 IPCt-11 IPCt-1 IPCt
1 2.2 1.58 1.81 2.32 2.24
2 0.96 0.81 0.61 0.35 0.17
3 2.21 1.7 0.94 1.29 2.3
4 1.2 0.98 0.46 1.02 0.77
5 1.49 1.84 3.52 0.92 2.51
6 1.35 1.58 2.37 1.81 1.27
7 2.51 4.01 2.1 1.65 3.11
8 0.29 0.35 0.17 0.33 0.35
9 0.35 0.17 0.91 0.35 0.48
10 1.6 1.54 1.23 1.54 0.9
11 0.61 1.79 3.28 0.91 2.21
12 1.4 3.49 3.34 0.94 3.24
13 3.41 2.52 2.8 3.34 2.31
14 1.71 1 0.52 1.48 1.15
15 0.78 0.27 1.17 0.35 0.61
16 0.77 0.63 0.84 1.51 1.1
17 1.1 1.19 1.15 1.14 1.26
18 0.72 0.94 3.24 1.29 1.13
19 3.52 2.61 2.23 4.01 2.1
20 0.43 0.15 0.33 0.37 0.19
21 0.56 0.78 0.27 0.06 0.35
22 0.61 0.89 1.2 0.3 0.82
23 2.81 1.95 1.95 2.8 2.2
24 2.52 2.8 2.2 2.31 2.85
25 0.35 0.48 0.53 0.15 0.33
26 0.26 0.37 0.19 0.09 0.36
27 0.34 0.8 1.26 0.27 1.17
28 0.02 0.09 0.36 -0.14 0.31
29 0.31 0.5 0.33 -0.04 0.32
30 0.53 1.29 2.3 0.46 1.05
31 0.33 0.35 0.48 0.43 0.15
32 0.32 0.43 0.15 0.26 0.37
33 0.71 0.92 0.6 1.05 1.15
34 2.89 2.81 1.95 2.52 2.8
35 0.98 0.46 0.38 0.77 0.44
36 1.62 1.2 0.83 1.56 1.22
37 1.11 1.49 1.84 0.79 0.92
38 1.62 1.62 1.2 2.9 1.56
39 0.8 1.26 0.71 1.17 1.11
40 1.15 0.49 -0.05 0.46 0.38
41 3.34 2.31 2.85 3.25 1.87
42 2.3 1.71 1 1.89 1.48
43 1.27 1.45 1.32 0.75 0.83
44 2.6 2.9 1.56 0.94 0.78
45 0.89 1.2 0.98 0.82 1.02
46 1.55 1.62 1.62 2.6 2.9
47 0.47 0.03 0.29 0.31 0.5
48 0.43 0.02 0.09 -0.05 -0.14
49 0.36 0.56 0.78 0.22 0.06
50 3.15 3.68 2.21 1.84 3.52
51 1.54 0.9 0.91 1.65 1.2
52 0.92 2.51 4.01 0.72 1.65
53 1.56 1.22 0.47 0.48 0.28
54 1.65 1.2 0.77 1.55 1.14
55 0.38 0.6 -0.03 0.41 0.4
56 0.72 1.65 3.11 0.61 1.79
57 -0.02 -0.04 0.32 0.04 0.11

27
No. IPCt-13 IPCt-12 IPCt-11 IPCt-1 IPCt
58 2.1 1.97 1.55 1.55 1.62
59 0.37 0.19 0.12 0.36 0.56
60 1.45 1.32 1.22 0.83 0.85
61 0.48 0.53 1.29 0.33 0.46
62 2.24 1.99 0.75 1.54 1.23
63 1.23 1.25 1.12 0.91 0.97
64 1.06 1.29 1.13 1.11 1.11
65 0.78 0.48 0.28 1 0.52
66 1.89 1.48 1.15 1.26 0.71
67 0.27 1.17 1.11 0.61 0.89
68 1.32 1.22 1.4 0.85 0.72
69 3 3.41 2.52 3.49 3.34
70 0.85 0.72 0.94 1.06 1.29
71 0.33 0.46 1.05 0.12 0.34
72 0.91 2.21 1.7 0.53 1.29
73 2.52 3 3.41 1.4 3.49
74 1.22 0.47 0.03 0.28 0.31
75 1.92 2.03 2.52 1.32 1.22
76 2.21 2.37 1.54 2.61 2.23
77 3.25 1.87 1.94 3.68 2.21
78 1.14 1.51 1.1 1.2 0.83
79 0.35 0.61 0.89 0.28 0.3
80 0.03 0.29 0.35 0.5 0.33
81 1.95 1.35 1.58 1.58 1.81
82 1.55 1.14 1.51 1.62 1.2
83 0.91 0.97 1.09 0.77 0.63
84 1.97 1.55 1.14 1.62 1.62
85 1.54 1.23 1.25 0.9 0.91
86 0.6 0.43 0.02 0.49 -0.05
87 3.24 3.25 1.87 3.15 3.68
88 1.87 1.94 1.6 2.21 2.37
89 1.29 1.13 3.15 1.11 1.49
90 0.46 0.38 0.6 0.44 0.41
91 2.9 1.56 1.22 0.78 0.48
92 3.11 1.55 1.62 3.28 2.6
93 0.06 0.35 0.61 -0.01 0.28
94 0.5 0.33 0.35 0.32 0.43
95 0.97 1.09 1.11 0.63 0.84
96 -0.05 -0.14 0.31 0.6 -0.03
97 -0.04 0.32 0.43 0.11 0.26
98 1.99 0.75 0.83 1.23 1.25
99 0.75 0.83 0.85 1.25 1.12
100 0.28 0.31 0.5 -0.02 -0.04
101 2.85 2.32 2.24 1.94 1.6
102 1.26 0.96 0.81 0.29 0.35
103 2.03 2.52 3 1.22 1.4
104 1.2 0.77 0.63 1.14 1.51
105 1.11 1.05 1.15 1.2 0.98
106 1.12 1.06 1.29 1.09 1.11
107 0.81 0.61 1.79 0.17 0.91
108 2.37 1.54 0.9 2.23 1.65
109 0.92 0.6 0.43 1.15 0.49
110 1.48 1.15 0.42 0.71 0.92
111 0.09 0.36 0.56 0.31 0.22
112 1.09 1.11 1.11 0.84 0.88
113 0.19 0.12 0.34 0.56 0.78
114 0.63 0.84 0.88 1.1 1.19
115 0.8 0.72 1.65 0.81 0.61
116 1.29 2.3 1.71 1.05 1.89
117 1 0.52 -0.02 1.15 0.42
118 0.46 1.05 1.89 0.34 0.8

28
No. IPCt-13 IPCt-12 IPCt-11 IPCt-1 IPCt
119 -0.14 0.31 0.22 -0.03 0.03
120 3.66 2.89 2.81 3.41 2.52
121 1.79 3.28 2.6 2.21 1.7
122 0.22 0.06 0.35 0.3 -0.01
123 1.81 1.27 1.45 1.99 0.75
124 0.11 0.26 0.37 0.02 0.09
125 3.3 3.66 2.89 3 3.41
126 0.15 0.33 0.46 0.19 0.12
127 1.15 0.8 0.72 0.96 0.81
128 0.12 0.34 0.8 0.78 0.27
129 4.01 2.1 1.97 3.11 1.55
130 1.51 1.1 1.19 0.83 1.14
131 1.11 1.11 1.49 0.88 0.79
132 3.68 2.21 2.37 3.52 2.61
133 0.42 0.04 0.11 0.6 0.43
134 1.58 1.81 1.27 2.24 1.99
135 1.84 3.52 2.61 2.51 4.01
136 1.95 1.95 1.35 2.2 1.58
137 3.28 2.6 2.9 1.7 0.94
138 0.31 0.22 0.06 0.03 0.3
139 0.94 3.24 3.25 1.13 3.15
140 0.83 1.14 1.26 0.47 0.03
141 3.49 3.34 2.31 3.24 3.25
142 1.05 1.89 1.48 0.8 1.26
143 0.04 0.11 0.26 0.43 0.02
144 1.17 1.11 1.05 0.89 1.2
145 2.37 1.92 2.03 1.45 1.32
146 1.7 0.94 0.78 2.3 1.71
147 1.15 0.42 0.04 0.92 0.6
148 1.22 1.4 3.49 0.72 0.94
149 1.19 1.15 0.8 1.26 0.96
150 2.32 2.24 1.99 1.6 1.54
151 0.88 0.79 0.92 1.15 0.8
152 0.79 0.92 2.51 0.8 0.72
153 1.65 3.11 1.55 1.79 3.28
154 1.14 1.26 0.96 0.03 0.29
155 0.94 0.78 0.48 1.71 1
156 0.49 -0.05 -0.14 0.38 0.6
157 0.52 -0.02 -0.04 0.42 0.04
158 0.48 0.28 0.31 0.52 -0.02
159 2.23 1.65 1.2 1.97 1.55
160 0.84 0.88 0.79 1.19 1.15
161 1.13 3.15 3.68 1.49 1.84
162 2.61 2.23 1.65 2.1 1.97
163 2.8 2.2 1.58 2.85 2.32
164 1.26 0.71 0.92 1.11 1.05
165 1.25 1.12 1.06 0.97 1.09
166 0.9 0.91 0.97 1.2 0.77
167 1.94 1.6 1.54 2.37 1.54
168 0.17 0.91 2.21 0.48 0.53
169 1.58 2.37 1.92 1.27 1.45
170 2.31 2.85 2.32 1.87 1.94
171 1.05 1.15 0.49 0.98 0.46
172 1.2 0.83 1.14 1.22 0.47
173 0.83 0.85 0.72 1.12 1.06

Tabla No. 7 Patrones resultantes para el problema de predicción del IPC con el modelo ANFIS-Genfis2.

29
30

Potrebbero piacerti anche