Sei sulla pagina 1di 11

Minería de datos

4.5 Extracción de reglas


comprensibles
Profa.: Dra. Carolina Astudillo Hernández
Integrantes de equipo:
Organista Vázquez Verónica Dennise 14321047
Rojas Almontes Oscar Ivan 14321072
Introducción
El desarrollo de la tecnología de minería de datos avanzada continuará siendo
una importante área de estudio, y en consecuencia se espera gastar muchos
recursos en esta área de desarrollo en los próximos años. En éste tema de
extracción de reglas comprensibles podemos entender el concepto de regla, con
lo cual se centralizará ya que la minería de datos extraen los datos más
importante y que tienen un propósito.
Reglas
Una regla es una proposición condicional. Su forma es “SI (condición A)
ENTONCES (resultado B)”siendo, por lo general, tanto A como B, conjunciones de
expresiones de la forma (nom_atributo = valori) en caso de que el atributo sea
cualitativo mientras que si es cuantitativo debe indicar el rango a utilizar ya sea a través
de un intervalo o a través una cota superior o inferior.Las técnicas de extracción de
reglas permiten obtener a partir de la información disponible un conjunto de este tipo
de proposiciones dando así lugar a un modelo que puede tener uno de dos objetivos:
establecer relaciones que describan los ejemplos existentes o clasificar los ejemplos a
través del conjunto de reglas.
Comprensibilidad
Debe proporcionar información que sea entendible por los usuarios. En otras palabras,
la comprensibilidad hace referencia a que la información que se vaya a leer permita a
los usuarios captar adecuadamente lo que se está comunicando. Entonces para
expresarlo de otra manera, el requerimiento del Marco Conceptual es que la
información contenida cumpla con los siguientes objetivos:
• Sea entendible por un usuario quien tiene un conocimiento suficiente de las
actividades y los requerimientos de trabajo.
• Sea preparada para ser estudiada por alguien que realiza un adecuado y firme
esfuerzo en entenderla.
Extracción

Las técnicas de extracción de conocimiento y minería de datos se centran en la


extracción asistida por ordenador de conocimientos útiles desde datos e
informaciones. Ayudan a descubrir y a identificar patrones ocultos (no
evidentes y, en ocasiones, inesperados) en los datos, que sean comprensibles
para las personas y que ofrezcan puntos de vista útiles (lo que resulta
especialmente importante en el caso de los grandes fondos de información,
donde los recursos humanos disponibles pueden ser limitados). El uso de estas
técnicas en las aplicaciones multimedia constituye un mecanismo poderoso para
mejorar la comprensión y para añadir valor a los grandes repositorios de
información multimedia.
Extracción de conocimiento a un problema de
marketing
En este trabajo se aplican herramientas evolutivas de extracción de conocimiento a un
problema de marketing estudiado en el Departamento de Organización y Marketing de
la Universidad de Mondragón: La extracción de información útil sobre certámenes
feriales. Las empresas consideran los certámenes feriales un instrumento que facilita la
consecución de objetivos comerciales tales como el contacto con los clientes actuales,
la captación de nuevos clientes potenciales, la realización de pedidos o la mejora de la
imagen corporativa entre otros. Uno de los principales inconvenientes de este tipo de
certámenes es la elevada inversión que suponen en términos tanto económicos como
de tiempo.
A esta inversión a veces se une una falta de planificación que enfatiza la
sensación de que las ferias no son más que un “gasto” que las compañías han
de afrontar por motivos varios (tradición, exigencia clientes, no dar la sensación
de que las cosas van mal, etc.)
Es conveniente, por tanto, la extracción automática de información sobre las
variables implicadas que permita obtener datos desconocidos determinantes en
parte de la eficacia de los stands de un certamen.
Algoritmos genéticos para la extracción de
reglas
Se han desarrollado múltiples propuestas evolutivas para la extracción de reglas
de distintos tipos, de clasificación, asociación o dependencias funcionales. Para
el problema al que nos enfrentamos, el objetivo es generar reglas en las que en
el consecuente aparezca un único atributo (y establecido a priori), porque en
esta sección haremos referencia a las propuestas evolutivas para la extracción de
reglas de clasificación y asociación.
Cualquier propuesta de AG de extracción de reglas debe determinar el esquema
de representación utilizado para codificar cada una de las soluciones, los
operadores genéticos y la función de adaptación.
El algoritmo permite generar reglas difusas y/o nítidas, para problemas con
variables continuas y/o nominales. Las reglas DNF, difusas o nítidas, son un
tipo de regla que permite representar el conocimiento de forma sencilla y
comprensible. La disyunción de valores para una variable facilita la extracción
de reglas genéricas en problemas con variables nominales, y permite flexibilizar
la discretización en variables en las que se haya realizado este tipo de pre-
procesamiento o cambiar en el caso de variables que se hayan tratado como
variables lingüísticas
El objetivo de este proceso evolutivo es extraer para cada valor de la variable
objetivo un número variable de reglas diferentes que expresen información
sobre la mayoría de los ejemplos del conjunto de partida. Para ello el AG se
incluye en un proceso iterativo que permite la obtención de varias reglas
mientras las reglas generadas alcancen un nivel mínimo de confianza y
describan información sobre zonas del espacio de búsqueda en las que aún
quedan ejemplos no descritos por las reglas generadas en las iteraciones
anteriores.
Conclusión
Como resumen podríamos señalar que el rápido crecimiento del interés en la minería de datos es debido :
1. Al avance de la tecnología de Internet y a la gran participación en aplicaciones multimedia en este dominio.
2. A compartir y distribuir los datos en la red, junto con el aumento de nuevas bases de datos en los
repositorios.
3. Al desarrollo de algoritmos de aprendizaje automático robustos y eficientes para procesar estos datos.
4. Al avance de las arquitecturas de las computadoras y la caída del coste del poder computacional, permitiendo
utilizar métodos computacionalmente intensivos para el análisis de datos.
5. La potencia que este tipo de análisis vienen mostrando como herramientas de soporte a la toma de
decisiones frente a realidades complejas.

Potrebbero piacerti anche