Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
TEMA
ANÁLISIS DE DATOS
TITULACIÓN INTEGRAL
(INFORME TÉCNICO DE RESIDENCIA PROFESIONAL)
PRESENTA
1 INTRODUCCIÓN ......................................................................................................... 5
2 JUSTIFICACIÓN .......................................................................................................... 6
4 ANTECEDENTES ...................................................................................................... 10
3
11 COMPETENCIAS DESARROLLADAS Y/O APLICADAS ........................................ 51
4
1 INTRODUCCIÓN
Podemos ver la magnitud del problema al que se enfrentan los docentes todos los días
en el aula: alumnos sin conocimientos básicos para iniciar el curso correspondiente, bajo
rendimiento académico, materias reprobadas y, por último, deserción escolar. Para
disminuir estas cifras tan preocupantes se debería determinar a tiempo los indicadores
que sirven de base para la toma de decisiones. Conociendo cuáles son las causas que
están originando este bajo rendimiento académico, podremos emplear las estrategias
necesarias para ayudar a los docentes y de esta manera disminuir el índice de alumnos
irregulares, así como el porcentaje de deserción o abandono escolar.
5
2 JUSTIFICACIÓN
En el caso del Instituto Tecnológico de Chetumal, el análisis de los datos ayudará a tener
un mejor conocimiento de la situación del índice de reprobación de los alumnos de dichas
carreras. De igual manera ayudará a tomar decisiones preventivas y correctivas que
impacten en los índices de deserción.
6
2.2 Impacto ambiental
En el mundo de los negocios y en las instituciones, lo que marca la diferencia entre una
institución exitosa y otra, es la correcta y oportuna toma de decisiones. Para llevarla a
cabo de la mejor manera, es esencial contar con la información adecuada y en tiempo,
que soporte toda la gestión de las operaciones de la institución de forma ágil y rápida.
En este punto las tecnologías de información toman un papel muy relevante al permitir
la recolección, almacenamiento y procesamiento de datos generados por la operación
de las instituciones. Así mismo, se facilita el acceso a la información y reduce el margen
de error que pudiera existir al realizar una misma captura en varias ocasiones. Con base
a esto se puede decir que ayudará al ambiente ya que se utilizarán herramientas
tecnológicas para ayudar a reducir el uso del papel en las instituciones (Carrasco, 2016).
Este proyecto tiene un impacto económico ya que tendrá una relación directa con las
expectativas que tenga el alumno al momento de egresar, ya que se buscará una
solución por la cual el alumno deja la institución, y se podrá hacer mejoras.
Para (Carrasco, 2016) uno de los activos más valiosos en una institución es la
información y el valor de ésta depende de cómo es gestionada, del tiempo que se emplea
en procesarla y traducirla en el lanzamiento de mejora de dicha institución. La
información es la clave de las organizaciones e instituciones y se sabe muy bien que la
información es vital para la toma de decisiones. En la mayoría de los casos, la
información es acumulada en diferentes bases de datos que se encuentran por toda la
7
institución, pero la clave radica en ganar ventaja competitiva en la obtención inteligente
de esos datos.
La inteligencia de negocio nos sirve para, ampliar la visión estratégica, reducir el riesgo
y la incertidumbre en la toma de decisiones institucionales y construir ventajas
competitivas de largo plazo en base a su información inteligente, tener una mejora
continua de la institución, gracias a la información oportuna que genera el conocimiento
que enriquece la toma de decisiones, que las institución sean proactivas y ágiles en la
gestión de la información que utilizan.
8
3 OBJETIVOS GENERALES Y ESPECÍFICOS
1. Identificar las posibles tendencias de los indicadores de las asignaturas con mayor
índice de reprobación.
2. Identificar distribuciones de probabilidad que describan de los datos de mayor
índice de reprobación.
3.3 Metas
9
4 ANTECEDENTES
En las consultas, análisis e informes que se realizaba, había suposiciones insidiosas que
los usuarios finales y el personal de TI a menudo realizaban erróneamente, entre los que
se destacan:
• El formato y el diseño de los informes existentes eran mucho más fácil de replicar
y mejorar, que las opciones disponibles en los idiomas arcanos.
Según (Olszak, 2013), las primeras herramientas utilizadas para las consultas y reportes
fueron vendidas como soluciones, hágalo usted mismo, "Do it your self". Y por ello
existieron dificultades evidentes, por ejemplo:
• Las extracciones estaban desfasadas con los datos originales del cliente.
10
• La mayoría no podía contener el volumen de datos necesario.
• Una inversión significativa en estas tecnologías podría aislar y atrapar datos clave
utilizados dentro de una herramienta que podría caer más tarde detrás de la curva
de tecnología.
Por lo cual, la mayoría de los sistemas y datos a los que se accedían estaban basados
en mainframe, porque allí residía la mayoría de los datos. Las herramientas propietarias,
tendían a proporcionar capacidades muy potentes, si se aprendían a usarlas. Requerían
de capacitación para sus operadores porque muchas de ellas estaban basadas en la
línea de comandos y necesitaban que los datos se clasificaran en el orden correcto.
Al poco tiempo de usar este tipo de herramientas, un aspecto negativo rápidamente fue
descubierto: hubo anomalías masivas e inexactitudes en los datos. Se perdían datos,
había registros incompletos, parte de la información estaba mal escrita, algunos datos
eran inexactos, etcétera. En otras palabras, los usuarios aprendieron los aspectos
negativos de trabajar con datos y su procesamiento.
A principios de los años 80 nació el concepto de Centro de Información. La idea era, que
los usuarios finales hicieran lo suyo. La pieza que faltaba era tener alguna apariencia de
orden detrás de su selección de herramientas y las habilidades necesarias para usarlas.
11
los usuarios finales y para actuar como enlace entre los usuarios no técnicos y las TI.
Era un centro de competencia que proporcionaba una ayuda invaluable para que los
usuarios aprendieran las destrezas apropiadas en las herramientas apoyadas en la
organización. El CI (Centro de Información), como era típicamente llamado, fue capaz de
identificar dónde residían los datos, cómo llegar a él, y qué herramientas recomendar y
proporcionar capacitación en las herramientas y el apoyo continuo.
Sin embargo, para cada aspecto positivo del enfoque IW fue que todos se dieron cuenta
de que existía un requisito muy fuerte de metadatos. Debido a que había tantas fuentes
diferentes y definiciones, tenía que haber una manera de definir y comprender no sólo
los datos originales, sino también cualquier nueva definición y términos que se aplicaban.
13
5 LUGAR DONDE SE REALIZÓ EL PROYECTO
Este proyecto se llevó a cabo en el Instituto Tecnológico de Chetumal con dirección Av.
Insurgentes No. 330, C.P. 77013 Col. David Gustavo Gtz. Chetumal, Quintana Roo, en
el departamento de Sistemas Computacionales
Oferta Educativa
Licenciaturas
Administración
Contador Público
Arquitectura
Biología
Ingenierías
Ingeniería Eléctrica
Ingeniería Civil
Ingeniería en Administración
Ingeniería en Gestión Empresarial
Ingeniería en Sistemas Computacionales
Ingeniería Tecnologías de la Información Y Comunicaciones
14
Posgrados
Maestría en Construcción.
Manejo de Zonas Costeras.
5.2 Visión: Ser una institución educativa moderna, de alto desempeño, formadora de
profesionales con calidad, que contribuyan al desarrollo del estado y del país dentro del
proceso de internacionalización, con base en la mejora continua.
5.4 Política de Ambiental: “EL ITCH establece el compromiso de implementar todos sus
procesos, orientándolos hacia la satisfacción de sus clientes sustentada en la Calidad
del proceso Educativo, así como las actividades y servicios hacia el respeto del medio
ambiente, cumplir la legislación ambiental aplicable y otros requisitos; promover en su
personal, clientes y partes interesadas la prevención de la contaminación y el uso
racional de los recursos, mediante la implementación, operación y mejora continua de un
Sistema de Gestión Ambiental conforme a la norma ISO 14001:2004”
15
6 FUNDAMENTO TEÓRICO
Las empresas utilizan BI para mejorar la toma de decisiones, reducir costos e identificar
nuevas oportunidades de negocio. BI es algo más que un simple reporte corporativo y
más que un conjunto de herramientas para extraer datos de los sistemas empresariales.
Los CEO (Central Inteligencie Office) utilizan BI para identificar procesos de negocio
ineficientes y que están maduros para el business process management.
Los ejecutivos tienen que asegurarse de que los datos que alimentan las aplicaciones de
BI son limpios y consistentes para que los usuarios confíen en él.
16
que permite la eficiencia de la operación del negocio, proporcionando un mayor valor a
la información de la empresa y por lo tanto la forma en que se utiliza esta información.
17
6.2.1.3 Real time BI
Permite la distribución en tiempo real de métricas a través de correo electrónico, sistemas
de mensajería y / o pantallas interactivas.
También puede contener los datos operacionales que se pueden definir como un
conjunto actualizable de datos integrados que se utilizan para la toma de decisiones
tácticas en toda la empresa de un área temática en particular. Contiene datos en directo,
no instantáneas, y conserva un historial mínimo. Las fuentes de datos pueden ser bases
de datos operativas, datos históricos, datos externos, por ejemplo, de empresas de
investigación de mercado o de Internet) o información del entorno de almacén de datos
ya existente.
Las fuentes de datos pueden ser bases de datos relacionales o cualquier otra estructura
de datos que soporte la línea de aplicaciones empresariales. También pueden residir en
muchas plataformas diferentes y pueden contener información estructurada, como tablas
o hojas de cálculo, o información no estructurada, como archivos de texto sin formato o
imágenes y otra información multimedia.
18
6.2.2 Técnicas
Técnicas Descripción
19
Tabla 1. Técnicas actuales de Bussines Intelligence
Técnicas Descripción
modelos; El objetivo es identificar los
patrones de una manera exploratoria.
BestTech
Los conceptos clave y las relaciones del Modelo Inteligencia de Negocios (BIM) son los
Objetivos, la situación, la influencia y los indicadores. (Jennifer Horkoff, 2013).
Si se construye un modelo BIM de arriba hacia abajo, obteniendo las metas y estrategias
relevantes antes de derivar u obtener indicadores, el razonamiento debe operar en
ausencia de valores indicadores. Estos modelos, utilizados como parte de la planificación
estratégica, a menudo resultan en estrategias alternativas. Es importante poder analizar
y comparar estrategias en un nivel alto. Las técnicas que facilitan el análisis estratégico
utilizando las metas empresariales que se han utilizado durante mucho tiempo, como
20
parte del análisis orientado a objetivos. Estos procedimientos propagan evidencia
cualitativa o cuantitativa a través de enlaces en el modelo para evaluar
El ajuste de curvas consiste en encontrar una curva que contenga una serie de puntos y
que posiblemente cumpla una serie de restricciones adicionales. Esta sección es una
introducción tanto a la interpolación.
Salvador (2008), establece que el ajuste de curvas es un proceso mediante el cual, dado
un conjunto de N pares de puntos {xi, yi}, x siendo la variable independiente e y la
dependiente, se determina una función matemática f(x) de tal manera que la suma de los
cuadrados de la diferencia entre
21
6.2.5 Variables Aleatorias
22
Tipos de variables aleatorias
Para (Eduardo Garcia Dunna, 2013), las variables aleatorias discretas son aquellas que
deben cumplir con los siguientes parámetros:
𝑃(𝑥) ≥ 0
∑ 𝑝𝑖 = 1
𝑖=0
𝑃(𝑎 ≤ 𝑥 ≥ 𝑏) = ∑ 𝑝𝑖 = 𝑃𝑎 + ⋯ + 𝑃𝑏
𝑖=𝑎
Las variables aleatorias continuas se representan mediante una ecuación que se conoce
como función de densidad de probabilidad (Eduardo Garcia Dunna, 2013). Dada esta
condición, se cambia el uso de la sumatoria pro la de una integral para conocer la función
acumulada de la variable aleatoria. Conforme a Eduardo García Dunna (2013) las
variables aleatorias continuas deben cumplir los siguientes parámetros:
𝑃(𝑥) ≥ 0
𝑃(𝑥 = 𝑎) = 0
∫ 𝑓(𝑥) = 1
−∞
𝑏
𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = 𝑃(𝑎 < 𝑥 < 𝑏) = ∫ 𝑓(𝑥)
𝑎
23
6.2.8 Pronósticos
Un pronóstico nos sirve como una base, un criterio, una justificación para el curso de
acción que se decidirá tomar, porque a partir del pronóstico que se genere, se toma una
decisión.
Los métodos de pronóstico se pueden clasificar en dos grandes grupos, los cuales son:
6.2.8.1 Cualitativos
a. Método de Jurado de opinión ejecutiva:
b. Método Delphi
24
c. Proposición de personal comercial
d. Estudio de mercado
6.2.8.2 Cuantitativos
a. Enfoque Simple
b. Serie de Tiempo
25
La tendencia es el movimiento gradual de ascenso de descenso de los datos a lo
largo del tiempo. Los cambios en la población, ingresos etc, influyen en la
tendencia, ver figura 2.
Las variaciones aleatorias que son “saltos” en los datos causados por el azar y
situaciones inusuales. Son de corta duración y no se repiten, o al menos no lo
hacen con una frecuencia determinada. Al ser aleatorias, no se pueden predecir.
c. Media Simple
Dentro de las ventajas del método tenemos que es muy amortiguado, por lo cual
no encontramos grandes saltos, y es muy simple de comprender por cualquier
persona.
26
El problema es que al tener en cuenta todos los datos históricos, llega un momento
donde los valores reales que se agregan prácticamente no modifican el pronóstico
futuro. Aun así, en algunas ocasiones se utiliza.
d. Media Móvil
∑ 𝑑𝑒𝑚𝑎𝑛𝑑𝑎 𝑑𝑒 𝑛 𝑝𝑒𝑟𝑖𝑜𝑑𝑜𝑠
𝑀𝑀 =
𝑛
Un valor de ‘n’ muy chico, hará que los pronósticos sigan más cerca de los últimos
valores reales, mientras que un valor de ‘n’ más grande, se traduce en una curva
más amortiguada aunque, por el mismo motivo, también de una menor velocidad
de cambio.
27
f. Suavización Exponencial
Donde 𝐹𝑡 = 𝑃𝑟𝑜𝑛ó𝑠𝑡𝑖𝑐𝑜
𝐴𝑡 = 𝑉𝑎𝑙𝑜𝑟 𝑟𝑒𝑎𝑙
∝ = 𝐶𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑑𝑒 𝑎𝑙𝑖𝑠𝑎𝑑𝑜
28
El procedimiento general de la prueba es:
29
competencias necesarias al interior de las organizaciones para compartirlo y utilizarlo
entre sus miembros, así como para valorarlo y asimilarlo.
El Gartner Group (2016) define el KM, como, "La gestión del conocimiento es una
disciplina que promueve un enfoque integrado para identificar, capturar, evaluar,
recuperar y compartir todos los activos de información de una empresa. Estos activos
pueden incluir bases de datos, documentos, políticas, procedimientos y conocimientos
antes no capturados y experiencia en trabajadores individuales".
Las empresas de consultoría se dieron cuenta rápidamente del potencial de Internet para
vincular entre sí sus propias organizaciones geográficamente dispersas y basadas en el
conocimiento. Una vez adquirida la experiencia en la forma de aprovechar las
comunicaciones para conectarse a través de sus organizaciones y para compartir y
gestionar la información y el conocimiento, rápidamente se dieron cuenta que la
experiencia o el conocimiento adquirido era un producto que podía ser vendido a otras
organizaciones. Un nuevo producto, por supuesto, necesitaba un nombre, y el nombre
elegido, fue la Gestión del Conocimiento.
El entusiasmo por el capital intelectual en la década de 1980, era muy elevado dado el
alto reconocimiento de la información y el conocimiento como bienes esenciales para
cualquier organización. Quizás el impulso más céntrico del KM es capturar y poner a
disposición, para que pueda ser utilizada por otras personas en la organización, la
30
información y el conocimiento que está en cabeza de la gente, y que nunca se ha
establecido de forma expresa.
En este caso se trata del conocimiento personal o propio del individuo. Este conocimiento
se halla profundamente imbricado en la mente de la persona y ampliamente relacionado
con la experiencia práctica.
El conocimiento explícito incluye cosas que uno puede pasar fácilmente a otra persona
mediante la enseñanza o colocándola en algún medio público, una base de datos o un
libro. Explicarle los protocolos de seguridad de su compañía a un nuevo miembro del
equipo es una forma de demostrar el conocimiento explícito. El conocimiento tácito es
menos cuantificable, es aprendido más a menudo por la experiencia. Es la materia que
usted sabe, pero no necesariamente saben que usted lo sabe.
31
6.2.12 La Pirámide DIKW
• Datos: Los datos son un hecho concreto o cifras sin ningún contexto o carentes de
significado. Por ejemplo, 1650, 9,6%, $709.7 miles de millones, son datos. Sin nada más
que los definan, estos dos elementos de datos no tienen mucho sentido.
32
Figura 3. DIKW Hierarchy
Para Sierra Bravo (1991), la estadística es ¨la ciencia formada por un conjunto de teorías
y técnicas cuantitativas, que tiene por objetivos la organización, presentación,
descripción, resumen y comparación de conjuntos de datos numéricos, obtenidos de
poblaciones en su conjunto de individuos o fenómenos o bien de muestras que
representan las población estudiadas, así como el estudio de variación, propiedades,
relaciones, etc¨
Según Irma Nocedo de León (2001) dice que la estadística es la ciencia encargada de
suministrar la diferente técnica y procedimientos que permiten desde organizar la
recolección de datos hasta su elaboración, análisis e interpretación, abarca dos campos
fundamentales la estadística descriptiva y la estadística inferencial.
33
La estadística inferencial estudia el comportamiento y propiedades de las muestras y la
posibilidad y límites de la generalización de los resultados obtenidos a partir de aquellas
poblaciones que representan.
1
𝑓(𝑥) = 𝑣 − (−) ∧ 2⁄22
√2
Según (Ortiz, 2008) la distribución lognormal tiene una relación con la distribución
normal, es a menudo una buena opción para este conjunto de datos atípicos. La
distribución lognormal se deriva de la distribución normal de la siguiente manera: si X es
una variable aleatoria normal con media y varianza, entonces la variable aleatoria Y=e x
tiene distribución lognormal con parámetros µ y u2.
34
7 PROBLEMA A RESOLVER
35
8 DESCRIPCIÓN DE LAS ACTIVIDADES REALIZADAS
Para poder tener mejor entendimiento sobre el análisis de los datos se buscó información
sobre Business Intelligence. En la primera actividad se llevó a cabo la búsqueda de
información, definición del Business Intelligence (Inteligencia de Negocios), entre otros
conceptos básicos, por consiguiente se inició a analizar la información de dichos
conceptos.
El modelo de minería de datos que crea el algoritmo tomó diversas formas incluyendo:
un conjunto de reglas que describen como se agrupan los productos en una transición,
un modelo matemático que predice el índice de reprobación, y un conjunto que describe
como se relacionan los casos del conjunto de los datos.
36
proporcionados. El análisis de las técnicas matemáticas ayudó a entender mejor las
propiedades, para identificar los pronósticos y mejoras posteriores. De igual manera
permitió el desarrollo de una teoría útil para el análisis de otros algoritmos.
Se recibió los datos del Instituto Tecnológico de Chetumal, recolectados en una página
de Excel.
Se analizó los datos dados de la institución, esta información fue dividida para así poder
ser analizado. Los datos se ordenaron de la siguiente manera: carrera, materia, período,
37
grupo y calificación. A continuación, los datos fueron filtrados con Excel, con el fin de
tener un orden estándar de los datos.
El siguiente paso fue separar cada materia y cada grupo, con el fin de calcular su
información estadística y tener un número de porcentaje del número de estudiantes que
fracasaron por grupo.
A los datos se le aplico el algoritmo y los resultados fueron analizados, si los resultados
no eran lo que se esperaba se volveriá a retomar el análisis de algoritmos y el procesos
se hará hasta que se obtengan los resultados requeridos.
Por último tenemos la elaboración del reporte final, donde todo lo que se hizo, se
documentó.
38
9 RESULTADOS PARA INGENIERÍA EN SISTEMAS EN
COMPUTACIONALES
El procedimiento llevado a cabo con dichos datos fue el filtrado por carrera, materia,
periodo, y por grupo; tomando en cuenta el porcentaje de reprobación por grupo y
recopilando estos porcentajes grupales e ingresándolo al software de ProModel, el cual
ayudó a tomar la mejor distribución de curvas.
39
En este caso ProModel arrojo que la distribución normal es la adecuada con una media
de 10.5 y una desviación típica de 6.34 como se puede ver en la figura 5. El siguiente
paso fue comprobar estos resultados manualmente utilizando el software de Excel.
40
En el caso de Fundamentos de Programación de la carrera de Ingeniería
de Tecnologías de la Información y Comunicaciones (figura 7), se llevó a
cabo la misma secuencia de filtrado, y de igual manera se usó ProModel,
para tomar la mejor decisión de la distribución de la curva.
41
Esto se comprobó en Excel (figura 9), en donde se observa un coeficiente de
determinación de 0.7262 utilizando una línea de tendencia exponencial, de igual manera
este resultado se rechazó ya que la predicción del coeficiente de determinación es
inválida.
42
En el análisis de la materia de Matemáticas Discretas, solo se alcanzó la recopilación del
número de reprobados de la carrera de Ingeniería en Sistemas Computacionales (figura
10), ya que en la carrera de Ingeniería en Tecnología de la Información y
Comunicaciones no hubo suficientes datos.
43
Esto fue comprobado manualmente en Excel (Figura 12), en donde se observa un
coeficiente de determinación de 0.8568, con una línea de tendencia polinomial de orden
3, el cual fue rechazado por un comportamiento errático al pronosticar a futuro.
44
Estos datos fueron ingresados a ProModel el cual arrojo una distribución normal con una
media de 9.89 y una desviación típica de 7.85 (figura 14).
45
En el caso de los datos de la materia de Cálculo Diferencia de la carrera de Ingeniería
en Tecnologías de la Información y Comunicaciones el cual está compuesto de 14 grupos
(figura 16).
46
Figura 18. Índice de reprobación semestral para alumnos de ITIC,
periodo agosto-diciembre 2012 a agosto-diciembre 2016.
47
10 CONCLUSIONES Y RECOMENDACIONES
En el caso del estudio de regresiones, se puede afirmar que el comportamiento del índice
de reprobación es errático para las materias de Fundamentos de Programación y
Matemáticas Discretas. Aunque en el caso de la materia de Cálculo Diferencial, se
encontraron curvas que describen adecuadamente el comportamiento de la reprobación,
se podría suponer que el comportamiento de este indicador es, generalmente, errático.
48
una distribución de probabilidad que explicaba el comportamiento de los datos. Aunque
aquí se llegó a resultados satisfactorios, la utilidad de esos resultados se daría en
cuestiones de simulación, con la cual se podría hacer inferencias sobre la situación que
probablemente ocurra si no se llevan a cabo medidas preventivas. Esto último queda
más allá del alcance de este trabajo.
Recomendaciones
La calidad y el número suficiente de los datos usados en algunas técnicas son de vital
importancia, para su correcto funcionamiento, por ello antes de empezar a usar las
técnicas y los datos, se debe tener el cuidado de hacer o establecer los pasos a seguir
de acuerdo a la Inteligencia de negocios.
Éstas técnicas de análisis de datos, son muy útiles y efectivas porque describen la causa
y el efecto de las variables que se analizan, por tal razón es importante saber plasmar
las variables a ser analizadas, para comprender el comportamiento y el origen, con el
objetivo de establecer estrategias que coadyuven con el mejoramiento de los efectos de
las variables analizadas.
No son las únicas técnicas existentes para el análisis de los datos, pero en el caso
particular son las que se usaron y se recomendable incursionar y probar al menos unas
tres técnicas más para comparar y comprobar los resultados.
49
La importancia del análisis del índice de reprobación en el Instituto Tecnológico de
Chetumal, pone énfasis a la necesidad de mejorar el porcentaje reprobatorio grupal para
las materias de Fundamentos de Programación, Matemáticas Discretas y Cálculo
Diferencial. A continuación se brindan las recomendaciones brevemente:
1. Que sea un hábito analizar los datos de las asignaturas, para tomar medidas
preventivas y correctivas a tiempo para así mejorar la situación.
3. Sería importante continuar con ésta clase de investigación, pero analizando las
causas u orígenes de la deserción.
50
11 COMPETENCIAS DESARROLLADAS Y/O APLICADAS
Competencias Instrumentales:
Capacidad de análisis y síntesis
Capacidad de organizar y planificar
Conocimientos generales básicos
Conocimientos básicos de la profesión
Comunicaciones oral y escrita en la propia lengua
Conocimiento de una segunda lengua
Habilidades básicos de manejo del ordenador
Habilidades de gestión de la información (habilidad para buscar y analizar
información proveniente de fuentes diversas)
Competencias sistemáticas:
51
12 REFERENCIAS BIBLIOGRÁFICAS Y/O APLICADAS
Adér, H. (2008). Phases and inital steps in data analysis. Netherlands: Johannes van
Kessel Publishing.
52
Rokach, O. M. (2010). Data Mining and Knowledge Discovery Handbook. . New York:
Springer.
53
CRONOGRAMA PRELIMINAR DE ACTIVIDADES
54