Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Presentación de datos:
• Estructurados VELOCIDAD
VOLUMEN Tasa de crecimiento y
• Semi – estructurado Gran cantidad de datos rapidez de recopilación
• No estructurado generados. de datos.
El estudio sobre la teoría de la complejidad de Big Data ayudará a comprender las características esenciales
y la formación de patrones complejos, simplificará su representación y guiará el diseño de modelos y
algoritmos informáticos sobre Big Data.
II. CHALLENGES IN BIG DATA
ANALYTICS
A. Almacenamiento y B. Descubrimiento del conocimiento y
análisis de datos complejidades computacionales
Todas estas
El tamaño de los datos crece de manera Herramientas para el
dependen del
exponencial por lo que los medios de descubrimiento de datos
problema y
almacenamiento y velocidad entrada/salida debe
pueden no ser
ser un desafío a enfrentar posicionando la • Conjunto difuso suficientes
accesibilidad como máxima prioridad ya que es • Conjunto aproximado debido al
necesario acceder a la información de manera • Análisis de concepto formal aumento
rápida y fácil para su posterior análisis. • Análisis de componentes exponencial de
principales datos
Los algoritmos existentes pueden no responder
en un tiempo razonable cuando se trata de datos El problema principal de las complejidades
de alta dimensión. Algunas tecnologías recogen computacionales es manejar la incertidumbre e
datos semi – estructurados y no estructurados inconsistencia del conjunto de datos. Las
dando como desafío el como analizar herramientas actuales de análisis de Big Data tienen
efectivamente los datos para un mejor un bajo rendimiento en el manejo de estas
conocimiento. complejidades
C. Escalabilidad y
D. Seguridad en la información
visualización de datos
Tiene un impacto económico y social imperativo El uso de computadoras virtuales se conoce como
para la construcción futura de tecnologías de computación en la nube y ha sido una de las
información, redes y comunicación. La técnicas de Big Data más robustas.
adquisición de IoT (Internet de las cosas) es el
mayor desafío que enfrentan los profesionales del Big Data y computación en la nube se desarrollan
Big Data. con la importancia de desarrollar una
disponibilidad escalable y baja demanda de
recursos y datos.
Los algoritmos de machine learning y las
técnicas de inteligencia computacional son las La computación en la nube ayuda a desarrollar un
única solución para manejar grandes datos desde modelo de negocio para todas las variedades de
la perspectiva de IoT. aplicaciones con infraestructura y herramientas.
C. Bio – inspired computing D. Quantum Computing
for Big Data Analytics for Big Data Analysis
G. Jaspersoft
El paquete Jaspersoft es un software de código abierto que produce informes a partir de columnas de bases de
datos. Es una plataforma analítica escalable de Big Data y tiene una capacidad de visualización rápida de datos en
plataformas de almacenamiento populares, incluyendo MangoDB, Cassandra, Redis, etc.
V. CONCLUSIÓN
En los últimos años, los datos se generan a un ritmo dramático. Analizar estos datos es un
desafío para un hombre en general. Con este fin en este documento, examinamos los
diversos problemas de investigación, desafíos y herramientas utilizados para analizar estos
grandes datos. De esta encuesta, se entiende que cada plataforma de Big Data tiene su
enfoque individual. Algunos de ellos están diseñados para el procesamiento por lotes,
mientras que otros son buenos para el análisis en tiempo real. Cada plataforma de Big Data
también tiene una funcionalidad específica. Las diferentes técnicas utilizadas para el
análisis incluyen análisis estadístico, aprendizaje automático, minería de datos, análisis
inteligente, computación en la nube, computación cuántica y procesamiento de flujo de
datos. Creemos que en el futuro los investigadores prestarán más atención a estas técnicas
para resolver problemas de big data de manera efectiva y eficiente.