Sei sulla pagina 1di 4

1- Las normas y el contenido a ser tratado está en el archivo titulado Normas y Contenidos del

Debate grupos de UAPA. Debes realizar un informe donde profundice acerca de los
contenidos a los que se hacen referencia (Conceptos de Conocimientos, gestión del
conocimiento, Big Data y herramientas para tales fines).

 Concepto de Conocimiento:

El conocimiento que es todo el conjunto de cogniciones y habilidades con los cuales los individuos
suelen solucionar problemas, comprende tanto la teoría como la práctica, las reglas cotidianas al igual
que las instrucciones para la acción, el conocimiento se basa en datos e información, pero a diferencia
de éstos siempre está ligado a las personas; forma parte integral de los individuos y representa las
creencias de éstos acerca de las relaciones causales.

La definición de conocimiento ha sido trabajada por diferentes autores desde diferentes disciplinas,
como por ejemplo la Filosofía, la Psicología, la Gestión empresarial y la Informática; por ejemplo, según
Jorge Raúl Díaz Muñante, 2004:

“«Conocimiento significa entonces apropiarnos de las propiedades y relaciones de las cosas, entender lo
que son y lo que no son»”.

El conocimiento puede ser entendido, con relación a Datos e Información, como "información
personalizada"; con relación al estado de la mente, como "estado de conocer y comprender"; puede ser
definido también como "objetos que son almacenados y manipulados"; "proceso de aplicación de la
experiencia"; "condición de acceso a la información y potencial que influye en la acción".

Opinión personal: De un modo general podemos entender por conocimiento todo saber que se puede
justificar racionalmente y que es objetivo. En este sentido distinguimos el conocimiento de la mera
opinión, de la creencia, de la fe o de las ilusiones de la imaginación.

El conocimiento fue concebido ya desde la antigüedad de dos modos diferentes: bien como una imagen
o representación mental del objeto conocido (por los estoicos, por ejemplo) o bien como una
proposición verdadera (como es el caso de Aristóteles), dando lugar a distintas interpretaciones de sus
características y valor a lo largo de la historia de la filosofía.

 Gestión de conocimiento:

La gestión del conocimiento es una nueva cultura empresarial, una manera de gestionar las
organizaciones que sitúa los recursos humanos como el principal activo y sustenta su poder de
competitividad en la capacidad de compartir la información y las experiencias y los conocimientos
individuales y colectivos.

Se abre pues una extraordinaria oportunidad de los profesionales de la información, que ahora pueden
aportar sus conocimientos y su experiencia en la explotación adecuada de los recursos externos, la
gestión de la información dentro de la organización y la difusión y explotación de la información que
ésta genera.

Opinión personal: La gestión del conocimiento es una disciplina que promueve un enfoque integrado
para identificar, capturar, evaluar, recuperar y compartir todos los activos de información de una
empresa, tales como bases de datos, documentos, políticas, procedimientos, experiencia previamente
no capturadas y experiencia individual en trabajadores”.

 Big Data

Big Data inundan los negocios cada es un término que describe el gran volumen de datos, tanto
estructurados como no estructurados, que día. Pero no es la cantidad de datos lo que es importante. Lo
que importa con el Big Data es lo que las organizaciones hacen con los datos. Big Data se puede analizar
para obtener ideas que conduzcan a mejores decisiones y movimientos de negocios estratégicos.

Cuando hablamos de Big Data nos referimos a conjuntos de datos o combinaciones de conjuntos de
datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad)
dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas
convencionales, tales como bases de datos relacionales y estadísticas convencionales o paquetes de
visualización, dentro del tiempo necesario para que sean útiles.

Lo que hace que Big Data sea tan útil para muchas empresas es el hecho de que proporciona respuestas
a muchas preguntas que las empresas ni siquiera sabían que tenían. En otras palabras, proporciona un
punto de referencia. Con una cantidad tan grande de información, los datos pueden ser moldeados o
probados de cualquier manera que la empresa considere adecuada. Al hacerlo, las organizaciones son
capaces de identificar los problemas de una forma más comprensible.

El big data en la organización se está utilizando para diseñar la nueva generación de productos y
servicios. Productos y servicios que obedecen además a modelos de negocios basados en Datos.

Pero lo que hace realmente interesante al Big data en la organización y en tu empresa es precisamente
en que esta disciplina está demostrando en las empresas líderes o pioneras un camino para crear
auténticas ventajas competitivas.

Ventajas que les están aportando grandes beneficios a sus accionistas y empleados y de los que ahora
quieren participar el resto de agentes y operadores de la industria.

El big data en la organización está ayudando a:

 Entender cómo se comportan clientes y proveedores con tus productos.


 Detectar innovaciones.
 Mejorar la logística y los procesos de producción aumentando la productividad.
 Reducir costes.
 Toma de mejores decisiones.

Uno de los objetivos del uso de las tecnologías Big Data es el de transformar los datos en conocimiento
útil para la empresa, y para ello se necesitan herramientas Big Data que nos ayuden a analizar, procesar
y almacenar todos los datos recogidos. Un gran número de entre las mejores herramientas usadas en
Big Data son open source, lo que da fe del éxito de este modelo de desarrollo, además de las
alternativas de pago.
A continuación te mostramos una selección de herramientas open source que ofrecen soluciones para la
explotación de software de Big Data en todos sus procesos: almacenamiento, procesamiento y análisis,
que seguramente te serán útiles en tus proyectos.

Hadoop

No se puede hablar de Big Data sin hablar de la veterana Apache Hadoop. Esta herramienta Big Data
open source se considera el framework estándar para el almacenamiento de grandes volúmenes de
datos; se usa también para analizar y procesar, y es utilizado por empresas como Facebook y Yahoo!.

MongoDB

Dentro de las bases de datos NoSQL, probablemente una de las más famosas sea MongoDB. Con un
concepto muy diferente al de las bases de datos relacionales, se está convirtiendo en una interesante
alternativa para almacenar los datos de nuestras aplicaciones.

MongoDB es una base de datos orientada a documentos (guarda los datos en documentos, no en
registros). Estos documentos son almacenados en BSON, que es una representación binaria de JSON.

Elasticsearch

Elasticsearch es una potente herramienta para la búsqueda entre grandes cantidades de datos,
especialmente cuando los datos son de tipo complejo.

Nos permite indexar y analizar en tiempo real un gran volumen de datos y hacer consultas sobre ellos.
Un ejemplo de uso son las consultas de texto completo; al estar los datos indexados, los resultados se
obtienen de forma muy rápida. En el IIC utilizamos esta herramienta para indexar datos dentro de
nuestras soluciones de entorno digital.

Apache Spark

Apache Spark es un motor de procesamiento de datos de código abierto realmente rápido.

Creado por Matei Zaharia en la Universidad de Berkeley, se considera el primer software open source
que hace la programación distribuida (muy en esencia, consiste en distribuir el trabajo entre un grupo
de ordenadores, “cluster”, que trabajan como uno) realmente accesible a los científicos de datos.

Apache Storm

Apache Storm es un sistema de computación distribuida en tiempo real orientado a procesar flujos
constantes de datos, por ejemplo, datos de sensores que se emiten con una alta frecuencia o datos que
provengan de las redes sociales, donde a veces es importante saber qué se está compartiendo en este
momento.

Lenguaje R

R es un lenguaje de programación y entorno de software para cálculo estadístico y gráficos. El lenguaje R


es de los más usados por los estadistas y otros profesionales interesados en la minería de datos, la
investigación bioinformática y las matemáticas financieras.
Python

Python es un lenguaje avanzado de programación con la ventaja de ser relativamente fácil de usar para
usuarios que no estén familiarizados con la informática de manera profesional, pero que necesitan
trabajar con análisis de datos (estadistas, biólogos, físicos, lingüistas…).

Opinión personal: Big Data nació con el objetivo de cubrir unas necesidades no satisfechas por las
tecnologías existentes, como es el almacenamiento y tratamiento de grandes volúmenes de datos que
poseen unas características muy concretas.

El uso de Big Data ha ayudado a los investigadores a descubrir cosas que les podrían haber tomado años
en descubrir por si mismos sin el uso de estas herramientas, debido a la velocidad del análisis, es posible
que el analista de datos pueda cambiar sus ideas basándose en el resultado obtenido y retrabajar el
procedimiento una y otra vez hasta encontrar el verdadero valor al que se está tratando de llegar.

Implementar una solución alrededor de Big Data implica de la integración de diversos componentes y
proyectos que en conjunto forman el ecosistema necesario para analizar grandes cantidades de datos.

Sin una plataforma de Big Data se necesitaría que desarrollar adicionalmente código que permita
administrar cada uno de esos componentes como por ejemplo: manejo de eventos, conectividad, alta
disponibilidad, seguridad, optimización y desempeño, depuración, monitoreo, administración de las
aplicaciones, SQL y scripts personalizados.

Potrebbero piacerti anche