Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
INTRODUCCION
Según la predicción de Alan Turing de 1950 de que ´´las maquinas eventualmente competirán
con los hombres”:
Los términos INTELIGENCIA ARTIFICIAL (artificial intelligence: AI) y ML en ciencia de datos, son
distintos.
AI.- esta relacionada con hw y sw que permite que una maquina imite inteligencia humana en
la que se incluye ML, visión por computadora y procesamiento del lenguaje natural.
ML.- es un subconjunto de AI, utiliza técnicas estadísticas para permitir que los programas
“aprendan” a través de la capacitación, en lugar de ser programados con reglas.
• Los sistemas de ML procesan datos de capacitación o aprendizaje para mejorar
progresivamente el rendimiento de una tarea, proporcionando resultados que
mejoran con la experiencia.
• Los datos se toman del borde, ya sea un dispositivo IoT, un servidor de borde, o un
dispositivo de borde y se envían a la nube para ser utilizados para su aprendizaje o
capacitación.
• Una vez que se entrena un sistema de ML, puede analizar nuevos datos y clasificarlos
en el contexto de los datos de entrenamiento, esto se conoce como INFERENCIA.
Las ML permite a los dispositivos contextualizar sus entornos inmediatos mucho mejor
utilizando datos como visión, sonido, calor, vibraciones, etc.
• Lo mas importante: ¿Cómo se pueden equilibrar estos problemas para ofrecer el mejor
rendimiento al mejor costo unitario?
¿Qué necesita esta plataforma? Puede que no necesite más de lo que ya tiene. Muchas
plaformas ya están ejecutando eficientemente aplicaciones ML en CPU y GPU solo (ver
capitulo 5).
Para requisitos de rendimiento mas alto pueden exigir un procesador ML dedicado como una
unidad de procesamiento neural (NPU)
CAPACIDADES:
- Procesamiento
- Conectividad
- Integración
- Precisión
- Privacidad
- Carga de trabajo
CASO DE ESTUDIO: UNA SOLUCION DEL BORDE DE LA ML PARA PACIENTES CON ASMA
- Un sistema operativo
- Compiladores
- Bibliotecas de rendimiento
- Marcos ML
Buscar una plataforma que permita a los desarrolladores y científicos de datos crear y ejecutar
fácilmente aplicaciones de ML en un entorno de bajo consumo de energía en CPU, GPU y NPU,
dejándole la máxima flexibilidad en sus diseños actuales y futuros. El software debe
proporcionar un puente a los marcos ML existentes, al tiempo que oculta los detalles de
implementación del hardware subyacente.