Sei sulla pagina 1di 5

DISEÑO INTEGRADO DE APRENDIZAJE AUTOMATICO O MAQUINAS QUE APRENDEN (ML)

INTRODUCCION

Según la predicción de Alan Turing de 1950 de que ´´las maquinas eventualmente competirán
con los hombres”:

A través de décadas de investigación en laboratorios y centros de estudios, LAS MAQUINAS


QUE APRENDEN (machine learning: ML ) finalmente han alcanzado su punto de viabilidad,
explotando en el dominio de la ingeniería y en la vida cotidiana de las personas.

CAPITULO 1: DANDONOS CUENTA DE PORQUE LAS ML ESTÁN MOVIÉNDOSE AL BORDE

Las ML representan el mayor punto de inflexión en la informática.

Esta impactando prácticamente en todos los mercados:

-Esta llevando a avances sorprendentes en las tecnologías de automóviles.

-Esta cambiando la cara de la atención medica.

-Esta influyendo en como se controla la infraestructura de la ciudad.

-Esta afectando a sectores como la agricultura donde la inteligencia de la maquina está


permitiendo practica de riego super eficientes, el control preciso de plagas y enfermedades y
la optimización de la cosecha de cultivos. Etc.

COMPRENDER LOS CONCEPTOS BASICOS DE LAS ML

Los términos INTELIGENCIA ARTIFICIAL (artificial intelligence: AI) y ML en ciencia de datos, son
distintos.

AI.- esta relacionada con hw y sw que permite que una maquina imite inteligencia humana en
la que se incluye ML, visión por computadora y procesamiento del lenguaje natural.

ML.- es un subconjunto de AI, utiliza técnicas estadísticas para permitir que los programas
“aprendan” a través de la capacitación, en lugar de ser programados con reglas.
• Los sistemas de ML procesan datos de capacitación o aprendizaje para mejorar
progresivamente el rendimiento de una tarea, proporcionando resultados que
mejoran con la experiencia.

• Los datos se toman del borde, ya sea un dispositivo IoT, un servidor de borde, o un
dispositivo de borde y se envían a la nube para ser utilizados para su aprendizaje o
capacitación.

• Una vez que se entrena un sistema de ML, puede analizar nuevos datos y clasificarlos
en el contexto de los datos de entrenamiento, esto se conoce como INFERENCIA.

• La ML se realiza en una de dos ubicaciones:

• -NUBE.- el entrenamiento de ML se realiza típicamente en sistemas de servidores


remotos, intensos en energía y computacionales.

• -BORDE.-la inferencia de ML generalmente se realiza localmente, en el dispositivo que


entregará las salidas. El termino BORDE puede referirse a un dispositivo IoT, servidor
de borde o dispositivo de borde.

DIFERENCIACION Y REDUCCION DE COSTO

La primera ola de ML se centró en la computación en la nube

La combinación de técnicas mejoradas para que los modelos reducidos se ejecuten en hw de


baja potencia y mayores capacidades de computo en dispositivos periféricos esta abriendo
posibilidades para diferenciación y reducción del costo unitario:

• Latencia reducida, mayor confiabilidad y seguridad.- las ML ofrecen experiencia de


usuario mas confiable, receptiva y segura que reduce el costo por unidad.

• Energia y costo.- al realizar la mayor cantidad de ML posible en el dispositivo se reduce


la carga de costos y complejidad en la red y la infraestructura de la nube.

• Privacidad y seguridad.- cuando el procesamiento se realiza en el dispositivo se


minimizan los problemas legislativos relacionados con el almacenamiento o la
transmisión de datos y cumplimiento de normas de privacidad.

• Personalización.- realizar ML en el dispositivo puede conducir a una experiencia


informática mas personalizada.

EXPLORANDO OPORTUNIDADES CON ML

La ML no se trata de un nuevo dispositivo, se trata de cada dispositivo

Las ML permite a los dispositivos contextualizar sus entornos inmediatos mucho mejor
utilizando datos como visión, sonido, calor, vibraciones, etc.

Se plantea preguntas adicionales:

• ¿Cuáles son los casos de uso?

• ¿Qué modelo de red neuronal (NN) proporciona el mejor rendimiento/precisión de


compesacion?

• ¿Qué hw debe elegir para complementarlo?¿Se puede usar hw de menor capacidad


con un modelo de precisión reducida?¿Se puede ajustar el modelo para utilizar toda la
RAM disponible?
• ¿Qué herramientas están disponibles para ayudar a un equipo a responder estas
preguntas?

• Lo mas importante: ¿Cómo se pueden equilibrar estos problemas para ofrecer el mejor
rendimiento al mejor costo unitario?

CAPITULO 2: CONFIGURANDO SU ENTORNO ML

-COMPRENDER LOS COMPONENTES DE UNA PLATAFORMA ML

¿Qué necesita esta plataforma? Puede que no necesite más de lo que ya tiene. Muchas
plaformas ya están ejecutando eficientemente aplicaciones ML en CPU y GPU solo (ver
capitulo 5).

Para requisitos de rendimiento mas alto pueden exigir un procesador ML dedicado como una
unidad de procesamiento neural (NPU)

Ejemplo de una plataforma de computo ML heterogenea con una variedad de tipos de


nucleo y software de código abierto.

TOMAR DECISIONES PARA SU ENTORNO ML

CAPACIDADES:

- Procesamiento

- Conectividad

- Integración

- Potencia tamaño y calor

- Precisión

- Privacidad

- Carga de trabajo
CASO DE ESTUDIO: UNA SOLUCION DEL BORDE DE LA ML PARA PACIENTES CON ASMA

• Procesamiento que se realiza de forma segura en el dispositivo sin necesidad de


conectarse a la nube.

• Conectividad bluetooth de baja potencia (BTLE) a una aplicación de teléfono


inteligente.

• Un perfil de eficiencia que extiende la duración de la batería del dispositivo.

CAPITULO 3: PORQUE EL SOFTWARE REALMENTE IMPORTA

Reducción del tiempo de comercialización con hardware, herramientas y simuladores listos


para usar:

- Un sistema operativo

- Compiladores

- Bibliotecas de rendimiento

- Herramientas de depuración y creación de perfiles

- Marcos ML

DIFERENCIANDO ATRAVES DEL SOFTWARE

Aumento del rendimiento del software


• Una pila de software optimizada: esta es la clave para desbloquear las cifras
prometidas de rendimiento del hardware.

• Ecosistemas: estos deben ser capaces de ofrecer un rendimiento constante y


actualizaciones de seguridad.

• Su solución: considere que partes requieren una implementación de hardware y cuales


podrían realizarse de manera más flexible en le software.

ENTRENAMIENTO Y DESPLIEGUE DE MODELOS ML

Buscar una plataforma que permita a los desarrolladores y científicos de datos crear y ejecutar
fácilmente aplicaciones de ML en un entorno de bajo consumo de energía en CPU, GPU y NPU,
dejándole la máxima flexibilidad en sus diseños actuales y futuros. El software debe
proporcionar un puente a los marcos ML existentes, al tiempo que oculta los detalles de
implementación del hardware subyacente.

Potrebbero piacerti anche