Redes neuronales (deep learning)> conceptos básicos del deep learning> desarrollo
histórico> técnicas para entrenar redes neuronales> técnicas para entrenar
aplicaciones concretas+ introduciremos las bases de la disciplina y su evolución+ Estudiaremos la arquitectura de las redes neuronales + Estudiaremos funcionamiento de la propagación.- descubriremos herramientas para entrenar nuestras redes neuronales: (MXNET),tangente hiperbólica, distorsión de input.1. Redes neuronales. Punto de partidaLas redes neuronales no se oponen a los modelos de regresión y clasificacióndeep learning: el uso de redes neuronales muy complejas que procesan grandes cantidades de datos mediante algoritmos muy sagaces para resolver problemas de regresión o clasificación.las redes neuronales construir un modelo predictivo.Se sirven de una gran potencia computacionalde grandes cantidades de datosefectivas cuando tratamos con datos no estructurados (texto, imagen, audio o vídeo)muy útiles para descubrir características de manera automática.[desarrollar un modelo tan sofisticado y flexible que su complejidad pueda ser ajustada en función de las necesidades.]El objetivo sería ajustar el predictor a voluntad.( distinguimos neuronas de entrada, que reciben input y una neurona de salida, que devuelve un output. Media una función de activación, que es la encargada de convertir input en output.) 2. Redes neuronales simplesSe corresponden aproximadamente con la propuesta de McCulloch y Pitt: cuentan con una sola capa, la que conecta input con output, neuronas de entrada y neurona de salida.Redes neuronales complejasTienen una estructura más desarrollada, pues existen capas intermedias entre ambos extremos, como veremos más adelante. las redes neuronales simples (regresión lineal y variantes como LDA, etc.)-partimos de unos inputs (variables independientes Xi) - que aplicados a una función con distintos pesos (los coeficientes de regresión Wi) -y una constante (W0)-nos dan un output (variable dependiente Z)Se debe tener en cuenta que la función de activación tomará con frecuencia la forma de una inecuación, muy similar a las que vimos al estudiar los modelos de clasificación.3. Redes neuronales complejas también llamadas redes de propagación (feed-forward) Se considera que, si se encuentra la arquitectura y la función de activación apropiadas, deberían ser capaces de acercarse al máximo al predictor ideal. presencia de capas intermedias de neuronas entre las neuronas de entrada y la neurona de salida.se conocen como capas ocultas.cuya función es la de hacer cálculos intermedios que se van trasladando de capa en capa hasta llegar a un resultado final en la neurona de salida.La arquitectura de las redes depende de los siguientes elementos:+ El número de capas ocultas.+ El número de neuronas por capa oculta.+ La topología de las conexiones entre neuronas.la complejidad de una red neuronal es un grado y dependerá de su arquitectura y de la función de activación. 4. Función de riesgoLas redes neuronales pueden ser utilizadas con cualquiera de los modelos de predicción como los de regresión lineal o los de clasificaciónLa función de riesgo es la que nos permite decidir que modelo es el más adecuado para nuestra red neuronal.La función de riesgo o de pérdida es una técnica cuyo objetivo es optimizar la capacidad predictiva de nuestra red neuronal para lo cual se busca minimizar la diferencia entre el ouput producido por la misma y el dato real que estemos tratando de predecir.