Sei sulla pagina 1di 1

Redes neuronales (deep learning)> conceptos básicos del deep learning> desarrollo

histórico> técnicas para entrenar redes neuronales> técnicas para entrenar


aplicaciones concretas+ introduciremos las bases de la disciplina y su evolución+
Estudiaremos la arquitectura de las redes neuronales + Estudiaremos funcionamiento
de la propagación.- descubriremos herramientas para entrenar nuestras redes
neuronales: (MXNET),tangente hiperbólica, distorsión de input.1. Redes neuronales.
Punto de partidaLas redes neuronales no se oponen a los modelos de regresión y
clasificacióndeep learning: el uso de redes neuronales muy complejas que procesan
grandes cantidades de datos mediante algoritmos muy sagaces para resolver problemas
de regresión o clasificación.las redes neuronales construir un modelo predictivo.Se
sirven de una gran potencia computacionalde grandes cantidades de datosefectivas
cuando tratamos con datos no estructurados (texto, imagen, audio o vídeo)muy útiles
para descubrir características de manera automática.[desarrollar un modelo tan
sofisticado y flexible que su complejidad pueda ser ajustada en función de las
necesidades.]El objetivo sería ajustar el predictor a voluntad.( distinguimos
neuronas de entrada, que reciben input y una neurona de salida, que devuelve un
output. Media una función de activación, que es la encargada de convertir input
en output.) 2. Redes neuronales simplesSe corresponden aproximadamente con la
propuesta de McCulloch y Pitt: cuentan con una sola capa, la que conecta input con
output, neuronas de entrada y neurona de salida.Redes neuronales complejasTienen
una estructura más desarrollada, pues existen capas intermedias entre ambos
extremos, como veremos más adelante. las redes neuronales simples (regresión lineal
y variantes como LDA, etc.)-partimos de unos inputs (variables independientes Xi) -
que aplicados a una función con distintos pesos (los coeficientes de regresión Wi)
-y una constante (W0)-nos dan un output (variable dependiente Z)Se debe tener en
cuenta que la función de activación tomará con frecuencia la forma de una
inecuación, muy similar a las que vimos al estudiar los modelos de clasificación.3.
Redes neuronales complejas también llamadas redes de propagación (feed-forward) Se
considera que, si se encuentra la arquitectura y la función de activación
apropiadas, deberían ser capaces de acercarse al máximo al predictor ideal.
presencia de capas intermedias de neuronas entre las neuronas de entrada y la
neurona de salida.se conocen como capas ocultas.cuya función es la de hacer
cálculos intermedios que se van trasladando de capa en capa hasta llegar a un
resultado final en la neurona de salida.La arquitectura de las redes depende de los
siguientes elementos:+ El número de capas ocultas.+ El número de neuronas por capa
oculta.+ La topología de las conexiones entre neuronas.la complejidad de una red
neuronal es un grado y dependerá de su arquitectura y de la función de activación.
4. Función de riesgoLas redes neuronales
pueden ser utilizadas con cualquiera de los modelos de predicción como los de
regresión lineal o los de clasificaciónLa función de riesgo es la que nos permite
decidir que modelo es el más adecuado para nuestra red neuronal.La función de
riesgo o de pérdida es una técnica cuyo objetivo es optimizar la capacidad
predictiva de nuestra red neuronal para lo cual se busca minimizar la diferencia
entre el ouput producido por la misma y el dato real que estemos tratando de
predecir.

Potrebbero piacerti anche