Sei sulla pagina 1di 9

MODOS DE OPERACIN: RECUERDO Y APRENDIZAJE

Clsicamente se distinguen dos modos de operacin en los sistemas neuronales: el modo recuerdo o ejecucin, y el modo aprendizaje o entrenamiento. Este ltimo es de particular inters, pues una caracterstica fundamental de los ANS es que se trata de sistemas entrenables, capaces de realizar un determinado tipo de procesamiento o cmputo aprendindolo a partir de un conjunto de patrones de aprendizaje o ejemplos. Fase de aprendizaje. Convergencia En el contexto de las redes neuronales se define al aprendizaje como el proceso por el que se produce el ajuste de los parmetros libres de la red a partir de un proceso de estimulacin por el entorno que rodea la red. El tipo de aprendizaje se determina por la forma en la que dichos parmetros se adaptan a sus valores. En la mayor parte de las ocasiones el aprendizaje consiste simplemente en determinar un conjunto de pesos sinpticos que permita a la red realizar correctamente el tipo de procesamiento deseado. Cuando se construye un sistema neuronal, se parte de un cierto modelo de neurona y de una determinada arquitectura de red, establecindose los pesos sinpticos iniciales como nulos o aleatorios. Para que la red resulte operativa es necesario entrenarla, lo que constituye el modo aprendizaje. El entrenamiento o aprendizaje se lleva a cabo en dos niveles. El ms convencional es el modelado de sinapsis, que consiste en modificar los pesos sinpticos siguiendo una regla de aprendizaje, se construye a partir de la optimizacin de una funcin de error, que mide la eficacia actual de la operacin en red. Si denominamos wij (t ) al peso que conecta la neurona presinptica "j" con la postsinptica "i" en la iteracin"t", y al algoritmo de aprendizaje, en funcin de las seales que en el instante"t" llegan procedentes del entorno, proporciona el valor wij (t ) que da la modificacin que se incorpora en dicho peso, se actualiza como sigue; wij (t + 1) = wij (t ) + wij (t ) El proceso de aprendizaje es usualmente iterativo, actualizndose los pesos de la manera anterior, una y otra vez, hasta que la red neuronal alcanza el rendimiento deseado. Algunos modelos neuronales incluyen otro nivel en el aprendizaje, la creacin o destruccin de neuronas, en el cual se modifica la propia arquitectura de la red. En cualquier caso, en un proceso de aprendizaje la informacin contenida en los datos de entrada queda incorporada en la propia estructura de la red neuronal, la cual almacena la representacin de una cierta imagen de su entorno. Los dos tipos bsicos de aprendizaje son el supervisado y el no supervisado, cuya distincin proviene en origen del campo del reconocimiento de patrones. Ambas modalidades pretenden estimar funciones entrada/salida multivariable o densidades de probabilidad, pero mientras que en el aprendizaje supervisado se proporciona cierta informacin sobre estas funciones (como la distribucin de las clases, etiquetas de los patrones de entrada o salidas asociadas a cada patrn), en el autoorganizado no se proporciona informacin alguna.

Las reglas de aprendizaje supervisadas suelen ser computacionalmente ms complejas, pero tambin ms exactos sus resultados. Adems de las dos formas bsicas anteriores pueden distinguirse muchas otras; nosotros destacaremos aqu el aprendizaje hbrido y el reforzado. Los cuatro tipos citados pueden definirse de la forma siguiente: a) Aprendizaje supervisado. Sea E[W] un funcional que representa el error esperado de la operacin de la red, expresado en funcin de sus pesos sinpticos W. En el aprendizaje supervisado se pretende estimar una cierta funcin. multivariable desconocida f : n m (la que representa la red neuronal) a partir de muestras ( x, y ) x n , y m tomadas aleatoriamente, por medio de la minimizacin iterativa de E[W] mediante aproximacin estocstica.

Hablando en trminos menos formales, en el aprendizaje supervisado se presenta a la red un conjunto de patrones, junto con la salida deseada u objetivo, e iterativamente sta ajusta sus pesos hasta que su salida tiende a ser la deseada, utilizando para ello informacin detallada del error que comete en cada paso. De este modo, la red es capaz de estimar relaciones entrada/salida sin necesidad de proponer una cierta forma funcional de partida. Veremos ms adelante que determinados modelos de red neuronal de relativa simplicidad (como el MLP) son estimadores universales de funciones. b) Aprendizaje no supervisado o autoorganizado. El aprendizaje no supervisado se puede describir genricamente como la estimacin de la funcin densidad de probabilidad p(x) que describe la distribucin de patrones x pertenecientes al espacio de entrada n a partir de muestras (ejemplos). En este tipo de aprendizaje se presentan a la red multitud de patrones sin adjuntar la respuesta que deseamos. La red, por medio de la regla de aprendizaje, estima p(x), a partir de lo cual pueden reconocerse regularidades en el conjunto de entradas, extraer rasgos, o agrupar patrones segn su similitud (clustering). Un ejemplo tpico de modelo que emplea este tipo de aprendizaje es el de los mapas autoorganizados. c) Aprendizaje hbrido. En este caso, coexisten en la red los dos tipos bsicos de aprendizaje, el supervisado y el no supervisado, los cuales tienen lugar normalmente en distintas capas de neuronas. El modelo de contra-propagacin y las RBF son ejemplos de redes que hacen uso de este tipo de aprendizaje. d) Aprendizaje reforzado (reinforcement learning). Se sita a medio camino entre el supervisado y el autoorganizado. Como en el primero de los citados, se emplea informacin sobre el error cometido, pero en este caso existe una nica seal de error, que representa un ndice global del rendimiento de la red (solamente le indicamos lo bien o lo mal que est actuando, pero sin proporcionar ms detalles). Como en el caso del no supervisado, no se suministra explcitamente la salida deseada. En ocasiones se denomina aprendizaje por premio-castigo. Muchos de los algoritmos de aprendizaje (aunque no todos) se basan en mtodos numricos iterativos que tratan de minimizar una funcin costo, lo que da lugar en ocasiones a problemas en la convergencia del algoritmo.

Estos aspectos no pueden abordarse de un modo general, sino que deben ser estudiados para cada algoritmo concreto. En un sentido riguroso, la convergencia es una manera de comprobar si una determinada arquitectura, junto a su regla de aprendizaje, es capaz de resolver un problema, pues el grado de error que se mide durante el proceso de aprendizaje describe la precisin del ajuste del mapping. En el proceso de entrenamiento es importante distinguir entre el nivel de error alcanzado al final de la fase de aprendizaje para el conjunto de datos de entrenamiento, y el error que la red ya entrenada comete ante patrones no utilizados en el aprendizaje, lo cual mide la capacidad de generalizacin de la red. Interesa ms una buena generalizacin que un error muy pequeo en el entrenamiento, pues ello indicar que la red ha capturado correctamente el mapping subyacente en los datos. El problema de la generalizacin resulta fundamental en la resolucin de problemas con ANS, por lo que se abordar ms adelante con mayor amplitud. Fase de recuerdo o ejecucin. Estabilidad Generalmente (aunque no en todos los modelos), una vez que el sistema ha sido entrenado, el aprendizaje se desconecta, por lo que los pesos y la estructura quedan fijos, estando la red neuronal ya dispuesta para procesar datos. Este modo de operacin se denomina modo recuerdo (recall) o de ejecucin. En las redes unidireccionales, ante un patrn de entrada, las neuronas responden proporcionando directamente la salida del sistema. Al no existir bucles de realimentacin no existe ningn problema en relacin con su estabilidad. Por el contrario, las redes con realimentacin son sistemas dinmicos no lineales, que requieren ciertas condiciones para que su respuesta acabe convergiendo a un estado estable o punto fijo. Una serie de teoremas generales (Cohen-Grossberg, Cohen-Grossberg-Kosko y otros; vase, por ejemplo, LSimpson, Haykin, indican las condiciones que aseguran la estabilidad de la respuesta en una amplia gama de redes neuronales, bajo determinadas condiciones.

CLASIFICACIN DE LOS MODELOS NEURONALES


A partir de lo visto hasta el momento puede deducirse que dependiendo del modelo de neurona concreto que se utilice, de la arquitectura o topologa de conexin, y del algoritmo de aprendizaje, surgirn distintos modelos de redes neuronales.

Figura 1.13 Clasificacin de los ANS por el tipo de aprendizaje y la arquitectura

De la multitud de modelos y variantes que de hecho existen, unos cincuenta son medianamente conocidos, aunque tan slo aproximadamente una quincena son utilizados con asiduidad en las aplicaciones prcticas. Por lo tanto, para llevar a cabo el estudio sistemtico de los modelos se precisa algn tipo de clasificacin. Los dos conceptos que ms caracterizan un modelo neuronal son el tipo de aprendizaje y la arquitectura de la red, por ello, consideramos interesante que la clasificacin atienda ambos aspectos. As se hace en la propuesta por Simpson, que se adopta, se completa y se actualiza. De esta manera, en primer lugar, se realiza una distincin en cuanto al tipo de aprendizaje, por lo que aparece una primera clasificacin en modelos supervisados, no supervisados, de aprendizaje hbrido y modelos de aprendizaje reforzado. A su vez, y dentro de cada uno de los grandes grupos, tendremos en cuenta el tipo de topologa de la red, por lo que se distinguir adems entre redes realimentadas y redes unidireccionales (no realimentadas). La clasificacin que as surge se muestra en la Figura 1.13. Se puede apreciar que el conjunto de modelos de redes no realimentadas y de aprendizaje supervisado es el ms numeroso. Dentro de este grupo se tratan los casos del perceptrn simple, adalina y perceptrn multicapa o MLP (Multilayer Perceptron). Esta clase de modelos resulta especialmente importante por varias razones: por su inters histrico, generalidad, por ilustrar una amplia clase de aspectos que aparecen con frecuencia en todo el campo de las redes neuronales (memoria asociativa, clasificacin, aproximacin funcional, etc.), y adems por ser los sistemas neuronales ms empleados en las aplicaciones prcticas. A continuacin, en el captulo 3 trataremos los modelos no supervisados, en especial, uno de los ms conocidos, el de mapas autoorganizados o mapas de Kohonen (Self-organizing Feature Maps). En el capftulo 4 estudiaremos como ejemplo de red hbrida las RBF, y como ejemplo de red realimentada el modelo de Hopfield, tanto en su versin discreta como continua. Teniendo en cuenta que nuestro propsito es realizar una introduccin al tema, en los prximos captulos trataremos solamente algunos de los modelos ms conocidos y habituales en las aplicaciones prcticas. Hemos estimado ms conveniente estudiar unos pocos modelos con detenimiento que multitud de modelos ms superficialmente (lo que se realiza en muchos textos introductorios) para no abrumar al lector no iniciado. Por otro lado, remitimos al lector interesado en profundizar en detalles o en estudiar muchos otros modelos a los excelentes libros de Haykin y Principe, sin olvidar los ya clsicos textos de Hecht-Nielsen y de Hertz, Krogh y Palmer.

COMPUTABILIDAD NEURONAL
Establecidos los ANS como un estilo de procesamiento alternativocomplementario al clsico basado en computadores digitales serie (tipo von Neumann), se hace necesario profundizar en sus caractersticas computacionales. Es bien sabido que un ordenador digital constituye una mquina universal de Turing, por lo que puede realizar cualquier cmputo. Adems, al estar construido en base a funciones lgicas, se deduce que cualquier problema computacional puede ser resuelto con funciones booleanas. Podemos preguntarnos si las redes neuronales, al igual que los ordenadores digitales, son tambin dispositivos universales de cmputo. Este asunto ha sido ampliamente tratado por autores como Abu-Mostafa. En Abu-Mostafa se discute extensamente sobre las caractersticas computacionales de los ANS, demostrndose en particular que, al igual que los computadores digitales convencionales, las redes neuronales son formalmente capaces de resolver cualquier problema computacional. Una forma sencilla de verlo es la siguiente. Una red neuronal es capaz de implementar cualquier funcin booleana, pues basta recordar la neurona que realiza la funcin lgica NAND. As, cualquier circuito digital puede ser realizado con una red neuronal, slo con que escribirlo en funcin de puertas NAND, para a continuacin sustituir cada puerta por una neurona como la anterior. Por lo tanto, se tiene que todo problema computacional puede ser resuelto mediante funciones booleanas. Por otra parte, toda funcin booleana puede realizarse con puertas NAND, y toda puerta NAND tiene su neurona equivalente. La conclusin es que toda computacin puede ser realizada por una red de neuronas. Por lo tanto, los ANS, como los ordenadores convencionales, son mquinas universales, por lo que para resolver un determinado problema, cualquiera de las dos aproximaciones sera perfectamente vlida, en principio. La cuestin que entonces surge es, dado un problema, cul de las dos alternativas, procesamiento neuronal o convencional, resulta ms eficiente en su resolucin. Estudiando en el campo de las redes neuronales los aspectos relacionados con la complejidad computacional, en Abu-Mostafa se deduce que los problemas que requieren un extenso algoritmo o que precisan almacenar un gran nmero de datos, aprovechan mejor la estructura de una red neuronal que aquellos otros que requieren algoritmos cortos. As, un ordenador digital resulta ms eficiente en la ejecucin de tareas aritmticas y lgicas, mientras que un ANS resolver mejor problemas que deban tratar con grandes bases de datos que almacenen ingentes cantidades de informacin, y en los que existan muchos casos particulares, como sucede en los problemas de reconocimiento de patrones en ambiente natural [Abu-Mostafa]. De esta manera podemos concluir que un estilo de computacin no es mejor que el otro, simplemente para cada problema particular se deber elegir el mtodo ms adecuado, y en el caso de problemas muy complejos, stos deberan ser separados en partes, para resolver cada una mediante el mtodo ms idneo.

UN EJERCICIO DE SNTESIS: SISTEMAS CONEXIONISTAS


En el presente captulo, al exponer los fundamentos de los ANS hemos respetado el punto de vista tradicional: partiendo del modelo biolgico se introduce un modelo de neurona artificial, para posteriormente establecer el concepto de arquitectura de la red y, por ltimo, introducir las dinmicas de recuerdo y de aprendizaje como dos posibles modos de operacin del sistema. En el trabajo de J. D. Farmer, A Rosetta Stone for Connectionism, se realiza un interesante ejercicio de sntesis de dichos conceptos, de aplicacin tanto a las redes neuronales, como a muchos otros sistemas dinmicos que, por poseer modelos matemticos similares, encajaran en los denominados sistemas conexionistas. Entre ellos se encuentran, adems de los sistemas neuronales, las redes inmunes, sistemas clasificadores, redes booleanas, autmatas celulares, etc. Dicha sntesis parte de la idea de grafo (seccin 1.4), sobre la que se desarrolla el marco comn de los sistemas conexionistas. En los modelos dinmicos convencionales, la nica parte del sistema que puede cambiar es su estado (que contiene toda la informacin necesaria para determinar su futuro); el grafo (la estructura), sin embargo, permanece inalterable, es decir, los parmetros que definen su patrn de conexiones no cambia en el tiempo. Se define un modelo conexionista como un sistema dinmico en el que las interacciones entre variables estn limitadas a un conjunto finito de conexiones, y en el que las conexiones son fluidas, en el sentido de que sus intensidades y/o su patrn de conectividad pueden cambiar con el tiempo. Es decir, en un sistema conexionista se permite que la propia estructura del grafo vare, con lo que, adems de la propia dinmica habitual del grafo establecida como cambios de estado, aparecen una o ms dinmicas nuevas relacionadas con el cambio del propio grafo, y que pueden ocurrir en escalas temporales diferentes. Las tres dinmicas que residen en el grafo de un sistema conexionista, y que corresponden a tres escalas temporales diferentes, son las siguientes: a) Dinmica de los estados (escala temporal rpida). Es una dinmica rpida, en la cual, a partir del estado actual y de las entradas del sistema, se obtiene su nuevo estado. En esta dinmica acta la regla de activacin, que determina la transicin entre estados. En una red neuronal equivale al modo recuerdo, en la que el papel fundamental lo desempea la funcin de activacin de la neurona. b) Dinmica de los parmetros (escala temporal intermedia). Es una dinmica ms lenta que la anterior, en la que se produce el cambio en los parmetros que definen las interacciones entre los nodos (intensidades de conexin). En una red neuronal se corresponde con la variacin de los pesos sinpticos, es decir, con el modo aprendizaje, que lleva a cabo la regla de adaptacion. c) Dinmica del grafo (escala temporal lenta). Es la ms lenta de todas, en ella puede cambiar la estructura del propio grafo, es decir, no slo la intensidad de la conexin entre los nodos, sino los propios nodos y su patrn de conexionado. En una red neuronal se corresponde con posibilitar la modificacin de la arquitectura de la red durante el aprendizaje, con la destruccin y creacin dinmica de nodos.

El ltimo tipo de dinmica no ha sido demasiado usual en los modelos neuronales clsicos, al menos explcitamente, pues implcitamente es la labor que se realiza cuando se ensaya con diferentes arquitecturas hasta encontrar la que mejor se adapta al problema. No obstante, desde hace algunos aos se vienen introduciendo modelos en los que s vara la propia arquitectura, que en ocasiones se denominan arquitecturas evolutivas. Uno de los primeros modelos que respondan a este esquema fue el de Correlacin en Cascada (cascade correlation [Fahlman); en Jutten aparecen otros ejemplos de modelos evolutivos y en [IEEE 99] algunos modelos neuronales evolutivos basados en algoritmos genticos (una clara tendencia dentro de la inteligencia computacional es la de fusin de modelos neuronales, borrosos, evolutivos y clsicos).

REALIZACIN Y APLICACIONES DE LOS ANS


Para concluir esta introduccin a los ANS expondremos muy brevemente cmo stos se implementan en la prctica y cules son sus aplicaciones. Estos dos temas se abordarn ms extensamente en los captulos 5 y 6, respectivamente. Realizacin de redes neuronales El modo ms habitual de realizar una red neuronal consiste en simularla en un ordenador convencional, como un PC o una estacin de trabajo, haciendo uso de programas escritos en lenguajes de alto nivel, como C o Pascal. Aunque de esta manera se pierde su capacidad de clculo en paralelo, las prestaciones que ofrecen los ordenadores actuales resultan suficientes para resolver numerosos problemas prcticos, permitiendo la simulacin de redes de tamao considerable a una velocidad razonable. Esta constituye la manera ms barata y directa de realizar una red neuronal. Adems, no es necesario que cada diseador confeccione sus propios simuladores, pues hay disponible comercialmente software de simulacin que permite el trabajo con multitud de modelos neuronales. En Arbib, Hammerstrom, Principe, se muestran unos cuantos ejemplos (vase tambin el captulo 6). En el resto de las maneras de realizar un ANS se trata de aprovechar, en mayor o menor medida, su estructura de clculo paralelo. Un paso adelante en este sentido consiste en simular la red sobre computadores con capacidad de clculo paralelo (sistemas multiprocesador, mquinas vectoriales, masivamente paralelas...). Una orientacin diferente consiste en llevar a cabo la emulacin hardware de la red neuronal, mediante el empleo de sistemas de clculo expresamente diseados para realizar ANS basados, bien en microprocesadores de altas prestaciones (RISC, DSP...), bien en procesadores especialmente diseados para el trabajo con redes neuronales. Estas estructuras se suelen denominar placas aceleradoras, neuroemuladores o neurocomputadores de propsito general. Algunos sistemas de desarrollo de redes neuronales, adems de un software de simulacin, incluyen dispositivos de este tipo, en forma de tarjetas conectables al bus de un PC. El aprovechamiento a fondo de la capacidad de clculo masivamente paralelo de los ANS conduce a la realizacin hardware de la estructura de la red neuronal, en forma de circuitos especficos que reflejan con cierta fidelidad la arquitectura de la red. La tecnologa ms habitualmente empleada para ello es la microelectrnica VLSI, denominndose chips neuronales a los circuitos integrados as construidos.

La realizacin hardware de la red neuronal es la manera de resolver problemas que involucran un gran nmero de datos y precisan respuestas en tiempo real (por ejemplo, un sistema de deteccin e interceptacin de misiles enemigos). La realizacin electrnica de redes neuronales es un campo muy activo, abordado tanto por grupos de investigacin universitarios como por empresas de los sectores de la electrnica e informtica. Compaas como Siemens, Philips, Hitachi, AT&T, IBM o Intel han puesto en marcha desde mediados de los aos ochenta programas de investigacin y desarrollo en este campo. Asimismo, se han creado diversas empresas que tratan de explotar comercialmente (con mejor o peor fortuna) estos nuevos desarrollos. No obstante, debido a la creciete potencia de los computadores de propsito general (por ejemplo, un PC convencional basado en procesador Pentium y Windows) y sus bajos precios, en muchas aplicaciones no merece la pena el desarrollo o adquisicin de hardware neuronal [Granado], bastando con simular la red neuronal en un PC. Con el paso del tiempo la aplicacin de circuitos neuronales est quedando restringida a aplicaciones muy concretas, donde se requieren muy altas prestaciones, o bien en sistemas especficos donde se necesita un chip barato. Un ejemplo claro es el de los chips neuronales que la empresa californiana Sensory Inc. comercializa para reconocimiento de habla [Sensory], que se utilizan en telfonos, perifricos, juguetes, etc., que pueden llegar a constar menos de 5 dlares. Aplicaciones de las redes neuronales Ya hemos sealado que los objetivos que se persiguen mediante el empleo de redes neuronales son mucho ms modestos que la creacin de un cerebro artificial. Las redes neuronales se utilizan en la resolucin de problemas prcticos concretos, que normalmente no han sido bien resueltos mediante sistemas ms tradicionales, como pueda ser el caso del reconocimiento de vehculos en los peajes de las autopistas o la previsin de consumo elctrico. Gracias a su capacidad de aprendizaje, robustez, no linealidad y tolerancia a la imprecisin e incerteza del entorno, desde hace unos aos las redes neuronales vienen alcanzando excelentes resultados en aplicaciones diversas Hammerstrom. As como las aplicaciones prcticas de las redes neuronales resultaban hace unos aos anecdticas (o en fase experimental), como veremos en el captulo 6 en la actualidad muchas compaas las aplican de un modo rutinario a numerosos problemas; en este sentido, la aplicacin de redes neuronales puede considerarse que ha alcanzado ya su madurez [Werbos]. Los artculos [Hammerstrom, Widrow] constituyen un excelente repaso a los numerosos campos de aplicacin de los ANS. Los ms habituales son los relacionados con clasificacin, estimacin funcional y optimizacin; en general, el del reconocimiento de patrones suele considerarse como un denominador comn. Se pueden sealar, entre otras, las siguientes reas de aplicacin de los sistemas neuronales: reconocimiento del habla, reconocimiento de caracteres, visin, robtica, control, procesamiento de seal, prediccin, economa, defensa, bioingeniera, etc. Asimismo, se estn aplicando ANS para incorporar aprendizaje en los sistemas borrosos (capitulo 9) y a la confeccin de sistemas expertos conexionistas [Gallant]. Aunque en el captulo 6 se estudiarn numerosos casos de aplicacin de ANS a problemas reales, presentaremos a continuacin unos cuantos ejemplos.

El del reconocimiento de caracteres es uno de los campos donde mayores xitos han cosechado estos sistemas; se estima que aproximadamente el 50% de los sistemas de OCR (Optical Carcter Recognition) se basa en redes neuronales [Werbos]. Por ejemplo, Sharp ha desarrollado un sistema de reconocimiento de caracteres para el alfabeto Kanji (japons) mediante una red jerrquica basada en LVQ [Kohonnen. Synaptics, empresa del Silicon Valley, ha desarrollado un chip neuronal para el reconocimiento de direcciones escritas en los sobres de las cartas. Por otro lado, Quicktionary, de la empresa Wizcom, es un pequeo escner con forma de bolgrafo que lee y traduce textos escritos. Un rea de intenso trabajo es el del tratamiento de la informacin econmica, siendo uno de los grupos punteros el de A.N. Refenes, de la London Business School; en [Refenes] se describen aplicaciones diversas en este campo. Otra de las reas importantes es la industria. Fujitsu, Kawasaki y Nippon Steel emplean ANS en el control de procesos industriales, como por ejemplo en plantas de produccin de acero. Siemens aplica redes neuronales y sistemas borrosos en la fabricacin de celulosa (por ejemplo, en la planta de Celubose do Caima, Portugal [Hpfield, Poppe), en laminadoras y en galvanizadoras. Citren emplea redes neuronales en la determinacin de la calidad del material utilizado en la confeccin de los asientos de los vehculos, Ford en reduccin de contaminantes [James] y Renault para detectar averas en el encendido de los automviles. Finalmente, en la nueva versin del avin de combate F- 15 se ha ensayado con un sistema neuronal para ayuda al piloto en caso de alcance por fuego enemigo [Freedman] (aprovechando que una red neuronal electrnica puede aprender a desenvolverse en las nuevas circunstancias que influyen en el pilotaje del avin miles de veces ms rpidamente que el ser humano), y recientemente una red neuronal ha conseguido comandar el aterrizaje de un avin Jumbo sin intervencin humana [Werbos ].

Potrebbero piacerti anche