Sei sulla pagina 1di 5

Tomado de: http://www.portalplanetasedna.com.ar/intel_artificial.

htm

INTELIGENCIA ARTIFICIAL
AVANCES CIENTÍFICOS DEL SIGLO XX: LA INTELIGENCIA

ARTIFICIAL

La inteligencia artificial constituye una rama de la informática que, en los

últimos tiempos, está adquiriendo creciente importancia. Su campo de

estudio lo constituyen los procedimientos necesarios para elaborar sistemas

entre cuyas prestaciones figuren las que, tradicionalmente, se han

considerado privativas de la inteligencia humana.

Los objetivos de la inteligencia artificial: Un ordenador ejecuta las


órdenes para procesar datos que le son suministrados sin que disponga de
capacidad para desarrollar razonamiento alguno acerca de dicha
información. Frente a ello, la propuesta de la inteligencia artificial consiste
en lograr que el procesador se adapte al método de razonamiento y
comunicación humanos, para que pueda, no sólo poner en práctica los
algoritmos que en él introduce el hombre, sino establecer los suyos propios
para resolver problemas. El ordenador puede calcular el área de un polígono
siempre que posea el programa que le proporciona el dato de la medida de
uno de sus lados y la fórmula correspondiente para realizar dicha operación;
la inteligencia artificial pretende que el procesador sea instruido en los
principios de la geometría, para, por sí mismo, resolver la cuestión, a partir
de un algoritmo de su propia creación. En definitiva, la inteligencia artificial
explora los mecanismos que convierten al ordenador en una máquina
pensante. La posibilidad de que esta hipótesis llegue a hacerse realidad es
rechazada por numerosos expertos informáticos. En todo caso, se siguen
explorando caminos y, día a día, se constatan los progresos.
La máquina pensante y los sistemas expertos

Uno de los primeros intentos de construir una máquina pensante se llevó a


cabo en la década de los sesenta. El resultado fue la creación del GPS
(General Problem Solver,; solucionador general de problemas), que podía
resolver sencillos juegos, siempre que tuvieran un número reducido de
reglas precisas. El fundamento del GPS era que un problemas podía
resolverse partiendo del análisis de todas sus soluciones posibles y
actuando con sucesivos intentos hasta hallar el camino adecuado. La
cuestión que inmediatamente se planteó fue que, dada la ignorancia
absoluta sobre determinado tema, la búsqueda de salidas requerirla de un
tiempo inadmisible. Evidentemente, la aplicación del GPS a la resolución de
problemas reales resultaba imposible.

Poco tiempo después se idearon los primeros sistemas expertos,


especializados en determinados ámbitos; el más célebre, el Mycin, fue
diseñado en 1974. Se aplicó al campo médico, concretamente al área de
diagnosis, con resultados más que aceptables. Los sistemas expertos actúan
en función de normas que regulan una relación con el usuario; su misión no
es sustituir a la persona encargada de realizar determinada tarea, sino
tener la posibilidad de operar sobre la base de sus conocimientos en
ausencia de ella. El especialista es, lógicamente, el encargado de instruir al
sistema experto, que dispondrá de una base de conocimientos acerca de un
tema en cuestión. Dichos conocimientos adoptan la forma de principios a
partir de los cuales el sistema deduce conclusiones, elabora juicios o toma
decisiones. Además de la exigencia de que la respuesta del sistema experto
venga dada en un intervalo de tiempo razonable, son también elementos
fundamentales la capacidad de indicar el proceso de resolución efectuado y
la posibilidad de adquirir conocimientos a partir de la propia experiencia. En
este último caso, el sistema podrá aplicar los resultados obtenidos en
situaciones análogas futuras.

Componentes de los sistemas expertos

Un sistema experto consta de cuatro elementos básicos: banco de


conocimientos, motor de inferencia, módulo de adquisición e interfaz de
interpretación. El primero de ellos es el conjunto de datos que posee el
sistema. El motor de inferencia se define como el mecanismo de
razonamiento, que opera en una fase intuitiva y en otra deductiva. Por su
parte, el módulo de adquisición es el elemento que permite al especialista
instruir al sistema transmitiéndole sus conocimientos. Finalmente, la
interfaz de interpretación permite al sistema explicarse sobre el’ camino
seguido hasta llegar a determinada conclusión.

Las redes neuronales

En la década de los cuarenta surgió la teoría de las redes neuronales que


parte de una comparación entre el ordenador y el cerebro humano, y cuyo
objetivo es imitar el funcionamiento del sistema neuronal. Podría decirse
que el cerebro en el lenguaje informático, sería un sistema paralelo formado
por ingentes cantidades de procesadores interconectados entre si: las
neuronas. Veamos cómo actúan Cada neurona consta de

un cuerpo celular ramificado en una serie de fibras nerviosas, las dendritas;


dentro d cuerpo celular se encuentra el núcleo, y de la célula sale el axón,
una fibra larga que termina en filamentos nerviosos. Las células nerviosas
están conectadas entre sí mediante millares de sinapsis —unidas a las
dendritas o directamente al cuerpo celular— El mecanismo de razonamiento
se verifica cuando se produce una transmisión de señales químicas entre las
células nerviosas encargadas de procesar la información Así las neuronas
reciben señales de otras células; a continuación, procesan dicha información
y, en determinadas condiciones al alcanzar el umbral especifico, transmiten
la señal correspondiente -envían el mensaje— a través de su axón y por
medio de la sinapsis. Si bien el cerebro es muy superior en determinadas
tareas, que realiza a mayor velocidad que la máquina , el ordenador
dispone de una capacidad de memorización muy superior y está Preparado
para realizar otras operaciones en tiempos que resultan mínimos con
relación a ¡os empleados por la mente humana.

Siguiendo el proceso de funcionamiento de las neuronas cerebrales los


investigadores McCulloch y Pitts idearon en 1943 el modelo que lleva su
nombre. El modelo de McCulloch y Pitts se realiza a partir de una red de
gran tamaño, formada por elementos simples cuya misión es el cálculo de
sencillas funciones —4a neurona únicamente debe realizar la suma
ponderada de los impulsos de otras neuronas, un programa básico—. Sin
embargo, habitualmente, un número reducido de calculadores ejecuta
programas de enorme complejidad; en el transcurso del proceso, un
pequeño error puede repercutir fatalmente en el resultado. Por otra parte,
las neuronas cerebrales se comunican con una velocidad varios millones de
veces más lenta que la velocidad de operación de los circuitos electrónicos.
Por el contrario, el cerebro humano procesa determinado tipo de datos,
como imágenes o sonidos, mucho más rápidamente que el ordenador.

EL PRINCIPIO DE INCOMPATIBILIDAD

Un paso fundamental en la aproximación entre el modo de razonamiento


humano y el de la máquina es comprender que, en situaciones con
determinado grado de complejidad, no existe una solución única, sino que
pueden aplicarse métodos diversos. La mente del ser humano es capaz de
ponderar las ventajas e inconvenientes que ofrece cada uno y, en
consecuencia, tomar una decisión. Normalmente, el ordenador se encuentro
determinado hacia un único camino. El principio de incompatibilidad de los
sistemas complejos fue formulado en 1972 por Zadeh. Expresa el hecho de
que a medida que se profundizo en el estudio de las propiedades
características de un determinado sistema, mayor riesgo de imprecisión y
error existe para su descripción. Al aumentar la complejidad, las
posibilidades de expresamos con exactitud y pertinencia disminuyen, en
razón del número creciente de factores que intervienen en nuestro análisis.

La lógica ambigua

A mediados de la década de los sesenta surgió una nueva teoría, la lógica


ambigua, denominada así por tratarse de una disciplina opuesta a la lógica
binaria, que opera en función de pares de datos contrarios: si/no, verdadero
/falso, 1/O. En el marco de la lógica ambigua, el paso de un valor a otro se
realiza de manera gradual, sin que exista una línea de separación nítida. No
resulta adecuado trabajar con valores numéricos —1 y O—, propios de la
lógica binaria, sino con variables lingüísticas. En definitiva, se trata de
operar en sistemas donde los fenómenos no se describen analíticamente,
sino que son caracterizados de modo descriptivo o lingüístico. La lógica
ambigua trata de asignar valores de verdad a expresiones a las que no
pueden asociarse unívocamente las consideraciones verdadero o falso. En
contra de lo que pudiera pensarse a simple vista, las aplicaciones de la
lógica ambigua no implican un descenso en los niveles de control y fiabilidad
en aquellos campos en que se ponen en práctica. Si bien estas teorías han
tenido un desarrollo notable en ámbitos orientales, en Occidente su
aceptación ha sido mucho más costosa.

UN EJEMPLO DE APLICACIÓN DE LA LÓGICA AMBIGUA

En cualquier sistema que trabajo con conjuntos ambiguos, es necesario


definir las variables lingüísticas ambiguos Vinculadas entre sí por una
relación causa/efecto —la primera variable se denomina antecedente la
segunda, consecuente—, los conjuntos ambiguos —X e Y— en los que
quedan incluidas dichas variables y las reglas de inferencia ambigua, con
fórmulas del tipo «si X entonces Y».

En el caso de que haya que proyectar un mecanismo que controle la calefacción en una
vivienda, se opero con dos variables; la primera, denominada A mide la temperatura de
la caso; la segunda, B, describe la potencia que ha de proporcionar la caldera. Cada
variable lleva aparejado un conjunto donde, además de los Valores que puede asumir, se
describe el grado de ambigudod0 pertinencia de cada valor —este grado se expresa
gráficamente en el eje de ordenadas de un gráfico cartesianos, Cada conjunto ambiguo
comprende una serie de expresión que constituyen subsistemas; por ejemplo, para A,
podrían darse las siguientes: fría, fresca, templada, alta y sofocante. Para B se establece
una escala de cero a cien para medir la potencia de la caldera, al tiempo que se definen
los correspondientes subsistemas de valores que puede asumir: apagada, lenta, normal,
rápida y expedita. A continuación es necesario proporcionar la secuencia de reglas
ambiguas, emparejando elementos de los subsistemas dados: temperatura fría/caldera
expedita; temperatura templada/caldera normal, temperatura sofocante/caldera apagada
etc.

Potrebbero piacerti anche