Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Introducción
Cuando Turing escribió su famoso artículo en el que se preguntaba si las máquinas pueden
pensar y cómo podría evaluarse esta posibilidad (Turing, 1950), se planteó como objetivo el
crear una máquina cuya inteligencia fuese indistinguible de la inteligencia humana. El trabajo
anterior de Turing (Turing, 1936) ya había demostrado que el potencial del ordenador digital es
tan elevado como cualquier otro dispositivo computacional que podamos concebir, del tipo
que sea (mecánico, electrónico, óptico, biológico,…), sugiriendo así que solo era una cuestión
de tiempo el que pudiera desarrollarse un ordenador tan inteligente como el ser humano. Sin
embargo, el paso del tiempo ha mostrado que, a pesar del desarrollo exponencial en la
potencia de los ordenadores que hemos creado, estos no se han vuelto más inteligentes
aunque sí más rápidos pero la rapidez no da la inteligencia. Esto ha generado que la disciplina
se haya dividido en dos áreas divergentes: la inteligencia artificial moderna y el campo del
modelado cognitivo. En la inteligencia artificial (AI) moderna, el objetivo principal es crear
programas inteligentes, sirviendo la inteligencia humana a lo sumo como una fuente de
inspiración, mientras que el modelado cognitivo (MC) ha tomado la ruta opuesta de focalizarse
en modelar de manera precisa y fiel la inteligencia humana no importando si estos programas
eran más o menos inteligentes, más o menos elegantes o económicos en tiempo y recursos de
procesamiento. Lo que importa en el modelado cognitivo es que esos programas puedan
compararse eficazmente en términos de ejecución y estructura con la inteligencia humana.
Las arquitecturas cognitivas pertenecen en su mayoría a este segundo paradigma de la MC
constituyendo un intento, por un lado, de crear una máquina inteligente aunque ateniéndose
fielmente a la inteligencia humana y, por otro lado, un intento de unificar teóricamente el
campo de la psicología cognitiva. Estos dos aspectos conllevan una dualidad (quizás una
tensión o lucha) entre los aspectos “funcionales” y los “teóricos”. Las arquitecturas cognitivas
deberían ser “funcionales”, es decir, deberían ofrecer mecanismos cognitivos y
representaciones del conocimiento tales que puedan producir conducta inteligente. Pero,
aunque parezca obvio, las arquitecturas cognitivas también deberían ser “teorías”. Una teoría
ofrece una explicación única (no múltiple) de un fenómeno. Desde la perspectiva teórica de la
MC, el disponer de mecanismos y representaciones variados (funcionalidad) no es una buena
idea ya que incrementa la probabilidad de que muchos modelos diferentes puedan ajustar los
mismos datos conductuales. Esto nos permite ver que, de alguna forma, la necesidad de
funcionalidad (que implica diferentes mecanismos y representaciones) y el aspecto teórico del
modelado cognitivo, son objetivos contradictorios y por ello, las diferentes arquitecturas que
se han desarrollado pugnan para alcanzar un equilibrio diferente entre ambos aspectos. Hay
incluso arquitecturas cognitivas que se centran primariamente en el aspecto de la
funcionalidad y no realizan casi ninguna afirmación teórica (v.g., la arquitectura Cogent).
El término “arquitectura cognitiva” es en realidad una analogía extraída del término
“arquitectura de cómputo” o “arquitectura del ordenador”. La arquitectura de un ordenador le
proporciona al programador la base sobre la que crear cualquier programa. De manera similar,
una arquitectura cognitiva (AC) permite al modelador cognitivo crear modelos de simulación
de la cognición humana. Un modelo debe especificar el conocimiento inicial con el que la
arquitectura va a funcionar. Por ejemplo, un modelo de cómo las personas realizamos la suma
de números de dos dígitos podría consistir en: a) un conjunto de hechos simples sobre la suma
y b) un conjunto de reglas de producción que especifican, por ejemplo, que tienes que
comenzar en la columna de la derecha, como debes manejar los valores que te llevas de
columnas previas, entre otras. Esto muestra que estos modelos necesitan hacer uso de un
conocimiento, pero la pregunta que surge es cómo saber qué conocimiento se le debe
proporcionar al ordenador para que realice la tarea propuesta (v.g., suma de dos números,
jugar al ajedrez, resolver analogías, …). El método clásico que se utiliza para identificar el
conocimiento que es necesario aportar al ordenador es mediante el “análisis de tareas”: un
estudio cuidadoso del conocimiento necesario y de la estructuras de control asociadas con el
mismo usualmente extraído a través de entrevistas o cuestionarios realizados a expertos
humanos en el área (v.g., jugadores expertos en ajedrez, médicos expertos en leer
radiografías, etc.). El conocimiento identificado del análisis de estas entrevistas y/o
cuestionarios (análisis de tareas) se introduce en la arquitectura cognitiva que, a partir de ese
momento, podrá realizar predicciones sobre diversos aspectos de la actuación humana
incluyendo tiempos de reacción, errores, elecciones, movimientos oculares o áreas que se
activarán en la resonancia funcional magnética (fMRI).
Un problema existente con los modelos cognitivos es que no es fácil evaluar su validez. Se
podría asumir que un modelo que mediante simulaciones produce la misma conducta o el
mismo patrón de respuestas que se observa en las personas es un modelo válido. Sin embargo,
diferentes modelos podrían mostrar la misma conducta, en cuyo caso es necesario un criterio
diferente para determinar qué modelo es el mejor. Desafortunadamente, no hay una medida
cuantitativa que nos evalúe la validez de un modelo, pero sabemos que los siguientes factores
cualitativos contribuyen a la validez del mismo (y por tanto deben ser considerados
cuidadosamente en cada estructura cognitiva y modelo):
Para discutir el estado actual de las arquitecturas cognitivas, revisaremos brevemente cuatro
ejemplos principales en esta sección, luego examinaremos áreas del modelado cognitivo y
discutiremos qué restricciones ofrecen las diversas arquitecturas en estas áreas.
SOAR
La arquitectura Soar (acrónimo de States, Operators, and Reasoning) fue desarrollada por
Laird, Newell y Rosenbloom (1987). Es un descendiente del programa General Problem Solver
(GPS) desarrollado por Newell y Simon (1963). Según Soar, la inteligencia humana no es sino
una aproximación a lo que se conoce como “sistema de conocimiento” definido por Newell
como:
“Un sistema de conocimiento se encuentra inmerso en un ambiente externo con el que
interacciona mediante un conjunto de acciones posibles. La conducta del sistema es una
secuencia de acciones en el tiempo ejecutadas en y sobre el ambiente en el que se encuentra. El
sistema dispone de objetivos a lograr y una representación acerca de cómo debería ser el
ambiente. Internamente, el sistema procesa lo que llamamos “conocimiento”. El cuerpo de
conocimiento que el sistema dispone hace referencia al ambiente en el que se encuentra
inmerso, a sus propios objetivos, acciones y las relaciones entre ellos. Mantiene una única ley:
el sistema ejecuta acciones para obtener sus objetivos usando todo el conocimiento que tiene
para ello”
La teoría Soar contempla toda la conducta inteligente como una forma de resolución de
problemas. El punto esencial de cualquier sistema de conocimiento es el modelo que el
sistema realiza del espacio del problema ya que en este marco comienza el proceso de
búsqueda para lograr un objetivo a través de una serie de operadores. En Soar todas las tareas
se representan mediante espacios del problema. Realizar una cierta tarea se corresponde con
alcanzar el objetivo. Para encontrar este objetivo se necesita saber que operadores son
posibles, las consecuencias de cada operador y como se elige entre operadores si hay más de
uno disponible en un determinado punto del procesamiento. Si surge un problema en este
proceso (un impase o punto muerto en términos de Soar) provocado por una falta
conocimiento, la resolución del mismo se convierte automáticamente en una nueva meta (una
sub-meta). Una vez que esta sub-meta se soluciona, el control se devuelve al objetivo o meta
principal. La sub-meta tiene su propio espacio del problema y su conjunto de operadores
propio. Siempre que se alcanza la sub-meta, pasa sus resultados al procedimiento principal
resolviendo el impase. El aprendizaje obtenido al resolver el sub-objetivo se incorpora a la
base de conocimientos pre-existente para evitar que este impase concreto vuelva a repetirse.
Soar también puede utilizar input externo como parte de su proceso de resolución del impase.
El principio del análisis racional puede aplicarse también al conocimiento de la tarea. Aunque
la evolución moldea la arquitectura de la red (v.g., la evolución ha moldeado la estructura de
nuestro cerebro en formas específicas), el aprendizaje moldea el conocimiento y, quizá,
también parte del proceso por el que se adquiere ese conocimiento. En lugar de focalizarse en
adquirir conocimientos (como hace Soar), el proceso de aprendizaje también debe tratar de
encontrar el tipo de representación correcta. Esto puede implicar que el proceso de
aprendizaje tenga que probar varias formas de representar el mismo conocimiento de tal
forma que pueda seleccionarse el óptimo. Por ejemplo, en un modelo del aprendizaje del
tiempo verbal “pretérito” o pasado (Taatgen & Anderson, 2002), el modelo tuvo que elegir
entre una solución regular o irregular en una palabra. El modelo eligió la solución irregular
para las palabras de frecuencia elevada porque resulta más eficiente (almacenar la excepción
merece la ganancia en eficiencia). Sin embargo, para las palabras de baja frecuencia, tener una
excepción no compensa así que el modelo seleccionó la solución regular, más económica.
Fact3+4
Is a ADDITION FACT
Added1 Three
Added2 Four
Sum Seven
En el texto anterior, Fact3+4 es solo un nombre arbitrario dado a este chunk particular. Viene
seguido por una serie de campos y valores asociados a los mismos. El primer campo (“is a”) es
especial y determina el tipo de chunk. Los campos restantes (added1, added2 y sum) están
asociados con este tipo de chunk y sus valores definen el hecho específico de que 3 + 4 = 7. La
Figura 2 revela la estructura de este chunk. Los términos Sij se refieren a las fuerzas asociativas
entre los valores de los campos y el chunk mientras que Bi se refiere a la activación por defecto
del chunk. Estas cantidades son relevantes para el cálculo de los valores de activación de los
chunks. Los procesos de activación determinan la disponibilidad del conocimiento.
Las reglas de producción especifican como recuperar y utilizar el conocimiento declarativo
para resolver problemas. Como ejemplo de conocimiento procedimental, la Tabla 1
proporciona un conjunto de reglas de producción para resolver problemas de sumas. Cada
regla contiene una producción, es decir, un par 𝐶𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 −> 𝐴𝑐𝑐𝑖ó𝑛. La condición
especifica qué tiene que producirse para que la regla se aplique y la Acción especifica un
conjunto de acciones a realizar si se cumple la producción. Las condiciones evalúan el estado
del objetivo actual del sistema y los chunks existentes en la memoria declarativa mientras que
las acciones pueden cambiar el objetivo. Las reglas en la Tabla 1 se presentan de una manera
informal en español (en su implementación se codifican mediante código informático en Lisp o
cualquier otro lenguaje apropiado).
Leer número 2
IF El objetivo es añadir los números en la columna y el segundo
número aún no ha sido codificado
THEN Codifica el segundo número en la columna
Sumar números
IF El objetivo es añadir los dos números de la columna actual y
existe un número que es la suma de los anteriores
THEN Codifica y apunta este último número como la suma
Extraer la respuesta
IF El objetivo es añadir los números en la columna actual
y se ha ejecutado la suma
y la suma tiene un dígito en las unidades y otro en las decenas
THEN Codifica y apunta el dígito de las decenas como el dígito que
debe llevarse y escribe la respuesta del dígito de las unidades
Llevarse números
IF El objetivo es añadir los números en la columna
y hay una respuesta
y nos llevamos un número
THEN Cambia la respuesta añadiendo uno más y elimina la marca
previa de que nos llevábamos algún valor
Escribir la respuesta
IF El objetivo es añadir los números en la columna
y no nos llevamos ningún número
y se ha establecido qué digito nos llevamos
THEN Escribe la respuesta en la fila de la columna y activa el objetivo
Última columna
(llevándose números)
IF El objetivo es añadir los números en la columna
y se ha leído un ítem en el último registro
y ese ítem es un “+”
y nos llevamos un número
THEN Codifica que el problema ha finalizado y activa el objetivo
Siguiente columna
IF El objetivo es un problema de sumas
y la columna a sumar se ha determinado
y conocemos el número que nos llevamos
THEN Activa el sub-objetivo de añadir los dígitos en aquella columna
con el valor que nos llevamos y doficia que la siguiente columna
es la que necesitamos sumar
Parar
IF El objetivo es una suma de números
y el problema ha sido clasificado como “finalizado”
THEN Parar de activar el objetivo.
Tabla 1: Versión de las reglas de producción para ejecutar la tarea de suma de valores de más
de un dígito.
Un aspecto importante de la teoría ACt-R se refiere a como organiza todas estas pequeñas
unidades de conocimiento (cada una de las unidades de producción). Por ejemplo, la Tabla 2
presenta la traza de producciones de la Tabla 1 trabajando juntas para producir una solución
coherente al siguiente problema de suma de números:
239
+125
---------
La primera producción (inicio del problema) se aplica cuando el objetivo consiste en realizar
una suma y aún no nos hemos focalizado en una columna. A continuación, se focaliza la
atención en la columna de las unidades y se genera un sub-objetivo: procesar los números de
aquella columna. Las siguientes producciones (Leer número 1 y Leer número 2) leen los
números de la columna de las unidades. La cuarta producción (sumar números) añade estos
números recuperando el hecho (memorizado previamente en un chunk) de que 9+5 = 14. La
quinta producción (extraer la respuesta) identifica 4 como el número que ha de devolverse.
Entonces la producción Escribir respuesta devuelve este valor y señala la finalización del
objetivo de procesar esta columna y que se debe regresar al objetivo de resolver el problema
global. Entonces recibe atención el procedimiento Siguiente columna que procesará la
columna de las decenas y así sucesivamente.
Las reglas de producción mostradas señalan la importancia de los objetivos ya que estos
proporcionan un nivel de organización superior que controla la ejecución de las reglas de
producción. En cualquier momento, hay un “pila” de objetivos que codifica las intenciones del
sistema. ACT-R siempre intenta alcanzar el objetivo que se encuentra en lo alto de esta pila. El
sistema puede “eliminar” ese objetivo de la pila con lo que en ese momento ACT-R se focaliza
en el siguiente objetivo existente en la pila. ACT-R puede también introducir un nuevo objetivo
en la pila en cuyo caso, este objetivo se convierte en el foco de la atención.
La teoría ACt-R es una arquitectura con una atención fija, en el sentido de que en cada
momento se centra en un único objetivo y en que en cada momento se dispara una única
producción. A pesar de ello, la arquitectura también puede explicar la distracción.
La figura 3 muestra el flujo de información en ACT-R. Hay tres memorias (una pila de objetivos
que codifican la jerarquía de intenciones, una memoria procedimental que contiene las reglas
de producción y una memoria declarativa que contiene los chunks). Todas ellas se organizan
mediante el objetivo actual que representa el foco de la atención. Las producciones se
seleccionan mediante un proceso de resolución de conflictos que elige una producción de
entre todas aquellas que cumplen los requisitos del “if”. La producción seleccionada puede
hacer que las acciones (“else”) se ejecuten en el mundo exterior, pueden transformar el
objetivo actual (introduciendo o eliminando objetivos en la cola de objetivos) y puede hacer
peticiones de información a la memroria declarativa (como ¿cuál es la suma de 3 y 4?). El
resultado recuperado (tal como 7) puede devolverse al objetivo.
ACT-R puede describirse como un sistema puramente simbólico en el que los chunks discretos
y las producciones interactúan en ciclos discretos. Pero también dispone de un nivel sub-
simbólico en donde pueden procesarse un conjunto de valores escalares (los valores Bi y Sij de
la Figura 2), a menudo en paralelo, para generar la mayor parte de la estructura cualitativa de
la cognición humana.
Arquitectura EPIC
Estructura CLARION
La arquitectura Clarion (Connectionist Learning with Adaptive Rule Induction Online; Sun, 2003)
asume que existe una división estructural esencial entre la cognición explícita y la implícita. En
consecuencia la arquitectura tiene dos subsistemas (el nivel superior y el inferior) cada uno
con sus representaciones y procesos propios y específicos. Además, cada uno de los dos
niveles se encuentra dividido en dos sistemas, un sistema que está centrado en la acción y el
otro que no lo está. Esta distinción se corresponde aproximadamente con los sistemas
procedimental y declarativo: el sistema centrado en la acción puede influir directamente sobre
la acción (conducta motora observable) mientras que el segundo solo puede hacerlo de
manera indirecta. El aprendizaje puede ser de abajo arriba (bottom-up), en cuyo caso, el
conocimiento se adquiere primero implícitamente y sirve como fundamental para un
aprendizaje explícito posterior; o puede ser un aprendizaje de arriba abajo (top-down) en cuyo
caso el conocimiento se adquiere explícitamente y el aprendizaje implícito viene después. Un
último supuesto de Clarion es que cuando no existe conocimiento explícito disponible a priori
el aprendizaje se producirá de abajo a arriba.
Tal y como se señaló anteriormente, en cada arquitectura existe una tensión entre la
funcionalidad y la teoría. Desde el punto de vista funcional, hay una presión para añadir cada
vez más rasgos, mecanismos y sistemas a la arquitectura con el objetivo de capturar más
fenómenos. Desde la perspectiva teórica, sin embargo, hay una presión contraria a la anterior
para simplificar las representaciones y los mecanismos. El objetivo de esta presión para
obtener la simplicidad en los modelos es mantener el espacio posible de modelos de un
fenómeno particular lo más pequeño o limitado posible. Si una arquitectura permite muchos
modelos diferentes del mismo fenómeno, entonces no tenemos un método claro para
seleccionar el correcto. En los siguientes apartados se revisa en qué forma pueden las
arquitecturas limitar el espacio de modelos posibles. Debe observarse que no todas las
arquitecturas tocan todas las áreas. Así, por ejemplo, EPIC no limita el aprendizaje porque,
básicamente, no presenta ninguna teoría del aprendizaje.
Uno de los resultados que asentó la psicología cognitiva como un campo de estudio por
derecho propio fue el experimento de Miller en el que encontró que las personas solo pueden
retener un número limitado de ítems nuevos en la memoria (Millar, 1956). Este fenómeno se
asoció rápidamente con la memoria a corto plazo y luego con la memoria de trabajo. De forma
más general, la función de la memoria de trabajo (Working Memory o WM) es mantener activa
una representación del ambiente actual. Lo que Miller y posteriores experimentadores
mostraron fue que la capacidad para mantener esta representación está muy limitada.
Un modelo simple de la memoria de trabajo es asumir que consiste un sistema con un
número limitado de casillas donde se almacenan temporalmente los ítems. Miller sugirió que
el número estaba limitado a 7 casillas (con una variabilidad de +/- 2). Cuando te presentan más
ítems a almacenar que el número de casillas (espacios o slots en inglés) de almacenamiento
disponibles, solo puedes almacenar los ítems más recientes si desalojas algunas de las casillas
ya ocupadas. Aunque este modelo es una implementación casi directa del fenómeno en el que
se basa, no funciona muy bien como componente de una arquitectura cognitiva debido a que
la tarea de Miller se realiza con ítems no relacionados entre sí (v.g., palabras elegidas al azar).
Pero en las situaciones naturales, el conocimiento se encuentra relacionado entre sí y, en este
caso, el modelo de “slots” no puede aplicarse.
Una buena teoría de la capacidad empírica de almacenamiento de información en la
WM puede ser una fuente de restricciones importante sobre las arquitecturas cognitivas ya
que descarta modelos que postulen como plausibles el almacenamiento de conjuntos enormes
de ítems activos. Aunque la WM se contempla tradicionalmente desde el concepto de
“capacidad”, otra perspectiva es considerar la WM como una función cognitiva. En esta última
aproximación, el límite de ítems observado no es el impedimento fundamental sino que lo es
la capacidad para separar la información relevante de la irrelevante ya que permite al sistema
cognitivo actuar sobre la información relevante en lugar de sobre la información irrelevante.
Un ejemplo de una aproximación funcional de la WM es SOAR (Young & Lewis, 1999). Young y
Lewis explican las limitaciones de la WM en términos de lo que pueden realizar el conjunto de
habilidades de que dispone el sujeto en un tiempo limitado. Por ejemplo, consideremos las
siguientes tres frases:
1) El defensor examinó la corte de justicia.
2) El defensor examinado por el jurado se encontraba molesto.
3) La evidencia examinada por el jurado no era confiable.
Asumiendo que las personas leemos estas frases palabra a palabra y de izquierda a derecha, la
palabra “examinar” es ambigua en las sentencias 1 y 2 ya que puede ser el verbo principal o el
verbo de una oración subordinada de relativo. Sin embargo, no es ambiguo en la frase 3 ya que
el sujeto “evidencia” es inanimado. Just y Carpenter (1992) encontraron que las personas
difieren en como tratan la frase 3 con respecto a las frases en 1 y 2, y lo atribuyen a la
capacidad de memoria de trabajo: individuos con una alta capacidad de trabajo son capaces de
mantener la información de que la “evidencia” es inanimada en la WM, mientras que los
individuos de baja capacidad no mantienen esa información en la memoria, forzándoles a
realizar la desambiguación posteriormente, como pasa en la frase 2.
No obstante, esta no es la única explicación. Lewis (1996), por ejemplo, presentó una
explicación diferente de las diferencias individuales en WM basada en un modelo SOAR de la
comprensión del lenguaje natural. En la frase 3, después de leer “examinada”, SOAR
propondrá dos operadores para actualizar la comprensión actual de la frase, uno
correspondiente a cada interpretación de la frase. Esto provocará un punto muerto (impase)
que SOAR intentará resolver creando un nuevo espacio problema. Aunque el modelo SOAR
tiene conocimiento para resolver el problema, esto le lleva tiempo y bajo la presión temporal
propia de las instrucciones experimentales, el modelo puede decidir no resolver la
ambigüedad mediante la búsqueda en dos espacios problema nuevos sino simplificar la tarea e
interpretar el verbo “examinar” como el verbo principal, lo cual significa que tendrá problemas
más tarde cuando lea las últimas palabras de la frase. Lo importante es que en este modelo, las
diferencias individuales no vienen dadas por un límite en la capacidad de la WM como tal sino
por una limitación del conocimiento disponible si elige el “atajo” de simplificar la tarea en
lugar de examinar los dos “espacios problema” posibles.
De forma similar a SOAR, ACT-R no dispone de un sistema que se corresponda con el concepto
de “capacidad de la memoria de trabajo”. En realidad, ACT-R ni siquiera dispone de un sistema
de memoria de trabajo como tal. En lugar de ello, la función que usualmente se piensa
corresponde a la memoria de trabajo está dispersa en varios sub-sistemas de ACT-R: la
información sobre el contexto de la tarea que está realizando el sistema en un momento dado
se mantiene en un conjunto de memorias intermedias (buffers). Un “buffer” es el mecanismo
por el cual el sistema de producciones central permite que se comuniquen los diversos
módulos del sistema. Por ejemplo, hay un buffer visual que mantiene la representación del
ítem atendido en un momento dado en el campo visual, un buffer de recuperación que
contiene el último ítem recuperado de la memoria declarativa y hay un ítem que representa el
objetivo actual del sistema. Cada uno de estos buffers tiene una capacidad de un único ítem y
están limitados o restringidos por su función (v.g., visión, recuperación de la memoria, manual,
etc.).
Aunque los buffers, en su conjunto, son el principal medio que permite representar el contexto
actual, el sistema asociado principalmente con la noción de “capacidad de WM” es la memoria
declarativa. Cualquier ítem nuevo que entra en el sistema se almacena, en último término, en
la memoria declarativa. Si la tarea es memorizar una lista de números, cada uno de los
números se almacena como un ítem separado que se asocia con los otros números. Para
recordar el listado de números, cada uno de los ítems debe ser recuperado exitosamente. Sin
embargo, cuando la lista de números se hace cada vez más larga, la interferencia y el
decaimiento en la memoria declarativa disminuyen la probabilidad de éxito del recuerdo,
creando el fenómeno observado por Miller e interpretado como una capacidad de WM
limitada.
Aunque la explicación de ACT-R parece estar cercana a una explicación en términos de
capacidad, en el corazón de la teoría la explicación es funcional. El objetivo de la activación en
la memoria declarativa no es modelar el olvido sino clasificar el conocimiento en orden de su
relevancia potencial. El conocimiento en ACTR-R recibe una alta activación debido a un uso
frecuente o una alta correlación con el actual contexto porque esto lo convierte en más
disponible y discriminable en relación al conocimiento irrelevante. Desde esta perspectiva, la
capacidad de WM es la capacidad para incrementar la razón Señal/Ruido en la memoria
declarativa y los individuos que son buenos incrementando esta razón tienen una alta
capacidad de WM (Lovett, Reder y Lebiere, 1999).
Actuación cognitiva
Potencia computacional
La simplicidad que muestra el esquema de las reglas de producción puede ser engañosa. Si las
reglas de producción pueden ajustar patrones arbitrarios (es decir, si la “condición” o “if” de
una regla de producción puede aceptar un patrón arbitrario), es posible escribir reglas de
producción en las que el emparejamiento de una condición sea un problema NP completo
(Tambe, Newell y Rosenbloom, 1990). Las reglas de producción en SOAR tienen esta
naturaleza y ello es por lo que esta arquitectura necesita un algoritmo potente de
emparejamiento de reglas. Aunque la potencia de estas reglas le ofrece una enorme
flexibilidad, también provoca que tengan muy pocas restricciones de lo que puede hacerse en
un ciclo producción-emparejamiento. Para contrarrestar esta falta de restricciones, los
teóricos de SOAR tratan de limitarse a sí mismos evitando escribir reglas que utilicen toda la
potencia de estos algoritmos. En CLARION, el sistema de reglas puede implementarse en una
red neuronal. Dada la naturaleza local de las redes neuronales, no hay una potencia
computacional extrema y oculta, por lo que esta arquitectura es un sistema más restringido.
ACT-R también tiene un sistema de producción restringido: solo puede emparejar ítems que se
encuentran en sus buffers. Esto implica que no puede emparejar patrones arbitrarios
existentes en la memoria declarativa y que solo puede recuperar los ítems uno a uno. Por
consiguiente, un emparejamiento complejo de la información exige, en esta arquitectura,
múltiples pasos de recuperación sujetos a la posibilidad de cometer errores. El sistema de
ejecución de ACT-R puede, de hecho, que sea un sistema demasiado restrictivo por lo que
puede no alcanzar todos sus objetivos funcionales.
Es por eso que Hornof y Kieras (1997) propusieron un modelo alternativo, el modelo de
búsqueda solapada que aprovecha el paralelismo del sistema cognitivo. En lugar de esperar a
que el sistema cognitivo (central) decida si se ha encontrado la etiqueta, el ojo se mueve al
siguiente ítem en la lista mientras el primer ítem aún está siendo evaluado cognitivamente (es
decir, centralmente). Esta estrategia da como resultado una situación en la que el ojo se
mueve hacia atrás al ítem previo de la lista una vez que se ha decidido que el ítem se ha
encontrado. Pero este es un precio pequeño a pagar por la aceleración que produce este
paralelismo. El paralelismo se admite en EPIC debido a que los módulos perceptivos y motores
hacen una única cosa en cada momento. En la práctica, la restricción más influyente viene
dada por la duración de las acciones. Por ejemplo, en el modelo de búsqueda serial el
parámetro que influencia el tiempo de búsqueda podría, en teoría, cambiarse para hacer que
este modelo (incorrecto) ajuste los datos. EPIC impide que esto ocurra debido a que un
movimiento ocular exige una cierta cantidad de tiempo (que conocemos experimentalmente y
no podemos modificar a nuestro antojo), de la misma forma que lo exige un tiempo de
decisión acerca de si la etiqueta es correcta o no, de tal forma que los datos solo pueden
explicarse si estas acciones ocurren en paralelo.
El ejemplo de la búsqueda en un menú muestra que aunque los sistemas perceptivos y
motores en EPIC proporcionan fuertes restricciones, la cognición central se encuentra, por el
contrario, con un déficit de restricciones en el sentido de que admite modelos correctos e
incorrectos para explicar los datos de la búsqueda en un menú. Los módulos perceptivos y
motores de EPIC, sin embargo, se han demostrado como potentes restricciones por lo que el
resto de arquitecturas lo han incluido en sus sistemas (ACT-R, Soar y Clarion).
Aprendizaje
Un rasgo deseable en cualquier modelo es que aprenda su propio conocimiento. En el
paradigma clásico, las únicas restricciones al conocimiento proceden de la arquitectura y del
análisis de tareas por lo que la especificación del conocimiento de que se dotará al sistema se
deja al antojo del investigador. Pero una aproximación más apropiada es dejar que el modelo
aprenda su propio conocimiento. Una variante de este tipo de modelado es proporcionar al
modelo con algún método inicial (que decidirá el investigador) pero que se vuelva más rápido
a través del aprendizaje. Por ejemplo, en ACT-R se modeló una tarea llamada “alfabético-
aritmética” (Anderson y Lebiere, 1998). Esta tarea consiste en verificar la corrección de las
sumas utilizando letras y números como G+3=J. La estrategia inicial del modelo es encontrar la
respuesta contando. Pero debido a que el modelo va almacenando las respuestas a los
primeros ensayos, también va acumulando gradualmente hechos o datos sobre las sumas en la
memoria declarativa, permitiendo que con el tiempo proporcione una respuesta directa en
lugar de tener que contar. Aunque el modelo aprende los nuevos datos sobre la suma,
comienza su ejecución con reglas de producción para contar y con las reglas de producción que
intentan recuperar la información de hechos sobre la adición que no existían inicialmente.
La cognición humana viene implementada en el cerebro. Este hecho puede ofrecer fuentes
adicionales de restricciones en una arquitectura cognitiva. La arquitectura del cerebro ofrece
dos niveles de restricciones: el nivel de las neuronas individuales y sus interconexiones por un
lado y el de las estructuras cerebrales globales por otro.
CLARION (Sun, 2003) defiende la idea de que la utilización de elementos y mecanismos que se
asemejen a neuronas representa una fuente importante de restricciones sobre la arquitectura.
Muchos de los sub-sistemas de CLARION están compuestos por redes neuronales. Esto ofrece
restricciones adicionales ya que las redes neuronales son más difíciles de “programar” que los
modelos simbólicos. CLARION aún es una arquitectura híbrida con aspectos simbólicos y sub-
simbólicos. Podemos incluso ir un paso más allá y diseñar una arquitectura implementada
totalmente mediante redes neuronales. Leabra (O´Reilly y Munakata, 2000) es un ejemplo de
esta arquitectura. El reto con una arquitectura construida de neuronas simuladas es que tiene
que tratar con ciertos problemas computacionales que resultan difíciles con redes neuronales
pero triviales utilizando arquitecturas simbólicas. Un primer problema es el problema de la
ligadura (binding problem), es decir, de cómo puede el sistema agrupar o ligar rasgos entre sí
(v.g., si el color y la forma de un mismo objeto se procesan en módulos diferentes del sistema
nervioso, la pregunta es cómo puede determinar el sistema que una forma redondeada y un
color amarillo pertenecen a un mismo objeto, de alguna forma tiene que ligar esta información
sobre el color y la forma para que el sistema las considere pertenecientes al mismo objeto).
Dado el gran número de combinaciones posibles (existen diferentes colores en una misma
escena y diferentes formas en la misma) no es factible que cada combinación tenga una
conexión pre-cableada por lo que debe existir otros medios para lograr que el cerebro conecte
conceptos. Un segundo problema es la llamada “interferencia catastrófica” (McCloskey y
Cohen, 1989), la cual se refiere al hecho de que muchas redes desaprenden lo aprendido
previamente cuando se presenta un conocimiento nuevo. Un tercer problema es la conducta
serial. Aunque las redes actúan muy bien cuando responden de manera paralela, es más difícil
permitirles responder de manera serial y ordenada (v.g., mecanografiar o percibir sonidos
musicales que se desarrollan en el tiempo son tareas claramente seriales). En un primer
momento, estos tres problemas podrían considerarse un argumento en contra de la utilización
de arquitecturas implementadas mediante redes neuronales, pero puede que sea al contrario
ya que solucionar estos problemas ofrecerá nuevas restricciones para las arquitecturas. De
hecho, para cada uno de los tres problemas se han propuesto soluciones. Una de las
soluciones al problema de la ligadura es el sistema del producto de tensores propuesto por
Smolensky (1990). Hay varias soluciones planteadas al problema de la interferencia
castastrófica. Por ejemplo, McClelland, McNaughton y O´Reilly (1995) propusieron disponer un
sistema de aprendizaje lento (cortical) y otro rápido (hipocampal), solución que ha sido
implementada en el sistema Leabra (O´Reilly y Munakata, 2000). La conducta serial puede
lograrse utilizando redes neuronales especiales llamadas redes recurrentes (Elman, 1990)
aunque no con la flexibilidad que permiten los sistemas simbólicos. Una arquitectura cognitiva
que utilice redes neuronales que ofrezca soluciones a los tres problemas planteados resultaría
una teoría muy potente (Sun, 2003) aunque aún no disponemos de ella.
Los avances recientes realizados en la neurociencia (imágenes cerebrales mediante fMRI por
ejemplo) han permitido a los neurocientíficos construir teorías cada vez más precisas, acerca
de qué funciones ejecutan las diversas regiones cerebrales y como se encuentran
interconectadas. El resultado es un mapa de regiones interconectadas con una asignación
precisa de las funciones que realizan. Lo que las imágenes cerebrales no nos proporcionan es
cómo realizan el procesamiento estas regiones. No obstante, lo importante es que las
arquitecturas cognitivas pueden proporcionar teorías de procesamiento restringidas por los
mapas cerebrales actualmente existentes. ACT-R ha utilizado esta idea y ha relacionado sus
sistemas de producción y buffers en regiones cerebrales específicas siendo, de esta forma,
capaz de predecir la actividad cerebral en base a un modelo cognitivo. Por ejemplo, en un
estudio en el que los niños tenían que aprender a resolver ecuaciones algebraicas, el modelo
ACT-R predijo como diferiría la actividad en varias áreas cerebrales cuando se modificó el nivel
de dificultad y los efectos del aprendizaje (Anderson, 2005).