Sei sulla pagina 1di 21

Tema 6: Arquitecturas cognitivas

Asignatura: Modelos Formales de Procesos Cognitivos

Introducción

Cuando Turing escribió su famoso artículo en el que se preguntaba si las máquinas pueden
pensar y cómo podría evaluarse esta posibilidad (Turing, 1950), se planteó como objetivo el
crear una máquina cuya inteligencia fuese indistinguible de la inteligencia humana. El trabajo
anterior de Turing (Turing, 1936) ya había demostrado que el potencial del ordenador digital es
tan elevado como cualquier otro dispositivo computacional que podamos concebir, del tipo
que sea (mecánico, electrónico, óptico, biológico,…), sugiriendo así que solo era una cuestión
de tiempo el que pudiera desarrollarse un ordenador tan inteligente como el ser humano. Sin
embargo, el paso del tiempo ha mostrado que, a pesar del desarrollo exponencial en la
potencia de los ordenadores que hemos creado, estos no se han vuelto más inteligentes
aunque sí más rápidos pero la rapidez no da la inteligencia. Esto ha generado que la disciplina
se haya dividido en dos áreas divergentes: la inteligencia artificial moderna y el campo del
modelado cognitivo. En la inteligencia artificial (AI) moderna, el objetivo principal es crear
programas inteligentes, sirviendo la inteligencia humana a lo sumo como una fuente de
inspiración, mientras que el modelado cognitivo (MC) ha tomado la ruta opuesta de focalizarse
en modelar de manera precisa y fiel la inteligencia humana no importando si estos programas
eran más o menos inteligentes, más o menos elegantes o económicos en tiempo y recursos de
procesamiento. Lo que importa en el modelado cognitivo es que esos programas puedan
compararse eficazmente en términos de ejecución y estructura con la inteligencia humana.
Las arquitecturas cognitivas pertenecen en su mayoría a este segundo paradigma de la MC
constituyendo un intento, por un lado, de crear una máquina inteligente aunque ateniéndose
fielmente a la inteligencia humana y, por otro lado, un intento de unificar teóricamente el
campo de la psicología cognitiva. Estos dos aspectos conllevan una dualidad (quizás una
tensión o lucha) entre los aspectos “funcionales” y los “teóricos”. Las arquitecturas cognitivas
deberían ser “funcionales”, es decir, deberían ofrecer mecanismos cognitivos y
representaciones del conocimiento tales que puedan producir conducta inteligente. Pero,
aunque parezca obvio, las arquitecturas cognitivas también deberían ser “teorías”. Una teoría
ofrece una explicación única (no múltiple) de un fenómeno. Desde la perspectiva teórica de la
MC, el disponer de mecanismos y representaciones variados (funcionalidad) no es una buena
idea ya que incrementa la probabilidad de que muchos modelos diferentes puedan ajustar los
mismos datos conductuales. Esto nos permite ver que, de alguna forma, la necesidad de
funcionalidad (que implica diferentes mecanismos y representaciones) y el aspecto teórico del
modelado cognitivo, son objetivos contradictorios y por ello, las diferentes arquitecturas que
se han desarrollado pugnan para alcanzar un equilibrio diferente entre ambos aspectos. Hay
incluso arquitecturas cognitivas que se centran primariamente en el aspecto de la
funcionalidad y no realizan casi ninguna afirmación teórica (v.g., la arquitectura Cogent).
El término “arquitectura cognitiva” es en realidad una analogía extraída del término
“arquitectura de cómputo” o “arquitectura del ordenador”. La arquitectura de un ordenador le
proporciona al programador la base sobre la que crear cualquier programa. De manera similar,
una arquitectura cognitiva (AC) permite al modelador cognitivo crear modelos de simulación
de la cognición humana. Un modelo debe especificar el conocimiento inicial con el que la
arquitectura va a funcionar. Por ejemplo, un modelo de cómo las personas realizamos la suma
de números de dos dígitos podría consistir en: a) un conjunto de hechos simples sobre la suma
y b) un conjunto de reglas de producción que especifican, por ejemplo, que tienes que
comenzar en la columna de la derecha, como debes manejar los valores que te llevas de
columnas previas, entre otras. Esto muestra que estos modelos necesitan hacer uso de un
conocimiento, pero la pregunta que surge es cómo saber qué conocimiento se le debe
proporcionar al ordenador para que realice la tarea propuesta (v.g., suma de dos números,
jugar al ajedrez, resolver analogías, …). El método clásico que se utiliza para identificar el
conocimiento que es necesario aportar al ordenador es mediante el “análisis de tareas”: un
estudio cuidadoso del conocimiento necesario y de la estructuras de control asociadas con el
mismo usualmente extraído a través de entrevistas o cuestionarios realizados a expertos
humanos en el área (v.g., jugadores expertos en ajedrez, médicos expertos en leer
radiografías, etc.). El conocimiento identificado del análisis de estas entrevistas y/o
cuestionarios (análisis de tareas) se introduce en la arquitectura cognitiva que, a partir de ese
momento, podrá realizar predicciones sobre diversos aspectos de la actuación humana
incluyendo tiempos de reacción, errores, elecciones, movimientos oculares o áreas que se
activarán en la resonancia funcional magnética (fMRI).
Un problema existente con los modelos cognitivos es que no es fácil evaluar su validez. Se
podría asumir que un modelo que mediante simulaciones produce la misma conducta o el
mismo patrón de respuestas que se observa en las personas es un modelo válido. Sin embargo,
diferentes modelos podrían mostrar la misma conducta, en cuyo caso es necesario un criterio
diferente para determinar qué modelo es el mejor. Desafortunadamente, no hay una medida
cuantitativa que nos evalúe la validez de un modelo, pero sabemos que los siguientes factores
cualitativos contribuyen a la validez del mismo (y por tanto deben ser considerados
cuidadosamente en cada estructura cognitiva y modelo):

• Un buen modelo debería tener el mínimo número de parámetros posible. Muchas


arquitecturas cognitivas tienen parámetros a los que el modelador puede proporcionar
valores arbitrarios (por eso se les conoce como “parámetros libres”). Debido a que
estos parámetros permiten al modelador manipular el resultado que se obtendrá con
el modelo, incrementar el número de los mismos disminuye la capacidad predictiva
del modelo.
• Un modelo no debería describir solo la conducta, también debe ser capaz de
predecirla. Usualmente, los modelos cognitivos se desarrollan después de que se han
obtenido y analizado datos experimentales en humanos y tratan de describir esos
patrones de datos ya obtenidos. Es por ello que un paso más consiste en que los
modelos con alta validez deberían ser capaces también de predecir la ejecución de las
personas en tareas o condiciones aún no investigadas.
• Un modelo debería aprender por sí mismo el conocimiento específico de la tarea que
modela. Ya hemos visto anteriormente que, hasta el momento, la forma de otorgar el
conocimiento necesario al modelo es mediante el análisis de tareas que recoge de
manera sistemática el conocimiento que disponen los expertos humanos en esa área.
Pero esto no es lo más válido. El objetivo sería conseguir que el conocimiento lo
construya el propio modelo y no se le proporcione por procedimientos externos.
Tal y como se discutió previamente, muchos modelos utilizan el análisis de tareas para
especificar el conocimiento que un experto necesitaría para realizar la tarea. Esto viola el
criterio de validez indicado previamente (un modelo debería aprender por sí mismo el
conocimiento específico de la tarea que modela). Además, basando un modelo cognitivo en un
análisis de la tarea procedente de la ejecución de humanos expertos en la misma significa que
el modelo es, desde el inicio, el de un usuario experto desde el principio mientras que un
usuario normal puede no haber dominado la tarea que se modela. Las predicciones y una
comprensión completa de la tarea exigen que los modelos se construyan comenzando al nivel
de un novato y que gradualmente procedan a convertirse en expertos en la misma forma que
lo hacen las personas. En otras palabras, muchas aplicaciones exigen construir modelos que no
solo actúen como lo hacen los humanos sino que también aprendan la tarea como lo hacen los
humanos.

Revisión de las arquitecturas cognitivas actuales

Para discutir el estado actual de las arquitecturas cognitivas, revisaremos brevemente cuatro
ejemplos principales en esta sección, luego examinaremos áreas del modelado cognitivo y
discutiremos qué restricciones ofrecen las diversas arquitecturas en estas áreas.

SOAR

La arquitectura Soar (acrónimo de States, Operators, and Reasoning) fue desarrollada por
Laird, Newell y Rosenbloom (1987). Es un descendiente del programa General Problem Solver
(GPS) desarrollado por Newell y Simon (1963). Según Soar, la inteligencia humana no es sino
una aproximación a lo que se conoce como “sistema de conocimiento” definido por Newell
como:
“Un sistema de conocimiento se encuentra inmerso en un ambiente externo con el que
interacciona mediante un conjunto de acciones posibles. La conducta del sistema es una
secuencia de acciones en el tiempo ejecutadas en y sobre el ambiente en el que se encuentra. El
sistema dispone de objetivos a lograr y una representación acerca de cómo debería ser el
ambiente. Internamente, el sistema procesa lo que llamamos “conocimiento”. El cuerpo de
conocimiento que el sistema dispone hace referencia al ambiente en el que se encuentra
inmerso, a sus propios objetivos, acciones y las relaciones entre ellos. Mantiene una única ley:
el sistema ejecuta acciones para obtener sus objetivos usando todo el conocimiento que tiene
para ello”

Según esta definición, el aspecto singular más importante de la inteligencia (considerada en


términos abstractos) es el hecho de que el sistema utiliza todo el conocimiento disponible. Los
errores debidos a falta de conocimiento no son fallos de la inteligencia sino errores debidos al
fallo en la utilización del conocimiento disponible y del no disponible. Desde esta
consideración parece obvio que tanto la cognición humana como la arquitectura Soar son
aproximaciones a un ideal. En consecuencia, las propiedades de la cognición humana que no
están directamente relacionadas con el sistema de conocimiento no son aspectos centrales en
Soar (v.g., las emociones).

La teoría Soar contempla toda la conducta inteligente como una forma de resolución de
problemas. El punto esencial de cualquier sistema de conocimiento es el modelo que el
sistema realiza del espacio del problema ya que en este marco comienza el proceso de
búsqueda para lograr un objetivo a través de una serie de operadores. En Soar todas las tareas
se representan mediante espacios del problema. Realizar una cierta tarea se corresponde con
alcanzar el objetivo. Para encontrar este objetivo se necesita saber que operadores son
posibles, las consecuencias de cada operador y como se elige entre operadores si hay más de
uno disponible en un determinado punto del procesamiento. Si surge un problema en este
proceso (un impase o punto muerto en términos de Soar) provocado por una falta
conocimiento, la resolución del mismo se convierte automáticamente en una nueva meta (una
sub-meta). Una vez que esta sub-meta se soluciona, el control se devuelve al objetivo o meta
principal. La sub-meta tiene su propio espacio del problema y su conjunto de operadores
propio. Siempre que se alcanza la sub-meta, pasa sus resultados al procedimiento principal
resolviendo el impase. El aprendizaje obtenido al resolver el sub-objetivo se incorpora a la
base de conocimientos pre-existente para evitar que este impase concreto vuelva a repetirse.
Soar también puede utilizar input externo como parte de su proceso de resolución del impase.

Un aspecto característico de Soar es que es una arquitectura puramente simbólica en la que


todo el conocimiento es explícito. En lugar de asignar valores de utilidad o de activación a cada
elemento de conocimiento (como en otras arquitecturas), Soar dispone de conocimiento
explícito sobre sobre su propio conocimiento (una especie de meta-cognición). Esto hace de
Soar una arquitectura muy restringida en el sentido de que el único medio de modelar un
fenómeno es mediante una única memoria a largo plazo, un único mecanismo de aprendizaje y
solo mediante la utilización de representaciones simbólicas. A pesar de los avances teóricos de
una teoría tan restringida, los desarrollos actuales de Soar buscan ampliar la arquitectura para
lograr nuevos objetivos con más sistemas de memoria a largo plazo, mecanismos no
simbólicos (sub-simbólicos) y un módulo que permita modelar los efectos de la emoción en el
sistema cognitivo (Nason y Laird, 2004; Marinier y Laird, 2004).

En la Figura 1 se muestra un esquema de la estructura de Soar.

Figura 1: Esquema de Soar-9.


Control Racional y Adaptativo del Conocimiento (ACT-R)

La arquitectura ACT-R (Adaptive Control of Thought, Rational) de Anderson et al. (2004)


descansa en tres componentes: el análisis racional de la tarea (Anderson, 1990), la distinción
entre memoria declarativa y procedimiental (Anderson, 1976) y una estructura modular en la
que los componentes se comunican entre sí a través de memorias intermedias conocidas como
“buffers” (Nota: dejaremos sin traducir este término). Según el análisis racional, cada
componente de una arquitectura cognitiva debe encontrarse optimizado con respecto a las
demandas del ambiente y a sus limitaciones computacionales. Según los aspectos teóricos
subyacentes a esta estructura, si deseamos conocer la forma en que debería funcionar un
elemento particular de la estructura (v.g., el componente de memoria o el perceptivo)
debemos primero buscar cómo puede funcionar este aspecto de la manera más óptima
posible en el ambiente en el que tiene que desenvolverse. Anderson (1990) relaciona esta
maximización con los aspectos evolutivos (evolutivo entendido en términos filogenéticos, no
ontogenéticos). Un ejemplo de este principio es la forma en que se implementa la conducta de
elección en ACT-R. Siempre que necesita establecerse una elección entre qué estrategia utilizar
o se debe tomar una decisión acerca de qué elemento de memoria se debe recuperar para
realizar una tarea específica, la estructura ACT-R elegirá aquella que tiene la mayor “utilidad”
(las unidades de información o conocimiento, por tanto, tienen asociados valores de “utilidad”
que sirven para tomar decisiones con respecto a su recuperación desde la memoria a largo
plazo a la memoria de trabajo). La elección de mayor utilidad es aquella que tiene el menor
coste esperado y, a la vez, la que tiene mayor probabilidad esperada de tener éxito. Debemos
observar que esta forma de proceder es diferente a la utilizada en Soar. Cuando Soar se
enfrenta a un dilema a la hora de elegir entre dos estrategias o entre recuperar un ítem u otro
de la memoria, el procedimiento que sigue es el buscar conocimiento adicional para decidir
entre las estrategias o los ítems. Por el contrario, ACT-R utiliza los valores de “utilidad”
asociados a cada elemento de información.

El principio del análisis racional puede aplicarse también al conocimiento de la tarea. Aunque
la evolución moldea la arquitectura de la red (v.g., la evolución ha moldeado la estructura de
nuestro cerebro en formas específicas), el aprendizaje moldea el conocimiento y, quizá,
también parte del proceso por el que se adquiere ese conocimiento. En lugar de focalizarse en
adquirir conocimientos (como hace Soar), el proceso de aprendizaje también debe tratar de
encontrar el tipo de representación correcta. Esto puede implicar que el proceso de
aprendizaje tenga que probar varias formas de representar el mismo conocimiento de tal
forma que pueda seleccionarse el óptimo. Por ejemplo, en un modelo del aprendizaje del
tiempo verbal “pretérito” o pasado (Taatgen & Anderson, 2002), el modelo tuvo que elegir
entre una solución regular o irregular en una palabra. El modelo eligió la solución irregular
para las palabras de frecuencia elevada porque resulta más eficiente (almacenar la excepción
merece la ganancia en eficiencia). Sin embargo, para las palabras de baja frecuencia, tener una
excepción no compensa así que el modelo seleccionó la solución regular, más económica.

El segundo pilar teórico de ACT-R es la distinción entre conocimiento declarativo y


procedimental. ACT-R tiene una memoria separada para ambos tipos de conocimientos, con su
representación diferenciada y sus mecanismos propios de aprendizaje. La memoria
procedimental almacena la información en término de “producciones” que pueden actuar
directamente sobre la situación actual (una producción es un par “condición -> acción” o una
regla “If -> else” de tal forma que si la condición del if se produce en la memoria de trabajo
entonces y de forma automática se pone en marcha la “acción” incluida en esa producción).
Cada una de estas producciones mantiene un valor de “utilidad” que deriva de sus éxitos en el
pasado. La memoria declarativa, por el contrario, es más pasiva: es un conocimiento que tiene
que solicitarse explícitamente para que pueda accederse al mismo (recuérdese que el sistema
de producciones no contiene esta petición explícita ya que en cuanto la condición del
procedimiento se activa en la memoria de trabajo, se ejecuta inmediatamente la acción, es
decir, no se pide a la memoria a largo plazo explícitamente la condición). Los elementos de la
memoria declarativa tienen un valor de “activación” que depende de la utilización de ese
elemento en el pasado. Este valor de activación permite modelar, entre otras cosas, el olvido
(los ítems de memoria no se olvidan pero sus valores de activación pueden hacerse tan
pequeños que el sistema no los activa porque no juzga que sean útiles en la situación actual).
La memoria declarativa también incorpora, como parte de sí misma, la “memoria de trabajo”.
Debido a que ACT-R utiliza los valores de activación y de utilidad además de las
representaciones puramente simbólicas, se la conoce como una arquitectura “híbrida”.
El tercer y más reciente fundamento de ACT-R es su estructura modular. El sistema de
producción que forma el núcleo de la arquitectura (véase la Figura 2) no puede acceder
arbitrariamente a cualquier información que busca, sino que tiene que comunicarse con el
resto de sistemas a través de una interfaz que consiste en un conjunto de memorias
intermedias (buffers). Por ejemplo, si el módulo visual está procesando información nueva que
se ha producido en el ambiente introduce la información nueva codificada en el buffer visual y
sólo posteriormente a ello podrá accederse a esa información visual y activar ciertas reglas de
producción. Aunque esto limita la potencia de las reglas de producción, permite, no obstante,
que cada módulo pueda realizar el procesamiento propio que tiene encomendado en paralelo
con otros módulos.
Tanto Soar como ACT-R afirman que se basan en los principios de la racionalidad, aunque
definen “racionalidad” de forma diferente. En Soar la racionalidad significa realizar un uso
óptimo del conocimiento disponible con el objetivo de alcanzar una meta mientras que en
ACT-R la racionalidad significa una adaptación óptima del sistema al ambiente. No utilizar todo
el conocimiento disponible es irracional en Soar y, sin embargo, puede ser racional en ACT-R si
el costo de utilizar todo el conocimiento es demasiado elevado. Por otra parte, ACT-R toma en
cuenta el hecho de que su conocimiento puede ser impreciso o inadecuado y por ello, la
exploración del ambiente para buscar más información es racional. Soar solo explorará su
ambiente o su espacio de búsqueda si detecta que le falta conocimiento para lograr su
objetivo.

Bosquejo breve de ACT-R

Nota: No es posible desarrollar detenidamente la explicación de las diferentes estructuras. Por


ello, he decidido explicar un poco más en detalle solamente una de ellas, el modelo ACT-R, que
considero el más cercano a la Psicología. Si algún alumno desea una explicación más amplia de
alguno de los otros modelos, debe ponerse en contacto conmigo para ello en mi correo.
ACT-R es una teoría de la naturaleza del conocimiento humano, tanto a su proceso de
adquisición como en qué forma se aplica. Asume que existen dos tipos de conocimientos:
declarativo y procedimental. El conocimiento declarativo corresponde a las cosas de las que
somos conscientes, que conocemos y podemos describir a otros. Ejemplos del conocimiento
declarativo son “George Washington fue el primer presidente de los Estados Unidos” y “Tres
más cuatro son siete”. Por el contrario, el conocimiento procedimental es conocimiento que se
demuestra en nuestra ejecución, pero del que no somos conscientes. Básicamente especifica
como se aplica el conocimiento declarativo en la resolución de problemas.

El conocimiento declarativo en ACT-R se representa en términos de “chunks” (dejaremos


también esta palabra sin traducir), que son configuraciones de elementos que codifican las
cosas que conocemos. La Figura 2 es una representación de un chunk que codifica el hecho de
que 3 + 4 = 7.

Figura 2: Un chunk en ACT-R.

Este chunk puede representarse también textualmente de la siguiente forma:

Fact3+4
Is a ADDITION FACT
Added1 Three
Added2 Four
Sum Seven

En el texto anterior, Fact3+4 es solo un nombre arbitrario dado a este chunk particular. Viene
seguido por una serie de campos y valores asociados a los mismos. El primer campo (“is a”) es
especial y determina el tipo de chunk. Los campos restantes (added1, added2 y sum) están
asociados con este tipo de chunk y sus valores definen el hecho específico de que 3 + 4 = 7. La
Figura 2 revela la estructura de este chunk. Los términos Sij se refieren a las fuerzas asociativas
entre los valores de los campos y el chunk mientras que Bi se refiere a la activación por defecto
del chunk. Estas cantidades son relevantes para el cálculo de los valores de activación de los
chunks. Los procesos de activación determinan la disponibilidad del conocimiento.
Las reglas de producción especifican como recuperar y utilizar el conocimiento declarativo
para resolver problemas. Como ejemplo de conocimiento procedimental, la Tabla 1
proporciona un conjunto de reglas de producción para resolver problemas de sumas. Cada
regla contiene una producción, es decir, un par 𝐶𝑜𝑛𝑑𝑖𝑐𝑖ó𝑛 −> 𝐴𝑐𝑐𝑖ó𝑛. La condición
especifica qué tiene que producirse para que la regla se aplique y la Acción especifica un
conjunto de acciones a realizar si se cumple la producción. Las condiciones evalúan el estado
del objetivo actual del sistema y los chunks existentes en la memoria declarativa mientras que
las acciones pueden cambiar el objetivo. Las reglas en la Tabla 1 se presentan de una manera
informal en español (en su implementación se codifican mediante código informático en Lisp o
cualquier otro lenguaje apropiado).

Inicio del problema


IF El objetivo es una suma pero no se ha identificado aún ninguna
columna
THEN Activa el sub-objetivo de añadir los dígitos de la columna de la
derecha (columna de las unidades) y toma nota de que la
siguiente columna que podría tener que utilizarse es la columna
de las decenas.
Leer número 1
IF El objetivo es añadir los números en la columna y el primer
número no ha sido aún codificado
THEN Añadir el primer número en la columna.

Leer número 2
IF El objetivo es añadir los números en la columna y el segundo
número aún no ha sido codificado
THEN Codifica el segundo número en la columna

Sumar números
IF El objetivo es añadir los dos números de la columna actual y
existe un número que es la suma de los anteriores
THEN Codifica y apunta este último número como la suma

Extraer la respuesta
IF El objetivo es añadir los números en la columna actual
y se ha ejecutado la suma
y la suma tiene un dígito en las unidades y otro en las decenas
THEN Codifica y apunta el dígito de las decenas como el dígito que
debe llevarse y escribe la respuesta del dígito de las unidades

Llevarse números
IF El objetivo es añadir los números en la columna
y hay una respuesta
y nos llevamos un número
THEN Cambia la respuesta añadiendo uno más y elimina la marca
previa de que nos llevábamos algún valor

Escribir la respuesta
IF El objetivo es añadir los números en la columna
y no nos llevamos ningún número
y se ha establecido qué digito nos llevamos
THEN Escribe la respuesta en la fila de la columna y activa el objetivo

Última columna (sin


llevarse números)
IF El objetivo es añadir los números en la columna
y se ha leído un ítem en el último registro
y ese ítem es un “+”
y no nos llevamos ningún otro número
THEN Codifica que el problema ha finalizado y activa el objetivo

Última columna
(llevándose números)
IF El objetivo es añadir los números en la columna
y se ha leído un ítem en el último registro
y ese ítem es un “+”
y nos llevamos un número
THEN Codifica que el problema ha finalizado y activa el objetivo

Siguiente columna
IF El objetivo es un problema de sumas
y la columna a sumar se ha determinado
y conocemos el número que nos llevamos
THEN Activa el sub-objetivo de añadir los dígitos en aquella columna
con el valor que nos llevamos y doficia que la siguiente columna
es la que necesitamos sumar
Parar
IF El objetivo es una suma de números
y el problema ha sido clasificado como “finalizado”
THEN Parar de activar el objetivo.
Tabla 1: Versión de las reglas de producción para ejecutar la tarea de suma de valores de más
de un dígito.

Un aspecto importante de la teoría ACt-R se refiere a como organiza todas estas pequeñas
unidades de conocimiento (cada una de las unidades de producción). Por ejemplo, la Tabla 2
presenta la traza de producciones de la Tabla 1 trabajando juntas para producir una solución
coherente al siguiente problema de suma de números:

239
+125
---------

Ciclo 0: Inicio del problema


Ciclo 1: Leer Número 1
Ciclo 2: Leer número 2
Ciclo 3: Sumar números
Ciclo 4: Extraer la respuesta
Ciclo 5: Escribir respuesta
4
Ciclo 6: siguiente columna
Ciclo 7: Leer número 1
Ciclo 8: Leer número 2
Ciclo 9: Sumar números
Ciclo 10: Proceso de llevarse números
Ciclo 11: Extraer la respuesta
Ciclo 12: Escribir la respuesta
6
Ciclo 13: Siguiente columna
Ciclo 14: Leer número 1
Ciclo 15: Leer número 2
Ciclo 16: Sumar números
Ciclo 17: Extraer la respuesta
Ciclo 18: Escribir la respuesta
3
Ciclo 19: Siguiente columna
Ciclo 20: Leer número 2
Ciclo 21: Última columna (sin llevarse números)
Ciclo 22: Parar problema

La primera producción (inicio del problema) se aplica cuando el objetivo consiste en realizar
una suma y aún no nos hemos focalizado en una columna. A continuación, se focaliza la
atención en la columna de las unidades y se genera un sub-objetivo: procesar los números de
aquella columna. Las siguientes producciones (Leer número 1 y Leer número 2) leen los
números de la columna de las unidades. La cuarta producción (sumar números) añade estos
números recuperando el hecho (memorizado previamente en un chunk) de que 9+5 = 14. La
quinta producción (extraer la respuesta) identifica 4 como el número que ha de devolverse.
Entonces la producción Escribir respuesta devuelve este valor y señala la finalización del
objetivo de procesar esta columna y que se debe regresar al objetivo de resolver el problema
global. Entonces recibe atención el procedimiento Siguiente columna que procesará la
columna de las decenas y así sucesivamente.

Consideramos cada producción de esta secuencia como un paso básico de la cognición,


aunque la cantidad de procesamiento que puede realizarse mediante estos pasos básicos es
limitada. Uno de los aspectos importantes de cada paso de procesamiento es su aprendizaje.
Cada regla se aprende de forma separada. Por ello, un fallo de competencia en la tarea se
entiende como una regla incorrecta o una regla de la que no se dispone. Así, un estudiante
puede no tener la producción llevarse números y, en ese caso, cometerá un error en aquellas
columnas que exigen este proceso.

Las reglas de producción mostradas señalan la importancia de los objetivos ya que estos
proporcionan un nivel de organización superior que controla la ejecución de las reglas de
producción. En cualquier momento, hay un “pila” de objetivos que codifica las intenciones del
sistema. ACT-R siempre intenta alcanzar el objetivo que se encuentra en lo alto de esta pila. El
sistema puede “eliminar” ese objetivo de la pila con lo que en ese momento ACT-R se focaliza
en el siguiente objetivo existente en la pila. ACT-R puede también introducir un nuevo objetivo
en la pila en cuyo caso, este objetivo se convierte en el foco de la atención.

La teoría ACt-R es una arquitectura con una atención fija, en el sentido de que en cada
momento se centra en un único objetivo y en que en cada momento se dispara una única
producción. A pesar de ello, la arquitectura también puede explicar la distracción.

La figura 3 muestra el flujo de información en ACT-R. Hay tres memorias (una pila de objetivos
que codifican la jerarquía de intenciones, una memoria procedimental que contiene las reglas
de producción y una memoria declarativa que contiene los chunks). Todas ellas se organizan
mediante el objetivo actual que representa el foco de la atención. Las producciones se
seleccionan mediante un proceso de resolución de conflictos que elige una producción de
entre todas aquellas que cumplen los requisitos del “if”. La producción seleccionada puede
hacer que las acciones (“else”) se ejecuten en el mundo exterior, pueden transformar el
objetivo actual (introduciendo o eliminando objetivos en la cola de objetivos) y puede hacer
peticiones de información a la memroria declarativa (como ¿cuál es la suma de 3 y 4?). El
resultado recuperado (tal como 7) puede devolverse al objetivo.

ACT-R puede describirse como un sistema puramente simbólico en el que los chunks discretos
y las producciones interactúan en ciclos discretos. Pero también dispone de un nivel sub-
simbólico en donde pueden procesarse un conjunto de valores escalares (los valores Bi y Sij de
la Figura 2), a menudo en paralelo, para generar la mayor parte de la estructura cualitativa de
la cognición humana.

Figura 3: Esquema básico de ACT-R

Arquitectura EPIC

Aunque la mayor parte de las arquitecturas cognitivas comienzan asumiendo un procesador o


cognición central, la arquitectura EPIC (Executive-Process Interactive control) subraya la
importancia de la cognición periférica como un factor que determina la ejecución del sistema.
Además de un procesador cognitivo central asociado con el sistema de memoria, EPIC
proporciona un conjunto de procesadores perceptivos y motores. Los módulos perceptivos son
capaces de procesar información procedente de los órganos sensoriales, enviando sus salidas a
la memoria de trabajo. Operan asincrónicamente y el tiempo necesario para procesar un input
depende de la modalidad perceptiva implicada así como de la intensidad y la discriminabilidad
del estímulo. El tiempo que estos módulos perceptivos necesitan para realizar su tarea está
basado en ecuaciones fijas (como la ley de Fitt) y es la principal fuente de restricciones del
modelo.
El procesamiento cognitivo en EPIC funciona mediante un sistema en paralelo: en cada ciclo de
50 ms se emparejan reglas de producción con los contenidos de la memoria de trabajo. Se
permite que cada regla cuyo emparejamiento con el contenido existente en la memoria de
trabajo es exitosa (es decir, que su parte “if” es apropiada) dispare (es decir, que se ejecute su
parte “else”). Esto significa que en EPIC no hay un mecanismo específico para resolver el
conflicto como sí existe en ACT-R. Es tarea del investigador evitar que se disparen
consecuentes contradictorios pertenecientes a distintas reglas de producción. Mientras que
Soar y ACT-R tiene un sistema mixto de disparo de las producciones donde hay aspectos
seriales y paralelos, en EPIC sólo existe un sistema paralelo puro en la cognición central. En
consecuencia, EPIC predice que los aspectos seriales de la conducta se deben principalmente a
la comunicación entre los procesadores centrales y periféricos así como a limitaciones
estructurales en los órganos de los sentidos y los músculos ya que, en realidad, todo el
procesamiento es paralelo. Un aspecto importante de la estructura modular de EPIC es que
todos los procesadores pueden trabajar en paralelo. Por ejemplo, una vez que el procesador
cognitivo ha enviado una orden motora al ojo para que dirija la atención a un punto concreto
del entorno visual, no tiene que pararse y esperar a que este procesador ocular le devuelva su
output (una nueva imagen). En lugar de ello, puede hacer alguna otra cosa. En una tarea dual
donde el participante tiene que realizar dos tareas simultáneamente, el procesador cognitivo
puede utilizar este tiempo extra para procesar la tarea secundaria. EPIC puede representar
múltiples objetivos de forma no jerárquica y estos objetivos pueden ser procesados en
paralelo a condición de que no necesiten las mismas fuentes periféricas. Si, por el contrario,
necesitan acceder a las mismas fuentes periféricas (como sucede en experimentos donde los
participantes tienen que realizar varias tareas simultáneamente), es necesario que entren en
funcionamiento los procesos ejecutivos necesarios para coordinar qué metas concretas
pueden acceder a los procesadores periféricos. Debido a que los procesos ejecutivos (memoria
de trabajo) en EPIC vienen implementados mediante reglas de producción, no forman una
parte separada del sistema. Esto convierte a la arquitectura EPIC en un sistema muy flexible
pero también significa que la teoría EPIC de la cognición central es débil ya que tiene pocas
restricciones que la puedan limitar (todo lo contrario sucede con la cognición periférica que sí
contiene restricciones fuertes). EPIC está focalizada principalmente en la conducta de sujetos
expertos y no dispone de una teoría de cómo se aprende el conocimiento. Como veremos, el
resto de arquitecturas han cogido prestada de EPIC sus módulos periféricos, pero han
intentado restringir más el sistema central.
Figura 4: Estructura cognitiva en EPIC.

Estructura CLARION

La arquitectura Clarion (Connectionist Learning with Adaptive Rule Induction Online; Sun, 2003)
asume que existe una división estructural esencial entre la cognición explícita y la implícita. En
consecuencia la arquitectura tiene dos subsistemas (el nivel superior y el inferior) cada uno
con sus representaciones y procesos propios y específicos. Además, cada uno de los dos
niveles se encuentra dividido en dos sistemas, un sistema que está centrado en la acción y el
otro que no lo está. Esta distinción se corresponde aproximadamente con los sistemas
procedimental y declarativo: el sistema centrado en la acción puede influir directamente sobre
la acción (conducta motora observable) mientras que el segundo solo puede hacerlo de
manera indirecta. El aprendizaje puede ser de abajo arriba (bottom-up), en cuyo caso, el
conocimiento se adquiere primero implícitamente y sirve como fundamental para un
aprendizaje explícito posterior; o puede ser un aprendizaje de arriba abajo (top-down) en cuyo
caso el conocimiento se adquiere explícitamente y el aprendizaje implícito viene después. Un
último supuesto de Clarion es que cuando no existe conocimiento explícito disponible a priori
el aprendizaje se producirá de abajo a arriba.

Muchas, pero no todas, las representaciones de Clarion se implementan mediante redes


neuronales. En este sentido, es más una arquitectura híbrida que ACT-R ya que tiene tanto
características conexionistas como simbólicas.

La teoría central de Clarion es que la conducta es el producto de una interacción entre


procesos implícitos (bottom-up) y explícitos (top-down) modulados por un subsistema
motivacional (el cual contiene, entre otros, los objetivos del sistema) y un sub-sistema meta-
cognitivo. El sistema implícito centrado en la acción asigna medidas de calidad a cada
producción “𝐼𝑓 −> 𝑡ℎ𝑒𝑛”. La elección final de una acción es una combinación de los valores
asignados a cada acción por el sistema implícito y el explícito. Cada uno de los dos sistemas
tiene su propio sistema de aprendizaje: el sistema implícito utiliza una combinación de
aprendizaje por reforzamiento y retro-alimentación para mejorar sus evaluaciones de los pares
Estado/Acción (if -> then) basándose para ello en las recompensas, mientras que el sistema
explícito utiliza un mecanismo de extracción de reglas que utiliza la extracción, la
generalización y la especialización para generar nuevas reglas. Dejando estos dos sub-sistemas
aparte, el resto de los otros sub-sistemas de Clarion (el motivacional y el meta-cognitivo)
utilizan sus propios mecanismos y representaciones.
La estructura básica de Clarion se encuentra en la Figura 5.

Figura 4: Arquitectura Clarion

Restricciones globales sobre el modelado con arquitecturas cotitivas

Tal y como se señaló anteriormente, en cada arquitectura existe una tensión entre la
funcionalidad y la teoría. Desde el punto de vista funcional, hay una presión para añadir cada
vez más rasgos, mecanismos y sistemas a la arquitectura con el objetivo de capturar más
fenómenos. Desde la perspectiva teórica, sin embargo, hay una presión contraria a la anterior
para simplificar las representaciones y los mecanismos. El objetivo de esta presión para
obtener la simplicidad en los modelos es mantener el espacio posible de modelos de un
fenómeno particular lo más pequeño o limitado posible. Si una arquitectura permite muchos
modelos diferentes del mismo fenómeno, entonces no tenemos un método claro para
seleccionar el correcto. En los siguientes apartados se revisa en qué forma pueden las
arquitecturas limitar el espacio de modelos posibles. Debe observarse que no todas las
arquitecturas tocan todas las áreas. Así, por ejemplo, EPIC no limita el aprendizaje porque,
básicamente, no presenta ninguna teoría del aprendizaje.

Primera limitación: Capacidad de memoria de trabajo (Working Memory)

Uno de los resultados que asentó la psicología cognitiva como un campo de estudio por
derecho propio fue el experimento de Miller en el que encontró que las personas solo pueden
retener un número limitado de ítems nuevos en la memoria (Millar, 1956). Este fenómeno se
asoció rápidamente con la memoria a corto plazo y luego con la memoria de trabajo. De forma
más general, la función de la memoria de trabajo (Working Memory o WM) es mantener activa
una representación del ambiente actual. Lo que Miller y posteriores experimentadores
mostraron fue que la capacidad para mantener esta representación está muy limitada.
Un modelo simple de la memoria de trabajo es asumir que consiste un sistema con un
número limitado de casillas donde se almacenan temporalmente los ítems. Miller sugirió que
el número estaba limitado a 7 casillas (con una variabilidad de +/- 2). Cuando te presentan más
ítems a almacenar que el número de casillas (espacios o slots en inglés) de almacenamiento
disponibles, solo puedes almacenar los ítems más recientes si desalojas algunas de las casillas
ya ocupadas. Aunque este modelo es una implementación casi directa del fenómeno en el que
se basa, no funciona muy bien como componente de una arquitectura cognitiva debido a que
la tarea de Miller se realiza con ítems no relacionados entre sí (v.g., palabras elegidas al azar).
Pero en las situaciones naturales, el conocimiento se encuentra relacionado entre sí y, en este
caso, el modelo de “slots” no puede aplicarse.
Una buena teoría de la capacidad empírica de almacenamiento de información en la
WM puede ser una fuente de restricciones importante sobre las arquitecturas cognitivas ya
que descarta modelos que postulen como plausibles el almacenamiento de conjuntos enormes
de ítems activos. Aunque la WM se contempla tradicionalmente desde el concepto de
“capacidad”, otra perspectiva es considerar la WM como una función cognitiva. En esta última
aproximación, el límite de ítems observado no es el impedimento fundamental sino que lo es
la capacidad para separar la información relevante de la irrelevante ya que permite al sistema
cognitivo actuar sobre la información relevante en lugar de sobre la información irrelevante.

Limitaciones de capacidad en SOAR

Un ejemplo de una aproximación funcional de la WM es SOAR (Young & Lewis, 1999). Young y
Lewis explican las limitaciones de la WM en términos de lo que pueden realizar el conjunto de
habilidades de que dispone el sujeto en un tiempo limitado. Por ejemplo, consideremos las
siguientes tres frases:
1) El defensor examinó la corte de justicia.
2) El defensor examinado por el jurado se encontraba molesto.
3) La evidencia examinada por el jurado no era confiable.
Asumiendo que las personas leemos estas frases palabra a palabra y de izquierda a derecha, la
palabra “examinar” es ambigua en las sentencias 1 y 2 ya que puede ser el verbo principal o el
verbo de una oración subordinada de relativo. Sin embargo, no es ambiguo en la frase 3 ya que
el sujeto “evidencia” es inanimado. Just y Carpenter (1992) encontraron que las personas
difieren en como tratan la frase 3 con respecto a las frases en 1 y 2, y lo atribuyen a la
capacidad de memoria de trabajo: individuos con una alta capacidad de trabajo son capaces de
mantener la información de que la “evidencia” es inanimada en la WM, mientras que los
individuos de baja capacidad no mantienen esa información en la memoria, forzándoles a
realizar la desambiguación posteriormente, como pasa en la frase 2.

No obstante, esta no es la única explicación. Lewis (1996), por ejemplo, presentó una
explicación diferente de las diferencias individuales en WM basada en un modelo SOAR de la
comprensión del lenguaje natural. En la frase 3, después de leer “examinada”, SOAR
propondrá dos operadores para actualizar la comprensión actual de la frase, uno
correspondiente a cada interpretación de la frase. Esto provocará un punto muerto (impase)
que SOAR intentará resolver creando un nuevo espacio problema. Aunque el modelo SOAR
tiene conocimiento para resolver el problema, esto le lleva tiempo y bajo la presión temporal
propia de las instrucciones experimentales, el modelo puede decidir no resolver la
ambigüedad mediante la búsqueda en dos espacios problema nuevos sino simplificar la tarea e
interpretar el verbo “examinar” como el verbo principal, lo cual significa que tendrá problemas
más tarde cuando lea las últimas palabras de la frase. Lo importante es que en este modelo, las
diferencias individuales no vienen dadas por un límite en la capacidad de la WM como tal sino
por una limitación del conocimiento disponible si elige el “atajo” de simplificar la tarea en
lugar de examinar los dos “espacios problema” posibles.

Limitaciones de capacidad en ACT-R

De forma similar a SOAR, ACT-R no dispone de un sistema que se corresponda con el concepto
de “capacidad de la memoria de trabajo”. En realidad, ACT-R ni siquiera dispone de un sistema
de memoria de trabajo como tal. En lugar de ello, la función que usualmente se piensa
corresponde a la memoria de trabajo está dispersa en varios sub-sistemas de ACT-R: la
información sobre el contexto de la tarea que está realizando el sistema en un momento dado
se mantiene en un conjunto de memorias intermedias (buffers). Un “buffer” es el mecanismo
por el cual el sistema de producciones central permite que se comuniquen los diversos
módulos del sistema. Por ejemplo, hay un buffer visual que mantiene la representación del
ítem atendido en un momento dado en el campo visual, un buffer de recuperación que
contiene el último ítem recuperado de la memoria declarativa y hay un ítem que representa el
objetivo actual del sistema. Cada uno de estos buffers tiene una capacidad de un único ítem y
están limitados o restringidos por su función (v.g., visión, recuperación de la memoria, manual,
etc.).
Aunque los buffers, en su conjunto, son el principal medio que permite representar el contexto
actual, el sistema asociado principalmente con la noción de “capacidad de WM” es la memoria
declarativa. Cualquier ítem nuevo que entra en el sistema se almacena, en último término, en
la memoria declarativa. Si la tarea es memorizar una lista de números, cada uno de los
números se almacena como un ítem separado que se asocia con los otros números. Para
recordar el listado de números, cada uno de los ítems debe ser recuperado exitosamente. Sin
embargo, cuando la lista de números se hace cada vez más larga, la interferencia y el
decaimiento en la memoria declarativa disminuyen la probabilidad de éxito del recuerdo,
creando el fenómeno observado por Miller e interpretado como una capacidad de WM
limitada.
Aunque la explicación de ACT-R parece estar cercana a una explicación en términos de
capacidad, en el corazón de la teoría la explicación es funcional. El objetivo de la activación en
la memoria declarativa no es modelar el olvido sino clasificar el conocimiento en orden de su
relevancia potencial. El conocimiento en ACTR-R recibe una alta activación debido a un uso
frecuente o una alta correlación con el actual contexto porque esto lo convierte en más
disponible y discriminable en relación al conocimiento irrelevante. Desde esta perspectiva, la
capacidad de WM es la capacidad para incrementar la razón Señal/Ruido en la memoria
declarativa y los individuos que son buenos incrementando esta razón tienen una alta
capacidad de WM (Lovett, Reder y Lebiere, 1999).

Actuación cognitiva

¿Cómo de potente es el sistema de razonamiento humano? Según Penrose (1989), el


razonamiento humano es más potente que el de una máquina de Turing y permitiendo a los
humanos resolver problemas que son intratables computacionalmente. Sin embargo, el reto
que afrontan las arquitecturas cognitivas no es hacer a la máquina más potente que el ser
humano sino incluir restricciones en esa potencia para explicar fielmente la conducta.

El cuello de botella serial

Un tema recurrente de debate en la psicología es si existe un cuello de botella central en la


cognición humana (Pashler, 1994; Schumacher et al., 2001). En términos de arquitecturas
cognitivas, el debate se centra entre ACT-R y EPIC. En ACT-R, el sistema de producción central
solo puede activar una única regla de producción en un momento dado. Aunque se estima que
la activación y ejecución de una regla de producción solo exige unos 50 ms, el hecho de que
sólo se pueda activar una única regla de producción en un momento dado limita el número de
“pasos” de procesamiento que pueden ejecutarse en un tiempo dado. Sin embargo, en EPIC el
sistema de reglas central puede descargar cualquier número de reglas en paralelo. EPIC puede,
de esta forma, explicar los resultados obtenidos en experimentos de tarea dual. Un ejemplo de
tales experimentos es el realizado por Schumacer et al. (2001). En aquel estudio, a los
participantes se les proporcionó un estímulo visual y un tono al mismo tiempo. Tenían que
responder al estímulo visual presionando una tecla y al tono diciendo una palabra. Con un
tiempo de entrenamiento suficiente, los participantes fueron capaces de realizar las dos tareas
perfectamente y en paralelo en el sentido de que sus tiempos de reacción en cada tarea
fueron los mismos cuando realizaban la tarea dual como cuando realizaban una única tarea
(tarea simple).
Por el contrario, para el modelo ACT-R, los experimentos de tarea dual representan un reto,
aunque no insalvable. Así, Byrne y Anderson (2001) construyeron un modelo utilizando ACT-R
que fue capaz de compartir el tiempo disponible de manera perfecta entre varias tareas y que
capturó no solo la actuación final sino también la trayectoria de aprendizaje hacia aquella
ejecución final. En los modelos ACT-R la clave para la realización perfecta de las tareas duales
se encuentra en el hecho de que la mayor parte del tiempo consumido en la realización de una
tarea se utiliza en el procesamiento perceptivo o en la conducta motora, especialmente
cuando las tareas se han entrenado. Cuando se necesita una acción o procesamiento central
(por contraposición al procesamiento periférico como el perceptivo y el motor) ésta
usualmente consiste en cambiar la atención entre ítems o en seleccionar una respuesta. En los
casos donde la tarea está altamente entrenada, cada una de estas acciones solo necesita una
única regla de producción de 50 ms. A menos que la selección de respuesta para ambas tareas
tenga que suceder exactamente en el mismo momento (lo cual es improbable dado el ruido de
los procesos perceptivos) los costos de la tarea dual son pequeños o ausentes.
Un aspecto interesante del cuello de botella central es la forma en que se desarrolló la disputa
teórica entre ACT-R y EPIC. Con un cuello de botella serial, ACT-R es la teoría más restringida ya
que con EPIC siempre es posible hacer las cosas serialmente, pero no a la inversa (ACT-R no
puede hacer las tareas en paralelo). ACT-R tiene la capacidad de predecir en qué circunstancias
el cuello de botella actuará limitando la ejecución mientras que EPIC no plantea restricciones
en absoluto. Para que el modelo EPIC pueda demostrar este punto, necesita identificar un
fenómeno psicológico o una tarea en donde el sistema serial de ACT-R no disponga del tiempo
para ejecutar todo aquello que tiene que realizarse. Incluso cuando se encontrara este
fenómeno, solo probaría que ACT-R es erróneo y no necesariamente que EPIC sea correcto.

Potencia computacional

La simplicidad que muestra el esquema de las reglas de producción puede ser engañosa. Si las
reglas de producción pueden ajustar patrones arbitrarios (es decir, si la “condición” o “if” de
una regla de producción puede aceptar un patrón arbitrario), es posible escribir reglas de
producción en las que el emparejamiento de una condición sea un problema NP completo
(Tambe, Newell y Rosenbloom, 1990). Las reglas de producción en SOAR tienen esta
naturaleza y ello es por lo que esta arquitectura necesita un algoritmo potente de
emparejamiento de reglas. Aunque la potencia de estas reglas le ofrece una enorme
flexibilidad, también provoca que tengan muy pocas restricciones de lo que puede hacerse en
un ciclo producción-emparejamiento. Para contrarrestar esta falta de restricciones, los
teóricos de SOAR tratan de limitarse a sí mismos evitando escribir reglas que utilicen toda la
potencia de estos algoritmos. En CLARION, el sistema de reglas puede implementarse en una
red neuronal. Dada la naturaleza local de las redes neuronales, no hay una potencia
computacional extrema y oculta, por lo que esta arquitectura es un sistema más restringido.
ACT-R también tiene un sistema de producción restringido: solo puede emparejar ítems que se
encuentran en sus buffers. Esto implica que no puede emparejar patrones arbitrarios
existentes en la memoria declarativa y que solo puede recuperar los ítems uno a uno. Por
consiguiente, un emparejamiento complejo de la información exige, en esta arquitectura,
múltiples pasos de recuperación sujetos a la posibilidad de cometer errores. El sistema de
ejecución de ACT-R puede, de hecho, que sea un sistema demasiado restrictivo por lo que
puede no alcanzar todos sus objetivos funcionales.

Sistemas perceptivos y motores

Potencialmente, los sistemas perceptivos y motores son una fuente importante de


restricciones a las arquitecturas cognitivas debido a que las acciones de ambos pueden
medirse de manera más precisa que las acciones cognitivas (centrales) y porque la literatura
psicofísica ofrece predicciones precisas sobre los aspectos temporales de estas acciones. La
arquitectura EPIC (Meyer y Kieras, 1997) se basa en esta premisa.
Los módulos perceptivo-motores de EPIC pueden manejar una única acción en un momento
dado y cada una de estas acciones lleva cierto tiempo en ejecutarse. Aunque un módulo solo
puede hacer una cosa en un momento dado, la conducta de un experto en una tarea (v.g.,
jugar al tenis) puede explicarse entrelazando las acciones perceptivas, cognitivas y motoras.
Los módulos de EPIC incorporan modelos matemáticos, basados en datos empíricos, del
tiempo necesario para completar ciertas acciones. El conocimiento viene representado
mediante reglas de producción.
Un ejemplo de como las restricciones perceptivas y motoras pueden utilizarse para aplicar
restricciones en el modelo es la búsqueda en los menús de ordenador (Hornof y Kieras 1997).
La tarea investigada fue como los humanos encontraban una etiqueta en un menú usual de
ordenador (de los que se pulsan y aparecen varias alternativas) lo más rápido posible. Quizás el
modelo más simple de esta tarea es un modelo de búsqueda serial en donde el usuario atiende
al ítem superior de la lista y lo compara con la etiqueta que se le ha pedido buscar. Si el ítem
no coincide con el objetivo, se pasa a comparar el siguiente ítem de la lista; si el ítem coincide
con el buscado se termina la búsqueda. Un modelo EPIC basado en esta estrategia ingenua de
búsqueda serial sobre-estimó gravemente los tiempos de búsqueda reales obtenidos en la
investigación empírica excepto cuando la etiqueta se encontraba en la primera posición del
menú. Por ejemplo, si el ítem del menú se encuentra en la posición 10 de la lista, el modelo de
búsqueda serial predice que su localización llevará 4 segundos mientras que los participantes
solo necesitaron aproximadamente 1.6 segundos.

Es por eso que Hornof y Kieras (1997) propusieron un modelo alternativo, el modelo de
búsqueda solapada que aprovecha el paralelismo del sistema cognitivo. En lugar de esperar a
que el sistema cognitivo (central) decida si se ha encontrado la etiqueta, el ojo se mueve al
siguiente ítem en la lista mientras el primer ítem aún está siendo evaluado cognitivamente (es
decir, centralmente). Esta estrategia da como resultado una situación en la que el ojo se
mueve hacia atrás al ítem previo de la lista una vez que se ha decidido que el ítem se ha
encontrado. Pero este es un precio pequeño a pagar por la aceleración que produce este
paralelismo. El paralelismo se admite en EPIC debido a que los módulos perceptivos y motores
hacen una única cosa en cada momento. En la práctica, la restricción más influyente viene
dada por la duración de las acciones. Por ejemplo, en el modelo de búsqueda serial el
parámetro que influencia el tiempo de búsqueda podría, en teoría, cambiarse para hacer que
este modelo (incorrecto) ajuste los datos. EPIC impide que esto ocurra debido a que un
movimiento ocular exige una cierta cantidad de tiempo (que conocemos experimentalmente y
no podemos modificar a nuestro antojo), de la misma forma que lo exige un tiempo de
decisión acerca de si la etiqueta es correcta o no, de tal forma que los datos solo pueden
explicarse si estas acciones ocurren en paralelo.
El ejemplo de la búsqueda en un menú muestra que aunque los sistemas perceptivos y
motores en EPIC proporcionan fuertes restricciones, la cognición central se encuentra, por el
contrario, con un déficit de restricciones en el sentido de que admite modelos correctos e
incorrectos para explicar los datos de la búsqueda en un menú. Los módulos perceptivos y
motores de EPIC, sin embargo, se han demostrado como potentes restricciones por lo que el
resto de arquitecturas lo han incluido en sus sistemas (ACT-R, Soar y Clarion).

Aprendizaje
Un rasgo deseable en cualquier modelo es que aprenda su propio conocimiento. En el
paradigma clásico, las únicas restricciones al conocimiento proceden de la arquitectura y del
análisis de tareas por lo que la especificación del conocimiento de que se dotará al sistema se
deja al antojo del investigador. Pero una aproximación más apropiada es dejar que el modelo
aprenda su propio conocimiento. Una variante de este tipo de modelado es proporcionar al
modelo con algún método inicial (que decidirá el investigador) pero que se vuelva más rápido
a través del aprendizaje. Por ejemplo, en ACT-R se modeló una tarea llamada “alfabético-
aritmética” (Anderson y Lebiere, 1998). Esta tarea consiste en verificar la corrección de las
sumas utilizando letras y números como G+3=J. La estrategia inicial del modelo es encontrar la
respuesta contando. Pero debido a que el modelo va almacenando las respuestas a los
primeros ensayos, también va acumulando gradualmente hechos o datos sobre las sumas en la
memoria declarativa, permitiendo que con el tiempo proporcione una respuesta directa en
lugar de tener que contar. Aunque el modelo aprende los nuevos datos sobre la suma,
comienza su ejecución con reglas de producción para contar y con las reglas de producción que
intentan recuperar la información de hechos sobre la adición que no existían inicialmente.

Restricciones desde la neurociencia

La cognición humana viene implementada en el cerebro. Este hecho puede ofrecer fuentes
adicionales de restricciones en una arquitectura cognitiva. La arquitectura del cerebro ofrece
dos niveles de restricciones: el nivel de las neuronas individuales y sus interconexiones por un
lado y el de las estructuras cerebrales globales por otro.

Restricciones al nivel de células individuales

El sustrato actual de la cognición es una red interconectada de neuronas. Si este hecho


representa una fuente de restricciones significativas es un tema abierto al debate. Un punto de
vista es que las células cerebrales implementan algún tipo de arquitectura virtual y que las
características de las células cerebrales son irrelevantes para comprender la cognición (Newell,
1990). Una versión más moderada de este punto de vista viene dada por Anderson y Lebiere
(2003) quienes consideran que el nivel de abstracción principal para estudiar la cognición está
por encima del nivel de las células cerebrales. Sin embargo, Lebiere ha implementado una
versión mediante redes neuronales de ACT-R que es idéntica funcionalmente a la
implementación regular mediante un software ejecutado en un sistema de silicio (es decir, un
ordenador usual). Pero este modelo neuronal de ACT-R sí demostró ser capaz de aportar
restricciones adicionales sobre las arquitecturas (v.g., la restricción de que la memoria
declarativa solo puede recuperar un único ítem en cada momento).

CLARION (Sun, 2003) defiende la idea de que la utilización de elementos y mecanismos que se
asemejen a neuronas representa una fuente importante de restricciones sobre la arquitectura.
Muchos de los sub-sistemas de CLARION están compuestos por redes neuronales. Esto ofrece
restricciones adicionales ya que las redes neuronales son más difíciles de “programar” que los
modelos simbólicos. CLARION aún es una arquitectura híbrida con aspectos simbólicos y sub-
simbólicos. Podemos incluso ir un paso más allá y diseñar una arquitectura implementada
totalmente mediante redes neuronales. Leabra (O´Reilly y Munakata, 2000) es un ejemplo de
esta arquitectura. El reto con una arquitectura construida de neuronas simuladas es que tiene
que tratar con ciertos problemas computacionales que resultan difíciles con redes neuronales
pero triviales utilizando arquitecturas simbólicas. Un primer problema es el problema de la
ligadura (binding problem), es decir, de cómo puede el sistema agrupar o ligar rasgos entre sí
(v.g., si el color y la forma de un mismo objeto se procesan en módulos diferentes del sistema
nervioso, la pregunta es cómo puede determinar el sistema que una forma redondeada y un
color amarillo pertenecen a un mismo objeto, de alguna forma tiene que ligar esta información
sobre el color y la forma para que el sistema las considere pertenecientes al mismo objeto).
Dado el gran número de combinaciones posibles (existen diferentes colores en una misma
escena y diferentes formas en la misma) no es factible que cada combinación tenga una
conexión pre-cableada por lo que debe existir otros medios para lograr que el cerebro conecte
conceptos. Un segundo problema es la llamada “interferencia catastrófica” (McCloskey y
Cohen, 1989), la cual se refiere al hecho de que muchas redes desaprenden lo aprendido
previamente cuando se presenta un conocimiento nuevo. Un tercer problema es la conducta
serial. Aunque las redes actúan muy bien cuando responden de manera paralela, es más difícil
permitirles responder de manera serial y ordenada (v.g., mecanografiar o percibir sonidos
musicales que se desarrollan en el tiempo son tareas claramente seriales). En un primer
momento, estos tres problemas podrían considerarse un argumento en contra de la utilización
de arquitecturas implementadas mediante redes neuronales, pero puede que sea al contrario
ya que solucionar estos problemas ofrecerá nuevas restricciones para las arquitecturas. De
hecho, para cada uno de los tres problemas se han propuesto soluciones. Una de las
soluciones al problema de la ligadura es el sistema del producto de tensores propuesto por
Smolensky (1990). Hay varias soluciones planteadas al problema de la interferencia
castastrófica. Por ejemplo, McClelland, McNaughton y O´Reilly (1995) propusieron disponer un
sistema de aprendizaje lento (cortical) y otro rápido (hipocampal), solución que ha sido
implementada en el sistema Leabra (O´Reilly y Munakata, 2000). La conducta serial puede
lograrse utilizando redes neuronales especiales llamadas redes recurrentes (Elman, 1990)
aunque no con la flexibilidad que permiten los sistemas simbólicos. Una arquitectura cognitiva
que utilice redes neuronales que ofrezca soluciones a los tres problemas planteados resultaría
una teoría muy potente (Sun, 2003) aunque aún no disponemos de ella.

Restricciones al nivel de la arquitectura cerebral global

Los avances recientes realizados en la neurociencia (imágenes cerebrales mediante fMRI por
ejemplo) han permitido a los neurocientíficos construir teorías cada vez más precisas, acerca
de qué funciones ejecutan las diversas regiones cerebrales y como se encuentran
interconectadas. El resultado es un mapa de regiones interconectadas con una asignación
precisa de las funciones que realizan. Lo que las imágenes cerebrales no nos proporcionan es
cómo realizan el procesamiento estas regiones. No obstante, lo importante es que las
arquitecturas cognitivas pueden proporcionar teorías de procesamiento restringidas por los
mapas cerebrales actualmente existentes. ACT-R ha utilizado esta idea y ha relacionado sus
sistemas de producción y buffers en regiones cerebrales específicas siendo, de esta forma,
capaz de predecir la actividad cerebral en base a un modelo cognitivo. Por ejemplo, en un
estudio en el que los niños tenían que aprender a resolver ecuaciones algebraicas, el modelo
ACT-R predijo como diferiría la actividad en varias áreas cerebrales cuando se modificó el nivel
de dificultad y los efectos del aprendizaje (Anderson, 2005).

Potrebbero piacerti anche