Sei sulla pagina 1di 13

FONDAMENTI DELLA SCIENZA COGNITIVA CLASSICA

La scienza cognitiva consiste nello studio dei processi cognitivi nei termini di processi di elaborazione
dell’informazione. La cibernetica, la psicologia cognitiva, l’intelligenza artificiale e oggi le neuroscienze,
cercano di individuare le leggi e i meccanismi psicologici e neurobiologici che sottostanno alle nostre
capacità di percepire, ragionare, decidere, comprendere e agire in modo efficace.
Diversi studiosi hanno affermato che queste discipline costituiscono la scienza cognitiva.
Si distinguono due fasi della scienza cognitiva. La scienza cognitiva classica, chiamata anche GOFAI, Good
Old-Fashioned Artificial Intelligence, caratterizza la ricerca in scienza cognitiva a partire dalla fine degli anni
cinquanta fino alla fine degli anni settanta:
ˆ The Language of Thought (1975) del filosofo Jerry Fodor ne contiene un’influente sistematizzazione
filosofica
ˆ E caratterizzata da un’egemonia dell’ ` intelligenza artificiale simbolica
ˆ E caratterizzata dallo studio funzionale dei processi cognitivi ` indipendentemente dallo studio
neuroscientifico del cervello
La scienza cognitiva post-classica, chiamata spesso NFAI, NewFangled Artificial Intelligence, caratterizza la
ricerca in scienza cognitiva a partire dagli anni ottanta:
ˆ A seguito dello sviluppo della neuroanatomia e della cartografia cerebrale, si ritiene che
l’organizzazione sistemica del cervello sia vincolante nello studio dei processi di elaborazione cognitiva
ˆ E caratterizzata da un’egemonia dell’ ` intelligenza artificiale sub-simbolica
Possiamo ricollegare la nascita della scienza cognitiva al fiorire di alcune nuove discipline
ˆ Sviluppo dell’informatica teorica negli anni Venti e Trenta (teoria della computabilit`a effettiva)
ˆ Avvento dei primi calcolatori digitali negli anni Quaranta (ESDAC nel 1949)
ˆ Nascita dell’intelligenza artificiale (Newell, Shaw, Simon sviluppano The Logic Theorist nel 1957)
La scienza cognitiva ha una data di nascita ufficiale: il 1977. Ma se vogliamo dare una data più precisa
possiamo citare il 1956, quando si tenne un simposio circa la teoria dell’informazione a cui parteciparono in
particolare Muller, Simon, Newell e Chomsky, i maggiori esponenti della scienza della mente. In quella
circostanza emerse con chiarezza che fosse possibile affrontare lo studio dei processi cognitivi
coinvolgendo diverse discipline, in primo luogo la linguistica teorica, l’IA, la psicologia; e che la scienza
dei calcolatori offrisse un metodo comune di indagine, la simulazione, cioè la riproduzione dei processi
cognitivi mediante programmi su calcolatore. A quel convegno non c’era Turing, che dell’idea di riprodurre
i processi cognitivi su calcolatore ne era stato il pioniere. Turing aveva sostenuto l’idea che i processi di
pensiero fossero meccanizzabili, argomentando che se una macchina fosse stata capace di eseguire un
certo compito intelligente, allora non vi sarebbe stata alcuna ragione di negare l’intelligenza alla
macchina. La macchina di cui stiamo parlando era il computer.
La tesi secondo cui l’intelligenza è meccanizzabile è la prima delle due idee alla base della nascita della
scienza cognitiva. La seconda idea, soprattutto promossa da Chomsky, è che il comportamento umano è
mediato da rappresentazioni mentali inconsce. Chomsky fece vedere che per spiegare il comportamento
era indispensabile studiare le strutture dentro la testa.
TURING E IL CONCETTO DI COMPUTAZIONE
Il pensiero sembra avere una natura ibrida: da un lato appare come un atto libero e creativo; dall’altro
spesso si affaccia alla nostra coscienza come qualcosa che ci si impone spontaneamente: non decidiamo a
cosa pensare.
L’idea che il pensiero possa essere qualcosa di meccanico appare comunque poco credibile. Turing fece
vedere, quindi, come il pensiero potesse essere meccanico.
L’idea principale è che un determinato compito intelligente può essere meccanicamente portato a
termine se il compito viene scomposto in una successione di passi, ben specificati, privi di ambiguità.
Possiamo tuttavia mettere da parte la nozione di procedimento meccanico dal tipo di macchina che lo
esegue, caratterizzando in modo più astratto il concetto di programma. Questo concetto astratto si chiama
“computazione” o “algoritmo”: essa è un procedimento finito e totalmente esplicito (nel senso che i passi
del procedimento sono specificati e dettagliati) per risolvere un problema.
-L’origine degli algoritmi
La parola ‘algoritmo’ deriva dal nome di un matematico persiano del IX secolo il quale forn`ı, le regole per
le operazioni aritmetiche usando numeri arabi. Infatti, le regole che si seguono per calcolare le operazioni
aritmetiche di base come la moltiplicazione o la divisione sono immediati esempi di algoritmo. Anche se gli
algoritmi erano noti e ampiamente utilizzati fin dall’antichit`a, il problema di definire che cosa `e un
algoritmo `e ancora aperto. Di seguito analizzeremo l’approccio classico di Donald Knuth.
Secondo l’approccio classico di Donald Knuth (The Art of Computer Programming. Addison-Wesley. 1973)
un algoritmo `e una successione finita di istruzioni che soddisfa cinque importanti propriet`a:
1. Finitezza: un algoritmo deve sempre terminare dopo un numero finito di passi.
2. Definitezza: ogni passo di un algoritmo deve essere definito con precisione; le azioni da svolgere
devono essere specificate in modo rigoroso e inequivocabile per ciascun caso.
3. Input: un algoritmo ha 0 o pi`u input.
4. Output: un algoritmo ha 0 o pi`u output.
5. Effettivit`a: le operazioni dell’algoritmo devono essere sufficientemente elementari tali da poter essere
svolte in un tempo finito da un essere umano utilizzando carta e penna.
Effettività degli algoritmi: un algoritmo `e dunque un metodo effettivo, ovvero un metodo che consente di
giungere sempre alla soluzione di un problema, passo dopo passo, senza far ricorso all’intuizione. A
questo scopo le istruzioni devono essere elementari, cio`e atomiche, non ulteriormente scomponibili e
inequivocabili. I passi devono essere finiti proprio per garantire il raggiungimento della soluzione al
problema.
Algoritmi numerici e non numerici
Per considerare un esempio pi`u preciso, consideriamo il seguente problema: ˆ Determinare se una parola
`e palindroma, ovvero se pu`o essere letta tanto da sinistra verso destra quanto da destra verso sinistra.
Proviamo a pensare ad un algoritmo per la soluzione di questo problema.
Algoritmo per determinare se una parola `e palindroma:
ˆ Input: una parola
ˆ Output: ’s`ı’ se la parola `e palindroma, ’no’ se non lo `e
ˆ Istruzioni: 1. Se la prima lettera `e diversa dall’ultima, termina con output ’no’, altrimenti, se vi sono
almeno due lettere rimaste, cancella la prima e l’ultima lettera e ripeti l’istruzione 1
2. Se non vi sono lettere rimaste, o se ne `e rimasta una sola, termina con output ’s`ı’.
Il problema, che è non numerico, pu`o essere riconsiderato in termini numerici associando a ciascuna
lettera dell’alfabeto un numero. Il problema diventa cos`ı quello di determinare se due sequenze di numeri
siano identiche. L’algoritmo per la soluzione di quest’ultimo problema diventa un algoritmo numerico.
Una funzione `e detta calcolabile (o computabile) se e solo se esiste un algoritmo che la calcola.
LA TESI DI TURING-CHURCH
Per studiare alcune propriet`a interessanti degli algoritmi`e tuttavia necessario avere una definizione pi`u
formale della nozione di algoritmo. Negli anni Trenta del secolo scorso la ricerca in logica e filosofia della
matematica si focalizz`o su una formulazione della nozione di algoritmo nei termini di funzione aritmetica
calcolabile. Nel 1936 i logici Alonzo Church e Alan Turing formularono la seguente tesi: Ogni funzione
aritmetica `e calcolabile se e solo se `e una funzione Turing-calcolabile. Una funzione `e Turing-calcolabile
se e solo se `e calcolabile da una Macchina di Turing.
La MT è un modello matematico del concetto di computazione; ciò significa che se esiste un problema
esso può essere risolto tramite la MT.
La MT è composta da una testina di lettura che scorre su un nastro di lunghezza infinita. Il nastro è
suddiviso in caselle, ciascuna delle quali può contenere un’unità di informazione. Le info sono espresse in
un “linguaggio” o codice semplicissimo, costituito da due simboli. Ad ogni istante la macchina può fare
solo una delle seguenti mosse: 1) leggere un simbolo e spostarsi a destra di una casella; 2) \\ \\ \\ a
sinistra di una casella; 3) \\ \\ e sovrascriverlo con un nuovo simbolo, senza spostarsi.
La mossa della macchina non dipende solo dall’input , cioè dal simbolo letto, bensì anche dallo stato, cioè lo
stadio del procedimento, altrimenti detto memoria cumulativa che la macchina ha della successione degli
input ricevuti.
Una MT consiste in:
ˆ Un nastro di lunghezza potenzialmente infinita suddiviso in caselle
ˆ Un alfabeto costituito da insieme finito di simboli; le caselle del nastro possono contenere un simbolo
appartenente all’alfabeto oppure essere vuote
ˆ Una testina in grado di spostarsi a destra o sinistra sul nastro e di leggere, scrivere, cancellare, o
sovrascrivere un simbolo in una casella
ˆ Un insieme finito di stati interni; uno stato interno `e definito sulla base delle operazioni gi`a compiute in
precedenza
ˆ Una configurazione, definita dallo stato interno della macchina in un determinato passo unitamente al
simbolo letto.
ˆ Una tavola, contenente un insieme finito di istruzioni; ciascuna istruzione specifica, dato lo stato interno
della macchina e il simbolo letto dalla testina, l’azione da compiere (simbolo da scrivere, spostare la testina
a destra/ a sinistra/ tenerla al centro) e lo stato successivo
Una configurazione di una MT `e detta finale quando ad essa non corrisponde alcuna ulteriore istruzione e
la macchina si arresta. A seguito di una configurazione finale la MT entra in uno stato interno finale.
Un computer non `e altro che una implementazione di una MT. Il programma `e dato dalla tavola delle
istruzioni. I dati in input corrispondono ai simboli scritti sul nastro prima che la macchina esegua il calcolo.
Gli output corrispondono ai simboli scritti sul nastro dopo che la macchina ha terminato il calcolo. La
memoria corrisponde al nastro.
Una macchina di Turing Universale (MTU) è una MT che riceve come input la codifica di una qualunque
altra MT e calcola la funzione che questa computa. In altre parole, una MTU `e una MT capace di simulare
il calcolo di una qualunque altra MT.
Calcolatori general purpose e special purpose I calcolatori general purpose, come tablet, laptop o
desktop pc, sono implementazioni di una MTU. Un calcolatore general purpose `e infatti capace di eseguire
un numero indefinito di programmi che vengono installati. I calcolatori special purpose, come calcolatrici,
orologi digitali o televisori digitali, sono implementazioni di una MT. Questi ultimi sono infatti capaci di
calcolare una determinata (classe di) funzione.
MT CHE NON SI FERMA Avere una configurazione finale in una tavola di una MT non assicura che la MT si
arresti ed il calcolo termini. Sebbene questa MT abbia configurazione finale, il calcolo non termina se la MT
riceve in input un nastro vuoto. Questo viene definito problema della fermata.
Il problema della fermata (halting problem) `e il problema generale di stabilire se, data una qualunque MT
M e un qualunque input I, M con input I si ferma oppure no, ovvero se termina o meno il suo calcolo. Il
problema della fermata `e un problema decisionale indecidibile: non esiste alcun algoritmo che, per
qualunque M e I ricevuti in input, termini restituendo in output una risposta s`ı/no, dove s`ı sta per ‘il
calcolo termina’, no per ‘il calcolo non termina’
Esistono dunque problemi decisionali decidibili, per i quali esiste un algoritmo che termina sempre con una
risposta s`ı/no, e problemi decisionali indecidibili, per i quali non `e possibile costruire un tale algoritmo.
Tra i problemi decidibili ve ne sono alcuni che sono risolvibili con algoritmi che richiedono poche risorse di
calcolo, ed altri che richiedo risorse di calcolo maggiori.
Le risorse di calcolo si dividono in:
ˆ Spazio di memoria: la memoria richiesta, nei termini del numero di caselle del nastro di una MT, per
eseguire un calcolo.
ˆ Tempo: `e il tempo di calcolo, ovvero il numero dei passi necessari per terminare il calcolo. Per passo si
intende una delle azioni atomiche (scrivere, leggere, spostare la testina) di una MT.
In termini generali, un problema `e computazionalmente intrattabile se richiede risorse di calcolo (tempo e
spazio di memoria) che crescono esponenzialmente rispetto alla lunghezza dell’input,
Un problema `e computazionalmente trattabile se richiede risorse di calcolo che crescono al pi`u in
maniera polinomiale rispetto alla lunghezza dell’input
CHOMSKY E LA CRITICA DEL COMPORTAMENTISMO
le mappe cognitive di Tolman  Edward Tolman nel 1948 pubblica un articolo nel quale, in aperta
contrapposizione al comportamentismo, argomenta che il comportamento di orientamento spaziale dei
ratti in un labirinto non si pu`o spiegare unicamente nei termini di associazioni S − R. E necessario
formulare l’ipotesi di che il cervello dei ratti elabori delle “mappe cognitive” che localizzano il rinforzo.
Tolman aveva messo in un punto della gabbia un pezzo di formaggio, raggiungibile attraverso diversi
percorsi; dopo ostruiva i percorsi in alcuni punti cosicché i topi erano costretti a trovare il percorso
obbligato in un labirinto. Le cavie imboccavano alla prima occasione il percorso giusto, mostrando di aver
memorizzato la mappa del labirinto.
COMPORTAMENTO E LINGUISTICA: Chomsky e la critica al comportamentismo
Skinner sosteneva che i bambini acquisissero il linguaggio attraverso un processo per tentativi ed errori,
confermando le singole acquisizioni grazie a rinforzi positivi provenienti da genitori ed educatori. Chomsky
è stato uno dei critici più energici del comportamentismo, poiché sostenne che la struttura grammaticale
del linguaggio `e troppo complessa per essere appreso in questo modo. E tuttavia tutti i bambini al terzo
anno di vita padroneggiano la struttura grammaticale del linguaggio, indipendentemente dal numero degli
stimoli ricevuti. Per Chomsky le regole grammaticali non possono che essere innate.
Ad essere innata `e pi`u precisamente quella che Chomsky chiama grammatica universale, un insieme di
regole morfologiche e sintattiche che caratterizzano universalmente tutte le lingue. La grammatica
universale `e innata e geneticamente determinata.
La GU è realizzata fisicamente in alcune aree del cervello e Chomsky, in questo senso, la definisce
universale un “organo mentale”: `e un organo avente, quale sua funzione, l’elaborazione linguistica;
tuttavia si tratta di un organo mentale (non cerebrale) in quanto le proprietà della grammatica sono
descritte a un livello astratto.
Ma su quali basi Chomsky sostiene che la GU è innata? La sua tesi riposa sull’argomento della povertà
dello stimolo. È un fatto che tutti i bambini giungono nell’arco dei primi tre anni di vita a padroneggiare
senza alcun insegnamento la struttura grammaticale del linguaggio. Dunque il linguaggio non si impara,
ma si acquisisce: si sviluppa secondo tappe programmate geneticamente. Gli esseri umani sono del tutto
inconsapevoli di come sia fatta questa facoltà. Le regole della grammatica costituiscono una forma di
conoscenza tacita: non le conosciamo ma le sappiamo utilizzare. Le regole sono cablate nel nostro
cervello.
(La linguistica identifica le regole della grammatica universale sulla base dei giudizi di accettabilit`a di un enunciato. Per esempio,
pur non conoscendo le regole della grammatica universale sapremo dire che l’espressione ‘il gatto topo il mangia’ non `e
grammaticale mentre `e grammaticale l’espressione ‘il gatto mangia il topo’.

La capacit`a di comprendere o enunciare un’espressione linguistica si base su una rappresentazione interna della grammatica. La
mente contiene delle rappresentazioni delle strutture sintattiche delle frasi, identificabili con il loro albero etichettato. Sono altri
tipi di rappresentazioni mentali le informazioni visive o le informazioni semantiche.)

La grammatica generativa di Noam Chomsky La grammatica generativa si fonda su tre elementi: 1. Un


vocabolario finito 2. Un insieme finito di simboli 3. Un insieme finito di regole di formazione e un insieme
finito di regole di trasformazione (dalla forma attiva a passiva, da frasi atomiche a molecolari).
Le rappresentazioni della mente
La capacit`a di comprendere o enunciare un’espressione linguistica si basa su una rappresentazione
interna della grammatica. La mente contiene delle rappresentazioni delle strutture sintattiche delle frasi,
identificabili con il loro albero etichettato. Sono altri tipi di rappresentazioni mentali le informazioni visive o
le informazioni semantiche.
La teoria di C. fu determinante per la scienza cognitiva per due ragioni. In primo luogo veniva offerto un
esempio di come studiare una capacità mentale. In secondo luogo in essa chomsky elaborava il concetto di
rappresentazione mentale.
Le rappresentazioni mentali sono strutture dentro la testa, codificate nel cervello in qualche modo, che
veicolano certe informazioni. Così come sono rappresentate mentalmente le regole della grammatica,
possono essere rappresentate mentalmente info visive, relative per esempio alla forma o al colore degli
oggetti. Quindi sono le rappresentazioni mentali a spiegare il comportamento.
Produttività del linguaggio una proprietà fondamentale del linguaggio è che con un repertorio limitato di
parole possiamo costruire infinite frasi. La possibilità di fare ciò è nota come produttività del linguaggio.
Essa si spiega con la natura generativa della grammatica. Questo vuol dire che la grammatica è un sistema
di regole che, applicate a unità linguistiche, consentono di generare strutture linguistiche più complesse.
Il mentalismo cognitivista
Per la scienza cognitiva classica la mente `e un sistema rappresentazionale:
ˆ Gli stati mentali rappresentano propriet`a, oggetti, eventi nei termini di una struttura di informazioni
ˆ I processi mentali sono processi di elaborazione dell’informazione che operano su informazione
rappresentazionale
IL FUNZIONALISMO
L’intuizione alla base del funzionalismo è che ciò che caratterizza uno stato mentale (ad esempio una
credenza, un desiderio) non è il modo in cui esso è realizzato fisicamente- da questo o da quel processo
neurofisiologico- bensì è il ruolo o funzione che esso svolge nella vita mentale complessiva di un agente.
Gli stati mentali sono invocati innanzitutto per spiegare il comportamento. È infatti opinione del senso
comune che le nostre azioni siano causate dai nostri scopi o intenzioni, unitamente alle nostre credenze.
Ma gli stati mentali non causano solo comportamenti; essi causano altri stati mentali. Insomma, gli stati
mentali costituiscono una complessa trama di relazioni causa-effetto.
Ne segue allora che il funzionalismo è la tesi secondo cui uno stato mentale è definito dal ruolo causale
che esso svolge nella mente dell’agente.
Il funzionalismo computazionalista
Hilary Putnam nel 1960 pubblica Minds and Machines, articolo nel quale propone di formalizzare il
funzionalismo utilizzando la teoria della computabilit`a effettiva. L’idea è quella di assimilare gli stati
mentali agli stati di una MT. Anche gli stati di una MT sono definiti dal loro ruolo causale. I processi
cognitivi vengono intesi come processi algoritmici al pari dei processi computazionali di una MT.
Riassumendo: Il funzionalismo computazionalista studia stati e processi mentali al pari di stati e processi
di una MT
ˆ Uno stato mentale `e, al pari di uno stato di una MT, uno stato definito dalle relazioni causali tra input,
output, e altri stati funzionali.
ˆ I processi mentali, al pari delle computazioni, hanno una natura astratta e possono cos`ı essere studiate
indipendentemente dallo studio del sistema fisico che le realizza
ˆ Le computazioni mentali sono realizzabili molteplicemente, tanto da sistemi biologici quanto da sistemi
artificiali
La fallacia dell’homunculus: ˆ Come `e possibile che la materia abbia propriet`a semantiche? ˆ Come `e possibile che che un sistema fisico sia
razionale, ovvero che transizioni da stato a stato preservino propriet`a semantiche? Ci deve cos`ı essere “qualcuno” in grado di comprendere il
significato di uno stato mentale (l’homunculus).

Funzionalismo come modello di spiegazione: non meno importante per le scienze cognitive è il
funzionalismo come modello di spiegazione, cioè: l’idea che il modo migliore di studiare il comportamento
intelligente di un agente consista nell’individuare i suoi sottosistemi e scomporre questi ultimi in ulteriori
sottosistemi. Questo è un metodo chiamato analisi funzionale.
Con l’analisi funzionale la scienza cognitiva ha cercato di rispondere alla più importante obiezione che il
comportamentismo ha rivolto all’uso della spiegazione mentalistica in psicologia: il problema
dell’homunculus.
Ogni spiegazione dell’azione intelligente sembra presupporre l’esistenza di un piccolo agente intelligente
dentro la testa delle persone. Prendiamo come esempio la percezione visiva. A tal proposito diversi studiosi
hanno descritto la capacità di vedere sulla base della formazione di una immagine mentale del mondo
esterno. Ma qui ci chiediamo: chi è che osserva l’immagine mentale? Il ricorso all’analisi funzionale per far
fronte al problema dell’homunculus caratterizza il funzionalismo omuncolare, proposta da Dennet e Lycan.
Secondo i filosofi Daniel Dennet e William Lycan, l’analisi funzionale evita il regresso omuncolare: ˆ E vero
che le transizioni da stato a stato di un agente cognitivo artificiale sono processi causali determinati dalle
sole regole sintattiche mentre i processi mentali sono determinati dalle proprietà semantiche degli stati ˆ
Tuttavia, ciascuno stato si pu`o scomporre in un ulteriore sottoprocesso cognitivo, anch’esso determinato
da regole sintattiche; gli stati di ciascun sotto-processo sono a loro volta ulteriormente scomponibili ˆ
L’intelligenza umana `e frutto dell’interazione di intelligenze sempre pi`u specializzate, fino a raggiungere
operazioni psicologiche primitive
Detta in altri termini, la tesi `e che la mente sia analizzabile in tanti sottosistemi, o moduli, che funzionano
come tanti “omuncoli”, ossia meccanismi intelligenti. Ciascun “omuncolo” non `e tale perch´e `e `e a sua
volta scomponibile attraverso l’analisi funzionale nei suoi sottosistemi, fino a giungere alle strutture
neuroanatomiche.
La distinzione personale/subpersonale: I processi di elaborazione dell’informazione sono, per la gran
parte, inconsci (non in senso freudiano) o, come li chiama Dennet, subpersonali; noi siamo coscienti solo di
una piccola parte di essa. La focalizzazione sulla dimensione subpersonale si lega anche a un’altra ragione,
ovvero il riconoscimento dell’inattendibilità dell’introspezione. Su questo scienza cognitiva e
comportamentismo sono d’accordo: l’introspezione `e inattendibile ai fini dello studio dell’elaborazione
subpersonale dell’informazione. Numerosi esperimenti in psicologia sociale hanno fatto vedere che l’idea
di avere un accesso immediato all’interiorità grazie a una presunta capacità introspettiva è illusoria. Quanto
meno le spiegazioni offerte dai soggetti riguardo a quali siano le cause del loro comportamento sono
ricostruzioni razionali confabulatorie a posteriori.
La distinzione personale/subpersonale di Dennet
ˆ A livello subpersonale il comportamento intelligente è spiegato in base a processi di elaborazione di
informazione realizzati neurobiologicamente.
ˆ A livello personale il comportamento `e spiegato sulla base di stati e processi mentali attinti dal
vocabolario della psicologia ingenua.
LA TEORIA COMPUTAZIONAL-RAPPRESENTAZIONALE DELLA MENTE
Rappresentazioni e intenzionalit`a
Le rapp mentali subpersonali sono strutture dentro la testa, codificate nel cervello e che veicolano certe
info. Ma le rappresentazioni mentali sono dotate anche di propriet`a semantiche: rimandano ad un qualche
oggetto del mondo rappresentandolo in qualche modo. Una rappresentazione `e dunque un oggetto
mentale che sta per, che rimanda a. Lo “stare per” e il “rimandare a” definiscono una rappresentazione
come uno stato mentale intenzionale.
Come abbiamo visto analizzando il funzionalismo, uno stato mentale `e definito dal suo ruolo causale. Gli
stati mentali intenzionali sono dunque efficaci causalmente e valutabili semanticamente. Questo fatto pone
una duplice difficoltà alla scienza cognitiva che cerca di mostrare che questi stati sono proprietà del mondo
naturale:
ˆ Non esistono altri esempi di oggetti che siano valutabili semanticamente ed efficaci causalmente. Le due
propriet`a si trovano generalmente separate. Gli enunciati, per definizione, sono valutabili
semanticamente; questi tuttavia, in quanto oggetti astratti, sono privi di efficacia causale. Oggetti naturali
ed artefatti, ad es sedia e tavolo hanno sicuramente poteri causali ma non sono invece valutabili
semanticamente.
ˆ Gli stati mentali agiscono causalmente proprio in virt`u delle loro propriet`a semantiche. È il contenuto di
uno stato di cre- ` denza che causa uno stato di desiderio che, a sua volta, causa un’intenzione. Ad esempio,
`e il mio credere che stia per piovere e il desiderio di non bagnarmi che causa in me l’intenzione di prendere
l’ombrello.
Dunque da un lato le transizioni da uno stato all’altro sembrano costituire una sequenza causale; dall’altro
dato un certo stato intenzionale, saranno le sue proprietà semantiche (contenuto) a determinare quali altri
stati seguiranno da esso. Quindi il contenuto degli stati intenzionali causa altri stati intenzionali.
Se `e il contenuto di uno stato mentale a causare un altro stato mentale allora `e necessario ipotizzare che
ci sia un qualcosa che recepisca il significato dello stato mentale, senza tuttavia ricadere nella fallacia
omuncolare.
Il realismo intenzionale scientifico
Il filosofo Jerry Fodor nel 1975 pubblica un libro dal titolo The Language of Thought; in questo testo
difende una posizione che lui chiama realismo intenzionale scientifico secondo cui:
ˆ la psicologia intenzionale è vera, perché gli stati mentali intenzionali esistono e hanno efficacia causale sul
comportamento.
ˆ questo realismo intenzionale si identifica poi come scientifico quando il filosofo fodor preconizza che una
scienza cognitiva matura formuler`a leggi su stati computazionali che siano valutabili semanticamente,
strutturati sintatticamente, efficaci causalmente.
ˆ Verr`a identificata una corrispondenza tra stati computazionali della scienza cognitiva e gli stati mentali
intenzionali della psicologia di senso comune.
La teoria computazionale e rappresentazionale della mente
Fodor vorrebbe rimuovere gli ostacoli che impediscono la naturalizzazione degli stati e processi
intenzionali. Egli si è impegnato in questa impresa elaborando una teoria:
Fodor, in The Language of Thought (1975) formula la teoria computazional rappresentazionale della mente
(TCRM), che si articola in 3 tesi:
ˆ Una tesi sulla natura degli stati intenzionali: gli stati intenzionali mentali sono rappresentazioni.
ˆ Una tesi sulla natura dei processi intenzionali: i processi intenzionali mentali sono computazioni su
rappresentazioni.
ˆ Una tesi sul fondamento naturalistico dell’intenzionalità: è possibile naturalizzazione l’intenzionalit`a.
Causalità e intenzionalità: Fodor sostiene che ci sia in realt`a un altro esempio di entit`a che sia efficace
causalmente e valutabile semanticamente: il testo scritto.
Consideriamo di scrivere l’enunciato ‘La Terra `e un pianeta’. L’enunciato scritto:
ˆ E un oggetto materiale (ha propriet`a spazio-temporali). `
ˆ Ha efficacia causale (per ex. riflette la luce, esercita attrazione gravitazionale).
ˆ E valutabile semanticamente (`e vero se e solo se la Terr`a `e un ` pianeta).
Per Fodor gli stati mentali hanno propriet`a semantiche e causali alla stregua dei simboli di un linguaggio
scritto. Le rappresentazioni mentali sono dunque come simboli di un linguaggio del pensiero. Fodor
chiama questa teoria linguaggio del pensiero.
Per Fodor il pensiero condivide con il linguaggio due importanti propriet`a: la produttivit`a e la
sistematicit`a:
ˆ Produttivit`a: l’applicazione di regole ricorsive a rappresentazioni atomiche o molecolari d`a luogo a
rappresentazioni molecolari di complessit`a crescente.
Come esempio di regola ricorsiva, consideriamo la regola di introduzione della congiunzione: - Se ‘A’ `e un
enunciato e ‘B’ `e un enunciato, allora anche ‘A e B’ `e un enunciato
ˆ Sistematicit`a: i processi mentali accedono alla struttura delle rappresentazioni del linguaggio del
pensiero. Il pensiero, come il linguaggio, `e costituito da parti che si combinano tra loro secondo una
sintassi. Queste parti sono atomiche e si riferiscono a oggetti del mondo esterno (o propriet`a di questi).
Le parti sono infine composizionali: il significato di una rappresentazione molecolare `e funzione del
significato delle sue parti atomiche.
Connettere sintassi e semantica: Per spiegare come un meccanismo fisico possa preservare le propriet`a
semantiche Fodor parte dall’assunto che, in quanto processi computazionali, i processi mentali sono intesi
come sequenze causali di trasformazioni di rappresentazioni guidate da regole sensibili unicamente alla
forma sintattica delle rappresentazioni. Questo assunto `e detto vincolo di formalit`a.
Per Fofor vincolo di formalit`a e l’analisi funzionale permettono alla TCRM di evitare definitivamente il
ricorso all’homunculus. La TCRM spiega l’intelligenza senza presupporre l’agire intelligente: il vincolo di
formalit`a permette di spiegare un processo computazionale facendo riferimento al solo piano sintattico;
l’analisi funzionale riduce tutti i processi cognitivi alle operazioni elementari della struttura neurobiologica
che li realizza
SECONDA PARTE: La modularit`a della mente e la tesi della modularit`a massiva
Il neuroscienziato Marr (1945-1980) sostenne che l’analisi fisiologica della cervello non `e sufficiente per
spiegare come il sistema nervoso centrale realizzi le proprie funzioni cognitive, ma solo per descrivere le
attivit`a del cervello stesso.
I tre livelli di spiegazione di Marr: per spiegare un processo cognitivo `e necessario considerare tre livelli
di analisi:
1. Livello computazionale: il livello computazionale specifica la funzione che il sistema cognitivo compie e
ne specifica lo scopo.
2. Livello algoritmico: specifica come viene eseguito il compiti neitermini di rappresentazione di input e
output e l’algoritmo per la loro trasformazione.
3. Livello del wetware cerebrale: specifica come sono realizzati fisicamente rappresentazioni e algoritmi.
La teoria della visione: Marr ha spiegato il sistema visivo umano ai tre livelli da lui identificati:
ˆ Livello computazionale. La visione umana ha come scopo quello di riconoscere la forma e la posizione di
un oggetto a partire dalle immagini retiniche. L’input `e dato dall’informazione fornita dai fotorecettori
della retina, l’output dalla rappresentazione simbolica della forma dell’oggetto presente nell’ambiente.
ˆ Livello algoritmico. Il riconoscimento della forma e della posizione di un oggetto avviene attraverso una
catena di stadi di elaborazione:
1. Schizzo primario grezzo: l’input visivo `e una matrice di valori di intensit`a luminose nella quale vengono
individuati i contorni di un oggetto tramite un algoritmo che determina sbalzi di luminosit`a.
2. Schizzo primario ricco: raggruppa elementi simili in modo da comporre unit`a piccole in unit`a pi`u
grandi, formando cio`e linee, curve e contorni chiusi pi`u ampi. E eseguito da algoritmi che ` operano in
accordo a leggi gestaltiche (prossimit`a, similarit`a, chiusura, continuit`a di direzione).
3. Schizzo 2 1 2D: esplicita l’orientamento e la profondit`a delle superfici, `e centrato sull’osservatore. Sono
calcolate sulla base di indici come la disparit`a binoculare, il movimento, l’ombreggiatura.
4. Rappresentazione 3D: `e ottenuta attraverso un processo topdown che applica allo schizzo 2 1 2D modelli
3D memorizzati; questi modelli sono rappresentazioni centrate sull’oggetto anzich´e sull’osservatore.
ˆ Livello del wetware cerebrale. Le cellule gangliari della retina, le “cellule X” presenti nel corpo genicolato
laterale e le “cellule semplici” presenti nella corteccia striata realizzano il processo che determina gli sbalzi
di luminosit`a

LA MENTE MODULARE IN MARR


Marr analizza il sistema visivo scomponendolo nei sotto-processi computazionali autonomi, proponendo
una visione modulare della mente, secondo la quale ogni computazione `e suddivisa in sotto-processi
specializzati e semi-indipendenti. L’organizzazione modulare della mente `e frutto dell’evoluzione per
selezione naturale. Tuttavia, in scienza cognitiva questa accezione di modulo coesiste con un’altra per cui
un modulo è una base di conoscenza rappresentante internamente, che guidano l’esecuzione di una certa
capacità cognitiva. Queste basi di conoscenze sono specifiche per dominio, ossia strutture psicologiche
impiegate per risolvere una classe limitata di problemi in un dominio di contenuto ben definito. Chomsky è
il nome più associato a questo tipo di modularità.
Moduli chomskiani: Un modulo `e una base di conoscenze rappresentate internamente che guidano l’esecuzione di una certa capacit`a cognitiva. ˆ
Specifico per dominio (modulo chomskiano, o modulo rappresentazionale), impiegato per risolvere una classe circoscritta di problemi
computazionali ˆ Generale per dominio, utilizzato per risolvere una classe eterogenea di problemi computazionali

Esempio di modulo rappresentazionale `e il modulo deputato all’elaborazione linguistica, che consiste nei
principi della grammatica universale rappresentati “dentro la testa” di chi parla o ascolta. Si tratta di un
insieme di rappresentazioni specifiche per dominio perch´e si applicano esclusivamente al dominio
dell’elaborazione linguistica. Chomsky ritiene che ci`o che `e stato detto per la grammatica generativa e il
modulo del linguaggio debba valere anche per altri moduli, come la visione, il ragionamento, il
riconoscimento delle facce, o la comprensione della fisica ingenua.
Con la nozione di modularità rappresentazionale C. va contro Piaget. Secondo il costruttivismo epigenetico
nello stato iniziale dello sviluppo cognitivo la struttura della mente è povera: a partire da un insieme di
riflessi innati, le interazioni sensomotorie del bambino con l’ambiente sono governate da 3 meccanismi
(accomodazione, assimilazione e equilibrazione), che danno luogo al potenziamento progressivo della
capacità di risolvere problemi in qualsiasi dominio. Invece nella prospettiva modularistica lo sviluppo
cognitivo è un processo che segue traiettorie distinti in domini differenti.
Moduli computazionali
Per Marr invece un modulo `e un meccanismo computazionale; anch’essi si possono distinguere in:
ˆ Meccanismi specifici per dominio (modulo computazionale): calcola i problemi relativi ad un modulo
specifico per dominio
ˆ Meccanismi generali per dominio: le sue operazioni riguardano diversi domini di contenuto
Moduli rappresentazionali: La recente ricerca sullo sviluppo ontogenetico e filogenetico della cognizione
ha ipotizzato l’esistenza di almeno 5 moduli rappresentazionali che sono universali, cio`e non variano al
variare del linguaggio, della cultura o del sesso, e condivisi con altri animali. Ciascuno di questi moduli
fornisce principi per individuare le entit`a appartenenti al suo dominio e per fare inferenze su di esse. Si
ipotizzano in particolare un modulo per la fisica ingenua, la psicologia ingenua, la matematica ingenua,
l’orientamento spaziale e un modulo per il riconoscimento degli individui del proprio gruppo.
I vincoli i
Gi`a Marr aveva sostenuto che la visione `e soggetta a dei vincoli naturali; il sistema visivo fa per esempio
degli assunti sulle propriet`a geometriche dell’oggetto per ridurre il numero di possibili interpretazioni di
un’immagine retinica, aumentando cos`ı la trattabilit`a computazionale dell’elaborazione dell’immagine.
I vincoli condizionano l’elaborazione dell’informazione anche degli altri moduli. Facendo riferimento al solo
modulo della fisica intuitiva possiamo identificare:
ˆ Vincolo di coesione: asserisce le superfici appartengono ad un unico oggetto se e solo se sono in contatto
fra loro.
ˆ Vincolo di continuit`a: gli oggetti non scompaiono; pertanto se un oggetto si sposta dal punto A al punto B
deve farlo descrivendo una traiettoria continua nello spazio.
ˆ Vincolo di solidit`a: gli oggetti si muovono lungo traiettorie distinte nello spazio e nel tempo; le traiettorie
non possono intersecarsi; dato un punto, per questo possono passare un solo oggetto per volta.
ˆ Vincolo di contatto: un oggetto può influenzare il comportamento di un altro solo se entra in contatto con
esso.
Dunque, riassumendo, bambini di pochi mesi sanno che gli oggetti fisici, non animati, sono coesi, si
muovono lungo traiettorie continue e possono agire l’uno sull’altro solo per contatto fisico. Questa fisica
intuitiva è un modulo rappresentazionale, ovvero un sistema di conoscenze specifiche per il dominio degli
oggetti manipolabili e dei loro movimenti.
MODULI FODORIANI: Un modulo rappresentazionale è però una struttura inerte, nel senso che produce
un comportamento solo se viene manipolata da un meccanismo computazionale. Tale meccanismo sarà
specifico per dominio se il suo compito è quello di calcolare una classe ristretta di input. Sarà invece
generale per dominio se le sue operazioni attraversano domini di contenuto. Questi meccanismi
computazionali specifici per dominio sono stati denominati “moduli computazionali”.
Qualora un modulo rapp sia consultabile solo da un particolare modulo comp, i due moduli possono
essere considerati una unità. Un modulo, così come intende Fodor, è un meccanismo di questo tipo.
Per Fodor un modulo è un’unit`a composta da un modulo chomskiano e un modulo computazionale
(modulo fodoriano).
I moduli fodoriani godono delle seguenti propriet`a:
ˆ Isolamento informativo: i moduli possono avere accesso agli output di un dato modulo ma non alle sue
operazioni interne di elaborazione.
ˆ Obbligatoriet`a: il modulo esegue obbligatoriamente il calcolo ogni qualvolta riceve inputs.
ˆ Incapsulamento informativo: le computazioni di un modulo sono svolte utilizzando unicamente la sua
base dati, il modulo non ha accesso a informazioni pi`u generali disponibili al resto del sistema cognitivo in
cui `e integrato.
ˆ Velocit`a di esecuzione: grazie all’incapsulamento e all’obbligatoriet`a, la velocit`a di elaborazione di un
sistema modulare `e maggiore della velocit`a di un sistema non modulare.
ˆ Realizzazione neuronale fissa: gli stessi moduli sono realizzati sempre dagli stessi circuiti neuronali; `e
un’ipotesi indotta dal fatto che i moduli sono stati selezionati geneticamente.
ˆ Danneggiabilit`a selettiva: il danneggiamento ad un determinato circuito neuronale comporta una
disfunzione unicamente rispetto alla funzione implementata dal modulo in oggetto; `e una conseguenza
dell’incapsulamento informativo e della realizzazione neuronale fissa.
-Maturazione endogena: lo sviluppo dei moduli segue traiettorie specifiche, determinate da fattori
endogeni come i geni.
L’incapsulamento informativo `e una delle propriet`a pi`u importanti di un modulo fodoriano. Un caso
emblematico di incapsulamento informativo `e quello dei meccanismi della percezione che, nella loro
elaborazione, non possono accedere alle credenze e conoscenze dell’agente, ma soltanto agli stimoli visivi
in ingresso. Questo fatto spiega il fenomeno delle illusioni.
LA TEORIA DELLE IMMAGINI MENTALI `E esperienza comune che, in alcuni casi, ragioniamo “per
immagini”, riproducendo esperienze simili alla percezione visiva, seppur meno dettagliate. Per i
sostenitori della TCRM l’esperienza di utilizzare immagini mentali apparterrebbe al piano personale; ad
essa corrisponde, sul piano subpersonale, un’elaborazione rappresentazionale che manipola simboli del
linguaggio del pensiero.
A partire dalla fine degli anni Sessanta alcuni scienziati cognitivi hanno mostrato come l’esecuzione di
determinati compiti cognitivi sia meglio spiegabile ipotizzando la manipolazione di rappresentazioni figurali.
Esperimenti: la rotazione mentale e l’esperimento di ispezione.
Il visual buffer di Kosslyn: Kosslyn ha sostenuto che il processo di formazione e utilizzazione di
un’immagine mentale `e simile alla visualizzazione di un’immagine sullo schermo di un computer. Nel
caso di un calcolatore un’immagine `e codificata e memorizzata in memoria; un software di lettura
immagini decodifica l’immagine e la visualizza sullo schermo del calcolatore. Allo stesso modo, ipotizza
Kosslyn, le rappresentazioni figurali vengono immagazzinate in una versione linguistica nella memoria a
lungo termine e visualizzate in un registro visivo (visual buffer), una sorta di schermo interno nel quale
l’immagine `e visualizzata in modo da preservare la struttura e le relazioni spaziali dell’oggetto
rappresentato.
Il visual buffer sarebbe utilizzato anche dai processi percettivi; alcuni degli algoritmi coinvolti nei sotto-
processi dell’elaborazione visiva sarebbero coinvolti anche nei processi immaginativi. Ci`o spiegherebbe
la somiglianza tra l’esperienza immaginativa e la percezione. Questo fatto sarebbe anche confermato da
recenti studi neuropsicologici che hanno messo in luce come deficit percettivi sono spesso associati a
deficit nelle capacit`a immaginative e come alcune aree visive primarie si attivino anche durante i
processi immaginativi.
LA TEORIA DEI MODELLI MENTALI Secondo lo psicologo Johnson-Laird anche il ragionamento `e basato su
un modello mentale del ragionamento, che permette una rappresentazione dello stato di cose descritto
nelle premesse e nel quale si “vede” la conclusione.
Per esempio, nel caso del ragionamento spaziale, un semplice argomento del tipo “se il rombo `e alla
sinistra del quadrato e alla destra de triangolo, allora il triangolo `e alla sinistra del quadrato”, verrebbe
costruita una rappresentazione concreta dell’inferenza.
Per modello mentale Johnson-Laird intende una qualunque forme di visualizzazione di uno stato di cose,
può assumere varie forme (schemi, immagini mentali, tabelle). È essenziale che i modelli siano ` isomorfi
agli stati di cose.
Johnson-Laird estende in un secondo momento la sua teoria dei modelli mentali alla comprensione delle
espressioni linguistiche. Un’enunciato `e compreso in una prima fase attraverso una rappresentazione
proposizionale dell’enunciato (simile ad una espressione del linguaggio del pensiero di Fodor); solo in una
seconda fase viene poi costruito un modello mentale isomorfo allo stato di cose descritto dall’enunciato.
LA COGNIZIONE CENTRALE
Secondo Fodor la modularità riguarda solo alcuni sistemi periferici di input e output, deputati a funzioni
quali la percezione visiva e uditiva, il riconoscimento delle facce, l’elaborazione del linguaggio e il controllo
motorio. Non è invece modulare la cognizione centrale, ossia i processi cognitivi definiti su atteggiamenti
proposizionali come la fissazione delle credenze e la presa di decisione.
I processi computazionali per Fodor devono essere incapsulati informativamente per poter essere
computazionalmente trattabili. La cognizione centrale ha una natura globale, non locale, ed `e pertanto
computazionalmente intrattabile.
A questa convinzione fodor giunge attraverso una analogia tra la cognizione centrale e la conferma
scientifica:
ˆ Entrambe sono isotropiche: qualunque conoscenza pu`o corroborare o falsificare un’ipotesi scientifica;
allo stesso modo qualunque conoscenza, proveniente da qualsiasi parte del sistema di credenze, pu`o
corroborare o falsificare la credenza di un soggetto.
ˆ Entrambe sono olistiche: la conferma di un’ipotesi scientifica dipende dalla relazione strutturale che tale
ipotesi ha con il sistema teorico di cui fa parte; allo stesso modo, la conferma di una credenza dipende dalla
relazione strutturale che essa ha con altre credenze.
Il problema della trattabilit`a computazionale della cognizione centrale
I processi computazionali cognitivi, per essere trattabili, devono elaborare una quantit`a limitata di
informazione. I moduli fodoriani, essendo incapsulati informativamente, sono computazionalmente
trattabili. I processi della cognizione centrale invece, essendo isotropici e olistici, non sono trattabili in
quanto hanno un accesso potenzialmente illimitato ai contenuti della memoria centrale.
Si pone dunque un vincolo di località. I processi computazionalmente trattabili devono essere locali nel
senso che devono limitarsi a consultare un limitato database di info pertinenti a quelle computazioni e
ignorare ogni altra info presente nella mente. In breve, l’incapsulamento garantisce la trattabilità. Tuttavia
i processi centrali, in quanto isotropici e olistici, non rispettano il vincolo di località. Dunque gli
atteggiamenti centrali definiti sugli atteggiamenti proposizionali non sono trattabili. Allora sembra che il
progetto fodoriano di naturalizzare la psicologia degli atteggiamenti proposizionali non riesca a sottrarsi alla
fallacia dell’homunculus.
L’IPOTESI DELLA MODULARITA’ MASSIVA
Una strategia per evitare, ancora una volta, il regresso omuncolare `e estendere la tesi della modularit`a
alla cognizione centrale.
Per i sostenitori dell’ipotesi della modularit`a massiva, non esiste un’intelligenza generale per dominio.
La cognizione poggia su un gran numero di moduli, ciascuno frutto di uno specifico percorso evolutivo.
I moduli di questo tipo sono chiamati moduli darwiniani. Secondo Carruthers (2006) ci`o che distingue i
moduli darwiniani dai moduli fodoriani che i primi sono incapsulati in senso ampio, mentre quelli fodoriani
in senso stretto. Un modulo `e incapsulato in senso ampio se, durante la sua computazione, pu`o consultare
informazioni di altri moduli purch`e in un numero limitato per ogni unit`a di tempo. Questo permetterebbe
da un lato la scomposizione della cognizione centrale in differenti moduli; l’incapsulamento in senso ampio
garantirebbe la rapidit`a di esecuzione e la trattabilit`a computazionale.
Modularit`a massiva ed eliminativismo: L’ipotesi della modularit`a massiva porta a negare il realismo
intenzionale scientifico fodoriano: non c’`e pi`u spazio per il piano funzionale personale degli atteggiamenti
proposizionali, ma sono un’elaborazione modulare subpersonale. Insieme al realismo intenzionale
scientifico viene meno la possibilit`a di conciliare la psicologia ingenua con il funzionalismo
computazionalista. Secondo alcuni questa sarebbe una forma di eliminativismo degli atteggiamenti
proposizionali.
Obiezioni i
L’ipotesi della modularit`a massiva `e ancora oggetto di discussione. Sono state sollevate alcune obiezioni.
Una prima
1. Non viene specificata nel dettaglio la reale organizzazione modulare e le propriet`a dei singoli moduli
(specificit`a per dominio, incapsulamento etc.)
2. L’incapsulamento in senso ampio non `e un vero incapsulamento nella misura in cui un modulo in senso
ampio pu`o accedere, in principio, a qualunque altra informazione del sistema cognitivo di cui `e parte.
3. Quando si identifica un problema adattativo, non si sempre si pu`o stabilire se si sia sviluppato un
modulo computazionale o un modulo rappresentazionale. Secondo alcuni, esisterebbero meccanismi
computazionali generali per dominio che operano su moduli rappresentazionali specifici per dominio.
4. Davanti all’identificazione di un modulo computazionale (insieme di meccanismi computazionali), non
sempre si sa se il suo dominio di applicazione sia la cognizione centrale o periferica.

Potrebbero piacerti anche