Sei sulla pagina 1di 376

Campi del sapere/Feltrinelli

Mente umana
mente artificiale
A cura di Riccardo Viale
Testi di M.A. Boden, D.C. Dennett, D. Davidson,
K. Wilkes, D. Marconi, G. Lolli, R. Viale,
K.H. Pribram, C. Blakemore, V. Braitenberg,
G. Palm, V. Somenzi, G. Gava, R. Cordeschi,
F. Di Trocchio, A. Fasolo, M. Minsky,
T. Poggio, P.N. Johnson-Laird, P. Morasso,
V. Tagliasco, B.G. Bara, A. Carassa,
G. Geminiani, D. Parisi.
Campi del sapere/Filosofia

Mente umana, mente artificiale


a cura di Riccardo Viale
Importanti contributi della ricerca teorica ed empirica si sono andati
accumulando in questi ultimi anni, smentendo lo scetticismo con cui
era trattato il progetto multidisciplinare della scienza cognitiva.
Nata sul dogma dell’uomo elaboratore di informazioni, in stretta
analogia al calcolatore, tale scienza si è occupata di studiare i
meccanismi, le procedure, le regole di elaborazione del messaggio
informativo dal momento in cui entra nel corpo umano a quando ne
esce, si è occupata cioè di svelare il tabù comportamentista del
contenuto della misteriosa “scatola nera”.
Diversi sono stati i livelli e gli angoli visuali con cui si è cercato di
raggiungere l’obiettivo: filosofico, linguistico, psicologico, biologico e
informatico. A questi differenti livelli è stata collegata anche l’iniziale
contrapposizione tra due programmi di ricerca per lo studio della
mente, a prima vista inconfrontabili: da una parte il riduzionismo
neurobiologico e cibernetico, dall’altra il programma
linguistico-materialistico e informativo. Oggi la multidisciplinarità di
un tempo tende a diventare sempre di più interdisciplinarità e anche
la vecchia contrapposizione tra i due programmi si può considerare in
parte superata.
Significativa, al riguardo, è una famosa metafora di David Marr: come
è impossibile capire il volo di un uccello esamindandone le penne delle
ali soltanto, ma è necessario conoscere i vincoli e le limitazioni cui è
sottoposto e come esso riesca a neutralizzarli nel superare la gravità e
volare, così per capire la mente non è sufficiente avere conoscenza di
un solo livello, ma si deve essere capaci di descrivere le risposte dei
neuroni, di predire i risultati degli esperimenti di psicologia e di
scrivere un programma al calcolatore che analizzi e interpreti i
risultati ottenuti precedentemente.
Il volume Mente umana, mente artificiale compie un ulteriore passo in
avanti in questa direzione.

ISBN 88-07-10123-8

Lire 40.000 9 788807 1 01 236


Campi del sapere/Feltrinelli
Mente umana
mente artificiale
A cura di Riccardo Viale

Testi di M.A. Boden, D.C. Dennett,


D. Davidson, K. Wilkes, D. Marconi,
G. Lolli, R. Viale, K.H. Pribram,
C. Blakemore, V. Braitenberg, G. Palm,
V. Somenzi, G. Gava, R. Cordeschi,
F. Di Trocchio, A. Fasolo, M. Minsky,
T. Poggio, P.N. Johnson-Laird, P. Morasso,
V. Tagliasco, B.G. Bara, A. Carassa,
G. Geminiani, D. Parisi.


Feltrinelli
Traduzione dall'inglese di
GIAN ALDO ANTONELLI

© Giangiacomo Feltrinelli Editore Milano


Prima edizione in "Campi del sapere" novembre 1 989
ISBN 88-07-101 23-8
Prefazione
di Riccardo Viale

Dall'anno 1986, data in cui è iniziata la preparazione di


questo volume, la scienza cognitiva è andata relativamente
caratterizzandosi come "tradizione di ricerca" (à la Laudan).
In essa l'attività di soluzione di problemi empirici e teorici,
le tecniche e gli standard metodologici, le ipotesi teoriche
centrali, le leggi e le generalizzazioni empiriche sono andate
costituendosi, in una certa misura, in "unità globale", carat­
terizzata da una relativa coerenza e integrazione tra i vari li­
velli. Vi è stato inoltre anche un interessante ampliarsi dei
confini d'indagine della scienza cognitiva a campi disciplina­
ri che sembravano distanti come le scienze sociali ed econo­
miche (si pensi alle recenti ricerche di economia sperimenta­
le sul comportamento razionale del consumatore) o la meto­
dologia della scienza (si faccia riferimento agli studi empiri­
ci di psicologia cognitiva della scienza sulle caratteristiche
deduttive e induttive, sui pregiudizi e sulle fallacie del "com­
portamento metodologico" dello scienziato).
Rimane però sempre vivo nella scienza cognitiva un dua­
lismo di fondo ben evidente fin dalle origini. Si ricordi infat­
ti che quella che è considerata la data di nascita di questa di­
sciplina è il 1948 con il famoso seminario della Hixon Foun­
dation al California Institute of Technology su "I meccani­
smi cerebrali nel comportamento" che vide la partecipazione
di importanti ricercatori come von Neumann, McCulloch e
Lashely interessati ad analizzare il problema dei rapporti tra
calcolatore e cervello e quello del cervello come elaboratore
di informazione. La scienza cognitiva iniziò quindi con un'i­
potesi teorica centrale di tipo "hardwarista" (e bottom-up)
mirante alla riproduzione dei processi cognitivi umani attra­
verso tentativi di modellizzazione, tecnologicamente realizza-

VII
bili, dell'architettura neuronale del sistema nervoso centra­
le. L'ipotesi teorica centrale poteva essere riassunta nell'as­
serzione condizionale seguente: "Se l'intelligenza è espressio­
ne dell'attività neuronale, allora 'se è possibile la riproduzio­
ne artificiale di questa attività essa sarà in grado di produr­
re un comportamento intelligente' ". Negli anni seguenti assi­
stiamo però a un progressivo abbandono di questa ipotesi
non tanto per una negazione dell'"antecedente" del condizio­
nale, quanto per la constatata impossibilità teorica e tecno­
logica a realizzare la riproduzione artificiale dell'attività
neuronale (da cui però, come ci insegnano le condizioni di
verità dell'implicazione, non è possibile dedurre né la nega­
zione dalla possibilità che un'architettura neuronale artifi­
ciale possa realizzare un comportamento intelligente né
quella che l'intelligenza sia espressione dell'attività neurona­
le). Infatti, attraverso varie tappe esemplificate dal semina­
rio del 1956 al Darthmouth College con la partecipazione di
Newell, Simon, Minsky e McCarthy, in cui venne coniato il
termine Intelligenza Artificiale, dal simposio del 1956 sulla
"teoria dell'informazione" al MIT con la partecipazione di
Chomsky, Miller e Simon e dal Cognitive Science Project del
1975 della Sloan Foundation, la scienza cognitiva, pur non
rinnegando la premessa teorica del programma "hardwari­
sta", si è concentrata fino a un recente passato nello studio
da un punto di vista simbolico e computazionale dell'elabo­
razione dell'informazione, del software, senza preoccupazio­
ni per la somiglianza o meno dell'hardware utilizzato con
l'architettura del sistema nervoso centrale umano e utiliz­
zando un modello topdown di studio delle attività mentali (si
parte da funzioni simboliche di livello superiore e si tenta di
scomporle in sottofunzioni di livello inferiore e così via).
Oggigiorno assistiamo però a un impetuoso ritorno del pro­
gramma "hardwarista" rappresentato dal "connessionismo".
Pur non rifiutando la validità, in alcuni domini, dell'approccio
simbolico e computazionale, il "connessionismo" propone di
superare molti dei problemi che affliggono l'Intelligenza Arti­
ficiale, come la difficoltà di soluzione dei problemi "aleatori",
non strutturati e non definibili algoritmicamente (ad esempio,
il riconoscimento di un oggetto irregolare come un albero o
un'impronta digitale) attraverso la costruzione di hardware
che riproducano l'architettura delle reti neuronali. Questo cal­
colatore neuronico sarebbe dotato di apprendimento sponta­
neo, che gli consentirebbe di stabilire per ciascuna soluzione
del problema una configurazione univoca di collegamenti neu­
ronici e non avrebbe quindi bisogno di un programma che defi­
nisca formalmente il problema stesso e la sua soluzione.

VIII
Il presente volume, pur non affrontando l'attuale contro­
versia nell'Intelligenza Artificiale tra approccio "connessioni­
sta" e simbolico, di fatto si inserisce in questo dibattito ana­
lizzando la validità delle premesse epistemologiche e metodo­
logiche dei due programmi rivali.
Nell'analisi del rapporto tra mente, cervello e calcolatore
si è assistito in questi anni a due principali tipi di riduzioni­
smo: della mente al calcolatore e della mente al cervello.
Nel primo tipo di riduzionismo (tema conduttore della pri­
ma parte del volume) il calcolatore da metafora, analogia e
modello della mente è diventato, per alcuni autori, "la" teoria
della mente. Tralasciando le molte analogie negative, il calco­
latore è diventato teoria idealizzata degli stati mentali. L'uso
delle idealizzazioni è una caratteristica costante della metodo­
logia della scienza. Per astrarsi dai dettagli della realtà e per
introdurre entità non descrivibili empiricamente, la scienza
utilizza idealizzazioni nella costruzione di teorie, leggi e con­
cetti. Lo iato tra idealizzazioni e realtà viene colmato, nel mo­
mento della spiegazione e predizione, dall'introduzione di con­
dizioni iniziali e di regole di corrispondenza o principi ponte.
Le difficoltà sorgono quando ci troviamo di fronte a idealizza­
zioni inadeguate e/o quando non riusciamo a definire comple­
tamente tutte le condizioni iniziali e i principi ponte necessari
a colmare il gap tra astrazione e realtà empirica. Nel caso del
calcolatore come teoria della mente, ci si imbatte in questo ge­
nere di difficoltà. Si cerca infatti di ridurre tutte le operazioni
mentali a operazioni primitive semplificate del tipo "controlla
se c'è una corrispondenza" oppure "muovi l'elemento dall'ne­
simo all'mesimo posto". Le uniche attività mentali concesse da
tale idealizzazione sono quelle cognitive. Le competenze psico­
logiche diventano solo quelle che ammettono l'elaborazione di
rappresentazioni simboliche. Le capacità emozionali, motiva­
zionali, sensorie e motorie vengono di conseguenza relegate ai
margini, in quanto la teoria della mente come calcolatore ha
grosse difficoltà a spiegarle. Non si riesce a rendere conto del­
le caratteristiche olistiche o quasi olistiche della dimensione
psicologica, non soltanto percettiva. Alcuni gravi problemi
dell'Intelligenza Artificiale dimostrano in maniera evidente
l'inadeguatezza della teoria della mente come calcolatore. Ad
esempio le difficoltà legate al frame problem evidenziano l'in­
capacità del calcolatore a manipolare ciò che per l'uomo è as­
sunto tacitamente e implicitamente come la conoscenza del
senso comune e quella di sfondo o quella che dipende dallo
scopo e dal contesto problematico.
Paradossalmente, se un ruolo importante il calcolatore ha
avuto nello studio della mente umana, questo è stato, oltre

IX
che nella simulazione di alcune attività mentali più specifi­
camente simboliche, come il ragionare deduttivo, soprattut­
to nel focalizzare l'attenzione su funzioni psicologiche "sem­
plici" che non venivano considerate degne di eccessivo inte­
resse scientifico. Ad esempio chi avrebbe mai detto che fosse
così complicato il riconoscimento delle configurazioni, del
linguaggio naturale, la soluzione di problemi "aleatori", la
coordinazione occhi-mano, ecc . ? I tentativi, spesso fallimen­
tari, di simulazione al calcolatore di queste, che si credeva­
no, semplici attività mentali dell'uomo, hanno messo in evi­
denza la loro estrema complessità teorica.
Alla teoria della mente come calcolatore è legata anche la
risposta data nella scienza cognitiva a un altro problema
fondamentale (tema conduttore della seconda parte del li­
bro): che tipo di hardware ha bisogno la mente? I teorici del­
la mente come calcolatore in genere sono a favore di una re­
lativa autonomia della mente dal substrato neurofisiologico
del cervello. Si propende a sostenere (come fa Fodor) soltan­
to un'identità token-token - tra stati mentali e cerebrali.
Ogni stato mentale si identifica nell'uomo con uno stato ce­
rebrale, ma questa identità non è generale - type-type- ma
contingente e singolare. Non è quindi la proprietà mentale
che si identifica con la proprietà cerebrale. E possibile che
altri substrati materiali e dispositivi fisici possano produrre
l'attività mentale come, ad esempio, il calcolatore. Di conse­
guenza le neuroscienze non hanno da dire molto riguardo le
generalizzazioni della psicologia.
La tesi della relativa autonomia del mentale incontra og­
gigiorno serie difficoltà. Si tende a riconoscere che lo studio
dell'attività mentale presenta diversi livelli di analisi e di de­
scrizione e non è ancora chiaro quale sia il livello in cui le
caratteristiche del substrato materiale risultino indifferenti.
Ad esempio, l'importanza del substrato materiale potrebbe
cominciare a essere fondamentale a un livello molto più "mi­
ero" (ad esempio, intraneuronale) di quanto creda il sosteni­
tore di un'identità token-token. Vi è la possibilità reale che le
spiegazioni psicologiche affondino le radici nella struttura
neurofisiologica e che la simulazione di alcune capacità men­
tali dipenda non tanto dal modo in cui il meccanismo è pro­
grammato quanto da quello in cui il programma è meccaniz­
zato. È possibile quindi che l'unica riduzione interessante
sia proprio quella negata dai cognitivisti cioè quella del men­
tale al cerebrale.
Una teoria neurofisiologica della mente non sarebbe però
scevra da pericoli e difficoltà, soprattutto se avesse la prete­
sa "eliminatoria" di sostituire ogni concetto e termine psi-

x
cologico con concetti e termini primitivi neurofisiologici. In­
fatti il linguaggio funzionale della psicologia (ad esempio ter­
mini funzionali come desiderio, volontà, emozione, tristezza,
ecc.) è difficilmente riducibile e scomponibile. Potrebbe però
essere più abbordabile una riduzione di tipo "derivativo" in
cui si cercasse di trovare una corrispondenza tra stati psico­
logici e stati neurofisiologici particolari. Per conseguire una
tale riduzione derivativa sarebbero però necessarie due con­
dizioni: l) è necessario avere due teorie esplicitamente e pre­
cisamente formulate, sufficientemente corroborate, con ter­
mini con significato non ambiguo; 2) è necessario stabilire
dei principi ponte, delle identità tra termini dell'una e termi­
ni dell'altra. Una riduzione di questo tipo è però attualmente
impossibile per mancanza sia della prima come della secon­
da condizione data l'arretratezza delle conoscenze a disposi­
zione in campo neurobiologico e psicologico.
Collegato a questo approccio bottom-up di riduzione della
psicologia alla neurofisiologia troviamo l'attuale programma
"connessionistico". Esso muove dall'ipotesi che l'elaborazio­
ne delle informazioni sia svolta essenzialmente dall'intera­
zione di un gran numero di unità semplici e che la computa­
zione sia una questione di connessioni appropriate piuttosto
che di trasmissione di informazioni simboliche. I modelli
"connessionistici" sono quindi modelli esemplificati delle re­
ti neuronali. Il Parallel Distributed Processing di Rumelhart
e McClelland è alla ricerca della "microstruttura della cogni­
zione" da cui poi la "macrostruttura" potrebbe essere inferi­
ta come insieme di proprietà emergenti. In definitiva viene
operata un'inversione nell'uso del calcolatore. Esso non vie­
ne utilizzato (in senso top-down) per la simulazione dell'atti­
vità mentale, ma come modello reale dell'architettura neuro­
nale che sia in grado di simulare le microstrutture cognitive
del cervello.
Ciò si inserisce nel tema conduttore della terza parte del
volume: quali sono le vie per l'analisi computazionale delle
attività mentali ? Come abbiamo visto prima, ogni tentativo
di riduzione radicale presenta serie difficoltà. Come è impos­
sibile, secondo Marr, capire il volo di un uccello esaminando
solo le penne delle ali, ma è necessario analizzare i vincoli e
le limitazioni della gravità al volo e come l'uccello riesca a
superarli, così, per capire la visione, non è sufficiente occu­
parsi solo della neurofisiologia della visione, ma è necessa­
rio individuare una teoria che renda conto delle limitazioni,
dei vincoli che si oppongono alla visione e di come è possibi­
le neutralizzarli. Non è sufficiente avere conoscenza di un
solo livello, ma si deve essere capaci di descrivere le risposte

XI
dei neuroni, di predire i risultati degli esperimenti di psicofi­
sica e di scrivere un programma al calcolatore che analizzi e
interpreti gli input visivi nel modo desiderato.
In definitiva sembra si possano individuare tre principali
livelli di spiegazione della mente: il primo, quello della "teo­
ria computazionale" in cui si cerca di rispondere a domande
di "cosa" e "perché" viene computato, ad esempio del modo
in cui nella visione un'immagine a due dimensioni è in rap­
porto con un mondo tridimensionale; il secondo, quello "al­
goritmico" che specifica "come" una computazione viene ese­
guita, come si passa da un dato input a un dato output, ad
esempio al modo in cui viene eseguita la stereoscopia; il ter­
zo, quello dell"'implementazione" dell'algoritmo cioè del
substrato materiale, del meccanismo che produce la compu­
tazione, ad esempio il substrato neurofisiologico della visio­
ne stereoscopica.
Questo volume, pur nella pluralità delle voci, rappresenta
e descrive questa evoluzione delle ricerche nella scienza co­
gnitiva verso una maggiore attenzione, integrazione e inter­
disciplinarità dei vari livelli di analisi dell'attività mentale,
opposta a qualsiasi pretesa imperialistica di riduzione "eli­
minatoria" di un livello rispetto agli altri.
Il volume Mente umana, mente artificiale deriva princi­
palmente dalle relazioni tenute al convegno "Mente umana,
mente artificiale" organizzato a Torino nel 1 985 dall'Istituto
di Metodologia della scienza e della tecnologia di Torino e
dall'Assessorato alla Cultura della Regione Piemonte. Le re­
lazioni hanno subito in alcuni casi profonde modifiche e in
altri casi sono state sostituite da saggi scritti appositamente
per questo volume. Le versioni definitive sono state presen­
tate entro febbraio del 1988. Si ringraziano gli autori per la
collaborazione data al curatore.
Un riconoscimento particolare per il contributo dato alla
realizzazione del Convegno va a Maria Todaro, Marcello La
Rosa e Angelo Petroni dell'Istituto di Metodologia della
scienza e della tecnologia di Torino e a Maria Antonietta Ric­
chiuto e a Alberto Vanelli dell'Assessorato alla Cultura della
Regione Piemonte.
Un sentito ringraziamento va a Filippo Macaluso che ha
promosso e permesso le prime fasi del progetto editoriale e
a Salvatore Veca che ha compreso il valore scientifico del vo­
lume e ne ha sostenuto la pubblicazione.
Il volume è pubblicato con un contributo dell'Assessorato
alla Cultura della Regione Piemonte.

XII
Parte prima

Epistemologia della mente e simulazione


La simulazione della mente al calcolatore
è socialmente dannosa?

di Margaret A. Boden

Tre secoli fa, Spinoza fece la sconvolgente affermazione


(resa nota solo dopo la sua morte) che una psicologia scienti­
fica, pienamente coerente con la nostra conoscenza del mec­
canismo corporeo, fosse in linea di principio possibile. Egli
accusava i propri oppositori di sottovalutare le potenzialità
del modello meccanico: "Essi non sanno che cosa possa fare
il corpo, né quali deduzioni si possano trarre dalla sola con­
siderazione della sua natura." L'Illuminismo vide la pubbli­
cazione, da parte del conte de la Mettrie, di un libro (L 'ho m­
me machine) dal titolo altrettanto scandaloso, allora, quanto
certi titoli a sensazione dei nostri quotidiani. E un centinaio
di anni dopo l'eccentrica lady Ada Lovelace (figlia del fami­
gerato lord Byron) sostenne che dalla Macchina Analitica di
Charles Babbage si potesse far derivare un dispositivo capa­
ce di svolgere anche computazioni diverse da quelle matema­
tiche: ad esempio quelle richieste per "comporre elaborati
scientifici e brani di musica, di qualsivoglia grado di com­
plessità o estensione" .
È chiaro, quindi, che non vi è nulla d i nuovo nel conside­
rare, da un punto di vista filosofico, la mente simile a un
meccanismo. La novità risiede invece nel fatto che quest'idea
oggi non è più riservata a pochi intelletti audaci, ma permea
il lavoro quotidiano di molti psicologi teorici, impegnati nel­
lo sviluppo di precise teorie, computazionalmente specifica­
te, della visione, del linguaggio e del pensiero. Simulando al
calcolatore i processi psicologici, essi usano la tecnologia
dell'ultimo scorcio del ventesimo secolo per verificare la lun­
gimirante intuizione di lady Lovelace che un meccanismo
per il trattamento dell'informazione "potrebbe operare su
oggetti diversi dai numeri, se si trovassero oggetti le cui rela-

3
zioni reciproche fondamentali fossero esprimibili per mezzo
di quelle della scienza astratta delle operazioni, oggetti che
dovrebbero essere inoltre adattabili all'azione della notazione
operativa e del meccanismo della macchina".
Ciononostante, tali idee vengono ancora ampiamente per­
cepite come sconvolgenti. Il fatto che persino sulla rivista
"Playboy" siano comparsi articoli intitolati La mente della
macchina indica come quest'ultima espressione sia ancora in
grado di provocare un certo brivido. La maggior parte delle
persone è profondamente scettica sulla possibilità che i cal­
colatori possano simulare la mente umana; per molti già la
semplice idea è chiaramente assurda. Per di più, il loro scet­
ticismo e il loro scherno sono di solito accompagnati dal ti­
more. Oggi le teorie che assimilano la mente a un meccani­
smo appaiono anche più minacciose di quanto apparissero
secoli fa simili riflessioni: e questo proprio perché sono ora
disponibili risultanze più convincenti.
Naturalmente, la maggior parte delle persone non cono­
sce nei particolari le teorie psicologiche che si fondano su
idee computazionali. In verità, dopo i primi tentativi di simu­
lazione della mente al calcolatore (verso la fine degli anni
quaranta), e per tutti e tre i decenni successivi poco trapelò
al grande pubblico; e anche gli studenti di psicologia assai
difficilmente potevano entrare in contatto con queste idee.
Negli ultimi due o tre anni, tuttavia, la simulazione al cal­
colatore di funzioni mentali è diventata improvvisamente di
dominio pubblico. Vi sono ancora manuali di psicologia che
non ne fanno menzione (ma corsi sull'argomento fioriscono
un po' in tutto il mondo); è comunque difficile, ora, ignorar­
la, almeno come progetto tecnologico, se non come teoria o
metodologia psicologica esplicitamente sostenuta.
La tecnologia in questione è quella dell'Intelligenza Artifi­
ciale; essa ha lo scopo di mettere i calcolatori in grado di fa­
re lo stesso tipo di cose che riesce a fare la mente dell'uomo.
L'attenzione del pubblico si è destata dopo la sfida commer­
ciale e politica del progetto giapponese per i calcolatori di
"quinta generazione", annunciato per la prima volta nell'ot­
tobre del 1981; ma gli inizi devono essere fatti risalire a più
di trent'anni fa, a quello stesso gruppo di scienziati che ori­
ginariamente sviluppò modelli psicologici al calcolatore. Sia
da un punto di vista concettuale, sia da un punto di vista sto­
rico, quindi, l'Intelligenza Artificiale è strettamente connes­
sa con le teorie psicologiche che pongono una similitudine
fra la mente e la macchina.
In forza di queste connessioni, alcune delle paure che
questa nuova tecnologia ha fatto sorgere sono ugualmente ri-

4
volte alla psicologia teorica che fa uso di simulazioni al cal­
colatore. Qui possiamo tranquillamente trascurare la paura
di applicazioni in stile "Grande Fratello" o di altri abusi, così
come gli effetti potenziali sulla qualità e la quantità dell'oc­
cupazione di manodopera. Ciò che conta è che l'uomo della
strada, nella grande maggioranza dei casi, crede che l'Intelli­
genza Artificiale sia la negazione dei tratti specifici e delle
peculiarità essenziali dell'essere umano, e ciò a causa delle
conseguenze teoriche di tale disciplina a proposito della na­
tura della mente umana. In altre parole, la maggioranza te­
me che, se permettiamo che l 'immagine dell'uomo sia forgia­
ta a somiglianza del calcolatore, i valori umani debbano pas­
sare in secondo piano o essere del tutto negati.
Questa reazione culturale all'Intelligenza Artificiale, ben­
ché forse eccezionalmente risentita, non è nuova: la scienza e
la tecnologia sono state spesso considerate essenzialmente
disumanizzanti. Gli psicologi e i filosofi "umanisti", in gene­
rale, non ritengono che le scienze (o, almeno, le scienze natu­
rali) siano uno strumento adatto all'indagine della mente.
Dal loro punto di vista, ammesso che la psicologia sia una
"scienza", non lo è certo nello stesso senso in cui lo sono la
fisica la neurofisiologia.
Questa reazione affonda le radici nel cuore della filosofia
europea di tradizione continentale. Max Weber, Wilhelm Dil­
they e Jiirgen Habermas sono solo alcuni dei pensatori che
hanno posto una netta distinzione tra il comprendere inter­
pretativo (o Verstehen), da essi considerato necessario per le
scienze ermeneutiche o per quelle sociali, e l'atteggiamento
oggettivo, esternalizzato, tipico delle scienze naturali. È una
linea di pensiero che ha avuto un'influenza profonda anche
su quanti non avevano mai nemmeno sentito nominare l' "er­
meneutica", l' "empirismo", o alcuno di questi pensatori. La
versione vulgata di queste distinzioni filosofiche ha animato
la "controcultura" antiscientifica dei primi anni settanta.
Opere assai lette e discusse come il libro Where the waste­
land ends, di Theodore Roszak, hanno propugnato (in modo
alquanto indiscriminato) valori umanistici e religiosi come
forma d'opposizione alla razionalità tecnologica che costitui­
sce il fondamento della società industriale.
Nell'ambito della psicologia teorica, l'adesione a questo
tipo di idee non è stata universale, e tanto meno esse sono
condivise quanto più ci si avvicina a una concezione "scienti­
fica" della psicologia. Il comportamentismo ha preso a mo­
dello le scienze naturali, manifestando una netta avversione
per concetti di tipo mentalistico. Persino Freud, che indub­
biamente propugnava un metodo ermeneutico, credeva che

5
in ultima istanza, a livello filosofico, termini imbarazzanti
come "scopo" e "scelta" potessero essere ridotti a eventi ce­
rebrali descrivibili con la terminologia oggettiva della neuro­
logia.
Vi sono tuttavia anche psicologi, come quelli di orienta­
mento fenomenologico, esistenziale o etogenico, che non han­
no espunto dalle loro teorie i concetti soggettivi, e molti di
essi hanno criticato la crescente influenz� della scienza e
della tecnologia nel mondo moderno. Si tratterebbe, secondo
costoro, di un problema immediatamente pratico, non di una
sottigliezza filosofica che si possa ignorare senza danno: le
teorie nelle scienze del comportamento stanno in una rela­
zione costitutiva, e non semplicemente descrittiva, con la
realtà sociale. Le teorie sociali influenzano il modo in cui
concepiamo noi stessi e il nostro potenziale umano: cambian­
do l'immagine che abbiamo di noi stessi, esse ci cambiano.
Le ipotesi, spesso inconfessate e largamente inconsce, ri­
guardo a quel che gli esseri umani sono e possono essere,
contribuiscono a determinare la nostra vita quotidiana per
l'intima connessione che le lega alla nostra morale e al no­
stro morale.
Nel 1 959, nel corso di una conferenza sulla psicologia esi­
stenziale, lo psicologo Rollo May riferì che i problemi dei
suoi pazienti erano in gran parte dovuti al fatto che essi non
si consideravano capaci di scelta e di azione coscientemente
diTetta a un fine. Secondo Rollo May ciò era da imputare al­
la diffusa tendenza scientista che porta a paragonare l'uomo
alla macchina. Certo May non poteva riferirsi all'influenza
dell'Intelligenza Artificiale, che allora era ai suoi inizi, nota
solo a un piccolo gruppo di iniziati. Se scrivesse oggi, tutta­
via, quasi certamente May la criticherebbe e, così come fece
allora, ricondurrebbe i problemi psicologici dei suoi pazienti
"agli aspetti disumanizzanti della scienza moderna che tra­
sformano l'uomo a immagine della macchina, a immagine
delle tecniche con cui lo studiamo".
Non è necessario istituire un paragone esplicito fra l'uo­
mo e la macchina, benché naturalmente ciò avvenga spesso.
Il messaggio implicito nelle scienze naturali è abbastanza
chiaro: poiché nella fisica non c'è posto per concetti come
quelli di scopo, scelta, credenza, azione e, soprattutto, sogget­
tività, essa implicitamente incoraggia teorie dell'uomo e del
mondo in cui tali concetti sono ugualmente banditi.
Denunciando la tendenza della scienza a "minare l'espe­
rienza che l'uomo ha di se stesso come essere responsabile, a
corrodere alla base la sua capacità di decisione e il suo vole­
re", May non sosteneva un'istanza puramente teorica; al con-

6
trario, riferiva conseguenze largamente diffuse che egli ave­
va avuto modo di osservare nei suoi pazienti. Insidiosamente
incoraggiati dalle convinzioni scientifiche prevalenti a consi­
derarsi indifesi, questi si erano rivolti a lui per avere un aiu­
to concreto. Del resto non è necessario origliare al lettino
dello psicoterapeuta per rendersi conto degli effetti umani (o
inumani) di una visione del mondo apertamente "razionale" e
strettamente "scientifica": li possiamo constatare facilmente
in certe istituzioni politiche, o in certi ambienti di lavoro.
Sappiamo che qualunque persona diventa sempre meno di­
sposta ad accettare responsabilità se non le si dà mai l 'occa­
sione di scegliere, se la si porta a credere di non esserne ca­
pace, o a pensare che qualunque decisione abbia preso risul­
terà indifferente. Sappiamo bene, inoltre, quanto risentimen­
to possa provocare l'essere trattati "come una macchina", o
quanta frustrazione derivi dal mancato riconoscimento o va­
lutazione del proprio potenziale umano.
Non deve sorprendere, allora, che le teorie psicologiche
fondate sull'analogia con il calcolatore non ispirino alcuna
fiducia: esse instillano il timore di un impoverimento del­
l 'immagine dell'uomo, ne indeboliscono lo spirito e lo fanno
sentire impotente di fronte alle sfide della vita. Se la psicolo­
gia teorica ci dice che "non siamo altro che macchine", ne se­
gue, o almeno così sembra, che le pratiche sociali e gli atteg­
giamenti personali che conferiscono valore alle qualità speci­
fiche del genere umano non sono altro che illusioni senti­
mentali. Quanto più la psicologia computazionale guadagna
terreno nell'ambiente accademico e l'Intelligenza Artificiale
si afferma come tecnologia, tanto più, sembra, tali pratiche e
atteggiamenti ne risultano svalutati.
La diffusione dei modelli della mente al calcolatore deve
necessariamente avere questa influenza sociale negativa?
Nel chiedercelo dobbiamo ricordare l'avvertimento spinozia­
no a non sottovalutare le potenzialità del meccanismo: la di­
sumanizzazione tanto temuta è inevitabile solo se le teorie
computazionali risultano in linea di principio incapaci di
spiegare l'origine di proprietà mentali a partire dal mecca­
nismo.
Rispetto ai tempi di Spinoza, oggi certo riteniamo che un
"meccanismo" possa fare assai di più. Già alla metà del ven­
tesimo secolo, una concezione fondamentalmente materiali­
stica del corpo umano e delle sue funzioni biologiche e psico­
logiche si era affermata fra le persone meno scientificamen­
te sprovvedute. Gli anni trenta e quaranta, in particolare,
avevano visto Alan Turing e Norbert Wiener gettare semi
che avrebbero ben presto fruttificato. Wiener aveva definito

7
la cibernetica come la scienza "del controllo e della comuni­
cazione nell'animale e nella macchina": quest'espressione,
che avrebbe deliziato l'autore settecentesco dell'Homme ma­
chine, era il sottotitolo del libro di Wiener. Turing, per par­
te sua, con i suoi risultati sulle "procedure effettive" astrat­
tamente considerate, aveva dimostrato la praticabilità dell'i­
dea di lady Lovelace secondo cui un meccanismo avrebbe
potuto effettuare anche calcoli non numerici a condizione
che "si trovassero oggetti le cui relazioni reciproche fonda­
mentali fossero esprimibili per mezzo di quelle della scienza
astratta delle operazioni, oggetti che dovrebbero essere inol­
tre adattabili all'azione della notazione operativa e del mec­
canismo della macchina".
La generalizzazione della cibernetica alla psicologia com­
piuta da Wiener era, tuttavia, più una promessa che una
teoria scientifica compiuta. E chi dubita può non lasciarsi
convincere nemmeno da dimostrazioni astratte, se queste si
fondano su asserti condizionali (come quello appena citato)
che sono in se stessi problematici. Solo se le procedure ef­
fettive possono svolgere computazioni non numeriche è pos­
sibile, in linea di principio, la meccanizzazione del pensiero.
La difesa del potenziale del meccanismo in generale risulta
più efficace se è sostenuta dalla dimostrazione che un parti­
colare tipo di macchina fornisce effettivamente certe presta­
zioni, che possono venire spiegate dallo scienziato.
Mentre i neurofisiologi sperano di riuscire a fornire pri­
ma o poi questo tipo di dimostrazioni per quanto riguarda
le varie funzioni del cervello, gli informatici dedicano atten­
zione alle proprietà computazionali dei calcolatori elettroni­
ci, e gli psicologi che fondano le loro teorie su modelli al
calcolatore, infine, usano questa macchina per illustrare le
proprie affermazioni sulle funzioni psicologiche del cer­
vello.
Le critiche alla simulazione della mente mediante calco­
latore sono principalmente rivolte contro quest'assunto fon­
damentale. Secondo lo spirito di queste critiche, se a Ger­
trude Stein fosse mai capitato di dire "una macchina è una
macchina, è una macchina. . . ", si sarebbe sbagliata. Il cervel­
lo è una macchina di tipo assai particolare, e il fatto che
possa compiere funzioni psicologiche non prova che anche i
calcolatori ne siano capaci. Invero (così prosegue l'obiezio­
ne), quasi certamente non lo sono, essendo fondamentalmen­
te diversi dal cervello. I calcolatori, compresi quelli usati
per la simulazione della mente, sono dispositivi digitali, se­
riali, generali, mentre il cervello è una macchina analogica,
parallela, specializzata.

8
È ancora una questione aperta se le funzioni della mente
umana richiedano necessariamente il cervello, ovvero possa­
no essere compiute anche da modelli per calcolatore che del
cervello condividono certe proprietà essenziali. Nella pratica
della ricerca il pendolo oscilla fra la prima risposta e la se­
conda, e viceversa. Come vedremo, fra le ragioni di quest'o­
scillazione ve ne sono alcune che possono far luce su quelle
tematiche della "disumanizzazione" e della "soggettività" che
costituiscono l'oggetto principale di queste pagine.
Il più chiaro esempio di quest'oscillazione è costituito
dalla simulazione al calcolatore della visione. Mentre agli al­
bori della ricerca sulla visione si tentava di riprodurre il
funzionamento parallelo del cervello umano, in seguito que­
sto tipo di ricerca cadde in disgrazia e si preferì, per qualche
tempo, seguire un'impostazione del tutto differente. Recente­
mente, tuttavia, si è tornati a studiare con attenzione alcuni
dei tratti caratteristici del cervello umano, tanto nell'ambito
della psicologia teorica quanto in quello dell'Intelligenza Ar­
tificiale. Infatti, il tecnico, così come lo psicologo, ha bisogno
di sapere come un sistema visivo riesca a formare descrizio­
ni accurate degli oggetti del mondo esterno, avendo in in­
gresso solo la luce, o l'immagine. Com'è possibile, ad esem­
pio, vedere qualcosa come un cubo o come un orsacchiotto,
oppure percepire un oggetto in quanto lontano un paio di
metri, lungo circa trenta centimetri, avente una superficie on­
dulata, chiazzata, inclinata rispetto al terreno?
I primi tentativi di simulazione della visione mediante
calcolatore, ancora in gran parte ispirati a una concezione
del cervello risalente agli anni cinquanta, produssero dispo­
sitivi di elaborazione in parallelo simili a una semplice rete
neuronale. Ciascuno di questi programmi (in grado di rico­
noscere configurazioni semplici) era composto da diverse
unità indipendenti per il trattamento dell' informazione, det­
te "demoni", coordinate da un "demone-capo". Ogni demone
di basso livello sovraintendeva a una singola parte della con­
figurazione, con il compito di inviare un messaggio al demo­
ne-capo in caso ne rilevasse la presenza. Un demone era libe­
ro di "urlare" o "bisbigliare" , a seconda della probabilità e
dell'importanza del proprio messaggio, ma non aveva alcun
modo di influenzare il volume del messaggio dei suoi vicini.
Compito del demone-capo era quello di individuare la confi­
gurazione generale, sulla base dei messaggi in arrivo dai vari
demoni subordinati. Se tali messaggi, ad esempio, avessero
rilevato la presenza di due linee orizzontali e una verticale
aventi determinate relazioni spaziali reciproche, sarebbe sta­
ta segnalata la presenza di una "F".

9
Vi è una chiara analogia fra questi demoni monofunzio­
nali e le cellule per la "rilevazione di caratteri" della cortec­
cia visiva, che reagiscono (ad esempio) solo a una linea con
un certo orientamento o a un profilo in moto lungo una par­
ticolare direzione. Furono proprio questi primi modelli al
calcolatore a suggerire ai neurofisiologi la possibilità che si­
mili rilevatori di caratteri esistessero, stimolandone così la
ricerca. E ciò mostra come i modelli computazionali di pro­
cessi psicologici possano qualche volta portare un contribu­
to allo studio del cervello, ponendo l'accento più sulle unità
funzionali che su quelle materiali.
L'abbandono di questi primi modelli va ricondotto all'an­
cora insufficiente identificazione delle funzioni computazio­
nali richieste dalla visione. Nonostante fossero apparente­
mente organizzati in modo simile a quello del cervello, essi
erano radicalmente incapaci di vedere (descrivere) oggetti
solidi come cubi od orsacchiotti. Questi modelli potevano
bensì distinguere alcune configurazioni, ma non interpretar­
le, non disponendo di alcuna conoscenza riguardo alla proie­
zione di oggetti tridimensionali sul piano. La visione, in ge­
nerale, non è mero riconoscimento di forme ma interpre tazio­
ne di immagini: perciò non basta elencare e classificare le
possibili proprietà di una forma per riprodurre la visione.
Non appena ci si rese conto di ciò, il pendolo iniziò l'o­
scillazione contraria: cioè furono abbandonati i modelli di
reti neuronali e la ricerca si rivolse all'interpretazione visiva,
in cui le immagini non sono ridotte a forme, ma sono conce­
pite come rappresentazioni del mondo reale.
Queste interpretazioni (costruite minuziosamente in ogni
singolo passo e realizzate su calcolatori digitali non specia­
lizzati) trovavano fondamento e giustificazione nella geome­
tria proiettiva, che descrive in che modo certi oggetti solidi
appaiano all'osservatore secondo i diversi punti di vista. Si
giunse così a scrivere programmi per l' "analisi di scene"
(contrapposta al "riconoscimento di forme") che incorpora­
vano conoscenze geometriche sistematiche sulle possibili
corrispondenze fra lo spazio bidimensionale e quello tridi­
mensionale. Questi programmi usavano la conoscenza imma­
gazzinata per elaborare corrette interpretazioni tridimensio­
nali di oggetti dati per mezzo di rappresentazioni bidimen­
sionali. Per esempio, il disegno di un cubo sarebbe stato ri­
conosciuto come rappresentazione di un cubo.
In generale, un programma per l'analisi di scene era in
grado di interpretare il disegno di quei tipi di oggetti per cui
disponeva già della conoscenza necessaria. Si faceva uso di
conoscenza ad alto livello riguardante una certa classe di og-

10
getti per guidare l'interpretazione visiva: in un certo senso
questi programmi "sapevano cosa cercare" nell'immagine bi­
dimensionale. L'idea di fondo era che percependo un cubo,
ad esempio, inconsciamente usiamo la nostra conoscenza sul
modo in cui i diversi angoli appaiono in un'immagine (o in
un disegno) del cubo.
Non è un caso che io abbia insistito sul cubo, piuttosto che
sull'orsacchiotto, che pure avevo menzionato. Il fatto è che gli
orsacchiotti risultavano del tutto invisibili alla macchina che
conduceva l'analisi della scena: il calcolatore non riusciva
nemmeno a riconoscerli come oggetti solidi. Ancor meno esso
era in grado di riconoscere un orsacchiotto come qualcosa
(anche se qualcosa cui non poteva essere attribuito alcun no­
me) avente una morbida superficie pelosa dal profilo irregola­
re e due lucenti protuberanze in prossimità di un estremo.
L' "invisibilità" degli orsacchiotti aveva tre ragioni. In
primo luogo, la semplice geometria proiettiva impiegata per­
metteva di descrivere profili diritti, ma non profili curvi. In
secondo luogo, questi modelli dovevano essere pre-program­
mati fornendo loro dettagliate informazioni su ciò che avreb­
bero visto: poiché non erano stati istruiti (né avrebbero potu­
to esserlo) sull'aspetto degli orsacchiotti, non avevano modo
di identificare curve e superfici sporgenti. Infine, i program­
mi per l'analisi di scene non potevano percepire profondità,
orientamento o consistenza superficiale localizzata. Così
nemmeno un cubo ricoperto di tessuto (come quelli che si
danno ai neonati) avrebbe potuto essere descritto da uno di
questi programmi come "peloso", né, se è per questo, un cu­
bo di plastica avrebbe potuto essere descritto come "liscio".
Queste deficienze radicali stanno per essere largamente
superate ora che il pendolo oscilla di nuovo verso modelli
più simili al cervello. Di nuovo, l'enfasi cade sull'elaborazio­
ne parallela, nel quadro di reti di unità elementari altamente
specializzate.
Vi sono tuttavia tre importanti differenze fra i sistemi
"connessionistici" di oggi e le "reti neuronali" degli anni cin­
quanta: ogni singola unità (ogni demone) di un sistema con­
nessionistico dà un'interpretazione tridimensionale dell'im­
magine puntuale bidimensionale che gli viene sottoposta. Ta­
li unità, inoltre, non sono indipendenti, ma ognuna di esse
può influenzare il "volume" della comunicazione del proprio
vicino per mezzo di una retroazione (o feedback) simile ai
processi di eccitazione e inibizione che hanno luogo fra i
neuroni del cervello umano. Le unità, infine, sono specifica­
mente progettate e interconnesse, facendo riferimento a una
potente teoria generale dell'interpretazione delle immagini.

11
La teoria implicita nelle nuove macchine "cerebrali" è la
fisica della formazione d'immagine e i principi ad essa asso­
ciati della corrispondenza fra lo spazio bidimensionale e
quello tridimensionale. Questi ultimi descrivono il modo in
cui la luce viene riflessa da superfici aventi proprietà fisiche
diverse, tenendo conto di parametri quali l'orientamento del­
la superficie rispetto all'osservatore, la sua distanza rispetto
all'occhio (ovvero le sue due distanze differenti rispetto ai
due occhi).
La superficie complessiva di ogni oggetto fisico può esse­
re pensata come suddivisa in molte piccole areole, ciascuna
delle quali di solito ha caratteristiche simili a quelle delle
areole vicine. Così un'areola pelosa sulla superficie del cor­
po di un orsacchiotto è di solito circondata da altre areole
pelose, e una translucida è circondata da altre areole con la
stessa proprietà. La sola eccezione a questa regola si ha in
prossimità degli "occhi", o degli "artigli" dell'orsacchiotto, di
solito di vetro. Ne segue che punti vicini dell'immagine ten­
dono ad avere caratteristiche simili, così che i punti di di­
scontinuità dell'immagine spesso corrispondono a confini
reali fra oggetti distinti del mondo.
Spesso, ma non sempre. In un mondo in cui esistono cani
dalmata, non ogni punto di evidente discontinuità può essere
interpretato correttamente come una distinzione fisica. Le
macchie bianche e nere sul mantello di un cane dalmata non
sono oggetti distinti: esse appartengono alla medesima su­
perficie fisica e devono essere attribuite al medesimo ogget­
to (il cane).
Ma le chiazze sul mantello di un dalmata assai di rado
coincidono esattamente con il contorno del suo corpo, e così
i punti (bianchi o neri) sul contorno di chiazze confinanti si
trovano di solito alla stessa distanza dall'osservatore. Allora
è possibile distinguere i confini delle chiazze dai reali con­
torni dell'oggetto purché almeno alcune delle unità visive
possano interpretare i punti dell'immagine in riferimento al­
la loro distanza dall'osservatore e influenzare le interpreta­
zioni fornite dai rilevatori di chiazze. Solo se le unità in gra­
do di rilevare la distanza segnalano, per la posizione esami­
nata, una differenza di profondità nello spazio tridimensio­
nale, il sistema visivo interpreterà una differenza di colore
come un contorno corporeo, piuttosto che come un segno
sulla medesima superficie, cioè come una chiazza.
L'interpretazione tridimensionale complessiva a cui il si­
stema perviene è di solito corretta, perché la retroazione tra
le singole unità tiene conto delle "possibilità fisiche" delle
immagini in generale. Con ciò si intende dire che le connes-

12
sioni eccitatorie e inibitorie che collegano le diverse unità
permettono a ciascuna di influenzare la "sonorità" della co­
municazione delle altre, producendo così un messaggio glo­
bale coerente.
Questo tipo di sistema visivo, quindi, è in linea di princi­
pio capace di identificare persino un cane dalmata su uno
sfondo bianco e nero. A questo scopo, si deve poter distin­
guere una chiazza nera dell'immagine, causata da una mac­
chia nera del mantello del cane, da una chiazza nera dell'im­
magine, immediatamente contigua alla prima, ma corrispon­
dente a una macchia della superficie su cui si trova il cane.
Supponiamo che alcune unità abbiano descritto questa parte
dell'immagine come "una" chiazza nera (perché nell'immagi­
ne è così che appare); ora, se i rilevatori di distanza avessero
identificato in quella stessa area due zone di diversa profon­
dità, essi potrebbero comunicare alle unità per la rilevazione
delle chiazze interessate un messaggio inibitorio, bloccando
la segnalazione di "una" chiazza (ascrivibile a "una" superfi­
cie). Analogamente, le unità preposte alla rilevazione dei con­
torni di un oggetto sulla base della profondità verrebbero fa­
cilitate dalla segnalazione di materiali di diversa consistenza
ai lati della linea che separa zone a profondità diverse. Un si­
stema visivo siffatto (del tutto analogamente a quanto fa un
essere umano) avrebbe meno difficoltà a riconoscere un cane
dalmata su un pavimento di piastrelle bianche e nere piutto­
sto che su un tappeto peloso dello stesso colore.
L'oscillazione teorica di cui abbiamo discusso suggerisce
che qualsiasi sistema visivo capace di porre corrispondenze
affidabili fra lo spazio bidimensionale e quello tridimensio­
nale deve essere organizzato in modo più o meno simile a
quello del cervello. I più recenti modelli per calcolatore de­
vono la loro "cerebralità" alla loro capacità di elaborazione
parallela, che fa uso di unità analogiche (capaci di comunica­
re in modo più o meno "sonoro") specializzate nel riconosci­
mento di certi aspetti dell'immagine (le unità che possono
vedere la profondità sono cieche alle linee e ai colori). At­
tualmente questi sistemi sono realizzati su calcolatori digita­
li, ma presto saranno disponibili potenti macchine ad archi­
tettura parallela.
La psicologia della visione ha fatto molti progressi, grazie
a questo modo di affrontare il problema, anche se molte que­
stioni rimangono aperte. Ad esempio, è molto migliorata la
nostra conoscenza della stereopsi (il tipo di visione in pro­
fondità che sfrutta la differenza tra le immagini che si pre­
sentano ai due occhi). Questo non perché i modelli al calcola­
tore abbiano fatto emergere nuovi fatti fisiologici, ma per-

13
ché ora comprendiamo molto meglio ciò che un sistema
stereottico deve fare, e il modo in cui potrebbe farlo. Que­
ste idee potrebbero portare un contributo anche alla neu­
rofisiologia, aiutando il fisiologo a identificare meccanismi
cerebrali psicologicamente rilevanti (come nel caso, già
menzionato, dei rilevatori di caratteri costituiti da una so­
la cellula).
In breve, l'oggetto della psicologia non è il cervello, ma
che cosa esso è in grado di fare. Ciò che è psicologicamente
importante, in una "macchina" capace di distinguere un cane
dalmata su un tappeto pezzato, non è il materiale di cui essa
è costituita (si tratti di protoplasma o di chip di silicio), ma
il modo in cui tale materiale è organizzato e le funzioni com­
putazionali che può compiere. Tali funzioni, e la conoscenza
incorporata nella macchina (le regole generali di corri­
spondenza tra spazio bidimensionale e spazio tridimensiona­
le), permettono di costruire rappresentazioni corrette di og­
getti posti sullo sfondo di un tappeto. Queste rappresentazio­
ni interne mediano i giudizi e le credenze del sistema riguar­
do agli oggetti esterni: permettono, ad esempio, di determi­
nare tanto la posizione in cui gli oggetti si trovano quanto le
loro dimensioni, e queste credenze possono influenzare le de­
cisioni del sistema sul modo migliore di aggirare l'oggetto
senza inciamparvi. Inoltre, se il sistema disponesse di cono­
scenze specifiche sui cani dalmata, esso potrebbe anche rico­
noscere alcuni di questi oggetti come cani dalmata.
Le scienze naturali non si occupano di funzioni computa­
zionali, né di conoscenza, rappresentazioni e simili; bisogna
quindi riconoscere che (come hanno sempre sostenuto gli
umanisti) esse non possono fornire gli strumenti adatti per
lo studio della mente. La psicologia, invece, è radicalmente
diversa dalla fisica e dalla neurofisiologia.
Queste scienze non riescono a esprimere il fatto che per­
sone diverse possano vedere il mondo in modi diversi, che le
azioni di qualcuno differiscano da quelle di un altro a causa
di diverse posizioni politiche o priorità personali, o anche
semplicemente a causa di esperienze culturali diverse. Nel
vocabolario (e negli schemi esplicativi) delle scienze naturali,
quindi, non si possono nemmeno formulare domande su tali
questioni; tantomeno ad esse si può dare risposta. Si spiega
così perché esse siano ignorate, o respinte come sentimenta­
lismi futili, da coloro che condividono una visione del mondo
scientifica. Nel migliore dei casi, esse sono relegate nella sfe­
ra della letteratura o della poesia: ottime per un piovoso po­
meriggio domenicale, purché sia chiaro che non hanno nulla
a che spartire con la scienza seria.

14
Viceversa, la concezione della mente come sistema com­
putazionale esalta le nostre credenze e i nostri valori, che di­
vengono così cruciali, da un punto di vista psicologico. Tali
credenze e valori (tanto quelli personali quanto quelli più
largamente diffusi) impregnano e mediano le nostre perce­
zioni, azioni e decisioni. Chi non crede che i dalmata siano
cani bianchi e neri non riuscirà a identificare il dalmata ac­
cucciato sul tappeto, anche se è in grado di riconoscerlo co­
me oggetto solido, o persino come un cane. E chi non si fa
scrupolo di calpestare i cani può ritenere trascurabili le in­
formazioni sulla posizione del cane quando si muove per at­
traversare la stanza. In generale, come dicono gli umanisti,
siamo creature soggettive, o, come una volta disse un collega
abituato al linguaggio degli informatici, "abitiamo le nostre
strutture-dati".
Con ciò non si vuole sminuire il meccanismo. Anzi, ne
apprezziamo sempre più le possibilità, quando i più recenti
modelli per calcolatore ci mostrano come sia possibile, per
certe macchine particolari, effettuare complesse distinzioni
visive. Ma è comprensibile che chi conosce soltanto "mac­
chine" di tipo non computazionale (come le automobili, o le
macchine per scrivere) si senta degradato se la scienza lo
classifica come "(nient'altro che) una macchina". Non sor­
prende che a questo paragone i pazienti di Rollo May si sia­
no ribellati, nei modi autodistruttivi che egli ha descritto.
Tutt'altra faccenda è essere paragonati a uno dei sistemi
computazionali di cui si occupano gli psicologi.
Ma non tutte le nostre capacità mentali sono state com­
prese appieno, o simulate al calcolatore. Come avrebbe po­
tuto dire lady Lovelace, gli psicologici teorici non sono an­
cora riusciti a esprimere le "relazioni reciproche fondamen­
tali" dei processi mentali per mezzo di "quelle della scienza
astratta delle operazioni" . Anche ammettendo che ciò sia in
linea di principio possibile, non ci si arriverà certo in tempi
brevi, perché la mente umana è di gran lunga più ricca di
quanto si pensi. Molti "umanisti" riescono a intuire le sotti­
gliezze della mente, ma non hanno ancora fornito una de­
scrizione particolareggiata dei complessi fenomeni che vi
sono coinvolti. Anzi, con la sola possibile eccezione di
Freud, non vi hanno nemmeno provato. � solo quando tenta­
no di produrre una teoria sufficientemente chiara e comple­
ta da permettere a un calcolatore di agire in modo "umano",
che gli psicologici si rendono conto della difficoltà del com­
pito.
Persino le abilità quotidiane che ognuno di noi ha, e che al­
l'introspezione sembrano semplici e facili, si rivelano enor-

15
memente complesse. Ne segue che la tecnologia dell'Intelli­
genza Artificiale è, e potrebbe per sempre rimanere, di gran
lunga meno efficace di come viene raffigurata nella fanta­
scienza o nelle nostre paure. Chi si sente sminuito perché, a
differenza dei programmi per calcolatori, non riesce a risol­
vere equazioni matematiche in una frazione di secondo, de­
ve tener presente che vi sono cose che nessun calcolatore
può fare e che per l'uomo risultano ovvie. La fiducia e l'im­
magine che costoro hanno di sé potrebbero essere migliori
se capissero che il "pensiero" e la "comprensione" mostrati
anche dai più potenti programmi per calcolatore non sono
nulla in confronto ai nostri.
Questa verità è spesso trascurata, perché vi sono pro­
grammi che fanno bene ciò che noi facciamo male. I calcola­
tori sono più bravi di molti (e, qualche volta, della maggior
parte degli) specialisti umani in campi come la matematica
e il ragionamento scientifico delimitabile in modo preciso.
Ciò spiega come siano possibili i "sistemi esperti": program­
mi che possono risolvere problemi in aree strettamente deli­
mitate della stereochimica, della prospezione geologica e pe­
trolifera, della diagnosi medica. Di solito si dimentica, tutta­
via, che i calcolatori trovano impossibile fare ciò che tutti
noi facciamo facilmente. Noi comprendiamo la nostra lin­
gua madre; riconosciamo oggetti parzialmente nascosti in
mezzo ad altri; usiamo il nostro senso comune nell'affronta­
re un problema, o nel "leggere fra le righe" di un discorso,
di una lettera, di un giornale; usiamo le dita con destrezza
per innumerevoli attività manuali . E solo in misura estre­
mamente ristretta la tecnologia dei calcolatori è, oggi, in
grado di simulare queste attività.
Per quanto paradossale possa sembrare, insomma, le si­
mulazioni della mente al calcolatore possono essere "riuma­
nizzanti" in modo positivo. Grazie ad esse, "mente" e proces�
si "mentali" sono concetti che ora trovano piena cittadinan­
za in psicologia (mentre ne erano esiliati all'epoca del com­
portamentismo). Ciò è importante non solo per gli psicologi,
ma per la società in generale, perché, come gli stessi psico­
logi giustamente ci ricordano, il modo in cui concepiamo
noi stessi non è affatto indifferente. La scienza risulta disu­
manizzante solo se in essa non c'è spazio per i concetti della
mente e per il vocabolario della soggettività. Questo spazio
è assente nelle scienze naturali, la neurofisiologia "pura",
ma ben presente in psicologia, in informatica e in neurolo­
gia, finché, almeno, quest'ultima assume a proprio oggetto
le funzioni computazionali del cervello.

16
Oggi, quindi, l'affermazione che è possibile una psicolo­
gia scientifica non dovrebbe suonare sconvolgente come ai
tempi di Spinoza. Purché concepita in modo corretto, la si­
mulazione della mente al calcolatore non è necessariamente
dannosa per la società.

17
Il mito dell'intenzionalità originaria
di Daniel C. Dennett

Secondo John Searle, la versione "forte" dell'Intelligenza


Artificiale è una posizione teorica destituita di ogni fonda­
mento e priva di qualsiasi prospettiva concreta perché il cer­
vello esercita un'azione causale particolare che "nessun pro­
gramma formale per calcolatore, da solo", potrà mai ripro­
durre. Come è noto, il cuore dell'argomentazione di Searle è
l'esperimento mentale della Stanza Cinese, che io tuttavia
non discuterò: si tratta per molti aspetti di un ragionamento
dalla logica zoppicante, come si è riconosciuto da più parti, e
come forse il solo Searle si ostina ormai a negare. (Gli errori
logici contenuti nell'esempio della Stanza Cinese sono messi
in luce, in modo a mio parere definitivo, in Hofstadter e Den­
nett, 198 1 .) Ciononostante, sono molti coloro che, pur ricono­
scendo la fallacia del ragionamento di Searle, ne condivido­
no le conclusioni: se è a queste ultime che si vuole controbat­
tere, bisogna prescindere dal modo in cui sono state raggiun­
te da Searle per procedere a un vero e proprio attacco fron­
tale.
Searle sostiene che il cervello "è causa di fenomeni men­
tali dotati di contenuto intenzionale e semantico" (Searle,
1 982, p. 57), fenomeni cui fa riferimento ora con il nome di
intenzionalità originaria (Searle, 1 980), ora con quello di in­
tenzionalità intrinseca (Searle, 1982, p. 57). Ora, i poteri del
cervello umano non vanno certo sottovalutati, ma è difficile
pensare che possano avere effetti simili a quelli ipotizzati da
Searle: "Dennett ... non crede che, in senso letterale, esistano
stati mentali intenzionali intrinseci" (Searle, 1 982, p. 57). Lo
scopo di queste pagine è così duplice: in primo luogo cerche­
rò di mostrare quanto siano strani, e in ultima istanza assur­
di, i poteri che Searle attribuisce al cervello umano, e in se-

18
condo luogo passerò a esporre il mito dell'intenzionalità ori­
ginaria.
Non è affatto raro in filosofia che un dogma confuso e ir­
rimediabilmente sbagliato somigli molto da vicino a una ve­
rità importante. Forse molti di quelli che sono stati attratti
dalla posizione di Searle:
S. Soltanto un cervello umano organico, e certamente nessun
calcolatore elettronico digitale del tipo di quelli comunemente
usati in Intelligenza Artificiale, può avere i poteri causali richie­
sti per produrre l'intenzionalità

l'hanno confusa con la seguente:


D. Soltanto un cervello umano organico, e certamente nessun
calcolatore elettronico digitale del tipo di quelli comunemente
usati in Intelligenza Artificiale, può avere i poteri causali richie­
sti per produrre l'attività mentale pronta e intelligente di solito
mostrata dagli esseri umani normali.

Come suggeriscono le iniziali, tenterò di argomentare in


favore della posizione D, mettendone quindi in luce le diffe­
renze rispetto alla posizione S. Preliminarmente, tuttavia, bi­
sogna sgombrare il campo da un piccolo equivoco cui può
dar luogo l'affermazione di Searle. C'è un senso del tutto ov­
vio e banale per cui nessun programma "formale" per calco­
latore, da solo, può produrre questi effetti: nessun program­
ma per calcolatore che giaccia inutilizzato su uno scaffale,
nessuna successione astratta di simboli può essere causa di
alcunché. Da solo (in questo senso) nessun programma per
calcolatore può fare due più due e ottenere quattro, non par­
liamo nemmeno della possibilità di produrre fenomeni men­
tali dotati di contenuto intenzionale. L'affermazione di Sear­
le secondo cui è ovvio che nessun programma per calcolato­
re può "riprodurre l'intenzionalità" sembra trarre almeno
parte della propria forza ed evidenza dal confondere questa
ovvia asserzione con quella più sostanziale e dubbia che nes­
sun programma per calcolatore rappresentato ed eseguito su
una macchina digitale può "produrre l'intenzionalità". Poi­
ché solo quest'ultima tesi rappresenta una sfida per l'Intelli­
genza Artificiale, nel seguito supporremo che la posizione di
Searle possa riassumersi nel modo seguente: nessuna rap­
presentazione materiale ed eseguibile di un programma "for­
male" per calcolatore può "produrre l'intenzionalità" solo in
virtù del fatto di essere una rappresentazione di un tale pro­
gramma formale. Ciò equivale a dire che i poteri causali del­
la rappresentazione materiale, derivanti dall'essere una rap-

19
presentazione del programma, non riusciranno mai a "causa­
re fenomeni mentali" (Ibid.). In altri termini ancora: prende­
te un oggetto materiale qualsiasi che non abbia il potere di
produrre fenomeni mentali; è impossibile trasformarlo in un
oggetto dotato di tale potere semplicemente programmando­
lo, riorganizzando cioè le relazioni di dipendenza condiziona­
le che governano le transizioni da uno all'altro degli stati
dell'oggetto.
Come tutti sanno, ho difeso in più occasioni la versione
forte dell'Intelligenza Artificiale, come metodologia e come
ideologia, affermando che essa trova il proprio fondamento
nella tesi di Church e nella ricerca di maggiore chiarezza
concettuale in psicologia (vedi Dennett, l 97 5). Difendere ora
la proposizione D, sopra enunciata, non costituisce un tradi­
mento delle mie precedenti posizioni? Certamente no: come
tenterò di dimostrare, queste ultime non sono affatto in con­
trasto con la proposizione D.
C'è un divertente romanzo fantastico di Edwin Abbott in
cui si racconta la storia di esseri intelligenti che vivono in un
mondo a due dimensioni (vedi Abbott, 1 884). Un guastafeste
di cui ho per fortuna dimenticato il nome ha una volta obiet­
tato che la storia di Abbott non poteva essere vera (come se
qualcuno vi avesse mai creduto), perché due dimensioni non
sono sufficienti per sviluppare l'intelligenza. Un essere intel­
ligente ha bisogno di un cervello con un alto grado di inter­
connessione (o di un sistema nervoso o di un qualche tipo di
sistema di controllo complesso altamente interconnesso):
ora, è impossibile collegare cinque cose fra di loro su un pia­
no senza che almeno una delle linee di interconnessione ne
incroci un'altra, e un simile incrocio richiede una terza di­
mensione.
Questa è un'argomentazione plausibile, ma falsa. Già pa­
recchi anni fa John von Neumann aveva dimostrato che si
può costruire una macchina di Turing universale in sole due
dimensioni, e la stessa possibilità era stata messa in luce da
John Horton Conway descrivendo Life, il suo straordinario
mondo bidimensionale. Invero, incroci e sovrapposizioni so­
no un modo comodo ed economico per aumentare la com­
plessità di un sistema, ma non sono affatto indispensabili, né
in un calcolatore né in un cervello (vedi Dewdney, 1 984). Si
può per esempio ricorrere alla strategia comunemente attua­
ta nei centri urbani: negli attraversamenti a "semaforo" le
particelle elementari (bit di informazione o altro) attendono
ognuna il proprio turno prima di passare attraverso il per­
corso di un'altra. Si paga, naturalmente, un prezzo in termi­
ni di velocità, ma non vi è alcun limite, in linea di principio,

20
alla complessità di un sistema bidimensionale. In realtà, nel
mondo in cui viviamo, la velocità è un elemento essenziale
dell'intelligenza: i mutamenti dell'ambiente circostante devo­
no essere percepiti e compresi nel momento stesso in cui av­
vengono, pena, in certi casi, la propria stessa sopravvivenza;
non si può certo dire che un essere privo di quest'abilità, per
quanto complesso, sia intelligente. Non è quindi affatto un
caso che il nostro cervello sfrutti tutte le tre dimensioni spa­
ziali disponibili.
Ammettiamo dunque che nessun sistema sotto le tre di­
mensioni sia in grado di produrre la prontezza e l'intelligen­
za dell'attività mentale di solito mostrata dagli esseri umani
normali. I calcolatori sono tridimensionali, questo è vero,
ma in un certo senso sono anche (quasi tutti) fondamental­
mente lineari: sono macchine di von Neumann dall'architet­
tura seriale e non parallela, capaci di fare solo una cosa alla
volta. È diventata un luogo comune, al giorno d'oggi, l'affer­
mazione che sebbene una macchina di von Neumann, come
la macchina di Turing universale da cui discende, abbia in li­
nea di principio la stessa capacità computazionale di qual­
siasi calcolatore, vi sono tuttavia molte computazioni, spe­
cialmente in aree cognitivamente rilevanti come il riconosci­
mento di modelli o pattern e l'accesso alla memoria, che le
macchine seriali non possono effettuare in tempi ragionevo­
li. Questa è una delle motivazioni che stanno alla base della
progettazione e della costruzione di calcolatori dall'architet­
tura altamente parallela. D'altra parte non è certo una novi­
tà che il cervello umano abbia un elevato grado di paralleli­
smo: milioni, se non miliardi, di canali, tutti simultaneamen­
te attivi. Neanche questo è un caso, presumibilmente.
Un elaboratore altamente parallelo (come ad esempio il
cervello umano) sembra dunque necessario per produrre
l'attività mentale pronta e intelligente di cui è capace l'uo­
mo. Si noti che non ho fornito alcuna dimostrazione a priori
della precedente affermazione, ma mi sono accontentato di
un certo grado di verosimiglianza scientifica.
Inoltre, si può supporre, non vi è motivo di credere che
un elaboratore parallelo debba essere costituito da materiali
organici. In fondo, la velocità di trasmissione dei sistemi
elettronici è maggiore per diversi ordini di grandezza della
velocità di trasmissione delle fibre nervose, e un elaboratore
elettronico parallelo dovrebbe quindi essere più veloce e af­
fidabile di qualsiasi sistema organico. Può darsi - e ciò non
è molto probabile anche se facilmente confutabile - che l'a­
bilità di elaborare le informazioni di ogni singolo neurone (la
funzione ingresso-uscita da esso realizzata) dipenda dall'atti-

21
vità e dalle caratteristiche di certe molecole organiche sub­
cellulari. Supponiamo cioè che il trattamento delle informa­
zioni a livello enzimatico, per esempio, abbia delle conse­
guenze per quanto riguarda il comportamento e le presta­
zioni di quel piccolo calcolatore che è ogni singolo neurone.
Allora, potrebbe essere di fatto impossibile duplicare in
tempo reale il comportamento di un neurone per mezzo di
un suo modello o di una sua simulazione. La ragione di ciò
sta nel fatto che se si tentasse di costruire un modello del
comportamento molecolare in tempo reale, questo non riu­
scirebbe ad essere così piccolo e veloce come le molecole
modellizzate.
Per quanto l'elettronica permetta una velocità di trasmis­
sione maggiore di quella riscontrabile in un meccanismo di
tipo elettro-chimico, è possibile che i microchip non riescano
a tenere il passo delle operazioni neuronali intracellulari nel
determinare come modulare il segnale d'uscita. La differen­
za. di velocità nella trasmissione dei dati fra un sistema elet­
tronico e uno organico può essere annullata o resa negativa
dal maggior tempo di elaborazione richiesto. Una posizione
analoga è stata sostenuta da Monod, in riferimento alla " 'po­
tenza cibernetica' (cioè teleonomica) di cui può disporre una
cellula fornita di alcune centinaia o migliaia di specie di que­
sti esseri microscopici, molto più intelligenti del diavoletto
di Maxwell-Szilard-Brillouin" (vedi Monod, 1970, p. 64).
D'altra parte è possibile naturalmente che la complessità
dell'attività molecolare nelle cellule neuronali sia solo local­
mente significativa. Come ha avuto modo di dirmi Rodolfo
Llinas, i neuroni non hanno alcun modo di controllare la ve­
locità di emissione del segnale elettrico né di imbrigliare la
"potenza cibernetica" delle proprie molecole. La veloce ela­
borazione delle informazioni a livello molecolare non può es­
sere propagata e amplificata a livello neuronale, perché le
molecole dovrebbero poter modulare un picco nell'emissione
del segnale che è di diversi ordini di grandezza maggiore e
più potente delle transizioni di stato del segnale da esse pro­
dotte in uscita. L'amplificazione e la diffusione a livello neu­
ronale del segnale molecolare dissiperebbe il tempo guada­
gnato nella miniaturizzazione. Così, con tutta probabilità,
non si può dimostrare la natura intrinsecamente biologica
dei poteri mentali secondo questa linea di argomentazione,
che può tuttavia risultare istruttiva. Anche se non è ancora
dimostrato che i nodi di un sistema a parallelismo elevato
devono necessariamente essere neuroni aventi una determi­
nata costituzione materiale, questo caso non è affatto esclu­
so. Potrebbe esserci un altro modo per provare che non si

22
possono riprodurre artificialmente le funzioni essenziali che
sovraintendono all'elaborazione delle informazioni nel cer­
vello umano, ottenendo gli stessi tempi di elaborazione di
quest'ultimo. Dopotutto, vi sono molti fenomeni complessi,
ad esempio quelli meteorologici, che non possono essere si­
mulati accuratamente in tempo reale nemmeno dai più gran­
di e veloci supercalcolatori oggi disponibili. Il motivo non è
la mancata comprensione delle equazioni che governano il
fenomeno, ma l'altissimo numero di volte in cui è richiesta
la loro applicazione. Ad esempio, la griglia di campionamen­
to per il Nord America prevede che l'atmosfera venga divisa
in parallelepipedi aventi una base di trenta miglia quadrate
e un'altezza di diecimila piedi. Si ottengono così circa cento­
mila cellule meteorologiche, ognuna delle quali è caratteriz­
zata da una dozzina di possibili misure (temperatura, pres­
sione barometrica, direzione e velocità del vento, umidità re­
lativa ecc.), che variano in funzione delle corrispondenti
quantità nelle cellule vicine. Il meccanismo che regola que­
sta variazione è ormai chiaro, ma esso non può essere simu­
lato, nemmeno sui più moderni supercalcolatori, in intervalli
di tempo sufficientemente brevi da rendere significativa la
previsione. Si potrebbero naturalmente installare centomila
calcolatori, uno per ogni cellula meteorologica, e computare
in parallelo la previsione globale. Ma non si può fare la me­
dia dei rilevamenti effettuati in un'area di trenta miglia sen­
za perdere aspetti significativi del fenomeno in esame, per
non parlare delle conseguenze non trascurabili di disturbi
microclimatici come il riflesso del sole sul parabrezza di
un'automobile parcheggiata per strada. Dovremmo forse ri­
correre, per le previsioni meteorologiche, a qualche miliardo
di calcolatori in parallelo ?
Le tempeste di attività elettrica del cervello potrebbero
rivelarsi altrettanto difficili da simulare e, quindi, da predi­
re. Se così fosse, poiché la velocità operativa è veramente un
fattore critico dell'intelligenza, dovremmo accettare la pro­
posizione:

D. Soltanto un cervello umano organico, e certamente nessun


calcolatore elettronico digitale del tipo di quelli comunemente
usati in Intelligenza Artificiale, può avere i poteri causali richie­
sti per produrre l'attività mentale pronta e intelligente di solito
mostrata dagli esseri umani normali.

Sarebbe da stupidi opporsi alla proposizione D solo perché


non è sostenuta da un'argomentazione del tutto cogente: do­
potutto, essa potrebbe anche essere vera.

23
Non è del tutto corretto caratterizzare la scommessa del­
l' Intelligenza Artificiale, in quanto disciplina scientifica, co­
me un tentativo di refutare la proposizione D. Come sempre
nella scienza, quando si tratta di riprodurre un fenomeno na­
turale, la simulazione della mente al calcolatore è stata af­
frontata in uno spirito di eccessiva e opportunistica semplifi­
cazione. Nello studio di un fenomeno estremamente com­
plesso può essere utile e illuminante limitare il dominio o
l'ambito di ricerca, considerare i dati a propria disposizione
solo in media, effettuare alcune idealizzazioni. Si tratta di
semplificazioni ispirate alla speranza che qualche aspetto
importante del fenomeno complesso che si sta studiando ri­
sulti relativamente indipendente dalla miriade di particolari
che lo nascondono, e che se ne possa quindi dare un modello
che da tali particolari prescinda.
Supponiamo, per esempio, di avere un sistema di Intelli­
genza Artificiale in grado di prendere decisioni e program­
mare le proprie azioni, e supponiamo parimenti che tale si­
stema abbia bisogno di un modulo visivo da cui attingere le
informazioni necessarie relative all'ambiente circostante.
Piuttosto che fornire un modello dell'intero sistema visivo
(che dovrebbe indubbiamente avere un alto grado di paralle­
lismo e dovrebbe fornire in uscita un notevole volume di in­
formazioni), il progettista potrebbe decidere di utilizzare un
surrogato: un "oracolo" visivo che ha memorizzate 256 possi­
bili descrizioni dell'ambiente esterno, fra cui sceglie quella
da inviare al sistema principale. Con questa decisione il pro­
gettista scommette di riuscire ad approssimare la competen­
za e le prestazioni di cui vuole dare un modello (magari solo
quelle di un bambino di cinque anni o di un cane, non quelle
di un adulto), avendo a disposizione solo otto bit di informa­
zione sull'ambiente esterno. È ormai appurato che gli esseri
umani semplificano notevolmente il trattamento delle infor­
mazioni, e si servono soltanto di una piccola frazione del
flusso informativo proveniente dai sensi. È possibile natural­
mente che il progettista, in questo caso particolare, perda la
scommessa, ma ciò significherebbe solo che dovremmo cer­
care un altro modo di semplificare il fenomeno che si vuole
riprodurre. In Intelligenza Artificiale sono stati sviluppati
molti modelli e sistemi diversi, senza riuscire a riprodurre il
comportamento di un essere umano normale, neanche in mo­
do approssimativo o ammettendo alcuni ordini di grandezza
di differenza nei tempi di elaborazione. Tuttavia, ciò non
mette in discussione la metodologia di ricerca in Intelligenza
Artificiale più di quanto l'incapacità di predire correttamen­
te il tempo atmosferico nel mondo reale metta in discussione

24
il valore delle semplificazioni meteorologiche come modelli
scientifici.
L'analogia meteorologica può anche essere usata in dife­
sa di una concezione "debole" dell'Intelligenza Artificiale, se­
condo cui l'uso del calcolatore permette di costruire dei mo­
delli, per così dire, "in scala" di fenomeni mentali o psicolo­
gici reali, fenomeni che secondo la concezione "forte" il cal­
colatore sarebbe in grado di duplicare in modo completo. A
questo punto va ricordato che Searle non ha nulla contro la
versione debole dell'Intelligenza Artificiale: "Questo è proba­
bilmente il posto adatto per esprimere il mio entusiasmo nei
confronti dell'Intelligenza Artificiale debole, nei confronti
cioè dell'uso del calcolatore come strumento per lo studio
della mente" (Searle, 1 982, p. 57). È un altro il punto su cui
Searle non può essere d'accordo, e cioè "la tesi dell'Intelli­
genza Artificiale forte secondo cui un calcolatore adeguata­
mente programmato ha una mente, nel senso letterale dell'e­
spressione, tesi cui si accompagna il pregiudizio antibiologi­
co secondo cui la neurofisiologia specifica del cervello è irri­
levante per lo studio della mente" (lbid.).
Ci sono diversi modi per caratterizzare la versione forte
dell'Intelligenza Artificiale, uno dei quali può essere ottenu­
to rendendo più specifica e chiara la seguente affermazione:
La "neurofisiologia specifica del cervello" è importante solo
perché aiuta a capire la natura del supporto materiale dell'in­
telligenza, supporto che permette velocità di calcolo elevatissi­
me. Se si potessero ottenere velocità comparabili anche da ar­
chitetture parallele basate su microchip di silicio, la neurofisio­
logia diventerebbe veramente inessenziale, anche se natural­
mente da essa si potrebbero sempre trarre utili suggerimenti.

Supponiamo di avere due diverse realizzazioni di uno


stesso programma: due sistemi fisici differenti, le cui transi­
zioni possono però essere descritte accuratamente e adegua­
tamente da un unico programma "formale". Supponiamo an­
che che uno di essi abbia una velocità di calcolo di circa sei
ordini di grandezza (un milione di volte) maggiore di quella
dell'altro. In un certo senso essi hanno le stesse capacità (en­
trambi "computano la stessa funzione"), ma grazie alla sua
maggiore velocità uno di essi avrà "poteri causali" di cui l'al­
tro manca, e cioè i poteri di controllo necessari, ad esempio,
per guidare un corpo in movimento nel mondo reale. È per
questa ragione che si può sostenere che il sistema veloce è
"letteralmente una mente", mentre lo stesso non si può so­
stenere del suo gemello più lento. Il punto non è che la velo­
cità assoluta (o dovremmo dire velocità "intrinseca" ?) quan-

25
do cresce al di sopra di un certo livello critico provoca effet­
ti misteriosi invisibili a velocità più basse; piuttosto, è la ve­
locità relativa che risulta cruciale affinché abbia luogo la
giusta successione di interazioni fra l'organismo e l'ambien­
te. Lo stesso effetto potrebbe essere raggiunto "rallentando
il mondo esterno" in misura sufficiente, ammesso che l'idea
non sia chiaramente assurda. Un calcolatore adeguatamente
programmato e sufficientemente veloce da interagire con il
mondo esterno in tempo reale ha effettivamente una mente,
nel senso letterale dell'espressione, indipendentemente dalla
sua costituzione materiale, organica o inorganica.
È questa, a mio parere, la vera caratterizzazione dell'In­
telligenza Artificiale forte, e non vedo perché Searle non do­
vrebbe essere d'accordo. Potrebbe essere ancora vero, d'al­
tra parte, come Searle e molti altri sostengono, che l'unico
modo per produrre fenomeni mentali è usare tessuti neurali
organici, così come avviene nel cervello umano. Anche se po­
trebbe sembrare il contrario, Searle e i seguaci dell'Intelli­
genza Artificiale forte non sono divisi soltanto da una trascu­
rabile divergenza d'opinione relativa al ruolo e all'importan­
za da attribuire alla neurofisiologia. La proposizione S e la
proposizione D differiscono in modo drammatico per quanto
riguarda le loro conseguenze, come si evince dalla considera­
zione di un paio di concessioni che Searle è disposto a fare.
In primo luogo, egli ammette che "a un certo livello è possi­
bile descrivere praticamente ogni sistema come un calcolato­
re digitale, come se fosse cioè la realizzazione di un pro­
gramma formale. In questo senso, suppongo, anche i nostri
cervelli possono essere considerati dei calcolatori digitali"
(Searle, 1 984, p. 1 53). In secondo luogo, Searle ha spesso ri­
conosciuto che è possibile in linea di principio costruire, a
partire da chip di silicio, un dispositivo elettronico in grado
di imitare perfettamente e in tempo reale la funzione ingres­
so-uscita del cervello umano. Presumibilmente, la descrizio­
ne a livello logico di tale dispositivo coinciderebbe con quel­
la del cervello le cui funzioni si vogliono imitare. Tale dispo­
sitivo non potrebbe però "produrre intenzionalità", perché
questa è prerogativa di un cervello organico. Per essere pre­
cisi, Searle ha spesso sostenuto di non sapere con esattezza
se un surrogato siliceo del cervello sarebbe in grado di pro­
durre l 'intenzionalità o meno, affermando che si tratta di
una questione empirica. In verità quest'ultima è una posizio­
ne quantomeno curiosa: avremmo una questione empirica
che sfugge sistematicamente a ogni indagine empirica inter­
soggettiva. Secondo Searle, insomma, se si sostituisse il cer­
vello di una persona con un calcolatore adeguatamente pro-

26
grammato (un "sistema meramente formale", in grado di du­
plicare il cervello a livello logico, ma realizzato su un soste­
gno materiale inorganico), quella persona continuerebbe a
comportarsi esattamente come si comportava prima, senza
avere tuttavia alcuna forma di intenzionalità né alcun tipo di
fenomeno mentale. Possiamo riassumere la posizione di
Searle nel modo seguente: le caratteristiche neurofisiologi­
che del cervello sono importanti, se non decisive; ciò nono­
stante, i loro effetti sul piano del comportamento potrebbero
risultare del tutto invisibili all'esterno. Un corpo umano in­
capace di fenomeni mentali, privo di vera intenzionalità, po­
trebbe badare a se stesso nel mondo reale altrettanto bene di
un corpo umano guidato da una mente.
Viceversa, la mia posizione, in quanto sostenitore della
proposizione D, è la seguente: la neurofisiologia del cervello
è così importante che se dovessi mai vedere un dispositivo
meccanico bighellonare in giro per il mondo con la prontez­
za e l'intelligenza mostrata dai robot nei film e nei romanzi
di fantascienza, sarei pronto a scommettere dieci a uno che è
controllato da un cervello organico. Infatti, nient'altro (e
questa è la vera scommessa) può controllare in tempo reale
un comportamento intelligente. Ciò fa di me una sorta di
"comportamentista" agli occhi di Searle, ed è questo tipo di
comportamentismo che è alla base del disaccordo fra Searle
e l'Intelligenza Artificiale. I poteri causali immaginati da
Searle sono così misteriosi perché, per definizione, non han­
no alcun effetto sul comportamento; viceversa, i poteri
causali cui l'Intelligenza Artificiale dedica tanta attenzione
sono quelli necessari per guidare il corpo nella vita quotidia­
na, per vedere, udire, agire, parlare, decidere, indagare e co­
sì via. È perlomeno singolare che una tale dottrina, così pro­
fondamente cognitivista e (ad esempio) anti-skinneriana, ven­
ga ricondotta al comportamentismo, ma solo Searle è re­
sponsabile delle proprie scelte terminologiche.

Ma è giunto il momento di fare il punto. Searle accusa


l'Intelligenza Artificiale di non prendere sul serio la neurofi­
siologia (e più in generale la biologia), ma è poi pronto ad
ammettere che un sistema non biologico possa rimpiazzare
un cervello umano in un corpo senza alcuna perdita in termi­
ni di poteri di controllo. Molti studiosi e ricercatori di Intel­
ligenza Artificiale sarebbero d'accordo, specialmente coloro
che non condividono la proposizione D, e può darsi che pri­
ma o poi si riesca davvero a costruire un duplicato inorgani­
co del cervello umano. Il punto cruciale è che, secondo Sear-

27
le, un tale duplicato non sarebbe (o non "causerebbe", o non
"produrrebbe") una mente: non essendo che la realizzazione
di un programma "formale" per calcolatore, non potrebbe
avere alcuna intenzionalità "originaria" o "intrinseca".
Ancora non abbiamo dato alcuna precisa definizione del
concetto di intenzionalità. L'intenzionalità è una proprietà,
tipica degli stati mentali, per cui essi hanno un oggetto, cioè
"riguardano" qualcosa: per dirla in una sola parola, l'inten­
zionalità è il concernere. L'intenzionalità non è equamente ri­
partita fra gli enti e gli oggetti che popolano il mondo: certa­
mente il tavolo su cui sto scrivendo non riguarda alcunché,
ma è l'oggetto della mia credenza che esso sia traballante e
del mio desiderio di ripararlo; la porta, tuttavia (che pure
avrebbe bisogno di qualche lavoretto) non è oggetto di tali
credenze e desideri, ma, al più, di credenze e desideri diver­
si. In generale, i fenomeni mentali hanno un proprio oggetto,
che può essere un ente astratto (la credenza che 1t sia irrazio­
nale riguarda 1t), un'entità mentale o un oggetto del mondo
esterno. Possono esserci, forse, delle eccezioni: un timore im­
motivato, un accesso di depressione, possono non avere al­
cun oggetto particolare, così come, viceversa, un enunciato
linguistico, una cartina topografica o un programma per cal­
colatore hanno un preciso riferimento. E forte la tentazione
di generalizzare queste poche osservazioni dicendo che tutti
gli enti dotati di intenzionalità rappresentano qualcosa, ma
siccome non abbiamo ancora alcuna teoria indipendente del­
la rappresentazione, ciò si ridurrebbe a una mera tautologia.
Si noti che secondo Searle solo i fenomeni mentali esibi­
scono intenzionalità originaria. Un'enciclopedia, un segnale
stradale o una fotografia della Torre Eiffel hanno solo inten­
zionalità derivata o secondaria, dovuta al fatto che abbiamo
deciso di usare questi oggetti in un determinato modo, come
strumenti, utensili, mezzi materiali per conseguire certi sco­
pi. Si delinea così, almeno in nuce, una teoria generale del­
l'intenzionalità intuitivamente plausibile e sicuramente inte­
ressante. Un enunciato linguistico considerato come una suc­
cessione di segni di inchiostro o di vibrazioni acustiche, non
ha alcun significato; esso ha certamente una struttura sintat­
tica, ma siamo noi a conferirgli spessore semantico, a far sì
che parli di qualcosa. L'enunciato "La neve è bianca" potreb­
be avere qualunque significato, o nessuno. Volendo, potrem­
mo decidere di usare l'espressione "fufufu" per indicare che
è ora di pranzare, o qualsiasi altra cosa.
Quest'idea risulta più naturale e plausibile in certi casi
piuttosto che in altri. Se l'attribuzione del significato alle pa­
role sembra totalmente arbitraria, il riferimento di una foto-

28
grafia è in generale del tutto chiaro, per nulla convenzionale
e indipendente dalle nostre intenzioni. Ma non sempre. C'è
una differenza dal punto di vista dell'intenzionalità fra la fo­
tografia di una modella professionista che mostra sorridente
una scatola di detersivo e la fotografia della stessa donna in
occasione del suo matrimonio: mentre quest'ultima è vera­
mente una fotografia di quella donna, la prima ha in realtà
per oggetto il detersivo. Analogamente, alcuni simboli topo­
grafici possono essere del tutto arbitrari (questo simbolo si­
gnifica "Vigili del Fuoco" e quest'altro "Campeggio"), ma al­
tri non lo sono affatto. Si può dir di più: non si può attribui­
re natura sintattica a ogni caratteristica strutturale di una
rappresentazione: solo quelle la cui variazione può compor­
tare una differenza semantica, sono caratteristiche sintatti­
che. In un libro scritto in una lingua sconosciuta, è impossi­
bile determinare se le minime variazioni del colore dell'in­
chiostro o della grandezza dei caratteri comportino differen­
ze sintattiche; per far ciò bisogna conoscere il sistema di
convenzioni della lingua in questione, cosi come esso è deter­
minato dai parlanti. Tirando le fila di queste ultime conside­
razioni, possiamo dire che alcuni artefatti, come i libri, sono
rappresentazioni del tutto opache, a meno di non avere una
chiave che descriva le intenzioni degli utenti del libro, men­
tre altri, come le registrazioni di immagini su nastro magne­
tico, hanno un'interpretazione semantica naturale che rende
immediatamente evidente il loro contenuto.
La natura variamente convenzionale di queste rappresen­
tazioni non sembra a prima vista mettere in discussione la
distinzione di Searle fra intenzionalità originaria e intenzio­
nalità derivata. Il riflesso di una scena sulla superficie di un
lago può essere altrettanto informativa di una fotografia, ma
a differenza di questa non ha alcuna intenzionalità derivata.
La fotografia è intesa rappresentare la scena, e in ciò trova
la sua stessa ragion d'essere.
È certamente un'idea affascinante. Noi esseri umani pos­
siamo trasferire sulle nostre creazioni una debole aura, un
simulacro della nostra intenzionalità originaria e intrinseca,
semplicemente volendolo. Sembra esserci un'analogia fra
questa immagine e l'affresco michelangiolesco sul soffitto
della Cappella Sistina, in cui Dio protende la mano per toc­
care quella di Adamo e infondergli così la divina scintilla
della vita e del significato. Allo stesso modo noi conferiamo
vita e significato agli scarabocchi di inchiostro così gelosa­
mente custoditi nelle nostre biblioteche, ai disegni, ai dia­
grammi, alle cartine topografiche che devono servire ai no­
stri scopi. Ma da dove traiamo la nostra intenzionalità origi-

29
naria? Da Dio, come suggerisce Michelangelo ? È sbagliato,
probabilmente, anche solo porre questa domanda: dopo tut­
to, se la nostra intenzionalità è veramente originaria (u r­
sprunglich, come si direbbe in tedesco), è in essa che va ricer­
cata la fonte ultima del significato, e non in qualcos'altro. Si­
milmente al motore immobile di aristotelica memoria, la no­
stra intenzionalità è un significato insignificato. Questa, cre­
do, è la posizione di Searle e l 'unica, anche, che lo esima dallo
spiegare l'origine dell'intenzionalità umana.
Una simile spiegazione è invece dovuta da chi, come me,
ritiene che la dottrina dell'intenzionalità originaria sia inti­
mamente contraddittoria. Prima di far ciò, tuttavia, è neces­
sario far chiarezza intorno alla distinzione, tanto familiare
quanto plausibile, fra due diversi tipi o gradazioni di inten­
zionalità: la vera intenzionalità, e la semplice intenzionalità
"per modo di dire". Ammettiamo pure che gli esseri umani
abbiano vera intenzionalità originaria, e accettiamo per il
momento la tesi di Searle che di essa siano privi gli artefatti.
Vi sono però dei gradini intermedi nella scala dell'essere per
cui il problema non è affatto chiaro, come ad esempio i cani, i
gatti, i delfini, gli scimpanzé. Supponiamo che queste creatu­
re abbiano una qualche forma di intenzionalità; dopo tutto
esse hanno menti simili alle nostre, solo più semplici, e le lo­
ro credenze e i loro desideri sono altrettanto originari dei no­
stri. Il cane conserva memoria del luogo in cui ha sepolto l'os­
so, e non si può negare che questo ricordo abbia un oggetto
preciso. Ma che dire allora dei ragni o delle amebe, che pure
sono in grado di elaborare le informazioni ? Non sembra che
questa capacità sia sufficiente a garantire l 'intenzionalità ori­
ginaria, perché i calcolatori la posseggono in grado ancora
maggiore, eppure la loro intenzionalità è, per ipotesi, solo de­
rivata.
I ragni non sono artefatti prodotti dall'uomo. Ma se un ra­
gno avesse una rappresentazione interna della sua tela que­
sta rappresentazione non sarebbe stata prodotta per servire
noi, e l'intenzionalità del ragno non sarebbe intenzionalità de­
rivata. Sarebbe però azzardato sostenere che si tratta di in­
tenzionalità originaria: il ragno si comporta "come se" avesse
intenzionalità, e dunque si tratterebbe di intenzionalità "per
modo di dire". Potremmo decidere di considerare i meccani­
smi di controllo del ragno come se rappresentassero porzioni
del mondo esterno e quindi spiegarne l'attività da questo
punto di vista. Questo è ciò che chiamo il punto di vista inten­
zionale: Searle disprezza la possibilità che possa spiegare la
nostra intenzionalità, ma è molto meno pronto a indicare co­
me e quando un tale punto di vista potrebbe essere applicato.

30
Dennett... crede che nulla, letteralmente, abbia stati mentali in­
trinsecamente intenzionali, e che quando attribuiamo tali stati
mentali a qualcuno stiamo semplicemente adottando un certo
punto di vista, il "punto di vista intenzionale". (Searle, 1982,
p. 57)

Qualcuno forse ritiene che i ragni, così come i delfini e gli


scimpanzé, abbiano vera intenzionalità intrinseca. Ma le
piante ? È ovvio che quando parliamo delle modeste capacità
di elaborare le informazioni mostrate da alcune piante (che
si rivolgono alla luce, "cercano" e "trovano" il sostegno adat­
to cui attaccarsi, ecc.) usiamo soltanto un'utile metafora, co­
sì come avviene nel caso dei microrganismi. Consideriamo il
seguente passo tratto da Biochemistry di L. Stryer e citato
da Alexander Rosenberg nel suo affascinante articolo "Inten­
zione e azione fra le macromolecole" (manoscritto non pub­
blicato):

Un compito molto più difficile per questi enzimi è quello di di­


stinguere aminoacidi simili... Tuttavia, la frequenza d'errore che
è stata osservata in vivo è solo di uno su tremila: devono quindi
esserci successive correzioni che migliorino la fedeltà. In realtà
la sintetasi è in grado di correggere i propri errori . . Ma come
.

riesce la sintetasi a impedire l'idrolizzazione dell'isoleucina-AMP


che è l'intermediario deside rato ? [corsivo di Rosenberg]

È chiaro che si tratta di intenzionalità per modo di dire,


un'utile finzione dello scienziato, che non deve però essere
presa sul serio. In senso letterale, le macromolecole non im­
pediscono, né desiderano, né distinguono alcunché. È l'osser­
vatore esterno, lo scienziato, che interpreta questi processi
in senso mentalistico, ma l'intenzionalità di cui si parla non
è né intrinseca, né derivata, ma intenzionalità del come se.
Abbiamo dunque due distinzioni: quella fra intenzionalità
originaria e intenzionalità derivata da un lato, e quella fra
intenzionalità reale e intenzionalità "per modo di dire" dal­
l'altro. Searle sembra condividerle entrambe, ma non è il so­
lo . Si tratta di distinzioni largamente utilizzate nella lettera­
tura e, in un certo senso, molto comuni, nonostante i confini
fra i diversi tipi di intenzionalità risultino spesso incerti. La
linea di demarcazione fra la vera intenzionalità e quella che
ricade sotto la categoria del come se non è affatto netta; l'in­
tenzionalità derivata di una cartina topografica disegnata
per essere usata da esseri umani è difficilmente distinguibile
da quella di una rappresentazione geografica a sua volta usa­
ta da un artefatto come, ad esempio, un missile, e non è det­
to che l'intenzionalità derivata e quella "per modo di dire"

31
non finiscano per coincidere. Non mi soffermerò su tali que­
stioni, ma, partendo dall'ipotesi che entrambe le distinzioni
siano corrette, presenterò un esperimento mentale teso a mi­
nare la fiducia che in esse riponiamo.
Supponiamo di avere un'enciclopedia, un oggetto la cui
intenzionalità è solo derivata e che contiene informazioni re­
lative a migliaia di enti e fenomeni del mondo reale. Suppo­
niamo ora di "automatizzare" la nostra enciclopedia, inse­
rendo tutti i dati in un calcolatore e aggiungendovi un elabo­
rato sistema in grado di rispondere a domande. Non abbia­
mo più bisogno di andare a cercare le voci nei singoli volu­
mi: poniamo semplicemente le domande per mezzo della ta­
stiera e riceviamo le risposte. Chi usa il sistema potrebbe an­
che credere di comunicare con una persona reale, dotata di
intenzionalità originaria, ma non è così. Il sistema è soltanto
uno strumento, la cui intenzionalità esiste solo in quanto noi
lo usiamo per i nostri scopi ed è, per così dire, un sottopro­
dotto. Il sistema non ha scopi suoi propri, se non lo scopo ar­
tificiale e derivato di "comprendere" e "rispondere" corretta­
mente alle nostre domande. (l termini di tipo mentalistico
sono qui posti fra virgolette per indicare che l'artefatto in
questione non ha vera intenzionalità; spero così di aver reso
esplicito su quale lato delle due distinzioni che stiamo discu­
tendo vada posto il sistema in questione.)
Vi sono però calcolatori che hanno scopi o fini più auto­
nomi e indipendenti. I calcolatori che giocano a scacchi, ad
esempio, hanno scopi più precisi, anche se artificiali e deri­
vati: sconfiggere l'avversario, ingannarlo, nascondere la pro­
pria "conoscenza" del gioco. Ciononostante, si tratta pur
sempre di strumenti o giocattoli. Gli stati interni della mac­
china hanno una qualche sorta di intenzionalità (stati che de­
scrivono le posizioni relative dei vari pezzi del gioco, o che
determinano, per ogni dato istante, l'insieme delle mosse
possibili), ma si tratta di intenzionalità derivata e non intrin­
seca.
Lo stesso deve dirsi di ogni altro artefatto, programma
per calcolatore o robot costruito dall'uomo, non importa
quanto sia forte l'illusione che le sue azioni siano volute, che
si tratti di un pensatore autonomo dotato della stessa inten­
zionalità originaria di cui godono gli esseri umani. Accettia­
mo dunque l'assunto che nessun artefatto, nessun prodotto
dell 'Intelligenza Artificiale possa avere intenzionalità origi­
naria semplicemente in virtù del modo in cui è stato proget­
tato e del comportamento esibito. Ricordiamo a questo pro­
posito che, secondo Searle, un robot costruito con i materiali
adatti potrebbe in effetti avere vera intenzionalità. Anche se

32
potessimo progettare un robot in modo da dargli "scopi",
"intenti", "strategie", "idee", ecc. (generando un sistema i cui
stati mentali avrebbero intenzionalità derivata), non potrem­
mo mai fornirgli intenzionalità originaria a meno di non usa­
re materiali organici.
Veniamo ora all'esperimento mentale. Supponiamo di vo­
lere, per qualche ragione, sperimentare la vita del venticin­
quesimo secolo, e che l'unico modo per mantenere in vita il
nostro corpo sufficientemente a lungo sia quello di ibernar­
lo . Potremmo costruire una macchina apposita, in grado di
mantenere e controllare le nostre funzioni vitali rallentate,
ed entrarvi per essere automaticamente risvegliati nel 2401,
così come si legge in molti romanzi di fantascienza. Il mante­
nimento delle funzioni vitali non è, naturalmente, l'unico
problema: la macchina deve essere adeguatamente protetta e
rifornita di energia per più di quattrocento anni, e non pos­
siamo certo contare sui nostri figli e nipoti per questo, per­
ché saranno morti da un pezzo nel 240 1 , e non abbiamo moti­
vo per credere che i nostri più lontani discendenti abbiano a
cuore il nostro benessere.
Dobbiamo dunque costruire un sistema che protegga la
macchina e la rifornisca dell'energia necessaria per quattro­
cento anni. A questo scopo si possono seguire due strategie
principali. Potremmo cercare un luogo adatto, esposto al so­
le, in prossimità di una sorgente, e impiantarvi in modo stabi­
le tanto la macchina ibernatrice quanto il sistema di protezio­
ne. In questo modo la macchina e il sistema sarebbero però
totalmente indifesi, specialmente per quanto riguarda i peri­
coli non previsti all'atto della costruzione, come ad esempio
la costruzione di un'autostrada proprio nella località da noi
tanto accuratamente scelta. La seconda strategia è molto
più complessa, ma non soffre di questo inconveniente: un si­
stema mobile, in grado di ospitare la macchina ibernatrice e
gli strumenti necessari per rilevare e sfuggire il pericolo o
per cercare nuove fonti di energia. In poche parole, si tratta
di costruire un robot gigante e installarvi la macchina iber­
natrice, con noi dentro. L'ispirazione di queste due strate­
gie, come è chiaro, proviene direttamente dalla natura: sono
le soluzioni date al problema della sopravvivenza dalle pian­
te e dagli animali, rispettivamente. Supponiamo dunque di
scegliere la seconda strategia che, oltre a essere più sicura,
è anche quella che meglio permette di sviluppare il nostro
esperimento mentale. Il problema è allora quello di costrui­
re un robot le cui "scelte" siano sempre guidate dalla consi­
derazione del nostro benessere, un robot in grado di ricono­
scere ed evitare le "mosse sbagliate" che metterebbero in

33
pericolo la sua stessa ragion d'essere: la nostra protezione fi­
no al 240 1 . È un problema di alta ingegneria, che richiede la
progettazione e la costruzione di un sistema visivo che guidi
gli spostamenti del robot e di altri sistemi sensori e motori.
A causa del nostro stato di ibernazione, noi non potremo
controllare il robot, che dovrà quindi produrre autonoma­
mente le proprie strategie e i propri piani d'azione in funzio­
ne delle mutevoli circostanze esterne. Deve "saper" cercare,
riconoscere e sfruttare le fonti di energia, deve essere "capa­
ce" di spostarsi in territori più sicuri, deve saper "prevede­
re" ed "evitare" i pericoli. Tutto ciò è reso ancora più diffici­
le dal fatto che potrebbero esserci altri robot simili in circo­
lazione. Se l'idea prende piede, il nostro robot potrebbe tro­
varsi a dover competere con altri suoi simili e con gli esseri
umani per le sempre più limitate disponibilità di energia, ac­
qua, lubrificanti ecc. Sarà dunque saggio fornire al nostro
robot sistemi di controllo sufficientemente complessi da per­
mettergli di calcolare i rischi e i benefici della cooperazione
con i suoi simili così che, in adeguate circostanze, esso possa
anche scegliere di stringere alleanze ispirate al reciproco
vantaggio.
Il disegno globale che si delinea è dunque quello di un ro­
bot capace di auto-controllo in tempo reale (per una più ap­
profondita discussione del controllo e dell 'auto-controllo ve­
di Dennett, 1 984, cap. 3). In quanto tale, esso dovrà porsi dei
fini secondari, individuati sulla base dello stato corrente e
dell'importanza di tale stato in rapporto al fine ultimo (che è
poi quello della nostra sopravvivenza). Questi fini secondari
possono portare il nostro robot a impegnarsi in progetti del­
la durata di anni, se non di secoli, progetti che potrebbero
anche rivelarsi sbagliati, nonostante i nostri sforzi in fase di
progettazione. Il robot potrebbe intraprendere azioni contra­
rie ai nostri interessi, o persino azioni suicide, essendo stato
convinto, magari da un altro robot, a subordinare la propria
missione vitale a qualche altro scopo.
In base alle nostre ipotesi, il robot non ha alcuna inten­
zionalità originaria, ma solo quella derivata che gli abbiamo
infuso al momento della costruzione. Non si può dire che ab­
bia veri stati mentali: si comporta soltanto come se fosse ca­
pace di decisioni, constatazioni, incertezze e pianificazioni.
Se riconosciamo che questa è la conclusione che segue dalle
nostre ipotesi, dobbiamo tuttavia riconoscere che anche la
nostra intenzionalità è di questo tipo. Infatti, il nostro espe­
rimento mentale dal sapore un po' fantascientifico non è che
una variante della posizione di Richard Dawkins secondo cui
noi esseri umani, così come ogni altra specie biologica, sia-

34
mo solo "macchine della sopravvivenza" costruite per garan­
tire un futuro al nostro patrimonio genetico (vedi Dawkins,
1976).
Possiamo ora rispondere alla domanda sull'origine della
nostra intenzionalità. Siamo artefatti, costruiti nel corso del­
le ere biologiche per garantire la sopravvivenza di geni che
non possono agire nel loro proprio interesse in modo veloce
e consapevole del mondo esterno. Ma i nostri interessi, così
come noi li concepiamo, e gli interessi dei nostri geni potreb­
bero anche divergere: finora ciò non è avvenuto, come testi­
monia il fatto che noi esistiamo, ma non bisogna dimenticare
che la nostra sola ratio essendi è la preservazione del nostro
patrimonio genetico. Gli esseri umani tendono a dimenticare
lo scopo per cui sono stati costruiti e a seguire un'idea tutta
propria di sommo bene, e ciò grazie anche alla loro intelli­
genza, espressione del patrimonio genetico.
I nostri geni, con il loro egoismo, sono all'origine della
nostra intenzionalità: essi, e non noi, sono i significanti insi­
gnificati. Eventi e strutture del corpo umano hanno senso
(cioè: concernono qualcosa) solo in relazione alla nostra au­
toconservazione. Ad esempio, possiamo dire che i segnali
provenienti dal nostro orecchio interno concernono l'accele­
razione e l'orientamento rispetto alla forza di gravità del no­
stro corpo solo se le informazioni così ottenute contribuisco­
no in qualche modo alla nostra sopravvivenza (vedi Dennett,
1 982a). Queste relazioni sono discernibili solo se si adotta
quello che abbiamo chiamato il "punto di vista intenzionale"
(vedi Dennett, 1978, 1 98 1 a, 198 1 b, 1982b, 1983). È chiaro che
a questo punto un'intenzionalità in qualche senso più assolu­
ta, "intrinseca" o "originaria" di questa non è più necessaria,
e anzi, a guardar bene, è difficile riconoscerle diritto d'asilo
in alcuna regione filosofica.
Abbiamo così dato una spiegazione dell'origine della no­
stra intenzionalità che, se può essere considerata per molti
versi soddisfacente, ci lascia nondimeno con un senso di di­
sagio: la nostra intenzionalità sarebbe derivata da entità (i
geni) che costituiscono certamente un caso paradigmatico di
intenzionalità "per modo di dire"; il senso letterale sarebbe
derivato dal senso metaforico! Per di più, l'esperimento men­
tale proposto differisce per un aspetto piuttosto importante
dalla vicenda biologica narrata da Dawkins: mentre nel pri­
mo caso il processo di costruzione del robot era conscio, de­
liberato e previdente, in quest'ultima la sopravvivenza dei
nostri geni è affidata a un processo che non ha alcun artefice
consapevole. L'affascinante bellezza della teoria della sele­
zione nnaturale è tutta qui, nel permetterei di costruire una

35
teoria delle nostre origini in cui non compare alcun artefice
intelligente.
È in effetti un po' offensivo considerare i geni come co­
struttori intelligenti, quando in realtà non potrebbero esse­
re più stupidi, essendo incapaci di qualsiasi forma di ragio­
namento o rappresentazione. I geni non costruiscono da so­
li le proprie "macchine della sopravvivenza", ne sono solo i
beneficiari. Il progetto di queste macchine è dovuto a Ma­
dre Natura, ovvero al lungo e lento processo di evoluzione
per selezione naturale, cui solo si può riconoscere vera in­
tenzionalità. La preveggenza e l'acutezza di Madre Natura
si è dimostrata veramente straordinaria in migliaia di "scel­
te" critiche, nel "riconoscere" e "valutare" molte sottili rela­
zioni fra fenomeni diversi.
Ad esempio, la sintetasi non desidera certo che l'isoleu­
cina-AMP sia un aminoacido intermedio, non avendo alcuna
nozione dell'isoleucina in quanto intermediario. Ma se "de­
siderio" c'è dell'isoleucina, esso la riguarda solo in quanto
intermediario, cioè in quanto parte insostituibile di un pro­
getto il cui fondamento logico è "noto" al processo di sele­
zione naturale.
Secondo Rosenberg (manoscritto non pubblicato), un
tratto distintivo dell'intenzionalità è il fallimento della so­
stituzione di equivalenti (cioè l' "intensionalità") nelle locu­
zioni usate per caratterizzare il fenomento. È una posizio­
ne condivisa da molti, ma sostenuta in modo particolare in
Dennett (1 969). Rosenberg nota anche, tuttavia, che le attri­
buzioni di stati mentali alle macromolecole o ai geni, attri­
buzioni effettuate dai biologi, non soddisfano questa condi­
zione. La sostituzione di equivalenti non comporta alcun
cambiamento di valore di verità se il "soggetto" della cre­
denza o del desiderio è un gene, una macromolecola o
qualche altro semplice meccanismo. Invero, l'enzima cor­
rettore non riconosce l'errore in quanto tale, perché una
tale consapevolezza è ascrivibile solo a Madre Natura;
questo, almeno, è il mio punto di vista. L'azione dell'enzi­
ma è in effetti dovuta alla presenza degli errori, ma l'enzi­
ma in sé non è che uno degli umili soldati di Madre Natu­
ra che "non devono chiedere perché, ma solo vincere o mo­
rire".
Secondo molti biologi è un errore voler ricercare i mo­
tivi o le ragioni del comportamento degli enzimi, mentre
altri (in particolare gli adattivisti) sono disposti a difende­
re tale posizione basandosi sui ruoli funzionali che si pos­
sono attribuire da un punto di vista schiettamente teleolo-

36
gico. Chi, come me, si schiera con questi ultimi, non può
non accorgersi del fallimento della sostituzione nei contesti
relativi al comportamento degli enzimi. Proprio come Gior­
gio IV si chiedeva se Scott fosse l'autore di Waverley senza
chiedersi se Scott fosse Scott, così il processo di selezione
naturale "desidera" che l'isoleucina sia l'intermediario sen­
za desiderare che l'isoleucina sia l'i soleucina. È certamente
pos sibile descrivere il processo di selezione naturale senza
usare un linguaggio intenzionalmente connotato, ma solo al
prezzo di una descrizione minuta e particolareggiata che
non può che risultare eccessivamente pesante. Perderemmo
così di vista il quadro generale del fenomeno, non potendo
più effettuare predizioni né formulare enunciati controfat­
tuali. Gli stessi motivi che portano ad attribuire una facoltà
raziocinante conscia, deliberata ed esplicita ai progettisti
del nostro esperimento mentale, sono all'opera quando si
tratta della "progettazione" degli organismi viventi. Una
chiara e spregiudicata considerazione dei fenomeni biologi­
ci porta ad attribuire discernimento e consapevolezza allo
stesso processo di selezione naturale, senza che in ciò sia
coinvolto, tuttavia, alcun alone di mistero. Madre Natura
non va consapevolmente alla ricerca dei fondamenti delle
proprie scelte, ma quando vi s'imbatte, certamente ne rico­
nosce il valore.
La Natura opera in base a motivi che non è in grado di
rappresentare consapevolmente, e da questo operare trae ori­
gine la nostra intenzionalità. Gli esseri umani autocoscien­
ti sono un prodotto ormai maturo e specializzato. La capa­
cità di agire in base a motivazioni che siamo in grado di
rappresentare ci dà quel potere predittivo e anticipatorio di
cui è totalmente priva la Natura. In quanto prodotto ad al­
to contenuto tecnologico, la nostra intenzionalità è sola­
mente derivata, proprio come quella dei nostri robot, dei
nostri libri e delle nostre cartine topografiche. L'intenziona­
lità intrinseca di una lista della spesa tenuta a mente non è
maggiore di quella di una lista della spesa scritta su di un
foglio di carta. Il significato delle singole voci della lista
(ammesso che ve ne sia uno) è determinato dalla loro fun­
zione in un più ampio schema di fini. Possiamo anche pen­
sare di avere vera intenzionalità, purché riconosciamo che
essa è derivata da quella del processo di selezione naturale,
che è altrettanto reale della nostra ma più difficile a rico­
noscersi a causa della grande differenza di scala sia nella
dimensione del tempo, sia in quella dello spazio. Per quan­
to riguarda poi l'intenzionalità "intrinseca", essa semplice­
mente non esiste.

37
Credo che queste considerazioni, lungi dal persuadere
Searle, lo spingerebbero a replicare nel modo seguente:
È vero, siamo il prodotto della selezione naturale. Ma la Na­
tura ha scelto di renderei capaci di badare a noi stessi dan­
doci un cervello dai meravigliosi poteri causali, in grado di
produrre intenzionalità. È impossibile determinare dall'ester­
no se un organismo o un sistema di qualche altro tipo deve
la propria capacità di sopravvivenza al fatto di avere inten­
zionalità intrinseca, o piuttosto a una particolare configura­
zione interna puramente formale e sintattica. Ma noi esseri
umani autocoscienti sappiamo di avere vera, intrinseca inten­
zionalità.

Una risposta di questo genere sarebbe nello stile di Searle,


e non servirebbe ad altro che a rafforzare la nostra con­
vinzione che non esiste alcuna giustificazione razionale
delle sue tesi che costituiscono, in fondo, una sorta di
"dogmatismo del senso comune".

R:IFERIMENTI BIBLIOGRAFICI

Abbott, E.A. (1 962), Flatland: a Romance in Many Dimensions,


Blackwell, Oxford (ed. originale 1 884) (trad. it. Flatlandia,
Adelphi, Milano 1 966).
Dawkins, R. (1 976), The Selfish Gene, Oxford University Press, Ox­
ford (trad. it. Il gene egoista, Zanichelli, Bologna 1 979).
Dennett, D. (1 969), Content and Corysciousness, Routledge and Ke­
gan Pau!, London.
Dennett, D. (1 975), Why the Law of Effect Will Not Go Away, in
"J. Theory of Social Behaviour", 5, pp. 1 69-1 87.
Dennett, D. (1 978), Brainstorms, Bradford Books/MIT Press, Cam­
bridge (Mass.).
Dennett, D. (198 1 a), Th ree Kinds of Intentional Psychology, in R.
Healey (a cura di), Reduction, Time and Reality, Cambridge
University Press, Cambridge.
Dennett, D. (198 1b), True Believers: the Intentional Strategy and
Why it Works, in A.F. Heath (a cura di), Scientific Explana­
tion, Oxford University Press, Oxford .
Dennett, D. (1 982a), Comment on Rorty, in "Synthese", 53, pp. 349-
356.
Dennett, D. (1 982b), Beyond Belief, in A. Woodfield (a cura di),
Thought and Object, Oxford University Press, Oxford.
Dennett, D. (1 982c), The Myth of the Computer: an Exchange, in
"New York Review of Books", pp. 56-57.
Dennett, D. (1 983), Intentional Systems in Cogni tive Ethology: the
"Panglossian Paradigm " Defende d, in "Behavioral an d Brain
Sciences", 6, pp. 343-390.

38
Dennett, D. ( 1 984), Elbow Room: the Varieties of Free Will Worth
Wanting, MIT Press, Cambridge (Mass.).
Dewdney, A.K. ( 1 984), The Planiverse, Poseidon, New York.
Hofstadter, D.R e D.C. Dennett ( 1 98 1), The Mind's I, Basic Books,
New York (trad. it. L 'io della mente, Adelphi, Milano 1985).
Monod, J. ( 1 970), Le hasard et la nécessité, Editions du Seuil, Paris
(trad. it. Il caso e la necessità, Mondadori, Milano 1 980).
Rosenberg, A., Intention and Action Among the Macromolecules
(manoscritto non pubblicato).
Searle, J. ( 1 980), Minds, Brains and Programs, in "Behavioral and
Brain Sciences", 3, pp. 417-41 8 ora in D.R. Hofstadter e D.C.
Dennett, The Mind's I, Basic Books, New York (trad. it. L'io
della mente, Adelphi, Milano 1 985).
Searle, J. (1 982), The Myth of the Computer: an Exchange, in "New
York Review of Books", 24 giugno, pp. 56-57.
Searle, J. (1984), Pane[ Discussion: Has Artificial lntelligence Re­
search Illuminated Human Thinking?, in H. Pagels (a cura di),
Computer Culture: the Scientific, Intellectual and Social Impact
of the Computer, in Annals of the New York Academy of Scien­
ces, vol. 426.
Stryer, L. ( 1 98 1), Biochemistry, Freeman, San Francisco.

39
Rappresentazione e interpretazione
di Donald Davidson

Una persona è un oggetto fisico il cui comportamento, sia


globalmente, sia nei particolari, è governato da leggi fisiche.
Non si può dunque escludere in linea di principio che si pos­
sa progettare e costruire un oggetto affatto indistinguibile
da una personale naturale. Ne segue che non c'è alcun moti­
vo per cui un oggetto artificiale non possa pensare, ragiona­
re, prendere decisioni, agire, avere credenze, desideri e in­
tenzioni. Ma quanto, e in che modo, deve essere simile a noi
un artefatto per poter avere pensieri ?
Comincerò seguendo quello che potremmo chiamare il
metodo dell'addizione e della sottrazione: che cosa dobbiamo
aggiungere agli oggetti più ricchi di pensiero che conoscia­
mo (i calcolatori) prima di poter dire che essi effettivamente
pensano ? E che cosa possiamo sottrarre a una persona conti­
nuando a considerarla una creatura pensante? Iniziamo da
quest'ultimo punto.

l. Origine. È veramente importante per la possibilità del


pensiero e della vera intelligenza se un oggetto è stato conce­
pito ed è nato più o meno allo stesso modo in cui gli esseri
umani sono concepiti e nascono ? Se riteniamo che il confine
che separa le diverse specie di oggetti sia chiaro e netto, allo­
ra senza dubbio gli artefatti non appartengono ad alcuna
specie naturale, e sono dunque del tutto diversi dagli uomini
e dalle donne. Può darsi perfino che sia un errore anche solo
dire che un artefatto è una persona, e ciò semplicemente per­
ché nessun artefatto può essere una persona. Ma si tratta, a
mio parere, di questione puramente terminologica, del tutto
irrelata, per quanto posso vedere, al problema se un artefat­
to possa pensare, agire e avere i sentimenti di una persona.

40
(Molti credono che tutto sia stato creato da un artefice divi­
no e che dunque, in un certo senso, tutto sia un artefatto: di
solito ciò non impedisce ai credenti di considerare il prossi­
mo come una persona.)
Un altro interessante argomento di riflessione è il seguen­
te: cosa diremmo se, per puro caso, venisse prodotto un og­
getto fisicamente identico a una persona? Il fulmine colpisce
un vecchio tronco putrescente in una palude e, del tutto ca­
sualmente, ne risulta un oggetto fisicamente identico a me
sotto ogni rispetto: apparentemente tale oggetto ha i miei
stessi ricordi, riconosce i miei amici e risponde alle doman­
de in una lingua che sembra inglese. È chiaro che tale ogget­
to non sarebbe me, e potremmo anche rifiutarci di conside­
rarlo una persona; è però difficile sostenere che non avrebbe
pensieri né sentimenti. (Anche se, effettivamente, non ne
avrebbe, per ragioni che saranno chiare al seguente punto 4.
e che non hanno nulla a che fare con la sua origine.)
L'origine di una persona naturale è dunque una proprietà
"sottraibile", almeno finché si tratta dei suoi processi cogni­
tivi e volitivi.

2. Costituzione. Sembra che anche l'essere costituiti da


un particolare materiale sia una proprietà sottraibile. Se il
silicio o il succo d'arancia permettessero lo stesso tipo di at­
tività del materiale di cui noi siamo effettivamente costitui­
ti, allora l'essere fatti di silicio o di succo d'arancia non fa­
rebbe alcuna differenza relativamente alle possibilità del
pensiero. Se un giorno scoprissi che Daniel Dennett è fatto
di chip di silicio, non muterei certo opinione relativamente
alle sue capacità intellettuali, ai suoi sentimenti o alle sue
intenzioni, né sarei di ciò eccessivamente sorpreso. Analoga­
mente (per passare a un esempio su cui alcuni filosofi si so­
no esercitati), la mia stima dei pensieri, delle emozioni e
delle azioni della gente non sarebbe affatto sminuita se do­
vessi scoprire che ognuno di noi è costituito da miliardi di
creature intelligenti, così piccole da nascondere finora la
propria presenza, la somma delle cui azioni dà origine al no­
stro comportamento. Va da sé che solo in linea di principio
l'intelligenza, i sentimenti e le intenzioni risultano indiffe­
renti al materiale in cui sono realizzati: potremmo anche
scoprire che solo i materiali che effettivamente costituisco­
no gli esseri umani permettono i processi e le funzioni che
noi ci attribuiamo.

3. Forma e dimensioni. Un oggetto deve avere l'aspetto di


una persona per essere considerati intelligenti ? Saremmo

41
certamente portati a rispondere che l'apparenza non conta, e
indubbiamente Turing sarebbe del medesimo parere. È per­
sino possibile che il nostro stesso sentire morale sia chiama­
to in causa da questa risposta. Ma, invero, la forma e le di­
mensioni potrebbero risultare cruciali se dovessero impedi­
re la comunicazione non solo di credenze, ma anche di senti­
menti e di intenzioni. Pensieri, desideri e altri atteggiamenti
sono per loro stessa natura stati che sappiamo interpretare:
viceversa, ciò che non riusciamo a interpretare non ha nulla
a che fare con il pensiero.

4. Storia. Il pensiero deve avere una storia. Qualsiasi og­


getto capace di pensiero non solo deve avere capacità di ap­
prendimento, ma deve anche avere esercitato a lungo tale ca­
pacità. Nessuna creatura, nessun oggetto può avere un pen­
siero concernente un evento o una persona a meno che non
ci sia in qualche modo una concatenazione causale che li col­
leghi ad esempi passati. Non ci può essere ricordo di un
evento o persona che non sia causalmente riconducibile al­
l'oggetto appropriato. Un cervello (o un oggetto a esso equi­
valente) non può avere pensieri ordinari su oggetti ordinari a
meno che non vi sia una storia di interazioni causali con og­
getti dello stesso tipo, e ciò indipendentemente dagli altri po­
teri a esso eventualmente attribuibili. Ciò non implica, natu­
ralmente, che un tale oggetto non possa essere un artefatto,
ma solo che un artefatto non può avere pensieri che non sia­
no derivati dall'interazione causale con il mondo.
Passiamo ora al problema, molto più complesso, dell'ad­
dizione. Che cosa dobbiamo aggiungere ai moderni calcolato­
ri (e mi riferisco soltanto a quelli che conosco) affinché siano
capaci di pensiero ?
Mi sembra che il punto principale sia questo: non è suffi­
ciente che un calcolatore, o un robot da esso controllato, rie­
sca a svolgere un particolare compito, come ad esempio gio­
care a scacchi, dare il resto, risolvere equazioni o trovare la
dimostrazione di un teorema. Se vogliamo parlare di pensie­
ro, è necessario un enorme repertorio di attività diverse. Mi
sono permesso di parlare dei calcolatori come se fossero ef­
fettivamente capaci di giocare a scacchi, ma benché si tratti
di un modo di esprimersi molto comune, deve essere chiaro
che è solo una metafora. Si pensi a cosa vuol dire giocare a
scacchi. In primo luogo, deve esserci la volontà di vincere, o
bisogna almeno comprendere il concetto di vittoria; a tale
scopo non basta sapere cosa vuol dire vincere agli scacchi:
bisogna possedere il concetto generale di vittoria in un'atti­
vità qualsiasi. Ciò a sua volta richiede la comprensione del

42
concetto di regola o convenzione, l'idea che si possano svol­
gere alcune attività come fini in sé, e la capacità di ricono­
scere certe attività come giochi.
Affinché il movimento di un pezzo sulla scacchiera sia ef­
fettivamente una mossa del gioco degli scacchi, tale movi­
mento deve essere intenzionale e fatto per un preciso moti­
vo. Qualsiasi azione intenzionale deve avere a proprio fonda­
mento una qualche ragione, nella forma di un fine o di un ri­
sultato desiderato, nonché la convinzione che tale azione
possa portare a quel fine. È chiaro che, in un certo senso, un
calcolatore appositamente programmato per giocare a scac­
chi ha per scopo la vittoria; ma soddisfa veramente anche so­
lo le più ordinarie condizioni per cui si può dire di avere un
desiderio, di volere qualcosa? Affinché si pos'sa volere qual­
cosa, non è necessario, ad esempio, avere anche altri deside­
ri ? Un desiderio affatto comune come quello di vincere agli
scacchi si trova a dover competere con altri valori, è condi­
zionato dall'esperienza e si esaurisce se ripetutamente fru­
strato. In altre parole, per avere anche soltanto un desiderio
è necessario averne molti.
Lo stesso vale, e in modo ancora più evidente, nel caso
delle credenze. Il volo 1 9 dell'Alitalia da Torino per Londra
parte ogni martedì alle 8,30. È un'informazione cui possiamo
facilmente accedere per mezzo di un calcolatore, ma il calco­
latore è veramente a conoscenza delle informazioni che ci co­
munica? Ovviamente no, perché non sa che cosa sia un volo,
dove si trovi Torino, e nemmeno che il martedì è un giorno
della settimana. Sarebbe certo relativamente facile aggiunge­
re queste informazioni alla memoria del calcolatore, così co­
me in linea di principio potremmo aggiungervi qualsiasi al­
tra informazione che aiuti il calcolatore a sapere di che cosa
stia parlando. Non è che sia impossibile per un calcolatore
avere dei pensieri: il punto è che per avere un pensiero, una
credenza o un desiderio, il calcolatore dovrebbe avere molti
altri pensieri e desideri. Pensieri e desideri pos sono esistere
soltanto nel contesto di un sistema concettuale molto ricco.
Prima che un calcolatore possa avere credenze, desideri,
pensieri di qualsiasi tipo che pos sano essere riconosciuti co­
me tali, deve avere a disposizione gran parte delle informa­
zioni che formano il bagaglio naturale di ciascuno di noi. Pri­
ma di allora possiamo solo dire che il sistema rappresenta al­
cune informazioni, o persino fini e strategie, ma non si può
certo interpretare il sistema come avente quelle informazio­
ni, fini, strategie.
Dunque, non vi è alcuna ragione di principio perché un
artefatto (un calcolatore, ad esempio) non possa pensare,

43
sperare, desiderare, intendere e agire come una persona.
Possono bensì esserci delle ragioni tecniche: può darsi ad
esempio che sia impossibile costruire un dispositivo delle
stesse dimensioni del cervello umano, e altrettanto veloce,
senza ricorrere a materiali organici, oppure che la funziona­
lità del cervello richieda irrinunciabilmente un'architettura
analogica. Ma poiché queste possibilità, per quanto perfetta­
mente reali, non rivestono alcun interesse filosofico, le igno­
rerò.
Qualcuno potrebbe pensare che se un oggetto artificiale
pensa e agisce in modo sufficientemente simile a quello di
una persona, allora il progettista o il costruttore dovrebbero
essere in grado di descrivere e di spiegare gli stati mentali e
le azioni di quell'oggetto. Ora, ciò è falso: non vi è ragione
per credere che vi siano relazioni definizionali o nomologi­
che fra i concetti usati dal progettista e i concetti psicologici
che si vogliono descrivere o spiegare. Possiamo convincerce­
ne immaginando che il costruttore abbia semplicemente co­
piato, molecola per molecola, una persona reale: in questo
caso egli avrebbe una completa conoscenza delle caratteristi­
che neurologiche, biologiche e fisiche del suo artefatto, ep­
pure potrebbe non sapere assolutamente nulla dei pensieri e
dei sentimenti della sua creatura. Non è affatto detto che un
tipo di conoscenza "completa" ne implichi necessariamente
un altro.
Supponiamo tuttavia che l'artefatto contenga, come sua
parte essenziale, la realizzazione fisica di un programma del
tipo di quelli eseguibili su un calcolatore, e che i particolari
del programma, così come quelli della sua realizzazione, sia­
no noti. Nelle intenzioni del progettista, alcuni elementi for­
mali del programma, una volta realizzati, dovrebbero avere
il ruolo di pensieri: si tratterebbe di rappresentazioni di og­
getti e fatti del mondo. Il programma in sé è, naturalmente,
specificato in termini puramente sintattici: esso non può di­
re che cosa rappresentino i suoi elementi. Gli aspetti seman­
tici della rappresentazione (riferimento, denominazione, de­
scrizione e verità) non sono a loro volta rappresentati nel
programma.
Un programma specificato in termini puramente sintatti­
ci non può contenere la propria semantica: ciò non implica
che il dispositivo fisico che realizza tale programma non pos­
sa avere una semantica, ma solo che conoscere e comprende­
re il programma realizzato dal dispositivo non autorizza a
considerare quest'ultimo un oggetto pensante. Gli elementi
del programma che per il progettista rappresentano un dato
oggetto o un fatto particolare non possono essere automati-

44
camente interpretati come rappresentazioni di quell'oggetto
o di quel fatto relativamente al dispositivo che realizza il
programma. La comprensione del programma, quindi, non
ha necessariamente a che vedere con i pensieri attribuibili al
dispositivo su cui tale programma "gira", né, tantomeno, con
la questione se a tale dispositivo siano effettivamente attri­
buibili dei pensieri.
Il vero motivo alla base di tutto ciò ha a che fare con la
natura della spiegazione. Precedentemente abbiamo immagi­
nato un dispositivo fisico le cui azioni possono essere de­
scritte, spiegate e, almeno in una certa misura, predette me­
diante due teorie distinte, scritte con due diversi vocabolari.
La prima potrebbe essere la teoria della fisica, della biolo­
gia, della neurofisiologia, o la teoria implicita in un partico­
lare programma (non sto suggerendo, spero sia chiaro, che
queste teorie siano identificabili da un qualche punto di vi­
sta); la seconda è la teoria del senso comune che spiega i
pensieri e le azioni degli uomini riconducendoli alle loro mo­
tivazioni, personalità, abitudini, credenze e desideri. Il pro­
blema, allora, è quello della relazione reciproca di queste
due teorie, e se, in particolare, la prima si distingua dalla se­
conda soltanto per la maggiore precisione, ovvero se vi siano
differenze più fondamentali.
La spiegazione ha bisogno di un armamentario di concetti
classificatori, cioè di un vocabolario che abbia le risorse per
selezionare gli oggetti e gli eventi in modo da permettere la
formulazione di utili generalizzazioni. Supponiamo di voler
spiegare il crollo del ponte Tacoma-Seattle. Nonostante io
abbia appena usato un complesso sistema di classificazione
(geografico, politico e strutturale) per riferirmi all'evento da
spiegare, la descrizione è del tutto inutile per fini esplicativi:
non c'è alcuna legge generale che governa il crollo dei ponti
in certe zone. Se veramente vogliamo una spiegazione, dob­
biamo descrivere il crollo in termini del tutto diversi, facen­
do riferimento (tanto per cominciare) a una struttura proget­
tata in un certo modo e dotata di una certa resistenza, crolla­
ta di fronte a un vento di una certa forza e proveniente da
una certa direzione. (Naturalmente per dare questa descri­
zione ho usato un vocabolario che è ancora lontano da quello
di una descrizione veramente particolareggiata, in grado, ad
esempio, di spiegare perché l'identico ponte di Throg's Neck
non è crollato.)
Chiameremo fisico ogni particolare evento, stato o dispo­
sizione che può essere identificato (univocamente descritto)
usando il vocabolario di una delle scienze fisiche. Analoga­
mente, chiameremo mentale ogni particolare evento, stato o

45
disposizione che può essere identificato (univocamente de­
scritto) usando il vocabolario delle intenzioni. Ne segue che
se gli eventi e gli stati mentali coincidono con gli eventi e gli
stati fisici, allora avremo un'unica classe di eventi e stati,
ciascuno descrivibile tanto nel vocabolario mentale quanto
in quello fisico. Tuttavia, ciò non significa che si possano
usare i concetti classificatori di un vocabolario per formula­
re leggi, e quindi dare spiegazioni nomologiche, relativamen­
te agli oggetti descrivibili mediante l'altro vocabolario. Uni­
verso fisico e universo mentale, pur condividendo la medesi­
ma antologia, non hanno gli stessi concetti classificatori.
Poiché quest'ultima distinzione è cruciale per compren­
dere il resto della mia argomentazione, soffermiamoci un
momento su una semplice analogia che ho già avuto modo di
sfruttare. Supponiamo che, seguendo la voce popolare, io
stia tentando di addormentarmi contando le pecore, e che
ogni tanto, in modo del tutto casuale, una capra si intrufoli
nella fila. Ora, io non posso, nel mio stato di assopimento, ri­
cordare le parole classificatorie "pecora" e "capra", ma ciò
nonostante non ho alcuna difficoltà nell'identificare ciascun
animale: ecco l'animale numero uno, l'animale numero due,
e così via. Poiché la mia lista è necessari amente finita, posso
specificare la classe delle pecore e quella delle capre: le pe­
core sono gli animali l , 2, 4, 5, 6, 7, 8 e 1 2, mentre le capre
sono gli animali 3, 9, 10 e 1 1 . Ma queste classificazioni non
sono di alcun aiuto nella formulazione di leggi o di ipotesi
che vadano oltre i casi osservati: non posso, ad esempio, sup­
porre che le capre abbiano le corna. Nel mio sistema di enu­
merazione degli animali posso identificare ogni capra o pe­
cora particolare, ma non possono distinguere le pecore dalle
capre in base a una legge generale, a causa della povertà
concettuale del sistema. Le cose potrebbero stare in modo
analogo per l'universo fisico e quello mentale: ogni evento
mentale, preso singolarmente, potrebbe avere (deve avere, se
la mia ipotesi è giusta) una descrizione fisica, ma le classifi­
cazioni mentali potrebbero anche eludere il vocabolario del­
la scienza fisica. Se le cose stanno così, non possiamo aspet­
tarci che alcuna scienza fisica (o, comunque, non mentale)
possa spiegare il pensiero, la formazione delle intenzioni o
gli stati di credenza, desiderio, speranza e paura che caratte­
rizzano la nostra vita mentale e spiegano le nostre azioni.
Ecco come mi raffiguro la situazione: il mentale, benché
identico a una parte del mondo fisico, potrebbe non ricadere
sotto gli schemi esplicativi nomologici della fisica, della neu­
rologia, della biologia o della scienza dei calcolatori, ovvero:
potrebbe non ricadervi in quanto descritto in termini menta-

46
listici. Vi è motivo per credere che questo sia il caso ? Io pen­
so di sì.
Prima di esporre questi motivi, voglio tuttavia specificare
alcune delle caratteristiche della mia tesi. Si può giudicare
la potenza esplicativa di una teoria o di una disciplina secon­
do molti criteri: accuratezza della predizione, robustezza,
semplicità, possibilità di conferma o refutazione, e così via.
Le nostre conoscenze ordinarie sono spesso sufficienti per
spiegare, in modo approssimativo, i fenomeni mentali in ter­
mini fisici. Ad esempio, sappiamo già molto sugli effetti di
una serie di sostanze chimiche sul pensiero, sullo stato di vi­
gilanza (alertness), sullo stato d'animo e sull'attenzione. Non
si vede perché, via via che si giunge a una migliore compren­
sione dei meccanismi cerebrali, non dovremmo riuscire a
spiegare con precisione sempre maggiore i modi e i motivi
del nostro pensare, ragionare e agire. Vorrei fosse chiaro
che nulla di quel che dirò intende suggerire che tali spiega­
zioni non siano interessanti, né che non possano avere ampie
e importanti applicazioni.
Ciò detto, resta tuttavia aperta la questione se vi siano li­
miti teorici alla potenza esplicativa da attribuirsi alla simu­
lazione al calcolatore di aspetti della mente: se, cioè, vi sia
un discrimine concettuale permanente fra la psicologia del
mentale e altri sistemi esplicativi.
Poiché abbiamo convenuto di ignorare l'eventuale esi­
stenza di ostacoli fisici alla creazione di un calcolatore digi­
tale pensante, supponiamo che ne esista uno, e supponiamo
parimenti di conoscere il programma da esso realizzato. Per­
ché, allora, la conoscenza del progetto e del programma di
tale calcolatore non sarebbe di alcun aiuto per capire i suoi
pensieri e le sue azioni ?
Questa deficienza può essere spiegata mediante la distin­
zione fra sintassi e semantica. Un programma è pienamente
caratterizzato dalle sue proprietà formali o sintattiche: le
proprietà formali di ciò che può essere accettato in ingresso
e prodotto in uscita, e gli aspetti formali dei processi di ela­
borazione di questi dati. Dunque, se conosciamo il calcolato­
re solo attraverso il programma da esso realizzato, la nostra
conoscenza non può che essere limitata agli aspetti formali o
sintattici. Naturalmente, è proprio questa restrizione che
rende totalmente trasparenti all'indagine formale un calcola­
tore e il suo programma, limitando però, al tempo stesso, la
portata di tale indagine. La conoscenza del programma per­
mette di spiegare perché il calcolatore produca certi segni,
suoni o figure, in corrispondenza con certi dati in ingresso, a
loro volta descritti in termini altrettanto astratti. Ma questa

47
conoscenza non sfiora nemmeno la questione del significato,
del riferimento al mondo esterno, delle condizioni di verità,
perché questi sono concetti di natura semantica. È stato Al­
fred Tarski a mettere in luce per la prima volta lo iato concet­
tuale fra sintassi e semantica provando che, mentre la sintas­
si è formulabile in un linguaggio che ha il potere espressivo
del linguaggio naturale, le risorse necessarie per formulare i
concetti semantici fondamentali di un dato linguaggio non
possono trovarsi nel linguaggio stesso, pena la contraddizio­
ne. Sembra dunque che vi sia una differenza fondamentale
fra la semantica, che pone le parole in relazione con il mon­
do, e la sintassi, che invece non fa nulla di tutto ciò. Ma non
voglio dilungarmi oltre su questo punto, che è stato chiarito
in modo definitivo sin dai tempi di Tarski.
Il caso è molto simile a quello delle pecore e delle capre.
Là avevamo un linguaggio in cui ogni animale poteva essere
identificato, ma a cui mancavano i concetti necessari per
classificare gli animali come pecore o come capre. Qui inve­
ce abbiamo un livello di rappresentazione, quello della sin­
tassi, in cui è possibile descrivere univocamente ogni enun­
ciato, e quindi, a fortiori, ogni enunciato vero; ma a tale livel­
lo di rappresentazione non è possibile classificare gli enun­
ciati in quanto veri o falsi.
Dall'analisi del programma di un calcolatore si può com­
prendere soltanto come e perché il calcolatore elabora e me­
morizza le "informazioni", ma non si può sapere nulla relati­
vamente a che cosa è l'informazione o perfino se si tratta
d'informazione. Se conoscessimo soltanto il programma, non
potremmo nemmeno dire che il calcolatore dispone di qual­
che informazione, né che questo o quel particolare evento o
aspetto della macchina rappresenta qualcosa di esterno ad
essa.
A questo punto si potrebbe rispondere, in modo originale,
alla mia argomentazione ammettendone la conclusione e
conferendo a quest'ultima una connotazione positiva. Si po­
trebbe dire (come in effetti è stato detto) che gli esseri umani
non sono altro che dispositivi per l'elaborazione delle infor­
mazioni, e che come tali dovrebbe considerarli la scienza del
comportamento. È bensì vero (potrebbe continuare la con­
troargomentazione) che nelle nostre descrizioni identifichia­
mo gli stati mentali mediante il loro contenuto, cioè median­
te la loro relazione con il mondo esterno. Diciamo con non­
curanza che Colombo credeva che la Terra fosse rotonda,
che voleva raggiungere le Indie Orientali lungo la strada più
breve, e che per queste e altre ragioni egli intenzionalmente
navigò verso occidente per raggiungere l'Oriente. Ciò non to-

48
glie che una scienza psicologica che voglia essere esauriente
e potenzialmente precisa come, ad esempio, la biologia mole­
colare, escluderebbe dalla propria descrizione degli stati in­
teriori ogni riferimento alla realtà esterna. Io condivido que­
sta linea di ragionamento, ma da ciò non segue che vi sia un
altro modo di descrivere gli stati mentali in grado di spiega­
re il pensiero e l'azione.
La relazione dell'interno con l'esterno, della mente con il
mondo, è senza dubbio una delle caratte-ristiche principali
del nostro modo di descrivere e di identificare gli stati men­
tali. Certamente Colombo avrebbe potuto credere che la Ter­
ra fosse rotonda, e sbagliarsi; ma non lo avrebbe potuto cre­
dere se la Terra non fosse esistita. Siamo soliti specificare il
contenuto di credenze e altri atteggiamenti mentali facendo
riferimento a oggetti, o tipi di oggetti, con cui il soggetto di
tali atteggiamenti deve avere avuto un qualche tipo di intera­
zione causale. (Naturalmente ciò non è sempre vero, ma lo è
nei casi fondamentali.) L'elemento causale è persino più evi­
dente nel caso della percezione e della memoria. Se Jones ve­
de che c'è un uccello nel cespuglio, allora deve esserci effet­
tivamente stato un uccello nel cespuglio che ha causato que­
sta sua percezione. Se Smith ricorda di aver bevuto una pin­
ta di birra a pranzo, tale ricordo deve essere stato causato
dall'aver effettivamente bevuto una pinta di birra a pranzo.
Nel caso della percezione e della memoria, la verità è chia­
mata direttamente in questione: la credenza deve risultare
vera. Tuttavia, la dipendenza logica dei contenuti del pensie­
ro dalle connessioni causali con gli oggetti del pensiero non
è sempre così diretta e puntuale, né generalmente è tale da
garantire la veridicità.
Quando si parla di azioni intenzionali si fa spesso riferi­
mento a nessi causali tanto nel passato quanto nel futuro:
così, se Caino ha ucciso Abele, egli deve aver fatto qualcosa
che ha causato la morte di Abele, e se lo ha fatto intenzional­
mente, deve essere stato spinto ad agire dal desiderio della
morte di Abele. Credenze, desideri, intenzioni, in sé, non so­
no che disposizioni causali. Il desiderio della morte di Abele
è (fra l'altro) una disposizione necessaria per causare la mor­
te di Abele, date le credenze appropriate, l'opportunità, ecc.;
la credenza che una pietra può essere letale, combinata con
altri desideri, può causare l'intenzione di uccidere Abele, e
tale intenzione include la disposizione a causare la morte di
Abele.
Il fatto che questi aspetti causali siano immanenti al no­
stro discorrere quotidiano di eventi e stati mentali è motivo
sufficiente perché una scienza esatta eviti di usare questi

49
concetti. Per rendersi conto di ciò, basta pensare al ruolo dei
concetti causali e disposizionali nelle ordinarie spiegazioni
di eventi non mentali. Qualcosa è fragile se il verificarsi di
una certa serie di eventi ne può causare la rottura; qualco­
sa è biodegradabile se può essere decomposto da processi
biologici naturali. Poiché questo non è nient'altro che il si­
gnificato di "fragile" e "biodegradabile", nessuna scienza ma­
tura potrebbe ritenersi soddisfatta della spiegazione della
rottura di un oggetto, se tale spiegazione si limitasse a far ri­
ferimento alla sua fragilità. Sarebbe come spiegare che qual­
cuno si è addormentato sotto l'azione di un certo medicinale
perché le sostanze di cui que�to è composto hanno proprietà
soporifere. Questo tipo di spiegazione può es sere completa­
mente vuoto: ammesso di sapere che cosa siano le scottature
solari, il fatto che qualcuno ne sia rimasto vittima a causa di
una prolungata esposizione al sole non ci dice veramente
nulla di nuovo. Più spesso, tuttavia, queste spiegazioni sono
semplicemente incomplete. L'asserzione che un certo medici­
nale ha fatto dormire qualcuno a causa delle sue proprietà
soporifere può non essere del tutto priva di contenuto: il
sonno potrebbe essere stato otte,nuto non a causa delle pro­
prietà soporifere, ma in quanto il medicinale ha agito da pia­
cebo. Analogamente, spiegare che qualcuno ha mangiato per­
ché aveva fame significa far riferimento a uno stato che è
normalmente considerato come una disposizione causale a
mangiare. La spiegazione, tuttavia, non è vuota perché non è
affatto raro che si mangi per altri motivi.
È abbastanza comune pensare che le spiegazioni scientifi­
che siano causali, mentre quelle di azioni, eventi o stati men­
tali non lo siano. Io sono di parere quasi totalmente opposto.
Le ordinarie spiegazioni dell'azione, della percezione, della
memoria e del ragionamento, così come le attribuzioni di
pensieri, intenzioni e desideri, sono letteralmente tempestate
di concetti causali; mentre è segno di progresso di una scien­
za il suo fare a meno di concetti causali. Lo scioglimento di
un dato sale può essere spiegato, in una certa misura, dicen­
do che il sale era solubile e che era stato posto nell'acqua; è
altrettanto vero però che il discioglimento può essere predet­
to sulla base di conoscenze di gran lunga più generali che
fanno riferimento a quegli aspetti della composizione chimi­
ca del sale che sono responsabili della sua solubilità. Una
volta che tale meccanismo sia stato compreso, la spiegazione
non ha più alcun bisogno del concetto causale di solubilità.
(Non sto dicendo che tali spiegazioni non siano causali in al­
cun senso, né che le leggi della fisica non siano leggi causali;
voglio solo richiamare l'attenzione sul fatto che le spiegazio-

50
ni e le leggi di una scienza avanzata non fanno ricorso a con­
cetti causali.)
Vi è una certa correlazione fra il carattere così profonda­
mente causale dei concetti utilizzati nella descrizione e nella
spiegazione dei fenomeni mentali, e la distinzione fra sintas­
si e semantica sopra menzionata. Quando, in forza della na­
tura causale della memoria, specifichiamo i contenuti di un
ricordo riferendoci a cause normalmente esterne alla perso­
na, non solo stiamo spiegando causalmente una credenza,
ma ne stiamo anche dando un'interpretazione semantica.
Non vi è altro modo di descrivere e spiegare le nostre cre­
denze, paure, intenzioni e, in generale, i nostri sentimenti
(che pure sono privati e soggettivi come più non potrebbero),
se non riportandoli a eventi e oggetti esterni.
Il più delle volte ci accontentiamo di descrivere e spiega­
re i fenomeni ordinari facendo appello a poteri causali. Tut­
tavia sappiamo che le scienze fisiche forniscono, o confidia­
mo che prima o poi forniranno, una spiegazione migliore. È
possibile che in certe occasioni io debba spiegare la rifrazio­
ne della luce causata da un prisma facendo appello al potere
dispersivo del prisma, ma so anche che la scienza può far
meglio di così, facendo a meno delle disposizioni causali.
Perché, allora, non coltivare la speranza che la descrizio­
ne scientifica del funzionamento del cervello (o, se è per que­
sto, la conoscenza del programma di un calcolatore in grado
di simulare efficacemente la mente umana) fornisca al tem­
po stesso una spiegazione dei meccanismi che costituiscono
o sostengono il pensiero ? In fondo, anche i meccanismi della
dispersione della luce o della biodegradazione hanno svelato,
e spiegato, una realtà nascosta cui tutti facevamo riferimen­
to usando concetti causali come quello di biodegradabilità o
dispersività. Io credo che nessuna spiegazione che permetta
l'eliminazione dei concetti causali possa contemporaneamen­
te salvaguardare i nostri usuali concetti mentali e psicologi­
ci, e i motivi di ciò hanno direttamente a che fare con il ca­
rattere irriducibilmente normativa dei concetti che usiamo
per descrivere e spiegare il pensiero.
Vi sono norme e criteri di razionalità che si applicano an­
che ai pensieri. Se crediamo certe cose, la logica ci dice che
ve ne sono altre che dovremmo o non dovremmo credere in
conseguenza di quelle nostre prime credenze; la teoria della
decisione spiega come una persona razionale dovrebbe orga­
nizzare e correlare l'un l 'altro i propri valori e le proprie
credenze; i principi della teoria delle probabilità specificano
come e in che misura, dato un certo insieme di risultanze
empiriche, dovremmo concedere il nostro assenso a un'ipote-

51
si; e così via. Come risulta chiaro anche solo da queste sem­
plici riflessioni, noi usiamo criteri normativi per criticare e
consigliare gli altri o per modificare le nostre credenze e le
nostre scelte. Ma questi stessi criteri condizionano in modo
più sottile, e in un certo senso più fondamentale, le nostre
descrizioni e le nostre spiegazioni dei fenomeni mentali. Se
qualcuno crede che Tahiti sia a est di Honolulu, allora do­
vrebbe anche credere che Honolulu è a ovest di Tahiti. Per
questa stessa ragione, se noi siamo certi che tale persona
crede che Honolulu è a ovest di Tahiti, commetteremmo pro­
babilmente un errore se interpretassimo le sue asserzioni in
modo da attribuirle anche la credenza che Tahiti è a ovest di
Honolulu. Sarebbe un errore non perché è empiricamente di­
mostrato che assai di rado le persone hanno credenze con­
traddittorie, ma perché le credenze (e altri atteggiamenti)
vengono di solito identificate mediante le loro relazioni reci­
proche, e in particolare mediante le relazioni logiche che le
legano l'una all'altra. Cambiando tali relazioni, si cambia an­
che l'identità del pensiero. Non si può continuare a conside­
rare pensiero il prodotto di una mente che viola in modo si­
stematico le relazioni logiche elementari.
Il problema non è se vi sia accordo universale su queste
norme di razionalità, ma il fatto che ognuno di noi ha le pro­
prie norme e non riconosce come pensiero ciò che se ne di­
scosta troppo. In altre parole: ciò che si discosta troppo dal­
le norme più comunemente accettate di razionalità non è
pensiero. Solo dopo aver riconosciuto come razionale una
creatura o un "oggetto" in base ai nostri propri criteri, è pos­
sibile attribuirgli fondatamente dei pensieri, o spiegare il
suo comportamento in base ai suoi fini e alle sue convin­
zioni.
Ciò significa che quando qualcuno, scienziato o profano,
attribuisce pensieri agli altri, lo fa utilizzando necessaria­
mente le proprie norme. Ogni tentativo di controllare se le
proprie norme sono condivise da qualcun altro è irrimedia­
bilmente condizionato dal presupposto che esse in gran par­
te lo siano; è possibile interpretare correttamente i pensieri
altrui soltanto se si "scoprono" le proprie norme anche nel­
l'altra persona. Questa "scoperta", è chiaro, è solo una finzio­
ne dell'interpretazione, e non una risultanza empirica, ma
non si può fare a meno di una metodologia normativa nello
studio del pensiero e dell'intelligenza.
Questi elementi normativi fanno realmente tutta questa
differenza fra la spiegazione dei fenomeni cognitivi e gli altri
tipi di spiegazione ? Dopo tutto, vi sono criteri normativi in
ogni campo e in ogni disciplina: la scelta fra teorie concor-

52
renti è di solito guidata da criteri di eleganza, semplicità e
potere esplicativo, mentre criteri, teorici e non teorici, inter­
vengono nell'effettuazione, refutazione e valutazione delle
stesse osservazioni empiriche.
Tutto ciò è vero, naturalmente. Ma il punto non è che vi
sono discipline che ricorrono a metodologie normative men­
tre altre ne rifuggono, quanto piuttosto che tali metodologie
hanno un posto di preminenza del tutto speciale nello studio
dei fenomeni mentali. È chiaro che i criteri normativi del­
l'osservatore sono coinvolti nello studio di qualsiasi fenome­
no, ma quando tale fenomeno è la mente, allora anche quelli
dell'oggetto osservato acquistano rilevanza. Quando il pen­
siero fa del pensiero il proprio oggetto, allora l'os servatore
può identificare ciò che sta studiando soltanto se lo conside­
ra razionale, cioè in accordo con i propri criteri di razionali­
tà. L'astronomo e il fisico non sono affatto costretti a consi­
derare i buchi neri o i quark come entità razionali.
Ed è da qui che bisogna partire per spiegare il carattere
irriducibilmente causale dei concetti usati in connessione
con il pensiero e con l'azione. In generale, come abbiamo vi­
sto, si fa appello a disposizioni e poteri causali per nasconde­
re la mancanza di meccanismi e strutture esplicative miglio­
ri. Se una sostanza è solubile, allora vi è qualcosa nella sua
composizione (un qualcosa non meglio specificato) che, in
certe condizioni, ne provoca il discioglimento. Una volta che
la scienza abbia identificato quest'aspetto della composizio­
ne chimica della sostanza, si può fare a meno della solubilità
come concetto esplicativo. Ma le credenze, che a loro volta
sono disposizioni causali, sono identificabili solo per mezzo
delle relazioni che hanno l'una con l'altra e con gli eventi e
gli oggetti del mondo esterno . Ne segue che se vogliamo
identificare delle credenze particolari sulla base di queste
relazioni, dobbiamo necessariamente usare dei criteri nor­
mativi. Per poter mantenere intatte le caratteristiche norma­
tive che aiutano a definire le credenze e le altre forme di
pensiero, la connessione di questi eventi mentali con i corri­
spondenti eventi descritti in termini non cognitivi deve con­
servare un certo grado di "vaghezza". Non è la vaghezza del­
l'ignoranza, ma quella che deve intercorrere fra due diversi
schemi di descrizione e di spiegazione, uno dei quali, quello
mentale, è essenzialmente normativo, mentre l'altro non lo è.
Dato il carattere normativo e causale di ogni spiegazione
della ragione, e quindi anche del pensiero, l'unico modo per
accertare se un dispositivo artificiale (quale che ne sia il pro­
getto, il materiale o il programma) abbia credenze, intenzio­
ni, desideri e la capacità di percepire e interagire con il mon-

53
do allo stesso modo di una persona, è quello di interpretarne
il comportamento così come interpretiamo il comportamen­
to di un essere umano. Considerando la natura dell'interpre­
tazione abbiamo visto perché comprendere il programma e
la struttura fisica di un dispositivo, anche se di un dispositi­
vo genuinamente capace di pensiero, discorso e azione, non
equivale a comprenderne il pensiero, il discorso e l'azione.
L'argomento più importante a sostegno di questa conclusio­
ne, come abbiamo visto, è quello che mostra come l'interpre­
tazione richieda l'uso di concetti normativi come quelli di
coerenza, ragionevolezza e plausibilità, concetti che non pos­
sono aver parte nella comprensione di un programma speci­
ficato sintatticamente.

54
Simulare la mente
di Kathy Wilkes

I modelli

Il modello della mente come calcolatore è esattamente


ciò che l'espressione dice: un modello (o metafora o analo­
gia), e in quanto tale esso è affatto ineccepibile. Qualsiasi
modello che serva a qualcosa è per ciò stesso un buon mo­
dello; le scienze usano e devono usare dozzine di modelli, a
volte più d'uno allo stesso tempo, a volte solo temporanea­
mente o per uno scopo particolare, e a volte addirittura mo­
delli reciprocamente incompatibili. Modelli diversi suggeri­
scono diverse strategie metodologiche e ognuno evidenzia
aspetti diversi del fenomeno che si vuole studiare. Ciò vale
tanto per le scienze più mature e rispettate quanto per quel­
le meno sviluppate come la psicologia. A tale proposito si ve­
da cosa dice Cartwright parlando della fisica, l'eterno super­
io della psicologia:
Spiegare un fenomeno significa trovare un modello che si ac­
cordi con le proposizioni fondamentali della teoria e che per­
metta di derivare leggi corrispondenti alle complicate e confuse
descrizioni fenomenologiche del suo oggetto. Si usano modelli
per una varietà di scopi, e si deve giudicare ciascun modello in
funzione del grado con cui serve allo scopo prefisso. Ogniqual­
volta si usa un modello, si tenta di "vedere" un fenomeno attra­
verso di esso, ma problemi diversi richiedono che si guardi in
modo diverso. Potremmo ad esempio voler detenninare una
particolare quantità con grande precisione, o stabilime esatta­
mente la relazione funzionale che la lega a un'altra quantità.
Ovvero potremmo voler riprodurre uno spettro più ampio di
comportamento, ma con minor precisione. A volte infine si usa
un modello per descrivere i processi causali che sono alla base

55
di determinati fenomeni, e in questo caso è meglio usare model­
li in cui i fattori causali pertinenti siano descritti in modo il più
possibile realistico. (Cartwright 1 983, p. 1 52)

Qui il pericolo per la psicologia viene quando si passa


dall'articolo indefinito a quello definito: quando cioè si smet­
te di parlare di "un" modello, metafora o analogia, e "il" mo­
dello fa la sua comparsa. Metafore o analogie (che presup­
pongono, o possono catalizzare, una teoria) diventano allora
esse stesse teorie. Il fatto poi che ogni analogia abbia ele­
menti non analoghi (che ne costituiscono ciò che Hesse chia­
ma "analogia negativa") è del tutto ignorato; "la mente (per
certi versi) simile a un calcolatore" diventa "la mente in
quanto calcolatore"; i problemi per cui il modello risulta
inutile vengono negati, ignorati, o messi da parte; la metodo­
logia suggerita dal modello diventa "la" metodologia propria
della disciplina.
Naturalmente, non è la prima volta che un particolare
modello esercita il monopolio in psicologia. Per generazioni,
probabilmente anche prima di Cartesio, si trattava dell'anni­
presente "piccolo uomo nel cervello" o "il fantasma nella
macchina". Questo modello ancora sopravvive in espressioni
molto comuni come "l'occhio della mente", " introspezione",
"vedo ciò che intendi" . Si trattava naturalmente di una con­
cezione fondamentalmente sbagliata, che ha generato un nu­
golo di pseudoproblemi. Ma si trattò di una concezione fuor­
viante per molti aspetti, tranne uno: nessuno ci credeva dav­
vero. Nessuno, cioè, pensava realmente che ci fosse un picco­
lo homunculus interno; la metafora humiana della mente co­
me teatro interiore non fu mai (come Hume stesso fu il pri­
mo a sottolineare) nulla più di una metafora, nonostante sia
poi diventato molto comune e quasi obbligatorio ignorare
l'analogia negativa, trattando la mente come se essa fosse
realmente un teatro interiore.
È uno dei grandi trionfi del modello della mente come
calcolatore che esso abbia definitivamente cacciato il piccolo
uomo dal cervello. Perché se concepiamo il nostro cervello
come se fosse, per molti importanti aspetti, simile a un cal­
colatore, allora proprio come non siamo tentati di postulare
uno spiritello meccanico all'interno del familiare personal
computer sulla nostra scrivania, così non vi è più alcun biso­
gno di un homunculus all'interno del macchinario cerebrale.
Fin qui, nulla di male, ed essendo il nostro linguaggio così
profondamente influenzato dai relitti del cartesianesimo, ri­
petere la lezione certamente non guasta. Ma come per le me­
tafore più vecchie, i guai cominciano quando iniziamo a

56
comportarci come se credessimo a ciò che diciamo: a crede­
re che la mente sia proprio un calcolatore, per quanto un po'
fuori del comune, e che quindi i calcolatori forniscano "la"
metodologia di ricerca.
Si potrebbe obiettare che il cervello è ovviamente un
calcolatore, nel senso letterale dell'espressione, poiché,
esattamente come i calcolatori, è composto da piccole parti
connesse in modo complesso, ed esattamente come nel caso
dei calcolatori i dati o il comportamento in uscita sono una
funzione dei dati in ingresso e dei processi interni. Cosa c'è
allora di sbagliato nel prendere il modello in senso lettera­
le? È chiaro che un'interpretazione così debole non può che
essere innocua, ma, stando così le cose, essa non risulta poi
di alcun aiuto. Bisogna trovare i punti di somiglianza e dis­
simiglianza fra il funzionamento del cervello e i calcolatori
che siano pertinenti ai fini dell'analogia, in modo da sapere
quando fatti relativi al funzionamento dei calcolatori sono
d'aiuto nello studio del cervello, e quando non lo sono. I
calcolatori cui possiamo dirci simili in questo senso astrat­
to o minimo non sono stati ancora nemmeno immaginati o,
piuttosto, essi ci sono fin troppo noti, con tutta la loro pau­
rosa complessità, poiché non si tratterebbe che di altri cer­
velli. Una tale debole similitudine non può fornire alcuna
assistenza ed è priva di qualsiasi connessione con le tecni­
che di simulazione al calcolatore o con l'Intelligenza Artifi­
ciale contemporanea. Se il "modello del calcolatore" deve
essere di qualche utilità, esso deve portare avanti il parago­
ne fra la mente e le prestazioni di artefatti come quelli che
abbiamo costruito o stiamo tentando di costruire. Oggi que­
sti sono per la maggior parte macchine seriali di von Neu­
mann, e noi sappiamo che vi sono profonde differenze fra
il cervello (un sistema a elevato parallelismo) e tali mac­
chine.
Torneremo fra breve a questa rassegna dei difetti (ormai
familiari) del modello del calcolatore, ma prima mi sia per­
messo un secondo punto preliminare.

La mente

Una volta abbandonata l'idea della mente come conscia,


autoilluminantesi res cogitans (nonostante ci sia voluto un
tempo straordinariamente lungo prima che la psicologia e la
filosofia britanniche potessero sfuggire alla presa di questa
caratterizzazione altamente implausibile), non è più stato
possibile concepire la mente come teatro interiore, ispezio-

57
nato da un altrettanto interiore, imperturbabile occhio. Ma
ciò ha creato un problema che non è ancora stato adeguata­
mente dibattuto: che cos'è "una mente" ? Ovvero, se la stes­
sa domanda deve essere posta in forma aggettivale: cosa si­
gnifica essere di natura "mentale" ? Coloro che affrontano
quest'ultima domanda tendono a usare due criteri dramma­
ticamente diversi, e cioè, in primo luogo, condizioni "carte­
siane" secondo cui il mentale è ciò che è conscio, ciò di cui
siamo immediatamente consapevoli, ciò a cui abbiamo ac­
cesso privilegiato, e infine ciò rispetto a cui siamo infallibi­
li. Queste condizioni, che variamente mettono in luce diver­
se caratteristiche epistemologiche degli stati mentali, 1 risul­
tano quasi sempre adeguate per fenomeni quali il dolore o
altre sensazioni, pensieri che "attraversano la testa", e atti­
vità mentali quali la visualizzazione e il calcolo. Ma è noto
che esse non sono affatto adeguate per la maggior parte
delle ascrizioni disposizionali quali credenze e pregiudizi;
queste condizioni falliscono ex hypothesi, quali che siano i
fenomeni mentali preconsci, subconsci o inconsci che si vo­
gliono postulare. Così di solito un secondo criterio si ag­
giunge a completamento del primo; si tratta di un criterio
specificamente logico: l'intensionalità. Vengono così ammes­
si fenomeni mentali che non sono consci, anche se al prezzo
di rendere le cose un po' più confuse nel caso del dolore e
di altre sensazioni corporee; il punto però è che questo cri­
terio non è del tutto adeguato nemmeno nel caso dei feno­
meni inconsci, poiché non è sufficientemente restrittivo.
Tanto gli informatici quanto i neuroscienziati usano la ter­
minologia intensionale liberamente, spregiudicatamente e
utilmente per descrivere il funzionamento dei sistemi che
costituiscono l'oggetto dei loro studi. La nozione stessa di
"informazione" è carica di intensionalità, così come la de­
scrizione data da Sokolov di una delle funzioni che si postu­
lano per l'amigdala del ratto, in cui si "confrontano" gli sti­
moli in entrata con quelli "attesi". L'amigdala, o i calcolato­
ri, hanno forse "stati mentali" ?
C'è un punto di vista da cui questo problema risulta total­
mente privo di importanza. Nessun termine minimamente
interessante del linguaggio ordinario ha una definizione
chiara e precisa: non deve quindi soprenderci che nemmeno
"mente" e "mentale" ne abbiano una. Potremmo provare a
delimitare l'ambito di questi termini in modo blando e senza
pretese come segue: "la mente" è l'oggetto della psicologia
non-comportamentista (inclusa quindi la psicologia del senso
comune), mentre "il mentale/psicologico" include, semplice­
mente, tutti i termini usati essenzialmente in tale psicologia.

58
Con ciò naturalmente non abbiamo detto molto su nessuno
dei due termini, ma la cosa non deve allarmarci; non è affat­
to preoccupante che vi sia un gran numero di casi di confine
in cui non siamo sicuri se qualcosa è o non è "realmente"
mentale. Dopotutto, non sono casi molto diversi da quando
ci rendiamo conto che non è affatto interessante chiedersi se
un dato programma di ricerca è "realmente" psicologia, o se
non andrebbe piuttosto descritto come etologia, sociologia,
neuropsicologia o chissà cos'altro.
D'altro lato, persino una caratterizzazione così blanda
non è immune da obiezioni, e ciò dovrebbe portare in primo
piano un problema che è stato al centro della psicologia
scientifica in tutto il corso della sua storia ormai centenaria:
che cos'è esattamente "l'oggetto delle psicologie non-compor­
tamentiste" ? Anche se vi sono molti che si accontentano di
rispondere "la mente" ve ne sono altrettanti che insistono
che la risposta dovrebbe essere "il comportamento", e certa­
mente non tutti sono comportamentisti classici.
Il fatto è che non vi è alcuna ricca o utile nozione della
"mente" che possa essere d'aiuto quando cerchiamo di deci­
dere a che cosa servono i modelli della psicologia. Sono que­
stioni strettamente collegate con il tema che stiamo discu­
tendo: in tutto il corso della sua storia la psicologia ha sem­
pre tentato di definire il proprio oggetto nei termini delle
metodologie a sua disposizione, e tali metodologie sono state
dettate dal modello della mente di volta in volta prevalente.
La psicologia strutturalista di Wundt, ad esempio, poteva
usare essenzialmente una sola tecnica metodologica: l'intro­
spezione. Ciò fu in parte dovuto alla raffigurazione "cartesia­
na" della mente come ciò che l'onnivedente homunculus inte­
riore osserva. Ma è ovvio che molta parte dell'esperienza e
del comportamento è immune al resoconto introspettivo, ed
è questo residuo che dovette essere consegnato in parte al­
la sua Volkerpsychologie, in quanto contrapposta alla sua
"Nuova Scienza", e in parte a un limbo abitato, ad esempio,
dalla psicologia comparativa.
Ma cosa accadrebbe se il modello del calcolatore domi­
nasse la psicologia invece del modello del fantasma interio­
re? In un caso del genere è possibile intravvedere il riverbe­
ro di una disputa molto simile. Infatti i calcolatori (in quan­
to distinti dagli automi) possono al più produrre soltanto
comportamento linguistico ed esclusivamente "cognitivo"
(programmabile): l'accento cade sui processi psicologici inte­
riori, l' "interno" cognitivo, piuttosto che sulle azioni, le emo­
zioni, le motivazioni e l'esperienza sensoria. Inoltre, poiché il
macchinario dei calcolatori è così diverso dal "macchinario"

59
del cervello, vi è una corrispondente tentazione a ignorare
anche il ruolo dei fenomeni neuropsicologici. Tutto ciò tende
a suggerire che vi siano competenze psicologiche che posso­
no essere studiate indipendentemente dalla loro genesi e ma­
nifestazione nel controllo sensorio-motorio, isolatamente
dalle capacità psicofisiologiche che le costituiscono, prescin­
dendo dal comportamento, dall'etologia, dalla psicologia del­
lo sviluppo e dalla neuroscienza. Ma ciò, se vero, sarebbe
quantomeno sorprendente, a meno, cioè, di non sottoscrivere
implicitamente una versione non riformata del cartesianesi­
mo. Una tale acritica adesione al modello del calcolatore
avrebbe drammatiche ripercussioni sul modo in cui la psico­
logia definisce se stessa. Se la psicologia è lo studio della
"mente", e la mente è caratterizzata come ciò che si può stu­
diare per mezzo del modello del calcolatore, allora il percor­
so della psicologia sarebbe altrettanto radicalmente ostaco­
lato come al tempo in cui l'introspezione imperava.

Computerofobia

In questa sezione mi propongo di rivedere brevemente al­


cuni dei difetti (ormai familiari) del modello della mente co­
me calcolatore. (Le obiezioni sono tuttavia così numerose
che persino un'esposizione sommaria richiederà un po' di
tempo.) Poco di ciò che dirò sarà originale, e si noti che l'og­
getto delle critiche che presenterò è quel genere di lavoro di
simulazione al calcolatore che più ha ricevuto denaro, tempo
e pubblicità, e cioè precisamente la simulazione per mezzo
di macchine di von Neumann, in quanto distinta, ad esem­
pio, dalla più recente ricerca nel campo del trattamento pa­
rallelo distribuito (parallel distributed processing o PDP). È
chiaro che non tutte le critiche sono applicabili a tutti i ri­
cercatori nel campo: invero, pochi critici della simulazione
al calcolatore sono riusciti a essere altrettanto determinati e
incisivi quanto alcuni dei protagonisti della simulazione
stessa. Inoltre, al fine di rimuovere un possibile equivoco, si
noti che nulla di ciò che segue ha alcuna relazione con quella
parte del lavoro svolto in Intelligenza Artificiale che è irrile­
vante dal punto di vista della psicologia. Come esempio di ri­
cerca in questo settore si consideri lo sviluppo di "sistemi
esperti" dedicati allo svolgimento di attività che (finora) era­
no appannaggio esclusivo degli esseri umani come la diagno­
si di malattie delle piante o il gioco degli scacchi, senza con
ciò voler simulare la mente e riprodurne i processi cogniti­
vi. 2

60
(a) Una delle tipiche conseguenze della simulazione al
calcolatore è stata quella di incoraggiare la psicologia a im­
postare lo studio della mente-cervello secondo una strategia
"dall'alto verso il basso" (top-down). Tale strategia può esse­
re raffigurata, in modo forse un po' caricaturale, come se­
gue: la metodologia di ricerca è un'impresa quasi kantiana;
il punto d'inizio è la competenza che si vuole spiegare (ad
esempio il riconoscimento di configurazioni o pattern reco­
gnition), e un interrogativo della forma "Come è possibile il
pattern recognition?". Con un po' di fortuna, quindi, si indivi­
duano alcune condizioni che qualsiasi sistema in grado di as­
solvere a tale compito deve soddisfare, abbozzando a partire
da queste una mini-teoria delle sottofunzioni che incorpora­
no queste condizioni e rendono possibile il pattern recogni­
tion. Queste funzioni subordinate diventano quindi esse stes­
se oggetto d'analisi: si postula un "livello immediatamente
inferiore" di sotto-sottofunzioni, reiterando la metodologia.
Alla fine, ai neurofisiologi che avranno avuto la pazienza di
aspettare sufficientemente a lungo verrà affidato il compito
di mostrare tecnicamente come certe strutture cerebrali pos­
sano svolgere le (sotton-)sottofunzioni. Questa strategia è sta­
ta ulteriormente rafforzata dall'incredibile difficoltà di quel­
la che appare essere l'unica alternativa possibile, e cioè quel­
la di cominciare "dal basso": vi sono 1 010 o 1 0 1 1 cellule nervo­
se, ognuna delle quali può essere attiva, in quiete o inibita,
ovvero può entrare a far parte di nuovi raggruppamenti dan­
do origine a nuove configurazioni e combinazioni cellulari:
tutto ciò è troppo, e troppo difficile.
Questa linea d'argomentazione è ovviamente falsa, e non
solo perché la strategia in que�tione è stata così rimarche­
volmente avara di risultati, 3 ma soprattutto perché sono le
pratiche stesse delle scienze del cervello e del comportamen­
to a mostrare quanto una tale strategia metodologica possa
essere limitativa. Infatti, i problemi come quello del ricono­
scimento percettivo possono essere, e sono, affrontati a un
gran numero di livelli e con un gran numero di metodologie,
ed una di queste, invero, è quella "dall'alto verso il basso"
(perché no?). Ma è al tempo stesso giusto e appropriato stu­
diare la fisiologia della retina; le memorizzazioni a cellula
singola da neuroni nella corteccia visiva; il ruolo del genico­
lato laterale; l'effetto delle lesioni della corteccia umana e
animale; l'ipotesi che vi siano mappe topografiche multiple
nella corteccia; il grado di successo e di fallimento nell'adde­
stramento (ad esempio) dei piccioni a riconoscere oggetti ri­
tratti in fotografie prese da diverse prospettive; la costanza
della percezione del colore nonostante cambiamenti di illu-

61
minazione; la prosopagnosia, cioè l'incapacità di riconoscere
facce conosciute; e molti altri ancora.
Si potrebbe invero sostenere (e si dovrebbe anche, ma ciò
richiederebbe un articolo a parte) che i pazienti con danni
cerebrali hanno fornito molte più informazioni sull'organiz­
zazione delle capacità cognitive umane sia a livello macro­
scopico sia a livello microscopico di quante ne abbiano offer­
te i modelli al calcolatore. Nessuna procedura di ricerca che
proceda dall'alto verso il basso potrebbe mai condurci, ad
esempio, a sospettare l'esistenza di disturbi quali la prosopa­
gnosia o l'alessia pura. 4 Le spiegazioni psicofisiologiche del­
l'alessia pura (si veda ad esempio Geschwind 1 969) suggeri­
scono un'organizzazione del sistema visivo difficilmente so­
spettabile a priori. Nonostante questo sia solo un esempio,
esso è pienamente conclusivo, perché mostra che cosa una
strategia puramente dall'alto verso il basso non può non
mancare.

(b) Per quanto la strategia dall'alto verso il basso sia li­


mitante, essa assegna perlomeno un certo ruolo (benché umi­
le e secondario) alle scienze neurologiche, sfuggendo così a
una seconda obiezione cui si è già di sfuggita fatto riferimen­
to. Tale obiezione contesta che le neuroscienze possano venir
considerate come del tutto irrilevanti, e che la psicologia
debba essere "autonoma" dalla fisiologia. Vi sono tuttavia al­
cuni che difendono questa tesi, sostenendo che è "parroc­
chiale" o "sciovinista" restringere la psicologia allo studio
dell'elaborazione dell'informazione così come essa ha luogo
nell'uomo (o nei primati). Si veda ad esempio Pylyshyn (1 980,
p. 1 1 5): "Nello studio della computazione è possibile, e per
certi versi essenziale, considerare separatamente la natura
dei processi simbolici e le proprietà del dispositivo fisico su
cui essa viene realizzata." Oppure, ancora più esplicitamen­
te, Fodor (198 1 , pp. 8 sg.):
Ora, vi è un livello di astrazione a cui le generalizzazioni della
psicologia trovano la propria interpretazione più naturale e che
sembra tagliare trasversalmente le differenze fra sistemi fisica­
mente molto differenti [ ] Il punto, naturalmente, è che sono
...

possibili (e, per quanto ne sappiamo noi, anche reali) sistemi di


elaborazione delle informazioni che condividono la nostra psi­
cologia (ne esemplificano le generalizzazioni) ma non la nostra
organizzazione fisica.

Nella migliore delle ipotesi, le competenze psicologiche


(in confronto con il software di un calcolatore che è suscetti­
bile di realizzazioni fisiche molto diverse) potrebbero essere

62
messe in corrispondenza con un numero indefinito di catego­
rie neurologiche o fisiche arbitrariamente correlate a esse; la
psicologia e le scienze fisiche sarebbero connesse da una re­
lazione irriducibilmente singolare o token-token; la neuro­
scienza non avrebbe dunque nulla di interessante da dire ri­
guardo alle generalizzazioni psicologiche in quanto tali. No­
nostante questa argomentazione tenda a sminuire l 'impor­
tanza dei fatti fisiologici, essa può anche trarre sostegno da
alcuni di essi, come la ben nota plasticità del cervello, o il
fatto che al momento della morte il cervello di Byron pesas­
se più del doppio di quello di Anatole France, fatto questo
che tende a suggerire che le generalizzazioni psicofisiologi­
che difficilmente possono essere applicabili in entrambi in
casi. 5
Per quanto questa posizione possa essere affascinante, es­
sa è fondamentalmente sbagliata. Il primo e più ovvio errore
risiede nel supporre che noi conosciamo le categorie psicolo­
giche che sono oggetto di studio e di simulazione. Noi, al
contrario, non disponiamo di alcuna chiara nozione di quali
siano i fenomeni che la psicologia dovrebbe studiare e spie­
gare: per usare le parole di Fodor, non abbiamo ancora indi­
viduato il "livello a cui le generalizzazioni della psicologia
trovano la propria interpretazione più naturale". Si conside­
ri N.A., un paziente il cui caso è stato descritto da Squire e
Cohen. A seguito di un incidente di scherma, N.A. riportò
una lesione talamica che provocò una profonda amnesia an­
terograda. N.A. non ricorda quasi nulla degli eventi succedu­
tisi dal momento dell'incidente, ma ha una buona memoria
retrogada, e può acquisire alcune abilità cognitivo-motorie,
come quelle necessarie a risolvere il problema della Torre di
Hanoi. Ma ogni volta che gli viene presentato il problema,
N .A. non solo non riesce a ricordare la soluzione, ma nem­
meno di esservisi mai cimentato. È chiaro che in un caso co­
me questo il termine generale "memoria" subisce una scom­
posizione molto particolare e difficile da trattare. E l' amne­
sia di N.A. è solo uno dei molti differenti tipi di scomposizio­
ne: i pazienti del morbo di Korsakoff, di Alzheimer, o di
Huntington, hanno tutti forme sottilmente diverse di perdita
di memoria. Ma non è tutto. Il disordine teorico che ancora
circonda questa nozione è testimoniato anche dell'incredibi­
le numero di "memorie" diverse che si è ritenuto opportuno
distinguere anche senza far riferimento ai diversi tipi di am­
nesia: memoria a breve termine, a lungo termine, e "operati­
va"; memoria procedurale e dichiarativa; memoria semanti­
ca, episodica, iconica, non-cognitiva, somatica e così via.
Questa varietà è segno che stiamo ancora cercando il modo

63
più chiaro ed efficace di descrivere e articolare una capacità
così apparentemente ordinaria come la memoria. Ed è ovvio
che non possiamo dire che un calcolatore offre un ulteriore
esempio della "stessa" capacità finché non si sa che cosa
esattamente tale capacità sia.
Questo è un problema importante e dimenticato, alla cui
soluzione i filosofi, se solo volessero, potrebbero contribuire
in modo decisivo. Il grande errore risiede nella presunzione
di conoscere le nostre capacità, ciò che noi sappiamo fare, e
che qualunque altro oggetto sappia fare le stesse cose, abbia
le stesse nostre capacità. Tanto le persone quanto le lavatrici
"lavano i panni", e i topi vengono catturati tanto dai gatti
quanto dalle trappole meccaniche, eppure non vi è nulla di
interessante da imparare sugli uni studiando gli altri, così
come non si comprendono meglio le nostre abilità matemati­
che studiando i calcolatori tascabili. Oppure, per riavvicinar­
ci a problemi reali: a quali condizioni possiamo dire che vi
sono artefatti in grado di vedere? Per quanto ne so, il proble­
ma è del tutto ignorato da coloro che sostengono che la psi­
cologia dovrebbe essere "autonoma": il problema, cioè, de­
terminato dal fatto che non abbiamo ancora una chiara tas­
sonomia delle competenze psicologiche, e che quindi non
sappiamo quali siano le generalizzazioni interessanti che
hanno bisogno di essere individuate e studiate. Ne segue che
è impossibile appurare se la visione artificiale (ammesso che
ve ne sia una) e quella umana hanno qualcosa in comune o
meno: è possibile che esse stiano l'una all'altra come il topo
marsupiale al topo di campo: simili all'apparenza, ma in un
caso in cui le apparenze ingannano.
Vi è un secondo errore che appare innegabile non appena
vi si ponga attenzione ed esso consiste nel ritenere che vi sia
qualcosa di sbagliato o comunque di particolare nell'esem­
plificazione multipla di macrofenomeni. Si tratta di una cir­
costanza affatto comune nelle scienze cosiddette "dure", e un
esempio ci è fornito dalla discussione della nozione di tem­
peratura di Austen Clarke ( 1980). "Temperatura" è un termi­
ne appartenente al vocabolario della termodinamica che, nel
caso dei gas, è venuto a denotare ciò che la teoria molecolare
ha identificato con l'energia cinetica media delle molecole
costituenti il gas. Ma nel caso dei solidi classici la tempera­
tura va piuttosto identificata con la media dell'energia cine­
tica massima delle molecole, mentre la temperatura del pla­
sma non può essere questione di energia cinetica molecolare,
poiché il plasma non è composto da molecole ma da atomi
dissociati; ancora diversa, infine, è la nozione di temperatu­
ra dello spazio vuoto, in cui essa suole essere identificata

64
con la radiazione elettromagnetica transitoria (transient elec­
tromagnetic radiation). Inoltre, anche se ci limitiamo ai gas,
la temperatura di due gas diversi è esemplificata o realizzata
in modo molto diverso se abbandoniamo il livello rnolecolare
di descrizione per accedere a quello atomico. Analogamente,
asserire che il "riconoscimento di configurazioni" può essere
realizzato tanto per mezzo di scariche sinaptiche quanto per
mezzo di impulsi elettromagnetici e che quindi il mezzo fisi­
co di realizzazione è irrilevante, è altrettanto stupido quanto
diffidare della teoria atomica perché essa non ci dice nulla
sulla temperatura dei gas.
Occorre riconoscere che nelle scienze del cervello e del
comportamento, proprio come nelle altre scienze, vi sono
molti diversi livelli di analisi e di descrizione (nonostante
siamo molto lontani dall'averli identificati tutti), e semplice­
mente non abbiamo alcuna idea di quale sia il livello a cui la
natura del materiale fisico di realizzazione (lo "hardware")
risulta indifferente. Naturalmente, la plasticità del cervello è
ben nota, così come il potenziale di crescita dendritica e di
formazione di nuove connessioni neurali, e il tasso di decadi­
mento delle cellule individuali, per cui si può probabilmente
dire che la maggior parte delle volte l'esatta natura e i lega­
mi di questo singolo neurone non hanno nessuna importan­
za. Ma è possibile che lo stesso non si possa dire riguardo al­
le colonne cellulari, agli scherni di connettività o alle regioni
(ad esempio) dell'ippocampo o dell'area di Broca. L'impor­
tanza del mezzo di realizzazione fisica potrebbe cominciare a
essere manifesta molto prima di quanto creda il cognitivista
"autonomista", come efficacemente argomenta Block ( 1 983,
p. 535, corsivo mio):
La metafora del calcolatore ha diretto l'attenzione verso model­
li in cui tutto è ottenuto per mezzo di elaborate combinazioni di
operazioni estremamente primitive come "controlla se c'è una
corrispondenza" oppure "muovi l'elemento dall'n-esimo all'm-e­
simo posto" . . . Mi sembra che sia questo il punto in cui la meta­
fora del calcolatore può realmente aver fatto danno. Dobbiamo
prendere in considerazione la possibilità che le operazioni pri­
mitive siano più complesse e il loro ruolo esplicativo maggiore.

Block passa quindi a illustrare tale possibilità:


Si supponga ad esempio che, conducendo ricerche sui delfini,
gli scienziati cognitivi scoprano che questi mammiferi riescono
a usare e trarre vantaggio da quelli che a noi appaiono come
complessi aspetti dell'idrodinamica del loro ambiente. Gli psi­
cologi dominati dalla metafora del calcolatore potrebbero a
questo punto sviluppare modelli contenenti rappresentazioni

65
esplicite delle equazioni differenziali dell'idrodinamica così co­
me i mezzi digitali di calcolo necessari per risolvere tali equa­
zioni. Ma gli psicologi potrebbero sbagliarsi. Il metodo giusto
potrebbe essere quello di cercare dei meccanismi neurali essi
stessi soddisfacenti equazioni differenziali della stessa forma di
quelle dell'idrodinamica. Secondo i modelli di questo tipo, i del­
fini userebbero per la navigazione un dispositivo analogo a un
modellino di aeroplano nella galleria del vento.

La morale di tutto ciò è che vi è una possibilità reale che


le spiegazioni psicologiche affondino le radici nella struttura
fisica e che siano utilizzabili molto prima che la metafora
del calcolatore ci insegni qualcosa; è invero possibile che il
lavoro veramente interessante provenga da una o dall'altra
delle neuroscienze piuttosto che da esercizi di simulazione. 6
Più in generale, non possiamo sapere, a meno di svolgere
ricerche empiriche, quali sono le capacità che non dipendo­
no da strutture fisiche di tipo veramente specifico. È perfet­
tamente possibile che se dovessimo costruire un calcolatore
con capacità paragonabili a quelle del cervello umano, sa­
remmo costretti a usare come elementi strutturali delle cel­
lule sintetiche o comunque oggetti dal comportamento molto
simile a quello dei neuroni, con ad esempio potenziali d'azio­
ne, potenziali graduati, modificabilità "sinaptica", crescita
"dendritica", ecc. Per dirla con Gunderson, la simulazione di
alcune capacità potrebbe non dipendere tanto dal modo in
cui il meccanismo è programmato quanto da quello in cui il
programma è meccanizzato. (Gunderson fornisce un sempli­
ce esempio: non importa come lo programmi, il mio personal
computer non potrà mai stampare con inchiostro verde; a ta­
le scopo è necessario un componente fisico come un nastro
da stampante di colore verde.)
Molto (per quanto non tutto) del lavoro di simulazione al
calcolatore, specialmente quando si argomenta a favore delle
strategie "dall'alto verso il basso" o dell'autonomia della psi­
cologia, è pregiudicato da uno stupido errore: dalla convin­
zione cioè che si possa tracciare una chiara e utile distinzio­
ne fra le descrizioni funzionali e psicologiche del software e
quelle strutturali e fisiologiche dello hardware. Si prova
quasi imbarazzo ad attaccare una convinzione così manife­
stamente falsa: una convinzione che si sa essere falsa sin da
quando Aristotele sviluppò l'analoga distinzione fra materia
e forma, e che nella sua versione moderna è stata definitiva­
mente abbattuta da Kalke (1 969) in un articolo troppo igno­
rato. La distinzione, si badi bene, non vale nemmeno nel caso
dei calcolatori. Il programmatore di calcolatori che lavori,
ad esempio, in LISP, è libero di trattare tutto il resto come se

66
si trattasse di un dispositivo fisico in grado di compiere le
operazioni previste dal programma. Ma un altro programma­
tore potrebbe lavorare con una macchina in cui il LISP è stato
fisicamente incorporato (hardwired), scrivendo programmi
che pur non essendo in LISP, in LISP possono essere tradotti.
Inoltre, anche l'ingegnere che usa il linguaggio assemblatore
sta scrivendo un programma, nonostante il "livello" di tale
programma sia molto al di sotto di quello del LISP, ed è libe­
ro di trattare tutto il resto come se fosse fisicamente incor­
porato nella macchina. Persino chi scrive il codice-macchina
sta scrivendo un programma le cui istruzioni dicono alla
macchina di copiare successioni di O e di l dai suoi registri.
Infine, quando un programma, anche di alto livello, viene
eseguito, esso deve preventivamente essere compilato, e la
compilazione incorpora fisicamente, anche se temporanea­
mente, nella macchina ciò che si pensava appartenesse indi­
scutibilmente al lato funzionale della distinzione hardware/
software.
Per dirla semplicemente: la distinzione hardware/softwa­
re è relativa agli scopi del ricercatore. Nel cervello esatta­
mente come nel calcolatore possiamo studiare le funzioni
delle cellule nervose ovvero la loro realizzazione strutturale
in strutture sottocellulari; oppure possiamo decidere di con­
siderarle "struttura" quando si tratta di studiare il ruolo del­
le colonne cellulari, e quest'ultime, a loro volta, potrebbero
essere considerate "strutturali" nello studio dell'amnesia di
Korsakoff. Vi sono, insomma, tanto "grandi" strutture (ad
esempio l'emisfero sinistro, il sistema limbico, l'ippocampo)
quanto "piccole" funzioni (ad esempio quelle delle singole
cellule o dei gruppi cellulari). Occorre risolvere i misteri del­
la mente-cervello a tutti questi livelli, e in corrispondenza di
ognuno di essi gli scienziati potrebbero descrivere se stessi
come impegnati nello studio di "strutture", di "funzioni", o,
più probabilmente, di entrambe.

(c) Abbiamo già accennato a un terzo problema connesso


con l'uso tradizionale del modello del calcolatore: tale mo­
dello è troppo cognitivo. La psicologia ispirata a tale model­
lo si riduce a "psicologia cognitiva" . Le capacità motivazio­
nali, sensorie, motorie e dello sviluppo sono state relegate ai
margini o dimenticate solo perché il modello del calcolatore
ha grosse difficoltà a trattarle. 7 Si dà un modello delle com­
petenze psicologiche solo laddove queste ammettono rappre­
sentazioni simboliche, quasi enunciative, e la conseguente
assurdità di supporre che i bambini a uno stadio infantile
prelinguistico, o i piccioni, riescano a padroneggiare un non

67
meglio specificato "linguaggio del pensiero" viene o esplicita­
mente abbracciata o, per così dire, nascosta sotto il tappeto.
L'apparato cognitivo umano si sviluppò in risposta a ciò che i
nostri antenati sapevano e non sapevano fare, ciò di cui aveva­
no bisogno, e ciò che potevano o non potevano procurarsi.
Controllo motorio, percezione, motivazione e cognizione sono
inestricabilmente connessi in un nodo in cui non si può asse­
gnare alcuna priorità e che è all'origine di ciò che ora siamo.
Il problema può anche essere enunciato considerando una
domanda apparsa una volta in un esame all'Università di Ox­
ford: perché non diciamo che le telecamere vedono ? Chiara­
mente non perché una telecamera è così strutturalmente di­
versa da un occhio umano: si potrebbe facilmente ovviare a
ciò, e in ogni caso ci sembra appropriato dire che gli insetti ve­
dono nonostante i loro occhi siano così diversi dai nostri. Ben­
ché finora la maggior parte dei tentativi sia incorsa in serie
difficoltà, è possibile che alla fine si riesca a ottenere un calco­
latore capace di riprodurre alcune attività relativamente sofi­
sticate nel campo del riconoscimento di configurazioni (maga­
ri un sistema PDP). Ma con ciò non si sarebbe ancora riprodot­
ta la visione, con la conseguenza che solo una piccola frazione
delle "generalizzazioni interessanti" che valgono per la perce­
zione umana potrebbero dirsi condivise dai calcolatori. E non
si tratterebbe di visione perché un tale sistema ignorerebbe
completamente l'olismo della dimensione psicologica, un oli­
smo che va al di là degli aspetti cognitivi "puri". Oggi i pro­
grammi per calcolatore riescono a identificare triangoli, cubi,
quadrati, e forse un giorno riusciranno a identificare anche
quegli alberi e quei pesci che già oggi i piccioni riescono a
identificare senza problemi. Diciamo che questi programmi
identificano gli oggetti nel senso che essi possono dire, me­
diante gli appropriati dispositivi di uscita, ciò che essi sono.
Anche noi possiamo farlo, ma ciò che rende la percezione im­
portante e interessante richiede ben più di questo. È molto ra­
ro che quando vediamo un oggetto la nostra reazione sia quel­
la di dire ciò che esso è. È più probabile che noi lo ignoriamo,
lo mangiamo, lo raccogliamo, lo evitiamo, lo ammiriamo o lo
deploriamo, lo bombardiamo, lo gettiamo, vi saltiamo sopra o
scriviamo una poesia su di esso. Nessuna di queste attività
può essere adeguatamente trattata all'interno di un progetto
limitato alla cognizione "pura" .
Nella scienza un certo grado di idealizzazione e di semplifi­
cazione è inevitabile, ma bisognerebbe essere in grado di indi­
care le ragioni per cui le nostre idealizzazioni dovrebbero es­
sere istruttive. E sembra perlomeno strano supporre che le
uniche "generalizzazioni interessanti" riguardo alla percezio-

68
ne siano es senzialmente prive di connessioni con il ruolo che
la percezione ricopre nell'economia generale della psicologia
e del comportamento. È questo, soprattutto, che ci porta a ri­
volgere nuovamente la nostra attenzione all'attività sensorio­
motoria. Come ha dimostrato Scheerer (1 984 e di prossima
pubblicazione), ciò era dato per scontato prima della "rivolu­
zione del calcolatore ". Se una tale attenzione è assente, non
possiamo certo dire che il nostro modello "veda", e a maggior
ragione è impossibile ottenere sistemi che "condividono la no­
stra psicologia".

(d) Tutti conoscono il cosiddetto frame problem. Si tratta,


in breve e approssimativamente, del problema di far sì che un
calcolatore sfrutti e manipoli ciò che noi implicitamente e ta­
citamente sfruttiamo e manipoliamo, come ad esempio la co­
noscenza quotidiana del senso comune che noi inconsapevol­
mente possediamo e usiamo, oppure l'abilità di concentrarsi
sui fattori di volta in volta rilevanti, ignorando quelli privi di
connessione con il compito prefisso (tutti fattori che dipendo­
no in grado elevato dal contesto e dallo scopo). Così tanto è
stato scritto e detto su questa difficoltà, che qui è sufficiente
citare una recente rassegna scritta da Margaret Boden (1 983)
per un'enciclopedia:
Non solo è molto difficile riconoscere le conoscenze specifiche di
dominio che sono rilevanti nel ragionamento informale ed espri­
merle computazionalmente in modo da renderle disponibili alla
macchina, ma nemmeno è ancora stato risolto il problema di usa­
re in modo efficiente e corretto le grandi basi di conoscenze. Co­
me può un programma (o una persona) rendersi conto che ha bi­
sogno di un particolare dato e recuperarlo velocemente? Quale
dovrebbe essere l'organizzazione interna e (per cosi dire) l'indice
di una base di conoscenze affinché i dati necessari siano facil­
mente accessibili nel corso del ragionamento informale del senso
comune? Il trattamento di un gran numero di conoscenze e la
rappresentazione dell'apprendimento sono forse i problemi inso­
luti più pressanti dell'Intelligenza Artificiale contemporanea.
(Harre e Lamb, 1 983, p. 33)

Quando si cambia il contesto, passando da un mondo arti­


ficialmente ordinato come quello di una scacchiera, al mondo
reale con tutta la sua confusione, allora i metodi formali algo­
ritmici per tentare di raggiungere le conoscenze specifiche di
dominio rilevanti cominciano a sembrare un po' ridicoli. L'in­
capacità dei calcolatori a trattare con il mondo reale è esatta­
mente ciò che fece dire a Cristopher Evans nel 1 979 che i più
sofisticati calcolatori dell'epoca avevano approssimativamen­
te la stessa "intelligenza" di un millepiedi. Ovvero, come so-

69
stenne Cartesio polemizzando con Montaigne, "la ragione è
uno strumento universale che può venire utile in ogni contin­
genza"; finché il frame problem non sarà stato risolto, il "ra­
gionamento" dei calcolatori potrà essere utilizzato solo in casi
strettamente delimitati e definiti. Vi sono programmi per cal­
colatori che possono facilmente battermi a scacchi, così come
vi sono ragni che sono assai più bravi di me nel tessere le loro
tele, ma nell'un caso come nell'altro non si è ancora raggiunta
un'approssimazione dell'intelligenza e ne siamo, anzi, ancora
molto lontani. Mi si deve allora spiegare perché il calcolatore,
piuttosto che il millepiedi, dovrebbe fornire "il" modello della
psicologia.

(e) Infine, la psicologia cognitiva usa estensivamente la no­


zione di "rappresentazione". La vaghezza di tale nozione è
esattamente rispecchiata in quella del più tradizionale termi­
ne "idea": la cosa non deve sorprenderei, poiché le rappresen­
tazioni non sono altro che idee rivestite di una nuova, fiam­
mante terminologia. La chiarezza apparentemente maggiore
della nozione di rappresentazione è tuttavia dovuta al fatto
che il modello del calcolatore implicitamente limita la nostra
attenzione alle rappresentazioni semantiche, enunciative o
simboliche, connesse per mezzo di logiche più o meno esoti­
che. (Ciò naturalmente non fa che rinforzare il pregiudizio che
porta a isolare gli aspetti cognitivi.) Al giorno d'oggi sono in
molti ad attaccare il "paradigma enunciativo", e i ben noti
esperimenti di Shepard e Metzler ( 1 97 1 ) sembrano suggerire
l'ipotesi che almeno parte delle informazioni siano piuttosto
conservate in forma iconica (ma questo punto è aspramente
dibattuto: si veda ad esempio Block 1 98 1 , vol. 2, parte secon­
da). Tuttavia, senza voler sminuire queste argomentazioni, il
semplice senso comune dovrebbe essere sufficiente per farci
giungere alle stesse conclusioni dopo un attimo di riflessione
sul caso degli animali o dei bambini allo stadio prelinguisti­
co. 8 Se si potesse stabilire che non vi è alcun'altra possibilità,
allora vi sarebbero anche motivi teorici molto forti pet accet­
tare la natura controintuitiva del paradigma enunciativo, per
quanto ciò ripugni al nostro senso comune. Abbiamo tuttavia
ogni ragione per supporre che le alternative non manchino.

Computerofilia

Un beneficio innegabile che ci è venuto dalla simulazione


al calcolatore tradizionale è la quantità di conoscenze negati­
ve che essa ci ha fornito: abbiamo scoperto molto sul modo in

70
cui il cervello non funziona. Inoltre, la simulazione al calco­
latore ha portato in primo piano problemi che non sapevamo
nemmeno di avere. Si consideri ad esempio il frame problem;
finché non vi siamo inciampati non avevamo virtualmente al­
cuna idea sul modo in cui esso viene risolto da noi (o dai pic­
cioni, dalle rane, dai topi, dai gatti, nessuno dei quali sa gio­
care a filetto, per non parlare degli scacchi). Chi avrebbe mai
immaginato che il riconoscimento di configurazioni o la
coordinazione occhio-mano fossero così complicati ? Indub­
biamente vi è spazio per la simulazione tradizionale: la psico­
logia è o dovrebbe essere una chiesa accogliente.
Sospetto, tuttavia, che entro breve in informatica l'atten­
zione e l'interesse (così come, forse più significativamente, i
fondi del Consiglio delle ricerche) abbandoneranno le mac­
chine a elaborazione simbolica per migrare verso i meccani­
smi paralleli. È un processo che è già cominciato. Sarebbe
avventato qui tentare di passare in rassegna il lavoro com­
piuto in questo campo: esso è in gran parte illustrato, e in
modo accessibile, nell'ammirevole raccolta in due volumi a
cura di Rumelhart e McClelland (1986). Siccome qui mi limi­
to a trattare dei modelli in psicologia, voglio concludere ten­
tando di mostrare come queste nuove simulazioni al calcola­
tore sembrino avere tutte le virtù che contraddistinguono un
modello di valore, evitando al tempo stesso gli svantaggi del­
la strategia tradizionale.
La prima, e secondo me anche la più significativa, di que­
ste virtù è la mancanza di qualsiasi tentazione di monopoliz­
zare il campo della psicologia: una tendenza cui la tradizio­
nale simulazione al calcolatore, come abbiamo visto, soccom­
be. Infatti, i modelli paralleli hanno limitazioni biologiche
molto pesanti. Essi muovono dall'ipotesi che l'elaborazione
delle informazioni sia svolta essenzialmente attraverso le in­
terazioni di un gran numero di unità semplici, e che la com­
putazione sia una questione di connessioni appropriate piut­
tosto che di trasmissione di informazioni simboliche. Si trat­
ta quindi di modelli "connessionistici": questi modelli sono
"versioni semplificate e ridotte all'osso delle reti neurali rea­
li" (Rumelhart e McClelland 1 986, vol. 2, p. 388). Essi si inter­
connettono in modo essenziale con il lavoro compiuto nelle
scienze neurologiche e in psicologia comparativa. Inoltre,
supponendo che la conoscenza risieda nella forza delle con­
nessioni, tali modelli potranno rappresentare l'apprendimen­
to come un processo in cui alle varie connessioni vengono da­
te forze adeguate: così per la prima volta la simulazione al
calcolatore può usare in modo diretto i risultati della psico­
logia dello sviluppo.

71
Un secondo motivo per cui questo tipo di ricerca non ha bi­
sogno di aspirare al monopolio nel proprio campo è che essa,
in misura notevole, procede "dal basso verso l'alto" piuttosto
che "dall'alto verso il basso". Rumelhart e McClelland dicono
di essere in cerca della "microstruttura della cognizione", da
cui poi la "macrostruttura" potrebbe essere inferita come in­
sieme di proprietà emergenti. Si trovano così ricerche condot­
te per studiare fenomeni come il movimento delle dita dei dat­
tilografi professionali, oppure ricerche come quelle di Marr e
Poggio (1 976) sulla percezione della profondità in stereogram­
mi a punti casuali. Da tali studi è poi possibile congetturare o
ipotizzare principi generali e regole di più ampia applicabilità
da sottoporre quindi a verifica su attività diverse da quelle
che hanno dato loro origine.
Naturalmente, la ricerca sulla mente-cervello, sia essa con­
dotta dall'alto verso il basso, dal basso verso l'alto o dal cen­
tro verso gli estremi, è non solo possibile ma anche necessa­
ria. Uno dei vantaggi dello studiare la "microstruttura" della
cognizione è la possibilità di accantonare (nella speranza di af­
frontarla in seguito) la questione di quale sia la migliore carat­
terizzazione delle competenze cognitive e sensorio-motorie.
Come abbiamo visto, non è possibile isolare adeguatamente la
percezione, né si può praticare un'escissione di quei fenomeni
che vanno sotto il nome di "memoria", e trovare altri esempi è
solo un gioco da ragazzi. Ma è invece possibile isolare il rileva­
mento del gradiente di trama (texture-gradient detection) o il
modo in cui il bambino acquisisce i paradigmi verbali irrego­
lari. Non vi è più, tuttavia, alcuna ragione di preoccuparsi del­
la "realtà" del modello, chiedendosi se esso "realmente" rile­
va, vede, riconosce o comprende le forme verbali. È una que­
stione che non si pone nemmeno più: non stiamo più cercando
un'Intelligenza Artificiale che sia "vera intelligenza", né ci os­
sessiona più la questione se "la stessa" capacità possa essere
esemplificata da sistemi di tipo radicalmente differente. (E si
può quindi anche evitare l'obiezione di Searle secondo cui i
calcolatori non avrebbero "intenzionalità originaria": nessuno
pretende che ce l'abbiano.) Il compito dei meccanismi paralle­
li è un altro. Proprio come, per parafrasare un esempio di
Dennett ( 1 978), un modello di un uragano al calcolatore non è
"realmente" bagnato né ventoso, così non c'è alcun bisogno
che questi modelli imparino o riconoscano " realmente". 9 In­
dubbiamente, è sempre possibile chiedersi se questo sia il ca­
so, e la risposta varierà a seconda dell' "isolabilità" della capa­
cità di volta in volta in questione. Ma si tratta altresì di do­
mande dallo scarso interesse teorico, marginali rispetto alle
ambizioni principali del progetto di ricerca.

72
Un ulteriore vantaggio è l'assenza di qualsiasi restrizione
agli aspetti "puramente cognitivi". Gli studi sul controllo sen­
sorio-motorio si ritrovano in ogni progetto PDP d'avanguardia,
sia che si tratti di esaminare il meccanismo d'orientamento
della mosca comune, sia che ci si occupi del movimento delle
dita di un dattilografo di professione. Si tratta di una caratteri­
stica analoga al fatto che le "rappresentazioni" citate in questi
studi non sono né "enunciative" né "simboliche": in generale,
ammesso che si possa caratterizzarle in qualche modo, esse so­
no piuttosto "sub-simboliche". "La competenza dei modelli può
a volte essere espressa in questo quadro teorico per mezzo di
regole simboliche, ma non si possono raggiungere le loro pre­
stazioni memorizzando le regole in forma esplicita e facendole
passare attraverso un interprete simbolico" (Rumelhart e Mc­
Clelland 1986, vol. l , p. 262). Ed è proprio perché le informazio­
ni non sono memorizzate a "indirizzi" individuali, ma sono
piuttosto "distribuite" ed espresse in funzione di forze connet­
tive modificabili fra unità singole, che i processi di modifica­
zione potrebbero aiutarci a venire a capo del frame problem.
Infatti, come abbiamo visto, è invero possibile dare un modello
di quella forma di apprendimento che non consiste nell'imma­
gazzinamento pezzo per pezzo di singoli dati conoscitivi.
Generalmente parlando, i meccanismi paralleli operano
un'inversione della strategia della simulazione tradizionale.
Non è più questione di tentare di usare i calcolatori come indi­
zi del funzionamento della mente-cervello, quanto piuttosto di
usare ciò che sappiamo sull'architettura del cervello per co­
struire macchine che isolino e simulino la "microstruttura co­
gnitiva" che il cervello si suppone abbia. Ciò ci dà calcolatori
che fungono da veri modelli, e non sostituti fittizi per teorie fit­
tizie.

NOTE

l Ma naturalmente le preoccupazioni di Cartesio erano in primo luogo


epistemologiche. La caratterizzazione della mente necessaria per combattere
lo scetticismo è una conseguenza, piuttosto che principio ispiratore, dell'epi·
stemologia.
2 È chiaro che qui è impossibile tracciare una netta divisione: molti di co­
loro che lavorano con i sistemi esperti trovano utile considerare e utilizzare le
teorie psicologiche sul modo in cui gli esseri umani svolgono le attività in que­
stione. D'altra parte, tutto ciò di cui la mia argomentazione ha bisogno è una
distinzione approssimativa.
J Non si può scusare questo fallimento adducendo la giovane età della ri­
cerca che fa uso di simulazioni al calcolatore. Diacronicamente, essa è ancora
nel pieno dell'infanzia, ma sincronicamente ha l'età di Matusalemme. In que­
sto settore sono state certamente spese più ore-uomo di quante ne abbia richie-

73
ste tutto lo sviluppo della fisica prima di Einstein. A ciò si aggiungano i finan­
ziamenti imponenti che sono stati riversati nella disciplina, e la velocità con
cui i ricercatori possono oggi giungere a conoscenza, e valutare, i risultati di
colleghi al lavoro in qualsiasi parte del mondo: si vede allora che l'immaturità
non può far perdonare il fallimento della simulazione al calcolatore tradizio­
nale.
4 L'alessia pura, una condizione rara ma ben documentata, non pregiudi­
ca le capacità dei pazienti a riconoscere praticamente tutto, tranne parole e/o
lettere e colori. Gli alessici puri possono a volte legger-e i numeri, e possono
dire che il cielo è blu, l'erba è verde, il sangue è rosso, ecc. Essi mantengono la
propria acutezza ai colori, potendo accuratamente suddividere dei tasselli co­
lorati in pile dei diversi colori, ma non riescono assolutamente a leggere paro­
le e lettere, né a identificare il colore di un oggetto posto di fronte a loro.
s Il cervello perde le proprie cellule in modo orribilmente veloce. Presu­
mibilmente il cervello di Anatole France non è sempre stato cosi piccolo come
il suo peso finale di 1 200 grammi suggerirebbe. Ma nemmeno il cervello di By­
ron era immune alla perdita di cellule (un fenomeno che inizia molto presto,
fra i dodici e i venti anni) e al momento della morte il suo cervello pesava 2400
grammi. Anche se Byron non è sempre stato due volte più "cerebrale" di Fran­
ce, nel corso della vita attiva di questi due geni il cervello del primo deve esse­
re stato notevolmente più grande di quello del secondo.
6 Si consideri ad esempio il lavoro compiuto da Rosch (1 973), che tende a
suggerire che un qualche tipo di viso prototipico (maschile o femminile) sia fi­
sicamente incorporato nella struttura cerebrale. Oppure si rifletta sul fatto
che i piccioni non hanno alcuna difficoltà a imparare a riconoscere figure di
alberi o pesci, ma non possono essere addestrati a riconoscere figure di sedie
o bottiglie del latte.
7 Per tenere in equilibrio un bastone sulla punta di un dito occorre mette­
re in atto essenzialmente gli stessi processi necessari a mantenere in posizio­
ne verticale un razzo durante la fase di lancio. Quest'ultimo problema richie­
de sfilze di calcolatori impegnati a risolvere sequenze di equazioni complesse,
mentre il primo è facilmente risolto persino da un bambino dopo pochi minu­
ti di pratica. Questo stesso bambino potrebbe, dopo aver ascoltato le necessa­
rie istruzioni, suddividere una pila casuale di pezzi degli scacchi nel gruppo
degli alfieri, dei cavalli, dei pedoni, ecc. Un calcolatore programmato per il
gioco degli scacchi potrebbe facilmente sconfiggere il bambino, ma non risol­
vere questo problema, cosiddetto di bin-picking.
8 Boden (1984) porta la riproduzione di una deliziosa vignetta della serie
Punch, in cui un martin pescatore su un ramo osserva un pesce d'acqua, con
un fumetto proveniente dalla sua testa: " = peccato/peccato". Il delfino di
Block, cui sopra si è accennato, illustra lo stesso tipo di tesi.
9 Ad esempio, le mie intuizioni mi suggeriscono che i calcolatori odierni
"realmente" giochino a scacchi, ma mi riesce anche difficile accettare che essi
"realmente" vogliono vincere. Alcuni concetti sono più olistici di altri, e non
c'è alcuna risposta generale al problema se un dato fenomeno è "reale" o sol­
tanto "come se".

RIFERIMENTI BIBLIOGRAFICI

Block, N. (a cura di) (1981 ), Readings in Philosophy of Psychology, vol.


2, Methuen, London.
Block, N. (1 983), Mental Pictures and Cognitive Science, in "Philoso­
phical Review", 92, pp. 499-54 1 .

74
Boden, M. (1 983), Artificial Intelligence, in V.R. Harre e R. Lamb (a
cura di), The Encyclopedic Dictionary of Psychology, Basil Black­
well, Oxford.
Boden, M. (1 984), Animai Perception from an A rtificial lntelligence
Viewpoint in C. Hookway (a cura di), Minds, Machines and Evolu­
tion, Cambridge University Press, Cambridge, pp. 153-174.
Cartwright, N. (1 983), How the Laws of Physics Lie, Clarendon Press,
Oxford.
Clarke, A. (1 980), Psychological Models and Neural Mechanisms, Cla­
rendon Press, Oxford.
Dennett, D. (1 978), Why You Can 't Make a Computer that Feels Pain,
in "Synthese", 38.
Geschwind, N. ( 1969), The Alexias, dapprima pubblicato da D.F. Ben­
ton e N. Geschwind in P.J. Vinken e G.W. Bruyn (a cura di), Hand­
book of Clinica/ Neurology, vol. 4, North Holland, Amsterdam
1969, pp. 1 1 2-140; ristampato quindi in N. Geschwind, Selected
Papers on Language and the Brain, Boston Studies in the Philoso­
phy of Science, vol. 16, a cura di R.S. Cohen e M.W. Wartofsky,
Reidel, Dordrecht 1 974.
Kalke, W. ( 1 969), What is Wrong with Fodor's and Putnam 's Functio­
nalism, in "Nous", 3, pp. 83-93.
Rosch, E. ( 1969), On the Internai Structure of Percep tual and Seman­
tic Categories, in T. Moore (a cura di), Cognitive Development and
the Acquisition of Language, Academic Press, New York, pp. 1 1 1-
144.
Rumelhart, D.E., McClelland, J.L. e il PDP Research Group (a cura di)
( 1 986), Parallel Distributed Processing: Explorations in the Micro­
structure of Cognition, voll. 1-2, The MIT Press: Bradford Books.
Scheerer, E. ( 1 984), Motor Theories of Cognitive Structures: A Ristori­
ca/ Review, in W. Prinz e A.F. Saunders (a cura di), Cognition and
Motor Processes, Berlin, pp. 77-98.
Scheerer, E. (di prossima pubblicazione), Muscle Sense and Innerva­
tion Feelings: A Chapter in the History of Perception and Action,
in H. Heuer e A.F. Saunders (a cura di), lssues in Perception and
Action.
Shepard, R.N. e J. Metzler ( 197 1 ), Menta/ Rotation of Three-Dimensio­
nal Objects, in "Science", 1 7 1 , pp. 70 1 -703.

75
Rappresentare il significato lessicale
di Diego Marconi

La rappresentazione del significato lessicale - cioè del


significato delle singole parole - è notoriamente un proble­
ma, sia per la semantica, filosofica e linguistica, sia per l'In­
telligenza Artificiale. È stato sostenuto 1 che nessuna teoria
semantica è completa (e anzi non merita neppure il nome di
semantica) senza un qualche trattamento del significato les­
sicale. Non basta che una teoria semantica specifichi in che
modo il significato di un'espressione complessa dipende dai
significati dei suoi costituenti sintatticamente semplici (per
esempio, in che modo il significato di un enunciato è deter­
minato dai significati delle parole che vi compaiono). Se non
si specificano anche i significati dei costituenti, non possia­
mo sostenere seriamente di aver rappresentato il significato
di un'espressione complessa. Che sia così è chiaro se conce­
piamo la semantica come descrizione della competenza se­
mantica: ciò che un parlante competente sa per il fatto di ca­
pire l'enunciato 'Il gatto è sul tappeto' è diverso da ciò che
sa per il fatto di capire 'Il libro è sul tavolo', anche se i due
enunciati hanno la stessa struttura. Ma ciò vale ugualmente,
come ha sostenuto persuasivamente Johnson-Laird, 2 se assu­
miamo il punto di vista della semantica modellistica, che, si
suppone, è interessata esclusivamente alla specificazione
delle condizioni di verità degli enunciati. Perché non possia­
mo seriamente sostenere di aver specificato le condizioni di
verità di 'Il gatto è sul tappeto' - vale a dire le condizioni in
cui questo enunciato è vero - se non siamo in grado di di­
stinguerle da quelle di 'Il libro è sul tavolo', e solo un qual­
che trattam_ento del significato lessicale può esplicitare la
differenza. E possibile che la semantica strutturale 3 - cioè
la parte della teoria semantica che descrive gli effetti della

76
sintassi sul significato - sia la parte più stabile della seman­
tica, quella che descrive il "nocciolo comune" della compe­
tenza semantica, ma è difficile identificarla con l'intera se­
mantica.
A questo punto, questo è così ovvio che quasi non c'è bi­
sogno di dimostrarlo: da tempo i filosofi del linguaggio e gli
altri studiosi che si occupano di semantica sono consapevoli
del problema. Il problema, tuttavia, è evidenziato in modo
particolare dall'Intelligenza Artificiale: perché quando si de­
ve effettivamente costruire un sistema semanticamente com­
petente (per esempio un sistema che è in grado di rispondere
a domande formulate in linguaggio naturale in base all'e­
splorazione di una scena, o un sistema che controlla un ro­
bot in risposta a comandi formulati in linguaggio naturale)
non si può semplicemente supporre che il significato delle
parole sia in qualche modo dato, come si faceva e si fa di so­
lito nella semantica formale; i significati delle parole devono
essere effettivamente rappresentati, altrimenti il sistema non
entrerà in contatto con la realtà "esterna" su cui si suppone
debba operare.
Ora, quando si tratta di rappresentare il significato lessi­
cale un problema è che non si sa dove fermarsi. Che cosa un
parlante competente sa della parola 'gatto' ? Quale parte del­
la sua conoscenza è conoscenza semantica autentica - cono­
scenza relativa alla parola 'gatto' - e non conoscenza fattua­
le, conoscenza sui gatti? Ha senso una simile distinzione (che
è poi la distinzione fra un dizionario e un'enciclopedia) ? For­
se sapere che 'gatto' è un nome comune e un termine di spe­
cie naturale costituisce conoscenza sicuramente non fattua­
le, mentre sapere che i gatti dell'Isola di Man non hanno la
coda costituisce conoscenza sicuramente fattuale (anche se
la prima informazione non sarebbe considerata da tutti di
natura semantica); ma che dire della conoscenza che i gatti
sono animali ? Saremmo disposti a riconoscere come seman­
ticamente competente un parlante che non sapesse che i gat­
ti sono animali ? Nella vita normale, probabilmente no: di
uno così diremmo che non sa che cosa significa 'gatto', e non
semplicemente che gli manca un'informazione fattuale im­
portante sui gatti. Eppure, diciamo che è un fatto che i gatti
sono animali (e non piante), e abbiamo imparato dalla fanta­
scienza di Hilary Putnam che si tratta di un fatto contingen­
te: potrebbe anche venir fuori che i gatti sono in realtà robot
telecomandati da Marte. 4
Sembra così difficile tracciare una linea di demarcazione
fra le informazioni autenticamente semantiche e quelle fat­
tuali associate a una parola (come 'gatto'), che alcuni S hanno

77
sostenuto che tutto il significato lessicale dipende da infor­
mazioni fattuali. Quindi non tocca alla semantica occuparsi
del significato lessicale, perché non si può chiedere alla teo­
ria semantica di incorporare un'intera enciclopedia.
Un atteggiamento così radicale può andar bene per la se­
mantica filosofica, che è libera di identificarsi con la seman­
tica strutturale: ma certamente non funziona per le esigenze
dell'lA. Chi lavora nell'lA deve affrontare senza mezzi termi­
ni il problema della rappresentazione del significato lessica­
le. Se la teoria semantica vuole essere pertinente per l'IA de­
ve dare un qualche spazio alla rappresentazione del signifi­
cato lessicale.
Sarebbe tuttavia un errore concludere che quel che ci
serve è la controparte lessicale della semantica strutturale:
vale a dire una teoria che descriva la competenza semantica
al livello lessicale nello stesso modo in cui la semantica
strutturale (per esempio la grammatica di Montague) può es­
sere considerata una descrizione della competenza semanti­
ca al livello composizionale. Si può ritenere che tutti i par­
lanti competenti sappiano in che modo il significato di 'Gio­
vanni corre' dipende dai significati di 'Giovanni' e 'correre';
allo stesso modo, si può ritenere che tutti i parlanti compe­
tenti conoscano la parola 'oro'. Ma l'analogia finisce qui: per­
ché nel caso della competenza composizionale possiamo dire
che, in quanto sanno in che modo il significato di 'Giovanni
corre' dipende dai significati di 'Giovanni' e 'correre', tutti i
parlanti condividono una stessa conoscenza, che può essere
rappresentata da una regola composizionale. Invece, nel caso
della competenza lessicale, non è affatto detto che ci sia una
singola conoscenza determinata che è condivisa da tutti i
parlanti di cui siamo pronti a dire che usano la parola 'oro'
in maniera competente. E anche se c'è una collezione non
vuota di informazioni condivise da tutti i parlanti competen­
ti che usano la parola 'oro', è probabile che essa sia troppo
piccola e poco significativa per essere identificata con "il si­
gnificato di 'oro"': quando si tratta di parole, non è detto che
l'intersezione di tutte le competenze semantiche sia a sua
volta una competenza semantica. Da un certo punto di vista,
al livello lessicale non esiste la competenza semantica: ci so­
no compe tenze semantiche, al plurale.
Di conseguenza, quando cerchiamo di elaborare una teo­
ria del significato lessicale non dobbiamo concentrarci sul
contenuto, vale a dire cercare di descrivere la competenza
lessicale di un parlante idealizzato - la sua conoscenza del
significato di tutte le parole di un lessico di una lingua natu­
rale come l'italiano o l'inglese. Faremmo invece meglio a

78
concentrarci sui requisiti che una descrizione utile di una
competenza lessicale deve soddisfare, vale a dire sulla forma
della competenza lessicale: che tipo di informazione rappre­
senta la competenza semantica di un parlante al livello lessi­
cale.
Mi pare che due requisiti possano essere i seguenti. In
primo luogo, un parlante competente ha accesso a una rete
di connessioni tra item lessicali (parole). Sa che le rose sono
fiori, che un corpo fisico può essere diviso in parti, che per
raggiungere una destinazione ci si deve muovere. Questo è il
tipo di informazioni che rende possibili i procedimenti infe­
renziali; e la capacità di compiere inferenze non logiche è si­
curamente parte di ciò in cui consiste la competenza lessica­
le. Se uno non sa che per mangiare, normalmente, si deve
aprire la bocca diciamo che non sa che cosa significa man­
giare (voglio dire: è in casi e situazioni come queste che, tipi­
camente, usiamo il verbo 'significare'). Informazioni di que­
sto genere sono solitamente rappresentate mediante reti se­
mantiche, frames o regole di produzione (nella semantica
formale, postulati di significato). Ma, oltre a questo, un par­
lante competente è anche capace di proiettare - "mappare"
- item lessicali sul mondo, direttamente o indirettamente:
sa distinguere i gatti dai cani, sa riconoscere un numero na­
turale quando ne vede scritto uno, è in grado di dire che una
persona (o un animale) "corre" o invece "cammina". Questo
aspetto della competenza lessicale è parzialmente indipen­
dente dal precedente: io posso conoscere la definizione bota­
nica di 'tarassaco' (dente di leone) ma non essere capace di
riconoscerne uno quando lo vedo, o, più comunemente, vice­
versa. Questo aspetto della competenza semantica ha molto
a che fare col successo del linguaggio come strumento adat­
tativo, come mezzo per la sopravvivenza nel mondo. In ulti­
ma analisi, è questo genere di capacità "proiettive" a dare un
contenuto alla nozione di "condizioni di verità" : non possia­
mo dire che le condizioni di verità di un enunciato siano ve­
ramente determinate fintantoché le parole che vi compaiono
sono soltanto connesse ad altre parole mediante postulati di
significato o altri strumenti del genere. È grande merito di
Johnson-Laird aver insistito più di chiunque altro sulla cru­
cialità di questo aspetto della competenza semantica. E in­
fatti i suoi modelli mentali sono un modo di rappresentare
questo tipo di informazioni. In generale, sembra che ci sia
bisogno di una qualche proiezione, diretta o indiretta, degli
item lessicali sugli elementi di un altro sistema, che può es­
sere il "mondo reale" stesso, o più comunemente un sistema
che lo rappresenta, come un sistema di percezione, naturale

79
o artificale; o anche un altro linguaggio, di cui sia già assicu­
rata la connessione con il dominio di oggetti del primo lin­
guaggio. Non vedo nessuna differenza di principio tra proiet­
tare le parole di una lingua naturale su pattern nel campo vi­
sivo di un robot o invece sulle espressioni di, mettiamo, un
linguaggio d'interrogazione che ha accesso ai dati su cui stia­
mo ponendo domande in linguaggio naturale: non mi pare ci
sia differenza fra una traduzione in un linguaggio davvero in­
terpretato e una proiezione su un sistema non linguistico che
sia effettivamente rappresentativo.
Johnson-Laird ha sostenuto 6 che se il secondo requisito è
soddisfatto è automaticamente soddisfatto anche il primo: se
riusciamo a proiettare il linguaggio su modelli mentali nel
modo giusto, possiamo "leggere" le relazioni semantiche di­
rettamente dal modello, senza bisogno di definirle indipen­
dentemente. Possiamo comprendere meglio il problema for­
mulandolo nei termini della costruzione di un sistema che sia
in grado di interpretare un frammento di linguaggio natura­
le. Mettiamo che il frammento contenga l'enunciato 'Le capre
brucano i denti di leone', e che in corrispondenza di esso il si­
stema costruisca, nello stile di Johnson-Laird, un modello in
cui alcuni oggetti rappresentano le capre, e altri i denti di leo­
ne. Come fa il sistema a sapere che il successivo enunciato 'I
fiori sono belli' va (in linea di massima) interpretato come ri­
ferimento ai denti di leone del modello, non alle capre, né ad
altri oggetti ancora ? Per Johnson-Laird, l'informazione di cui
il sistema ha bisogno (cioè l 'informazione che i denti di leone
sono fiori) può essere in qualche modo ricavata dagli algorit­
mi che rappresentano certi oggetti del modello come denti di
leone, e altri come càpre: questi algoritmi rappresenteranno i
denti di leone (e non le capre) come fiori, cioè includeranno
nella loro costruzione la combinazione di primitivi semantici
che verrebbe costruita dall'algoritmo per 'fiore'.
Ciò è senza dubbio concepibile. Tuttavia, a me pare che i
fenomeni dell'uso del linguaggio mostrino che molti parlanti
in molti casi, e quasi tutti i parlanti in alcuni casi non dispon­
gono di algoritmi così fatti. Non è per il fatto di essere in gra­
do di applicare correttamente una parola nella maggior parte
dei casi, che si possiede una conoscenza esaustiva delle sue
relazioni semantiche con le altre parole. Io posso saper rico­
noscere un tubo catodico pur senza saper nulla di questo tipo
di oggetti; possono essermi diventati molto familiari i mana­
ti, senza che io nemmeno sappia che sono mammiferi. 7
Probabilmente questi due requi siti non esauriscono il di­
scorso sul significato lessicale, ma costituiscono un punto di
v.ista utile da cui guardare a molte intuizioni filosofiche e lin-

80
guistiche sul significato lessicale, e a molto lavoro che si è
fatto, nell'lA e altrove, per rappresentare il significato lessi­
cale. C'è un'ulteriore avvertimento che si deve tenere a men­
te (una specie di requisito su come soddisfare i due requisiti
di cui s'è detto): le parole sembrano tutte uguali, ma - come
ha fatto vedere Wittgenstein - in realtà non funzionano tut­
te allo stesso modo. Parole come 'cionondimeno ', 'tentare',
'trebbiare', 'oro' e 'zio' sono attrezzi molto diversi nella cas­
setta degli attrezzi del linguaggio. 8 Perciò non possiamo
aspettarci che una stessa forma di rappresentazione funzioni
ugualmente bene per tutte le parole. Questo si vede già al li­
vello delle relazioni semantiche tra le parole: a me pare che
rappresentare la relazione fra 'ma' (o 'sebbene') e 'e' sia assai
diverso da rappresentare la relazione fra 'mela' e 'frutto':
perché la prima impresa richiede che si faccia riferimento a
condizioni di appropriatezza (o qualcosa del genere), la se­
conda no. Ma la varietà del significato lessicale è ancora più
evidente quando cerchiamo di soddisfare il secondo requisi­
to (quello "proiettivo"). È ovvio che certe parole sono meglio
rappresentate da elementi, o insiemi di elementi in un mo­
dello, mentre altre sono meglio rappresentate da operazioni
su modelli. Ma, come è stato notato da Johnson-Laird e al­
tri, 9 anche parole che superficialmente appartengono alla
stessa categoria sintattica possono richiedere "proiezioni"
diverse. I criteri che usiamo per identificare qualcosa nel
mondo come uno zio sono assai diversi da quelli che usiamo
per identificare qualcosa come una mela (o un uomo); e
quando identifichiamo un comportamento come l'azione di
picchiare non lo facciamo sulle stesse basi sulle quali descri­
viamo un comportamento come l'azione di consigliare. È sen­
sato supporre che queste differenze fra i criteri che usiamo
per proiettare le parole sul mondo si rispecchino nelle no­
stre rappresentazioni del significato lessicale, quale che sia
la forma di rappresentazione che preferiamo.
Per questo le proposte di rappresentazione del significato
lessicale che prevedono un medesimo formato per tutte le
parole della stessa classe grammaticale sono spesso poco
convincenti. Per esempio, è stato proposto 1 0 di rappresenta­
re il significato associando specificazioni strutturali e speci­
ficazioni funzionali. Per una parola come 'sedia', la sola defi­
nizione funzionale sarebbe insufficiente (per sedercisi sopra
si possono usare molte cose che non sono sedie); d'altra par­
te, come è stato osservato anche da Johnson-Laird, 11 è diffi­
cile che un termine artefattuale (come appunto 'sedia') pos­
sa essere definito in termini puramente strutturali: le sedie
non hanno una struttura "oggettiva" (la natura delle sedie

81
non è oggetto di ricerca scientifica; non si può scoprire che
un oggetto è una sedia nel senso in cui si può scoprire che
una pianta è una monocotiledone). D'altra parte, non si può
fare a meno di una specificazione anche strutturale, come
si vede ancor meglio se si pensa all'italiano 'sedia' (o al
francese 'chaise') anziché all'inglese 'chair'. Le sedie sono
un sottoinsieme proprio delle chairs: quale sottoinsieme, è
determinato probabilmente da aspetti strutturali, non fun­
zionali. Non ci può essere una definizione puramente fun­
zionale di 'chaise' che distingue 'chaise ' da 'fauteuil'.
Ma la coppia strutturale/funzionale non funziona altret­
tanto bene per tutte le parole, e neanche per tutti i nomi co­
muni. Per esempio, che dire dei nomi di specie naturale ?
C'è una definizione funzionale di 'oro', o 'gatto', o 'limone'?
A meno di avere forti inclinazioni teleologiche, non credo
che ce ne siano. E d'altra parte, può esserci una definizione
strutturale del verbo 'riuscire' ? o 'tentare' ? o 'credere' ?
Non mi pare.
Possiamo caratterizzare la classe di parole per cui lo sti­
le di rappresentazione di Minsky funziona bene? Grosso
modo, mi pare che sia naturale dare una definizione strut­
turale di parole in relazione alle quali si può pensare a un
esempio tipico (o, equivalentemente, a un insieme di valori
di default, per tutte le proprietà rispetto a cui il significato
è definito). Si può pensare a una tipica sedia, o a un gatto
tipico; ma non c'è niente che sia un tipico atto di riuscire, o
di credere. Analogamente, possiamo forse dare una defini­
zione funzionale di parole in relazione alle quali possiamo
pensare a una funzione tipica, vale a dire possiamo pensare
a un fine tale che la parola in questione si riferisce a un
mezzo tipico rivolto a quel fine. Ci sono quindi verbi che
ammettono sia una definizione strutturale che una defini­
zione funzionale, come 'calafatare' o 'trebbiare', verbi che
ammettono solo una definizione funzionale, come 'dedurre'
o 'giocare', e verbi che non ammettono né l'una né l'altra,
come 'credere' e 'riuscire'. Tutto questo è molto provviso­
rio, e vengono subito in mente dei controesempi. Per esem­
pio, si potrebbe sostenere che nel nostro mondo l'oro è tipi­
camente connesso con il fine di acquisire beni (o forse di in­
corporare un valore di scambio), sicché dovrebbe avere una
definizione funzionale; e tuttavia pare fuori luogo dare una
definizione funzionale di una parola che denota un mine­
rale.
Si tratta chiaramente di problemi che attendono ancora
una sistemazione teorica soddisfacente. Essa verrà, io cre­
do, più da un'analisi a largo raggio di molti settori del lessi-

82
co che da un'elaborazione puramente teorica delle proposte
esistenti.

NoTE
t Bonomi (1983), p. 1 68; vedi anche Partee (1 980).
2 Johnson-Laird (1983), pp. 232 e 259.
3 L'espressione 'semantica strutturale' (structural semantìcs) è stata in-
trodotta da B. Partee ( 1980, pp. 6 1 -62).
4 Il riferimento, ovvio, è a Putnam (1 970), p. 143.
5 Per esempio Thomason 1974, p. 48.
6 Johnson-Laird (1 983), pp. 1 8 1 e 259.
7 Devo l'attuale formulazione della critica a Johnson-Laird (come quella
che si trova in D. Marconi, Two aspects of lexical competence, in "Lingua e
Stile", 1987) alle discussioni con G.A. Antonelli (cfr. la sua tesi di laurea Teo­
rie semantiche rappresentaz.ionali, Torino 1985). Non sono però sicuro che
egli condividerebbe la critica, anche in questa formulazione.
8 Wittgenstein ( 1953), 1 1 .
9 Johnson-Laird (1983), p . 195. S i può anche far riferimento agli scritti
di Putnam sui nomi di specie naturale, per esempio Putnam ( 1 975).
IO Da M. Minsky in questo stesso volume, pp. 253-259.
Il Johnson-Laird (1 983), p. 196.

RIFERIMENTI BIBLIOGRAFICI

Bonomi, A. (1983), Linguistica e logica, in C. Segre (a cura di), Intor­


no alla linguistica, Feltrinelli, Milano.
Johnson-Laird, P. ( 1 983), Mental Models, Cambridge, Cambridge
University Press (trad. it. l modelli mentali, Il Mulino, Bologna).
Partee, B. (1 980), Montague Grammar, Mental Representations and
Reality, in Oehman e Kanger (a cura di), Philosophy and Gram­
mar, Reidel, Dordrecht.
Putnam, H. (1 970), ls Semantics Possible?, ora in Philosophical Pa­
pe rs, vol. 2, Cambridge University Press, Cambridge 1 975 (trad.
it. in Scritti filosofici, Adelphi, Milano 1 987).
Putnam, H. (1 975), The Meaning of Meaning, ora in Philosophical
Papers, cit. vol. 2 (trad. it. in Scritti filosofici, cit.).
Thomason, R. (1974), lntroduction, in Formai Philosophy, Selected
Pape rs of Richard Montague, Yale University Press, New Haven
and London.
Wittgenstein, L. ( 1 953), Philosophische Untersuchungen, Suhrkamp,
Frankfurt 1 969 (trad. it. Ricerche filosofiche, Einaudi, Torino
1 983).

83
Mente e matematica
di Gabriele Lolli

L'accostamento di mente e matematica nel titolo ha la


funzione di esortazione; lo scopo è quello di spezzare una
lancia perché si presti una maggiore attenzione all'attività
matematica nello studio della mente, sia essa intesa come
mente umana sia invece l'obiettivo dell'Intelligenza Artificia­
le. È vero che la matematica è menzionata in tutti i convegni
dedicati all'argomento, e puntualmente lo è in questo, nel ti­
tolo dei lavori della prima giornata, ma nella forma appunto
delle computazioni; e le computazioni non esauriscono la
matematica, ma ne rappresentano una piccola parte, una
propaggine sia pure fondamentale (forse anche come sosten­
gono alcuni la sua ragione d'essere ultima, 1 che però non ne
rivela la forma tipica di pensiero). Le computazioni sono la
parte della matematica affidabile alle macchine, ma se ci si
ferma ad esse si resta impegolati in un mondo wittgenstei­
niano di regole e tecniche isolate, non comunicanti, che si
pos sono solo usare ma di cui non si può neanche dire cosa
fanno e perché lo fanno. L'Intelligenza Artificiale, nel suo
pendolare tra algoritmi e neurofisiologia, risente ancora og­
gi del paradigma wittgensteiniano, a giudicare da come i
suoi grandi dibattiti continuano a ruotare intorno al gioco
dell'imitazione, con una ricezione riduttiva del test di Tu­
ring. 2
Gli psicologi per parte loro quando parlano dell'attività
matematica si basano sulle poche e scarne autoanalisi di al­
cuni matematici, 3 dove troppo facilmente si finisce per fare
appello al lavorio dell'inconscio; in nessun caso ci si assesta
sull'unico livello che potrebbe dare delle informazioni par­
ziali ma ben vagliate, che è il livello dell'analisi logica. Un li­
vello che era invece ad esempio ben presente nella riflessio-

84
ne di Turing il quale, all'interno del suo obiettivo di costruire
un cervello logico introduceva tutti gli aspetti della fenome­
nologia matematica, dall'intuizione all'interazione tra teoria
e metateoria nell'attività dimostrativa, al carattere sperimen­
tale della formazione della matematica infinitistica; li intro­
duceva nel senso di indagarli con gli strumenti anche più raf­
finati della logica matematica (logiche ordinali, teorie dei ti­
pi) per organizzare il materiale necessario per la costruzione
di un modello logico della mente. 4

Bisogna ammettere che logici e filosofi della matemati­


ca non danno un grande aiuto a psicologi e ricercatori di
Intelligenza Artificiale, quasi avessero finito loro stessi per
lasciarsi convincere dello scarso interesse delle loro cono­
scenze. Questa ritrosia o incapacità culturale finisce poi
per soffocare la loro stessa riflessione e consegnare ad al­
tre discipline, ad altri settori, delle ricerche che dovrebbe­
ro invece radicarsi nella matematica. Si pensi ad esempio
alle migliaia di pagine scritte sull'attività simbolica con
scarso o nullo riferimento al luogo principe di questa atti­
vità, la matematica, e scavando invece nel mito o nella lin­
guistica. Sembra che nessuno abbia riflettuto sul significa­
to del fatto che nella parte della matematica dove si stu­
dia, e non si usa soltanto, la manipolazione simbolica, la
logica matematica, i simboli sono oggetti matematici, con
tutto quello che ciò comporta sulla loro astrattezza e mol­
teplicità di rappresentazioni. Bochner cita Cassirer, Filoso­
fia delle forme simboliche ( 1 953-57) e A.N. Whitehead, Sym­
bolism. Its Meaning and Effect (1928)5 come esempi clamo­
rosi, in quanto unici, di una minima attenzione alla mate­
matica. L'impressione è penosa, è come parlare del cielo
senza sapere cosa fanno gli astronomi. E quando queste ri­
cerche ritornano alla matematica ne danno una immagine
deformata.

I matematici non si riconoscerebbero certo nella pura at­


tività computazionale. Qual è allora la caratteristica fonda­
mentale della matematica come è svolta oggi ? Forse non è
neppure quella delle dimostrazioni rigorose (anche se da un
certo punto di vista è così, ma i matematici hanno qualche
riserva) proprio perché le dimostrazioni assomigliano troppo
alle computazioni, almeno quando vengono scritte. La carat­
teristica fondamentale è quella dell'astrazione. Dal secolo
scorso è incominciato a proliferare un mondo di strutture e

85
di nozioni astratte, che sono parte integrante del discorso
matematico, anche nelle sue applicazioni.
Per rendersene conto basta considerare il contributo di
T. Poggio in questo libro. Gli algoritmi efficienti per il pro­
blema della visione derivano da uno studio del problema
(della ricostruzione dell'immagine tridimensionale a partire
da immagini bidimensionali) impostato come un tipico pro­
blema non ben posto, nel senso tecnico di Hadamard; e le
soluzioni discendono dalla trattazione variazionale6 del pro­
blema, secondo la tecnica della regolarizzazione.
Naturalmente in una certa misura il processo di astra­
zione è sempre stato essenziale alla matematica, ma ad
esempio i greci, per dirla con Bochner, non si sono mai sol­
levati dalla semplice idealizzazione della realtà al processo
"di astrazione dalle astrazioni", che si è innescato a partire
dall'Ottocento. Questa fioritura di strutture sempre più
complicate e astratte ha una sua funzione nel quadro della
generale attività esplicativa delle scienze. Yu. Manin ha re­
centemente illustrato il ruolo essenziale che i concetti più
esoterici della matematica moderna giocano nella formazio­
ne della spiegazione in fisica: 7 spazi di Hilbert, geometrie
intrinseche, traslazioni per parallelismo, connessioni, di­
mensioni infinite, solitoni, e via patologizzando. Sono nozio­
ni della matematica infinitistica, ma anche i tasselli delle
teorie fisiche fondamentali. "Sono queste le astrazioni che le
scienze chiedono alla matematica, molto più che non le tec­
niche matematiche in sé." 8
Secondo Manin le nozioni astratte, come oggetto tipico
della matematica, nella loro definizione insiemistica, gioca­
no il ruolo di immagini-ponte tra la realtà concreta delle
formule, di cui rappresentano il mondo dei significati, e
quella della fisica. La spiegazione fisica consiste nel co­
struire e nel proporre un'immagine del mondo intessuta di
queste nozioni. Per giustificarne la produzione e l'efficacia,
Manin suggerisce, in via ipotetica, ma con l'aria di creder­
ci, che formule e idee siano il prodotto separato delle due
parti del cervello diviso. Questa ipotesi sembra proprio but­
tata lì, indipendentemente dalla sua plausibilità. C'è una
bella differenza tra le immagini e le nozioni insiemistiche
che ci sembra che evochino delle immagini. Accontentarsi
di attribuire il momento computazionale e il momento, di­
ciamo così, immaginifico della matematica alle due parti
del cervello diviso significa illudersi di avere una spiegazio­
ne completa e precludersi l'ulteriore analisi dell'interazione
tra queste due componenti della matematica, oppure affi­
darla ad altri.

86
Il dualismo tra formule e immagini è ben presente all'at­
tenzione dei matematici, talvolta in terminologia diversa; ad
esempio compare spesso nella forma del dualismo tra di­
screto e continuo. 9 Ma una netta separazione, addirittura fi­
siologica, per quanto magari sia giusta, distoglie dal coglie­
re le varie relazioni che si instaurano tra questi due momen­
ti dell'attività matematica, relazioni anch'esse presenti, sia
pure in modo più vago, alla sensibilità dei matematici.
Così Bochner rileva come nel processo di astrazione è
fondamentale la "possibilità di adattare e reinterpretare
certe proprietà operazionali da un livello a quello superio­
re", 10 perché "le astrazioni senza corrispondenti operazioni
sono prive di senso dal punto di vista matematico". È un
luogo comune che certi tipi di astrazione, come quello degli
spazi n-dimensionali, sono suggeriti e quasi imposti dal for­
malismo delle coordinate cartesiane. Ma anche le costruzio­
ni astratte dell'Ottocento possono essere viste come escre­
scenze di formalismi, di cui sono in effetti i modelli: 11 "mol­
ta matematica è concentrata e messa in orbita da formule
di peculiare peso specifico". 1 2

Contrariamente a quanto si pensa, da parte di coloro che


vogliono affidarsi ad altri interpreti, o a imprecisate facoltà
intuitive, il fenomeno ha una natura prettamente logica, ed
è indagato come è naturale dalla logica matematica. O alme­
no si può dire che tra i risultati della logica matematica ce
ne sono parecchi che sono rilevanti a questo proposito, a co­
minciare dal teorema di Godel. Ci scusiamo di finire a par­
lare di Godel, ma non si tratta della solita querelle sull'uo­
mo e la macchina; come sopra detto per il test di Turing, è
ora di liberarsi di vecchi stereotipi e approfondire i fonda­
menti. Vogliamo solo illustrare con un esempio come la lo­
gica sia il luogo dell'analisi di tutto ciò che è rilevante nel
pensiero matematico, e questo teorema è una fonte inesauri­
bile di ispirazione.
Il teorema di Godel è presentato di solito come la sepol­
tura del programma di Hilbert, e in quanto tale come la di­
mostrazione della irriducibilità delle nozioni astratte ai for­
malismi. Per quanto questo sia vero, non ha nulla di dram­
matico, se non per chi persegue una tale riduzione; curioso
era, se si vuole, il programma di Hilbert, che col senno di
poi appare una mossa difensiva (residuo positivistico ?) in­
coerente con la visione vincente che Hilbert stesso aveva
contribuito a diffondere: 1 3 quella di un doppio movimento
nella matematica, da una parte verso la dimostrazione di

87
nuovi teoremi, dall'altra verso la formulazione di nuovi as­
siomi di carattere più generale, astratto e comprensivo, di
nuove Beweisgrunden.
Ora sappiamo che l'infinito, cioè l'astratto, non è perfet­
tamente controllabile dal basso, dal concreto-formale. Ma lo
sappiamo attraverso una dimostrazione che ci offre gli stru­
menti per cominciare a capire come si realizza la Tieferle­
gung dei fondamenti di cui parlava Hilbert, come si manife­
sta la produzione delle idee astratte a partire dai formalismi
concreti. Nel commento di Godei stesso, il suo teorema pro­
va che "la contemplazione propria dei formalismi dà origine
a nuovi assiomi che sono altrettanto evidenti e giustificati
di quelli da cui siamo partiti"Y Gli assiomi delle teorie non
sono solo derivati, come si pensa usualmente, da una analisi
informale di nozioni intuitive e preesistenti, in un flusso
unidirezionale dalle idee agli assiomi, perché assiomi e teo­
remi reagiscono creativamente sulle idee. L'idea della inuti­
lità della formalizzazione è obsoleta.
La contemplazione di cui parla Godei non va intesa in
senso mistico, ma come produzione effettiva, dal formali­
smo, di quelle che si chiamano nozioni astratte: la dimostra­
zione del teorema poi ci illumina sulla necessità e sul ruolo
delle nozioni astratte. La situazione è ben nota: c'è una for­
mula A(x) tale che tutti i casi particolari A(n) sono dimostra­
bili in una teoria che può essere, per fissare le idee, l'arit­
metica di Peano PA, n variabile sui numerali della teoria,
cioè sui termini che sono stati scelti per denotare i numeri.
Invece la chiusura universale (vx) A(x) non è dimostrabile in
PA, mentre è vera, o così si dice. Ma non è che la nozione di
verità, come tipica nozione di ordine superiore, oppure l'i­
dea del modello naturale, siano il prodotto di una facoltà
mistica che trascende le limitazioni del formalismo. Di fatto
quello che si verifica è che la chiusura universale è dimo­
strabile nella metateoria; questa è normalmente lasciata in
uno stato informale, ma può essere precisata e formalizzata;
di solito la si precisa in una metateoria semantica, perché
più vicina all'atteggiamento intuitivo. Comunque il motivo
intuitivo per cui la metateoria riesce a dimostrare la formu­
la di Godei non è magico, ma consiste nel fatto già stabilito
che A(x) è dimostrabile in PA per tutti i numerali, che sono
in corrispondenza biunivoca con i numeri della metateoria.
La formula vale per tutti i numerali, ma i numerali sono de­
finiti sintatticamente, al momento della definizione formale
del linguaggio, e sono appunto in corrispondenza biunivoca
con i numeri di cui parla la metateoria, non con quelli di
cui vuole parlare la teoria.

88
Un'analisi formale mostra che il punto critico sta nella
impossibilità di garantire che i quantificatori universali del­
la teoria e della metateoria, rispettivamente nella formula e
nell'affermazione della dimostrabilità della formula, varino
sullo stesso insieme infinito; questo anche se si assume che
teoria e metateoria coincidano, perché non si può escludere
il riferimento a due modelli diversi. E infatti l'enunciato di
Godei è dimostrabile anche senza fare appello a nozioni se­
mantiche, ma in una metateoria che contenga i principi di
riflessione, che non esibiscono alcuna nozione astratta o se­
mantica. I principi di riflessione non sono altro però che un
modo di esprimere, per certe formule, la coincidenza del
campo di variabilità del quantificatore universale delle for­
mule e di quello dell'affermazione della loro dimostrabilità,
cioè della teoria e della metateoria.
Il fenomeno si può commentare dunque così: il confronto
di due teorie, di cui una funge da metateoria rispetto all'al­
tra (e non si può fare a meno di usare una metateoria per­
ché si deve uscire dal sistema se si vogliono avere interpre­
tazioni, quindi significati), suggerisce l 'affermazione meta­
teorica che i due sistemi coincidono (parzialmente almeno)
nel loro ambito di riferimento. La suggerisce per poter
sfruttare il controllo sui modelli determinato dal fatto che
questi dipendono dal linguaggio e il linguaggio è definito
nella metateoria. Naturalmente quello che si guadagna è
provvisorio perché poi il fenomeno si ripropone rispetto al­
la nuova assiomatizzazione.
La prima e fondamentale nozione astratta, e inesauribile,
è dunque quella del quantificatore universale su un dominio
infinito; è il tentativo di estendere il controllo su di essa che
spinge alla formulazione di nuovi assiomi. Si ritrovano qui
legittimate diverse anticipazioni della riflessione logica e
fondazionale, come anche diverse intuizioni spontanee sulla
natura della verità matematica; 1 5 ma si ritrova anche il mo­
do privilegiato attraverso cui l'astratto si inserisce nella teo­
ria della calcolabilità, e nella Intelligenza Artificiale: l'affer­
mazione primaria di ordine superiore in questo campo è
quella dell'identità estensionale di due funzioni numeriche,
nozione di cui non si può fare a meno se si vuole parlare di
(definizioni di) funzioni, di programmi, di cosa fanno e così
via.

Il luogo della matematica contemporanea dove si stanno


sperimentando i vincoli e le potenzialità di tale situazione è
quello della cosiddetta matematica non-standard. Essa è no-

89
ta al largo pubblico più che altro come una impostazione
curiosa che riporta in onore l'analisi del Settecento. Questo
avviene lavorando in strutture arricchite con elementi infi­
nitesimi e infiniti. Essa è un campo particolarmente astrat­
to e infinitistico dunque, anche negli strumenti che usa, ma
il suo punto di partenza in realtà, il punto di partenza che
poi permette l'introduzione di questi oggetti altamente infi­
nitistici, è il riconoscimento che l'impostazione corretta, po­
st-godeliana, del lavoro con le nozioni astratte è quello di la­
vorare sempre con una coppia di teorie. Una parte della me­
tateoria intuitiva viene ritagliata e identificata come una
teoria esplicita allo stesso livello della teoria oggetto, e con­
tinua a svolgere il ruolo di metateoria pur coincidendo con
la teoria proprio per creare la duplicazione. In termini
semantici, si danno due modelli delle nozioni matematiche
di base, i numeri ad esempio, e l'uno è standard rispetto al­
l'altro. Si instaura così un movimento back-and-forth che
sfrutta positivamente la non coincidenza, insieme alla non
esprimibilità della non coincidenza, tra i relativi domini. Il
principio del transfer che afferma che le due strutture han­
no la stessa teoria, nel linguaggio originale, ne è l'utile con­
seguenza.
I matematici ci hanno messo alcuni anni, ma alla fine
hanno incominciato a capire che bisogna imparare a vivere
con la bomba, e ad amarla: le nozioni astratte sono necessa­
rie per l'espressione di affermazioni generali (anzi sono le
affermazioni generali); esse sono inevitabilmente relative; al­
lora la soluzione corretta è quella di rendere esplicita e non
nascondere questa relatività, esibendola nell'accostamento
di due teorie; i formalismi sono dunque definiti come coppie
di teoria e metateoria, con la seconda che fissa provvisoria­
mente sia la sintassi che un modello di riferimento per la
teoria.
Una simile lezione dovrebbe essere utile anche nell'Intel­
ligenza Artificiale, una volta individuati i punti su cui fare
leva. Si veda ad esempio il saggio di D. Parisi in questo vo­
lume e il suo discorso sulla formalizzazione dell'autoco­
scienza, sulle frasi che cominciano con "io"; quelle veramen­
te significative, da parte di una macchina, come pure del­
l'uomo, sarebbero quelle in cui la macchina dice "io sono
capace di svolgere questo compito", di fare le moltiplicazio­
ni per esempio; ma questa coscienza di possedere una rego­
la e di saperla usare nasconde un'affermazione universale, e
come abbiamo visto comporta uno sdoppiamento tra teoria
e metateoria, con il fenomeno della incompletezza. E il teore­
ma di Godei implica tra l'altro che il possesso della regola è

90
compatibile con il fatto che io, per certi numeri, la regola non
sono in grado di applicarla. 1 6
Non è detto che gli stessi sviluppi debbano essere perse­
guiti nella matematica pura e nell'informatica, ma almeno un
travaso di informazioni e stimoli è auspicabile. L'arricchi­
mento dei linguaggi con un predicato metateorico di dimo­
strabilità, al fine di sfruttare la maggior efficienza delle di­
mostrazioni metateoriche è ad esempio una possibilità inda­
gata oggi seriamente nella programmazione logica.

NoTE
I R. Feynman ha detto che lo scopo della fisica è sempre quello di arri­

vare a un numero, proprio uno di quelli con virgola e decimali; ma anche


questo è discutibile, e riduttivo. Nell'attività di spiegazione teorica ci si atte­
sta su altri livelli, come vedremo oltre.
2 Si veda come esempio il duello ariostesco tra Dennett e Searle di cui
alcuni più recenti rounds sono: il saggio di Dennett in questo volume; J.R.
Searle, Minds, Brains and Programs, in "The Behavioral and Brain Scien­
ces", 3, Cambridge Univ. Press, Cambridge 1980, ristampato in D.R. Hof­
stadter, D.C. Dennett (a cura di), The Mind's l, Basic Books, New York 198 1 ,
pp. 353-373 (trad. it . L 'io della mente, Adelphi, Milano 1 985) quest'ultimo vo­
lume e la recensione di Searle in "New York Review of Books", 29 aprile,
1 982, pp. 3-6.
3 Quasi sempre J. Hadamard, The Psychology of lnvention in the Mathe­
matical Field, Princeton Univ. Press, Cambridge 1945 (Dover, New York
1 954).
4 Si veda G. Lolli, Alan M. Turing, in R. Simili (a cura di), L 'epistemolo­
gia di Cambridge 1850-1 950, Il Mulino, Bologna 1 987, pp. 357-369 (Atti del
Convegno di Bologna, 30 maggio-l giugno 1985).
5 S. Bochner, The Role of Mathematics in the Rise of Science, Princeton
Univ. Press, Princeton 1 966, pp. 14-15). Cita ancora da un libro di H. Frank­
furt sul mito un'osservazione che potrebbe venire direttamente dall'analisi
della natura dei simboli in matematica: "c'è una coalescenza del simbolo e di
ciò che significa, come c'è una coalescenza di due oggetti confrontati in mo­
do tale che l'uno può stare per l'altro".
6 Il che significa che si cercano estremi di funzionali in spazi di funzioni.
7 Yu. l. Manin, Mathematics and Physics, Birkaiiser, Boston-Basel 198 1 .
8 S . Bochner, op. cit., p . 58.
9 Si veda ad esempio W. Kuyk, Complementarity in Mathematics, Reidel,
Dordrecht 1 977, o anche B. Segre, Il contrasto tra continuo e discontinuo e la
geometria algebrica, in Atti del Co nvegno di Studi Metodologici (1952), Tay­
lor, Torino, 1 954, pp. 232-237.
I O S. Bochner, op. cit., p. 55.
II Questo processo si può seguire su una miriade di esempi, dai più sem­

plici ai più complessi, dalla nozione di coppia alla teoria delle quantità co­
niugate di Hamilton alle serie infinite; si veda G. Lolli, La matematica: i lin­
guaggi e gli oggetti, in C. Mangione (a cura di), Scienza e filosofia. Saggi in
onore di L. Geymonat, Garzanti, Milano 1985.
12 Si pensi agli spazi di Hilbert e alla formula di Pitagora da cui proven­
gono; l'osservazione, non svolta ma che ben si adatta al presente discorso, è
ancora di Bochner, op. cit., p. 257.

91
Il Si veda M. V. Abrusci, 'Proof', 'Theo ry ' and 'Foundations ' in Hilbert's

mathematical work from 1885 to 1900, in M.L. Dalla Chiara (a cura di), ltalian
Studies in the Philosophy of Science, Reidel, Dordrecht 1 980, pp. 453-49 1.
1 4 K. Godei, Remarks before the Princeton Bicentennial Confe rence o n
Problems in Mathematics 1946, ristampato in M. Davis (a cura di), The Undeci­
dable, The Raven Press, Hewlett, New York 1965, pp. 84-88.
1 5 "La nozione di verità (della maggior parte) delle affermazioni matema­
tiche si basa sulla capacità di immaginare una serie infinita di prove", osserva
ad esempio Manin, op. ci t., p. 3 .
16 S i accenna qui alle versioni finite della incompletezza messe in luce da
G. Chaitin.

92
Linguaggio mentalistico e modelli
computazionali della mente
di Roberto Cordeschi

Ha osservato Marvin Minsky che un'alternativa storica­


mente plausibile alla concezione comportamentistica della
mente è stata quella di "trovare utili interpretazioni mecca­
nicistiche di quelle nozioni mentalistiche che hanno un'effet­
tiva importanza", come significato, scopo, scelta, ecc. Tale al­
ternativa si è realizzata, "in una forma più elementare" pri­
ma e "in una forma progredita" poi, con l'avvento, rispettiva­
mente, della cibernetica e dell'lA (Intelligenza Artificiale). A
queste due discipline si può far risalire il tentativo più re­
cente e riuscito di "usare il linguaggio mentalistico come co­
struttivo e potente strumento per descrivere le macchine".
All'lA, in particolare, si deve la dimostrazione che almeno
certe descrizioni mentalistiche dei processi del pensiero tro­
vano una specificazione operazionale nelle procedure com­
putazionali di certi programmi per calcolatore. Concludeva
Minsky:
È un'ironia che queste idee discendano più dalle tendenze "idea­
listiche" del pensiero metafisica e psicologico che non da quelle
"meccanicistiche" ! Infatti, la tradizione meccanicistica è stata
fatalmente dominata dallo stock fortemente limitato delle im­
magini cinematiche disponibili, e non ha prodotto modelli in
grado di elaborare l'informazione in modo adeguato. Gli ideali­
sti sono stati meglio attrezzati (e più audacemente disposti) a
considerare strutture e interazioni astratte più sofisticate, pur
non disponendo di una base meccanica su cui fondarle. (Minsky,
1 968, p. 2)

Abbiamo riportato per intero questo giudizio di Minsky


perché ci sembra che esso esprima con penetrante esattezza
le ragioni dell'apparente paradossalità - o ironia - della re-

93
cente "riumanizzazione" (il termine, come vedremo, è di Mar­
garet Boden) della scienza della mente proprio attraverso le
macchine, con la conseguente costruzione di un nuovo voca­
bolario teorico della psicologia, quello basato sui processi di
elaborazione dell'informazione. Ciò ha permesso di tornare
ad assegnare alla psicologia un nuovo livello di ricerca rela­
tivamente autonomo dalla neurofisiologia, ma in un modo si­
gnificativamente diverso dal comportamentismo criticato da
Minsky. Schematizzando alquanto, secondo il comportamen­
tismo radicale la psicologia è autonoma, ineliminabile e irri­
ducibile (se non in linea di principio) alla neurofisiologia,
perché scienza del comportamento, sviluppabile al livello
molare. Secondo il punto di vista della psicologia che si ispi­
ra all'lA, o meno genericamente della cosiddetta scienza co­
gnitiva, la psicologia è, sì, autonoma, ineliminabile e irridu­
cibile (se non in linea di principio) alla neurofisiologia, ma in
quanto scienza dei processi mentali, collocabile allo specifi­
co livello dell'elaborazione dell'informazione, livello interme­
dio tra quello (molare) del comportamento manifesto e quel­
lo (molecolare) della neurofisiologia. In questo senso il lin­
guaggio mentalistico usato dalla psicologia, nella misura in
cui risulta garantito da modelli computazionali di processi
mentali, non è eliminabile dall'attuale impresa scientifica
degli psicologi e, in generale, dei filosofi della mente. 1
La preoccupazione di distinguere una pluralità di livelli
(e di lasciare così allo psicologo un suo posto al sole, per ri­
petere un'espressione di Tolman) spiega perché, ad esempio,
Herbert Simon abbia parlato indifferentemente, in occasioni
diverse, di "riduzionismo in linea di principio" e di "olismo
pragmatico" e Margaret Boden abbia usato l'insolita espres­
sione "riduzionismo antiriduzionistico" per rivendicare la
specifica autonomia della psicologia dagli schemi esplicativi
e dal vocabolario teorico delle scienze fisiche e neurofisiolo­
giche.
Questa ammissione di una pluralità di livelli, d'altra par­
te, mentre ha portato talvolta a ridefinire il rapporto tra psi­
cologia e neurofisiologia in analogia più o meno stretta con
la canonica distinzione dei livelli in informatica (approssima­
tivamente, quello del software e quello dello hardware), ha
anche posto il problema del carattere effettivamente esplica­
tivo, e non genericamente metaforico, del linguaggio menta­
listico-intenzionale impiegato nella scienza cognitiva e in fi­
losofia della mente.
Quanto al primo punto ci limitiamo qui a osservare come
vi sia stata (e sia tuttora in atto) un'evoluzione quasi-paralle­
la tra lo sviluppo delle tecniche di realizzazione dei modelli

94
meccanici della mente, nelle diverse "forme" ricordate da
Minsky, e la riflessione dei filosofi della mente. In prima ap­
prossimazione, si può convenire che dopo l'egemonia di una
filosofia della mente fisicalistico-riduzionistica (Feigl, Arm­
strong, Smart), ancora dominante all'epoca della cibernetica,
è venuto via via prevalendo un orientamento funzionalista
(Putnam, Fodor, Dennett, Pylyshyn), in particolare presso i
ricercatori e i teorici della "forma più progredita" del mecca­
nicismo moderno, quella dell'lA e della scienza cognitiva. Più
recentemente, a partire dagli anni ottanta, al recupero di al­
cuni temi della neurocibernetica (reti neuroniche, sistemi au­
torganizzanti) all'interno della stessa IA (sistemi connessioni­
stici e a parallelismo elevato) sembra far eco in filosofia del­
la mente una ripresa di alcuni temi del fisicalismo e un at­
tacco al funzionalismo stretto e alla legittimità scientifica
della psicologia intenzionalista, nonché alla sua asserita au­
tonomia dalla neurofisiologia (Patricia Smith Churchland, ad
esempio).
Detto questo, va riconosciuto che è nell'ambito del pen­
siero funzionalista che si è riqualificato l'altro problema al
quale ci siamo riferiti, che risulta centrale nella nostra di­
scussione: quello del carattere effettivamente esplicativo del
linguaggio mentalistico-intenzionale.
Come punto di partenza può essere utile richiamare una
delle nozioni a cui più spesso si è fatto riferimento negli ulti­
mi anni tanto in filosofia della mente quanto in IA e in scien­
za cognitiva: la "posizione intenzionale" (intentional stance)
di Daniel Dennett. In breve, essa consiste nel considerare un
sistema (sia organico sia artificiale) come intenzionale, e
dunque descrivibile con il linguaggio mentalistico, quando,
assunta la razionalità del sistema, le sue azioni risultano in­
tenzionalmente prevedibili (Dennett, 1 978, p. 6).
Come Dennett precisa, l'uso del linguaggio mentalistico
nei confronti del sistema è in primo luogo un'opzione da par­
te dell'osservatore che interagisce con esso. In effetti, nella
sua generalità questa tesi era stata sviluppata con la massi­
ma coerenza da Donald MacKay, che aveva già parlato di un
"atteggiamento personale" (personal attitude) che l'osservato­
re o utente può assumere anche nei confronti di sistemi arti­
ficiali (o "artefatti") di vario genere (vedi MacKay, 1 962): da
un'automobile (della quale posso dire che "non vuole parti­
re") a meccanismi come un termostato (che "ha lo scopo di
mantenere la temperatura costante"), al calcolatore con il
quale si gioca a scacchi (che "vuole battermi elaborando una
data strategia"). Una tesi analoga era stata sostenuta da un
punto di vista diverso anche da Hilary Putnam, per il quale

95
passare dall'uso del linguaggio della fisica a quello del lin­
guaggio mentalistico nei riguardi di artefatti come un robot
"richiede non una scoperta, bensì una decisione" (Putnam,
1 964, p. 407).
Putnam sollevava esplicitamente una questione sulla
quale vorremmo insistere, e che per i nostri scopi potrem­
mo formulare in questi termini: c'è qualcosa del sistema (ar­
tificale, in questo caso) che giustifica la decisione dell'osser­
vatore di passare al livello della descrizione intenzionale ?
Secondo Putnam, è la complessità dell' "organizzazione del
comportamento" dell'artefatto con cui l'osservatore intera­
gisce a giocare il ruolo centrale nella sua decisione. Quando
tale organizzazione non è complessa al punto da esibire un
comportamento paragonabile a quello di un animale o di un
essere umano, normalmente restiamo al livello di una sua
descrizione fisica. Nel caso di una pianta possiamo ammet­
tere che è la sua "struttura" che ci fa decidere, ad esempio,
se si tratta di un organismo o di una simulazione artificiale:
"una pianta, tutto sommato, non esibisce un comportamen­
to", conclude Putnam. Egli, tuttavia, non elabora a sufficien­
za per il nostro problema la nozione di organizzazione del
comportamento, che giustificherebbe l'attribuzione di inten­
zionalità. Occorre tornare a Dennett.
Egli mantiene in sostanza l'assunto di MacKay: la relati­
vità all'osservatore della descrizione intenzionale. Per quan­
to riguarda le caratteristiche del sistema o dell'oggetto della
descrizione (il problema che abbiamo sollevato rifacendoci a
Putnam), la posizione di Dennett è quanto meno ambigua. A
volte sembra che a rendere ineludibile per l'osservatore l'at­
tribuzione di intenzionalità al sistema è la sua complessità
come sistema rappresentazionale. Un programma evoluto di
lA è considerato da Dennett un sistema del genere. Altre
volte, tuttavia, questa complessità non sembra conoscere un
livello critico di effettività, sfumando in una serie di grada­
zioni che di fatto la rendono del tutto aspecifica.
Ora, se cominciamo a richiedere al sistema una sua spe­
cifica complessità (quella rappresentazionale) per poter le­
gittimamente parlare di esso in "mentalese", abbiamo rico­
nosciuto che l'uso del linguaggio intenzionale non è solo
un'opzione pragmatica dell'osservatore, ma riguarda deter­
minate proprietà del sistema stesso che non possono essere
spiegate se non attraverso generalizzazioni esplicative me­
diante quel linguaggio - a quel livello. L'insistenza di Den­
nett sulla relatività all'osservatore dell'attribuzione di inten­
zionalità, viceversa, fa del livello intenzionale un livello as­
sumibile per puri scopi pragmatici, che dunque può essere

96
indifferentemente sempre eliminato o sempre mantenuto nei
diversi casi.
La mia definizione di sistema intenzionale - precisa Dennett -
non dice che i sistemi intenzionali hanno realmente credenze e
desideri, ma che è possibile spiegarne e prevederne il comporta­
mento ascrivendo loro credenze e desideri, e chiamare ciò che si
ascrive a un calcolatore credenze o analoghi di credenze o com­
plessi informazionali o inezie intenzionali non fa differenza per
quanto riguarda la natura del calcolo fatto sulla base delle
ascrizioni. Si arriva alle stesse previsioni sia che si pensi diret­
tamente in termini di credenze e desideri del calcolatore sia che
si pensi in termini di informazione memorizzata e di specifica­
zione degli obiettivi del calcolatore. (Dennett, 1 978, p. 7)

Ma in questo modo è . inevitabile concludere che il lin­


guaggio intenzionale è una semplice façon de parler, e non
occorre più invocare necessariamente la complessità del si­
stema per renderne ineludibile l'impiego a scopi autentica­
mente esplicativi. Di fatto, secondo Dennett, si possono de­
scrivere in termini intenzionali sistemi adattativi diversi:
certo gli uomini, i calcolatori e gli animali superiori e dome­
stici (dico del mio calcolatore, non meno che del mio cane,
che "ha deside ri"), ma anche (magari con qualche cautela in
più) gli animali inferiori, le piante (dico della mia vite ameri­
cana che "cerca la luce"), i termostati e i fulmini (che "cerca­
no il percorso più breve": vedi Dennett, 1978, p. 272; 1983, p.
38 1). Insomma, possiamo adottare la posizione intenzionale
quando la complessità del sistema rende irrealistici altri li­
velli di spiegazione e previsione delle sue prestazioni (Den­
nett, 1978, p. 240) e ... quando ci pare! L'ascrizione di inten­
zionalità, "euristica" e "pragmatica" qual è per definizione, si
fa qui così "blanda" (il termine è di Dennett, 1 978, p. 272) da
estendersi legittimamente a ogni sistema che sia sottoposto
al principio di razionalità genericamente inteso come princi­
pio di adattamento. Certo non si può negare che Dennett sia
conseguente quando conclude: "Naturalmente, se è vera (co­
me io credo che sia) una qualche versione del fisicalismo
meccanicistico, non c'è mai necessità di ascrivere in senso
assoluto intenzioni a niente" (Dennett, 1978, p. 273). Ma dopo
quanto abbiamo detto, questo non è che l'altro lato della me­
daglia: se non dobbiamo ascrivere in senso assoluto intenzio­
ni a niente, ascriviamo pure pragmaticamente intenzioni a
tutto.
Queste considerazioni non sono dirette a rivendicare una
improponibile (come giustamente rileva Dennett, 1 983, p.
382) "egemonia predittiva" assoluta della descrizione menta­
listico-intenzionale sulle altre possibili (quella fisica, ad

97
esempio). Il problema è se l' "egemonia predittiva" sia tale
almeno relativamente a un livello di spiegazione individuabi­
le come reale e autonomo: in altri termini, se non sia interes­
sante una qualche interpretazione per così dire "forte" della
posizione intenzionale di Dennett.
Un suggerimento in questa direzione potrebbe venire dal­
la proposta di Allen Newell del livello della conoscenza, un
livello di descrizione intenzionale di un sistema o agente ra­
zionale (sia organico sia artificiale) ipotizzabile sopra il livel­
lo dei simboli e il livello fisico: rispettivamente quello del
programma e quello dello hardware nel caso di un sistema
artificiale come un calcolatore. In quest'ultimo sistema il li­
vello intenzionale o della conoscenza è giustificato dall'esi­
stenza del livello immediatamente inferiore, quello dei sim­
boli o del programma. È a questo livello che si può pensare
di ottenere le ininstanziazioni operative (i modelli) dell'attivi­
tà rappresentazionale del sistema.
Una parte essenziale della proposta [del livello della conoscen­
za] è l'esistenza del secondo livello di approssimazione, cioè il
livello dei simboli. Abbiamo ora i modelli del livello dei simbo­
li ... (Newell, 1 982, p. 1 1 1)

Se è giusta la nostra tesi, tra la posizione intenzionale e il


livello della conoscenza ci sono meno analogie di quanto non
suggerisca lo stesso Newell (1 982, pp. 1 22-1 23). Ad esempio,
il livello della conoscenza è compromesso esplicitamente con
una particolare ipotesi sulla complessità della capacità rap­
presentazionale del sistema (al livello dei simboli), cosa che
Dennett sembra escludere (vedi Dennett, 1 983, p. 38 1). Tale
specifica complessità individua dunque un "genere naturale"
di sistemi nei confronti dei quali si può cominciare a esplo­
rare la necessità di una loro descrizione in linguaggio menta­
listico. 2
Insomma, la mente non è dappertutto, come teme si do­
vrebbe invece concludere John Searle, se non si riconoscesse
che l'intenzionalità degli artefatti di ogni tipo e complessità
(automobili, termostati, calcolatori, ecc.) è sempre e solo re­
lativa all'osservatore, mai "originaria" o "intrinseca" al siste­
ma (Searle, 1 980, p. 420). E non vale l'obiezione, sull'opposto
versante, di John McCarthy, il quale, ritenendo di poter attri­
buire intenzionalità a meccanismi "semplici" come i termo­
stati, concludeva che la complessità di un sistema non costi­
tuisce di per sé una ragione primaria di attribuzione dell'in­
tenzionalità, dal momento che non si pensa di dare una de­
scrizione intenzionale di un sistema "complesso" come, po­
niamo, un'automobile. 3 In effetti, in quest'ultimo caso la

98
complessità neppure riguarda il livello dell'elaborazione del­
l'informazione, e nel caso di un termostato non lo riguarda
come livello dei simboli nel senso di Newell. L'attribuzione
di intenzionalità è nei due casi effettivamente una semplice
opzione da parte dell'osservatore, e risulta puramente meta­
forica e pragmatica.
Si pensi, ad esempio, alla classica descrizione intenziona­
le di un termostato, e la si confronti con quella di un sofisti­
cato sistema rappresentazionale di lA. Che cosa differenzia
in primo luogo le due descrizioni? Almeno questo: posso ri­
fiutare o ritirare in qualsiasi momento la mia ascrizione di
intenzionalità al primo sistema, scendendo al livello di una
sua descrizione come meccanismo fisico, senza perdere con
ciò nulla della comprensione e della previsione delle sue pre­
stazioni, mentre un'opzione negativa del genere nel caso del
sistema citato mi porterebbe a scendere a livelli sempre me­
no esplicativi delle sue prestazioni, magari fino al livello del­
lo hardware: "acme della riduzione e della incomprensibili­
tà", secondo Simon ( 1 973, p. 26).
Insomma, il livello di descrizione del sistema in termini
mentalistici o intenzionali ha un suo specifico "primato
esplicativo", per ricorrere alla terminologia di Wimsatt
(1976, p. 242): esistono cioè previsioni e generalizzazioni
esplicative a tale livello che non risultano direttamente for­
mulabili nel vocabolario del livello o dei livelli inferiori.
Questo riconoscimento impone un'analisi approfondita delle
relazioni tra i diversi livelli di spiegazione (e tra i sottolivelli
in cui è possibile scomporre certi livelli); impone inoltre che
si indaghi fino a che punto e in che senso è fondato richiede­
re, una volta riconosciuto il "primato esplicativo" del livello
intenzionale, che i sistemi computazionali della dovuta com­
plessità posseggono un'attività intenzionale che non è sem­
plicemente derivata dall'osservatore e dunque mai "vera" o
"reale" o " intrinseca". In definitiva occorre indagare se sia
possibile per i modelli computazionali della mente "qualcosa
di più forte di una semantica derivata".
Questa espressione è di Zenon Pylyshyn ( 1 984), al quale si
deve l'analisi forse più impegnativa e coerente degli argo­
menti ricordati, in fondo tra i più caldi della scienza cogniti­
va e della filosofia della mente. Rifiutando di porre il proble­
ma nei termini della solita "metafora computazionale", 4
Pylyshyn accetta di misurarsi con le implicazioni di un' "e­
quivalenza forte" o "letterale", come egli la chiama, tra com­
putazione e cognizione, fino al punto di ritenere limitante e
fuorviante anche la vecchia caratterizzazione della scienza
cognitiva come "simulazione del comportamento" (Pylyshyn,

99
1 984, p. 43). Anche se non è possibile dare "condizioni neces­
sarie e sufficienti" per l'intenzionalità effettiva di un siste­
ma, l'ineliminabilità del livello intenzionale (il suo "primato
esplicativo") resta garantita "se vanno perse generalizzazioni
[esplicative] respingendo un vocabolario intenzionale che si
riferisce a oggetti e proprietà rappresentati dal sistema, e se
esistono restrizioni relative al suo comportamento che pos­
sono essere catturate solo mediante principi semantici quale
quello di razionalità" (Pylyshyn, 1 984, p. 46).
Un importante chiarimento di molti problemi posti da
Newell (e dalla precedente scienza cognitiva) sul rapporto
tra i principi esplicativi al livello intenzionale e le restrizioni
al livello dei simboli viene dalla nozione di "architettura fun­
zionale" di Pylyshyn. Qui ci limitiamo a sottolineare come es­
sa stabilisca di fatto un ponte tra il livello del biologico e
quello dell'intenzionale, riaprendo l'esame del rapporto tra
scienza cognitiva e neuroscienze in un modo inedito per il
funzionalismo, fornendo così un utile quadro concettuale
per il chiarimento di alcune critiche neofisicalistiche alla
spiegazione intenzionale, alle quali ci siamo riferiti all'ini­
zio. 5
Non possiamo neppure tentare in questa sede l'inventario
dei problemi lasciati aperti e delle difficoltà sollevate dalla
proposta di Pylyshyn nel suo complesso. 6 Se, tuttavia, si vuo­
le prendere sul serio un approccio meccanicistico (computa­
zionale) alla mente (o "una qualche versione del fisicalismo
meccanicistico", nella ricordata espressione di Dennett) è
difficile sottrarsi all'impegno di esplorarè le implicazioni di
un'equivalenza "letterale" (non metaforica) tra cognizione e
computazione, o, come abbiamo già scelto di dire, di una ver­
sione "forte" della posizione intenzionale di Dennett. Le con­
seguenze, d'altra parte, di una sua versione per così dire "de­
bole" per un verso appaiono, come abbiamo suggerito, filoso­
ficamente ambigue e riduttive, e per l'altro finiscono per ri­
sultare sorprendentemente paradossali in certe sue varianti
giustificative della "metafora computazionale".
Margaret Boden, ad esempio, ha dedicato analisi eccel len­
ti alla psicologia intenzionale e all'uso del linguaggio menta­
listico nella descrizione dei programmi di lA, sottolineando
anche come solo questi ultimi, in quanto dotati di sistemi di
rappresentazione complessi, possano considerarsi come mo­
delli computazionali di attività mentali, diversamente dai va­
ri meccanismi teleologici della cibernetica classica. E rispet­
to ai programmi di lA, la posizione intenzionale di Dennett è
per lei ineludibile (Boden, 1 979, p. 3). Secondo la Boden, tut­
tavia, le caratteristiche salienti dell'intenzionalità "possono

100
essere attribuite agli artefatti solo in un senso secondario" o
"derivato" (Boden, 1 977, pp. 425 e 42 1). Qualsiasi macchina
attuale non è "veramente intenzionale o intelligente": tali ca­
ratteristiche (e altre più impegnative) sono ascrivibili alle
macchine solo "in senso debole" (Boden, 1 984a, pp. 2 1 7-2 1 9). 7
Boden parla anzi di "metafora rappresentazionale" (il corsivo
è suo) proprio per sottolineare il carattere "non letterale" dei
modelli computazionali della mente (con, sembrerebbe, qual­
che concessione all'intenzionalità originaria di Searle: vedi
Boden, 1 984b, pp. 1 3 1 - 1 32).
Ora si notino alcune conseguenze che ci sembra seguano
da questo insieme di tesi "deboli" a sostegno dei modelli
computazionali. Ci riferiamo qui a un aspetto del problema
in esame forse secondario, ma che la Boden sembra ritenere
filosoficamente importante. Ella ha in più occasioni tentato
di tranquillizzare gli psicologi e i pensatori "umanisti", "er­
meneutici", "intenzionalisti" (secondo le espressioni di volta
in volta da lei impiegate) ribadendo che il meccanicismo, nel­
la sua "forma progredita" proposta dal paradigma dell'lA,
non solo non implica la negazione della soggettività e non ri­
sulta essere "disumanizzante" (come tradizionalmente sostie­
ne l'umanista), ma dà luogo addirittura a una "riumanizza­
zione" della scienza della mente (essenzialmente, per via del­
l'ispirazione anticomportamentistica dei modelli computa­
zionali, cui abbiamo accennato all'inizio). Di conseguenza, la
proposta dei sistemi rappresentazionali dell'lA "consente di
recuperare la discussione della soggettività umana" ed "è in
sintonia con le teorie umanistiche o ermeneutiche (interpre­
tative) della psicologia" (Boden, 1 984b, p. 1 3 1). Eppure, date
le premesse "deboli" ricordate, sospettiamo che, al di là delle
intenzioni della Boden, questa riappropriazione meccanici­
stica della mente finisca per risolversi in, per così dire, con­
solazioni per l'umanista.
Il sospetto è motivato dal fatto che la Boden reclama con­
temporaneamente la necessità del linguaggio intenzionale
per descrivere i modelli meccanici della mente proposti in
generale dall'lA e l'insufficienza di questi ultimi per spiegare
le "vere" caratteristiche della mente. La Boden dice, in so­
stanza, che il meccanicista vince un'importante scommessa
con l'umanista: egli, cioè, riesce a dimostrare "nei dettagli",
vale a dire "operativamente" (non "intuitivamente", come so­
lo può fare l'umanista), che la mente umana è estremamente
complessa (si ricordi la complessità rappresentazionale dei
modelli dell'lA). 8 Ora questa vittoria rischia di risultare al­
quanto paradossale per il meccanicista, giusta la tesi della
Boden sul carattere metaforico, non "letterale", dell'intelli-

101
genza e dell'intenzionalità artificiali. Infatti, il meccanicista
dimostrerà che il ricco linguaggio intenzionale, tradizional­
mente usato dall'umanista, è indispensabile per costruire il
proprio modello di razionalità (l'analogia meccanica), ma do­
vrà riconoscere che tale linguaggio è insufficiente a descrive­
re l'asserito "vero" funzionamento della mente, una volta che
esso sia usato attraverso le macchine (queste si mostrano pri­
ve di "vera" intelligenza e "vera" intenzionalità, nonostante
siano descritte - e non potrebbero che essere descritte -
con il linguaggio intenzionale). Ma, allora, l'umanista potreb­
be sentirsi consolato: appurata la non pericolosità del model­
lo meccanico - che ai suoi occhi coincide ormai con la sua
stessa metaforicità (riferita a "intelligenza", "intenzionalità",
ecc. tra virgolette) - egli si sentirebbe autorizzato a tornare
a usare il suo linguaggio intenzionale senza le macchine (sen­
za usarlo attraverso le macchine), per tentare di cogliere al­
trimenti quella complessità della mente (la "vera" complessi­
tà della mente) che il meccanicista gli ha - operativamente
(cioè con le macchine) - dimostrato esistente e non "vera­
mente" afferrabile con le macchine.

NoTE

l Per dettagli vedi Cordeschi (1 984, 1985).


2 In realtà, la natura della specifica complessità rappresentazionale dei
sistemi di lA andrebbe precisata meglio di quanto non sia qui possibile at­
traverso l'esame puntuale delle restrizioni dei diversi livelli, nonché di quel­
le imposte dall'ambiente. In quest'ultimo caso occorre pensare a sistemi do­
tati di trasduttori, che permettono loro di interagire con relativa libertà con
l'ambiente esterno (vedi Pylyshyn, 1978, 1980, 1 984, e, da un punto di vista
diverso, Sayre, 1 986). Si pensi ad esempio alla comprensione linguistica:
aveva già osservato Dennett come "un calcolatore i cui ingressi e uscite fos­
sero esclusivamente verbali sarebbe cieco riguardo al significato di ciò che
viene scritto" (Dennett, 1969, p. 1 82).
3 Vedi McCarthy ( 1979, p. 192). McCarthy sembra tuttavia riconosce­
re che l'attribuzione dell'intenzionalità "non è necessaria per studiare i ter­
mostati, dato che il loro funzionamento può essere ben compreso senza tale
attribuzione"; la sua è piuttosto "in parte una provocazione nei confronti di
quanti considerano l'attribuzione di credenze alle macchine un semplice ce­
dimento intellettualistico" (ibidem, p. 1 73).
4 Osserva Newell: "Metafora computazionale non sembra un'espressio­
ne felice, se non come espediente retorico per lasciarsi dietro le idee teori­
che provenienti dal calcolatore ed evitare di prenderle sul serio come scien­
za" (Newell, 1 980, p. 178).
5 Come esempio, si vedano la critica della Churchland (1 980) alla psico­
logia intenzionalista e la replica della Kitcher (1984).
6 Si vedano gli interventi che seguono Pylyshyn (1 980), e anche Gallino
(1 987). Sayre (1986), pur tentando un approccio in buona parte alternativo,
tiene conto di molte proposte di Pylyshyn.

102
7 E le macchine future? La Boden sembra confermare anche per esse
un verdetto ne g ativo.
8 Si veda il saggio della Boden in questo volume.

RIFERIMENTI BIBLIOGRAFICI

Boden M.A. (1 977), Artificial intelligence and natural man, Basic


Books, New York.
Boden, M.A. ( 1 979), Minds and mechanisms: philosophical psycho­
logy and computational models, Harvester, Brighton.
Boden, M.A. (1 984a), Artificial intelligence and human freedom, in
M. Yazdani e A. Narayanan (a cura di), Artificial intelligence: hu­
man effects, Chichester, Horwood.
Boden, M.A. (1 984b), Methodological links between artificial intelli­
gence and other disciplines, in S.B. Torrance (a cura di), The
mind and the machine: philosophical aspects of artificial intelli­
gence, Chichester, Horwood.
Cordeschi, R. (1 984), La teoria dell 'elaborazione umana dell 'infor­
mazione. Aspetti critici e problemi metodologici, in B. Continen­
za e altri, Evoluzione e modelli, Editori Riuniti, Roma.
Cordeschi, R. (1 985), Mechanical models in psychology in the 1950's,
in S. Bem, H. Rappard e W. van Hoorn (a cura di), Studies in the
History of Psychology and the Social Sciences, 3, Psychologi­
sches Institut, Leiden.
Churchland Smith P. (1 980), A perspective on mind-brain research,
in "J. Phil.", 77, pp. 1 85-207.
Dennett, D.C. (1 969), Content and consciousness, Routledge & Kegan
Paul, London.
Dennett, D.C. (1 978), Brainstorms: philosophical essays on mind and
psychology, The MIT Press, Cambridge (Mass.) (trad. it. in corso
di pubblicazione).
Dennett, D.C. (1 983), Intentional system in cognitive ethology: the
"Panglossian paradigm defended, in "Behav. Brain Sci.", 6, pp.

343-388.
Gallino L. (1 987), L 'attore sociale. Biologia, cultura e intelligenza ar­
tificiale, Einaudi, Torino.
Kitcher, Patricia (1 984), In defense of intentional psychology, in "J.
Phil.", 8 1 , pp. 89- 1 06.
MacKay, D.M. (1 962), The use of behavioural language to refer to
mechanical processes, in "British J. Phil. Sci.", 1 3, pp. 89- 1 03.
McCarthy, J. ( 1 979), Ascribing mental qualities to machines, in M.
Ringle (a cura di), Philosophical perspectives in artificial in telli­
gence, Harvester, Brighton.
Minsky, M.L. (a cura di) (1 968), Semantic information processing,
The MIT Press, Cambri dge (Mass.).
Newell, A. ( 1 980), Physical symbol system, in "Cognitive Sci.", 4, pp.
1 35-183.
Newell A. (1 982), The knowledge level, in "Artificial Intelligence",
1 8, pp. 87- 1 27.

103
Putnam, H. (1 964), Robots: machines or artificially created life ?, ora
in Philosophical papers, 2, Cambridge University Press, Cam­
bridge (Mass.) 1 975.
Pylyshyn, Z.W. (1 978), Computational models and empirica[ con­
straints, in "Behav. Brain Sci.", l . pp. 93- 127.
Pylyshyn, Z.W. (1980), Computation and cognition: issues in the
foundations of cognitive science, in "Behav. Brain Sci.", 3, pp.
1 1 1 - 1 69.
Pylyshyn, Z.W. (1 984), Computation and cognition. Toward a foun­
dation for cognitive science, The MIT Press, Cambridge (Mass.).
Sayre, K.M. (1 986), Intentionality and information processing: an al­
ternative model for cognitive science, in "Behav. Brain Sci.", 9,
pp. 1 2 1- 1 65.
Searle, J.R. (1 980), Minds, brains, and programs, "Behav. Brain Sci",
3, 4 1 7-457 (trad. it. Mente, cervelli e programmi, Clup, Milano
1984).
Simon, H.A. (1 973), The organization of complex systems, in H.H.
Pattee (a cura di), Hierarchy theory, Braziller, New York.
Wimsatt, W.C. ( 1 976), Reductionism, levels of organization, and the
mind-body problem, in G.G. Globus, G. Maxwell e l. Savodnik (a
cura di), Consciousness and the brain: scientific and philosophi­
cal inquiry, Plenum, New York.

104
Epistemologia, cognizione
e razionalità deduttiva *
di Riccardo Viale

Verso la naturalizzazione della razionalità?

Tra le più fondamentali questioni cui l'epistemologia* *


ha cercato di rispondere vi sono le seguenti:

" l ) Come dobbiamo arrivare alle nostre credenze?


2) Come arriviamo alle nostre credenze ?
3) I processi con cui arriviamo alle nostre credenze sono
quelli con cui dobbiamo arrivare alle nostre credenze ?"
(Kornblith, 1 985, p. 1).

Tradizionalmente si usava rispondere a queste domande


nel modo seguente: sia l'epistemologia che la psicologia de­
vono compiere la loro ricerca autonomamente e separata­
mente e poi, dopo avere risposto rispettivamente alle doman­
de l e 2, si tenterà di rispondere alla domanda 3 .
Per esempio, anche se l e ricerche i n psicologia fossero ca­
paci di dimostrare che la persona arriva alle proprie creden­
ze attraverso un qualche genere di meccanismo inconscio
che misura la coerenza delle nuove credenze con il corpo del­
le credenze già esistenti e che accetta solo quelle coerenti e
rifiuta le incoerenti, ciò non avrebbe alcun valore di soste­
gno per la teoria epistemologica normativa della coerenza,
secondo la quale uno può accettare solo credenze coerenti
con quelle che già possiede.

* Alcune modifiche alla prima versione del testo sono state apportate
in seguito alle preziose osservazioni di Massimo Egidi, Diego Marconi, Wil­
liam Newton Smith e Angelo Petroni. La versione definitiva è stata realizza­
ta presso l'USRT del Cnr di Milano.
** In questo saggio si userà il termine epistemologia nel senso di "epi­
stemology" della filosofia anglosassone che in Italia corrisponde a teoria
della conoscenza.

1 05
Le questioni normative che si pone l'epistemologo sono
completamente indipendenti dalle questioni descrittive che
si chiede lo psicologo.
Esiste però un altro modo di rispondere alle tre doman­
de. È il modo di rispondere del programma di naturalizzazio­
ne dell'epistemologia: alla domanda l non si può rispondere
indipendentemente dalla domanda 2. Il problema di come ar­
riviamo effettivamente alle nostre credenze è quindi rilevan­
te per il problema di come dobbiamo arrivare ad esse.
Questa posizione è ben riassunta dal seguente passo di
Quine:
L'epistemologia diventa un capitolo della psicologia e quindi
delle scienze naturali. Essa studia un fenomeno naturale, un
soggetto fisico umano. A questo soggetto umano è dato un certo
input controllato sperimentalmente - ad esempio certi modelli
di irradiazione secondo determinate frequenze - e in una •certa
quantità di tempo il soggetto elabora come output una descri­
zione del mondo tridimensionale e la sua storia. La relazione
tra lo scarno input e il torrenziale output è una relazione che
siamo indotti a studiare per le stesse ragioni che hanno spinto
allo studio dell'epistemologia; cioè per vedere come l'evidenza
si rapporta con la teoria e in che modo la propria teoria della
natura trascende ogni evidenza disponibile (Quine, 1 985, p. 24).

Come si è arrivati a questo capovolgimento di prospetti­


va? Principalmente a causa del fallimento del programma
fondazionalista che cercò di dimostrare che vi era una classe
di credenze - quelle sulle nostre esperienze sensoriali - su
cui è impossibile commettere errori. Inoltre queste credenze
erano ritenute sufficienti per giustificare il resto delle cre­
denze. Il programma di Carnap mirava alla traduzione, alla
ricostruzione razionale di ogni asserzione intorno al mondo
nei termini dei dati sensoriali, della logica e della teoria de­
gli insiemi.
Se il programma fosse riuscito da un punto di vista "con­
cettuale", cioè della possibilità "tecnica" di questa traduzio­
ne, esso avrebbe in ogni caso mancato di superare lo scoglio
"dottrinale", cioè il problema del mantenimento del contenu­
to di verità all'interno della traduzione. Il mero fatto che una
asserzione sia tradotta nei termini dei dati sensoriali, della
logica e della teoria degli insiemi non significa che essa pos­
sa essere verificata da questa traduzione. La più modesta
delle generalizzazioni osservazionali coprirà sempre più casi
di quelli osservati da chi la produce. È senza speranza quin­
di ogni tentativo di fondare da un punto di vista logico le
credenze sull'esperienza immediata, anche se si tratta della
più semplice generalizzazione empirica.

106
Anche da un punto di vista concettuale questo program­
ma di traduzione ha dato scarsi risultati. Il tentativo era di
ridurre ogni asserzione della scienza in un linguaggio neutro
di dati osservazionali, logica e teoria degli insiemi. Dappri­
ma si tentò con "definizioni dirette", successivamente con
"definizioni contestuali" per cui venivano tradotte as serzioni
contenenti un termine in asserzioni equivalenti mancanti di
quel termine. Da ultimo con i "moduli di riduzione" del pro­
gramma liberalizzato di Carnap si abbandona la speranza di
tradurre una as serzione in una equivalente e ci si riduce a
prospettare la possibilità di spiegare un nuovo termine spe­
cificando sia alcune asserzioni che sono implicate dalle pro­
posizioni contenenti il termine in questione, sia altre asser­
zioni che implicano asserzioni contenenti il termine.
Come sostiene Quine, questo obiettivo minimale fa perde­
re però l'unico vantaggio di un programma di ricostruzione
razionale cioè il vantaggio della riduzione attraverso la tra­
duzione.
Se tutto ciò a cui miriamo è una ricostruzione che colleghi la
conoscenza del mondo alla esperienza in modalità esplicite, ma
non di traduzione, allora sembra più efficace optare per la psi­
cologia. È meglio scoprire come la conoscenza del mondo si svi­
luppa nella realtà che fabbricare una storia fittizia di come i no­
stri progenitori avrebbero introdotto determinati termini attra­
verso una successione di "moduli di riduzione" carnapiani (Qui­
ne, 1 985, p. 2 1 ).

Ciò significa che la base empirica della conoscenza, il si­


gnificato empirico delle asserzioni intorno al mondo non ha
più fondamenti su cui poggiarsi ? Il contrario. La conoscenza
del mondo a questo punto ha la sua base e fondamento pro­
prio nel significato empirico del linguaggio come viene rag­
giunto realmente nella dinamica dell'apprendimento lingui­
stico di ogni individuo. Il significato comune che attribuia­
mo alle parole ed alle asserzioni sul mondo esterno e su cui
si basa la nostra possibilità di comunicare e di comprender­
si, come lo stesso significato empirico della scienza, poggia
in ultima analisi sulla comune base empirica del comune si­
gnificato che attribuiamo alle nostre asserzioni sul mondo,
base empirica che può venire descritta e spiegata solo dalla
psicologia empirica.
Un ulteriore slittamento verso una naturalizzazione del­
l'epistemologia lo si ha nel momento in cui si incomincia ad
approfondire il senso delle tre domande di prima con l'atten­
zione rivolta ai meccanismi cognitivi della razionalità, ai va­
ri processi interni di elaborazione cognitiva delle credenze,

107
ai processi attraverso cui da una credenza si arriva a una
credenza diversa, ai processi cioè di inferenza e ragionamen­
to logico deduttivo e induttivo probabilistico. È il momento
della decisione su quale azione intraprendere; della valuta­
zione di assunti e ipotesi; del perseguimento di argomenta­
zioni e ragionamenti; del decidere su quale peso e importan­
za dare ai dati dell'evidenza; della soluzione di problemi.
Nel passato si è creduto che l'uomo fosse un animale ra­
zionale in quanto il suo ragionare era considerato aprioristi­
camente conforme ai canoni prescrittivi della logica classica.
Si è assunta quindi come non problematica e stabilita a-prio­
ri la risposta alla domanda 2 nei termini di una risposta po­
sitiva alla domanda 3 . Quella che sembrava essere solo una
congettura che poteva spiegare la ragione di questa credenza
negli antichi, sembra rivelarsi invece un pregiudizio ancora
diffuso perfino tra i più sofisticati e moderni psicologi. An­
che un demolitore di certezze razionalistiche come Phil
Johnson-Laird giustifica in un certo qual modo aprioristico
la razionalità logica (anche se non nel senso della logica clas­
sica, ma in quello della teoria psicologica dei "modelli men­
tali") dell'uomo con il fatto che "se la gente fosse intrinseca­
mente irrazionale allora l'invenzione della logica, della mate­
matica e di molte altre cose sarebbe incomprensibile" (John­
son-Laird, 1 983, p. 66).
Ora quando si deve giudicare sulla razionalità logica del­
l'uomo, un conto è parlare di "ragionamento con carta, pen­
na, calcolatore, Biblioteca Nazionale e tempo a disposizio­
ne", per usare un'immagine metaforica, un'altro è analizza­
re, come d'altronde fanno nelle loro ricerche la maggior par­
te degli scienziati cognitivi, compreso Johnson-Laird, il ra­
gionare deduttivo intuitivo senza strumenti, le abilità logi­
che di base, la capacità di argomentare tipica dell'uomo del­
la strada, nella vita di tutti i giorni in cui non sono a disposi­
zione gli ausili tecnologici e concettuali dello scienziato o del
tecnico. Mentre, nel primo caso si potrà osservare una con­
formità almeno parziale del ragionare a modelli logici come
il calcolo delle proposizioni, il ragionamento sillogistico o
qualche altro strumento formale di calcolo o ragionamento,
nel caso dell'uomo della strada e del ragionamento logico in­
tuitivo questa conformità ai canoni della logica classica è,
come sarà evidente in seguito, molto più problematica.
All'interno del programma di naturalizzazione dell'episte­
mologia, un capitolo importante assume quindi uno studio
dei meccanismi naturali di ragionamento e di formazione
delle credenze che sia immunizzato da ogni preconcetto e
apriorismo di tipo logicista.

108
Ragionare logico e schizofrenico

La presenza di radicati pregiudizi di tipo logicista nello


studio delle performance inferenziali dell'uomo è bene illu­
strata da alcune tradizionali teorie sul pensiero schizofre­
nico.
In molta parte infatti delle teorie sul pensiero abnorme e
in particolare schizofrenico presenti nei trattati di psicopa­
tologia e psichiatria, troviamo esposta la tesi sulla conformi­
tà del ragionare deduttivo umano normale ai canoni della lo­
gica classica.
Per anni la psicopatologia, per caratterizzare il ragionare
psicotico schizofrenico, si è servita di un modello del ragio­
nare normale che lo considerava aprioristicamente conforme
ai dettami della logica classica. Secondo alcune teorie preva­
lenti nella psichiatria, nello schizofrenico si può evidenziare
una chiara deviazione dai canoni classici del ragionamento
logico. Questo diverso comportamento logico è stato giudica­
to caratteristico oltre che dello psicotico, anche dei compor­
tamenti cognitivi di uomini cresciuti in culture arcaiche ed è
stato quindi denominato, ad esempio dall'Arieti, "paleologi­
co" (Arieti, 1 963). L'individuo paleologico non ragiona più
usando la logica aristotelica ma si serve di una logica sui ge­
neris chiamata paleologica. La paleologica è in gran parte
basata su un principio enunciato da von Domarus ( 1 925,
1 944). Questo autore dopo i suoi studi sulla schizofrenia, for­
mulò una teoria che in forma lievemente modificata si può
enunciare come segue: "Mentre la persona normale accetta
l'identità solo sulla base di soggetti identici, il pensiero pa­
leologico accetta l'identità basata su predicati identici."
Per esempio, se si dice a un individuo normale: "Tutti gli
uomini sono mortali; Socrate è un uomo", egli sarà in grado
di concludere: "Socrate è mortale". Questa conclusione è va­
lida perché il soggetto della premessa maggiore (tutti gli uo­
mini) contiene il soggetto della premessa minore (Socrate).
Se, invece, uno schizofrenico pensa: "a ha la proprietà x "
e "b ha la proprietà x " in certi casi può concludere che "a è
b". Questa conclusione, che a una persona normale sembra
delirante, viene tratta, secondo alcuni autori, perché l'identi­
tà del predicato delle due premesse, "x " , fa accettare allo
schizofrenico l'identità dei soggetti, "a" e "b".
Alla parola predicato, inoltre, lo schizofrenico attribuisce
un senso più vasto. Può essere, per esempio, solo una parte
tangibile del soggetto. Vi è la tendenza a identificare una
parte con il tutto (per esempio, una stanza con la casa in cui
si trova) per cui si può dire che a = a + b + c poiché i due

109
termini hanno a in comune (termine che assume la funzione
di "legame identificatore").
Di solito nello schizofrenico queste forme di ragionamento
paleologico sono automatiche come, secondo gli autori, l'ap­
plicazione della logica aristotelica da parte delle persone nor­
mali. Secondo il principio di von Domarus si annullano le pri­
me tre leggi della logica tradizionale aristotelica (principio di
identità, di non contraddizione, del terzo escluso). Inoltre il
pensiero paleologico ricerca la ragione e la causa di un avve­
nimento in modo diverso dal pensiero logico: esso infatti per
la sua confusione tra mondo fisico e mondo psicologico, ricer­
ca le cause di un evento piuttosto che in ragioni di natura
esterna in ragioni personali e soggettive. In altre parole la
causalità presente in spiegazioni oggettive che riguardano il
mondo fisico è sostituita dalla causalità mediante fattori
causali psicologici e soggettivi. Anche qui secondo gli autori
esiste un chiaro legame col pensiero infantile e in particolare
con quello primitivo.
Un'altra teoria che è legata al modello tradizionale di ra­
zionalità e normalità del ragionare nel senso di conformità ai
principi della logica classica, è quella di Matte Bianco ( 1 98 1 ).
Egli individua nello schizofrenico alcune leggi fondamentali e
in base ad esse tenta di spiegare la sintomatologia riscon­
trata.
l) Principio di generalizzazione: una cosa singola viene
trattata come se fosse un elemento di una classe; questa classe
viene considerata a sua volta come sottoclasse rispetto a una
classe più generale e così di seguito fino a costituire una catena
di generalizzazioni. La differenza con il comportamento nor­
male è che spesso le classi di ordine superiore vengono scelte
per caratteristiche in comune di tipo accessorio e non fonda­
mentale;
2) Principio di simmetria: lo schizofrenico tratta l'inversa
di una relazione come se fosse identica alla relazione stessa. Ne
derivano importanti corollari come: la scomparsa del tempo e
la parte diventa uguale all'intero. Secondo Matte Bianco questi
principi sono capaci di spiegare alcune caratteristiche del pen­
siero schizofrenico come l'interpretazione letterale delle meta­
fore, lo spostamento, la condensazione, il pensiero concreto. Il
principio di simmetria ha la proprietà di annullare ogni possi­
bilità di organizzazione logica in quel settore del pensiero ove
venga applicato. Il ragionamento tipico dello schizofrenico può
essere definito "bi-logico" in quanto rispetta in parte la tradi­
zionale logica bivalente e in parte quella simmetrica.
Queste teorie sono edifici concettuali che hanno le loro
fondamenta su una definizione a priori della performance de-

1 10
duttiva dell'uomo normale, oggigiOrno confutata empirica­
mente dalla psicologia cognitiva.
Ci basti fare qui due esempi evidenziati da Wason e John­
son-Laird ( 1 972, pp. 236-238).
La tesi secondo cui la paleologica si caratterizza rispetto
alla logica dell'individuo normale in quanto è governata dal
principio che due classi sono identiche se hanno qualche at­
tributo comune, non è adeguata, poiché questa particolare
fallacia inferenziale è proprio un esempio di quello che
Chapman e Chapman (1 959) chiamano "inferenza probabili­
stica", un errore spesso compiuto dai soggetti normali quan­
do devono affrontare un argomento che manca di contenuto
tema tico.
Analogamente, la tesi di Matte Bianco secondo cui le radi­
ci del pensiero schizofrenico stanno nel fatto che i termini
relazionali sono trattati come se fossero simmetrici sembra
indebolita dal riscontro di un analogo fenomeno chiamato
"conversione illecita" (Chapman e Chapman, 1 959) che si ma­
nifesta frequentemente fra gli individui normali quando i
test sono astratti.
Si dimostra quindi da queste come da altre osservazioni
sperimentali che anche i soggetti normali evidenziano a volte
forme di ragionamento, tradizionalmente valutato come
aberrante e considerato peculiare della sintomatologia co­
gnitiva degli schizofrenici. Non sembra più convincente
quindi una caratterizzazione del ragionare schizofrenico in
base alla infrazione delle leggi dell'ideale logicistico classico
di razionalità deduttiva.

Alcune difficoltà teoriche del modello tradizionale di razio­


nalità deduttiva

Dato che per secoli è stata assunta la logica classica come


canone razionale del ragionare deduttivo dell'uomo normale,
la prima domanda che viene da porsi è la seguente: è giustifi­
cata la pretesa normativa della logica classica di porsi come
criterio per la giustificazione della bontà o meno delle infe­
renze deduttive umane ? È giustificata la pretesa di un crite­
rio esterno come questo di decidere sulla razionalità delle in­
ferenze deduttive nell'uomo ?
A questa domanda varie sono le risposte di carattere teo­
rico o derivanti dai risultati empirici della scienza cognitiva.

A. Per prima cosa ci si potrebbe chiedere perché la logi­


ca classica e non una delle molte logiche che sono state svi-

111
luppate in questo secolo, come una delle infinite logiche rno­
dali che hanno anche il vantaggio di formalizzare i concetti di
possibilità e necessità o logiche più esotiche come le logiche
non-rnonotoniche o la logica "fuzzy" che hanno il vantaggio di
cercare di emulare le caratteristiche reali del ragionare urna­
no come la sua ambiguità, scarsa definizione e la sua capacità
di navigare efficacemente in un mare di contraddizioni, incoe­
renze e imprecisioni e ciononostante raggiungere risultati
soddisfacenti nella soluzione dei problemi e nelle inferenze.
Anche se una particolare branca della logica fosse stata
isolata, rimarrebbe sempre il problema di scoprire la natura
della sua specificazione mentale. Ogni logica infatti può esse­
re formulata in un numero differente di modi a seconda della
scelta degli assiomi e delle regole di inferenza nella sua speci­
ficazione sin tattica. Ogni assiomatizzazione di questo tipo non
avrà alcuna influenza sulla validità o meno delle inferenze,
che è un problema di natura sernantica, ma influirà grande­
mente sulla facilità relativa con cui queste inferenze vengono
fatte dalla mente umana. A seconda o meno che vengano intro­
dotte determinate regole di inferenza nella assiomatizzazione
una data inferenza implicherà un maggiore o minore sforzo e
stress cognitivo-computazionale che potrebbe limitare, condi­
zionare e influire negativamente sulla riuscita ed esattezza
della inferenza stessa (Johnson-Laird, 1983, pp. 26-28).

B. Non esiste una fondazione della validità delle inferenze


che non poggi sulle intuizioni logiche di chi le fa e che invece
abbia una giustificazione basata su una qualche teoria logica.
Secondo Cohen, non è possibile questo ricorso alla logica co­
me modello prescritto della validità delle deduzioni dell'uomo
in quanto anche la logica stessa trova la sua giustificazione ul­
tima nell'intuizione umana. Vi sono due possibili strategie per
evitare un ricorso alla intuizione (Cohen, 1 98 1 , pp. 3 1 8-3 1 9):
l . La strategia ernpirico-induttiva di tipo positivista: la lo­
gica è vista come un'aggiunta alla scienza e ciò che viene ac­
cettato come verità logica va a costituire una componente del
sistema olistico che viene accettato come verità scientifica. La
capacità predittiva ed esplicativa del sistema totale giustifi­
cherà non solo la scienza ma anche la logica insita in essa.
Questa posizione non è sostenibile per varie ragioni oltre a
quelle classiche contro ogni tentativo fondazionalista di tipo
positivista:
a) a certi principi norrnativi per la costruzione delle teorie
scientifiche come la semplicità, coerenza e cornprensività de­
ve essere garantito uno statuto a priori che può essere difeso
solo in maniera intuitiva;

1 12
b) molta parte del ragionamento in cui è necessaria una
giustificazione logica si trova non nella scienza ma nel dirit­
to e nell'amministrazione e ha a che fare non con ciò che "è"
il caso ma con ciò che "deve essere";
c) asserzioni vere logicamente devono essere vere in tut­
ti i mondi possibili e l'evidenza fattuale di questo mondb
non è sufficiente a fondarle.
Inoltre in tutti i più importanti capitoli della epistemolo­
gia e della logica applicata - modalità (Quine, 1 960), condi­
zionali controfattuali (Lewis, 1 97 3), discorso indiretto (Car­
nap, 1 947), identità relativa (Griffin, 1 977), nomi propri
(Kripke, 1 972), avverbi (Davidson, 1 966) ecc. - per fornire le
necessarie premesse nell'argomentazione viene spesso utiliz­
zato un implicito o esplicito appello all'intuizione.
2. La giustificazione metamatematica: ogni sistema in
cui le regole di derivazione siano specificate formalmente
viene detto valido se, usando una qualche interpretazione
per il sistema formale, può essere provato che, applicando
queste regole, da premesse vere si derivano conclusioni ve­
re. Così potrebbe sembrare come se, usando una definizione
semantica di conseguenza logica al fine di controllare un si­
stema sintattico, sia possibile stabilire la razionalità di un
insieme di regole inferenziali con una prova metamatemati­
ca senza ricorso ad alcuna intuizione se non quella presente
nella percezione della dimostrazione (Dummett, 1 978). Ciò
non sembra però, secondo Cohen, offrire nessuna argomen­
tazione a favore della tesi che le particelle logiche del lin­
guaggio naturale possano essere mappate in quelle dei con­
nettivi e quantificatori del sistema formale che si è dimo­
strato valido (e cioè che il sistema formale serva da modello
normativo per giudicare la correttezza o meno del compor­
tamento linguistico umano e quindi la validità delle dedu­
zioni fatte in linguaggio naturale).
Infatti se, ad esempio, in ogni sistema di deduzione natu­
rale per il calcolo delle proposizioni, dalla proposizione:
((A - B) & (C - D))

è derivabile:
((A - D) V (C - B)

allora secondo l'interpretazione del calcolo proposizionale


proposta da Russell ( 1 9 1 9) dovrebbe essere giustificata una
inferenza da:
Se l'automobile di Carlo è una Fiat "500", Carlo è povero e se
l'automobile di Carlo è una Ferrari, Carlo è ricco.

1 13
a:
O se l'automobile di Carlo è una Fiat "500", Carlo è ricco o se
l'automobile di Carlo è una Ferrari Carlo è povero.

che è, secondo l'esperienza comune, falsa.


Ciò è un esempio di come il tentativo di Russell di in­
terpretare il calcolo proposizionale (che si può dimostrare
essere valido) come una logica del ragionare di tutti i gior­
ni è errato perché non riesce a catturare le nostre intuizio­
ni in fatto di correttezza deduttiva e inferenziale (Cohen,
1981 p. 3 1 9).
'
C. Anche se potessimo accettare la proposta della logica
classica come modello della logica mentale e delle caratte­
ristiche inferenziali del ragionare umano non si eviterebbe
un altro grave problema.
Ogni insieme di premesse implica un numero infinito di
differenti conclusioni valide. Molte saranno completamente
banali come la semplice congiunzione di premesse. Solo po­
che verranno tratte spontaneamente in circostanze ordi­
narie.
Ad esempio, date le premesse:
Se viene dato fuoco alla paglia essa si incendia
Viene dato fuoco alla paglia

la maggior parte della gente dedurrà:


La paglia si incendia

e non conclusioni altrettanto valide come:


Viene dato fuoco alla paglia e la paglia si incendia
Viene dato fuoco alla paglia e se viene dato fuoco alla paglia
essa si incendia
Viene dato fuoco alla paglia o se viene dato fuoco alla paglia
essa si incendia.

Devono allora sussistere dei princìpi euristici che fanno


in modo di evitare questa ridondanza delle conclusioni, che
fanno in modo di filtrare il banale e l'inutile. Princìpi euri­
stici che risiedono fuori della logica e che sono incorporati
nelle caratteristiche inferenziali della psicologia del ragio­
nare umano. Princìpi euristici che pur filtrando e selezio­
nando la conclusione in genere riescono a mantenere il
contenuto di informazione semantica delle premesse (John­
son-Laird, 1 983, pp. 34-39). Con l'eccezione di casi come
questo:

1 14
p
non-p V q

: p&q
.

in cui la conclusione che l'individuo usa trarre è:


q

che possiede meno contenuto di informazione semantica delle


premesse. Ciò si spiega in quanto è superfluo ripetere una
semplice premessa categorica quando essa può essere data
per acquisita. Ripeterla vorrebbe dire violare la convenzione
di Grice, secondo cui nel discorso ordinario chi parla non af­
ferma l'ovvio, convenzione che rappresenta parte del princi­
pio cooperativo che ci dà la possibilità di dialogare (Grice,
1975).

Alcune falsificazioni empiriche del modello tradizionale di ra­


zionalità deduttiva

La logica classica non sembra adeguata come criterio della


correttezza di una inferenza sia perché le sue relazioni logiche
non corrispondono in maniera accurata alle convenzioni lin­
guistiche sia a causa di un uso preciso invece che sfumato dei
concetti di verità e falsità. Vari risultati empirici della scienza
cognitiva dimostrano come non esista alcuna logica mentale
in accordo con i canoni della logica classica, ma che la capaci­
tà cognitiva deduttiva umana abbia caratteristiche peculiari
difficilmente conformi a modelli a priori.
Ciò è ben evidenziato dai seguenti esempi.

l . Il modo standard di definire la disgiunzione in logica è


nei termini delle sue tavole di verità. Se vi sono due disgiunti
P e Q, la disgiunzione è vera nella situazione in cui P è vero e Q
è falso e nella situazione in cui P è falso e Q è vero, ma è falsa
quando entrambi sono falsi.
Per quanto riguarda la situazione in cui P e Q sono veri,
tradizionalmente la logica ha considerato questa una condi­
zione di verità della disgiunzione. Ciò non corrisponde invece
al comportamento linguistico e cognitivo dell'uomo. In questo
caso vi è un modo diverso di interpretare la disgiunzione ri­
spetto ai dettami della logica tradizionale. Mentre questa in­
tende la disgiunzione in senso "inclusivo" (la disgiunzione è
vera quando i due disgiunti sono veri), nel comportamento lin-

115
guistico umano essa viene intesa in senso "esclusivo" per cui
nel caso della verità dei due disgiunti la disgiunzione è falsa
(Newstead e Griggs, 1983, pp. 76-78) (si veda la tavola 1).

Tavola I
Disgiunzione Disgiunzione
p Q
inclusiva esclusiva
v v v F
v F v v
F v v v
F F F F

V = vero F = falso

Da un punto di vista logico la preferenza per la disgiun­


zione inclusiva ha una sua ragione in quanto usando una in­
terpretazione inclusiva della disgiunzione e la negazione pos­
sono essere definite tutte le altre operazioni logiche (Suppes,
1 957). Anche Piaget e Inhelder (1 958) caratterizzano lo stadio
delle operazioni formali nei termini di sedici operazioni bi­
narie che usano solo la negazione, la disgiunzione inclusiva e
la congiunzione (inoltre una forma di disgiunzione inclusiva
la si ritrova nella teoria degli insiemi con l'operazione di
unione " U ). Questa preferenza però non è giustificata dal
"

punto di vista del linguaggio e del ragionare di tutti i giorni


che invece fanno propendere per una interpretazione di tipo
esclusivo (Newstead e Griggs, 1 983, p. 78).
Ad esempio se prendiamo queste due frasi:
(da una pubblicità) I candidati devono possedere o una laurea o
esperienza di insegnamento
(da una mamma al bambino) Tu puoi avere o qualche caramella
o qualche biscotto

è chiaro come presentino una interpretazione differente del­


la disgiunzione, nel primo caso di tipo inclusivo e nel secon­
do caso di tipo esclusivo.
Questa situazione che non si conforma alla logica tradi­
zionale è stata studiata sperimentalmente, e dai risultati di
questi esperimenti si possono trarre secondo Newstead e
Griggs ( 1 983, pp. 79- 103) delle spiegazioni del fenomeno:
a) che nel caso della disgiunzione l'interpretazione dipen­
de principalmente dai seguenti fattori: il contesto linguistico
ed extralinguistico in cui essa avviene, l'esatta forma delle
parole usate e il tipo di compito per la valutazione dell'inter­
pretazione;

1 16
b) che la logica classica fornisce criteri troppo restrittivi
per avere un'applicazione al linguaggio e all'attività inferen­
ziale umana. Infatti il significato di "o" talvolta si riferisce a
una disgiunzione inclusiva, talvolta a una disgiunzione esclu­
siva, talvolta a nessuna delle due come nel caso in cui il con­
testo esprima intenzione. Tra l'altro è interessante notare
che alcuni linguaggi come quello dei Kpelle in Liberia, quel­
lo finlandese e il latino possiedano una parola per la disgiun­
zione inclusiva e una per quella esclusiva, ciò che sanziona
ancora di più il distacco da una interpretazione del linguag­
gio nei termini della logica tradizionale;
c) che nel caso della disgiunzione, come nel caso di altre
operazioni logiche ciò che corrisponde di meno al comporta­
mento inferenziale dell'uomo è l'interpretazione bivalente
del contenuto assertorio del linguaggio. La logica tradiziona­
le aderisce al principio aristotelico del terzo escluso per cui
ogni proposizione deve essere vera o falsa e non può avere
un valore intermedio come "possibilmente vera" o "possibil­
mente falsa". Dai risultati degli esperimenti sulla disgiunzio­
ne (citati nel saggio di Newstead e Griggs, 1 983) sembra inve­
ce che esista un continuum tra vero e falso nella interpreta­
zione delle asserzioni soprattutto per quanto riguarda la se­
parazione tra disgiunzione inclusiva ed esclusiva.
Infatti nel caso:
pVq
p

:. non-q

mentre la conclusione è vera nella esclusiva è falsa nella inclu­


siva. Nella realtà gli individui si pongono con le loro risposte
in tutto l'arco che va dal vero (esclusiva) al falso (inclusiva).
Ritorna a questo punto la necessità forse di fare appello ad
altri strumenti logici. Forse per un concetto "fuzzy" come quel­
lo disgiuntivo potrebbe essere di aiuto rivolgersi alla logica
"fuzzy". Facendo ciò, l'operatore disgiunzione "V" non dovreb­
be essere più definito nei termini delle sue tavole di verità e
ogni conclusione che fosse da trarre da una disgiunzione sa­
rebbe di natura probabilistica invece che del tipo tutto-o-nulla.

2. Una delle più importanti regole di inferenza è il modus


ponens della implicazione materiale che stabilisce che data
la proposizione "se A allora B", e anche dato A, allora uno
può validamente inferire B.
La maggior parte della gente non presenta molta difficol­
tà nell'accettare argomenti basati sul modus ponens, ma

1 17
spesso ha problemi con un'altra regola di inferenza cono­
sciuta come modus tollens. Questa regola stabilisce che, data
la proposizione "se A allora B ", e dato anche il fatto che B è
falso, allora possiamo dedurre che A è falso.
Sebbene entrambe queste regole di inferenza sembrino
abbastanza ovvie la gente mostra una certa difficoltà nell'ap­
plicarle. La difficoltà deriva dall'incapacità di comportarsi
in un modo che combaci con la corretta interpretazione delle
regole, e dalla tendenza a trarre conclusioni che non sono
giustificate.
a) Per quanto riguarda la regola del modus ponens non è
giustificato concludere che B sia falso in base alle premesse
"se A allora B" e "non-A":
A - B
non-A
nessuna conclusione

b) Per quanto riguarda la regola del modus tollens non è


giustificato concludere che A sia vero in base alle premesse
"se A allora B" e "B":
A - B
B
nessuna conclusione

Si è osservato nel ragionare umano il trarre con frequen­


za false conclusioni basate su (a) e (b).
Un lavoro sperimentale usando esempi ipotetici è stato
eseguito da Rips e Marcus (1 977). Essi chiesero a degli stu­
denti universitari di valutare alcune asserzioni come:

Se la palla rotola a sinistra, allora la lampada verde si accende.


La lampada verde si accende.
Allora la palla è rotolata a sinistra.

Rips e Marcus presentarono tutte le possibili combinazio­


ni di premesse e conclusioni. Nel caso del modus ponens tut­
ti i soggetti selezionarono le conclusioni corrette. Invece, con
asserzioni di altro tipo, una proporzione cospicua di soggetti
commisero degli errori dal punto di vista della logica della
implicazione materiale.
Ad esempio, nel caso a esposto precedentemente uno non
può dire che B non è "mai" vero, giacché ciò non può essere
deciso. Invece "mai" fu la risposta data nel 16 per cento dei
casi. Questo particolare errore è denominato "fallacia della
negazione dell'antecedente".

118
Un altro esempio ha a che fare con il caso b esposto prece­
dentemente che, come quella di prima, non è una valida dedu­
zione. Uno non può dire che A è "sempre" vero, anche se può
essere vero qualche volta. Ciononostante, il 23 per cento delle
risposte affermò che era "sempre" vero. Questo errore è cono­
sciuto come "fallacia dell'affermazione del conseguente".
Anche con l'applicazione della regola del modus tollens
furono scoperti molti errori. La conclusione giusta nel mo­
dus tollens è che A è "sempre" falso. Ma solo il 57 per cento
delle risposte fu di questo tipo. Il 39 per cento rispose con
"qualche volta" (si veda la tavola II).
Perché vengono commessi questi errori ? Una possibile
causa di questi errori nasce dall'interpretazione della stessa
asserzione condizionale. Se "A - B" significa solo che se av­
viene A allora avviene B. Non significa che se avviene B allo­
ra avviene A. Questo carattere unidirezionale di B che segue
A è rappresentato bene dalla freccia "A - B". Ciò è totalmen­
te differente da ciò che è conosciuto sotto il nome di bicondi­
zionale "A -. B". Ciò è rappresentato dall'espressione "Se e
solo se".
Perché l'uomo tratta "A - B" come se fosse "A -. B " ? La
risposta congetturale si basa sul modo in cui il problema è
costruito dal soggetto. Supponiamo che venga presentata
un'asserzione relativamente senza significato come: "Se la
palla rotola a sinistra allora la luce verde si accende". Que­
sta asserzione suona come se fosse presentata una relazione
bidirezionale. Non è stata certamente menzionata alcun'altra
condizione che potrebbe accendere la luce verde sebbene ciò
sia logicamente possibile. Il problema è che nell'asserzione
precedente si parla solo di una palla e una luce verde e non
si fa intravvedere alcun'altra possibilità per l'accensione del­
la luce verde. La possibilità logica emerge raramente dalla
povertà semantica di asserzioni come quella precedente.
Alcune di queste inadeguatezze del ragionare nell'uomo
sono chiaramente manifeste nel selection task di Wason
(1 966).
Wason e Johnson-Laird ( 1 972) hanno segnalato una serie
di risultati che appaiono evidenziare che i soggetti hanno
un'innata tendenza a verificare la verità di asserzioni condi­
zionali attraverso la ricerca di casi di conferma e non ren­
dendosi conto che un caso di falsificazione sarebbe più con­
clusivo. Questa difficoltà è data dalla incapacità di applicare
il modus tollens in una situazione in cui è necessario farlo. Il
test è conosciuto come il problema delle quattro carte. Il
soggetto vede quattro carte che giacciono su un tavolo. Sul
lato non coperto, sono scritti sulla prima carta la lettera A,

119
Tavola IL Percentuale di risposte totali in otto tipi di argomenti con-
dizionali (Rips e Marcus, 1 977)

Qualche
Argomento Sempre Mai
volta

A - B
A 1 00 o o
l) --

:. B

A - B
A o o 100
2)
:. non B

A - B
non A 5 79 16
3) --

:. B

A - B
non A 21 17 2
4)
:. non B

A - B
B 23 77 o
S)
--

:. A

A -B
B 4 82 14
6)
:. non A

A - B
non B o 23 77
7) --
:. A

A - B
non B 57 39 4
8)
:. non A

sulla seconda carta la lettera D, sulla terza carta il numero


4, sulla quarta carta il numero 7 . Al soggetto è specificato
che ciascuna carta ha una lettera su un lato e un numero sul­
l'altro lato. Gli viene allora chiesto quali carte deve girare al

1 20
fine di stabilire la verità o la falsità della seguente regola
(fig. 1):

Se una carta ha una vocale su un lato, allora essa ha un numero


pari sull'altro.

Figura l .

La cosa interessante del comportamento nella maggioran­


za degli esperimenti sui soggetti di Wason fu che essi scelse­
ro A e quattro al primo tentativo, anche se non c'è nessun
modo per cui tale combinazione serva a stabilire la verità o
la falsità della regola. Supponiamo che essi trovino un nume­
ro pari sull'altro lato di A, allora questo sarebbe coerente
con la regola. Se essi trovassero una vocale sull'altro lato
della carta del numero 4, allora anche questo sarebbe coe­
rente con la regola. Ma come abbiamo visto prima questa è
la classica "fallacia dell'affermazione dell'antecedente". Mol­
to pochi soggetti decisero di voltare la carta con il 7. Secon­
do la regola del modus tollens è proprio scoprendo che la
carta con il 7 ha una vocale sull'altro lato, che la regola può
essere falsificata. La procedura ottimale infatti è di girare la
carta A e la carta 7, entrambi test critici per la regola gene­
rale.
L'esperimento di Wason è stato replicato diverse volte
con approssimativamente lo stesso risultato. Anche chiaren­
do esplicitamente ai soggetti che l'interpretazione bicondi­
zionale non è quella giusta, non si notava alcun cambiamen­
to del comportamento precedente. Ciò che i soggetti hanno
mostrato è un "pregiudizio di conferma": essi scelgono le lo­
ro carte per confermare delle ipotesi piuttosto che verificare
la possibilità di rifiutarle. Attraverso successivi tentativi di
replicazione di questo esperimento si è scoperto che la utiliz­
zazione efficace del modus tollens dipende da caratteristiche
del test che sono irrilevanti da un punto di vista puramente
logico. Consideriamo, ad esempio, la versione ideata da
Johnson-Laird, Legrenzi e Sonino-Legrenzi ( 1 972). Le quattro
carte furono sostituite con quattro buste da lettera; due mo­
stravano il lato del francobollo, che in una era di 5 pence e
nell'altra era di 4 pence; le altre due mostravano l'altro lato
e una era non sigillata mentre l'altra era sigillata. Ai soggetti

121
fu chiesto di immaginarsi al lavoro come postini. Essi aveva­
no da verificare la seguente regola:
Se una lettera è sigillata allora ha un francobollo da 5 pence.

Secondo questa versione del test molti più soggetti adot­


tarono la strategia corretta scegliendo la busta sigillata e la
busta col francobollo da 4 pence. Questo suggerisce che una
versione "concreta" del test è in qualche modo più facile da
comprendere e così permette ai soggetti di adottare la strate­
gia corretta. Con situazioni della vita reale, è più facile saper
usare i metodi corretti per verificare delle regole che hanno
a che fare con quelle situazioni.
Questa interpretazione del termine "concreto" è dimo­
strata dai seguenti esperimenti.
Manktelow e Evans ( 1979) usarono la seguente regola:
Se mangio carne allora bevo gin.

Questa versione non produce risultati differenti dalla ver­


sione originale delle quattro carte. È chiaro quindi che il ser­
virsi di parole familiari piuttosto che di simboli artificiali
non può spiegare i risultati ottenuti dall'esperimento delle
lettere e francobolli. Mentre la regola precedente è da consi­
derarsi senza senso e arbitraria, la seguente regola indagata
da Cox e Griggs (1 982), può non essere considerata arbitraria
(almeno.in Inghilterra):
Se una persona sta bevendo birra allora ha più di diciotto anni.

Con questa regola i soggetti in maggioranza scelsero la


strategia di verificare l'ipotesi piuttosto che cercare di con­
fermarla soltanto. Ad esempio, essi verificarono se sotto la
carta "sotto diciotto" c'era "bevitore di birra". Questa regola
si riferisce a qualcosa di familiare. È abbastanza possibile
che ognuno che è a conoscenza del problema delle bevande
alcoliche nei minori, l'avrà immagazzinata nella memoria co­
me regola di questo tipo:
Se c'è gente sotto X anni che sta bevendo alcool, allora essi de­
vono smettere di bere o saranno puniti.

Una regola di questo tipo incorpora una procedura di


prova per il bere nei minori. Ora se i soggetti capiscono il
problema precedente, mappandolo in una regola memorizza­
ta come quella suggerita precedentemente, allora la conse­
guenza sarà una tendenza a provare la possibilità di bevitori

122
minorenni. Questa è la stessa cosa che verificare la presenza
di controesempi alla regola.
Se questa spiegazione è corretta, allora il "comportamen­
to logico" dei soggetti in certe versioni concrete del test di
Wason può derivare da semplici prescrizioni sociali.
La conclusione di questi studi sembra indicare due im­
portanti principi:
a) gli individui non si comportano in accordo con il prin­
cipio logico di cercare di falsificare una regola eccetto che in
particolari circostanze;
b) queste circostanze sono quelle in cui l'interpretazione
del problema è raggiunta attraverso la sua mappatura in una
descrizione della situazione presente nella memoria la quale
incorpori efficacemente un'appropriata procedura di prova.
Proprio come le procedure di problem-solving sono determi­
nate dalla iniziale rappresentazione del problema, così avvie­
ne anche con questo particolare test di ragionamento logico.
Non soltanto l 'esatta forma del problema determina le
strategie usate dal soggetto, ma anche se è stata data una
corretta risposta a un dato problema concreto, il soggetto ra­
ramente si comporta correttamente di fronte a una successi­
va versione astratta dello stesso. In breve egli non dimostra
di avere nemmeno imparato a trasferire la sua conoscenza
della situazione concreta in una situazione astratta struttu­
ralmente identica.
Questi risultati sollevano un problema di fondo. Mentre
per altri connettivi come la congiunzione sembra che possa
ammettersi la possibilità che l'uso della regola inferenziale
derivi dall'apprendimento delle condizioni di verità che si
applicano al connettivo stesso, nel caso del connettivo condi­
zionale "se" della implicazione materiale non è così sicuro
che il significato sia di tipo vero-funzionale.
Una formulazione della semantica del condizionale nei
termini delle condizioni di verità sembra troppo restrittivo.
Ciò che si richiede è un resoconto più generale del significa­
to di "se" che possa accomodare condizionali particolari co­
me quelle contenenti una domanda o una richiesta nell'as­
serzione conseguente. Infatti si configurano casi in cui il
condizionale non è né vero né falso.
Le proprietà logiche del condizionale sono determinate
dalle proposizioni che sono interrelate e dal tipo di rapporto
che configurano. Ogni proposizione in genere definisce il suo
proprio contesto e nel caso del condizionale ciò è realizzato
in tre modi: una volta per l'antecedente, una volta per il con­
seguente e una volta per la relazione tra i due. Secondo una
teoria che sembra la più plausibile il soggetto usa le sue ere-

123
denze e conoscenze provocate dalla interpretazione del con­
dizionale per costruire un modello mentale di uno scenario
in cui l'antecedente venga a realizzarsi. A questo punto il
conseguente viene interpretato alla luce del modello e dello
scenario costruito (Johnson-Laird, 1 983, pp. 54-62).

3. La logica sillogistica è stata usata frequentemente da­


gli psicologi interessati al ragionare deduttivo. Il paradigma
tipico comprende la presentazione di due premesse a un sog­
getto che tenta poi di decidere se una data conclusione segue
logicamente dalle premesse suddette.
Le ragioni dell'interesse degli psicologi sono varie. Prima
di tutto si è argomentato che una grande quantità di ragiona­
menti presenta elementi che sono intrinsecamente sillogisti­
ci. Ad esempio Johnson-Laird (1 983) ha evidenziato che, ogni
qualvolta una persona ragiona dal generale al particolare,
sta impiegando una forma del seguente tipo:
Tutti gli A sono B
X è un A

:. X è un B

Una seconda ragione di questo interesse è che la gente


prova una grande difficoltà a ragionare sillogisticamente.
Presumibilmente la più grande difficoltà associata con il ra­
gionamento sillogistico deriva da una crescita nel numero
delle operazioni mentali che deve essere eseguito e dalla
complessità delle stesse.
I sillogismi sono anche ragionevolmente pochi come nu­
mero. Questo risulta dal fatto che in essi compaiono solo
quattro tipi di enunciati: Tutti gli A sono B; nessun A è B;
qualche A è B; qualche A non è B. I quantificatori usati negli
esperimenti di psicologia cognitiva sono i termini "tutti",
"nessuno", "qualche". Le due premesse possono essere com­
binate in un numero di modi per produrre quattro figure
nelle quali cambia l'ordine dei termini.
Il risultato netto di queste possibilità combinatorie è un
totale di 256 sillogismi. Però mentre logicamente le seguenti
premesse sono equivalenti, dal punto di vista della elabora­
zione dell'informazione non lo sono:
A --- B B --- e
B C A B

Il totale da un punto di vista "psicologico" è quindi di 5 1 2


premesse. Di queste solo 54 hanno una conclusione valida.

1 24
Le restanti non hanno conclusione (che sia una proposizione
categorica). Il tema chiave delle ricerche sul ragionamento sil­
logistico come nel caso del ragionamento proposizionale è sta­
to decidere tra il punto di vista "logico", secondo il quale la
gente si comporta razionalmente e logicamente di fronte a
problemi di logica e il punto di vista "non-logico" che sostiene
che la gente spesso si interessa ad aspetti del problema che so­
no irrilevanti per quanto riguarda la sua struttura logica e che
portano a vari tipi di risposte fallaci. Il primo punto di vista
predice livelli estremamente alti di performance nei test di ra­
gionamento logico mentre la seconda posizione predice per­
formance povere. Secondo il punto di vista "logico" (Henle,
1 962) molti errori avvengono semplicemente perché la gente
non capisce o rappresenta male il problema. Henle sostiene
anche che gli errori potrebbero avvenire per la mancata accet­
tazione del test logico da parte del soggetto, ad esempio nel ca­
so in cui gli si chieda di considerare solo la verità o la falsità
della conclusione piuttosto che se essa segua dalle premesse.
In ogni caso i risultati empirici degli esperimenti sul ra­
gionamento sillogistico hanno evidenziato livelli molto bassi
di performance.
Una delle prime teorie sulla performance nel ragionamen­
to sillogistico fu proposta da Woodworth e Sells (1 935). Con la
teoria dell'"effetto atmosfera" essi sostennero che la gente
non riesce a ragionare logicamente a causa della natura delle
premesse che crea un'atmosfera che porta il soggetto a trarre
certe conclusioni. Più specificamente essi suggerirono che
premesse positive inducono il soggetto ad accettare conclu­
sioni positive, mentre premesse negative lo portano a una
conclusione negativa. Se una delle premesse è positiva e l'al­
tra negativa allora il soggetto inclina verso una conclusione
negativa. Essi presero in considerazione anche asserzioni uni­
versali (ad esempio, "tutti gli A sono B") e asserzioni partico­
lari (per esempio, "qualche A è B"). Secondo l'effetto atmosfe­
ra le premesse universali predispongono la gente verso l'ac­
cettazione di una conclusione universale mentre una conclu­
sione particolare è accettata dopo premesse particolari. Il
soggetto preferisce inoltre una conclusione particolare quan­
do una premessa è universale e l'altra particolare.
L'evidenza sperimentale conferma ampiamente questa
teoria. Consideriamo i quattro sillogismi categorici seguenti
(tutti non validi):
( l)
Tutti gli A sono B
Tutti i C sono B
Allora tutti gli A sono C.

1 25
(2)
Nessun A è B
Tutti i C sono B
Allora nessun A è C.
(3)
Nessun A è B
Nessun B è C
Allora nessun A è C.
(4)
Nessun A è B
Nessun B è C
Allora tutti gli A sono C.

Quali di questi sillogismi sono validi ? Secondo la teoria


dell'atmosfera la gente sembrerebbe più propensa ad accet­
tare le conclusioni dei sillogismi ( l ) e (3) rispetto ai sillogi­
smi (2) e (4). Ciò è dimostrato da studi fatti recentemente da
Evans ( 1 982).
La teoria dell'effetto atmosfera è stata messa in discus­
sione da Johnson-Laird e Steedman ( 1 978). Secondo l'effetto
atmosfera i soggetti avrebbero dovuto accettare nello stesso
modo ciascuna delle conclusioni errate dei seguenti due sil­
logismi:
( l)
Qualche A è B
Qualche B è C
Allora qualche A è C.
(2)
Qualche B è A
Qualche C è B
Allora qualche A è C.

I soggetti dell'esperimento furono più propensi ad accet­


tare la conclusione errata nel sillogismo (l) che nel (2). Ciò è
stato spiegato con la presenza di un altro fenomeno che sem­
bra particolarmente resistente e pervicace: "l'effetto figura­
le". La gente è portata ad accettare una conclusione avente A
come soggetto e C come conclusione se c'è una catena che,
porta da A a B in una premessa e da B a C nell'altra.
Un'ulteriore difficoltà per la teoria dell'effetto atmosfera
viene da interpretazioni alternative degli stessi risultati spe­
rimentali. Secondo alcuni le ragioni per cui una conclusione
errata viene accettata, deriva da una cattiva interpretazione
delle premes�e. Secondo Chapman e Chapman (1 959) e la loro
"ipotesi di conversione", come evidenziato più sopra nel para­
grafo sul ragionare schizofrenico, i soggetti comunemente

126
interpretano in maniera invertita sia le proposizioni univer­
sali affermative (invece di "tutti gli A sono B" viene inteso
"tutti i B sono A"), sia le proposizioni particolari negative (in­
vece di "qualche A non è B" viene inteso "qualche B non è A").
In definitiva di fronte all'interrogativo se la gente ragioni
in maniera logica o illogica nei problemi sillogistici, l'eviden­
za sperimentale suggerisce che l'uomo ragiona in maniera
non conforme alla logica sillogistica.
Un più diretto sostegno all'idea che il ragionare umano è
spesso illogico viene dal lavoro sul belief bias. Questo feno­
meno rappresenta la tendenza a valutare una conclusione sul­
la base delle credenze soggettive piuttosto che in conformità
con le premesse. La sua evidenza sperimentale è stata ottenu­
ta in parecchi studi. Ad esempio J anis e Frick (1943) eviden­
ziarono una correlazione tra l'attitudine dei soggetti alle con­
clusioni dei sillogismi e i loro giudizi sulla validità o invalidi­
tà di quei sillogismi. In questa correlazione c'erano più errori
quando i soggetti erano d'accordo con la conclusione di sillo­
gismi invalidi che quando essi convenivano su sillogismi vali­
di e vi erano più errori nei sillogismi validi quando essi non
erano d'accordo con la conclusione.

Conclusioni

Alle tre domande iniziali lievemente modificate:

l-bis) Come dobbiamo arrivare alle nostre credenze razio­


nali ?
2-bis) Come arriviamo alle nostre credenze razionali ?
3-bis) Sono i processi con cui arriviamo alle nostre cre­
denze razionali quelli con cui dobbiamo arrivare alle nostre
credenze razionali ?

s i è tentato parzialmente di rispondere affrontando per pri­


ma la razionalità logico deduttiva e lasciando per il momento
da parte il capitolo altrettanto fondamentale della razionalità
nelle inferenze induttivo-probabilistiche (si faccia riferimen­
to al lavoro fondamentale del 1 982 e a quelli successivi del
gruppo di Kanheman, Slovic e Tversky).
Il motivo di questa priorità deriva da ragioni di carattere
storico filosofico in quanto si è vista assumere nei secoli pas­
sati la logica classica come canone prescrittivo del comporta­
mento razionale dell'uomo.
La scienza cognitiva ha studiato empiricamente in questi
anni, per rispondere alla domanda 2-bis, la performance de-

127
duttiva dell'uomo confrontandola soprattutto con il calcolo
delle proposizioni e con la logica sillogistica, che per secoli
hanno rappresentato l'ideale prescrittivo di razionalità dedut­
tiva. Come è accennato nel testo, i risultati sperimentali di
queste ricerche hanno confutato questa pretesa conformità.
Evidenza empirica e vari problemi di ordine concettuale
sembrano porsi come ostacolo a una pretesa identificazione
della razionalità deduttiva umana con la logica classica, con
le regole di inferenza che sono date o deducibili nei sistemi
cosiddetti di deduzione naturale e più in generale con qual­
siasi branca della logica: le relazioni logiche difficilmente
corrispondono in maniera accurata alle convenzioni lingui­
stiche; nel ragionare umano vi è un uso sfumato dei concetti
di verità e falsità; il linguaggio ordinario generalmente si ri­
ferisce non a condizioni di verità ma a situazioni, a fatti del
mondo su cui l'abilità inferenziale sembra esprimersi in ba­
se alla familiarità e organizzazione in schemi e modelli dei
fatti da elaborare, piuttosto che in base a regole logiche e
formali stabilite a priori. Sembra quindi che i concetti o le
regole della logica non abbiano un corrispondente analogo
nel nostro repertorio concettuale mentale (Goldman, 1 986,
p. 286).
D'altra parte la risposta alla domanda l -bis sembra non
poter fare a meno della ris posta alla domanda 2-bis. Ciò può
parere inaccettabile a chi assegna al concetto di razionalità
un significato prescrittivo esterno, qualitativamente distinto
e su un piano diverso rispetto alla descrizione empirica del
comportamento inferenziale del decisore umano. Il proble­
ma è che non sembra esistere una fondazione dell'accettabi­
lità delle inferenze che non poggi in ultima analisi sull'intui­
zione umana, ma che invece abbia una sua giustificazione
esterna. Né la strategia emp irico-induttiva, né quella meta­
matematica riescono ad assicurare questa giustificazione
esterna. Anche se si può dimostrare, ad esempio, la validità
del calcolo delle proposizioni con ciò non si dimostra la pos­
sibilità del suo utilizzo come teoria delle inferenze nel ragio­
nare di tutti i giorni. Un conto è la giustificazione della vali­
dità di una teoria logica, un'altra è la possibilità della sua
applicazione alla realtà cognitiva. Nel caso del calcolo pro­
posizionale, ad esempio, la sua applicazione ha a che fare
con il significato che si dà alle particelle logiche "se", "e",
"o", il cui significato si basa sull'intuizione della legittimità
delle relazioni deduttive di proposizioni in cui compaiono
queste particelle logiche. Al fine di determinare la pretesa da
parte di un sistema formale interpretato di costituire una
teoria della razionalità deduttiva del ragionare quotidiano

1 28
non possiamo evitare di fare appello alle intuizioni sulla le­
gittimità delle inferenze di questo sistema.
È quindi soltanto dallo studio empirico della razionalità
deduttiva dell'uomo e in particolare dagli studi cognitivi sul­
l'intuizione logica, è soltanto dalla risposta alla domanda
2-bis che è possibile rispondere alla domanda l-bis. Risulta
rafforzata in questo caso la posizione di Quine per un pro­
gramma di naturalizzazione dell'epistemologia che si basi
sulla realtà dei limiti e dei vincoli cognitivi della mente uma­
na, unici in grado di fondare la nostra possibilità di cono­
scenza del mondo e (io aggiungerei) la nostra capacità ad af­
frontarlo razionalmente.
Cosa ha di più fondamentale da offrirei ogni discussione
sulla razionalità se non quello di rendere conto di situazioni
come le semplici decisioni della vita di tutti i giorni ? E come
è possibile rendere conto di situazioni come queste facendo
appello a teorie ideali e olimpiche di razionalità deduttiva e
induttiva, invece che ai meccanismi cognitivi reali di perce­
zione, ragionamento e azione del decisore umano, a quella
che si potrebbe definire la "razionalità cognitiva" ?
Ogni teoria della razionalità deduttiva dell'uomo dovrà
quindi fare riferimento ai vincoli reali (causa degli errori nei
test di logica) evidenti nel ragionare di tutti i giorni come,
tra gli altri: la limitatezza, a collo di bottiglia, della memoria
a breve termine che riduce le capacità computazionali e in­
duce effetti distorcenti nel ragionamento (ad esempio, l'effet­
to figurale nei sillogismi); la divisione in compartimenti del­
la memoria a lungo termine che facilita la creazione di in­
coerenze e contraddizioni nel ragionamento (mentre la coe­
renza è sempre stata un requisito ideale necessario minimo
per un attore razionale) (Chemiak, 1 986, p. 56); la limitata di­
sponibilità di tempo a disposizione nei ragionamenti e l'e­
splosione combinatoriale (di tipo esponenziale) di ogni pro­
blema che si volesse risolvere con strumenti deduttivi forma­
li che indicano la necessaria presenza di scorciatoie e mecca­
nismi euristici di filtro, semplificatori e acceleratori del ra­
gionamento. Caratteristiche queste che difficilmente si spo­
sano con un qualsiasi modello a priori della razionalità de­
duttiva della mente umana.
Scrive Simon: "La razionalità denota generalmente uno
stile di comportamento che è appropriato al raggiungimento
di un dato obiettivo secondo i limiti imposti da certi vincoli
e condizioni [. ] Le condizioni e vincoli possono essere le ca­
. .

ratteristiche oggettive dell'ambiente esterno all'individuo,


possono essere le caratteristiche percepite dal soggetto o
possono essere le caratteristiche dell'individuo stesso che egli

1 29
considera fisse e non soggette al suo controllo. Il confine tra
il primo tipo e gli altri due si può evidenziare distinguendo
da un lato la 'razionalità oggettiva' e dall'altro la 'razionalità
soggettiva' o 'limitata"' (Simon, 1 982, II, 8. 1). E aggiunge
Boudon richiamandosi a Simon: "La razionalità soggettiva è
il prodotto della discordanza tra la complessità del mondo e
le capacità cognitive del soggetto" (Boudon, in corso di pub­
blicazione).

RIFERIMENTI BIBLIOGRAFICI

Arieti, S. (1 963), Interpretazione della schizofrenia, Feltrinelli, Mi­


lano.
Boudon, R. (in corso di pubbl.), La razionalità soggettiva e la spiega­
zione del comportamento sociale, in H. Simon et al., Razionalità
e conoscenza, Editrice La Rosa, Torino.
Carnap, R. (1 947), Meaning and necessity, University of Chicago
Press, Chicago.
Chapman, L.J. e Chapman, J.P. ( 1 959), Atmosphere effect re-exami­
ned, in "Journal of Experimental Psychologyn.
Chapman, L.J. e Chapman, J.P. (1 973), Disordered thought in schizo­
phrenia, Appleton Century Cropts.
Cherniak, C. (1 986), Minima[ Rationality, The MIT Press, Cambridge
(Mass.).
Cohen, J.L. (198 1), Can human irrationality be experimentally de­
monstrated, in "Brain and Behavioural Sciences ".
Cox, J.R. e Griggs, R.A. ( 1 982), The effects of experience on perfor­
mance in Wason 's selection task, in "Memory and Cognition",
10.
Davidson, D. ( 1 966), The logica[ forms of action sentences, in N. Re­
scher (a cura di), The logic of decision and action, University of
Pittsburgh Press.
Domarus, E. von (1 925), Ueber die Besiehung des normalen zum
schizophrenen Denken, in "Arch. Psych.".
Domarus, E. von ( 1944), The specific laws of logic in schizophrenia,
University of California Press.
Dummett, M. (1 978), The justification of deduction, in M. Dummett
(a cura di), Truth and other enigmas, Duckworth, London.
Evans, J. (1 982), The psychology of deductive reasoning, Routledge
and Kegan Paul, London.
Goldman, A.l. (1 986), Epistemology and Cognition, Harvard Univer­
sity Press, Cambridge (Mass.).
Grice, H.P. (1975), Logic and conversation, in D. Davidson e G. Har­
man (a cura di), The logic of grammar, Dickenson.
Griffin, N. (1977), Relative Identity, Oxford University Press, Ox­
ford.
Henle, M. (1 962), On the relation between logic and thinking, in
"Psychological Review", 69.

1 30
Kanheman, D., Slovìc, P. e Tversky, A. (1 982), Judgement under un­
certainty: heuristics and biases, Cambridge University Press,
Cambridge.
Kornblith, H. (1985), Introduction: what is naturalistic epistemo­
logy?, in H. Kornblith (a cura di), Naturalizing epistemology,
The MIT Press, Cambridge (Mass.).
Kripke, S. (1972), Naming and necessity, in D. Davidson e G. Bar­
man (a cura di), Semantics of natura[ language, Reidel, Dordre­
cht (trad. it. Nome e necessità, Boringhieri, Torino 1 982).
Inhelder, B. e Piaget, J. (1 958), The growth of logica[ thinking from
childhood to adolescence, Basic Books, New York (trad. it. Dalla
logica del fanciullo alla logica dell'adolescente, Giunti-Barbera,
Firenze).
Janis, I.L. e Frick, F. (1 943), The relationships between attitudes to­
wards conclusions and errors in judging logica[ validity of syllo­
gisms, in "Journal of Experimental Psychology", 33.
Johnson-Laird, P.N. (1 983), Menta[ Models, Cambridge University
Press, Cambridge (trad. it. Modelli mentali, Il Mulino, Bologna).
Johnson-Laird, P.N., Legrenzi, P. e Sonino Legrenzi (1 972), Reaso­
ning and a sense of reality, in "British Journal of Psychology".
Johnson-Laird, P.N. e Steedman, M. (1 978), The psychology of syllo­
gisms, in "Cognitive Psychology", 1 0.
Lewis, D. (1 973), Counterfactuals, Blackwell, Oxford.
Manktelow, K.l. e Evans, J. (1 979), Facilitation of reasoning by reali­
sm: effect or non-effect?, in "British Journal of Psychology".
Matte Bianco, l. ( 1 98 1), L 'inconscio come insiemi infiniti, Einaudi,
Torino.
Newstead, S.E. e Griggs, R.A. (1 983), The language and thought of
disjunction, in Evans, J.B.T. (a cura di), Thinking and reasoning,
Routledge and Kegan Paul, London.
Quine, W.V.O. (1 960), Word and object, The MIT Press, Cambridge
(Mass.).
Quine, W.V.O. (1 985), Epistemology naturalized, in H. Kornblith (a
cura di), Naturalizing epistemology, The MIT Press, Cambridge
(Mass.).
Rips, L.J. e Marcus, S.L. (1 977), Supposition and the analysis of con­
ditional sentences, Erlbaurn, Hillsdale (N.Y.).
Russell, B. ( 1 9 1 9), Introduction to mathematical philosophy, Allen &
Unwin, London (trad. it. Introduzione alla filosofia matematica,
Longanesi, Milano 1 946).
Simon, H. ( 1982), Models of bounded rationality, MIT Press, Cam­
bridge (Mass.).
Suppes, P. (1 957), lntroduction to logic, Van Nostrand, Amsterdam.
Wason, P.C. (1 966), Reasoning, in B. Foss (a cura di), New horizons
in psychology, Penguin Books, London.
Wason, P.C. e Johnson-Laird, P.N. (1 972), The psychology of reaso­
ning, Harvard University Press, Cambridge (Mass.).
Woodworth, R.S. e Sells, S.B. ( 1935), An atmosphere effect in formai
syllogistic reasoning, in "Journal of Experimental Psychology".

131
Parte seconda

Cervello, mente e calcolatore


Per una teoria meccanicista della mente
e della percezione
di Colin Blakemore

Necessità di un punto di vista filosofico nelle scienze


neurologiche

Pochi sviluppi scientifici hanno interessato e diviso i filo­


sofi quanto la nascita dell'Intelligenza Artificiale, nonostante
questa disciplina, strettamente parlando, non abbia più di
una trentina d'anni (vedi McCorduck, 1 979). L'idea che dei
frammenti indiscutibilmente inanimati di silicio e di rame
possano essere paragonati a delle persone per quanto riguar­
da la loro abilità a risolvere problemi, rispondere a domande
e ad attenersi a un comportamento intelligente sembra aver
seminato il panico fra i ranghi dei filosofi. E singolare che di­
versi secoli di indagine scientifica sul cervello umano non sia­
no riusciti a catturare l'interesse dei filosofi (escludendo, na­
turalmente, poche notevoli eccezioni), mentre pochi decenni
di ricerca sulla possibilità di costruire macchine pensanti
hanno provocato un vero e proprio uragano filosofico. La ra­
gione sta probabilmente nel fatto che i calcolatori sono dispo­
sitivi chiaramente meccanici: se a volte sembra che in loro vi
sia qualcosa di magico, tale magia è il prodotto della comples­
sità della loro struttura materiale e non di un qualche tipo di
"spezia spirituale" aggiunta alla ricetta in un secondo mo­
mento. Per quanto si possano ammirare o temere i calcolato­
ri, l'alone di mistero che li circonda è diverso dalle proprietà
misteriose comunemente attribuite al cervello umano: se i
calcolatori potessero realmente simulare le prestazioni uma­
ne, ciò porterebbe alla refutazione di ogni forma di dualismo
radicale e alla sdrammatizzazione del problema mente-corpo.
Questo rinnovato interesse per la natura della mente uma­
na è stato accompagnato da un interesse analogo per la mente

135
e la coscienza che si è sviluppato fra coloro che si dedicano
allo studio del cervello. Qualunque studioso di scienze neu­
rologiche, se messo alle strette, ammetterebbe che uno dei
più importanti obiettivi strategici della ricerca sul cervello è
la spiegazione dell'esperienza, della percezione, della co­
scienza e dell'intenzionalità in termini di operazioni cerebra­
li . Ciò nonostante questo obiettivo è a lungo rimasto dietro
le quinte, almeno per quella maggioranza di scienziati che
disdegna la filosofia e che raramente si avvicina al problema
della coscienza in modo men che superficiale. Ora l 'Intelli­
genza Artificiale ha gettato un ponte fra la neurologia e la fi­
losofia su cui marceranno sempre più numerosi quei ricerca­
tori che intendono usare le proprie conoscenze di informati­
ca per fare ingresso nell'arena del dibattito filosofico.
Quanto più il problema dell'esperienza conscia e dell'in­
tenzionalità sarà affrontato da un punto di vista meccanici­
sta tanto più la ricerca sul cervello avrà bisogno di un qual­
che tipo di prospettiva filosofica. Gli sforzi e le conquiste
dell'Intelligenza Artificiale possono aiutare i neurologi a ri­
spondere a un'importante domanda filosofica concernente i
limiti della propria impresa scientifica: quali problemi pos­
sono essere risolti, almeno in linea di principio, dalla ricerca
sul cervello ? È chiaro che se un programma per calcolatore
può simulare in modo completo una certa funzione mentale
o cerebrale, allora tale funzione può essere ricondotta a pro­
cessi puramente materiali, la natura logica delle cui opera­
zioni non richiede alcun intervento spirituale renitente ai
metodi scientifici convenzionali. Molte funzioni mentali, che
la scienza del cervello non è ancora riuscita a spiegare, sa­
ranno, o sono già state simulate con successo mediante pro­
grammi per calcolatore: il contributo dell'Intelligenza Artifi­
ciale alla neurologia del cervello risiede nella dimostrazione
che sono in linea di principio possibili spiegazioni non magi­
che di complessi comportamenti mentali.

La pericolosità di limitazioni a priori al punto di vista


scientifico

Sono molti gli scienziati e i filosofi che condividono l'opi­


nione comune che i metodi scientifici convenzionali (fondati
su leggi fisiche universali e ispirati al materialismo), benché
perfettamente adeguati per spiegare la maggior parte degli
eventi dell'universo, siano in ultima istanza irriducibilmente
limitati nel loro potere esplicativo. Secondo questo punto di
vista, la scienza convenzionale non riuscirà mai a spiegare

136
compiutamente la mente umana, né quei fenomeni che chia­
miamo libero arbitrio, scelta, volizione e intenzionalità. Pe­
ter Medawar (1 982) ha protestato contro l'applicazione di
procedure cosiddette scientifiche in campi su cui la scienza
non può vantare alcuna giurisdizione; in particolare, egli
suggerisce che i problemi posti da domande come "Perché
esistiamo ?" semplicemente non siano "risolvibili" per mezzo
dell'indagine scientifica. Se Medawar ha ragione, la determi­
nazione di termini di riferimento corretti è un passo prelimi­
nare di ogni ricerca, che si ridurrebbe, altrimenti, a un'inuti­
le perdita di tempo su problemi che in linea di principio non
possono essere risolti con l'esperimento e l'osservazione.
Dobbiamo concludere, nel caso particolare della neurolo­
gia, che vi sono certe funzioni cerebrali che semplicemente
non sono "risolvibili", nel senso di Medawar? Il dualismo ra­
dicale implica certamente che il comportamento umano (se
non anche quello degli animali superiori) sia parzialmente
causato da influenze immateriali che sfuggono alle leggi che
governano la materia fisica. Come ha detto McGinn ( 1 982,
p. 1 2):
Secondo la dottrina del dualismo vi è una sostanza immateriale
inerente ai fenomeni mentali che è radicalmente distinta dalla
sostanza materiale di cui è composto il corpo: esattamente co­
me vi sono stati fisici che qualificano la materia, così gli stati
mentali qualificano un diverso tipo di sostanza, dalla natura in­
corporea.

Al tempo di Cartesio il dualismo esplicava un'azione libe­


ratoria e favoriva l'avanzamento dell'indagine sul cervello
(vedi Blakemore, 1 977): dopo aver ricondotto nel dominio
delle forze spirituali quegli aspetti del comportamento uma­
no che più suscitavano meraviglia e più apparivano di natu­
ra divina, la strada era aperta a una considerazione brutal­
mente materialistica di ogni altro aspetto della funzionalità
cerebrale. Le forze conservatrici della religione, che in pre­
cedenza avevano considerato l'indagine scientifica sull'orga­
nizzazione del cervello alla stregua di un'eresia, si placarono
immediatamente quando fu possibile ricondurre gli eventi
mentali sotto due distinte categorie. Per molte ragioni, fra
cui non ultima l'esplicita diffusione del dualismo, l'era "mo­
derna" della ricerca sul cervello va fatta datare ai tempi di
Cartesio. Ma oggi, ciò che resta del dualismo costituisce
piuttosto una barriera al progresso della neurologia (vedi
Blakemore, 1 985): finché porremo dei limiti a priori alla ri­
cerca sul comportamento della mente, limiti che il metodo
scientifico non è autorizzato a oltrepassare, sarà come se

137
stessimo camminando sulle sabbie mobili, senza esserne sta­
ti avvertiti.
Il dualismo è un impedimento al progresso della neurolo­
gia perché pone dei limiti invalicabili all'applicabilità del
metodo scientifico nello studio del cervello, senza precisare
dove esattamente questi limiti cadano, minando così la fidu­
cia e l'entusiasmo dello scienziato nei confronti del proprio
lavoro. La principale difficoltà cui va incontro la posizione
dualista è proprio l'impossibilità di definire esattamente la
natura delle "sostanze mentali" e i modi del loro interagire
con la materia cerebrale (vedi McGinn, 1 982). Noi conoscia­
mo i nostri processi mentali solo attraverso l'esperienza in­
teriore che abbiamo di essi. Ma "ciò sembra essere equiva­
lente all'ovvia costatazione che i nostri stati mentali sono i
nostri stati mentali, senza spiegare in che cosa essi consista­
no" (McGinn, 1 982, p. 24).
Nessuno scienziato può accettare una limitazione a priori
dell'ambito di applicazione del proprio metodo di ricerca, in
assenza di una chiara definizione di tale limite. Nemmeno
uno strenuo sostenitore del dualismo come Sir John Eccles
(vedi Eccles e Robinson, 1 984) avrebbe potuto condurre i
propri eccellenti esperimenti sulla fisiologia delle sinapsi e
l'organizzazione del cervelletto, dell'ippocampo e della cor­
teccia cerebrale senza accantonare, almeno temporaneamen­
te, le proprie posizioni filosofiche. La ricerca scientifica deve
pragmaticamente muovere dal presupposto che ogni aspetto
della mente e del comportamento possa in linea di principio
essere spiegato in termini materiali per mezzo di metodi
convenzionali di ricerca (vedi Blakemore, 1 97 5). Questo pre­
supposto può essere abbandonato solo se la ricerca così im­
postata si rivela radicalmente incapace a spiegare certi feno­
meni, oppure se il metodo seguito risulta dimostrabilmente
inadeguato all'oggetto dell'indagine.
La neurologia deve guardarsi da ogni forma di vitalismo priva
di fondamento: ricondurre un certo fenomeno a una causa in­
corporea significa negare che esso possa essere oggetto di inda­
gine scientifica, e ciò può essere accettato solo in assenza di
ogni altra ipotesi. Che sarebbe accaduto se Galileo e Newton si
fossero accontentati di spiegare il moto dei corpi celesti per
mezzo di forze di natura angelica ? (Blakemore, 1 985)

Il problema della coscienza

La coscienza è quanto di più prezioso abbiamo, e la no­


stra esperienza conscia ce lo conferma ogni giorno, ma da

1 38
dove deriva tale valore ? La perdita di un arto o di un organo
di senso origina una tragica menomazione, immediatamente
evidente a chiunque, ma quali sarebbero i segni esteriori de­
rivanti dalla perdita della coscienza ? Una prima ovvia rispo­
sta individua tali segni nella condizione di immobilità, in
uno stato apparentemente comatoso, certamente inconsape­
vole, virtualmente insensibile agli eventi del mondo esterno.
Così, ad esempio, durante il sonno non si hanno esperienze,
non si controllano le proprie azioni e non si interagisce so­
cialmente con gli altri esseri umani. Tuttavia il sonno, e il
concomitante stato impoverito di esistenza, non costituisco­
no una corretta indicazione del valore della coscienza duran­
te la veglia. Durante il sonno lo stato fisico del cervello cam­
bia totalmente: l'attività delle cellule nervose della corteccia
cerebrale comincia a seguire particolari ritmi periodici; la
chimica del cervello è radicalmente alterata; si entra in uno
stato fisico e mentale chiaramente diverso da quello della ve­
glia.
Indicazioni migliori sul valore della coscienza possono
provenire dalla considerazione di ciò che non potremmo fa­
re, durante lo stato di veglia, senza il sostegno della coscien­
za. In altre parole, occorre trovare dei criteri per determina­
re lo stato, conscio o inconscio, di una persona sulla sola ba­
se delle sue azioni esteriori. La determinazione del valore
della coscienza è così ridotta al classico problema filosofico
delle "altre menti" : come si può giudicare con criteri oggetti­
vi se degli esseri umani o degli animali hanno stati mentali
simili a quelli che ognuno di noi "sente" di avere ? Se è im­
possibile attribuire uno stato cosciente a un essere animato
sulla base di segni esteriori, non si può definire in modo pre­
ciso il valore che va assegnato a quella particolare condizio­
ne che chiamiamo coscienza.
Come ha sostenuto Strawson ( 1 959), l'attribuzione di
esperienze, sentimenti e intenzioni ad altre persone, o anche
ad altre specie di animali, è funzione della loro somiglianza
fisica e comportamentale con noi. Anche se ciò può essere
molto naturale, non è certo totalmente corretto da un punto
di vista logico. I biologi sanno quanto sia pericoloso inferire
omologie strutturali e funzionali fra organi di diverse specie
animali sulla base di una semplice somiglianza superficiale.
Ad esempio, è successo almeno una dozzina di volte nella
storia dell'evoluzione che certe specie animali abbiano svi­
luppato, in modo del tutto indipendente l'una dall'altra, un
organo sensoriale specializzato nella percezione della luce.
In molti casi questi occhi evolutivamente indipendenti sono
anche superficialmente diversi (si pensi all'occhio sfaccetta-

139
to dell'insetto e all'occhio "semplice", costituito da un singo­
lo apparato ottico, dei vertebrati), ma in altri sono molto si­
mili: alcuni cefalopodi come la piovra e il calamaro hanno
occhi semplici, con una cornea, una pupilla circondata da
un'iride pigmentata e un sistema ottico straordinariamente
simile a quello dei vertebrati. I cefalopodi e i vertebrati han­
no seguito linee evolutive completamente diverse, che però
hanno prodotto soluzioni insolitamente simili a un medesi­
mo problema di sopravvivenza, che richiedeva la percezione
e il riconoscimento di immagini del mondo esterno (vedi Bla­
kemore, 1 977). Se è pericoloso porre vertebrati e cefalopodi
sulla medesima linea evolutiva solo perché hanno organi cor­
rispondentemente simili, ancora più sbagliato sarebbe attri­
buire a un altro essere animato esperienze e stati mentali si­
mili ai nostri sulla base di una semplice somiglianza di com­
portamento.
La scienza non ci permette ancora di attribuire con cer­
tezza un particolare stato mentale a un individuo: tale attri­
buzione può avvenire solo per analogia con i nostri compor­
tamenti esteriori. Noi tendiamo a ricondurre le nostre azioni
a qualche caratteristica non meglio definita dei nostri stati
mentali, e pensiamo che comportamenti simili siano dovuti a
stati mentali simili: in molti casi, tuttavia, questa è un'infe­
renza scorretta, specialmente se si postula che gli stati men­
tali siano la causa delle azioni esteriori. Il procedimento di
attribuzione di stati mentali per analogia è dunque doppia­
mente scorretto: il primo errore è dovuto a una concezione
ingenua della biologia, per cui somiglianze di comportamen­
to fra organismi diversi implicherebbero un'identità di orga­
nizzazione funzionale; il secondo risiede nel presupposto (a
favore del quale possiamo addurre solo la nostra esperienza
conscia) che gli stati mentali determinino le azioni fisiche.
Non abbiamo alcuna ragione per fidarci della nostra
esperienza conscia, specialmente per quanto riguarda la de­
terminazione delle nostre azioni. Molti aspetti dell'esperien­
za mentale sono certamente ingannevoli, perché non vi è al­
cuna semplice relazione fra i nostri sentimenti e le nostre
percezioni e il valore funzionale del comportamento che a es­
si facciamo corrispondere.
A riprova di ciò, Barlow (1 986) fornisce due chiari esempi
di come il valore biologico di un comportamento associato
con un certo stato della coscienza risulti invisibile all'intro­
spezione. Il vincolo di coppia, l'eccitazione sessuale e altre
forme di comportamento hanno chiaramente a che fare con
la riproduzione e la sopravvivenza del patrimonio genetico
dell'individuo, ma il sentimento conscio che ad essi si ac-

140
compagna è l'amore, un indefinibile attaccamento emotivo al
proprio compagno che non ha alcuna esplicita relazione con
la funzione biologica sottostante. Analogamente, quando sia­
mo feriti proviamo dolore, un'esperienza percettiva spiace­
vole che non mostra alcuna ovvia correlazione con il valore
biologico dei modelli di comportamento a essa associati. L'e­
sperienza conscia del dolore, negli animali come negli uomi­
ni, comporta una cessazione della normale attività e l'adozio­
ne di modelli di comportamento che hanno lo scopo evidente
di facilitare la guarigione ed evitare la cattura da parte di
predatori mentre si è ancora in condizione di svantaggio. La
natura delle sensazioni di amore e di dolore non ci dice nulla
sul valore adattivo ,che i comportamenti a esse associati han­
no da un punto di vista biologico (vedi Barlow, 1 985).
Persino la nostra percezione visiva del mondo esterno,
apparentemente semplice e puramente passiva, è in realtà
estremamente ingannevole, come hanno mostrato molti psi­
cologi e molti filosofi. Gli esempi non mancano: i sogni, le il­
lusioni ottiche, e persino il procedimento, complesso ma non
per questo meno ingannevole, per cui le aree cieche del cam­
po visivo (corrispondenti ad esempio al disco ottico della re­
tina o ad aree danneggiate della corteccia visiva) sono "riem­
pite" in modo da avere un flusso di informazioni visive conti­
nuo e omogeneo, sono tutti casi in cui siamo ingannati dal
nostro sistema visivo.
Se la nostra esperienza conscia non è attendibile nemme­
no quando si tratta di eventi del mondo esterno, che valore
dobbiamo attribuire alla credenza che i nostri stati mentali
siano la causa delle nostre azioni fisiche ? Se fossimo interes­
sati al modo in cui il meccanismo delle funzioni adattive re­
gola l'assunzione di cibo da parte dei diversi organismi, non
rivolgeremmo certo la nostra attenzione alle esperienze con­
sce della fame e della sete, né alla natura degli appetiti e dei
gusti particolari, né tantomeno al senso di sazietà che segue
l'assunzione del cibo. A maggior ragione, le impressioni della
coscienza non possono essere di alcun aiuto per descrivere,
in termini adattivi e funzionali, fenomeni complessi quali il
libero arbitrio, la facoltà di compiere scelte, il controllo del­
le proprie azioni e l'intenzionalità.
Non possiamo dunque essere certi che gli altri organismi,
o persino le altre persone, abbiano esperienze consce simili
alle nostre: le nostre stesse sensazioni sono spesso cattive in­
terpreti del mondo esterno e dei motivi (in termini adattivi)
per cui facciamo ciò che facciamo. D'altra parte, è possibile
dare spiegazioni coerenti del comportamento animale e dei
meccanismi cerebrali che tale comportamento controllano

141
(anche se a un livello molto semplice), senza far riferimento
al ruolo della coscienza.
Se le esperienze mentali sono così inaffidabili, la ricerca
sul cervello dovrebbe forse cercare una spiegazione del com­
portamento in termini puramente neurali, che non coinvolga
stati ed esperienze mentali. Ciò porterebbe la neurologia
molto vicina alla negazione dell'esistenza della coscienza:
quest'ultima, non avendo più alcuna azione causale sul siste­
ma nervoso, cesserebbe di essere un oggetto di studio inte­
ressante. Questa sembra certamente una soluzione ragione­
vole, almeno per il neurologo interessato soprattutto agli
aspetti pratici ed empirici del proprio lavoro, anche se è in
così stridente contrasto con l'idea (che si ritrova anche in
molti usi del linguaggio quotidiano, e che sembra conferma­
ta dalle impressioni soggettive di ognuno di noi) che l'inten­
zionalità sia la causa efficiente del comportamento umano
(vedi Blakemore, 1 985).
Tuttavia, per quanto possa risultare utile i gnorare la co­
scienza ai fini della riflessione sui fondamenti fisici del com­
portamento, vi sono due aspetti dell'esperienza conscia che
sollevano problemi cui prima o poi bisognerà dare soluzione.
Il primo è il fatto che certe esperienze, specialmente se di
natura percettiva, hanno una qualità unica e personale che
non può essere spiegata semplicemente facendo appello agli
eventi, interni o esterni al corpo, che hanno condotto a esse.
È probabilmente possibile dare una spiegazione riduzionista
perfettamente autosufficiente di come sia possibile distin­
guere la luce blu dalla luce rossa, ma ciò non ci dice ancora
nulla sulle sensazioni del blu e del rosso. Il dibattito filosofi­
co sul problema dell'unicità e personalità dell'esperienza ha
avuto inizio con il Saggio sull'intelletto umano di Locke
(1 690; vedi in particolare Libro 2, capitolo 32, par. 1 5), ma,
più recentemente, i termini del problema sono stati ripresi
in modo efficace da Thomas Nagel, nel suo articolo Che cosa
si prova a essere un pipistrello?:
Possiamo parlare a questo proposito di carattere soggettivo del­
l'esperienza. Nessuna delle analisi riduttive del mentale recenti
e più conosciute ne dà conto, perché esse sono tutte logicamen­
te compatibili con la sua assenza. Il carattere soggettivo dell'e­
sperienza non è analizzabile nei termini di alcun sistema espli­
cativo di stati funzionali o di stati intenzionali, perché questi
stati potrebbero essere attribuiti a robot o ad automi che si
comportassero come persone anche senza avere alcuna espe­
rienza soggettiva [ . ] Qualsiasi programma riduzionista deve es­
. .

sere basato su un'analisi di ciò che si deve ridurre. Se l'analisi


lascia fuori qualcosa, il problema è posto in modo falso. È inuti­
le basare la difesa del materialismo su un'analisi dei fenomeni

142
mentali che non tenga conto esplicitamente del loro carattere
soggettivo [. . .] Ora, noi sappiamo che la maggior parte dei pipi­
strelli (i microchirotteri, per la precisione) percepisce il mondo
esterno principalmente mediante il sonar, o ecorilevamento: es­
si percepiscono le riflessioni delle proprie strida rapide, fine­
mente modulate e ad alta frequenza (ultrasuoni) rimandate da­
gli oggetti situati entro un certo raggio [. . .] Ma il sonar del pipi­
strello, benché sia evidentemente una forma di percezione, non
assomiglia nel modo di funzionare a nessuno dei nostri sensi e
non vi è alcun motivo per supporre che esso sia soggettivamen­
te simile a qualcosa che noi possiamo sperimentare o immagi­
nare. Ciò, a quanto pare, rende difficile capire che cosa si provi
a essere un pipistrello. (Nagel, 1 974)

Nonostante l'argomentazione di Nagel si fondi sul pre­


supposto che i pipistrelli abbiano esperienze consce (presup­
posto che, come abbiamo visto, dovrebbe essere giustificato
indipendentemente), essa ha il merito di considerare la natu­
ra delle esperienze soggettive un problema significativo la
cui soluzione, non importa se di ispirazione riduzionista o
meno, è comunque necessaria.
Il secondo problema sollevato dall'assunto dell'inesisten­
za della coscienza ha a che fare con il diverso grado di consa­
pevolezza richiesto dai nostri comportamenti: alcune delle
nostre azioni sono sempre accompagnate da ciò che anche
soggettivamente appare come un particolare stato mentale;
altre invece sono condotte in modo totalmente inconscio; al­
tre ancora, infine, possono essere svolte in modo consapevo­
le o inconsapevole a seconda delle circostanze. Càpita a tutti
di accorgersi improvvisamente, mentre si è alla guida di un
veicolo o si sta svolgendo qualche altro compito complesso
ma ripetitivo, di non aver posto alcuna attenzione a ciò che
si stava facendo per un certo periodo, al punto da non sape­
re quali decisioni siano state prese, in circostanze in cui la
decisione sbagliata potrebbe avere conseguenze mortali. È
ben vero che questi fenomeni potrebbero essere causati da
momentanee amnesie, piuttosto che da vere e proprie flut­
tuazioni dello stato conscio: tuttavia, se è vero che si può
adempiere a compiti complessi e importanti senza esserne
consapevoli, bisogna chiedersi quale sia il contributo della
coscienza alle nostre azioni.
Vi è certamente un ampio spettro di azioni e di funzioni
corporee che rimangono sempre, per così dire, sullo sfondo
della coscienza, svolgendo il proprio lavoro in modo tanto
continuo ed efficiente quanto raramente consapevole. Si pen­
si ad esempio al meraviglioso meccanismo che regola il rit­
mo e la profondità del respiro, la temperatura corporea, la

143
frequenza e la forza del battito cardiaco; oppure ad attività
più chiaramente comportamentali, come il mantenimento di
una data posizione mediante la regolazione del tono dei mu­
scoli interessati, la capacità di tenere lo sguardo fisso su un
certo punto, nonostante il movimento dell'oggetto os servato
o dell'osservatore, per non parlare dei ragionamenti, calcoli
e pensieri che restano sempre sotto la superficie della co­
scienza. In nessuno di questi casi è necessaria l'esperienza
mentale. Il fatto che certe azioni e determinati comporta­
menti siano sempre accompagnati da uno stato conscio,
mentre altri non lo sono mai, sembra tuttavia indicare che la
coscienza sia richiesta da (o che richieda a sua volta) partico­
lari azioni cerebrali. Il problema naturalmente è che non è
affatto facile distinguere le azioni che sono sempre associate
a intenzioni mentali da quelle che non hanno alcuna relazio­
ne con la coscienza.
Anche se può sembrare conveniente liberarsi del proble­
ma della coscienza semplicemente negando che il fenomeno
richieda una spiegazione, certe caratteristiche dell'esperien­
za mentale sembrano suggerire che questa non sia la strada
giusta: il problema si riproporrà da solo, a dispetto della no­
stra scelta di ignorarlo.

La logica della percezione

Sembra ragionevole pensare che la percezione sia il pro­


blema che più si presta a essere spiegato in termini pura­
mente meccanicistici, e questo perché, come suggerisce
Searle (1 984), gli stimoli del mondo esterno percepiti dagli
organi di senso sembrano originare altrettante sensazioni
consce, in una corrispondenza quasi perfetta.
I fenomeni mentali, consci o inconsci, visivi o uditivi, il dolore,
il prurito, il pensiero, in una parola tutta la nostra vita mentale,
è originata da processi cerebrali [ ] Ad esempio, il dolore [. ] la
... ..

causa delle nostre sensazioni dolorose è una successione di


eventi che inizia a una estremità nervosa e termina nel talamo e
in altre regioni del cervello. Invero, finché si tratta solo di sen­
sazioni, gli eventi del sistema nervoso sono quanto basta a pro­
vocare il dolore [ . . ] Ma se il dolore e gli altri fenomeni mentali
.

hanno un'origine cerebrale, bisogna cheidersi: cos'è veramente


il dolore ? L'ovvia risposta, che si tratta di sensazioni spiacevoli,
non può essere considerata soddisfacente, perché non ci dice
ancora come questo tipo di fenomeni si inserisce nella nostra
concezione generale del mondo.
Ancora una volta, credo che la risposta sia ovvia, ma richieda di
essere meglio precisata. Alla nostra prima affermazione (che il

144
dolore e gli altri fenomeni mentali siano originati da processi
cerebrali) occorre aggiungerne una seconda: il dolore e gli altri
fenomeni mentali sono solo caratteristiche del cervello (e, forse,
anche del resto del sistema nervoso centrale). (Searle, 1 984, pp.
1 8- 1 9)

Questa nuova posizione filosofica radicale, secondo cui la


percezione, così come gli altri stati mentali, è semplicemente
la conseguenza dell'attività delle fibre nervose, è in realtà
molto vicina alla concezione di Cartesio (1 664), che ricondu­
ceva l'attivazione dello "spirito animale" del cervello alle vi­
brazioni trasmesse dalle fibre nervose sensoriali. Ad esem­
pio, la figura l , tratta da Cartesio, mostra come i comporta­
menti associati al dolore nel piede (movimento degli occhi e
della testa verso la parte ferita, protezione del punto dolente
per mezzo delle mani e del corpo) derivino dalle vibrazioni
prodotte dal calore nei nervi del piede.
Purtroppo, anche nel caso di una sensazione apparente­
mente automatica come il dolore, non vi è alcuna stretta cor­
relazione fra la gravità della ferita, e quindi il livello di atti­
vità delle "fibre dolorose", e la forza della sensazione spiace­
vole a essa associata. La soglia e l'intensità del dolore varia­
no a seconda della formazione culturale, dello stato d'animo,
del tipo di dolore che ci si aspetta di avvertire e, soprattutto,
della situazione presente al momento della ferita, situazione
che può richiedere che il soggetto non senta dolore, per po­
ter svolgere attività particolarmente importanti (vedi Wall,
1985).
Lo stesso può dirsi, e a maggior ragione, nel caso di un
senso molto più ricco come la vista, che permette di racco­
gliere ed elaborare grandi quantità di informazioni: la distri­
buzione e l'intensità della luce che cade sulla retina sono dif­
ficilmente rapportabili alle percezioni associate. La nostra
percezione visiva del mondo dipende dalla distribuzione del­
l'attenzione, dalle nostre aspettative e dalle precedenti espe­
rienze in situazioni simili. Vi sono aspetti fondamentali del­
l' immagine retinica che risultano virtualmente ininfluenti
sull'esperienza conscia. È ad esempio molto difficile percepi­
re l'intensità generale di un'immagine: la scena di una stanza
bene illuminata con luce artificiale non è percepibilmente
meno luminosa di una scena d'esterni in piena luce solare,
nonostante la luminosità di quest'ultima possa essere anche
un migliaio di volte maggiore di quella della prima. Curiosa­
mente, la parte del cervello che controlla i muscoli dell'iride
dell'occhio, qualunque essa sia (presumibilmente una porzio­
ne subconscia e sconosciuta del mesencefalo), "conosce" la

145
Figura l

146
luminosità media dell'immagine retinica, poiché la dilatazio­
ne della pupilla dipende dall'illuminazione generale. In que­
sto caso abbiamo un eccellente esempio di una funzione
comportamentale affatto meccanica, che non affiora mai alla
superficie della coscienza, senza tuttavia che vi sia alcun mo­
tivo perché non debba darsi il contrario.
Detto per inciso, i pionieri dell'Intelligenza Artificiale, ne­
gli anni cinquanta, pensavano che i problemi di più immedia­
ta soluzione nella simulazione dell'intelligenza umana me­
diante programmi per calcolatore sarebbero stati la riprodu­
zione della vista, dell'udito e del movimento. Essi immagina­
vano d'altra parte che sarebbe stato molto difficile esprime­
re nella logica di un programma per calcolatore quelle con­
quiste dell'intelletto umano che più sono considerate indice
di intelligenza, quali il ragionamento, la matematica e i gio­
chi di strategia come gli scacchi. Per una di quelle ironie che
spesso hanno segnato il cammino della scienza, è avvenuto
l'esatto contrario. È stato relativamente facile scrivere pro­
grammi capaci di fare calcoli complessi, giocare a scacchi
piuttosto bene, dimostrare difficili teoremi e persino diagno­
sticare oscure malattie. Si è invece rivelato incredibilmente
difficile controllare gli arti e le dita di un robot con la stessa
efficienza dimostrata dagli esseri umani e interpretare i se­
gnali di un occhio artificiale. A dispetto degli sforzi enormi,
e nonostante alcuni significativi progressi, la visione artifi­
ciale ha ancora una lunga strada di fronte a sé prima di rag­
giungere prestazioni paragonabili a quelle umane. Ancora
una volta, la nostra esperienza conscia ci inganna, nascon­
dendoci l'incredibile complessità del compito. La nostra per­
cezione del mondo sembra virtualmente istantanea, del tutto
affidabile e quasi mai ambigua; inoltre, non sembra richiede­
re alcuno sforzo della volontà o dell'intelletto. Ma dopo due­
mila anni di riflessione filosofica, tre secoli di studi sulla
percezione e cinquant'anni di ricerca neurofisiologica, siamo
ancora lontani dal comprendere il funzionamento della vi­
sione.
A quanto si è potuto appurare, il sistema visivo di tutte le
specie animali presenta una caratteristica ricorrente: le fi­
bre nervose che dall'occhio giungono al cervello tendono a
formare delle "mappe", cioè delle rappresentazioni topogra­
ficamente ordinate di una scena visiva. Nell'emisfero cere­
brale di una scimmia, ad esempio, l'informazione visiva è
raccolta in una zona posteriore del cervello, detta corteccia
striata; qui, l'attivazione delle fibre nervose, che giungono al
cervello in modo ordinatamente distribuito, forma una spe­
cie di immagine del mondo esterno. Questa mappa è in una

147
certa misura distorta, perché le fibre che vi giungono dalla
fovea (l'area centrale della retina in cui la concentrazione di
fotorecettori è più alta) sono proporzionalmente più numero­
se. Ciò nonostante, vi sono delle teorie che attribuiscono un
significato alla distribuzione spaziale dell'attività nervosa in
quest'area del cervello, come se essa potesse essere in qual­
che modo interpretata da un ipotetico osservatore. Ma già
Cartesio aveva individuato la contraddizione di cui soffre
una simile teoria: se vi fossero degli occhi interiori che os­
servano l'attività nervosa del cervello, come sarebbe possibi­
le interpretare le immagini prodotte da tali occhi?
Vi sono naturalmente molte altre spiegazioni plausibili
del fatto che le proiezioni delle fibre nervose nel sistema vi­
sivo tendono ad assumere una configurazione topografica:
tale configurazione potrebbe ad esempio essere semplice­
mente la conseguenza della crescita ordinata delle fibre ner­
vose (assoni contigui che crescendo mantengono le recipro­
che relazioni spaziali), oppure potrebbe avere un qualche va­
lore adattivo che non ha tuttavia nulla a che fare con la for­
mazione di una "immagine dell'attività", quanto piuttosto
con la necessità delle cellule nervose della corteccia di co­
municare in modo veloce e sicuro l'una con l'altra per per­
mettere, ad esempio, l'analisi di un'immagine in movimento.
D'altra parte, recenti risultati hanno riportato in auge la
possibilità che la disposizione delle cellule nervose abbia un
significato. Calford e altri (1985) hanno esplorato per mezzo
di elettrodi l'area sensoria somatica primaria (la parte del
cervello che riceve informazioni cutanee dalla superficie del
corpo) di una certa specie di pipistrelli. Ora, in altri mammi­
feri come il topo (vedi fig. 2A) la proiezione delle fibre nervo­
se in questa regione della corteccia forma una mappa del
corpo, in cui le regioni altamente innervate come le labbra e
le dita sono sovrarappresentate relativamente alle altre. L'o­
rientamento di questa rappresentazione sulla superficie del
cervello è notevolmente coerente da una specie all'altra. L'a­
rea corrispondente al viso si trova nella parte laterale infe­
riore del cervello, quella relativa agli arti posteriori occupa
la parte superiore della mappa, vicino alla linea che divide
gli emisferi cerebrali. Analogamente, la rappresentazione
della superficie dorsale punta alla parte posteriore del cer­
vello, quella dell'addome si trova nella parte frontale della
mappa, mentre le aree corrispondenti alle dita degli arti an­
teriori e posteriori si protendono in avanti. Sotto quest'a­
spetto, invece, il pipistrello costituisce un'eccezione. La rap­
presentazione degli arti anteriori (le ali) si trova nella parte
posteriore della mappa, vicina a quella della superficie dor-

148
sale del corpo: Calford ha avanzato l'ipotesi che quest'anoma­
lia sia da ricondurre all'abituale posizione del pipistrello, che
si appende al trespolo con le ali raccolte contro la superficie
della schiena, proprio come appaiono nella mappa cerebrale
(vedi fig. 2B). Ciò sembrerebbe suggerire che l'orientamento e
la disposizione delle mappe cerebrali rappresentino le rela­
zioni posizionali delle parti del corpo nello spazio esterno: tali

A 8

TOPO PIPISTRELLO

Figura 2

mappe verrebbero così ad avere un preciso significato. Tutta­


via, come già accennato, è disponibile una spiegazione più
semplice: la vicinanza nel cervello di cellule nervose che tra­
smettono informazioni relative a eventi contigui o successivi
facilita la comunicazione. Poiché le ali del pipistrello sono di
solito ripiegate sulla schiena, entrambe le parti del corpo per­
cepiranno uno stimolo tattile simultaneamente, o una imme­
diatamente dopo l'altra: è sensato pensare che le parti corri­
spondenti del cervello stiano in un'analoga relazione.
Una delle più importanti scoperte degli ultimi anni, nello
studio del sistema visivo, è che l'area visiva primaria della
corteccia è circondata da una quantità di aree secondarie (fi-

149
no a venti nella scimmia) che originano altrettante rappre­
sentazioni indipendenti del campo visivo sulla base delle in­
formazioni provenienti dall'area primaria o dall� altre map­
pe corticali. (Vedi Van Essen e Maunsell, 1983) E un vero e
proprio atlante di mappe visive che, nella scimmia, occupa
più della metà dell'intera superficie degli emisferi cerebrali:
un segno ulteriore, se ve ne fosse bisogno, dell'importanza e
della complessità del processo visivo. Se è difficile sostene­
re, come abbiamo visto, che le informazioni visive siano rap­
presentate dalle configurazioni di attività nervosa delle map­
pe (configurazioni che sarebbe poi necessario percepire in
qualche modo), non resta che un'unica spiegazione meccani­
cista del processo percettivo. Ogni singola cellula nervosa
che, insieme a milioni di altre cellule, costituisce la retina e
le strutture visive centrali, ha particolari proprietà. Sappia­
mo, ad esempio, che i neuroni della corteccia visiva primaria
del gatto e della scimmia sono in grado di dare un contribu­
to al processo di riconoscimento delle forme. Ogni cellula
risponde selettivamente quando una linea o un profilo con
un particolare angolo d'orientamento appare nella parte cor­
rispondente dell'immagine retinica (vedi Hubel e Wiesel,
1977). Cellule nervose diverse risultano sensibili ad angola­
zioni diverse e, per ogni piccola porzione del campo visivo, vi
è un insieme di cellule nervose in grado di rilevare la presen­
za di linee e profili orientati secondo tutte le possibili ango­
lazioni.
Sembra quindi che il primo passo nell'analisi percettiva
di una scena visiva sia la scomposizione dell'immagine reti­
nica in un flusso di informazioni relative all'orientamento
dei bordi e dei profili, informazioni rappresentate mediante
le proprietà selettive delle cellule nervose individuali. Anche
se non c'è accordo sulla precisa funzione di queste cellule
nella codifica delle informazioni visive, sembra ormai chiaro
che le loro caratteristiche non sono affatto casuali, ma fanno
sì che esse prendano parte al processo di scomposizione del­
l'immagine.
Sembra dunque che la corteccia visiva primaria (la cor­
teccia striata) sia il centro di raccolta e di elaborazione delle
informazioni visive, almeno per quanto riguarda gli aspetti
formali dell'immagine. Non è affatto escluso, tuttavia, che
l'elaborazione di altri aspetti della scena visiva abbia luogo
altrove, in una delle altre mappe che, insieme alla corteccia
striata, formano un vero e proprio mosaico sulla superficie
cerebrale. La presenza di molte successive rappresentazioni
del campo visivo dà origine a una certa ridondanza, che può
tuttavia essere spiegata assegnando a mappe diverse l'analisi

ISO
di aspetti diversi dell'immagine. Invero, sembra provato an­
che sperimentalmente che l'analisi del colore e del movimen­
to degli oggetti del campo visivo avvenga in aree distinte (ve­
di Zeki, 1974; Van Essen e Mausell, 1983).
L'analisi percettiva avviene dunque al livello della cellula
individuale, o almeno al livello di insiemi locali di cellule. Si
sa ormai abbastanza sul modo in cui i messaggi, sotto forma
di successioni di brevi impulsi elettrici, viaggiano lungo le fi­
bre nervose; sappiamo meno, tuttavia, sul modo in cui que­
ste successioni codificano le informazioni, e ancor meno sul­
l'interpretazione o "decodifica" del segnale proveniente dalla
cellula, o gruppo di cellule, precedente da parte delle cellule
successive nella catena di connessioni (vedi Mollon, 1977).
Un'ipotesi, che ha avuto origine nell'ambito degli studi fisio­
logici sull'elaborazione delle informazioni nella retina della
rana, del piccione e del coniglio, è che ogni singolo neurone
sensorio possa essere attivato quasi esclusivamente da certe
caratteristiche distintive dell'immagine, come ad esempio il
particolare orientamento di un profilo, il moto lungo una
particolare direzione, il contrasto di luce (piuttosto che l'in­
tensità assoluta della luce), e così via. Il particolare elemento
della scena visiva capace di attivare il neurone è detto "ca­
ratteristica scatenante".
Quest'ipotesi permette di semplificare la codifica delle in­
formazioni nei neuroni sensori: non è necessario che la fre­
quenza degli impulsi nervosi codifichi precise informazioni
quantitative sulla natura dello stimolo visivo; essa sta piutto­
sto solo a indicare la probabilità della presenza di una deter­
minata caratteristica scatenante (vedi Barlow, 1972). Inoltre,
la scomposizione della scena visiva nei suoi elementi caratte­
ristici permette di spiegare l'adattamento all'ambiente del si­
stema visivo delle varie specie animali. Persino fra i verte­
brati vi è una certa variabilità nell'insieme degli elementi
della scena visiva che risultano significativi per il comporta­
mento: corrispondentemente, le diverse specie differiscono
per la lunghezza d'onda cui i fotopigmenti dell'occhio sono
sensibili, per la capacità di individuare e riconoscere un og­
getto che si muove nel campo visivo a una determinata velo­
cità, e così via. Tuttavia, l'ipotesi della caratteristica scate­
nante non è da intendersi rigidamente: non si deve pensare
che i neuroni siano completamente insensibili, o "invarianti"
nelle loro risposte, in presenza di variazioni anche notevoli
dello stimolo visivo che non coinvolgono la loro particolare
caratteristica scatenante. Questa particolare codifica, sche­
maticamente illustrata nella figura, è certamente un'idealiz­
zazione che non coglie tutta la complessità del fenomeno. I

151
neuroni sensori, a ogni livello del sistema VISivo, tendono
piuttosto a "filtrare" le caratteristiche dell'immagine: le ri­
sposte della cellula in relazione a un aspetto della scena visi­
va (ad esempio la direzione del moto dell'immagine) cadono
entro un arco di valori piuttosto ristretto e si raccolgono at­
torno a un punto ottimo, ma dipendono anche in misura si­
gnificativa da altri aspetti della scena, come la posizione del­
lo stimolo sulla retina, il contrasto rispetto allo sfondo ecc.
Come mostra la figura 3B, la funzione dei neuroni sensori,
almeno nelle parti periferiche del sistema, unisce aspetti di
"selezione" dello stimolo ad aspetti di "armonizzazione" delle
diverse componenti dello stimolo fra loro (vedi Blakemore,
1975).
Secondo una teoria alternativa, i neuroni sensori sono dei
"filtri di codifica": ogni cellula fornisce, regolando la fre­
quenza dei propri impulsi, informazioni quantitative sulla
variazione dello stimolo lungo una o più dimensioni. Per tor­
nare all'esempio della corteccia visiva primaria della scim­
mia, i neuroni di quest'area avrebbero proprietà filtranti re­
lative non solo all'orientamento di un bordo o di una linea
nel campo visivo, ma anche alla sua lunghezza, alla sua lar­
ghezza (o, più precisamente, al periodo di una configurazio­
ne ripetitiva di barre), alla direzione e alla velocità del suo
moto, alla sua composizione spettrale, e persino alla sua di­
stanza stereoscopica nello spazio tridimensionale. È chiaro
che cellule dalle specificità filtranti multiple di questo tipo
non possono segnalare univocamente la natura del compo­
nente della scena visiva da cui sono state attivate. L'idea che
l'analisi percettiva sia dovuta all'interazione di grandi popo­
lazioni di cellule nervose che trattano aspetti simili di una
stessa scena visiva (vedi Mollon, 1977), è in gran parte conse­
guenza di questa intrinseca ambiguità del messaggio, unita
al fatto che nessun neurone individuale, da solo, è sufficien­
temente sensibile e preciso da determinare le azioni e le per­
cezioni dell'animale. L'interazione fra le cellule nervose di
una stessa popolazione deve far sì che le prestazioni globali
siano sensibilmente migliori di quelle ottenibili da una sin­
gola cellula. Una semplice modalità di interazione che pre­
senta queste caratteristiche è la somma di probabilità: qual­
siasi decisione percettiva (come il rilevamento di una sorgen­
te luminosa) prodotta da un gruppo, quale che sia, di cellule
nervose simili è comunque più affidabile e sicura di quella
di una cellula singola perché il fattore che limita le presta­
zioni di una cellula individuale è dato dal rapporto fra il se­
gnale rilevato e il "rumore" presente nel canale lungo cui ta­
le segnale viaggia. Sfruttando la probabilità che nel gruppo

152
A B

STIMOLO
CODIFICATO
CARATTERISTICA l / '
SCATENANTE
n_
1• DIMENSIONE DELLO STIMOt.,O+ DIREZIONE DEL MOVIMENTO +

;;-
;;-

.,
g
"' ii
iii ii
ii 'S
a.
'S E
c. c
! LU
z
LU o
z 2• DIMENSIONE DELLO STIMOLO+ a: POSIZIONE SULLA RETINA +
o ::>
a: LU
::>
LU
l z
z ....
LU
.... o
LU
Q
w( INVARIANZA � )o. STIMOLI SEGNALE
In �
o (/)
Q.
(/) a:
a:
J
3• DIMENSIONE DELLO STIMOLO+ CONTRASTO DELLO STIMOLO +
l
4• DIMENSIONE DELLO STIMOLO + Figura 3 VELOCITÀ DELLO STIMOLO +
vi sia comunque una cellula, magari anche una sola, che è in
grado di rilevare uno stimolo debole, le prestazioni globali
saranno sempre migliori, in media, di quelle di qualsiasi
neurone individuale.
Si è ormai diffusa in neurofisiologia l'idea che un mecca­
nismo simile a quello della somma di probabilità governi i
rapporti fra gruppi di neuroni corrispondenti a uno stesso
punto della retina. Partendo da questo presupposto si posso­
no paragonare le prestazioni percettive globali (umane o ani­
mali) con quelle ottenute, in media, da una singola cellula
sottoposta un numero sufficiente di volte a uno stesso stimo­
lo visivo: mentre in quest'ultimo caso la media è calcolata su
una serie di valori successivi nel tempo, il cervello compie lo
stesso tipo di computazione sui valori prodotti in un dato
istante da una popolazione di cellule simili simultaneamente
sottoposte a uno stimolo visivo. Questa posizione, pur così
diffusa, è stata recentemente rimessa in discussione da Par­
ker e Hawken (1 985), secondo cui molti neuroni della cortec­
cia striata della scimmia, sottoposti a un'unica presentazio­
ne di uno stimolo visivo, offrono prestazioni percettive para­
gonabili a quelle umane, anche se i valori della risposta non
sono mediati con quelli prodotti da altri neuroni. Essi sono
riusciti a spiegare in termini quantitativi, e facendo riferi­
mento unicamente ai neuroni individuali della corteccia visi­
va, un ampio spettro di funzioni e abilità visive: la sensibilità
al contrasto, il potere risolutivo su particolari di piccole di­
mensioni (acutezza visiva), la determinazione del periodo di
configurazioni di barre di diversa grandezza, e la capacità di
determinare l'orientamento di una linea e la presenza di
eventuali minuscole deviazioni e rotture (acutezza a ver­
niero).
Nonostante quest'imponente sforzo teorico la neurofisio­
logia non è che all'inizio nella comprensione della visione. La
scomposizione iniziale della scena visiva e la trasmissione di
informazioni codificate al resto del cervello da parte dei neu­
roni visivi sono state sufficientemente esplorate. Non abbia­
mo ancora tuttavia alcuna spiegazione soddisfacente dell'a­
nalisi percettiva in tutta la sua complessità, né della catego­
rizzazione cognitiva del mondo visivo non solo negli esseri
umani, ma nemmeno in animali più semplici come i piccioni
(vedi Herrnstein, 1984). Certamente dovrà essere affrontata
l'intrinseca limitatezza dei metodi neurofisiologici, che po­
trebbe risultare d'ostacolo a ogni progresso pratico. È ad
esempio impossibile, oggi, rilevare dati accurati e sicuri sul­
l'attività elettrica di una singola cellula o fibra nervosa per
più di poche ore, e potrebbe rivelarsi estremamente difficile

154
estendere questo limite. D'altra parte è possibile in linea di
principio che certi neuroni individuali che richiedono stimo­
lazioni lunghe e complesse debbano essere posti sotto osser­
vazione in laboratorio per periodi più lunghi. Lo stesso pro­
blema si pone per lo studio della memorizzazione delle infor­
mazioni sensorie in neuroni che funzionano come banchi di
memoria, e lunghi periodi di osservazione sono ugualmente
richiesti per capire come si stabiliscono le connessioni ner­
vose funzionali nella prima fase dello sviluppo postnatale,
periodo in cui le cellule della corteccia striata cominciano a
mostrare le capacità di "armonizzazione" del segnale cui ab­
biamo accennato sopra (vedi Movshon e Van Sluyters, 198 1).

Il valore della simulazione e il punto di vista algoritmico

C'è un'altra strategia, non alternativa ma complementare


a quella della neurofisiologia, per affrontare il problema del­
l'analisi percettiva: la simulazione della visione su elaborato­
re elettronico. Si suppone di solito che la natura della scena
visiva imponga certe limitazioni, a volte molto rigide, sul
modo in cui si può estrarre il significato dall'immagine reti­
nica (vedi Gibson, 1 979). Recentemente, seguendo questa li­
nea di ricerca, David Marr e i suoi colleghi hanno ottenuto
notevoli risultati (vadi Marr, 1 982; Poggio, 1 986). Per simula­
re il processo visivo bisogna trovare degli algoritmi (procedi­
menti logici rappresentabili per mezzo di un programma per
calcolatore) capaci di fornire le informazioni appropriate su
certe caratteristiche della scena visiva, come ad esempio la
forma, la distanza stereoscopica, il movimento. È possibile
che in certi casi il problema di estrarre le informazioni ne­
cessarie dai dati disponibili ammetta un'unica soluzione in
termini logici. È chiaro che se così fosse, qualsiasi organi­
smo necessitato a estrarre tali informazioni dovrebbe avere
un sistema visivo basato sull'unico algoritmo esistente in
grado di assolvere al compito. Si compirebbe in questo modo
un enorme progresso nella comprensione dell'analisi percet­
tiva senza bisogno di esperimenti su uomini o animali. Natu­
ralmente l'unicità dell'algoritmo non implica affatto l'unici­
tà della struttura neuronica materiale in cui esso trova, per
così dire, la propria incarnazione, ma solo l'identità logica
dei sistemi visivi che devono assolvere al compito in que­
stione.
Sono sempre più numerosi gli scienziati che studiano i si­
stemi biologici servendosi di programmi per calcolatore. Sic­
come è improbabile che il processo biologico dell'analisi per-

155
cettiva sarà mai esaurientemente descritto in un manuale di
neurologia, bisognerà accontentarsi di quanto riusciremo a
sapere dai programmi per calcolatore scritti per la sua simu­
lazione.
Tuttavia, anche la sola idea che un elaboratore elettroni­
co possa fornire una descrizione soddisfacente di un aspetto
dell'esperienza conscia (in questo caso, la percezione) suona
scandalosa all'orecchio di alcuni filosofi. Recentemente John
Searle ha sostenuto con foga e convinzione che la semplice
rappresentazione di un programma all'interno di un calcola­
tore non potrà mai, da sola, generare stati mentali. Searle
(1 984) ha presentato a questo proposito un'argomentazione
(nota come l'argomentazione della Stanza Cinese: vedi Hof­
stadter e Dennett, 198 1 ; Dennett, 1 986) tesa a provare che la
simulazione di un aspetto del comportamento umano (persi­
no di un aspetto complesso come il comportamento linguisti­
co) per mezzo di un calcolatore non potrà mai duplicare gli
stati mentali normalmente as sociati a tale comportamento.
L'argomentazione di Searle fa uso di un dispositivo com­
putazionale di tipo un po' particolare. Supponiamo che un
gruppo di persone (dotate, presumibilmente, di intelligenza)
sia chiuso in una stanza, con il compito di rispondere in ci­
nese alle domande, anch'esse scritte in cinese, che vengono
loro passate attraverso un'apertura. Nessuno di loro conosce
la lingua, e le risposte sono scritte consultando un enorme li­
bro di istruzioni che rappresenta (è chiaro) il programma. In
assenza di errori il dispositivo computazionale costituito dal­
la Stanza Cinese è in grado di superare il Test di Turing (ve­
di McCorduck, 1 979): un osservatore esterno non riuscirebbe
a decidere, basandosi solo sull'abilità intellettuale dimostra­
ta in questo particolare compito, se chi fornisce le risposte è
effettivamente un essere umano dotato delle necessarie co­
noscenze oppure un dispositivo meccanico. Il fatto che que­
sto dispositivo sia a sua volta costituito da esseri umani che
non riescono ad associare alla propria attività alcuno stato
intenzionale proprio in forza dell'assoluta ignoranza della
lingua, è utilizzato da Searle per dimostrare che un pro­
gramma per calcolatore, pur avendo superato il Test di Tu­
ring, non può per questo produrre gli stati mentali che un
essere umano assocerebbe alla medesima attività.
L'argomentazione di Searle è stata fatta segno di molte
obiezioni, ma due mi sembrano particolarmente convincenti.
In primo luogo, non credo che la Stanza Cinese potrebbe fun­
zionare correttamente se le persone che vi sono chiuse non
raggiungessero una comprensione "semantica" della loro at­
tività. Dopotutto, i neonati sono paragonabili alla Stanza Ci-

1 56
nese per certi aspetti: quando vengono al mondo non hanno
alcuna conoscenza del vocabolario e della sintassi di quella
che diventerà la loro lingua madre. Imparano le regole e il
contenuto di tale lingua, così come si impadroniscono della
relazione che unisce sintassi e semantica, interagendo con il
mondo esterno e associando le parole di altre persone a og­
getti ed eventi. Non credo che si possa apprendere veramen­
te un linguaggio ignorandone l'aspetto del riferimento se­
mantico, senza sapere cioè quali siano gli oggetti di cui si
parla, né quale relazione li unisca alle parole corrispondenti.
Non disponendo di una tale conoscenza, il compito delle per­
sone nella Stanza Cinese è certamente arduo, se non impossi­
bile. Dunque, la mia prima obiezione mette in dubbio la pos­
sibilità di un funzionamento corretto del "dispositivo compu­
tazionale" immaginato da Searle. Ma anche se dalla Stanza
Cinese provenissero le risposte previste, rimarrebbe pur
sempre un problema filosofico più generale. Infatti, se fosse
veramente possibile imitare in modo completo la competen­
za linguistica umana mediante le conoscenze puramente sin­
tattiche di un programma per calcolatore, senza l'intervento
di stati mentali o intenzioni, dovremmo chiederci che ruolo
hanno, allora, gli stati mentali nel mondo reale. Non è un
punto banale, né di poca importanza. È chiaro che lo stesso
Searle crede che gli stati mentali e le intenzioni siano crucia­
li per il modo in cui usiamo il cervello e ci muoviamo nel
mondo: ma ciò sarebbe impossibile se, come sostiene Searle,
una macchina priva di stati mentali potesse offrire presta­
zioni paragonabili a quelle di un essere umano.
Siamo dunque di fronte al seguente dilemma: o la Stanza
Cinese non può funzionare correttamente, non avendo alcu­
na comprensione delle proprie azioni a livello semantico; op­
pure, se il suo funzionamento è perfetto e convincente pur
essendo del tutto inconsapevole, quale valore funzionale si
deve attribuire agli stati mentali ?
In conclusione, sembrano esserci buone speranze che gli
sforzi comuni dell 'Intelligenza Artificiale e della neurologia
producano una spiegazione plausibile dell'analisi percettiva,
nonostante l'oscurità che circonda la natura delle percezioni
e la nostra incapacità a spiegarle in termini meccanicisti. Po­
trà allora essere possibile specificare le modalità di filtrag­
gio ed elaborazione delle informazioni in base alle quali gli
animali classificano il proprio mondo visivo e determinano il
proprio comportamento come risposta a stimoli visivi. Que­
sto modo di affrontare il problema può anche lasciare insod­
disfatto il filosofo interessato all'esperienza percettiva in sé
e per sé, ma è certamente un metodo remunerativo in termi-

157
ni di progressi concreti, che promette di fornirci spiegazioni
complete, autosufficienti e mai banali.

R:IFERIMENTI BIBLIOGRAFICI

Barlow, H.B. (1972), Single Units and Sensation: a Neuron Doctrine


for Perceptual Psychology, in "Perception", l, pp. 371-394.
Barlow, H.B. (1986), The Biologica[ Role of Consciousness, in C. Bla­
kemore e S. Greenfield (a cura di), Mind Waves, Blackwell, Ox­
ford.
Blakemore, C. (1975), Centrai Visual Processing, in M.S. Gazzanaga
e C. Blakemore (a cura di), Handbook of Psychobiology, Acade­
mic Press, New York.
Blakemore, C. (1977), Mechanics of the Mind, Cambridge University
Press, Cambridge (trad. it. I meccanismi della mente, Editori
Riuniti, Roma 1981).
Blakemore, C. (1985), The Nature of Explanation in the Study of the
Brain, in C.W. Coen e (a cura di), Functions of the Brain, Oxford
University Press, Oxford.
Calford, M.B., Graydon, M.L., Huerta, M.F., Kaas, J.H. e J.D. Petti­
grew (1985), A variant of the Mammalian Somatropic Map in a
Bat, in "Nature", 313, pp. 477-479.
Dennett, D.C. (1989), Il mito dell'intenzionalità originaria, in questo
volume, pp. 18-39.
Cartesio, R. (1986), Traité de l'homme, trad. it. in R. Cartesio, Opere:
Il mondo, L 'uomo, Discorso sul metodo, Meditazioni metafisi­
che, Mondadori, Milano.
Gibson, J.J. (1979), The Ecologica[ A,pproach to Visual Perception,
Houghton Mifflin, Boston.
Hermstein, R.J. (1984), Objects, Categories, and Discriminative Sti­
muli, in H.L. Roiblat, T.G. Bever e H.S. Terrace (a cura di), Ani­
mal Cognition, Lawrence Erlbaum Associates, Hillsdale (N.J.).
Hofstadter, D.R. e D.C. Dennett (1981), The Mind's I, Basic Books,
New York (trad. it. L 'io della mente, Adelphi, Milano 1985).
Hubel, D.H. e T.N. Wiesel (1977), Functional Architecture of Maca­
que Monkey Visual Cortex, in "Proc. Roy. Soc. B.", 198, pp. 1-59.
Locke, J. (1951), Essay Concerning Human Understanding (1690),
trad. i t. Saggio sull'intelletto umano, Laterza, Bari.
McCorduck, P. (1979), Machines Who Think, W.H. Freeman, San
Francisco.
McGinn, D. (1982), The Character of Mind, Oxford University Press,
Oxford.
Marr, D. (1982), Vision, W.H. Freeman, San Francisco.
Médawar, P.B. (1982), Pluto 's Republic, Oxford University Press, Ox­
ford.
Mollon, J.D. (1977), Neurons and Neural Codes. Neural Analysis, in
K. von Fiendt e I.K. Moustgaard, The Perceptual World, Acade­
mic Press, London, capp. 3 e 4.

158
Movshon, J.A. e R.C. Sluyters (1981), Visual Neural Development, in
"Ann. Rev. Psychol.", 32, pp. 477-522.
Nagel, T. (1981), What is it like to be a bat?, in "The Philosophical
Review", ora in D.R. Hofstadter e D.C. Dennett, The Mind's I,
ci t.
Parker, A. e M. Hawken (di prossima pubblicazione), The Capabili­
ties of Monkey Cortical Cells in Spatial Resolution Tasks, in "J.
Opt. Soc. Amer."
Poggio, T. (1989), Visione: l' "altra" faccia dell'intelligenza artificiale,
in questo volume, pp. 278-297.
Searle, J. (1984), Minds, Brains and Science, BBC Publications,
London.
Strawson, P.F. (1959), Individuals Methuen, London (trad. it. Indivi­
dui, Feltrinelli, Milano 1978).
Van Essen, D.C. e J.H.R. Maunsell (1983), Hierarchical Organization
and Functional Streams in the Visual Cortex, in "Trends in Neu­
rosciences", 6 (9), pp. 370-375.
Wall, P.D. (1985), Pain and No Pain, in C.W. Coen (a cura di), Func­
tions of the Brain, Oxford University Press, Oxford.
Zeki, S.M. (1974), The Mosaic Organization of the Visual Cortex in
the Monkey, in R. Bellairs e E.G. Gray (a cura di), Essays on the
Nervous System, Clarendon Press, Oxford.

159
L'intelligenza naturale nella scienza
della me n te e del cervello
di Karl H. Pribram

Introduzione storica

La riflessione contemporanea sul problema mente-cervel­


lo ha avuto inizio con Ernst Mach e la scuola positivista.
Mach era un dualista e un parallelista: pensava che la mente e
il cervello, pur avendo struttura identica, fossero entità radi­
calmente distinte. Da questa posizione hanno avuto origine
due correnti di pensiero principali, centrate su aspetti diversi
del problema. Secondo la prima di queste correnti, il cervello
e la mente, pur essendo distinti, interagiscono l'uno con l'al­
tra secondo modalità che, naturalmente, bisogna spiegare. A
questo riguardo Popper ha sostenuto che i processi mentali
creano un "terzo mondo" (il mondo del linguaggio e della cul­
tura), che a sua volta è in grado, attraverso i sensi, di influen­
zare il meccanismo cerebrale. La mente stessa emergerebbe
dall'operare del cervello, cioè da quei processi motori e senso­
ri che mettono in relazione il cervello con l'ambiente dell'or­
ganismo.
La seconda di queste correnti di pensiero ha invece avuto i
suoi esponenti di maggior rilievo fra i filosofi del Circolo di
Vienna, e in Feigl in particolare. Questi pensatori avevano in­
dividuato un particolare problema nella posizione di Mach:
che cosa si intende veramente quando si parla di identità
strutturale fra mente e cervello? Secondo Feigl, coerentemen­
te con la tradizione positivista, il fondamento di tale identità
va ricercato nel linguaggio: la lingua della mente e quella del
cervello non sarebbero che aspetti diversi di una medesima
struttura machiana (?) sottostante. Ciò significava spostare
l'enfasi sull'identità strutturale e, in ultima istanza, abbando­
nare il dualismo in favore di una posizione monistica.

1 60
Al di là dei propri meriti, tanto la posizione di Popper
quanto quella di Feigl fanno sorgere nuovi problemi che ri­
chiedono una più approfondita riflessione. La corrente di
ispirazione popperiana deve spiegare, ad esempio, l'essenza
del linguaggio e della cultura (che hanno una così profonda
e immediata influenza sul cervello), nonché la natura del
terzo mondo, mentre dal punto di vista di Feigl non è affat­
to chiaro quale sia il riferimento dei diversi aspetti dell'uni­
co sostrato che è alla base della mente e del cervello. Voglio
rispondere a queste domande dal punto di vista dello scien­
ziato, piuttosto che da quello del filosofo: non cercherò di
spingere questi programmi teorici fino ai loro limiti logici,
ma tenterò di individuare l'insieme di dati o di fenomeni a
cui ognuno di essi fa riferimento. Ne risulterà una forma di
monismo neutrale rispetto al dualismo mente-cervello e su­
scettibile di realizzazioni diverse. La molteplicità degli
aspetti descrittivi è rimpiazzata dal pluralismo delle inter­
pretazioni, aprendo una nuova dicotomia fra gli ordini po­
tenziali e le loro realizzazioni.

La smaterializzazione dell'energia

C'è un assunto fondamentale senza il quale il problema


mente-cervello non avrebbe senso, ed è quello secondo cui i
fenomeni mentali sono essenzialmente diversi dall'universo
materiale. Questo assunto riceve sostegno da un'analisi eu­
clideo-newtoniana nel dominio ordinario delle apparenze,
nel senso che è possibile descrivere la situazione in termini
dualistici in modo chiaro e completo, come vedremo. Ciò
che invece non è affatto ovvio è la relazione fra il mentale e
il materiale, relazione che è stata spesso trascurata in favo­
re della corrispondente dicotomia.
La fisica moderna ha concentrato la propria attenzione
sull'universo macroscopico, da un lato, e su quello micro­
scopico dall'altro, scegliendo sempre così un livello di anali­
si in cui il dualismo fra materiale e mentale non si pone
nemmeno come problema. Tanto il principio di complemen­
tarità di Niels Bohr quanto quello di indeterminazione di
Werner Heisenberg attribuiscono all'osservatore un ruolo
essenziale nella comprensione del fenomeno osservato (vedi
Bohr, 1 966 e Heisenberg, 1 959). La microfisica e la macrofi­
sica moderne, come ha efficacemente notato Eugene P. Wi­
gner, non hanno più per oggetto "relazioni fra oggetti osser­
vabili, ma relazioni fra osservazioni diverse" (vedi Wigner,
1 969).

161
La fisica si trova certamente in difficoltà a distinguere in
modo netto gli enti osservabili dall'atto della loro osservazio­
ne, ma una tale difficoltà, si potrebbe obiettare, è solo tem­
poranea, superficiale, e di nessun interesse per il filosofo
che va alla ricerca di verità eterne. Non è questo, tuttavia,
che Bohr e Heisenberg hanno cercato di dirci quando hanno
spinto lo scandaglio della scienza in un mondo in cui il di­
scrimine fra mentale e materiale è fastidiosamente labile, in
un senso niente affatto secondario del termine. Le argomen­
tazioni che presenterò più avanti aiuteranno, spero, a com­
prendere la posizione di questi due grandi della fisica mo­
derna.
Non è difficile rintracciare le origini di questo processo
di "smaterializzazione della materia". Ad esempio, la fisica
era una disciplina concettualmente trasparente ai tempi di
James C. Maxwell, quando si pensava che le onde luminose
si propagassero nell' "etere". In seguito i fisici abbandonaro­
no il concetto di etere, conservando però le equazioni d'onda
sviluppate da Maxwell e, più recentemente, da Schroedinger
e de Broglie (vedi Schroedinger, 1 928 e de Broglie, 1 964). È
facile concettualizzare la propagazione delle onde in un mez­
zo, assumendo magari come modello lo spostamento delle
onde sonore nell'aria, ma che cosa si intende dire afferman­
do che la luce o altre radiazioni elettromagnetiche "viaggia­
no" nel vuoto ? Solo ora i fisici stanno cominciando a riflette­
re sul problema: là dove si pensava non vi fosse nulla si sco­
prono concentrazioni di energia, intese come capacità di in­
teragire con la materia e compiere un lavoro. Tale potenzia­
lità (questa è la mia proposta) è in effetti neutrale rispetto al
dualismo mentale-materiale.

Energia ed entropia (struttura informativa) come potenziale


neutrale

Nella scienza questi potenziali sono definiti in riferimen­


to al lavoro, effettivo o possibile, necessario per realizzarli,
e cadono sotto il nome generico di "energia". Quindi, realiz­
zazioni multiple implicano un monismo neutrale in cui l'es­
senza, cioè il potenziale di realizzazione, è costituito dall'e­
nergia. E, come si afferma nel secondo principio della ter­
modinamica, l'energia è entropica, ovvero dotata di strut­
tura.
Heisenberg (1 969) ha sviluppato una teoria matriciale per
la comprensione dell'organizzazione dei potenziali di ener­
gia, teoria ora usata nelle matrici-S, nelle teorie quantistiche

1 62
del bootstrap* e in fisica nucleare da Henry Stapp (1 965) e
Geoffrey Chew (1 966). Questi studiosi (insieme ad altri, fra cui
Dirac, 1906) hanno messo in luce come sia possibile correlare
una misura di un potenziale di energia a una misura di una lo­
cazione nello spazio-tempo per mezzo di una trasformazione di
Fourier. Secondo il teorema di Fourier, si può rappresentare
qualsiasi configurazione regolare mediante una serie di forme
d'onda di diversa ampiezza e frequenza. Tali forme d'onda pos­
sono a loro volta venir sovrapposte e intrecciate l'una con l'al­
tra per mezzo della trasformazione inversa per ottenere la con­
figurazione originale. Il motivo per cui si usa una trasforma­
zione matematica di questo tipo è che in questo modo è possibi­
le mettere in relazione configurazioni diverse. La trasforma­
zione di Fourier di un insieme di configurazioni correlate ha
un'organizzazione diversa rispetto a quella mostrata dallo
stesso insieme dopo che è stata effettuata la trasformazione in­
versa.
Dal punto di vista di Stapp e Chew, ciò significa che l 'orga­
nizzazione dei potenziali di energia è considerevolmente diver­
sa dall'organizzazione spazio-temporale delle nostre percezio­
ni ordinarie, percezioni che possono essere espresse in termini
euclidei, cartesiani e newtoniani. David Bohm (197 1 ; 1 973) ha
caratterizzato queste forme non classiche di organizzazione
dei potenziali di energia come "implicate" o avviluppate (enfol­
ded), assumendo il caso dell'ologramma a esempio paradigma­
tico di questo tipo di ordine. Dennis Gabor (1 946; 1948), l'inven­
tore dell'ologramma, prese le mosse dal fatto che è possibile
memorizzare su una pellicola fotografica i modelli di interfe­
renza delle forme d'onda prodotte dalla riflessione o dalla ri­
frazione della luce su di un dato oggetto, e ricostruire, quindi,
l' immagine dell'oggetto a partire dalla pellicola. È ancora una
volta una trasformazione di Fourier che permette di passare
dalla descrizione dell'organizzazione avviluppata del potenzia­
le alla descrizione spazio-temporale "distesa" dell'oggetto.
Il teorema di Fourier ha un ruolo importante anche in mol­
te recenti scoperte compiute dalla scienza del cervello. Alla fi­
ne degli anni sessanta in molti laboratori si cominciò a pensare
che gran parte dei risultati sperimentali della ricerca visiva
potessero essere spiegati ricorrendo al concetto di "frequenza
spaziale". Il termine fu coniato da Fergus Campbell e John

* La parola bootstrap (calzastivali)- donde l'espressione inglese on boot·


strap, di cosa fatta senza aiuti esterni - ha trovato larga applicazione in cam­
po tecnico-scientifico: per esempio, un bootstrap process è, in aeronautica, un
processo autoalimentato, un bootstrap system è, nel linguaggio dei computer,
un sistema capace di autocaricarsi. La parola bootstrap consente sempre il si­
gnificato di coerenza interna, di qualcosa che non rimanda ad altro. [N. d. T.]

163
Robson (1968) dell'università di Cambridge per rendere conto
di alcune inattese regolarità riscontrabili nei dati sperimenta­
li da essi raccolti. In particolare, le risposte a griglie di diversa
ampiezza e spaziatura sembravano essere funzione non solo
della griglia che veniva mostrata, ma anche di altri aspetti del­
l'immagine. Questi fenomeni risultavano più chiari se si de­
scrivevano le griglie in termini di forme d'onda regolari di una
data frequenza e le loro regolarità in termini di armoniche.
Poiché la frequenza era determinata dalla spaziatura della gri­
glia, il termine "frequenza spaziale" sembrò il più adatto a de­
scrivere il fenomeno. Vi è naturalmente una relazione fra le
frequenze spaziali e quelle temporali: se si scandisce la griglia
per mezzo di un raggio che si muove a velocità costante si ot­
tiene una descrizione della frequenza temporale. È per questo
che i fisici usano l'espressione "numero d'onda" in riferimento
a questa forma di descrizione delle configurazioni regolari.
Alla fine degli anni cinquanta David Hubel e Thornsten
Wiesel (1 959; 1 968) scoprirono che la risposta delle cellule
della corteccia visiva era maggiore se il sistema visivo era
stimolato mediante linee poste secondo un certo orientamen­
to, e nella prima metà degli anni settanta Daniel Pollen e al­
tri (197 1 ; 1 974) notarono che la risposta delle cellule al moto
di tali linee orientate nel campo visivo non era uniforme, ma
poteva essere descritta da una forma d'onda simile a quella
usata da Fergus Campbell. Nel frattempo quest'ultimo aveva
mostrato che le risposte delle singole cellule della corteccia
visiva si conformavano alle armoniche della griglia che rap­
presentava lo stimolo, esibendo così un comportamento si­
mile a quello dell'intero organismo in generale (vedi Camp­
bell, 1 974). Infine, Russell e Karen De Valois provarono che
l'orientamento della linea nel campo visivo, da solo, non per­
mette una descrizione accurata del comportamento delle cel­
lule della corteccia visiva, che sembra piuttosto in sintonia
con la frequenza spaziale della griglia, in uno spettro di valo­
ri che va da un mezzo a un ottavo (vedi Russell, 1 948; De Va­
lois e De Valois, 1 980; De Valois, De Valois e Yund, 1 979; De
Valois, Albright e Thorell, 1 978a; De Valois, Albright e Tho­
rell, 1978b). Questi stessi scienziati, inoltre, dimostrarono
che le cellule del sistema visivo, stimolate con disegni a scac­
chi o di tipo "scozzese", hanno risposta massima in corri­
spondenza della trasformazione di Fourier delle configura­
zioni spaziotemporali (calcolata mediante un elaboratore
elettronico), e che queste cellule sono essenzialmente insen­
sibili all'orientamento delle singole linee che compongono il
di segno. Sembra dunque che il sistema visivo operi una tra­
sformazione di Fourier sull'immagine che colpisce la retina.

1 64
L'immagine ottica è decomposta nelle sue componenti di
Fourier: forme d'onda regolari di diversa ampiezza e fre­
quenza. Le cellule del sistema visivo rispondono all'una o al­
l'altra di queste componenti e costituiscono così, nel loro in­
sieme, un filtro in grado di elaborare un'immagine ottica; ta­
le filtro è simile a quello che permette, in un ologramma, di
ricostruire l'immagine a partire dalla trasformazione in­
versa.
Tuttavia, vi sono alcune importanti differenze fra gli or­
dinari ologrammi fotografici e il sistema nervoso visivo. Gli
ologrammi sono composti mediante una trasformazione di
Fourier globale che distribuisce le informazioni contenute in
un'immagine spazio-temporale sul suo intero dominio. Nel
sistema nervoso visivo la distribuzione è anatomicamente li­
mitata alle informazioni incanalate verso una particolare
cellula corticale. D'altra parte, vi sono tecniche olografiche
che usano costruzioni molteplici (o "a toppe") simili a quelle
del sistema nervoso. Bracewell (1 965) fu fra i primi ad appli­
care queste tecniche quando, all'Università di Stanford, riu­
scì a comporre le trasformazioni olografiche di settori limi­
tati del cielo, così come appaiono al radiotelescopio. Appli­
cando la trasformazione inversa, si ha un'immagine spazio­
temporale globale in tre dimensioni.
Per di più, la trasformazione che meglio descrive il fun­
zionamento del sistema visivo non è stata sviluppata da Fou­
rier, ma da Gabor, limitando, mediante l'imposizione di un
involucro gaussiano, la trasformazione di Fourier. È solo un
altro modo per asserire che la trasformazione non è globale
e determinarne i limiti con precisione matematica.
La disposizione dei canali visivi rispetto alle cellule corti­
cali non è affatto casuale. Le relazioni spaziali delle diverse
zone della retina sono mantenute e conservate nella cortec­
cia visiva. Abbiamo così che da un lato il filtro visivo "a gra­
na grossa" determina le coordinate spazio-temporali, mentre
dall'altro vi è un filtraggio "a grana fine" che descrive le
componenti di Fourier dell'immagine.
E chiaro quale sia il vantaggio di questa organizzazione
"a grana fine", simile a quella degli ologrammi: nel dominio
di arrivo della trasformazione è molto più facile mettere le
diverse configurazioni in rapporto l'una con l'altra, determi­
nandone le relazioni reciproche. Per questo stesso motivo la
trasformazione di Fourier veloce (FFT, Fast Fourier Tran­
sform), calcolata su di un elaboratore elettronico, è uno stru­
mento di così larga utilizzazione nell'analisi statistica e nella
tomografia computerizzata. Analogamente, il cervello è in
grado di correlare le diverse configurazioni fra loro in modo

1 65
altamente efficiente grazie alle sue capacità di elaborazione
"a grana fine ".
Le proprietà duali dell'organizzazione avviluppata a gra­
na fine (tecnicamente: l'organizzazione del campo recettivo)
e di quella spazio-temporale a grana grossa valgono anche
per altre modalità sensorie, anche se le risultanze sperimen­
tali non sono altrettanto complete e univoche. Georg von Be­
kesy (1 967) ha condotto importanti studi sulle modalità audi­
tive e somestetiche, Walter Freeman (1 960) su quelle olfatti­
ve, mentre Pribram e altri (1 984) hanno mostrato che le cel­
lule della corteccia senso-motoria sono sintonizzate su speci­
fiche frequenze di movimento. Contemporaneamente, in
ognuno di questi sistemi sensori, l'organizzazione spaziale
della superficie recettiva è topograficamente rappresentata
dalla disposizione dei gruppi di cellule corticali che ricevono
il segnale sensorio.
In conclusione, sembra proprio che vi sia un'altra classe
di ordini al di sotto dell'ordinario livello classico di organiz­
zazione, al di sotto cioè del livello della percezione cosciente
che può essere descritta in termini euclidei e newtoniani in
un sistema di coordinate cartesiane spazio-temporali. Questa
classe di ordini è costituita dall'organizzazione a grana fine
dei potenziali il cui processo di realizzazione comporta delle
trasformazioni così radicali da rendere difficile la compren­
sione dell'intero fenomeno. Quando un potenziale si realizza,
le informazioni in esso contenute si dispiegano nella loro or­
dinaria apparenza spazio-temporale: nella direzione opposta,
la trasformazione avviluppa e distribuisce le informazioni
così come avviene nel procedimento olografico. Poiché la tra­
sformazione comporta lavoro, è del tutto naturale descrivere
il processo in termini di energia, e poiché è la struttura delle
informazioni a essere trasformata, è altrettanto naturale
usare i concetti di entropia e di entropia negativa (negen­
tropy). Se si vuole comprendere perfettamente il fenomeno,
bisogna porre almeno una dualità: da un lato vi sono ordini
avviluppati che si manifestano come potenziali di energia;
dall 'altro, vi sono ordini dispiegati che si manifestano nello
spazio-tempo neghentropico.

Le informazioni sono mentali o materiali?

Le forze che si esercitano fra corpi materiali sono spesso


concepite come "materiali", benché la materia non entri af­
fatto nella loro costituzione. Così, ad esempio, quando ponia­
mo in relazione l'energia e la materia per mezzo dell'equazio-

1 66
ne E = mc2, assumiamo che l 'energia sia "materiale". Così
facendo, tuttavia, attribuiamo al segno d'uguaglianza il si­
gnificato sbagliato. Il segno "=" non indica identità, perché
altrimenti dalle asserzioni "2 + 2 = 4" e "2 X 2 = 4" sareb­
be possibile dedurre l 'identità di "+" e " X ", cosa che chiara­
mente non è. 2 + 2 e 2 x 2, pur essendo uguali, non sono
identici e dunque, in un certo senso, sono diversi. Questa è
una distinzione che ho dovuto fare spesso, specialmente pre­
sentando le risultanze sperimentali secondo cui l'uomo e la
donna sono biologicamente e psicologicamente differenti: ta­
li risultanze non implicano che siano diseguali.
L'energia non è materiale, può però essere trasformata in
materia: la si può misurare mediante la quantità di lavoro
che permette di svolgere, lavoro la cui efficienza ed economi­
cità dipende dall'organizzazione dell'energia, cioè dal suo
grado di entropia. Con l'invenzione del tubo a vuoto e degli
strumenti che questo ha permesso di costruire si è avuta la
dimostrazione di quanto possano fare piccole quantità di
energia, purché adeguatamente strutturate, come veicolo di
informazione e organizzazione dell'energia
Misure d'informazione ed entropia sono dunque stretta­
mente correlate, e come tali sono state considerate, ad esem­
pio da Brillouin (1 962) e Weizsacker (1 974). Per elaborare le
informazioni si sono costruiti i calcolatori elettronici, le cui
operazioni sono controllate per mezzo di programmi apposi­
tamente scritti. Le informazioni contenute in questi ultimi
sono "materiali" o "mentali" ? E quelle contenute in un libro?
Che dire poi dell'entropia che descrive il comportamento del
motore termico o di un mammifero a sangue caldo ?
Di fronte a queste domande si evidenzia il limite dell'uti­
lità di una distinzione tra il "materiale" e il "mentale".

Gerarchia, causalità reciproca e identità mente-cervello

A questo punto può forse tornare utile considerare più


nei particolari il processo di elaborazione delle informazioni
così come è eseguito da un calcolatore controllato da un pro­
gramma: in tale processo emergono infatti con inaspettata
chiarezza gli stessi problemi posti dalla questione mente-cer­
vello. Il calcolatore non è un cervello, e i programmi che lo
controllano sono un prodotto dell'uomo. Ciò nonostante, è
possibile costruire un'utile metafora del problema mente­
cervello, in cui alla distinzione fra cervello, mente e anima
corrisponde quella fra macchina (hardware), programmi di
basso livello (codici) e programmi di alto livello (software). I

167
programmi di basso livello, scritti in codice macchina o in
linguaggio assemblatore, possono essere eseguiti solo su un
particolare tipo di elaboratore, e hanno in genere una logica
molto simile a quella della macchina per cui sono stati scrit­
ti. D'altra parte, i linguaggi di alto livello come il Fortran,
l'Algol e il Pasca! sono di applicazione universale, e vi è una
somiglianza meno immediata fra la loro logica implicita e
quella delle macchine. Al livello più alto vi sono i linguaggi
come l'inglese o l'italiano, che vengono a volte usati, in certe
applicazioni, per dare comandi alla macchina e le cui parole
hanno sempre una forte connotazione sociale.
Facendo riferimento al modello dei programmi per calco­
latore è possibile far chiarezza rispetto ad alcuni dei proble­
mi posti dalla tesi dell'identità di mente e cervello. Poiché
l'introspezione non ci fornisce alcun accesso alle funzioni
del tessuto nervoso che costituisce il cervello, non è affatto
facile capire che cosa si intenda affermando che i processi
mentali e quelli cerebrali sono identici. Tuttavia, grazie all'a­
nalogia calcolatore-programma, sembra di poter suggerire
che le operazioni mentali e il sostrato organico su cui sono
eseguite abbiano in comune un qualche tipo di ordine che ri­
mane invariante attraverso le varie trasformazioni. I termini
più usati per descrivere tale invarianza sono quelli di "infor­
mazione" (nelle scienze cognitive e in quelle del cervello) e di
"struttura" (in linguistica e in musica).
Gli ordini invarianti non si trovano soltanto nei calcolato­
ri o nei loro programmi; siamo in grado di riconoscere una
sonata di Beethoven o una sinfonia di Berlioz sia leggendone
la partitura, sia assistendo a un concerto dal vivo, sia infine
ascoltandone la riproduzione su un sistema stereofonico, e
nelle più varie condizioni ambientali. Le informazioni che la
compongono e la loro struttura sono riconoscibili indipen­
dentemente dalla modalità della loro realizzazione. Si posso­
no dare a una stessa forma musicale supporti materiali di­
versi, senza intaccarne le proprietà essenziali. In questo sen­
so la tesi dell'identità mente-cervello, nonostante la sua ap­
parenza realistica, è in realtà una forma di platonismo, non
lontana dalla posizione secondo cui gli universali sono ordini
ideali la cui realizzazione deve essere pensata come caduta
nel regno fallibile della materia.
Quando il progettista disegna un nuovo linguaggio di pro­
grammazione, ciò che in realtà sta facendo è trasferire (o
realizzare) in una macchina una struttura e delle informazio­
ni. In tutte le gerarchie, tanto in quelle biologiche quanto in
quelle computazionali, vi è un particolare meccanismo per
cui i livelli superiori controllano quelli inferiori e ne sono a

168
loro volta controllati. Questa forma di causalità reciproca è
veramente onnipresente fra i sistemi viventi: il livello di ani­
dride carbonica presente nei tessuti controlla il meccanismo
respiratorio nervoso e da esso è controllato. In origine consi­
derato un principio regolativo teso al mantenimento di un
ambiente costante, la causalità reciproca è ora nota come
"omeostasi". I meccanismi di retroazione (feedback) sono al­
la base di tutti i processi sensori, motori e, più in generale,
di tutti i processi nervosi centrali. Quando questi meccani­
smi sono organizzati in una struttura parallela, danno origi­
ne a un sistema di controllo a cascata che è molto simile a
quello che sovrintende all'interpretazione delle parole nei
linguaggi di programmazione.
Analogamente, lo studio della programmazione permette
di analizzare l'evoluzione degli strumenti linguistici che met­
tono in relazione i diversi livelli dei linguaggi dei calcolatori.
I calcolatori digitali a logica binaria richiedono un linguag­
gio di basso livello, codificato usando i numerali O e l, che
posizioni una serie di cambiamenti a due stati. Al livello im­
mediatamente superiore, è possibile raggruppare questi
cambiamenti in modo che le cifre binarie (bit) diano origine
a un codice più complesso: le parole di questo codice sono
byte, e a ognuna di esse è assegnata un'etichetta alfanumeri­
ca. Così ad esempio la configurazione 00 1 diventa l, quella
010 diventa 2, e quella 1 00 diventa 4. Ammesso che 000 sia O,
abbiamo ora otto possibili combinazioni, ognuna delle quali
è un byte ottale.
Il procedimento è ripetuto al livello successivo, raggrup­
pando i byte in parole riconoscibili. Così 1 734 diventa l'istru­
zione ADD, 205 1 diventa SKIP, e così via. Nei linguaggi di alto
livello, infine, i gruppi di parole costituiscono delle routine
che possono essere eseguite per mezzo di un solo comando.
Sembra probabile che vi sia una qualche forma di inte­
grazione gerarchica che mette in relazione i processi mentali
con il cervello. I meccanismi sensori trasformano configura­
zioni di energia fisica in configurazioni di energia neuronica.
La retina e la coclea sono meccanismi di questo tipo, ma es­
sendo analogici piuttosto che digitali, il processo di trasdu­
zione è considerevolmente più complesso di quello che avvie­
ne negli elaboratori elettronici. Ciò nonostante, gran parte
della ricerca in neurofisiologia ha per oggetto la corrispon­
denza che lega lo stimolo fisico alla risposta neuronica.
Quanto più complesso diventa lo stimolo, tanto più si tratta
di confrontare delle configurazioni fisicamente determinate
con l'esperienza soggettiva da esse prodotta, registrando
modelli della risposta dei centri sensori del cervello.

169
Questi confronti hanno permesso di stabilire che fra la
superficie del recettore e la corteccia cerebrale il segnale
sensorio subisce tutta una serie di trasformazioni che posso­
no essere espresse matematicamente come funzioni di tra­
sferimento (transfer functions). Quando le funzioni di trasfe­
rimento, che descrivono il comportamento del centro senso­
rio, danno in uscita configurazioni identiche a quelle in in­
gresso, queste configurazioni sono dette geometricamente
isomorfe. Se invece le funzioni di trasferimento sono lineari
(cioè sovrapponibili e invertibili), le configurazioni sono det­
te secondariamente o algebricamente isomorfe. Analogamen­
te a quanto avviene nella programmazione dei calcolatori, vi
sono diversi livelli di elaborazione del segnale, ognuno dei
quali opera delle trasformazioni che progressivamente ne al­
terano la forma, mantenendone però intatta la struttura fon­
damentale e preservandone le informazioni.
In breve, chi sostiene la tesi dell'identità mente-cervello
si impegna anche a spiegare in che cosa, esattamente, essi
siano identici. Vi deve essere qualcosa che rimane costante
attraverso tutte le operazioni di codifica che traducono le
parole di un linguaggio di alto livello in codice macchina, e
viceversa, altrimenti il calcolatore non potrebbe funzionare
correttamente. L'identità implica causalità reciproca fra i li­
velli strutturali contigui di un sistema complesso, ma con­
trariamente a quanto pensano molti filosofi, ciò non compor­
ta necessariamente un isomorfismo algebrico né, tantomeno,
un isomorfismo geometrico. Ogni livello strutturale è distin­
to da quello precedente per il fatto che la sua descrizione,
ovvero il suo codice, è in un qualche senso non banale più ef­
ficiente e richiede meno lavoro di quella dei suoi componen­
ti. Le operazioni di codifica che mettono in relazione il livel­
lo cerebrale con quello mentale sono più universali di quelle
che permettono il funzionamento dei calcolatori, e almeno
alcune di esse sono ormai note, dopo più di un secolo e mez­
zo di ricerca cognitiva, psicofisica e neuropsicologica.

Comportamento ed esperienza

L'adozione di tecniche comportamentali nello studio del­


la "mente" rende più sfumata una distinzione che è assai net­
ta nel dominio euclideo-newtoniano delle apparenze. Come
abbiamo visto, è possibile giungere a una vera comprensio­
ne dell'organizzazione del comportamento usando i concetti
di "informazione", "programma" e "piano", che sono anche
quelli che meglio descrivono le operazioni di una macchina

170
(vedi Miller, Gallanter e Pribram, 1960). Ma, ancora una vol­
ta, si tratta di decidere se il processo di elaborazione delle
informazioni debba essere concepito in termini mentali o
materiali.
Di certo i filosofi e gli psicologi di orientamento non com­
portamentista obietteranno che il comportamento non ha
nulla a che fare con la mente, e che quindi qualsiasi argo­
mentazione concernente i fenomeni mentali, derivata dalla
riflessione sul comportamento deve considerarsi spuria. Il
vero oggetto della riflessione filosofica o psicologica dovreb­
be essere, secondo costoro, "il fenomeno stesso esistenzial­
mente sperimentato", ma poco può essere fatto con questo
tipo di esperienze, eccetto che tentare descrizioni comporta­
mentistiche strutturalmente organizzate. Capita così che un
filosofo esistenzialista come Maurice Merleau-Ponty abbia
scritto un libro, intitolato La struttura del comportamento
(vedi Merleau-Ponty, 1 942), che somiglia sorprendentemente,
tanto nello spirito quanto nel contenuto, a Plans and the
Structure of Behavior (Miller, Gallanter e Pribram, 1 960; ma
vedi anche Pribram, 1 965), che ha tuttavia il vantaggio di as­
sumere in modo esplicito un punto di vista comportamenti­
sta attento ai processi di elaborazione delle informazioni.
Non sto dicendo che il punto di vista comportamentista sulla
mente sia del tutto equivalente a quello fenomenico-esisten­
zialista: mentre il primo è una forma di ricerca delle cause,
il secondo assume a proprio oggetto la struttura informativa
ragionevolmente (significativamente) organizzata (vedi Pri­
bram, 1 978). È un altro l'aspetto che mi preme mettere in
evidenza: non è possibile ricondurre a una posizione chiara­
mente mentalista o chiaramente materialista né il comporta­
mentismo né la fenomenologia. I comportamentisti, nella lo­
ro ricerca delle cause, fanno continuamente riferimento ai
concetti di rinforzo, impulso, incentivo e ad altre "forze" dal­
la indubbia connotazione newtoniana. Gli esistenzialisti, nel
loro sforzo di comprendere la "mente", ricorrono alla stessa
nozione di struttura utilizzata da antropologi e linguisti nel­
lo studio di altre organizzazioni complesse. E i concetti
strutturali sono molto simili a quelli della fisica moderna, in
cui l'origine delle particelle elementari è ricondotta alle inte­
razioni e alle relazioni reciproche di processi diversi. Il com­
portamentismo e l'esistenzialismo fenomenologico non pos­
sono essere caratterizzati univocamente in senso mentalisti­
co o materialistico se non solo sulla base dei pregiudizi e
delle idiosincrasie di ognuno.
Questi risultati scientifici, su cui forse mi sono troppo di­
lungato, hanno conseguenze non trascurabili anche sul piano

171
dell'antologia. Se il problema mente-cervello è basato su una
distinzione fra mentale e materiale che a un certo livello di
analisi non risulta più sostenibile, è allora del tutto verosi­
mile che l'intero problema debba essere ripensato.
Una volta adottato il punto di vista secondo cui la dicoto­
mia mentale-materiale trova diritto di cittadinanza soltanto
nel mondo euclideo-newtoniano delle apparenze, apprestia­
moci a passare in rassegna alcune delle più recenti proposte
specifiche avanzate relativamente a questo problema.

L'importanza dell'esperienza e l'esperienza della materia

In questo mondo di apparenze non vi è nulla di più pro­


blematico della distinzione fra le esperienze mentali umane
e ciò che viene sperimentato. Nella terminologia di Franz C.
Brentano ( 1 874), si tratta del problema dell' "intenzionalità"
o dell'inesistenza intenzionale, problema che ha originato in­
numerevoli dispute e argomentazioni concernenti la natura
della realtà (vedi Crisholm, 1 960) e che può essere così for­
mulato: le mie percezioni ed esperienze fenomeniche sono
"reali", oppure è il loro contenuto a costituire il mondo "rea­
le" ? Le mie esperienze fenomeniche sono mentali, ma il mon­
do mi appare come se fosse materiale. Posso allora ricono­
scere il primato dell'esperienza e sposare la tesi fenomenolo­
gica, oppure posso ricondurre l'esperienza al suo contenuto
e diventare un materialista. È aperta tuttavia anche una ter­
za possibilità, e precisamente quella di rifiutarsi di attribui­
re un primato all'una o all'altra parte e riconoscere franca­
mente la natura duale della realtà.
Tanto il materialismo quanto la fenomenologia si trovano
chiaramente in difficoltà nel confutare la posizione opposta.
Entrambi sono internamente coerenti, almeno per quanto ri­
guarda la rivendicazione del primato. Dopo tutto, ciò che è
veramente fondamentale è l'esperienza, e l'empirismo non
ha nulla da obiettare a un mondo reale materiale. Poiché ci
sembra di esperire effettivamente qualcosa, potrebbero esse­
re gli oggetti esperiti i responsabili dell'organizzazione delle
nostre esperienze.
Tuttavia, se accettassimo questa posizione moderata rela­
tiva alla mente e alla materia, non potremmo fare a meno di
scontrarci con una quantità di problemi dualistici. È l'espe­
rienza di chi percepisce a organizzare "realmente" il conte­
nuto della percezione? E quest'esperienza è a sua volta orga­
nizzata dalla funzione cerebrale, dal segnale sensorio e dalle
diverse forme di energia che stimolano gli organi di senso ?

1 72
Se si potesse descrivere in modo completo la funzione cere­
brale di un organismo, avremmo al tempo stesso dato una de­
scrizione della sua esperienza? E se così fosse, non sarebbe
sufficiente dare una descrizione materiale del cervello, dei
sensi e dell'energia? La descrizione dell'esperienza aggiunge
qualcosa alla descrizione materiale ? E, viceversa, come può
la descrizione materiale del cervello, dei sensi e dell'energia
aggiungere qualcosa alla nostra esperienza già così ricca ?

Superare il dualismo senza rinnegarlo

Io credo che oggi sia possibile dare una risposta a questi


interrogativi, che fino a pochi anni fa sembravano destinati a
rimanere insoddisfatti. A tale scopo bisogna dipanare tutte le
confusioni concettuali, mostrando dove e in che misura cia­
scuna delle teorie concorrenti esprima una parte di verità.
L'analisi semantica rivela come la descrizione del cervel­
lo, dei sensi e dell'energia derivi dalla scomposizione dell'e­
sperienza. Si giunge così in un primo momento a componenti
esperienziali di tipo organico e ambientale (componenti biolo­
giche da un lato e fisiche o sociali dall'altro), che sono poi ul­
teriormente analizzate in sottocomponenti fino a raggiungere
il livello quantistico-nucleare. Questa procedura analitica te­
sa all'esplorazione dall'alto verso il basso di una gerarchia di
sistemi è il metodo usuale della scienza descrittiva. All'inter­
no di ogni singolo sistema si ricercano le relazioni di causa ed
effetto, adducendo principi statistici e invocando leggi proba­
bilistiche per spiegare eventuali discrepanze. Queste proce­
dure sono ormai del tutto naturali per gli scienziati.
La teoria del linguaggio mentale muove invece da un altro
tipo di considerazioni. Anche in questo caso i termini impie­
gati hanno la loro origine nell'esperienza, ma quest'ultima è
ora sottoposta a un processo di validazione consensuale. Si
confrontano esperienze sensibili di natura diversa in soggetti
diversi. Pensiamo ad esempio a una bambina cui sia sempre
stato permesso di dire "mucca" ogniqualvolta le veniva indi­
cato un animale di una certa dimensione: incontrando ora un
cavallo, la madre decide che è giunto il momento di essere
più precisi, e quest'esperienza (la vista di un cavallo) si diffe­
renzia correttamente dalle precedenti esperienze relative alle
mucche. È attraverso quest'esplorazione dal basso verso l'al­
to di una gerarchia di sistemi che ha origine la teoria del lin­
guaggio mentale.
Altrove ho esposto in ogni particolare le differenze meto­
dologiche derivanti da questa posizione scientifica "rivolta

173
verso l'alto" (vedi Pribram, 1965). È un punto di vista che
travalica i limiti della psicologia: le teorie della relatività,
speciale e generale, enunciate da Albert Einstein ne costitui­
scono un esempio, rivolte come sono all'indagine di un'orga­
nizzazione gerarchica ascendente di sistemi fisici. Questo ti­
po di relativismo è applicabile anche alle concettualizzazioni
mentali, oltre che a quelle fisiche, come hanno dimostrato
esistenzialisti e fenomenologi nel loro tentativo di trame
principi coerenti. Tale tentativo avrà successo, credo, solo
nella misura in cui saprà dotarsi di tecniche di analisi strut­
turale, la cui complessità richiede tuttavia un impegno non
indifferente. Se sapranno vincere la propria avversione per i
calcolatori e gli altri strumenti solitamente usati dagli inge­
gneri, i filosofi e gli psicologi di orientamento fenomenologi­
co ed esistenziale troveranno le tecniche dell'analisi struttu­
rale estremamente utili.
Il dualismo sembra quindi una posizione coerente e per­
fettamente sostenibile finché, almeno, si resta nel dominio
ordinario delle apparenze e delle nostre esperienze quotidia­
ne. Queste esperienze, come abbiamo visto, originano due di­
versi tipi di concettualizzazione: l'uno scandisce dall'alto
verso il basso una gerarchia di sistemi, scomponendo l'espe­
rienza nei suoi elementi e stabilendo fra questi relazioni ge­
rarchiche causali; l'altro opera invece dal basso verso l'alto,
confrontando le esperienze di ciascuno con quelle degli altri
organismi per attenerne validazione consensuale.
Due immagini speculari (due isomeri ottici, potremmo di­
re) trovano comune fondamento nelle stesse esperienze: di
queste immagini una è detta mentale e l'altra materiale. Pro­
prio come gli isomeri ottici in chimica hanno diverse pro­
prietà biologiche, pur avendo identici elementi e identica
struttura, così la concettualizzazione mentale e quella mate­
riale, indubitabilmente diverse, originano dalle medesime
esperienze.
Il fondamento del dualismo è tutto qui: una duplicità di
procedure concettuali cui in natura non corrisponde alcuna
duplicità reale. Vi sono bensì dualità più primitive e fonda­
mentali, come abbiamo avuto modo di vedere, ma non è a
queste che fanno riferimento i sostenitori del dualismo.

Il realismo costruttivo: un monismo pluralistico

La maggior parte delle posizioni teoriche che si oppongo­


no al dualismo possono essere catalogate sotto la voce "mo­
nismo". Il monismo afferma che gli elementi fondamentali

174
dell'universo non sono né mentali né materiali, ma neutri. Il
processo di smaterializzazione che, al di là di un certo livello
di analisi, ha luogo nella fisica moderna, trova il suo corri­
spettivo nel "monismo neutrale" (vedi ad esempio J ames,
1 909, o Russell, 1 948). Fra i filosofi di orientamento critico
come Herbert Feigl, coloro che più erano portati per l'analisi
linguistica aderirono a questa forma di monismo, sostenendo
che il "mentale" e il "materiale" sono semplicemente modi di­
versi per riferirsi alla stessa classe di processi. Così, "mente"
e "cervello" sono termini appartenenti a sistemi linguistici di­
versi, usati per parlare di aspetti diversi di uno stesso feno­
meno. Il problema è allora quello del reperimento di un lin­
guaggio neutrale in grado di descrivere il fenomeno senza
connotazioni né mentali né materiali.
È mia opinione che questa teoria degli "aspetti duali" deb­
ba essere portata ancora più in là: ciascuno di questi aspetti
non solo può essere linguisticamente caratterizzato, ma è in
realtà una diversa realizzazione di una medesima struttura
informativa (vedi Pribram, 1 97 1 ). Il punto di vista del filosofo
critico va in un certo senso rovesciato: la struttura informati­
va, ovvero l'organizzazione entropica negativa dell'energia, è
l'elemento "neutro" che costituisce l'universo. È una struttu­
ra che può essere pensata sì in termini linguistici, ma anche
matematici, musicali, culturali: è ciò che Popper chiama "ter­
zo mondo" (al proposito vedi Eccles, 1 973). Un unico sostrato
fondamentale dà luogo a realizzazioni duali o, meglio, multi­
ple: una medesima sinfonia può essere realizzata nella forma
di un'esecuzione concertistica, come notazione musicale sul­
lo spartito o nei microsolchi di un disco ad alta fedeltà.
I termini "mente" e "cervello" rappresentano due classi di
realizzazioni diverse, ognuna delle quali corrisponde a un
modo diverso di considerare la gerarchia concettuale dei si­
stemi realizzati. I fenomeni mentali sono altrettanto reali de­
gli oggetti materiali, ed entrambi sono concrezioni di struttu­
re sottostanti che la scienza ha il compito di descrivere in un
linguaggio per quanto possibile neutrale, non connotato ri­
spetto all'appartenenza di tali strutture all'una o all'altra
classe. È un realismo costruttivo i cui rapporti con il reali­
smo critico, il pragmatismo e il razionalismo neo-kantiano so­
no stati chiariti altrove (vedi Pribram, 1 977a, 1977b).

La mente: struttura emergente e protagonista

Quanto siamo venuti dicendo costituisce una teoria coe­


rente in grado di giustificare le posizioni dualiste e, al tempo

175
stesso, di trascenderle mostrando come queste vadano ricon­
dotte a differenze procedurali che realizzano separatamente
una struttura comune. Possiamo descrivere quest'ultima, a
sua volta, in modo neutro usando termini derivati dalla ma­
tematica o dalla teoria dell'elaborazione delle informazioni,
termini che non sono caratterizzabili in modo immediato in
senso mentale o materiale.
Questa teoria è considerevolmente diversa dalle posizioni
dualistiche più classiche secondo cui vi è una netta separa­
zione fra il mentale e il materiale, posizioni cui va ricono­
sciuto il merito di porre problemi e formulare domande che
il realismo costruttivo di solito ignora. Non mi sento tuttavia
di condividere le soluzioni (o meglio, le non-soluzioni) propo­
ste da altri tipi di dualismo, cui cercherò di offrire un'alter­
nativa nell'ultima sezione di questo articolo. Ma esaminiamo
dapprima una proposta teorica che affonda le proprie radici,
in senso generale, nel dualismo classico e che è stata formu­
lata da Karl R. Popper e John C. Eccles in un libro intitolato
L 'io e il suo cervello (Popper e Eccles, 1 977).
L'organizzazione del libro rispecchia le posi;zioni dei due
autori: le due sezioni principali sono dedicate alla filosofia
della mente (Popper) e alla neurofisiologia del cervello (Be­
cles), mentre una terza ci fa assistere a uno scambio di opi­
nioni in cui l 'attenzione riservata al problema della mente va
a scapito di quella che il problema del cervello meriterebbe.
Una disparità di trattamento che si accorda con la filosofia
degli autori, secondo cui la mente, gentilmente, "con una ca­
rezza cognitiva" (come una volta mi ha detto Eccles), influen­
za e condiziona la funzione cerebrale. Popper non è così deli­
cato riguardo alla funzione della mente e io, devo dire, con­
divido la sua posizione più esplicita: in fondo, non vi è nulla
di gentile nella commozione suscitata dalla musica o nelle
emozioni provocate dalla rabbia di una persona amata. Il to­
no in certa misura artificiale che permea questa parte del li­
bro è probabilmente dovuto al disaccordo fra Eccles e Pop­
per e al tentativo di risolverlo in modo "gentile" . Purtroppo,
le opinioni espresse perdono così molta della loro forza d'im­
patto.
Gran parte della suggestione esercitata dall' /o e il suo
cervello deriva dal fatto stesso di essere un libro. L'interazio­
nismo di Popper è basato sull'idea che i prodotti della men­
te, i suoi contenuti, si rendano manifesti nel mondo fisico e
che da qui, attraverso i sensi, giungano sino al cervello. I li­
bri sono un esempio tipico di realizzazione fisica dei conte­
nuti mentali, e L 'io e il suo cervello mostra una straordinaria
corrispondenza fra forma e contenuto: quella, il mezzo, non

176
è che un caso particolare dell'idea generale espressa da
questo.
Questo è il vero punto di disaccordo fra Popper ed Be­
cles: per il primo i libri e gli altri contenuti della mente co­
stituiscono il mondo 3 che interagisce con il cervello (che è
parte del mondo l, quello fisico) attraverso i sensi: la modali­
tà dell'interazione non potrebbe essere più chiara. Per Be­
cles, invece, la mente ha il compito di selezionare il segnale
sensorio e organizzare le funzioni della corteccia associativa,
specialmente nell'emisfero dominante, responsabile del lin­
guaggio:
In questi stadi successivi le differenti modalità sensitive proiet­
tano alle aree comuni, le aree polimodali. In tali aree avviene
l'elaborazione [ . ] dell'informazione più svariata e ad ampio
. .

raggio. Possiamo chiederci come avvenga che questa informa­


zione sia selezionata e raccolta [ . . ] In risposta a questa domanta
.

si è proposto che la mente auto-cosciente agisca tramite l'intero


cervello in modo selettivo e unificante [. .] [in] analogia con un
.

raggio di luce. Forse si istituirebbe un'analogia più appropriata


con qualche apparato multiplo di scansione e di esplorazione
che legge e sceglie [ . ] queste componenti selezionate. (Ibid.,
. .

p. 440)

La mente esercita un'azione diretta sul cervello per Be­


cles, e indiretta, attraverso il mondo 3, per Popper. Per que­
st'ultimo la mente è una struttura emergente, e il problema
è allora quello di spiegarne l'origine a partire dal suo sostra­
to, spiegarne cioè "l'azione causale esercitata dai livelli supe­
riori su quelli inferiori" . Popper giunge così alla conclusione
che
l'emergenza di livelli o strati gerarchici e di un'interazione fra
loro dipenda da un indeterminismo fondamentale dell'universo
fisico. Ogni livello è aperto a influenze causali provenienti dai
livelli inferiori e da quelli superiori. (Ibid., p. 5 1 )

Per Bccles la mente è un'entità data che organizza l a fun­


zione cerebrale ed è a sua volta organizzata dal mondo 3 at­
traverso l'azione dei sensi. La mente viene logicamente tanto
prima quanto dopo il cervello, ma ha bisogno di un partico­
lare tipo di corteccia cerebrale per poter effettuare il colle­
gamento.
È probabilmente più facile cominciare esaminando la po­
sizione di Popper, ma come vedremo nemmeno la posizione
di Bccles è priva di meriti. Popper ha suddiviso ciò che di so­
lito chiamiamo "mentale" in due parti distinte: il mondo 2 e
il mondo 3. Il mondo 2 è l'insieme degli stati mentali, mentre

1 77
il mondo 3 è composto dalle manifestazioni del mondo 2: en­
trambi emergono dall'interazione con l'ambiente della com­
plessa organizzazione cerebrale.
Questa suddivisione e l 'interazionismo che ne segue mi
sembrano inutilmente complicati. A mio parere, è meglio co­
minciare dall'idea che gli stati mentali siano il risultato del­
l'interazione di un organismo con l'ambiente: in particolare,
l'interazione che bisogna considerare è quella fra il cervello
di un organismo e l'ambiente sociale. Si tratta di una posizio­
ne che va oltre il comportamentismo (anche se certamente
può essere in qualche modo ricondotta a esso), perché "lascia
entrare il fantasma nella macchina", riconosce cioè agli stati
mentali lo stesso grado di realtà della macchina stessa (vedi a
questo proposito la discussione delle posizioni di Gilbert Ry­
le, ibid. , pp. 1 3 1 - 1 36). Immagini, esperienze, intenzioni, piani,
aspettative, gioie e dolori non sono estranei al mondo "reale",
ma ne sono manifestazioni primarie (vedi Miller, Gallanter e
Pribram, 1 960). Dal punto di vista del fenomenologo o del­
l'empirista, tuttavia, questi stati mentali non sono manifesta­
zioni né primarie né uniche, e correttamente Eccles e Popper,
in quanto dualisti, lamentano il primato ingiustamente confe­
rito a ciò che è soggettivo. Ma la loro critica è spesso confusa,
specialmente per quanto riguarda la teoria interazionista del­
la causalità. Così ad esempio Popper parla dell'origine men­
tale delle illusioni, come nel caso del "conseguimento di un
desiderio" (Eccles e Popper, 1 977, p. 624); può forse sorpren­
dere che la posizione di Sigmund Freud al riguardo, secondo
cui il conseguimento di un desiderio e le sue illusioni deriva­
no da processi cerebrali molto specifici (vedi Freud, 1 895), sia
simile alla teoria popperiana dell'emergenza della mente dal­
la funzionalità del cervello (vedi Pribram e Gill, 1 976).
Popper passa in rassegna con grande chiarezza le prove
dell'esistenza di una realtà prima e al di là dei nostri sensi
(Eccles e Popper, 1 977, pp. 1 1 7- 1 2 1), e io concordo sia con lui
sia con uno psicologo come James J. Gibson che vi siano degli
aspetti invarianti nella relazione fra un organismo e il suo
ambiente (vedi anche Gibson, 1 950). Ma, secondo me, l 'intera­
zione fra organismo e ambiente non pregiudica l'emergere
delle proprietà mentali né dal processo di evoluzione biologi­
ca, che potrebbe aver prodotto una nuova organizzazione del
cervello risultante in un certo numero di capacità linguisti­
che, né dal processo di evoluzione culturale, cui potrebbero
essere ricondotte le nuove modalità linguistiche come la
scrittura e la stampa (vedi Pribram, 1 976a).
Popper, al contrario, è interessato all'interazione fra il
mentale e il materiale, ma la sua critica del materialismo sul-

178
la base delle prospettive aperte dalla fisica moderna non
sembra consapevole del fatto che tali prospettive non sono
prive di conseguenze nemmeno per quelle forme di dualismo
legate a una rigida separazione fra mente e materia. Infatti,
è assai problematico caratterizzare come materiali le forze
fisiche, le onde elettromagnetiche che si propagano nel vuo­
to, o i quark, con il loro fascino (charm) e i loro sapori (fla­
vors) . Abbiamo già visto che, secondo Wigner ( 1 969), la fisica
moderna non ha più per oggetto "relazioni fra oggetti osser­
vabili, ma relazioni fra osservazioni diverse": lo stesso non
vale forse anche per la moderna psicologia scientifica ?
Vi è naturalmente una distinzione fra l'atto dell'osserva­
zione e l'oggetto osservato, non lo nego, e questa distinzione
costituisce il problema dell'intenzionalità che tanto è stato
discusso, ad esempio, da John R. Searle; ma essa non per­
mette più di distinguere altrettanto chiaramente le scienze
fisiche dalle scienze psicologiche. Non si tratta di negare la
realtà del mondo materiale così come appare agli occhi della
meccanica newtoniana o della psicologia percettiva di Gib­
son, né di screditare ogni distinzione fra queste apparenze e
altre realtà o fra la realtà fisica e quella psicologica: ciò che
voglio dire è che queste realtà sono costruite, spesso in mo­
do lento e faticoso. L'apparenza percettiva è solo un tipo di
realtà, dietro alla quale vengono le altre.
Me ne sto seduto quietamente, scrivendo questo articolo.
Ma mi sto anche muovendo lungo una traiettoria complessa
attorno all'asse terrestre e al sole, all'interno della nostra ga­
lassia. Entrambe queste asserzioni sono vere: l'una esprime
la mia realtà percettiva, ovvero la realtà dell'apparenza, e
l'altra la mia realtà fisica, così come è stata determinata at­
traverso le osservazioni e i calcoli di innumerevoli scienziati.
Quale delle due realtà è "oggettiva" e quale "soggettiva" ?
Quale è fondata unicamente sulle interazioni di oggetti mate­
riali osservabili e quale su operazioni mentali come il calco­
lo e l'osservazione ?
Il mondo 3 di Popper costituisce un tentativo di risponde­
re a queste domande, ma non è un tentativo sufficientemente
audace. Ciò che è in questione non è la contrapposizione del
mentale al materiale, ma la costruzione di due tipi di realtà,
uno dei quali è materiale mentre l'altro è esperito come men­
tale.
Il modo in cui Popper e Eccles descrivono l'interazione
della mente e del cervello è molto vicino a un uso colloquiale
del concetto di "forza" (al proposito vedi Pribram, 1 976b).
Non è insolita l'affermazione che la forza di gravità ci attira
verso la terra. Tuttavia, il concetto di gravità deriva dallo

179
studio delle interazioni delle masse in movimento ed è, per
definizione, un concetto connotato in senso interattivo. La
gravità non "esisterebbe" se non ci fosse alcun "noi" a essere
attratto verso la terra. Siamo noi a reificare la forza di gravi­
tà e a pensare che essa ci attragga, e l'apparenza sembra cer­
to confermare questo modo di concepire le forze fisiche, se­
condo cui esse sono "prodotte" da un corpo e agiscono su un
altro. In questo stesso spirito Popper sviluppa la sua tesi che
il mondo 3 sia "prodotto" dal mondo 2.
La divisione fra il mondo 2 e il mondo 3 costituisce un'u­
tile analogia per ciò che io ho in mente parlando della strut­
tura e della sua realizzazione. In un certo senso, ciò che io
chiamo "struttura" è ciò che Popper ed Eccles chiamano
"mente", con la differenza, tuttavia, che il concetto di strut­
tura è derivato dall'interazione dell'organismo con il suo am­
biente. La "struttura" può quindi essere inerente anche al­
l'ambiente materiale o fisico (così ad esempio tanto la stam­
pa di uno spartito quanto un nastro magnetico possono in­
carnare la medesima struttura di una sinfonia). Si può quin­
di assimilare la mia posizione a quella di Whitehead, Sperry
o Wigner, facendone una sorta di panpsichismo, seppure al
prezzo di qualche forzatura. Ma io non sono disposto ad arri­
vare così lontano: preferisco piuttosto affermare che la
struttura trascende tanto la realtà fisica quanto quella men­
tale, e che in entrambe si trova realizzata.
Vi è quindi un'importante differenza fra il realismo co­
struttivo da me proposto e l'interazionismo dualista (triadi­
co) sostenuto da Eccles e Popper. In uno schema costruttivo
è possibile assegnare un ruolo preciso al meccanismo cere­
brale: il processo percettivo (tanto sul versante sensorio
quanto su quello cerebrale) che è alla base della costruzione
della realtà newtoniana delle apparenze; i meccanismi cere­
brali cognitivi o "intrinseci" (termine che preferisco a quello
di liaison usato da Eccles) necessari per la formulazione del­
la fisica nucleare e quantistica; i procedimenti innati alla ba­
se della pianificazione e dell'intenzionalità; l'emergere dei
sentimenti dall'organizzazione neurochimica del cervello,
tutto ciò può essere fatto rientrare in modo preciso nello
schema costruttivo (vedi Pribram, 1976b). Non c'è alcuna
mente globale le cui interazioni con il cervello globale siano
circondate da un alone di mistero. Certo, le nostre conoscen­
ze sono ancora largamente incomplete, bisogna ad esempio
spiegare l'emergere di certi fenomeni da un sostrato da cui
differiscono così radicalmente, ma si tratta ormai di una
questione scientifica che può essere affrontata nel quadro
più ampio dell'indagine filosofica.

1 80
Le microstrutture neurali

È possibile dare un esempio della precisione scientifica


con cui possono essere posti e trattati questi problemi. L'e­
sempio risulta particolarmente appropriato perché Eccles lo
espone e lo critica nella sua parte del libro, e ha a che fare
con la codifica delle informazioni sensorie nella corteccia ce­
rebrale. Eccles pone il problema nel modo seguente:
quali eventi neurali sono in collegamento reciproco con la men­
te autocosciente ? [ .] Noi rifiutiamo l'ipotesi che il fattore sia il
..

potenziale di campo generato dagli eventi neurali. Il postulato


di partenza della scuola gestaltistica era basato sulla scoperta
che un forte input visivo, come un grande cerchio illuminato,
desse luogo ad un certo campo di potenziale topologicamente
equivalente nella corteccia visiva, addirittura ad un circolo
chiuso! Non è necessario prendere ulteriormente in considera­
zione questa rozza ipotesi. Tuttavia Pribram (1971) ne ha di re­
cente riproposto una visione più raffinata con il suo postulato
dei campi micropotenziali. Si assume che questi campi fornisca­
no una risposta corticale più fine rispetto alla produzione di im­
pulsi da parte dei neuroni. Tuttavia, questa teoria del potenzia­
le di campo comporta un'enorme perdita di informazione per­
ché centinaia di migliaia di neuroni contribuirebbero alla for­
mazione di un campo di micropotenziale che agisce attravero
una piccola zona della corteccia cerebrale. Tuttavia, la specifici­
tà dell'attività neuronale a grana fine andrebbe dissipata nella
realizzazione di questo compito a bassissimo rendimento consi­
stente nella produzione di un minuscolo potenziale elettrico me­
diante il flusso di corrente attraverso la resistenza ohmica for­
nita dal medium extracellulare. A complicare le cose, inoltre,
c'è il fatto che per leggere selettivamente i potenziali in tutte le
loro disposizioni strutturali sarebbe necessaria la presenza di
un qualche homunculus! Il feedback ipotizzato dai campi di mi­
cropotenziale sulle frequenze di scarica dei neuroni sarebbe di
entità trascurabile data l'estrema debolezza delle correnti.
Dobbiamo pensare che tutte le interazioni neuronali discrete
che si verificano negli schemi spazio-temporali abbiano un so­
stanziale significato funzionale, altrimenti ci sarebbero grosse
perdite di informazione. In questo contesto dobbiamo conside­
rare l'organizzazione dei neuroni corticali in unità anatomiche
e fisiologiche, i cosiddetti moduli [ ..] In primo luogo è inconce­
.

pibile che la mente autocosciente sia in collegamento con singo­


le cellule nervose o singole fibre nervose [. .] Queste unità neu­
.

ronali, prese a sé, sono troppo poco affidabili e inadeguate. In


base alla nostra attuale comprensione del modo di funzionare
del meccanismo neuronale particolare rilievo spetta agli insie­
mi di neuroni (molte centinaia) che agiscono in una certa dispo­
sizione a struttura collusiva. Solo questi tipi di aggregati posso­
no dare garanzia di affidabilità e di efficacia [. .] i moduli della
.

corteccia cerebrale [ .. ] In una certa misura il modulo possiede


.

181
una vita collettiva, assieme almeno ad altri diecimila neuroni di
tipi diversi, la cui organizzazione è basata su eccitazione e inibi­
zione a feedforward e a feedback. Finora sappiamo poco della
vita dinamica interna di un modulo, ma possiamo congetturare
che con le sue proprietà fortemente attive e dotate di organizza­
zione, esso potrebbe essere una componente del mondo fisico
(mondo l) che è aperto alla interazione reciproca con quello del­
la mente autocosciente (mondo 2). Possiamo inoltre proporre
che non tutti i moduli della corteccia cerebrale abbiano questa
proprietà trascendente di essere "aperti" al mondo 2, e quindi
di essere le componenti dell'interfaccia legate al mondo l. Per
definizione questa "apertura" varrebbe soltanto per i moduli del
cervello di collegamento, e per di più solo nel caso in cui essi
raggiungano il giusto livello di attività. Ciascun modulo può es­
sere paragonato a un'unità radio rice-trasmittente [ ... ] il modulo
[può] essere considerato come un microcircuito elettrico inte­
grato, solo enormemente più complesso. (Eccles e Popper, 1971,
pp. 443-44)

Nonostante citi il mio I linguaggi del cervello (Pribram,


1 977b), Eccles ne ignora, nell'esposizione sopra riportata, in­
tere sezioni dedicate a ciò che io chiamo i "moduli logici": la
struttura di tali moduli vi è presentata più particolareggiata­
mente di quanto faccia Eccles nell'Io e il suo cervello o in al­
cuna altra sua opera. Per di più, il modo d'operazione di que­
sti moduli è stato simulato su calcolatore a più riprese nel
mio laboratorio (vedi Spinelli, 1 966; Phelps, 1 974; Bridge­
man, 1 97 1 ; Pribram, Nuwer e Baron, 1 974).
Non basta. Eccles mi critica, nel primo paragrafo citato,
perché "il feedback ipotizzato dai campi di micropotenziale
sulle frequenze di scarica dei neuroni sarebbe di entità tra­
scurabile data l'estrema debolezza delle correnti". Nel secon­
do paragrafo egli usa queste stesse correnti (che nei Linguag­
gi del cervello sono chiaramente definite come le depolariz­
zazioni e specialmente le iperpolarizzazioni che hanno luogo
in corrispondenza delle sinapsi all'interno dei campi dendri­
tici) per dare rilievo "agli insiemi di neuroni (molte centi­
naia) che agiscono in una certa disposizione a struttura col­
lusiva [ . .] assieme almeno ad altri diecimila neuroni di tipi
.

diversi, la cui organizzazione è basata su eccitazione e inibi­


zione a feedforward e a feedback". All'origine dell'eccitazione
e dell'inibizione sono dei neuroni "a circuito locale" e privi
di as soni (secondo tipo di Golgi), che dipendono da quegli
stessi micropotenziali che Eccles ha criticato nel primo pa­
ragrafo (vedi anche Rakic, 1976). Sta diventando sempre più
chiaro che nel cervello l'elaborazione all'interno di circuiti
neuronali locali avviene per mezzo di comunicazioni elettro­
toniche e chimiche locali che caratterizzano le interazioni

1 82
dendrodendritiche, e non mediante l'action potential mode
così caratteristico dei lunghi cammini sensori e motori (vedi
Schmitt, Parvati e Smith, 1 976).
Shepherd (1 976) e Rall (1 970) hanno presentato numerose
risultanze neurofisiologiche relative all'organizzazione fun­
zionale di questi microcircuiti locali, ed è su tali risultanze
che si fonda la mia proposta delle microstrutture. Sembra
dunque non sussistere alcuna reale differenza fra i microcir­
cuiti di cui parla Eccles e le mie microstrutture, se non per
un punto: in Eccles manca ogni chiara specificazione delle
caratteristiche di risposta graduata della configurazione di
potenziali elettrici che produce la disposizione funzionale al­
l' interno delle microstrutture (o microcircuiti), ed è per que­
sto motivo che Eccles si accanisce nell'idea che "l'io e la sua
mente" usino una "radio ricetrasmittente" (i moduli cere­
brali).
Prima di passare ad argomenti di altro tipo chiediamoci
quale sia il contributo della neurofisiologia al chiarimento
del problema mente-corpo. La mia proposta è che la micro­
struttura neuronale, la microcircuiteria, sia una codifica del­
l'attività periodica, e che la trasduzione sensoria dell'energia
ambientale risulti in configurazione di attivazione neuronale
di tipo quantico. Come si vede, non siamo lontani dal sugge­
rimento di Eccles secondo cui i microcircuiti si comportano
in modo molto simile a radio ricetrasmittenti: queste ultime
operano su informazioni periodiche, mentre i primi sono
predisposti a trasmettere e ricevere codici spettrali.
Le prime risultanze in favore della codifica neurale nel
dominio quantico furono presentate in I linguaggi del cervel­
lo (vedi Pribram, 1 97 1 ), e da allora se ne sono aggiunte molte
altre. G.S. Ohm e H. von Helmholtz furono i primi a suggeri­
re che il sistema uditivo si comportasse come un analizzato­
re spettrale (vedi Ohm, 1 843 e von Helmholtz, 1 863), e G. von
Bekesi ha mostrato che la pelle e il sistema somato-sensorio
si comportano, a loro volta, in modo simile (vedi von Bekesi,
1 957). Ma il caso più chiaro e inconfutabile è quello del siste­
ma visivo. Sono stati accumulati innumerevoli risultati a so­
stegno dell'ipotesi secondo cui l'elaborazione visivo-spaziale
è condotta nel dominio spettrale: l'occhio analizza le fluttua­
zioni periodiche dell'intensità della luce nello spazio (vedi
Campbell e Robson, 1968; Movshon, Thompson e Tolhurst,
1 978a, 1 978b, 1 978c; De Valois, Albright e Thorell, 1 978a,
1 978b; Pribram, Lassonde e Ptito, 1 98 1 ).
In ingegneria, una tale elaborazione nel dominio spettrale
è detta "elaborazione dell'informazione ottica" (se effettuata
per mezzo di un sistema di lenti), "elaborazione dell'immagi-

183
ne" (se si usa un calcolatore) o "olografia" (nel caso della me­
morizzazione su pellicola fotografica). Quest'ultimo caso è
quello che per primo ha richiamato la mia attenzione sugli at­
tributi del dominio spettrale e sulla loro connessione con il
problema mente-cervello (vedi Pribram, 1966). In un ologram­
ma (la pellicola fotografica su cui è memorizzata la micro­
struttura dei mutamenti periodici della luce e dell'oscurità
nello spazio) le informazioni relative alle forme spaziali sono
distribuite. Ciò può aiutare a spiegare un fenomeno che costi­
tuisce uno dei più difficili problemi della neurologia, e preci­
samente il fatto che le lesioni locali del cervello non cancella­
no i ricordi in modo selettivo. Analogamente, in un ologram­
ma un danno limitato non ha ripercussioni sull'immagine me­
morizzata perché le informazioni sono conservate in modo di­
stribuito.
Le informazioni sono sparse per l'intera estensione della
pellicola olografica, ma in modo così preciso da poter essere
raccolte nuovamente eseguendo la procedura inversa. È così
relativamente semplice costruire o ricostruire l'immagine a
partire dal dominio spettrale memorizzato usando la stessa
procedura utilizzata per la codifica dell'immagine. In breve,
contrariamente a quanto afferma Eccles, non vi è alcun biso­
gno nella mia teoria di un "homunculus" che legga le infor­
mazioni memorizzate, e ciò proprio perché il cervello codifi­
ca le informazioni nel dominio spettrale. Tanto uno stimolo
sensorio quanto una fonte centrale (come quelle che secondo
Popper sono responsabili delle aspettative di dolore e piacere
e del meccanismo dell'attenzione) sono in grado di attivare la
memoria spettralmente codificata per produrre un'immagine
(vedi Pribram e McGuinness, 1 975). Non c'e alcuna "mente
autocosciente" che se ne sta lì, come suggerisce Eccles, a con­
trollare le funzioni della corteccia associativa. Io credo, con
Popper, che sia meglio concepire la mente come una proprie­
tà emergente da una specifica organizzazione cerebrale.
Il meccanismo che abbiamo descritto non è privo di conse­
guenze per il problema mente-cervello. Infatti, si noti che la
memorizzazione ha luogo nel dominio spettrale, e che non si
tratta di memorizzare immagini in quanto tali, la cui rappre­
sentazione sia in qualche modo "localizzata" nel cervello. Le
immagini e gli eventi mentali emergono e sono costruiti gra­
zie all'azione della circuiteria locale del cervello e con l'aiuto,
di solito, di informazioni sensorie provenienti dall'ambiente.
Le immagini sono il fantasma risultante dalle operazioni del­
la macchina (il cervello).
Un meccanismo simile, relativo ai processi motori del cer­
vello, può spiegare anche il comportamento intenzionale e

1 84
pianificato: risultanze sperimentali in questo senso sono pre­
sentate in I linguaggi del cervello e altrove (vedi Pribram,
1 97 1 e 1976; Pribram, Lassonde e Ptito 1 98 1 ). Gran parte del
mio lavoro di ricerca è stata finalizzata a dimostrare che il
cervello è attivo, e non passivo, nelle sue interazioni con
l'ambiente, chiarendo quali siano i processi operativi di que­
sto aspetto attivo della mente. Queste ricerche hanno mo­
strato, fra l'altro, che la corteccia intrinseca e le formazioni
limbiche del cervello anteriore organizzano attivamente le
informazioni sensorie.
La scoperta che si possono spiegare certe operazioni del
cervello in termini di elaborazione nel dominio spettrale è a
mio parere altrettanto importante per il problema mente­
cervello di quanto lo sia stata per la fisica quantistica e nu­
cleare la scoperta che le apparenze della materia possono in
ultima istanza rivelarsi immateriali.

Una nuova dualità: il mondo delle apparenze e il mondo


delle po tenzialità

In precedenza ho affermato che il dualismo che distingue


nettamente e radicalmente il mentale dal materiale è sosteni­
bile solo nel mondo ordinario delle apparenze, nel mondo
cioè che è descritto dalla geometria euclidea e dalla meccani­
ca newtoniana. Come abbiamo visto, tale dualismo può esse­
re ricondotto a differenze procedurali relative all'esplorazio­
ne della gerarchia di sistemi che costituisce il mondo delle
apparenze, e quest'osservazione a sua volta dà origine a una
teoria, il realismo costruttivo. Abbiamo già accennato al fat­
to che il realismo costruttivo lascia irrisolte alcune questioni
sollevate da un punto di vista dualista classico, ed è ora
giunto il momento di entrare nel merito.
Eccles e Popper concepiscono in modo totalmente diverso
(e, per certi aspetti fondamentali, opposto) l'interazione della
mente e del cervello: per Popper la mente è emergente dalla
funzione cerebrale, mentre per Eccles essa agisce sulle for­
mazioni intrinseche di collegamento (liaison) della corteccia
cerebrale. Ciò nonostante i due autori sono riusciti a pubbli­
care un libro insieme. Ciascuno deve aver avvertito una qual­
che affinità con la posizione dell'altro, affinità che non sono
tuttavia riusciti ad articolare adeguatamente nel libro.
Abbiamo ormai, credo, gli strumenti analitici per risolve­
re questo punto. L'osservazione dall'alto verso il basso della
gerarchia di sistemi che compongono il mondo ordinario del­
le apparenze richiede analisi essenzialmente riduttive. Quan-

1 85
do le diverse componenti si organizzano in strutture pm
complesse e di ordine più elevato sorgono nuove proprietà
che possono essere spiegate mediante il concetto di "emer­
genza" (l'atto dell'emergere), che permette di descrivere i fe­
nomeni osservati. D'altra parte, se si guarda la gerarchia dal
basso verso l'alto da un punto di vista fenomenico o esisten­
ziale, questi emergenti sono il prodotto fondamentale dell'os­
servazione. Il realismo costruttivo è compatibile con questa
concezione dell'emergenza e, come già abbiamo avuto modo
di notare, la costruzione del mondo 3 è essenzialmente un
tentativo, da parte di Popper, di raggiungere questo stesso
fine.
Eccles viceversa propende per una formulazione radical­
mente diversa, e sostiene che la mente trascende la funzione
cerebrale non perché emerge da quest'ultima, ma perché su
quest'ultima agisce attivamente. Come abbiamo visto, è una
tesi che così formulata è priva di qualsiasi senso scientifico.
Ma torniamo per un attimo a considerare il cervello come
un analizzatore spettrale, e concentriamoci sulle caratteristi­
che della trasformazione da esso eseguita. L'importanza di
queste caratteristiche è stata solo di recente riconosciuta, e
la registrazione delle configurazioni spettrali in olografia ne
ha fornito un esempio concreto le cui proprietà sono pron­
tamente concettualizzabili.
Il punto saliente è che nel domino olografico lo spazio e il
tempo sono avviluppati (enfolded), e ciò permette di render
conto dell'invarianza di traslazione, del fatto cioè che la tra­
sformazione nel dominio ordinario può essere compiuta par­
tendo da qualsiasi punto della registrazione codificata. Le in­
formazioni sono distribuite, sparse per l'intera superficie
della pellicola fotografica (o modulo cerebrale), in modo si­
mile a quello in cui le onde prodotte dal lancio di un sasso in
uno stagno si disperdono fino alla riva. Onde diverse prodot­
te dal lancio di più sassi interagiscono o "interferiscono", e
la re gistrazione di queste interferenze costituisce l'ologram­
ma. E naturalmente possibile riprendere cinematografica­
mente queste interferenze, e invertire quindi il movimento
della pellicola per ottenere l'immagine del sasso che colpisce
la superficie dell'acqua. La ricostruzione dell'immagine, in
olografia, avviene in modo molto simile, eseguendo una tra­
sformazione inversa sulla registrazione. L'immagine e la re­
gistrazione olografica, così come l'oggetto stesso, sono l'una
la trasformazione dell'altra, e si tratta di trasformazioni af­
fatto reversibili.
Si consideri inoltre il fatto che nel dominio olografico il
tempo e lo spazio sono avviluppati, e che solo la densità del-

1 86
le occorrenze è esplicitamente rappresentata. Tali densità
pos sono essere registrate come numero d'onda o in matrici
diffuse (scattering) rappresentanti un dominio n-dimensiona­
le (dominio di Hilbert) simile a quelli usati nella fisica quan­
tistica. L'olografia ha aperto una finestra attraverso cui con­
cettualizzare un universo totalmente differente da quello che
caratterizza il mondo delle apparenze. David Bohm ( 1 97 1 ,
1973) ha notato che vi sono sempre delle lenti a condizionare
la nostra concezione del mondo fisico. Le lenti mettono a
fuoco, ogget tivano, tracciano linee di divisione fra parti di­
verse. Viceversa gli ologrammi sono distributivi, illimitati e
olistici. Bohm caratterizza come esplicate le nostre concezio­
ni e percezioni ordinarie prodotte dalle lenti, mentre sono
implicate quelle olografiche. Nell'universo sono quindi di­
scernibili almeno due ordini. Si possono descrivere particel­
le, oggetti e immagini in termini di un ordine esplicato, ma è
l'ordine implicato, ancora in gran parte inesplorato, quello
che ha a che fare con le densità di proprietà fluttuanti di for­
me d'onda.
La somiglianza fra le concettualizzazioni dell'ordine im­
plicato e quelle descritte dai mistici che hanno esperito feno­
meni religiosi o "paranormali" ha risvegliato l'interesse di
Bohm e di altri fisici (vedi Bohm, 1976 e Capra, 1975). La
mancanza di limiti spaziali o temporali; la caratteristica alo­
grafica per cui ogni singola parte rappresenta il tutto; il ca­
rattere trasformativo del passaggio dall'ordine esplicato a
quello implicato: tutto cio è al di là dell'ordinaria esperienza
umana limitata, apparentemente, a quell'universo quotidia­
no, esplicato, euclideo newtoniano che tutti conosciamo.
Non è un caso che gli ologrammi (la cui scoperta fruttò il
premio Nobel a Dennis Gabor) si fondino su una forma di
matematica, il calcolo integrale, dovuta a Gottfried Wilhelm
Leibniz che giunse in qualche modo anche a concepire l 'ordi­
ne implicato. La monadologia di Leibniz è olografica: le mo­
nadi sono forme distribuite, prive di finestre, ognuna delle
quali rappresenta l'intero. Se nella precedente definizione si
sostituisce "privo di finestre" con "privo di lenti" si ottiene la
descrizione di un ologramma.
Ricapitolando quest'ultima sezione, è mio parere che la
tesi di Eccles secondo cui vi è una "mente" distribuita che
agisce in modo "ancora misterioso" sul cervello sia suscetti­
bile di una rigorosa formulazione matematica. Il fatto che il
cervello sia, fra l'altro, un analizzatore spettrale che codifica
le informazioni, così come fanno gli ologrammi, in modo di­
stribuito significa che gli ordinari limiti strutturali del "cor­
po" e del "cervello" sono stati trascesi. In una grande città

1 87
moderna lo spazio che ci circonda è fittamente popolato da
forme spettrali generate dalle stazioni radiofoniche e televi­
sive. Tali forme sono al di là della portata dei nostri sensi a
meno di non usare un ricevitore sintonizzabile su di esse: so­
lo allora "esplichiamo" le forme spettrali trasmesse e avvi­
luppate nello spazio intorno a noi. Non si può risolvere il
"mistero" della mente dal punto di vista di Eccles, che non è
adeguato alla formulazione di Popper. Occorre piuttosto ri­
conoscere la natura trasformazionale del dominio implicato:
sono i nostri organi di senso che conferiscono "senso" a tale
dominio rendendocene apparente questa o quella porzione.

Conclusione

Tenterò di riassumere le posizioni espresse in questo arti­


colo. Ho preso le mosse accettando una concezione dualisti­
ca dell'esperienza quotidiana: noi esseri umani siamo in gra­
do di distinguere chiaramente il processo dell'esperienza dai
suoi contenuti. Questa semplice constatazione ha portato, a
partire da Cartesio, a caratterizzare il processo dell'espe­
rienza come mentale e a concepire il contenuto di tale espe­
rienza, se non come materiale, almeno come indicatore della
presenza di un mondo fisico materiale. Sono stati i fisici mo­
derni, lavorando sia a livello quantistico nucleare sia a livel­
lo cosmologico, a mettere in discussione le basi materiali
della materia. La materia è costituita da energia che nelle
sue diverse forme interagisce per produrre ciò che noi nor­
malmente esperiamo nella percezione ordinaria. L'esperien­
za normale è caratterizzata dalla geometria euclidea e dalla
meccanica newtoniana. La natura materiale della materia è
limitata al mondo ordinario dell'esperienza, a meno di non
voler intestardirsi a considerare materiale anche l'energia,
dal momento che può essere convertita in materia, come as­
serito nell'equazione di Einstein E = mc2 • Si tratterebbe pe­
rò di un pregiudizio materialista, incapace di rendere conto
del fatto che l'equazione di Einstein è, a tutti gli effetti, una
"conversione", e tale da nascondere, piuttosto che chiarire,
la vera natura di queste forme di energia. D'altra parte è
chiaro che queste stesse obiezioni si applicano anche a ogni
caratterizzazione univoca in senso mentale.
Anche muovendo dall'altro estremo della dicotomia men­
tale-materiale si incontrano analoghe limitazioni alla sua uti­
lità e applicabilità. L'elaborazione delle informazioni, così
come è compiuta da un calcolatore adeguatamente program­
mato o da un cervello cui giunga un segnale sensorio, richie-

188
de minuscole quantità di energia che possono però organiz­
zare o riorganizzare sistemi di scala molto più grande. Ciò
che è critico in questi casi non è la pura quantità di energia,
ma la configurazione esibita dal sistema energetico. Ancora
una volta, non si sa se concepire tali mutamenti figurali
(che possono coinvolgere linguaggi, culture, ecc.) come men­
tali o come materiali: si è raggiunto un limite in cui la di­
stinzione mentale-materiale è del tutto inutile.
Il passo seguente è quello di confrontarsi con il dualismo
sul suo stesso terreno, nell'ambito cioè dell'esperienza ordi­
naria. Si scopre allora che il dualismo è basato su concezio­
ni speculari costituite da procedure analitiche differenti. La
posizione riduttiva "materialistica", cui aderisce la maggior
parte degli scienziati, analizza l'esperienza di ognuno dall'al­
to verso il basso, esplorando la gerarchia di sistemi di cui
tale esperienza è costituita. Questa concezione riduttiva è di
solito accompagnata dal riconoscimento del fatto che la for­
mazione di configurazioni specifiche di componenti può dar
luogo all'emergere di nuove proprietà. Come abbiamo visto,
questa è anche la posizione di Popper nell'Io e il suo cer­
vello.
Viceversa, guardare verso l'alto a partire dalla propria
esperienza significa validare tale esperienza mediante il con­
fronto con quella degli altri. Si descrivono e si confrontano
i "fenomeni" esperiti, dando rilievo all'esistenza dell'espe­
rienza in quanto tale, alla sua natura esistenziale, tentando
di raggiungere la precisione mediante l'attenzione alle rela­
zioni strutturali fra i fenomeni. Lo strumento dell'indagine
non è la separazione in parti causalmente correlate l'una al­
l'altra, come nelle scienze riduttive, ma la validazione con­
sensuale, la comunicazione (enactment), l'analisi strutturale
delle diverse relazioni. Il linguaggio della fenomenologia,
dell'esistenzialismo e dello strutturalismo è di tipo "menta­
le" perché il loro interesse centrale è costituito dall'espe­
rienza in quanto tale.
Alla base del dualismo nel mondo ordinario dell'espe­
rienza vi è dunque una differenza procedurale, il cui ricono­
scimento permette di trascendere il dualismo senza tuttavia
disconoscerne l'utilità quando si ha a che fare con problemi
del mondo ordinario. È mio parere che il dualismo possa es­
sere trasceso combinando attentamente le tecniche e i risul­
tati dei due metodi di indagine, quello riduttivo e quello fe­
nomenico. Dal punto di vista del monismo pluralistico ciò
che veramente conta è la struttura invariante della realtà: è
chiaro allora che sia le entità riduttive sia i fenomeni espe­
rienziali possono essere pensati come realizzazioni struttu-

1 89
ralmente identiche derivate da un dato esistenziale più fon­
damentale.
Una volta formulato, il realismo costruttivo si trova di
fronte un altro problema. È bensì vero che il dualismo non
viene negato, ma solo circoscritto a un ambito limitato: così
facendo, tuttavia, il monismo strutturale contraddice alcune
delle più profonde e radicate tesi dualiste. Una di queste,
come abbiamo visto, trova espressione nell'interazionismo
piuttosto ingenuo sostenuto da Eccles, secondo cui la mente
opererebbe sull'area associativa del cervello, sulla corteccia
intrinseca di collegamento. Avremmo un universo "mentale"
che "interagisce in qualche modo misterioso" con quello
materiale, pur essendone "indipendente", ed è una tesi che,
dal punto di vista del realismo costruttivo, non può essere
accettata.
Tuttavia, il problema è reale, e il realismo costruttivo
deve poter offrire una soluzione, per quanto diversa da
quella dualista. La fisiologia del cervello ha dimostrato che
il sistema nervoso è, fra l 'altro, un analizzatore spettrale.
Inoltre, pare che le informazioni siano distribuite e memo­
rizzate nel dominio di arrivo della trasformazione in modo
simile a una registrazione olografica, e i fisici hanno suppo­
sto che un ordine di tipo olografico possa caratterizzare la
microstruttura del mondo fisico. A questo livello, lo spazio
e il tempo sono avviluppati, e si ha una rappresentazione
soltanto della densità delle occorrenze.
Questo e altri tipi di ordine postulati dalla fisica moder­
na sembrano notevolmente simili alle descrizioni date dai
mistici di esperienze religiose e paranormali. La mia propo­
sta teorica è che sia la dualità fra il dominio normale e quo­
tidiano delle apparenze e il dominio della trasformazione a
catturare ed esprimere il vero spirito del dualismo e a ren­
der conto in modo specifico e matematicamente preciso di
ciò che finora era stato incomprensibile.
Il realismo strutturale è così in primo luogo un moni­
smo neutrale, a cui è possibile ricondurre tutta una serie di
dualità, due delle quali sono particolarmente significative e
atte a chiarire i problemi connessi con il dualismo mente­
cervello: l) una dualità procedurale rivolta verso l'alto e
verso il basso nella gerarchia dei sistemi discernibili nel
mondo ordinario delle apparenze, e 2) una dualità trasfor­
mazionale che oppone il mondo ordinario delle apparenze
al dominio della trasformazione spettrale. Quest'ultimo può
essere caratterizzato mediante descrizioni simili a quelle
delle esperienze mistiche date da diverse tradizioni reli­
giose.

1 90
È possibile che si scopra che altri tipi di dualità soggia­
ciono a premesse di dualismo non ancora pienamente artico­
late. Ciò che ora appare chiaro è che il dualismo fondato sul­
la distinzione fra mentale e materiale è troppo limitato per
risolvere i problemi da esso stesso posti. Vi sono altre duali­
tà, oltre a quella mentale-materiale, che possono risolvere
questi problemi, mantenendosi al contempo fedeli allo spiri­
to con cui sono stati posti. Per di più, si tratta di dualità spe­
cificabili per mezzo di procedure scientificamente corrette e
suscettibili di formulazioni matematiche precise. Infine, il ri­
conoscimento di queste dualità origina direttamente da alcu­
ne scoperte compiute nell'ambito delle scienze fisiche, com­
portamentali e dell'informazione. Si è così dimostrata falsa
l'affermazione che i risultati della ricerca scientifica siano
privi di conseguenze per i problemi filosofici: solo la scienza
può aiutare a riformulare e, in alcuni casi, a risolvere i pro­
blemi filosofici, compresi quelli di tipo ontologico.

RIFERIMENTI BIBLIOGRAFICI

Bekesy, G. von ( 1 957), Neural Volleys and the Similarity between So­
me Sensations Produced by Tones and by Skin Vibrations, in
"Joumal of the Accoustical Society of America", 29, pp. 1 059-69.
Bekesy, G. von (1967), Sensory Inhibition, Princeton Univ. Press,
Princeton (N.J.).
Bohm, D. (197 1), Quantum Theory as an Indication of a New Order
in Physics. Part A. The Development of New Orders as Shown
Through the History of Physics, in "Foundations of Physics", l ,
pp. 359-38 1 .
Bohm, D . (1 973), Quantum Theory as a n Indication of a New Order
in Physics. Part B. Implicate and Explicate Order in Physical
Law, in "Foundations of Physics", 3, pp. 1 39-168.
Bohm, D. (1 976), Fragmentation and Wholeness, Vanleer Jerusalem
Foundation, Jerusalem.
Bohr, N. (1 966), Atomic Physics and Human Knowledge, Vintage
Press, New York.
Bracewell, R. (1 965), The Fourier Transform and lts Application,
McGraw-Hill, New York.
Brentano, F.C. (1 874), Psychologie vom empirischen Standpunkt,
trad. inglese Psychology from an Empirica/ Standpoint, Routled­
ge & Kegan Paul, London 1 973.
Bridgeman, B. ( 1 97 1 ), Metacontrast and Latera/ Inhibition, in "Psy­
chological Review" , 78, pp. 528-539.
Brillouin, L. (1 9622), Science and Information Theory, Academic
Press, New York.
Campbell, F.W. (1 974), The Transmission of Spatial Information
Th rough the Visual System, in F.O. Schmidt e F.G. Worden (a

191
cura di), The Neurosciences Third Study Program, The MIT
Press, Cambridge (Mass.).
Campbell, F.W. e J.G. Robson (1 968), Application of Fourier Analy­
sis to the Visibility of Gratings, in "J. Physiol.", 1 97 , pp. 551-
566.
Capra, F. (1 975), The Tao of Physics, Shamhala Publications, Berke­
ley (Ca.) (trad. it. Il Tao della fisica, Adelphi, Milano 1 982).
Chew, G.S. (1 966), The Analytic S-Matrix: A Basis for Nuclear Demo­
cracy, W.A. Benjamin, New York.
Chisholm, R.M. (1 960), Realism and the Background of Phenomeno­
logy, Free Press, New York.
Broglie, L.V. de (1 964), The Current Interpre tation of Wave Mecha­
nisms: A Critica[ Study, trad. Express Translation Service (Else­
vier, Amsterdam).
De Valois, R.L., Albright, D.G. e L.G. Thorell (1 978a), Spatial tuning
of LGN and cortical cells in monkey visual system, in H. Spek­
reijse (a cura di), Spatial Contrast, Monograph Series, Royal
Netherlands Academy of Sciences, Amsterdam.
De Valois, R.L. Albright, D.G. e L.G. Thorell (1 978b), Cortical cells:
Bar and edge detectors, or spatial frequency filters?, in S.J. Cool
e E.L. Smith (a cura di), Frontiers of Visual Science, Springer­
Verlag, New York.
De Valois, R. e Karen De Valois (1 980), Spatial Vision, in "Ann.
Rev. Phsychol.", 3 1 , p. 309.
De Valois, K.K., De Valois, R.L. e E.W. Yund ( 1 979), Responses of
striate cortex cells to grating and checkerboard patterns, in "J.
Physiol. ", 291, pp. 483-505.
Dirac, P.A.M. (1 906), Is There and aether, in "Nature", 1 68.
Eccles, J.C. (1 973), Cultura[ Evolution versus Biologica[ Evolution,
in "Zygon", 8, pp. 282-293, settembre-dicembre.
Freeman, W.J. ( 1 960), Correlation of Electrical Activity of Prepyri­
form Cortex and Behavior in Cat, in "J. Neurophysiol.", 23, pp.
1 1 1-131.
Freud, S . ( 1 895) Entwurf einer Psycologie, trad. it. Progetto di una
psicologia, Boringhieri, Torino 1 976.
Gabor, D. (1 946), Theory of Communication, in "J. Inst. Elec. Engrs.",
93, p. 429.
Gabor, D. (1 948), A New Microscopic Principle, in "Nature", 1 6 1 , pp.
777-778.
Gibson, J.J. (1 950), The Perception of the Visual World, Houghton
Mifflin, New York.
James, W. ( 1 909), A Pluralistic Universe, Longman's Green, London
(trad. it. Un universo pluralistico, Marietti, Torino 1 973).
Heisenberg, W. ( 1 959), Physics and Philosophy, Allen & Unwin,
London.
Heisenberg, W. (1 969), Physics and Beyond, R. Piper, Miinich.
Helmholtz, H. von (1 863), Lehze von den Tonempfindungen, Vieweg,
Stuttgart.
Hubel, D.H. e T. Wiesel ( 1959), Recep tive Fields of Single Neurons in
the Cat's Striate Cortex, in "J. Physiol.", 148, pp. 574-59 1 .
Hubel, D.H. e T. Wiesel (1 968), Receptive Fields and Functional Ar-

192
chitecture of Monkéy Striate Cortex, in "J. Physiol.", 195, pp.
2 1 5-243.
Merleau-Ponty, M. ( 1 970), La struttura del comportamento, trad. di
G.B. Neri, Bompiani, Milano (ed. originale 1 942).
Miller, G.A. Gallanter, E.H. e K.H. Pribram ( 1 960), Plans and the
Structure of Behavior, Henry Holt, New York.
Movshon, J.A., Thompson, I.D. e D.J. Tolhurst ( 1 978), Receptive
Field Organization of Complex Cells in the Cat 's Striate Cortex,
in "Journal of Physiology", 283, pp. 79-99.
Ohm, G.S. ( 1 843), Uber die Definition des Tones, nevst daran gek­
nupfte r Theorie der Sirene und ahnlicher tonbilde ner Vorrich­
tungen, in "Annalen der Physikalischen Chemie", 59, pp. 5 1 3
sgg.
Phelps, R.W., Effects of Inte ractions of Two Moving Lines on Sin­
gle Unit Responses in the Cat 's Visual Cortex, in "Vision Re­
search", 14, pp. 137 1-75.
Pollen, D.A., Lee, J.R. e J.H. Taylor, How Does the Striate Cortex
Begin the Reconstruction of the Visual World, in "Science", 173,
pp. 74-77.
Pollen, D.A. e J.H. Taylor (1 974), The Striate Cortex and the Spatial
Analysis of Visual Space, in F.O. Schmidt e F.G. Worden (a cura
di), The Neurosciences Third Study Program, The MIT Press,
Cambridge (Mass.).
Popper, K.R. e J.C. Eccles (1 977), The Self and lts Brain, Springer­
Verlag, New York (trad. it. L 'Io e il suo cervello, Armando, Ro-
ma 1981). .
Pribram, K.H. (1 965), Proposal for a Structural Pragmatism: Some
Neuropsychological Considerations of Problems in Philosophy,
in B. Wolman e E. Nagle (a cura di), Scientific Psychology: Prin­
ciples and Approaches, Basic Books, New York.
Pribram, K.H. (1 966), Some Dimensions of Remembering: Steps to­
ward a Neuropsychological Mode! of Memory, in J. Gaito (a cu­
ra di), Macromolecules and Behavior, Academic Press, New
York.
Pribram, K.H. (197 1), The Realization of Mind, in "Synthese", 22,
pp. 3 1 3-322.
Pribram, K.H. ( 1 976a), Language in a Sociobiological Frame, in
"Annals of the New York Academy of Sciences", 280, pp. 798-
809.
Pribram, K.H. (1 976b), Problems Concerning the Structure of Con­
sciousness, in G.G. Globus, G. Maxwell e l. Savodnik (a cura di),
Consciousness and the Brain: A Scientific and Philosophical In­
quiry, Plenum Press, New York.
Pribram, K.H. ( 1 9772), Languages of the Brain: Experimental Para­
doxes and Principles in Neuropsychology, Brooks/Cole, Monte­
rey (Ca.) (trad. it. I linguaggi del cervello, F. Angeli, Milano
1 980).
Pribram, K.H. ( 1 978), Behaviorism, Phenomenology and Holism in
Psychology: A Scientific Analysis, relazione presentata all'incon­
tro annuale della American Psychological Association, Toronto,
Ontario, Canada, 28 agosto-l 0 settembre.

1 93
Pribram, K.H. e M.M. Gill ( 1 976), Freud's "Project " Reassessed, Ba­
sic Books, New York (trad. it. Freud neurologo. Studio sul Pro­
getto di una psicologia, Boringhieri, Torino 1 978).
Pribram, K.H., Lassonde, M.C. e M. Ptito ( 1 98 1), Classification of Re­
ceptive Field Properties in Cat Visual Cortex, in "Experimental
Brain Research", 43, pp. 1 1 9- 1 30.
Pribram, K.H. e Diane McGuinness (1 975), Arousal, Activation and
Effort in the Control of Attention, in "Psychological Review", 82,
pp. 1 1 6-149.
Pribram, K.H., Nuwer, M. e R. Baron ( 1 974), The Holographic Hypo­
thesis of Memory Structure in Brain Function and Perception, in
R.C. Atkinson e al. (a cura di), Contemporary Developments in
Mathematical Psychology, W.H. Freeman, San Francisco.
Pribram, K.H., Sharafat, A. e G.J. Beekman ( 1 984), Frequency En­
conding in Motor Systems, in H.T.A. Whiting (a cura di), Human
Motor Actions: Bernstein Reassessed, Elsevier, North-Holland.
Rakic, P. ( 1 976), Local Circuit Neurons, The MIT Press, Cambridge
(Mass.).
Rall, W. (1 970), Dendritic Neuron Theory and Dendrodendritic Syna­
pses in a Simple Cortical System, in F.O. Schmitt (a cura di), The
Neurosciences: Second Study Program, Rockefeller University
Press, New York.
Russell, B. (1 948), Human Knowledge, Its Scope and Limits, Simon
& Schuster, New York (trad. it. La conoscenza umana, Longane­
si, Milano 1 9632).
Schmitt, F.O., Parvati, Dev e B.H. Smith ( 1 976), Electrotonic Proces­
sing of Information by Brain Cells, in "Science", 1 93 , pp. 1 1 4-
1 20.
Schroedinger, E. (1 928), Quantization as a Problem of Proper Va­
lues, in Collected Papers on Wave Mechanics, Blackie & Son
Ltd., London.
Shepherd, G.M. (1 976), The Synaptic Organization of the Brain: An
Introduction, Oxford University Press, New York.
Spinelli, D.N. (1 966), Visual Receptive Fields in the Cat 's Retina:
Complications, in "Science", 152, pp. 1 768-1 769.
Stapp, H.P. (1 965), Space and Time in S-Matrix Theory, in "Phys.
Rev.", 1 35B, pp. 257-270.
Weizsacker, E. von ( 1 974), Offene Systems /, Stuttgart.
Wigner, E.P. (1 969), Epistemology of Quantum Mechanics: Its Ap­
praisals and Demands, in Marjorie Grene (a cura di), The Ana­
tomy of Knowledge, Routledge & Kegan Paul, London.

194
Leggere la struttura del cervello
di Valentino Braitenberg

Il cervello è una complessa entità spazio-temporale costi­


tuita da 1 020 potenziali di azione di 1010 neuroni, distribuiti
lungo l'arco di una vita umana.
La struttura del cervello, così come questo è studiato dal­
la neuroanatomia, è la proiezione di questa entità complessa
sulle sue coordinate spaziali. È chiaro che in questo modo si
perdono gli aspetti temporali, con la sola eccezione, forse,
dell'analisi a bassa risoluzione permessa dallo studio dell'in­
vecchiamento e dall'anatomia comparata. Ma quanta parte
dell'originaria complessità spazio-temporale può essere recu­
perata in questa proiezione? In altre parole, come possiamo
rendere fisiologicamente sensate le informazioni istologiche ?
La struttura cerebrale incorpora informazioni di tre tipi:
a) conoscenze innate formatesi durante l'evoluzione; b) en­
grammi (engram) acquisiti nel corso della vita; e c) residui
della fase di costruzione che ha avuto luogo nel corso dell'em­
briogenesi. Le prime due fonti di informazioni costituiscono
la complessa soluzione spazio-temporale del problema di far
fronte ai pericoli dell'ambiente, mentre la terza è connessa a
tale problema solo in modo molto indiretto, e può anche in­
trodurre indizi fuorvianti.
Nel seguito mi limiterò a ignorare le considerazioni em­
briologiche, as sumendo che si possa comprendere ogni aspet­
to dell'anatomia neurale sulla sola base delle computazioni
che a esso vanno ricondotte. Muovendo da questo presuppo­
sto, tenterò di rispondere a tre domande:
l ) È possibile correlare le strutture cerebrali a meccani­
smi specifici o a schemi astratti di computazione?
2) Vi sono aspetti dell'anatomia del sistema nervoso cui
corrispondono le idee innate ?

1 95
3) Esistono tracce anatomiche delle conoscenze o delle
idee acquisite?

Meccanismi

Consideriamo dapprima l'organo più stupefacente, e an­


che quantitativamente prevalente, del cervello dei vertebrati
superiori: la corteccia cerebrale (vedi Braitenberg, 1 978a,
1 978b). L'analisi quantitativa della corteccia del topo (un
compito che ci ha tenuti occupati per alcuni anni) mette in
luce alcune notevoli proprietà che si possono estendere pro­
babilmente anche alla corteccia di animali di dimensioni
maggiori. Usando preparati di Golgi è facile distinguere mol­
ti differenti tipi di neuroni della corteccia cerebrale, ma tale
varietà è riducibile, grazie alle caratteristiche messe in luce
dal microscopio elettronico, a tre tipi fondamentali (ognuno
dei quali è tuttavia soggetto a estese variazioni morfologi­
che): le cellule piramidali, le cellule lisce stellate e le cellule
di Martinotti. Ora, il dato rilevante è che l'ottanta per cento
delle sinapsi della corteccia cerebrale unisce neuroni di un
unico tipo, e precisamente connette le cellule piramidali l'u­
na all'altra. L'analisi al microscopio e alcune risultanze fisio­
logiche indirette indicano che queste sinapsi sono eccitato­
de. Lo scheletro della corteccia è dunque formato da un am­
pio sistema di elementi omogenei, riccamente interconnesso
da fibre che mediano il feedback positivo. Si ha così un qua­
dro generale che sembra contraddire l'immagine comune­
mente accettata di gerarchie di neuroni stimolate alla base
da input sensoriali, strutturate in sistemi di relazioni logiche
simili a espressioni del calcolo proposizionale e culminanti
in neuroni individuali la cui attività rappresenta situazioni
di arbitraria complessità nello spazio sensorio. Se prendessi­
mo alla lettera questa immagine, dovremmo dedurne l'esi­
stenza di un ordinamento unidirezionale delle fibre della
corteccia cerebrale, disposte lungo la direzione definita dalle
aree sensorie e motorie. Per gli stessi motivi, le sinapsi inibi­
torie dovrebbero essere altrettanto numerose di quelle ecci­
tatorie, in analogia a quanto avviene nella logica proposizio­
nale in cui i termini negati sono altrettanto frequenti di quel­
li non negati.
Vi è un altro aspetto della neuroanatomia corticale che
rende lo schema di connessione dei neuroni della corteccia
differente da quello riscontrabile nei calcolatori convenzio­
nali, rendendo così di difficile applicazione il modello logico
delle reti nervose: tale aspetto è l'alto grado di divergenza (e,

1 96
quindi, anche di convergenza) che caratterizza il sistema. Nel
topo, il numero delle sinapsi cui ogni cellula piramidale del­
la corteccia partecipa, attivamente o passivamente, varia da
cinquemila a diecimila, e queste sinapsi sono distribuite su
quasi altrettante cellule piramidali distinte. È alquanto diffi­
cile che fra due cellule piramidali vi siano connessioni multi­
ple, che ridurrebbero il fattore di convergenza. Vi è un solo
modello teorico della funzione della corteccia, fra i molti che
sono stati proposti, che si adatta a questi dati, ed è quello
che assimila la corteccia a una memoria associativa, in cui la
correlazione temporanea di attività di diversi neuroni fa sì
che essi vengano interconnessi da forti contatti eccitatori, in
modo che l'insieme di cellule (cell assembly) così formatosi
rappresenti all'interno del cervello una situazione o un og­
getto del mondo esterno caratterizzato da una forte coerenza
interna. Questa idea degli insiemi di neuroni, dovuta a Hebb
(1 949), permette anche di spiegare la proprietà del completa­
mento di configurazioni (pattern completion) intrinseca alle
connessioni eccitatorie. Qualsiasi parte sufficientemente
grande di un insieme di neuroni può attivare l'intero insieme
e, a differenza di altri modelli di memoria associativa, non è
necessario che tale parte, che è in grado di far affiorare l'in­
tero ricordo, sia specificata in anticipo.
Vi è un altro aspetto della corteccia cerebrale che merita
di esser posto in evidenza, specialmente per chi non è fami­
liare con la neuroanatomia. Basta osservare un certo nume­
ro di neuroni di un certo tipo, ad esempio cellule piramidali,
per accorgersi che hanno caratteristiche morfologiche comu­
ni piuttosto generiche, i cui particolari sono specificati da
processi di crescita in gran parte casuali. Così, il dendrite
apicale tende a distribuirsi in una zona più o meno conica
posta alla sommità del corpo della cellula, mentre quello del­
la base si distribuisce su una regione sferica di cui costitui­
sce il centro, ma a queste tendenze generali fa riscontro il
fatto che non è possibile trovare cellule piramidali che ab­
biano arborescenze dendritiche perfettamente sovrapponibi­
li. Lo stesso vale, naturalmente, per le loro ramificazioni as­
sonali. Se la specificazione genetica della forma dei neuroni
è data mediante un qualche tipo di statistica geometrica, al­
lora anche noi dovremmo adottare lo stesso linguaggio per
formularne la descrizione neuroanatomica, in modo da
esprimere soltanto le informazioni essenziali. Ora, può darsi
che ciò sia falso per qualche singola parte del cervello dei
vertebrati, ed è noto che è falso per il cervello di alcuni in­
setti (come vedremo in seguito), ma è anche la soluzione di
gran lunga più probabile nel caso della corteccia cerebrale,

1 97
in cui solo alcuni tipi di cellule stellate sono definiti con più
precisione relativamente ai neuroni bersaglio. Questa irridu­
cibile casualità contraddice l'idea di uno schema preciso co­
me quello dei circuiti elettronici (idea che pure qualcuno si
ostina a riproporre per la corteccia cerebrale), ma serve an­
che a smorzare il pessimismo che l'impossibilità di estrarre
un tale schema da un enorme numero di neuroni potrebbe
ispirare.

Anche l'analisi di un altro tessuto nervoso, la corteccia


cerebellare, porta direttamente a formulare l'ipotesi di un
meccanismo particolare (vedi Braitenberg, 1 96 1 , 1 967a). Si
tratta, infatti, di una rete radicalmente diversa da quella del­
la corteccia cerebrale. In primo luogo, nel cervelletto non v'è
traccia di circuiti di connessioni eccitatorie, né da un punto
di vista anatomico né da quello, ormai sufficientemente ap­
profondito, della fisiologia sinaptica. Gli unici elementi in­
trinsecamente eccitatori dello strato molecolare della cortec­
cia cerebellare sono i neuroni granulari della fibra a cellule
parallele (granular cell-parallel fibre neurons) che trasmetto­
no i propri segnali esclusivamente agli interneuroni inibitori
e alle cellule inibitorie di uscita della corteccia cerebellare,
cioè alle cellule di Purkinje. I segnali che ritornano ai neuro­
ni eccitatori sono cambiati di segno, rendendo secondario il
ruolo del feedback positivo a meno di non costruire com­
plessi schemi di inversione di segno doppia o quadrupla. Ne
segue che se, come sembra probabile, un qualche ruolo spet­
ta alla memoria nel cervelletto, tale ruolo non può essere
quello della memoria associativa che abbiamo appena de­
scritto.
Un'altra notevole caratteristica della corteccia cerebella­
re è la sua disposizione essenzialmente unidimensionale. No­
nostante le relazioni macroscopiche possano sembrare leg­
germente meno lineari di quanto si potrebbe pensare, a
causa della curvatura tridimensionale del foglio della cortec­
cia cerebellare, se si restringe il campo d'osservazione a una
regione sufficientemente piccola, si può notare che la tra­
smissione del segnale nelle fibre parallele (numericamente
prevalenti) avviene in una sola direzione, e precisamente la
direzione definita dall'asse trasversale del foglio corticale.
La disposizione sinaptica della corteccia cerebellare non è
dunque veramente bidimensionale, ma è piuttosto la somma
di un gran numero di strisce unidimensionali corrispondenti
a ciò che i fisiologi chiamano "fasci (beams) di fibre paralle­
le". Quest'idea risulta ancora più convincente se si pensa che
le connessioni ad angolo retto a queste strisce sono inibito-

1 98
rie, la cui funzione isolante impedisce al segnale di propa­
garsi da una striscia all'altra. Il sistema di fibre parallele è
unico anche sotto altri aspetti. In altri settori del sistema
nervoso, infatti, e specialmente in quelli che condividono la
struttura bidimensionale della corteccia, la connettività è de­
finita mediante le relazioni di vicinanza in cui la distanza fra
gli elementi, e quindi anche la lunghezza delle fibre che li
connettono, è distorta dal piegamento e dallo stiramento di
queste strutture. Nel cervelletto, viceversa, le pieghe della
corteccia sembrano rispettare il sistema di coordinate intrin­
seche del tessuto disponendosi lungo la direzione delle fibre
parallele. È come se si volesse evitare ogni forma di distor­
sione della lunghezza delle fibre parallele appartenenti a sot­
tostrati diversi dello strato molecolare (una tale distorsione
verrebbe prodotta, ad esempio, nel caso di pieghe nella dire­
zione opposta). Una tale invarianza metrica, in quanto distin­
ta dall'invarianza meramente topologica prevalente in altre
strutture neuroanatomiche, è probabilmente da ricondurre
al fatto che i tempi di trasmissione e ricezione del segnale in
punti differenti del fascio parallelo possono risultare crucia­
li nel cervelletto. Quest'idea ha prodotto una reinterpretazio­
ne del ruolo del cervelletto relativamente al movimento e al­
la posizione, reinterpretazione che è ancora soggetta ad ana­
lisi fisiologica e sperimentale.

Abbiamo già visto come l'analisi della struttura del tessu­


to nervoso possa portare a formulare precise ipotesi sulla
natura dei meccanismi computazionali sottostanti. Voglio
fornire un terzo esempio di ciò, relativo al sistema nervoso,
molto più schematico, degli insetti. Reichardt e la sua scuola
hanno analizzato in modo insolitamente preciso il sistema vi­
sivo della mosca nel corso di esperimenti comportamentali
(vedi Reichardt, 1970). Alla base di tale stupefacente sistema,
come hanno rivelato questi studi, sono stati postulati dei ri­
levatori individuali di movimenti elementari, situati fra ca­
nali contigui dell'occhio composto. Tali rilevatori trasforma­
no i segnali paralleli relativi alla fluttuazione temporale nei
vari punti di ingresso in una rappresentazione unitaria del
movimento locale su tutto il campo visivo. L'analisi elettrofi­
siologica non ha ancora permesso di localizzare esattamente
i rilevatori di movimento, ma la neuroanatomia è in grado di
fornire indizi forse decisivi. Nel sistema visivo della mosca,
al livello del primo ganglio (la lamina ganglionaris), l'imma­
gine dell'ambiente che l'ottica dell'occhio composto aveva di­
viso in piccole sotto-regioni sovrapponentesi e invertite, vie­
ne ricostruita secondo l'ordine originale. Torneremo su que-

1 99
sto punto più tardi, quando tratteremo dei concetti mnati;
prima però voglio affrontare un'altra importante questione
(vedi Braitenberg e Hauser-Holschuh, 1 972). I segnali prove­
nienti da ogni punto dello spazio visivo sono trasmessi attra­
verso lo stesso numero e tipo di sinapsi a due differenti neu­
roni di secondo ordine, che a loro volta li trasmettono alla
stessa colonna, ma a due livelli differenti, del successivo
ganglio visivo (per chiarezza ho ignorato l'esistenza di altri
neuroni di secondo ordine). Non è chiaro, a prima vista, per­
ché il sistema nervoso non utilizzi anche in questo caso l'u­
suale meccanismo per la riproduzione dello stesso segnale in
punti differenti, e cioè la ramificazione degli assoni. Tutta­
via, poiché vengono utilizzati due differenti neuroni, dobbia­
mo supporre che le loro proprietà di trasmissione non siano
esattamente uguali: ad esempio, l'uno potrebbe essere eccita­
torio e l'altro inibitorio, oppure potrebbero differire per le
costanti temporali della loro risposta. E invero quest'ultima
idea sembra confermata dal fatto che i due neuroni di secon­
do ordine, L, e L2, hanno diverso spessore, che varia in modo
sistematico in parti diverse del ganglio. Si è tentati di pensa­
re che queste fibre siano filtri interposti fra il segnale in in­
gresso e i rilevatori di movimento. Infatti, Reichardt (1 970)
ha proposto uno schema secondo cui ogni linea di ingresso
fornisce dati a diversi rilevatori di movimento attraverso
due tipi di filtri che differiscono principalmente per le co­
stanti temporali. Quest'interpretazione è sostenuta anche da
alcuni esperimenti che sembrano mostrare come i rilevatori
di movimento guidino il comportamento della mosca in mo­
do diverso in differenti parti del campo visivo, e ciò sembra
connesso alla variazione quantitativa delle dimensioni della
fibre L, e L2 in parti differenti del ganglio. Dovesse risultare
che le due fibre producono segnali di segno opposto, eccita­
tori e inibitori, avremmo un altro modello della rilevazione
del movimento da adattare al quadro sperimentale (vedi Bar­
low e Levick, 1 965). Questa interpretazione tuttavia non riu­
scirebbe a spiegare le variazioni di dimensione messe in luce
in anatomia, che si inseriscono invece così nitidamente nell'i­
potesi che le fibre siano filtri aventi diverse costanti tempo­
rali.

Concetti innati

In alcune reti nervose le dimensioni e la forma delle arbo­


rescenze neuronali sono immediatamente interpretabili alla
luce di alcuni ben noti concetti della tecnologia informatica.

200
Ad esempio, consideriamo gli alberi dendritici delle cellule
piramidali della corteccia visiva: le loro dimensioni non sono
fisse, e il loro diametro varia di un fattore vicino a dieci. I
più piccoli sono totalmente contenuti all'interno degli alberi
dendritici dei più grandi, e ognuno di essi ha un alto grado
di sovrapposizione con i propri vicini. Sembra assai probabi­
le che molti di questi neuroni ricevano ciò che viene chiama­
to specific input, e cioè l'insieme di circa un milione di fibre
che proiettano in modo puntuale l'immagine dell'ambiente
visivo sul piano della corteccia. Trascurando le proprietà più
complesse che nel corso degli anni sono state attribuite alla
membrana dendritica, possiamo supporre che ogni neurone
riceva in ingresso una media dei dati relativi ai punti indivi­
duali che cadono entro il suo raggio d'azione. In questo mo­
do i neuroni più piccoli rappresenterebbero l'immagine in
tutta la sua ricchezza informativa, ne darebbero, per così di­
re, una rappresentazione a grana fine, mentre quelli via via
più grandi costituirebbero dei filtri più grossolani per le fre­
quenze spaziali, avendd ognuno un'ampiezza di banda inver­
samente proporzionale alle dimensioni dei propri elementi.
Così, supponendo che l'azione di ogni neurone si aggiunga a
quelle di altri neuroni aventi diverse dimensioni, senza con­
fondersi con esse, otteniamo un sistema capace di condurre
qualcosa di simile a un'analisi di Fourier. Come ognuno di
noi può convincersi prestando un minimo di attenzione alla
propria percezione visiva, osservando una scena noi riuscia­
mo a usare diversi insiemi di filtri, tanto consciamente quan­
to inconsciamente, a seconda del livello di dettaglio a cui
l'immagine risulta più significativa. In un certo senso, quin­
di, la frequenza spaziale è un concetto innato, così come, allo
stesso livello, lo sono i contorni e la loro inclinazione come
sembrano suggerire i risultati di Hubel e Wiesel (1977).

Passiamo ora a un esempio della rimarchevole discrepan­


za che può sussistere fra la semplicità di alcune strutture
anatomiche e l'analisi di alto livello che esse sono in grado di
condurre. Come è noto, la nostra percezione delle forme do­
tate di simmetria bilaterale è particolarmente acuta, anche
nel caso in cui tali forme siano immerse in un contesto visi­
vo considerevolmente rumoroso (vedi Barlow e Reeves,
1 978). La rilevazione di tali configurazioni simmetriche è tut­
tavia migliore se si fissa l'asse di simmetria, così che le due
metà simmetriche dell'immagine siano proiettate su posizio­
ni simmetriche del cervello destro e del cervello sinistro. Via
via che il punto di fissazione si sposta da un lato, l'acutezza
della percezione diminuisce molto rapidamente. Apparente-

201
mente dunque vi sono sistemi di fibre nel cervello capaci di
confrontare punti simmetrici del campo visivo stabilendone
l'identità o la non identità. Naturalmente tali sistemi sono or­
mai ben conosciuti: tanto i circa duecento milioni di fibre del
corpo calloso, quanto altri fasci commissurali sono in grado
di assolvere al compito. Il fatto poi che l'area visiva primaria
non partecipi al sistema commissurale (se non in piccola par­
te) non costituisce un problema: la percezione della forma, in­
fatti, è piuttosto da ricondurre alle rappresentazioni corticali
secondarie e terziarie del campo visivo, che hanno numerose
connessioni callose. La controparte filosofica di questo sem­
plice schema di connessioni fisiche è sorprendentemente com­
plessa. In un ambiente naturale, la presenza di forme simme­
triche bilaterali nel campo visivo sta di solito a indicare una
sola cosa, e cioè che di fronte all'osservatore si trova un altro
animale "che ha lui nella mente", le cui intenzioni potrebbero
essere amichevoli o non amichevoli. Si tratta in ogni caso di
una situazione la cui potenziale pericolosità giustifica il costo
di duecento milioni di lunghe fibre che congiungono le due
parti del cervello. In un certo senso, il corpo calloso è un'idea
innata di natura sociologica o, almeno, comportamentale in­
terrattiva.

Vi è un altro esempio di conoscenza innata che potrebbe ri­


sultare particolarmente interessante perché contraddice l'o­
pinione comune (da me condivisa per quanto riguarda la cor­
teccia cerebrale) secondo cui la maggior parte delle connes­
sioni del cervello ha origine statistica. Si sostiene, infatti, che
le informazioni genetiche non possono essere sufficienti per
determinare con assoluta precisione l'origine e la terminazio­
ne di ogni singola fibra del tessuto nervoso. Tuttavia, nei cer­
velli più piccoli come, ad esempio, quelli degli insetti, è a volte
possibile determinare l'ordine assoluto delle fibre (vedi Brai­
tenberg, 1976b). Abbiamo già menzionato il caso dell'occhio
composto della mosca, con le sue seimila lenti individuali che
proiettano seimila immagini parziali dell'ambiente ottico su
altrettante piccole retine. Poiché la proiezione ottica è simile
a quella che avviene in una macchina fotografica, tali immagi­
ni parziali sono invertite e sovrapponentesi almeno in una cer­
ta misura. Le fibre che ristabiliscono l'ordine originale dei
punti dello spazio visivo sono connesse con assoluta precisio­
ne a determinati neuroni del ganglio, secondo uno schema fa­
cilmente ricavabile a partire dalle proprietà ottiche e geome­
triche di ogni singola "macchina fotografica" (detta anche om­
matidium) e dall 'angolo di divergenza rispetto all'asse degli
ommatidia vicini. Ovviamente, il primo compito di questo si-

202
stema dovrebbe essere la rotazione di 1 80° del piccolo fascio
di fibre che emerge da ogni piccola retina (o "retinula"), in mo­
do da compensare la rotazione dell'immagine dovuta alla len­
te e adattare l'orientamento delle piccole immagini all'orien­
tamento generale dell'occhio che, essendo costituito da canali
separati disposti radialmente, non opera alcuna inversione.
Risulta che le cose stanno proprio così. Dunque non si esagera
affatto dicendo che il sistema conosce le proprietà ottiche e
geometriche del singolo elemento visivo dell'occhio compo­
sto: si tratta di conoscenze fisiche che vengono incorporate
nella costruzione dell'occhio dell'insetto già nello stadio di
pupa, cioè prima che l'occhio sia mai stato usato. Conosco al­
cuni studiosi che non condividerebbero l'uso del termine "co­
noscenza" in questo contesto, ma esso mi sembra affatto ap­
propriato, purché se ne ignorino le connotazioni ideologiche e
introspettive.

Concetti acquisiti

Nessuno è mai veramente riuscito a vedere una specifica


traccia di memoria (o "engramma") nel cervello. D'altra parte,
è probabile che molti dei particolari della struttura del cervel­
lo (osservabili al microscopio elettronico o anche mediante i
normali microscopi ottici) si siano sviluppati durante il corso
della vita sulla base dell'esperienza. Trovare un engramma è
così difficile perché le nostre conoscenze sulla funzione dei
centri nervosi superiori indicano che esso consisterebbe in
una serie di piccoli cambiamenti distribuiti, letteralmente
sommersi da un'infinità di altri particolari rappresentanti,
forse, cambiamenti connessi con altri engrammi. Sarebbe for­
se possibile trovare la traccia di un evento percettivo soltanto
conoscendo a priori il modo in cui tale evento è rappresentato
nel cervello. È bensì vero che bruschi cambiamenti ambientali
(i cosiddetti "esperimenti di deprivazione") conducono talvol­
ta ad alterazioni visibili dell'anatomia normale, ma si tratta di
eventi di tipo molto diverso rispetto a quelli che sono di solito
all'origine dei ricordi della vita quotidiana.
È chiaro che solo i mutamenti anatomici permanenti pos­
sono aspirare al ruolo di engrammi. È piuttosto difficile di­
stinguere i processi embriologici che hanno originato il cer­
vello dai processi e dai mutamenti successivi che costituisco­
no la memoria, specialmente in quegli animali che, come i to­
pi, i ratti, i gatti e gli esseri umani, al momento della nascita
non hanno ancora completato il proprio sviluppo embriologi­
co. Tuttavia vi sono animali (ad esempio i porcellini d'India) la

203
cui nascita è, da uri punto di vista embriologico, più tarda, e
che si trovano a dover affrontare l'ambiente avendo un cervel­
lo già completamente sviluppato. In tali animali potrebbe es­
sere più facile individuare mutamenti in corso, eventualmen­
te connessi con la memoria. E in effetti Schiiz ha scoperto che
nei porcellini d'India il numero delle vescicole aumenta consi­
derevolmente in alcune sinapsi dopo la nascita, così come au­
mentano le dimensioni delle spine dendritiche (vedi Schiiz,
1981 a, 1 98 1 b). Entrambi questi fenomeni potrebbero essere
mutamenti anatomici dovuti ai processi della memoria.

RIFERIMENTI BIBLIOGRAFICI

Barlow, H.B. e W.R. Levick (1965), The Mechanism of Directionally


Selective Units in Rabbits Retina, in "J. Physiol.", 1 78, pp. 447-
506.
Barlow, H.B. e B.C. Reeves (1978), The Versatility and Absolute Effi­
ciency of Detecting Mirror Symmetry in Random Dot Displays, in
"Vision Res.", 1 9, pp. 783-793.
Braitenberg, V. ( 1 96 1 ), Functional lnterpretation of Cerebellar Histo­
logy, in "Nature", 1 90, pp. 539-540.
Braitenberg, V. ( 1 967a), fs the Cerebellar Cortex a Biologica[ Clock in
the Millisecond Range?, Progress in Brain Research. The Cerebel­
lum, 25, Elsevier Pubi. Comp., Amsterdam, pp. 334-346.
Braitenberg, V., ( 1 967b), Patterns of Projection in the Visual System
of the Fly. I. Retina-Lamina Projections, in "Exp. Brain Res.", 3,
pp. 27 1 -298.
Braitenberg, V. ( 1 978a), Cortica[ Architectonics: Generai and Area[, in
M.A.B. Brazier e H. Petsche (a cura di), Architectonics of the Cere­
bra[ Cortex, Raveo Press, New York.
Braitenberg, V. ( 1978b), Celi Assemblies in the Cerebra[ Cortex, Lectu­
re Notes in "Biomathematics", 2 1 , a cura di R. Heim e G. Palm,
Springer Verlag, Berlin, pp. 1 7 1 - 188.
Braitenbereg, V e H. Hauser-Holschuh (1972), Patterns of Projection
in the Visual System of the Fly. l. Quantitative Aspects of Second
Order Neurons in Relation to Models of Movement Perception, in
"Exp. Brain Res.", 1 6, pp. 184-209.
Hubel, D.H. e T.N. Wiesel ( 1 977), Functional Architecture of Macaque
Monkey Visual Cortex, in "Proc. R. Soc. London B", 1 98, pp. 1-59.
Reichardt, W. (1 970), The Insect Eye as a Mode[ for Analysis of Upta­
ke. Transduction and Processing of Optical Date in the Ne rvous
System, in 34 Physikertatung, Salzburg 1 969. Plenarvortrage,
B.G. Teubner, Stuttgart.
Schiiz, A. (198 1 ), Priinatale Reifung und postnatale Veriinderungen im
Cortex des Meerschweinches: Auswertung eines natiirlichen De­
privationsexperimentes. Il. Postnatale Veriinderungen, in "J.
Hirnforsch.", 22, pp. 1 1 3- 1 27.

204
Quali sono le unità della rappresentazione
neurale ?
di Gunther Palm

Scopo di queste pagine è discutere brevemente il proble­


ma della rappresentazione neurale centrale. Ora, a questo ri­
guardo sono due le posizioni principali che si contendono il
favore degli studiosi di scienze neurologiche: secondo alcuni,
gli oggetti del mondo esterno sono rappresentati centralmen­
te nel cervello (o nella corteccia cerebrale) mediante l'attiva­
zione dei singoli neuroni, mentre altri sostengono che tale
ruolo può essere sostenuto soltanto da insiemi di neuroni.
Fra i primi possiamo ricordare H. Barlow ( 1 972), e fra i se­
condi D. Webb (1 949). Tenterò di specificare le differenze fra
le due posizioni e risulterà chiaro, credo, che le mie persona­
li simpatie vanno alla seconda di esse.
Alla base della prima posizione vi è l'idea che vi deve pur
essere qualcosa nel mondo esterno cui il singolo neurone ri­
sponde, almeno in quelle parti del cervello più direttamente
legate all'attività sensoriale. Si possono comprendere le mo­
dalità di risposta di un gruppo di neuroni solo conoscendo le
proprietà della risposta di ogni singolo neurone nel gruppo.
Sembra quindi che il singolo neurone sia l'atomo naturale o
l'unità fondamentale della rappresentazione del "significato"
nel cervello.
La forza della seconda posizione sta invece nel fatto che
in un cervello finito i gruppi di neuroni sono più numerosi
dei neuroni singoli, purché si ammetta che i gruppi possano
sovrapporsi, e che quindi i gruppi o insiemi di neuroni pos­
sano nel loro insieme rappresentare più oggetti dei neuroni
presi singolarmente. Inoltre, dal punto di vista della prima
posizione, la rappresentazione di un dato oggetto andrebbe
persa quando il neurone corrispondente muore, come capita
spesso. Dovremmo quindi supporre, per scongiurare tale pe-

205
ricolo, che per ogni singolo oggetto vi siano più neuroni che
lo rappresentano individualmente: la seconda posizione rag­
giunge lo stesso scopo più direttamente, supponendo che gli
oggetti del mondo esterno siano rappresentati comunque da
insiemi di neuroni.
Potrebbe sembrare a questo punto che non vi sia più al­
cuna differenza residua fra le due posizioni se non forse nel­
la dimensione dei gruppi di neuroni che, per l'una come per
l'altra, rappresentano gli oggetti esterni. Ma non è così. La
differenza principale sta nel grado di sovrapposizione am­
messo per i diversi gruppi e nella connettività fra neuro­
ni del gruppo. È anche vero, tuttavia, che la prima posizio­
ne preferirebbe mantenere piccola la dimensione dei grup­
pi di neuroni, e ciò in conseguenza della difficoltà di spie­
gare come potrebbero sovrapporsi. Infatti, in un cervello
composto da N neuroni vi sono soltanto N/n gruppi disgiunti

( )=
di neuroni ciascuno costituito da n elementi, mentre vi sono
N N!
gruppi eventualmente sovrapposti di n
n n! (N - n)!
elementi.
Torneremo più tardi sulle differenze relative al grado di
connettività ammesso all'interno dei gruppi di neuroni, e
concentriamoci, per ora, sul grado di sovrapposizione. Se i
gruppi di neuroni rappresentanti oggetti diversi fossero es­
senzialmente disgiunti, allora la maggior parte dei neuroni
individuali dovrebbe rispondere a oggetti individuali. Se fos­
sero tuttavia in buona misura sovrapposti, allora la maggio­
ranza dei singoli neuroni non risponderebbe a un unico og­
getto, ma a tanti oggetti distinti quanti sono gli insiemi in
cui occorre.
Vi è una particolare difficoltà cui va incontro l'idea della
rappresentazione mediante insiemi di neuroni: quanto mag­
giore è il loro grado di sovrapposizione, tanto più difficile è
separarli (come ha detto Hume "Tutte le idee che sono diffe­
renti sono separabili"). Le seguenti domande esprimono tale
difficoltà in forma quantitativa:
a) Dati due insiemi distinti di neuroni, qual è il grado
ammesso della loro intersezione?
b) A quanti insiemi distinti appartiene, mediamente, ogni
singolo neurone ?
c) Qual è il numero totale degli insiemi di neuroni ?
d) Di che dimensiof\i sono questi insiemi ?
Per rispondere a tali domande dovremmo poter confron­
tare diversi schemi di rappresentazione relativamente a un
qualche criterio di ottimizzazione in base al quale scegliere
lo schema "ottimo". A questo punto può forse tornare utile

206
l'esperienza accumulata in Intelligenza Artificiale riguardo
all'efficacia dei diversi schemi di rappresentazione: nell'am­
bito di tale disciplina si è ormai appurato che la difficoltà di
un problema dipende moltissimo dal modo in cui si è scelto
di rappresentarlo, e tale scelta costituisce spesso il passo de­
cisivo per giungere alla soluzione. Ma la scelta della rappre­
sentazione effettivamente più utile dipende essenzialmente e
quasi interamente dal particolare problema considerato, sen­
za che sia possibile individuare alcun criterio generale. Nel
nostro caso si tratta di reperire uno schema generale per la
rappresentazione degli oggetti e delle entità del mondo ester­
no che risultino di volta in volta pertinenti. Come giudicare
la pertinenza di un oggetto? Stiamo parlando, è chiaro, del­
l'importanza relativa al tipo di problemi che si presenta nel
corso della lotta per la sopravvivenza condotta da un anima­
le lungo tutto l'arco della propria vita. Poiché ciò che voglia­
mo reperire è un criterio di ottimizzazione per uno schema
di rappresentazione generale, bisogna individuare un'attività
altrettanto generale di soluzione dei problemi, che sia al
tempo stesso indipendente dallo specifico problema cui è ap­
plicata. È mio parere che tale attività sia quella della memo­
ria e, più specificamente, quella dell'associazione e del com­
pletamento di configurazioni.
L'associazione di configurazioni è la capacità della me­
moria di imparare che B è associato ad A in modo da asso­
ciare B se sottoposti allo stimolo A. Il completamento di con­
figurazioni è la capacità di imparare la configurazione A in
modo da ricordarla per intero se ce ne viene presentata una
parte sufficientemente grande. Lo strumento migliore per lo
svolgimento di entrambe queste attività sembra essere una
memoria associativa (vedi Palm, 1 985).
L'idea di memoria associativa è molto vicina a quella di
insiemi cellulari, proposta da Hebb (1 949), e ciò ci riporta al
nostro problema di rappresentazione. Possiamo pensare a
una configurazione memorizzata A, specialmente ai fini del
suo completamento, come a un insieme di neuroni intercon­
nessi in modo eccitatorio. In effetti, possiamo anche suppor­
re che il processo di memorizzazione di A consista essenzial­
mente nella realizzazione (o, almeno, nel rafforzamento) di
queste connessioni fra i neuroni dell'insieme che rappresen­
ta A. Avremmo così, ovviamente, che l'attivazione di pochi
neuroni sarebbe sufficiente ad attivare l'intero insieme, e ciò
grazie alla presenza delle connessioni eccitatorie.
Possiamo ora tentare di rispondere alle quattro domande
precedenti, chiarendo al contempo le differenze relative alla
connettività fra le due posizioni discusse. È chiaro che la se-

207
conda di tali posizioni si fonda sulla presenza di numerose
connessioni di feedback positivo fra i neuroni dell'insieme.
Viceversa, la prima non richiede feedback positivo, quanto
piuttosto connessioni gerarchiche di feedforward convergen­
ti su neuroni singoli preposti al rilevamento di caratteristi­
che complesse che possiamo considerare come "oggetti".
Questa distinzione mette in luce i pericoli inerenti allo
schema di organizzazione a insiemi di neuroni. Se le connes­
sioni di feedback positivo sono troppo numerose, un piccolo
numero di neuroni attivi sarà sufficiente a provocare delle
vere e proprie esplosioni di attivazione. È chiaro che una so­
vrapposizione eccessiva farebbe sì che l'attivazione di un so­
lo insieme di neuroni porti alla co-attivazione degli insiemi a
esso significativamente sovrapposti, mentre una sovrapposi­
zione insufficiente riduce il numero totale degli insiemi pos­
sibili, riducendo così anche il numero delle configurazioni o
degli oggetti memorizzabili. Un valore intermedio dovrebbe
essere quello ottimo, determinabile mediante un criterio di
ottimizzazione derivato dall'idea che il compito della rappre­
sentazione sia la memoria, e in particolare il completamento
di configurazioni. Tale valore ottimo è stato determinato in
una serie di articoli (vedi Palm 1 980, 1 9 8 1 , 1 984, 1 985a) i cui
risultati non voglio riportare in questa sede.
Per finire, mostrerò concretamente come sia possibile
confinare l'attivazione a un insieme di neuroni, evitando che
gli insiemi a esso sovrapposti ne siano a loro volta attivati. Il
meccanismo neurale fondamentale alla base di questo feno­
meno è il controllo a soglia (threshold contro[), che si avvale
del fatto che ogni neurone ha una soglia di attivazione al di
sotto della quale resta inattivo, e che può essere identificata
con il numero di segnali attivi che il neurone riceve in in­
gresso.
Supponiamo che vi siano due insiemi A e B, ognuno dei
quali è composto da n neuroni interconnessi, aventi esatta­
mente k neuroni in comune. Supponiamo parimenti che vi
sia un insieme C di neuroni, tutti attivi, che appartengono ad
A oppure a B : l'attivazione tenderà allora a espandersi attra­
verso le connessioni neuronali, coinvolgendo tanto A quanto
B. Ora, l'ipotesi critica è che il valore della soglia sia funzio­
ne del grado di attivazione della rete neuronale nel suo com­
plesso. Finché in ogni neurone la soglia si mantiene superio­
re al numero dei neuroni appartenenti a C, C non può attiva­
re alcun neurone e il flusso di attivazione si esaurirà. Tutta­
via, abbassandosi la soglia, e purché C riesca ad attivare an­
che un solo neurone, verranno attivati tutti quei neuroni che
ricevono da C il massimo numero di segnali in ingresso. Ab-

208
biamo cosi, m altre parole, il rilevamento di un massimo.
Nell'esempio, C ha più neuroni in comune con A di quanti ne
abbia con B. Ne segue che i neuroni di A, attraverso le loro
interconnessioni, ricevono più segnali in ingresso rispetto a
B, e ne vengono attivati.
Una volta che A è attivo, resta tale, ma l'attività non si
trasmette a B, almeno finché la soglia di ogni neurone si
mantiene al di sotto delle dimensioni di A e al di sopra delle
dimensioni dell'intersezione di A e B. Risulta chiaro, anche
da questo semplice esempio, che i pericoli derivanti da un al­
to grado di sovrapposizione fra insiemi di neuroni e di feed­
back positivo possono essere scongiurati da un adeguato
meccanismo di controllo a soglia (per i particolari di tale
meccanismo vedi Palm, 1982, 1 98Sb).

RIFERIMENTI BIBLIOGRAFICI

Barlow, H.B. (1 972), Single Units and Sensation: a Neuron Doctrine


for Perceptual Psychology?, in "Perception", l , pp. 371-394.
Hebb, D.O. (1 949), The Organization of Behaviour, John Wiley, New
York.
Palm, G. (1 980), On Associative Memory, in "Biol. Cybem.", 36, pp.
19-3 1 .
Palm, G. ( 1 98 1 ), On the Storage Capacity o f an Associative Memory
with Randomly Distributed Storage Elements, in "Biol. Cy­
bem.", 39, pp. 125-1 27.
Palm, G. ( 1 982), Neural Assemblies: an Approach to Artificial Intelli­
gence. Studies of Brain Function, Springer Verlag, Berlin
Palm, G. ( 1 984), Local Synaptic Modification Can Lead to Organized
Connectivity Patterns in Associative Memory, in E. Frehland (a
cura di), Synergetics. From Microscopic to Macroscopic Order,
Springer Verlag, Berlin.
Palm, G. (1 985a), Associative Ne tworks and Celi Assemblies, in A.
Aersten e G. Palm (a cura di), First Trieste Meeting on Brain
Theory, Springer Verlag, Berlin.
Palm, G. (1 985b), Wissenpsychologie und Neurophisiologie, in H.
Mandi e H. Spada (a cura di), Wissenpsychologie, Urban und
Schwarzenberg, Miinchen.

209
L'epistemologia evoluzionistica tra creatività
naturale e creatività artificiale
di Vittorio Somenzi

Per "creatività naturale" si può intendere anzitutto la crea­


tività della natura, espressa nelle varie forme vegetali e ani­
mali e contrapposta alla creatività dell'uomo visto come unico
"animale culturale".
Se invece anche alla creatività umana viene assegnato un
carattere di "naturalità", alla creatività naturale dell'uomo
viene a contrapporsi la creatività artificiale delle sue macchi­
ne, in particolare dei calcolatori programmati per esibire una
qualche forma di intelligenza.
La mancanza di questo genere di distinzioni rende piutto­
sto paradossale la posizione di Karl Popper, il quale stabilisce
una continuità senza salti tra la creatività della natura e quel­
la dell'uomo, e la posizione dei suoi seguaci Fogel, Owens e
Walsh, i quali ritengono direttamente applicabile allo svilup­
po dell'Intelligenza Artificiale la stessa tecnica di variazione a
caso e selezione attribuita alla natura dalle interpretazioni
darwiniane e neodarwiniane dell'evoluzione.
Popper sostiene che "gli scienziati, per quanto scettici, so­
no costretti ad ammettere che l'universo, o la natura, o come
altro lo si voglia chiamare, è creativo. Perché ha prodotto uo­
mini creativi: ha prodotto Shakespeare e Michelangelo e Mo­
zart, quindi indirettamente le loro opere. Esso ha prodotto
Darwin e così ha creato la teoria della selezione naturale". 1
Fogel, Owens e Walsh aggiungono all'identificazione tra
universo creatore di uomini creativi e universo creatore di
idee l'identificazione del metodo con cui è stato creato l'uomo
con il metodo con cui questo ha creato la scienza:

I l metodo scientifico non è stato inventato, è stato scoperto. Esso


esisteva molto tempo prima dell'uomo; in effetti, esso ha dato ori-

210
gioe all'uomo. L'evoluzione naturale può venire vista come una
realizzazione del metodo scientifico [ . ] Alcuni degli aspetti am­
..

bientali dell'evoluzione possono venire simulati. Nella sua es­


senza, questa simulazione costituisce una meccanizzazione del
metodo scientifico [ .] Il processo di induzione è stato ridotto a
..

una procedura di routine. Se "creatività" e "immaginazione" so­


no attributi essenziali di questo processo, allora anche esse so­
no state realizzate. 2

Nonostante il loro ottimismo, la proposta di Fogel,


Owens e Walsh è stata scartata da McCarthy e Hayes i quali,
come altri specialisti di Intelligenza Artificiale, preferiscono
prendere a modello l'epistemologia tradizionale anziché l'e­
pistemologia evoluzionistica. 3
D'altronde anche il programma battezzato Dendral da Le­
derberg, Buchanan e Feigenbaum può funzionare, secondo
Margaret Boden, "solo entro un ambito assai ristretto e spe­
cializzato di un paradigma scientifico saldamente stabilito
[ ] Il salto creativo verso un nuovo paradigma scientifico,
...

che T.S. Kuhn ha paragonato a uno scatto gestaltico [...] è al


di là della portata del ragionamento di Dendral" . 4
Per quanto riguarda l'analisi dei processi creativi testi­
moniati dalla storia della scienza, è stato rilevato da Bob Co­
ben e Max Wartofsky, nelle loro prefazioni a due volumi cu­
rati da Thomas Nickles, 5 che "la scoperta scientifica sta ve­
nendo riscoperta", dopo un lungo periodo in cui essa è stata
esclusa dal dominio della filosofia della scienza e confinata
nel campo "dell'intrattabile, dell'ineffabile, dell'imperscruta­
bile". Viene ripresa la tradizione che da Whewell, Mach,
Poincaré, Peirce, Rignano ed Enriques giunge alle ricerche
sul problem solving e sull'euristica di Polya, Hadamard e Po­
lanyi, e ad essa si ricollegano i recenti studi di epistemologia
evoluzionistica promossi da Donald Campbell, Konrad Lo­
renz e Karl Popper.
Donald Campbell, in particolare, insiste sulla utilità di
questa coraggiosa entrata nel "contesto della scoperta", dopo
tanto inchiostro dedicato al "contesto della giustificazione"
dai fondatori dell'empirismo logico e dalla successiva gene­
razione di filosofi della scienza. Ai numerosi esempi di de­
scrizioni o analisi psicologiche dei processi di invenzione, in­
novazione o scoperta, effettuati dai protagonisti stessi e in
parte riportati in un saggio di Campbell dedicato a Popper, 6
possiamo aggiungerne ora altri, che pure si prestano a una
analisi in termini di epistemologia evoluzionistica.
Nickles prende l'avvio dal lavoro di Reichenbach, il quale
dopo avere introdotto la distinzione tra i due contesti, della
scoperta e della giustificazione, dedicò al primo, nel 1938,

211
un'attenzione che nel mondo anglosassone non ebbe seguito
fino ai lavori di Hanson del decennio 1 958-1 967.
Nickles vuole tuttavia evitare la caduta nella "matafora
percettiva" adottata da Hanson e Kuhn, sulla scia degli psi­
cologi della Gestalt, e limita il valore della casistica che fa ri­
ferimento a illuminazioni improvvise e a sogni a una parte
marginale, "epifenomenica", del vero e proprio processo di
scoperta, sia esso induttivo come voleva Reichenbach o ipo­
tetico-deduttivo come vuole Popper.
Dal punto di vista degli epistemologi evoluzionistici, i nu­
merosi esempi di insight appaiono invece rilevanti ai fini del­
l'affermazione che "solo il caso può generare novità" e che il
metodo da Darwin attribuito alla natura è il metodo miglio­
re per la produzione di idee veramente nuove da parte del­
l'uomo. L'accusa di "irrazionalità" a questo tipo di spiegazio­
ni del processo creativo viene comunque respinta da Nickles,
sulla base della considerazione che "non tutte le nostre atti­
vità e capacità razionali possono venire rese intelligibili in
termini di deliberazione pienamente cosciente, ma questo
non le rende per niente meno razionali; dopotutto, i procedi­
menti della scoperta scientifica costituiscono una prova fa­
miliare del fatto che il cervello umano opera sottili calcoli e
valutazioni a un livello subconscio".
Quanto all'aspetto normativa che una metodologia, se
non una logica, della scoperta scientifica dovrebbe esibire,
Nickles trova lacunose le interpretazioni a base di eureka!
poiché ne seguirebbe solo un invito a prendere molti amni­
bus o treni, sull'esempio di Poincaré, a sonnecchiare davanti
al caminetto, come Kekulé, a sedere sotto il melo di Newton
o, possiamo aggiungere, a distendersi nella vasca di Archi­
mede: si completa così la triade "Bus, Bath, Bed" di cui parla
Wolfgang Koehler. 7
Da questo non si deduce che la "variazione alla cieca con
conservazione selettiva" di Campbell sia da porre sullo stes­
so piano del "qualunque cosa va bene" di Feyerabend. Il pro­
blema si sposta sui criteri selettivi di cui dovrebbe far uso il
singolo scienziato, prima ancora che la comunità scientifica,
per valutare le combinazioni casuali di idee su cui vale la pe­
na di soffermarsi in vista della risoluzione di determinati
problemi.
La possibilità che questi criteri selettivi risultino esprimi­
bili in termini razionali viene esclusa dai positivisti logici in
base al cosiddetto "dilemma della spiegazione". Se una teo­
ria ha successo nel fornire una spiegazione della scoperta e
dell'invenzione, allora essa riduce il pensiero creativo nella
scienza a una procedura algoritmica, o a una conseguenza

212
deduttiva della teoria esplicativa, dissolvendo così la nozione
stessa di creatività. Se la teoria fallisce nel tentativo di dare
una spiegazione di questo genere, allora si tratta natural­
mente di una teoria fallita. Il dilemma è: o la teoria ha suc­
cesso, e il concetto di scoperta viene spiegato via ovvero ri­
duttivamente eliminato, o la teoria fallisce, e la scoperta ri­
mane inspiegata.
Una critica a questa impostazione sterilizzante era stata
fornita da Harold Brown nei termini che così Nickles ripre­
senta:
Il tentativo degli empiristi logici di identificare la razionalità
con la computabilità algoritmica ap pare piuttosto strano, poi­
ché esso presume razionali solo quelle azioni umane che in li­
nea di principio potrebbero essere eseguite senza la presenza di
un essere umano [ . . .] Piuttosto, quelle decisioni che possono ve­
nire prese mediante l'applicazione di algoritmi sono casi para­
digmatici di situazioni in cui la razionalità non è richiesta; è
proprio in quei casi che esigono una decisione o una nuova idea
non dettabili da regole meccaniche, che noi invochiamo la ra·
gione.

Tra gli "amici della scoperta" un posto a parte viene asse­


gnato da Nickles a Kenneth Schaffner, in quanto la sua fidu­
cia nella possibilità di una logica della scoperta si fonda sui
successi della scuola di programmazione euristica di Her­
bert Simon, cioè trasporta la questione della scoperta dal
campo della epistemologia speculativa a quello, empirico,
dell'Intelligenza Artificiale.
Schaffner non si limita alle logiche di tipo strettamente
algoritmico, pertanto non cade nel dilemma della spiegazio­
ne, al quale è rimasta ancorata la Logik der Forschung di
Popper, abusivamente intitolata in inglese e in italiano Logi­
ca della scoperta scientifica (Popper esclude, come noto, che
l'atto di concepire o inventare una teoria sia suscettibile di
analisi logica, e rinvia alla psicologia empirica lo studio del­
la nascita di nuove idee; lo stesso faceva Reichenbach in Ex­
perience and Prediction).
Schaffner riprende il discorso selezionistico dell'immuno­
logia avviato da Niels Kaj Jerne nel 1 954, senza rilevare che
anche questo costituisce un caso di illuminazione improvvisa
e che, sia sotto tale aspetto sia sotto quello della metodolo­
gia darwiniana adottata da Jerne, esso rappresenta un esem­
pio di epistemologia evoluzionistica " inespressa".
Nel marzo 1 954 Jerne stava meditando sul contrasto tra
la presenza di una grande varietà di anticorpi, ciascuno in
piccolissima concentrazione, nel siero di cavalli su cui stava

213
sperimentando, e le teorie allora in auge sulla generazione di
anticorpi; queste teorie erano di tipo "istruttivo" (cioè la­
marckiano) nel senso che l'antigene darebbe al sistema im­
munitario, agendo come una matrice, l'informazione struttu­
rale necessaria per "stampare" l'anticorpo a esso comple­
mentare.
Jerne così inquadra l'episodio:
Può la verità (la capacità di sintetizzare un anticorpo) venire ap­
presa? Se è così, si deve assumere che essa non pre-esista: per
essere appresa deve essere acquisita. Siamo di fronte alla diffi­
coltà su cui richiama l'attenzione Socrate nel Menone, cioè che
ha così poco senso cercare ciò che non si conosce, quanto cerca­
re ciò che si conosce; non si può cercare ciò che si conosce, per­
ché lo si conosce già, e ciò che non si conosce non lo si può cer­
care, poiché non si sa neppure cosa cercare. Socrate risolve
questa difficoltà postulando che l 'apprendimento non è altro
che rievocazione. La verità (la capacità di sinte tizzare anticorpi)
non può essere portata dentro da fuori, ma doveva esserci già.

Questo passo è la traduzione delle prime righe di Briciole


filosofiche (1 844) di S�ren Kierkegaard (in inglese Philoso­
phical Bit, or a Bit of Philosophy). Secondo Jerne, sostituen­
do la parola verità con le parole tra parentesi la tesi socrati­
ca può venire fatta diventare la base logica della teoria selet­
tiva della formazione di anticorpi.
Per dirla i n termini d i biologia molecolare - prosegue Jeme -
le potenzialità sintetiche non possono venire imposte agli acidi
nucleici, devono invece preesistere. Non so se echi di Kierke­
gaard contribuirono all'idea di un meccanismo selettivo della
formazione di anticorpi, che mi venne una sera del marzo 1 954,
mentre stavo andando a piedi a casa, a Copenhagen, dall'Istitu­
to statale del siero ad Amaliegade. Il corso del pensiero si pre­
sentò così: la sola proprietà che tutti gli antigeni condividono è
quella di attaccarsi al sito combinante di una appropriata mole­
cola di anticorpo; questo attaccamento deve perciò essere un
passo cruciale nella sequenza di eventi per cui l'introduzione di
un antigene in un animale conduce alla formazione di anticorpi;
un milione di siti combinanti strutturalmente differenti, sugli
anticorpi, basterebbe per spiegare la specificità sierologica [. .]
.

Tre meccanismi vanno presupposti:


(l) un meccanismo casuale che assicuri la sintesi limitata di
molecole di anticorpi in possesso di tutti i possibili siti combi­
nanti, in assenza di antigeni;
(2) un meccanismo di depurazione che reprime la sintesi di mo­
lecole di anticorpi corrispondenti ad auto-antigeni;
(3) un meccanismo selettivo per promuovere la sintesi di quelle
molecole di anticorpi che meglio corrispondono a qualsiasi anti­
gene entri nell'animale.

214
La struttura generale della teoria era completa prima che io at­
traversassi il ponte di Knippel. Decisi di lasciarla maturare e te­
nerla da parte per una prima discussione con Max Delbriick du­
rante il nostro viaggio negli Stati Uniti, previsto per l'estate.

Schaffner si imbatte poi in un caso dichiarato di illumi­


nazione improvvisa: la formulazione, da parte di F.M. Bur­
net, di una "Modificazione della teoria di Jerne della produ­
zione di anticorpi, facente uso del concetto di selezione clo­
nale". La nuova teoria venne enunciata nel 1 957, sviluppata
l'anno seguente e pubblicata nel 1 959 col titolo The Clonai
Selection Theory of Acquired Immunity; ma incontrò resi­
stenze e pseudo-falsificazioni fino al 1 967, quando cominciò
a venire accettata dalla massima parte degli specialisti.
L'idea di sostituire gli anticorpi naturali di Jerne con le
cellule che li producevano e di applicare un processo seletti­
vo in senso darwiniano alle cellule producenti anticorpi si è
presentata a Burnet come l'elemento mancante di un mosai­
co da completare, con uno "scatto" netto e improvviso.
Schaffner depreca che questa esperienza di Burnet venga da
lui raccontata in termini di illuminazione e quindi rafforzi la
tesi di Popper della "illogicità" della scoperta; ma non dispe­
ra di sistemare alcuni elementi irrazionali del processo di
scoperta nel quadro dei suoi aspetti valutativi preliminari,
solo in apparenza inanalizzabili perché inconsci. Il rinvio al­
le ricerche sull'Intelligenza Artificiale dovrebbe appunto
permettere di ovviare a livello modellistico a questa mancan­
za di analisi diretta.
Herbert Simon ha cercato di ricondurre i processi di in­
cubazione e illuminazione improvvisa, descritti da Poincaré,
Hadamard e Wertheimer (il capitolo dedicato a Einstein ne
Il pensiero produttivo) a elaborazioni seriali di informazione
qualitativamente non diverse da quelle che avvengono nel
problem solving totalmente consapevole. 8
Simon respinge l'idea che i processi inconsci o subconsci
avvengano per elaborazione in parallelo anziché in serie (co­
me era lecito ipotizzare quando alle proprietà digitali e ana­
litiche dell'emisfero dominante venivano decisamente con­
trapposte le capacità analogiche e sintetiche dell'emisfero
"minore") e insiste sulla possibilità che un sistema seriale si­
muli, per time sharing, il comportamento di un sistema ope­
rante in parallelo.
La sua teoria "minimale" mira pertanto a spiegare me­
diante i noti meccanismi selettivi di prova ed errore della fa­
se preparatoria anche i misteriosi processi di incubazione e
illuminazione, così come mira a spiegare con meccanismi

215
qualitativamente non diversi da quelli della scienza normale i
periodi di scienza rivoluzionaria, assai pochi in confronto alle
migliaia di anni-uomo occorsi per la loro preparazione.
Poiché il numero di simboli che possono venire conservati
nella memoria a breve scadenza, o "immediata", si limita al
celebre "sette più o meno due" di George Miller, secondo Si­
mon occorre che un processo di "familiarizzazione" immagaz­
zini nella memoria permanente tale e tanta informazione
strutturabile da permettere il suo riconoscimento globale sot­
to un'unica etichetta, sia questa un nome o un simbolo. Le
strutture più complesse possono venire acquisite soltanto co­
struendole passo a passo a partire da sottostrutture a loro vol­
ta formate da sottostrutture più piccole. Quando una sotto­
struttura viene appresa o immagazzinata nella memoria per­
manente, il simbolo che funziona internamente come suo "no­
me" può venire usato nella memoria immediata come un pez­
zo unico combinabile con altre sottostrutture. In questo mo­
do, una struttura totale di grandezza illimitata può venire da
noi realizzata !imitandoci a trattenere nella memoria imme­
diata pochi simboli.
Un secondo meccanismo ideato da Simon per spiegare l'in­
cubazione e l'illuminazione subitanea consiste nel processo di
dimenticanza selettiva, che permette di dimenticare più rapi­
damente alcuni contenuti di memoria rispetto ad altri. Nella
organizzazione tipica di un programma di risoluzione di pro­
blemi, gli sforzi risolutivi vengono guidati e controllati da una
gerarchia o "albero" di scopi e sottoscopi, che viene memoriz­
zata. Una volta raggiunto un sottoscopo, per esempio un lem­
ma nella dimostrazione di un teorema, esso può venire dimen­
ticato, ma l'albero degli scopi non raggiunti va mantenuto in
una memoria a termine relativamente breve. Rimane invece
impressa nella memoria a lungo termine la "lavagna", come la
chiama Simon, contenente tutte le informazioni collaterali che
il soggetto ha raccolto circa l' "ambiente" del problema e che
non riguardano direttamente il raggiungimento dei sottoscopi.
Quando il soggetto si allontana per un certo tempo dal pro­
blema, l'informazione a breve termine dell 'albero degli scopi
sparisce più rapidamente di quella a lungo termine della lava­
gna; se il problema viene poi riaffrontato, sarà quest'ultima a
determinare la ricostruzione dell'albero degli scopi, il quale si
presenterà ora in maniera diversa da quella iniziale, grazie al­
la nuova informazione sui dintorni del problema registrata
nella lavagna. Il cambio di prospettiva, ovvero di struttura
dell'albero, può dar luogo all'improvvisa risoluzione di un
problema che con la precedente gerarchia di scopi incontrava
difficoltà insormontabili.

216
Quantunque Simon abbia applicato con successo questo
modello alle proprie esperienze soggettive di illuminazione,
egli lo ritiene ancora carente di convalide sperimentali e lo
difende soprattutto per la sua economicità, dato che non pre­
suppone processi diversi da quelli consci, neppure nel senso
di una inconsapevole ricerca a caso entro una immensa gam­
ma di possibilità.
A questo tipo di rifiuto del modello darwiniano di varia­
zione alla cieca, Campbell replica rilevando nel modello di
Simon la persistenza di una procedura alla cieca, per tentati­
vi ed errori, applicata ai principi euristici, la selezione tra i
quali avverrebbe in base a una conoscenza generale prece­
dentemente acquisita, che in quanto tale non può spiegare
una conoscenza realmente innovativa. Ma Simon ha idee pre­
cise anche sul paradosso del Menone, e la discussione tra i
due è ancora in corso. (Per altri aspetti dei modelli di Simon
rinvio agli interventi di Roberto Cordeschi e di Giacomo Ga­
va in questo stesso convegno.)

NoTE

l K. Popper, Natural Selection and the Emergence of Mind, in "Dialecti­


ca ", 32, 3-4, 1978.
2 J . Fogel, A.J. Owens e J. Walsh, A rtificial Intelligence Th rough Simula­
ted Evolution, Wiley, New York 1966, p. 1 1 2 .
3 J. McCarthy e P.I. Hayes, Some Philosophical Problems from the
Standpoint of A rtificial Intelligence, in B. Meltzer, D. Michie e M. Swann (a
cura di), Machine Intelligence, vol. 4, Edinburgh University Press, Edin­
burgh 1969.
4 M.A. Boden, Artificial lntelligence and Natural Man, The Harvester
Press, Hassocks 1 977, p. 332.
5 T. Nickles (a cura di), Scientific Discovery, Logic, and Rationality, Bo­
ston Studies in the Philosophy of Science, Reidel, Dordrecht 1 980; T. Nick­
les (a cura di), Scientific Discovery: Case Studies, Boston Studies in the Phi­
losophy of Science, Reidel, Dordrecht 1 980.
6 D.T. Campbell, Epistemologia evoluzionistica, a cura di M. Stanzione,
Armando, Roma 1 98 1 .
7 W. Koehler, Evoluzione e compiti della psicologia della forma, Arman­
do, Roma 1 97 1 .
8 H.A. Simon, Models of Discove ry, Reidel, Dordrecht 1977; H.A. Simon,
Models of Thought, Yale University Press, New Haven 1 979.

RIFERIMENTI BIBLIOGRAFICI

Beveridge, W.I.B ( 1 98 1), L'arte della ricerca scientifica, a cura di F.


Voltaggio, Armando, Roma.
Beveridge, W.I.B. ( 1 982), Genesi della scoperta, Armando, Roma.

217
Campbell, D.T. (1 969), Variazioni alla cieca e sopravvivenza seletti­
va come strategia generale nei processi conoscitivi, in V. So­
menzi (a cura di), La fisica della mente, Boringhieri, Torino.
Campbell, D.T. (1 974), Unjustified variation and selective retention
in scientific discovery, in F.J. Ayala e T. Dobzhansky (a cura
di), Studies in the philosophy of biology, Macmillan, London.
Campbell, D.T. (198 1), Epistemologia evoluzionistica, a cura di M.
Stanzione, Armando, Roma.
Cimino, G., Grmek, M.D. e V. Somenzi (a cura di) ( 1984), La scoper­
ta scientifica, Armando, Roma.
Continenza, B., Cordeschi, R., Gagliasso, E., Ludovico, A. e M.
Stanzione (1 984), Evoluzione e modelli, Editori Riuniti, Roma.
Edelmar, G.M. (1 974), The problem of molecular recognition by a
selective system, in F.J. Ayala e T. Dobzhansky (a cura di), Stu­
dies in the philosophy of biology, Macmillan, London.
Enriques, F. ( 1 985), Problemi della scienza, Zanichelli, Bologna.
Fogel, L.J., Owens, A.J. e M.J. Walsh (1 966), Artificial intelligence
through simulated evolution, Wiley, New York.
Hadamard, J. (1 945), The psychology of invention in the mathema­
tical field, Princeton University Press, Princeton.
Hanson, N.R. (1 978), I modelli della scoperta scientifica, Feltrinelli,
Milano.
Holton, G. ( 1 983), L 'immaginazione scientifica, Einaudi, Torino.
Holton, G. ( 1 984), L 'intelligenza scientifica, Armando, Roma.
Kierkegaard, S. (1 987), Briciole filosofiche, Queriniana, Brescia.
Kuhn, T.S. (1 978), La struttura delle rivoluzioni scientifiche, Einau-
di, Torino.
Lorenz, K. ( 1 974), L 'altra faccia dello specchio, Adelphi, Milano.
Mach, E. (1 982), Conoscenza ed errore, Einaudi, Torino.
Magnani, L. (a cura di) ( 1 984), Epistemologie dell 'invenzione, Ange­
li, Milano.
Miller, G.A. (1 969), Il magico numero sette, piu o meno due, in D.H.
Hildum (a cura di), Linguaggio e pensiero, Ubaldini, Roma.
Nickles, T. (a cura di) (1 980a), Scientific discovery, logic, and ratio­
nality, Reidel, Dordrecht.
Nickles, T. (a cura di) ( 1 980b), Scientific discovery: Case studies, Rei­
del, Dordrecht.
Plotkin, H.C. (a cura di) (1 982), Learning, development and culture,
Wiley, New York.
Polanyi, M. (1 962), Personal knowledge, Routledge and Kegan Paul,
London.
Polanyi, M. (1 975), La conoscenza inespressa, a cura di F. Voltaggio,
Armando, Roma.
Polya, G. ( 1 967), Come risolvere i problemi di matematica, Feltrinel­
li, Milano.
Popper, K. ( 1975), Conoscenza oggettiva, a cura di A. Rossi, Arman­
do, Roma.
Popper, K. ( 1 972), Congetture e confutazioni, Il Mulino, Bologna.
Rignano, E. ( 1 920), Psicologia del ragionamento, Zanichelli, Bo­
logna.
Simon, H.A. (1 977), Models of discovery, Reidel, Dordrecht.

218
Simon, H.A. ( 1 979), Models of thought, Yale University Press, New
Haven.
Somenzi, V. ( 1 956), Can induction be mechanized?, in C. Cherry (a
cura di), Information Theory, Butterworths, London.
Somenzi, V. (a cura di) (1 965), La filosofia degli automi, Boringhieri,
Torino.
Somenzi, V (1 967), Uomini e macchine, in Atti del XXI Congresso
Nazionale di Filosofia, Edizioni di "Filosofia", Torino.
Somenzi, V. (1 968), Aspetti filosofici del problema della "Intelligenza
Artificiale ", in Atti del Convegno "L 'automazione elettronica e le
sue implicazioni scientifiche, tecniche e sociali ", Accademia Na­
zionale dei Lincei, Roma.
Somenzi, V. (1 972), Intelligenza naturale e intelligenza artificiale, in
"Filosofia", l .
Somenzi, V. (1 978), Epistemologia evoluzionistica e creatività scien­
tifica, in "La Nuova Critica", 45.
Wertheimer, M. (1 965), Il pensiero produttivo, Editrice Universita­
ria, Firenze.

2 19
Creatività scientifica tra psicologia
e neurofisiologia
di Giacomo Gava

Premesse

l . Il problema della creatività si colloca all'interno del


più ampio problema mente-cervello: è un suo sottopro­
blema.
2. Oggi in particolare il nocciolo del dibattito sulla crea­
tività scientifica si riduce a sostenere da un lato la logica, le
logiche o, come altri preferiscono, la razionalità del proces­
so creativo, dall'altro la sua irrazionalità o uno scetticismo.
Ci si chiede cioè se ad esso possiamo applicare oppure no
delle regole logiche, se le possiede o no.
3. Alcuni dei teorici della creatività scientifica studiano
questo fenomeno negli scienziati adulti e altamente creativi
in generale, è il caso di J. Hadamard e di H. Gruber 1 altri
invece concentrano l 'attenzione sui processi creativi delle
persone adulte e altamente creative nei singoli settori della
ricerca, come Th. V. Busse e R. S. Mansfield. 2 Tutti questi
autori però concordano nel ritenere che le loro teorie, men­
tre sono sicuramente applicabili nelle aree scientifiche, non
lo sono forse altrettanto in quelle non scientifiche.

Modelli psicologici

H. von Helmholtz (1821-1 894) nel suo lavoro del 1 896 3 as­
serisce che vi sono tre fasi nel suo lavoro creativo:
l) la ricerca iniziale viene portata avanti finché non si
può più procedere oltre;
2) segue un periodo di riposo e di ricupero;
3) si presenta una soluzione improvvisa e spontanea. 4

220
H. Poincaré (1 854- 1 9 1 2) nella sua famosa conferenza alla
Société de Psychologie di Parigi descrive la teoria dei gruppi
fuchsiani e delle funzioni fuchsiane. Circa i primi, così egli si
esprime:
Una sera, contrariamente al solito, bevvi del caffè nero e non
riuscii a prender sonno. Le idee mi si affollarono alla mente ed
io le sentii scontrarsi tra loro finché non si agganciarono a cop­
pia, formando, per così dire, una combinazione stabile. 5
[ . . ] Cos'è dunque che accade ? Del gran numero di combinazioni
.

che l'io subliminale forma alla cieca, quasi tutte sono senza in­
teresse e utilità alcuna, ma proprio per questo prive altresì di
effetto sulla sensibilità estetica.
La coscienza non ne saprà mai niente: solo alcune sono armo­
niose e, di conseguenza, immediatamente utili ed eleganti. 6
[... ] La spiegazione va forse cercata in quel periodo preliminare
di lavoro cosciente che precede sempre ogni lavoro produttivo
dell'inconscio. Concedetemi di fare un paragone un po' grosso­
lano. Immaginiamo che i futuri elementi delle nostre combina­
zioni somiglino agli atomi uncinati di Epicuro. Quando la mente
è in completo riposo, questi atomi sono immobili, se ne stanno,
per così dire, agganciati alla parete. Tale quiete assoluta si può
prolungare indefinitamente senza che gli atomi s'incontrino e,
quindi, senza che si verifichi alcuna combinazione tra loro.
D'altra parte, nel corso di un periodo di quiete apparente e di
lavoro inconscio, alcuni atomi vengono staccati dalla parete e
messi in movimehto. Come uno sciame di zanzare e, se preferite
un paragone più dotto, come le molecole di un gas descritte dal­
la teoria cinetica dei gas, costoro si proiettano in tutte le dire­
zioni attraverso lo spazio - stavo per dire: la stanza - in cui
sono racchiusi. I loro impatti reciproci possono allora produrre
nuove combinazioni. 7
[. . ] Nell'io subliminale, al contrario, regna ciò che chiamerei li­
.

bertà, se si potesse assegnare questo nome alla semplice assen­


za di disciplina e al disordine cui il mutamento dà vita. Solo
grazie a questo disordine possono presentarsi combinazioni
inattese. 8

Poincaré parla di un lavoro preliminare cosciente, che è


seguito da un lavoro inconscio, in cui, nei momenti di quiete
apparente, tra le numerosissime e disordinate combinazioni
di idee l'inconscio stesso percepisce e seleziona solo quelle
che possiedono una qualità o un carattere estetico, che sono
cioè armoniche e che quindi sono immediatamente utili e in­
teressanti. Dopodiché compare la illuminazione improvvisa e
cosciente. A Helmholtz però Poincaré aggiunge, dopo l'illu­
minazione, un periodo di sforzo cosciente per verificare, per
precisare e per adoperare l'intuizione nell'ulteriore sviluppo
e crescita della conoscenza. In questo matematico ed episte­
mologo francese non c'è il solo caso o, meglio, vi è il caso,

221
ma anche un "lungo e inconscio lavoro precedente" l'illumi­
nazione.

G. Wallas, ispirandosi al fisico e fisiologo tedesco Helm­


holtz, nel 1926 9 scrive che il processo creativo consiste di
quattro momenti:
l) preparazione: il problema viene indagato in tutte le di­
rezioni;
2) incubazione: l 'individuo non pensa più consapevolmen­
te al problema e subentrano elaborazioni ed organizzazioni in­
terne del materiale raccolto;
3) illuminazione: comparsa dell' "idea felice" con gli stati
psicologici che l'accompagnano;
4) verifica: valutazione critica della soluzione o del pro­
dotto.
Secondo questo psicologo poi, le intuizioni non compaiono
al centro, bensì ai margini della coscienza (fringe-conscious­
ness) 10 e vi sarebbe una intimation o "premonizione", cioè una
specie di consapevolezza, di presentimento antecedente l'in­
tuizione.

Jacques Hadamard ( 1 865- 1 963) si rifà principalmente a


Poincaré e secondariamente a Helmholtz e a Wallas. Nel suo
libro del 1 945, 1 1 accordando la psicanalisi con l'associazioni­
smo, egli ripropone i quattro stadi del processo creativo di
Poincaré:
l) preparazione: si ha un approccio al problema cosciente,
sistematico e logico che a sua volta innesca i processi del pen­
siero inconscio;
2) e 3) incubazione e illuminazione: nell'inconscio, che è
formato da vari livelli - di cui alcuni si trovano nell' "antica­
mera" 12 della coscienza, mentre altri sono più remoti 1 3 - han­
no luogo e si combinano molte idee a caso, ma solo le combi­
nazioni potenzialmente feconde e utili raggiungono la coscien­
za. 1 4 La mente inconscia vaglia, tra le numerose associazioni,
le idee utili, le quali colpiscono la "sensibilità emotiva", il
"senso della bellezza scientifica", l' "eleganza geometrica" o,
se volete, il "gusto scientifico" 15 e vengono così percepite dalla
mente cosciente. 1 6
4) esposizione, verificazione, precisazione e utilizzazione
dei risultati: si espongono i risultati per iscritto ed a voce, si
accerta la loro corrispondenza con la realtà, si precisano me­
glio e si valutano le loro future implicazioni e sviluppi, i nuovi
problemi cui essi possono dar origine.
Tra l'inconscio e la coscienza vi è continuità e mutua coo­
perazione. Se le idee si associano nei livelli profondi, la perso-

222
na viene ritenuta più intuitiva; se ciò avviene a un livello su­
perficiale, essa è considerata più logica. Quasi sempre però il
lavoro logico segue una intuizione. 17 Il caso ha un suo ruolo
nella scoperta, ma in essa interviene "l'azione preparatoria e
più o meno intensa del conscio". 1 8 Questo matematico france­
se mette pure in luce le differenze del pensare creativo nei va­
ri scienziati - egli analizza specialmente i matematici - e il
ruolo differenziato che le rappresentazioni svolgono in essi. 19

Herbert Alexander Simon ( 1 9 1 6) propone un diverso mo­


dello della scoperta scientifica. La teoria della scoperta scien­
tifica ha una parte empirica e una formale. La parte empirica,
in cui si descrivono i processi psicologici che effettivamente
hanno luogo nel compiere le scoperte scientifiche, compren­
de: l) l'imitazione attraverso il computer dei processi del pen­
sare umano quando risolve problemi; 2) la soluzione di proble­
mi e problem solving che spiega la scoperta scientifica e il pro­
gresso scientifico. La parte formale, che si pone sulla scia di
Pierce 20 e di Hanson, 21 prende in considerazione la logica e le
relative norme e prescrizioni che regolano i processi della sco­
perta scientifica. 22 Incominciamo con la parte empirica.
l . Il pensare umano si sviluppa a due livelli: a) processi
che da un problema portano alla sua soluzione (psicologia del­
la elaborazione dell'informazione); b) processi elettrochimici
delle sinapsi (neurofisiologia). Ancor oggi fra i due livelli esi­
stono molte lacune. Non si può affermare altrettanto per il
calcolatore numerico. 23 I calcolatori - operando con simboli
anziché con numeri, provando teoremi, giocando a scacchi,
compiendo decisioni di investimenti, e così via 24 - forniscono
buona evidenza di un parallelismo tra questo loro pensare e
quello umano. Ovviamente, altre attività del pensiero umano
rimangono fuori. 25 Ed ecco alcune generalizzazioni tra i pro­
cessi del pensare umano e quelli dei calcolatori. Anzitutto tut­
ti questi processi sorgono da una piccola serie di processi ele­
mentari di informazione. Per quanto concerne l'organizzazio­
ne, essi: l) vengono organizzati gerarchicamente: dei processi
elementari si possono combinare con uno complesso ed en­
trambi con processi più complessi, e così di seguito senza li­
miti; 2) vengono eseguiti in modo seriale. Altre somiglianze
più attinenti al problem solving sono: l ) ricerca selettiva delle
possibilità di soluzione per tentativi ed errori, selettiva per­
ché si esplorano alcune fra le numerosissime soluzioni possi­
bili; 2) analisi dei mezzi per un fine (means-end analysis); 3) di­
videre un problema in sottoproblemi; e 4) nei settori più siste­
matici si impiegano dei procedimenti formali e algoritmi per
risolvere appunto un problema. 26

223
2. La teoria dell'elaborazione di informazione della solu­
zione di problemi spiega i processi della scoperta scientifica e,
con le parole dell'autore, "la scoperta scientifica è una forma
di soluzione di problemi e i processi, attraverso cui la scienza
progredisce, possono essere spiegati nei termini usati per
spiegare i processi della soluzione di problemi"Y Vi sono tre
condizioni, presenti in maniera diversa, che conducono alla
scoperta: l) la fortuna; 2) la persistenza; 3) l'euristica 28 miglio­
re degli altri, che deriva in parte almeno dall'esperienza e che
consiste nella individuazione delle parti più rilevanti median­
te una miglior tecnica di osservazione e/o di rappresentazione
o mediante una più spiccata sensibilità scientifica, cioè in una
superiore ars inveniendi. Ma non ci sono differenze qualitati­
ve tra i processi creativi dei grandi scienziati e quelli degli
scienziati "normali", per usare un'espressione di Kuhn. La
scoperta scientifica inoltre è il frutto di molti studiosi; nasce
dalle conoscenze precedenti sul mondo e non come Pallade
Atena che esce armata dalla testa di Giove; è, in definitiva, un
"processo lento e faticoso". 29
La soluzione di problemi spiega pure i processi di incuba­
zione e di illuminazione, che fanno parte dei processi della
scoperta. I processi consci e inconsci nel cervello possono es­
sere descritti in modo seriale attraverso l'organizzazione del
time-sharing; e l'illuminazione, che è un fatto comportamenti­
sticamente osservabile, 30 è compatibile sia col seriale che col
parallelo. Nella teoria dell'elaborazione di informazione della
soluzione di problemi intervengono altri due meccanismi: a)
la familiarizzazione, che è data dalla memoria a lungo termi­
ne; e b) il dimenticare selettivo. Nella ricerca cioè esiste una
gerarchia o "albero" degli scopi e dei sottoscopi per la soluzio­
ne del problema e un ambiente (lavagna) in cui si aggiunge
l 'informazione; il primo, che è quello che guida la ricerca, è a
breve termine, il secondo è a lungo termine. Quando si smette
di fare ricerca, scompare l'albero lasciando la lavagna e quan­
do si riprende, si incomincia anche con la nuova informazio­
ne. Simon esemplifica il suo pensiero col classico e nitido
"modello dell'albero" (fig. 1).
Lo scopo della ricerca è di trovare la soluzione del proble­
ma, cioè il nodo col valore 20. E per questo vengono impiega­
te due regole: l ) cercare il sottoramo successivo col valore più
alto; e 2) scegliere sempre il nodo sulla lavagna col valore più
alto. Adoperando la prima regola, si avrebbe: A-B-E-G-J-P-0. . . ;
adoperando poi la seconda, si otterrebbe: A-B-E-C-F-1-M, cioè
la soluzione. Nella ricerca, in cui l 'attenzione al problema è
continua, si applicherebbe la prima regola; nell'incubazione
scomparirebbe l'albero e, riprendendo il lavoro, si ini-

224
N (B)

l
'
Figura l

zierebbe seguendo per breve tempo la seconda regola per poi


proseguire di nuovo con la prima. 31
Quanto infine alla parte formale della scoperta scientifica,
per questo autore, che segue nell'ordine Peirce e Hanson, 32 un
processo è '"logico' quando soddisfa le norme che abbiamo
stabilito per esso"; 33 e ciò viene inteso in senso ampio. Le nor­
me infatti possono avere una base logica o empirica (per Pop­
per è soltanto logica). Simon inoltre scrive: "Una logica del
metodo scientifico [ . ] è una serie di principi normativi per
. .

giudicare i processi usati per scoprire e per controllare le teo­


rie scientifiche, o la struttura formale delle teorie stesse." 34 E
più avanti: " Un processo di scoperta di leggi è un processo per
ricodificare, in maniera parsimoniosa, serie di dati empirici.
Una teoria normativa della scoperta scientifica è una serie di
criteri per valutare i processi della scoperta di leggi. " 3 5 Nel-

225
l'Intelligenza Artificiale 36 esistono "gli inizi di una teoria nor­
mativa della soluzione di problemi". 37 La teoria normativa del­
la scoperta di pattern (pattern-discovery) invece è meno progre­
dita, perché finora non si sono costruiti validi programmi per
tale tipo di scoperta, ma si tratta di una questione puramente
storica e accidentale. Insomma, esiste la possibilità di una logi­
ca della scoperta. Distinguendo, conclude Simon, l' "individua­
zione di pattern", i processi di scoperta, dalla "previsione", dai
processi di controllo di leggi, "si può costruire una vera teoria
normativa della scoperta, una logica della scoperta". 38

L 'approccio neurofisiologico

Fino a qualche anno fa si pensava che i due emisferi cere­


brali avessero due diversi modi di elaborare l'informazione,
due tipi distinti di funzioni cerebrali. In particolare si riteneva
che:

(a) l'emisfero dominante o lin­ (b) che l'emisfero minore o non­


guistico (d'ora in poi lo chiame­ verbale (per brevità useremo so­
remo semplicemente sn.) fosse: lo dx.) fosse:
- verbale non verbale (percez�one spa­
ziale, come i tratti del viso,
stereotipi, ecc.)
simbolico olistico
logico (razionale) intuitivo e creativo (movi­
menti sincronizzati, ad esem­
pio la danza)
seriale (lineare, uno dopo l'al­ parallelo (contemporanea-
tro) mente)

analitico globale
- numerico (calcolo) sintetico
- convergente (riferito al pen- divergente (in relazione al
siero) pensiero)

E questo in seguito a:
l) le registrazioni elettroecenfalografiche (EEG), inventate
nel 1 924 dallo psichiatra tedesco H. Berger, che eseguì i suoi
esperimenti sul figlio Klaus; 39
2) gli studi su pazienti split-brain, cioè gli esperimenti
con le figure chimeriche, in cui l'immagine tachistoscopica
viene presentata in uno dei campi visivi;
3) la stimolazione della corteccia cerebrale con elettrodi
(W. Penfield, 1 959);

226
4) le osservate asimmetrie anatomico-strutturali (citoar­
chitettoniche) dei due emisferi (N. Geschwind);
5) il Wada test, che è del 1949 e che consiste in una inie­
zione di anestetico, di sodio amital, nella principale arteria
che va a uno degli emisferi;
6) l'ascolto dicotico (come per gli emicampi visivi, l 'orec­
chio dx. trasmette il suo prevalentemente all'emisfero sn., e
viceversa: il suono negli esperimenti viene presentato simul­
taneamente);
7) presentazioni lateralizzate di stimoli visivi (emicampo
dx. proietta all'emisfero sn. e l'emicampo sn. proietta all'e­
misfero dx.);
8) il movimento saccadico congiunto degli occhi (se gli
occhi girano a sn., si attiva l'emisfero dx. e viceversa. 40
Oggi abbiamo a disposizione anche altri strumenti più
efficienti per studiare le specializzazioni emisferiche e l'atti­
vità cerebrale in genere:
a) il PET e la misurazione del flusso ematico e sanguigno
per le informazioni funzionali;
b) la TAC e l'NMR prevalentemente per le funzioni modo­
logiche.
A tutt'oggi queste lateralizzazioni emisferiche necessita­
no ulteriori approfondimenti. Ma soprattutto si sa ancora
poco o nulla di come e in che misura queste specializzazioni
funzionali emisferiche intervengono, operano e collaborano
nel cervello normale, che è un sistema integrato e unito. Si
ha solo evidenza che esse ora sono meno accentuate.
Un esempio di questo mutamento di opinione può essere
dato proprio dalla creatività, che, come si sa, veniva attri­
buita al dx. Zaidel 4 1 infatti sostiene che nulla prova che l'e­
misfero dx. sia più creativo del sn., anzi sembra che il sn.
sia il maggiore responsabile. A sostegno di questa concezio­
ne adduce i risultati di due lavori.
l) In alcuni esperimenti su pazienti col cervello diviso
egli adopera due figure ambigue - la prima rappresenta
una faccia con tutti i suoi organi spostati, la seconda ha gli
elementi spostati allo stesso modo ma è priva dei contorni,
capelli e collanina. Proiettando la prima immagine solo nel­
l'emi sfero dx., questo non si accorge delle novità: proiettata
al sn., questo invece riconosce tutti gli elementi cambiati di
posto. Eseguendo le stesse operazioni con la seconda figura,
entrambi gli emisferi identificano perfettamente le varie
parti. E ciò induce l'autore a ipotizzare che "l'emisfero dx.
tratta gli elementi molto familiari, banali o stereotipici del­
la nostra esperienza visiva, mentre l'emisfero sn. si occupa
degli aspetti nuovi, originali o complessi". 4 2 Nei due emisferi

227
ci sono delle differenze di rappresentazione del mondo
reale.
2) Vi è poi il caso, riportato da H. Gardner, del pittore
tedesco Levis Corinth, che ha avuto una lesione all'emisfero
dx. e che fa l'autoritratto prima ( 1 9 1 1 ) e dopo ( 1 9 1 2 e 1 92 1 )
la lesione. La lesione nell'emisfero dx. non fa sparire la
creatività, al più provoca un cambiamento di stile. 43
Zaidel conclude dicendo che entrambi gli emisferi inter­
vengono nella creatività, anche se si è tentati di attribuire
all'emisfero sn. l' "impulso creativo".44
Riflettendo su quanto fin qui esposto, uno potrebbe
chiedersi: "Che rapporto c'è tra i modelli psicologici pre­
sentati e le lateralizzazioni emisferiche? "
Non avendo spazio sufficiente per illustrare tutti i loro
legami né la complessa interazione tra il livello psicologico
e quello neurofisiologico, dobbiamo limitarci ad analizzare
i soli rapporti del modello ipersemplificato dell'albero di
Simon, che però costituisce un caso paradigmatico. Come
tutti i succitati modelli psicologici, anche il modello di Si­
mon risulterà valido se troverà conferma, se si realizzerà,
se si reificherà sul piano neurofisiologico. Una volta rag­
giunto questo scopo, ovviamente la sua funzione cessa e il
modello scompare, subentrando al suo posto le leggi scien­
tifiche del livello con maggior contenuto informativo e con
maggior forza esplicativa e previsiva. Occorre premettere
subito che, nel caso in questione, siamo ancora molto lonta­
ni dalla sua completa reificazione. Tuttavia, al momento
possiamo iniziare a cogliere alcune sue rilevanti connessio­
ni reificanti.
Visto che ogni elaborazione di informazione e quindi an­
che le soluzioni di problemi avvengono in un cervello (o si­
stema fisico), sono cioè processi cerebrali, possiamo asseri­
re in forma ipotetica che, mentre le funzioni cerebrali attri­
buibili per lo più all'emisfero sn. intervengono nell'applica­
zione della prima regola di Simon, le funzioni attribuibili
all'emisfero dx. intervengono nell'applicazione della seconda
regola. In altri termini, i nostri due diversi tipi di funzioni
cerebrali intervengono singolarmente e alternativamente in
uno o più passi della soluzione di problemi. È inutile ricor­
dare che tutto questo attende conferma o falsificazione a li­
vello neurofisiologico; ma ci sembra di poter affermare con
una certa tranquillità che si tratta di una promettente ipo­
tesi di lavoro e di uno stimolo tra i più interessanti e avvin­
centi che abbiamo a disposizione ora, per far uscire la ri­
cerca empirica dalle secche in cui si è momentaneamente
incagliata e per farla progredire.

228
Ricerche in questa direzione sono state compiute, ma le
più sistematiche rimangono ancora quelle condotte con
l'EEG, di cui una buona sintesi si può trovare nell'articolo di
Rubenzer. 45 In tale lavoro infatti egli sintetizza, tra l'altro, i
risultati degli esperimenti fisiologici precedentemente ese­
guiti con l'EEG - che, come tutti sappiamo, registra le atti­
vità elettriche neurali - tracciandone il seguente quadro:
l) la registrazione del ritmo o delle onde delta, le quali
hanno una frequenza tra 0,5 e 3,0 hertz (Hz) o cicli per se­
condo e provengono prevalentemente dall'emisfero dx., av­
viene durante il sonno profondo e il sogno (il sonno para­
dosso ha un altro ritmo);
2) la registrazione delle onde theta, frequenza da 3,5 a
7,5 Hz, ha luogo durante il dormiveglia, tra il sogno e la ve­
glia, e rivela elaborazione da parte del dx.;
3) la registrazione del ritmo alfa, frequenza tra 8 e 1 3
Hz, coincide con l a veglia rilassata (qui i processi del dx.
possono essere predominanti);
4) la registrazione delle onde beta, frequenza tra 1 3,5 e
40 Hz, capita durante l'attenzione esterna e corrisponde
quasi esclusivamente ai processi del sn. 46
Come si può notare, c'è una concomitanza dell'attività
mentale e della attività elettrica neurale. Rubenzer poi avvi­
cina questi risultati ai quattro stadi costituenti il processo
creativo, proposti e sviluppati da Helmholtz, Poincaré, Wal­
las e Hadamard, cioè alla preparazione, all'incubazione, al­
l'illuminazione e alla verifica, in modo da elaborare un "mo­
dello psicofisiologico della soluzione di problemi". Ed ecco
il suo modello:
l) lo stadio preparatorio corrisponde alle onde alfa alto
o beta basso (10- 1 2 Hz);
2) lo stadio di incubazione è associato al ritmo alfa (8,0-
1 3,5 Hz);
3) lo stadio di illuminazione è correlato con il ritmo the­
ta (3,5-7,5 Hz);
4) lo stadio della verifica coincide con le onde alfa alto o
beta basso (10- 1 2 Hz). 47
Facciamo osservare che vi è una corrispondenza alquan­
to sorprendente e stretta tra le attività emisferiche neurofi­
siologiche implicate da questo modello e quelle da noi ipo­
tizzate per il modello di Simon. 48
L'articolo di Rubenzer termina suggerendo che, attraver­
so la produzione cosciente dei diversi stati fisiologici che in­
tervengono nei vari momenti della soluzione di problemi -
ad esempio, provocando il ritmo alfa - è possibile facilitare
e insegnare con criteri ordinati e metodici le nostre capacità

229
di soluzione di problemi. In definitiva, si può esercitare e
sviluppare un certo controllo sui processi cerebrali deputati
alla soluzione di problemi, al processo creativo. 49
Diviene del tutto superfluo a questo punto aggiungere
che tùtti i suddetti studi vanno maggiormente precisati e ul­
teriormente approfonditi e sviluppati a livello neurofisiolo­
gico. A tale scopo auspichiamo in tempi brevi un impiego
oculato e sistematico delle ultime tecnologie - come la TAC,
l'NMR e il PET - che finora, per motivi sia pur comprensibili
e validi, sono rimaste pressoché inutilizzate in questo gene­
re di ricerche.

NoTE
l Cfr. J. Hadamard, The Psychology of lnvention in the Mathematical

Field, Princeton University Press, Princeton 1 945; e H.E. Gruber, Darwin


on Man: A Psychological Study of Scientific Creativity, Dutton, New York
1 974.
2 Cfr. Th. V. Busse e R.S. Mansfield, Theories of the Creative Process: A
Review and a Perspective, in "The Journal of Creative Behavior", 1980, pp.
9 1 - 103.
3 H.L.F. von Helmholtz, Vortriige und Reden, Vieweg und Sohn, Braun­
schweig 1 896, s a ed.
4 Su questo autore cfr. pure S. Arieti, Creativity. The Magie Synthesis,
Basic Books, New York 1 976 (trad. it. Creatività. La sintesi magica, Il Pen­
siero Scientifico, Roma 1 979, p. 294).
5 J.-H. Poincaré, Mathematical Creation, in J.-H. Poincaré, The Founda­
tions of Science, The Science Press, New York 1 9 1 3, p. 387; (trad. it. La
creazione mate matica, in Il valore della scienza, La Nuova Italia, Firenze
1 947). La traduzione italiana qui utilizzata è stata tolta da D.T. Campbell,
Epistemologia evoluzionistica, Armando, Roma 198 1 , pp. 86-87.
6 J.-H. Poincaré, Mathematical Creation, cit., p. 392.
7 Ibid., p. 393
8 Ibid., p. 394
9 G. Wallas, The Art of Thought, Jonathan Cape Ltd., London 1 926, pp.
79-96.
IO L'espressione, creata da W. James, viene usata da Wallas con lo

stesso significato.
I l J. Hadamard, The Psycho logy of lnvention in the Mathematical

Field, cit.
1 2 Il termine è di F. Galton (Inquiries into Human Faculty, Macmillan,
London-New York 1 883, p. 203; e J.M. Dent, London e E.P. Dutton, New
York 1 908, p. 146).
13 Cfr. J. Hadamard, The Psychology of Invention in the Mathematical
Field, cit., pp. 23-28 e 1 1 3 .
14 Cfr. ibid., pp. 29-3 1 .
15 Questa espressione è di J.E. Renan, L 'Avenir de la science ( 1 848,
pub. 1 890), p. 1 1 5.
1 6 Cfr. J. Hadamard, The Psychology of Invention in the Mathematical
Field, cit., pp. 30-3 1 .
1 7 Cfr. ibid., pp. 27 e 108- 1 1 3 .
18 Ibid., p. 46 e pp. 45-46.

230
19 Cfr. ibid., pp. 97-100 e 1 14- 1 1 5.
20 Cfr. Ch.S. Peirce, Collecte d Papers, The Belknap Press of Harvard Uni­
versity Press, Cambridge (Mass.) 1 965, 5 . 1 80-5.205. La stretta interconnessio­
ne di Simon tra dati e ipotesi e lo schema per retrodurre e controllare le teo­
rie - processi questi che sono inscindibili (cfr. H.A. Simon, Models of Disco­
very and Other Topics in the Methods of Science, Reidel, Dordrecht/Boston
1977, pp. 3 e 43) derivano da Peirce (cfr. Ch.S. Peirce, Collected Papers, cit.,
1 . 1 80).
21 Cfr. N.R. Hanson, Patterns of Discovery. An Inquiry into the Concep­
tual Foundations of Science, Syndics of the Cambridge University Press, 1958
(trad. it. I modelli della scoperta scientifica, Feltrinelli, Milano 1 978, pp. 88-
1 1 2); e The Logic of Discovery, in "The Journal of Philosophy", 1 958, pp. 1 079-
1089.
22 Secondo Simon, Hanson chiarisce l'abduzione o retroduzione, la "logi­
ca della scoperta", ponendo l'accento sui processi percettivi, sulla scoperta di
pattern e procedendo con esempi di retroduzione (cfr. H.A. Simon, Models of
Discovery, cit., pp. 326-327).
23 Cfr. ibid., pp. 268-27 1 .
24 Tra i tanti lavori di questo autore e dei suoi collaboratori sulla teoria
psicologica del problem solving e sui calcolatori ricordiamo: A. Newell e H.
Simon, Human Problem Solving, Prentice-Hall, Englewood Cliffs (N.J.) 1 972;
e G.F. Bradshaw, P.W. Langley e H . Simon, Studying Scientific Discove ry by
Computer Simulation, in "Science", 1983, pp. 97 1 -975. In quest'ultimo lavoro
il programma del calcolatore Bacon simula la scoperta della legge di Black.
25 Cfr. H.A. Simon, Models of Discovery, cit., pp. 271-277.
26 Cfr. ibid., pp. 276-2 8 1 .
27 Ibid., p . 286.
28 Anche per Simon l'euristica è la tecnica e il metodo di ricerca scienti­
fica.
29 Cfr. ibid., pp. 286-292.
30 Cfr. H.A. Simon, Reason in Human Affairs, Basi! Blackwell, Oxford
1 983, p. 25 (trad. it. La ragione nelle vicende umane, Il Mulino, Bologna 1 984,
p. 58).
31 Cfr. H.A. Simon, Models of Discovery, cit., pp. 292-299.
32 Cfr. le note 20 e 21 di questo articolo.
33 H.A. Simon, Models of Discovery, ci t., p. 328.
34 Ibid., p. 328.
35 Ibid., p. 3 3 1 .
36 Con questa espressione si intende lo studio dei programmi dei calcola­
tori.
37 /bid., pp. 335-336.
38 Ibid., p. 336; cfr. anche ibid., pp. 326-336. Non dimentichiamo che tutti e
due questi processi sono indispensabili e uniti (cfr. nota 20 di questo articolo).
39 Il primo elettrocorticogramma fu scoperto dal fisiologo inglese Caton
nel 1 875, ma poi dimenticato.
40 Il movimento laterale degli occhi uniti è un'ipotesi speculativa, avan­
zata, tra gli altri, da C.K. Rekdal, Hemispheric Lateralization, Cerebral Domi­
nance, Conjugate Saccadic Behavior and Their Use in Identifying the Creati­
vely Gifted, in "The Gifted Child Quarterly", 1 979, pp. 1 0 1 - 1 08; e da R.S. Mc­
Callum e S.M. Glynn, Hemispheric Specialization and Creative Behavior, in
"The Journal of Creative Behavior", 1979, pp. 263-273. Per M.F. Andrews poi
(The Consonance Between Right Brain and Affective, Subconscious, and Multi­
Sensory Functions, in "The Journal of Creative Behavior", 1 980, pp. 77-87) gli
occhi all'insù denotano pensieri creativi, mentre gli occhi all'ingiù pensieri
negativi e stereotipici.
41 D.W. Zaidel, Les fonctions de l'hémisphère droit, in "La Recherche",
153, 1984, pp. 332-340.

23 1
42 Ibid. , p. 337; cfr. pure ibid., p. 338.
43 Cfr. ibid., p. 339.
44 Cfr. ibid., pp. 339-340.
45 R. Rubenzer, The Role of the Right Hemisphere in Learning and Creati­
vity lmplications far Enhancing Problem Solving Ability, in "The Gifted Child
Quarterly", 1 979, pp. 78-100. Sulla sua scia si colloca anche Myers (cfr. J.T.
Myers, Hemisphericity Research: An Overview With Some lmplications far
Problem Solving, in "The Joumal of Creative Behavior", 1982, pp. 197-2 1 1 ). In­
teressanti a questo riguardo sono pure gli articoli di E. Donchin, G. McCar­
thy, M. Kutas e W. Ritter, Event-Related Brain Potentials in the Study of Con­
sciousness, in R.J. Davidson, G.E. Schwartz e D. Shapiro (a cura di), Consciou­
sness and Self-Regulation, Plenum Press, New York e London 1 983, pp. 8 1 -
1 2 1 , in cui la registrazione della componente P 300 nell'ERP (event-related
brain potentials) rivela l'accadimento della elaborazione cosciente della infor­
mazione; e H.J. Neville, Brain Potentials Reflect Meaning in Language, in
"Trends in Neurosciences", 1 985, pp. 9 1-92.
46 Cfr. R. Rubenzer, The Role of the Right Hemisphere in Learning and
Creativity lmplications For Enhancing Problem Solving Ability, cit., special­
mente le pp. 82-85.
47 Cfr. ibid., specialmente le pp. 86-89.
48 Siamo giunti alla nostra ipotesi di lavoro prima di leggere l'articolo di
Rubenzer.
49 Cfr. ibid., specialmente la p. 89.

232
Casualità e programma nell'Intelligenza
Artificiale
di Federico Di Trocchio

Con l'articolo di Hopfield del 1 982 1 si è aperta una nuova


fase nella storia dell'informatica. Il connessionismo ha ope­
rato una inversione di tendenza riportando l'approccio del­
l'Intelligenza Artificiale a quello dominante nella golden de­
cad (1955-1 965) della cibernetica, abbandonato nel 1969 a se­
guito del noto saggio di Minsky e Papert nel quale venivano
evidenziati i limiti del perceptron di Rosenblatt. 2
È ormai abbastanza diffusa la convinzione che l 'Intelli­
genza Artificiale alla Minsky non sia in grado di andare oltre
sistemi esperti più o meno sofisticati, e il connessionismo
sembra offrire, con il recupero del concetto di reti neurona­
li, una concreta possibilità di risolvere assieme ai problemi
intrinseci dell'Intelligenza Artificiale anche quelli dell'archi­
tettura dello hardware, settore nel quale la ricerca si muove
verso un parallelismo sempre più spinto.
L'idea di fondo del nuovo approccio è che una accettabile
imitazione dell'intelligenza umana possa essere ottenuta solo
da macchine la cui struttura hardware si avvicini il più pos­
sibile alla rete di neuroni che costituisce il cervello, o alme­
no che siano in grado di simulare con operazioni sequenziali
il comportamento di reti neuronali. Le differenze essenziali
del modello connessionistico, rispetto al modello base di Mc­
Culloch e Pitts, sono secondo Hopfield:
a) il passaggio da connessioni neuronali esclusivamente
fo rward directed (A -.B-.c-.D) a reti caratterizzate da un
forte backward coupling

233
b) l'uso delle reti neuronali non più esclusivamente per
lo studio della percezione, ma per produrre proprietà com­
putazionali più astratte e "intelligenti", ritenute emergenti
rispetto alla rete.
c) l'abbandono dell'ipotesi tipica del perceptron del fun­
zionamento sincrono degli elementi della rete.
È già stato notato da l. Alexsander3 che sul piano stretta­
mente matematico il nuovo approccio non ha prodotto finora
nulla di realmente nuovo rispetto agli algoritmi in uso negli
anni sessanta. Il fatto più interessante collegato al recupero
delle reti neuronali sembra invece essere il ruolo attribuito
ai processi di collegamento casuale tra i "neuroni" nel deter­
minare le caratteristiche funzionali del sistema, ed è abba­
stanza evidente che ciò che si attende è lo sviluppo di algorit­
mi in grado di trattare in modo soddisfacente la casualità
che diventa il "motore" dei fenomeni di computazione e di
apprendimento "intelligenti". Ciò è in stretto rapporto con la
crisi attuale dell'Intelligenza Artificiale che molti attribui­
scono all'impossibilità di inserire in modo efficace elementi
casuali nei programmi destinati a simulare comportamenti
intelligenti.
Alla radice delle difficoltà attuali dell'Intelligenza Artifi­
ciale sta infatti quello che Hofstadter4 chiama teorema di
Tesler: l'lA è tutto ciò che non è ancora stato fatto. Hofstad­
ter sostiene che non appena si riesce a programmare qual­
che funzione mentale, immediatamente si smette di conside­
rarla un ingrediente essenziale del vero pensiero. Il nucleo
ineluttabile dell'intelligenza è sempre in quell'altra cosa che
non si è ancora riusciti a programmare.
Al di là del tono scherzoso, il teorema di Tesler sembra
indicare nella nozione stessa di programma la causa del fal­
limento sostanziale dei tentativi finora compiuti nel campo
dell'Intelligenza Artificiale. Secondo alcuni questo fallimen­
to non sarebbe momentaneo; il problema evidenziato dal teo­
rema di Tesler sarebbe insuperabile e questo implicherebbe,
a rigore, la necessità di abbandonare la via della program­
mazione e di reimpostare l'Intelligenza Artificiale sulla base
di nuove strategie hardware o sull'uso di strumenti matema­
tici diversi da quelli attualmente utilizzati nella programma­
zione.
Due indirizzi di pensiero molto diffusi e seguiti (quello
dei teorici della complessità e della autopoiesi da un lato e
quello del connessionismo dall'altro) sostengono, infatti, la
non programmabilità della attività della mente, cioè del pen­
siero, sulla base del principio che la mente sarebbe un siste­
ma di fenomeni stocastici che si auto-organizza in maniera

234
totalmente imprevedibile. Sembra in altri termini che ciò che
è programmato non possa essere qualificato come "intelli­
gente".
D'altra parte il fatto che ancora oggi nessuna macchina sia
in grado di superare il test di Turing 5 appare strettamente le­
gato all'assenza di casualità nei processi "mentali" artificiali
soprattutto se si tiene conto del ruolo che l'epistemologia re­
cente attribuisce al caso all'interno della "logica" della sco­
perta. 6
Se oggi Turing avesse dovuto riscrivere il suo articolo del
1 950 lo avrebbe intitolato probabilmente: "E possibile pro­
grammare il pensiero?" In questo nuovo articolo Turing
avrebbe forse ampliato la nozione di "calcolatore numerico
con un elemento casuale" che egli introduceva nel 1 950 sulla
base del riconoscimento del fatto che la strategia della creati­
vità, sia umana che naturale, sembra essere essenzialmente
casuale.
Il problema attuale dell'Intelligenza Artificiale è infatti
quello di trovare una adeguata collocazione, all'interno della
programmazione, per un meccanismo che genera stati ca­
suali.
L'interesse suscitato dal connessionismo è quindi indub­
biamente legato al fatto che questo approccio prospetta un
modo abbastanza raffinato per introdurre notevoli elementi
di casualità nei modelli matematici destinati a simulare in
maniera efficace meccanismi di computazione intelligenti.
Tuttavia questa proposta incontra notevoli difficoltà. In­
nanzitutto essendo il numero dei componenti delle reti piutto­
sto elevato il problema della loro interazione è del tipo NP
(Non-deterministico Polinomiale) completo, vale a dire che
non esiste (o almeno non è stato ancora trovato) un algoritmo
in grado di calcolare un determinato pattern di interazione
considerato ottimale (corrispondente ad esempio al riconosci­
mento di una figura) usando una quantità di tempo macchina
(su un calcolatore sequenziale) che aumenta come potenza di
N . La quantità di tempo macchina necessario cresce infatti in
modo esponenziale in rapporto a N, ed è praticamente infini­
ta. Il comportamento di una rete neuronale di questo tipo ap­
partiene perciò a quel tipo di problemi che vengono definiti
intrattabili. In secondo luogo la definizione algoritmica di ca­
sualità, utilizzata dal nuovo approccio, esclude per principio
la programmabilità. Stando infatti alla definizione proposta
da A.N. Kolmogorov e G.J. Chaitin nel 1 965, 7 una successione
di numeri è casuale se il più piccolo algoritmo in grado di co­
municarla a un calcolatore consta circa dello stesso numero
di bit di informazione della successione stessa.

235
Dal momento che in concreto gli algoritmi si presentano
come programmi di calcolatore e sono valutati in base alla ra­
pidità con cui determinano (l'esistenza di) una soluzione è
chiaro che successioni casuali di numeri non possono essere
programmate, o meglio che tali successioni si identificano
con il loro programma, il quale si presenta allora come trop­
po complesso per essere interessante ai fini dell'Intelligenza
Artificiale. 8
Per superare queste difficoltà si stanno tentando in questo
momento varie strade che, nella maggior parte dei casi, fanno
riferimento alla meccanica statistica, o comunque a formali­
smi matematici di tipo statistico, e affrontano la questione co­
me un problema di ottimizzazione che richieda di minimizza­
re una funzione relativa a un insieme di variabili. È difficile
dire in questo momento quale sarà l'esito di questi tentativi.
Sembra però che dal punto di vista matematico non sia anco­
ra emerso nulla di realmente promettente o di sostanzialmen­
te nuovo rispetto agli anni sessanta, mentre è possibile dal
punto di vista metodologico evidenziare alcune limitazioni
dell'impostazione adottata o almeno sottolineare il peso che
alcune scelte potrebbero esercitare nel determinare lo svilup­
po e l'esito di questi tentativi.
Innanzitutto la scelta di applicare metodi e tecniche della
meccanica statistica all'interno di un approccio che pretende
di rifarsi più da vicino che non l'Intelligenza Artificiale, alla
specificità biologica del sistema nervoso, appare poco oppor­
tuna o almeno troppo schematica. Anche nel modello che oggi
appare più raffinato, quello degli spin glass, 9 l'unico riferi­
mento concreto alla realtà biologica resta il tentativo di inse­
rire nel modello stesso una configurazione architettonica del­
le connessioni il più possibile analoga a quella dei neuroni del
cervello animale. In realtà questo approccio si gioverebbe
molto di un recupero dell'indagine alla Caianiello tendente a
dare una descrizione algoritmica adeguata del comportamen­
to del neurone.
L'ostacolo maggiore sembra però essere costituito proprio
dall'opposizione caso-programma. Se il problema è realmen­
te: "Come programmare il comportamento casuale di una rete
destinata a computazioni intelligenti ?" e se gli algoritmi (pro­
grammi) della casualità si identificano con le stesse sequenze
casuali, allora, stante la definizione algoritmica di caso adot­
tata, la soluzione potrebbe anche essere impossibile in linea
di principio. Anche se, attualmente, non è possibile fornire la
dimostrazione di tale impossibilità. La versione di Chaitin del
teorema di Godel stabilisce infatti che non è possibile fornire
una dimostrazione della casualità di una sequenza.

236
In altri termini sembra che sia impossibile in linea di
principio scrivere dei programmi (o almeno scrivere dei pro­
grammi interessanti) relativi a sequenze casuali. Il che equi­
vale a negare che il pensiero possa essere programmato.
La nuova via imboccata dal connessionismo ha infatti
raccolto consensi forse proprio perché abbandona la pro­
grammazione a favore di un approccio statistico che vorreb­
be fare emergere le proprietà computazionali dal comporta­
mento intrinsecamente casuale delle reti neuronali, e non
dal programma. Questa scelta è avvenuta in modo spontaneo
e implicito, ed è stata favorita dalla diffusione della filosofia
dell'autopoiesi e della complessità alla Morin, che vedono in
questo approccio la possibilità di salvaguardare l 'autonomia
e l'indipendenza dei processi del pensiero e più in generale
di tutti i processi che implicano la nascita di ordine. 10 Que­
sto sfondo teorico all'interno del quale è maturata o comun­
que si colloca la proposta connessionistica ha spinto a sotto­
valutare l'alternativa possibile di abbandonare il concetto
stesso di casualità.
In effetti se la casualità non è programmabile, si può an­
cora scegliere di considerare non casuale, ma non per questo
deterministico in senso classico, il comportamento di una re­
te neuronale.
Esiste ormai da molti anni, e si sta sempre più diffonden­
do negli ultimi tempi, una teoria matematica che tratta le in­
terazioni che si verificano all'interno di sistemi costituiti da
più oggetti, come imprevedibili e tuttavia deterministiche, o
almeno ordinate. Potrebbe in sostanza risultare preferibile
sostituire al concetto di casualità quello di imprevedibilità.
A proposito di sistemi di interazione a più oggetti è infatti
dimostrabile la non prevedibilità, oltre un certo orizzonte,
del loro comportamento, mentre non è dimostrabile la ca­
sualità dello stesso comportamento. Il concetto di imprevedi­
bilità è insomma più facilmente trattabile dal punto di vista
matematico.
L'aspetto più interessante di questa possibile alternativa
è costituito tuttavia dal fatto che esistono dei teoremi che di­
mostrano che il comportamento imprevedibile di sistemi di
interazione di più oggetti può essere programmato.
Sono stati infatti sviluppati vari programmi di calcolato­
re che, a partire da condizioni date, simulano i moti dei pia­
neti verificando il fatto che, oltre un certo orizzonte di pre­
vedibilità, essi diventano caotici e imprevedibili. Questo ap­
proccio, sviluppato originariamente per l'astronomia, nel
tentativo di risolvere il problema degli N corpi, è stato di re­
cente applicato alla fisica delle particelle e sembra destinato

237
a promuovere la formazione di una grande teoria che do­
vrebbe abbracciare la fisica relativistica e la meccanica
quantistica all'interno di un approccio in grado di coniugare
il determinismo con l'imprevedibilità. 1 1
In sostanza sarebbe possibile, e probabilmente utile, svi­
luppare l'approccio delle reti neuronali non secondo l'ottica
indeterministica della meccanica statistica, ma all'interno
della teoria dei moti caotici e ordinati che è invece fortemen­
te deterministica. Il nuovo punto di partenza potrebbe essere
l'idea che il comportamento delle reti neuronali non è casua­
le e improgrammabile bensì caotico, intrinsecamente impre­
vedibile ma programmabile.
Questo approccio, pur discostandosi dai suggerimenti
presenti negli ultimi lavori di Turing e di von Neumann che
andavano nel senso di introdurre elementi stocastici all'in­
terno della matematica dei computer, risulta oltretutto più
in linea con l'impostazione originaria data da questi stessi
autori all'informatica che trovava il suo cardine proprio nel
concetto di programma.

NoTE
l Hopfield, J.J., Neural Networks and Physical Systems with Emergent
Collective Computational Abilities, in "Proc. Nati. Acad. Sci. USA", 79, 1982.
Ma vedi anche Hopfield, J.J. e D.W. Tank, Computing with Neural Circuits: A
Model, in "Science", 233, agosto 1 986, pp. 625-633.
2 McCulloch, W.S. e W.H. Pitts, A Logica[ Calculus of the Ideas Imma­
nent in Nervous Activity, in "Bulletin of Mathematical Biophysics", 5, 1 943,
pp. 15-33; Rosenblatt, F., Principles of Neurodynamics, Spartan, Washington
1 962; Minsky, M.L. e S. Papert, Perceptrons: An Introduction to Computatio­
nal Geometry, The MIT Press, Cambridge (Mass.) 1 969.
3 Aleksander, 1., Memory Networks far Practical Vision Systems: Design
Calculations, in l. Aleksander, (a cura di), Artificial Vision far Robots, Lon­
don 1983, pp. 197-2 1 3 .
4 Hofstadter, D.R., GOde[ Esche r Bach: un'eterna ghirlanda brillante,
Adelphi, Milano 1 984, p. 649.
s Nel 1950 Alan Turing pubblicò sulla rivista "Mind" il noto articolo
Computing Machinery and /ntelligence che affrontava il problema: "Possono
pensare le macchine ?" Per risolvere la questione Turing proponeva il cosid­
detto "gioco dell'imitazione" poi noto come test di Turing nel quale una mac­
china, in concorrenza con un essere umano, tenta di indurre un secondo es­
sere umano (in funzione di osservatore e interrogante) a fornire una rispo­
sta errata alla domanda su quale dei suoi due interlocutori sia uomo (o
donna).
Nel corso dell'articolo Turing affermava "credo che entro circa cinquan­
t'anni sarà possibile programmare calcolatori con una capacità di memoriz­
zazione di circa 10 elevato alla nona, per far giocare loro il gioco della imi­
tazione cosi bene che un esaminatore medio non avrà più del 70 per cento di
probabilità di compiere l'identificazione esatta dopo cinque minuti di inter­
rogazione".

238
A trentasette anni di distanza la previsione o profezia di Turing non si è
ancora avverata. Benché le capacità di memorizzazione degli attuali compu­
ter siano andate molto al di là di quelle allora prevedibili, tuttavia non è sta­
to ancora messo a punto un programma che consenta alle macchine di supe­
rare il test di Turing. La traduzione dell'articolo di Turing fu pubblicata da
V. Somenzi nella prima edizione dell 'antologia La filosofia degli automi, Bo­
ringhieri, Torino 1 965, pp. 1 1 6- 1 5 5 , ed è stato molto opportunamente ripro­
dotto nella nuova edizione ampliata e rivista a cura dello stesso V. Somenzi
e di R. Cordeschi, La filosofia degli automi, Torino 1 986, pp. 157- 1 83.
6 Cfr. Grmek, M.D., Le r6le du hasard dans la genèse des découvertes
scientifiques, in "Medicina nei secoli", 1 3 , 1976, pp. 277-305. Somenzi, V.,
Epistemologia evoluzionistica e creatività scientifica, in " La nuova critica",
45, 1 978; Somenzi, V., Epistemologia, evoluzionismo e scope rta scientifica, in
C. Mangione (a cura di), Scienza e filosofia. Saggi in onore di L. Geymonat,
Garzanti, Milano 1 985, pp. 3 1 2-330.
7 Cfr. Chaitin, G.J., Casualità e dimostrazione matematica, in Matemati­
ca e calcolatore, a cura di G. Lolli e C. Mangione, Milano 1 984, pp. 82-87.
8 Sandi, C., Problemi di decisione e teoria della complessità, in "Note di
Informatica Ibm", 1 5 , marzo 1 987, pp. 1 9-27.
9 Gli spin glass (vetri di spin) sono in generale dei sistemi in cui gli ato­
mi sono disposti casualmente: gli esempi tipici sono leghe con qualche per­
centuale di materiale magnetico immerso in una matrice magnetica (vetri di
spin a diluizione) oppure cristalli in cui sono intercalati casualmente atomi
di zolfo (vetri di spin a sostituzione). In entrambi i casi l'interazione tra gli
spin, che sono localizzati in atomi determinati, dipende fortemente dalla po­
sizione dell'atomo e il risultato finale è che alcuni spin avranno fra di loro
un'interazione ferromagnetica che tende ad allinearli, mentre altri spin
avranno fra di loro un'interazione antiferromagnetica che tende a disalli­
nearli.
Un modello abbastanza semplice dell'interazione fra gli spin che tutta­
via mantiene la complessità del problema originale (modello di Edward An­
derson) richiede che gli spin siano disposti su un reticolo regolare, che sia­
no dei numeri che possono assumere solo i due valori l e - l (modello di
Ising), che interagiscano solo con i loro prossimi vicini e che l'interazione
sia a caso positiva o negativa. Cfr. Mezard, M., Parisi, G. e M.A. Virasoro,
Spin Glass theory and Beyond, Word Scientific, 1 987.
IO Cfr. Maturana, H.R. e F.J. Varela, Autopoiesi e cognizione, Marsilio,

Padova 1 985; Dupuy, J-P., Ordini e disordini. Inchiesta su un nuovo paradig­


ma, Firenze 1 986; Atlan, H., Tra il cristallo e il fumo. Saggio sull 'organizza­
zione del vivente, Hopfulmonster, Firenze 1 986; Morin, E., Il Metodo. Ordi­
ne, disordine, organizzazione, Feltrinelli, Milano 1983.
I l Zaslavsky, G.M., Chaos in the Dynamic Systems, New York 1 987;

Chernikov, A.A., Sadgeev, R.Z., Usikov, D.A., Yu Zakharov e M. Zaslavsky,


Minima[ Chaos and Stochastic Webs, in "Nature", 326, aprile 1987.

239
Neurobiologia e storia naturale
dell'intelligenza
di Aldo Fasolo

Introduzione

Oggi è forse possibile tentare una "storia naturale" del­


l'intelligenza, a patto che si definisca con precisione l'intelli­
genza come fenomeno biologico e si stabiliscano criteri me­
todologici rigorosi per coordinare i risultati della ricerca
scientifica. L'espressione "intelligenza" piuttosto che descri­
vere un fenomeno unitario a mio giudizio è fondamentalmen­
te la metafora che riassume una serie di capacità e presta­
zioni diverse. In questo senso potremmo parlare più corret­
tamente, forse, di prestazioni intelligenti, siano esse: soluzio­
ne di problemi, sviluppo di linguaggio, apprendimento, per­
cezione, risposte integrate all'ambiente, o altro.
Queste capacità non sono allora esclusive del genere
umano né rientrano in un modello tutto-nulla, ma sono pre­
senti nei differenti taxa del regno animale con gradi diversi
di sviluppo (vedi Bullock, 1 982, nell'ampia raccolta di contri­
buti sulla "mente animale" in Griffin, 1 982). Secondo vari
studiosi (vedi Macphail, 1982) l'intelletto umano si distingue­
rebbe allora da quello dei vertebrati non umani soltanto per
il possesso della capacità di linguaggio, ma altri contributi
pongono anche il linguaggio umano in continuità evolutiva
almeno con le articolazioni motorie facciali dei primati non
umani (Lieberman, 1 987).
Cercare di comprendere le prestazioni intelligenti signifi­
ca operare ai diversi livelli di analisi in cui si organizza la
scienza moderna, e in particolare, la neuroscienza, da quello
filosofico a quello psicologico, a quello organismico e neuro­
logico. Questo implica fra l'altro ammettere che cervello e
prestazioni intelligenti si siano evoluti nel regno animale e

240
che la comprensione dei meccanismi evolutivi che ne hanno
favorito l'instaurarsi sia di grande utilità per comprendere
la natura reale della cosiddetta intelligenza (Jerison, 1 987).

La varietà delle soluzioni evolutive

A confondere le idee in proposito esistono alcuni diffusi


pregiudizi, primo fra tutti quello che le tendenze evolutive
seguano una progressione lineare dal più semplice al più
complesso. L'evoluzione delle strutture cerebrali ha in realtà
seguito spesso vie differenti anche nello stesso gruppo tasso­
nomico e il più delle volte appare una evoluzione "a mosai­
co". Così un animale può avere raggiunto un grado elevato di
efficienza o specializzazione in alcune regioni del suo cervel­
lo o in alcuni aspetti del suo comportamento e rimanere me­
no complessamente strutturato in altre. Può essere perciò
fuorviante definire un organismo "semplice" o "avanzato"
per quel che riguarda cervello e prestazioni comportamenta­
li al di fuori del contesto specifico della prestazione o strut­
tura valutata. Esiste inoltre nella letteratura una vulgata
propensione a estrapolare con troppa disinvoltura i risultati
dello studio sincronico di organismi attuali diversi, co­
struendo fantasiose sequenze evolutive, in una prospettiva
diacronica. Si dimentica così che le specie viventi sono rami
terminali dell'albero evolutivo (vedi Mazzi e Fasolo, 1 983).
Come fa rilevare Gould (1 976) la sequenza "lemure-scimmia
antropomorfa-uomo" è una caricatura della filogenesi dei
primati, anche se può risultare utile, in quanto fornisce dati
importanti su gradi diversi di organizzazione cerebrale nello
studio dei primati stessi.

Il metodo comparato

Al fine di situare correttamente i risultati di osservazioni


ed esperienze diverse, diviene così irrinunciabile elaborare
metodi per confrontare gli organismi e per trame ipotesi
evolutive. Questo implica ad esempio una scelta razionale
delle specie analizzate sia dal punto di vista tassonomico, sia
dal punto di vista ecologico-adattativo (Hailman, 1976a). È
necessaria inoltre una attenta valutazione del campione stu­
diato per quanto attiene le possibili variazioni interindivi­
duali.
Quest'ultimo punto è particolarmente delicato, come ov­
vio, sia quando si compiono analisi macroscopiche di tipo

241
quantitativo sia quando si compie una analisi di microscala
al livello cellulare, su strutture cerebrali.
È necessario, inoltre, stabilire dei criteri per il confron­
to. Questo implica l'impiego di alcuni strumenti logici del
metodo comparato, quali i concetti di omologia e analogia,
al fine di comprendere il significato e il livello delle somi­
glianze. Insomma, dobbiamo avere ben chiaro: cosa confron­
tiamo, e perché (Hailman, 1976b; Fasolo e Malacarne, 1987;
Northcutt, 1 984). In realtà, la maggior parte delle ricerche
attuali non soddisfa appieno tali requisiti, e nel complesso
lo studio comparato appare frammentario ed episodico.
Per comprendere meglio una materia così complessa
possiamo affrontare due livelli di analisi, quello dell'appren­
dimento in prospettiva comparata, e quello dello sviluppo fi­
logenetico del cervello.

Lo studio comparato dell'apprendimento

Esistono numerose ricerche sull'apprendimento compa­


rato (vedi Bitterman, 1 976; Brookshire, 1 976; Hodos, 1982)
che suggeriscono modi e strategie profondamente diversi e
divergenti nei vari gruppi di vertebrati. E tuttavia non è af­
fatto risolto il nodo centrale di queste ricerche, e cioè quali
processi siano generali (Bitterman, 1 987) e quali specie-spe­
cifici (Poli, 1 987). Questi studi di psicologia comparata non
apportano tuttavia un contributo diretto all'analisi dei fatto­
ri evolutivi coinvolti nell'apprendimento.
Su questo versante un contributo importante deriva dal­
l'approccio, basato sulla teoria dei giochi (Harley e May­
nard-Smith, 1983). Questo orientamento si chiede se i model­
li di apprendimento animale che sono in accordo con vari
schemi comportamentali, riflettono strategie evolutivamente
stabili. In questo modo viene impostata una riflessione sui
meccanismi attraverso i quali si rendono vantaggiosi e ven­
gono "fissati" evolutivamente comportamenti a maggior fles­
sibilità e che implicano apprendimento. Un altro fecondo
contributo sta provenendo dalla cosiddetta ecologia com­
portamentale (Krebs e Davies, 198 1 ), che peraltro non si po­
ne almeno in modo esplicito il problema di correlare i com­
portamenti con le basi neurobiologiche.
In realtà le capacità di apprendimento, a ben rifletterei,
sono un'aggiunta rispetto agli schemi d'azione fissa, non
una alternativa, e deve esistere qualche controllo (sia esso
di tipo permissivo, o istruttivo) per "apprendere ad appren­
dere".

242
Diviene perciò irrinunciabile una teoria generale sui mec­
canismi della memoria, la sede della traccia mnestica e le even­
tuali omologie dei sistemi implicati nella memorizzazione e
nelle diverse forme di apprendimento.
Queste riflessioni sull'apprendimento, implicano inoltre
che, specialmente lavorando su organismi in condizioni semi­
naturali, vengano semprè più in rilievo, da una parte la compo­
nente motivazionale e dall'altra l'insieme di prestazioni sia
sensoriali-percettive, sia motorie, che caratterizzano il reper­
torio comportamentale di un determinato tipo di organismo ri­
spetto alla sua nicchia ecologica-peculiare. Il tipo di scanda­
glio sensoriale e il mondo percettivo sono profondamente di­
versi nei differenti organismi (vedi ad esempio Blakemore,
1 989) adattati a nicchie ecologiche e inseriti in catene alimen­
tari diverse. Questo implica altresì una nuova valutazione dei
processi comunicativi e delle relative implicazioni cognitive
nei vertebrati pur tenendo conto dei pesanti artefatti interpre­
tativi, propri dell'osservatore umano in un contesto non uma­
no. Appare comunque evidente che i sistemi comunicativi sono
molto più complessi e variati di quanto si ritiene tradizional­
mente nell'ambito dei vertebrati (Beer, 1982). Ad esempio il si­
stema comunicativo di tipo olfattivo così universalmente dif­
fuso nel regno animale (Fasolo, 1 982) è stato finora considerato
in modo inadeguato dal punto di vista cognitivo.
Un interessante (e relativamente nuovo) approccio è fornito
dalla cosiddetta neuroetologia (vedi ad esempio Ewert, 1 985),
che tenta un'analisi "verticale" in modelli animali diversi, cer­
cando di integrare livelli comportamentali (apprendimento in­
cluso) e livelli neurologici. I prossimi anni ci diranno comun­
que quanto la ricerca neuroetologica sarà in grado di dire non
solo sull'organizzazione funzionale, ma anche sulla storia na­
turale del cervello. Non dimentichiamo peraltro che il lungo
dibattito sulla natura dei "processi mentali" negli animali
(Griffin, 1978) e la difficoltà di valutare oggettivamente tali
processi (Rooijen, 1981) è ben lungi dall'essere risolto. In linea
di principio non si può però escludere che oltre a repertori
comportamentali espliciti, possano essere presi in considera­
zione sperimentale processi mentali "coperti", quali processi
motivazionali e affettivi, stati cognitivi, ecc. (Welker, 1977).

Teorie sullo sviluppo filogenetico del sistema nervoso


centrale

Partendo da analisi di tipo quantitativo sul sistema nervoso


centrale sia di organismi attuali che di organismi estinti, se-

243
condo Jerison (1 976; 1 987), l'intelligenza sarebbe un prodot­
to della cosiddetta "encefalizzazione". In sintesi, vi è una
precisa relazione nei vari gruppi tassonomici di vertebrati
fra dimensione del corpo e dimensione del cervello. Quelle
specie che acquisiscono dimensioni cerebrali relativamente
più grandi di quanto previsto da tale relazione (come acca­
de per l'uomo, alcuni cetacei e le scimmie superiori) possie­
dono quindi una certa quantità di cervello "in più" da usare
per l'elaborazione di informazioni e per "costruire la realtà"
(la rappresentazione del mondo che è la realtà di ciascuna
specie).
Le specie con encefalizzazione maggiore avrebbero così
la possibilità di colonizzare nuove nicchie ecologiche grazie
alla maggior "plasticità" e modulabilità del loro cervello. In
questa visione, la premessa dei comportamenti intelligenti
(e cioè una maggiore encefalizzazione) sarebbe inizialmente
un prodotto casuale e, solo successivamente alla afferma­
zione evolutiva della specie, fornirebbe un vantaggio evolu­
tivo diretto. In contrapposizione, spesso, a questa (e altre
teorie) su base quantitativa, si pongono le ipotesi filogeneti­
che tese a spiegare modificazioni qualitative dei circuiti
nervosi nel corso della filogenesi. La maggior parte delle
teorie sullo sviluppo filogenetico cerebrale ha focalizzato la
propria attenzione sulla macroscopica espansione struttura­
le e funzionale del telencefalo e in particolare della cortec­
cia cerebrale. Di solito questa espansione è stata attribuita
all' "invasione" di informazioni di altre modalità in un te­
lencefalo originariamente "olfattivo" (vedi Ebbeson, 1 977,
1 980a) oppure a uno sviluppo de novo di alcune parti. In
questo ambito si colloca anche la celeberrima teoria del
cervello "trino" di Mac Lean (1 982) che ipotizza una sorta di
stratificazione nell'uomo di tre cervelli, uno rettiliano, uno
di mammifero primitivo, e infine uno di mammifero avan­
zato.
A questa visione ora si oppone la "rivoluzione copernica­
na" della moderna neurologia comparata che ha dimostrato
viceversa la presenza di equivalenti neocorticali nel telence­
falo dei vertebrati non mammiferi apparentemente più pri­
mitivi, quali gli anfibi. Si delinea quindi l'ipotesi opposta,
della "parcellizzazione", secondo la quale sistemi diffusi e
indifferenziati preesistevano all'inizio dell'evoluzione dei
vertebrati e che nello sviluppo di comportamenti complessi
e delle relative capacità si siano potenziate e segregate alcu­
ne vie e connessioni specifiche (vedi Ebbeson, 1 980b). Que­
ste ipotesi indirettamente suggeriscono una relativa stabili­
tà del piano organizzativo base dei vertebrati e spiegano le

244
variazioni specie-specifiche come l'impiego differenziale di
substrati anatomo-funzionali comuni.
In ogni caso si può essere d'accordo con Glenn Northcutt
(1 984, p. 172) che una "valutazione critica delle ipotesi corren­
ti sull'evoluzione del sistema nervoso centrale, rivela che que­
ste ipotesi descrivono in generale modelli di variazione di ca­
ratteri e raramente identificano processi". Come a dire che
queste teorie sono parziali e descrivono l'esistente senza spie­
game i meccanismi che l 'hanno prodotto! Si può comunque
accettare anche la proposta in positivo di Northcutt, e cioè
che molti fenomeni di invasione, parcellizzazione, variazione
quantitativa o altro si siano verificati, di caso in caso, ma che
il problema sia da una parte stabilire nuovi criteri di omolo­
gia e dall'altro identificare le pressioni selettive che hanno
portato ai cambiamenti e quali vantaggi adattativi ne sono de­
rivati. Questo diviene drammaticamente importante quando
si voglia studiare la storia naturale dell'intelligenza, che in
molti casi sembra scaturire (vedi le ipotesi sopra citate di Jeri­
son, sull'encefalizzazione) come un prodotto accessorio dei fe­
nomeni di encefalizzazione.

Neurobiologia cellulare e meccanismi dell 'intelligenza

Uno dei più notevoli paradossi dello studio neurologico dei


meccanismi mentali, è appunto la verifica che a livello cellula­
re apparentemente il cervello dell'uomo non presenta alcuna
differenza radicale rispetto a quello di altri mammiferi e che i
sistemi principali di neuroni caratterizzati dal punto di vista
neurochimico sembrano relativamente stabili (Fasolo e Mala­
carne, 1987).
Questa dicotomia fra la novità (apparente ?!) di prestazioni
funzionali e la conservatività dell'organizzazione cellulare
spesso costringe a teorie estreme e contrapposte. Si fronteggia­
no così posizioni di tipo olistico da una parte, e dall'altra nuove
forme di localizzazionismo. Per alcuni ha cioè significato solo
il livello d'analisi superiore, quello del cervello come sistema
complesso; per altri si devono trovare centri nervosi specifici
ed esclusivi che caratterizzino un determinato piano evolutivo.
Un modo interessante e nuovo di uscire da questa difficol­
tà è quello di spostare il discorso dal livello dei circuiti regio­
nali, a quello dei circuiti locali (tutte quelle porzioni cioè di
neuroni che in determinate condizioni agiscono come unità in­
tegrative indipendenti, vedi Agnati e Fuxe, 1 985). Apparente­
mente nel corso della filogenesi il numero di circuiti locali e di
neuroni intrinseci (a funzione associativa locale) è aumentato

245
in varie aree encefaliche, suggerendo un aumento di capacità
di trattare informazioni e indirettamente un maggior numero
di livelli di controllo del sistema.
L'impatto delle moderne tecniche di biologia cellulare e
molecolare ha poi profondamente modificato le nostre cono­
scenze sui meccanismi di comunicazione intercellulare nel si­
stema nervoso. Così alla tradizionale visione della comunica­
zione chimica a livello sinaptico, ove un neurotrasmettitore
emesso dall'elemento presinaptico agendo su recettori post­
sinaptici trasduceva il segnale elettrochimico da una cellula
all'altra, si è sostituita una serie di modelli funzionali molto
vari e complessi, che prevedono recettori sull'elemento presi­
naptico (sia per messaggeri chimici prodotti da altri neuroni
sia per i suoi stessi messaggeri autorecettori), molteplicità di
recettori e azioni postsinaptiche, mediate sia da canali ionici,
sia da sistemi di secondi messaggeri citoplasmatici (vedi
Bradford, 1 986). È apparso inoltre chiaro che la maggior parte
dei neuroni produce più di un singolo messaggero chimico,
ma miscele di diversi neurotrasmettitori e neuromodulatori
(coesistenza) (Hokfelt et al., 1 986). La sinapsi non è vista più
come un semplice interruttore, ma come un complesso siste­
ma integrato.
È stata inoltre proposta una vera e propria evoluzione mo­
lecolare dei sistemi di messaggeri sinaptici e dei fenomeni di
coesistenza nel corso della filogenesi (Hokfelt et al., 1 986). Ben
si comprende quindi il cambiamento di prospettiva: un singo­
lo cervello umano contiene forse oltre l 00 miliardi di neuroni,
interconnessi da un numero di sinapsi da 1000 a 10.000 volte
superiore. Se queste sinapsi sono poi dei modulatori molto so­
fisticati, il numero di possibili stati funzionali si accresce
enormemente.
Per complicarci ulteriormente le idee appare probabile
che questi circuiti sinaptici siano assai plastici non solo du­
rante lo sviluppo embrionale postnatale, ma anche negli stati
funzionali adulti e con grandi variazioni da individuo a indivi­
duo della stessa specie.
L'enorme complessità delle reti nervose ripropone alla no­
stra attenzione inoltre i meccanismi che ne controllano lo svi­
luppo e ne codificano la relativa costanza specie-specifica.
La ricerca di questi ultimi anni propone un ruolo decisivo dei
fenomeni epigenetici, suggerendo che le reti nervose si venga­
no a stabilizzare attraverso veri e propri processi selettivi a li­
vello cellulare e molecolare (Changeaux, 1 983).
Mancano tuttavia dati, nei molti modelli sperimentali com­
parati usati, sui meccanismi attraverso i quali vengono stabi­
lizzate, non nell'ontogenesi, ma nella filogenesi, le regole di

246
plasticità che sono alla base dei meccanismi di apprendimen­
to. Questo discorso se da una parte ci fa riflettere sul ruolo
critico dell'ontogenesi (il cui studio grazie all'uso della moder­
na ingegneria biologica ha subito un vero salto di qualità con
la scoperta dei geni che regolano lo sviluppo embrionale di al­
cune specie), ci costringe peraltro a porre nuova attenzione al
vessato problema dei rapporti fra ontogenesi e filogenesi (vedi
discussione in Fasolo e Malacarne, 1 987).

Conclusioni

Una storia naturale dell'intelligenza deve porsi alcuni


obiettivi, e in particolare: l ) comprendere i meccanismi fini
della comunicazione cellulare e la loro plasticità durante lo
sviluppo e nella vita adulta; 2) descrivere modelli di organizza­
zione cerebrale e correlarli, da una parte, all'organizzazione
cellulare sottostante e, dall'altra, alle prestazioni funzionali
dell'encefalo come sistema; 3) sviluppare teorie per compren­
dere le relazioni genetico-ontogenetiche che determinano a un
tempo l'organizzazione specie-specifica del sistema nervoso e
le peculiarità del singolo individuo; 4) studiare i fattori seletti­
vi e i vincoli strutturali che garantiscono l'ereditabilità di un
comportamento intelligente. In ogni caso l'analisi comparata
può fornire contributi fondamentali allo studio dell'intelli­
genza umana sia dal punto di vista funzionale, sia dal punto di
vista metodologico, definendo i limiti e le potenzialità dell'e­
strapolazione dal modello animale (costantemente usato nella
ricerca biomedica) a quello umano.
Dal punto di vista conoscitivo lo studio comparato suggeri­
sce infine i meccanismi evolutivi che hanno sotteso e permes­
so l'instaurarsi dei processi intelligenti nei sistemi biologici.
Queste acquisizioni possono avere un grande significato an­
che nel settore dell'Intelligenza Artificiale proponendo solu­
zioni tecnologiche (per esempio, biochip, e comunque trasdut­
tori, che rispecchino la modulabilità delle sinapsi naturali),
"modelli di intelligenza" alternativi (basati ad esempio su par­
ticolari sistemi sensoriali d'ingresso e su semantiche differen­
ti da quelle classiche della linguistica) e una "epistemologia
evolutiva" nella comprensione delle attività intelligenti.

RIFERIMENTI BIBLIOGRAFICI

Agnati, L.F. e K. Fuxe (1 985), New concepts on the structure of the


neuronal networks: the miniaturization and hierarchical organi-

247
zation of the centra[ nervous system. Hypothesis, in "Biosciences
Reports", 4, pp. 93-98.
Beer, C.G. (1 982), Study of vertebrate communication. lts cognitive im­
plications, in D.R. Griffin (a cura di), Anima[ Mind - Human Mind,
Springer Verlag, Berlin, Heidelberg, New York, pp. 25 1 -268.
Bittennan, M.E. (1 976), /ssues in the Comparative Psychology of Lear­
ning, in R.B. Masterton, M.E. Bitterman, C.B.G. Campbell e N.
Hotton (a cura di), Evolution of Brain and Behavior in Vertebrates,
J. Wiley & Sons Press, New York, Toronto, London, Sydney, pp.
2 1 7-225 .
Bitterman, M. E. (1 987), The Evolutionary Biology of lntelligence, ASI
Series, Springer Verlag, in corso di pubblicazione.
Blakemore, C. (1 989), Pe r una teoria meccanicista della mente e della
percezione, in questo volume, pp. 1 35-1 58.
Bradford, H.F. (1 986), Chemical Neurobiology. An lntroduction to
Neurochemistry, W.H. Freeman and Company, New York.
Brookshire, K.H. ( 1976), Ve rtebrate Learning: Evolutionary divergen­
ces, in R.B. Masterton, M. E. Bitterman, C.B.G. Campbell e N. Hot­
ton (a cura di), Evolution of Brain and Behavior in Vertebrates, J.
Wiley & Sons Press, New York, Toronto, London, Sydney, pp. 1 9 1 -
2 1 6.
Bullock, T.H. ( 1 982), Afterthoughts an Anima l Minds, in D.R. Griffin (a
cura di), Anima[ Mind-Human Mind, Springer Verlag: Berlin, Hei­
delberg, New York, pp. 407-4 14.
Changeaux, J.P. (1 983), L 'homme neuronal, Librairie A. Fayard, Paris
(trad. it. Feltrinelli, Milano 1 983).
Ebbeson, S.O.E. (1980a), Comparative Neurology of the Telencepha­
lon, Plenum Press, New York, London.
Ebbeson, S.O.E. (1 980b), The parcellation theory and its relation to in­
terspecific variability in brain organization, evolutionary and on­
togenetic development, and neuronal plasticity, in "Celi Tissue
Res.", 2 1 3 , pp. 1 79-2 1 2.
Ewert, J.P. ( 1 985), Concepts in vertebrate neuroethology, in "Anim. Be­
hav.", 33, pp. 1-29.
Fasolo, A. (1 982), L 'olfatto dei vertebrati, in "Quaderni di morfologia
funzionale comparata", Piccin, Padova.
Fasolo, A. e G. Malacarne (1 987), Comparing the structure of brains:
implications far behavioral homologies, ASI Series, Springer Ver­
lag, in corso di pubblicazione.
Gould, S.J. ( 1 976), Grades and clades revisited, in R.B. Masterton, W.
Hodos e H. Jerison (a cura di), Evolution, Brain, and Behavior. Per­
sistent Problems, J. Wiley & Sons Press, New York, Toronto, Lon­
don, Sydney, pp. 1 15-1 22.
Griffin, D.R. ( 1978), Prospects far a cognitive ethology, in "Behav.
Brain Sci.", 4, pp. 527-538.
Griffin, D.R. (a cura di) (1 982), Anima[ Mind - Human Mind, Springer
Verlag, Berlin, Heidelberg, New York.
Hailman, J.P. (1 976a), Uses of the comparative study of behavior, in
R.B. Masterton, W. Hodos e H. Jerison (a cura di), Evolution,
Brain, and Behavior. Persistent Problems, J. Wiley & Sons Press,
New York, Toronto, London, Sydney, pp. 1 3-22.

248
Hailman, J.P. (1 976b), Homology: logic, information, and efficiency,
in R.B. Masterton, W. Hodos e H. Jerison (a cura di), Evolution,
Brain, and Behavior. Persistent Problems, J. Wiley & Sons Press,
New York, Toronto, London, Sydney, pp. 1 8 1- 1 98.
Harley, C.B. e J. Maynard-Smith ( 1 983), Learning - an evolutionary
approach, in "TINS", giugno, pp. 204-208.
Hodos, W. ( 1 982), Some perspectives on th{! evolution of intelligence
and the brain, in D.R. Griffin (a cura di), Animai Mind-Human
Mind, Springer Verlag, Berlin, Heidelberg, New York, pp. 33-56.
Hokfelt, T., Everitt, B., Meister, B., Melander, T., Schalling, M., Jo­
hansson, B., Lundberg, J.M., Hulting, A.L., Werner, S., Cuello,
A., Hemmings, H., Ouimet, C., Walaas, 1., Greengard, P. e M.
Goldstein (1 986), Neurons with multiple messengers with special
refe rence to neuroendocrine systems, in "Recent Progress in
Hormone Research", 42, Academic Press.
Jerison, H.J. (1 976), Principles of the evolution of the brain and be­
havior, in R.B. Masterton, W. Hodos e H. Jerison (a cura di),
Evolution, Brain, and Behavior. Persistent Problems, J. Wiley &
Sons Press, New York, Toronto, London, Sydney, pp. 23-45.
Jerison, H.J. ( 1987), Evolutionary biology of intelligence: the nature
of the problem, ASI Series, Springer Verlag, in corso di pubbli­
cazione.
Krebs, J.R. e N.B. Davies ( 1 98 1), An introduction to Behavioral eco­
logy, Blackwell, Oxford e Londra (trad. it. Boringhieri, Torino
1 987).
Liebennan, P . .(1 987), Language, communication and rule-governed
behavior, ASI Series, Springer Verlag, in corso di pubblica­
zione.
MacLean, P.D. (1982), On the origin and progressive evolution of the
trine brain, in E. Annstrong e D. Falk (a cura di), Primate Brain
Evolution. Methods and Concepts, Plenum Press, New York, pp.
291-31 6.
Macphail, E.M. (1 982), Brain and lntelligence in Vertebrates, Claren­
don Press, Oxford .
Mazzi, V. e A. Fasolo (1 983), Evoluzione e determinismo del neuro­
ne: dati sperimentali e considerazioni me todologiche, in V. Cap­
pelletti, B. Luiselli, G. Radnitzky e E. Urbani (a cura di), Storia
del pensiero scientifico, Jouvence, Roma, pp. 265-294.
Northcutt, R.G. (1984), Evolution of the vertebrate centrai nervous
system: patterns and processes, in "Amer. Zool.", 24, pp. 701-716.
Poli, M.D. (1 987), Species-specific differences in learning, ASI Series,
Springer Verlag, in corso di pubblicazione.
Rooijen, J. Van (198 1), Are feelings adaptations? The basis of mo­
dern applied animai ethology, in "Appl. Anim. Ethol.", 7, pp. 187-
1 89.
Welker, W. (1 976), Brain Evolution in Mammals: A review of con­
cepts, Problems, and Methods, in R.B. Masterton, M.E. Bitter­
man, C.B.G. Campbell e N. Hotton (a cura di), Evolution of
Brain and Behavior in Vertebrates, J. Wiley & Sons Press, New
York, Toronto, London, Sydney, pp. 251-344.

249
Parte terza

Cognizione, computazione e Intelligenza


Artificiale
Significato e definizione
di Marvin Minsky

Significato s . m . l. Concetto racchiuso in un qualunque mezzo d 'e­


spressione: senso. 2. Elemento concettuale del segno linguistico.
Contenuto semantico, mentale, emotivo di una qualsiasi espres­
sione linguistica, parola o frase. 3. Ciò che esprime, vuole o può
esprimere un 'azione, una parola, e si m. il modo in cui q.c. viene
fatto, detto e sim. 4. fig. Importanza, valore.
(Dal Vocabolario della lingua italiana, di Nicola Zingarelli, 1 1 a
ed., Zanichelli, Bologna 1 983)

Cosa significa "significato" ? Per usare correttamente una


parola è a volte sufficiente che qualcuno ce ne dica la defini­
zione, ma ciò non càpita spesso, e non tutte le definizioni
hanno un tale magico effetto. Supponiamo di dover spiegare
il significato di "gioco". Potremmo cominciare dicendo:
Gioco: un'attività in cui due squadre competono mediante un
certo oggetto (ad esempio, una palla) per ottenere un punteggio
vincente.

Sotto questa definizione ricade un certo numero di gio­


chi, ma non tutti: non si riescono a descrivere adeguatamen­
te quei giochi in cui non si usa alcun oggetto ma, ad esem­
pio, soltanto parole, né quelli in cui non c'è punteggio o man­
ca l'elemento della competizione. Ora, è sempre possibile
estendere la definizione in modo da ricomprendere questo o
quel gioco, ma non riusciremo mai a formulare una defini­
zione che descriva adeguatamente i giochi nella loro totalità,
semplicemente perché le caratteristiche comuni a ciò che
chiamiamo "gioco" non sono sufficienti. Ma dimentichiamo
per un momento gli aspetti fisici o strutturali dei giochi, e
concentriamoci sulla loro funzione psicologica. Ciò suggeri­
sce una definizione completamente diversa:
GIOco: un 'attività impegnativa e diverten te, intenzionalmente pri­
va di connessioni con la vita reale.

Una volta adottato questo punto di vista tutti quei giochi,


così radicalmente diversi, sembrano molto più simili. Infatti,
ora è chiaro che essi hanno tutti un fine comune, e ciò ne
spiega anche la grande varietà fisica e strutturale: semplice­
mente, è possibile usare molti oggetti diversi per raggiunge­
re uno stesso scopo. A questo punto potrebbe anche sembra-

253
re strano considerare il gioco non come un oggetto o un'atti­
vità, ma come un processo mentale. Tuttavia, in ciò non vi è
realmente nulla di nuovo: già la nostra prima definizione
conteneva alcuni elementi mentalistici, nascosti nelle parole
"competizione" e "vittoria".
D'altra parte, non dovrebbe sorprenderei il fatto che i
giochi non sono simili alle pietre e, come vedremo, questo
carattere mentalistico è condiviso anche da altri oggetti, che
pure siamo soliti considerare fisici. Tentiamo ora di dare
una definizione di "sedia". A prima vista potrebbe sembrarci
sufficiente dire:
SEDIA: un oggetto dotato di gambe, schienale e sedile.
Se tuttavia passiamo in rassegna con più attenzione gli
oggetti che possono essere considerati sedie, il problema ri­
sulta del tutto analogo a quello originato dalla definizione di
"gioco". È facile convincersi che, dopo aver tentato varie
strade, non resta che identificare il significato con lo scopo a
cui l'oggetto deve servire o con l'uso che se ne intende fare.
La parola "sedia" assume allora la stessa colorazione menta­
listica di un desiderio:

SEDIA: qualcosa su cui ci si può sedere.


Vi sono dunque due modi di considerare le sedie. Da un
lato, è possibile darne una descrizione strutturale come "og­
getti dotati di gambe, schienale e sedile". Dall'altro, possia­
mo darne una descrizione psicologica come "oggetti su cui ci
si può sedere". Perché non cercare un compromesso, intrec­
ciando le due definizioni in un'unica descrizione del signifi­
cato di "sedia"? Non basta associare in modo più o meno va­
go aspetti strutturali e aspetti funzionali: bisogna specificare
completamente il ruolo di ogni singolo aspetto strutturale
nell'adempimento della funzione generale. Per far ciò biso­
gna rappresentare le connessioni fra le parti strutturali della
sedia e le parti o le necessità del corpo umano cui esse sono
dedicate. Si ha così la seguente rappresentazione:

ri
STRUTTURA FUNZIONE

Il
� Lo schienale sostiene la schiena

�--- Il sedile sostiene il corpo ---::.


�--Le gambe tengono alto il sedile --....:;.

� Le gambe permettono di piegare le ginocchia �

254
Senza questo tipo di conoscenze, non si può sostenere di
conoscere il significato di "sedia": in tal caso, infatti, po­
tremmo anche pensare che per usare correttamente una se­
dia sia necessario strisciarvi sotto, o mettersela in testa. Ma
una volta stabilite le giuste connessioni fra la struttura e lo
scopo, possiamo applicare il concetto di sedia anche ad altri
oggetti, e capire, ad esempio, come anche una semplice sca­
tola possa svolgere le stesse funzioni di una sedia, nonostan­
te non abbia né gambe né schienale. Per poter applicare il
concetto di "sedia" a una scatola bisogna riuscire a sezionar­

ilf
la in parti che approssimino quelle che entrano nella descri­
zione strutturale di una sedia:

?? DIFFERENZA: non c'è schienale a sostenere la schiena

La sommità sostiene il corpo

D I lati mantengono l'altezza del sedile

DIFFERENZA: non c'è spazio per piegare le ginocchia

Simili corrispondenze ci permettono di capire molto me­


glio come si possano usare scatole al posto delle sedie, gra­
zie anche alle nostre conoscenze relative alle connessioni fra
struttura, comodità e posizione. Si può vedere, ad esempio,
che una scatola sarebbe adatta solo per coloro che non han­
no bisogno di appoggiarsi o a cui non spiace non poter piega­
re le ginocchia. Si tratta naturalmente di un ragionamento
complesso che richiede una notevole abilità mentale per n­
descrivere tanto la sedia quanto la scatola in modo che, no­
nostante le differenze, vi sia una corrispondenza strutturale.
Ciò che chiamiamo "conoscenza pura" risulta utile solo in
quei pochi ma cruciali contesti in cui è necessaria l'abilità
mentale di riforrnulare appropriatamente le proprie descri­
zioni per adattarle agli scopi e alle circostanze del momento.
Senza tale abilità potremmo applicare ciò che abbiamo im­
parato solo e unicamente in quelle circostanze in cui lo ab­
biamo imparato, e ciò costituirebbe un grave problema per­
ché, al di fuori dell'universo artificiale della logica matema­
tica, nessuna situazione si ripresenta sempre identica a se
stessa.
Torniamo alle sedie e ai giochi. Abbiamo visto che le de­
scrizioni strutturali sono di solito troppo specifiche: la mag­
gior parte delle sedie ha gambe e schienale, ma vi sono molte
eccezioni. D'altro lato, le descrizioni funzionali non sono di
solito sufficientemente specifiche: "oggetti su cui ci si può se­
dere" è un'espressione troppo vaga per identificare univoca-

255
mente le sedie, così come "attività divertente" non riesce a
distinguere i giochi dagli altri modi di impiegare il proprio
tempo libero.

Le definizioni psicologiche sono di solito troppo lasche e non


sufficientemente restrittive. Le definizioni strutturali sono di so­
lito troppo rigide ed eccessivamente restrittive.

È difficile, in generale, che una singola definizione riesca


a caratterizzare univocamente una classe di oggetti. Ma co­
me abbiamo visto si riesce a volte a catturare il significato
di una parola mediante un attacco su più fronti. Nel caso di
"sedia", ad esempio, abbiamo intessuto una rete fra due di­
versi tipi di descrizione. Io credo che le ragioni del successo
di questo tentativo siano molto profonde, e che possano esse­
re riassunte nel modo seguente:

Le nostre idee migliori sono quelle che gettano un ponte fra due
mondi diversi!

Non è necessario che ogni definizione sia una miscela di


esattamente questi due ingredienti: struttura e intenzione;
pure, si tratta di una coppia particolare, da un certo punto
di vista: ci permette di stabilire una connessione fra gli og­
getti che sappiamo descrivere (e quindi reperire, fare o pen­
sare) e i problemi che vogliano risolvere. La corrispondenza
struttura-funzione ci permette di unire i "mezzi" ai "fini".
Vi è un modo particolare di rappresentare gli oggetti di
uso più comune, ed è così profondamente radicato nel nostro
pensiero che non ci accorgiamo mai di usarlo. Per eviden­
ziarlo si consideri l'effetto psicologico che si ottiene dise­
gnando una linea orizzontale nel modo seguente:

--��-
Persona Lampada Automobile Albero Tavolo

La linea divide ogni oggetto in due parti, ma in modo par­


ticolarmente significativo, distinguendo un corpo e un soste­
gno. Non avrebbe senso dividere verticalmente il tavolo, ot­
tenendo due parti a forma di "L", né dividere la parte ante-

256
riore dell'automobile da quella posteriore. Si tratterebbe di
divisioni prive di qualsiasi scopo apparente. Non è affatto
strano nella vita quotidiana distinguere le gambe di un tavo­
lo dal ripiano, o le ruote di un'automobile dalla carrozzeria,
e ciò perché è il ripiano del tavolo che assolve allo scopo per
cui noi usiamo i tavoli, e cioè per appoggiarvi oggetti. Le
gambe, invece, hanno un ruolo del tutto secondario: è vero
che senza di esse il ripiano cadrebbe, ma è anche vero che
senza il ripiano il tavolo sarebbe del tutto inutile.
In questo senso, la distinzione corpo-sostegno esprime
più di una semplice relazione fisica: essa incorpora l'idea
della connessione fra un oggetto e il suo scopo, fra una de­
scrizione strutturale e un fine psicologico. Come abbiamo vi­
sto, non basta usare una semplice metafora, non è sufficien­
te giustapporre una descrizione strutturale come "ripiano so­
stenuto da gambe" a una intenzionale come "per mantenere
gli oggetti lontano dal pavimento". Per poter usare questa co­
noscenza, occorre sapere anche come usarla: chi ci dice, ad
esempio, di porre gli oggetti sul tavolo, invece che sotto?
Questo tipo di conoscenza è implicito nella rappresenta­
zione corpo-sostegno: usandolo, noi supponiamo che il "cor­
po" sia l'elemento strutturale che permette di raggiungere il
fine, mentre il "sostegno" non è altro che una parte accesso­
ria necessaria al funzionamento del "corpo". Conseguente­
mente, l'unica parte del tavolo che prendiamo in considera­
zione per appoggiarvi un oggetto, è il ripiano. La nostra co­
noscenza può farsi più ampia e più profonda man mano che
impariamo come, concretamente, il sostegno aiuta il corpo.
Ad esempio, un buon modo per capire la funzione delle gam­
be del tavolo è quello di provare a pensare a cosa accadreb­
be se esse fossero rimosse. Per capire il funzionamento di un
oggetto, può essere utile sapere come esso può non funzio­
nare:
DIFFERENZA NEL SOSTEGNO EFFETTI SUL CORPO

Rimuovi la gamba destra Il lato destro del ripiano cade


Rimuovi la gamba sinistra n lato sinistro del ripiano cade

Vi sono naturalmente molti altri modi per stabilire una


connessione fra la descrizione e lo scopo, e ognuno di essi
suggerisce un modo possibile di sezionare gli oggetti metten­
done in luce le parti che, in quel contesto, sembrano più es­
senziali.
FUNZIONE FINI CONCLUSIONE EFFETTO CORPO
STRUTTURA MEZZI PREMESSA CAUSA SOSTEGNO

257
Ciascuna di queste coppie comporta un modo preciso di
distinguere le parti essenziali da quelle secondarie o accesso­
rie, ed anche rimanendo all'interno del mondo degli oggetti
fisici è possibile assumere molti diversi punti di vista psico­
logici. Ad esempio, vi sono molti modi di rappresentare l'i­
dea di salire su un tavolo per raggiungere un oggetto posto
particolarmente in alto:
Sostegno: il tavolo mantiene gli oggetti lontano dal pavi­
mento.
Funzione: il tavolo è fatto per appoggiarvi oggetti.
Conclusione: se si mette qualcosa su un tavolo, la sua altezza
aumenta.
Causa-Effetto: posso giungere più in alto perché parto da un
punto posto più in alto.
Mezzi-Fini: volendo giungere più in alto, posso salire su un
tavolo.

Quando si tratta di risolvere un problema difficile, spesso


facciamo uso di più prospettive contemporaneamente, e la
qualità della nostra comprensione dipende da quella della
connessione che riusciamo a stabilire fra tutti questi diffe­
renti punti di vista. La traduzione da un punto di vista all'al­
tro richiede la costruzione di qualche corrispondenza. Ma è
difficile riuscire a costruirle in maniera coerente; spesso la
situazione è simile a quella in cui ci siamo ritrovati tentando
di definire il concetto di "sedia": alla semplice idea funziona­
le di "oggetto su cui ci si può sedere" fa riscontro una miria­
de di oggetti fisici differenti. In generale, ciò che è semplice
ed elementare da un dato punto di vista, risulta complesso e
inestricabile da un altro. La distinzione corpo-sostegno è al­
lora tanto più rimarchevole in quanto conduce, di solito, a
corrispondenze chiare e precise. Ad esempio, possiamo tra­
durre l'espressione "sostenuto da", del mondo architettonico,
in quella, appartenente al mondo geometrico, "avente una su­
perficie orizzontale al di sotto di se stesso". Vi sono, natural­
mente, delle eccezioni: questa traduzione non riesce a rap­
presentare, ad esempio, la possibilità di sostenere qualcosa
appendendolo a un sostegno posto più in alto. Ma non pos­
siamo nemmeno sperare di dare traduzioni immuni alle ec­
cezioni. Non è un caso che la distinzione corpo-sostegno ri­
sulti così potente e di così larga applicabilità: essa riassume
in sé tutte le relazioni fra struttura e funzione.
Le connessioni coerenti fra mondi descrittivi diversi sono
la chiave delle nostre più utili metafore, permettendoci di
comprendere anche ciò che esula dalla nostra esperienza di­
retta. Se qualcosa ci sembra totalmente nuovo in uno dei no-

258
stri mondi descrittivi, è possibile che, se tradotto nel lin­
guaggio di un altro mondo, cominci a somigliare a qualcosa
che già conosciamo. Le coppie di opposti come quella che oc­
corre nello schema corpo-sostegno non sono, in sé, molto si­
gnificative, ma possono essere un ottimo punto di partenza
per costruire corrispondenze fra mondi descrittivi diversi. In
un certo senso, sono cartelli che ci indicano come giungere
ai ponti costruiti per unire modi diversi di guardare alla
stessa realtà.

[Questo saggio è una versione di un capitolo del mio The Society


of Mind (Simon and Schuster, New York 1986). L'idea dello schema
descrittivo Corpo-Sostegno ha avuto origine in collaborazione con
Seymour Papert. Il problema di definire i giochi fu posto per la pri­
ma volta da Ludwig Wittgenstein nelle sue Ricerche filosofiche, ma
egli non riuscì a risolverlo perché (a mio parere) non comprese l'o­
rigine psicologica di tali concetti. Ciò lo costrinse a ricercare le
proprietà comuni ai giochi in quanto tali, e tutto ciò che riuscì a
trovare furono delle vaghe "somiglianze di famiglia". E qui si fer­
mò: essendo infatti anche la nozione di somiglianza di natura psico­
logica e non strutturale.]

259
Pensiero e modelli mentali
di Philip N. Johnson-Laird

Introduzione

Supponiamo che il cervello sia un dispositivo computa­


zionale ad architettura parallela, diverso dai comuni calcola­
tori digitali, ma in grado di eseguire computazioni grazie al­
le sue caratteristiche fisiologiche; sarebbe allora compito
dello psicologo scoprire le varie procedure usate dal cervello
nell'adempimento delle proprie funzioni principali: la perce­
zione del mondo esterno, il pensiero e il controllo dei movi­
menti corporei. Le pagine seguenti verteranno su un singolo
aspetto del pensiero, il ragionamento inferenziale, tentando
di descrivere le procedure computazionali ad esso soggia­
centi.
Secondo alcuni studiosi di orientamento "connessionista"
(fra cui, ad esempio, Faldman, 1 985) la scienza cognitiva non
può trascurare la natura dei neuroni e delle loro intercon­
nessioni. Ma prima di formulare precise teorie psicologiche
che tengano conto delle caratteristiche fisiche del cervello,
bisogna determinare i requisiti computazionali di ogni singo­
la funzione cerebrale, e indicare una procedura che soddisfi
tali requisiti (Marr, 1 982). La teoria della computazione per­
mette di giungere alla stessa conclusione (vedi Johnson­
Laird, 1 983): è possibile rappresentare ogni funzione compu­
tabile per mezzo di poche funzioni primitive e un piccolo nu­
mero di operazioni di composizione funzionale, anche se, na­
turalmente, la rappresentazione finale può essere notevol­
mente complessa. Concesso che il cervello stesso è composto
di unità fondamentali e di principi di composizione funziona­
le di potenza paragonabile, la sua fisiologia, a noi nota, pone
pochi vincoli alla teoria cognitiva. La teoria cognitiva può in-

260
vece trarre indicazioni più rilevanti dallo studio delle capaci­
tà mentali a livello psicologico. Infatti, una volta che tali ca­
pacità siano state spiegate per mezzo di adeguate procedure
cognitive, non dovrebbe essere difficile esprimere tali proce­
dure nel quadro del meccanismo computazionale di basso li­
vello, quale che sia, proposto dalla neurofisiologia.
Il pensiero è alla base di molte diverse attività cognitive,
dalla soluzione di intricati problemi concettuali al semplice
fantasticare, ma quando è esplicitamente diretto a un fine, ri­
cade sotto tre principali categorie: il calcolo, l'inferenza e
l'immaginazione. Stiamo eseguendo un calcolo, ad esempio,
quando "facciamo i conti" a mente: il calcolo è un processo
del pensiero volto a determinare il valore di una funzione se­
guendo passo per passo una procedura fondata su regole for­
mali deterministiche. L'immaginazione, invece, è di natura
completamente diversa: è un processo non deterministico,
che a parità di condizioni iniziali può portare a risultati diver­
si. Essa è alla base di attività altamente creative, come dipin­
gere un quadro, comporre un brano musicale, scrivere una
poesia, attività di cui non si è ancora riusciti a dare una spie­
gazione cognitivamente adeguata.
L'inferenza lascia perplesso lo psicologo perché, pur es­
sendo uno degli aspetti più importanti dell'attività della men­
te, non si sa se può essere ricondotta al calcolo o all'immagi­
nazione (o ad entrambi). Vi è certamente un qualche tipo di
procedimento sistematico che porta da un insieme di proposi­
zioni, dette "premesse", a un altro insieme di proposizioni,
dette "conclusioni", ma tale procedimento può dare origine a
inferenze di tipo diverso. Nel caso più comune, le proposizio­
ni (espresse mediante un certo numero di enunciati del lin­
guaggio naturale) sono inserite nel contesto della conoscenza
generale dell'individuo, generando un'unica conclusione, a
sua volta espressa per mezzo di un enunciato linguistico. Ma,
nella vita di ogni giorno, capita di fare molte inferenze che
hanno come conclusione un'azione diretta, e che muovono da
informazioni derivate dalla percezione, dalla conoscenza ge­
nerale o da premesse linguistiche. Il procedimento inferenzia­
le fa uso di principi, espliciti o impliciti, che stabiliscono una
corretta relazione semantica fra premesse e conclusione. Nel
caso del ragionamento deduttivo tali principi devono essere
logicamente corretti, in modo da garantire, in particolare, che
la conclusione sia vera se lo sono le premesse (si dice che
un'inferenza con questa proprietà è valida). Altre forme di ra­
gionamento possono richiedere principi di altra natura, ad
esempio riconducibili alla statistica, alla teoria delle probabi­
lità o alla matematica applicata (vedi Kahneman e altri, 1 982).

261
In certi casi particolari l'inferenza può essere eseguita in
modo puramente meccanico . Chi conosce le procedure di
prova di un particolare calcolo logico può essere in grado di
dimostrare che una certa conclusione segue da un dato insie­
me di premesse per mezzo di un'applicazione meccanica di
regole di inferenza comunemente accettate. Questo caso non
è tuttavia generalizzabile: non si sa ancora con certezza quali
siano i metodi con cui conduciamo le inferenze della nostra
vita quotidiana (vedi Evans, 1 982). Secondo alcune teorie del
ragionamento sviluppate in ambito psicologico l'inferenza è
un procedimento molto simile al calcolo, mentre altre tendo­
no a considerarla più simile all'immaginazione: una prima
ovvia ragione di questo disaccordo risiede nel fatto che non
possiamo osservare direttamente i nostri processi di pensie­
ro, ma che conosciamo soltanto i risultati. Poiché vi sono
molte più teorie che assimilano il ragionamento a un calcolo,
sposando in qualche modo l'idea di una "logica mentale", ri­
spetto a quelle che condividono l'altra posizione (vedi ad
esempio Inhelder e Piaget, 1 958; Osherson, 1 975; Braine,
1 978; Mayer e Revlin, 1978; Rips, 1 983), cercherò di dimo­
strare l'importanza dell'immaginazione nei processi inferen­
ziali, non esclusi quelli di natura deduttiva.

Logica e ragionamento

La logica specifica i principi del ragionamento valido in


diverse aree di pensiero. Sono possibili diversi modi di for­
malizzare un dato settore della logica, ma quello classico
adotta un punto di vista essenzialmente sintattico secondo
cui la conclusione è derivabile dalle premesse per mezzo di
regole formali (cioè sintattiche) di inferenza. Ad esempio, il
calcolo proposizionale studia le relazioni reciproche delle
proposizioni connesse da termini come "e", "oppure" e "non",
ma può essere formalizzato senza far riferimento al signifi­
cato che questi termini comunemente hanno. Le regole for­
mali di inferenza come il modus ponens sono enunciate in
modo puramente sintattico:
p
p-+ q
Quindi, q

e sono usate, in effetti, solo per derivare certi segni sulla


carta a partire da certi altri segni. Nonostante sia enunciata
in modo sintattico, una regola come il modus ponens è natu­
ralmente suscettibile di interpretazione semantica: data una

262
premessa p, eventualmente complessa (formata cioè a parti­
re da proposizioni atomiche per mezzo di connettivi proposi­
zionali), e una premessa della forma "p implica materialmen­
te q" (dove l'implicazione materiale è una relazione vero-fun­
zionale equivalente all'assunzione "p &/or q"), allora è valido
concludere q. Questa semplice interpretazione vero-funziona­
le non è l'unica possibile per il calcolo proposizionale, e in
generale è sempre possibile dare interpretazioni diverse di
uno stesso calcolo formale. Quando tuttavia le regole di un
calcolo vengono date in modo sintattico, i simboli che vi
compaiono non sono interpretati: anche storicamente, i me­
todi per specificare le interpretazioni possibili di un calcolo
(la cosiddetta "semantica modellistica") sono posteriori allo
sviluppo della logica formale.
Secondo molti psicologi, alla base della nostra capacità di
ragionamento c'è un qualche tipo di logica mentale. In parti­
colare, Piaget e i suoi seguaci hanno sostenuto che il ragio­
namento formale, che impariamo a padroneggiare fra i tredi­
ci e i diciotto anni, "non è altro che il calcolo proposizionale
stesso". Dal punto di vista della teoria della logica mentale,
un'inferenza deduttiva richiede la traduzione delle premesse
in un linguaggio mentale interno, la combinazione delle rap­
presentazioni così ottenute con la conoscenza generale rela­
tiva all'argomento espresse nello stesso modo, e la derivazio­
ne di una conclusione per mezzo di regole formali di inferen­
za applicate a queste rappresentazioni. Uno schema esplica­
tivo simile è stato adottato, fra gli altri, da Inhelder e Piaget
( 1 97 1 ), Osherson (1 975), Johnson-Laird (1 975), Braine (1978) e
Rips ( 1 983). Una teoria dell'inferenza che segua tale schema
esplicativo deve rispondere a due domande cruciali: quale lo­
gica, fra le molte possibili, è effettivamente quella usata nel­
la mente e come essa è rappresentata internamente? Doman­
de analoghe si hanno anche nel caso di altri tipi di inferenze,
come ad esempio quelle fondate sulla probabilità o sull'ap­
plicazione della matematica.
La teoria di Piaget va incontro a una particolare difficol­
tà : le inferenze che dipendono dai quantificatori "ogni" e
"qualche" non possono essere espresse nel calcolo proposi­
zionale, ma richiedono il più potente calcolo dei predicati
che permette di analizzare la struttura interna delle proposi­
zioni e i quantificatori che vi occorrono. Similmente vi sono
inferenze che dipendono da nozioni di possibilità, necessità,
tempo, numero, non-monotonicità (vedi McDermott e Doyle,
1 980; Davis, 1 980) o che usano condizionali controfattuali e
altri connettivi proposizionali non vero-funzionali (vedi Brai­
ne, 1 979; Johnson-Laird, 19 84); e infine inferenze in cui oc-

263
corrono quantificatori non standard come "la maggior par­
te", "alcuni", "più di un terzo" (vedi Johnson-Laird, 19 83).
Una simile complessità richiederebbe almeno un calcolo dei
predicati intensionale di ordine superiore, ma i calcoli logici
di questo genere sono incompleti, nel senso tecnico secondo
cui è impossibile definire un insieme di regole di inferenza
formali attraverso cui siano derivabili tutte le inferenze vali­
de. Nonostante queste considerazioni teoriche portino a du­
bitare della praticabilità della teoria della logica mentale, al­
cuni psicologi continuano a sostenerla (ad esempio Rips, co­
municazione personale), anche se non sono ancora riusciti a
formulare le regole tli inferenza richieste dalle forme di de­
duzione riscontrabili nella vita quotidiana, né tantomeno a
provare che tali regole sono effettivamente usate dalla
mente.

L 'inferenza nella vita quotidiana

L'inferenza è alla base di molti fenomeni cognitivamente


rilevanti della vita quotidiana. Ad esempio, posti di fronte al­
la seguente situazione:
Carol viveva da sola in una grande casa in un quartiere malfa­
mato della città. Una sera, rincasando, notò una luce accesa nel
suo soggiorno,

è facile inferire, almeno in via provvisoria, che vi sia un in­


truso in casa. La mente giunge a questa conclusione in modo
spontaneo e, soprattutto, largamente inconscio. È chiaro che
l'inferenza non è valida, come hanno riconosciuto i soggetti
di un esperimento condotto da Bruno Bara e Tony Anderson;
posti di fronte a questa stessa situazione, essi hanno pronta­
mente offerto spiegazioni alternative: Carol, uscendo, avreb­
be potuto dimenticare la luce accesa, l'impianto elettrico
avrebbe potuto essere difettoso, o un amico avrebbe potuto
avere le chiavi di casa. Anche se queste ipotesi sono elimina­
te (perché lo sperimentatore, pur riconoscendone la plausibi­
lità, nega che siano vere nella situazione in questione), molti
soggetti continuano a ricercare soluzioni alternative finché
non vi sia una conclusione in grado di sfidare ogni ragione­
vole dubbio. Ciò non basta, tuttavia, a garantire la validità
dell'inferenza, perché non si possono escludere con sicurezza
tutte le possibili spiegazioni dei fatti diverse dalla conclu­
sione.
Le inferenze implicite della vita quotidiana hanno luogo
anche se non vi è alcuno sforzo consapevole per trarre una

264
conclusione, e richiedono che la conoscenza generale si ren­
da disponibile in modo veloce, automatico e libero da ogni
controllo conscio. Tre fenomeni esigono una spiegazione. Co­
me fa il sistema inferenziale a individuare le conoscenze per­
tinenti a una determinata situazione? Come fa a scegliere
una conclusione, anche se provvisoria? E quand'è che una
conclusione appare corretta oltre ogni ragionevole dubbio?
Tenterò di fornire una risposta a ognuna di queste domande.

Il reperimento delle informazioni necessarie

Una volta che la conoscenza generale relativa a una situa­


zione sia stata recuperata, sono in linea di principio possibili
diversi modi di condurre un'inferenza. Si può ad esempio
pensare a una versione mentale del calcolo dei predicati, op­
pure a un metodo semantico come quello che descriverò fra
breve. Ma qualunque teoria scegliamo di adottare, occorre
spiegare come avvenga il recupero delle informazioni relati­
ve al contesto dell'inferenza. Secondo Schank ( 1 980) vi sono
delle parole chiave che attivano spezzoni di conoscenza gene­
rale; ad esempio, la parola "cameriere" fa affiorare una sorta
di "copione" contenente informazioni su azioni e situazioni
tipiche dei ristoranti. Tuttavia, nell'esempio di Carol sopra
riportato, è difficile individuare un insieme di parole la cui
occorrenza sia sufficiente ad attivare la conoscenza relativa
alla situazione descritta. Piuttosto, sembra che la possibilità
di crimini venga evocata dal significato dell'intera espressio­
ne "quartiere malfamato della città". Analogamente, la pre­
messa che Carol aveva visto una luce nel suo soggiorno fa ri­
cordare che una persona entrando in una stanza, di solito,
accende la luce, e la premessa che Carol viveva da sola può
far pensare che qualcuno diverso da Carol abbia acceso la
luce. Solo a questo punto è chiaro il legame fra quest'altra
persona e la possibilità del crimine: un ladro può essere en­
trato in casa. Le connessioni di questo genere non possono
essere prodotte per mezzo di regole formali o sintattiche, ma
richiedono che si prenda in considerazione il significato del­
le espressioni e che tale significato venga posto in relazione
con la conoscenza generale.

La natura delle conclusioni inferenziali

Un aspetto importante del processo inferenziale è l'origi­


ne delle conclusioni . Negli esperimenti che si conducono di

265
solito è lo sperimentatore a fornire le conclusioni, e l'unica
preoccupazione di molte teorie è spiegare come si giunga a
ritenere corretta una conclusione data. Queste posizioni teo­
riche, cosi come le pratiche sperimentali ad esse ispirate,
ignorano il fatto che nella vita quotidiana tutti sono capaci
di trarre da soli le proprie conclusioni. A questo riguardo vi
è un interessante problema che i teorici della logica mentale
tendono a trascurare: dato un insieme di premesse, da esso
segue un numero infinito di conclusioni valide distinte. La
grande maggioranza di tali conclusioni è banale, essendo co­
stituita ad esempio da congiunzioni o disgiunzioni di pre­
messe, e nessuna persona dotata di buon senso formulereb­
be mai spontaneamente una conclusione di tale genere. Le
conclusioni cui si giunge spontaneamente nella vita quotidia­
na hanno tipicamente le seguenti proprietà:
l. Non sono meno informative delle premesse e della re­
lativa conoscenza generale: l'insieme di situazioni possibili
in cui la conclusione è vera non è più grande di quello in cui
sono vere le premesse. Sono cosi escluse tutte le forme di ra­
gionamento simile alla seguente (che è, tuttavia, logicamente
valida):
Carol viveva da sola in una grande casa.
Quindi, Carol viveva da sola in una grande casa oppure viveva
con la sua famiglia in una piccola casa.

2. La conclusione esprime lo stesso contenuto semantico


delle premesse, ma in modo più compatto ed economico. Ciò
spiega perché di solito la conclusione non è la semplice con­
giunzione delle premesse, anche se si tratta di una forma di
ragionamento corretta.
3. Se possibile, nelle conclusioni sono enunciate relazioni
non esplicitamente contenute nelle premesse.
4. Nell'attenersi a questi principi la gente assume come
non necessario rendere espliciti fatti ovvi (vedi Grice, 1975),
cosi che di solito non ci si prende il disturbo di ri-enunciare
nella conclusione semplici premesse.
Questi principi sono stati confermati da una serie di veri­
fiche sperimentali: i soggetti di tali esperimenti formulavano
conclusioni conformi ad essi, purché le informazioni loro
fornite fossero sufficienti per effettuare una deduzione vali­
da. Si noti che i principi 1-4 non hanno nulla a che fare con
la logica, essendo il loro scopo quello di impedire conclusio­
ni banali, anche se valide, permettendo solo quelle informati­
ve. Invero, ritengo che l'informatività di una inferenza possa
essere correttamente definita in riferimento ai principi so­
pra enunciati. Si può accettare questa definizione senza pre-

266
supporre che questi principi abbiano una propria autonoma
esistenza mentale: vi sono diversi algoritmi inferenziali che
di fatto si attengono ad essi senza farne alcuna esplicita men­
zione (vedi Johnson-Laird, 1 983, capitolo 3). Comunque la lo­
ro natura semantica è evidente (essi si basano sul significato
delle premesse), né si può esprimere il loro contenuto per
mezzo di regole puramente formali che non facciano riferi­
mento al significato.

La teoria dei modelli mentali

Abbiamo visto che tanto il reperimento delle informazioni


necessarie quanto la formulazione di una conclusione dipen­
dono da procedimenti semantici. Occorre ancora spiegare un
ultimo aspetto dei processi inferenziali della vita quotidiana,
cioè il modo in cui si giunge a stabilire la correttezza di una
conclusione al di là di ogni ragionevole dubbio. Affronteremo
il problema cominciando da un caso particolare, quello delle
inferenze valide. Una volta determinato come si giunge a sta­
bilire che un'inferenza è valida, cercheremo di estendere la
soluzione al fenomeno più generale e meno definito delle infe­
renze della vita quotidiana .
Come ho cercato di dimostrare, l'idea che la validità di
un'inferenza dipenda da una derivazione formale in un calco­
lo mentale va incontro a serie difficoltà. Una possibile solu­
zione che non fa riferimento al meccanismo sintattico dei cal­
coli logici è quella che riconduce l'inferenza al principio se­
mantico fondamentale della validità dal punto di vista della
teoria dei modelli: un'inferenza è valida se è impossibile che
la conclusione sia falsa se le premesse sono vere. Si può dun­
que condurre un'inferenza prendendo in considerazione tutti
i possibili modelli delle premesse (cioè tutti i modi in cui que­
ste possono essere interpretate), verificando che la conclusio­
ne risulti vera in ognuno di essi. Purtroppo, anche la più sem­
plice delle premesse è suscettibile di infinite interpretazioni
distinte: l'asserzione "Il gatto sedeva sul tappeto" si adatta a
un numero infinito di situazioni in cui vi sono gatti diversi,
tappeti diversi, o diverse posizioni del gatto sul tappeto. Se i
logici possono ignorare il problema, non dovendo rimanere
entro i limiti della realtà della psicologia umana, lo studioso
di scienze cognitive non può far propria una teoria del ragio­
namento che richiede che un individuo prenda in considera­
zione un numero infinito di modelli alternativi distinti.
Una soluzione cognitivamente più adeguata è quella se­
condo cui si immagina una situazione tipica descritta dalle

267
premesse, tentando di trovare il modo di modificarla in mo­
do da rendere falsa la conclusione. La forma della rappre­
sentazione mentale di una situazione tipica non è un elemen­
to cruciale: possiamo pensare a un'immagine visiva oppure a
qualche altra forma non immediatamente disponibile all'i­
spezione conscia. Ciò che conta non è l'esperienza fenomeni­
ca della rappresentazione, ma il suo contenuto e la sua strut­
tura, che fanno si che essa sia la rappresentazione di un par­
ticolare stato di cose.
Prendiamo in considerazione il caso dell'inferenza sillogi­
stica, che ho studiato per alcuni anni insieme con alcuni
miei colleghi (vedi Wason e Johnson-Laird, 1 972; Johnson­
Laird e Steedman, 1 978; Johnson-Laird e Bara, 1 984). Secon­
do la teoria dei modelli mentali il primo passo di un ragiona­
mento consiste nell'immaginare una situazione in cui le pre­
messe sono vere. Così, per rappresentare una premessa della
forma "Tutti gli artisti sono barbieri", possiamo immaginare
un certo numero di artisti (diciamo due) cui viene apposto
un qualche tipo di etichetta per rappresentare il fatto che so­
no barbieri. La struttura di una simile rappresentazione sa­
rebbe più o meno la seguente:
artista = barbiere
artista = barbiere.

La rappresentazione stessa può poi essere anche una vivi­


da immagine di due persone con grembiule e tavolozza che
impugnano anche il rasoio del barbiere. Tuttavia, il modo in
cui la rappresentazione è esperita da chi conduce il ragiona­
mento non è importante; la rappresentazione mentale po­
trebbe perfino essere prodotta e percepita in modo incon­
scio. Il punto critico è piuttosto che vi sono degli insiemi di
simboli mentali semplici che rappresentano insiemi di indi­
vidui.
La rappresentazione che abbiamo dato della premessa
"Tutti gli artisti sono barbieri" non riesce a rendere conto
della possibilità che vi siano barbieri che non sono artisti. È,
questa, una possibilità che la premessa che vogliamo rappre­
sentare di per sé non esclude, e che potrebbe dar luogo al se­
guente modello:
artista barbiere
artista = barbiere
barbiere

che rappresenta esplicitamente un certo numero di barbieri


(nella fattispecie, uno, ma questo numero è arbitrario) che

268
non sono artisti. Vi sono dunque almeno due modi per rappre­
sentare compiutamente la nostra premessa: si può pensare
che il soggetto costruisca entrambe queste rappresentazioni,
assimilando così i modelli mentali ai diagrammi di Eulero (ve­
di Erickson, 1 974), oppure che vi sia un modo per rappresenta­
re in un singolo modello sia individui effettivamente esistenti
sia individui soltanto possibili (vedi Johnson-Laird, 1 983).
Quest'ultimo tipo di individui può essere rappresentato in un
modello mentale per mezzo di simboli speciali, che corrispon­
dono a entità che possono esistere oppure no:
artista barbiere
artista = barbiere
(barbiere)

In questo tipo di modello mentale le parentesi rappresen­


tano l'esistenza possibile di un oggetto. Vi sono buoni motivi
per ritenere che i modelli mentali costruiti nel corso del pro­
cesso inferenziale siano di questo secondo tipo.
L'informazione da una seconda premessa, ad esempio
"Tutti i barbieri sono chimici", può essere usata per costruire
un modello che integra entrambe le premesse. Perciò, le pre­
messe:
Tutti gli artisti sono barbieri
Tutti i barbieri sono chimici

sono rappresentate con il seguente tipo di modello:


artista barbiere chimico
artista = barbiere chimico
(barbiere = chimico)
(chimico)

in cui, ancora una volta, il numero di simboli di ciascun tipo è


essenzialmente arbitrario perché il significato delle premesse
non dipende dal numero di simboli con cui sono rappresen­
tate.
Come secondo passo, una volta costruito un modello delle
premesse, occorre formulare, se possibile, una conclusione in­
formativa e non banale. Vi è una semplice procedura che esa­
mina il modello determinando se c'è una conclusione che ri­
sponda ai requisiti precedentemente illustrati. Poiché nel mo­
dello ogni simbolo che rappresenta un artista è unito da una
relazione di identità a un simbolo rappresentante un chimico,
la procedura fornisce la conclusione "Tutti gli artisti sono chi­
mici", che stabilisce una relazione non esplicitamente asserita
nelle premesse.

269
Infine, come terzo passo, si cerca un modello alternativo
delle premesse che serva come controesempio alla conclusio­
ne precedente. Nel nostro esempio di inferenza sillogistica ciò
non è possibile, e la conclusione è quindi valida.
Vi sono casi, tuttavia, in cui un modello alternativo delle
premesse permette di falsificare la conclusione iniziale. Sup­
poniamo ancora una volta di avere artisti, barbieri e chimici, e
consideriamo le seguenti asserzioni:
Nessun artista è un barbiere.
Tutti i barbieri sono chimici.

È difficile trarre una conclusione valida da queste premes­


se perché ciascuno dei passi seguenti del procedimento infe­
renziale deve essere eseguito correttamente. Bisogna dappri­
ma costruire un modello delle premesse:

a
a

b = c
b c
(c)

in cui la linea continua denota una rappresentazione menta­


le della negazione: nessun artista potrà mai essere identifi­
cato con un barbiere. Il secondo passo consiste nel trarre
una conclusione informativa dal modello, cioè:
Nessun artista è un chimico

o la conversa di tale asserzione:


Nessun chimico è un artista.

Il terzo passo richiede la ricerca di un controesempio. Si


giunge così a un secondo modello :

a
a = (c)

b = c
b = c

che falsifica la conclusione precedente. La procedura infe­


renziale deve ora tenere in considerazione entrambi i model­
li che, congiuntamente, originano la conclusione:

270
Qualche artista non è un chimico

o la conversa di tale asserzione:


Qualche chimico non è un artista.

Ancora una volta, occorre cercare un controesempio alla


conclusione, costruendo un terzo modello:

a -
(c)
a =
(c)

b -
c
b =
c

che refuta la conclusione "Qualche artista non è un chimi­


co". Dalla considerazione congiunta dei tre modelli la proce­
dura inferenziale trae la conclusione:
Qualche chimico non è un artista

che non è refutabile da alcun modello delle premesse ed è


dunque valida. La difficoltà di quest'inferenza, che fa sì che
solo pochi riescano a condurla correttamente, dovrebbe ora
essere chiara: per ottenere in modo corretto l'unica conclu­
sione valida bisogna costruire ben tre modelli mentali, che
per di più devono essere esaminati in senso inverso a quello
in cui sono stati costruiti, secondo un ordine cioè contrario a
quello "figurale".
In generale, come hanno mostrato Johnson-Laird e Bara
( 1 984), la difficoltà di un sillogismo è funzione del numero dei
modelli che devono essere costruiti e dell'effetto "figurale".
Inoltre, quasi tutti gli errori compiuti nel corso dell'inferenza
sillogistica possono essere ricondotti alla mancata costruzio­
ne di uno o più modelli mentali e all'incapacità di seguire una
direzione opposta rispetto all'ordine "figurale" dei termini.
Un tipico errore consiste nel trarre una conclusione basata su
un singolo modello iniziale e nel non riuscire a falsificarla; è
come se, nell'esempio precedente, non si riuscisse a costruire
un contromodello all'asserzione "Nessun artista è un chimi­
co". Questa teoria del ragionamento sillogistico è stata via via
sviluppata fino a dame un modello completo su calcolatore .
Si noti che la teoria della logica mentale non è ancora riu­
scita a spiegare la difficoltà relativa di sillogismi diversi né
gli errori caratteristici che si verificano nel corso di un'infe­
renza (ma vedi Braine e O'Brien, 1 984, per una prima discus­
sione del problema).

27 1
Se si sostiene, come pure è possibile, che i modelli menta­
li siano rappresentati sotto forma di diagrammi di Eulero
(ad esempio, vedi Wason e Johnson-Laird, 1 972; Erickson,
1 974; Guyote e Sternberg, 1 98 1 ), il numero delle possibili
rappresentazioni congiunte delle premesse può essere com­
binatoriamente assai poco maneggevole, anche se Marilyn
Ford (comunicazione personale) ha sostenuto che si può for­
mulare una teoria euleriana che non va incontro a questa
difficoltà. D'altra parte, vi sono risultanze sperimentali che
suggeriscono che la gente non costruisce rappresentazioni
distinte delle diverse situazioni possibili compatibili con as­
serzioni come "Tutti gli artisti sono barbieri"; essi sono ca­
paci di rappresentare l'esistenza possibile di certi individui
direttamente all'interno di un singolo modello. Secondo la
soluzione euleriana, per rappresentare le premesse:
Tutti gli A sono B
Tutti i B sono C

è necessario un insieme di modelli che tenga conto del fatto


che ognuna di esse si applica a due distinti stati di cose,
mentre per una coppia di premesse del tipo:
Qualche A è B
Tutti i B sono C

sono ben quattro le situazioni distinte che possono essere de­


scritte dalla prima premessa. Ne segue che dovrebbe essere
più difficile trarre una conclusione da questo secondo insie­
me di premesse che dal primo. Le risultanze sperimentali,
tuttavia, non confermano affatto questa conseguenza della
posizione euleriana: non vi è alcuna sensibile differenza di
complessità rispetto al problema di trarre una conclusione
dall'uno o dall'altro dei due insiemi di premesse. Ciò, d'altra
parte, depone a favore della capacità dei soggetti di rappre­
sentare nei modelli mentali entità la cui esistenza è solo pos­
sibile. In questo caso, infatti, la prima coppia di premesse ri­
chiede un modello del tipo:

a =
b =
c
a =
b c
(b =
c)
(c)

da cui segue la conclusione "Tutti gli A sono C", mentre la


seconda coppia di premesse può essere rappresentata me­
diante il modello:

272
a - b - c
a b c
(a) (b c)
(c)

da cui altrettanto immediatamente segue "Qualche A è C". Si


tratta dunque, in accordo con le risultanze sperimentali, di
inferenze di complessità equivalente.
Vi sono naturalmente non solo molti altri tipi di ragiona­
mento in generale, ma anche molti altri tipi di ragionamento
deduttivo. Nella teoria dei modelli mentali si può formulare
un algoritmo del tutto generale per condurre inferenze di
qualsiasi tipo su un dominio finito. Tale algoritmo compren­
de tre passi principali:
l. La determinazione di uno stato di cose in cui siano ve­
re le premesse dell'inferenza e la conoscenza generale a esse
relativa, cioè la costruzione di un modello mentale della si­
tuazione.
2. La formulazione di una conclusione informativa (am­
messo che ve ne sia una) che risulti vera nello stato di cose
individuato al passo l .
3. La ricerca di una situazione alternativa in cui riman­
gano vere le premesse e la conoscenza generale, ma in cui la
conclusione sia falsa. Se c'è un modello alternativo siffatto,
si ritorna al passo 2, tentando di formulare una nuova con­
clusione che risulti vera in ognuno dei diversi modelli che
sono stati costruiti, altrimenti la conclusione è valida. Se, co­
me è possibile, è difficile determinare se c'è una conclusione
vera in tutti i modelli delle premesse, si formula una conclu­
sione provvisoria.
Questo procedimento inferenziale non richiede abilità co­
gnitive particolari, se non per il passo 3, che è l'unico che
può garantire la validità di una conclusione; in particolare,
al passo l vengono richieste abilità che sono alla base della
comprensione, mentre il passo 2 coinvolge gli stessi processi
cognitivi che permettono di descrivere una situazione in mo­
do informativo. Così, la difficoltà di un'inferenza va ricon­
dotta alla complessità del passo 3. Nella vita quotidiana non
si può sempre essere sicuri di avere considerato tutti i possi­
bili controesempi di una conclusione, e di solito si ritiene
che una conclusione sia corretta quando si sono esaurite le
prime ovvie possibilità alternative. È chiaro che un siffatto
giudizio di correttezza è spesso prematuro .
Il ragionamento su domini infiniti di oggetti richiede in­
vece un discorso a parte: notiamo soltanto che persino gli in­
dividui più intellettualmente dotati (ad esempio Galileo), ra-

273
gionando su domini infiniti, incontrano spesso grandi diffi­
coltà e commettono grossolani errori se non fanno uso degli
strumenti formali della matematica.

Conclusioni

Le inferenze della vita quotidiana dipendono in modo es­


senziale dal reperimento di appropriate conoscenze generali:
è questo l'aspetto del ragionamento che più somiglia a un
esercizio d'immaginazione. Quando facciamo un'inferenza
possiamo trarre una prima conclusione, ad esempio che un
ladro sia entrato a casa di Caro!, ma se vogliamo esserne cer­
ti dobbiamo escludere tutte le possibilità alternative, e per
far ciò bisogna considerare ogni altra soluzione che contrad­
dica la conclusione iniziale. Caro! potrebbe aver dimenticato
di spegnere le luci, un amico potrebbe averle fatto visita, il
gatto potrebbe aver fatto scattare un interruttore, o gli abi­
tanti di un lontano pianeta, con la loro superiore tecnologia,
potrebbero aver acceso a distanza le luci di casa. Non vi è li­
mite al numero di situazioni che si possono immaginare, ma
è chiaro che esse non possono essere il frutto di un calcolo
formale fondato su regole sintattiche di inferenza: bisogna
usare l'immaginazione per reperire le informazioni necessa­
rie e usarle nella costruzione di un modello alternativo, e ta­
le reperimento è un processo semantico.
La semantica è richiesta anche per formulare una conclu­
sione, persino in quei casi in cui le premesse sono sufficien­
temente esplicite e informative e permettono di trarre una
conclusione valida . La conclusione infatti deve essere infor­
mativa, e questa è una nozione essenzialmente semantica:
una conclusione non ammette un numero maggiore di stati
di cose che le premesse.
Dal punto di vista della teoria della logica mentale, le
premesse di un'inferenza contengono sufficiente informazio­
ne per trarre una conclusione valida : dopo tutto, da un nu­
mero qualsiasi di asserzioni si può sempre inferire valida­
mente la loro congiunzione. Ma le persone normali, digiune
di logica formale, tendono a comportarsi in modo alquanto
diverso. Se si chiede loro che cosa segua da due premesse
come:
Margaret Thatcher è conosciuta come la "Lady di ferro"
Esistono infiniti numeri primi

la risposta sarà: "Nulla". Nella vita quotidiana, così come


nell'esempio della luce a casa di Caro!, tendiamo a trarre

274
conclusioni provvisorie, pur essendo consapevoli del fatto
che non sono valide. Posti di fronte alla seguente coppia di
premesse:
Chi ha un televisore deve pagare il canone
Jarnes possiede un televisore

è del tutto naturale giungere alla conclusione:


Jarnes deve pagare il canone

sapendo che essa deve essere vera se lo sono le premesse.


Quest'ultima inferenza è stata condotta facendo uso soltanto
delle informazioni contenute nelle premesse, cercando una
conclusione informativa (nel senso precedentemente defini­
to) vera in ogni possibile modello delle premesse. Secondo la
teoria dei modelli mentali, ciò avviene attraverso la costru­
zione di un modello, basato sul significato delle premesse, ri­
spetto al quale si ricerca un controesempio a una conclusio­
ne informativa. L'elemento critico di un'inferenza deduttiva
è un processo semantico.
All'inizio di questo articolo ho sostenuto che vi sono tre
tipi principali di pensiero esplicitamente diretto a un fine: il
calcolo, l'inferenza e l'immaginazione. Il calcolo richiede
l'applicazione meccanica di regole formali. L'immaginazione
è una facoltà non deterministica che ancora non è stata com­
piutamente spiegata. Il procedimento inferenziale, infine,
sembra avere aspetti dell'uno e dell'altra: è ora possibile spe­
cificare più chiaramente questi rapporti.
L'inferenza è un processo semantico che può coinvolgere
in modo essenziale l'immaginazione, specialmente per quan­
to riguarda il reperimento e l'utilizzo della conoscenza gene­
rale. Sono tre gli stadi principali del processo inferenziale: il
primo è la costruzione di una rappresentazione mentale di
una situazione tipica, così come è descritta dalle premesse:
si tratta essenzialmente di un processo di comprensione del­
le premesse, sulla base delle loro condizioni di verità e della
conoscenza generale. Il secondo è la formulazione di una
conclusione, sotto la forma di una descrizione informativa di
una situazione. Il terzo, infine, è la ricerca di controesempi a
una conclusione, un processo che è finito e deterministico
laddove le premesse da sole permettono di trarre una con­
clusione al tempo stesso informativa e valida, ma non deter­
ministico e aperto se le premesse permettono conclusioni so­
lo plausibili. L'inferenza si riduce quindi a un semplice cal­
colo meccanico solo nel caso assai raro in cui uno disponga
degli appropriati strumenti logico-formali. In tutti gli altri

275
casi essa richiede comprensione, descrizione e immagina­
zione .

RIFERIMENTI BIBLIOGRAFICI

Braine, M.D.S. (1978), On the Relation between the Natural Logic of


Reasoning and Standard Logic, in "Psychological Review", 85,
pp. 1-21.
Braine, M.D.S. (1979), On Some Claims about If-Then, in "Lingui­
stics and Philosophy", 3, pp. 35-47.
Braine, M.D.S. e D.P. O'Brien (1984), Categorica[ Syllogisms: a Re­
conciliation of Mental Models and Inference Schemas, mano­
scritto mimeografato, New York University.
Davis, M. (1980), The Mathematics of Non-Monotonic Reasoning, in
"Artificial Intelligence", 13, pp. 73-80.
Erickson, J.R. (1974), A Set Analysis Theory of Behavior in Formai
Syllogistic Reasoning Tasks, in R. Solso (a cura di), Loyola Sym­
posium on Cognition, Erlbaum, Hillsdale (N.J.).
Evans, J. St. B.T. (1982), The Psychology of Deductive Reasoning,
Routledge and Kegan Paul, London.
Feldman, J.A. (1985), Connectionists Models and Their Applications.
Introduction, in "Cognitive Science", 9, pp. 1-2.
Grice, P. (1975), Logic and Conversation, in P. Cole e J.L. Morgan (a
cura di), Syntax and Semantics, vol. 3: Speech Acts, Academic
Press, New York.
Guyote, M.J. e R.J. Sternberg (1981), A Transitive-Chain Theory of
Syllogistic Reasoning, in "Cognitive Psychology", 13, pp. 461-
525.
Inhelder, B. e J. Piaget (1971), Dalla logica del fanciullo alla logica
dell'adolescente, Giunti-Barbera, Firenze.
Johnson-Laird, P.N. (1983), Mental Models, Cambridge University
Press, Cambridge e Harvard University Press, Cambridge
(Mass.).
Johnson-Laird, P.N. (s.d.), Conditionals and Mental Models, in C.
Ferguson, J. Reilly, A. Meulen e E.C. Traugott (a cura di), On
Conditionals, Stanford University Press, Stanford (Ca).
Johnson-Laird, P.N. e B. Bara (1984), Syllogistic Inference, in "Co­
gnition", 16, pp. 1-61.
Kahneman, D., Slovic, P. e A. Tversky (a cura di) (1982), Judgement
under Uncertainty: Heuristic and Biases, Cambridge University
Press, New York. (Vedi specialmente capp. l, 8 e 14.)
McDernott, D. e J. Doyle (1980), Non-Monotonic Logic /, in "Artifi­
cial Intelligence", 13, pp. 41-72.
Marr, D. (1982), Vision: a Computational Investigation in the Hu­
man Representation of Visual Information, Freeman, San Fran­
cisco.
Mayer, R.E. e R. Revlin (1978), An Information Processing Frame­
work for Reasearch on Human Reasoning, in R. Revlin e R.E.

276
Mayer (a cura di), Human Reasoning, Winston, Washington
(D.C.).
Osherson, D.N. (1975), Logic and Models of Logica[ Thinking, in R.J.
Falmagne (a cura di), Reasoning: Representation and Process,
Erlbaum, Hillsdale (N.J.).
Rips, L.J. (1983), Cognitive Processes in Propositional Reasoning, in
"Psychological Reviewn, 90, pp. 38-71.
Schank, R.C. (1980), Language and Memory, in "Cognitive Sciencen,
4, pp. 243-284.
Wason, P.C. e P.N. Johnson-Laird (1972), Psychology of Reasoning:
Structure and Content, Batsford, London e Harvard University
Press, Cambridge (Mass.).

277
Visione: l'altra faccia dell'Intelligenza
Artificiale
di Tomaso Poggio

Le due facce dell 'Intelligenza Artificiale

Scopo dichiarato dell'Intelligenza Artificiale è quello di


rendere intelligenti le macchine, individuando al tempo stes­
so i fondamenti dell'intelligenza dei sistemi naturali come di
quelli artificiali. Coerentemente con questa definizione, fanno
parte dell'Intelligenza Artificiale tanto lo studio del ragiona­
mento e della capacità di risolvere problemi, quanto quello
della percezione, anche se è al primo che sono andate storica­
mente, e ancora oggi vanno, le maggiori attenzioni degli stu­
diosi di Intelligenza Artificiale.
Il primato conferito in Intelligenza Artificiale alla risolu­
zione di problemi e alla pianificazione è dovuto chiaramente
al fatto che queste sembrano, a prima vista, le tipiche attività
intelligenti. D'altro lato la percezione e, in particolare, la vi­
sione, ci appaiono facili, immediate e tali da non richiedere
alcuno sforzo. Solo recentemente la ricerca si è accorta delle
difficoltà computazionali che molte attività visive e percettive
nascondono: non avendo alcun accesso introspettivo alla per­
cezione, tendiamo a sottovalutare le difficoltà che questa pre­
senta, e se ci sembra che vedere non richieda alcuno sforzo,
ciò dipende solo dal fatto che non ne siamo coscienti. Gli scac­
chi, viceversa, ci sembrano difficili perché richiedono tutta la
nostra concentrazione. Si può sostenere, credo, che siamo più
consci di quelle attività in cui il nostro cervello intelligente in­
contra più difficoltà, attività che vengono per ultime nella no­
stra storia evolutiva come la logica, la matematica, la filoso­
fia e, più in generale, la risoluzione di problemi e la pianifica­
zione. I veri poteri del cervello, come la visione, passano inve­
ce del tutto inosservati sullo sfondo della nostra coscienza.

278
Gli ultimi quindici anni di ricerca hanno chiarito che
comprendere la percezione significa comprendere una parte
importante di quei principi che rendono possibile il compor­
tamento intelligente.
Lo studio della percezione sta diventando sempre più im­
portante, pur costituendo un tipo di ricerca diverso da quel­
lo ormai "classico" in Intelligenza Artificiale, come testimo­
niano le difficoltà di comunicazione che dividono i due setto­
ri principali di questa disciplina. Si tratta anche di problemi
di tipo fondamentalmente diverso. La risoluzione dei proble­
mi richiede che sia dato un corpo di conoscenze sufficiente­
mente ampio su cui fondare la ricerca di una soluzione: il
problema è tipicamente ben posto, nel senso che la soluzio­
ne, per quanto di difficile reperimento, è comunque unica e
ben definita. (Più avanti definirò in modo più preciso la clas­
se dei problemi ben posti.) Al contrario, nei problemi percet­
tivi le informazioni disponibili sono tipicamente insufficienti
e la soluzione non è unica né ben definita: i problemi percet­
tivi, tipicamente, sono mal posti.
La tesi di questo articolo è che vi sia un'importante diffe­
renza fra queste due correnti dell'Intelligenza Artificiale, che
non è stata ancora sufficientemente riconosciuta . Per poter
esporre questa tesi con più chiarezza, discuterò preliminar­
mente alcuni recenti lavori sulla "prima visione" (early vi­
sion) che muovono dall'assunto che i problemi di cui tratta­
no siano mal posti. Cercherò di spiegare come questa sia una
caratteristica della maggioranza dei problemi della prima vi­
sione, suggerendo una possibile soluzione. L'intelligenza de­
ve poter sfruttare entrambe queste modalità di pensiero, per
quanto diverse siano l'una dall'altra: l'abilità nel risolvere i
problemi e le capacità percettive . Infine, abbozzerò una par­
ticolare teoria, secondo cui vi è una struttura comune sog­
giacente tanto alle attività percettive quanto a quelle della ri­
soluzione di problemi.

La prima visione

La semplicità della visione è ingannevole. Una cosa è digi­


talizzare un'immagine per mezzo di una telecamera digitale,
un'altra è comprendere e descrivere ciò che l'immagine rap­
presenta. Quindici anni fa, quando i ricercatori di Intelligen­
za Artificiale cominciarono seriamente a scrivere programmi
per la simulazione della visione, si accorsero subito della dif­
ficoltà del compito. Uno dei problemi maggiori è che le im­
magini contengono una quantità enorme di informazioni

279
grezze: una normale immagine ad alta risoluzione contiene
1000 x 1000 unità elementari (pixels), ognuna delle quali ri­
chiede da sei a otto bit. Anche per una semplice operazione
di filtraggio su un'immagine di questo tipo possono essere
necessari circa cento milioni di operazioni elementari. L'oc­
chio umano ha circa cento milioni di sensori, fra coni e ba­
stoncelli, con un ciclo temporale equivalente vicino ai venti
millisecondi, o minore . La retina, quindi, può eseguire l'equi­
valente di alcuni miliardi di operazioni elementari al secon­
do, e tutto ciò prima ancora che le informazioni visive giun­
gano al cervello. È stato stimato che circa il sessanta per
cento della corteccia del reso (un particolare tipo di scim­
mia) sia dedicato all'elaborazione delle informazioni visive.
La visione, quindi, richiede computazioni massicce e pesanti.
Paradossalmente, la complessità computazionale non è il
problema principale della visione. Anzi, con tutte le informa­
zioni contenute in un'immagine, ancora non ve ne sono a suf­
ficienza. Le immagini sono solo proiezioni bidimensionali di
un mondo che è invece tridimensionale, e nel processo di for­
mazione dell'immagine molte informazioni vanno perdute.
Uno dei compiti principali della visione, preliminare rispetto
alle altre operazioni di più alto livello, è la determinazione
della struttura tridimensionale del mondo che ci circonda.
Queste informazioni, benché codificate nell'immagine, sono
altamente ambigue di per sé. Un sistema visivo efficace ha
bisogno di moltissime conoscenze relative al mondo reale
per risolvere queste ambiguità. Da questo punto di vista il
problema della visione potrebbe sembrare inespugnabile,
molto di più di quanto appaiano i problemi del ragionamen­
to e dell'inferenza. Fra i ricercatori che se ne occupano si è
però diffusa la sensazione che la prima parte del problema
della visione (calcolare la forma e la struttura tridimensiona­
le a partire dall'immagine bidimensionale) sia ormai vicina a
una soluzione generale. Nel seguito di questo articolo espor­
rò i tratti essenziali di una nuova potente teoria della prima
visione che ha suscitato l'interesse degli scienziati, al MIT e
altrove. Le prossime sezioni seguono da vicino Poggio e Tor­
re ( 1 984), a cui il lettore è rimandato per i particolari più tec­
nici.

l processi della prima visione

La prima visione è costituita dall'insieme di quei processi


che permettono di ricostruire le proprietà fisiche delle su­
perfici visibili a partire da una matrice di intensità bidimen-

280
sionale, producendo ciò che potremmo paragonare allo
"sketch in 2- 1/20" di Marr o alle "immagini intrinseche" di
Barrow e Tennenbaum. In anni recenti si è giunti alla con­
vinzione che tali processi siano del tutto generali e non ri­
chiedano conoscenze dipendenti dal dominio, ma solo pre­
supposizioni affatto generiche relative al mondo fisico e allo
stadio di formazione dell'immagine. Gli scienziati hanno or­
mai identificato i processi della prima visione, che possono
essere elencati nella seguente tavola:

visione stereottica
- calcolo del flusso ottico
- determinazione della struttura per mezzo del movi-
mento
determinazione della forma per mezzo delle ombre
rilevamento dei profili (edge detection)
calcolo della luminosità e dell'albedo
determinazione della forma per mezzo dei contorni
determinazione della forma per mezzo della consisten-
za dei materiali (texture)
- ricostruzione delle superfici mediante dati incompleti
sulle profondità
- identificazione delle fonti luminose e delle proprietà
illuminanti
- identificazione e uso delle specularità
- identificazione dei diversi materiali mediante la loro
diversa consistenza.

Questi processi rappresentano moduli concettualmente


indipendenti che, in prima approssimazione, possono essere
studiati isolatamente. Si tratta, naturalmente, solo di un'uti­
le semplificazione da non prendere troppo alla lettera: le in­
formazioni provenienti da processi diversi devono poter
combinarsi, così come moduli differenti possono interagire
anche a basso livello. Inoltre, si deve tener conto del fatto
che l'elaborazione visiva non può procedere unicamente dal
basso verso l'alto: vi sono conoscenze specifiche che possono
influenzare l'elaborazione delle informazioni fin dai suoi pri­
missimi stadi.
Due problemi caratteristici delle difficoltà che si incon­
trano nella prima visione sono il calcolo del movimento e il
rilevamento di bruschi cambiamenti di intensità dell'imma­
gine (corrispondenti a contorni fisici).
Il calcolo del campo bidimensionale di velocità nell'im­
magine è un passo importante in diversi schemi per la deter­
minazione del movimento e della struttura tridimensionali

281
degli oggetti. In particolare, si consideri il problema di de­
terminare il vettore di velocità in ogni punto di un contorno
ricurvo di un'immagine. Come mostra la prima figura il vet­
tore di velocità locale è decomposto in due componenti, una
perpendicolare e una tangenziale alla curva. Ora, le misure
locali di velocità permettono di catturare solo la componente
perpendicolare, mentre quella tangenziale resta "invisibile".
Il problema di stimare il campo di velocità totale è così, in
generale, sottodeterminato dalle misure direttamente dispo­
nibili dall'immagine. La misurazione del flusso ottico è ine­
rentemente ambigua, e può essere resa unica solo aggiungen­
do assunzioni o informazioni intrinseche.
Il problema del rilevamento dei profili presenta difficoltà
di natura in parte diversa. Tale problema ·richiede l'identifi­
cazione dei limiti fisici di superfici tridimensionali mediante
le differenze di intensità dell'immagine, ma il termine "rile­
vamento di profili" è di solito usato per riferirsi soltanto a
un primo passo in tale direzione, e precisamente alla localiz­
zazione di bruschi cambiamenti di intensità nell'immagine. A
tale scopo si usa la differenziazione numerica dei dati del­
l'immagine: a questi ultimi è tuttavia inerente una dimensio­
ne di rumore che deriva dai processi di formazione dell'im­
magine e di campionamento. Poiché la differenziazione a sua
volta amplifica il rumore, il processo è intrinsecamente in­
stabile.
Molti altri problemi della prima visione presentano diffi­
coltà simili: o sono sottospecificati, come il calcolo del flusso
ottico, o sono troppo sensibili al rumore, come il rilevamen­
to di profili.

Problemi mal posti e teoria della regolarizzazione

La prima visione è ottica inversa


C'è una buona definizione della prima visione: ottica in­
versa. Nell'ottica classica, il problema generale è la determi­
nazione delle immagini degli oggetti fisici. In teoria della vi­
sione si ha invece a che fare con il problema inverso di rico­
struire le proprietà fisiche delle superfici tridimensionali a
partire dalle loro immagini bidimensionali o matrici di in­
tensità. Poiché moltissime informazioni vanno perdute du­
rante il processo di formazione dell'immagine, la visione de­
ve appoggiarsi a delle limitazioni naturali o assunzioni sul
mondo per poter eliminare ogni dimensione di ambiguità.
L'identificazione e l'uso di tali limitazioni è un argomento ri-

282
corrente di discussione nell'analisi dei problemi specifici
della visione.
Vi è una caratteristica comune alla maggior parte dei pro­
blemi della prima visione (che sembra in un certo senso costi­
tuirne la struttura profonda) che può essere formalizzata: la
maggior parte di questi problemi è mal posta, nel senso preci­
samente definito da Hadamard. Inoltre, usando la definizione
di Hadamard è possibile render conto dell'importanza delle li­
mitazioni e della definizione della visione come ottica inversa .

Problemi mal posti


La definizione di "problema mal posto" introdotta da Ha­
damard nel 1 923 era relativa al campo delle equazioni diffe­
renziali parziali, ed è stata considerata per molti anni quasi
esclusivamente una curiosità matematica. È ora chiaro, tutta­
via, che molti problemi mal posti, e tipicamente i problemi in­
versi, sono di grande interesse pratico. Un problema è ben po­
sto se la sua soluzione (a) esiste, (b) è unica, e (c) dipende in mo­
do continuo dai dati iniziali. Sono mal posti tutti quei proble­
mi che non soddisfano almeno uno di questi criteri.
È facile provare formalmente che molti problemi della pri­
ma visione sono mal posti nel senso di Hadamard (vedi Poggio
e Torre, 1 984): corrispondenza stereottica, determinazione
della struttura per mezzo del movimento, calcolo del flusso ot­
tico, rilevamento di profili, determinazione della forma per
mezzo delle ombre, calcolo della luminosità, ricostruzione
della superficie.
Il calcolo del flusso ottico è un problema "inverso" che ri­
chiede che il campo di velocità totale sia ricostruito a partire
dalla sua componente normale lungo un contorno, ed è mal
posto perché non soddisfa la condizione (b). Il rilevamento di
profili, inteso come differenziazione numerica, è mal posto
perché la soluzione non dipende in modo continuo dai dati
(condizione [c]}.
Ciò è verificato considerando una funzione t (x) perturba­
ta da un termine di "rumore" molto piccolo (in norma L2)
esenr x . t (x) e t (x) + esen r x possono essere considerati abi­
trariamente vicini, ma le loro derivate possono essere molto
differenti se r è sufficientemente grande.

Regolarizzazione

Il modo migliore per "risolvere" i problemi mal posti (per


ricondurli cioè alla condizione di problemi ben posti) consi-

283
ste nel restringere la classe delle soluzioni ammissibili
usando conoscenze a priori adatte. A tale scopo in anni re­
centi sono state sviluppate diverse teorie rigorose della
"regolarizzazione", fra cui le due principali sono i principi
variazionali e la teoria dei processi stocastici. Descrivere­
mo ora a grandi linee i metodi di regolarizzazione stan­
dard, dovuti principalmente a Tikhonov (ma vedi anche
Nashed, 1 976 e Bertero, 1 982), indicando anche, nel segui­
to, quali potrebbero essere alcune possibili estensioni della
teoria standard dal punto di vista della prima visione.
Consideriamo il problema mal posto di reperire z dal
"dato" y nel problema inverso:

Az = y (l)

La regolarizzazione di tale problema richiede la scelta


delle norme 11 · 11 e di un funzionale stabilizzante IIPzll . Nella
teoria standard della regolarizzazione le norme sono qua­
dratiche e P è lineare. Due dei tre metodi principali in li­
nea di principio applicabili sono i seguenti (vedi Poggio e
Torre, 1 984):
(a) fra gli z che soddisfano IIAz - yll :E;; C trovare z che
minimizza

IIPzll (2)

(b) trovare z che minimizza

(3)

dove A. è un parametro di regolarizzazione.


Il metodo (a) computa la funzione z che è sufficiente­
mente vicina ai dati (C dipende dalla stima degli errori di
misura ed è zero nel caso in cui i dati siano privi di ru­
more) ed è la più regolare. Nel metodo (b) il parametro A.
di regolarizzazione controlla il compromesso fra il grado
di regolarizzazione della soluzione e la sua vicinanza ai
dati.
Così, i metodi standard di regolarizzazione limitano il
problema mediante un "principio variazionale" come ad
esempio il "funzionale di costo" dell'equazione (3). Il costo
minimizzato rappresenta le limitazioni fisiche relative a
ciò che rappresenta una buona soluzione: tale costo deve
essere (a) vicino ai dati e {b) regolare, rendendo piccola la
quantità IIPzll . P incorpora le limitazioni fisiche sul pro­
cesso derivate da un'analisi fisica del problema specifico.

284
Esempi

Si possono regolarizzare i problemi mal posti della pri­


ma visione usando principi variazionali della forma dell'e­
quazione (3). Tuttavia, anche prima che la teoria della rego­
larizzazione fosse applicata alla visione, alcuni problemi del
flusso ottico e dell'interpolazione superficiale erano stati af­
frontati in termini di principi variazionali, e tale soluzione
è stata ora estesa ad altri problemi mediante il richiamo
esplicito alla teoria della regolarizzazione. Comunque sia, la
maggior parte dei funzionali stabilizzanti finora usati nella
prima visione sono del tipo di Tikhonov. Ma rivolgiamo
nuovamente la nostra attenzione agli esempi del movimento
e del rilevamento di profili per vedere come si possano ap­
plicare in pratica le tecniche della regolarizzazione.

Movimento
Intuitivamente, le misure del componente perpendicola­
re di velocità lungo un contorno esteso dovrebbero fornire
numerose limitazioni sui movimenti possibili del contorno.
Bisogna tuttavia ricorrere a ulteriori assunzioni relative al­
la natura del mondo reale per poter mettere insieme misure
locali effettuate in differenti locazioni. Ad esempio, l'assun­
zione del movimento rigido del piano dell'immagine è suffi­
ciente per determinare unicamente V. In tal caso, infatti, le
misure locali del componente perpendicolare in locazioni
differenti possono essere usate direttamente per trovare il
flusso ottico, che risulta lo stesso ovunque.
Tale assunzione, tuttavia, è eccessivamente restrittiva,
perché non copre il caso del movimento di un oggetto rigi­
do nello spazio tridimensionale. Seguendo Horn e Schunk,
Hildreth ha suggerito di limitare il problema mediante una
più generale assunzione di "liscezza" (smoothness) sul cam­
po di velocità. Tale assunzione si basa sull'as sunzione che il
mondo consiste di oggetti solidi con superfici lisce, aventi
un campo di velocità la cui proiezione è di solito liscia.
Yuille e Ullman (1 985) hanno prodotto argomenti formali in
favore di questa assunzione.
La forma specifica dello stabilizzatore (uno stabilizzato­
re di Tikhonov, in ultima istanza) fu determinata sulla base
di considerazioni di natura matematica, fra cui in particola­
re quella dell'unicità della soluzione. I due metodi di regola­
rizzazione corrispondono ai due algoritmi proposti e realiz­
zati da Hildreth, il primo dei quali, per dati esatti, mini­
mizza

285
IIPV II 2 J( �: r
= ds {4)

condizionatamente alle misure del componente perpendico­


lare di velocità. Per dati non esatti il secondo metodo forni­
sce la soluzione minimizzando

II KV -
v .L IF + ).j( �: r ds (5)

dove K è l'operatore di proiezione che stabilisce una corri­


spondenza fra il campo di velocità lungo il contorno e il suo
componente normale. Esempi di computazioni del flusso ot­
tico effettuate con successo per mezzo del primo algoritmo
sono riportati in Hildreth { 1 984).

Rilevamento di profili
Recentemente, le tecniche di regolarizzazione sono state
applicate anche all'altro nostro esempio, il rilevamento di
profili. Il problema della differenziazione numerica è mal
posto a causa dell'inevitabile rumore che inquina i dati. Si
assume in questo caso che l'immagine priva di rumore sia li­
scia a causa delle proprietà di limitazione di banda dell'otti­
ca che taglia le alte frequenze spaziali. Una possibile tradu­
zione di questa limitazione fisica nei termini della teoria del­
la regolarizzazione consiste nello scegliere P = d2/dx2 {in una
dimensione; in due dimensioni una possibile scelta per P è il
laplaciano). Il metodo di regolarizzazione (b) porta al proble­
ma variazionale di minimizzare

{6)

Poggio e altri { 1 984) hanno mostrato che questo principio


variazionale è equivalente a certe deboli condizioni {i dati
dell'immagine devono essere dati su un reticolo regolare e
devono soddisfare adeguate condizioni di confine), all'avvol­
gimento (convolving) dei dati di intensità y; con uno spline
convolution filter. Tale filtro risulta molto simile a una di­
stribuzione gaussiana. La regolarizzazione standard della
differenziazione numerica per il rilevamento di profili porta
dunque a un semplice algoritmo per l'avvolgimento dell'im­
magine con una derivata appropriata dello spline filter. Il pa-

286
rametro A. controlla la scala del filtro, e il suo valore dipende
dal rapporto segnale-rumore nell'immagine.

Computazione del colore


In termini generali, scopo della visione a colori è la de­
terminazione della riflessività spettrale invariante degli og­
getti (superfici). I compiti che tale determinazione richiede
da un sistema visivo esemplificano efficacemente la diffi­
coltà dei problemi dell'ottica inversa: bisogna decodificare
le proprietà riflessive delle superfici tridimensionali a par­
tire dall'immagine di intensità, tenendo conto della natura
della fonte luminosa, delle ombre e di altri fattori. Nella
computazione del colore, così come in altri problemi di ot­
tica inversa, l'immagine di intensità è un insieme ambiguo
di segnali decodificabili solo mediante certe assunzioni sul
mondo fisico, che si rivelano comunque spesso corrette, ma
non sempre.
Si può affrontare questo problema per mezzo di tecniche
di regolarizzazione: Hurlbert e Poggio (in preparazione, vedi
Poggio e altri, 1985) hanno sviluppato un algoritmo di regola­
rizzazione in cui vi sono due assunzioni particolari che per­
mettono di decomporre la matrice di intensità cromatica nei
suoi componenti dovuti alla riflettività della superficie e alla
fonte luminosa. La prima di esse è l'assunzione di una singo­
la fonte, secondo cui la variazione spaziale dell'illuminazione
della fonte luminosa è la stessa per ogni canale di lunghezza
d'onda (wavelength channel); la seconda è l'assunzione di re­
golarizzazione spaziale, che afferma che la variazione spazia­
le della fonte luminosa effettiva è più lenta di quella della ri­
flessività della superficie.
Seguendo Hurlbert ( 1 985) comincerò dall'equazione di in­
tensità, che definisce i dati misurati dai sensori, dati a parti­
re dai quali bisogna decodificare le proprietà della superfi­
cie riflettente e della fonte luminosa. L'equazione di intensi­
tà è:

I (A., r) = R (A., r) F (k, n, s) E (A., r) (7)

dove A. è la lunghezza d'onda, r è la coordinata retinica (la


proiezione bidimensionale della coordinata della superficie),
E (A., r) è l'intensità della fonte luminosa, e R (A., r) F(k, n, s) è
la riflettività della superficie. R (A., r) è il componente della
riflessività che dipende unicamente dalle proprietà materia­
li della superficie (ovvero dall'albedo che, per definizione,
dipende solo dal materiale di cui è costituito l'oggetto e non

287
dalla sua forma o dalla sua posizione rispetto all'osservatore
o alla fonte luminosa), e F (k, n, s) è la componente che di­
pende dalla geometria dell'osservazione, dove k è la direzio­
ne d'osservazione e s è la direzione della fonte, ciascuna del­
le due relativa alla normale alla superficie n. Volendo sepa­
rare i termini che rappresentano la luminosità della superfi­
cie da quelli relativi alla direzione d'osservazione, possiamo
definire l'intensità effettiva di illuminazione E (À., r) dove

E (À., r) = F (k, n, s) E (À., r)

L'illuminazione effettiva è quindi l'illuminazione prove­


niente dalla fonte, modificata dall'orientamento, la forma e
la posizione della superficie riflettente.
Se la superficie riflettente è bidimensionale e tanto la di­
rezione dell'osservatore quanto quella della fonte sono nor­
mali a essa, allora F (k, n, s) = l, ovvero E (À., r) = E (X, r).
Se, inoltre, la fonte di illuminazione è bianca, ovvero E (À., r)
= k, allora l'intensità riflessa è uguale all'albedo a meno di

un fattore costante.
L'attività di un sensore è funzione dell'intensità della lu­
ce, integrata e pesata su tutte le lunghezze d'onda visibili al
senso re:

s• (r) = f a• (J..) R (À., r) E (À., r) dì.. (8)


Si può rappresentare il segnale eterocromatico nelle sue
principali componenti mediante combinazioni lineari delle
attività dei sensori (vedi Buchsbaum, 1 983; Yuille, 198 5); si
ottiene così la seguente equazione:

S (x) = T.,. E. (x) R,. (x)

Per una particolare scelta delle funzioni di base, Hurlbert


e Poggio hanno mostrato che quest'equazione può assumere
la forma

Si (x) = lJi (x) + Ri (x) (9)

dove i è l'indice dei nuovi canali di colore formati dalla tra­


sformazione. Ciò corrisponde a un passo di normalizzazione
spettrale, poiché fa uso di conoscenze a priori e, in particola­
re, delle conoscenze per cui si possono approssimare l'albe­
do e gli illuminanti "normali" mediante un insieme fissato di

288
tre funzioni di base (che, in generale, sono differenti per gli
illuminanti e per l'albedo).
È impossibile risolvere queste equazioni in assenza di ul­
teriori assunzioni. Si tratta di equazioni sottodeterminate
perché, per ogni x, le incognite sono in numero doppio ri­
spetto alle equazioni. Per risolvere questo problema, così ti­
picamente mal posto, dobbiamo dapprima assumere che

E• (x) = E (x) K• (9)

Siamo così giunti alla assunzione della singola fonte: la


variazione spaziale della fonte luminosa è la stessa per ogni
canale di lunghezza d'onda. Quest'assunzione è generalmente
vera se c'è un'unica fonte luminosa; essa afferma, in partico­
lare, che i mutamenti di illuminazione dovuti alle ombre, al­
l'orientamento della superficie, e ai gradienti spaziali in­
fluenzano tutte le lunghezze d'onda allo stesso modo (come
sostenuto anche da Rubin e Richards [1984], che però non
formulano esplicitamente queste equazioni). Quest'assunzio­
ne risulta invece falsa nel caso vi siano zone di massima illu­
minazione (highlights), che devono quindi essere identificate
indipendentemente, o nel caso di più fonti luminose spazial­
mente e spettralmente distinte. Ad esempio, le condizioni di
illuminazione riscontrabili all'aperto, in un giorno di sole,
soddisfano generalmente l'as sunzione della singola fonte, ma
ciò non è più vero se il sole e la luna sono presenti contem­
poraneamente e l'intensità della luce lunare non è trascura­
bile.
L'assunzione della singola fonte ci permette di riscrivere
l'equazione (in rappresentazione logaritmica) nel modo se­
guente:

s• (x) = E (x) K• + R.• (x) = E (x) + K• + R.• (x) ( l O)

Questo sistema di equazioni è ancora sottodeterminato,


ma in modo meno drammatico rispetto al precedente purché
v sia maggiore di l , e ciò a causa della ridondanza del termi­
ne K• per ogni x.
Il passo successivo è l'assunzione della regolarizzazione
spaziale, che riducendo lo spazio delle soluzioni permette di
risolvere le equazioni. Quest'assunzione estende l'idea prin­
cipale di Land e Horn, secondo cui E (x), l'illuminazione ef­
fettiva, cresce al crescere di x più lentamente di quanto fac­
cia R (x, v), mentre R (x, v) o è costante oppure cambia bru­
scamente (in corrispondenza di bordi materiali).

289
Quindi, si traducono queste due as sunzioni in un princi­
pio variazionale di tipo standard, con uno stabilizzatore di
Tikhonov che impone a E una liscezza maggiore di quella di
R. La soluzione di questo principio variazionale equivale a
filtrare i dati mediante un filtro lineare simile agli spline fil­
ters.

Plausibilità fisica e illusioni


L'aspetto più importante dell'analisi della regolarizzazio­
ne è la plausibilità fisica della soluzione, più importante an­
cora della sua unicità. In questo quadro, all'analisi fisica del
problema e delle sue limitazioni significative spetta il ruolo
principale: ed è la teoria della regolarizzazione che fornisce
lo strumento e i riferimenti generali per poter andare alla ri­
cerca di quelle limitazioni che più sono radicate nella fisica
del mondo visivo.
Chiaramente, le assunzioni a priori richieste per risolvere
i problemi mal posti possono risultare false in casi specifici,
facendo sì che la soluzione regolarizzata sia fisicamente sba­
gliata: l'algoritmo soffre di illusioni ottiche. Un buon esem­
pio di questo fenomeno si ha nel caso del calcolo del movi­
mento: l'assunzione di liscezza (nella forma dell'equazione
(4)) permette di ottenere risultati corretti a certe condizioni
molto generali (ad esempio, quando le immagini degli oggetti
sono costituite da linee rette connesse). Tuttavia, per alcuni
tipi di movimento e di contorno, il principio di liscezza non
fornisce il campo di velocità corretto. Peraltro, va notato che
in molti di questi casi anche il sistema visivo umano sembra
derivare un campo di velocità simile e ugualmente scorretto:
basti pensare, ad esempio, all'illusione dell' "insegna del bar­
biere" (vedi Hildreth, 1 984a, 1 984b).

Oltre la regolarizzazione standard

Limitazioni
Il nuovo quadro concettuale della prima visione mostra
chiaramente non solo le attrazioni, ma anche le limitazioni
inerenti alla forma standard di Tikhonov della teoria della
regolarizzazione. Il problema principale è il grado di liscezza
richiesto dalla funzione incognita che si vuole determinare:
nell'interpolazione della superficie, ad esempio, il grado di
li scezza corrispondente ai cosiddetti thin-plate splines smus-

290
sa troppo gli sbalzi di profondità, portando spesso a risultati
non realistici.
Sono possibili anche altri principi variazionali. La teoria
standard della regolarizzazione è basata su principi variazio­
nali quadratici e conduce quindi a equazioni lineari di Eulero­
Lagrange, ma in molti casi possono essere necessari degli sta­
bilizzatori non quadratici per determinare le limitazioni fisi­
che corrette. Marroquin (1 984, 1 985) ha usato con successo
uno stabilizzatore non quadratico per risolvere il problema
della conservazione delle discontinuità nella ricostruzione
della superficie a partire da dati sulla profondità. Questo sta­
bilizzatore, dovuto a Geman e Geman (1 984), incorpora cono­
scenze relative alla geometria delle discontinuità e, in partico­
lare, al fatto che tali discontinuità hanno contorni continui e
spesso diritti. In questi casi il problema è che non vi è più al­
cuna garanzia che il principio variazionale sia convesso. Nei
principi di regolarizzazione standard lo spazio di ricerca ha
un unico minimo a cui convergono gli algoritmi appropriati,
mentre nel caso di principi non quadratici lo spazio di ricerca
può essere simile a una catena montuosa con molti minimi lo­
cali. Recentemente sono stati proposti degli algoritmi stoca­
stici per risolvere i problemi di minimizzazione di questo tipo,
sfuggendo a quei minimi locali in cui cadrebbero i più sempli­
ci algoritmi di "arrampicamento". L'idea principale è quella
di aggiungere all'algoritmo di ricerca un termine di rumore di
forcing. Se si rappresenta il principio variazionale non qua­
dratico mediante una rete analogica non lineare, tale rete po­
trebbe essere guidata da una fonte appropriata di rumore
gaussiano. Si potrebbe allora descrivere la dinamica del siste­
ma mediante un'equazione differenziale stocastica non linea­
re, rappresentante un processo di diffusione.
Oggi, la sfida che la teoria della visione si trova a dover
fronteggiare è quella di estendere i metodi di regolarizzazio­
ne standard. L'universo delle computazioni eseguibili in ter­
mini di principi variazionali quadratici è piuttosto ristretto.
A riprova di ciò basti considerare che la minimizzazione di
funzionali di costo quadratici conduce a un operatore di re­
golarizzazione lineare, cioè a una corrispondenza lineare fra
i dati in ingresso e lo spazio delle soluzioni. Se i dati sono su
una griglia regolare e soddisfano le condizioni di limite adat­
te, allora l'operatore lineare si specializza in un avvolgimen­
to (convolution), cioè in una semplice operazione di filtraggio
sui dati. Così come i modelli lineari in fisica, la teoria stan­
dard della regolarizzazione costituisce in molti casi un'ap­
prossimazione assai utile, ma non è in grado di catturare tut­
ta la complessità della visione.

291
Apprendimento
In futuro la ricerca dovrà rivolgere la propria attenzione
a un argomento importante e strettamente correlato al pre­
cedente: l'apprendimento di un operatore di regolarizzazione
(un aspetto della teoria della visione che potrebbe risultare
interessante anche da un punto di vista biologico). Nel caso
della regolarizzazione standard Poggio e Hurlbert (1 984) han­
no mostrato che è possibile "imparare" l'operatore lineare
per mezzo di uno schema di apprendimento associativo, si­
mile a quelli proposti in passato per la memoria biologica.
Per i principi di regolarizzazione non quadratici sono possi­
bili diversi schemi di apprendimento, e in special modo le
estensioni polinomiali dello schema lineare (vedi Poggio,
1 983). Hinton e Sejnowski (1 984) hanno invece proposto uno
schema differente, sviluppato appositamente per le architet­
ture computazionali che consistono di unità semplici che
tentano di soddisfare simultaneamente più condizioni.

Verso descrizioni simboliche

La discussione si è finora limitata al primo stadio della


visione, lo stadio che crea rappresentazioni simili a immagi­
ni delle superfici fisiche tridimensionali che circondano l'os­
servatore. Il passo successivo, che dovrebbe portare oltre
questo tipo di rappresentazioni (dette anche immagini intrin­
seche o sketch in 2- 1 120), è piuttosto impegnativo. Le imma­
gini intrinseche sono ancora rappresentazioni numeriche,
non descrivibili in termini di oggetti: può darsi che siano
sufficienti per alcuni dei compiti più generali di un sistema
visivo, come ad esempio la manipolazione di oggetti o lo spo­
stamento nello spazio, ma sono affatto inutili ai fini del rico­
noscimento e della descrizione, compiti che richiedono la ge­
nerazione e l'uso di forme di rappresentazione di tipo più
simbolico. E non è facile capire, almeno a prima vista, come
la computazione di rappresentazioni simboliche possa essere
adattata al quadro concettuale della teoria della regolarizza­
zione.
Ciò che i metodi di regolarizzazione fanno è, essenzial­
mente, restringere lo spazio delle soluzioni possibili. Vi sono
buone probabilità che un problema inverso risulti ben posto,
a condizione che lo spazio delle soluzioni abbia dimensioni
finite. Così, una rappresentazione basata su un insieme fini­
to di simboli discreti "regolarizza" un problema eventual­
mente mal posto, e poiché a spazi finiti si può applicare sen­
za rischi la logica del primo ordine, le corrispondenti teorie

292
sintattiche e semantiche potranno essere coerenti e comple­
te. Si noti che le teorie che hanno a che fare con insiemi fi­
niti di simboli discreti sono immuni ai noti paradossi di
Russell e di Godei, sorti nell'ambito della formalizzazione
dell'aritmetica. Da questo punto di vista, il problema della
percezione (la regolarizzazione di un problema altrimenti
non limitato mediante assunti generici relativi al mondo fi­
sico) risulta praticamente equivalente alla risoluzione di
problemi e all'inferenza, nonché a ogni altro modo di risol­
vere problemi intrattabili (ad esempio, gli scacchi) ponendo
dei limiti alla ricerca delle soluzioni. Nell'un caso come
nell'altro, la limitazione della ricerca ovvero, parlando ap­
prossimativamente, la regolarizzazione del problema, è l'es­
senza dell'intelligenza.

Giano: la vecchia e la nuova faccia cominciano a fonde rsi

Quanto più l'elaborazione delle informazioni visive si fa


simbolica, tanto più i metodi utilizzati diventano simili a
quelli che, in Intelligenza Artificiale, costituiscono le proce­
dure per la risoluzione dei problemi : si tratta, in entrambi i
casi, di ridurre la ricerca causale delle soluzioni.
Ai dati disponibili nei casi specifici bisogna aggiungere
molte conoscenze a priori: si ha allora che, da un certo punto
di vista, la risoluzione di problemi e la visione di alto livello
non differiscono poi troppo dalle teorie della prima visione
che fanno uso della regolarizzazione. In tutti questi casi per
giungere alla soluzione bisogna ricorrere alla conoscenza
delle regolarità del mondo per limitare la ricerca. La diffe­
renza risiede piuttosto nel modo di applicare le conoscenze a
priori: metodi di regolarizzazione nella prima visione, logica
formale ed euristica nella visione di alto livello, ragionamen­
to per analogia in molti casi della risoluzione di problemi.
Vi è naturalmente differenza anche nel tipo di conoscenze
a priori utilizzate. Nella prima visione, ad esempio, si usano
informazioni a priori di natura piuttosto generale relative al­
le limitazioni fisiche del processo di formazione dell'immagi­
ne e alla natura fisica degli oggetti nel mondo. D'altra parte,
nella visione di alto livello sono necessarie conoscenze mag­
giori e di natura più specifica per limitare la ricerca della
soluzione di un problema (ad esempio) di riconoscimento: ciò
equivale a dire che non si possono esprimere tali informazio­
ni in forma compatta. Infatti, si tratta di conoscenze relative
alle diverse classi di oggetti, alle loro proprietà, alla loro
funzione oltreché, naturalmente, di conoscenze più generi-

293
che del tipo di quelle della fisica o della geometria ingenue.
La specificità e la quantità delle conoscenze diventa persino
più importante nel ragionamento, un'attività in cui gli esseri
umani fanno uso di un'enorme base di conoscenze, costituita
tanto da informazioni fattuali quanto da esperienze.
Bisogna dunque riconoscere che vi sono cospicue differen­
ze fra la moderna teoria della percezione e i metodi di ragio­
namento formale utilizzati nei primi due decenni di ricerca in
Intelligenza Artificiale. Tali metodi, tuttavia, utilizzano la
stessa idea generale usata nella percezione, e precisamente
quella di limitare la ricerca della soluzione mediante cono­
scenze a priori.
Vi è infine un ultimo punto che può risultare interessante
sia per la risoluzione di problemi sia per la percezione. Come
abbiamo visto discutendo dei problemi mal posti che la teoria
della prima visione deve affrontare, l'essenza dei metodi di
regolarizzazione sta nel rendere il problema ben posto e tro­
vare quindi una soluzione. Questi metodi, tuttavia, non speci­
ficano quali limitazioni debbano essere usate: sembra dunque
che sia nella natura dei problemi mal posti che essi possano
avere una o più soluzioni, ma l'esistenza della soluzione è una
questione che non è di competenza della matematica. Abbia­
mo visto come limitazioni che risultano corrette nella grande
maggioranza dei casi possano a volte condurre a soluzioni fi­
sicamente sbagliate. Nel ragionamento, analogamente, criteri
euristici che pure normalmente funzionano possono di tanto
in tanto portare alla risposta sbagliata. Anche se le soluzioni
non sono scorrette, succede spesso che vi siano più soluzioni
ugualmente soddisfacenti, a seconda delle diverse limitazioni
usate per regolarizzare il problema e guidare la ricerca.

RIFERIMENTI BIBLIOGRAFICI

Barrow, H.G. e J.M. Tennenbaum ( 198 1), Interpreting Line Drawings


as Three Dimensionai Surfaces, in "Artificial Intelligence", 17,
pp. 75-1 17.
Bertero, M. ( 1982), Problemi lineari non ben posti e metodi di regola­
riu.azione, in Problemi non ben posti e inversi, Istituto di Analisi
Globale, Firenze.
Brady, J.M., Grimson, W.E.L. e D.J. Langridge ( 1 980), Shape Enco­
ding and Subjective Contours, in First Annua[ National Conferen­
ce on Artificial Intelligence, pp. 15- 17.
Brady, J.M. e A. Yuille ( 1984), An Extremum Principle far Shape from
Contour, in "I.E.E.E. Trans. on Pattem Analysis and Machine In­
telligence", pp. 288-30 l.

294
Canny, J.F. (1983), Finding Edges and Lines in Images, Massachu­
setts Institute of Technology Artificial Intelligence Laboratory
Technical Report, n. 720.
Geman, S. e D. Geman (1984), Stochastic Relaxation, Gibbs Distribu­
tions and the Bayesian Restoration of Images, in "PAMI", 6, pp.
721-741.
Gihman, 1.1. e A.V. Skorohod (1972), Stochastic Differential Equa­
tions, Springer Verlag, Berlin.
Grimson, W.E.L. (1981a), A Computer Implementation of a Theory
of Human Stereo Vision, in "Phil. Trans. R. Soc. Lond.", B, 217-
253.
Grimson, W.E .L. (1981b), From Images to Surfaces: a Computational
Study of the Human Early Visual System, The MIT Press, Cam­
bridge (Mass.).
Grimson, W.E.L. (1982), A Computational Theory of Visual Surface
Interpolation, in "Phil. Trans. R. Soc. Lond.", B, 298, pp. 395-
427.
Hadamard, J. (1923), Lectures on the Cauchy Problem in Linear Par­
tial Differential Equations, Yale University Press, New Haven.
Hildreth, E.C. (1980), Implementation of a Theory of Edge Detec­
tion, S.M. Thesis, Dept. of Computer Science and Electrical En­
gineering, MIT (vedi anche MIT Art. Int. Lab. Technical Report, n.
597, 1980).
Hildreth, E.C. (1984a), The Measurement of Visual Motion, The MIT
Press, Cambridge (Mass .).
Hildreth, E.C. (1984b), Computation of the Velocity Field, in "Proc.
R. Soc. Lond .", B, 221, pp. 189-220.
Hinton, G.E. e T.J. Sejnowski (1983), Optimal Perceptual Inference,
in "Proc. I.E.E.E. 1983 Conf. Computer Vision and Pattern Reco­
gnition", Washington (D.C.).
Hopfield, J.J. (1984), Neurons with Graded Response Have Collective
Computational Properties like Those of Two-State Neurons, in
"Proc. National Acad. Sci.", USA.
Horn, B.K.P. (1984), Determining Lightness from an Image, in "Com­
puter Graphics and Image Processing", 3, pp. 111-299.
Horn, B.K.P. (1981), The Least Energy Curve, AI Memo 612, MIT Art.
Int. Lab., Cambridge (Mass.).
Horn, B.K.P. e B.G. Schunk (1981), Determining Optical Flow, in
"Artificial Intelligence", 17, pp. 185-203.
Hummel, R. e S. Zucker (1980), O n the Foundations o f Relaxation
Labeling Processes, McGill University, Computer Vision and
Graphics Laboratory, TR 80-7.
Hurlbert, A. (1985), Color Computation in the Visual System, MIT
Art. lnt. Lab. Memo, n. 814.
Hurlbert, A. (1984), Associative Learning of Standard Regularization
Operators in Early Vision, MIT Art. Int. Lab. Working Paper 264.
Ikeuchi, K. e B.K.P. Horn (1981), Numerica[ Shape from Shading
an d Occluding Boundaries, in "Artificial Intelligence", 17, pp.
141-184.
Kac, M. (1966), Can One Hear the Shape of a Drum?, in "Am. Math.
Monthly", 73, 4, parte II, pp. 1-23.

295
Kass, M.H. (1 984), Computating Stereo Correspondance, manoscrit­
to, MIT.
Kirkpatrick, S., Gelatt, C.D. Jr. e M.P. Vecchi (1983), Optimization by
Simulated Annealing, in "Science", 220, pp. 671-680.
Luenberger, D.G. ( 1969), Optimization by Vector Space Methods, Wi ­
ley Pubi., New York.
Marr, D. e T. Poggio (1979), A Theory of Human Stereo Vision, in
"Proc. R. Soc. Lond.", B, 204, pp. 301-328.
Marroquin, J. ( 1 984), Surface Reconstruction Preserving Discontinui­
ties, MIT Art. Int. Lab. Memo, 792.
Marroquin, J. (1985), Probabilistic Solutions of Inverse Problems,
PhD Thesis, MIT.
Mayhew, J.E.W. e J.P. Frisby ( i 98 1), Psychophysical and Computatio­
nal Studies Towards a Theory of Human Stereopsis, in "Artificial
Intelligence", 17, pp. 349-385.
McCulloch, W.S. e W. Pitts (1943), A Logica[ Calculus of the Ideas Im­
manent in Nervous Activity, in "Bull. Math. Biophys.", 5, pp. 115-
133.
Metropolis, N., Rosenbluth, A., Rosenbluth, M., Teller, A. e E. Teller
(1953), Equation of State Calculations by Fast Computing Machi­
nes, in "J. Chem . Phys.", 21, pp. 1087-1092.
Nashed, M.Z. (1974), Approximate Regularized Solutions to Impro­
perly Posed Linear Integra[ and Operator Equations, in G. Auger
(a cura di), Constructive and Computational Methods far Diffe­
rential and Integra[ Equations, Akademie Verlag, Berlin.
Nashed, M.Z. (a cura di) (1976), Generalized Inverses and Applica­
tions, Academic Press, New York.
Nishihara, H.K. e T. Poggio, Stereo Vision for Robotics, in "Procee­
dings of the First International Symposium of Robotics", in cor­
so di stampa.
Poggio T. (1983), Visual Algorithms, in O.J. Braddick e A.C. Sleigh (a
cura di), Physical and Biologica[ Processing of Images, Springer
Verlag, Berlin.
Poggio, T. e A. Hurlbert (1984), Associative Learning of Standard and
Regularizing Operators in Early Vision, MIT Art. Int. Lab. Wor­
king Paper, n. 264.
Poggio, T. e V. Torre (1984), Ill-posed Problems and Regularization
Analysis in Early Vision, MIT Art. Int. Lab. Memo, n. 773.
Poggio, T., Voorhees, H. e A. Yuille (1984), Regularizing Edge Detec­
tion, MIT Art. Int. Lab. Memo, n. 776.
Reinsch, C.H. (1967), Smoothing by Spline Functions, in "Numer.
Math.", 10, pp. 177-183.
Schunk, B.G. e B.K.P. Horn (1981), Constraints on Optical Flow Com­
putation, in "Proc. I.E.E.E. Conf. Pattern Recognition and Image
Processing", pp. 205-210.
Terzopoulos, D. (1984), Multiresolution Computation of Visible-Sur­
face Representations, Ph.D. Thesis, Dept. of Computer Science
and Electrical Engineering, MIT.
Terzopoulos, D. (1983), Multilevel Computational Processes for Vi­
sua[ Surface Reconstruction, in "Computer Vision, Graphics, and
Image Processing", 24, pp. 52-96.

296
Terzopoulos, D. (1984), Multilevel Reconstruction of Visual Surfa­
ces: Variational Principles and Finite Element Representations,
MIT Art. lnt. Lab., n. 671; ora in A. Rosenfeld (a cura di), Multireso­
lution Image Processing and Analysis, Springer Verlag, Berlin.
Terzopoulos, D. (1985), Integrating Visual Jnformation from Multiple
Sources for the Cooperative Computation of Surface Shape, in A.
Pentland (a cura di), From Pixels to Predicates: Recent Advances
in Computational and Robotic Vision, Ablex.
Tikhonov, A.N. (1963), Solution of Incorrectly Formulated Problems
and the Regularization Method, in "Soviet Math. Dokl.", 4, pp.
1035-1038.
Tikhonov, A.N. e V.Y. Arsenin (1977), Solutions of Ill-Posed Problems,
Winston & Sons, Washington (D.C.).
Torre, V. e T. Poggio (1984), On Edge Detection, MIT Art. lnt. Lab. Me­
mo, n. 768.
Ulman, S. (1976), Filling the Gaps: the Shape of Subjective Contours
and a Model for Their Generation, in "Biologica} Cybemetics", 25,
pp. 1-6.
Ullman, S. (1979), The Jnterpretation of Structure from Motion, in
"Proc. R. Soc. Lond.", B, 203, pp. 405-426.
Wahba, G. (1980), Ill-Posed Problems: Numerica[ and Statistica[ Me­
thods for Mildly, Moderately and Severely Ill-Posed Problems
with Noisy Data, University of Winsconsin Techn. Report, n. 595.
Yuille, A. (1983), The Smoothest Velocity Field and Token Matching
Schemes, MIT Art. Int. Lab. Memo, n. 724.

297
Il ragionamento: dal formale al quotidiano *

di Bruno G. Bara, Antonella Carassa e Giuliano Geminiani

Introduzione

Secondo la prospettiva filosofica e poi teoretica che pos­


siamo far risalire ad Aristotele, il ragionamento formale è
l'aspetto del pensiero umano più alto e complesso.
Anche la psicologia evolutiva ha assunto la stessa posizio­
ne: nella teoria piagetiana il vertice dello sviluppo cognitivo
è costituito dal pensiero formale, che corrisponde all'acqui­
sizione della capacità di ragionare in modo astratto, secondo
i principi di quella che possiamo chiamare logica mentale
(Piaget, 1 973).
In questo lavoro proporremo un approccio alternativo,
secondo il quale il ragionamento non si fonda sull'applicazio­
ne di regole logiche di inferenza, ma sulla manipolazione di
modelli mentali che rappresentano gli stati di cose specifici
su cui si ragiona. I modelli mentali sono strutture di rappre­
sentazione analogiche, che riproducono gli aspetti rilevanti
di una situazione e che vengono elaborate secondo processi
che sono legati alla struttura stessa del modello. In partico­
lare, per quanto riguarda il ragionamento, la manipolazione
di modelli mentali conduce a conclusioni che sono non solo
valide, ma anche pertinenti e informative.
Vogliamo sottolineare che il concetto di modello mentale
a cui facciamo riferimento è completamente diverso dal con-

* La ricerca è stata effettuata grazie al finanziamento concesso dal Mi­


nistero della Pubblica Istruzione, a B.G. Bara, per l'a.a. 1987/1 988.
È un piacere per noi ringraziare Marco Colombetti e Philip Johnson­
Laird per i consigli e le indicazioni fomite sulla base della prima stesura
del lavoro.

298
cetto di modello mentale di un dispositivo fisico, concetto re­
centemente sviluppato soprattutto all'interno della comunità
americana di Intelligenza Artificiale. In quest'ultima accezio­
ne, il modello mentale corrisponde al modo in cui gli indivi­
dui pensano che uno specifico dispositivo fisico sia struttu­
rato e su come ragionano sul suo funzionamento; per esem­
pio, come è fatto e come funziona un apparecchio telefonico.
Sebbene in letteratura siano stati proposti modelli cognitivi
dettagliati di questo tipo (Gentner, Stevens, 1 983), non vengo­
no definiti né gli elementi cognitivi che costituiscono il mo­
dello, né i processi di pensiero che ne permettono l'elabora­
zione. I modelli di dispositivi fisici sono utili per comprende­
re e insegnare come si comporta uno specifico dispositivo,
ma non hanno l'ambizione di identificare modalità basilari
per il ragionamento non specifico.
Il nostro scopo è invece quello di tracciare un quadro uni­
tario del ragionamento, individuando un insieme di principi
generali di manipolazione di modelli, in grado di spiegare
differenti tipi di processi di inferenza. Dopo aver presentato
un modello di ragionamento formale e un modello di ragio­
namento quotidiano, analizzeremo le relazioni esistenti fra
queste due aree, con l'obiettivo di ricondurle alle stesse com­
petenze di base.

Il ragionamento

Tradizionalmente la psicologia cogmttva ha suddiviso i


processi cognitivi in aree individuate sulla base di funzioni
diverse, o di compiti specializzati all'interno di una funzione,
postulando per ciascuna di esse un'abilità differenziata di
base: conoscenza, percezione, problem solving, memoria, ap­
prendimento, linguaggio, pensiero. Secondo tale suddivisio­
ne, i processi relativi a ciascuna area sono stati analizzati in
modo indipendente; ciò permette di generare ipotesi ad hoc,
specifiche per il settore considerato, senza vincoli di compa­
tibilità con gli altri processi cognitivi.
In un approccio computazionale, qualsiasi funzione co­
gnitiva richiede un'attività inferenziale di base: in questo
senso il ragionamento è un processo di manipolazione di co­
noscenze, essenziale sia nella comprensione del linguaggio,
che nella percezione o nel problem solving.
Storicamente, l'aspetto del pensiero che è stato oggetto di
maggior interesse è stato il ragionamento deduttivo, in quan­
to la capacità di compiere deduzioni era considerata la ca­
ratteristica essenziale che definiva la razionalità dell'indivi-

299
duo (da Piaget a Boolos). In questo approccio il ragionamen­
to viene a costituire un'area a sé stante, che studia le sole in­
ferenze di tipo deduttivo, trattandole come una funzione co­
gniti-va separabile dalle altre.
L'obiettivo fondamentale degli studi sul ragionamento di­
venne perciò l'analisi dei processi psicologici sottostanti la
capacità di dimostrare una proposizione o di produrre una
conclusione, ricavandola in modo corretto da premesse date.
Inevitabile fu a questo punto per gli psicologi il confronto
con la logica, disciplina che tratta appunto i principi dell'in­
ferenza valida (Kneale e Kneale, 1 962). In particolare ci si ri­
ferì alla logica dei predicati del primo ordine, in quanto si­
stema che permette di ricavare tutte e solo le inferenze vali­
de a partire da un dato insieme di premesse.
Considerando il problema da un punto di vista psicologi­
co, il ragionamento deduttivo è applicabile solo nelle situa­
zioni in cui le relazioni fra le entità o i fatti cui si fa riferi­
mento hanno uno dei tre tipi di struttura che definiamo di
seguito.
l . In un primo caso, tale struttura è riconducibile alle re­
lazioni espresse dai connettivi della logica del primo ordine.
In particolare se la struttura è riconducibile agli schemi di
inferenza del calcolo proposizionale, saranno derivabili infe­
renze logicamente valide.
La regola di inferenza più importante è il modus ponens;
ad esempio, date le premesse:
SE piove ALLORA prendo l'ombrello
E oggi piove

si può concludere che:


oggi prendo l'ombrello

e ciò in virtù della formulazione delle premesse stesse e non


della conoscenza generale sul mondo, in questo caso specifi­
co dal sapere che, per non bagnarsi quando piove, è opportu­
no munirsi di ombrello.
2. Nel secondo caso, si considerano unicamente relazioni
fra entità quantificate. Così da:
tutti gli uomini sono mortali

e
tutti i Greci sono uomini

si può concludere che:

300
tutti i Greci sono mortali.

3. Infine, oggetto del ragionamento deduttivo sono i pro­


blemi in cui le entità sono collegate da un unico tipo di relazio­
ne per la quale vale la proprietà di transitività. Così, per esem­
pio, da:
l'elefante è più alto del cavallo

e
il cavallo è più alto del cane

si può concludere che


l'elefante è più alto del cane.

L'aspetto comune ai tre casi descritti, aspetto che secon­


do noi definisce l'ambito del ragionamento deduttivo, è il
trarre inferenze manipolando la struttura delle premesse, a
prescindere dal contenuto semantico specifico delle stesse.
Ma ben raramente ci troviamo nella fortunata condizione di
poter garantire la validità logica delle nostre inferenze; la co­
noscenza generale sul mondo, esclusa così drasticamente nel
ragionamento deduttivo, è invece l'elemento chiave in gran
parte della nostra attività cognitiva. Consideriamo un esem­
pio di quello che definiamo ragionamento quotidiano:
Alice stava scassinando la cassaforte

e
Alice udì un rumore nell'anticamera.

Non è possibile in questo caso richiamare le procedure di


elaborazione formale che abbiamo descritto per il tipo e l'e­
terogeneità delle relazioni implicate.
I processi di ragionamento che ci permettono, per esem­
pio, di fare un'inferenza come:
Alice si nascose dietro il divano

sono basati essenzialmente sulla conoscenza generale del


mondo, che ci permette di generare ipotesi sulle relazioni fra
i fatti menzionati nelle premesse. Di congetture si tratta e
non di deduzioni, di cui il cammino inferenziale dovrà co­
struire non tanto una prova di validità logica quanto una ri­
cerca di plausibilità.

301
Malgrado la sostanziale differenza tra i due tipi di ragio­
namento, talora, soprattutto in ambito psicologico, si è ten­
tato implicitamente o esplicitamente di ricondurre il ragio­
namento quotidiano al ragionamento deduttivo, estendendo
così la logica dei predicati del primo ordine a modello del ra­
gionamento umano nel suo complesso. Si potrebbe ipotizza­
re che, per compiere l'inferenza "Alice si nascoste dietro il
divano", si faccia riferimento a una logica, che comprenda,
oltre agli assiomi logici, un tal numero di assiomi specifici
del dominio quali, ad esempio:

l) SI! x fa qualcosa di scorretto E viene scoperto


ALLORA x viene punito

2) SE x teme di essere scoperto ALLORA x lo evita


3) ecc.

da rendere totalmente inefficiente e implausibile da un pun­


to di vista psicologico la generazione di inferenze su questa
base.
. Nella prospettiva di costruire una teoria psicologica, af­
fermare che il ragionamento quotidiano è riducibile al ragio­
namento deduttivo costituisce un'ipotesi molto vincolante da
un punto di vista teorico, e le cui conseguenze richiedono il
conforto di dati empirici. Da un lato si as sume infatti che la
nostra conoscenza generale sul mondo sia strutturata in for­
ma assiomatica. Se così fosse, a parte i casi di inferenze ba­
nali, il ragionamento quotidiano richiederebbe un numero di
passi inferenziali generalmente superiore rispetto, ad esem­
pio, al più complesso dei sillogismi, con un conseguente faci­
le esaurimento delle risorse cognitive e della working me­
mory in particolare. In altre parole, ciò significa che il ragio­
namento quotidiano dovrebbe risultare più difficile, richie­
dere cioè uno sforzo cognitivo maggiore rispetto al ragiona­
mento deduttivo classico mentre quest'ipotesi si scontra con
un'evidenza anche introspettiva decisamente contraria.
In una prospettiva di Intelligenza Artificiale, i sistemi
cui si richiedono competenze quali la comprensione di sto­
rie, la visione, il problem-solving in situazioni che hanno la
complessità della vita reale, devono essere in grado di com­
piere inferenze non traducibili in forme classiche di ragio­
namento deduttivo (McDermott, Doyle, 1 980; Reiter, 1 980;
Zadeh, 1 97 5).
Questo fallimento della formalizzazione del ragionamento
quotidiano attraverso logiche elementari, mostra che vi sono
anche ragioni teoriche e difficoltà computazionali contrarie

302
all'ipotesi che assume il ragionamento deduttivo come il tipo
di ragionamento alla base di tutti i processi inferenziali.

L 'ipotesi dei modelli mentali

La distinzione fondamentale fra l'ipotesi della logica


mentale e quella dei modelli mentali è che la prima lavora
esclusivamente a livello della teoria, mentre i secondi utiliz­
zano le interpretazioni della teoria stessa, appunto i modelli.
Secondo la logica mentale, il punto di partenza è la defi­
nizione di una teoria che comprende es senzialmente gli as­
siomi pertinenti a uno specifico dominio, all'interno di una
logica sottostante che definisce le regole di inferenza utiliz­
zabili. In senso generale, compiere inferenze è un'attività
svolta unicamente a livello della teoria.
La nostra assunzione di base è che, da un punto di vista
psicologico, si mostra più utile considerare l'attività inferen­
ziale come basata piuttosto su modelli, cioè su interpretazio­
ni particolari di una data teoria. Tale distinzione teoria-mo­
dello si riflette anche su un importante e discusso punto, la
scelta della forma di rappresentazione della conoscenza.
L'approccio della logica mentale favorisce una rappresenta­
zione di tipo sintattico della conoscenza, in quanto non fa ri­
ferimento a interpretazioni particolari ma a una teoria
astratta ben gestibile da rappresentazioni di tipo proposizio­
nale. Al contrario i modelli mentali costituiscono strutture
di rappresentazione di tipo analogico, che interpretano se­
manticamente la teoria astratta del dominio specifico su cui
si opera.
Parlando di struttura di rappresentazione, ci riferiamo in
questo contesto a come viene rappresentata momento per
momento la conoscenza che il sistema elabora, e quindi rap­
presentazioni presenti nello spazio della memoria di servi­
zio, mentre non ci interessa qui fare assunzioni su come sia
organizzata l 'intera conoscenza generale sul mondo che il si­
stema deve possedere per generare modelli (su questo pro­
blema, ci riferiamo alla teoria rappresentazionale di Airenti,
Bara, Colombetti, 1 982).
Un primo punto da tenere presente è che l'obiettivo di un
sistema che manipola informazioni non è produrre tutte le
possibili conclusioni derivabili da un insieme di premesse
ma ricavare le sole inferenze interessanti. Per esempio, date
le premesse:

tutti gli apicoltori sono barbieri

303
e
nessun barbiere è commerciante

si potrebbe dedurre che


nessun commerciante è barbiere

inferenza valida ma poco informativa, in quanto equivalente


alla seconda premessa. La conclusione altrettanto valida
nessun commerciante è apicoltore

è invece più informativa di ognuna delle premesse considera­


te separatamente.
Ragionare significa in senso generale costruire una rap­
presentazione coerente che integri le informazioni contenute
nelle premesse. Le inferenze informative consistono nell'e­
splicitare nuove relazioni nella rappresentazione in atto. Se­
condo l'ipotesi che noi assumiamo, alla base del ragionamen­
to vi è un'attività di manipolazione di modelli mentali di si­
tuazioni specifiche, piuttosto che l'applicazione di regole
d'inferenza su strutture simboliche astratte. Tale manipola­
zione porta alla costruzione di nuovi modelli che generano
conclusioni valide e informative.
Costruire una rappresentazione analogica, in particolare
un modello mentale, significa considerare la realtà secondo
un determinato punto di vista, isolare alcune dimensioni pri­
vilegiate, pertinenti agli scopi cognitivi in funzione dei quali
il modello è costruito. Si tratta di scegliere entità e relazioni,
e di definirle completamente nella rappresentazione, la qua­
le, a differenza di una rappresentazione proposizionale, non
contiene variabili. Ad esempio, facendo riferimento a propo­
sizioni in forma linguistica, costruire un modello significa
rappresentare uno specifico stato di cose, uno fra diverse al­
ternative possibili, che renda vera la proposizione data; in
questo senso, il modello è una proposizione interpretata. Ciò
implica che, anche in caso di incompletezza di informazioni,
costruire un modello obbliga a formulare ipotesi interpreta­
tive, cosa che corrisponderebbe all'assegnazione di valori ar­
bitrari in una rappresentazione contenente variabili. Sottoli­
neamo il fatto che il modello non può che essere manipolato
globalmente e che un modello eventualmente falsificato por­
ta alla costruzione ex novo di un modello alternativo. Infatti
un modello non può essere scomposto in unità di significato
più elementari, in ciò a differenza di una semantica composi­
zionale, in cui il significato di entità complesse viene ottenu-

304
to componendo i significati di entità elementari. Qui invece
l'informazione viene rappresentata nella struttura globale
del modello. Elaborare rappresentazioni di tipo analogico
non corrisponde a un'operazione di applicazione di procedu­
re astratte a un sistema di simboli, così come si applicano
regole di inferenza a formule di un dato sistema logico-for­
male. L'elaborazione di modelli mentali consiste piuttosto
nel trasformarli secondo processi che dipendono dalle pro­
prietà strutturali intrinseche; per processo intendiamo qui
una procedura interna al modello in grado di farlo evolvere.
È chiaro a questo punto che l'ipotesi dell'uso di modelli
porta a considerare il ragionamento come un'attività forte­
mente dipendente dal dominio di applicazione, sia per il ri­
lievo dato alla conoscenza che viene di volta in volta utilizza­
ta, sia per la specificità dei processi di elaborazione della
rappresentazione. Riteniamo perciò che studiare il ragiona­
mento implichi la ricerca di uno spettro di dominii significa­
tivi e l'individuazione delle classi di modelli che li caratteriz­
zano. Nello stesso tempo è di primaria importanza sviluppa­
re una teoria unitaria del ragionamento in grado di indivi­
duare una serie di principi di manipolazione di modelli,
estendibili a tutti i dominii. Tali principi, che secondo il no­
stro punto di vista dominano ogni tipo di attività inferenzia­
le, rispecchiano alcune competenze elementari del sistema
cognitivo, quali la capacità di costruire, integrare e falsifica­
re modelli, competenze che si realizzano in modo specifico in
ciascun particolare dominio di applicazione (Bara, Carassa,
Geminiani, 1 987).
Nei due paragrafi seguenti esamineremo una teoria uni­
taria del ragionamento costruita attraverso la definizione
dei suoi principi di base; questi principi saranno successiva­
mente applicati a due modelli esemplari di attività inferen­
ziali: il ragionamento sillogistico e il ragionamento su un
processo di causalità fisica.

Il ragionamento deduttivo

Nello studio del pensiero, il ragionamento deduttivo è


stato considerato in psicologia un'area di indagine privilegia­
ta e costituisce oggi un dominio paradigmatico, in cui è pos­
sibile un confronto fra differenti teorie sui processi di pen­
siero.
Il punto fondamentale non è tanto chiedersi se il ragiona­
mento deduttivo sia più o meno consistente con la logica; è
stato dimostrato che gli esseri umani compiono errori nelle

305
loro deduzioni, che tali errori sono spesso sistematici e non
casuali e che tale fallacia nel ragionamento non è unicamen­
te correlabile con la difficoltà logica del compito richiesto
(Evans, 1 982).
Tutto ciò non significa che la deduzione umana sia fonda­
mentalmente illogica, ma significa unicamente che la nostra
competenza deduttiva non coincide esattamente con i sistemi
logico-formali studiati dalla logica classica. Inoltre, definire
un sistema logico-formale che catturi la nostra competenza
deduttiva, non conduce necessariamente a individuare il tipo
di processi implicati nella deduzione. Individuare quali siano
le operazioni mentali è possibile solo formulando una serie
di assunzioni teoriche più generali, fra le quali, in primis, è
necessario definire quale sia il tipo di rappresentazione uti­
lizzata nel pensiero.
Come già discusso in precedenza, individuiamo almeno
due classi di ipotesi teoriche:
l) teorie che postulano regole generali di manipolazione
di strutture simboliche; tali regole garantiscono la validità
delle inferenze prodotte; naturalmente saranno necessarie
delle euristiche che stabiliscano l'applicabilità effettiva di ta­
li regole nei singoli casi;
2) teorie che postulano la manipolazione di strutture sim­
boliche interpretate o modelli; non sono richieste euristiche
in quanto sono le strutture dei modelli che definiscono le
specifiche procedure. Le procedure realizzano principi gene­
rali di manipolazione di modelli; la validità delle conclusioni
viene garantita attraverso una valutazione sistematica di
controesempi.
Discuteremo brevemente quest'ultima ipotesi, conside­
rando, a titolo esemplificativo, un caso particolare di ragio­
namento deduttivo, il ragionamento sillogistico.
Nel ragionamento sillogistico, si considerano proposizio­
ni in cui compaiono quantificatori. A seconda del quantifica­
tore, ogni proposizione assume uno fra i quattro possibili
modi:

universale affennativo Tutti gli A sono B


particolare affermativo Qualche A è B
universale negativo Nessun A è B
particolare negativo Qualche A non è B

Un sillogismo è costituito da due proposizioni dette pre­


messe e da una proposizione detta conclusione; nei sillogi­
smi validi, questa segue logicamente dalle premesse, che so­
no espresse in forma, per esempio simile a:

306
Tutti gli A sono B
Tutti i B sono C

dove un elemento (B) compare in entrambe le premesse. Que­


sta figura è schematizzabile nella forma

A B
B C

In tutto le figure possibili sono quattro:

AB BA AB BA
(l) (Il) (III) (IV)
BC CB CB BC

Dato che in ogni figura è possibile comporre le quattro pre­


messe in sedici diversi modi, questo porta il numero dei sil­
logismi classici a sessantaquattro.
Gli studi psicologici sul sillogismo hanno l'obiettivo ulti­
mo di definire i processi cognitivi che, data una coppia di
premesse, producano conclusioni valide, se ve ne sono.
I numerosi lavori sperimentali compiuti per studiare co­
me gli esseri umani risolvano i sillogismi, hanno evidenziato
alcune sistematicità di comportamento quali, ad esempio, i
cosiddetti effetto atmosfera ed effetto figurale. Tali compor­
tamenti danno indicazioni, seppure indirette, sui processi co­
gnitivi sottostanti; qualunque teoria psicologica del sillogi­
smo deve perciò render conto di tali osservazioni.
Recentemente, Johnson-Laird e Bara (1 984) hanno propo­
sto una delle teorie più interessanti, in quanto non solo è sta­
ta in grado di spiegare in modo relativamente completo un'e­
norme quantità di dati sperimentali, ma ha permesso di co­
struire un modello computazionale che consente la simula­
zione dei comportamenti verificati sperimentalmente.
La teoria proposta da Johnson-Laird e Bara ipotizza un
sistema di rappresentazione basato sui modelli mentali. Tre
sono i fattori fondamentali da cui dipendono le prestazioni
dei soggetti sperimentali:
l) differente complessità di elaborazione delle premesse
legata alla figura delle premesse stesse, in ordine di comples­
sità crescente da I a IV;
2) numero dei modelli che è necessario costruire per ve­
rificare la validità di una conclusione in ciascun sillogismo:
una conclusione è valida solo se è provata compatibile con
tutti i modelli significativamente diversi che si possono co­
struire;

307
3) limitazione delle risorse cognitive, in particolare la di­
versa capacità della working memory mostrata da diversi
soggetti.
Sulla base delle assunzioni teoriche, è stato ideato un mo­
dello computazionale dei processi del ragionamento sillogi­
stico, modello che ha permesso la realizzazione di un pro­
gramma di simulazione (sYLLY). L'implementazione del pro­
gramma è stata confrontata con successo con dati sperimen­
tali. Da un punto di vista metodologico (vedi Pylyshyn, 1 984) è
importante sottolineare che i criteri di successo di un pro­
gramma di simulazione si articolano in due aspetti che de­
scriveremo brevemente:

a) Procedure equivalenti
Il programma deve riprodurre, al livello desiderato di det­
taglio, i processi degli esseri umani impegnati nello stesso
compito.
Il vincolo di procedure equivalenti ha due corollari impor­
tanti:
al) il tempo di computazione del programma deve essere
proporzionale al tempo necessario agli esseri umani per ri­
solvere un certo problema
a2) alcuni stadi rilevanti di conoscenza, intermedi fra lo
stato iniziale e lo stato finale del processo, devono essere si­
mulati dal programma.
Pylyshyn rileva che il test di Turing (Turing, 1 950) riguar­
da solo gli stadi iniziale e finale; questa è una delle ragioni
per cui, sebbene esso sia un test per l'Intelligenza Artificiale,
un programma che lo superi non può essere considerato un
programma di simulazione.

b) Prestazioni uguali
Il programma di simulazione deve riprodurre le prestazio­
ni che i soggetti umani mostrano quando sono impegnati nel­
lo stesso compito. Nel caso dei sillogismi, il programma deve
riprodurre esattamente i protocolli dei differenti soggetti.
Questo significa che la simulazione degli errori è altrettanto
importante della simulazione delle risposte corrette. Natural­
mente, dal momento che soggetti differenti hanno percentua­
li differenti di risposte corrette e compiono differenti tipi di
errori, il programma deve esibire prestazioni differenti, a se­
conda del particolare soggetto che sta simulando.

Secondo la teoria di Johnson-Laird e Bara, i processi dei


soggetti che risolvono sillogismi si possono suddividere in tre
fasi fondamentali:

308
l) fase di interpretazione delle premesse: per ciascuna
premessa i soggetti costruiscono un modello mentale che
rappresenta lo stato di cose da essa descritta; si avranno co­
sì due modelli separati ciascuno costituito da un numero fi­
nito di token, che rappresentano individui, e da relazioni fra
token;
2) fase di integrazione dei modelli delle premesse e for­
mazione di una conclusione compatibile con il modello inte­
grato così ottenuto; i due modelli iniziali sono integrati in
un modello complesso in cui si pongono delle relazioni fra i
token fra i quali non esiste una relazione esplicitata nelle
premesse, e cioè i termini A e C. In tal modo, il modello
complesso integrato rappresenta una conclusione informa­
tiva;
3) fase di falsificazione: verifica della validità attraverso
la ricerca di controesempi. Applicando ricorsivamente la
funzione precedente vengono generati modelli integrati al­
ternativi di cui ciascuno rappresenta una possibile conclu­
sione; la funzione di verifica confronta ciascuna conclusione
ottenuta con lo stato di cose descritto dagli altri modelli in­
tegrati. Se una conclusione risulta compatibile con tutti i
modelli integrati generati, tale conclusione sarà considerata
valida; se viceversa, tutte le conclusioni sono falsificate da
almeno uno dei modelli integrati, allora nessuna conclusio­
ne valida risulta possibile.

Un programma di simulazione per l 'inferenza sillogistica


Il programma SYLLY riproduce le operazioni corrispon­
denti alle ipotesi teoriche che abbiamo illustrato, ed è per­
ciò costituito da tre funzioni principali che realizzano le tre
fasi fondamentali discusse in precedenza: coNSTRUCT, INTE­
GRATE, FALSIFY.
L'implementazione del programma è in grado di simula­
re un qualsiasi soggetto umano che deve risolvere i sessan­
taquattro sillogismi classici, secondo i vincoli metodologici
che abbiamo discusso precedentemente.
Pochi esempi chiari ranno il modo di operare del pro-
gramma.
Il sillogismo
Pl: Tutti gli A sono B
P2: Tutti i B sono C

ammette una conclusione derivata da un solo modello.


La rappresentazione in termini di modello mentale delle
due premesse ha la seguente forma:

309
Pl: a b
- P2: b-e
a--b b c __

'b 'c

dove 'b rappresenta un numero non definito di elementi non


legati da relazioni di identità. Così nell'esempio precedente
"Tutti gli A sono B" non implica necessariamente "Tutti i B so­
no A", perciò vengono rappresentati nel modello alcuni ele­
menti b che non sono a, indicati con ·b.
Il soggetto ottiene un modello unico integrando il modello
della seconda premessa col modello della prima premessa:

a--b--c
a--b--c
·b e --

che porta alla seguente conclusione:


Tutti gli A sono C

Invece, il seguente sillogismo ammette una conclusione ba-


sata su due modelli:
P l: Alcuni A non sono B
P2: Nessun B è C

La rappresentazione in termini di modello mentale delle


due premesse ha la forma:

Pl: a P2: b
a b

·a b c
b c

Aggiungendo il modello della seconda premessa al modello


della prima premessa, il soggetto ottiene il modello integrato:

a
a

'a b
b

c
c

310
che fornisce una prima conclusione:
Nessun A è C

È possibile però costruire un modello differente, ancora


consistente con le premesse, cambiando la posizione agli ele­
menti isolati c:

a c
a c

·a b
b

Tale modello integrato rende falsa la prima conclusione,


in quanto ci sono elementi c isolati collegabili con elementi
a, e non supporta a sua volta una conclusione compatibile
con il primo modello integrato.
La conclusione corretta quindi è:
Non esiste conclusione valida

Per ultimo il tipo più difficile di sillogismo ammette una


conclusione basata sulla costruzione di tre modelli, con una
lettura dei modelli in senso inverso (da destra a sinistra):
Pl: Nessun A è B
P2: Qualche B è C

La rappresentazione in termini di modelli mentali delle


due premesse ha la seguente forma:

Pl: a P2: b e
-

a b--e

b b ·c
b

Aggiungendo P l a P2 il soggetto può costruire il primo


modello integrato:

a
a

b--e
b-- e
·c

311
che porta alla prima conclusione possibile:
Nessun A è C

Ma un secondo modello integrato può essere costruito:

a ·c

h--c
b e--

che porta alla seconda conclusione possibile:


Alcuni A non sono C

Tale seconda conclusione non è falsificata dal primo mo­


dello costruito. Al contrario, la prima conclusione generata è
falsificata da questo secondo modello integrato.
Esiste un terzo modello, ancora compatibile con le pre­
messe:

a "c
a "c

b -- e
h -- c

Questo modello rende false le due conclusioni precedenti,


forzando il soggetto ad asserire che non esiste conclusione
valida (terza conclusione possibile).
Ma, se il soggetto è capace di scandire quest'ultimo mo­
dello da destra a sinistra, può raggiungere la conclusione
corretta:
Alcuni C non sono A

Di fatto questa quarta ed ultima conclusione è compatibi­


le con tutti i modelli integrati costruiti. Negli esperimenti ef­
fettuati, nessun soggetto è stato in grado di esibire la presen­
tazione perfetta, cioè di dare tutte e sessantaquattro le rispo­
ste corrette.
Tuttavia gli errori dei soggetti sono stati abbastanza si­
stematici, dal momento che ogni soggetto tende a ripetere lo
stesso stile di elaborazione di modelli attraverso l'intera se­
rie di sillogismi. Questo ha permesso di classificare i sogget-

312
ti sperimentali in cinque tipi differenti, in relazione alla loro
abilità di costruire e manipolare modelli mentali:

tipo l = soggetti capaci di costruire fino a un modello;


tipo 2 = soggetti capaci di costruire fino a due modelli;
tipo 3 = soggetti capaci di costruire fino a tre modelli;
tipo 4 = soggetti capaci di costruire fino a tre modelli e di
scandirli da destra a sinistra;
tipo 5 = soggetti che danno una risposta: "non esiste una con­
clusione valida" ogni volta che riescono a falsificare
un modello, cioè tutte le volte che costruiscono più di
un unico modello integrato dalla coppia di premesse
assegnata.

A titolo esemplificativo riportiamo le risposte previste


dal programma, per ciascun tipo di soggetto, in riferimento
ai sillogismi che abbiamo presentato precedentemente.
Il sillogismo

P l : Tutti gli A sono B


P2: Tutti i B sono C

richiede una conclusione basata su un solo modello.


Perciò le risposte previste per ciascun tipo di soggetto
sono:
tipo l : Tutti gli A sono C (primo modello)
tipo 2: Tutti gli A sono C (primo modello)
tipo 3: Tutti gli A sono C (primo modello)
tipo 4: Tutti gli A sono C (primo modello)
tipo 5: Tutti gli A sono C (primo modello)

Il sillogismo
P l : Alcuni A non sono B
P2: Nessun B è C

richiede una conclusione basata su due modelli.


Le risposte previste per ciascun tipo di soggetto sono:
tipo l: Nessun A è C (primo modello)
tipo 2: Nessuna conclusione valida (secondo modello)
tipo 3: Nessuna conclusione valida (secondo modello)
tipo 4: Nessuna conclusione valida (secondo modello)
tipo 5: Nessuna conclusione valida (più di un modello)

Il sillogismo
P l : Nessun A è B
P2: Qualche A è B

313
richiede la costruzione di tre modelli e una conclusione data
scandendo il modello in modo inverso. Le risposte previste
per ciascun tipo di soggetto sono:
tipo l : Nessun A è C (primo modello)
tipo 2: Alcuni A non sono C (secondo modello)
tipo 3: Nessuna conclusione valida (terzo modello)
tipo 4: Alcuni C non sono A (terzo modello, inverso)
tipo 5: Nessuna conclusione valida (più di un modello)

Il programma SYLLY si dimostra in grado di riprodurre le


prestazioni umane non su basi statistiche, ma simulando
soggetti individuali, rispettando le loro differenze.
Per quanto riguarda l'equivalenza di procedure fra pro­
gramma e soggetti umani, è possibile verificare i passi inter­
medi nel processo di ragionamento, interrompendo l'elabo­
razione dei dati prima di ottenere l'uscita normale, e con­
frontando tali uscite intermedie con le risposte date dai sog­
getti quando si dà loro una limitazione nel tempo di elabora­
zione, costringendoli perciò a produrre delle "conclusioni in­
termedie".
In uno degli esperimenti riportati di Johnson-Laird e Ba­
ra, si è richiesto ai soggetti di dare una risposta entro 10 se­
condi; successivamente si presentava loro di nuovo il sillogi­
smo insieme con la loro prima risposta, dando loro il tempo
necessario per cambiare la risposta, se lo ritenevano oppor­
tuno. Con questa procedura si è ottenuto uno stadio interme­
dio di elaborazione a l O secondi, con una procedura analoga
quello a 60 secondi e, in ultimo, le risposte definitive.
Il programma può riprodurre queste prestazioni, per cia­
scun tipo di soggetto, dando differenti conclusioni a seconda
del livello di elaborazione consentito. Inoltre, il tempo di cal­
colo del programma è proporzionale al tempo che ciascun
soggetto richiede per risolvere i sillogismi. Il tempo di elabo­
razione può essere differente per diversi soggetti: per esem­
pio, nel sillogismo che richiede tre modelli i soggetti di tipo
l costruiscono un solo modello per raggiungere la loro con­
clusione, mentre i soggetti di tipo 2 e 5 costruiscono due mo­
delli e i soggetti di tipo 3 e 4 tre modelli. Sperimentalmente,
è stato dimostrato che il tempo di elaborazione delle risposte
cresce col crescere del numero dei modelli che il soggetto
prende in considerazione. Come già accennato, il tempo di
elaborazione del programma corrisponde in modo proporzio­
nale ai tempi registrati per i soggetti sperimentali.
In conclusione, SYLLY simula le prestazioni individuali, gli
stadi intermedi e il tempo di elaborazione umano, rispettan­
do così i criteri che definiscono il successo di un modello si-

314
mulativo; si può perciò affermare che il programma ripro­
duce non solo che cosa fanno gli esseri umani quando effet­
tuano inferenze sillogistiche, ma anche come lo fanno.

Il ragionamento quotidiano

La maggior parte delle attività inferenziali compiute nel­


la vita di tutti i giorni non consiste di deduzioni logiche simi­
li a quelle esaminate nel paragrafo precedente. L'attività in­
ferenziale che chiamiamo ragionamento quotidiano si carat­
terizza perché tratta situazioni in cui i dati necessari per
produrre conclusioni informative non sono sempre esplicita­
ti; è pertanto indispensabile attingere alla conoscenza del
mondo, cioè a un insieme di conoscenze specifiche che ri­
guardano oggetti, individui, fatti e le loro reciproche relazio­
ni. Il dover trattare con conoscenze incomplete significa ra­
gionare non solo su fatti la cui evidenza è definita in positi­
vo, ma anche su fatti di cui non è data evidenza negativa (ra­
gionamento pe r default); è perciò necessario generare aspet­
tative in base alla conoscenza di situazioni stereotipate, for­
mulare ipotesi attraverso processi di induzione, ragionare
per analogie; si procede così attraverso una serie di assun­
zioni arbitrarie che pos sono in seguito essere dimostrate fal­
se. È chiaro che non si può parlare di inferenze valide nel
senso logico-formale del termine, ma siamo nell'ambito delle
inferenze possibili o plausibili (Simon, 1 983).
Per quanto riguarda l'aspetto epistemologico del ragiona­
mento quotidiano, distinguiamo almeno due fondamentali
ambiti di conoscenza:
a) conoscenza sui fenomeni fisici del mondo; cioè fatti ed
eventi fisici nonché relazioni causali e temporali;
b) conoscenza su stati mentali intenzionali e non, nonché
delle loro relazioni causali e temporali.
In quest'ottica, la causalità assume un ruolo chiave in
quanto organizza la costruzione di modelli complessi che
permettono di porre in relazione gli eventi fra loro.
Come già discusso in un precedente lavoro (Bara, Caras­
sa, Geminiani, 1 984) proponiamo uno schema che definisce
in termini psicologici gli elementi costitutivi di una relazione
causale.
Lo schema rappresenta i ruoli giocati dai fatti in una in­
terpretazione soggettiva di una relazione causale. Il nucleo
di una relazione causale è costituito da un legame causa-ef­
fetto fra eventi, che tuttavia non sarebbe significativo, se
considerato isolatamente. Noi riteniamo infatti che in una

315
relazione causale l'evento-effetto segua l'evento-causa con un
elevato grado di aspettativa solo se si verificano determinate
condizioni abilitanti. La valutazione di un insieme di tali
condizioni da parte di chi ragiona è perciò necessaria per
giustificare il legame causa-effetto che viene postulato. In
questo modo, il grado di aspettativa di un medesimo legame
condizioni ab litanti
f
evento-causa -+ evento-effetto

muta al variare del numero e della qualità delle condizioni


abilitanti poste. Stabilire una relazione causale è perciò
un'attività creativa, basata su un'interpretazione soggettiva
dei fatti. Per esempio, consideriamo i seguenti fatti:
F l : Alberto fu morso da un serpente
F2: Alberto morì

Il sostenere un legame causa-effetto fra F l e F2, richiederà di


individuare il sussistere di alcune condizioni, quali, ad esempio:
C l : Alberto era di debole costituzione

oppure
C2: Non gli fu iniettato alcun antidoto

oppure
C3: L'antidoto gli fu iniettato in ritardo

e altro ancora.
Come sarà evidente anche introspettivamente al lettore, è
possibile produrre un'ampia varietà di condizioni, che verifi­
cano o meno un determinato legame; la ricchezza di ipotesi
alternative suggerisce non tanto l'uso di leggi precostituite,
quanto piuttosto un'attività di esplorazione di modelli che
rappresentino aspetti significativi dei fatti descritti. Ciò ren­
de anche conto della novità delle conclusioni che possiamo
trarre di volta in volta e della possibilità di scoprire aspetti
di una situazione precedentemente mai considerati. Il mani­
polare un modello analogico di un processo di causalità fisi­
ca permette di simulare mentalmente l 'evolvere di una situa­
zione, considerando nella loro globalità le conseguenze di al­
cuni fattori che interagiscono causalmente. Nel modello ana­
logico di un processo di avvelenamento, come quello rappre­
sentato nella figura l , si può contemporaneamente tenere
traccia di come il veleno fluisca nell'organismo, della possi­
bile interazione fra il veleno e l'antidoto introdotto in tempi

316
diversi, della possibilità di deviare o di rallentare il flusso
del veleno, o ancora degli effetti di diverse quantità di veleno
in rapporto alla resistenza dell'organo bersaglio.
In un modello di questo tipo, il veleno assume il ruolo di
agente causale che agisce per contatto con l'organo bersa­
glio; è il realizzarsi di tale contatto attraverso il flusso del
veleno nell 'organismo l'aspetto cruciale per il verificarsi del
legame causale. In questo senso il modello è analogico ri­
spetto alle caratteristiche del mezzo attraverso il quale av­
viene il contatto.
Ricordando che la nostra tesi di fondo è che ogni attività
di ragionamento sia dominata da alcuni principi generali,
che valgono sia nell'ambito del ragionamento deduttivo che
nelle inferenze inerenti al ragionamento quotidiano, illustre­
remo ora come i tre principi generali che abbiamo analizzato
per il ragionamento deduttivo, si realizzino nel dominio del
ragionamento quotidiano.
l . La fase di interpretazione corrisponde alla costruzione
di un modello di uno specifico processo causale. Facendo ri­
ferimento alla conoscenza generale sul mondo, si cerca di at­
tribuire a uno dei fatti descritti nelle premesse, il ruolo di
evento-causa in una relazione causale. Riteniamo infatti che
nella conoscenza generale, siano rappresentati esplicitamen­
te dei legami causa-effetto, che rendono immediata l'attribu­
zione dei ruoli. Si tratta di una conoscenza schematica, che
esprime in modo unitario, non ulteriormente analizzabile,
una sequenza di fatti altamente probabile. Così nell'esempio
che abbiamo precedentemente esaminato possiamo ipotizza­
re una struttura di rappresentazione del tipo:
X morso dal serpente -+ X muore

Per valutare la plausibilità di tale legame in relazione alla


specifica situazione descritta, viene costruito un modello del
processo causale, che analizza, scomponendolo temporal­
mente, il divenire del legame causa-effetto (fig. 1). Sottoli­
neiamo che nel modello vengono rappresentate le caratteri­
stiche fisiche del mezzo, attraverso cui avviene l'azione del­
l'agente causale sullo specifico bersaglio.
La scelta di tali caratteristiche del mezzo corrisponde al­
l'individuazione di aspetti, o parametri, ritenuti determinan­
ti del modo in cui il processo di interazione causale si svolge.
Ad esempio, nel modello della circolazione del sangue, il rite­
nere che i condotti siano elastici può generare la credenza
che si possa intervenire per bloccare il flusso del veleno mo­
dificando la sezione del condotto con l'applicazione di lacci.

317
2. La fase di integrazione corrisponde all'attribuzione di
valori ai parametri del modello, sulla base dei fatti espressi
nelle premesse o di conoscenza stereotipa; il modello viene
fatto evolvere nel tempo simulando così l'interazione dei di­
versi fattori implicati (fig. 2).
Ad esempio, l'introduzione tardiva di un antidoto non im­
pedirà l'azione dannosa del veleno, ormai prossimo all'orga­
no bersaglio. L'evoluzione temporale del modello genera uno
stato finale del processo causale, che costituisce una conclu­
sione possibile.
3. La fase di falsificazione ha lo scopo di valutare il gra­
do di plausibilità di una conclusione prodotta.
Un modello può essere falsificato, operando ricorsiva­
mente a livello della fase di interpretazione o a livello della
fase di integrazione. Nel primo caso, le premesse iniziali ven­
gono reinterpretate, costruendo modelli alternativi; ciò si­
gnifica individuare differenti aspetti, o parametri, preceden­
temente non considerati (figg. 3 e 5).
Riferendoci sempre al nostro modello di avvelenamento,
un primo modello in cui si è considerato l'effetto dell'intro­
duzione di un antidoto, può essere sostituito da un modello
in cui si considera anche l'effetto dell'applicazione di un lac­
cio al di sopra della ferita.
Nel secondo caso, la falsificazione avviene, attribuendo
valori differenti ai parametri considerati, in modo compati­
bile con i fatti descritti (fig. 4). Ciò avviene, ad esempio,
quando si considerano tempi diversi dall'introduzione del­
l'antidoto.
Per entrambe le modalità di falsificazione, l'evoluzione
temporale dei modelli alternativi così ottenuti genera con­
clusioni fra loro più o meno compatibili, dove è possibile at­
tribuire un grado diverso di credibilità o di probabilità alle
diverse conclusioni.

3 18
MODELLO DI UN PROCESSO DI AVVELENAMENTO

LUOGO DI
INOCULAZIONE
E CANALE 01--l::::::
ASSORBIMENTO

Figura l. - Interpretazione
X muore

to t1 t3 t1o t2s

Figura 2. -Fase d'integrazione


X si inietta
un antidoto

-;i
la t10 t11 t20 �5

Figura 3.- Fase di falsificazione


X muore
X si inietta un (l'antidoto è stato
antidoto iniettato troppo tardi)

Figura 4.
X si applica X si Inietta
un laccio un antidoto X si salva

Figura 5.
Conclusioni

I punti essenziali dell'approccio basato sui modelli men­


tali, per quel che riguarda l'area del pensiero, sono due.
Il primo punto consiste nell 'assunzione che non vi sia una
gerarchia che correli i diversi tipi di pensiero ponendo al
vertice il ragionamento formale e in posizione subalterna
tutti gli altri, versioni imperfette del primo.
L'argomentazione propria della psicologia evolutiva, che
identifica nel pensiero formale il livello massimo dello svi­
luppo intellettuale, in virtù del fatto che è l'ultimo a mo­
strarsi nella crescita cognitiva dell'individuo, non è suffi­
ciente. Il puro e semplice criterio dell'emergenza temporale
non dimostra di per sé il primato del formale: altri tipi di
pensiero, come la capacità di riflettere su se stessi, o di ana­
lizzare i propri stati mentali, emergono in tempi ancora suc­
cessivi intorno all'adolescenza, rispetto alla capacità di ra­
gionare formalmente, situabile intorno ai dodici anni; non
per questo è stato postulato che l'analisi e la riflessione su di
sé costituiscano un ulteriore passo evolutivo. Per fare un pa­
rallelo col campo dell'azione, l'abilità motoria di suonare il
pianoforte viene certamente acquisita dal bambino in un
tempo posteriore a quella di schiacciare un pulsante, ma non
per questo può essere considerata a un livello gerarchico più
alto. È una specializzazione motoria, un particolare struttu­
rarsi di una serie di competenze di base, non lo svilupparsi
di una capacità più essenziale, che poi possa fungere da pa­
radigma di confronto con altri tipi d'azione, se non addirittu­
ra soppiantarli Più complesso non vuol dire più importante,
o più fondamentale.
Il secondo punto è che il pensiero non è costituito da una
serie di procedure astratte, indipendenti dal dominio, ma da
un insieme di modelli specifici per l'area d'applicazione, che
utilizzano processi di elaborazione caratteristici per quel ti­
po di modello. Ciò che accomuna i diversi processi di pensie­
ro è il loro svolgersi realizzando una serie di principi genera­
li che, in sintesi, sono: interpretazione, integrazione, falsifi­
cazione.
Il nostro approccio si pone esplicitamente in contrasto
sia con la scuola rappresentata tipicamente da McCarthy
(McCarthy, Hayes, 1 969) in Intelligenza Artificiale, in quanto
non pensiamo che le abilità cognitive umane possano essere
modellate con una logica classica, sia contro le assunzioni di
base dell'epistemologia genetica di Jean Piaget, in quanto as­
sumiamo che il pensiero formale non sia uno stadio evoluti-

324
vo superiore, né che possa servire utilmente da schema di ri­
ferimento per gli altri tipi di pensiero.
Esperimenti diversi e nuove simulazioni sono ovviamente
necessari per confortare l'ipotesi dei modelli mentali e per
affrontare con successo i suoi punti deboli, come il rischio di
frammentare eccessivamente i processi di pensiero, renden­
doli troppo dipendenti dalla specifica area di applicazione.
I suoi punti di forza, la coerenza interna e la capacità di
affrontare con l'identica struttura la complessità del pensie­
ro, sono comunque sufficienti per continuare sulla linea dei
modelli mentali che stiamo seguendo.

RIFERIMENTI BIBLIOGRAFICI
Airenti, G., Bara, B.G. e M. Colombetti (1982), Semantic network re­
presentation of conceptual and episodic knowledge, in R.
Trappl, N.V. Findler e W. Horn (a cura di), Progress in Cyberne­
tics and System Research, IX, Hemisphere, Washington, pp. 327-
335.
Bara, B.G., Carassa, A. e G. Geminiani (1984), Inference processes in
everyday reasoning, in l. Plander (a cura di), Artificial intelligen­
ce and information-control systems of robots, North-Holland,
Amsterdam, pp. 87-90.
Bara, B.G., Carassa, A., e G. Geminiani (1987), Il ragionamento in
un'ottica computazionale, in "Ricerche di psicologia", 3, pp. 93-
122.
Boolos, G.S. e R.C. Jeffrey (1980), Computability and logic, Cam­
bridge University Press, Cambridge.
Evans, J. St. B.T. (1982), The psychology of deductive reasoning,
Routledge and Kegan Paul, London.
Gentner, D. e A.L. Stevens (a cura di) (1953), Menta[ models, Law­
rence Erlbaum Associates, Hillsdale (N.J.).
Johnson-Laird, P.N. (1983), Menta[ models, Cambridge University
Press, Cambridge.
Johnson-Laird, P.N. e B.G. Bara (1984), Syllogistic inference, in "Co­
gnition", 16, pp. 1-61.
Kneale, W. e M. Kneale (1962), The development of logic, Clarendon
Press, Oxford.
McCarthy, J. e P.J. Hayes (1969), Some philosophical problems from
the standpoint of artificial intelligence, in B. Meltzer, D. Michie
(a cura di), Machine Intelligence, Edinburgh University Press,
Edinburgh.
McDermott, D. e J. Doyle (1980), Non monotonic logic, in "Artificial
Intelligence", 13, pp. 41-72.
Piaget, J. (1969), Logica e psicologia, La Nuova Italia, Firenze.
Pylyshyn, Z. (1984), Computation and cognition, Cambridge Univer­
sity Press, Cambridge.

325
Reiter, R. (1980), A logic for default reasoning, in "Artificial Intelli­
gence", 13, pp. 81-132.
Simon, H.A. (1983), Reason in human affairs, Stanford University
Press, Stanford (Ca.) (trad. it. La ragione nelle vicende umane, Il
Mulino, Bologna 1984).
Turing, A. (1950), Computing machinery and intelli,gence, in "Mind",
59 (trad. it. in V. Somenzi [a cura di], La filosofia degli automi,
Boringhieri, Torino 1965).
Zadeh, L.A. (1975), Fuzzy logic and approximate reasoning, in "Syn­
these", 30.

326
Senso dell'io
di Domenico Parisi

C'è qualcosa che gli esseri umani hanno e che si può chia­
mare "senso dell'io". Come dovrebbe essere fatta una mac­
china perché si possa dire che ha senso dell'io ? Quali sue
prestazioni giustificherebbero l'attribuzione alla macchina
di un senso dell'io?
Una delle prove che gli esseri umani hanno senso dell'io è
che sanno produrre frasi che contengono la parola "io".
Quindi, il problema sarebbe quello di costruire macchine
che producano frasi contenenti la parola "io". Naturalmente,
il fatto di produrre frasi con la parola "io" può essere visto
come un criterio puramente operazionale del possesso di un
senso dell'io, mentre possedere tale senso dell'io andrebbe
ben oltre la capacità di produrre frasi con la parola "io".
Tuttavia, come si vedrà, il saper produrre frasi con la parola
"io", se esteso a tutta la varietà di casi in cui l'essere umano
è capace di produrre questo tipo di frasi, ci fa entrare abba­
stanza dentro a cosa significa possedere un senso dell'io.

Cosa vuol dire "produrre" una frase ? Non è certamente


soltanto produrre dei suoni, cioè i suoni della frase. Questo
anche un registratore o un disco lo sanno fare. Significa pro­
durre questi suoni volendo comunicare delle idee o cono­
scenze mediante quei suoni. Una macchina di questo tipo è
fatta di due parti. Una parte è un sistema per estrarre da un
deposito di conoscenze un insieme di conoscenze esprimibili
con una frase ben formata di una data lingua e per seleziona­
re le parole adatte a esprimere questo insieme di conoscen­
ze. (Un sistema del genere è GEMS. Vedi Parisi e Giorgi, 1 985.)
Questo è un sistema che sa come dire le cose (cioè come dirle

327
in modo linguisticamente corretto), ma non sa cosa dire. La
seconda parte della macchina che produce frasi è un sistema
guidato da scopi e che sceglie cosa dire in base ai suoi scopi:
la frase è prodotta in vista di uno scopo specifico che la mac­
china ha in quel momento.
Poniamo che una macchina del genere sia stata costruita.
Una tale macchina non si può dire che di per sé abbia senso
dell'io. Mettiamo allora che tra le frasi che la macchina pro­
duce vi siano anche frasi che contengono la parola "io". Che
differenza fa?
Vediamo innanzitutto cosa vuol dire produrre frasi che
contengono la parola "io". Noi esamineremo solo un caso
particolare di produzione di frasi contenenti la parola "io", il
caso in cui la macchina produce tali frasi in risposta a do­
mande di informazione sull'entità chiamata "io". Si tenga
tuttavia presente che vi sono altri usi delle frasi contenenti
la parola "io", o anche prive di tale parola, che andrebbero
esaminati per illuminare il concetto di senso dell'io.
Poniamo che alla macchina venga chiesto: "Dove è nato
Franco ?", e la macchina risponda: "Franco è nato a Berga­
mo." Per rispondere a questa domanda la macchina cerca
l'informazione nel suo deposito di conoscenze, che è concepi­
to come un irtsieme di "nodi" che rappresentano entità e di
"archi" che si dipartono da questi nodi e che rappresentano
le conoscenze che la macchina ha su ciascuna entità. La mac­
china ha un particolare nodo che rappresenta l'entità Franco
e attaccata a questo nodo ha la conoscenza che tale entità è
nata a Bergamo. La domanda contiene una parola (''Franco")
che consente alla macchina di individuare il nodo di Franco
fra i tanti nodi contenuti nel suo deposito di conoscenze.
Questo è possibile perché tra le conoscenze attaccate al nodo
vi è anche la conoscenza che per riferirsi a quel nodo si può
usare la parola "Franco". Trovato il nodo e trovata, attaccata
ad esso, la conoscenza richiesta, la macchina dà la sua ri­
sposta.
Consideriamo ora la domanda "Dove sei nato ? " Poniamo
che la macchina abbia un particolare nodo individuabile me­
diante un segnale linguistico quale la seconda persona singo­
lare del verbo (''sei") o, in altri casi, mediante una parola co­
me "tu". A questo nodo è attaccata la conoscenza che l'entità
rappresentata dal nodo è nata a Roma. A questo punto, alla
domanda "Dove sei nato? " la macchina reagisce trovando il
nodo in questione mediante il segnale linguistico contenuto
nel verbo "sei", e trovando attaccata a questo nodo la cono­
scenza che tale entità è nata a Roma. Quindi produce la frase
"lo sono nato a Roma". Questa seconda frase contiene la pa-

328
rola "io". Ma la produzione di questa frase non pone proble­
mi particolari rispetto all'esempio precedente, quello di
Franco. Alla domanda "Dove è nato Franco ? " la macchina ri­
sponde usando la parola "Franco ", cioè la stessa parola che
era stata usata nella domanda per consentire alla macchina
di individuare il nodo di Franco. Nel caso di "Io sono nato a
Roma" la macchina usa la parola "io" per indicare il nodo
che ha trovato mediante la parola "sei" contenuta nella do­
manda. La sola differenza è che nel caso dei normali nodi la
macchina sa ·che può usare nella sua risposta la stessa paro­
la usata nella domanda: "Franco". Nel caso del particolare
nodo di cui stiamo parlando la macchina sa che questo non è
possibile. Nella domanda il nodo in questione è indicato con
"tu" o la seconda persona singolare del verbo, mentre nella
risposta della macchina questo nodo deve essere indicato
con la parola "io" o la prima persona singolare del verbo.
Questa differenza è interessante e può porre interessanti
problemi per una macchina che debba imparare a trattare
linguisticamente in modo diverso questo nodo rispetto agli
altri. Tuttavia, una macchina che produca la parola "io" nel­
le circostanze che abbiamo detto non si può ancora dire in
alcun modo che abbia senso dell'io.
Consideriamo ora un'estensione della macchina. La mac­
china possiede una capacità inferenziale, in base alla quale,
data una o più conoscenze, può generare internamente una
conoscenza nuova. Poniamo che la richiesta di informazione
riguardi una conoscenza che la macchina non ha già bella e
pronta attaccata al nodo. Tuttavia, S(:! la macchina ha capaci­
tà inferenziale, la conoscenza può essere generata intera­
mente e la risposta può essere data ugualmente. Questo può
avvenire sia per i normali nodi che per il particolare nodo
che la macchina deve indicare usando la parola "io". Anche
se la macchina sa produrre frasi contenenti la parola "io" ba­
sandosi su conoscenze inferite e non già possedute, nulla ci
autorizza a dire che la macchina ha senso dell'io.
Finora produrre frasi contenenti la parola "io" non pre•
suppone nessuna capacità più complessa del semplice pro­
durre frasi, e quindi non sembra che abbia molto senso dire
che basta che una macchina sappia produrre frasi con la pa­
rola "io" per dire che la macchina ha senso dell'io. Una qual­
che capacità più complessa sembra implicata se la macchina
deve produrre frasi con la parola "io" nel discorso diretto:
"Franco ha detto: 'lo ... "' In questo caso la parola "io" non
può essere una parola che il sistema usa per riferirsi a un
singolo specifico nodo nel suo deposito di conoscenze. Tutta­
via, anche se l'uso di "io" nel discorso diretto complica le co-

329
se e richiede capacità aggiuntive, non sembra ancora che
una macchina capace di usare la parola "io" nel discorso di­
retto abbia solo per questo un senso dell'io.
La strada da seguire per arrivare al senso dell'io parten­
do dal linguaggio è un'altra. Si consideri la questione dell'o­
rigine della conoscenza usata dalla macchina nel dare la sua
risposta. Noi abbiamo visto finora due casi:
A. La conoscenza è già attaccata al nodo
B. La conoscenza non è attaccata al nodo ma la macchina la ge­
nera internamente inferendola dalle conoscenze già esi­
stenti.

Come abbiamo visto, questi due casi non differenziano


tra le frasi contenenti la parola "io" e le altre frasi, almeno
dal punto di vista che ci interessa, cioè stabilire se le frasi
del primo tipo presuppongano un senso dell'io. Ma vi sono
altre origini delle conoscenze usate nel rispondere alle do­
mande. Ad esempio, alla domanda "Che ora è ? " si risponde
di regola usando una conoscenza che non rientra né nel caso
A né nel caso B. Si risponde infatti guardando l'orologio. Ab­
biamo cioè una terza origine delle conoscenze: le conoscenze
vengono acquisite attraverso la percezione esterna, cioè
C. La conoscenza non è attaccata al nodo ma la macchina la ac­
quisisce attraverso la percezione esterna.

Il caso C si ha prevalentemente con frasi che non conten­


gono la parola "io". Tuttavia, anche frasi che contengono la
parola "io" possono rientrare nel caso C. Ad esempio: "Di che
colore Luisa ti ha dipinto le unghie ?" Risposta della macchi­
na che si guarda per la prima volta le unghie: "lo ho le un­
ghie dipinte di blu." Questo indica che anche il caso C non
differenzia tra frasi con e senza la parola "io" e quindi non ci
è di aiuto per definire il senso dell'io.
Tuttavia la situazione C introduce qualcosa di nuovo che
vale la pena di essere notato. Perché la macchina possa pro­
durre frasi con la parola "io" nel caso C la macchina deve
avere un "corpo", uno hardware. Si consideri che questo non
era vero nei casi A e B. In questi due casi la macchina, il si­
stema, poteva non avere un corpo, uno hardware, tranne nel
senso che la mente del sistema, il suo software, deve essere
necessariamente incorporato in uno hardware per girare.
Nel caso C, invece, il sistema deve possedere un corpo e lo
deve possedere per due ragioni. La prima ragione è che per
poter acquisire conoscenze attraverso la percezione esterna,
la macchina deve essere dotata di organi di senso, cioè di

330
qualcosa di fisico (hardware) capace di trasformare materia/
energia in informazione (percezione). Questo è vero per il ca­
so C in tutte le circostanze, cioè sia quando il caso C è la ba­
se per produrre frasi senza la parola "io" che quando è la ba­
se per produrre frasi con la parola "io". Le frasi di questo se­
condo tipo, tuttavia, comportano un'altra ragione per cui è
necessario che il sistema abbia un corpo. Per produrre frasi
con la parola "io" nel caso C il sistema deve avere un corpo
perché è tale corpo che deve essere visto, sentito, toccato dal
sistema per acquisire le conoscenze da usare nelle risposte.
Ma anche se il caso C è interessante per queste implicazioni
riguardanti la necessità che il sistema abbia un corpo, tutta­
via resta vero che un sistema che produca frasi con la parola
"io" nel caso C non ci dice ancora molto sul senso dell'io.
Ma consideriamo altre due possibili origini delle cono­
scenze usate come base per produrre frasi contenenti la pa­
rola "io". Questi due nuovi casi secondo noi hanno un signifi­
cato critico per la questione del senso dell'io. Il primo caso è
quello della percezione interna. Il sistema non solo ha un
corpo, uno hardware, ma ha degli organi di senso interni che
acquisiscono informazioni su questo corpo.
D. La conoscenza non è attaccata al nodo ma la macchina la ac­
quisisce attraverso la percezione interna.

Nel caso C abbiamo parlato di percezione esterna; ora


parliamo di percezione interna. Cosa vuol dire "esterno/in­
terno ?" La risposta è semplice. Diciamo che è esterna una
percezione quando è accessibile a più sistemi. Acquisire co­
noscenze su questo tavolo o sulla mia mano è qualcosa che
più sistemi diversi possono fare. Invece diciamo che una per­
cezione è interna quando è accessibile solo a un singolo si­
stema. Soltanto Franco può avere accesso al suo mal di sto­
maco, o alla sua sensazione di avere il braccio sollevato in
alto. È evidente che le percezioni interne sono conoscenze
che riguardano il corpo dello stesso sistema che acquisisce
le conoscenze. Anzi si potrebbe dire che per il sistema il suo
corpo - un nodo tra gli altri nel suo deposito di conoscenze
- è almeno in parte ciò su cui acquisisce conoscenze me­
diante la percezione interna, cioè la percezione riservata a
lui.
La nostra impressione è che per la prima volta siamo di­
sposti a dire che un sistema che produca frasi contenenti la
parola "io" nel caso D, cioè frasi basate su conoscenze acqui­
site mediante la percezione interna, ha senso dell'io. Si badi
che non basta avere percezione interna per avere senso del­
l'io, ma bisogna saper produrre frasi contenenti la parola

331
"io" basate sulla percezione interna. Questo è importante per
spiegare perché agli animali escluso l'uomo siamo meno di­
sposti a riconoscere un senso dell'io, benché essi con tutta
probabilità abbiano una percezione interna. Ma gli animali
non parlano.
Ma vi è un'ultima possibile origine delle conoscenze che,
a nostro parere, ha un ruolo nel definire il senso dell'io del
sistema. Noi abbiamo usato la distinzione comune tra soft­
ware e hardware. Le conoscenze del caso D sono conoscenze
sul corpo del sistema, sul suo hardware. Noi assumiamo che
un sistema possa acquisire conoscenze anche sul suo softwa­
re, e che possa produrre frasi contenenti la parola "io" anche
in questa nuova situazione:
E. La conoscenza non è attaccata al nodo ma la macchina la ac­
quisisce esaminando il suo proprio software.

Si badi che questa situazione non ha nulla a che fare con


il caso B, quella in cui il sistema genera una nuova conoscen­
za sulla base delle conoscenze già contenute nel suo deposito
di conoscenze. Questo implica una distinzione abbastanza
netta all'interno del software del sistema tra il contenuto del
deposito di conoscenze del sistema e il resto del suo softwa­
re. Nel caso B il sistema resta all'interno del suo deposito di
conoscenze: mediante la capacità di inferenza genera una co­
noscenza nuova sulla base delle conoscenze già presenti nel
deposito. Nel caso E il sistema esce dal suo deposito di cono­
scenze ed esamina il suo sofware che sta fuori di tale deposi­
to e da questo esame ricava delle conoscenze nuove su tale
suo software (ad esempio sui suoi scopi, capacità, limiti, sta­
to presente, operazioni appena compiute, in via di svolgi­
mento, pianificate, ecc.). In un certo senso il caso E è simile
ai casi C e D visti in precedenza, quelli della percezione
(esterna e interna). In tutti questi casi, il sistema esce dal suo
deposito di conoscenze e va ad acquisire conoscenze fuori di
esso. La differenza tra i casi C e D, da un lato, e il nuovo ca­
so E che stiamo descrivendo, è che nei casi C e D il sistema
acquisisce conoscenze mediante la percezione (trasformazio­
ne da materia/energia a informazione), e dal punto di vista
che ci interessa, acquisisce conoscenze sul proprio corpo
(hardware), mentre nel caso E le conoscenze sono acquisite
non mediante la percezione (non ci sono organi di senso né
trasformazione di materia/energia in informazione) e le co­
noscenze acquisite sono sulla mente stessa (software), non
sul corpo del sistema.
Se un sistema è capace di produrre frasi contenenti la pa­
rola "io" basandosi su conoscenze acquisite nella situazione

332
E, questo è un altro caso in cui si può dire che il sistema ha
senso dell'io. Si osservi che mentre agli animali si può attri­
buire la percezione interna, è più difficile attribuire loro la
capacità di acquisire conoscenze sul proprio stesso software.
Tuttavia, anche in questo caso preferiremmo dire che un si­
stema ha senso dell'io soltanto se, oltre a essere capace di
acquisire conoscenze sul proprio stesso software, è anche ca­
pace di esprimere queste conoscenze mediante frasi conte­
nenti la parola "io".

Abbiamo parlato, descrivendo i casi C, D e E, di acquisi­


zione di conoscenze che vengono attaccate al nodo cui il si­
stema si riferisce linguisticamente con la parola "io". Ma co­
me fa il sistema a sapere che una conoscenza acquisita è una
conoscenza da attaccare a quel nodo ? Nel caso E, quello del­
le conoscenze riguardanti il proprio software, si può dire
che qualunque conoscenza acquisita direttamente su un soft­
ware è necessariamente una conoscenza acquisita sul pro­
prio software, dato che il proprio software è l'unico softwa­
re su cui un sistema può acquisire conoscenze direttamente.
Ovviamente, il termine critico in questa formulazione è il
termine "direttamente".
Nel caso D, quello della percezione interna, abbiamo già
detto che ogni conoscenza proveniente dagli organi di senso
interni (cioè accessibili al solo sistema che li ha) è automati­
camente conoscenza sul proprio corpo. (Qui stiamo assumen­
do che il proprio corpo e il proprio software siano uno stes­
so nodo all'interno del deposito di conoscenze del sistema.
Più probabilmente si tratta di due nodi distinti ma collegati.)
Nel caso C, quello della percezione esterna del proprio
corpo, probabilmente valgono le regole generali usate nella
percezione esterna per attaccare a uno stesso nodo varie co­
noscenze percettive (es. continuità spaziale) e in più, per ren­
dersi conto che il proprio corpo non è solo un corpo unita­
rio, ma è anche il corpo proprio, valgono criteri del tipo
"quello che riesco a muovere direttamente è il mio corpo" o
"quello che se stimolato dall'esterno, produce in me certe
sensazioni, è il mio corpo".

Concludendo, emergono due criteri per attribuire un sen­


so dell'io a un sistema, sia esso naturale o artificiale. Prima
di tutto un senso dell'io può essere attribuito non semplice­
mente a un sistema che ha conoscenze su di sé ma solo a un
sistema che è capace di acquisire conoscenze su di sé - sul

333
proprio corpo o sulla propria mente. Noi potremmo costrui­
re una macchina e mettere nel suo deposito di conoscenze
tra le altre conoscenze anche alcune conoscenze sulla mac­
china stessa. Ma in queste circostanze non saremmo disposti
a dire che la macchina ha un senso dell'io. Se invece la mac­
china ha la capacità di esplorare spontaneamente il suo
hardware e il suo software e di acquisire autonomamente
nuove conoscenze su di sé - conoscenze legate alle attività
della macchina e ai cambiamenti che ne risultano nella mac­
china - allora potremmo cominciare a dire che la macchina
ha un senso dell'io.
Un secondo criterio per parlare di senso dell'io è che la
macchina deve essere capace di esprimere queste conoscen­
ze acquisite su di sé mediante frasi contenenti la parola "io".
Perché riteniamo che il senso dell'io deve essere legato alla
capacità di parlare ? Saper usare il linguaggio (umano) ri­
chiede che ciò che il sistema sa sia rappresentato a un livello
che viene usualmente chiamato "concettuale". Il problema
per il sistema è di essere capace di tradurre le conoscenze
acquisite sui propri hardware e software in concetti. Natu­
ralmente, quello che bisogna fare è definire precisamente co­
sa è un concetto e quali sono le proprietà di quel particolare
modo di rappresentazione delle conoscenze che chiamiamo
concettuale. In ogni caso è per questa ragione che saper pro­
durre la varietà di frasi con la parola "io" che abbiamo di­
scusso in questo lavoro e di cui gli esseri umani sono capaci,
non è semplicemente un criterio operazionale per attribuire
un senso dell'io a un sistema ma è qualcosa di più profondo.

334
Conoscenza visiva e rnotoria
di Pietro Morasso e Vincenzo Tagliasco

Introduzione

La tendenza a usare tecniche e metodologie tipiche del­


l'Intelligenza Artificiale e dell'informatica per studiare il
cervello umano può essere attribuita alle difficoltà incontra­
te dalla neurofisiologia nel descrivere tale complesso siste­
ma di elaborazione di informazioni, che non può esse