Sei sulla pagina 1di 27

John R.

Searle

IL CERVELLO UN COMPUTER DIGITALE?

http://w3.uniroma1.it/cogfil/cervello.html

Data d'immissione:
Aprile 2003

Ultima modifica:
11 Aprile 2003

John R. Searle (Denver 1932) difficilmente classificabile negli scaffali della filosofia del
Novecento. Scorrendo i titoli dei suoi libri si rischia sempre di sbagliare. Atti linguistici (ed. or.
1969) lo collocherebbe accanto al suo maestro John Austin tra gli oxoniensi del "linguaggio
ordinario". Dell'intenzionalit (ed. or. 1983), farebbe pensare alla fenomenologia husserliana,
ma a sfogliarlo si sbaglierebbe a calcolarlo tra i cosiddetti "continentali". Ci sono i suoi studi
sulla societ: La costruzione della realt sociale (ed or. 1995), per esempio, ma si pu parlare
di un filosofo della societ? Ci sono poi tutti i suoi lavori sulla mente, la coscienza con le
propaggini sull'Intelligenza Artificiale (d'ora in poi IA). Ma possibile considerare Searle come
un semplice filosofo della mente? Soprattutto nelle sue opere pi recenti tutti questi temi
rimandano l'un l'altro in una sintesi che a volte spiazza, ma certamente d luogo ad un
pensiero organico.

L'articolo qui tradotto integra e sviluppa uno dei grandi temi trattati da Searle negli anni
Ottanta: la critica filosofica all'IA. In un celebre articolo del 1980 "Minds, Brains and Programs"
(tr. it. in L'io della mente, Adelphi, ed. or. 1985) - il filosofo americano mette a punto un
argomento contro l'IA, o meglio, contro quella che chiama la versione "forte" dell'IA, che avvia
a una lunghissima discussione sul tema. L'"argomento della stanza cinese" - che Searle
riassume anche nelle pagine che qui presentiamo - dimostrerebbe in sostanza che non
possibile identificare la mente con un programma di computer, quanto si voglia complesso,
come preteso dai sostenitori della IA forte". Searle dimostra che saper operare con dei simboli
- nel caso particolare degli ideogrammi cinesi - in virt di un manuale di regole non significa
comprendere e parlare la lingua cinese. La sola manipolazione dei simboli non basta di per
s a garantire l'intelligenza, la percezione, la comprensione, il pensiero e cos via.... La
discriminante per l'intelligenza, sostiene Searle, la semantica. I calcolatori lavorano
semplicemente su simboli privi di significato. Non conoscono e non associano nessun senso ai
segni che manipolano. Le menti s. Che si tratti di una partita a scacchi o di una lettera
d'amore la macchina non si render mai conto dei "pensieri" che gli sono attribuiti
dall'esterno. Cos si conclude l'"argomento della stanza cinese" e subito si susseguono le
molte reazioni critiche (celebre quella di Douglas Hofstadter, tradotta nel volume citato).

Nel suo articolo del 1990, che qui presentiamo in traduzione, Searle indirizza le sue critiche a
un'altra domanda sottesa a molti studi riguardanti l'IA: se il cervello sia o meno un computer
digitale. La generalizzazione evidente:la questione non pi, infatti, se la mente sia un
software, ma piuttosto se i processi cerebrali siano suscettibili di calcolo. Come si vedr Searle
identifica con questa tesi una peculiare accezione del cognitivismo. L'articolo si conclude con
una risposta negativa. Scrive Searle nelle ultime righe: Non possibile "scoprire" che il
cervello o qualsiasi altra cosa sia intrinsecamente un computer digitale, sebbene sia possibile
attribuirgli un'interpretazione computazionale cos com' possibile per qualsiasi altra cosa. La
chiave del discorso in quell'"attribuirgli un'interpretazione". E' questa la questione teorica di
fondo che pone Searle. Come nasce la capacit di significare il mondo? La soluzione searliana
in termini di "intenzionalit" pu non convincere, ma il problema posto dal filosofo americano
rimane.

Il testo che pubblichiamo, tradotto da Flavio Sorrentino, rispecchia l'ultima bozza dell'articolo di
J. R. Searle, Is the brain a digital computer?, in Proceedings of the American Philosophical
Association 64, 3 (1990), pp. 21-38. L'ultima bozza dellintervento precedente dedicato al
chinese room argument (J. R. Searle, Minds, brains, and programs, in Behavioral and Brain
Sciences 3, 3 (1980), pp. 417-457), acquisita mediante OCR, reperibile in linea presso la
collezione di pre-prints della rivista Behavioral Brain Science

Alessandro Lanni

I. Introduzione. Intelligenza artificiale forte, Intelligenza artificiale debole e


cognitivismo

Ci sono diversi modi di presentare un intervento presidenziale allAmerican


Philosophical Association; quello che ho scelto io consiste semplicemente nel
riferire il lavoro che sto svolgendo ora: un lavoro in corso. Ho intenzione di
presentare alcune delle mie riflessioni esplorative sul modello computazionale
della mente. Lidea alla base del modello computazionale della mente che la
mente sia il programma e il cervello lhardware di un sistema computazionale.
Uno slogan che si incontra spesso dice: La mente per il cervello ci che il
programma per lhardware.

Iniziamo la nostra indagine su questo tema distinguendo fra tre questioni: Il


cervello un computer digitale? La mente un programma per computer? Le
operazioni svolte dal cervello possono essere simulate da un computer digitale?

Affronter la prima questione, non la seconda o la terza. Penso che alla seconda si
possa rispondere in modo decisamente negativo. Dal momento che i programmi
sono definiti in modo puramente formale o sintattico e dal momento che le menti
possiedono un intrinseco contenuto mentale, ne consegue immediatamente che il
programma non pu costituire la mente. La sintassi formale del programma non
sufficiente a garantire da sola la presenza di contenuti mentali. Lho dimostrato
una decina di anni fa nellArgomento della stanza cinese (1980). Un computer, io
ad esempio, potrebbe svolgere i passaggi nel programma grazie a qualche capacit
mentale, come per esempio comprendere il cinese senza capire una parola di
cinese. Largomento si fonda sulla semplice verit logica per cui la sintassi non
corrisponde alla semantica, n di per s sufficiente a determinare la semantica.
Cos la risposta alla seconda domanda ovviamente no.

La risposta alla terza domanda mi sembra egualmente ovvio sia s, almeno per
quanto riguarda linterpretazione naturale. Interpretata naturalmente, la domanda
significa: esiste una descrizione del cervello tale che con quella descrizione si possa
compiere una simulazione computazionale delle operazioni cerebrali? Ma, se si
accoglie la tesi di Church per cui ogni cosa di cui pu essere data una
caratterizzazione sufficientemente precisa come di una sequenza di passi pu
essere simulata su un computer digitale, ne deriva banalmente che la domanda ha
una risposta affermativa. Le operazioni cerebrali possono essere simulate su un
computer digitale nello stesso senso in cui possono essere simulati i sistemi del
tempo atmosferico, il comportamento del mercato di New York o il modello dei
voli di linea sopra lAmerica latina. Allora la nostra domanda non : La mente
un programma?, la cui risposta no; n : Pu il cervello essere simulato?, la
cui risposta s. La domanda : Il cervello un computer digitale?. Per le
intenzioni di questa discussione io sto considerando questa domanda come
equivalente a: I processi cerebrali sono suscettibili di calcolo?.

Si potrebbe pensare che questa domanda perderebbe gran parte del suo interesse
con una risposta negativa alla seconda domanda. Il che vuol dire che si potrebbe
supporre che al di l del fatto che la mente sia un programma, non c nessun
interesse per la domanda se il cervello sia un computer. Ma non questo il punto,
in realt. Persino per quanti ritengono che i programmi non siano i soli elementi
costitutivi dei fenomeni mentali resta ancora aperta una domanda importante:
ammesso che nella mente ci sia altro oltre le operazioni sintattiche di un computer
digitale, nondimeno potrebbe darsi che gli stati mentali siano almeno stati
computazionali e che i processi mentali siano processi computazionali che
operano sulle strutture formali di questi stati mentali. questa, infatti, a mio
parere, la posizione maggiormente condivisa.
Non dico che la visione sia pienamente chiara, ma lidea suona pi o meno cos: a
un certo livello descrittivo i processi mentali sono sintattici; ci sono, per cos dire,
delle frasi nella testa. Queste devono essere non in inglese o in cinese, ma, forse,
nel linguaggio del pensiero (Fodor, 1975). Ora, come tutte le frasi, anche queste
hanno una struttura sintattica e una semantica, o significato, e il problema della
sintassi pu essere separato dal problema della semantica. Il problema della
semantica : come acquisiscono un significato queste frasi nella testa? La questione
pu essere discussa indipendentemente da come il cervello funzioni nellelaborare
queste frasi; tipicamente si suppone che lavori come un computer, eseguendo
operazioni di calcolo sulla struttura sintattica delle frasi nella testa.

Tanto per fare chiarezza sui termini, io chiamo Intelligenza artificiale forte la
visione in cui tutto ci che necessario per avere una mente avere un
programma, Intelligenza artificiale debole la visione in cui processi cerebrali (e
mentali) possono essere simulati con un computer, e cognitivismo, la visione in
cui il cervello un computer.

Questo articolo sul cognitivismo, e sar meglio spiegare fin dallinizio ci che lo
motiva. Se si leggono libri sul cervello (per esempio Shepherd, 1983; oppure
Kuffler e Nicholls, 1976) si trova una certa idea di ci che accade nel cervello. Se si
guarda a libri sulla computabilit (per esempio Boolos e Jeffrey, 1989) si trova
unidea della struttura logica della teoria della computabilit. Se poi ci si rivolge ai
libri sulle scienze cognitive (per esempio Pylyshyn, 1985), essi sostengono che ci
che viene descritto nei libri sul cervello in effetti la stessa cosa che viene
descritta nei libri sulla computabilit. Da un punto di vista filosofico la cosa non
mi convince e ho ormai imparato a seguire, almeno allinizio di una ricerca, il mio
istinto.

II. La Storia originaria

Desidero iniziare la discussione cercando di affermare con la massima chiarezza


possibile perch il cognitivismo mi sia sembrato intuitivamente attraente. Esiste
una storia della relazione tra lintelligenza umana e la computazione che risale
almeno fino al classico scritto di Turing (1950) e io credo che sia da porre l il
momento fondativo della visione cognitivista. Lo chiamer la Storia originaria.

Iniziamo con due risultati di logica matematica: la tesi di Church-Turing (o


equivalentemente, la tesi di Church) e il teorema di Turing. Per quanto ci
riguarda, la tesi Church-Turing afferma che per ogni algoritmo esiste una
macchina di Turing che pu implementare quellalgoritmo. La tesi di Turing dice
che esiste una macchina di Turing universale che pu simulare qualunque
macchina di Turing. Ora, se consideriamo insieme queste due affermazioni
abbiamo come risultato che una macchina di Turing universale pu implementare
un algoritmo qualsiasi.

Cos che rende questo risultato cos eccitante? Ci che mand i brividi su e gi
per la spina dorsale di unintera generazione di giovani ricercatori nel campo
dellintelligenza artificiale il pensiero seguente: Immagina che il cervello sia
una macchina di Turing universale.

Ci sono delle valide ragioni per supporre che il cervello sia una macchina di
Turing universale? Continuiamo con la Storia originaria.

chiaro che almeno alcune abilit mentali delluomo sono algoritmiche. Per
esempio, io posso coscientemente eseguire una lunga divisione seguendo i passi di
un algoritmo destinato alla risoluzione delle divisioni lunghe. Segue, inoltre, dalla
tesi di Church-Turing e dal teorema di Turing che tutto ci che un essere umano
pu fare con un algoritmo pu essere fatto anche con una macchina di Turing
universale. Per esempio posso implementare su un computer esattamente lo stesso
algoritmo che uso per fare una divisione lunga a mano. In questo caso, come ha
scritto Turing (1950), sia io, il computer umano, che il computer meccanico
stiamo implementando lo stesso algoritmo; io lo sto facendo consciamente, il
computer inconsciamente. Ora, sembra ragionevole supporre che ci siano
moltissimi processi mentali che sono attivi nel mio cervello inconsciamente e che
sono anche computazionali. Se le cose stanno cos, allora potremmo scoprire come
funziona il cervello simulando tutti quei processi su un computer. Proprio come
stata realizzata una simulazione al computer dei processi per fare lunghe divisioni,
allo stesso modo potremmo costruire una simulazione al computer dei processi di
comprensione linguistica, percezione visiva, categorizzazione e cos via.

Ma che dire della semantica? Dopo tutto, i programmi sono puramente


sintattici. A questo proposito, un altro insieme di risultati logico-matematici
entra in scena nella nostra storia.

Lo sviluppo della teoria della dimostrazione ha mostrato che, entro limiti ben
definiti, le relazioni semantiche tra proposizioni possono essere interamente
riflesse dalle relazioni sintattiche tra le frasi che esprimono quelle proposizioni.
Ora, supponiamo che nella testa i contenuti mentali siano espressi sintatticamente,
allora tutto ci che dovremmo considerare per i processi mentali sarebbero i
processi computazionali fra gli elementi sintattici nella testa. Se comprendiamo
correttamente la teoria della dimostrazione, gli elementi semantici prenderanno
cura di loro stessi; ed quanto fanno i computer: implementano la teoria della
dimostrazione.

Abbiamo perci un programma di ricerca ben definito. Cerchiamo di scoprire i


programmi implementati nel cervello programmando i computer per
implementare programmi uguali. Mettiamo ci in pratica portando il computer
meccanico allo stesso livello di performance del computer umano (cio che possa
superare il test di Turing) e poi invitando gli psicologi a provare che i processi
interni sono gli stessi in entrambi i tipi di computer.

Vorrei che il lettore tenesse in mente, leggendo le pagine che seguono, la Storia
originaria come labbiamo descritta, notando in particolare il contrasto
evidenziato da Turing fra limplementazione cosciente del programma presso il
computer umano e limplementazione non cosciente dei programmi, sia essa del
cervello o del computer meccanico; da notare inoltre lidea che sia possibile
scoprire dei programmi che funzionano nel mondo naturale, esattamente gli stessi
programmi che noi inseriamo nei nostri elaboratori meccanici.

Nei libri o articoli che sostengono il cognitivismo si trovano varie assunzioni


comuni, spesso non dichiarate, ma non per questo meno pervasive.

1. Si assume spesso che lunica alternativa allidea che il cervello sia un computer
digitale sia una certa forma di dualismo. Lidea che, a meno che non si creda
nellesistenza di unanima immortale come suggeriva Cartesio, si costretti a
credere che il cervello sia un computer digitale. Infatti spesso si ha limpressione
che laffermazione secondo la quale il cervello un meccanismo fisico che
determina i nostri stati mentali e quella per cui il cervello equivale a un computer
digitale non siano altro che la stessa cosa. Lidea, a livello retorico, di costringere
il lettore a pensare che o si trova daccordo con ci che sta leggendo oppure si
rende protagonista di strane idee antiscientifiche. Recentemente il campo stato
allargato un po e si accettata la possibilit che il cervello possa essere diverso
dallantiquato modello di computer di Von Neumann, ma piuttosto un tipo pi
sofisticato di elaboratore parallelo. Ancora oggi affermare che il cervello non
simile a un elaboratore equivale a rischiare la propria reputazione scientifica.

2. stato anche detto che interrogarsi a proposito della natura computazionale


delle elaborazioni cerebrali soltanto una semplice domanda empirica. Deve
essere sottoposta a investigazione come per esempio successo per dimostrare che
il cuore paragonabile a una pompa e che le foglie delle piante permettono la
fotosintesi. Non c spazio per la logica spiccia n per la semplice analisi
concettuale, questo perch stiamo parlando di materia strettamente scientifica. In
effetti non credo che molti studiosi del campo riterrebbero che il titolo di questo
scritto rimandi in alcun modo a una domanda di natura filosofica. Il cervello
realmente un computer digitale? non una domanda filosofica pi di quanto non
lo sia Il neurotrasmettitore delle giunzioni neuromuscolari realmente
acetilcolene?.

Anche persone che non hanno simpatia per il cognitivismo come Penrose e
Dreyfus, sembrano trattare largomento come un semplice dato di fatto. Non
sembrano preoccuparsi poi molto di chiarire esattamente quale asserzione stiano
mettendo in dubbio. Ma la domanda che interessa me : quali sono gli elementi
del cervello che permettono di pensarlo come fosse un computer?

3. Unaltra prerogativa stilistica di questi scritti lastio e a volte persino la


noncuranza con cui le domande fondamentali vengono evitate. Quali sono
esattamente le funzioni anatomiche e fisiologiche che vengono discusse a
proposito del cervello? Cos esattamente un computer digitale? E come
dovrebbero connettersi fra loro le risposte a queste due domande? La procedura
comune in questi libri e articoli quella di fare alcune osservazioni a proposito
degli 0 e degli 1, dare un riassunto della famosa tesi di Church e Turing e poi
continuare elencando una serie di argomenti interessanti quali conquiste e
fallimenti nel mondo dei computer. Leggendo questi scritti mi sono sorpreso nello
scoprire che c un peculiare iato filosofico. Da un lato abbiamo un elegante
insieme di risultati matematici che vanno dal teorema di Turing e dalle tesi di
Church fino alla Teoria delle funzioni ricorsive. Dallaltro abbiamo un
impressionante quantit di congegni elettronici che utilizziamo quotidianamente.
Dal momento che abbiamo una matematica cos avanzata e unelettronica cos
efficace, supponiamo che in qualche modo qualcuno deve avere fatto il lavoro
filosofico basilare di collegare la matematica allelettronica. Ma per quanto ne so,
posso dire che ci non accaduto. Al contrario, siamo in una situazione
particolare dove c poco accordo teorico tra i professionisti su domande
fondamentali quali: Cos esattamente un computer digitale? Cos esattamente un
simbolo? Cos esattamente un processo computazionale? Sotto quali condizioni
fisiche esattamente i due sistemi stanno implementando lo stesso programma?

III. La definizione di computazione

Dal momento che non c un accordo universale sulle domande fondamentali,


credo sia meglio tornare indietro fino alle fonti, fino alle definizione originale data
da Alan Turing. Secondo Turing, una macchina di Turing pu eseguire certe
operazioni elementari: pu riscrivere uno 0 sul suo nastro come un 1, pu
riscrivere un 1 sul suo nastro come uno 0, pu spostare il nastro di un passo a
sinistra o pu spostare il nastro di un passo a destra. controllata da un
programma di istruzioni e ogni istruzione specifica una condizione e unazione da
eseguire se la condizione soddisfatta.

Questa la definizione standard di computazione, ma, presa letteralmente,


almeno in parte fuorviante. Se voi aprite il vostro computer di casa nella maggior
parte dei casi poco probabile che troviate uno 0 o un 1 o un nastro. Ma non
questo in realt il problema della definizione. Per scoprire se un oggetto
realmente un computer digitale, risulta che noi non dobbiamo cercare davvero
uno 0 e un 1 ecc. Dobbiamo piuttosto cercare qualcosa che possiamo trattare,
calcolare o che possa essere usato come funzionante a 0 e 1. Inoltre, per rendere la
questione pi complessa, c il fatto che questa macchina potrebbe essere fatta
pressoch in qualsiasi modo. Come dice Johnson-Laird, Essa potrebbe essere
costituita da ingranaggi e leve come un vecchio calcolatore meccanico; potrebbe
essere costituita da un sistema idraulico attraverso il quale scorre lacqua; potrebbe
essere costituita da transistor posti in un microcircuito attraverso cui passa la
corrente elettrica; potrebbe essere eseguita anche dal cervello. Ognuna di queste
macchine usa un diverso mezzo per rappresentare i simboli binari. Le posizioni
degli ingranaggi, la presenza o lassenza di acqua, la differenza di potenziale e forse
gli impulsi nervosi (Johnson-Laird, 1988, p. 39).

Osservazioni simili sono fatte dalla maggior parte delle persone che scrivono su
questo argomento. Per esempio, Ned Block (Block, 1990), mostra come possiamo
avere cancelli elettrici in cui l1 e lo 0 sono assegnati rispettivamente a differenze
di potenziale di 4 volt e di 7 volt. Cos potremmo pensare che dobbiamo
considerare i livelli di tensione. Ma Block dice che solo convenzionalmente1
assegnato a un certo livello di tensione. La situazione diviene pi sconcertante
quando ci informa ulteriormente che non avremmo bisogno di usare lelettricit,
ma avremmo potuto usare un complesso sistema di gatti e di topi e di formaggio e
creare i nostri cancelli in modo tale che il gatto star in tensione al guinzaglio e
aprir tirando un cancello che possiamo trattare come se fosse uno 0 o un 1. Il
punto su cui Block insiste lirrilevanza della realizzazione dellhardware per la
descrizione computazionale. Questi cancelli lavorano in modi diversi ma essi sono
nondimeno computazionalmente equivalenti (Ivi, p. 260). Nell stesso filone,
Phylyshyn dice che una sequenza computazionale pu essere realizzata da un
gruppo di piccioni addestrati a beccare come una macchina di Turing! (Phylyshn,
1985, p. 57).

Ma se tentiamo di prendere in seria considerazione lidea che il cervello sia un


computer digitale, otteniamo lo scomodo risultato di poter costruire un sistema
che fa tutto quello che fa il cervello. Parlando computazionalmente, da questo
punto di vista, si potrebbe ottenere un cervello che funzioni proprio come il mio
o il vostro pur essendo costituito da cani, gatti e formaggio, dalle leve, dalle
tubature, dai piccioni o da qualunque altra cosa a condizione che i due sistemi
siano, nellaccezione di Block, computazionalmente equivalenti. Servirebbe solo
una terribile quantit di gatti, piccioni, tubature o qualunque altra cosa. I
sostenitori del cognitivismo riportano questo risultato con autentico e manifesto
piacere. Invece io penso che dovrebbero esserne preoccupati, e prover a mostrare
che si tratta solo della punta di un intero iceberg di problemi.

IV. Prima difficolt: la sintassi non intrinseca alla fisica

Perch i sostenitori del computazionalismo non temono le implicazioni della


realizzabilit multipla? La risposta che essi ritengono che sia tipico del valore
funzionale che la stessa funzione ammetta realizzazioni multiple. In tale
prospettiva i computer sono come carburatori o termostati. Proprio come i
carburatori possono essere fatti di rame o di acciaio, allo stesso modo i computer
possono essere fatti con una serie indefinita di materiali.

Ma c una differenza: le classi dei carburatori e dei termostati sono definite in


termini di produzione di determinati effetti fisici. Questo il motivo per cui, per
esempio, nessuno dice che si possono realizzare carburatori con dei piccioni. Ma la
classe dei computer definita sintatticamente in termini di assegnazione di 0 e di
1. La realizzabilit multipla non un conseguenza del fatto che lo stesso effetto
fisico pu essere ottenuto con diverse sostanze fisiche, quanto del fatto che le
propriet rilevanti sono puramente sintattiche. La costituzione fisica irrilevante
nella misura in cui ammette lassegnazione di 0 e di 1 e il passaggio di stato tra di
loro.

Ma tale dato ha due conseguenze che potrebbero rivelarsi disastrose:

1. Lo stesso principio che implica la realizzabilit multipla sembrerebbe implicare


anche la realizzabilit universale. Se la computazione definita in termini di
assegnazione di sintassi allora ogni cosa potrebbe essere un computer digitale,
perch ogni oggetto pu avere sue attribuzioni sintattiche. Ogni cosa potrebbe
essere descritta in termini di 0 e di 1.

2. Ancora peggio, la sintassi non intrinseca alla fisica. Lattribuzione di propriet


sintattiche sempre relativa a un agente o osservatore che tratta determinati
fenomeni fisici come sintattici.

Ora, perch queste conseguenze sarebbero disastrose?

Dunque, noi volevamo sapere come funziona il cervello, e in particolare come


produce fenomeni mentali. E dire che il cervello un computer digitale come lo
sono lo stomaco, il fegato, il cuore, il sistema solare e lo stato del Kansas non
servirebbe a rispondere alla domanda. Il modello che avevamo era tale che noi
avremmo scoperto qualcosa riguardo alle operazioni cerebrali in grado di
mostrarci che esso un computer. Volevamo sapere se non ci fosse qualche senso
in cui il cervello fosse intrinsecamente un computer digitale, nello stesso modo in
cui le foglie verdi intrinsecamente svolgono la fotosintesi, o il cuore
intrinsecamente pompa sangue. Non siamo noi che, arbitrariamente o
convenzionalmente, assegniamo la parola pompare al cuore o fotosintesi alle
foglie: c un dato di fatto vero e proprio. E ci che ci chiedevamo : Esiste un
elemento del cervello che lo rende un computer digitale?. Non una risposta
affermare che i cervelli sono computer digitali perch ogni cosa un computer
digitale.

Sulla base della definizione standard di computazione: Per ogni oggetto esiste una
descrizione di quelloggetto per cui in base a quella descrizione loggetto un
computer digitale. Per ogni programma esiste un oggetto sufficientemente
complesso tale che ci sia almeno una descrizione delloggetto sulla base della quale
loggetto implementa il programma. Cos per esempio il muro dietro di me sta
implementando in questo preciso momento il programma Wordstar, perch
esiste un modello di movimento delle molecole isomorfo rispetto alla struttura
formale di Wordstar. Ma se il muro sta implementando Wordstar allora se
un muro abbastanza grande ne segue che sta implementando qualsiasi programma
e anche qualsiasi programma implementato nel cervello.

Penso che la principale ragione per cui i sostenitori del computazionalismo non
considerano la realizzabilit multipla o universale un problema che non la
vedono come una conseguenza di un punto assai pi centrale, cio che sintassi
non il nome di una caratteristica fisica, come la massa o la gravit. Al contrario
parlano di motori sintattici e persino di motori semantici come se un tale
discorso fosse lo stesso dei motori a benzina o diesel, come se potesse essere
soltanto una questione fattuale che il cervello o qualsiasi altra cosa sia un motore
sintattico.

Credo sia possibile, con buona probabilit, bloccare il risultato della realizzabilit
universale restringendo la nostra definizione di computazione. Di certo
dovremmo rispettare il fatto che i programmatori e gli ingegneri la considerano
come un ghiribizzo delle definizioni originarie di Turing e non come una reale
caratteristica della computazione. Opere non pubblicate di Brian Smith, Vinod
Goel e John Batali suggeriscono che una definizione pi realistica enfatizzer
alcune caratteristiche come relazioni causali tra stati di programma,
programmabilit e controllabilit del meccanismo, localizzazione nel mondo reale.
Ma queste ulteriori restrizioni sulla definizione di computazione non ci aiutano in
questa discussione perch il problema veramente centrale che la sintassi
essenzialmente una nozione relativa allosservatore. La realizzabilit multipla di
processi computazionalmente equivalenti in differenti mezzi fisici era non solo un
segno del fatto che i processi erano astratti, ma anche del fatto che non erano
affatto intrinseci al sistema. Essi dipendevano da una interpretazione esterna.
Stavamo cercando fatti che avrebbero reso i processi cerebrali computazionali. Ma
dato il modo in cui abbiamo definito la computazione non ci potranno mai essere
tali fatti. Non possiamo dire da un lato che un computer digitale ogni oggetto cui
possiamo assegnare una sintassi e presupporre dallaltro che ci sia una questione di
fatto intrinseca alla sua operazione fisica che dipende dal fatto che un sistema
naturale come il cervello sia o meno un computer digitale.
E se la parola sintassi sembra enigmatica, lo stesso punto pu essere raggiunto
senza essa. Infatti qualcuno potrebbe affermare che le nozioni di sintassi e
simboli sono solo un modo di dire e ci che ci interessa veramente lesistenza
di sistemi di fenomeni fisici discreti e gli stati di transizione fra loro. In
questottica non abbiamo veramente bisogno di 0 e 1; sono solo dei diminutivi di
comodo. Ma credo che ci non serva. Uno stato fisico di un sistema uno stato
computazionale soltanto relativamente allassegnazione a quello stato di un
qualche ruolo computazionale, funzione o interpretazione. Lo stesso problema
affiora senza 0 e 1 perch nozioni quali computazione, algoritmo e programma
non danno il nome a caratteristiche intrinseche fisiche dei sistemi. Gli stati
computazionali non sono scoperti allinterno della fisica, ma assegnati alla fisica.

Questo un argomento diverso dallArgomento della stanza cinese e avrei dovuto


vederlo dieci anni fa, ma non successo. LArgomento della stanza cinese ha
mostrato che la semantica non intrinseca alla sintassi. Io ora sto dimostrando il
fatto separato e differente che la sintassi non intrinseca alla fisica. Ai fini della
prima questione sto semplicemente supponendo che la caratterizzazione sintattica
del computer non fosse problematica. Ma questo un errore. Non c modo di
scoprire che qualcosa intrinsecamente un computer digitale perch la
caratterizzazione di esso come un computer digitale sempre relativa a un
osservatore che assegna uninterpretazione sintattica alle pure caratteristiche
fisiche del sistema. Allo stesso modo, applicato allipotesi del linguaggio del
pensiero, ci ha come conseguenza che la tesi risulti incoerente. Non c modo di
scoprire che ci sono, intrinsecamente, frasi sconosciute nella mente perch
qualcosa una frase solo in relazione a un qualche agente o utente che la usa come
frase. Egualmente, applicata generalmente al modello computazionale, la
caratterizzazione di un processo come computazionale una caratterizzazione di
un sistema fisico dallesterno; e lidentificazione di un processo come
computazionale non identifica una caratteristica intrinseca della fisica ma
essenzialmente una caratterizzazione dipendente dallosservatore.

Questo punto deve essere compreso esattamente. Non sto dicendo che ci siano dei
limiti a priori sui modelli che possiamo scoprire in natura. Potremmo senza
dubbio scoprire un modello di eventi nel mio cervello che sia isomoro
allimplementazione del programma vi su questo computer. Ma dire che
qualcosa sta funzionando come un processo computazionale dire qualcosa di pi
che un modello di eventi fisici sta avvenendo. Richiede lassegnazione di una
interpretazione computazionale da parte di qualche agente. Analogamente,
potremmo scoprire in natura oggetti che abbiano allincirca la stessa forma delle
sedie e che potrebbero anche essere usati come sedie; ma non potremmo scoprire
oggetti in natura che funzionino come sedie se non relativamente ad alcuni agenti
che li considerano o li usano come sedie.

V. Seconda difficolt: la fallacia dellomuncolo endemica nel cognitivismo

Cos sembra di essere giunti a un problema. La sintassi non fa parte della fisica. Ci
porta al fatto che se la computazione definita in modo sintattico, allora niente
di per s un computer digitale solamente in virt delle sue propriet fisiche. C
una strada che ci porti fuori da questo problema? S, esiste, ed una strada che
viene generalmente adottata nella scienza cognitiva, ma con essa si cade dalla
padella alla brace. La maggior parte degli studi che ho visto sulla teoria
computazionale della mente riporta diverse varianti della fallacia dellomuncolo.
Lidea sempre quella di trattare il cervello come se ci fosse al suo interno un
qualche agente che lo utilizza al fine di compiere un calcolo. Un tipico caso
quello di David Marr (1982) che descrive la visione come un procedimento che
parte da una rete visiva bidimensionale sulla retina e arriva a una descrizione
tridimensionale del mondo esterno, come risultato del sistema visivo. La difficolt
: chi sta leggendo la descrizione? Infatti, nel libro di Marr e in altri studi simili
sul tema, sembra quasi di dover invocare un omuncolo allinterno del sistema che
permetta di trattare queste operazioni come genuinamente computazionali.

Molti scrittori ritengono che la fallacia dellomuncolo non sia realmente un


problema, perch, dicendolo con Dennett (1978), costoro credono che lomuncolo
possa essere scaricato. Lidea questa: visto che le operazioni computazionali del
computer possono essere analizzate in unit che sono progressivamente sempre
pi semplici, fino ad arrivare al semplice circuito bistabile, configurazioni tipo s-
no o 1-0, sembrerebbe che gli omuncoli del livello pi alto si scarichino in
omunculi progressivamente sempre pi stupidi, fino ad arrivare al livello basilare
di un semplice circuito bistabile che non richiede nessun tipo di omuncolo. Lidea,
in breve, che una scomposizione ricorsiva eliminer gli omuncoli.

Mi ci voluto molto tempo per comprendere a cosa queste persone stessero


riferendosi, cos in caso qualcuno si senta sconcertato per lo stesso motivo, lo
spiegher in dettaglio con un esempio. Supponiamo di avere un computer che
moltiplichi sei volte otto per aver quarantotto. Ora ci si chiede: Come fa?. Bene,
la risposta potrebbe essere che addiziona il numero sei a se stesso per sette volte.
Ma se ci si chiede: Ma in che modo addiziona il numero sei a se stesso per sette
volte?, la risposta che innanzitutto il computer converte tutti questi numeri in
informazione binaria e poi applica un semplice algoritmo per operare in sistema
binario fino a che si arriva al livello basilare nel quale le istruzioni sono nella
forma: Scrivi uno zero, cancella un uno. Cos per esempio al livello massimo il
nostro omuncolo intelligente dice: Io so come moltiplicare sei volte otto per
avere quarantotto. Ma al livello inferiore esso rimpiazzato da un pi stupido
omuncolo che dice: Io non so attualmente come fare la moltiplicazione, ma posso
fare laddizione. Sotto ne abbiamo di ancora pi stupidi che dicono: Non
sappiamo come fare addizione e moltiplicazione, ma sappiamo come convertire il
sistema decimale in binario. Pi in basso altri ancora pi stupidi dicono: Non
sappiamo niente in materia, ma sappiamo come si opera in simboli binari. Al
livello base c un gruppo compatto di omuncoli che dice solo: Zero-uno, zero-
uno. Tutti i livelli pi alti si riducono cos a quello di base. Solamente il livello
base per esiste realmente; i livelli superiori consistono tutti solo in come-se.

Vari autori (Haugeland, 1981; Block, 1990) descrivono questa configurazione


dicendo che il sistema un meccanismo sintattico che conduce a un meccanismo
semantico. Ma dobbiamo ancora affrontare il problema che avevamo prima: Quali
fattori intrinseci al sistema lo rendono sintattico? Quali fattori riguardanti il
livello base od ogni altro livello fanno tali operazioni tra zero e uno? Senza un
omuncolo che si trova fuori dalla scomposizione ricorsiva, non possiamo avere
ancora una sintassi con cui operare. Il tentativo di eliminare la fallacia
dellomuncolo attraverso la scomposizione ricorsiva erroneo, perch lunico
modo per avere una sintassi intrinseca alla fisica porre lomuncolo nella fisica.

C un aspetto affascinante riguardo a tutto ci. I cognitivisti ammettono


volentieri che i livelli pi alti della computazione, per esempio moltiplica 6 volte
8, sono relativi allosservatore; non c nulla in essi che corrisponda direttamente
alla moltiplicazione; tutto nellocchio dellomuncolo/osservatore. Ma essi non
vogliono riconoscere tale propriet ai livelli pi bassi. Il circuito elettronico, essi
ammettono, non moltiplica davvero 6x8 come tale, esso nella realt si serve di
zeri e uni e queste operazioni, per cos dire, portano alla moltiplicazione. Ma
ammettere che i livelli pi alti della computazione non sono intrinseci alle scienze
naturali gi ammettere che neppure i livelli pi bassi lo sono. Ecco dunque che
la fallacia dellomuncolo ancora con noi.
Per i computer del tipo che puoi comprare al negozio, non c problema di alcun
omuncolo, ciascun utente reale diventa lomuncolo in questione. Ma se
supponiamo che il cervello sia un computer digitale, stiamo ancora di fronte alla
domanda: E chi lutente?. Tipiche domande da omuncolo nelle scienze
cognitive sono le seguenti: Come calcola la forma dallombreggiatura un sistema
visivo? Come calcola la distanza di un oggetto dalla misura dellimmagine impressa
nella retina?. Una domanda parallela potrebbe essere: Come calcolano i chiodi la
distanza che percorrono nellasse dallimpatto del martello e dalla densit del
legno?. E la risposta la stessa in ambedue i tipi di caso: se stiamo parlando di
come il sistema lavora intrinsecamente n i chiodi n il sistema visivo calcolano
un bel niente. Noi, come gli omuncoli esterni, potremmo descriverli
computazionalmente ed spesso utile far cos. Ma non si comprenderebbe il
meccanismo del martellare col supporre che i chiodi stiano in qualche modo
intrinsecamente calcolando gli algoritmi del martellamento e non si capirebbe il
meccanismo della visione col postulare che il sistema stia calcolando, per esempio,
la forma a partire dallalgoritmo dellombra che essa proietta.

VI. Terza difficolt: la sintassi non ha poteri causali

Nelle scienze naturali alcuni tipi di spiegazioni precisano meccanismi la cui


funzione causale nella produzione di fenomeni resta da giustificare. Ci
particolarmente diffuso nelle scienze biologiche. Si pensi alla teoria dei germi
patogeni, al caso della fotosintesi, alla teoria dei tratti ereditari basata sul Dna e
perfino alla teoria darwiniana della selezione naturale. In ciascun caso viene
stabilito un meccanismo causale e in ciascun caso tale specificazione d una
spiegazione dei risultati del meccanismo. Ora se si torna indietro e si considera la
Storia originaria appare chiaro che la spiegazione promessa dal cognitivismo di
questo tipo. I meccanismi grazie ai quali i processi mentali producono conoscenze
si ipotizza siano computazionali e con lo specificare i programmi avremo
specificato le cause della cognizione. Un aspetto positivo di questo programma di
ricerca, spesso sottolineato, che non abbiamo bisogno di conoscere i dettagli del
funzionamento del cervello per spiegare la cognizione. I processi cerebrali
forniscono solo la macchina esecutrice dei programmi cognitivi, ma il livello del
programma quello a cui le spiegazioni cognitive effettive vengono date. Secondo
la classificazione standard stabilita, per esempio, da Newell, ci sono tre livelli di
spiegazione: struttura, programma e intenzionalit (Newell chiama questo ultimo
livello il livello della conoscenza) e il contributo particolare delle scienze
cognitive reso al livello del programma.
Ma se quanto ho sostenuto finora corretto, allora c qualcosa di sospetto
nellintero progetto. Finora ho pensato che, in quanto spiegazione causale, la
teoria dei cognitivisti fosse quantomeno falsa, ma ora sto avendo difficolt perfino
a formulare una versione che sia coerente con lidea per cui essa potrebbe essere
una tesi empirica tout court. La tesi che ci siano una gran quantit di simboli che
vengono manipolati nel cervello, zeri e uni che balenano attraverso il cervello
alla velocit della luce, invisibili non solo ad occhio nudo, ma perfino ai
microscopi elettronici pi potenti e che sia ci a causare la cognizione. Ma la
difficolt sta nel fatto che zeri ed uni non hanno alcun potere causale poich
essi non esistono nemmeno se non negli occhi dellosservatore. Il programma
implementato non ha altri poteri causali che quelli del mezzo che lo implementa
giacch il programma non ha esistenza reale, non una propria ontologia aldil di
quella che gli conferisce il mezzo che lo implementa. Parlando in termini
materiali non esiste qualcosa come un livello programma autonomo.

Ci lo si pu capire tornando alla Storia originaria e ricordando la differenza che


c tra il computer meccanico e la macchina di Turing umana. Nella macchina di
Turing umana c effettivamente un livello programma intrinseco al sistema ed
esso risulta funzionante in modo causale a quel livello nel convertire input in
output. Ci avviene perch il soggetto umano sta seguendo in modo consapevole
le regole per compiere una determinata computazione, il che consente di spiegare
in modo causale la sua operazione. Ma quando programmiamo il computer
meccanico affinch compia la medesima computazione, lassegnazione di una
interpretazione computazionale ora relativa a noi, omuncoli esterni. E non c
pi un livello di causa intenzionale intrinseco al sistema. Il computer umano segue
consapevolmente delle regole, e questo spiega il suo comportamento, ma il
computer meccanico, alla lettera, non segue nessuna regola. ideato per
comportarsi esattamente come se dovesse seguire delle regole, e solo questo
rilevante ai fini pratici o commerciali. Adesso il cognitivismo ci rivela che il
cervello funziona come un computer commerciale e questo causa la cognizione.
Ma senza un omuncolo, sia il computer commerciale che il cervello sono solo
modelli e i modelli non hanno capacit causali oltre quelle dei media che li
implementano. Cos sembra che non ci sia un modo affinch il cognitivismo possa
dare una spiegazione causale della cognizione.

Dal mio punto di vista tuttavia rimane aperto un rompicapo. Chiunque lavori con
i computer sa, anche casualmente, che spesso diamo spiegazioni causali che si
richiamano al programma. Per esempio, possiamo dire che quando batto questo
tasto ottengo risultati simili, perch la macchina sta eseguendo il software vi
piuttosto che lemacs, il che appare come una spiegazione causale ordinata. Cos
il rompicapo il seguente: come conciliamo il fatto che la sintassi, come tale, non
ha capacit causali con il fatto che noi diamo spiegazioni causali che fanno appello
ai programmi? E, ancor pi importante, questo tipo di spiegazioni forniranno un
modello appropriato per il cognitivismo? Salveranno il cognitivismo? Potremmo,
per esempio, mantenere lanalogia con I termostati, sottolineando che proprio
come la nozione di termostato compare in spiegazioni causali
indipendentemente da alcun riferimento alla sua realizzazione fisica, cos la
nozione di programma potrebbe essere esplicativa e altrettanto indipendente
dalla fisica.

Per esaminare questo rompicapo tentiamo di fare il punto sul cognitivismo


estendendo la Storia originaria per mostrare in che modo le procedure
investigative del cognitivista lavorano nella ricerca quotidiana. Lidea che si ha in
genere di programmare un computer commerciale cos che simuli qualche
capacit cognitiva, come la visione o il linguaggio. Poi, se otteniamo una buona
simulazione, una che ci dia almeno lequivalenza di Turing, ipotizziamo che il
computer cerebrale faccia girare lo stesso programma del computer commerciale,
e per testare lipotesi, cerchiamo unevidenza psicologica indiretta, come i tempi di
reazione. Cos sembra che possiamo spiegare causalmente il comportamento del
computer cerebrale citando il programma esattamente nello stesso senso in cui
possiamo spiegare il comportamento del computer commerciale. Ora, che cosa
inesatto in tutto ci? Non sembra forse un programma di ricerca scientifico
perfettamente legittimo? Sappiamo che la trasformazione del computer
commerciale di input in output spiegata da un programma e nel cervello
scopriamo lo stesso programma, perci abbiamo una spiegazione causale.

Due cose dovrebbero preoccuparci immediatamente di questo programma. Primo,


non accetteremmo mai questo tipo di spiegazione per nessuna funzione cerebrale
di cui abbiamo capito il funzionamento a un livello neurobiologico. Secondo, non
accetteremmo questo programma per altri tipi di sistema che possiamo simulare
computazionalmente. Per illustrare il primo punto, riferiamoci per esempio al
famoso resoconto What the Frogs eye tells the Frogs Brain [Che cosa dice locchio
della rana al cervello della rana] (Lettvin et al., 1959 in McCulloch, 1965). Il
resoconto dato interamente in termini dellanatomia e della fisiologia del sistema
nervoso di una rana. Un tipico passo scelto a caso dice:
1. Rivelatori di contrasto sostenuto

Un assone non ricoperto di mielina di questo gruppo non risponde quando


lilluminazione generale accesa o spenta. Se il bordo netto di un oggetto, che sia
pi chiaro o pi scuro dello sfondo, si muove nel suo campo e si ferma, lassone
scarica prontamente e continua a scaricare, non importa quale sia la forma del
bordo n se loggetto sia pi piccolo o pi grande del campo recettivo (Ivi, p.
239).

Io non ho mai sentito nessuno dire che tutto questo fosse soltanto
limplementazione dellhardware, e che essi avrebbero dovuto soltanto
individuare quale programma la rana stesse implementando. Io non dubito che si
possa trovare una simulazione al computer dei rilevatori dinsetti della rana.
Forse qualcuno lha fatto. Ma noi tutti sappiamo che una volta compreso come il
sistema visivo di una rana lavora realmente, il livello computazionale divenga
irrilevante.

Per illustrare il secondo punto, consideriamo le simulazioni di altri tipi di sistemi.


Io, per esempio, sto digitando queste parole su una macchina che simula il
comportamento di una desueta macchina da scrivere meccanica. Mentre le
simulazioni continuano, il programma di scrittura simula una macchina da
scrivere meglio di quanto ogni programma di Intelligenza artificiale che io
conosco possa simulare il cervello. Ma nessuna persona sana pensa: Ormai da
molto tempo che sappiamo come funzionano le macchine da scrivere; sono
implementazioni dei programmi di scrittura. Semplicemente, in generale le
simulazioni computazionali non forniscono spiegazioni causali dei fenomeni
simulati.

Allora cosa ne consegue? Noi, in generale, non supponiamo che le simulazioni dei
processi cerebrali ci diano una qualche spiegazione causale in sostituzione o in
aggiunta a un resoconto neurobiologico che spieghi come il cervello funziona
realmente. E, in generale, non prendiamo in considerazione la frase X una
simulazione computazionale di Y per nominare una relazione simmetrica. Cio,
non supponiamo che poich il computer simula una macchina da scrivere, allora
la macchina da scrivere simula un computer. Non supponiamo che poich un
programma di previsione del tempo simula un uragano allora la spiegazione
causale del comportamento dell uragano sia fornita dal programma. Ma allora
perch dovremmo fare uneccezione a questi principi quando siu tratta di processi
cerebrali sconosciuti? Ci sono delle buone ragioni per fare uneccezione? E che
tipo di spiegazione causale una spiegazione che cita un programma formale?

Qui, credo, ci sia la soluzione al nostro puzzle. Una volta tolto lomuncolo dal
sistema, si rimane soli con una configurazione di eventi a cui qualcuno
dallesterno pu attribuire uninterpretazione computazionale. Ora lunico senso
nel quale la specificazione della configurazione si fornisce da sola di una
spiegazione causale che se si sa che una certa configurazione esiste in un sistema
allora si sa anche che c una causa dello schema. Si possono quindi, per esempio,
predire fasi successive da fasi precedenti. Inoltre, se si sa gi che il sistema stato
programmato da un omuncolo esterno, si possono fornire spiegazioni che fanno
riferimento allintenzionalit degli omuncoli. Si pu dire, per esempio, questa
macchina sta facendo quel che deve perch sta eseguendo il programma vi.
come spiegare che questo libro inizia con un brano che riguarda famiglie felici e
non contiene alcun lungo brano che tratta di un gruppo di fratelli, perch il libro
di Tolstoj Anna Karenina non I fratelli Karamazov di Dostoevskij. Ma non si pu
spiegare un sistema fisico come una macchina da scrivere o un cervello
identificando una configurazione che ce lo mostra con la sua simulazione
computazionale, perch lesistenza della configurazione non ci spiega in che modo
il sistema lavora realmente in quanto sistema fisico. Nel caso della cognizione la
configurazione a un livello troppo elevato di astrazione per spiegare eventi
mentali concreti (e perci fisici) quali una percezione visiva o la comprensione di
una frase.

Ora, penso sia ovvio che non possiamo spiegare come funzionano una macchina
da scrivere o degli uragani individuando delle configurazioni formali che
condividono con le loro simulazioni computazionali. Perch non ovvio nel caso
del cervello?

Cos arriviamo alla seconda parte della nostra soluzione del rompicapo. Facendo il
punto sul cognitivismo stavamo supponendo tacitamente che il cervello potesse
implementare algoritmi per la cognizione nello stesso senso in cui il computer
umano di Turing e il suo computer meccanico implementano algoritmi. Ma
precisamente questa assunzione che abbiamo visto essere erronea. Per rendercene
conto chiedamoci cosa succede quando un sistema implementa un algoritmo. Nel
computer umano il sistema svolge consapevolmente i passi dellalgoritmo, quindi
il processo sia causale che logico; logico perch lalgoritmo fornisce un insieme
di regole per far derivare i simboli delloutput dai simboli dellinput; causale,
perch lagente sta facendo uno sforzo cosciente per svolgere i passi dellalgoritmo.
Similmente, nel caso del computer meccanico lintero sistema include un
omuncolo esterno, e con lomuncolo il sistema sia causale che logico. Logico
perch lomuncolo fornisce uninterpretazione al sistema della macchina, e causale
perch lhardware della macchina lo causa per avanzare nel processo. Ma tali
condizioni non possono essere mescolate con le operazioni neurofisiologiche
cerebrali che sono brute, cieche e inconsce. Nel computer cerebrale non c
unimplementazione intenzionale e conscia dellalgoritmo come invece avviene
nel computer umano, ma non ci pu essere nessuna implementazione inconscia
come avviene invece nel computer meccanico perch ci richiederebbe un
omuncolo esterno per associare uninterpretazione computazionale a degli eventi
fisici. Il massimo che possiamo fare ritrovare nel cervello una configurazione di
eventi che sia formalmente simile al programma implementato dal computer
meccanico, ma la configurazione da sola non ha la capacit di nominarsi da sola
n, quindi, di spiegare nulla.

Insomma, il fatto che lattribuzione di sintassi non individui alcun potere causale
risulta fatale allesigenza del programma di fornire una spiegazione causale della
cognizione. Per analizzare le conseguenze di ci, ricordiamoci di come appaiono
in realt le spiegazioni dei cognitivisti. Spiegazioni come quella di Chomsky della
sintassi dei linguaggi naturali o quella di Marr del processo visivo funzionano
stabilendo un insieme di regole seguendo le quali un input simbolico si trasforma
in un output simbolico. Nel caso di Chomsky, per esempio, un singolo simbolo
input, S, viene trasformato in uno qualsiasi dei potenziali numeri infiniti di frasi
mediante lapplicazione ripetuta di un insieme di regole sintattiche. Nel caso di
Marr, le rappresentazioni di vettore visivo bidimensionale vengono trasformate in
descrizioni tridimensionali del mondo seguendo alcuni algoritmi. La distinzione
tripartita di Marr tra compito computazionale, soluzione algoritmica del compito e
implementazione hardware dellalgoritmo, diventata famosa (con il nome di
distinzione di Newell) come unasserzione del modello generale della spiegazione.

Se queste spiegazioni vengono considerate ingenuamente, come faccio io, meglio


pensarle come se fosse soltanto un uomo solo in una stanza che procede attraverso
una serie di passi seguendo delle regole al fine di formare frasi in inglese o
descrizioni tridimensionali, secondo il caso. Ma ora chiediamoci quali eventi del
mondo reale si suppone corrispondano a queste spiegazioni come fossero applicate
al cervello. Nel caso di Chomsky, per esempio, non siamo tenuti a pensare che
lagente consciamente attraversi una serie di ripetute applicazioni di regole; e
neppure siamo tenuti a pensare che sta percorrendo la sua strada inconsciamente
attraverso una serie di regole. Piuttosto le regole sono computazionali e il
cervello esegue le computazioni. Ma cosa significa ci? Beh, ci si aspetta da noi che
pensiamo non sia nulla di diverso da un computer commerciale. Quelloggetto che
corrisponde allattribuzione a un computer commerciale da parte di un certo
insieme di regole lo si ritiene corrispondere allattribuzione al cervello da parte di
quelle stesse regole. Ma abbiamo visto che nel computer commerciale
lattribuzione sempre relativa allosservatore, lattribuzione relativa a un
omuncolo che assegna interpretazioni computazionali agli stati dellhardware.
Senza lomuncolo non c computazione, ma solo un circuito elettronico. Ma
allora come facciamo ad avere computazione nel cervello senza un omuncolo? Per
quanto ne so n Chomsky n Marr hanno mai sollevato la questione n pensato
che si potesse dare una simile questione. Ma senza un omuncolo non c un potere
esplicativo alla postulazione delle condizioni del programma. C solo un
meccanismo fisico, il cervello, con i suoi reali livelli causali di descrizione fisici e
fisico/mentali.

VII. Quarta difficolt: il cervello non elabora informazioni

In questa sezione tratto finalmente ci che penso sia, per alcuni versi, la questione
centrale di tutto il discorso, la questione dellelaborazione delle informazioni.
Molti di coloro che si situano nel paradigma scientifico della scienza cognitiva
riterranno buona parte della mia discussione semplicemente irrilevante e
argomenteranno contro di essa come segue:

C una differenza tra il cervello e tutti questi altri sistemi che hai descritto
finora, e questa differenza spiega perch una simulazione computazionale nel caso
degli altri sistemi sia una mera simulazione mentre nel caso del cervello duplica
effettivamente le propriet funzionali del cervello, e non le modellizza solamente.
La ragione che il cervello, diversamente da questi altri sistemi, un sistema che
elabora informazioni. E questa caratteristica del cervello , secondo le tue parole,
intrinseca. un dato di fatto della biologia che le funzioni cerebrali svolgano il
processo informativo, e dal momento che possiamo anche processare le stesse
informazioni computazionalmente, i modelli computazionali dei processi cerebrali
hanno un ruolo del tutto differente da quello dei modelli computazionali del
tempo, per esempio.
Ecco allora una ben definita questione della ricerca: Le procedure computazionali
con cui il cervello elabora linformazione sono le stesse procedure con cui i
computer elaborano la medesima informazione?.

Quanto ho appena immaginato che un oppositore dicesse rappresenta uno dei


peggiori errori della scienza cognitiva. Lerrore di presupporre che i cervelli
elaborino informazioni nello stesso modo in cui i computer sono usati per
elaborare informazioni. Per vedere che un errore confrontiamo quel che accade
in un computer con quel che accade in un cervello. Nel caso del computer, un
agente esterno codifica delle informazioni in una forma tale da poter essere
processata dai circuiti di un computer. Ovvero, lui o lei mettono a punto una
realizzazione sintattica dellinformazione che il computer pu implementare, per
esempio, in differenti livelli di voltaggio. Il computer, quindi, attraversa una serie
di passaggi elettrici che lagente esterno pu interpretare sia sintatticamente che
semanticamente, anche se, ovviamente, lhardware non ha sintassi o semantica
intrinseche: tutto nellocchio dellosservatore. E la fisica non ha importanza, a
condizione che si possa arrivare ad essa per implementare lalgoritmo. Infine,
loutput viene prodotto nella forma di un fenomeno fisico che un osservatore pu
interpretare come simbolo con una sintassi e una semantica.

Confrontiamo quanto sopra con il cervello. Nel caso del cervello nessuno dei
processi neurobiologici principali sono relativi allosservatore (sebbene,
ovviamente, possano essere descritti dal punto di vista di un osservatore, come
ogni altra cosa) e la specificit della neurofisiologia conta moltissimo. Per chiarire
tale differenza facciamo un esempio. Supponete che io veda una macchina venire
verso di me. Un modello computazionale standard della visione prender
linformazione dalla mia retina e infine emetter la frase: C una macchina che
viene verso di me. Tuttavia non questo ci che accade nella realt biologica. In
biologia una serie concreta e determinata di reazioni elettrochimiche vengono
prodotte dallarrivo dei fotoni sulle cellule fotorecettrici della mia retina, e lintero
processo si risolve alla fine in unesperienza visiva concreta. La realt biologica
non quella di un mucchio di parole o simboli prodotti dal sistema visivo quanto
piuttosto un evento visivo cosciente, determinato e concreto; questa la vera
esperienza visiva. Ora, levento visivo concreto determinato e concreto quanto lo
un uragano o la digestione di un pasto. Noi possiamo, con il computer, creare un
modello di elaborazione dellinformazione di quellevento o della sua produzione,
cos come possiamo creare un modello per il tempo, per la digestione o per
qualunque altro fenomeno, ma i fenomeni di per se stessi non sono sistemi di
elaborazione dellinformazione.

In breve, lelaborazione dellinformazione nel senso usato nelle scienze cognitive


un concettto con un livello di astrazione troppo elevato per catturare la concreta
realt biologica dellintenzionalit intrinseca. Linformazione nel cervello
sempre relativa a una qualche modalit. specifica per il pensiero, per la visione,
ludito o il tatto, per esempio. Il livello di elaborazione dellinformazione quale
descritto nel modello computazionale della cognizione delle scienze cognitive,
daltra parte, semplicemente il fatto di ricevere un insieme di simboli come
output in risposta a un insieme di simboli immessi come input.

Noi siamo impossibilitati a cogliere questa differenza per il fatto che la stessa frase,
Vedo una macchina venire verso di me, pu essere usata per registrare sia
lintenzionalit della visione che loutput del modello computazionale della
visione. Ma ci non dovrebbe impedirci di vedere che lesperienza visiva un
evento concreto ed prodotto nel cervello da determinati processi biologici ed
elettrochimici. Confondere tali eventi e processi con la manipolazione di simboli
formali equivale a confondere la realt con il suo modello. Il punto centrale di
questa parte del discorso che usando il termine informazione nellaccezione
usata nelle scienze cognitive semplicemente falso dire che il cervello un
dispositivo per elaborare informazioni.

VIII. Indice della discussione

Questa breve discussione ha una semplice struttura logica che ora vado ad esporre:

Nella definizione standard, la computazione definita sintatticamente in termini


di manipolazione di simboli.

Ma sintassi e simboli non sono definiti in termini di fisica. Sebbene le occorrenze


dei simboli siano sempre occorrenze fisiche, simbolo e stesso simbolo non sono
definiti in termini fisici. In breve, la sintassi non connessa intrinsecamente alla
fisica.

La conseguenza di ci che la computazione non stata scoperta con la fisica ma


ad essa stata attribuita. Alcuni fenomeni fisici sono attribuiti o usati o
programmati o interpretati sintatticamente. La sintassi e i simboli sono relativi
allosservatore.

Ne consegue che non possibile scoprire che il cervello o qualsiasi altra cosa sia
intrinsecamente un computer digitale, sebbene sia possibile attribuirgli
uninterpretazione computazionale cos com possibile per qualsiasi altra cosa. La
questione non che laffermazione: Il cervello un computer digitale sia falsa,
ma piuttosto che non raggiunga un livello di falsit. Non ha un senso chiaro. Il
mio discorso sar mal interpretato se si crede che io stia argomentando sul fatto
che sia semplicemente falso che il cervello sia un computer digitale. La domanda
Il cervello un computer digitale? mal posta come le domande un abaco?,
un libro?, un insieme di simboli? o un insieme di formule
matematiche?.

Alcuni sistemi fisici facilitano luso computazionale molto meglio di altri. Per
questo noi li costruiamo, li programmiamo e li usiamo. In tali casi noi siamo
lomuncolo nel sistema che interpreta i fenomeni fisici sia in termini sintattici che
semantici.

Ma le spiegazioni causali che diamo non citano propriet causali diverse da quelle
fisiche dellimplementazione e dellintenzionalit dellomuncolo.

La via duscita standard, sebbene tacita, di affidarsi alla fallacia dellomuncolo. La


fallacia dellomuncolo endemica ai modelli computazionali di cognizione e non
pu essere rimossa dagli argomenti di scomposizione ricorsiva standard. Questi
ultimi affrontano una questione diversa.

Non possiamo evitare i risultati precedenti supponendo che il cervello elabori


informazioni. Il cervello, per quanto riguarda le operazioni intrinseche, non
elabora informazioni. un organo biologico specifico e i suoi processi
neurobiologici specifici producono forme specifiche di intenzionalit. Nel
cervello, intrinsecamente, avvengono processi neurobiologici e qualche volta
questi producono consapevolezza. Ma qui finisce la storia.
Bibliografia

Block, Ned
1990, forthcoming
The Computer Model of the Mind.

Boolos, George S. and Jeffrey, Richard C.


1989
Computability and Logic, Cambridge University Press, Cambridge Mass.

Dennett, Daniel C.
1978
Brainstorms: Philosophical Essays on Mind and Psychology, MIT Press, Cambridge, Mass.,
trad. it., Brainstorms, Adelphi, Milano, 1991.

Feigenbaum, E.A. and Feldman, J. (eds.)


1963
Computers and Thought, McGraw-Hill Company, New York and San Francisco.

Fodor, J.
1975
The Language of Thought, Thomas Y. Crowell, New York.

Haugeland, John
ed.)
1981
Mind Design, MIT Press, Cambridge, Mass., trad. it., Progettare la mente, Il Mulino,
Bologna, 1989.

Johnson-Laird, P.N.
1988
The Computer and the Mind, Harvard University Press, Cambridge Mass., trad. it., La mente
e il computer, Il Mulino, Bologna, 1990.

Kuffler, Stephen W. - Nicholls, John G.


1976
From Neuron to Brain, Sinauer Associates, Sunderland, Mass.
Lettvin, J.Y., Maturana, H.R., McCulloch, W.S., and Pitts, W.H.
1959
What the Frogs Eye Tells the Frogs Brain, in Proceedings of the Institute of Radio
Engineers, 47, 1940-1951, poi in McCulloch, 1965, pp. 230-255.

Marr, David
1982
Vision, W.H. Freeman and Company, San Francisco.

McCulloch, Warren S.
1965
The Embodiments of Mind, MIT Press, Cambridge, Mass.

Pylyshyn
1985
Computation and Cognition, MIT Press, Cambridge, Mass.

Searle, John R.
1980
Minds, Brains and Programs, The Behavioral and Brain Sciences, 3, pp. 417-424.

Searle, John R.
1984
Minds, Brains and Science. Harvard University Press, Cambridge, Mass., trad. it., Mente,
cervello, intelligenza, Bompiani, Milano, 1988.

Sharples, M., Hogg, D., Hutchinson, C., Torrance, S., and Young, D.
1988
Computers and Thought, MIT Press, Cambridge, Mass. and London.

Shepherd, Gordon M.
1983
Neurobiology, Oxford University Press, New York and Oxford.
Turing, Alan
1950
Computing Machinery and Intelligence, in Mind, 59, 433-460.