Searle
http://w3.uniroma1.it/cogfil/cervello.html
Data d'immissione:
Aprile 2003
Ultima modifica:
11 Aprile 2003
John R. Searle (Denver 1932) difficilmente classificabile negli scaffali della filosofia del
Novecento. Scorrendo i titoli dei suoi libri si rischia sempre di sbagliare. Atti linguistici (ed. or.
1969) lo collocherebbe accanto al suo maestro John Austin tra gli oxoniensi del "linguaggio
ordinario". Dell'intenzionalit (ed. or. 1983), farebbe pensare alla fenomenologia husserliana,
ma a sfogliarlo si sbaglierebbe a calcolarlo tra i cosiddetti "continentali". Ci sono i suoi studi
sulla societ: La costruzione della realt sociale (ed or. 1995), per esempio, ma si pu parlare
di un filosofo della societ? Ci sono poi tutti i suoi lavori sulla mente, la coscienza con le
propaggini sull'Intelligenza Artificiale (d'ora in poi IA). Ma possibile considerare Searle come
un semplice filosofo della mente? Soprattutto nelle sue opere pi recenti tutti questi temi
rimandano l'un l'altro in una sintesi che a volte spiazza, ma certamente d luogo ad un
pensiero organico.
L'articolo qui tradotto integra e sviluppa uno dei grandi temi trattati da Searle negli anni
Ottanta: la critica filosofica all'IA. In un celebre articolo del 1980 "Minds, Brains and Programs"
(tr. it. in L'io della mente, Adelphi, ed. or. 1985) - il filosofo americano mette a punto un
argomento contro l'IA, o meglio, contro quella che chiama la versione "forte" dell'IA, che avvia
a una lunghissima discussione sul tema. L'"argomento della stanza cinese" - che Searle
riassume anche nelle pagine che qui presentiamo - dimostrerebbe in sostanza che non
possibile identificare la mente con un programma di computer, quanto si voglia complesso,
come preteso dai sostenitori della IA forte". Searle dimostra che saper operare con dei simboli
- nel caso particolare degli ideogrammi cinesi - in virt di un manuale di regole non significa
comprendere e parlare la lingua cinese. La sola manipolazione dei simboli non basta di per
s a garantire l'intelligenza, la percezione, la comprensione, il pensiero e cos via.... La
discriminante per l'intelligenza, sostiene Searle, la semantica. I calcolatori lavorano
semplicemente su simboli privi di significato. Non conoscono e non associano nessun senso ai
segni che manipolano. Le menti s. Che si tratti di una partita a scacchi o di una lettera
d'amore la macchina non si render mai conto dei "pensieri" che gli sono attribuiti
dall'esterno. Cos si conclude l'"argomento della stanza cinese" e subito si susseguono le
molte reazioni critiche (celebre quella di Douglas Hofstadter, tradotta nel volume citato).
Nel suo articolo del 1990, che qui presentiamo in traduzione, Searle indirizza le sue critiche a
un'altra domanda sottesa a molti studi riguardanti l'IA: se il cervello sia o meno un computer
digitale. La generalizzazione evidente:la questione non pi, infatti, se la mente sia un
software, ma piuttosto se i processi cerebrali siano suscettibili di calcolo. Come si vedr Searle
identifica con questa tesi una peculiare accezione del cognitivismo. L'articolo si conclude con
una risposta negativa. Scrive Searle nelle ultime righe: Non possibile "scoprire" che il
cervello o qualsiasi altra cosa sia intrinsecamente un computer digitale, sebbene sia possibile
attribuirgli un'interpretazione computazionale cos com' possibile per qualsiasi altra cosa. La
chiave del discorso in quell'"attribuirgli un'interpretazione". E' questa la questione teorica di
fondo che pone Searle. Come nasce la capacit di significare il mondo? La soluzione searliana
in termini di "intenzionalit" pu non convincere, ma il problema posto dal filosofo americano
rimane.
Il testo che pubblichiamo, tradotto da Flavio Sorrentino, rispecchia l'ultima bozza dell'articolo di
J. R. Searle, Is the brain a digital computer?, in Proceedings of the American Philosophical
Association 64, 3 (1990), pp. 21-38. L'ultima bozza dellintervento precedente dedicato al
chinese room argument (J. R. Searle, Minds, brains, and programs, in Behavioral and Brain
Sciences 3, 3 (1980), pp. 417-457), acquisita mediante OCR, reperibile in linea presso la
collezione di pre-prints della rivista Behavioral Brain Science
Alessandro Lanni
Affronter la prima questione, non la seconda o la terza. Penso che alla seconda si
possa rispondere in modo decisamente negativo. Dal momento che i programmi
sono definiti in modo puramente formale o sintattico e dal momento che le menti
possiedono un intrinseco contenuto mentale, ne consegue immediatamente che il
programma non pu costituire la mente. La sintassi formale del programma non
sufficiente a garantire da sola la presenza di contenuti mentali. Lho dimostrato
una decina di anni fa nellArgomento della stanza cinese (1980). Un computer, io
ad esempio, potrebbe svolgere i passaggi nel programma grazie a qualche capacit
mentale, come per esempio comprendere il cinese senza capire una parola di
cinese. Largomento si fonda sulla semplice verit logica per cui la sintassi non
corrisponde alla semantica, n di per s sufficiente a determinare la semantica.
Cos la risposta alla seconda domanda ovviamente no.
La risposta alla terza domanda mi sembra egualmente ovvio sia s, almeno per
quanto riguarda linterpretazione naturale. Interpretata naturalmente, la domanda
significa: esiste una descrizione del cervello tale che con quella descrizione si possa
compiere una simulazione computazionale delle operazioni cerebrali? Ma, se si
accoglie la tesi di Church per cui ogni cosa di cui pu essere data una
caratterizzazione sufficientemente precisa come di una sequenza di passi pu
essere simulata su un computer digitale, ne deriva banalmente che la domanda ha
una risposta affermativa. Le operazioni cerebrali possono essere simulate su un
computer digitale nello stesso senso in cui possono essere simulati i sistemi del
tempo atmosferico, il comportamento del mercato di New York o il modello dei
voli di linea sopra lAmerica latina. Allora la nostra domanda non : La mente
un programma?, la cui risposta no; n : Pu il cervello essere simulato?, la
cui risposta s. La domanda : Il cervello un computer digitale?. Per le
intenzioni di questa discussione io sto considerando questa domanda come
equivalente a: I processi cerebrali sono suscettibili di calcolo?.
Si potrebbe pensare che questa domanda perderebbe gran parte del suo interesse
con una risposta negativa alla seconda domanda. Il che vuol dire che si potrebbe
supporre che al di l del fatto che la mente sia un programma, non c nessun
interesse per la domanda se il cervello sia un computer. Ma non questo il punto,
in realt. Persino per quanti ritengono che i programmi non siano i soli elementi
costitutivi dei fenomeni mentali resta ancora aperta una domanda importante:
ammesso che nella mente ci sia altro oltre le operazioni sintattiche di un computer
digitale, nondimeno potrebbe darsi che gli stati mentali siano almeno stati
computazionali e che i processi mentali siano processi computazionali che
operano sulle strutture formali di questi stati mentali. questa, infatti, a mio
parere, la posizione maggiormente condivisa.
Non dico che la visione sia pienamente chiara, ma lidea suona pi o meno cos: a
un certo livello descrittivo i processi mentali sono sintattici; ci sono, per cos dire,
delle frasi nella testa. Queste devono essere non in inglese o in cinese, ma, forse,
nel linguaggio del pensiero (Fodor, 1975). Ora, come tutte le frasi, anche queste
hanno una struttura sintattica e una semantica, o significato, e il problema della
sintassi pu essere separato dal problema della semantica. Il problema della
semantica : come acquisiscono un significato queste frasi nella testa? La questione
pu essere discussa indipendentemente da come il cervello funzioni nellelaborare
queste frasi; tipicamente si suppone che lavori come un computer, eseguendo
operazioni di calcolo sulla struttura sintattica delle frasi nella testa.
Tanto per fare chiarezza sui termini, io chiamo Intelligenza artificiale forte la
visione in cui tutto ci che necessario per avere una mente avere un
programma, Intelligenza artificiale debole la visione in cui processi cerebrali (e
mentali) possono essere simulati con un computer, e cognitivismo, la visione in
cui il cervello un computer.
Questo articolo sul cognitivismo, e sar meglio spiegare fin dallinizio ci che lo
motiva. Se si leggono libri sul cervello (per esempio Shepherd, 1983; oppure
Kuffler e Nicholls, 1976) si trova una certa idea di ci che accade nel cervello. Se si
guarda a libri sulla computabilit (per esempio Boolos e Jeffrey, 1989) si trova
unidea della struttura logica della teoria della computabilit. Se poi ci si rivolge ai
libri sulle scienze cognitive (per esempio Pylyshyn, 1985), essi sostengono che ci
che viene descritto nei libri sul cervello in effetti la stessa cosa che viene
descritta nei libri sulla computabilit. Da un punto di vista filosofico la cosa non
mi convince e ho ormai imparato a seguire, almeno allinizio di una ricerca, il mio
istinto.
Cos che rende questo risultato cos eccitante? Ci che mand i brividi su e gi
per la spina dorsale di unintera generazione di giovani ricercatori nel campo
dellintelligenza artificiale il pensiero seguente: Immagina che il cervello sia
una macchina di Turing universale.
Ci sono delle valide ragioni per supporre che il cervello sia una macchina di
Turing universale? Continuiamo con la Storia originaria.
chiaro che almeno alcune abilit mentali delluomo sono algoritmiche. Per
esempio, io posso coscientemente eseguire una lunga divisione seguendo i passi di
un algoritmo destinato alla risoluzione delle divisioni lunghe. Segue, inoltre, dalla
tesi di Church-Turing e dal teorema di Turing che tutto ci che un essere umano
pu fare con un algoritmo pu essere fatto anche con una macchina di Turing
universale. Per esempio posso implementare su un computer esattamente lo stesso
algoritmo che uso per fare una divisione lunga a mano. In questo caso, come ha
scritto Turing (1950), sia io, il computer umano, che il computer meccanico
stiamo implementando lo stesso algoritmo; io lo sto facendo consciamente, il
computer inconsciamente. Ora, sembra ragionevole supporre che ci siano
moltissimi processi mentali che sono attivi nel mio cervello inconsciamente e che
sono anche computazionali. Se le cose stanno cos, allora potremmo scoprire come
funziona il cervello simulando tutti quei processi su un computer. Proprio come
stata realizzata una simulazione al computer dei processi per fare lunghe divisioni,
allo stesso modo potremmo costruire una simulazione al computer dei processi di
comprensione linguistica, percezione visiva, categorizzazione e cos via.
Lo sviluppo della teoria della dimostrazione ha mostrato che, entro limiti ben
definiti, le relazioni semantiche tra proposizioni possono essere interamente
riflesse dalle relazioni sintattiche tra le frasi che esprimono quelle proposizioni.
Ora, supponiamo che nella testa i contenuti mentali siano espressi sintatticamente,
allora tutto ci che dovremmo considerare per i processi mentali sarebbero i
processi computazionali fra gli elementi sintattici nella testa. Se comprendiamo
correttamente la teoria della dimostrazione, gli elementi semantici prenderanno
cura di loro stessi; ed quanto fanno i computer: implementano la teoria della
dimostrazione.
Vorrei che il lettore tenesse in mente, leggendo le pagine che seguono, la Storia
originaria come labbiamo descritta, notando in particolare il contrasto
evidenziato da Turing fra limplementazione cosciente del programma presso il
computer umano e limplementazione non cosciente dei programmi, sia essa del
cervello o del computer meccanico; da notare inoltre lidea che sia possibile
scoprire dei programmi che funzionano nel mondo naturale, esattamente gli stessi
programmi che noi inseriamo nei nostri elaboratori meccanici.
1. Si assume spesso che lunica alternativa allidea che il cervello sia un computer
digitale sia una certa forma di dualismo. Lidea che, a meno che non si creda
nellesistenza di unanima immortale come suggeriva Cartesio, si costretti a
credere che il cervello sia un computer digitale. Infatti spesso si ha limpressione
che laffermazione secondo la quale il cervello un meccanismo fisico che
determina i nostri stati mentali e quella per cui il cervello equivale a un computer
digitale non siano altro che la stessa cosa. Lidea, a livello retorico, di costringere
il lettore a pensare che o si trova daccordo con ci che sta leggendo oppure si
rende protagonista di strane idee antiscientifiche. Recentemente il campo stato
allargato un po e si accettata la possibilit che il cervello possa essere diverso
dallantiquato modello di computer di Von Neumann, ma piuttosto un tipo pi
sofisticato di elaboratore parallelo. Ancora oggi affermare che il cervello non
simile a un elaboratore equivale a rischiare la propria reputazione scientifica.
Anche persone che non hanno simpatia per il cognitivismo come Penrose e
Dreyfus, sembrano trattare largomento come un semplice dato di fatto. Non
sembrano preoccuparsi poi molto di chiarire esattamente quale asserzione stiano
mettendo in dubbio. Ma la domanda che interessa me : quali sono gli elementi
del cervello che permettono di pensarlo come fosse un computer?
Osservazioni simili sono fatte dalla maggior parte delle persone che scrivono su
questo argomento. Per esempio, Ned Block (Block, 1990), mostra come possiamo
avere cancelli elettrici in cui l1 e lo 0 sono assegnati rispettivamente a differenze
di potenziale di 4 volt e di 7 volt. Cos potremmo pensare che dobbiamo
considerare i livelli di tensione. Ma Block dice che solo convenzionalmente1
assegnato a un certo livello di tensione. La situazione diviene pi sconcertante
quando ci informa ulteriormente che non avremmo bisogno di usare lelettricit,
ma avremmo potuto usare un complesso sistema di gatti e di topi e di formaggio e
creare i nostri cancelli in modo tale che il gatto star in tensione al guinzaglio e
aprir tirando un cancello che possiamo trattare come se fosse uno 0 o un 1. Il
punto su cui Block insiste lirrilevanza della realizzazione dellhardware per la
descrizione computazionale. Questi cancelli lavorano in modi diversi ma essi sono
nondimeno computazionalmente equivalenti (Ivi, p. 260). Nell stesso filone,
Phylyshyn dice che una sequenza computazionale pu essere realizzata da un
gruppo di piccioni addestrati a beccare come una macchina di Turing! (Phylyshn,
1985, p. 57).
Sulla base della definizione standard di computazione: Per ogni oggetto esiste una
descrizione di quelloggetto per cui in base a quella descrizione loggetto un
computer digitale. Per ogni programma esiste un oggetto sufficientemente
complesso tale che ci sia almeno una descrizione delloggetto sulla base della quale
loggetto implementa il programma. Cos per esempio il muro dietro di me sta
implementando in questo preciso momento il programma Wordstar, perch
esiste un modello di movimento delle molecole isomorfo rispetto alla struttura
formale di Wordstar. Ma se il muro sta implementando Wordstar allora se
un muro abbastanza grande ne segue che sta implementando qualsiasi programma
e anche qualsiasi programma implementato nel cervello.
Penso che la principale ragione per cui i sostenitori del computazionalismo non
considerano la realizzabilit multipla o universale un problema che non la
vedono come una conseguenza di un punto assai pi centrale, cio che sintassi
non il nome di una caratteristica fisica, come la massa o la gravit. Al contrario
parlano di motori sintattici e persino di motori semantici come se un tale
discorso fosse lo stesso dei motori a benzina o diesel, come se potesse essere
soltanto una questione fattuale che il cervello o qualsiasi altra cosa sia un motore
sintattico.
Credo sia possibile, con buona probabilit, bloccare il risultato della realizzabilit
universale restringendo la nostra definizione di computazione. Di certo
dovremmo rispettare il fatto che i programmatori e gli ingegneri la considerano
come un ghiribizzo delle definizioni originarie di Turing e non come una reale
caratteristica della computazione. Opere non pubblicate di Brian Smith, Vinod
Goel e John Batali suggeriscono che una definizione pi realistica enfatizzer
alcune caratteristiche come relazioni causali tra stati di programma,
programmabilit e controllabilit del meccanismo, localizzazione nel mondo reale.
Ma queste ulteriori restrizioni sulla definizione di computazione non ci aiutano in
questa discussione perch il problema veramente centrale che la sintassi
essenzialmente una nozione relativa allosservatore. La realizzabilit multipla di
processi computazionalmente equivalenti in differenti mezzi fisici era non solo un
segno del fatto che i processi erano astratti, ma anche del fatto che non erano
affatto intrinseci al sistema. Essi dipendevano da una interpretazione esterna.
Stavamo cercando fatti che avrebbero reso i processi cerebrali computazionali. Ma
dato il modo in cui abbiamo definito la computazione non ci potranno mai essere
tali fatti. Non possiamo dire da un lato che un computer digitale ogni oggetto cui
possiamo assegnare una sintassi e presupporre dallaltro che ci sia una questione di
fatto intrinseca alla sua operazione fisica che dipende dal fatto che un sistema
naturale come il cervello sia o meno un computer digitale.
E se la parola sintassi sembra enigmatica, lo stesso punto pu essere raggiunto
senza essa. Infatti qualcuno potrebbe affermare che le nozioni di sintassi e
simboli sono solo un modo di dire e ci che ci interessa veramente lesistenza
di sistemi di fenomeni fisici discreti e gli stati di transizione fra loro. In
questottica non abbiamo veramente bisogno di 0 e 1; sono solo dei diminutivi di
comodo. Ma credo che ci non serva. Uno stato fisico di un sistema uno stato
computazionale soltanto relativamente allassegnazione a quello stato di un
qualche ruolo computazionale, funzione o interpretazione. Lo stesso problema
affiora senza 0 e 1 perch nozioni quali computazione, algoritmo e programma
non danno il nome a caratteristiche intrinseche fisiche dei sistemi. Gli stati
computazionali non sono scoperti allinterno della fisica, ma assegnati alla fisica.
Questo punto deve essere compreso esattamente. Non sto dicendo che ci siano dei
limiti a priori sui modelli che possiamo scoprire in natura. Potremmo senza
dubbio scoprire un modello di eventi nel mio cervello che sia isomoro
allimplementazione del programma vi su questo computer. Ma dire che
qualcosa sta funzionando come un processo computazionale dire qualcosa di pi
che un modello di eventi fisici sta avvenendo. Richiede lassegnazione di una
interpretazione computazionale da parte di qualche agente. Analogamente,
potremmo scoprire in natura oggetti che abbiano allincirca la stessa forma delle
sedie e che potrebbero anche essere usati come sedie; ma non potremmo scoprire
oggetti in natura che funzionino come sedie se non relativamente ad alcuni agenti
che li considerano o li usano come sedie.
Cos sembra di essere giunti a un problema. La sintassi non fa parte della fisica. Ci
porta al fatto che se la computazione definita in modo sintattico, allora niente
di per s un computer digitale solamente in virt delle sue propriet fisiche. C
una strada che ci porti fuori da questo problema? S, esiste, ed una strada che
viene generalmente adottata nella scienza cognitiva, ma con essa si cade dalla
padella alla brace. La maggior parte degli studi che ho visto sulla teoria
computazionale della mente riporta diverse varianti della fallacia dellomuncolo.
Lidea sempre quella di trattare il cervello come se ci fosse al suo interno un
qualche agente che lo utilizza al fine di compiere un calcolo. Un tipico caso
quello di David Marr (1982) che descrive la visione come un procedimento che
parte da una rete visiva bidimensionale sulla retina e arriva a una descrizione
tridimensionale del mondo esterno, come risultato del sistema visivo. La difficolt
: chi sta leggendo la descrizione? Infatti, nel libro di Marr e in altri studi simili
sul tema, sembra quasi di dover invocare un omuncolo allinterno del sistema che
permetta di trattare queste operazioni come genuinamente computazionali.
Dal mio punto di vista tuttavia rimane aperto un rompicapo. Chiunque lavori con
i computer sa, anche casualmente, che spesso diamo spiegazioni causali che si
richiamano al programma. Per esempio, possiamo dire che quando batto questo
tasto ottengo risultati simili, perch la macchina sta eseguendo il software vi
piuttosto che lemacs, il che appare come una spiegazione causale ordinata. Cos
il rompicapo il seguente: come conciliamo il fatto che la sintassi, come tale, non
ha capacit causali con il fatto che noi diamo spiegazioni causali che fanno appello
ai programmi? E, ancor pi importante, questo tipo di spiegazioni forniranno un
modello appropriato per il cognitivismo? Salveranno il cognitivismo? Potremmo,
per esempio, mantenere lanalogia con I termostati, sottolineando che proprio
come la nozione di termostato compare in spiegazioni causali
indipendentemente da alcun riferimento alla sua realizzazione fisica, cos la
nozione di programma potrebbe essere esplicativa e altrettanto indipendente
dalla fisica.
Io non ho mai sentito nessuno dire che tutto questo fosse soltanto
limplementazione dellhardware, e che essi avrebbero dovuto soltanto
individuare quale programma la rana stesse implementando. Io non dubito che si
possa trovare una simulazione al computer dei rilevatori dinsetti della rana.
Forse qualcuno lha fatto. Ma noi tutti sappiamo che una volta compreso come il
sistema visivo di una rana lavora realmente, il livello computazionale divenga
irrilevante.
Allora cosa ne consegue? Noi, in generale, non supponiamo che le simulazioni dei
processi cerebrali ci diano una qualche spiegazione causale in sostituzione o in
aggiunta a un resoconto neurobiologico che spieghi come il cervello funziona
realmente. E, in generale, non prendiamo in considerazione la frase X una
simulazione computazionale di Y per nominare una relazione simmetrica. Cio,
non supponiamo che poich il computer simula una macchina da scrivere, allora
la macchina da scrivere simula un computer. Non supponiamo che poich un
programma di previsione del tempo simula un uragano allora la spiegazione
causale del comportamento dell uragano sia fornita dal programma. Ma allora
perch dovremmo fare uneccezione a questi principi quando siu tratta di processi
cerebrali sconosciuti? Ci sono delle buone ragioni per fare uneccezione? E che
tipo di spiegazione causale una spiegazione che cita un programma formale?
Qui, credo, ci sia la soluzione al nostro puzzle. Una volta tolto lomuncolo dal
sistema, si rimane soli con una configurazione di eventi a cui qualcuno
dallesterno pu attribuire uninterpretazione computazionale. Ora lunico senso
nel quale la specificazione della configurazione si fornisce da sola di una
spiegazione causale che se si sa che una certa configurazione esiste in un sistema
allora si sa anche che c una causa dello schema. Si possono quindi, per esempio,
predire fasi successive da fasi precedenti. Inoltre, se si sa gi che il sistema stato
programmato da un omuncolo esterno, si possono fornire spiegazioni che fanno
riferimento allintenzionalit degli omuncoli. Si pu dire, per esempio, questa
macchina sta facendo quel che deve perch sta eseguendo il programma vi.
come spiegare che questo libro inizia con un brano che riguarda famiglie felici e
non contiene alcun lungo brano che tratta di un gruppo di fratelli, perch il libro
di Tolstoj Anna Karenina non I fratelli Karamazov di Dostoevskij. Ma non si pu
spiegare un sistema fisico come una macchina da scrivere o un cervello
identificando una configurazione che ce lo mostra con la sua simulazione
computazionale, perch lesistenza della configurazione non ci spiega in che modo
il sistema lavora realmente in quanto sistema fisico. Nel caso della cognizione la
configurazione a un livello troppo elevato di astrazione per spiegare eventi
mentali concreti (e perci fisici) quali una percezione visiva o la comprensione di
una frase.
Ora, penso sia ovvio che non possiamo spiegare come funzionano una macchina
da scrivere o degli uragani individuando delle configurazioni formali che
condividono con le loro simulazioni computazionali. Perch non ovvio nel caso
del cervello?
Cos arriviamo alla seconda parte della nostra soluzione del rompicapo. Facendo il
punto sul cognitivismo stavamo supponendo tacitamente che il cervello potesse
implementare algoritmi per la cognizione nello stesso senso in cui il computer
umano di Turing e il suo computer meccanico implementano algoritmi. Ma
precisamente questa assunzione che abbiamo visto essere erronea. Per rendercene
conto chiedamoci cosa succede quando un sistema implementa un algoritmo. Nel
computer umano il sistema svolge consapevolmente i passi dellalgoritmo, quindi
il processo sia causale che logico; logico perch lalgoritmo fornisce un insieme
di regole per far derivare i simboli delloutput dai simboli dellinput; causale,
perch lagente sta facendo uno sforzo cosciente per svolgere i passi dellalgoritmo.
Similmente, nel caso del computer meccanico lintero sistema include un
omuncolo esterno, e con lomuncolo il sistema sia causale che logico. Logico
perch lomuncolo fornisce uninterpretazione al sistema della macchina, e causale
perch lhardware della macchina lo causa per avanzare nel processo. Ma tali
condizioni non possono essere mescolate con le operazioni neurofisiologiche
cerebrali che sono brute, cieche e inconsce. Nel computer cerebrale non c
unimplementazione intenzionale e conscia dellalgoritmo come invece avviene
nel computer umano, ma non ci pu essere nessuna implementazione inconscia
come avviene invece nel computer meccanico perch ci richiederebbe un
omuncolo esterno per associare uninterpretazione computazionale a degli eventi
fisici. Il massimo che possiamo fare ritrovare nel cervello una configurazione di
eventi che sia formalmente simile al programma implementato dal computer
meccanico, ma la configurazione da sola non ha la capacit di nominarsi da sola
n, quindi, di spiegare nulla.
Insomma, il fatto che lattribuzione di sintassi non individui alcun potere causale
risulta fatale allesigenza del programma di fornire una spiegazione causale della
cognizione. Per analizzare le conseguenze di ci, ricordiamoci di come appaiono
in realt le spiegazioni dei cognitivisti. Spiegazioni come quella di Chomsky della
sintassi dei linguaggi naturali o quella di Marr del processo visivo funzionano
stabilendo un insieme di regole seguendo le quali un input simbolico si trasforma
in un output simbolico. Nel caso di Chomsky, per esempio, un singolo simbolo
input, S, viene trasformato in uno qualsiasi dei potenziali numeri infiniti di frasi
mediante lapplicazione ripetuta di un insieme di regole sintattiche. Nel caso di
Marr, le rappresentazioni di vettore visivo bidimensionale vengono trasformate in
descrizioni tridimensionali del mondo seguendo alcuni algoritmi. La distinzione
tripartita di Marr tra compito computazionale, soluzione algoritmica del compito e
implementazione hardware dellalgoritmo, diventata famosa (con il nome di
distinzione di Newell) come unasserzione del modello generale della spiegazione.
In questa sezione tratto finalmente ci che penso sia, per alcuni versi, la questione
centrale di tutto il discorso, la questione dellelaborazione delle informazioni.
Molti di coloro che si situano nel paradigma scientifico della scienza cognitiva
riterranno buona parte della mia discussione semplicemente irrilevante e
argomenteranno contro di essa come segue:
C una differenza tra il cervello e tutti questi altri sistemi che hai descritto
finora, e questa differenza spiega perch una simulazione computazionale nel caso
degli altri sistemi sia una mera simulazione mentre nel caso del cervello duplica
effettivamente le propriet funzionali del cervello, e non le modellizza solamente.
La ragione che il cervello, diversamente da questi altri sistemi, un sistema che
elabora informazioni. E questa caratteristica del cervello , secondo le tue parole,
intrinseca. un dato di fatto della biologia che le funzioni cerebrali svolgano il
processo informativo, e dal momento che possiamo anche processare le stesse
informazioni computazionalmente, i modelli computazionali dei processi cerebrali
hanno un ruolo del tutto differente da quello dei modelli computazionali del
tempo, per esempio.
Ecco allora una ben definita questione della ricerca: Le procedure computazionali
con cui il cervello elabora linformazione sono le stesse procedure con cui i
computer elaborano la medesima informazione?.
Confrontiamo quanto sopra con il cervello. Nel caso del cervello nessuno dei
processi neurobiologici principali sono relativi allosservatore (sebbene,
ovviamente, possano essere descritti dal punto di vista di un osservatore, come
ogni altra cosa) e la specificit della neurofisiologia conta moltissimo. Per chiarire
tale differenza facciamo un esempio. Supponete che io veda una macchina venire
verso di me. Un modello computazionale standard della visione prender
linformazione dalla mia retina e infine emetter la frase: C una macchina che
viene verso di me. Tuttavia non questo ci che accade nella realt biologica. In
biologia una serie concreta e determinata di reazioni elettrochimiche vengono
prodotte dallarrivo dei fotoni sulle cellule fotorecettrici della mia retina, e lintero
processo si risolve alla fine in unesperienza visiva concreta. La realt biologica
non quella di un mucchio di parole o simboli prodotti dal sistema visivo quanto
piuttosto un evento visivo cosciente, determinato e concreto; questa la vera
esperienza visiva. Ora, levento visivo concreto determinato e concreto quanto lo
un uragano o la digestione di un pasto. Noi possiamo, con il computer, creare un
modello di elaborazione dellinformazione di quellevento o della sua produzione,
cos come possiamo creare un modello per il tempo, per la digestione o per
qualunque altro fenomeno, ma i fenomeni di per se stessi non sono sistemi di
elaborazione dellinformazione.
Noi siamo impossibilitati a cogliere questa differenza per il fatto che la stessa frase,
Vedo una macchina venire verso di me, pu essere usata per registrare sia
lintenzionalit della visione che loutput del modello computazionale della
visione. Ma ci non dovrebbe impedirci di vedere che lesperienza visiva un
evento concreto ed prodotto nel cervello da determinati processi biologici ed
elettrochimici. Confondere tali eventi e processi con la manipolazione di simboli
formali equivale a confondere la realt con il suo modello. Il punto centrale di
questa parte del discorso che usando il termine informazione nellaccezione
usata nelle scienze cognitive semplicemente falso dire che il cervello un
dispositivo per elaborare informazioni.
Questa breve discussione ha una semplice struttura logica che ora vado ad esporre:
Ne consegue che non possibile scoprire che il cervello o qualsiasi altra cosa sia
intrinsecamente un computer digitale, sebbene sia possibile attribuirgli
uninterpretazione computazionale cos com possibile per qualsiasi altra cosa. La
questione non che laffermazione: Il cervello un computer digitale sia falsa,
ma piuttosto che non raggiunga un livello di falsit. Non ha un senso chiaro. Il
mio discorso sar mal interpretato se si crede che io stia argomentando sul fatto
che sia semplicemente falso che il cervello sia un computer digitale. La domanda
Il cervello un computer digitale? mal posta come le domande un abaco?,
un libro?, un insieme di simboli? o un insieme di formule
matematiche?.
Alcuni sistemi fisici facilitano luso computazionale molto meglio di altri. Per
questo noi li costruiamo, li programmiamo e li usiamo. In tali casi noi siamo
lomuncolo nel sistema che interpreta i fenomeni fisici sia in termini sintattici che
semantici.
Ma le spiegazioni causali che diamo non citano propriet causali diverse da quelle
fisiche dellimplementazione e dellintenzionalit dellomuncolo.
Block, Ned
1990, forthcoming
The Computer Model of the Mind.
Dennett, Daniel C.
1978
Brainstorms: Philosophical Essays on Mind and Psychology, MIT Press, Cambridge, Mass.,
trad. it., Brainstorms, Adelphi, Milano, 1991.
Fodor, J.
1975
The Language of Thought, Thomas Y. Crowell, New York.
Haugeland, John
ed.)
1981
Mind Design, MIT Press, Cambridge, Mass., trad. it., Progettare la mente, Il Mulino,
Bologna, 1989.
Johnson-Laird, P.N.
1988
The Computer and the Mind, Harvard University Press, Cambridge Mass., trad. it., La mente
e il computer, Il Mulino, Bologna, 1990.
Marr, David
1982
Vision, W.H. Freeman and Company, San Francisco.
McCulloch, Warren S.
1965
The Embodiments of Mind, MIT Press, Cambridge, Mass.
Pylyshyn
1985
Computation and Cognition, MIT Press, Cambridge, Mass.
Searle, John R.
1980
Minds, Brains and Programs, The Behavioral and Brain Sciences, 3, pp. 417-424.
Searle, John R.
1984
Minds, Brains and Science. Harvard University Press, Cambridge, Mass., trad. it., Mente,
cervello, intelligenza, Bompiani, Milano, 1988.
Sharples, M., Hogg, D., Hutchinson, C., Torrance, S., and Young, D.
1988
Computers and Thought, MIT Press, Cambridge, Mass. and London.
Shepherd, Gordon M.
1983
Neurobiology, Oxford University Press, New York and Oxford.
Turing, Alan
1950
Computing Machinery and Intelligence, in Mind, 59, 433-460.