Sei sulla pagina 1di 62

Gli inediti: La fabbrica del pensiero

Premessa
Premessa per i lettori filosofi
Molti filosofi, mi pare, sono terrorizzati dall'idea di non servire piu', ormai da almeno mezzo secolo,
da quando cioe' la Scienza ha cominciato a rispondere a tutte le loro domande. Avvertono che il loro
campo d'azione si restringe di anno in anno, e sentono sempre piu' vicino il giorno in cui rimarranno
del tutto disoccupati. Io sono forse fra i pochi ancora convinti che la Filosofia (come la Poesia)
rivesta invece un'importanza capitale per la sopravvivenza "spirituale" dell'umanita'. Credo pero'
anche che (cosi' come i poeti sono stati la prima causa delle proprie disgrazie) i filosofi siano
responsabili della caduta di carisma della loro disciplina, e pertanto non saro' tenero con loro in
questo libro.
Se, nonostante cio', qualche filosofo vorra' egualmente prendere visione del mio lavoro, ne saro' piu'
che onorato. Sono convinto che l'Informatica possa rivitalizzare la Filosofia e che la Filosofia possa
rendere piu' adulta l'Informatica: auspico di tutto cuore un dialogo piu' frequente e profondo fra le
due discipline.
Questo libro tratta in gran parte movimenti di pensiero (filosofici, matematici e scientifici) che
hanno avuto origine e si sono sviluppati prevalentemente negli Stati Uniti e nella Gran Bretagna.
Volendo semplificare (e polemizzare) un po', il pensiero filosofico del Novecento si divide in due
grandi scuole: quella analitica dei paesi anglosassoni e quella anti-analitica dell'Europa
continentale. Le scienze della mente e della macchina che questo libro esamina discendono
prevalentemente dalla prima scuola. I filosofi di lingua inglese hanno tentato di chiarire la sostanza
di tanti dibattiti millenari semplicemente esprimendo le tesi di quei dibattiti in un linguaggio che
non fosse quello ordinario, ambiguo e impreciso, ma quello chiaro ed esatto della logica simbolica;
come a dire, invece che provare a rispondere a domande che sembrano molto difficili, proviamo a
riformulare le domande in una forma diversa: vedi mai che il problema non stia nel mondo ma
semplicemente nel linguaggio che usiamo per parlare del mondo! Questa intuizione si sposa a
meraviglia con il computer, uno strumento molto potente per rispondere alle domande "ben
formulate", ovvero formulate con l'economia di mezzi e la chiarezza formale che sono della logica
simbolica, ma del tutto incapace di aprire bocca davanti a domande formulate nel linguaggio astruso
e logorroico della Filosofia tradizionale. Tutto cio' che non e' passato al setaccio di questa sorta di
traduzione dalla Filosofia alla Logica genera scarso interesse per un ricercatore dell'Intelligenza
Artificiale. (I pensatori europei, inoltre, sono spesso troppo difficili da capire, sono troppo lontani, e
non solo per colpa loro, dalla cultura scientifica del loro tempo per poterla realmente capire, non
hanno alcun senso dello humour, e, infine, da Freud a Marx, non sono stati molto fortunati in
quest'ultimo decennio).
Con questo non voglio dire che Fenomenologia ed Ermeneutica (per citarne due) siano soltanto
delle fastidiose appendici di cui farei volentieri a meno, tanto piu' che la stessa cultura anglosassone
ha sovente dei rigurgiti anti-analitici (che poi si traducono a livello sociale nei fenomeni pittoreschi
di hippie, yuppy, punk e cosi' via, ma questa e' un'altra storia).
Non sempre (anzi quasi mai) ho tenuto conto di tutte le sottigliezze di una teoria filosofica. Il bello
della Filosofia, si sa, e' che non si puo' mai dimostrare chi abbia torto e chi abbia ragione: tutti
hanno il diritto di dire qualsiasi cosa, senza doversi preoccupare troppo di verificarla
empiricamente. Tanto piu' che sono mantenuti a spese dello Stato (con tutta l'invidia di chi, come il
sottoscritto e gran parte dei pensatori informatici, deve pagare di tasca propria i libri che acquista e
il tempo che perde a scrivere a sua volta libri). In epoca moderna, inoltre, grazie alla facilita' con cui

si possono stampare libri, capita sempre piu' di frequente che un filosofo riesca a pubblicare almeno
due opere nell'arco della propria carriera che si contraddicono fra di loro. Nell'Informatica si viene
licenziati per molto meno.
Credo che sia stato il mio amico Dario a notare un fatto singolare della Filofosia: i filosofi scrivono
libri di centinaia di pagine, ma in altri libri gli argomenti di quei loro tomi vengono riassunti in
poche pagine, talvolta righe. Se il riassunto e l'originale contengono lo stesso significato, perche'
sprecare tante pagine? Si puo' rispondere a questa obiezione in diversi modi, maligni (i filosofi non
hanno la dote della sintesi) o benigni (il testo originale rigurgitava probabilmente di dimostrazioni e
di esempi a suffragio di quelle dimostrazioni). In verita' gran parte di ogni libro di un filosofo e'
dedicato a chiarire il pensiero di altri filosofi (i quali poi sosterranno comunque di essere stati
fraintesi, a meno che' non siano gia' morti). Il proliferare delle interpretazioni e' forse l'ostacolo
maggiore alla comunicazione fra le varie discipline della ricerca. Auspichiamo che tutti adottino
uno stile piu' rigoroso in modo da evitare qualsiasi ambiguita'. Per adesso dobbiamo anche noi
affidarci alla sorte, e sperare di non aver troppo frainteso il pensiero dei nostri filosofi favoriti
(ammesso e non concesso che esista un modo deterministico per stabilire sempre se abbiamo o
meno frainteso).
Qualche filosofo rimarra' forse sorpreso dalla scelta di temi che ho compiuto per questo libro. In
realta' molti concetti che i filosofi danno per scontati non lo sono necessariamente. La ragione per
cui spesso non vengono messi in dubbio e' che, alla fin fine, servono soltanto a tenere impegnati i
filosofi, e pertanto soddisfano perlomeno una causa umanitaria. Quando pero' diventano importanti,
possono cambiare radicalmente aspetto. Un esempio recente e' quello della famosa critica
dell'Intelligenza Artificiale portata da Searle, secondo il quale il programma di un computer non
puo' costituire un modello dell'intelligenza umana. Alcuni filosofi sono d'accordo, altri sono
contrari. Ma un po' tutti per tanti anni abbiamo accettato senza contestare il fatto che un programma
sia una struttura puramente sintattica; che cio' fosse vero o falso non cambiava di molto il corso
delle nostre vite, e tanto meno il nostro stipendio. E' bastato pero' che questo tema diventasse di
utilita' pratica (il governo Americano sta tentando di emanare una legge sul copyright del software e
deve decidere quali proprieta' possano essere attribuite a un programma) e soprattutto che
assumesse formidabili proporzioni economiche (il verdetto finale potrebbe causare il fallimento di
qualche colosso industriale e la fortuna di qualche oscuro programmatore), perche' pensatori di altre
discipline (principalmente avvocati) affrontassero il problema e, nel giro di poche settimane,
giungessero alla conclusione che non e' affatto detto.
Viceversa: molti concetti che i filosofi dibattono ancora accanitamente sono stati da tempo
abbandonati. Per esempio, nei libri di Filosofia di questi ultimi vent'anni si e' data grande
importanza ai programmi di Winograd e a quelli di Schank. L'Intelligenza Artificiale ha smesso di
studiarli da, piu' o meno, vent'anni. In questi vent'anni sono stati costruiti programmi assai piu'
sofisticati per fare le stesse cose e, soprattutto, programmi almeno altrettanto sofisticati per fare
tante altre cose (che riteniamo piu' interessanti). Il lettore filosofo non si irriti con me, pertanto, se
ometto SHRDLU e parlo invece di CYC: non e' colpa mia se tanti filosofi scopriranno l'esistenza di
CYC soltanto fra vent'anni.
Premessa per i lettori fisici
Questo libro avanza anche la proposta di edificare una scienza unificata del pensiero e dell'universo.
Benche' questo tema richieda lo spazio di un altro libro, anzi di molti altri libri, quanto verra'
esposto nei capitoli successivi dovrebbe essere sufficiente a stimolare alcune riflessioni sulle
cosiddette "leggi della Natura". Ho cercato di elencare il maggior numero di similitudini fra
fenomeni e teorie mentali e fenomeni e teorie fisici; e, laddove avevo qualche intuizione, ho anche
cercato di trovare un nesso che non fosse la pura coincidenza.

Tanto fatti macroscopici, quale l'alterazione delle forme, quanto fatti microscopici, quale
l'indeterminatezza quantistica, hanno dei corrispondenti nel mondo della mente (la memoria e
l'ambiguita'). E da questi paralleli e' forse possibile edificare una teoria unificata dei fenomeni
mentali e fisici.
Spero che i fisici, abituati a trattazioni ben piu' rigorose di questa, mi perdoneranno la superficialita'
dell'esposizione; e che troveranno comunque materiale su cui meditare, in particolare sulla
possibilita' di ricostruire la Meccanica Quantistica su un principio di "ambiguita'" invece che di
indeterminatezza. L'idea che il divenire del mondo sia governato dal caso ha dominato e affascinato
il nostro secolo, ma forse esiste una teoria che puo' rendere conto dei fenomeni quantistici senza
invocare le onde di probabilita', i dadi di Dio e tutto l'apparato di Heisenberg che tanto ha tenuto
occupati i filosofi. E, guarda caso, quella teoria (la teoria che chiamero' "dell'ambiguita'" per non
saper meglio tradurre il termine "fuzzy") potrebbe al tempo stesso rendere conto del divenire del
nostro pensiero in maniera piu' felice di quanto abbia finora fatto la Logica matematica.
Premessa per i lettori informatici
Si discute troppo di macchine intelligenti e si fa troppo poco per costruirle. Questo libro potrebbe
indurre nello stesso peccato. Rischiamo di crescere una generazione di ingegneri del software che
pensa molto ma non sa fare molto. Come ha scritto Roger Schank nel 1991: "... we are in danger of
creating a generation of computationally sophisticated philosophers; they will have all the
usefulness and employability of philosophers as well." Traduzione: invece che formare bravi
informatici "...rischiamo di creare una generazione di filosofi sofisticati dal punto di vista
computazionale. Essi avranno anche la stessa utilita' e la stessa probabilita' di trovare lavoro che
hanno i filosofi."
Prendendo a prestito da Paul Jacobs una metafora divenuta presto famosa (a conferma di quale
brutta fama ci siamo fatti), si deve distinguere fra "software" (i programmi del computer che
svolgono dei compiti utili), "A.I.-ware" (i programmi di Intelligenza Artificiale, che per lo piu' non
funzionano come i loro autori sostengono e anzi talvolta non sono mai stati realmente completati) e
il "vaporware" (il software che esiste soltanto allo stato di idea, e che forse non e' neppure
realizzabile nella pratica). Una volta la differenza era fra le teorie empiriche e quelle non empiriche,
e per far parte delle prime bastava aver compiuto qualche esperimento che confermasse vagamente
qualche aspetto della teoria; oggi la conferma empirica e' il minimo indispensabile per non essere
ridicolizzati, ma poi bisogna anche riuscire a dimostrare di non essere soltanto vaporware o AIware, ma vero e proprio software. Costruire software e' certamente molto piu' difficile che non
scrivere libri.
Questo libro e' un libero divertimento, non ha alcuna pretesa di insegnare a costruire macchine
migliori. Per costruire macchine migliori, dobbiamo usare conoscenze e capacita' che non ci
derivano dalla Filosofia e dalla Psicologia, ma soprattutto dall'Ingegneria.
Questo libro parla di come ci si diverte sulle giostre di Disneyland, non di come si costruiscono le
giostre di Disneyland.
Premessa per i lettori curiosi
Per la bibliografia ho dato piu' rilievo ai volumi che antologizzano diversi scritti dello stesso autore,
piuttosto che fornire i dati delle edizioni originali (per lo piu' introvabili). Cosi' di Davidson viene
citato un solo libro, ma in quel libro sono raccolti, nonche' riveduti, scritti che risalgono al 1967. Se
lo stesso libro e' stato riedito piu' volte con significative revisioni, ho generalmente fornito gli
estremi dell'ultima edizione.
Non ho mai capito perche' di un'edizione si dia solitamente la citta' invece che l'editore. Penso di

aver reso un servizio ai lettori fornendo il nome dell'editore, non la citta'.


Le teorie piu' recenti sono tratte dagli scritti degli autori originali, che sono elencati nelle
bibliografie dei singoli capitoli. In generale per gli autori di lingua inglese ho citato le edizioni in
lingua Inglese, per le altre le traduzioni in italiano.
Sono stato molto dibattuto se fornire una brevissima bibliografia di compendio (ovvero "i libri che
consiglio di leggere dopo aver letto questo libro") oppure se fornire l'elenco di tutti i testi da cui ho
tratto le mie informazioni (ovvero "i libri che ho letto io prima di scrivere questo libro"). Nel primo
caso si rende un utile servizio ai lettori ma si rischia di irritare i professionisti del settore (fra cui i
recensori di libri); nel secondo caso si rischia di spaventare i lettori ma si accontentano i critici. Alla
fine la paura ha prevalso sul buon senso.
Per una panoramica sui temi di ricerca dell'Intelligenza Artificiale classica non posso che
consigliare il mio libro "L'Intelligenza Artificiale" (ed. Muzzio, 1987), che e' stato lodato persino
dai miei peggiori nemici. Per una panoramica sulle discipline della mente e della macchina non
posso che consigliare il mio libro "La Mente Artificiale" (ed. Franco Angeli, 1991), che e' stato
criticato persino dai miei migliori amici. Inutile aggiungere che io considero il secondo nettamente
superiore al primo: se non altro, e' l'unico testo di cui sono a conoscenza che affronti uno spettro
cosi' ampio di problematiche legate all'intelligenza. La prima parte di quel libro e' propedeutica ai
capitoli che state per leggere, in quanto tratta tutti i dettagli che qui daro' per scontati e fornisce un
minimo di storia di come certe idee fondamentali si sono evolute nei secoli. In generale all'inizio di
ogni paragrafo mi limito a riassumere brevemente gli argomenti su cui mi ero dilungato nella
"Mente Artificiale", per poi addentrarmi nelle nuove frontiere.
La mente
Per secoli, anzi millenni, pensatori di tutti i popoli hanno meditato sull'essenza della proprieta' piu'
misteriosa dell'umanita': quella di avere una mente, grazie alla quale, fra l'altro, siamo in grado di
sapere che esistiamo e che esistono gli altri, di provare emozioni e, infine, di studiare la mente
stessa.
Per millenni si e' dibattuto su cosa sia la mente, ma senza possedere ne' gli strumenti ne' i paradigmi
per poterlo fare in termini scientifici. Se ne e' discusso come si discuteva dei fulmini prima di
scoprire l'elettricita'. Le recenti conquiste della Neurofisiologia lasciano intravvedere l'avvento di
una vera "scienza" della mente, che integrera' i risultati ottenuti da fisiologi, biologi, psicologi,
filosofi e chiunque altro abbia prodotto teorie della mente.
Quella scienza dovra' sobbarcarsi un compito assai arduo, poiche', nonostante la mole
impressionante di scoperte degli ultimi decenni, della mente si sa ancora poco, cosi' poco che
probabilmente un giorno sembreranno meno ingenue le credenze antiche sui fulmini delle attuali
teorie sulla mente. .NH Il dualismo
Se ci concentriamo sulla nostra coscienza, sul nostro "me stesso", cio' che percepiamo non e' un
lattice di neuroni e un traffico caotico di segnali, ma un flusso impalpabile di pensieri, emozioni,
sensazioni. Esiste una contraddizione di fondo: usando le facolta' della nostra mente (e cioe'
attraverso l'indagine scientifica) riusciamo a determinare la struttura del cervello; usando un'altra
facolta' della nostra mente, l'introspezione, che non ci pare pero' affatto diversa da quelle altre usate
prima, otteniamo una descrizione completamente diversa della mente. La conclusione naturale e'
che mente e cervello non sono la stessa cosa: il cervello e' una cosa, e la nostra mente riesce
perfettamente a descriverla, e la mente e' un'altra.

Il dualismo di Descartes (la teoria per l'appunto che mente e corpo siano due sostanze diverse) deve
pero' rispondere a una domanda fondamentale: com'e' possibile che due sostanze diverse, dotate di
proprieta' totalmente diverse, interagiscano strettamente come fanno mente e corpo?
Il problema di come stati mentali e stati fisici possano interagire viene risolto in maniera elegante
dal "dualismo di proprieta'" (cosiddetto per distinguerlo dal "dualismo di sostanza" di Descartes),
secondo il quale ogni oggetto possiede sia proprieta' mentali sia proprieta' fisiche (esattamente come
ogni oggetto della Meccanica Quantistica e' al tempo stesso onda e materia, esattamente come in
Relativita' la massa e' energia e viceversa).
La "supervenienza" ("supervenience") di Kim e' una teoria di questo tipo. Kim postula che oggetti
con le stesse proprieta' fisiche abbiano anche le stesse proprieta' mentali. In tal modo una relazione
causale fra due stati puo' essere spiegata tanto in termini "mentali" quanto in termini "fisici". In
questo modo, se non altro, non e' piu' cosi' importante spiegare come mentale e fisico possano
interagire (visto che la loro interazione, qualunque essa sia, non ha altro effetto che quello di
garantirne la coerenza). Anche il computer, per inciso, soddisfa al principio di supervenienza: le
relazioni causali fra stati del computer si possono spiegare sia in termini (microscopici) di algoritmo
sia in termini (macroscopici) di programma.
E' una linea di pensiero che Russell aveva inaugurato, sia pur da un'altra prospettiva: la materia
sarebbe dotata di qualita' che sono direttamente "conoscibili" dalla mente (che sono
"introspettibili"), che sono in relazione causale con la mente.
L'"interazionismo" di Popper e' invece tri-alista: gli oggetti astratti della matematica, le teorie
scientifiche e i prodotti dell'arte sono esempi di attivita' che non appartengono ne' al mondo mentale
ne' a quello fisico. La mente funge da intermediario fra quel (terzo) mondo immaginario e il (primo)
mondo reale. In termini informatici la mente fungerebbe in pratica da operatore che mette in
relazione gli oggetti astratti con quelli fisici. Il computer sarebbe allora un caso particolarmente
interessante di oggetto fisico che puo' manipolare oggetti astratti (matematici, scientifici o artistici)
esattamente come fa il nostro cervello: se la teoria di Popper e' corretta, che tale interazione
necessita di un ente intermedio, allora anche il computer deve essere dotato di questo ente
intermedio, e pertanto di mente.
Il problema alla base del dilemma dualista e' il presupposto che gli oggetti fisici (compresi il nostro
corpo e il cervello) esisterebbero anche se non esistesse la mente. Cio' che noi possiamo sapere e' in
realta' che gli oggetti fisici "esistono" in quanto la nostra mente ci consente di percepirne l'esistenza.
Se essi esistano davvero, e se siano davvero come ci appaiono, non e' dimostrabile al di fuori della
nostra mente, poiche' tutto cio' che siamo e che e' ci appare dentro la nostra mente. La mente ci
presenta gli oggetti del mondo, e uno di questi oggetti e' in particolare se stessa. La sostanza di tutti
gli oggetti e', in ultima analisi, sempre la stessa, ed e' quella mentale. La differenza sta nel processo
che la mente utilizza: mentre gli oggetti che ci appaiono esterni richiedono semplicemente
l'esecuzione di un processo lineare (la descrizione), la mente si puo' auto-presentare soltanto tramite
un processo ricorsivo (l'introspezione). La difficolta' di definire e spiegare la mente sta nel fatto che
la nostra mente tenti di spiegare se stessa senza far ricorso a se stessa, ovvero senza ricorrere a un
processo ricorsivo.
Wittgenstein noto' che il dilemma mente-corpo deriva dall'uso (improprio) che si fa del linguaggio:
il "mentale" e' semplicemente relativo a quel vocabolario che adoperiamo per descrivere il
comportamento. Se io "credo" che piovera', vuol dire che prendero' l'ombrello. In questo senso i
termini mentali (per esempio, "credo che piovera'") non sono altro che la traduzione di propensioni
comportamentali sotto forma di insiemi di frasi condizionali (come: "se devo uscire, prendo
l'ombrello"). Ma queste frasi impiegano a loro volta termini mentali (come "devo"), che vanno a

loro volta spiegati sotto forma di frasi condizionali; e cosi' via, ricorsivamente, all'infinito.
Analogamente Ryle sostiene che ogni riferimento allo stato mentale di una persona non e' altro che
un riferimento al suo comportamento esterno, non a un suo qualche stato o processo interno. .sp 5
FIGURA 1 .sp 5 .NH Il fisicalismo
Il fisicalismo, invece di separare corpo e mente, prende atto dei progressi della Neurofisiologia e
postula che ogni stato mentale sia uno stato fisico del cervello.
Esistono due grandi famiglie di teorie fisicaliste. "Libro" e' una classe, questo libro che stai
leggendo e' una particolare occorrenza di quella classe. Secondo la teoria dell'"identita' di classe"
(originariamente formulata da Place) tutte le occorrenze di uno stato mentale sono identiche alle
occorrenze di un ben preciso stato fisico del cervello (ovvero di uno stato neurale). Secondo la
teoria dell'"identita' di occorrenza" ("token identitity") la stessa occorrenza di uno stato mentale puo'
essere identica a diversi stati neurali in diversi momenti.
Se stato fisico e stato mentale sono cosi' (ovviamente) diversi e possiedono anche proprieta' cosi'
diverse, che senso ha affermare che sono identici? Smart risolve il paradosso per analogia con
quanto capita nelle scienze fisiche: la grande maggioranza degli individui percepisce il fulmine, ma
senza poter percepire il processo fisico (elettromagnetico) che da' origine al fulmine; cio' non toglie
che quel fulmine e il processo fisico corrispondente siano identici; non sono identici soltanto nel
modo in cui li percepiamo: percepiamo direttamente il fulmine, mentre possiamo percepire soltanto
indirettamente (e soltanto se abbiamo studiato Elettromagnetismo) il processo fisico corrispondente.
Feigl, uno dei primi esponenti della teoria dell'identita' di classe, esprime il concetto alla Frege. A
un qualsiasi aggettivo possiamo associare due entita' profondamente diverse: il "concetto" che
definisce e l'insieme degli "oggetti" che vi appartengono (per esempio, l' estensione di "rosso" e'
l'insieme di tutte le cose rosse; l'intensione di "rosso" e' l'idea dell'essere rosso). Secondo Feigl gli
stati mentali e gli stati fisici hanno la stessa "estensione", ma "intensione" diversa; descrivono cioe'
gli stessi stati, ma in maniera diversa. Armstrong aggiunge che deve esistere una relazione causale
ben precisa: uno stato mentale e' l'effetto di un evento e a sua volta la causa di un comportamento
(per esempio, il dolore e' dovuto a un danno fisico e causa una reazione per evitare altro dolore,
oppure per diminuirlo, o semplicemente per esprimerlo).
Cio` e' di nuovo analogo a quanto accade nelle scienze fisiche: una superficie e' "liscia" per via
della sua struttura molecolare; un filo conduce elettricita' per via della sua struttura atomica; e cosi'
via. Esistono sempre due modi di vedere lo stesso fenomeno, uno microscopico e uno
macroscopico, e la scienza assume che sia sempre quello microscopico a rendere conto di quello
macroscopico. Cosi' saerbbe anche per corpo (cervello) e mente. In realta' nelle scienze fisiche
esistono infiniti livelli di descrizione a cui ci si puo' porre, da quello subatomico a quello cosmico, e
a ogni livello si puo' fornire una spiegazione equivalente del fenomeno. Non sembra questo il caso
dei fenomeni cognitivi, che a quanto pare possono trovarsi soltanto in due stati, o neurale o mentale.
Un altro fatto curioso e' che percepiamo lo stato fisico e lo stato mentale di uno stesso evento in
modi diversi: percepiamo direttamente lo stato mentale (ne siamo coscienti nel momento stesso in
cui si verifica), mentre percepiamo lo stato fisico corrispondente soltanto in maniera molto indiretta
(dobbiamo studiare il cervello con apparecchiature sofisticate). Non solo: posso percepire
direttamente soltanto gli stati mentali che sono miei, e quelli degli altri soltanto indirettamente;
viceversa posso percepire direttamente soltanto gli stati fisici degli altri, e quelli che sono miei
soltanto indirettamente. Non posso infatti stare investigando il mio cervello nel momento in cui sto
provando un certo evento mentale, poiche' in quel momento il mio cervello sta provando quel certo
evento mentale e pertanto non puo' stare investigando se stesso.

Davidson e' invece uno dei fautori della teoria dell'identita' di occorrenza (la stessa occorrenza di
uno stato mentale puo' essere identica a diversi stati neurali in diversi momenti). Secondo Davidson,
benche' ogni stato mentale sia anche uno stato fisico, non esiste una legge che consenta di stabilire,
dato uno stato mentale, qual'e' lo stato fisico (neurale) corrispondente. Non esiste, insomma, una
relazione fra stato mentale e stato fisico, fra il vocabolario psicologico e quello neurofisiologico.
Al contrario, Fodor ritiene che una legge presieda effettivamente alla relazione uno-molti
dell'identita' di occorrenza: le occorrenze che, per qualche forma di affinita', formano una classe
mentale possono essere realizzate da occorrenze (eventi) neurali che non formano invece una classe
neurale; non esiste allora una identita' di tipo, ma esiste una identita' di occorrenza. In pratica Fodor
ammette che possano esistere proprieta' mentali e proprieta' fisiche distinte, come nel dualismo di
proprieta'.
Putnam fa notare un'altra ragione per ritenere che le classi di occorrenze mentali possano essere
realizzate da diverse occorrenze (eventi) neurali: i nostri cervelli sono fisicamente diversi (sia pur di
poco), e sono persino diversi in diverse fasi dello sviluppo per lo stesso individuo; cio' nonostante
attribuiamo loro gli stessi fenomeni psicologici (ovvero le stesse classi mentali), come gioia, paura,
speranza; altre specie animali, con cervelli vistosamente diversi dai nostri, provano sensazioni simili
alle nostre; e nulla impedisce di supporre addirittura che degli extra-terrestri, dotati di un cervello
completamente diverso da quelli terrestri, potrebbero egualmente provare sensazioni di paura, gioia,
speranza e cosi' via. Al tempo stesso nulla proibisce che lo stesso evento neurale corrisponda a
diversi stati mentali, in quanto, secondo Putnam, l'ambiente influenza la psicologia dell'organismo.
La teoria dell'identita' di classe rende conto delle vaste differenze che esistono fra i risultati
sperimentali delle scienze psicologiche e i risultati sperimentali delle scienze neurofisiologiche: gli
stessi eventi vengono infatti classificati in maniera diversa a seconda del livello (mentale o fisico) a
cui vengono interpretati.
Se e' ovvio come debbano essere classificati gli eventi neurali (in accordo con la loro
configurazione fisica nel cervello), non e', pero', piu' chiaro come classificare quelli mentali, visto
che la loro classificazione non deve necessariamente rispecchiare quella neurale. .NH Il
funzionalismo
Una possibile classificazione degli stati mentali e' allora quella che usa come criterio la loro
"funzione", o, meglio, i loro ruoli causali all'interno del sistema mentale, ignorando del tutto la loro
costituzione fisica. Per esempio, il ruolo del dolore e' quello di identificare i danni attuali al corpo e
di evitare futuri danni al corpo.
Nella pratica quotidiana, in realta', e' dubbio quale criterio (fisico o funzionale) impieghiamo per
riconoscere uno stato psicologico. Lewis fa notare che, se incontrassimo un marziano fatto in
maniera diversa che piange e un pazzo con una profonda ferita sanguinante che ride a crepapelle,
riconosceremmo entrambi come persone che stanno provando dolore: eppure nel primo caso usiamo
un criterio comportamentale (riconosciamo il "processo" di provare dolore), nel secondo un criterio
fisico (riconosciamo lo "stato" di provare dolore).
Lewis ne deduce che uno stato mentale deve essere definito da uno stato fisico che non e'
necessariamente lo stesso per tutte le specie, e da un "ruolo causale" che mette in corrispondenza
tutti gli stati mentali di un certo tipo (di tutte le specie) sulla base del comportamento che tale stato
induce nell'organismo: per esempio, il dolore da' sempre origine al comportamento comunemente
associato al dolore, anche se in un marziano lo stato fisico e' diverso. In pratica gli stati mentali
sarebbero definiti dalla psicologia del senso comune ("folk psychology"): se e' possibile trovare un

insieme di stati fisici che realizza tutti i ruoli causali richiesti dalla psicologia del senso comune,
quell'insieme di stati costituisce un'interpretazione della psicologia del senso comune. Viceversa,
quella psicologia definisce implicitamente gli stati mentali dell'organismo. Per analogia con la
semantica di Tarski, ogni organismo a cui si applichi la psicologia del senso comune sarebbe cioe'
un "modello" per la psicologia del senso comune (una delle sue possibili realizzazioni).
Lycan ha fatto pero' notare che la teoria di Lewis non funziona per due casi, uno molto comune (il
trapianto di un organo artificiale al posto di un organo naturale, stessa funzione ma diversa
struttura) e uno ipotetico (la conversione di un organo a svolgere un ruolo diverso nell'organismo,
stessa struttura ma diversa funzione). .NH Il funzionalismo computazionale
Una macchina di Turing e' in grado di compiere le operazioni che servono per operare con la logica
matematica: leggere i simboli attuali, elaborare i simboli, scrivere nuovi simboli, passare ad
esaminare nuovi simboli. A seconda del simbolo che legge e dello stato in cui si trova, la macchina
di Turing decide se spostarsi avanti, indietro, scrivere un simbolo, cambiare stato o fermarsi. La
macchina di Turing e' un sistema formale automatico: un sistema per manipolare automaticamente
un alfabeto di simboli secondo un insieme finito di regole. La macchina di Turing "universale" e'
una macchina di Turing in grado di simulare tutte le possibili macchine di Turing, in quanto
contiene al suo interno una sequenza di simboli che descrive la specifica macchina di Turing da
simulare; ovvero per ogni procedura computazionale la macchina di Turing universale e' in grado di
simulare una macchina che esegue quella procedura. La macchina di Turing universale e' pertanto in
grado di calcolare qualsiasi funzione computabile. Se i processi della mente sono solamente quelli
computazionali, allora la macchina di Turing e' "equivalente" alla mente.
Il funzionalismo nacque di fatto quanto Putnam suggeri' di identificare lo stato psicologico di una
persona ("credere che", "desiderare che", etc) con uno stato della macchina di Turing. Lo stato
psicologico causerebbe allora altri stati psicologici in accordo con le operazioni della macchina.
Putnam non credeva che lo stato mentale fosse dovuto unicamente allo stato fisico del cervello e
ambiva a trasformare in scienza la psicologia dei desideri e delle convinzioni. Usando il paradigma
della macchina di Turing, ovvero del computer, Putnam poteva ipotizzare che desiderio e
convinzione corrispondessero a formule depositate in due registri della macchina e che appositi
algoritmi usassero quelle formule come input per produrre come output delle azioni. I concetti
sarebbero divenuti in tal modo delle entita' che possono essere descritte e manipolate
scientificamente, esattamente come la massa o la quantita' di moto. (In seguito, forse anche per aver
meglio compreso cos`e` un computer, Putnam cambiera' idea: capita spesso che i filosofi cambino
idea dopo aver capito di cosa stanno parlando).
Block e Fodor propongono invece di identificare lo stato psicologico di una persona con
l'"operazione" compiuta sullo stato della macchina, ovvero con lo stato "computazionale" della
macchina (in tal modo lo stato psicologico non dipende dallo stato fisico della macchina e puo'
essere lo stesso per macchine diverse che si trovino in stati diversi). E' come dire che lo stato
psicologico di una persona sia dovuto al processo in corso nella sua mente (o, nel caso di un
computer, al programma in corso) invece che allo stato in cui si trova.
I "qualia" (le sensazioni associate all'essere in certi stati psicologici) non sembrano pero' poter
essere spiegati neppure in questo modo. Block e Fodor formulano due esempi: un organismo con gli
stati funzionali identici al nostro, ma nel quale il dolore provoca la sensazione che noi associamo al
piacere (qualia invertiti), e un organismo con gli stati funzionali identici al nostro, ma nel quale il
dolore non provoca nessuna sensazione (qualia assenti). In entrambi i casi il funzionalismo non
rende conto del fenomeno psicologico. .NH Il funzionalismo teleologico
Il funzionalismo presenta un problema di fondo, in quanto, come ha fatto notare Block, non

prescrive come limitare il campo degli organismi dotati di stati mentali: se si assume che qualunque
sistema dotato di comportamento simile al nostro e' dotato anche di stati mentali (l'estremismo del
behaviorismo), si devono accettare anche organismi che sono palesemente privi di attivita' mentale
(Block fa l'esempio dell'economia della Bolivia, che un abile finanziere potrebbe manipolare in
modo da simulare le relazioni funzionali della nostra mente); se invece si richiede che il sistema
possegga anche gli stessi processi interni (l'estremismo dell'identita' di classe), si rischia di
escludere esseri a cui verrebbe invece naturale attribuire un'attivita' mentale (quale un extraterrestre
che agisca in tutto e per tutto come noi, ma abbia processi interni diversi).
Il primo problema e' quello di definire il termine stesso di "funzione" in maniera da non consentire
la sua applicazione a tutto cio' che presenta una causa e un effetto. Mentre Cummings considera
"funzione" tutto cio' che serve a qualcosa, e pertanto qualunque componente ha una funzione in
quanto contribuisce in qualche modo alle proprieta' del sistema di cui fa parte, e una funzione unica
in quanto differisce certamente in qualche minimo dettaglio da ogni altro componente, Sober ritiene
che la funzione vada sempre definita in maniera relativa: una componente ha una data funzione
soltanto rispetto a una certa proprieta' del sistema, e due componenti i cui effetti sono diversi
possono egualmente avere la stessa funzione rispetto a una certa proprieta' del sistema. Per esempio,
l'appendice non ha alcuna funzione rispetto alla digestione; per esempio, le mani e i piedi hanno la
stessa funzione rispetto a battere il tempo della musica.
Il problema puo' essere allora risolto analizzando lo "scopo" dei processi mentali, ovvero in un
contesto "teleologico", che, secondo Millikan e Dretske, si situa inevitabilmente in uno scenario
biologico. Dretske, per esempio, fa notare come la funzione teleologica possa discriminare la
funzione di un batterio dell'emisfero settentrionale che e' dotato di un magnete; questo magnete
indica la direzione in cui dirigersi per allontanarsi dalla superficie dell'acqua, che e' ricca di
ossigeno e pertanto fatale al batterio; ma al tempo stesso quel magnete indica il polo nord; se il
batterio finisse nell'emisfero meridionale, quel magnete, ingannato dal polo sud, lo spingerebbe
verso la superficie e pertanto verso la morte ("misrepresentation"). Pertanto la funzione del magnete
e' quella di indicare l'ossigeno, non quella di indicare il polo nord.
Wright, per esempio, sostiene che qualsiasi caratteristica di una specie esiste perche' e' servita a
quella specie per superare la selezione naturale. L'evoluzione della specie diventa pertanto il criterio
fondamentale per stabilire la funzione di una proprieta'. Una versione piu' "debole" di questo
principio e' quella di Brandon, secondo cui non e' l'evoluzione (come la proprieta' si sia evoluta), ma
soltanto l'adattamento (come la proprieta' aiuti l'organismo ad adattarsi all'ambiente) a definire la
funzione di una proprieta'. In tal modo i processi da prendere in considerazione sono quelli e
soltanto quelli che contribuiscono all'adattamento della specie al suo ambiente. In generale, l'idea e'
che, se vogliamo capire come un sistema funziona, dobbiamo prima capire perche' funziona, ovvero
quale informazione deve estrarre dall'ambiente.
Il problema "teleologico" finisce per spostare il tema della ricerca: non piu' cosa sia la mente, ma
come abbia avuto origine. A questo proposito Donald considera la cognizione come l'ente che media
fra il cervello e la cultura: la mente ha acquisito le sue facolta' cognitive per poter partecipare a una
cultura (prima attraverso abilita' mimetiche, poi attraverso lo sviluppo del linguaggio e infine con
l'avvento di sistemi simbolici). Gli stati mentali assolverebbero a una funzione innanzitutto
"culturale". .sp 5
FIGURA 2 .sp 5 .NH Il funzionalismo omuncolare
Un altro modo per evitare i paradossi del funzionalismo e' quello di eliminare del tutto il dualismo
mente/cervello ampliando all'infinito il numero dei possibili tipi di stato. Invece che esistere
soltanto uno stato funzionale e uno stato fisico che in qualche modo vanno ricondotti l'uno all'altro,

si suppone che esista un "continuo" di stati fra il fisico e il funzionale.


Lycan, opponendosi a una visione del mondo dicotomica in cui esistono soltanto un livello inferiore
fisiochimico e un livello superiore psicofunzionale, concepisce la Natura come organizzata in
diversi livelli gerarchici (subatomico, atomico, molecolare, cellulare, biologico, psicologico e cosi'
via), ciascuno dei quali e' al tempo stesso fisico e funzionale: fisico rispetto al livello
immediatamente superiore e funzionale rispetto a quello immediatamente inferiore. Procedendo dal
basso verso l'alto si ottiene una descrizione fisica, strutturale, della natura (gli atomi compongono
molecole che compongono cellule che compongono tessuti che compongono organi che
compongono corpi...); dall'alto verso il basso si ottiene una descrizione funzionale (per spiegare
come funziona il corpo, studiamo la funzione delle membra, per studiare la cui funzione studiamo la
funzione dei muscoli, etc). L'ontologia aggregativa ("bottom-up") e l'epistemologia strutturata
("top-down") della Natura risultano cosi' essere due aspetti duali. L'apparente irriducibilita' del
mentale e' dovuta all'irriducibilita' dei vari livelli.
Cosi', secondo Dennett, il fenomeno della mente va ridotto a un insieme di funzioni cognitive;
ciascuna funzione cognitiva va ridotta a problemi cognitivi piu' semplici; e cosi' via semplificando
di volta in volta il problema e riducendo sempre piu' l'"intelligenza" richiesta al sistema per
risolverlo; finche' si raggiunge un livello in cui non e' richiesta altra intelligenza che quella
disponibile in una macchina. A ogni livello il comportamento del sistema e' dato dall'interazione di
un insieme di componenti interconnessi (o "omuncoli"); ciascuno e' a sua volta un sistema di livello
inferiore, il cui comportamento e' dato dall'interazione di un insieme di altri omuncoli.
Analogamente, concepiamo il funzionamento di un'automobile come dovuto all'interazione fra
ruote, motore, sterzo, e cosi' via; a sua volta il funzionamento del motore e' determinato
dall'interazione fra carburatore, candele, e cosi' via.
L'architettura cognitiva della "societa' delle menti" di Minsky parte dal presupposto che il
comportamento intelligente sia dovuto al comportamento non intelligente di un numero molto
grande di "agenti", organizzati in una gerarchia "burocratica" non diversamente dagli omuncoli di
Dennett. L'insieme delle loro azioni elementari e delle loro comunicazioni, altrettanto elementari,
produrrebbe comportamenti sempre piu' complessi man mano che si sale nella scala gerarchica.
Minsky enfatizza proprieta' come la decomposizione dei problemi, la delega dei compiti e la
decentralizzazione del controllo.
Il fascino del funzionalismo omuncolare e' che riesce a rendere conto della differenza con cui
percepiamo mente e cervello: l'irriducibilita' della mente al cervello sarebbe un po' come
l'irriducibilita' del continuo al discreto.
L'intenzionalita'
Uno dei primi problemi che si pone agli scienziati della mente (in particolare a quelli che credono
nel dualismo mente-corpo) e' quello di definire in maniera chiara e precisa cosa sia la mente.
Secondo Descartes una sostanza deve essere definita tramite quella proprieta' tale che, se la sostanza
perdesse quella proprieta', non sarebbe piu' la stessa sostanza. Per gli oggetti fisici, per esempio, la
proprieta' che li definisce e' l'estensione nello spazio (in altre parole gli oggetti fisici "occupano
posto"). Per gli oggetti mentali Descartes non trovo' una proprieta' altrettanto intuitiva, e fece
ricorso al concetto generale di "pensiero", che e' quasi una tautologia, o quantomeno si limita a
spostare il problema alla definizione di cosa sia il "pensiero".
L'intenzionalita' si presta invece bene a tale fabbisogno in quanto, oltre a essere ben definibile, e'

una proprieta' che sembra esclusiva della mente umana, che non sembra trovarsi in altre sostanze
della natura. Per "intenzionalita'" i filosofi intendono la proprieta' che uno stato faccia riferimento a
un altro stato: lo stato di un oggetto non fa, generalmente, riferimento a null'altro che al fatto che
quell'oggetto si trovi in quello stato. Viceversa la mente umana si puo' permettere il lusso di trovarsi
in uno stato che fa riferimento a un altro stato: posso "credere" che questo libro sia ben scritto,
posso "sperare" che molti lettori lo compreranno, posso "temere" che molti filosofi lo
stroncheranno, e cosi' via. Questi sono tutti stati mentali che fanno riferimento ad altro (al mio libro,
ai lettori, ai filosofi e cosi' via).
Secondo Brentano gli stati mentali contengono un oggetto in maniera "intenzionale" (cioe' nel senso
che vi fanno riferimento), ed e' proprio l'intenzionalita' a distinguere uno stato mentale da uno stato
fisico. Ma gli stati intenzionali possono far riferimento a oggetti che non esistono: i bambini nati
prima del Sessantotto credevano a Babbo Natale, gli appassionati di oroscopi temono tuttora gli
ascendenti planetari e qualche ottimista spera forse che esistano dei politici non corrotti. Secondo
Brentano ai fini dell'intenzionalita' Babbo Natale e gli ascendenti planetari sono egualmente oggetti,
in quanto si possono percepire mentalmente. Secondo Meinong, invece, gli oggetti inesistenti, come
Babbo Natale, gli ascendenti planetari e i politici non corrotti, sono comunque dotati di
"sussistenza", se non di "esistenza", e l'affermazione di Brentano va pertanto riferita alla sussistenza
degli oggetti. Se non che' in tal modo non e' piu' possibile distinguere uno stato mentale relativo a
un oggetto reale da uno stato mentale relativo a un oggetto inesistente, e tutto cio' che capita nella
mente sarebbe relativo alla "sussistenza" o (in termini di Frege) al "senso" delle cose, e non alle
cose stesse.
Per Brentano l'intenzionalita' non e' soltanto cio' che separa il mondo fisico da quello mentale: e'
anche cio' che impedisce lo sviluppo di una scienza dei fenomeni mentali. Non solo la mente e'
distinta dal corpo, ma non puo' neppure essere studiata con gli abituali strumenti della scienza. .NH
Il linguaggio intenzionale
Esistono delle alternative al criterio di Brentano/Moening.
Gli stati mentali violano due leggi fondamentali della logica simbolica: quella di composizionalita'
(che la verita' di un'affermazione composta sia funzione della verita' delle sue componenti) e quella
di Leibniz (che la verita' o falsita' di una frase non cambi se si sostituisce un termine con un altro
termine che si riferisce allo stesso oggetto).
Per esempio, la verita' di una frase del tipo "Cinzia crede che Giusi abbia trent'anni" non dipende
dal fatto che Giusi abbia veramente trent'anni; e la frase "Cinzia crede che la moglie di Vincenzo
abbia trent'anni" potrebbe non essere vera, benche' Giusi e "la moglie di Vincenzo" si riferiscano
alla stessa persona.
Per trattare le frasi "intenzionali" relative agli stati mentali dobbiamo cioe' usare un linguaggio che
esibisce delle proprieta' particolari, un linguaggio che possiamo chiamare "intenzionale". Notando
questo fatto, Chisholm propose di identificare il tipo di stato con il tipo di linguaggio: quando
studiamo stati fisici, usiamo un linguaggio privo di frasi intenzionali; quando studiamo stati
mentali, usiamo un linguaggio con frasi intenzionali. Tanto Chisholm quanto Anscombe (che
identifica il linguaggio intenzionale con le sue caratteristiche grammaticali) si limitano ad
analizzare l'aspetto linguistico dell'intenzionalita', invece che addentrarsi nelle differenze
ontologiche fra oggetti intenzionali e non.
Il criterio linguistico di Chisholm/Anscombe non funziona pero' con le frasi "modali" (che non sono
intenzionali, ma egualmente violano la legge di Leibniz) e con altri tipi di frasi.

Un criterio per riconoscere l'intenzionalita' che non presenta questo inconveniente e' quello delle
"attitudini proposizionali" di Russell, ovvero delle frasi che hanno la forma:
Le frasi relative a stati mentali possono sempre essere ricondotte a una "attitudine proposizionale":
"Vincenzo spera che Giusi ottenga una promozione", "Dario crede che Cinzia sia al lavoro", "Chiara
ha paura che Cinzia la sgridi", e cosi' via.
Separando la proposizione dall'attitudine si ottiene che uno stesso soggetto puo' avere la stessa
attitudine nei riguardi di due diverse proposizioni oppure attitudini diverse riguardo la stessa
proposizione ("Dario spera che Cinzia sia al lavoro", ma "Dario teme che Cinzia sia a casa
ammalata"). La proposizione, per inciso, non e' altro che il contenuto dello stato mentale del
soggetto.
Anche Searle ha esaminato gli aspetti linguistici dell'intenzionalita', ma dal punto di vista dei
rapporti fra stati mentali e stati linguistici. In altre parole ha tentato di unificare l'intenzionalita' con
la sua teoria degli atti di parlato. In alcuni casi esiste infatti una relazione causale fra lo stato
mentale e il mondo, e questa relazione causale e' data dall'atto di parlato (per esempio, un comando
e' la relazione tramite cui uno stato mentale causa una struttura del mondo) o da una percezione
(una percezione e' la relazione tramite cui il mondo causa uno stato mentale). Searle ritiene
comunque che il linguaggio non possieda vera intenzionalita', ma la erediti dagli stati mentali
sottostanti.
Piu' in generale, le attitudini proposizionali hanno una prerogativa che non va trascurata: come tutto
in natura, servono a qualcosa. Per l'esattezza esse governano il nostro comportamento e il
comportamento che esse governano risulta essere estremamente appropriato per l'occasione in gran
parte dei casi. Pertanto occorre anche spiegare come gli stimoli esterni modifichino le nostre
attitudini proposizionali e come tali attitudini influiscano poi sul nostro comportamento. .NH La
teoria computazionale della mente
Anche Sellars pensa che gli stati intenzionali siano stati fisici, ma, a differenza di Brentano, pensa
anche che gli stati fisici siano dotati di proprieta' semantiche, e che queste proprieta' semantiche
siano simili a quelle di cui sono dotati i termini linguistici: un individuo pensa P se esiste uno stato
del suo cervello che porta il contenuto semantico di P (nello stesso modo in cui una frase in inglese
o in italiano esprime P). In altre parole Sellars trova un'analogia fra i ruoli "funzionali" che gli stati
fisici del cervello giocano nel comportamento dell'individuo e i ruoli "inferenziali" che i
corrispondenti termini linguistici giocano nelle inferenze del linguaggio; e postula poi che la
semantica dell'intenzionalita' sia in qualche relazione con quella del linguaggio. La teoria di Sellars
non risolve pero' il dilemma della cosiddetta "psicosemantica": come fa uno stato fisico a far
riferimento a P? Come fa a far riferimento a Vincenzo? E come fa a far riferimento al figlio di
Vincenzo, che non esiste neppure?
Sembrerebbe intuitivo ritenere che esistano tre entita' legate al modo in cui la mente fa riferimento
al mondo: i concetti, gli oggetti, i segni; e che fra di loro esistano le seguenti relazioni: un concetto
della mente (ovvero una rappresentazione mentale) fa riferimento a qualcosa che si trova nel
mondo; al tempo stesso quando viene associato a un segno, diventa il significato di quel segno. Il
concetto e' pertanto cio' che mette in relazione un segno e un oggetto. Per esempio, quando capisco
le parole (il segno) "Vincenzo Tamburrano", associo quelle parole al concetto (alla rappresentazione
mentale) del mio amico Vincenzo, e questo concetto determina che mi sto riferendo a Vincenzo
Tamburrano. .sp 5
FIGURA 1 .sp 5

Questa linea di pensiero (aristotelica) postula in realta' che: 1. ogni parola sia associata con una
rappresentazione mentale; 2. due parole abbiano lo stesso significato se e solo se sono associate alla
stessa rappresentazione mentale; 3. la rappresentazione mentale determini a quale oggetto la parola
si riferisce.
Il postulato piu' debole e' il terzo: per Putnam, per esempio, non puo' essere la sua rappresentazione
mentale di un olmo ad associare la parola "olmo" all'albero olmo in quanto lui non sa distinguere un
olmo da un faggio. Non solo (Frege) l'identita' di referente non implica necessariamente l'identita' di
significato (vedi l'esempio della stella del mattino e la stella della sera, che sono entrambe Venere
ma hanno due significati diversi); addirittura (Putnam) la differenza di referenza e' compatibile con
l'identita' di significato (vedi l'esempio delle terre gemelle in cui l'acqua e' due sostanze diverse,
benche' io e il mio gemello abbiamo in mente la stessa cosa quando usiamo la parola "acqua").
Fodor risolve il problema eliminando proprio questo terzo postulato.
La teoria computazionale della mente di Fodor assume che la mente possa essere assimilata a un
calcolatore capace di immagazzinare ed elaborare simboli. Il paradigma delle attitudini
proposizionali puo' allora essere realizzato immaginando che una memoria di simboli sia assegnata
a ogni possibile attitudine ("speranza", "desiderio", "timore", etc) e che ogni simbolo corrisponda a
una delle possibili proposizioni: una particolare proposizione incasellata in una particolare
attitudine costituisce allora una ben precisa attitudine proposizionale. Ogni simbolo e' una
"rappresentazione mentale" e la mente e' dotata di un insieme di regole per operare sulle
rappresentazioni. La vita cognitiva, il pensiero, e' la trasformazione di queste rappresentazioni.
Tali rappresentazioni mentali costituiscono un "linguaggio della mente", che Fodor battezza
"mentalese". Che esista un linguaggio interno alla mente Fodor lo deduce da tre fenomeni: il
comportamento razionale (la capacita', cioe', di calcolare le conseguenze di un'azione),
l'apprendimento di concetti (la capacita' di formare e verificare un'ipotesi) e la percezione (la
capacita' di riconoscere un oggetto o un evento). Tutti questi fenomeni non sarebbero possibili se
l'agente non potesse rappresentare a se stesso gli elementi del problema. Che questo linguaggio non
possa essere una delle lingue a cui siamo abituati e' dimostrato a sua volta da due fatti: primo, anche
altri animali, incapaci di parlare, esibiscono facolta' cognitive simili alle nostre; lo stesso atto di
imparare a parlare una lingua richiede l'esistenza di un linguaggio interno di rappresentazione.
Nello schema di Fodor la mente manipola simboli senza sapere cosa quei simboli rappresentino
(ovvero in maniera puramente sintattica: la rappresentazione non determina se e a quale oggetto ci
si riferisca). Il comportamento e' dovuto esclusivamente alle strutture interne della mente, non a cio'
che quelle strutture rappresentano.
La teoria computazionale di Fodor rende facilmente conto delle anomalie logiche del linguaggio
intenzionale, le quali non risultano infatti per nulla anomale: le sostituzioni alla Leibniz, per
esempio, sono consentite non appena la co-referenzialita' (fra "Giusi" e "la moglie di Vincenzo")
viene rappresentata nella mente, non prima, e la regola di sostituzione puo' operare e opera soltanto
da quel momento, non prima. E' una proprieta' delle macchine simboliche quella di poter operare su
una struttura soltanto quando tale struttura e' stata rappresentata nel linguaggio della macchina e la
macchina possiede almeno una regola in grado di operare su quella struttura. Tutti gli apparenti
paradossi dell'intenzionalita' vengono risolti dal fatto stesso di aver assimilato la mente a un
calcolatore simbolico.
Al tempo stesso la teoria computazionale spiega in maniera semplice ed elegante come le attitudini
proposizionali abbiano origine nella nostra mente (sono le rappresentazioni che la mente produce

del mondo) e come esse influiscano sul nostro comportamento (il comportamento e' il risultato di un
calcolo eseguito proprio su quelle rappresentazioni). Fra tutti i tipi di calcolo possibili, l'inferenza
logica sarebbe stata prescelta dalla natura in quanto la migliore per generare un comportamento che
ci consenta di sopravvivere.
La teoria di Fodor e' un'estensione delle idee di Chomsky: se le frasi che un individuo e' in grado di
produrre (la sua "competenza") sono infinitamente superiori alle frasi che quell'individuo
pronuncera' durante la sua esistenza (la sua "performance"), vuol dire che esiste una struttura
portante del linguaggio grazie alla quale si e' in grado di parlare e capire qualunque frase. Questa
struttura e' una "grammatica universale" comune a tutti: ciascuno, poi, impara una delle sintassi di
superficie disponibili (italiano, inglese, spagnolo, etc).
Non diversamente, Marr sostiene che l'apparato visivo faccia uso di informazioni innate per
decifrare i segnali di luce che percepiamo dal mondo; altrimenti quei segnali sono talmente ambigui
che non potremmo mai inferire com'e' fatto il mondo. Secondo Marr l'elaborazione dei dati
percettivi avviene grazie ad appositi "moduli", ciascuno specializzato in qualche funzione, che sono
controllati da un modulo centrale.
Secondo Chomsky, Marr e Fodor, pertanto, il cervello contiene rappresentazioni semantiche (in
particolare una grammatica) che sono innate e universali (ovvero di natura biologica, sotto forma di
"moduli" che si attivano automaticamente) e tutti i concetti sono decomponibili in tali
rappresentazioni semantiche. L'elaborazione di tali rappresentazioni semantiche e' puramente
sintattica.
Shepard ritiene che le specie sopravissute alla selezione naturale abbiano sviluppato strutture innate
per operare nel proprio ambiente, in maniera tale che per il singolo individuo non sia piu' necessario
impararle. Tali strutture innate non contengono informazioni circa le caratteristiche degli oggetti
(forma, colore, dimensione, etc), ma circa la struttura di quelle caratteristiche. Per esempio, lo
spazio psicologico dei colori e' tri-dimensionale (tinta, luminosita', saturazione) ed euclideo. Gli
spazi psicologici riflettono l'adattamento evolutivo al nostro ambiente.
Neppure Fodor, pero', riesce a risolvere il problema cosiddetto "della psicosemantica": se le
attitudini proposizionali dipendono da fattori ambientali, cosa sono questi fattori ambientali? .sp 5
FIGURA 2 .sp 5
L'estremista degli approcci sintattici e' Stitch, secondo il quale entrano in gioco quattro entita': stati
cognitivi di tipo D (desideri), stati cognitivi di tipo B (convinzioni), stimoli ed eventi
comportamentali (azioni). Gli stati cognitivi corrispondono ad oggetti sintattici in modo tale che le
relazioni causali fra i primi, o fra i primi e gli stimoli e le azioni, corrispondono a relazioni
sintattiche dei corrispondenti oggetti sintattici. In questo contesto il principio di autonomia di Stitch
afferma che: le differenze fra organismi (per esempio quelle dovute a fattori ambientali) che non
siano riconducibili a differenze dei loro stati interni non sono pertinenti per una teoria psicologica;
ovvero gli unici fattori ambientali che devono essere presi in considerazione sono quelli che
provocano differenze negli stati interni.
Diversi filosofi sostengono invece che il modello del calcolatore simbolico e' implausibile dal punto
di vista biologico. Dennett, per esempio, fa notare che il cervello dovrebbe contenere un numero
infinito di strutture per rappresentare tutte le nostre convinzioni, comprese quelle che non abbiamo
mai usato ma che nondimeno crediamo; per esempio, che "le zebre non portano impermeabili". (Ma
forse Dennett trascurava il fatto che un calcolatore simbolico e' dotato di regole di inferenza e, come
qualsiasi sistema formale, puo' dedurre nuove convinzioni da quelle note, e che pertanto potrebbe

bastare un numero molto limitato di convenzioni-assiomi per rendere conto di un numero molto
grande di convinzioni).
Searle sostiene che, se anche fosse plausibile, il modello puramente sintattico di Fodor non sarebbe
in grado di risolvere le numerose ambiguita' del linguaggio naturale (sintatticamente identiche,
semanticamente diverse).
La teoria computazionale della mente fu comunque la prima a rendere conto del processo attraverso
il quale la mente riesce a far riferimento al mondo esterno. Non spiega pero' altri tre fenomeni
fondamentali: come tali rappresentazioni siano connesse con il mondo; attraverso quale processo
vengano costruite dalla mente; e quale sia la struttura del lingaggio del pensiero (in particolare, e' la
stessa per tutti noi? o ogni mente ha la sua?)
I Churchland, in particolare, ritengono che una teoria computazionale della mente dovrebbe essere
riducibile a una teoria della struttura del cervello, che i simboli del "mentalese" di Fodor dovrebbero
essere in qualche modo in relazione con i neuroni, che le leggi astratte postulate per i processi
cognitivi dovrebbero essere spiegate in termini di leggi fisiche per i processi neurali. Finche'
manchera' una teoria unificata della cognizione e della neurobiologia, la teoria computazionale della
mente non potra' essere considerata una teoria. .NH L'elaborazione parallela distribuita
L'elaborazione parallela distribuita (o, piu' semplicemente, il connessionismo) propone
un'alternativa non simbolica (non rappresentazionale) alla teoria computazionale, prendendo a
modello le reti neurali del cervello.
Cio' che viene rappresentato non ha una relazione intuitiva con le convinzioni o percezioni. Si tratta
invece di una rete di nodi, ciascuno dei quali comunica con altri tramite connessioni la cui forza e'
variabile nel tempo; questa forza, che varia in funzione proprio dell'attivita' dei nodi, e' il fattore
principale di rappresentazione. E' come se i nodi si scambiassero simultaneamente una grande
quantita' di messaggi: la rappresentazione e' data dall'insieme di questi messaggi (e non dal
contenuto dei nodi). Quando la rete viene attivata a fronte di uno stimolo, le connessioni cambiano
la propria forza fino a raggiungere una configurazione stabile che costituisce la risposta a quello
stimolo. Cosi', per esempio, tutte le immagini di Vincenzo (di profilo, di fronte, con la barba, senza
la barba, con gli occhiali, senza gli occhiali, etc) causano una propagazione di messaggi all'interno
della rete finche' questa converge a una configurazione che e' proprio quella della rappresentazione
di "Vincenzo".
Non solo il connessionismo rende conto, come la teoria computazionale, del processo attraverso il
quale la mente riesce a far riferimento al mondo esterno, non solo (a differenza della teoria di
Fodor) e' biologicamente plausibile, ma fornisce anche una spiegazione di come le rappresentazioni
mentali vengano costruite (per fluttuazione di forze di connessioni) e di come esse siano connesse
con il mondo (attraverso associazioni del tipo stimolo-risposta); e non ha bisogno di postulare alcun
linguaggio mentale. .sp 5
FIGURA 3 .sp 5
Un ulteriore passo avanti e' la "macchina di Darwin" introdotta da Calvin, che e' capace di generare
una coordinazione adattativa fra l'organismo e il mondo esterno attraverso una selezione di
popolazioni di neuroni per riconoscere certi fatti del mondo esterno e compiere azioni
corrispondenti. .NH L'eliminativismo
Il connessionismo e' gradito anche agli "eliminativisti", che si oppongono all'uso di termini mentali
in un contesto scientifico. Fu Feyerabend il primo ad affermare che ogni discorso relativo ad eventi

mentali e' fuorviante per il fatto stesso che il linguaggio li ammette. E usare questo linguaggio di
termini mentali e' tanto scientifico quanto lo era il linguaggio di streghe e demoni nel medioevo.
Secondo Rorty man mano che la scienza progredisce si rende necessario abbandonare un
vocabolario e adottarne uno nuovo per descrivere gli stessi fenomeni, e non c'e' ragione per cui cio'
non debba valere anche per i fenomeni mentali.
Riassumendo questi punti di vista, Churchland dimostra prima che la cosiddetta "psicologia folk", o
del senso comune (secondo cui siamo agenti "intenzionali", le cui azioni sono guidate da desideri e
convinzioni), e' una teoria empirica, esattamente come qualsiasi teoria scientifica; l'unica differenza
e' che, laddove altre teorie hanno attitudini "numeriche", la psicologia folk ha attitudini
proposizionali. Detto cio', Churchland dimostra che questa teoria e' incompleta (non spiega i sogni, i
pazzi e tante altre anomalie mentali), e' il sottoinsieme di una teoria che e' gia' stata confutata (un
tempo si riteneva che anche gli dei avessero convinzioni e desideri, poi la scienza ha spiegato che il
tuono non era dovuto all'ira di Giove) ed e' difficile da integrare con le altre teorie scientifiche (e'
l'unica eccezione alla progressiva sintesi che e' in atto dalla Biologia alla Fisica). Nella storia
dell'umanita' tutte le teorie (come l'alchimia) che hanno dato risultati cosi' scadenti sono state
abbandonate, anche se, viste in un'ottica "funzionale", potevano essere credibili (esattamente come
il funzionalismo lo puo' essere). Anche Churchland ritiene, in definitiva, che il linguaggio e
l'ontologia della psicologia folk siano destinati a scomparire con l'avvento di una teoria piu'
scientifica, e che termini come "convizione" e "desiderio" saranno un giorno tanto obsoleti quanto
lo sono oggi i quattro "spiriti" dell'alchimia. .NH L'interpretativismo
Analogamente Rosenberg ritiene che le anomalie logiche del linguaggio intenzionale costituiscano
una buona ragione per estromettere i fenomeni intenzionali dalla scienza. E Quine, forte della sua
teoria dell'indeterminatezza, concorda, negando che esistano stati mentali intenzionali. Entrambi
propendono per un'analisi completamente behavioristica del comportamento umano.
La teoria dell'indeterminatezza di Quine ha come conseguenza che, in particolare, non e' possibile
tradurre il linguaggio dei significati nel linguaggio delle scienze fisiche. Questa non e' altro che una
variante della tesi di "irriducibilita'" di Brentano, che gli stati mentali non siano riducibili a stati
fisici. Ma Quine ne trae una conclusione diversa: una scienza dell'intenzionalita' non ha senso, il
linguaggio dell'intenzionalita' e' una mera comodita' pratica.
Coerentemente con il nichilismo di Quine, il secondo Putnam pone la spiegazione e la predizione di
fenomeni intenzionali come la convinzione e il desiderio nella sfera dell'interpretazione: i concetti
non esistono nella mente, sono frutto dell'interpretazione. Si tratta di "interpretare" quel linguaggio,
e lo si puo' fare da due angolature: normativa, che fa ricorso al principio di carita' (Davidson) o di
razionalita' (Dennett), secondo i quali un organismo si comporta come deve comportarsi date le sue
circostanze (per esempio, la maggioranza delle sue convinzioni sono vere; crede alle implicazioni
delle proprie convinzioni; non ha due convinzioni che si contraddicono; etc) e in tal modo aiuta il
compito di chi deve interpretare; e proiettiva (Stitch), secondo la quale la nostra interpretazione
consiste nell'attribuire all'organismo le attitudini proposizionali che noi avremmo se fossimo al suo
posto.
La situazione non e' cosi' diversa da quella della Fisica. Fra la Fisica del senso comune (o folk) e la
Fisica accademica esiste ormai un abisso: molte delle intuizioni della prima (per esempio, che il
Sole giri attorno alla Terra e sia la piu' grande di tutte le stelle) sono considerate delle grossolane
approssimazioni della realta' o addirittura delle pure illusioni ottiche. Anche la Psicologia ha la sua
versione folk e la sua versione piu' accademica: il linguaggio intenzionale, secondo Quine, esprime
la Psicologia del senso comune, e non e' piu' attendibile della Fisica del senso comune. Il problema
e' se lo stesso metodo "scientifico" che utilizziamo per descrivere e prevedere il mondo esterno alla
mente possa essere utilizzato anche per descrivere e prevedere il mondo interno alla mente:

riconciliare l'oggettivo e il soggettivo potrebbe essere un paradosso, come sostiene Nagel. .NH I
sistemi intenzionali
Oltre alla mente umana esistono in realta' altri oggetti che fanno riferimento ad altro, e cioe' gli
strumenti di misura: il termometro, che fa riferimento alla temperatura dell'ambiente, il tachimetro,
che fa riferimento alla velocita' dell'auto, la spia della benzina, o persino l'allarme anti-incendio e
l'anti-furto; e, naturalmente, il computer, l'unico a poter rivaleggiare con la mente umana. Dretske
ha cosi' definito l'intenzionalita': "Ogni sistema fisico i cui stati interni dipendono ... dal valore di
una grandezza esterna ... e' un sistema intenzionale".
Dretske ha ripreso dalla teoria dell'informazione di Shannon e Weaver l'idea che uno stato trasporta
informazione su un altro stato nella misura in cui dipende (secondo una qualche legge) da quello
stato. In questo modo la proprieta' di intenzionalita' viene ricondotta alla relazione di causa ed
effetto: ogni effetto si riferisce alla sua causa.
L'intenzionalita' potrebbe dimostrare la superiorita' e l'unicita' della mente umana, se solo si
riuscisse a scoprire la differenza fra l'intenzionalita' della mente e l'intenzionalita' degli altri sistemi
intenzionali. Se il fatto di avere un contenuto non e' unico degli stati mentali, lo e' il fatto di avere
certi contenuti piuttosto che altri. Inevitabilmente Dretske finisce per discriminare nei confronti
dell'informazione analogica: nel passaggio dai sensori percettivi alla rappresentazione cognitiva (dal
"vedere" Vincenzo al "capire" che si tratta di Vincenzo) si compie una progressiva transizione
dell'informazione da analogica a digitale tale per cui i dati analogici (dimensioni, colore, distanza,
angolatura, etc) vengono poco a poco perduti per costruire il dato, unico ed estremamente
complesso (che Dretske chiama "digitale", forse per scarsa familiarita' con il mondo informatico) di
cosa sia quell'oggetto (il dato di essere Vincenzo). Cio' che rende unica l'intenzionalita' della mente
umana e' questa capacita' di trasformare il dato analogico in un dato digitale.
Se un termometro potesse obiettare a Dretske, sarebbe forse tentato di sostenere che i contenuti
degli stati della nostra mente sono tanto diversi da quelli degli stati di altri sistemi intenzionali
quanto i contenuti dei suoi stati (del termometro) sono diversi dagli stati del tachimetro. Ognuno
tende a vedere i propri contenuti come piu' importanti e "unici", ma la realta' e' che non esiste un
sistema di valori assoluto rispetto al quale stilare una classifica dell'intenzionalita'.
In un certo senso l'analisi causale dell'intenzionalita' sviluppata da Dretske (cioe' che
l'intenzionalita' sia "causata" dall'informazione percepita dai sensori) dimostra proprio il contrario.
Adottando la teoria ecologica di Gibson e Neisser, Dretske ci propone la visione di un mondo in cui
l'informazione e' presente nell'ambiente e gli agenti cognitivi si limitano ad assimilarla. E' da questo
processo di assimilazione che avrebbero origine gli stati interni della mente. Ma questo e'
esattamente cio' che fa uno strumento di misura: prelevare dell'informazione che e' presente
nell'ambiente e usarla per costruire un proprio stato interno. Entrambi i fenomeni (quello della
mente e quello del termometro) sono casi particolari dell'interazione fra organismo e ambiente.
(Heil ha recentemente modificato la teoria di Dretske suggerendo, alla Kant, che la transizione da
analogico a digitale sia resa possibile da concetti innati dell'agente; ma anche il termometro
potrebbe sostenere che la percezione della temperatura viene modificata dalla sua struttura fisica
prima di poter diventare uno stato interno).
Dawkins contesta persino che l'organismo da solo abbia una rilevanza biologica: cio' che ha senso
studiare e' un sistema aperto composto dall'organismo e dai suoi contorni. Per esempio, la ragnatela
fa ancora parte del ragno, alcuni crostacei crescono la propria conchiglia mentre altri se la cercano,
e cosi' via. Il controllo che un organismo esercita non e' totale al proprio interno e nullo all'esterno:
piuttosto si ha un continuo di gradi di controllo, che ammette una parzialita' di controllo al proprio
interno (tant'e' che diversi parassiti agiscono sul sistema nervoso dei loro ospiti) e un'estensione del

controllo all'esterno (come nel caso della ragnatela). Viceversa, non e' detto che dentro i contorni
dell'organismo esista un'unica psicologia: basta pensare al caso degli schizofrenici. Dawkins
ridimensiona in tal modo l'importanza dei singoli organismi e conferisce invece un primato al
"fenotipo esteso", che si estende fin dove arriva il suo controllo. Millikan, riprendendo questa teoria
biologica, sostiene che, nel determinare la funzione di un "sistema", il sistema non e' solamente
l'organismo, ma qualcosa che si estende anche al di la' della sua pelle. Non solo: per assolvere alla
sua missione, il sistema ha spesso bisogno della cooperazione di altri sistemi: per esempio, il
sistema immunitario puo' funzionare soltanto se il corpo viene invaso da virus.
In realta' l'obiezione piu' forte che il termometro deve fronteggiare e' quella che e' stato costruito
dall'uomo.
Questa obiezione non regge pero' nei confronti dell'informazione biologica, che e' molto diffusa in
natura, dal DNA ai cerchi dei tronchi degli alberi, e che e' quasi sempre relativa ad altro, e non e'
stata costruita da nessuno. I filosofi si dimenticano anche spesso che la mente umana non e' l'unica
mente esistente: perlomeno i mammiferi e gli uccelli hanno una mente non troppo diversa dalla
nostra, e presumibilmente sono in grado di provare desideri, speranze e paure. L'intenzionalita'
sembra, insomma, essere, non un privilegio della mente umana, bensi' una proprieta' assai diffusa in
natura.
Si potrebbe persino sostenere che l'intenzionalita' sia una proprieta' generale di tutto l'universo:
persino un sasso, al limite, fa riferimento in mille modi all'ambiente in cui si trova. .sp 5
FIGURA 4 .sp 5 .NH L'intenzionalita' ecologica
Searle sostiene, in effetti, che l'intenzionalita' sia una proprieta' biologica (non solo umana, ma non
addirittura fisica).
Dennett distingue tre strategie utili per spiegare e predire il comportamento di un sistema: fisica
("physical stance"), che inferisce il comportamento dalla struttura fisica e dalle leggi fisiche;
funzionale ("design stance"), che inferisce il comportamento dalla funzione per cui e' stato
progettato (per esempio, riusciamo a predire quando una sveglia suonera' anche senza conoscere il
meccanismo interno dell' orologio); e intenzionale ("intentional stance"), che inferisce il
comportamento dalle convinzioni e dai desideri che quel sistema deve avere se e' un essere
razionale (per esempio, se Vincenzo e' un essere razionale, quando si siede a tavola e si lega il
tovagliolo attorno al collo, vuole mangiare e crede che Giusi abbia preparato il pranzo, e,
conoscendo Giusi, non e' difficile predire che mangera'). L'"atteggiamento intenzionale"
("intentional stance") e' pertanto l'insieme delle convinzioni e dei desideri di un organismo, ed e'
cio' che ci consente di prevedere le sue azioni. Convinzioni e desideri non sono stati interni della
mente che causano un comportamento, ma semplicemente strumenti di calcolo per predire il
comportamento; come se fossero dei costrutti logici che servono soltanto mentre si compiono dei
calcoli.
Il processo che definisce come le convinzioni e i desideri si formano e come determinano il
comportamento dell'organismo ha origini biologiche. Dennett assume che, se un organismo e'
sopravissuto alla selezione naturale, la maggioranza delle sue convinzioni sono vere e l'uso che fa
delle sue convinzioni e' per lo piu' "razionale" (usa le proprie convinzioni per soddisfare i propri
desideri).
Interpretato in chiave biologica (e cioe' in termini di bisogni primari), l'"atteggiamento intenzionale"
finisce per descrivere anche come quell'organismo e' legato al suo ambiente, quale informazione ha
acquisito e quale azione si prepara a compiere. L'organismo riflette in continuazione l'ambiente, in

quanto l'organizzazione stessa del suo sistema ne contiene implicitamente una rappresentazione.
Per Dennett gli stati intenzionali non sono stati interni del sistema, ma descrizioni della relazione fra
il sistema e il suo ambiente (per esempio, un sistema ha paura del fuoco se si trova in una certa
relazione con il fuoco). Inoltre non esiste uno stato intenzionale separato dagli altri, ma,
olisticamente, ha senso parlare soltanto dello stato cognitivo di un organismo nel suo complesso, e
della sua relazione complessiva con l'ambiente. In altre parole l'attitudine proposizionale e' data da
un'"attitudine nozionale", che e' indipendente dal mondo reale, e da una componente dovuta al
mondo reale.
Una "attitudine nozionale" e' definita rispetto a un "mondo nozionale" ("notional world"): i mondi
nozionali di un agente sono i mondi in cui tutte le convinzioni di quell'agente sono vere e tutti i suoi
desideri sono realizzabili. Per esempio, io e il mio doppio sulla Terra gemella di Putnam abbiamo lo
stesso mondo nozionale, benche' viviamo in due mondi reali diversi; io e Vincenzo viviamo nello
stesso mondo reale, ma abbiamo due mondi nozionali diversi. In questo modo Dennett riesce a
risolvere anche il paradosso di Putnam: io e il mio doppio sulla Terra gemella di Putnam abbiamo le
stesse "attitudini nozionali", e le diverse attitudini proposizionali riguardo l'acqua sono dovute
unicamente ai rispettivi ambienti. (Non e' chiaro pero' come "credo di essere famoso" e "ho paura di
non essere famoso" possano coesistere nel mio mondo nozionale).
In definitiva l'intenzionalita' definisce un organismo in funzione delle sue convinzioni e dei suoi
desideri, i quali sono il prodotto della selezione naturale. Quanto piu' i mondi nozionali di un agente
si discostano da quello reale, tanto minore e' la capacita' di adattamento dell'agente al proprio
ambiente. E' la funzione biologica dei meccanismi cognitivi a fissare convinzioni e desideri, e
questi devono essere rispettivamente veri e possibili per essere utili alla sopravvivenza della specie.
Se incontrassimo su un altro pianeta esseri non umani ma che si comportano esattamente come gli
umani, saremmo egualmente in grado di fornire spiegazioni e predizioni intenzionali riguardo il loro
comportamento, in quanto il processo di selezione naturale ha fatto in modo che anche questi esseri
rispondano agli stimoli dell'ambiente nello stesso modo (razionale) in cui rispondono gli esseri
umani.
Come la Biologia non puo' fare a meno del postulato di ottimalita' dei sistemi adattati all'ambiente,
cosi' la Psicologia non puo' fare a meno del postulato di razionalita' dei sistemi intenzionali. Sono
aspetti complementari della selezione naturale e, in ultima analisi, dell'evoluzione delle specie.
La teoria di Dennett consente di interpretare l'intenzionalita' in un contesto ecologico (alla Gibson e
Neisser, come risposta all'informazione dell'ambiente), in un contesto etologico (sotto forma di
profilo cognitivo della specie, cioe' a quale informazione quella specie e' sensibile) e in un contesto
filogenetico (come un organismo sia evoluto per adattarsi cognitivamente al suo ambiente). .bp .NH
Ricapitolando: sum ergo cogito?
Dalla scoperta che la mente e' un sistema intenzionale sono emersi alcuni argomenti inquietanti:
Gli stati mentali sono intenzionali, ovvero fanno riferimento ad altri oggetti, ma non possono far
riferimento all'oggetto in se', in quanto l'oggetto potrebbe non esistere, bensi' devono far riferimento
a "rappresentazioni" di oggetti (reali o meno).
L'unica caratteristica che consente di distinguere uno stato mentale da uno stato fisico, ovvero di
riconoscere l'intenzionalita', e' il linguaggio in cui essa viene espressa, il quale presenta l'anomalia
di non soddisfare piu' le leggi della logica.
Esiste una relazione fra gli stimoli esterni dell'ambiente e le attitudini proposizionali (lo stato
intenzionale) di un sistema.
Un sistema intenzionale soddisfa le leggi della logica se la mente viene considerata come un

calcolatore simbolico, dotata di un suo linguaggio interno. Quella del calcolatore simbolico e' una
teoria che spiega anche cosa sia cio' che consente alla mente di far riferimento al mondo esterno.
Quella dell'elaborazione distribuita parallela spiega anche come la rappresentazione venga costruita
e come essa sia connessa con il mondo e senza bisogno di postulare l'esistenza di un suo linguaggio
interno.
Le attitudini proposizionali della psicologia folk sono simili alle attitudini "numeriche" delle
scienze fisiche.
L'intenzionalita' non e' una proprieta' esclusiva della mente umana, ma risulta diffusa in diversi
sistemi fisici e biologici. Gli stati dei sistemi intenzionali, in generale, misurano qualche grandezza
dell'ambiente in cui si trovano. Gli stati mentali potrebbero non essere altro che un caso particolare
di questo fenomeno, nel qual caso il pensiero stesso non sarebbe altro che la misura di una qualche
grandezza che si trova nel mondo in cui viviamo.
L'intenzionalita' mette in relazione un organismo o sistema con il suo ambiente.
Tale relazione ha avuto origine dal processo di selezione naturale.
Non sembra possibile identificare quella proprieta' esclusiva della mente che definisca in modo
univoco cosa sia la mente.
Il senso e "loro"
La rivoluzione "chomskyana" ha illuso molti che il funzionamento del linguaggio fosse ormai
chiaramente spiegato. In realta' la rivoluzione chomskyana e' servita soprattutto a portare alla luce
problemi che prima non erano mai stati neppure intuiti, ma non ha spiegato molto dell'essenza del
linguaggio. Non ha spiegato ne' "perche'" parliamo, ne' "come" parliamo.
Fin dall'antichita' e' piu' o meno tacitamente ammesso da tutti che il linguaggio e' un "mezzo" e non
un "fine"; ma le opinioni divergono poi su quale sia il fine: "comunicare" e "pensare" sono i due
candidati principali. Se tutto, alla fin fine, serve per sopravvivere, non e' in realta' molto chiaro
come il linguaggio aumenti le nostre probabilita' di sopravvivere (spesso ci complica soltanto la
vita).
Il "perche'", il "come" e il "cosa" sono ovviamente strettamente legati l'uno all'altro. Tentare di
spiegare uno dei tre senza prendere in considerazione gli altri ha portato spesso a formulare teorie
molto eleganti ma poco plausibili. Nel momento in cui, pero', si prendono in considerazione tutti e
tre gli aspetti, i problemi aumentano vertiginosamente. Non e' piu' chiaro ne' come si impara a
parlare, ne' come si parla.
Le origini del linguaggio
Non e' chiaro, soprattutto, perche' soltanto noi parliamo. Nonostante i tentativi di diversi etologi
cognitivi di dimostrare che gli scimpanze' e i babbuini sono prossimi a sviluppare capacita'
linguistiche, e' indubbio che nessun animale esibisce una facolta' propriamente linguistica. Un conto
e' emettere un suono che convoglia un intero significato (per esempio, che ho avvistato un branco di
lupi), un altro e' usare un insieme di suoni elementari per comporre un suono piu' lungo e complesso
che significa qualcosa in virtu' dei suoi componenti. Questa facolta' e' propria soltanto degli umani.
Le origini del linguaggio sono inevitabilmente confuse con quelle dell'Homo Sapiens. Anche gli
scimpanze', i nostri piu' prossimi "cugini", emettono suoni diversi per esprimere concetti diversi.
Lieberman ritiene che il linguaggio abbia avuto origine per comunicare. Nel suo modello, fra l'altro,
gli organi che svolgono compiti sofisticati si sono evoluti da organi piu' semplici che esistono
ancora per compiti piu' semplici, ma che nondimeno partecipano nella produzione di quei compiti
sofisticati (come dimostrato dal fatto che lesioni alle zone sensorimotorie del cervello riducono
anche le capacita' linguistiche). Bickerton, invece, pensa che il linguaggio abbia come funzione
fondamentale quella di rappresentare il mondo, quella di costruire un modello del mondo esterno, e
che pertanto esso sia evoluto per il pensiero individuale piu' che per la comunicazione sociale.

Mentre per Bickerton la sintassi e' il fulcro del linguaggio, per Lieberman tutto ha avuto inizio con
il parlato. L'atto di parlare e' tutt'altro che semplice (si pensi alla coordinazione necessaria fra
respiro e movimenti delle labbra e della lingua); una volta raggiunto questo livello, e' relativamente
facile mettere insieme dei simboli per costruire delle frasi. Per Lieberman, pertanto, e' l'origine del
parlato, non del linguaggio, a nascondere i segreti di questa facolta'. Siccome neppure l'uomo di
Neanderthal non possedeva la lingua e la laringe dell'Homo Sapiens, il parlato e' probabilmente uno
sviluppo molto recente.
L'acquisizione del linguaggio
Non esiste alcuna relazione fra le frasi del linguaggio che il bambino ha sentito quando stava
imparando a parlare e le frasi che pronuncera' da adulto: il bambino non impara a parlare ascoltando
tutte le possibili frasi della lingua; apprende la lingua in maniera progressiva; e, anche dopo che
avra' cominciato a parlare, ci saranno sempre frasi che non ha mai "imparato" ma che e'
perfettamente in grado sia di pronunciare sia di capire.
Per spiegare la differenza fra "performance" (le frasi che un individuo usa durante la sua esistenza)
e "competenza" (le frasi che e' capace di produrre, ma che non necessariamente produrra' durante la
sua vita), Chomsky si rifa' a un fenomeno simile: il bambino riconosce una figura come triangolare
anche se non sa cosa sia un triangolo, e anche se quella figura non e' un triangolo perfetto. L'unica
spiegazione possibile e' che il triangolo sia una forma di consocenza innata (come gia' sosteneva
Descartes), alla quale la mente tenta di ricondurre tutte le figure triangolari. La mente avrebbe
pertanto a disposizione fin dalla nascita i principi della Geometria, cosi' come quelli del linguaggio,
e l'esperienza non farebbe altro che adattare quelle conoscenze innate ai fabbisogni reali. D'altronde
il teorema di Gold (ogni famiglia contenente tutti i linguaggi finiti e un linguaggio infinito non e'
identificabile sulla base unicamente di esempi corretti) dimostra che al bambino non sarebbero
comunque sufficienti le (poche) frasi ascoltate per riuscire a indurre il resto del linguaggio; e
Chomsky stesso aveva gia' dimostrato che la grammatica di un linguaggio naturale non puo' essere
assimilata a un automa a stati finiti.
Chomsky fa anche notare che in realta' non e' vero che il bambino "impari": il bambino non compie
assolutamente nessuno sforzo, l'apprendimento del linguaggio e' qualcosa che "capita" al bambino
senza che lui ne sia piu' conscio di tanto. L'apprendimento del linguaggio non e' poi cosi' diverso
dalla crescita, dalla maturazione, dalla puberta', e cosi' via. La conoscenza innata non puo' allora
essere altro che il bagaglio genetico della specie, accumulato nei millenni per adattarsi all'ambiente.
L'ambiente influisce soltanto in quanto determina tutte le opzioni lasciate aperte dal codice
genetico. In particolare cio' significa selezionare una delle tante lingue possibili. Chomsky fa notare
come all'interno di ogni comunita' linguistica la lingua parlata dai vari individui sia incredibilmente
identica, fino ai minimi dettagli, benche' nessuno di quegli individui sia stato esposto a tutti quei
dettagli. Chomsky interpreta questo fatto come prova che esiste una struttura innata in tutti gli
individui e che grazie a questa struttura l'apprendimento della lingua "deve" svilupparsi allo stesso
modo per tutti.
In altre parole esisterebbe un genotipo linguistico, la cosiddetta "grammatica universale", composto
di principi invarianti e di parametri; i valori dei parametri vengono "selezionati" dall'ambiente fra
tutti i valori possibili. In tal modo si stabilisce un parallelo fra fenomeni biologici del corpo, come
quello del sistema immunologico, e il linguaggio. Comrie, per esempio, ha redatto un catalogo di
proprieta' universali che sembrano valere, con minime variazioni, per tutte le lingue note.
Non e' comunque chiaro come avvenga in pratica l'apprendimento della lingua. Dal punto di vista
matematico Angluin ha dimostrato che al teorema di Gold si puo' ovviare assumendo che in ogni
istante venga indotta la grammatica piu' piccola che e' possibile indurre sulla base degli esempi noti.
Wexler e Culicover pensano invece che il bambino complementi le frasi ascoltate con informazioni

extralinguistiche. Lightfoot propone che il linguaggio cambi in maniera graduale e che ogni tanto
sia soggetto a revisioni "catastrofiche" (nel senso della teoria delle catastrofi), in accordo con il
modello di cambiamento evolutivo di Gould.
Edelman oppone a questa visione "cartesiana" una visione "epigenetica" fondata su quattro
premesse: 1. in alcune zone del cervello esiste una base necessaria, ma non sufficiente, per la
semantica; 2. le zone del cervello che sono adattamenti evolutivi unicamente dedicati al linguaggio
non sono per se' sufficienti a realizzare il linguaggio, ma richiedono la pre-esistenza dei meccanismi
di categorizzazione; 3. a un certo punto nello sviluppo le parole e le frasi del linguaggio diventano
simboli per concetti, e soltanto allora compare la sintassi; 4. quando le facolta' linguistiche sono
sufficientemente sviluppate, il linguaggio viene trattato senza alcun bisogno di ricorrere alle sue
origini o alle sue basi nella percezione.
Secondo questo modello epigenetico prima di tutto si formano i meccanismi di categorizzazione (si
potrebbe dire "il pensiero senza linguaggio"). Secondo Edelman, pertanto, prima emerge la
semantica e poi la sintassi, in accordo con la grammatica funzionale lessicale di Bresnan e con la
teoria del "semantic bootstrapping" di Macnamara. Le capacita' fonologiche e sintattiche ebbero
origine durante l'evoluzione, secondo uno schema gia' presentato da Lieberman. A differenza di
Chomsky, secondo Edelman non esiste una grammatica nel cervello. La semantica pre-esiste, la
sintassi viene costruita. Il cervello impara prima a formare concetti, e poi a esprimerli in maniera
simbolica.
L'uso del linguaggio
Una "grammatica generativa" e' un insieme di regole in grado di generare tutte e sole le frasi del
linguaggio.
La "teoria standard" di Chomsky presuppone che della stessa frase esistano una struttura
"superficiale" e una struttura "profonda": piu' frasi possono avere la stessa struttura di fondo pur
avendo diversa struttura superficiale (per esempio, la forma attiva e la forma passiva della stessa
azione). La comprensione del linguaggio consiste nel "trasformare" strutture superficiali in strutture
profonde. Secondo Miller queste trasformazioni corrispondono a processi mentali. Questa
trasformazione verrebbe compiuta da un insieme di moduli, ciascuno indipendente dagli altri e
ciascuno guidato da principi elementari: ogni frase viene "compresa" come il risultato
dell'interazione fra questi moduli. Se esiste una "grammatica universale", che vale per tutti gli
individui a prescindere dalla lingua particolare che imparano a parlare, devono esistere delle regole
grammaticali che possono essere applicate a tutte le lingue. Secondo Chomsky queste regole vanno
interpretate come "vincoli" che determinano la struttura della stessa frase in lingue diverse.
L'inconveniente della teoria di Chomsky e' che ogni grammatica di quel genere e' equivalente a una
macchina di Turing (come dimostrato da Peters e Ritchie), il che' significa che, esattamente come
una macchina di Turing potrebbe non terminare mai la sua elaborazione, le grammatiche (in
generale) potrebbero non riuscire a determinare mai se una frase appartiene al linguaggio o meno;
mentre ovviamente noi riusciamo a farlo sempre, e in pochi decimi di secondo.
Un altro problema e' che la teoria di Chomsky e' puramente sintattica, anche se Katz e altri hanno
cercato di darne un'interpretazione semantica: secondo Katz il significato di una frase puo' essere
decomposto nel significato delle singole parole secondo le stesse strutture sintattiche dell'analisi di
Chomsky e il significato di ogni parola puo' a sua volta essere decomposto in un certo numero di
significati primitivi, detti "puntatori semantici" (semantic marker). Katz arriva a supporre che
l'interpretazione semantica di una frase sia determinata dalla sua struttura profonda (ma frasi
generiche come "Ogni persona in questa stanza parla almeno due lingue" e "due lingue sono parlate
da ogni persona in questa stanza" non hanno gli stessi valori di verita' pur avendo la stessa struttura

profonda).
Gazdar ha persino proposto di risolvere il problema abbandonando del tutto la componente
trasformazionale e la struttura profonda. Nella sua grammatica le regole "analizzano" alberi
sintattici invece che "generarli"; inoltre traducono le frasi in una logica intensionale (una variante
del calcolo lambda) per la quale esiste un'interpretazione a modelli.
Secondo Katz, invece, il significato delle parole puo' essere decomposto in atomi di significato che
sono universali per tutti i linguaggi, e Schank ne ha individuati undici (parlare, cambiare posto,
spostare qualcosa, etc). In questa visione a un certo insieme di azioni primitive e' associato un
insieme di ruoli primitivi, indipendenti dalla lingua e comuni a tutte le lingue: per esempio, esiste
un'azione astratta di trasferimento che richiede i ruoli di oggetto, di agente che sposta quell'oggetto,
di agente che riceve l'oggetto e di trasferimento fisico dell'oggetto. Ogni altro concetto puo' essere
espresso tramite questi concetti primitivi.
La grammatica a "casi" di Fillmore sfrutta questa intuizione: in ogni frase vengono rappresentate
esplicitamente le relazioni fra i vari concetti e l'azione. In tal modo si ottiene un'ovvia somiglianza
di rappresentazione per frasi come "Vincenzo ha aperto la porta", "la porta e' stata aperta",
"Vincenzo ha usato la chiave", "Vincenzo ha aperto la porta con la chiave". I "casi" dei termini usati
per descrivere queste azioni sono sempre gli stessi. La "dipendenza concettuale" di Schank e'
semplicemente un'ulteriore astrazione dei casi di Fillmore. Il problema diventa allora squisitamente
riduzionista: come decomporre i verbi del linguaggio in un numero (possibilmente molto limitato)
di "ruoli tematici". Jackendorff, per esempio, ritiene che il significato di molti verbi possa essere
ricondotto ad alcune primitive spaziotemporali (moto, direzione, posizione, etc). Dowty riprende la
classificazione aristotelica di "stato" ("Dario sa l'inglese"), "attivita'" ("Dario sta parlando in
inglese") ed "eventualita'" ("Dario ha imparato l'inglese") e postula che gli operatori modali "fare",
"diventare" e "causare" (nell'ambito di una logica intensionale) possano costruire il significato di
ogni altro verbo.
I ruoli tematici, in generale, sono "tipi" di ruoli: lo scrivente di "Piero scrive un libro" e il vedente di
"Vincenzo guarda un film" sono entrambi "agenti" (o comunque si voglia chiamare quel tipo di
ruolo, quel ruolo tematico). Di conseguenza un ruolo tematico e' un insieme di proprieta' che sono
comuni a tutti i ruoli appartenenti a quel ruolo tematico. Un ruolo tematico e' anche una relazione
che collega un termine con un evento o uno stato: il ruolo tematico di "Piero" nella frase "Piero
scrive un libro" mette in relazione Piero e l'evento di scrivere un libro. Il vantaggio di questa
seconda formulazione e' che per i ruoli tematici e' allora possibile definire un "calcolo" basato sul
calcolo lambda. Secondo Dowty i ruoli tematici non sono soltanto delle comodita' matematiche ma
delle strutture cognitive molto importanti per permettere l'acquisizione del linguaggio.
Nel tentativo di dare una semantica (ovvero un senso!) al linguaggio, le grammatiche sono
rapidamente proliferate.
La teoria lessicale funzionale di Bresnan postula l'esistenza di un livello funzionale intermedio fra
strutture sintattiche e strutture semantiche. Anche secondo Bresnan le relazioni grammaticali, dette
"funzioni", sono primitive.
La grammatica categoriale assume invece che le possibili configurazioni di frase in cui una parola
puo' trovarsi sono implicite nella sua categoria grammaticale. In pratica il lessico del linguaggio
contiene anche l'informazione di come le parole possono combinarsi per formare delle frasi. In tal
modo le regole di "riscrittura" usate dalle grammatiche generative e trasformazionali si riducono a
un piccolo gruppo di regole molto semplici, mentre il grosso dell'informazione su come si usa il
linguaggio e' implicita nel lessico (in sostanza il vocabolario non si limita a dare il significato di una

parola, indica anche "dove" e "come" possa essere usata).


Nella semantica procedurale di Johnson-Laird, invece, il significato di una parola e' l'insieme degli
elementi concettuali che possono contribuire a costruire la procedura mentale necessaria per
comprendere qualsiasi frase contenente quella parola. Tali elementi derivano certamente dal
concetto espresso da quella parola, ma al tempo stesso dipendendo dalle relazioni possibili fra
l'entita' indicata da quella parola e le altre entita' con cui puo' poi essere messa in relazione. Invece
che specifici atomi di significato, esistono "campi" di significato, ciascuno comprendente un certo
numero di concetti che sono in relazione fra di loro: per esempio, il campo di "moto" comprende
azioni come "spostare", "spingere" e "espellere". Alcuni concetti possono comparire in piu' campi.
La comprensione del linguaggio naturale puo' essere infine vista come l'integrazione di vincoli
imposti dal linguaggio e vincoli imposti dal contesto. I vincoli del linguaggio possono essere
sintattici o semantici; ed entrambi possono essere lessicali o meno: i vincoli lessicali sono quelli
relativi a parole e frasi fisse. I vincoli sintattici lessicali sono quelli relativi all'ordinamento delle
parole, ai numeri e ai tempi; i vincoli semantici lessicali sono entita' come la "preferenze" di Wilks.
Le preferenze di Wilks, cosi' come le "aspettative" (expectations) di Schank, sono "restrizioni di
selezione" dei sensi di entita' lessicali circa le classi semantiche insieme a cui possono verificarsi;
per esempio, il senso di un aggettivo "ha una preferenza" per la classe semantica dei nomi che
accompagna; allo stesso modo il senso di un verbo ha una preferenza per le classi semantiche dei
nomi che occupano i suoi ruoli ("bere" preferisce un animale come agente).
I vincoli lessicali (sintattici o semantici) vengono usati per esprimere quelle che Fass chiama
"dipendenze", nelle quali una "sorgente" impone i propri vincoli a una "destinazione"; per esempio,
"la nave" e' una dipendenza in cui "la" impone un vincolo sulla parola "nave" (non si tratta di una
nave qualsiasi, ma di quella nave in particolare). Le relazioni semantiche sono il risultato di valutare
i vincoli semantici lessicali di una frase, e ogni relazione semantica ha una sorgente e una
destinazione (quelli che Richards chiama "veicolo" e "tenore", che Black chiama "soggetto
secondario" e "soggetto primario", che Tversky chiama "referente" e "soggetto", che Gentner
chiama "base" e "obiettivo").
La "sematica collattiva" di Fass distingue (almeno) sette tipi di relazioni semantiche, che possono
essere combinate per formare diversi tipi di frasi retoriche. La "collazione" e' il processo tramite cui
i sensi di due parole vengono confrontati per scoprire la relazione semantica fra di esse (la
collazione e' di fatto una ricerca all'interno di una rete semantica per trovare tutti i percorsi possibili
fra i nodi corrispondenti alle due parole). Un processo di misura della coerenza determina poi le
relazioni semantiche che garantiscono l'interpretazione piu' coerente possibile.
L'ovvio paradosso di tutte le teorie della grammatica e' che richiedono anni di ricerca per essere
formulate (e anni di studio per essere comprese!) quando il loro presupposto e' che tutti noi le
abbiamo gia' apprese fin da bambini.
La fonologia viene trascurata un po' da tutti, benche' l'unica cosa certa del linguaggio, alla fin fine,
e' che e' nato per essere parlato, non scritto. La fonetica non e' affatto una mera brutta copia della
sintassi, tant'e' che l'analisi acustica del suono non mostra spesso alcuna frattura fra una parola e
l'altra e tant'e' che l'enfasi e l'intonazione date a una parola, o anche soltanto a una sillaba, possono
cambiare drasticamente il significato di quella parola, benche' la struttura sintattica della frase resti
invariata. Il modello di Rumelhart e McClelland dimostra che alcune caratteristiche linguistiche (nel
caso specifico, le irregolarita' dei tempi passati dei verbi inglesi) possono essere acquisite dalla
semplice informazione fonetica. D'altronde i bambini iniziano a imitare l'intonazione degli adulti
molto prima di poter usare le parole. Tra l'altro e' anche dubbio quando un bambino cominci a
rendersi conto che esistono le parole: finche' non vanno a scuola, molti bambini inglesi non sanno

che "you're" sono due parole, e anche da adulti molti continueranno a scrivere (erroneamente)
"your" (analogamente capita per "it's" e "its"). Pertanto non e' sempre ovvio come si debba
scomporre il segnale acustico in parole.
D'altro canto la memoria non sembra prestare molta attenzione all'acustica del parlato. A distanza di
tempo ci ricordiamo il significato di una conversazione meglio di quanto ci ricordiamo le singole
parole (la sintassi) e la cosa che ricordiamo di meno e' il suono di quelle parole. Il modo in cui
pronunciamo una parola non sembra dipendere in alcun modo dal tono, dalla pronuncia, dall'enfasi
con cui la pronuncio' la persona che ce la insegno'.
Altrettanto trascurato e' stato finora l'aspetto dei gesti. I gesti (in particolare quelli delle mani e della
faccia) corredano la comunicazione tanto quanto l'intonazione delle parole. McNeill propone che i
gesti contribuiscano direttamente alla semantica e alla pragmatica del linguaggio. Gran parte dei
resoconti (soprattutto da parte dei ragazzini cresciuti nell'era dei media visivi) sarebbero
incomprensibili senza i gesti che li accompagnano. Non e' raro sentire due persone che si
raccontano degli episodi usando semplicemente delle parole onomatopeiche e convogliando gran
parte della descrizione con una mimica accentuata. I gesti, secondo McNeill, trasformano immagini
mentali in forma visiva e pertanto esprimono persino piu' di quanto il linguaggio possa esprimere; e,
simmetricamente, nell'ascoltatore costruiscono immagini mentali che il linguaggio da solo non
potrebbe costruire.
L'ambiguita' del linguaggio
Potremmo definire "aristotelica" l'idea che il linguaggio sia un "veicolo" per il pensiero, ovvero che
il pensiero possa essere trasmesso da una persona a un'altra tramite le parole: io penso qualcosa,
trasformo in parole il mio pensiero, Vincenzo ascolta le mie parole, le trasforma in pensiero e quel
suo pensiero e' identico al mio. La mente contiene pensieri che possono essere trattati come oggetti.
Reddy si riferisce a questa credenza comune come alla "metafora del condotto" e dimostra quanto
sia fallace: la comunicazione di un pensiero richiede molto di piu' della semplice traduzione in
parole. Reddy propone invece una metafora diversa: supponiamo che sei persone vivano in ambienti
separati, che nessuno dei sei conosca gli ambienti degli altri cinque, che non parlino la stessa lingua
e che possano soltanto scambiarsi dei messaggi cartacei; quelle sei persone possono allora
comunicare disegnando gli strumenti che usano per prendersi cura del proprio ambiente, e il piu'
delle volte dovranno ridisegnarli piu' volte prima di essere compresi dagli altri. Le frasi, allo stesso
modo, sono delle "brutte" a partire dalle quali e' possibile inferire un po' di significato, ma senza
alcuna garanzia di correttezza. La trasmissione di un pensiero non e' affatto un processo meccanico
e deterministico, ma assomiglia piuttosto a un'arte; e la comprensione di un simile messaggio non e'
affatto immediata, ma richiede uno sforzo notevole. Possiamo anzi affermare che raramente, se non
mai, la trasmissione riuscira' perfettamente, o, quanto meno, raramente sara' possibile ottenere la
certezza che la trasmissione sia perfettamente riuscita.
Il processo di comprendere il linguaggio non puo' prescindere da fattori extra-linguistici: un corpo
di conoscenze del mondo comuni fra il parlante e l'ascoltatore e la credenza da parte dell'ascoltatore
delle intenzioni del parlante. Devo "sapere" (fra le altre cose) che Vincenzo ha un appuntamento
con Giusi, che Giusi e' sua moglie e che Vincenzo e' in ritado, e al tempo stesso "credere" (fra le
altre cose) che Vincenzo voglia arrivare puntuale all'appuntamento con sua moglie per capire la
frase: "Sbrighiamoci!" Ma, a voler essere pignoli, per capire quello "Sbrighiamoci!" devo anche
sapere che per non arrivare in ritardo bisogna accelerare il passo e devo anche credere che Giusi
arriva puntuale agli appuntamenti e che si arrabbia se Vincenzo non e' puntuale. Eccetera. In altre
parole: per capire il linguaggio devo anche inferire le intenzioni del parlante, e lo posso fare
soltanto sulla base della mia conoscenza e delle mie convinzioni circa il mondo (compreso il
parlante stesso).

La coerenza del linguaggio


Raramente la comunicazione si riduce a una sola frase. Nella maggioranza dei casi una frase e'
soltanto un mattone per costruire un edificio assai piu' complesso, che chiameremo genericamente
"discorso". E' il discorso nel suo insieme a trasmettere un pensiero.
I discorsi hanno una struttura, che non e' meno palese di quella delle frasi, tanto che molti hanno
provato a sviluppare una grammatica del discorso (del modo in cui viene analizzato e generato un
discorso).
Johnson-Laird preferisce invece partire dalla condizione necessaria e sufficiente per affermare che
un insieme di frasi costituisce un discorso: la coerenza. La coerenza e' la possibilita' di costruire un
unico modello mentale da quell'insieme di frasi. Cio' dipende a sua volta dalle proprieta' di coreferenza (ogni frase deve far riferimento in qualche modo a qualcosa che in qualche modo e'
riferito anche da un'altra frase) e di compatibilita' (quelle referenze non devono essere
contraddittorie). La "plausibilita'" di un discorso e' invece determinata dalla possibilita' di
interpretarlo in un unico contesto temporale, spaziale, causale e intenzionale. La plausibilita' (come
quella garantita dagli script di Schank) non e' comunque necessaria affinche' un insieme di frasi sia
anche un discorso (molti racconti dell'orrore non sono plausibili, ma sono egualmente delle
"storie").
Le espressioni linguistiche in se' non sarebbero di grande ausilio nella comunicazione fra umani se
non venissero opportunamente usate. Grice ha fatto notare quanto sia importante il gioco linguistico
per cui chi parla vuole essere compreso e deve anche provocare un certo tipo di reazione in chi
ascolta. Per esempio, un "parlante" vuol dire "p", quando pronuncia la frase "f" all'"ascoltatore", se
e solo se il parlante vuole: 1. che "f" spinga l'ascoltatore ad adottare un certo comportamento nei
confronti di p; e 2. che la propria intenzione nel far cio', una volta intuita dall'ascoltatore, sia
determinante nel produrre nell'ascoltatore quel comportamento. C'e' molto di piu' che sintassi e
semantica. Esistono in effetti diversi tipi di significato: il significato "permanente" (timeless) della
frase "f" e il significato occasionale di quella particolare occorrenza di "f" come pronunciata da quel
particolare parlante. I due significati possono coincidere, ma non sempre. Se scrivo qua che "Dario
sta parlando con Cinzia", questo non vuol dire che io voglia dire veramente che Dario sta parlando
con Cinzia: al lettore e' chiaro che si tratta soltanto di una frase scelta per fare un esempio e che io
non ho in realta' la piu' pallida idea di cosa stiano facendo Dario e Cinzia in questo momento. Il
significato che "conta" e' quello del parlante, altrimenti il lettore non riuscirebbe a capire gran parte
degli esempi di questo libro, compreso questo. Al lettore e' peraltro chiaro che esistono davvero due
persone chiamate Dario e Cinzia e che sono davvero sposate e che ogni tanto si parlano: l'ho scritto
nell'introduzione.
La struttura del discorso porta a sua volta del significato. Posso organizzare un discorso in mille
modi diversi, ma, a seconda della circostanza e dell'effetto desiderato, scegliero' uno particolare dei
modi possibili. Cio' vale anche per le singole frasi. E' possibile in generale formulare la stessa frase
in modi diversi, ovvero con sintassi diverse; il "significato" (in senso lato) e' altrettanto diverso. Per
esempio, "Dario sta parlando con Cinzia", "Sta parlando con Cinzia, Dario", "Con Cinzia sta
parlando Dario" sono frasi che descrivono la stessa situazione e usano persino le stesse parole; ma
l'ordine delle parole determina una differenza nel modo in cui vengono percepite.
Tirando le somme, il linguaggio ha un significato in quanto esistono delle convenzioni all'interno
della comunita' linguistica che regolano come le frasi vengono usate e comprese. Quelle
convenzioni hanno uno scopo ben preciso: di aiutare chi parla a ottenere lo scopo che si propone nel
parlare. (Quelle stesse convenzioni possono essere usate per trarre in inganno chi ascolta, come ogni
politico ben sa).

Un'ulteriore complicazione e' dovuta alla "forza sentenziale" della frase: "Cinzia sta parlando con
Dario" e "Cinzia sta parlando con Dario?" hanno lo stesso contenuto semantico ma diversa forza
sentenziale. Secondo Stalnaker la forza sentenziale puo' essere presa in considerazione assumendo
che il valore assegnato a una frase non sia un valore di verita' ma una funzione che porta la frase e il
contesto attuale in un nuovo contesto di discorso. In tal modo un discorso e' piu' di un semplice
insieme ordinato di frasi: l'effetto di ogni frase dipende dalle frasi che l'hanno preceduta.
Usare il linguaggio si traduce per forza di cose in un atto illocutorio: qualsiasi atto locutorio
(composto di atto fonetico, atto fatico e atto retico, nella classificazione di Austin) fa parte di un
discorso che, per il fatto stesso di essere un discorso, conferisce a quell'atto anche una forza
illocutoria.
Un caso particolare di forza sentenziale, che sembrerebbe ridurre il divario fra atto locutorio e atto
illocutorio, e' quello delle frasi "performative", quelle frasi cioe' che creano lo stato di cose del
quale parlano. Per esempio, se dico a Dario "Sei licenziato" creo lo stato di cui sto parlando a Dario.
Non ha senso domandarsi se quella frase corrisponde a verita' o meno, in quanto la sta creando.
Austin suggerisce pero' che esistano delle convenzioni di "felicita'" (felicity) in base alle quali
valutiamo le frasi performative: se queste convenzioni non sono soddisfatte (per esempio, se non
sono piu' il capo di Dario), la frase performativa non ha alcun effetto. .sp 5
FIGURA 1 .sp 5
E infatti Searle nega che esista una differenza significativa fra atti locutori e atti illocutori. Per
Searle il significato di certe frasi sta proprio nell'insieme delle convenzioni sociali (delle "massime
conversazionali", direbbe Grice) che hanno spinto a scegliere quelle frasi per raggiungere il proprio
obiettivo. I valori di verita', invece, non servono assolutamente a nulla.
La forza illocutoria delle frasi e' cio' che determina la semantica del linguaggio.
Sadock e altri ritengono in effetti che ogni frase determini una forza illocutoria e che le frasi
"performative" si limitino a esplicitare questa forza; ma due frasi come "Sei licenziato" e "Ti
comunico che sei licenziato" devono essere identiche a un qualche livello di struttura profonda,
anche se le loro sintassi sono diverse. A quel livello ogni frase assume la forma di un verbo
performativo (come "comunicare") con un soggetto in prima persona e un oggetto in seconda
persona. Il verbo performativo specifica, oltre all'"azione" descritta nella frase, anche l'"intenzione"
di chi l'ha pronunciata.
Il problema e' che, come fa notare Levinson, la stessa frase puo' essere usata per eseguire diversi atti
illocutori ("Ti verro' a trovare" puo' essere tanto una promessa quanto una minaccia) e, viceversa,
uno stesso atto illocutorio puo' essere espresso da piu' di una frase ("Ti verro' a trovare" e "Faro' un
salto a casa tua"). Esiste comunque un generale consenso che chi parla "vuol dire" piu' di cio' che le
sue frasi "significano". Anzi: l'abilita' linguistica viene spesso giudicata dalla capacita' di produrre il
massimo risultato usando il minimo di mezzi, dalla capacita' di "far capire" molto "dicendo" poco.
Le "implicature conversazionali" di Grice e le "rilevanze" di Sperber e Wilson servono appunto a
rendere conto di queste differenze.
La normalita' del linguaggio
"Indexicali" sono quei termini, come "io", "qui" e "oggi", il cui referente e' funzione del contesto
della frase. Chiaramente parole come "io", "qui" e "oggi" possono riferirsi a infiniti oggetti (a
seconda di chi, dove e quando le pronuncia), mentre "Vincenzo Tamburrano" o "Redwood City" o

"il 26 Aprile 1955" si riferiscono a oggetti ben determinati (indipendentemente da chi, dove e
quando le pronuncia).
Sono indexicali anche dimostrativi come "questa", pronomi come "lei" e tutti i tempi dei verbi
(nelle frasi "ero giovane", "ho trentasette anni" e "saro' vecchio" il tempo a cui si riferiscono
dipende da che anno e' quello in cui sto scrivendo). Bar-Hillel ritiene che quasi tutte le frasi
dichiarative realmente usate dalla gente siano indexicali (nel senso che fanno riferimento a chi parla
o al luogo in cui si trova o al giorno, e cosi' via). Bar-Hillel fa anche notare che qualsiasi teoria del
linguaggio deve riuscire anche a spiegare perche' una frase (sintatticamente e semanticamente
ineccepibile) come "Io sono morto" non ha senso, chiunqua sia a dirla.
Un indexicale puo' essere "deitico", se fa riferimento a qualcosa attraverso un gesto ("Eccolo!",
"Guarda quel signore!", "Mettilo qui"), o "anaforico", se fa riferimento a qualcosa che e' stato
menzionato precedentemente ("Vorrei andare a trovare Dario, ma non so come andarci", "Dario mi
aveva detto che sarebbe venuto, invece e' rimasto a casa"). Per interpretare gli indexicali, siano
deitici o anaforici, occorre sempre inferire a quale referente il parlante si riferisca. Dal contesto
linguistico e' possibile derivare l'insieme dei possibili antecedenti per le espressioni anaforiche e dal
contesto del discorso e' possibile derivare i possibili antecedenti per le espressioni deitiche; ma per
decidere quale delle tante possibili e' l'interpretazione corretta occorre sempre formulare delle
ipotesi su cosa il parlante voglia dire.
Nunberg ha studiato la fondamentale ambiguita' di tutti i termini, che va ben oltre la polisemia. In
effetti non ci sono limiti al numero di referenti che un termine puo' avere, a seconda del contesto.
Per esempio, il termine "Il mio editore" nelle frasi seguenti si riferisce a oggetti completamente
diversi: "Il mio editore e' uno dei due maggiori editori italiani di libri di Informatica" si riferisce alla
casa editrice Apogeo, "Il mio editore e' venuto a trovarmi a Redwood City" si riferisce a Ivo
Quartiroli, "Il mio editore si trova a Milano" si riferisce agli uffici della casa editrice Apogeo.
Nunberg sostiene che in generale un termine non ha un referente standard e che i possibili referenti
di un termine possono essere derivati l'uno dall'altro attraverso un certo numero di funzioni
elementari (come "proprietario di" e "luogo di") che possono essere applicate ricorsivamente e in
qualsiasi combinazione. Nunberg elenca poi i (quattro) principi in base ai quali l'ascoltatore decide
quali funzioni usare per ricavare il referente piu' appropriato fra i tanti possibili (per esempio, una
sorta di rasoio di Occam secondo cui se l'oggetto denotato letteralmente dal termine e' un possibile
candidato, allora quell'oggetto e' il referente; come in "Il mio editore e' ottimo", che si riferisce alla
casa editrice anche se potrebbe teoricamente riferirsi altrettanto bene a Ivo Quartiroli o al suo
edificio). Nunberg assegna un ruolo determinante alla "normalita'" nel contesto: un termine viene
usato in maniera normale quando risulta coerente con le normali convinzioni della comunita'
linguistica. A un party di imprenditori il termine "Il mio editore" verrebbe usato "normalmente" per
indicare Ivo Quartiroli, mentre a un party di scrittori indicherebbe "normalmente" la casa editrice
Apogeo.
L'irrazionalita' del linguaggio
Una "presupposizione" e' un'affermazione implicita in una frase. Per esempio, la frase "Peccato che
Vincenzo non possa venire a cena con noi stasera" presuppone il fatto che Vincenzo non possa
venire a cena; mentre invece la frase "Spero che Vincenzo venga a cena con noi" non presuppone lo
stesso fatto. Presupposizioni possono verificarsi in diversi tipi di frase: "Ho incontrato la figlia di
Dario" presuppone che Dario abbia almeno una figlia; "Cinzia ha cucinato la gallina" presuppone
che la gallina sia morta; "L'auto di Dario e' dal meccanico" presuppone che Dario abbia un'auto; e
cosi' via. In certi casi non e' neppure chiaro cosa venga dato per scontato: la frase "Ho sognato che
Dario non era ancora sposato") presuppone proprio l'opposto, che Dario sia sposato, altrimenti la
frase perderebbe parecchio valore informativo.
La presupposizione e' pertanto qualcosa (un elemento semantico) che viene dato per scontato nel

contesto del discorso. La presupposizione ha la proprieta' di essere invariante rispetto a costrutti


positivi ("L'auto di Dario e' dal meccanico"), negativi ("L'auto di Dario non e' dal meccanico") o
interrogativi ("L'auto di Dario e' dal meccanico?"). In termini logici e' "implicata" tanto da una
proposizione quanto dal suo negato e persino da una pura ipotesi di quella proposizione. (La
presupposizione non deve essere necessariamente vera: Dario potrebbe non avere un'auto o io potrei
aver confuso Dario con Vincenzo).
La presupposizione e' un buon esempio di come il nostro linguaggio faccia uso di logiche molto
lontane da quelle formali. La presupposizione dimostra anche che le convinzioni di chi parla circa
chi ascolta sono molto piu' importanti della verita' del mondo: per il fine di comunicare il mio
concetto all'interlocutore, il fatto che Dario abbia davvero un'auto e' tutto sommato secondario
rispetto al fatto che il mio interlocutore sappia chi e' Dario.
Un altro esempio di come la logica del nostro linguaggio differisca da quella formale e' l'uso delle
parole "e", "o", "non", "esiste", "implica" rispetto al loro uso da parte dei logici matematici.
Esistono numerosi casi in cui esse violano le piu' elementari regole logiche (per esempio quelli
notati dagli intuizionisti). Secondo Grice la differenza non sta nel significato che i logici e i comuni
mortali assegnano a quei termini, ma semplicemente all'uso che ne fa il nostro linguaggio; un uso
forse "improprio", ma certamente piu' efficace nel convogliare informazione.
La rilevanza del linguaggio
Secondo Grice i partecipanti a una conversazione "cooperano" nel dire soltanto le cose che "ha
senso" dire in quella circostanza. Le sue quattro massime governano cio' che il parlante dice e cio'
che l'ascoltatore capisce. Per effetto delle massime chi parla "dice" piu' di cio' che le parole dicono.
Le implicature sono proprio questo "qualcosa" di piu', che non e' detto esplicitamente ma che le
quattro massime consentono di inferire. Frasi che possono sembrare del tutto fuori luogo (domanda:
"l'auto di Dario e' dal meccanico?", risposta "Dario e' venuto al lavoro in autobus") acquistano un
significato ben preciso quando l'ascoltatore assuma che la frase del parlante e' rilevante ai fini della
conversazione.
In effetti la massima piu' importante, che Grice non ha mai discusso, e' proprio questa: "sii
rilevante!". E' la rilevanza a garantire la coerenza del discorso e a rendere possibile la comprensione
stessa del discorso. E' sempre la rilevanza a far si' che il discorso possa essere compreso senza aver
bisogno di lunghi calcoli logici: la logica della conversazione prende delle scorciatoie rispetto a
quella formale.
Il discorso non viene pertanto costruito con gli strumenti della logica formale, alla base della quale
e' un principio di verita', ma con quelli della conversazione, alla base della quale e' un principio di
"rilevanza".
Riassumendo: cosa dico quando parlo?
Il senso di tutto cio' e':
L'apprendimento del linguaggio e' qualcosa che "capita" all'uomo, senza che ne sia piu' conscio di
tanto, esattamente come il resto dello sviluppo fisico.
L'atto fisico di parlare e' infinitamente piu' difficile dell'atto di mettere insieme parole e discorsi.
La comprensione del linguaggio avviene grazie a vincoli imposti dal linguaggio e vincoli imposti
dal contesto.
I gesti e l'intonazione contribuiscono alla comunicazione tanto quanto le parole.
Il linguaggio e' intrinsecamente ambiguo: ogni frase puo' essere interpretata in piu' modi.
Il senso ha piu' "senso" a livello di discorso.
La coerenza e la rilevanza sono due fattori determinanti per stabilire il senso di un intero discorso.

Chi parla "vuol dire" piu' di cio' che le sue frasi "significano".
Il linguaggio usa una logica molto diversa da quella matematica. .bp
Bibliografia
Angluin D. (1980): Inductive inference of formal languages
(Information and Control n.45 p.117)
Austin J. (1962): How to do things with words (Oxford Univ Press)
Bar-Hillel Y. (1954): Indexical expressions (Mind n.63 p.539)
Bickerton D. (1992): Language and species (Chicago Univ Press)
Bresnan J. (1982): Mental representations of grammatical relations
(MIT Press)
Chomsky N. (1982): Theory of government and binding (MIT Press)
Chomsky N. (1987): Generative grammar (Kyoto University)
Comrie B. (1981): Language universals and linguistic typology
(Univ. of Chicago Press)
Dowty D. (1979): Word meaning and Montague grammar (Reidel)
Edelman G. (1989): The remembered present (Basic)
Fass D. (1991): Discriminating metonymy
(Computational Linguistics n.17 p.49)
Fillmore C. (1968): The case for cases (in Bach E.:
Universals in linguistic theory, ed. Holt, Rinehart & Winston)
Gazdar G. (1979): English as a context-free language
(Univ of Sussex report)
Gentner D. (1983): Structure mapping (Cognitive Science n.7 p.155)
Gold M. E. (1967): Language identification in the limit
(Information and Control n.10 p.447)
Gould S. (1978): Ever since Darwin (Deutsch)
Grice H. (1989): Studies in the way of words (Harvard Univ Press)
Jackendorf R. (1983): Semantics and cognition (MIT Press)
Johnson-Laird P. & Miller G. (1976): Language and perception
(Cambridge Univ Press)
Johnson-Laird P. (1983): Mental models (Harvard Univ Press)
Katz J. & Fodor J. (1963): The structure of a semantic theory
(Language n.39 p. 170)
Levinson S. (1983): Pragmatics (Cambridge Univ Press)
Lieberman P. (1984): The biology and evolution of language
(Harvard Univ Press)
Lieberman P. (1992): Uniquely human (Harvard Univ Press)
Lightfoot D. (1982): The language lottery (MIT Press)
Lyons J. (1977): Semantics (Cambridge Univ Press)
Macnamara (1982): Names for things (MIT Press)
McNeill (1992): Hand and mind (Univ of Chicago Press)
Miller G. (1962): Some psychological studies of grammar
(American Psychologist n.17 p.782)
Nunberg G. (1978): The pragmatics of reference (Indiana Univ Linguistic Club)
Peters P. & Ritchie R. (1973): On the generative power of transformational
grammars (Information Sciences n.6 p.49)
Quinn N. & Holland D. (1987): Cultural models in language and thought
(Cambridge Univ Press)
Reddy M. (1979): The conduit metaphor (in Ortony A.: Metaphor and thought,
ed. Cambridge Univ Press)
Richards I. (1936): The philosophy of rhetoric (Oxford Univ Press)

Rumelhart D. (1986): Parallel Distributed Processing vol. 1 (MIT Press)


Sadock J. (1974): Toward A Linguistic Theory Of Speech Acts (Academic Press)
Schank R. (1975): Conceptual information processing (North Holland)
Searle J. (1969): Speech Acts (Cambridge Univ Press)
Sperber D. & Wilson D. (1986): Relevance, communication and cognition
(Blackwell)
Stalnaker R. (1984): Inquiry (MIT Press)
Tversky A. (1977): Features of similarity (Psychological Review
n.84 p.327)
Wexler K. & Culicover P. (1980): Formal principles of language acquisition
(MIT Press)
Whorf B. (1956): Language, thought and reality (MIT Press)
Wilks Y. (1992): The preference semantics family (Computer and Mathematics,
special issue on Semantic Networks)
Le parole e noi
Un fenomeno che sembra trascendere il linguaggio e' quello della metafora (e affini). Si tratta in
realta' di un fenomeno di "creativita'", di capacita' di creare nuove strutture di pensiero. In ultima
analisi potrebbe illuminare proprio su come si crea il pensiero stesso.
La metafora
Chomsky fondo' la sua rivoluzione linguistica sulla "produttivita'" degli agenti linguistici: siamo in
grado di produrre frasi che non abbiamo mai ascoltato e siamo in grado di produrre anche infinite
frasi che non produrremo mai. Lyons fa pero' notare che la produttivita' non esaurisce la potenza
espressiva del linguaggio: non siamo soltanto produttivi, siamo anche "creativi". Siamo cioe' in
grado di "estendere" la semantica del nostro sistema linguistico. Quando dico "collo di bottiglia",
non voglio soltanto significare l'oggetto che forma il collo di una bottiglia, ma un fenomeno assai
piu' complesso, che, a seconda del contesto, puo' assumere connotati assai diversi (da un ingorgo
del traffico a una cattiva organizzazione del mio tempo libero). La metafora e' un tale fenomeno
creativo.
Secondo Lakoff la metafora svolge un ruolo determinante nel pensiero umano (e non soltanto nel
linguaggio) ed e' infatti usata massicciamente nelle comunicazioni quotidiane. Lakoff afferma che il
nostro sistema concettuale, le fondamenta stesse del nostro pensare e del nostro parlare, e' di natura
metaforica. Whorf sostiene addirittura che la lingua influenza il pensiero in quanto contiene una
metafisica nascosta, e pertanto finisce per imporre a chi la parla una visione particolare del mondo.
Cosi', per esempio, il fatto che l' italiano abbia una sola parola, "ancora", al posto delle parole
inglesi "still" e "yet" potrebbe condizionare il modo in cui gli italiani e gli inglesi concepiscono le
due situazioni di essere "ancora cosi'" oppure "non ancora cosi'". Way e' convinta che la metafora
sia l'essenza stessa della nostra capacita' di rappresentare il mondo e in particolare la metafora
costituirebbe un meccanismo piu' appropriato della logica per rappresentare la conoscenza.
Il numero delle metafore usate quotidianamente e' sterminato: il mercato ha preso il volo, il dollaro
e' in ascesa, e' calato il tramonto sul grande campione, l'alba di una nuova era, mettersi in luce,
cadere in basso, mettere a fuoco, avere carta bianca, prendere corpo, mettere carne al fuoco,
ingannare l'attesa, non avere ne' capo ne' coda, fare un bidone, fare di tutte l'erbe un fascio, mettere
il sale sulla coda, lavare i panni sporchi in famiglia, correre sul filo del rasoio, arrampicarsi sugli
specchi, essere tutto d'un un pezzo, essere in alto mare, levare le tende, mostrare i denti, tirare le
cuoia, spezzare una lancia, saltare il fosso, avere la coda di paglia, saltare di palo in frasca, metter
con le spalle al muro, senza sbocco, mosca bianca, pecora nera, tigre di carta, uomo di pezza, testa
di ponte...

Una metafora consiste di una sorgente, una destinazione e una proiezione analogica. Per esempio,
nella metafora "Cinzia e' tornata abbronzatissima dalle vacanze: la sua faccia sembra un peperone"
il peperone e' la sorgente, la faccia di Cinzia e' la destinazione, e la proiezione analogica
"trasferisce" il colore del peperone alla faccia di Cinzia.
La metafora e' un processo estremamente efficiente di trasmissione dell'informazione: una metafora
specifica all'interlocutore che le proprieta' della sorgente possono essere applicate anche alla
destinazione, una volta effettuati i dovuti adattamenti.
La metafora presuppone implicitamente che l'ascoltatore riesca 1. a riconoscere le similarita' fra
sorgente e destinazione (per esempio il fatto che entrambe sono rosse); 2. a isolare le proprieta' che
si intende trasferire dall'una all'altra, e soltanto quelle (per esempio, il colore, e non la forma, che
pero' sarebbe piu' probabile se si trattasse di un mal di denti); 3. a compiere l'adattamento dal
contesto della sorgente (colore di un vegetale) al contesto della destinazione (colore di una parte
anatomica).
Il criterio di similarita' e' pertanto quello che stabilisce innanzitutto se si tratta o meno di una
metafora. E' chiaro che la similarita' non puo' essere espressa che per gradi, ma non e' chiaro come.
Tversky ha stabilito sperimentalmente che la similarita' fra due concetti e' proporzionale
all'intersezione delle loro proprieta' e inversamente proporzionale alle loro differenze (le proprieta'
del primo concetto che il secondo non possiede e le proprieta' del secondo che il primo non
possiede, queste ultime a quanto pare piu' delle altre). Cio' nonostante la metafora non sembra
obbedire soltanto a regole di similarita', in quanto diverse proprieta' dei concetti non vengono prese
in considerazione per nulla. Johnson-Laird fa notare che il problema e' teoricamente insolubile in
quanto le possibili similarita' fra due concetti sono infinite: il problema non e' quello di "trovare"
somiglianze, ma quello di "restringere" l'insieme delle somiglianze possibili.
Esistono diversi approcci alla metafora. Quello "comparativo" di Gentner assume che una metafora
sia un confronto in base al quale si stabilisce che un termine assomiglia parzialmente a
qualcos'altro. Gentner individua quattro tipi di confronto, ovvero quattro tipi di metafora:
somiglianza letterale (molte proprieta' vengono trasferite da un concetto a un altro, per esempio in
"la mia auto funziona come la tua"), analogia (soltanto, o quasi soltanto, le proprieta' relazionali
vengono trasferite, per esempio in "l'atomo e' un sistema solare"), astrazione (la sorgente e' una
struttura relazionale, come in "Dario e' una forza della natura") e anomalia (una costruzione che
tecnicamente e' una metafora ma che in pratica non significa nulla, per esempio "Dario e' come un
tavolo"). Quali e quante proprieta' vengano trasferite per analogia dalla metafora e' determinato dal
"principio di sistematicita'": le relazioni contenute nella sorgente sono prioritarie rispetto agli
attributi della sorgente, e relazioni di ordine superiore della sorgente sono prioritarie rispetto a
relazioni di ordine inferiore. Cosi' una relazione o un attributo che compaia in diverse altre relazioni
e' un candidato molto probabile per essere trasferito dalla sorgente alla destinazione.
Nell'approccio "interazionista" di Black la metafora e' il mezzo per vedere un oggetto in una luce
diversa (Black la paragona a un filtro, usando a sua volta una metafora), ovvero per riorganizzare le
proprieta' della destinazione. Secondo Black la metafora non "esprime" una similarita', ma la "crea".
Inoltre la metafora si basa sulla similitudine e sull'analogia, ma non e' ne' l'una ne' l'altra: e' capace
anche e soprattutto di agire sull'organizzazione del lessico e, in ultima analisi, sul modo di
modellare il mondo stesso. Il linguaggio e' pertanto un'entita' dinamica, che puo' evolversi e
all'interno del quale cio' che e' letterale puo' diventare metaforico e viceversa.
L'approccio "di devianza semantica" di Wilks intende la metafora come la violazione di regole di
restrizione all'interno di un dato contesto, ed e' proprio questa violazione a far comprendere la
metafora. In altre parole le metafore sono "sgrammaticate", ma lo sono "intenzionalmente". Il

"correre sul filo del rasoio" o "la dissoluzione" dell'Unione Sovietica sono esempi di casi in cui le
regole di restrizione (quelle del verbo "correre" e quelle del sostantivo "dissoluzione") vengono
violate (rispettivamente dal "filo del rasoio", che uno normalmente non associerebbe all'azione di
"correre", e da una nazione, che uno normalmente non assocerebbe al fenomeno del dissolversi).
Wilks sottolinea che queste frasi, metaforiche o meno che siano, sono la "norma", non l'"eccezione",
del linguaggio.
Nunberg, fautore dell'approccio "pragmatico", definisce la metafora come un discorso in cui il
parlante a) usa un'espressione E per riferirsi al fatto F nel contesto C anche se esiste un'altra
espressione per riferirsi a F che il parlante sa essere piu' semplice da capire per l'ascoltatore; b) sa
che l'uso di E non e' razionale, ma si aspetta che l'ascoltatore si renda conto che non lo e' e che lui e'
cosciente che non lo e'; c) agisce secondo il principio cooperativo e si aspetta che l'ascoltatore lo
sappia. Qualunque espressione che ricada in questo schema e' per Nunberg una metafora (quindi
anche le metonimia e le sineddoche). Nunberg fa in effetti notare che la metafora non e' affatto la
specialita' dei poeti: proprio i meno abili nell'usare il linguaggio sono coloro che fanno piu' spesso
ricorso alla metafora. Lo "slang" dei quartieri poveri (o anche soltanto quello dei ragazzi) e' molto
piu' ricco di metafore che non la lingua "alta" delle accademie; come ben sa chiunque ascolti musica
heavymetal o rap. La metafora puo' addirittura essere usata per identificarsi in un certo ambiente
sociale (vedi appunto il rap, dove un certo modo di parlare metaforico e' conditio sine qua non per
essere presi sul serio dai teenager dei ghetti).
Infine l'approccio "concettuale" di Lakoff distingue tre tipi di metafora: "orientazionale" (nella
quale usiamo la nostra esperienza con l'orientamento spaziale, come in "in alto si respira aria piu'
pura"), "ontologica" (nella quale usiamo la nostra esperienza con gli oggetti fisici, come in "il
tempo passa"), "strutturale" (nella quale i tipi naturali vengono usati per definire altri concetti, come
in "il tempo e' denaro"). Ogni metafora, inoltre, apparterrebbe a una di un certo numero di possibili
classi concettuali, ovvero ogni metafora potrebbe essere ricondotta a una metafora primitiva.
Lakoff fa notare come in generale le metafore "concettuali" trasportino proprieta' di strutture del
mondo fisico in strutture non fisiche (e' appunto il caso di "il tempo e' denaro"). La ragione sta
probabilmente nel fatto che gli oggetti fisici hanno proprieta' ben determinate e di cui abbiamo
esperienza diretta; mentre entita' astratte, come "il tempo", che sfuggono a una definizione precisa e
non sono percepibili dai sensi, sarebbero piu' difficili da esprimere nel linguaggio. Estendendo
questo pensiero si puo' speculare che il linguaggio sarebbe forse nato per trattare degli oggetti fisici,
e soltanto in un secondo tempo esteso anche ai concetti non fisici. Quinn e Holland, per esempio,
sostengono che gli oggetti fisici, avendo proprieta' spaziali, consentono di costruire modelli mentali,
quelli non fisici invece no; l'unico modo di costruire un modello mentale per un oggetto non fisico
e' di trasferire il modello di un oggetto fisico, appunto attraverso una metafora. Ecco allora che i
sentimenti "sbiadiscono", i sogni "si infrangono", la fiducia "crolla" e cosi' via. I comici usano
spesso metafore per descrivere un'entita' astratta tramite un oggetto fisico che esibisce proprieta'
simili; piu' elaborata e' la metafora, piu' comico risulta lo scherzo.
Implicito nel pensiero di molti e' il postulato che il processo di comprensione di una metafora sia
sostanzialmente un processo di ragionamento per analogia. Secondo Martin, invece, la metafora non
richiede alcun tipo di ragionamento analogico. La metafora e' semplicemente una convenzione
linguistica all'interno di una comunita' linguistica, una sorta di "abbreviazione" per esprimere un
concetto che altrimenti richiederebbe troppe parole. Per esempio, "collo di bottiglia" significa
"quell'ostacolo che impedisce o rende piu' difficile raggiungere un certo obiettivo"; quando uso
l'espressione "collo di bottiglia", il mio ascoltatore non ha bisogno di compiere un ragionamento
analogico, di trasferire proprieta' dalla bottiglia al contesto di cui stiamo conversando e cosi' via:
capisce l'espressione "al volo". Anzi, e' molto probabile che qualcuno non si sia mai neppure
accorto che "collo di bottiglia" si riferisce letteralmente a una parte della bottiglia. Esisterebbero

alcune classi primitive di metafore (alla Lakoff) sulla base delle quali verrebbero poi costruite tutte
le altre. La metafora verrebbe pertanto costruita e compresa esattamente come ogni altra entita'
lessicale (nomi, verbi, articoli, etc).
Way ritiene che il requisito fondamentale di una teoria della metafora sia proprio quello di riuscire a
"comprendere" una metafora senza dover prima comprendere il senso letterale della frase. La
metaforicita' e' una proprieta' intrinseca del linguaggio e deve aver origine da una proprieta'
intrinseca della conoscenza. Way non fa altro che estendere il formalismo dei grafi concettuali di
Sowa introducendo una gerarchia di tipi dinamici: la gerarchia di Sowa e' statica ed e' neutra
rispetto al contesto (e' soltanto un ordinamento astratto di tipi e sottotipi), ma Way consente di
osservarla da diverse prospettive (o "maschere"); a seconda delle prospettiva una frase puo' essere
letterale, metaforica o figurativa. Il significato della frase e' pertanto determinato da questa
prospettiva: la stessa frase ha tanto un significato letterale quanto un significato metaforico, ma tra i
due non esiste alcuna relazione diretta, bensi' sono semplicemente aspetti diversi della stessa
struttura linguistica.
Secondo Kittay il significato di una parola e' determinato dalle altre parole ad essa associate nel
lessico. Non ha pertanto senso parlare di "significato di una parola", quanto di "campo di
significato": un campo semantico e' un insieme di parole che sono semanticamente collegate fra di
loro. La metafora e' allora un processo di trasferimento di strutture semantiche fra due campi
semantici: qualche struttura del primo campo crea o riorganizza una struttura nel secondo campo.
La metonimia
La metonimia e' il processo di far riferimento a qualcosa tramite il nome di qualcos'altro che e' in
qualche modo associato ad esso. Per esempio, nella frase "La Casa Bianca ha annunciato un attacco
contro l'Iraq" l'edificio della Casa Bianca fa riferimento al governo statunitense. Secondo Lakoff in
una metonimia un'entita' sta per un'altra, mentre in una metafora un'entita' viene vista come un'altra.
Esistono diversi tipi di metonimia: il "contenitore per contenuto" (per esempio, "ho bevuto soltanto
due bicchieri"); il "prodotto per produttore" ("ho comprato una Fiat"), l'"oggetto per utente" ("le
scuole faranno sciopero"), e cosi' via.
In generale la metonimia e' fondata sulla contiguita', mentre la metafora e' fondata sulla similarita'.
Nella metafora la proprieta' di un concetto viene messa in relazione con la proprieta' di un altro
concetto; nella metonimia un intero concetto viene messo in relazione con la proprieta' di un altro
concetto. Nella metafora la relazione fra i due termini e' una relazione strutturale (di analogia); nella
metonimia la relazione e' relativa a conoscenza specifica del contesto. Si pensi alla differenza fra la
metafora "la mia auto beve molta benzina" e la metonimia "ho bevuto un bicchiere".
I verbi comandati
In molti casi l'elemento sintattico non e' neppure la singola parola, a ben guardare, ma un'intera
espressione. Per esprimere certe azioni sono possibili soltanto alcune combinazioni di parole. Nelle
espressioni seguenti non e' possibile scambiare il verbo con un suo sinonimo o il sostantivo con un
suo sinonimo, poiche' altrimenti la frase non sarebbe piu' riconosciuta come valida: apparecchiare la
tavola, condurre una vita, godere di una popolarita', trarre lo spunto, prendere provvedimenti, girare
un film, prendere l'ascensore, prendere l'autostrada, destare stupore, intonare un inno, levare una
preghiera, somministrare una dose, ...
Tutti questi "termini composti" presentano una parziale analogia con la metafora: vengono compresi
nel loro complesso, senza bisogno di scomporli nelle parole che li compongono. Il significato
letterale dell'espressione "apparecchiare la tavola" non e' chiaro cosa sia: esiste il significato
dell'intera espressione, che corrisponde a un'azione ben precisa.

I processi metaforici
Poche grammatiche prendono in considerazione le metafore e le metonimie. La semantica della
preferenza di Wilks riconosce frasi letterali, anomale e metaforiche (queste ultime sono quelle che
violano i vincoli di preferenza semantica); quella "collattiva" di Fass, che ne e' una estensione,
riconosce anche le metonimie: due delle sue relazioni semantiche (ovvero due dei tipi di percorso
che possono mettere in relazione due parole) corrispondono a metonimia e metafora, e, per
l'esattezza, la metonimia viene interpretata come una forma di inferenza relativa al dominio.
Un problema e' quale valore di verita' si possa assegnare a una frase metaforica. La frase "Dario e'
un vulcano" e' ovviamente falsa; ma al tempo stesso esprime una verita' su cui concorderebbero tutti
gli amici di Dario. Il duplice significato della metafora e' in realta' un caso particolare
dell'ambiguita' del linguaggio. Siamo in grado di capire "Dario e' un vulcano" esattamente come
siamo in grado di capire "Il piano e' bello" (che puo' riferirsi tanto a uno strumento musicale quanto
a uno schema di azione). In entrambi i casi l'ambiguita' esiste, ma, paradossalmente, "non e'
possibile" sbagliare: se sbagliamo a interpretare la frase, la frase risulta senza senso nel discorso o
nel contesto di cui fa parte.
Molte metafore sono ormai talmente radicate nel linguaggio che non siamo piu' in grado di
riconoscerle come tali (per esempio, "ai piedi della montagna"). Queste frasi non hanno
assolutamente nulla di ambiguo, anche se "letteralmente" sarebbero da considerare false (le
montagne non hanno piedi). Quelle metafore, quasi sempre, servono ad esprimere dei concetti per i
quali non esiste una parola nel linguaggio. Quella "parola" mancante viene costruita tramite altre
parole attraverso una metafora. E non e' chiaro dove ci si debba fermare andando a ritroso alla
ricerca delle origini del linguaggio. E' possibile che molti termini tramandati dalle lingue antiche
non fossero a loro volta null'altro che metafore, compresse nel tempo in parole singole. Turbayne
ritiene che tutto il linguaggio sia metaforico. In effetti il linguaggio non puo' mai rappresentare
"letteralmente" il mondo; puo' soltanto "modellare" il mondo. Per definizione, pertanto, non esiste il
significato "letterale" di una frase. C'e' insomma una metafora, una teoria del mondo, alla base
dell'intero linguaggio umano. Non sarebbe pertanto la metafora ad essere un fenomeno linguistico,
ma il linguaggio ad essere un fenomeno metaforico. Secondo Lakoff, analogamente, la
comprensione del linguaggio consiste sempre nel comprendere una cosa in termini di un'altra. Tutti
i nostri concetti sono di natura metaforica e sono basati sulla nostra esperienza fisica.
Gli esperimenti di Ortony sembrano confermare che esiste un unico processo di comprensione del
linguaggio, il quale e' lo stesso sia per le frasi letterali che per quelle metaforiche. Gli esperimenti di
Keil sembrano a loro volta dimostrare che la comprensione delle metafore dipende dallo stadio
evolutivo e dalla conoscenza: Keil riesce a prevedere quando i bambini riusciranno a comprendere
certe metafore sulla base dell'ordine in cui acquisiscono certe distinzioni ontologiche; per esempio,
"L'idea non e' matura" viene compresa dopo "L'auto ha sete" poiche' il bambino sviluppa prima la
distinzione fra oggetti animati e inanimati che non fra quelli concreti e quelli astratti.
La stessa frase puo' assumere diversi significati, a seconda del livello (letterale o metaforico) a cui
la si legge. Resta da stabilire se esistano soltanto due livelli di lettura di una frase, o se non ne
possano esistere un numero infinito, con una gradazione infinitesima; se, cioe', nel linguaggio non
sia connaturato un grado di liberta' che da' luogo ad ambiguita', e tale ambiguita' non possa essere
sfruttata per costruire significati diversi dalla stessa frase, ampliando in tal modo a dismisura il
potere espressivo del linguaggio. La retorica, che avrebbe allora origine proprio da questa
ambiguita' di fondo del linguaggio, sarebbe il vero scopo del linguaggio. Ogni teoria
composizionale del linguaggio, assumendo che il significato di un insieme ordinato di parole sia
funzione soltanto del significato di ciascuna parola, finirebbe per snaturarne lo scopo e sminuirne il
grado di creativita': ogni insieme ordinato di parole avrebbe invece un numero infinito di possibili
significati grazie a quel margine di ambiguita' (creativita'), e la stessa parola sarebbe in ultima

analisi una metafora.


L'ambiguita' del linguaggio e' al centro della teoria di MacCormac, il quale riprende la teoria
interazionista di Black alla luce della logica fuzzy. E' la logica fuzzy a consentirgli di rappresentare
le verita' "parziali" del linguaggio metaforico: il significato di una frase puo' appartenere a diversi
concetti con diverso grado di appartenenza.
Per l'esattezza MacCormac adotta una logica a quattro valori e la classificazione di Wheelwright:
"epifore" sono le metafore che servono a esprimere l'esistenza di qualcosa (quelle che mettono in
risalto delle somiglianze), "diafore" sono le metafore che servono a suggerire la possibilita' di
qualcosa (quelle che mettono in risalto delle differenze). Una diafora (per esempio, il "buco nero")
puo' diventare un'epifora (quando avremo una conferma definitiva dell'esistenza dei buchi neri) e
un'epifora puo' diventare un'espressione letterale (quando l'uso del termine "buco nero" sara' cosi'
diffuso e comune che la sua origine sara' stata dimenticata).
La funzione di appartenenza fuzzy puo' assumere i quattro valori: falso, diaforico, epiforico, vero.
Nessuna metafora e' puramente diaforica, ovviamente, altrimenti non sarebbe piu' una metafora; ma
la metafora "Dario e' un vulcano", per esempio, contiene l'elemento diaforico dato dal contrasto fra
l'essere animato "Dario" e l'essere inanimato "vulcano". Alcune metafore sono piu' epiforiche, altre
sono piu' diaforiche; ma in tutte si possono trovare entrambe le componenti.
La metafora puo' allora essere analizzata a tre diversi livelli: a livello linguistico e' un processo
sintattico e semantico; a livello sociale e' un processo evolutivo che fa passare da linguaggio
ordinario a diafora a epifora e di nuovo a linguaggio ordinario; e a livello cognitivo e' un processo
evolutivo di acquisizione della conoscenza. Comunque sia, la metafora e' innanzitutto un processo.
Tirando le somme: le somme non si tirano, eppure si tirano le somme
La creativita' metaforica e' una proprieta' fondamentale del pensiero:
Il linguaggio e' metaforico, e tanto piu' metaforico quanto piu' popolare.
La metafora e' forse alla base di tutta la conoscenza, ed e' grazie alla metafora che possiamo
acquisire nuova conoscenza. Forse e' il pensiero stesso a essere metaforico.
Non esiste il significato "letterale" di una frase.
La logica fuzzy consente di rappresentare le verita' "parziali" del linguaggio metaforico.
La metafora conferisce al linguaggio una fondamentale ambiguita'.
La metafora e' un processo evolutivo.
Bibliografia
Black M. (1962): Models and metaphors (Cornell Univ Press)
Keil F. (1979): Semantic and conceptual development (Harvard Univ Press)
Kittay E. (1987): Metaphor (Clarendon Press)
Lakoff G. & Johnson M. (1980): Metaphors we live by (Chicago Univ Press)
Lakoff G. (1987): Women fire and dangerous things (Univ of Chicago Press)
MacCormac E. (1985): A cognitive theory of metaphor (MIT Press)
Martin J. (1990): A computational model of metaphor interpretation
(Academic Press)
Ortony A. (1979): Metaphor and thought (Cambridge Univ Press)
Turbayne C. (1962): The myth of metaphor (Yale Univ Press)
Way E. (1991): Knowledge representation and metaphor (Kluwer Academic)
Wheelwright P. 91962): Metaphor and reality (Indiana Univ Press)
Whorf B. (1956): Language, thought and reality (MIT Press)

Il significato del significato


Il Significato
Che cos'e' il significato? Il significato e' normalmente "di" qualcosa: il significato di questo libro, il
significato di un certo gesto, il significato della vita.
Le scienze tradizionali studiano fenomeni che non sono "di" null'altro. Il moto dei pianeti attorno al
Sole, o la composizione chimica dell'oro, o l'esplosione demografica dell'India non riguardano
null'altro. La scienza deve spiegare questi fenomeni sotto diversi punti di vista, ma non deve
spiegare a cosa si riferiscono. Il linguaggio e il pensiero hanno invece la prerogativa di essere
sempre "circa" qualcosa. Le frasi precedenti, per esempio, riguardavano (fra l'altro) il sistema
solare, l'oro e l'India. L'"intenzionalita'" del linguaggio fa si' che una scienza del linguaggio debba
essere intrinsecamente diversa da tutte le altre scienze. Oltre a descrivere i meccanismi che regolano
questo fenomeno, infatti, deve anche identificare a cosa si riferisce, ovvero quale sia il suo
"contenuto semantico".
Il linguaggio, inoltre, ha un'altra proprieta' che lo rende diverso da ogni altro fenomeno naturale. Il
linguaggio fa uso di simboli, e questi simboli possono essere combinati in un numero virtualmente
infinito di maniere. Nonostante cio' e' sempre possibile determinare quale sia il contenuto semantico
di una combinazione, anche quando la combinazione (la "frase") non era mai stata usata prima.
Molto probabilmente il lettore non aveva mai incontrato prima in vita sua nessuna delle frasi di
questo libro, eppure le ha capite tutte (spero).
I simboli che vengono usati e il modo in cui quei simboli vengono combinati determina il contenuto
semantico della frase ("principio di composizionalita'"). Una scienza del significato deve allora
studiare tre fenomeni distinti: 1. come un simbolo possa avere contenuto semantico; 2. come il
contenuto semantico di un insieme di simboli sia funzione del contenuto semantico di ciascun
simbolo; 3. come abbia origine nella mente il processo cognitivo tramite cui viene costruito il
contenuto semantico di un insieme di simboli.
Un fenomeno paradossale rende ancor piu' problematica la ricerca del significato: e' infinitamente
piu' facile spiegare il significato di una frase che non il significato di ciascuna delle sue parole. Per
esempio, la frase "Vincenzo ha detto a Giusi che arrivera' tardi per cena" e' facilissima da capire; ma
bisogna pensare molto piu' a lungo per spiegare cosa significa "dire", "arrivare" e persino "tardi".
L'analisi referenziale
Secondo l'analisi "refenziale" del significato il significato di una parola e' l'oggetto del mondo a cui
quella parola si riferisce. Non a caso questa scuola fa capo a Russell, Frege e Wittgenstein, i
fondatori della Logica moderna, abituati a manipolare i linguaggi "estensionali" della logica.
La Logica e' "estensionale" nel senso che la verita' di un'espressione dipende unicamente dagli
oggetti a cui si riferisce (dalla sua estensione), non dal suo significato (dalla sua intensione). In altre
parole i simboli di un linguaggio "estensionale" rappresentano oggetti o proprieta' di oggetti, e ogni
frase composta di tali simboli esprime una verita' o una falsita' relativa a tali oggetti o a tali
proprieta'. "Piero Scaruffi e' italiano" esprime una proprieta' di Piero Scaruffi che e' vera.
I linguaggi estensionali soddisfano la cosiddetta "legge di Leibniz": se in una frase si sostituisce un
termine con un altro termine che fa riferimento allo stesso oggetto si conserva la verita' (o la falsita')
della frase. Se al posto di "Piero Scaruffi", scriviamo "L'autore di questo libro" otteniamo ancora
una frase vera: "L'autore di questo libro e' italiano".
E' pero' dubbio se la nuova frase abbia ancora lo stesso significato dell'originale. E' di Meinong il

paradosso degli oggetti inesistenti: la frase "L'unicorno non esiste" e' contraddittoria, in quanto
afferma che l'unicorno non esiste, ma al tempo stesso il termine "L'unicorno" si riferisce
all'unicorno, e pertanto indirettamente ne postula l'esistenza. Una variante venne scoperta anche da
Russell: "L'unicorno vola" e' falsa perche' l'unicorno non e' tra gli oggetti che volano, ma il suo
opposto "L'unicorno non vola" e' anche falsa, in quanto l'unicorno non e' neppure fra gli oggetti che
non volano, e cio' contraddice la legge secondo cui una frase e' vera se il suo opposto e' falso.
Un altro paradosso e' di Frege stesso: la frase "Piero Scaruffi e' l'autore di questo libro" dovrebbe
essere equivalente alla frase "Piero Scaruffi e' Piero Scaruffi", in quanto "Piero Scaruffi" e "L'autore
di questo libro" si riferiscono, per definizione, allo stesso oggetto; e' intuitivo, invece, che le due
frasi non esprimono lo stesso significato. Frege risolse il paradosso distinguendo il "senso" (cioe'
l'intensione) dal "referente" (cioe' l'estensione) di un termine: mentre il "referente" e' l'oggetto a cui
si fa riferimento, il "senso" e' il modo in cui il referente ci viene presentato. "Piero Scaruffi" e
"L'autore di questo libro" hanno due sensi diversi e potrebbero benissimo avere due referenti
diversi, ma, controllando la prima pagina, il lettore si puo' rendere conto che hanno invece lo stesso
referente, e la frase "Piero Scaruffi e' l'autore di questo libro" esprime appunto questo fatto.
Il "senso" di Frege svolge pertanto due ruoli: mette in relazione il linguaggio con la realta' e il
linguaggio con la mente; funge cioe' da intermediario fra la realta' e la mente. Il ruolo duale del
senso emerge dal celebre esempio della frase "la stella del mattino e' la stella della sera", la quale e'
vera in quanto oggi sappiamo che entrambe queste stelle sono Venere, ma i Babilonesi non lo
sapevano e per loro si trattava di due oggetti distinti.
Nella sua teoria delle descrizioni Russell risolse quei paradossi imponendo che tutte le descrizioni
(come quella di "Piero Scaruffi e' l'autore di questo libro") vengano trasformate in espressioni
esistenziali (se esiste un X ed esiste un Y tali che l'autore di Y e' X e Y e' questo libro, allora X e'
Piero Scaruffi). In particolare, sono ammessi soltanto gli oggetti esistenti e "L'unicorno vola"
diventa "Esiste almeno un unicorno e quell'unicorno vola" (falsa), il cui contrario e' "Non esiste
alcun unicorno oppure quell'unicorno vola" (vera).
Per risolvere altri due celebri paradossi, quello del barbiere (se un barbiere fa la barba a tutti i
barbieri che non si fanno la barba da soli, quel barbiere si fa la barba da se'?) e quello del bugiardo
(se dico che "questa frase e' falsa", questa frase e' vera o falsa?) Russell formulo' una "teoria dei
tipi", con la quale sostanzialmente si evita che una proposizione possa far riferimento a una
proprieta' di se stessa: una funzione e' specificata soltanto se sono definiti i suoi parametri (fra i
quali non puo' esservi la funzione stessa); le funzioni risultano cosi' organizzate in una gerarchia; un
tipo e' l'insieme degli oggetti che possono essere parametri delle funzioni di un certo livello
gerarchico; non ha senso mescolare oggetti di tipo diverso.
Russell fece notare quanto poco conti l'estensione: siccome non sono sposato, l'espressione "la
moglie di Piero Scaruffi" non ha alcuna estensione, ma ha un significato intuitivo e la logica la tratta
alla stregua di qualsiasi espressione dotata di estensione.
Frege studio' anche un caso che viola la legge di Leibniz: i verbi "sapere", "credere" e "pensare"
seguiti da una frase non permettono piu' di sostituire un termine con un termine dallo stesso
referente. Per esempio, se "Cinzia sa che Giusi ha trent'anni", e Giusi e' la moglie di Vincenzo, non
e' necessariamente vera la frase, apparentemente equivalente: "Cinzia sa che la moglie di Vincenzo
ha trent'anni". Cinzia potrebbe non sapere che Giusi e' la moglie di Vincenzo e in tal caso non
saprebbe rispondere alla domanda "Quanti anni ha la moglie di Vincenzo?" pur sapendo rispondere
alla domanda "Quanti anni ha Giusi?" Per conservare la legge di Leibniz, Frege introdusse un'altra
distinzione: fra il senso e il referente "abituali" e il senso e referente "indiretti". Questa distinzione e'
necessaria in tutti i casi di "contesto opaco", come quelli di "sapere", "credere" e "pensare". Il

referente indiretto di un termine e' allora il suo senso abituale. La legge di Leibniz vale ancora per
quanto riguarda il referente indiretto: i referenti indiretti di "Giusi" e di "la moglie di Vincenzo"
sono infatti diversi e pertanto non possono essere scambiati.
Frege identifica il referente di una frase nel suo valore di verita': tutte le frasi vere si riferiscono
all'oggetto "Vero" e tutte le frasi false si riferiscono all'oggetto "Falso". Per scoprire il referente di
un insieme di frasi basta ricordare che la logica e' "funzione della verita'" ("truth-functional"): la
verita' di un'affermazione composta (per esempio, "Piero Scaruffi e' l'autore di questo libro oppure
Roma e' la capitale della Francia") e' funzione della verita' delle sue componenti (la verita' di "Piero
Scaruffi e' l'autore di questo libro" e la verita' di "Roma e' la capitale della Francia"). Anche un
insieme di frasi ha come possibili referenti soltanto "Vero" o "Falso".
Sarebbe, naturalmente, piu' intuitivo identificare il referente di una frase nella "situazione" descritta
dalla frase. Ma Frege era un logico ed escogito' una definizione che consentisse di applicare anche
al linguaggio il potente apparato della Logica. Con questa definizione Frege riconduce ogni frase
del linguaggio a una funzione che associa un insieme di parole con un valore di verita'.
Il "senso" della frase, a sua volta, e' un'entita' oggettiva che puo' essere condivisa da piu' di una frase
(per esempio dalla stessa frase scritta in un'altra lingua).
Due frasi con lo stesso senso hanno, in generale, anche lo stesso referente, come e' intuitivo
aspettarsi. Ma esiste almeno un'eccezione, che da' luogo a un altro piccolo paradosso: se due frasi
esprimono lo stesso pensiero, come possono essere l'una vera e l'altra falsa? Si pensi pero' alle frasi
"The first character of this sentence is a T" e "La prima lettera di questa frase e' una T", che sono
l'una la traduzione dell'altra e pertanto dovrebbero avere anche lo stesso senso: invece la prima
esprime una verita', la seconda una falsita'.
E che dire delle frasi che in una lingua hanno un senso ben preciso e vero, come per esempio
"Questa frase e' lunga trentasette caratteri", e in un'altra sono addirittura impossibili? In Inglese
nessun numero consente di dire "This sentence is ... characters long". E' intuitivo che in qualsiasi
lingua questa frase abbia un senso (ogni frase e' composta da un ben definito numero di lettere),
eppure e' impossibile costruire una frase di questo tipo in Inglese che sia vera.
Che il valore di verita' non possa portare al significato e' dimostrato anche da un esempio di Lycan:
la frase "se una cosa e' stata zipprodata, quella cosa e' stata zipprodata" e' una tautologia e pertanto
certamente vera, ma cio' non ne determina il suo significato, che infatti rimane oscuro a tutti noi. Si
possono costruire numerose frasi che non significano assolutamente nulla, ma che hanno un valore
di verita' ben definito. Se un essere onnisciente mi fornisse il valore di verita' di ogni componente di
una frase scritta in un linguaggio che non conosco, alla fine potrei costruire il valore di verita'
"composto" di quella frase, ma ancora non saprei cosa significa. E davanti a termini come
"ciclotrone" non e' neppure chiaro chi li "capisca": la frase "a Stanford c'e' un ciclotrone" mi e'
chiara anche se non so cosa sia un ciclotrone, ma e' certamente "piu'" chiara a un fisico e ancora piu'
chiara a un fisico di Stanford. Esistono, insomma, gradazioni di significato che una teoria
referenziale non sembra essere in grado di spiegare.
Wittgenstein si rese conto che il fulcro di una teoria del significato doveva essere il modo in cui le
parole modellano il mondo. Esattamente come una carta geografica riproduce una certa zona del
mondo in quanto le sue figure si riferiscono a luoghi e le relazioni fra quelle figure si riferiscono
alle relazioni fra quei luoghi, una frase rappresenta qualcosa del mondo in quanto le parole che la
compongono si riferiscono ad alcuni oggetti e le relazioni fra quelle parole si riferiscono alle
relazioni fra quegli oggetti.

Analisi del linguaggio ordinario


Un'altra corrente filosofica ritiene che ci si debba focalizzare maggiormente su come il linguaggio
viene usato quotidianamente dalla gente, piuttosto che sulla sua struttura.
Il primo grande critico dell'analisi referenziale fu proprio Wittgenstein, il quale a un certo punto
ripudio' l'idea che il linguaggio si possa ridurre a una serie di riferimenti ad oggetti. Il linguaggio e'
anche, e soprattutto, prassi verbali. Uno stesso termine puo' essere usato in modo diverso a seconda
che il contesto sia una domanda, un ordine, un racconto, una bestemmia, un saluto, una
barzelletta, ... E' piu' importante il tipo di frase che non la definizione del termine, tanto piu' che
certi termini (per esempio, "gioco") non sono definibili per nulla ("gioco" e' sia gli scacchi sia il
calcio, sia il ciclismo sia il solitario di carte). In generale e' possibile definire soltanto la
somiglianza fra oggetti (gli scacchi, il calcio, il ciclismo e il solitario di carte formano una rete di
somiglianze piu' o meno come i membri di una famiglia).
Secondo Ryle e' sempre necessario riferire un concetto all'insieme di concetti all'interno del quale e'
applicabile: per esempio, il mondo dei fisici, fatto di particelle e forze, appartiene ad un universo di
discorso diverso da quello del senso comune, fatto di oggetti e moti, e cosi' i concetti applicabili al
primo non sono necessariamente applicabili al secondo e viceversa.
Austin ebbe l'idea di trattare il linguaggio come un tipo particolare di azione. Esattamente come
esistono azioni di moto, Austin postula che esistano anche azioni di parlato. Austin riconobbe, pero',
che ogni espressione verbale (o "utterance") causa tre diversi tipi di atti (o "speech acts"): un atto
locutorio (le parole che impiega), un atto illocutorio (il tipo di azione che compie: avvertire,
ordinare, promettere, domandare, etc) e un atto perlocutorio (l'effetto che la frase ha sull'ascoltatore:
convincerlo, farlo rispondere, farlo diventare amico, etc). Searle ha a sua volta classificato gli atti
illocutori in diverse categorie, fra cui atti direttivi (ovvero comandi), atti assertivi (dichiarazioni),
atti commissivi (per esempio, promesse), atti permissivi e atti proibitivi. La logica classica funziona
soltanto con gli assertivi.
E' interessante anche il metodo di ricerca impiegato da Austin per indagare un qualsiasi argomento
filosofico. Basandosi sul suo concetto di linguaggio, Austin ritiene che prima di tutto si debba
studiare come il linguaggio viene adoperato dalla gente nel contesto di quel particolare argomento.
E cio' deve essere fatto senza farsi condizionare da alcun ragionamento, semplicemente
raccogliendo i fatti a disposizione, un po' come un investigatore deve raccogliere in maniera
oggettiva e imparziale tutti gli elementi utili alla sua indagine prima di cominciare a trarre delle
conclusioni. Una volta costruita questa "base di conoscenza" relativa a come il linguaggio viene
usato in quel dominio specifico, il filosofo puo' iniziare a costruire la sua teoria.
Implicito nella teoria di Austin era il fatto che certe condizioni sono propedeutiche a far si' che un
atto locutorio abbia una particolare forza illocutoria e dia origine a un particolare atto perlocutorio.
Per esempio, io chiedo a qualcuno di fare qualcosa se ho interesse che quella cosa venga fatta, se
ritengo che quel qualcuno la sappia fare, e se penso che la mia richiesta lo indurra' a farla.
Searle intraprese l'opera di costruire una teoria di queste "condizioni" che presiedono alla genesi
degli atti di parlato.
In pratica si direbbe che una forma di "buon senso" presieda al modo in cui gli esseri umani
utilizzano gli atti del parlato. Secondo Grice alla base del linguaggio e' una forma di cooperazione
fra coloro che lo parlano, per cui di fatto una conversazione e' sempre un atto collaborativo. Grice
identifico' quattro massime che governano questa cooperazione: massima di quantita' (chi parla
fornisce la massima quantita' possibile di informazione, ma non piu' di quanta necessaria); massima
di qualita' (chi parla dice la verita'); massima di relazione (chi parla dice cose che sono rilevanti per

l'argomento di cui si sta conversando); massima di maniera (chi parla cerca di essere il piu' chiaro
possibile). Chi viola queste massime confonde il suo interlocutore. Queste massime sono le
convenzioni stabilite per una trasmissione corretta ed efficiente di informazione fra due esseri dotati
di linguaggio.
Un caso particolarmente interessante di comunicazione e' quello delle "implicazioni
conversazionali" (conversational implicatures) che si verificano quando chi parla fa ricorso a queste
massime per compiere un atto illocutorio. Per esempio, se la domenica vedo una persona sostare
disperata davanti a un'edicola chiusa e gli dico "il giornalaio della stazione e' aperto", gli sto
indirettamente indicando dove puo' comprare un giornale. E' grazie al contesto che quell'atto
locutorio diventa anche un ben preciso atto illocutorio.
Le osservazioni di Grice si possono riassumere in un principio generale di razionalita': scegliere
sempre gli atti di discorso che ottengono lo scopo con il costo minimo e nella maniera piu' efficace.
E questo principio non vale soltanto per gli atti di discorso, ma per tutte le azioni si un essere
razionale.
L'analisi olistica
Una proprieta' e' "anatomica" se non puo' essere che un solo oggetto ce l'abbia. Per esempio, la
proprieta' di essere parente di qualcuno e' anatomica. Ogni proprieta' che non sia anatomica e`
"atomica". Una proprieta' anatomica e' anche "olistica" se per forza molti oggetti la devono avere.
Per esempio, la proprieta' di essere un numero naturale e' olistica (anche la proprieta' di essere un
individuo nella massa, o di avere un reddito medio, o di essere nato in una nazione popolosa: sono
tutte proprieta' la cui definizione dipende dal fatto che esista un grande numero di oggetti con tale
proprieta'). Se una proprieta' semantica e' anatomica, allora e' necessariamente olistica. Se le
proprieta' semantiche sono anatomiche, allora le proprieta' di un simbolo sono determinate dal suo
ruolo nel linguaggio (e in particolare e' anatomica anche la proprieta' di essere un simbolo).
Secondo Quine non e' possibile stabilire la verita' di un'affermazione in virtu' del significato delle
sue parole. Le parole non hanno un significato assoluto; hanno un significato soltanto rispetto
all'insieme delle altre parole con cui sono connesse nelle frasi che assumiamo essere vere. Non solo:
il loro "significato" (se cosi' vogliamo chiamarlo) puo' persino cambiare nel tempo, nel senso che,
non essendo legato rigidamente a oggetti del mondo, puo' adattarsi a meglio servire l'esperienza. Il
processo di scoperta consiste proprio nel modificare quella "rete" di connessioni fra le parole,
alterandone in tal modo il "significato". Per dimostrare che il significato delle parole non e' fisso,
Quine porta l'esempio della traduzione, sia da una lingua all'altra sia da una persona all'altra nella
stessa lingua. Si possono costruire infiniti manuali di traduzione, e infinite regole di interpretazione,
senza che esista un metodo deterministico per decidere quale sia quella piu' giusta.
La teoria dell'indeterminatezza di Quine ha origine nel campo scientifico. Dato un dato empirico,
esiste un numero infinito di teorie che lo possono spiegare. Man mano che confrontiamo queste
teorie con altri dati empirici, possiamo eliminare quelle che non risultano coerenti con la realta', ma
comunque ne rimangono sempre un numero infinito. La scienza decide di scegliere quella che
sembra piu' appropriata, o semplicemente quella che e' diventata di moda. Non e' possibile stabilire
quale sia la migliore di due teorie che differiscono in parti non verificabili con l'esperienza. Siccome
esistera' sempre un numero infinito di dettagli non verificabili con l'esperienza, esisteranno sempre
infinite teorie di pari validita'.
Un caso particolare e' quello del linguaggio, in cui il dato empirico e' il discorso e la teoria e' il suo
significato. Esistono infinite interpretazioni di un discorso a seconda del contesto in cui ci si pone;
se ogni parola avesse un significato ben preciso, la somma dei loro significati fornirebbe una
interpretazione unica del discorso e questo inconveniente non si verificherebbe; ergo la singola

parola non ha un significato; il suo referente e' "inscrutabile". Quine arriva a suggerire che il
significato del linguaggio non sia neppure nella mente dell'agente che lo parla, ma che esso vada
studiato piuttosto come un fenomeno naturale in relazione al mondo di quell'agente.
Da un lato pertanto Quine e' un verificazionista: il significato di un'affermazione e' il metodo con
cui la si verifica empiricamente. Dall'altro e' un olista: l'unita' di significato e' data dalla scienza nel
suo complesso, ovvero la verifica di un'affermazione all'interno di una teoria dipende a sua volta
dall'insieme di tutte le affermazioni della teoria. Mettendo insieme i due punti di vista si ottiene che
ogni affermazione di una teoria determina parzialmente il significato di ogni altra sua affermazione.
Il significato di una frase e' la sua posizione nella rete.
Churchland ha interpretato la "rete" di significati di Quine sotto forma di uno spazio degli stati
semantici, le cui dimensioni sono date da tutte le proprieta' osservabili. Ogni espressione del
linguaggio equivale a definire la posizione di un concetto all'interno di questo spazio, in maniera
coerente con le proprieta' che tale concetto esibisce secondo quell'espressione.
Recentemente Putnam ha fatto notare che il significato ha un'identita' nel tempo (e' un'entita' storica,
come una persona o una nazione), ma non nella sua essenza (per esempio, la quantita' di moto, che
fra Newton e Einstein non e' piu' la stessa cosa, benche' esprima lo stesso concetto). I concetti di un
individuo non sono entita' scientifiche e dipendono dall'ambiente fisico e sociale in cui vive
quell'individuo. Per esempio, la maggioranza degli individui pensa di sapere cosa sia l'oro, ma non
saprebbe spiegare cosa esso sia, e anzi si rivolge a un gioielliere quando vuole stabilire se un pezzo
di metallo giallo e' oro o meno. Un chimico sa che l'oro e' il settantanovesimo elemento della tavola
periodica; ma, se dovessimo scoprire che la scienza ha sbagliato a contare gli elettroni dell'atomo di
oro, la fede di Vincenzo continuerebbe ad essere fatta d'oro, e pertanto quello non puo' essere il
significato della parola "oro", ovvero il chimico non ne sa piu' degli altri. Persone diverse usano
criteri diversi per decidere cosa e' oro, e la maggioranza della popolazione umana non usa alcun
criterio. Non avrebbe comunque senso affermare che soltanto una parte della popolazione umana
(chimici, gioiellieri, ladri, minatori o altri) sa cosa sia l'oro, perche' in realta' tutti sappiamo cosa sia.
Secondo Putnam non e' vero che ogni singolo individuo possieda nella propria mente tutto cio' che
serve per comprendere il referente di una parola (l'oggetto a cui quella parola si riferisce); esiste
invece una divisione di competenze fra gli esseri umani e il referente di una parola emerge dalla
loro cooperazione (insomma dai criteri di tutti). Il referente di una parola e' determinato da fattori
sociali e da fattori ambientali; il significato non si trova nella mente. (Per inciso, il significato non e'
piu' necessario se non per ragioni di traduzione da una lingua all'altra.)
L'olismo si presta comunque a diverse critiche. Per esempio, Dummett fa notare che l'olismo non
riesce a spiegare come un individuo possa apprendere il linguaggio: se il significato di una frase
esiste soltanto in relazione con l'intero insieme di frasi del linguaggio, non e' mai possibile
apprendere la prima frase; ne' come si possa capire il significato di una teoria, se il suo significato e'
dato dall'intera teoria e non dalle sue singole componenti, mentre cio' che possiamo usare sono
proprio soltanto le sue singole componenti.
L'analisi corrispondenziale
Tarski, nella sua ricerca della definizione di "verita'", formulo' la versione piu' nota della teoria
"corrispondenziale" della verita' ("correspondence theory of truth"): un'affermazione e' vera se
corrisponde alla realta'. Cosi' la frase "Piero Scaruffi e' italiano" e' vera perche' Piero Scaruffi e'
effettivamente italiano. La frase precedente e' scritta nel "meta-linguaggio" adottato per parlare del
"linguaggio oggetto" (quello della frase fra virgolette). Nell'esempio precedente la frase oggetto e la
meta-frase sono identiche, ma, per esempio: "Piero Scaruffi is italian" e' vera perche' Piero Scaruffi
e' italiano.

Secondo Davidson Tarski ha semplicemente sostituito alla nozione universale e intuitiva di "verita'"
una serie infinita di regole che definiscono la verita' in un linguaggio relativamente alla verita' in un
altro linguaggio. Putnam aggiunge che in questo modo la definizione di verita' dipende dal
significato delle parole del linguaggio e ogni definizione di verita' dovrebbe elencare tutte le
condizioni da cui dipende tale significato, non ultima la definizione stessa di verita' che si sta
cercando di definire.
Davidson preferisce allora capovolgere un po' le idee di Tarski, assumendo che il concetto di verita'
non abbia bisogno di essere definito, ma anzi sia dato a tutti, e usando la teoria corrispondenziale
per definire il significato: il significato di una frase e' definito da cio' che sarebbe se la frase fosse
vera. Se la frase "Piero Scaruffi e' italiano" fosse vera, allora Piero Scaruffi sarebbe italiano: e
questo e' allora il significato della frase "Piero Scaruffi e' italiano". Davidson si pose il problema di
come generare tutte le meta-frasi (dette anche "T-frasi") per tutte le frasi del linguaggio, sapendo
che infiniti insiemi di frasi potrebbero soddisfare i requisiti di correspondenzialita'. In altre parole,
quale teoria della verita' e' anche un'appropriata teoria del significato?
A questo proposito anche Davidson assume che il linguaggio serva a trasmettere informazione e che
pertanto il parlante e l'ascoltatore condividano un principio fondamentale di rendere il piu' efficiente
possibile tale trasmissione. Questo "principio di carita'" ("principle of charity") asserisce che
l'interpretazione da scegliere e' quella in cui il parlante sta dicendo il maggior numero possibile di
affermazioni vere. Durante la conversazione l'ascoltatore tenta allora di costruire una
interpretazione nella quale ogni frase del parlante venga accoppiata a una frase (nel proprio
linguaggio) equivalente in verita' o falsita'. .sp 5
FIGURA 1 .sp 5
L'analisi duale
Per spiegare come le sue rappresentazioni mentali possano essere messe in relazione con il resto del
mondo, Fodor distingue fra il "contenuto stretto" ("narrow content") e il "contenuto largo" ("broad
content") di una rappresentazione mentale: il primo e' la rappresentazione semantica, e' un fatto
puramente mentale e prescinde da cio' a cui si riferisce (non dipende da nient'altro); il secondo e'
una funzione che produce il referente in ogni mondo possibile (e dipende anche da qualcosa che si
trova al di fuori, per esempio da fattori ambientali). Per Fodor, pertanto, esistono due tipi di
significato.
Cio' corrisponde alla divisione che Putnam compie fra stati psicologici in senso stretto (quelli che
non presuppongono l'esistenza di altri, come il dolore) e stati psicologici in senso largo (quelli che
presuppongono l'esistenza di altri, per esempio che Dario ama Cinzia). E secondo Putnam ha senso
soltanto studiare i primi (da cui il suo "solipsismo metodologico"").
Una variante della posizione di Fodor e' quella di Block, il quale ritiene che esista invece un solo
significato, e che tale significato sia proprio l'insieme ordinato di contenuto stretto e contenuto
largo, ma ridefinisce il contenuto stretto come un "ruolo concettuale" (laddove, seguendo Sellars, un
ruolo e' una proprieta' puramente sintattica, riferita al modo in cui viene usato il linguaggio, secondo
regole astratte, piu' o meno come succede nei sistemi formali). Il significato di un'espressione e'
allora dato dal suo ruolo nel linguaggio. Sulla base di questi ruoli concettuali Block definisce poi
una relazione di similarita' (quando due termini hanno lo stesso ruolo concettuale, sono simili;
quando hanno anche lo stesso contenuto largo, hanno significato simile) che rimpiazza quello di
identita'.
Anche Dretske ha avanzato una teoria a due fattori: il primo (l'"indicatore", ovvero quella che
Dretske aveva precedentemente chiamato "informazione") e' relativo alle relazioni causali con gli

stati esterni (per esempio, i cerchi nel tronco di un albero sono indicatori dell'eta' dell'albero),
mentre il secondo esprime le dipendenze esistenti fra gli stati interni in una maniera che riflette le
variazioni nel mondo esterno. In tal modo Dretske tenta anche di spiegare come si stabilisca la
relazione sistematica che esiste fra i due fattori. Affinche' un fattore possa essere considerato un
indicatore deve esistere una relazione causale fra di esso e cio' che e' indicato: se l'albero non avesse
quell'eta', non ci sarebbero quei cerchi nel tronco.
In questo modo Fodor ovvia ai problemi sollevati da Frege e Putnam riguardo la relazione fra
significato e referenza, che Fodor stesso aveva adattato anche al caso dei computer: e' possibile che
due computer, programmati da due programmatori diversi per svolgere due compiti diversi (per
esempio, l'uno per calcolare la superficie dell'Italia e l'altro per predire quanti figli avra' Vincenzo)
eseguano esattamente le stesse istruzioni e vengano a trovarsi sempre negli stessi stati, benche' i
loro risultati, espressi nella stessa forma binaria, vengano interpretati dai rispettivi programmatori in
maniera diversa (per esempio, entrambi potrebbero alla fine rispondere 3, ma il primo
programmatore sa che il risultato esprime la superficie in centinaia di migliaia di chilometri
quadrati, mentre il secondo sa che il risultato esprime il numero di figli che Vincenzo avra'). Cio'
che la macchina calcola dipende anche da qualcosa che non si trova nella macchina, ma nelle
intenzioni del programmatore, ovvero dall'interpretazione che l'osservatore ne compie.
Comunque sia le teorie duali del significato riprendono un po' la visione di Frege e assumono che
esistano due "tipi" di significato, uno nella mente e uno nel mondo.
L'analisi modale
L'analisi estensionale non rende conto di frasi assai comuni nel linguaggio corrente come quelle che
usano i contesti opachi ("sapere", "credere", "pensare") e come quelle che usano gli operatori
modali (tutte le parole che si possono ricondurre alle forme "e' possibile che" e "e' necessario che",
dal verbo "dovere" all'avverbio "forse").
Queste frasi non sono "estensionali", nel senso che non soddisfano la legge di Leibniz. Per esempio,
la frase "e' necessario che un pentagono abbia cinque lati" e' vera, ma la frase "e' necessario che il
Pentagono abbia cinque lati" e' falsa (avrebbero potuto costruire quell'edificio in qualsiasi forma),
benche' "la forma del Pentagono" e "pentagono" si riferiscano allo stesso oggetto.
Queste frasi sono interpretabili nella semantica dei modelli ("model-theoretic") di Kripke. Il primo a
concepire il nostro mondo come uno dei mondi possibili fu Leibniz, ma il primo a dare un rigoroso
fondamento logico a questa intuizione fu Kripke. Un'affermazione che e' falsa in questo universo
puo' benissimo essere vera in un altro mondo. Pertanto i valori di verita' di una frase sono sempre
relativi a un particolare mondo.
Nella semantica dei mondi possibili una proprieta' e' necessaria se in tutti i mondi e' vera, una
proprieta' e' possibile se esiste almeno un mondo in cui e' vera. "Piero Scaruffi e' italiano" e'
possibile, non necessaria; "Piero Scaruffi e' Piero Scaruffi" e' necessaria. Queste definizioni sono
estremamente utili nel diagnosticare i cosiddetti "controfattuali", ovvero frasi ipotetiche del tipo "Se
non fossi Piero Scaruffi, sarei francese" (non ha molto senso domandarsi se questa frase sia "vera" o
"falsa": e' pero' "possibile").
Mentre la teoria dei modelli di Tarski e' puramente estensionale (per ogni modello il significato di
un predicato e' determinato dall'elenco degli oggetti per cui e' vero), la logica "modale" di Kripke e'
intensionale: primo perche' tratta possibilita' che non esistono e potrebbero non esistere mai, e poi
perche' nella semantica dei mondi possibili le definizioni estensionali sono impossibili in quanto
l'insieme di oggetti e' infinito.

Nello scenario dei mondi possibili i nomi costituiscono pero' un grave problema. Il nome e' infatti
semplicemente la proprieta' attribuita a un individuo all'atto della sua nascita: identificare quella
persona con quel nome e' scorretto se si pensa che esistono infiniti mondi possibili (o "possono
esistere infiniti mondi", come si preferisce) in cui quella persona non ha quel nome ed infiniti
mondi in cui la persona con quel nome non e' la persona che noi conosciamo con quel nome!
Secondo Kripke i nomi propri non hanno un "senso" (nell'accezione di Frege), ma soltanto un
referente. Lo stesso vale per nomi comuni come "acqua" o "stella", che designano certi oggetti a cui
qualcuno, in epoca lontana, ha dato quei nomi, e ormai funzionano come designatori senza tener
conto delle proprieta' degli oggetti che designano (in un altro mondo l'acqua potrebbe essere solida
e la stella potrebbe essere visibile soltanto di giorno). Anche i nomi comuni di questo genere,
pertanto, hanno referente ma non senso. Servono a far riferimento a un oggetto, ma non alle sue
proprieta'.
Se il nome seleziona un oggetto a prescidere dalle proprieta' di tale oggetto, come viene stabilita la
relazione fra quel certo nome e quel certo oggetto? Un nome e' legato a un oggetto da una "catena
causale" di eventi, insomma "per ragioni storiche": quando un lettore usa l'espressione "Piero
Scaruffi" indica me in virtu' del fatto che ha letto il libro scritto da me (esiste una catena causale che
porta da Piero Scaruffi al concetto di Piero Scaruffi che e' nella testa del lettore); quando uso la
parola "acqua", faccio riferimento al tipo di materiale a cui qualcuno in passato ha assegnato quel
nome.
Il senso di Frege (ne' la somiglianza di Wittgenstein, o qualunque altro concetto relativo alle
proprieta' dell'oggetto) non ha alcuna parte in questo processo di identificazione, che avviene
unicamente sulla base dell'associazione originale fra nome e oggetto. La gente si tramanda
oralmente la convenzione che quel nome si riferisce a quell'oggetto. Il referente di un termine
dipende dal mondo con cui sono causalmente connesso.
Analisi della situazione
Un altro problema della semantica dei mondi possibili e' che, se riesce a distinguere fra unicorni e
centauri (entrambi rappresentati da insiemi vuoti della semantica estensionale di Tarski, ma non in
tutti i mondi possibili), non riesce pero' a distinguere fra di loro le verita' della matematica, quelle
che sono vere in tutti i mondi possibili (problema dell'"equivalenza logica"). Cosi', per esempio,
"Vincenzo si chiama Vincenzo" e "1+1=2" hanno due significati intuitivamente diversi, ma risultano
invece uguali per la semantica dei mondi possibili, in quanto sono vere in tutti i mondi. La
"granularita'" della semantica dei mondi possibili non e' ancora sufficiente a discriminare fra tutte le
frasi del linguaggio.
Quando Dario dice a Cinzia "Ti amo", dice una frase che e' stata pronunciata da milioni di persone,
ogni volta con lo stesso significato. Ma al tempo stesso quella frase detta da Dario ha un significato
che puo' avere soltanto se detta da Dario a Cinzia: ovvero che Dario ama Cinzia, e questo non e' lo
stesso significato che quella frase avrebbe se fosse detta da Vincenzo a Giusi.
In altre parole una frase ha due significati, uno che e' indipendente dalla situazione in cui viene
pronunciata, e che dipende unicamente dalla sua struttura, e una invece che dipende anche dalla
situazione.
Al tempo stesso la frase "Dario mi ama" detta da Cinzia esprime lo stesso senso di "Ti amo" detta
da Dario a Cinzia; ma le due frasi potrebbero originare da due stati psicologici completamente
diversi (per esempio, Dario potrebbe essere innamorato di Cinzia, ma Cinzia potrebbe non
ricambiarlo).
Addirittura la frase "Io ho ragione, tu hai torto" detta da me a Dario o viceversa, pur essendo sempre

la stessa identica frase, che ha lo stesso identico (e intuitivo) significato, esprime due sensi
diametralmente opposti.
Il contesto determina gran parte del significato di una frase.
Infine, alcune parole significano quel che significano per due ragioni concomitanti, una linguistica
(che quella particolare parola e' stata storicamente associata a quel particolare oggetto) e una fisica
(che quel particolare oggetto e' quel particolare oggetto). Per esempio, la parola "pianeta" potrebbe
significare qualcos'altro se la storia dell'Italiano fosse stata diversa, ma potrebbe significare
qualcos'altro ancora se la storia dell'universo fosse stata diversa. L'ambiguita' che si genera e' fra
interpretazione e rappresentazione (problema della "fattorizzazione"). Kaplan aveva gia' notato che i
fatti del mondo intervengono due volte nella relazione fra significato e verita': l'interpretazione di
una frase dipende da come e' fatto il mondo, ma la verita' di quella frase dipende a sua volta da
quanto bene la sua interpretazione riflette il modo in cui e' fatto il mondo.
Per risolvere questi tre problemi semantici (la granularita', il contesto e la fattorizzazione), Barwise
ha proposto la semantica situazionale, nella quale proprieta' e relazioni non vengono espresse
tramite qualcos'altro ma sono delle primitive. Una situazione e' descritta da un insieme di relazioni
fra oggetti. Un significato e' la relazione fra diversi tipi di situazione.
Barwise si ispira al "realismo ecologico" di Gibson, secondo il quale l'informazione ha origine
dall'interazione fra l'organismo e il suo ambiente: il tipo di una situazione e' determinato dalle
uniformita' che essa esibisce; le uniformita' sono quelle proprieta' tipiche di un organismo, che
hanno avuto origine dall'adattamento al proprio ambiente e che ne definiscono il comportamento in
quell'ambiente; sono queste uniformita', queste somiglianze fra le successive situazioni in cui si
viene a trovare, che consentono all'organismo di dare un senso al divenire del mondo. Queste
uniformita', a loro volta, sono comprese da tutti i membri della specie, da un'intera "comunita'
linguistica".
Le stesse attitudini proposizionali risultano essere relazioni nei confronti di situazioni.
Se il significato di una frase e' un fatto relativo alla sola frase, da un insieme di frasi e' possibile
derivare soltanto quell'informazione che consegue logicamente da quelle frasi (da "Dario ama
Cinzia" e "Cinzia e' la moglie di Dario" possiamo derivare l'informazione che "Dario ama sua
moglie"); ma se il significato e' invece una relazione fra frasi e situazioni, da un insieme di frasi e'
possibile estrarre molta piu' informazione. Per esempio, sapendo che Dario e Cinzia avevano
appena litigato, possiamo anche dedurne che hanno fatto la pace e non hanno divorziato.
L'inferenza e' il processo tramite cui l'informazione implicita in una situazione viene resa esplicita.
I mondi possibili possono essere espressi tramite situazioni, ma non viceversa. Le situazioni sono
inoltre piu' flessibili dei mondi possibili, sia perche' non devono essere necessariamente coerenti sia
perche' non devono necessariamente essere massimali. E queste proprieta' riflettono molto piu'
fedelmente quelle degli stati mentali. .bp
Ricapitolando: ma il significato?
Qual'e' il significato di questi studi sul significato? Il lettore meno sofisticato (e meno passibile di
rappresaglie da parte del corpo accademico vigente) potrebbe sospettare che tutti questi filosofi non
abbiano detto altro che un po' di banalita', e che di fatto nessuno abbia nulla di significativo da dire
sul tema del significato.
E' certamente vero che la quantita' di idee originali e' molto piccola rispetto alla quantita' di carta
stampata. Questi filosofi hanno pero' messo in luce alcuni aspetti che sono cruciali per comprendere

il funzionamento del pensiero umano:


che il senso di una frase e' dato anche e soprattutto dalle sue forze illocutoria e perlocutoria
(intensionalismo);
che il linguaggio ha un obiettivo, quello di massimizzare l'informazione trasmessa (opportunismo);
che la parola singola non ha senso, ma il senso di una parola e' sempre relativo alle parole che le
stanno attorno (olismo);
che il significato di una parola non e' un valore di verita', ma piuttosto una gradazione di verita'
(ambiguita');
che ogni discorso puo' avere infinite interpretazioni (inscrutabilita');
che le parole costruiscono (ed esprimono) un modello mentale del mondo reale
(corrispondenzialita');
che il significato non e' determinato soltanto dalla verita' o falsita', ma anche dalla situazione. .bp
Bibliografia
Austin J. (1962): How to do things with words (Oxford Univ Press)
Barwise J. (1983): Situations and attitudes (MIT Press)
Block N. (1981): Imagery (MIT Press)
Churchland P. (1979): Scientific realism and the plasticity of mind
(Cambridge Univ Press)
Davidson D. (1984): Inquiries into truth and interpretation (Clarendon Press)
Dretske F. (1988): Explaining behavior (MIT Press)
Dummett M. (1973): Frege: Philosophy of language (Harper & Row)
Fodor J. (1992): Meaning Holism (Basil Blackwell)
Fodor J. (1990): A theory of content (MIT Press)
Gibson J. (1979): The ecological approach to perception (Houghton Mifflin)
Grice H. (1975): Logic and conversation (in "Speech Acts", Academic Press)
Kaplan D. (1989): Themes from Kaplan (Oxford Univ Press)
Kripke S. (1963): Semantical considerations on modal logic
(Acta Philosophica Fennica n. 16)
Lycan W. (1984): logical form in natural language (MIT Press)
Putnam H. (1975): Mind, language and reality (Cambridge Univ Press)
Putnam H. (1988): Representation and reality (MIT Press)
Quine W. (1960): Word and object (MIT Press)
Quine W. (1961): From a logical point of view (Harper & Row)
Quine W. (1969): Ontological relativity (Columbia Univ Press)
Russell B. (1962): An inquiry into meaning and truth (Penguin)
Ryle G. (1949): The concept of mind (Hutchinson)
Searle J. (1969): Speech acts (Cambridge University Press)
Tarski A. (1944): The semantic conception of truth
(Philosophy and phenomenological research n.4 p.341)
Wittgenstein L. (1953): Philosophical investigations (Macmillan)
La macchina della vita
La vita
Qualche miliardo di anni fa un fenomeno chimico diede origine a molecole dotate di una proprieta'
singolare: sfruttando il materiale disponibile nel suo ambiente, ciascuna di queste molecole era in
grado di catalizzare una sequenza di reazioni chimiche che produceva una sua copia esatta. Una
classe particolare di tali molecole, la "cellula", riusci' a sopravvivere in quanto si doto' anche di
strutture atte a proteggersi dai mille pericoli dell'ambiente e a procacciare il materiale necessario
alla catalisi di cui sopra. La cellula e' il complesso apparato fisico che consente alla molecola di

DNA di eseguire le sue funzioni replicanti. Semplificando un po', la cellula estrae energia
dall'ambiente e la usa per costruire copie di se stessa.
Il corpo e la mente non sono che appendici a questa funzione, in quanto estendono le capacita' di
protezione e approvvigionamento della cellula. Un insieme di cellule e' piu' "adatto" della singola
cellula, ovvero ha piu' probabilita' di sopravvivere, in quanto ogni cellula puo' eseguire un compito
specifico, ogni cellula puo' avere una "riserva", e cosi' via. Non si sa da cosa abbia avuto origine la
vita sulla Terra, ma, una volta originata, sarebbe stata soggetta a un processo di evoluzione che
avrebbe portato gradatamente da forme di vita piu' primitive a forme di vita piu' complesse.
Al crescere della complessita' del sistema, sarebbe emersa la necessita' di disporre di un sistema per
coordinare le cellule: un sistema per comunicare, e quindi delle cellule specializzate a trasmettere
messaggi, e un sistema per controllare, e quindi delle cellule specializzate a dirigere il lavoro delle
altre cellule. Negli animali piu' evoluti si sono sviluppati soprattutto il sistema nervoso e il cervello,
e, all'interno del cervello, i due emisferi cerebrali e il cerebellum. La cellula che domina questo
scenario e' il neurone.
Ma e' vita questa? Basta la proprieta' di auto-replicazione a stabilire lo status di "vivente"? Ed e'
proprio necessaria la proprieta' di auto-replicazione? Un uomo sterile non e' forse vivo? Se no,
perche' la Terra nel suo insieme non potrebbe essere "viva", come sostengono certi movimenti
mistico-ecologici? Churchland ha definito "vivente" ogni sistema fisico semichiuso che sfrutta il
proprio ordine interno e il flusso di energia attraverso se stesso per mantenere o aumentare tale
ordine: in tal caso la Biosfera soddisfa certamente la definizione, e pertanto va considerata alla
stregua di ogni altro essere vivente.
A ben guardare non solo non sappiamo definire cosa sia l'intelligenza, ma neppure cosa sia la vita.
Benche' la vita sia qualcosa di molto piu' empirico, osservabile, misurabile, anche la vita non
sembra essere una proprieta' scientifica. Persino l'Enciclopedia Britannica esordisce con
l'affermazione: "Non esiste una definizione che sia accettata da tutti". E' anche possibile che
esistano forme di vita diverse da quelle che abbiamo scoperto su questo pianeta: ma quando una
forma diversa puo' essere considerata "viva"?
A ben guardare usiamo il termine "vita" per indicare due fenomeni diversi, benche' intuitivamente
collegati: la "vita" di un organismo, che va dalla sua nascita alla sua morte (quindi in senso
"epigenetico"), e la "vita" come fenomeno globale degli organismi viventi, che va dalla nascita del
primo organismo vivente fino alla morte dell'ultimo (quindi in senso "filogenetico"). Il fenomeno
per cui un organismo "cresce" e il fenomeno per cui gli organismi nel loro insieme si "evolvono"
sono due fenomeni di "sviluppo" intuitivamente legati l'uno all'altro, ma completamente diversi
nella sostanza.
La vita, essendo parte di questo universo, dovrebbe in qualche modo essere riconducibile alle leggi
che governano l'evoluzione dell'universo, ovvero alle leggi fisiche e chimiche. Come ha fatto notare
Mayr, in Biologia dovrebbero manifestarsi tutti i principi fisici e chimici, mentre in Fisica e
Chimica si manifestano soltanto alcune delle possibilita'. La Biologia dovrebbe "vedere" il mondo
da una prospettiva piu' elevata e intuire pertanto delle sfumature che sono fuori portata per fisici e
chimici; ma al tempo stesso essere coerente con le leggi fisiche e chimiche che descrivono
l'evoluzione dell'universo.
Per la cronaca la scoperta che il cervello contiene particelle di magnetite, un materiale che
interagisce fortemente con i campi magnetici esterni, potrebbe gettare un po' di luce sull'origine
della vita. Secondo Kirschvink gli eucarioti (gli organismi viventi complessi) avrebbero avuto
origine dal primo batterio in grado di immagazzinare cristalli magnetici. Il magnetismo interno
consente a un organismo di usare il campo magnetico terrestre per orizzontarsi e per cercare

l'ossigeno. Questi batteri "magnetici" avrebbero in seguito ingoiato altri batteri, i quali sarebbero a
loro volta diventati organi specializzati dell'organismo complessivo.
Codice genetico e vita
La lotta per la sopravvivenza sembra essere la protagonista di questo giallo millenario. La lotta per
la sopravvivenza e' un motore creativo grazie al quale alcune specie si estinguono e nuove specie
hanno origine. L'adattamento causa selezione e la selezione causa mutazione. Tutto e' funzione
dell'ambiente in cui si deve sopravvivere.
Per Lewontin i principi fondamentali della vita sono: la variazione fenotipica (i membri di una
stessa specie hanno diversi fenotipi, ovvero diverse forme, dimensioni, comportamenti, e cosi' via);
la differenziazione darwiniana (diversi fenotipi hanno diverse probabilita' di sopravvivenza e
riproduzione in ambienti diversi); e l'ereditarieta' (genitori e prole hanno fenotipi simili).
Esiste di fatto una "memoria" della vita, che (indirettamente) "ricorda" quali caratteri fenotipici
meglio si prestano a sopravvivere nell'ambiente. Questa memoria e' codificata in un insieme di geni.
L'informazione genetica e' composta da quattro unita' chimiche che fungono da alfabeto per un
codice scritto lungo due lunghe stringhe complementari, arrotolate l'una attorno all'altra in una sorta
di "doppia elica". Il codice che esse contengono costituisce la serie di istruzioni che stabiliscono
come l'organismo debba crescere e riprodursi. Il processo dell'"epigenesi", che trasforma il genotipo
(informazione genetica) in fenotipo (l'organismo), puo' essere visto come una serie di istruzioni
logiche che danno luogo a reazioni chimiche. I geni memorizzano pertanto informazioni in forma
digitale in un "nastro" di istruzioni alla Turing.
L'organismo genera nuovi organismi con le proprie caratteristiche copiando i propri geni. Le
mutazioni sono rese possibili dal fatto che questo processo di "copia" non e' mai perfetto. Il caso
avrebbe la sua parte.
Il cambiamento evolutivo ha pertanto origine dall'interazione fra due processi elementari: la
variazione genetica e la riproduzione differenziale (o selezione naturale). Questi due processi sono
del tutto indipendenti, ovvero non esiste una relazione diretta fra l'esperienza di un organismo e i
geni che trasmette ai suoi discendenti.
Se il problema e' quello di sopravvivere, si sarebbe tentati di dire che la soluzione piu' semplice
consiste semplicemente nell'immortalita'. L'immortalita' (a prescindere dagli infiniti pericoli
quotidiani che la renderebbero comunque improbabile) non e' pero' alla nostra portata a causa dei
continui cambiamenti dell'ambiente, che oggi puo' favorire un certo tipo di essere e domani
condannarlo a una rapida morte. Per poter disporre della flessibilita' necessaria ad adattarsi a un
ambiente mutevole e' molto piu' pratico costruire un essere che, all'occorrenza, puo' generare una
copia di se stesso con qualche variante. Per il principio di conservazione un essere e' fisicamente
impossibilitato a costruire un essere della sua stessa complessita'; puo' pero' scrivere le istruzioni
per costruirlo, che occupano molto meno spazio (uno spazio persino microscopico) e un
meccanismo per eseguire quelle istruzioni. In questo modo si perde un po' di tempo a costruire la
replica, ma tutti i requisiti sono soddisfatti. Ecco allora che la soluzione scelta nei millenni dalla
Natura risulta perfettamente adeguata al problema: la popolazione di individui in grado di generare
nuove popolazioni con variazioni garantisce il massimo di flessibilita'.
Se l'obiettivo finale della vita e' la vita stessa (cioe' sopravvivere), allora e' probabile che tutto cio'
che facciamo non abbia altro scopo che quello di consentirci, in ultima analisi, di copiare i nostri
geni. Come dice Wilson, la mente stessa non sarebbe altro che una macchina per copiare geni.

Auto-organizzazione e vita
L'epigenesi non e' pero' del tutto convincente. Intanto il codice genetico e' mono-dimensionale, ma
deve determinare lo sviluppo di un organismo tri-dimensionale. Poi, se anche avessimo la
descrizione completa del codice genetico di un organismo, non saremmo ancora in grado di dedurne
come l'organismo e' fatto.
Edelman ha proposto che gli animali assumano la forma che hanno per effetto di meccanismi
regolatori a livello molecolare. Durante le prime fasi dello sviluppo questi meccanismi avrebbero
origine dall'interazione fra la superficie della cellula con altre superfici cellulari. La competenza di
una cellula sarebbe il frutto della sua posizione, della sua storia di movimenti e della storia di
movimenti delle cellule vicine. In altre parole lo sviluppo della singola cellula sarebbe determinato
in parte dalle cellule vicine, piuttosto che dal solo codice genetico. In un certo senso l'"indirizzo" a
cui si trova la cellula e' uno dei parametri che determinano come si evolvera'.
Tutto cio' e' sorprendentemente in linea con un principio che, secondo Turing, e' alla base della
morfogenesi: certe reazioni chimiche possono originare schemi spaziali ordinati a partire da schemi
disordinati.
L'idea che le reazioni molecolari a cui si deve lo sviluppo dell'organismo dipendano dal punto in cui
avvengono (ovvero che siano "topobiologicamente vincolate") sottintende un'idea ancora piu'
cruciale: che lo sviluppo si auto-regoli. Le cellule del sistema si scambiano messaggi e in tal modo
suppliscono alla carenza di informazioni del codice genetico.
L'"auto-regolazione" potrebbe in effetti essere un principio di vasta portata. Secondo Kauffman, per
esempio, la selezione naturale non puo' essere l'unica forza ad agire sull'evoluzione biologica. Tutti
gli organismi complessi tenderebbero verso una qualche forma di auto-organizzazione che
Kauffman chiama "anti-caos". Il genoma e' un sistema complesso particolare. La sua evoluzione nel
tempo sarebbe pertanto condizionata da quella tendenza di tutti i sistemi complessi verso l'anti-caos.
"Ordine globale da interazione locale", come dice Kauffman. La vita stessa avrebbe avuto origine
semplicemente da questa tendenza di tutti i sistemi complessi verso l'auto-organizzazione: la
probabilita' della vita sarebbe in realta' elevatissima in tutti i casi in cui si forma un sistema
complesso.del genere che Kauffman chiama "rete autocatalittica".
Il caso di Darwin, insomma, potrebbe non essere cosi' casuale. Ancora una volta Dio potrebbe non
giocare ai dadi.
Entropia e vita
La Termodinamica studia sistemi che si trovano in stati di equilibrio. In teoria, pertanto, la
Termodinamica e' del tutto inutile per spiegare la vita, che e' uno stato di non equilibrio. In pratica,
invece, una volta che venga adattata al caso del disequilibrio, puo' rappresentare la soluzione al
problema dei dadi ci sui sopra.
Il fascino della Termodinamica sta nella differenza fra microstato e macrostato. Siccome ogni
sistema termodinamico fluttua in maniera stocastica fra un insieme di microstati, non e' mai
possibile sapere quale microstato produce un dato macrostato. In effetti un modo per definire il
macrostato di un sistema e' di considerarlo come l'insieme di tutti i microstati che esibiscono un
certo insieme di proprieta' medie.
Per poter studiare i fenomeni termodinamici conviene introdurre il concetto di "entropia".
L'entropia di un sistema e' il logaritmo del numero dei suoi microstati.
Il concetto di entropia puo' essere usato anche al di fuori della Termodinamica. Per esempio,
l'insieme delle parole italiane di cinque lettere ("corto", "magro", "lungo", etc) ha un'entropia che e'
il logaritmo del numero di tali parole.
L'entropia e', indirettamente, anche una misura del disordine. Per il secondo principio della
Termodinamica il disordine aumenta nel tempo (o, equivalentemente, tutti i processi naturali
generano entropia). In ultima analisi e' questa la ragione per cui gli edifici decadono nel tempo,
mentre non succede mai che un edificio cresca dal nulla. Anche quando viene costruito dell'ordine
all'interno di un sistema, deve essere stato costruito almeno altrettanto disordine nel resto del
mondo; per esempio, ogni stella e' un sistema nel quale l'entropia sta diminuendo man mano che

viene bruciato l'idrogeno, ma al tempo stesso la stella emana calore che contribuisce ad elevare
l'entropia del resto dell'universo.
L'"energia libera" e' invece la misura di energia disponibile per compiere lavoro e diminuisce nel
tempo. Man mano che l'energia libera diminuisce, l'entropia aumenta. L'equilibrio e' lo stato di
massima entropia in quanto nello stato di equilibrio il disordine e' totale, non "succede" piu' nulla.
In uno stato di perfetto equilibrio, in particolare, non ci sarebbe vita. Per il secondo principio della
Termodinamica il disordine di un sistema isolato tende a crescere fino a raggiungere l'equilibrio.
Secondo le moderne teorie cosmologiche all'inizio l'universo si trovava nello stato di massima
entropia; fu l'espansione "inflazionaria" dello spaziotempo (il cosiddetto "big bang") a fornire la
quantita' di energia libera che ancora consumiamo e a tenere l'universo lontano dallo stato di
equilibrio.
E' facile allora trovare un parallelo fra l'evoluzione della vita sulla Terra e l'evoluzione dell'universo
in espansione: anche la vita ha una sorgente stabile di energia libera (per esempio, il Sole) che la
mantiene lontana dallo stato di equilibrio. Non e' escluso che alla fin fine la sorgente di energia
libera sia la stessa per entrambi i fenomeni, visto che il Sole esiste e produce energia e quindi vita a
causa dell'espansione dell'universo.
L'evoluzione sarebbe allora soltanto una manifestazione della tendenza generale dell'ordine a
decadere in disordine. Dopo tutto esiste una sola legge della Scienza che sappia distinguere fra
passato e presente: il secondo principio della Termodinamica. L'evoluzione, che segue una precisa
direzione nel tempo, potrebbe discendere in qualche modo da quel principio.
Le descrizioni dinamiche sono deterministiche, reversibili e richiedono una conoscenza dettagliata
dello stato iniziale; mentre le descrizioni termodinamiche sono stocastiche, irreversibili e richiedono
una conoscenza soltanto parziale dello stato iniziale. Alcuni fenomeni richiedono una descrizione
dinamica, altri una descrizione termodinamica. L'evoluzione e' irreversibile (legge di Dollo: una
specie non riappare mai dopo essersi estinta, anche se le condizioni dell'ambiente ritornassero ad
essere favorevoli a quella specie) e pertanto rientrerebbe nel campo d'azione della Termodinamica.
L'applicazione della Termodinamica alla Biologia divenne fattibile quando Schrodinger risolse (o
penso' di aver risolto) un apparente paradosso: mentre la direzione di cambiamento nell'universo
sembra volgere verso un disordine sempre maggiore (e entropia pertanto crescente), la direzione di
cambiamento nell'evoluzione delle specie sembra volgere verso un ordine sempre maggiore (e
entropia decrescente). In realta' l'esistenza dei sistemi viventi dipende dalla loro capacita' di
aumentare l'entropia dei loro ambienti. La seconda legge della Termodinamica vale ancora, ma a
livello di ambiente.
Seguendo Schrodinger, Prigogine considera gli organismi viventi come strutture dissipative in stati
di disequilibrio. Un sistema che non sia in equilibrio presenta una variazione di entropia che e' data
dalla somma della variazione di entropia dovuta alla sorgente interna di entropia piu' la variazione
di entropia dovuta all'interazione con l'esterno; la prima e' certamente positiva, ma la seconda puo'
benissimo essere negativa, e pertanto l'entropia totale puo' anche diminuire.
Secondo Prigogine le condizioni di non equilibrio permettono lo sviluppo spontaneo di sistemi
auto-organizzantesi (le "strutture dissipative" di cui sopra), i quali mantengono la loro
organizzazione interna, a dispetto dell'aumento generale di entropia, espellendo materia ed energia
nell'ambiente. Gran parte della Natura e' composta di sistemi dissipativi, di sistemi soggetti a flussi
di energia o di materia. I sistemi dissipativi hanno la proprieta' di conservare la propria identita'
proprio grazie all'interazione con l'esterno. Le nuvole sono esempi di sistemi dissipativi fisici.
In particolare un organismo "vive" in quanto assorbe energia dall'esterno e la elabora per generare
uno stato interno di entropia piu' bassa. Un organismo "vive" fintantoche' riesce a evitare di cadere
nello stato di equilibrio.
Layzer, ispirandosi alla cosmologia, propone un'altra soluzione al paradosso della creazione di
ordine: se l'entropia dell'ambiente aumenta piu' di quanto aumenti l'entropia del sistema, il sistema
diventa piu' ordinato rispetto all'ambiente; entropia e ordine possono pertanto aumentare
contemporaneamente senza violare il secondo principio. Questo fenomeno puo' essere descritto piu'
in generale a questo modo: se l'espansione di un insieme di sistemi e' cosi' rapida che il numero di

stati occupati aumenta meno rapidamente del numero di stati disponibili (ovvero se lo spazio di fasi
diventa piu' grande), entropia e ordine possono aumentare simultaneamente. Layzer dimostra che lo
spazio di fasi dell'evoluzione e' lo spazio di fasi genetico e che questo puo' effettivamente
aumentare secondo il processo di cui sopra.
Wiley e Brooks fanno vedere che tale aumento si verifica effettivamente. Innanzitutto essi, a
differenza di Prigogine, ritengono che i sistemi biologici siano intrinsecamente diversi dalle
strutture dissipative, in quanto il loro ordine e la loro organizzazione sono dovuti all'informazione
genetica che portano; ovvero in quanto i sistemi biologici esibiscono ordine e organizzazione basati
su proprieta' che sono inerenti ed ereditabili. Poi dimostrano che e' l'entropia dell'informazione
biologica ad aumentare, tanto nella crescita quanto nell'evoluzione. L'irreversibilita' dell'evoluzione
risulta cosi' essere un caso particolare della seconda legge della Termodinamica e l'ordine biologico
risulta essere una sua conseguenza diretta. La creazione di nuove specie e' resa necessaria dalla
seconda legge ed e' un fenomeno "improvviso" del tutto simile ai cambiamenti di fase (come, per
esempio, a cento gradi l'acqua diventa vapore). L'interazione fra le specie e l'ambiente sarebbe
invece un fattore secondario nel determinare l'evoluzione delle specie. In definitiva le specie sono
sistemi in uno stato di disequilibrio e nuove specie vengono create in base alla seconda legge della
Termodinamica.
Sia come sia, sembra lecito accettare l'idea che l'entropia sia in qualche modo responsabile anche
dell'evoluzione.
Margalef estende persino l'idea a interi ecosistemi, ovvero propone che un ecosistema sia un
sistema controllato dalla seconda legge della Termodinamica. In definitiva Wicken ritiene che le
entita' piu' generali soggette alla "selezione" non siano i geni o le popolazioni, ma "schemi
informativi di flussi termodinamici", un termine sotto il quale ricadono entita' complesse come gli
ecosistemi e i sistemi socioeconomici. Secondo Wicken la selezione naturale non e' una forza
esterna, bensi' un processo interno per il quale le macromolecole vengono accumulate in
proporzione alla loro utilita' per l'efficienza del sistema globale.
L'universo nel suo complesso sembra soggetto a un'evoluzione non troppo dissimile da quella delle
specie. Una qualche forma di cambiamento ha fatto si' che si formassero le galassie e poi pianeti; e
anche questa forma di cambiamento potrebbe essere ricondotta a una legge di "selezione". Si puo'
cioe' riconoscere (con Layzer) un processo generale di "costruzione di gerarchie", il quale si
manifesta tramite due sottoprocessi: uno di differenziazione (per esempio, la specializzazione
cellulare) e uno di aggregazione (per esempio, la formazione di tessuti). L'espansione dell'universo
e l'attrazione gravitazionale sono due processi conflittuali che svolgono piu' o meno la stessa
funzione di differenziazione e aggregazione per quanto riguarda gli oggetti astronomici. Anche lo
sviluppo psicologico (secondo Piaget) consiste in una gerarchia di costruzioni. E' uno schema di due
forze contrastanti (una a favore dell'ordine e una a favore del disordine) che sembra ricorrere in
natura.
Per la cronaca quanto detto fin qua puo' essere anche espresso sotto forma di informazione, in
quanto esiste una relazione fra l'entropia e l'informazione di un sistema. L'informazione puo' essere
vista come l'opposto dell'entropia, o, piu' precisamente, come la differenza fra entropia potenziale e
entropia attuale. C'e' un massimo a cui l'entropia potrebbe arrivare, il disordine totale; se non ci
arriva, cio' che manca per arrivarci e' l'informazione.
La vita artificiale
La disciplina della "vita artificiale" ha come obiettivo quello di creare la vita tramite processi non
biologici. Qualunque programma di questo genere si scontra innanzitutto con l'esigenza di definire
cosa sia la vita, che, come abbiamo detto, non sembra essere ancora alla portata di nessuno.
Da Von Neumann in poi un postulato implicito in tutti coloro che hanno studiato modelli
computazionali della vita e' che la vita sia una classe particolare di automi (nel senso della
macchina di Turing). Fin dal primo automa "vivente" di Von Neumann, la proprieta' che viene
solitamente associata con la "vita" e' la capacita' di riprodursi. L'automa di Von Neumann era
concepito per eseguire le istruzioni di un codice (un nastro alla Turing) su come assorbire materia

dall'ambiente e manipolarla per costruire un proprio simile. Di fatto, prima ancora della scoperta del
DNA, Von Neumann era giunto alla conclusione che la vita richiedesse un codice di trasmissione
fra una generazione e l'altra, un mezzo per spiegare all'organismo come crescere. Von Neumann
anticipo' anche altre due proprieta' della vita: la capacita' di aumentare la propria complessita' (un
organismo non e' solo in grado di generare suoi simili, ma persino esseri piu' complessi, come
dimostra l'evoluzione) e la capacita' di auto-organizzarsi. Il suo "automa cellulare" (come sarebbe
stato chiamato dai posteri) mancava soltanto di un'informazione: gli algoritmi genetici usati dalla
vita reale per determinare l'evoluzione della specie.
In un automa cellulare ogni cellula dell'automa obbedisce a una regola. Per esempio, nel gioco Life,
una cellula viva sopravvive se due o tre delle cellule vicine sono vive; altrimenti muore. Regole non
molto piu' complicate sono alla base dell'automa mono-dimensionale di Wolfram (quello di Von
Neumann e quello di Life sono bi-dimensionali). Wolfram ha anche trovato analogie fra il
comportamento del suo automa cellulare e diversi fenomeni naturali (per esempio, i disegni delle
conchiglie e le forme dei fiocchi di neve).
Tutti questi automi cellulari hanno in comune qualcosa che Langton chiama "il trasferimento e la
conservazione di informazione". Gli organismi viventi non usano soltanto materia o energia: usano
informazione per crescere e per riprodursi, e per fare qualsiasi altra cosa facciano. Nei sistemi
viventi la manipolazione di informazione domina la manipolazione di energia. Langton dimostra
che l'informazione e' determinante per la vita di un sistema: se poca informazione si trasmette nel
sistema, l'informazione puo' facilmente essere conservata ma non si puo' spostare, e pertanto non si
puo' avere vita; se troppa informazione si trasmette nel sistema, l'informazione e' difficile da
conservare e pertanto non si puo' avere vita; soltanto in un caso intermedio (che Langton paragona
allo fase liquida, in contrasto con quella solida e quella gaseosa) la vita e' possibile; e in quello stato
l'informazione si sposta e puo' essere conservata. Se il sistema si viene a trovare in quello stato, cio'
implica che il sistema deve essere complesso. La complessita' risulterebbe allora una proprieta'
intrinseca della vita. Il punto in cui la complessita' e' massimizzata e l'entropia e' ottimizzata e'
proprio quello in cui il sistema risulta equivalente a una macchina computazionale universale... Non
a caso Langton definisce la vita come "una proprieta' dell'organizzazione della materia", in maniera
indipendente dal "materiale" utilizzato. L'importante e' che il sistema sia complesso al punto giusto.
Fra i tanti tipi di "vita" possibili uno particolarmente interessante, e uno che e' dimostrato
funzionare su questo pianeta, e' quello generato dalle leggi genetiche di cui siamo a conoscenza. Un
nuovo tipo di macchina ha avuto origine dalla trasposizione nel computer di tali leggi genetiche.
I cosiddetti "algoritmi genetici" applicano iterativamente una serie di operatori (ispirati dai loro
omonimi genetici) a una popolazione di soluzioni potenziali di un dato problema, in modo da
generare via via nuove popolazioni che risolvano il problema in maniera sempre migliore. Holland
e altri ritengono che il miglior modo di risolvere problemi sia cioe' quello di imitare gran parte degli
organismi esistenti, i quali evolvono grazie a due processi fondamentali: la selezione naturale e la
riproduzione sessuale. Il primo determina quali organismi di una generazione sopravvivano per
riprodursi e il secondo garantisce un minimo di ricombinazione genetica.
In realta' nell'ottica di Holland a evolvere non e' il singolo individuo della popolazione, ma la
popolazione nel suo insieme. E' il "sistema" che cambia se stesso per adattarsi al problema che deve
risolvere. Questo cambiamento adattativo costituisce di fatto un'alternativa all'apprendimento dei
sistemi esperti e all'addestramento delle reti neurali. Al tempo stesso gli algoritmi genetici
discendono dai metodi di "ricerca" all'interno di spazi di problema. Se i metodi di ricerca "deboli"
costituiscono un passo avanti rispetto alla ricerca "cieca", gli algoritmi genetici, incorporando il
criterio di "competizione", rendono la ricerca ancora piu' rapida ed efficace.
Prima di tutto in un mondo governato da leggi genetiche occorre disporre di una funzione di misura
per calcolare quanto "adatto" sia un individuo. Il processo di selezione ha inizio con una
popolazione casuale di individui, ovvero di elementi dello spazio delle soluzioni. Per ogni individuo
della popolazione viene calcolata la misura di adattamento (ovvero quanto la sua soluzione si
discosta da quella ideale); la probabilita' di selezione di un individuo e' allora proporzionale alla sua
misura di adattamento. Il passo successivo consiste nel selezionare un sottoinsieme della

popolazione sulla base di quelle probabilita'. A questo sottoinsieme viene consentito di "riprodursi".
In pratica tutto cio' e' equivalente a dire che la probabilita' di riprodursi in un certo numero di
esemplari e' proporzionale alla misura di adattamento: quando tale misura e' molto bassa, la
probabilita' e' cosi' bassa che non vi sara' (probabilmente) alcuna riproduzione; quando e' alta, vi
sara' piu' di un discendente. I discendenti non sono esattamente identici in quanto vengono trattati
da appositi "operatori genetici" di ricombinazione (crossover), mutazione e inversione.
Ogni punto dello spazio delle soluzioni viene rappresentato come una stringa di simboli
(analogamente al cromosoma di geni). La ricombinazione concatena parte del cromosoma (della
stringa) dell'individuo prescelto con parte del cromosoma (della stringa) di un altro individuo.
L'operatore di ricombinazione spinge pertanto la popolazione nel suo insieme a focalizzarsi intorno
agli individui piu' "adatti". La mutazione consiste invece nel generare un nuovo cromosoma (una
nuova stringa) attraverso un cambiamento casuale dei suoi simboli (geni): in tal modo ogni punto
dello spazio delle soluzioni ha una probabilita' non nulla di essere preso in considerazione.
L'inversione inverte semplicemente l'ordine dei geni di un tratto della stringa (del cromosoma).
Questi tre operatori sembrano del tutto arbitrari, ma in realta' ciascuna di queste operazioni ha una
semantica ben definita, che ha come effetto quello di rendere piu' efficiente la ricerca.
FIG 1 .sp3
Operatori cosi' semplici possono dar origine in poche generazioni a organismi estremamente
complessi, come dimostrano, per esempio, i "biomorfismi" di Dawkins: partendo da una figura
composta da un solo puntino in un mondo bidimensionale, il sistema di Dawkins in sole ventinove
generazioni si evolve fino a generare una popolazione di figure d'insetto. Gli algoritmi della
selezione (a loro volta probabilmente selezionati in milioni d'anni di evoluzione) sono tanto
semplici quanto efficaci, e i loro effetti su una popolazione non particolarmente stabile sono
immediati e devastanti. Popolazioni come quelle rappresentate dalle specie attuali sono assai piu'
stabili, essendo state a loro volta selezionate appunto da quegli stessi algoritmi, e questo spiega
perche' non ci presentano lo stesso ritmo di variazione.
In natura esistono molti altri operatori genetici. Per cominciare, tutti gli organismi complessi hanno
un genotipo che contiene due (e non uno solo) cromosomi, ciascuno dei quali esprime la stessa
informazione. Poi esistono diverse variazioni dell'operatore di ricombinazione, nonche' operatori di
"segregazione", "traslocazione", "duplicazione", "cancellazione" e cosi' via. Di tutti e' possibile
fornire una "replica" informatica.
Gli algoritmi genetici possono servire a un primo importante scopo: imparare a classificare. Il
classificatore di Holland, per esempio, e' un sistema di produzione che impara nuove regole per
migliorare la propria performance. All'inizio genera a caso una popolazione di regole. Poi calcola la
"performance" di ciascuna regola, e di ciascuna regola la probabilita' di selezione, data dal rapporto
fra la sua performance e la somma totale di tutte le performance; secondo questa distribuzione di
probabilita' e applicando gli operatori genetici alla popolazione attuale, il sistema genera una nuova
popolazione di regole e riprende da capo.
Goldberg ha verificato sperimentalmente un'importante proprieta' dei sistemi "classificatori", gia'
prevista teoricamente da Holland: la tendenza al formarsi di "gerarchie standard", nelle quali una
regola generale copre le situazioni normali ma diverse regole di eccezioni prendono il sopravvento
nelle situazioni in cui quel "default" sarebbe improprio.
Koza, generalizzando le idee di Holland, ha costruito un ambiente in cui gli algoritmi genetici
danno origine a un programma per risolvere un qualche problema. Gli elementi a cui Koza applica
gli algoritmi genetici non sono caratteri, ma intere porzioni di programmazione. Questi
"sottoprogrammi" vengono ricombinati fino a formare un programma che risolve il problema.
In altre parole il programma "evolve" da solo finche' riesce a risolvere il problema nel modo
migliore possibile. Il fascino di questa "programmazione genetica" e' che non si deve piu'
programmare: il programma si scrive da se'. Basta lasciargli il tempo di evolvere.
Un altro uso degli algoritmi genetici e' la sintesi di reti neurali: invece di lasciare che una rete

neurale raggiunga la configurazione stabile tramite variazioni casuali, un insieme di algoritmi


genetici ricerca nello spazio delle architetture neurali possibili quella che meglio si confa' al
problema. Ancora una volta si tratta di partire con una popolazione (questa volta una popolazione di
reti neurali) e di lasciarla evolvere in accordo con la selezione naturale (le reti neurali si
riproducono in funzione della loro performance).
Gli algoritmi genetici possono ovviamente essere utilizzati anche per simulare la vita stessa.
L'obiettivo di Ray e' quello di creare "creature" (sequenze di istruzioni di computer) in grado di
competere per lo spazio di memoria dentro il computer. In poche parole Ray vuole creare dei
"virus" di computer in grado di migliorarsi di continuo. L'aspetto innovativo del sistema di Ray e'
che l'evoluzione a' "aperta", ovvero (a differenza dei mondi di Dawkins e Holland) non esiste alcuna
funzione che misuri quanto una "creatura" e' adatta: e' la "vita" stessa a stabilire quanto una creatura
sia adatta a sopravvivere. Nel mondo artificiale di Ray un organismo di ottanta istruzioni si evolve
in organismi piu' semplici e piu' efficienti nel competere per lo spazio di memoria: in tutto e per
tutto l'analogo dei parassiti!
Hillis ha dimostrato con una simulazione genetica che la teoria di Hamilton ha un fondamento
perlomeno computazionale. Secondo Hamilton l'evoluzione viene accelerata dalla presenza di
parassiti (in particolare gli organismi avrebbero adottato la riproduzione sessuale appunto per far
fronte alle invasioni di parassiti). La popolazione di Hillis, attaccata da parassiti che si evolvono in
concomitanza, si evolve piu' rapidamente e preferisce la riproduzione sessuale a quella asessuale.
Come sostiene Hamilton, la vita e' un processo simbiotico che necessita di rivali.
I virtuosi dei parassiti sono gli anonimi creatori dei virus di computer. Cohen, il progenitore di tutti
loro (perlomeno il primo a finire sui giornali per aver infettato tutti i computer della sua universita')
intende costruire virus che siano organismi "simbiotici", ovvero che portino effetti positivi alle
macchine infettate. Cohen sostiene che il suo virus piu' efficace e' effettivamente un essere vivente:
tant'e' che lui stesso ne ha perso il controllo. (Per la cronaca, Cohen ha tuttora difficolta' sia a
trovare lavoro sia a pubblicare i risultati delle sue "ricerche" ed e' vittima di una vera e propria
persecuzione da parte delle autorita' accademiche).
Conclusione: siamo prima intelligenti e poi vivi, o viceversa?
I primi tentativi di simulare computazionalmente la vita ci dicono che:
Alcune proprieta' della vita sono: la capacita' di estrarre energia dall'ambiente; la capacita' di
riprodursi; la capacita' di aumentare la propria complessita'; la capacita' di auto-organizzarsi.
La vita ha origine ed e' guidata da algoritmi molto semplici.
La selezione naturale non e' l'unica causa, e forse neppure la piu' importante, dell'evoluzione.
Il caso non ha alcuna parte nell'evoluzione della vita
I sistemi viventi sono sistemi lontani dallo stato di equilibrio, mentre la Scienza tende a studiare
soltanto sistemi in equilibrio.
Esistono delle somiglianze fra l'evoluzione dell'universo e l'evoluzione della vita, fra la Cosmologia
e la Biologia.
E' possibile costruire organismi viventi con materiale non organico, in particolare con software. .bp
Bibliografia
Brooks D. & Wiley E. (1992): Evolution as entropy (Univ of Chicago Press)
Churchland Paul (1984): Matter and consciousness (MIT Press)
Cohen F. (1985): Computer viruses (Cohen)
Dawkins R. (1976): The selfish gene (Oxford Univ Press)
Dawkins R. (1987): The blind watchmaker (Norton)
Edelman G. (1988): Topobiology (Basic)
Goldberg A. (1989): Genetic algorithms (Addison Wesley)
Hamilton W. (1990): Sexual reproduction as an adaptation to resist parasites"
(Proc of National Academy of Sciences n.87 p.3566)

Hillis D. (1989): The connection machine (MIT Press)


Holland J. (1992): Adaptation in natural and artificial systems
(MIT Press)
Kauffman S. (1992): Origins of order (Oxford Univ Press)
Koza J. (1990): Genetic programming (Stanford University report)
Langton C. (1986): "Studying artificial life with cellular automata"
(Physica 22D p.120)
Layzer D. (1975): The arrow of time (Scientific American n.233 p.56)
Levy S. (1992): Artificial Life (Pantheon)
Lewontin R. (1981): Human diversity (W.H.Freeman)
Margalef R. (1968): Perspectives in ecological theory (Univ of Chicago Press)
Mayr E. (1982): The growth of biological thought (Harvard Univ Press)
Prigogine I. e Stengers I. (1984): Order out of chaos (Bantham)
Ray T. (1992): Evolution and optimization of digital organisms (manoscritto)
Sarnat H. (1974): Evolution of the nervous system (Oxford Univ Press)
Schrodinger E. (1944): What is life (Cambridge Univ Press)
Turing A. (1952): The chemical basis of morphogenesis
(Philosophical Transactions of the Royal Society n.237 p.37)
Von Neumann J. (1966): Theory of self-reproducing automata
(University of Illinois Press)
Wicken J. (1987): Evolution, information and thermodynamics (Oxford Univ Press)
Wilson E. e Lumsden C. (1981): Genes, Mind and Culture (Harvard Univ Press)
Wolfram S. (1984): Computer software in science and mathematics
(Scientific American)
I sogni
Non esiste ancora una teoria scientifica dei sogni. Le ipotesi proposte nei secoli passati, come quelle
della Psicanalisi, hanno lo stesso valore scientifico della Smorfia napoletana. I sogni costituiscono
tuttora uno dei misteri piu' fitti della Coscienza.
Jouvet suppone che il sogno sia il veicolo usato dal nostro organismo per cancellare o archiviare le
esperienze della giornata sulla base di un programma genetico. Per tutti gli animali addormentarsi
significa abbassare il metabolismo, ridurre il fabbisogno di energia al minimo e dedicare tutte le
risorse al sogno. Il sogno e' infatti, innanzitutto, un processo che assorbe molta energia. Tutt'altro
che un "riposo", insomma. Ad agitarsi e' pero' soltanto il cervello. Nell'abbassare il metabolismo,
infatti, il corpo isola i muscoli, che in condizioni normali verrebbero messi in moto da un'attivita'
cerebrale cosi' intensa. Durante il sogno il cervello ha bisogno di lavorare molto intensamente, ma
senza generare nessun comando per l'apparato motorio.
Si potrebbe allora dire che il cervello funziona in due modi: quando siamo svegli, e' collegato al
resto del sistema nervoso e muscolare e ogni sua attivita' da' origine a dei segnali che danno origine
a loro volta a dei movimenti; quando siamo addormentati, e' scollegato dal resto del sistema
nervoso e muscolare e la sua attivita' non ha alcun effetto sul corpo.
Mentre da sveglio il cervello opera in maniera diretta sull'ambiente, reagendo a ogni stimolo "come
meglio puo'", nel sonno il cervello elabora le esperienze della giornata e, sulla base del codice
genetico, decide quali esperienze cancellare e quali rinforzare.
Verrebbe cosi' risolta la diatriba millenaria sui fattori innati e quelli acquisiti: esiste una componente
ereditaria della personalita' che viene attivata quotidianamente per decidere come acquisire nuovi
dati. Fra le due realta' esiste un processo mediatore, il sogno. Cio' spiegherebbe anche perche' il
sogno sia piu' lungo e frequente nei primi anni di vita: e' maggiore il bisogno di analizzare le
esperienze.
Che esista una ragione biologicamente rilevante per sognare e' sostenuto anche da Winson, per il
quale il sogno e' un'elaborazione ordinata della memoria che ha lo scopo di interpretare le

esperienze preziose per la sopravvivenza.

Mondi virtuali
L'Intelligenza Artificiale
Esistono, in realta', almeno tre "intelligenze artificiali". La prima e' quella che, ispirandosi alla
Psicologia, indaga la mente umana e tenta di emularla al computer. La seconda e' quella che,
continuando il programma della Logica simbolica, vuole costruire la macchina in grado di risolvere
qualsiasi problema. La terza e' quella che, prendendo esempio dalla Neurofisiologia, indaga la
struttura del cervello e tenta di simularla al computer. Indirettamente queste tre scuole propongono
tre diverse definizioni di "intelligenza", rispettivamente: 1. il comportamento della mente umana; 2.
la capacita' di risolvere qualsiasi problema; 3. la struttura del cervello umano.
Qualcuno crede che queste tre definizioni siano equivalenti, ovvero che identifichino la stessa cosa;
qualcuno crede che identifichino tre cose completamente diverse. Soltanto la terza potrebbe rendere
conto delle differenze di intelligenza che si registrano fra gli individui; le altre due rappresentano
delle forme idealizzate di intelligenza universale.
Architetture distribuite
Poche, pochissime attivita' umane hanno a che vedere con un solo agente. Quasi sempre l'attivita'
contempla l'esistenza di diverse persone che interagiscono, collaborano, e cosi' via.
Per fornire una trattazione adeguata del comportamento umano e in particolare di uno degli aspetti
piu' importanti dell'intelligenza, e' necessario esplorare anche la dimensione sociale dell'azione e
della conoscenza, ovvero serve un'Intelligenza Artificiale che si rifaccia ai modelli "distribuiti" della
Sociologia (molti agenti che interagiscono), invece che a quelli "integrati" della Psicologia (un
agente solo che risolve un problema), un'Intelligenza Artificiale che abbia come obiettivo la
"comunita' intelligente" invece che la macchina intelligente. Una "comunita'", in questo contesto, e'
un insieme di processi interagenti e coordinati, i quali devono pertanto "sapere" qualcosa degli altri
processi, oltre alla conoscenza necessaria a svolgere il proprio compito. Questa conoscenza "degli
altri" costituisce la differenza principale rispetto ai sistemi cognitivi "individualisti".
E' chiaro che il comportamento di una comunita' non e' semplicemente la somma dei comportamenti
dei suoi membri. Analogamente la "conoscenza" che viene impiegata dalla comunita', l'"azione" che
viene compiuta e il "problema" che viene risolto non hanno lo stesso significato che hanno nel caso
di un sistema isolato e chiuso. Per esempio, secondo Mead il significato di un messaggio inviato da
un certo sistema non e' il suo contenuto, ma e` la risposta che genera nel sistema ricevente; un
messaggio come "ti amo" inviato da me a una bella ragazza, ma che non provochi alcuna reazione
in lei, non ha alcun significato, anche se la frase "ti amo" nel contesto del mio sistema cognitivo
isolato avrebbe un significato ben preciso. Non solo: lo stesso messaggio puo' avere significati
completamente diversi a seconda del sistema a cui viene inviato (qualche ragazza ha avuto delle
reazioni); persino lo stesso messaggio inviato allo stesso sistema puo' avere significati diversi
(qualche ragazza ci ha ripensato). In altre parole, il significato e' "situato".
Hewitt ha sviluppato una semantica delle "comunita' intelligenti". Un sistema e' "aperto" se il
risultato delle sue azioni e' imprevedibile e se in qualsiasi istante puo` ricevere nuova informazione
dall'esterno. I "sistemi intelligenti distribuiti" sono una classe particolare di sistemi intelligenti e
aperti, caratterizzati dal fatto che interagiscono.
La dinamica di tali sistemi dipende dall'equilibrio fra due fattori: l'"indipendenza" (self-reliance),
ovvero la capacita' di agire usando le risorse disponibili localmente, e l'"interdipendenza", che e'
invece la necessita' di trovare risorse altrove per poter agire. Cio' si traduce nel dualismo fra
"commitment", l'azione che un sistema e' determinato a compiere, e "cooperazione", l'insieme dei
ruoli mutualmente dipendenti fra i sistemi. La proprieta' piu' saliente di questi sistemi e' la loro

"indecisione deduttiva": visto che diversi agenti competono per le stesse risorse agendo in parallelo,
lo stato del mondo in ogni istante e' indeterminato. Tutto cio' che si puo' richiedere a un sistema
distribuito e' una forma di "coerenza globale", benche' il controllo sia "locale". L'azione
fondamentale dei sistemi distribuiti e' la "prova di forza" (cosi' battezzata da Latour) fra un certo
numero di "partecipanti", che puo' generare un "conflitto" ("conflict"), il quale puo' essere risolto
tramite un "negoziato" ("negotiation").
Gasser, riprendendo l'idea di Mead che il comportamento intelligente sia un fatto prettamente
sociale, ha spostato l'enfasi sugli aspetti "sociali" dell'interazione fra diversi agenti intelligenti.
Singh ha tentato di definire una semantica per i sistemi distribuiti (ovvero i sistemi "multi-agente")
tramite la teoria degli atti illocutori di Searle. Prima Singh introduce una semantica per gli atti del
parlato che dipende dalle condizioni nelle quali l'atto viene soddisfatto (e relativi operatori che
distinguono l'esecuzione dell'atto dalla sua "soddisfazione"). Un messaggio fra due agenti viene
rappresentato come una coppia di parametri: la proposizione che costituisce il messaggio e l'atto
illocutorio (direttivo, assertivo, commissivo, permissivo, proibitivo). Singh estende la teoria delle
"soddisfazioni" di Hamblin: un messaggio viene "soddisfatto" in maniera "estensionale" se la sua
proposizione e' vera; un messaggio viene soddisfatto "pienamente" se la proposizione non solo e'
vera ma e' vera perche' l'agente ha usato la propria conoscenza per renderla vera (insomma, non e'
vera "per puro caso"); un messaggio viene soddisfatto in maniera "rilevante" se la proposizione non
solo e' vera ma e' vera "soltanto" perche' l'agente ha fatto in modo che fosse vera (l'atto illocutorio e'
necessario affinche' sia la proposizione sia vera). Sono tre livelli sempre piu' stringenti di
soddisfazione: al primo livello puo' succedere che una proposizione sia vera per caso, al secondo
livello puo' succedere che una proposizione sarebbe stata vera comunque, al terzo livello si ha la
certezza che la proposizione e' vera per merito dell'agente. Singh da' le definzioni delle tre diverse
"soddisfazioni" nella semantica dei mondi possibili, facendo uso di tre concetti: le intenzioni
dell'agente, la conoscenza dell'agente e lo stato del mondo. In tal modo risulta possibile ricondurre
le "societa'" di agenti intelligenti alla teoria degli atti del parlato. E' un altro modo di unificare il
linguaggio e il fenomeno piu' generale della comunicazione.
Le macchine virtuali
Molti pensatori sono purtroppo rimasti fermi all'architettura dei computer degli anni Cinquanta, alle
architetture a registri. In realta' le macchine virtuali che e' possibile costruire sopra la macchina
fisica possono presentare delle complessita' molto maggiori.
Uno dei fenomeni piu' interessanti dell'Informatica e' semmai proprio il fatto che, in funzione delle
esigenze della societa', e pertanto in maniera squisitamente adattativa, la struttura e la funzione della
macchina sta cambiando in continuazione, stravolgendo il concetto originale di computer.
L'evoluzione del concetto di computer trascende qualunque esempio biologico. E' un'evoluzione che
dipende unicamente dalle necessita' di sfruttare il computer per compiti sempre piu' sofisticati
all'interno della societa' umana.
In pratica il mondo della computazione si sta rivelando come un mondo profondamente diverso da
quello biologico. Anche in questo mondo vale una legge di selezione naturale, guidata dalla
necessita' di adattarsi alle condizioni ambientali: quelle di soddisfare il fabbisogno di servizi della
societa' post-industriale.
In particolare non e' detto che la macchina virtuale debba corrispondere in maniera univoca con la
macchina fisica: piu' macchine fisiche possono dar luogo a una sola macchina virtuale, cosi' come
una macchina fisica puo' dar luogo a piu' macchine virtuali e piu' macchine fisiche possono dar
luogo a piu' macchine virtuali. Una macchina virtuale "distribuita", per esempio, puo' far
riferimento a oggetti che appartengono a diverse macchine fisiche senza dover sapere a quali essi
appartengano. Chi utilizza la macchina virtuale distribuita ha visibilita' soltanto delle risorse
complessive, ma non della localizzazione di tali risorse.
I sistemi a oggetti
Diverso da quello gerarchico classico e' anche il caso dei sistemi ad oggetti ("object-oriented"), le

macchine virtuali per eccellenza, le quali non hanno visibilita' della struttura degli oggetti su cui
operano, ma soltanto della loro funzione. I sistemi a oggetti sono in grado di "crescere" in un modo
piu' continuo e meno rigido dei programmi tradizionali: in natura nulla (montagne, alberi, animali)
viene costruito dall'oggi al domani, tutto cresce. I sistemi a oggetti costituiscono anche delle
architetture riflessive, nel senso che sono costruiti utilizzando se stessi: ogni macchina virtuale
costruisce la successiva con il proprio linguaggio.
I sistemi ad oggetti esibiscono infine tre importanti proprieta': l'incapsulamento (ogni oggetto
costituisce un mondo chiuso, le cui leggi interne non hanno nulla a che vedere con le leggi del
mondo esterno), l'ereditarieta' (ogni oggetto deriva automaticamente tutte le proprieta' degli oggetti
a cui appartiene) e il polimorfismo (una stessa azione puo' essere compiuta su diversi tipi di oggetto,
in quanto sono gli oggetti a "capire" come interpretare l'azione).
I mondi virtuali
Il computer e' da tempo in grado di reagire agli stimoli dell'utente che lo opera. Gli stimoli erano
pero' costituiti da frasi scritte sulla tastiera del computer, o tutt'al piu' da frasi pronunciate in un
apposito microfono. La "realta' virtuale" e' invece una tecnologia che consente al computer di
reagire ai movimenti dell'utente, e tale reazione consta nel modificare un mondo e dando all'utente
la percezione di tale cambiamento.
La realta' virtuale pone l'utente in un mondo virtuale tramite indumenti elettronici (solitamente un
guanto e un paio d'occhiali, ma nulla proibisce di immaginare che presto siano disponibili interi
abiti). Questi indumenti elettronici inviano segnali al computer relativi ai movimenti che l'utente
compie; al tempo stesso l'utente percepisce il mondo che il computer gli fa sentire e vedere
attraverso quegli indumenti. L'interazione e' pertanto di tipo percettiva e, soprattutto, totale. L'utente
ha effettivamente l'impressione di vivere in quel mondo virtuale, in quanto tutti i suoi movimenti si
riflettono in percezioni all'interno di quel mondo.
Il mondo virtuale viene proiettato dentro gli "occhiali" artificiali. Oltre all'immagine, anche il suono
(e in teoria tutte le dimensioni sensoriali) possono contribuire a rendere la sensazione del mondo
virtuale. L'utente vede questo mondo e ogni suo gesto viene riflesso in questo mondo.
Per esempio, un mondo virtuale potrebbe essere un campo di calcio, e l'indumento indossato
dall'utente potrebbe inviare al computer i segnali necessari per simulare dei palleggi con una palla
virtuale. A tutti gli effetti l'utente avrebbe la sensazione di stare palleggiando in quel campo (il suo
mondo virtuale), mentre invece (nel mondo reale) starebbe semplicemente compiendo dei buffi
movimenti di fronte al computer.
Sono stati sperimentati adattamenti ai mondi virtuali. E' possibile infatti costruire mondi virtuali in
cui le comuni leggi della Fisica sono stravolte: lasciando andare un oggetto, questo si leva in volo
invece che cadere; avvicinandosi a un oggetto, questo rimpicciolisce invece che ingrandirsi, e cosi'
via. L'utente impiega qualche minuto ad abituarsi alle nuove leggi virtuali, ma poi impara a reagire
correttamente; e, quando tornera' nel mondo reale, impieghera' qualche minuto a riprendere
confidenza con le leggi reali.
In particolare i mondi virtuali finora sperimentati sono ancora mondi tri-dimensionali, ma nulla
impedisce di costruire mondi virtuali a piu' dimensioni, in cui gli utenti dovranno imparare a
muoversi in uno spazio che ha un'altra dimensione oltre a lunghezza, larghezza e altezza.
In definitiva le azioni fanno riferimento non a questo mondo ma a un altro mondo, benche' vengano
eseguite in questo mondo: muovendo una mano, io muovo simultaneamente la mia mano reale in
questo mondo e la mia mano virtuale nel mondo virtuale del computer.
Una variante di realta' virtuale e' quella della "telepresenza", in cui due utenti vengono proiettati
simultaneamente nello stesso mondo virtuale in cui possono interagire e avere la sensazione di
interagire nel mondo reale. Per esempio, potrebbero giocare a calcio nel campo virtuale, restando in
realta' entrambi a casa propria di fronte ai rispettivi computer.
L'identita' del software
Non e' stata sufficientemente esplorata la differenza fra programma e processo: lo stesso programma

puo' dar luogo (anche nello stesso momento) a piu' di un processo di calcolo, in quanto le sue
istruzioni possono essere eseguite in ordini diversi a fronte di dati diversi (e su macchine diverse).
Se si volesse istituire un museo del software, non sarebbe neppure chiaro come esibire i programmi
originali: cos'e' la versione originale di un programma? E' l'insieme di bit cosi' com'erano quel certo
giorno in cui per la prima volta il programma venne eseguito? ovvero una specie di prima di
un'opera? Oppure e' quel programma dentro un modello qualsiasi del computer di allora? ovvero
una specie di edizione originale del disco di quell'opera? Forse la domanda e': cos'e' un programma?
E' chiaro cosa sia la "copia" di un programma: ogni utente del programma ha una sua copia, che
puo' eseguire in qualsiasi momento. Ma qual'e' la "prima" copia in assoluto di quel programma? E'
la stampa delle istruzioni nel linguaggio macchina? E' la stampa delle istruzioni nel linguaggio
evoluto in cui e' stato programmato? E' la prima copia eseguita su un disco?
Enciclopedia del buon senso
L'architettura di Lenat integra diverse micro-teorie, ovvero sistemi cognitivi (una trentina, per
l'esattezza, comprendenti "trasporti", "edifici", "emozioni" e cosi' via) ciascuno dotato della sua
conoscenza e di un suo tipo di inferenza. La coerenza e' garantita soltanto in maniera "locale",
ovvero all'interno di ciascuna micro-teoria.
In accordo con il postulato di McCarthy l'utente (umano o sistema esperto o altro) puo' consultare
questa enciclopedia del buon senso a due livelli: quello epistemologico (che impiega un dialetto
della logica dei predicati del primo ordine) e quello euristico (che impiega metodi di
rappresentazioni locali per ottimizzare le prestazioni computazionali). Esiste un algoritmo di
conversione dall'una all'altra forma.
Il sistema adotta un'ontologia a categorie di concetti in cui e' possibile: distinguere fra sostanze
(come "legno": se spezzo un pezzo di legno, ottengo ancora dei pezzi di legno) e oggetti (come
"tavolo"); distinguere fra processi (che sono l'equivalente delle sostanze per quanto riguarda i
fenomeni temporali, per esempio "camminare") ed eventi (che sono l'equivalente degli oggetti, per
esempio "camminare per andare in ufficio"). Si noti che l'insieme delle sostanze e l'insieme degli
oggetti hanno la stessa estensione (in quanto ogni oggetto e' fatto di una certa sostanza e ogni
sostanza da' luogo ad almeno un oggetto) e cosi' dicasi per l'insieme dei processi e l'insieme degli
eventi. Un concetto puo' anche essere visto come un fatto spaziotemporale, dal quale si possono
derivare le sue componenti spaziale e temporale; per esempio, dal concetto di "Piero Scaruffi" si
possono derivare il concetto di "Piero Scaruffi nel 1992" e il concetto di "Piero Scaruffi a Redwood
City". Un elemento particolare dell'ontologia e' l'"agente" (tanto gli esseri umani quanto i computer
sono classificati come agenti), il quale ha una dimensione fisica e una dimensione non fisica, ed e'
definito da una serie di proprieta': coscienza (l'insieme delle conoscenze di cui e' al corrente),
attitudini proposizionali (credenze e desideri relativi alle conoscenze di cui e' al corrente), controllo
(le proposizioni il cui valore di verita' dipende dalle azioni dell'agente), e cosi' via.
Un modo diverso di integrare sistemi cognitivi e' quello di Gruber, che sta costruendo un "bus" (un
bus a livello software, ma analogo ai bus dell'hardware dei computer, tramite i quali i componenti
del computer si scambiano dati) per fare in modo che diversi sistemi si possano scambiare
conoscenza e possano attingere a una conoscenza comune. I sistemi cognitivi potrebbero allora
scambiarsi conoscenza a diversi livelli: sintassi, vocabolario, ontologia, meccanismi di inferenza,
euristica. In particolare Gruber sta coniando una "ontolingua" che consenta di costruire ontologie e
di tradurle fra di loro. Questa ontolingua dovrebbe ovviare a diversi inconvenienti di oggi: nelle
ontologie finora usate i termini non erano definiti in maniera rigorosa (per esempio, "oggetto
concreto" e "oggetto astratto"); le stesse classi erano suddivise in sottoclassi diverse secondo criteri
diversi (per esempio, la classe "oggetti" in qualche ontologia e' composta delle sottoclassi "oggetto
concreto" e "oggetto astratto", in altre e' composta dalle sottoclassi "oggetto scomponibile" e
"oggetto non scomponibile"); e cosi' via.

L'Induzione
Il metodo di Valiant consiste nell'esprimere il concetto da "indurre" in termini di concetti gia' noti e
nel verificare la fattibilita' computazionale dell'algoritmo di "apprendimento". Una classe di
espressioni e' particolarmente importante per Valiant: le disgiunzioni di congiunzioni (ovvero quelle
in "forma normale disgiuntiva"): per qualche ragione questi tipi di espressione saltano fuori piu'
spesso di altre nell'uso comune (i sistemi di produzione, per esempio, sono disgiunzioni di
congiunzioni). Valiant lascia intuire (senza peraltro riuscire a dimostrarlo del tutto) che classi di
espressioni piu' complesse potrebbero non essere apprese in un numero polinomiale di passi
computazionali, ovvero sarebbero praticamente inutili. Il modo in cui il concetto viene costruito e'
probabilistico: Valiant assume che il mondo ci presenti una distribuzione di probabilita' di esempi
positivi e negativi dello stesso concetto e che l'"apprendere" quel concetto consista proprio nel
trovare un algoritmo che riconosca correttamente altri esempi tratti da quella distribuzione.
L'algoritmo di Valiant non produce pertanto una certezza di classificazione, ma soltanto una buona
approssimazione, su base probabilistica, del concetto. In pratica Valiant riduce i vincoli sulla
precisione del concetto appreso e aumenta invece quelli sulla performance computazionale
dell'algoritmo di apprendimento; in tal modo ottiene una simulazione piu' accurata
dell'apprendimento di concetti.
Il dilemma composizionale
Fodor e Pylyshyn enfatizzano la necessita' di una teoria composizionale, in cui un concetto
complesso possa essere ricavato da concetti piu' semplici, senza la quale non e' possibile rendere
conto della "sistematicita'" del linguaggio umano. Pinker e Prince hanno dimostrato che il
linguaggio non puo' essere appreso senza che esistano prima delle regole; e pertanto l'architettura
non puo' essere puramente connessionista. Clark ha esaminato anche altri fenomeni psicologici che
non sono replicabili da un'architettura connessionista.
Il modello connessionista si ferma al livello del neurone e non spiega come si possa passare dalle
strutture neurali ai processi mentali superiori. Il modello della mente come elaboratore simbolico,
d'altro canto, esibisce il difetto opposto: tratta i processi mentali superiori, ma non e' in grado di
spiegare come essi corrispondano con l'attivita' neurale del cervello. Il problema e' come si passi dal
livello neurale a quello simbolico, ovvero dal processo fisiologico a quello cognitivo, dalla rete
neurale al concetto, dall'anatomia al pensiero, e, in ultima analisi, dal cervello alla mente.
Una teoria composizionale all'interno del Connessionismo potrebbe offrire un nesso naturale fra le
neurobiologia del cervello e la cognizione della mente. Visto che nei modelli connessionisti l'unita'
elementare e' il "vettore" (un insieme di valori di attivazione dei neuroni oppure un insieme di valori
delle connessioni fra neuroni), Smolensky ritiene che da un'architettura connessionista possano
emergere delle strutture sintattiche attraverso l'uso sistematico di un'operazione detta "prodotto
tensoriale", una sorta di prodotto esterno fra vettori che dia come risultato un nuovo vettore. Ogni
espressione complessa, come "moglie di Vincenzo" va decomposta nei suoi ruoli, come "parente
femminile" e "parente maschile". Ogni termine e ogni ruolo viene poi identificato da un vettore e
l'associazione fra un particolare termine ("moglie") e un particolare ruolo ("parente femminile")
avviene tramite il prodotto tensoriale dei relativi vettori. I vettori cosi' ottenuti vanno sommati per
dar luogo al vettore che "rappresenta" l'intera espressione. La struttura rappresentata puo' a sua volta
essere ricostruita dal vettore complessivo: moltiplicando per il vettore di ciascun ruolo, si ottiene il
termine relativo. Per ottenere, per esempio, "Vincenzo" dal vettore complessivo, basta moltiplicare
per il vettore di "parente maschile". Si noti che, a differenza del caso rappresentazionale, il vettore
relativo a un certo concetto puo' variare di caso in caso, a seconda del contesto.
Smolensky considera la mente alla stregua di una descrizione ad alto livello del cervello e cerca la
procedura finita tramite cui la descrizione di alto livello puo' essere derivata da quello di basso
livello. E' possibile che si verifichi qualcosa di simile alla Fisica: al livello basso di atomi e
molecole si osservano certi fenomeni (il moto browniano, per esempio) e si utilizza un certo

linguaggio (carica elettrica, spin, etc.), mentre al livello superiore si osservano fenomeni collettivi
(come l'equilibrio) e si utilizza un linguaggio di variabili diverso (temperatura, energia).
Sono stati compiuti anche tentativi di far coesistere allo stesso livello il modello connessionista
della mente con quello rappresentazionale. Quasi tutti si ispirano, direttamente o indirettamente, alla
"lateralizzazione delle funzioni", la teoria (resa popolare dagli esperimenti di Sperry) secondo cui
l'emisfero sinistro del cervello e' cruciale per le funzioni di linguaggio (e' dominante per le funzioni
di linguaggio), mentre quello destro e' specializzato nel riconoscimento (e' dominante per il
riconoscimento). In quel contesto il modello connessionista si presta per simulare l'emisfero destro,
mentre il modello rappresentazionale rispecchia le funzioni analitiche di quello sinistro.
Le risposte a questi dilemmi dipenderanno da quanto correttamente il modello connessionista
approssima i dati sperimentali.
Per esempio, non sono ancora stati identificati modelli connessionisti in grado di trattare input e
output che siano funzioni del tempo. O, meglio, esistono modelli cosiddetti "spazio-temporali", in
cui gli input e gli output sono funzioni del tempo, ma il tempo viene ridotto a una sequenza discreta
di intervalli; ma una configurazione spaziotemporale di input in una dimensione temporale discreta
si riduce di fatto a una configurazione spaziale. La proprieta' temporale e' invece fondamentale per
poter trattare fenomeni come il suono e le immagini. Una rete neurale, tra l'altro, dovrebbe anche
essere trasparente a deformazioni spaziotemporali (per esempio, una parola pronunciata piu' in
fretta o piu' lentamente).
Mancano, soprattutto, conferme sperimentali. E' da poco che gli psicologi hanno iniziato ad
utilizzare il modello connessionista su grande scala e pertanto scarseggiano ancora i dati. I pochi
dati disponibili sono comunque tutt'altro che confortanti. Ratcliff, per esempio, ha compiuto
esperimenti per verificare la performance delle architetture connessioniste alle mansioni di
riconoscimento, con risultati deludenti.
In realta' tutte le critiche mosse al modello connessionista sono facilmente difendibili. L'unica che
regge tuttora e continuera' a reggere per parecchio tempo e' quella forse piu' importante: non e'
ancora stato costruito un solo sistema basato su una rete neurale che riesca ad eseguire un compito
significativo, per quanto limitato. Non uno solo.
Conclusione
Un fatto che e' stato trascurato un po' da tutti i filosofi della scienza, compresi Popper e Quine, e'
che le teorie scientifiche si alimentano spesso da se'. Sono poche le teorie scientifiche che muoiono
del tutto, soprattutto dopo l'invenzione dei mezzi di comunicazione e ancor piu' dopo il dilagare
delle universita' e delle mansioni scientifiche. La ragione e' molto semplice: ogni teoria scientifica si
propaga attraverso una rete capillare di interessi, che vanno dalla tesi di laurea al lavoro di
laboratorio. Tanto lo studente quanto il ricercatore vengono indottrinati dallo scienziato da cui
dipendono, e infatti molti continuano in seguito ad occuparsi delle stesse cose. Il successo di
ciascuno di loro dipendera' in misura notevole dal fatto che la popolazione di ricercatori all'interno
della propria area continui a crescere, come in una sorta di catena di Sant'Antonio. Quanti piu' si
occupano di quella materia, tanto piu' scalpore destera' ogni scoperta relativa a quella materia. Gli
scienziati finiscono per credere in cio' che fanno, difendendolo a spada tratta contro teorie rivali,
poiche' da cio' che fanno dipende la loro gloria, nonche' la loro sussistenza. Una volta entrati a far
parte dell'entourage di una teoria scientifica, diventa troppo difficile cambiare bandiera. Questa e' la
ragione per cui, per esempio, la scuola dell'apprendimento automatico continuera' ad esistere anche
se le reti neurali l'hanno forse resa obsoleta: e tutti coloro che hanno dedicato la vita a quegli studi,
e i loro studenti che hanno sputato sangue sulle loro tesi? Una teoria scientifica non muore quasi
mai: si adatta, muta leggermente corso per andare incontro alle nuove istanze, sperando che pochi
ritocchi cosmetici la possano rendere di nuovo attuale. E' questo processo di revisione, piuttosto che
di estinzione, a far si' che le teorie scientifiche finiscano per auto-alimentarsi. In fondo, e' una forma
di istinto di sopravvivenza.