Sei sulla pagina 1di 81

Ouverture

I piu' efficienti talent scout della Scienza moderna sono i Filosofi: quando i Filosofi cominciano a
interessarsi di una disciplina scientifica, e' garantito che quella disciplina ha il potenziale per
interessare un pubblico molto vasto. Forse perche' siamo un po' tutti Filosofi (mentre, ahime', non
tutti nascono Matematici o Musicisti).
L'esempio piu' noto di fenomeno informatico che ha attirato l'attenzione dei Filosofi (e poi, a
conferma, del grande pubblico) e' quello dell'Intelligenza Artificiale. Ma l'Intelligenza Artificiale
non e' altro che il cancello d'ingresso a un gigantesca Disneyland del pensiero moderno: i Filosofi si
avventurano fra i baracconi con aria perplessa e un po' smarrita, senza osare a provare di persona
nessuna delle attrazioni, e tentando disperatamente di dimostrare che in fondo esiste una
equivalenza di fondo fra il pensiero di Aristotele e quello di Topolino. Gli informatici badano
soprattutto a divertirsi il piu` possibile, passando da una giostra all'altra con gran disinvoltura, e
infischiandosene tanto di Aristotele quanto di Topolino (temo che molti di loro non sappiano
neppure quale dei due e' il filosofo e quale il cartone animato).
Per l'insipienza dei primi e la barbarie dei secondi manca una teoria che spieghi perche' mai ci si
diverte tanto in questa Disneyland, e che consenta in tal modo di divertirsi ancora di piu'.
Questo libro si puo' leggere a piu' livelli. Al livello piu' basso e' un' introduzione alle tematiche piu'
avanzate dell'Intelligenza Artificiale (che a mio avviso e' semplicemente una branca della
Matematica); a un livello superiore e' un sunto delle moderne teorie sulla mente che sono state
avanzate negli ultimi decenni da diverse discipline (Psicologia, Neurofisiologia, Filosofia, etc); al
livello piu' alto e' anche un saggio (piu' o meno "filosofico") sulla possibilita' che tutti questi arcani
studi finiscano per avvicinare la Mente alle grandi idee scientifiche del nostro secolo (Meccanica
Quantistica, Relativita', Evoluzionismo).
Come tutti i libri, anche questo e' condizionato dal punto di vista del suo autore. Il mio punto di
vista e' il seguente:
Quelle che chiamo "le scienze della mente " (Filosofia, Psicologia, Neurofisiologia, etc) e le
"scienze della macchina" (Matematica, Cibernetica, Intelligenza Artificiale, Scienza
Cognitiva, etc) hanno compiuto nei secoli due cammini indipendenti ma paralleli, e il
computer ha costituito il punto in cui quei cammini si sono finalmente incontrati scoprendo
di essere le due facce di una stessa medaglia.
L'Intelligenza Artificiale non ha sbagliato tutto (come sostengono i suoi critici) e non e'
certamente prossima all'estinzione: fin da quando e' nata, e' sempre vissuta di continue autocritiche, che hanno rimesso in discussione senza pieta' il paradigma imperante. Dal
risolutore onnipotente ai sistemi esperti, dalle reti neurali ai sistemi fuzzy, l'Intelligenza
Artificiale ha continuamente rimesso in discussione se stessa. E' e rimane soprattutto una
disciplina di domande, non di risposte. Ogni volta che un filone e' morto perche'
(apparentemente) senza sbocchi, un altro ha preso il suo posto. L'errore che molti osservatori
esterni commettono e' di continuare, per inerzia, a seguire la corrente che si sta estinguendo,
senza accorgersi subito che un'altra corrente e' gia' diventata predominante. In particolare
negli ultimi anni l'Intelligenza Artificiale e le discipline informatiche limitrofe hanno
generato abbastanza nuove idee da tenere impegnati migliaia di ricercatori per diversi
decenni. Non si dimentichi poi che l'Intelligenza Artificiale ha avuto la sventura di nascere
nel mondo del capitalismo: ogni sua idea viene immediatamente messa alla prova dai critici
piu' spietati che possano esistere, e cioe' gli imprenditori, i quali esigono immediate
applicazioni pratiche delle idee che finanziano (proviamo, per esempio, ad immaginare cosa
ne sarebbe stato di Kant se la sua credibilita' fosse dipesa dal giudizio dei moderni venture
capitalist della California, quelli stessi a cui dobbiamo la popolarita' dell'Intelligenza
Artificiale).
Il problema maggiore dell'Intelligenza Artificiale sta nel suo nome, nel termine

"intelligenza" che vi compare. E' un termine troppo ambiguo e, tutto sommato, poco
scientifico. Sinceramente, dopo tanti anni di Intelligenza Artificiale, quando parlo di
"intelligenza" non mi e' piu' chiaro per nulla di cosa sto parlando.
Non vi e' alcuna ragione per cui le leggi dell'universo dovrebbero essere diverse dentro e
fuori la mente, e in effetti e' possibile stabilire delle singolari similitudini fra le leggi del
pensiero e le leggi fisiche.
Il mio punto di vista e' in fondo in linea con il dubbio fondamentale di questi nostri anni: il dubbio
che l'umanita' abbia sempre sopravvalutato la Natura. Le scienze fisiche sono fondate sulla
Matematica, ovvero sulla scienza cosiddetta "esatta". In realta' la Natura non e' per nulla esatta: non
esistono nero e bianco, ma soltanto gradazioni di colori; non esistono giorno e notte, ma soltanto
gradazioni di luminosita' naturale; e persino il confine fra il mare e la terra non e' cosi' chiaro come
potrebbe sembrare.
Il risultato e' che dobbiamo poi accontentarci di descrizioni semplificate di fenomeni molto piu'
complessi: l'Elettronica e' perfettamente in grado di spiegarci la potenza consumata da un circuito in
funzione del voltaggio e dell' amperaggio (fatto tutto sommato poco interessante), ma non di
prevedere la bollette dell'ENEL (fatto molto piu' interessante); la Fisica sa calcolare l'accelerazione
di una palla sul piano inclinato, ma non i danni arrecati da un tamponamento.
Volendo essere paradossali fino in fondo, la nostra Mente e' assai piu' esatta della Natura che l'ha
generata. La nostra Mente riesce a immaginare cose che in Natura non esistono, e in particolare, sa
immaginare un mondo esatto, in cui uno piu' uno fa due; mentre la Natura non ha forse mai
costruito due sassi uguali che messi assieme facessero esattamente il doppio di uno dei due. La
Mente ha edificato la Matematica, assumendo che la Natura non potesse non essere guidata dalla
scienza piu' esatta di tutte; ma questo potrebbe essere stato un clamoroso errore di valutazione, che
ha fuorviato tutta la Scienza. (Naturalmente da qualche parte ci dev'essere un trucco, ci dev'essere
un modo per dimostrare che la Mente non e' piu' esatta della Natura; ma ancora non l'abbiamo
scoperto).
Da questo paradosso ha origine una delle caratteristiche principali dell'Intelligenza Artificiale dei
nostri giorni: nata per costruire macchine pensanti, e' diventata la "scienza dell'inesattezza";
dovendo calare la Mente nel mondo reale, deve rendere conto di fatti che la Logica matematica non
saprebbe trattare.
A forza di studiare l'inesattezza, l'Intelligenza Artificiale e' pervenuta a formulare delle teorie molto
sofisticate su come sia possibile produrre comportamento a partire da leggi "inesatte" che sono
profondamente diverse (in spirito e forma) da quelle "esatte" della Natura (o, meglio, da quelle che i
Fisici suppongono essere le leggi esatte della Natura: gravitazione, elettromagnetismo e cosi' via).
L'Intelligenza Artificiale ha progressivamente abbandonato l'approccio "logistico", rivelatosi
insufficiente e inadeguato per spiegare i fenomeni mentali, e ha adottato un approccio sempre piu'
"barbaro", che all'eleganza e alla perfezione della Logica sostituisce la pragmaticita' e l'imprecisione
della vita quotidiana. Sono proprio queste pragmaticita' e imprecisione che forse bisognerebbe
provare a trapiantare anche nelle scienze fisiche e vedere se, per caso, l'Intelligenza Artificiale non
possa essere il caso particolare di una Scienza piu' generale.
Se si partisse dal presupposto che qualunque legge valga dentro il cranio deve (in qualche
rocambolesco modo) valere anche al di fuori, bisognerebbe riuscire a uniformare non soltanto
gravitazione ed elettromagnetismo (come stanno cercando di fare i Fisici), ma addirittura
gravitazione e memoria, elettromagnetismo e apprendimento, insomma: galassie e neuroni! Se il
cranio non fa passare da un universo a un altro, deve esistere una continuita', la natura stessa del
mondo deve imporre una continuita' nelle leggi che governano i vari tipi di fenomeni naturali,
ovunque e in qualunque forma essi si presentino.
Non voglio anticipare chi sia l'assassino, ma mi pare doveroso riconoscere fin dall'inizio che una

legge hanno probabilmente in comune il mondo dentro e quello fuori del cranio: quella di Darwin.
Nel nostro secolo pensatori e scienziati come James a Edelman non hanno fatto altro che estendere
la validita' della teoria dell'evolutione a un raggio d'azione sempre piu' ampio.
Invito pertanto il lettore a leggere questo libro come qualcosa di piu' che una semplice panoramica
sulle bizzarrie della disciplina piu' bizzarra in circolazione.
Per un'introduzione alle teorie dell'Intelligenza Artificiale non posso che consigliare il mio libro
"L'Intelligenza Artificiale" (ed. Muzzio, 1987), che e' stato lodato persino dai miei peggiori nemici.
Per una panoramica sulle discipline della mente e della macchina non posso che consigliare il mio
libro "La Mente Artificiale" (ed. Franco Angeli, 1991), che e' stato criticato persino dai miei
migliori amici. Inutile aggiungere che io considero il secondo nettamente superiore al primo: se non
altro, e' l'unico testo di cui sono a conoscenza che affronti uno spettro cosi' ampio di problematiche
legate all'intelligenza. E costituisce l'ideale complemento a questo nuovo libro, in quanto fornisce
tutti i dettagli che qui non riportero' e un minimo di storia di come certe idee fondamentali si sono
evolute nei secoli.
Come sempre, ho evitato di dare delle risposte ai problemi per i quali non esistono ancora soluzioni.
Il fatto che esistano ancora delle domande senza risposta rende affascinante il mondo in cui
viviamo, ed e' anzi il piu' serio candidato a costituire il senso stesso della nostra vita. Si puo' quasi
dire che sia la miglior garanzia della sopravvivenza della nostra specie. (Nonche' la miglior garanzia
che io potro' continuare a scrivere libri.)
Per chi pensasse di verificare l'attendibilita' di questo libro direttamente a Disneyland, consiglio
vivamente di provare invece Six Flags's Magic Mountains. E' un altro parco di divertimenti (sempre
a Los Angeles) le cui giostre sono infinitamente piu' complicate e spericolate di quelle di
Disneyland.
Piero Scaruffi, Redwood City, Novembre 1993

l'essere intenzionale
La mente
Per secoli, anzi millenni, pensatori di tutti i popoli hanno meditato sull'essenza della proprieta' piu'
misteriosa dell'umanita': quella di avere una mente, grazie alla quale, fra l'altro, siamo in grado di
sapere che esistiamo e che esistono gli altri, di provare emozioni e, infine, di studiare la mente
stessa.
Per millenni si e' dibattuto su cosa sia la mente, ma senza possedere gli strumenti per poterlo fare in
termini scientifici. Se ne e' discusso come si discuteva dei fulmini prima di scoprire l'elettricita'. Le
recenti conquiste della Neurofisiologia lasciano intravedere l'avvento di una vera "scienza" della
mente, che integrera' i risultati ottenuti da Fisiologi, Biologi, Psicologi, Filosofi e chiunque altro
abbia prodotto teorie della mente.

Quella scienza dovra' sobbarcarsi un compito assai arduo, poiche', nonostante la mole
impressionante di scoperte degli ultimi decenni, della mente si sa ancora poco, cosi' poco che
probabilmente un giorno sembreranno meno ingenue le credenze antiche sui fulmini delle attuali
teorie sulla mente.
La Scienza moderna ci dice che la mente ha sede nel cervello e che il cervello e' un ammasso di
neuroni connessi fra di loro. Se, pero', ci concentriamo sulla nostra coscienza, sul nostro "me
stesso", cio' che percepiamo non e' un lattice di neuroni e un traffico caotico di segnali, ma un flusso
impalpabile di pensieri, emozioni, sensazioni. Vi e' cioe' una contraddizione di fondo: usando le
facolta' della nostra mente (sotto forma di indagine scientifica) riusciamo a determinare la struttura
del cervello; usando un'altra facolta' della nostra mente, l'introspezione, che non ci pare affatto
diversa da quelle altre usate prima, otteniamo una descrizione completamente diversa della mente.
La conclusione naturale e' che mente e cervello non possono essere la stessa cosa: il cervello e' una
cosa, e la nostra mente riesce perfettamente a descriverla, e la mente e' un'altra.
Il dualismo di Descartes (la teoria per l'appunto che mente e corpo siano due sostanze diverse) deve
pero' rispondere a una domanda fondamentale: com'e' possibile che due sostanze diverse, dotate di
proprieta' totalmente diverse, interagiscano strettamente come fanno mente e corpo?
Il problema di come stati mentali e stati fisici possano interagire viene risolto in maniera elegante
dal "dualismo di proprieta'" (cosiddetto per distinguerlo dal "dualismo di sostanza" di Descartes),
secondo il quale ogni oggetto possiede sia proprieta' mentali sia proprieta' fisiche (esattamente come
ogni oggetto della Meccanica Quantistica e' al tempo stesso onda e materia, esattamente come in
Relativita' la massa e' energia e viceversa).
Al dualismo si oppone il fisicalismo, una corrente di pensiero secondo cui, invece, in accordo con i
risultati sperimentali della Neurofisiologia, ogni stato mentale "e'" uno stato fisico del cervello. Se
stato fisico e stato mentale sono cosi' (ovviamente) diversi e possiedono anche proprieta' cosi'
diverse, che senso ha affermare che sono identici? Smart risolve il paradosso per analogia con
quanto capita nelle scienze fisiche: la grande maggioranza degli individui percepisce il fulmine, ma
senza poter percepire il processo fisico (elettromagnetico) che da' origine al fulmine; cio' non toglie
che quel fulmine e il processo fisico corrispondente siano identici; non sono identici soltanto nel
modo in cui li percepiamo: percepiamo direttamente il fulmine, mentre possiamo percepire soltanto
indirettamente (e soltanto se abbiamo studiato Elettromagnetismo) il processo fisico corrispondente.
Armstrong aggiunge che deve esistere una relazione causale ben precisa: uno stato mentale deve
essere l'effetto di un evento e a sua volta la causa di un comportamento (per esempio, il dolore e'
dovuto a un danno fisico e causa una reazione per evitare altro dolore, oppure per diminuirlo, o
semplicemente per esprimerlo). Cio' e' di nuovo analogo a quanto accade nelle scienze fisiche: una
superficie e' "liscia" per via della sua struttura molecolare; un filo conduce elettricita' per via della
sua struttura atomica; e cosi' via. Esistono sempre due modi di vedere lo stesso fenomeno, uno
microscopico e uno macroscopico, e la scienza assume che quello microscopico renda conto di
quello macroscopico. Cosi' sarebbe anche per corpo (cervello) e mente.
(In realta' nelle scienze fisiche esistono infiniti livelli di descrizione a cui ci si puo' porre, da quello
subatomico a quello cosmico, e a ogni livello si puo' fornire una spiegazione del fenomeno. Non
sembra questo il caso dei fenomeni cognitivi, che a quanto pare possono trovarsi soltanto in due

stati, o neurale o mentale.)


Un altro fatto curioso e' che percepiamo lo stato fisico e lo stato mentale di uno stesso evento in
modi diversi: percepiamo direttamente lo stato mentale (ne siamo coscienti nel momento stesso in
cui si verifica), mentre percepiamo lo stato fisico corrispondente soltanto in maniera molto indiretta
(dobbiamo studiare il cervello con apparecchiature sofisticate). Non solo: posso percepire
direttamente soltanto gli stati "mentali" che sono miei, e quelli degli altri soltanto indirettamente
(perche' li vedo arrabbiarsi o gioire); viceversa posso percepire direttamente soltanto gli stati "fisici"
degli altri (appunto aprendone il cervello), e quelli che sono miei soltanto indirettamente: non posso
infatti stare investigando il mio cervello nel momento in cui sto provando un certo evento mentale,
poiche' in quel momento il mio cervello sta provando quel certo evento mentale e pertanto non puo'
stare investigando se stesso.
Secondo Putnam e altri esiste una corrispondenza fra stati mentali e stati fisici, ma non e'
necessariamente la stessa per tutti. I nostri cervelli sono infatti fisicamente diversi (sia pur di poco),
e sono persino diversi in diverse fasi dello sviluppo per lo stesso individuo; cio' nonostante
attribuiamo loro gli stessi fenomeni psicologici (ovvero gli stessi stati mentali), come gioia, paura,
speranza; altre specie animali, con cervelli vistosamente diversi dai nostri, provano sensazioni simili
alle nostre; e nulla impedisce di supporre addirittura che degli extra-terrestri, dotati di un cervello
completamente diverso da quelli terrestri, potrebbero egualmente provare sensazioni di paura, gioia,
speranza e cosi' via.
Oltre al dualismo e al fisicalismo vi e' una terza corrente di pensiero: il funzionalismo. Se non
siamo in grado di riconoscere gli stati mentali ne' come sostanza a se stante ne' come stati fisici,
proviamo a riconoscerli per la loro "funzione", o, meglio, i loro ruoli causali all'interno del sistema
mentale, ignorando del tutto di cosa siano fatti. Per esempio, il ruolo del dolore e' quello di
identificare i danni attuali al corpo e di evitare futuri danni al corpo.
Nella pratica quotidiana, in realta', e' dubbio quale criterio (fisico o funzionale) impieghiamo per
riconoscere uno stato psicologico. Lewis fa notare che, se incontrassimo un marziano (fatto in
maniera diversa da noi) che piange e un pazzo con una profonda ferita sanguinante che ride a
crepapelle, riconosceremmo entrambi come persone che stanno provando dolore: eppure nel primo
caso usiamo un criterio funzionale (riconosciamo il "processo" di provare dolore), nel secondo un
criterio fisicalista (riconosciamo lo "stato" di provare dolore).
Una variante del funzionalismo elimina del tutto il dualismo mente/cervello ampliando all'infinito il
numero dei possibili tipi di stato: invece che ammettere soltanto uno stato funzionale e uno stato
fisico che in qualche modo vanno ricondotti l'uno all'altro, si suppone che esista un "continuo" di
stati fra il fisico e il funzionale.
Cosi' Lycan, opponendosi a una visione del mondo dicotomica in cui esistono soltanto un livello
inferiore che e' fisiochimico (neuroni) e un livello superiore che e' psicofunzionale (pensieri),
concepisce la Natura come organizzata in diversi livelli gerarchici (subatomico, atomico,
molecolare, cellulare, biologico, psicologico e cosi' via), ciascuno dei quali e' al tempo stesso fisico
e funzionale: fisico rispetto al livello immediatamente superiore e funzionale rispetto a quello
immediatamente inferiore. Procedendo dal basso verso l'alto si ottiene una descrizione fisica,
strutturale, della natura (gli atomi compongono molecole che compongono cellule che compongono

tessuti che compongono organi che compongono corpi...); dall'alto verso il basso si ottiene una
descrizione funzionale (per spiegare come funziona il corpo, studiamo la funzione delle membra,
per studiare la cui funzione studiamo la funzione dei muscoli, etc). L'apparente "irriducibilita'" del
mentale sarebbe allora dovuta all'irriducibilita' dei vari livelli.
Cosi', secondo Dennett, il fenomeno della mente va ridotto a un insieme di funzioni cognitive;
ciascuna funzione cognitiva va ridotta a problemi cognitivi piu' semplici; e cosi' via semplificando
di volta in volta il problema e riducendo sempre piu' l'"intelligenza" richiesta al sistema per
risolverlo; finche' si raggiunge un livello in cui non e' richiesta altra intelligenza che quella
disponibile in una macchina. A ciascuno di questi livelli esiste pertanto un gruppo di "omuncoli",
ciascuno dei quali contribuisce a formare omuncoli del livello superiore ed e' a sua volta composto
di omuncoli del livello inferiore. Gli omuncoli di ciascun livello costituiscono una spiegazione
completa di come funziona il tutto. Semplicemente ogni livello rappresenta un livello di "dettaglio"
maggiore. Analogamente, concepiamo il funzionamento di un'automobile come dovuto
all'interazione fra ruote, motore, sterzo, e cosi' via; a sua volta il funzionamento del motore e'
determinato dall'interazione fra carburatore, candele, e cosi' via.
L'idea della "societa' delle menti" di Minsky e' simile: il comportamento intelligente e' dovuto al
comportamento non intelligente di un numero molto grande di "agenti", organizzati in una gerarchia
"burocratica", non diversamente dagli omuncoli di Dennett. L'insieme delle loro azioni elementari e
delle loro comunicazioni, altrettanto elementari, produrrebbe comportamenti sempre piu' complessi
man mano che si sale nella scala gerarchica.
Il fascino del funzionalismo omuncolare e' che riesce a rendere conto della differenza con cui
percepiamo mente e cervello: l'irriducibilita' della mente al cervello sarebbe un po' come
l'irriducibilita' del continuo al discreto.
L'intenzionalita'
Uno dei problemi piu' ardui che si pone agli scienziati della mente e' quello di definire in maniera
chiara e precisa cosa sia la mente.
Secondo Descartes una sostanza deve essere definita tramite quella proprieta' tale che, se la sostanza
perdesse quella proprieta', non sarebbe piu' la stessa sostanza. Per gli oggetti fisici, per esempio, la
proprieta' che li definisce e' l'estensione nello spazio (in altre parole gli oggetti fisici "occupano
posto"). Per gli oggetti mentali Descartes non trovo' una proprieta' altrettanto intuitiva, e fece
ricorso al concetto generale di "pensiero", che e' quasi una tautologia, o quantomeno si limita a
spostare il problema alla definizione di cosa sia il "pensiero".
L'"intenzionalita'" si presta invece bene a tale fabbisogno in quanto, oltre a essere ben definibile, e'
una proprieta' che sembra esclusiva della mente umana, che non sembra trovarsi in altre sostanze
della natura. Per "intenzionalita'" i Filosofi intendono la proprieta' che uno stato faccia riferimento a
un altro stato: lo stato di un oggetto non fa, generalmente, riferimento a null'altro che al fatto che
quell'oggetto si trovi in quello stato. Viceversa la mente umana si puo' permettere il lusso di trovarsi
in uno stato che fa riferimento a un altro stato: posso "credere" che questo libro sia ben scritto,
posso "sperare" che molti lettori lo compreranno, posso "temere" che i Filosofi lo stroncheranno, e
cosi' via. Questi sono tutti stati mentali che fanno riferimento ad altro (al mio libro, ai lettori, ai
Filosofi e cosi' via). Per l'esattezza si dice che "credere", "sperare", "temere" sono delle "attitudini

proposizionali".
Secondo Brentano gli stati mentali contengono un oggetto in maniera "intenzionale" (cioe' nel senso
che vi fanno riferimento), ed e' proprio l'intenzionalita' a distinguere uno stato mentale da uno stato
fisico. Ma gli stati intenzionali possono far riferimento a oggetti che non esistono: i bambini nati
prima del Sessantotto credevano a Babbo Natale, gli appassionati di oroscopi temono tuttora gli
ascendenti planetari e qualche ottimista spera forse che esistano dei politici non corrotti. E non e'
tuttora chiaro come distinguere gli oggetti esistenti dagli altri, se nella nostra mente non c'e' nessuna
differenza fra gli uni e gli altri.
Secondo Fodor la mente e' una sorta di calcolatore, capace di immagazzinare ed elaborare simboli.
Le attitudini proposizionali si possono allora spiegare immaginando che una memoria di simboli sia
assegnata a ogni possibile attitudine ("speranza", "desiderio", "timore", etc) e che ogni simbolo
corrisponda a una delle possibili proposizioni: una particolare proposizione ("che molti lettori
comprino il libro") incasellata in una particolare attitudine ("sperare") tramite un certo simbolo (X)
rappresenta allora una ben precisa attitudine proposizionale. Quel simbolo costituisce pertanto una
"rappresentazione mentale". Affinche' tutto cio' serva a qualcosa, la mente deve essere dotata di un
insieme di regole per operare sulle rappresentazioni. Ogni nostro pensiero avrebbe pertanto origine
da una trasformazione di rappresentazioni mentali tramite quelle regole.
Il mondo e le nostre esperienze nel mondo verrebbero pertanto tradotte dentro la nostra mente in
questo insieme di simboli secondo quell'insieme di regole, ovvero verrebbero tradotte in un
"linguaggio della mente", che Fodor ha battezzato "mentalese". Che esista un linguaggio interno
alla mente Fodor lo deduce da tre fenomeni: il comportamento razionale (la capacita', cioe', di
calcolare le conseguenze di un'azione), l'apprendimento di concetti (la capacita' di formare e
verificare un'ipotesi) e la percezione (la capacita' di riconoscere un oggetto o un evento). Tutti
questi fenomeni non sarebbero possibili se io non potessi rappresentare a me stesso gli elementi del
problema. Che questo mentalese non possa essere una delle lingue a cui siamo abituati e' dimostrato
a sua volta da due fatti: primo, anche altri animali, incapaci di parlare, esibiscono facolta' cognitive
simili alle nostre; secondo, lo stesso atto di imparare a parlare una lingua richiede l'esistenza di un
linguaggio interno di rappresentazione.
Nello schema di Fodor la mente manipola simboli senza sapere cosa quei simboli rappresentino
(ovvero in maniera puramente "sintattica": la rappresentazione non determina se e a quale oggetto ci
si riferisca). Si comporta cioe' proprio come un calcolatore, che elabora i simboli introdotti nella sua
memoria dal programmatore senza sapere cosa rappresentino quei simboli per il programmatore.
Secondo Fodor, pertanto, cio' che la mente fa e' determinato esclusivamente dalle sue strutture
interne, non a cio' che quelle strutture rappresentano.
A ben guardare la teoria di Fodor e' un'estensione delle idee di Chomsky: se le frasi che un
individuo e' in grado di produrre (la sua "competenza") sono infinitamente superiori alle frasi che
quell'individuo pronuncera' durante la sua esistenza (la sua "performance"), vuol dire che esiste una
struttura portante del linguaggio grazie alla quale si e' in grado di parlare e capire qualunque frase.
Questa struttura e' una "grammatica universale" comune a tutti: ciascuno, poi, impara una delle
sintassi di superficie disponibili (italiano, inglese, spagnolo, etc). Se si estende quest'intuizione al di
la' del semplice fatto linguistico, si ottiene la teoria di Fodor.

Non diversamente, Marr sostiene che l'apparato visivo faccia uso di informazioni innate per
decifrare i segnali di luce che percepiamo dal mondo; altrimenti quei segnali sono talmente ambigui
che non potremmo mai inferire com'e' fatto il mondo. Secondo Marr l'elaborazione dei dati
percettivi avviene grazie ad appositi "moduli", ciascuno specializzato in qualche funzione, che sono
controllati da un modulo centrale.
Secondo Chomsky, Marr e Fodor, pertanto, il cervello contiene rappresentazioni "semantiche" (in
particolare una grammatica) che sono innate e universali (ovvero di natura biologica, sotto forma di
"moduli" che si attivano automaticamente) e tutti i nostri concetti possono essere scomposti in tali
rappresentazioni semantiche. L'elaborazione di tali rappresentazioni semantiche e' invece puramente
sintattica (le rappresentazioni hanno un significato, ma la mente non sa quale sia).
Sono state anche fornite spiegazioni biologiche del perche' la nostra mente dovrebbe funzionare in
tal modo. Shepard ritiene che le specie sopravvissute alla selezione naturale abbiano sviluppato
strutture innate per operare nel proprio ambiente, in maniera tale che per il singolo individuo non
sia piu' necessario impararle. Tali strutture innate non contengono informazioni circa le
caratteristiche degli oggetti (forma, colore, dimensione, etc), ma circa la struttura di quelle
caratteristiche. Per esempio, lo spazio psicologico dei colori e' tri-dimensionale (tinta, luminosita',
saturazione) ed euclideo. Gli spazi psicologici rifletterebbero insomma l'adattamento evolutivo al
nostro ambiente. .sp 5
FIGURA 1 .sp 5
Grazie all'intenzionalita' e' pertanto possibile proporre un modello di come la mente funzioni.
Purtroppo non solo non e' detto che quel modello sia giusto, ma non e' neppure detto che la mente
sia l'unico sistema intenzionale.
Oltre alla mente umana esistono infatti altri oggetti che fanno riferimento ad altro, e cioe' gli
strumenti di misura: il termometro, che fa riferimento alla temperatura dell'ambiente, il tachimetro,
che fa riferimento alla velocita' dell'auto, la spia della benzina, o persino l'allarme anti-incendio e
l'anti-furto; e, naturalmente, il computer, l'unico a poter rivaleggiare con la mente umana. Dretske
ha cosi' definito l'intenzionalita': "Ogni sistema fisico i cui stati interni dipendono ... dal valore di
una grandezza esterna ... e' un sistema intenzionale".
Dretske ha ripreso dalla teoria dell'informazione di Shannon e Weaver l'idea che uno stato trasporta
informazione su un altro stato nella misura in cui dipende (secondo una qualche legge) da quello
stato. In questo modo la proprieta' di intenzionalita' viene ricondotta alla relazione di causa ed
effetto: ogni effetto si riferisce alla sua causa. E l'intenzionalita' diventa una proprieta' piuttosto
comune, tutt'altro che esclusiva della mente umana.
L'intenzionalita' potrebbe dimostrare la superiorita' e l'unicita' della mente umana soltanto se si
riuscisse a definire la differenza fra l'intenzionalita' della mente e l'intenzionalita' degli altri sistemi
intenzionali. Cio' e' certamente possibile; ma, se un termometro potesse obiettare, sarebbe forse
tentato di sostenere che i contenuti degli stati della nostra mente sono tanto diversi da quelli degli
stati di altri sistemi intenzionali quanto i contenuti dei suoi stati (del termometro) sono diversi dagli
stati del tachimetro. Ognuno tende a vedere i propri contenuti come piu' importanti e "unici", ma la

realta' e' che non esiste un sistema di valori assoluto rispetto al quale stilare una classifica
dell'intenzionalita'.
Adottando la teoria ecologica di Gibson e Neisser, Dretske ci propone la visione di un mondo in cui
l'informazione e' presente nell'ambiente e gli agenti cognitivi (cioe' noi) si limitano ad assimilarla.
E' da questo processo di assimilazione che avrebbero origine gli stati interni della mente. Ma questo
e' esattamente cio' che fa uno strumento di misura: prelevare dell'informazione che e' presente
nell'ambiente e usarla per costruire un proprio stato interno. Entrambi i fenomeni (quello della
mente e quello del termometro) sono casi particolari dell'interazione fra organismo e ambiente.
Dawkins contesta persino che l'organismo da solo abbia una rilevanza biologica: cio' che ha senso
studiare e' un sistema aperto composto dall'organismo e dai suoi contorni. Per esempio, la ragnatela
fa ancora parte del ragno, alcuni crostacei crescono la propria conchiglia mentre altri se la cercano,
e cosi' via. Il controllo che un organismo esercita non e' totale al proprio interno e nullo all'esterno:
piuttosto si ha un continuo di gradi di controllo, che ammette una parzialita' di controllo al proprio
interno (tant'e' che diversi parassiti agiscono sul sistema nervoso dei loro ospiti) e un'estensione del
controllo all'esterno (come nel caso della ragnatela). Viceversa, non e' detto che dentro i contorni
dell'organismo esista un'unica psicologia: basta pensare al caso degli schizofrenici. Dawkins
ridimensiona in tal modo l'importanza dei singoli organismi e conferisce invece un primato al
"fenotipo esteso", che si estende fin dove arriva il suo controllo. Millikan, riprendendo questa teoria
biologica, sostiene che, nel determinare la funzione di un "sistema", il sistema non e' solamente
l'organismo, ma qualcosa che si estende anche al di la' della sua pelle. Non solo: per assolvere alla
sua missione, il sistema ha spesso bisogno della cooperazione di altri sistemi: per esempio, il
sistema immunitario puo' funzionare soltanto se il corpo viene invaso da virus.
In realta' l'obiezione piu' forte che il termometro deve fronteggiare e' quella che e' stato costruito
dall'uomo.
Questa obiezione non regge pero' nei confronti dell'informazione biologica, che e' molto diffusa in
natura, dal DNA ai cerchi dei tronchi degli alberi, e che e' quasi sempre relativa ad altro, e non e'
stata costruita da nessuno. I Filosofi si dimenticano anche spesso che la mente umana non e' l'unica
mente esistente: perlomeno i mammiferi e gli uccelli hanno una mente non troppo diversa dalla
nostra, e presumibilmente sono in grado di provare desideri, speranze e paure. L'intenzionalita'
sembra, insomma, essere, non un privilegio della mente umana, bensi' una proprieta' assai diffusa in
natura.
Si potrebbe persino sostenere che l'intenzionalita' sia una proprieta' generale di tutto l'universo:
persino un sasso, al limite, fa riferimento in mille modi all'ambiente in cui si trova. .sp 5
FIGURA 2 .sp 5
Searle sostiene, in effetti, che l'intenzionalita' sia una proprieta' biologica (non solo umana, ma non
addirittura fisica).
Dennett distingue tre strategie utili per spiegare e predire il comportamento di un sistema: fisica

("physical stance"), che inferisce il comportamento dalla struttura fisica e dalle leggi fisiche;
funzionale ("design stance"), che inferisce il comportamento dalla funzione per cui e' stato
progettato (per esempio, riusciamo a predire quando una sveglia suonera' anche senza conoscere il
meccanismo interno dell' orologio); e intenzionale ("intentional stance"), che inferisce il
comportamento dalle convinzioni e dai desideri che quel sistema deve avere se e' un essere
razionale (per esempio, se Vincenzo e' un essere razionale, quando si siede a tavola e si lega il
tovagliolo attorno al collo, vuole mangiare e crede che Giusi abbia preparato il pranzo, e,
conoscendo Giusi, non e' difficile predire che mangera'). L'"atteggiamento intenzionale"
("intentional stance") e' pertanto l'insieme delle convinzioni e dei desideri di un organismo, ed e'
cio' che ci consente di prevedere le sue azioni. Convinzioni e desideri non sono stati interni della
mente che causano un comportamento, ma semplicemente strumenti di calcolo per predire il
comportamento; come se fossero dei costrutti logici che servono soltanto mentre si compiono dei
calcoli.
Il processo che definisce come le convinzioni e i desideri si formano e come determinano il
comportamento dell'organismo ha origini biologiche. Dennett assume che, se un organismo e'
sopravissuto alla selezione naturale, la maggioranza delle sue convinzioni sono vere e l'uso che fa
delle sue convinzioni e' per lo piu' "razionale" (usa le proprie convinzioni per soddisfare i propri
desideri).
Interpretato in chiave biologica (e cioe' in termini di bisogni primari), l'"atteggiamento intenzionale"
finisce per descrivere anche come quell'organismo e' legato al suo ambiente, quale informazione ha
acquisito e quale azione si prepara a compiere. L'organismo riflette in continuazione l'ambiente, in
quanto l'organizzazione stessa del suo sistema ne contiene implicitamente una rappresentazione.
Per Dennett gli stati intenzionali non sono stati interni del sistema, ma descrizioni della relazione fra
il sistema e il suo ambiente (per esempio, un sistema ha paura del fuoco se si trova in una certa
relazione con il fuoco). Inoltre non esiste uno stato intenzionale separato dagli altri, ma,
olisticamente, ha senso parlare soltanto dello stato cognitivo di un organismo nel suo complesso, e
della sua relazione complessiva con l'ambiente. In altre parole l'attitudine proposizionale e' data da
un'"attitudine nozionale", che e' indipendente dal mondo reale, e da una componente dovuta al
mondo reale.
Una "attitudine nozionale" e' definita rispetto a un "mondo nozionale" ("notional world"): i mondi
nozionali di un agente sono i mondi in cui tutte le convinzioni di quell'agente sono vere e tutti i suoi
desideri sono realizzabili. Per esempio, io e il mio doppio sulla Terra gemella di Putnam abbiamo lo
stesso mondo nozionale, benche' viviamo in due mondi reali diversi; io e Vincenzo viviamo nello
stesso mondo reale, ma abbiamo due mondi nozionali diversi. In questo modo Dennett riesce a
risolvere anche il paradosso di Putnam: io e il mio doppio sulla Terra gemella di Putnam abbiamo le
stesse "attitudini nozionali", e le diverse attitudini proposizionali riguardo l'acqua sono dovute
unicamente ai rispettivi ambienti.
In definitiva l'intenzionalita' definisce un organismo in funzione delle sue convinzioni e dei suoi
desideri, i quali sono il prodotto della selezione naturale. Quanto piu' i mondi nozionali di un agente
si discostano da quello reale, tanto minore e' la capacita' di adattamento dell'agente al proprio
ambiente. E' la funzione biologica dei meccanismi cognitivi a fissare convinzioni e desideri, e
questi devono essere rispettivamente veri e possibili per essere utili alla sopravvivenza della specie.
Se incontrassimo su un altro pianeta esseri non umani ma che si comportano esattamente come gli

umani, saremmo egualmente in grado di fornire spiegazioni e predizioni intenzionali riguardo il loro
comportamento, in quanto il processo di selezione naturale ha fatto in modo che anche questi esseri
rispondano agli stimoli dell'ambiente nello stesso modo (razionale) in cui rispondono gli esseri
umani.
Come la Biologia non puo' fare a meno del postulato di ottimalita' dei sistemi adattati all'ambiente,
cosi' la Psicologia non puo' fare a meno del postulato di razionalita' dei sistemi intenzionali. Sono
aspetti complementari della selezione naturale e, in ultima analisi, dell'evoluzione delle specie.
La teoria di Dennett consente di interpretare l'intenzionalita' in un contesto ecologico (alla Gibson e
Neisser, come risposta all'informazione dell'ambiente), in un contesto etologico (sotto forma di
profilo cognitivo della specie, cioe' a quale informazione quella specie e' sensibile) e in un contesto
filogenetico (come un organismo sia evoluto per adattarsi cognitivamente al suo ambiente).
Bibliografia:
Armstrong D. (1981): The nature of mind (Cornell Univ Press)
Chomsky N. (1975): Reflections on language (Pantheon, 1975)
Dawkins R. (1982): The extended phenotype (OUP)
Dawkins R. (1986): The blind watchmaker (Bath Press)
Dennett D. (1978): Brainstorms (MIT Press)
Dennett D. (1987): The intentional stance (MIT Press)
Dretske F. (1981): Knowledge and the flow of information (MIT Press)
Dretske F. (1988): Explaining behavior (MIT Press)
Fodor J. (1975): Language of thought (Crowell)
Fodor J. (1981): Representations (MIT Press)
Fodor J. (1983): Modularity of mind (MIT Press)
Gibson J. (1979): The ecological approach to perception (Houghton Mifflin)
Lewis D. (1983): Philosophical papers (Oxford Press)
Lycan W. (1987): Consciousness (MIT Press)
Marr D. (1982): Vision (W. H. Freeman)
Millikan R. (1987): Language, thought and other biological categories
(MIT Press)
Millikan R. (1991): What is behavior? (MIT Press)
Minsky M. (1985): The society of mind (Simon & Schuster)
Neisser U. (1975): Cognition and reality (Freeman)
Putnam H. (1975): Mind, language and reality (Cambridge Univ Press)
Putnam H. (1975): Meaning and the moral sciences (Routledge & Kegan Paul)
Putnam H. (1988): Representation and reality (MIT Press)

Searle J. (1979): Expression and meaning (Cambridge Univ Press)


Shepard R. (1989): Internal representation of universal regularities
(in Nadel: Neural connections, MIT Press)
Smart J. (1959): Sensations and brain processes
(Philosophical review n.68 p.141)

L'ingegneria della mente


Le macchine
Fin dai tempi degli antichi greci l'umanita' ha ambito a trovare un modo per derivare nuove verita'
dalle verita' gia' note. I teoremi della Geometria consentono, per esempio, di scoprire certe
proprieta' delle figure geometriche date certe altre loro proprieta' (se un triangolo ha tre lati uguali
allora ha anche tre angoli uguali). Il sillogismo di Aristotele consente di derivare nuove proposizioni
da certe premesse. Il fascino sembra essere quello delle verita' che la mente non riesce ad afferrare
sull'istante benche' in qualche modo sia possibile conoscerle. E allora e' utile sviluppare sistemi di
derivazione delle verita', che aiutino in questo compito. L'intera disciplina matematica dei sistemi
formali discende da quel presupposto.
Le macchine, inventate per automatizzare tutti i compiti che e' possibile automatizzare, possono
aiutare anche in questo caso; senonche' non fu banale capire che una macchina poteva servire a

produrre verita', oltre che forza o moto. La macchina, in effetti, non fa altro che trasformare una
verita' in un'altra, esattamente come i teoremi della Geometria, ma le macchine del secolo scorso
agivano su entita' come il vapore e i circuiti idraulici, la cui relazione con il pensiero non e' cosi'
ovvia. Cio' nonostante trasformavano un tipo di energia (per esempio, termica) in un altro tipo di
energia (per esempio, cinetica) basandosi sulle equazioni matematiche della Fisica.
Man mano che la struttura e la funzione delle macchine divennero piu' complesse, si fece largo
l'intuizione che ci fosse di piu'. Una macchina agisce anche su qualcosa che non e' immediatamente
visibile, ma che e' insito in ogni processo: l'informazione. Qualunque azione compiuta da una
macchina puo' sempre essere espressa anche sotto forma di informazione consumata e prodotta.
Un passo decisivo fu poi quello di capire che l'informazione poteva essere utilizzata per
rappresentare e manipolare simboli. Visto che questo e' proprio, in ultima analisi, il compito della
Logica dei sistemi formali, la macchina costituisce di fatto il suo complemento ideale.
All'inizio la scuola dei sistemi formali si era proposta solamente di automatizzare il piu' possibile la
dimostrazione dei teoremi, cosi' come per le operazioni aritmetiche esistono delle procedure
automatiche di calcolo (la moltiplicazione a piu' righe, la divisione con i resti, il riporto della
sottrazione, la regola del nove e cosi' via). Ma quella scuola fini' per sfociare nel progetto di
costruire la macchina pensante.
I sistemi formali
La disciplina dei sistemi formali ebbe origine dall'ambizione di ricostruire l'Aritmetica su basi
logiche. Frege e Russell usarono la "proposizione" come l'unita' elementare di verita', che puo'
essere unicamente vera o falsa ("vero" e "falso" sono i due possibili "valori di verita'" di una
proposizione). Per esempio, "L'autore di questo libro si chiama Piero Scaruffi" e' una proposizione
vera, mentre "Piero Scaruffi e' ricco" e' una proposizione falsa.
Una volta definiti degli assiomi (ovvero delle proposizioni assunte come vere a priori) e delle regole
di inferenza (ovvero delle norme su come derivare altre proposizioni vere dalle proposizioni gia'
vere), si meccanizzava l'intero processo di ricerca e dimostrazione della verita'. Per esempio, tramite
la piu' ovvia delle regole di inferenza e' possibile dedurre dalle due proposizioni precedenti (e dai
loro valori di verita') che una terza proposizione, "L'autore di questo libro e' ricco", e' falsa.
Usando i predicati, che, rispetto alle proposizioni, consentono di distinguere fra concetti ("uomo") e
oggetti ("Vincenzo"), divenne possibile ragionare in maniera formale su tutti i fatti dell'universo, e
non solo su quelli della Geometria. Il fatto che Vincenzo e' un uomo viene espresso dicendo che il
predicato uomo(Vincenzo) e' vero.
In questo modo risulta anche piu' immediato cosa siano l'estensione e l'intensione: l'estensione di un
concetto e' l'insieme di tutti gli oggetti che lo rendono vero (l'estensione di "uomo" e' l'insieme dvi
tutti gli X come "Vincenzo" che rendono vera l'espressione "uomo(X)"), mentre l'intensione e' cio'
che comunemente chiamiamo "senso" (per esempio, il senso di essere un uomo).
Il prezzo da pagare e' la rinuncia del linguaggio ordinario: invece di scrivere "Vincenzo e' un

uomo", dobbiamo scrivere "uomo (Vincenzo)"; e non possiamo certamente scrivere "Vincenzo, per
inciso, e' un uomo" o "Vincenzo, credimi, e' un uomo" o "Vincenzo, perbacco, e' un uomo".
La sintassi della logica dei predicati e' proprio cio' che mancava per poter automatizzare il
ragionamento: quella sintassi fornisce lo strumento deterministico per trasformare qualsiasi frase
del nostro linguaggio ordinario in una proposizione formale. Le regole di inferenza della logica dei
predicati forniscono poi anche lo strumento per derivare nuove proposizioni dalle proposizioni
esistenti (e cioe' per compiere "deduzioni"). Quelle nuove proposizioni formali andranno poi
nuovamente interpretate per essere trasformate in frasi del linguaggio ordinario ed essere
comprensibili da tutti. Il prezzo da pagare e' pertanto quello di dover ragionare in un linguaggio
formale che non e' quello a cui siamo abituati.
Questo fatto e' stato giustificato a posteriori da diversi pensatori ipotizzando che la nostra mente
impieghi effettivamente la logica matematica, ovvero che le leggi della logica dei predicati siano
davvero le leggi del pensiero.
Al tempo stesso molti hanno pensato che la logica matematica debba costituire le fondamenta per
tutto il pensiero umano. In particolare Russell lancio' il programma "logistico" di rifondare tutte le
scienze sul calcolo logico. In effetti i sistemi formali si prestano a costruire e manipolare astrazioni
di qualsiasi natura.
Un sistema formale e' pero' in se' soltanto un ammasso di proposizioni, predicati e formule varie,
che, guarda caso, puo' essere sottoposto a certe regole di trasformazione e dar luogo a simpatici
risultati. Ma come "interpretare" questi risultati?
Tarski spiego' come un sistema formale possa "significare" qualcosa, ovvero come possa far
riferimento al mondo reale: dato un insieme di formule (una "teoria"), l'"interpretazione" di quella
teoria e' una funzione che assegna a ogni sua formula un riferimento nel mondo reale. Ogni
"interpretazione" che renda vere tutte le formule della teoria e' un "modello" di tale teoria. E questo
e' quanto si fa con tutte le scienze moderne: alle formule di una teoria scientifica si associano le
corrispondenti leggi della natura e l'universo degli oggetti di quella scienza diventa un modello
della teoria. .sp 5
FIGURA 3 .sp 5
Le ambizioni del programma di formalizzazione del pensiero umano hanno pero' incontrato diversi
ostacoli. Alcuni sono stati superati, come i paradossi di Russell: quello del barbiere (se un barbiere
fa la barba a tutti i barbieri che non si fanno la barba da se', quel barbiere si fa la barba da se'?) e
quello del bugiardo (se dico che "questa frase e' falsa", questa frase e' vera o falsa?), in entrambi i
quali bisogna sostanzialmente evitare che una proposizione faccia riferimento a una proprieta' di se
stessa.
Altri non sono stati superati, come il teorema di Godel: ogni sistema formale (contenente la teoria
dei numeri) contiene sempre almeno un'affermazione che non puo' essere dimostrata ne' vera ne'
falsa in base al sistema stesso (un'affermazione "indecidibile"); un tale sistema deve infatti

necessariamente contenere una proposizione del tipo "io non sono dimostrabile", che non e'
dimostrabile facendo ricorso soltanto a quel sistema. Per esempio, la logica dei predicati del primo
ordine non e' decidibile (la logica delle proposizioni e' ovviamente decidibile con le comuni tavole
di verita').
Godel dimostro', in pratica, che la logica ha un limite come strumento per conoscere l'universo: in
nessun sistema e' possibile definire il concetto di verita' (ovvero definire tutte le proposizioni che
sono vere in tale sistema).
I programmi
I sistemi formali forniscono un metodo meccanico per stabilire se una sequenza di formule e' una
dimostrazione (le regole di inferenza), ma non un metodo per stabilire se esiste la dimostrazione di
un teorema (uno potrebbe continuare ad applicare regole di inferenza all'infinito senza mai
pervenire a una soluzione).
Il "problema della decidibilita'" e' proprio quello di trovare un metodo per determinare se una
formula qualsiasi e' un teorema (e' dimostrabile) in un dato sistema formale.
Questo problema e' legato a quello della computabilita' tramite "algoritmo", detta anche
"ricorsivita'" (una funzione ricorsiva e' in pratica una funzione che puo' essere programmata): un
predicato e' decidibile (ovvero esiste un algoritmo che puo' decidere in un tempo finito se quel
predicato applicato a un certo valore della sua variabile e' vero o falso) se e solo se la
corrispondente funzione e' ricorsiva.
Il problema della decisione puo' essere allora riformulato in questi termini: derivare procedure
puramente meccaniche per trovare soluzioni a tutti i problemi matematici. Di fatto i problemi che
soddisfano il problema della decisione sono risolubili da una macchina, gli altri non lo sono. C'e'
pero' un piccolo inconveniente in tutto cio': il problema della decisione e' impossibile, in quanto il
teorema di Godel sancisce che non e' possibile dimostrare se un programma generico giungera' a
una conclusione.
Vale egualmente la pena di esaminare come debba essere fatto il metodo, la procedura, l'algoritmo
che lo soddisferebbe. Fu in tal modo, infatti, che Turing pervenne a una delle invenzioni
fondamentali del nostro secolo.
Una "macchina di Turing" e' una macchina in grado di compiere le operazioni che servono per
operare con la logica matematica: leggere i simboli di un'espressione, elaborare i simboli, scrivere
nuovi simboli, passare ad esaminare nuovi simboli. A seconda del simbolo che legge e dello stato in
cui si trova, la macchina di Turing decide se spostarsi avanti, indietro, scrivere un simbolo,
cambiare stato o fermarsi. La macchina di Turing e' un sistema formale automatico: un sistema per
manipolare automaticamente un alfabeto di simboli secondo un insieme finito di regole. In parole
piu' semplici, sa fare esattamente cio' che fa uno studente del liceo quando deve risolvere un
problema di algebra. Macchine di Turing ne possono esistere tante, infinite, a seconda di come
esattamente svolgono le funzioni simboliche di cui sopra.

La macchina di Turing "universale" e' qualcosa di piu': e' una macchina di Turing particolare, che
funziona come le altre ma che e' anche in grado di simulare tutte le possibili macchine di Turing. E'
una macchina che puo' cioe' essere trasformata in questa o quella macchina di Turing, in quanto
contiene al suo interno una sequenza di simboli che descrive la specifica macchina di Turing da
simulare. Insomma prima le si dice quale macchina di Turing simulare (come agire) e poi la si fa
agire come farebbe quella macchina di Turing. In pratica per ogni procedura computazionale (per
ogni problema che si debba risolvere) la macchina di Turing universale e' in grado di simulare la
macchina che esegue quella procedura (che risolve quel problema).
La macchina di Turing universale e' pertanto in grado di calcolare qualsiasi funzione computabile:
se fosse dimostrato che i processi della mente sono solamente quelli computazionali, allora la
macchina di Turing universale sarebbe "equivalente" alla mente. Questa tentazione e' venuta a
diversi Filosofi.
Il funzionalismo nacque di fatto quanto Putnam suggeri' di identificare lo stato psicologico di una
persona ("credere che", "desiderare che", etc) con uno stato della macchina di Turing. Lo stato
psicologico causerebbe allora altri stati psicologici in accordo con le operazioni della macchina.
Putnam non credeva che lo stato mentale fosse dovuto unicamente allo stato fisico del cervello e
ambiva a trasformare in scienza la psicologia dei desideri e delle convinzioni. Usando il paradigma
della macchina di Turing, ovvero del computer, Putnam poteva ipotizzare che desiderio e
convinzione corrispondessero a formule depositate in due registri della macchina e che appositi
algoritmi usassero quelle formule come input per produrre come output delle azioni. I concetti
sarebbero divenuti in tal modo delle entita' che possono essere descritte e manipolate
scientificamente, esattamente come la massa o la quantita' di moto. (In seguito, forse anche per aver
meglio compreso cos`e` un computer, Putnam cambiera' idea: capita spesso che i Filosofi cambino
idea dopo aver capito di cosa stanno parlando).
Turing, definendo una macchina astratta che e' in grado di calcolare una funzione generica (e che
esprime di fatto soltanto un modo diverso di rappresentare un sistema formale, con tanto di assiomi
e di regole di inferenza), progetto' di fatto il computer. Semplificando un po', il computer e' la
macchina che puo' meglio soddisfare il problema della decisione. Il computer ha una proprieta'
importante, che gli consente di risolvere "qualsiasi" problema: divide l'universo delle informazioni
in istruzioni e dati (una separazione che Von Neumann trasferi' nell'architettura dei computer). La
stessa sequenza di istruzioni (lo stesso "programma") puo' operare su dati diversi, e risolve pertanto
non un problema solo ma un'intera classe di problemi.
Secondo la tesi di Church tutto cio' che e' computabile in natura deve essere anche Turingcomputabile (computabile dalla macchina di Turing). A differenza di qualsiasi altra macchina,
pertanto, il computer (ovvero la macchina universale di Turing) puo' essere programmato per
calcolare qualsiasi funzione. Fu questa proprieta' a far pensare che il computer potesse essere
programmato anche, in particolare, per esibire un comportamento intelligente.
Gli automi
L'intuizione fondamentale di Turing non fu tanto, o solo, quella di come si potesse costruire una
macchina in grado di dimostrare i teoremi di un sistema formale, ma quella di concepire un sistema
formale come un sistema di simboli e le dimostrazioni dei suoi teoremi come processi di

manipolazione di simboli.
Anche qui c'e' pero' un prezzo da pagare. Cosi' come la Logica riusciva ad automatizzare il calcolo
della verita', ma obbligando ad utilizzare un linguaggio ad hoc che non era quello ordinario, cosi'
Turing e Von Neumann automatizzano la dimostrazione di teoremi ma obbligano ad utilizzare un
linguaggio ancora piu' ostico e innaturale: quello della macchina. Proprio in quanto cosi' difficile da
ricondurre ai nostri standard di comunicazione quotidiani, quel linguaggio sarebbe stato usato per
definire linguaggi piu' semplici e naturali, i "linguaggi di programmazione", che peraltro
conservano la sintassi rigida tipica delle cose meccaniche. Ancora una volta il linguaggio ordinario
utilizzato quotidianamente da miliardi di esseri umani doveva essere ripudiato per affrontare il tema
della verita'. Esiste una chiara analogia fra i linguaggi di programmazione dei computer e i
linguaggi della logica matematica: entrambi sono linguaggi artificiali inventati per poter
rappresentare il mondo ed eseguire ragionamenti su tale rappresentazione. McCarthy, inventando il
primo linguaggio di programmazione che consentisse di elaborare simboli (il LISP), trasformo'
l'analogia in un'equivalenza.
Ad ampliare gli orizzonti della logica matematica, applicando i sistemi formali al di fuori del suo
contesto originario, fu Post. Post invento' un altro metodo per rappresentare un sistema formale: le
regole di produzione. Una regola di produzione stabilisce semplicemente che, se si sono verificate
certe precondizioni, allora e' lecito assumere anche certe conseguenze (per esempio, "se Vincenzo e'
il marito di Giusi, allora Giusi e' la moglie di Vincenzo"). Le regole di produzione costituiscono uno
strumento molto potente e intuitivo per dimostrare teoremi, ma, piu' ancora, le regole di produzione
possono costruire qualunque stringa di caratteri in qualunque sistema di simboli. Non sono, cioe',
limitate ai sistemi formali. Per l'esattezza un sistema di regole di produzione e' computazionalmente
equivalente a una macchina di Turing.
Chomsky estese l'idea dei sistemi formali alla linguistica, postulando che la grammatica del
linguaggio possa essere espressa tramite il formalismo logico. Le regole secondo sui si combinano
verbi, aggettivi, articoli e cosi' via possono essere viste delle regole di produzione che costruiscono
simboli corretti a partire da altri simboli corretti. All'inizio del processo ci sono soltanto le parole
del vocabolario, ma applicando regola dopo regola si possono ottenere anche frasi complicate come
questa che avete appena finito di leggere. Grazie a questa innovazione la linguistica si trasformo' da
una classificazione di eventi linguistici, da una disciplina essenzialmente tassonomica, in una
scienza.
Tanto i sistemi di produzione di Post quanto le grammatiche generative di Chomsky sono esempi di
un processo piu' generale di rappresentazione dei fenomeni naturali. Per esempio, gli ingranaggi di
un orologio non fanno altro che eseguire una complessa sequenza di istruzioni per calcolare il
tempo, ma l'orologio in realta' non segna il tempo: la meridiana, che rappresenta il tempo in maniera
continua, puo' dirsi che "segna" il tempo, mentre l'orologio, che avanza di secondo in secondo, lo
conta soltanto. L'orologio e' un "automa" che scimmiotta la Natura grazie a un "algoritmo". Che
l'algoritmo si presti particolarmente bene a descrivere la Natura alla nostra mente e' dimostrato dal
fatto che persino quando lo strumento riproduce esattamente il corso della Natura, per esempio il
termometro, trasformiamo quell'informazione in qualcosa di meno fedele (leggiamo la temperatura
a gradi discreti, anche se la scala del termometro e' continua), ovvero costruiamo mentalmente uno
strumento virtuale che non "segna" ma "conta".
In questo modo l'attenzione si ando' spostando verso gli "automi finiti" che erano in grado di
eseguire algoritmi (Kolmogoroff fu probabilmente il primo ad affermare che gli uomini stessi

fossero automi finiti). La parola "automa" smise pertanto di rappresentare un congegno


antropomorfo, e divenne il nome di qualsiasi meccanismo, concreto o astratto, in grado di eseguire
un algoritmo.
Da questo punto di vista l'intuizione piu' importante di Church fu quella di determinare un modo per
confrontare due funzioni. In generale un concetto puo' essere classificato secondo la sua intensione
o secondo la sua estensione: l'unicorno ha estensione vuota e pertanto e' sottoinsieme di qualsiasi
concetto che non sia vuoto, mentre ha un'intensione ben precisa che ne fa un sottoinsieme di
"animale", ma non di "pianta". Per le funzioni vale qualcosa di analogo. Una funzione puo' essere
definita dal punto di vista intensionale sulla base della procedura computazionale che ne calcola il
valore oppure dal punto di vista estensionale sulla base dell'insieme di coppie input/output. Due
funzioni possono essere definite uguali sulla base della definizione estensionale (esibiscono lo
stesso comportamento) oppure sulla base della definizione intensionale. Church invento' il primo
modo formale di confrontare definizioni intensionali: l'astrazione "lambda". L'astrazione lambda
fornisce delle regole per trasformare qualsiasi funzione in una forma canonica: una volta espresse in
quella forma canonica, e' possibile confrontarle.
E' grazie all'astrazione lambda che il computer puo' trattare simboli, e' grazie all'astrazione lambda
che McCarthy pote' sviluppare un linguaggio di programmazione simbolica (il LISP), e' grazie
all'astrazione lambda che il computer pote' diventare un elaboratore simbolico.
I sistemi auto-organizzantesi
In parallelo al programma logistico, il cui obiettivo mascherato era di fatto quello di costruire la
macchina in grado di compiere automaticamente dimostrazioni matematiche, si sviluppo' un
programma meccanicistico che aveva come obiettivo dichiarato quello di studiare aspetti del
comportamento delle macchine e di applicarli allo studio degli organismi viventi. L'idea scaturiva
dall'osservazione che fenomeni come l'informazione (Shannon), la retroazione o "feedback"
(Ashby) e la comunicazione (Wiener) emergono tanto nello studio della Natura quanto nello studio
dell'intelligenza.
Il feedback e' il fenomeno per cui l'output di un organismo viene restituito in input all'organismo
stesso. E' il feedback che consente l'"omeostasi", il fenomeno per cui un organismo (tanto il corpo
umano quanto una qualsiasi macchina) tende a compensare le variazioni nell'ambiente esterno per
mantenere una propria stabilita' interna; e' al feedback, in altre parole, che si deve la capacita' di
adattamento di un organismo all'ambiente. Il feedback, per inciso, implica una forma di
intenzionalita': cio' che l'organismo fa a fronte del feedback riflette inevitabilmente lo stato
dell'ambiente, e pertanto "si riferisce" a qualcosa che si trova nell'ambiente. Sia gli organismi
biologici sia quelli meccanici hanno in comune qualche meccanismo di feedback che e' vitale per il
loro funzionamento (e, in ultima analisi, per la loro sopravvivenza). Si puo' affermare (principio di
Pfluger) che ogni processo avente un fine tende ad utilizzare il feedback per raggiungere
quell'obiettivo.
Ashby riformula infine questi concetti all'interno di un panorama piu' ampio, quello di un sistema
auto-organizzantesi: un insieme (presumibilmente grande) di unita' elementari (presumibilmente
molto simili fra di loro) dotato di una struttura (presumibilmente molto complessa) capace di
evolversi autonomamente e di adattarsi all'ambiente. I sistemi auto-organizzantesi potrebbero essere
cosi' diffusi da costituire una proprieta' generale dell'universo; e, naturalmente, il loro processo di
evoluzione e adattamento sarebbe quello di feedback.

Le macchine intelligenti
Turing propose un celebre test per verificare se una macchina sia diventata intelligente: il test di
Turing considera "intelligente" una macchina in grado di rispondere a qualsiasi domanda nello
stesso modo in cui risponderebbe un essere umano; insomma quando non sia piu' possibile
distinguerne il comportamento da quello di un essere umano.
Searle ha attaccato l'idea che sia possibile costruire macchine intelligenti sulla base del loro
comportamento con il suo paradosso della "sala cinese": se venisse dotato di regole appropriate che
stabiliscono quali simboli scrivere a fronte di certi altri simboli, un trascodificatore che non sa il
cinese saprebbe rispondere in cinese a domande in cinese, e, secondo il criterio di Turing, saprebbe
allora il cinese. sapendo il cinese. .sp 5
FIGURA 4 .sp 5
La sua manipolazione di simboli non puo' essere considerata "intenzionale" poiche' non fa
riferimento agli oggetti menzionati nelle sue risposte (anzi non ha neppure idea di quali siano questi
oggetti). Analogamente il calcolatore simbolico non sa cosa sta facendo e pertanto non esibisce vera
intenzionalita'.
Il paradosso di Searle presenta comunque un paio di scorrettezze logiche. Primo, Searle assume che
il trascodificatore non capisca il cinese, mentre e' cio' che dovrebbe dimostrare: se gli chiedesse in
cinese "capisci il cinese"?, il trascodificatore risponderebbe di si'. In realta' Searle non ha modo di
dimostrare che l'uomo non capisce il cinese, a meno di postularlo fin dall'inizio. Secondo, il
trascodificatore potra' anche non essere intelligente, ma il trascodificatore "piu'" le regole di
trascodifica (ovvero "la stanza" nel suo insieme) lo sono.
Non solo: quell'insieme di regole, che Searle tratta come qualcosa di poco edificante, se davvero gli
consentono di rispondere in cinese a qualsiasi domanda in cinese, costituiscono in realta' proprio
cio' che viene comunemente chiamato "capire il cinese"; e cio' che Searle fa manipolando simboli in
quel modo, ammesso che in quel modo possa davvero rispondere in cinese a qualsiasi domanda in
cinese, e' proprio capire il cinese; in altre parole, se Searle imparasse tutte le regole che servono per
poter rispondere in cinese a qualsiasi domanda in cinese, avrebbe semplicemente imparato il cinese.
Il nocciolo dell'obiezione di Searle e' l'intenzionalita': un sistema che si limiti ad elaborare simboli,
ma senza capire cio' che sta capendo, non puo' essere considerato equivalente a un essere pensante,
anche se la sua performance lo fosse. Come ha scritto Dretske: un computer non sa "cio'" che sta
facendo, pertanto "quello" non e' cio' che sta facendo. Persino quando un computer calcola che due
piu' due fa quattro, non ha calcolato che due piu' due fa quattro, perche' non sa di averlo fatto: ha
soltanto manipolato dei simboli che, per noi umani ma solo per noi umani, significano che due piu'
due fa quattro.
A tale proposito Jackson ha proposto un altro paradosso: supponiamo che un brillante
neurofisiologo cieco sveli nei minimi dettagli come il cervello riesce a percepire i colori; benche'
sappia tutto sui processi del cervello che presiedono a quel fenomeno, il neurofisiologo non sapra'

mai cosa si provi a vedere un colore.


D'altro canto quando noi investighiamo il computer, benche' ne capiamo il funzionamento nei
minimi dettagli, non possiamo certo sapere cosa si provi ad essere un computer. Per cui l'inferiorita'
del computer nei confronti della mente umana non e' diversa da quella della mente umana nei
confronti del computer.
In ogni caso sarebbe difficile definire quando un computer ha coscienza di cio' che e', di cio' che sta
facendo. E forse dalla sua prospettiva un computer, osservando noi, giungerebbe alla conclusione
che noi non siamo coscienti e non sappiamo cio' che stiamo facendo, e non siamo pertanto davvero
intelligenti.
Un'altra linea di pensiero ancora e' quella "olistica": riallacciandosi a Husserl, Dreyfus sostiene che
la comprensione non puo' mai prescindere dal contesto in cui avviene e tale contesto socio-storicoculturale non e' possibile rendere disponibile a una macchina. In altre parole: c'e' dell'informazione
nell'ambiente, fuori dalla mente, che e' cruciale per l'intelligenza. Simon ha pero' fatto notare che la
formica reagisce all'ambiente senza avere alcuna rappresentazione interna dell'ambiente; eppure
riesce a compiere operazioni molto complesse.
Il secondo Putnam e' scettico circa la possibilita' che la mente umana possa comprendere se stessa,
o, in termini computazionali, che un automa possa spiegare il proprio funzionamento. Putnam e'
ancora del parere che lo stesso stato mentale possa essere realizzato tramite due stati fisici diversi
(per esempio, due sistemi che non hanno la stessa struttura fisica), ma aggiunge che lo stesso stato
mentale puo' essere realizzato tramite due stati "computazionali" (funzionali) diversi (per esempio,
due computer possono trovarsi nello stesso stato "mentale" benche' abbiano due programmi
diversi), e pertanto gli stati mentali non possono essere programmi. Di piu': ogni organismo risulta
essere la realizzazione di tutti i possibili automi finiti. Non e' che non esista un'organizzazione
funzionale: ne esistono troppe! Se ne deve concludere che nessun essere mentale e' in grado di
scoprire cosa sia un essere mentale. Come in Meccanica Quantistica esiste il principio di
indeterminatezza di Heisenberg, e in Matematica esiste il teorema di incompletezza di Godel, cosi'
in Filosofia andrebbe formulato un principio di "inconoscibilita'".
Un'altra linea di pensiero, quella di Lucas e di Penrose, riprende il teorema di Godel, facendo notare
come esso stabilisca un chiaro primato della mente umana sulla macchina: alcune operazioni
matematiche non sono computabili, eppure la mente umana riesce a trattarle, o quantomeno a
dimostrare che non sono computabili. Ergo la mente umana puo' calcolare cose che la macchina non
puo' calcolare. Sono possibili diverse risposte: 1. una macchina potrebbe compiere quella
dimostrazione relativamente a ogni altra macchina, e pertanto essere equivalente alla mente umana
(come ha scritto Putnam, il computer potrebbe agevolmente dimostrare la proposizione "se la teoria
e' coerente, allora la proposizione che esista almeno una proposizione non decidibile e' vera", e
questo e' esattamente tutto cio' che la nostra mente riesce a fare); 2. il teorema di Godel dimostra al
massimo che l'uomo non potra' mai costruire una macchina che pensa, non che tale macchina sia
impossibile; 3. dalla dimostrazione di Penrose si puo' anche dedurre che una macchina non puo'
verificare la validita' delle prove matematiche, il che' e' contraddetto dalla nostra esperienza.
Penrose sostiene che noi umani possiamo renderci conto che questo teorema e' vero, anche se
nessuno strumento matematico (compreso il computer) potrebbe mai dimostrare che e' vero

(appunto perche' e' matematicamente indecidibile). Noi possiamo intuire che quel teorema e' vero,
anche se non lo possiamo dimostrare matematicamente; ma il computer, che usa soltanto la
Matematica, non riuscirebbe mai a dimostrare che e' vero e pertanto a "rendersi conto" che e' vero.
Se applicassimo il teorema di Godel a un sistema matematico che descriva non soltanto l'aritmetica,
ma il mio intero modo di pensare, quel teorema "indecidibile" sarebbe vero (perche' Godel lo ha
dimostrato), pur non essendo dimostrabile (per definizione) da nessun computer. Morale: io so di
pensare (qualunque cosa dica in proposito il signor Godel), ma nessun sistema matematico
(compreso il computer piu' potente dell'universo) potrebbe esprimere completamente il modo in cui
penso.
Sloman ha risposto a Penrose facendo notare che possono esistere diversi "modelli" di un sistema
matematico (cioe' diverse sue interpretazioni) e in alcuni di questi modelli (quelli cosiddetti "nonstandard") la formula di Godel e' falsa, semplicemente falsa. Per l'esattezza Sloman fa notare che
una delle condizioni che Godel pone alla sua dimostrazione e' che il sistema matematico non
contenga contraddizioni, ovvero che sia "coerente"; ma cio' capita soltanto se al sistema matematico
viene aggiunto il teorema indecidibile, assumendo che esso sia vero o falso. Se si assume che sia
vero, allora Penrose ha ragione. Se si assume che sia falso, allora siamo nel caso dei modelli non
standard e Penrose ha torto. Se non assumiamo ne' che sia vero ne' che sia falso, allora non abbiamo
un sistema coerente e pertanto Penrose non puo' dire nulla.
Il teorema di Godel, per come Godel lo strutturo' (usando insiemi infiniti di numeri e di formule),
da' l'illusione di dimostrare una verita' che in realta' non viene dimostrata, non puo' essere
dimostrata e deve essere decisa arbitrariamente.
Puo' darsi che il computer non possa mai diventare intelligente, ma, se esistesse, un computer
intelligente cadrebbe probabilmente nello stesso equivoco in cui e' caduto Penrose e penserebbe
esattamente cio' che Penrose ha pensato a proposito del teorema di Godel. Il teorema di Godel non
dimostra l'impossibilita' di costruire una macchina intelligente: dimostra una limitazione intrinseca
di qualsiasi forma di intelligenza, compresa quella di Penrose!
Si tenga infine presente che tanto il cervello quanto il computer hanno una durata finita nel tempo, e
pertanto ogni dimostrazione che presupponga un numero molto elevato di passi, di termini o altro,
non ha molto senso pratico; e in ogni caso chi ha probabilita' di durare piu' a lungo e' il computer.
I sistemi esperti
Una rivoluzione di pensiero fondamentale e' quella dovuta a Craik. Secondo Craik il cervello
umano, visto come un tipo particolare di macchina, e' in grado di costruire modelli interni (o
rappresentazioni interne) del mondo, elaborando i quali (le quali) produce azioni. Il tradizionale
automa cartesiano, capace soltanto di rispondere con delle azioni meccaniche a certi stimoli esterni,
diventa un automa "craikiano", che trasforma invece gli stimoli esterni in una rappresentazione
interna, elabora tale rappresentazione e poi produce l'azione. Mentre l'automa cartesiano non ha
alcun bisogno di "conoscere" e di "ragionare", l'automa craikiano ha conoscenza e compie
inferenze; essendo l'inferenza una manipolazione di simboli, la conoscenza dev'essere una
rappresentazione di simboli. L'intelligenza deve consistere, in qualche modo, nell'elaborare la

conoscenza.
Le idee di Craik sono all'origine del programma dei sistemi esperti, che sono spesso, mutatis
mutandis, dei semplici sistemi di produzione. Spinte agli estremi, esse indicano infatti nella
conoscenza la vera chiave dell'intelligenza: un sistema dotato di conoscenza in un certo dominio e'
in grado di risolvere i problemi che si verificano in quel dominio anche utilizzando mezzi logici
molto limitati, mentre un sistema privo di conoscenza del dominio, pur se dotato di mezzi logici
strepitosi, non e' praticamente in grado di risolvere neppure i problemi piu' banali, anzi spesso sono
proprio quelli piu' "banali" a richiedere maggior conoscenze (come ben sa qualunque straniero,
ignaro dell'esistenza di obliteratrici e tabacchini, che abbia tentato di pagare un biglietto su un
autobus italiano).
L'ambizione di Newell e Simon, di costruire il "risolutore di problemi generale" reso possibile dagli
sviluppi della Logica, non e' realistica. E' invece realistico costruire risolutori di problemi di
dominio, ovvero sistemi "esperti" in un certo dominio. Proprio il dominio studiato da Newell e
Simon si presta per esemplificare la differenza: un dimostratore generale di teoremi e' l'equivalente
di un matematico che conosca benissimo le regole di inferenza e le applichi meccanicamente, una
dopo l'altra, in tutte le combinazioni possibili; i Matematici piu' bravi, invece, sono proprio quelli
che, forti di intuito ed esperienza, riescono a trovare quelle regole che porteranno rapidamente a una
soluzione. Il dimostratore generale di teoremi, siccome prova tutte le strade possibili, trovera'
certamente la soluzione (se esiste), mentre il piu' bravo dei Matematici potrebbe fallire; ma in
generale il dimostratore generale impieghera' dei secoli per risolvere i teoremi, anche quelli che uno
studente del primo anno liquiderebbe in pochi minuti. La conoscenza del dominio (o l'esperienza, o
il buon senso, o comunque la si voglia chiamare) e' ancor piu' cruciale quando si tratta di risolvere
problemi in campi come la Medicina, la progettazione, la consulenza.
La disciplina dei sistemi esperti puo' allora essere definita come lo studio formale del
comportamento umano in ogni dominio: dato un dominio, dato un agente di quel dominio, e data
una situazione in quel dominio, determinare l'azione dell'agente a fronte di tale situazione. Per
realizzare questo programma in un dato dominio, e' necessario ricavare l'insieme di leggi che
governano il comportamento di un agente in quel dominio, la cosiddetta "conoscenza del dominio".
Non a caso la disciplina dei sistemi esperti viene talvolta chiama "ingegneria della conoscenza",
lasciando intuire l'ambizione di costruire una scienza esatta di come si acquisisca, rappresenti ed
elabori conoscenza.
Una macchina dotata di conoscenza e' intrinsecamente piu' potente di una macchina dotata soltanto
di informazione: nel secondo caso la macchina sa "come" deve risolvere il problema, mentre nel
primo sa "cosa" serve per risolvere il problema; il vantaggio del secondo caso e' che la macchina,
una volta dotata di quella conoscenza, e' in grado di risolvere non soltanto uno specifico problema,
ma un'intera classe di problemi: tutti quelli che sono risolvibili con quella conoscenza, e quindi
anche problemi che non erano stati previsti originariamente.
Secondo McCarthy la disciplina dei sistemi esperti deve soddisfare tre requisiti fondamentali: (1)
adeguatezza ontologica, ovvero consentire di descrivere i fatti rilevanti; (2) adeguatezza
epistemologica, ovvero consentire di esprimere la conoscenza rilevante; (3) adeguatezza euristica,
ovvero consentire di compiere le inferenze rilevanti. Cosi' l'Intelligenza Artificiale puo' essere
definita come la disciplina che studia cosa puo' essere rappresentato in modo formale
(epistemologia) e come cio' possa essere elaborato da una macchina (euristica). McCarthy, in
particolare, ritiene che il linguaggio della Logica soddisfi questi requisiti, ovvero che consenta di

esprimere tutto cio' che conosciamo e che consenta di eseguire calcoli su cio' che viene cosi'
espresso. In effetti la conoscenza cosi' "rappresentata" costituisce di fatto un sistema formale di
assiomi, a partire dai quali e' possibile dimostrare dei teoremi. Ogni insieme di conoscenza diventa
pertanto una teoria.
McCarthy postula pero' che la forma di questa teoria sia indipendente dai teoremi che essa deve
essere in grado di dimostrare e dal contesto (per esempio, gli indexicali "qui" e "adesso" non sono
permessi). L'obiezione di Green a questo programma e' che la conoscenza non puo' essere
indipendente dal contesto, ovvero che esiste una profonda interdipendenza fra ontologia e funzione:
modi logicamente equivalenti di rappresentare il mondo possono non essere funzionalmente
equivalenti. La rappresentazione del mondo dipende da quale problema si deve risolvere. Per
esempio, a seconda dell'ordine in cui sono elencati gli assiomi di una teoria un teorema puo' essere
dimostrabile o meno all'interno di tale teoria.
La Conoscenza, fra l'altro, non e' meno elusiva dell'Intelligenza. Anche per la conoscenza esistono
diverse definizioni, tutte piu' o meno vaghe.
Newell definisce "conoscenza" cio' che puo' essere utilizzato da un agente per determinare il
proprio comportamento in base al principio di razionalita'.
Dretske dice che un agente A "conosce" che p se avere l'informazione che p lo porta a "credere" che
p. Il concetto di informazione a cui si ispira Dretske e' quello di Shannon. Dretske mette pertanto in
relazione "informazione", "conoscenza" e "credenza" (o convinzione, comunque si voglia tradurre
"belief").
Secondo Barwise, invece, per il quale alcune credenze contengono informazione per l'agente che le
crede, mentre altre no, e' meglio parlare di credenze che "contengono" informazione piuttosto che di
credenze che sono causate dall'informazione. Pertanto: A conosce che p se A ha una credenza che p
e quella credenza che contiene informazione su p. Io ho conoscenza che Vincenzo e' sposato con
Giusi perche' credo che Vincenzo sia sposato con Giusi e li ho visti sposarsi: la mia credenza
contiene l'informazione che Vincenzo si e' sposato e costituisce pertanto conoscenza. La differenza
fra conoscere e credere e' cruciale: se io non avessi l'informazione che Vincenzo e Giusi si sono
sposati, continuerei ovviamente a credere che lo sono come l'ho sempre creduto, ma non ne avrei la
conoscenza.
La cognizione come esperienza
Riprendendo un po' della fenomenologia di Heidegger e un po' della biologia cognitiva di Maturana,
Winograd nega che l'intelligenza sia dovuta a processi come quelli dei sistemi di produzione. I
sistemi "intelligenti" non possono permettersi il lusso di riflettere quando devono prendere decisioni
nella vita quotidiana: agiscono, e basta. Se e quando l'azione non da' il risultato atteso, allora e solo
allora ha senso riflettere sulla situazione, decomporla nei suoi costituenti elementari, e tentare di
derivare l'azione da un ragionamento; ma questo e' un atteggiamento piu' tipico del novizio che non
dell'esperto.
Ryle distingueva fra conoscenza "di come" e conoscenza "che": so che Cinzia e' la moglie di Dario;
so come scrivere libri. I sistemi di produzione tentano di assimilare il secondo tipo di conoscenza al

primo: tramite un insieme di "so che" generano il "so come". Dreyfus obietta che soltanto i novizi si
comportano cosi'. L'esperto e' invece colui che ha sintetizzato la sua esperienza in un
comportamento inconscio che reagisce istantaneamente a una situazione nel suo complesso;
l'esperto sa "come" fare, e quel "come fare" dell'esperto non e' decomponibile in tanti "so che".
Smolensky distingue fra un "interprete di regole" che agisce a livello conscio e un "elaboratore
intuitivo" che agisce a livello inconscio: per esempio, un giocatore di scacchi alle prime armi usa
principalmente le regole che gli sono state insegnate, ma con l'esperienza costruisce un processore
intuitivo che gli consente invece di "vedere" subito quale mossa compiere.
Sulla base di esperimenti neurologici e psicologici, Neisser sostiene che esistono due sistemi
percettivi distinti, uno per la percezione "diretta" (dedicato a determinare la posizione e la forma
degli oggetti circostanti in funzione del movimento che essi consentono di compiere) e uno per il
riconoscimento (che classifica gli oggetti sulla base di una loro rappresentazione mentale). Il primo
funziona come una risonanza a delle caratteristiche che sono invarianti; il secondo accumula invece
evidenza finche' individua la categoria corretta.
I sistemi di produzione pongono l'enfasi sulla "conoscenza", non sull'"esperienza": e' l'esperienza,
invece, ad essere un fenomeno biologico ben definibile, mentre "conoscenza" e' un termine vago e
probabilmente improprio per definire uno dei prodotti dell'esperienza.
La cognizione come razionalita'
Parafrasando Claparede, la razionalita' e' l'insieme dei modi in cui l'organismo si adatta al proprio
ambiente.
Cio' che comunemente intendiamo con "istinto" non e' spesso il bagaglio genetico ereditario, ma
piu' semplicemente, da un punto di vista comportamentale, la capacita' di reagire istantaneamente a
una situazione. E' il rapporto fra percezione e azione che definisce quando il comportamento viene
considerato "istintivo": quando la percezione sembra dar luogo direttamente a un'azione, si tende a
usare l'espressione "agire d'istinto".
Il buon senso, per esempio, non provoca necessariamente un'azione d'istinto. Spesso siamo
combattuti fra cio' che ci consiglia il buon senso e cio' che desideriamo fare. Il buon senso mi
consigliava di non prendere in giro i Filosofi, la cui sportivita' e' proverbiale, ma la tentazione di
scrivere un'introduzione sarcastica era troppo forte: non solo ho compiuto l'azione opposta a quella
che il buon senso mi consigliava, ma per decidere di compierla ho dovuto meditare a lungo.
In altri casi, invece, la percezione di una situazione da' subito luogo a un'azione.
Selz, come Peirce, e' un inmportante precursore dell'Intelligenza Artificiale. A lui si deve infatti
l'intuizione dello "schema": nel mondo reale risolvere un problema significa riconoscere che quel
problema e' descritto da uno schema e colmare le lacune di tale schema. Dato il problema, il sistema
cognitivo cerca nella memoria a lungo termine uno schema che lo rappresenti; trovato lo schema
giusto, l'informazione in eccesso contiene la soluzione. Per Selz uno schema e', pertanto, una rete di
concetti che organizza le esperienze passate. La rappresentazione dell'esperienza presente e' uno

schema parzialmente completo. Dal confronto fra le due rappresentazioni si puo' "inferire" qualcosa
relativamente alla situazione presente. Per esempio, un mio schema puo' essere relativo a come
viene l'idea di scrivere un libro: "1. l'argomento e' suggestivo; 2. io sono al corrente delle ricerche in
questo campo; 3. manca un libro che riassuma i risultati piu' recenti di queste ricerche; 4. c'e' un
editore interessato a un libro che tratti di questo argomento; 5. io scrivo il libro"; qualche settimana
fa mi sono reso conto che 1. la musica classica degli ultimi anni ha prodotto delle opere
straordinarie; 2. io sono un appassionato di musica moderna; 3. non esiste un libro che tratti la
musica degli ultimi cinquant'anni; 5. io sono interessato a scrivere il libro; se ne puo' concludere che
sto cercando l'editore interessato a pubblicare un simile libro.
Grazie al carattere "anticipatorio" dello schema (nel senso che permette di "prevedere" come la
situazione si debba completare), "risolvere" un problema equivale a "comprenderlo"; e
"comprendere" significa, in ultima analisi, ricondurre la situazione presente a una situazione gia'
nota del passato.
Lo schema, come ha osservato Neisser, puo' anche spiegare come l'organismo raccolga
nell'ambiente l'informazione disponibile. Fra percezione e azione esiste una relazione diretta molto
esplicita.
Lo schema rende conto del comportamento adattativo pur conservando la preminenza dei processi
cognitivi.
Un tipo particolare di schema e' il "frame" di Minsky, tramite il quale e' possibile rappresentare una
situazione stereotipato. Minsky fa notare che il cervello utilizza scorciatoie che esulano dalla Logica
Matematica, e che anzi spesso ne violano gli stessi principi fondamentali; ma cio' non toglie che il
cervello riesca a trovare soluzioni perfettamente funzionali in tempi brevissimi a problemi di grande
complessita', come quello di riconoscere il mio amico Vincenzo che sta passeggiando in mezzo alla
folla, indossa un vestito nuovo e si e' tagliato la barba. .sp 5
FIGURA 5 .sp 5
L'idea di Minsky e' che in ogni situazione la memoria reperisca un "pacchetto" di informazioni tale
da consentirle di "comprendere" quella situazione. "Comprendere" significa pertanto "riconoscere".
Minsky porta l'esempio di una persona che entri per la prima volta in una stanza: dopo qualche
secondo di incertezza incomincera' a compiere con disinvoltura le azioni che e' normale compiere in
una stanza (entrare, uscire, guardare dalla finestra e cosi' via). Tutto cio' che deve fare e' reperire il
pacchetto appropriato per la situazione "stanza": in quel pacchetto e' "scritto" cosa capita e come ci
si comporta in una stanza. In altre parole la memoria conterrebbe un reticicolo di "pacchetti", o
"frame", ciascuno relativo a una delle categorie note. Ogni percezione seleziona un frame (classifica
la situazione corrente in una categoria) che deve poi essere "adattato" a quella percezione; e cio'
equivale a "interpretare" la situazione e decidere quale azione compiere. Il "ragionamento" consiste
pertanto nell'adattare un frame a una situazione: la conoscenza impone coerenza all'esperienza.
A conferma dell'idea di Minsky, Bartlett aveva fatto notare quanto piu' facile sia riconoscere un

oggetto nel suo contesto tipico che in un contesto anomalo (per esempio, un pallone in un negozio
di articoli sportivi piuttosto che un pallone in un negozio di frutta): nel primo caso la situazione e'
stereotipica, ovvero e' codificata in un pacchetto ed e' facile da comprendere.
Il primo vantaggio dell'approccio di Minsky e' computazionale: il frame consente di ragionare sulla
situazione senza prendere in considerazione l'intero scibile dell' universo, ma soltanto le
informazioni rilevanti alla situazione, e senza impiegare complesse tecniche di Logica Matematica,
bensi' soltanto banali operazioni di confronto fra pacchetti; e questo spiegherebbe la rapidita' della
mente umana.
Il modello di Minsky e' poi anche biologicamente plausibile poiche' non separa fenomeni cognitivi
che non sembrano infatti essere separati: siccome classificare una percezione in una categoria
significa riconoscere quella percezione ed equivale a comprendere quella situazione, e siccome
confrontare su una percezione con il prototipo di quella categoria significa ragionare su quella
percezione, i fenomeni di "percepire", "riconoscere", "comprendere" e "ragionare" risultano essere
aspetti diversi dello stesso fenomeno. Anche il fatto che la capacita' inferenziale di cui e' dotato il
sistema sia distribuita all'interno del sistema stesso (in tutti i suoi frame), piuttosto che essere
concentrata in un "motore" logico, e' piu' coerente con i dati neurofisiologici.
Un frame e' la descrizione di una categoria tramite un suo membro prototipo (ovvero le sue
proprieta', comprese le relazioni con altri prototipi) e tramite un elenco di azioni che possono essere
compiute per i membri di quella categoria.
Ogni altro membro della categoria puo' essere descritto da un frame che ricopia le proprieta' del
prototipo e ne personalizza alcune. Un prototipo puo' essere visto come un insieme di proprieta'
stereotipiche, o "di default", che sono vere salvo controindicazioni: per esempio, Vincenzo ha la
barba, a meno che' non se la sia tagliata. I valori stereotipici esprimono indirettamente una
mancanza di informazione: mentre nella Logica classica la conoscenza del sistema e' irreversibile e
l'ignoranza del sistema da' luogo a una falsita', nel mondo dei frame la conoscenza del sistema puo'
aumentare (un valore incognito puo' essere specificato in qualsiasi momento) e l'ignoranza del
sistema viene ovviata con valori stereotipici.
Un frame fornisce di fatto rappresentazioni multiple dell'oggetto che rappresenta: quella
tassonomica (espressa sostanzialmente tramite una congiunzione di regole di classificazione), quella
descrittiva (espressa tramite la congiunzione di proposizioni sui valori di default), quella funzionale
(espressa tramite una proposizione sui predicati ammessibili).
Data una situazione non basta, in generale, un solo frame e deve peranto esistere un criterio per
determinare l'insieme "migliore" di frame relativo a una data situazione. Secondo Wilensky
vengono impiegati diversi criteri: di coerenza (non devono esservi contraddizioni fra la situazione e
i prototipi dei vari frame), concrezione (ciascun frame deve essere il piu' "particolare" possibile di
quelli che sono coerenti con la situazione), completezza (i frame nel loro complesso devono rendere
conto dell'intera situazione) e minimalita' (devono essere il piu' piccolo insieme possibile che
soddisfa i criteri precedenti).
In realta' Hayes ha dimostrato che il linguaggio dei frame (escluso il ragionamento stereotipico)

puo' essere ridotto a una variante notazionale della logica dei predicati. Un frame e' infatti una minilogica (una microteoria) concepita su misura per una situazione e, relativamente a quella situazione,
consente pertanto di compiere inferenze in maniera molto rapida. Il ragionamento stereotipico dei
default contraddice invece la monotonicita' della Logica classica.
Lo script di Schank e' una variante "sociale" del frame di Minsky. Anche lo script rappresenta
conoscenza stereotipica relativa a situazioni, ma la specializza in due tipi di conoscenza: una
sequenza di azioni e un insieme di ruoli. Una volta riconosciuta la situazione, ovvero il relativo
script, tramite la sequenza di azioni e' possibile "prevedere" cosa succedera', e tramite i ruoli e'
possibile determinare gli oggetti presenti nella situazione e la loro funzione. Il ragionamento e'
pertanto "anticipatorio", ovvero consiste nell'"aspettarsi che succedano certe cose", nel mettersi in
attesa di certi eventi. Ancora una volta il primo vantaggio di questo modello e' computazionale:
sapendo cosa sta per succedere, sara' ovviamente piu' facile comprendere cosa succedera'.
Uno script puo', per esempio, specificare la sequenza di azioni per pubblicare un libro (avere l'idea,
sottoporre l'idea, ottenere un contratto, scrivere, consegnare il manoscritto, correggere le bozze,
stampare, distribuire, vendere, leggere) e l'insieme di ruoli relativi (autore, editore, distributore,
libraio, lettore). Nel momento in cui entro in uno script di questo tipo sapro' ad ogni passo come mi
aspetta dopo, e sara' pertanto facile capire cosa sta succedendo. La prima volta che scrissi un libro
fu certamente piu' difficile capire cosa succedeva intorno a me e perche' dovevo fare cio' che mi si
chiedeva di fare.
Rispetto a Minsky, Schank spiega anche come abbiano origine gli script, ovvero come funzioni la
"memoria degli eventi": ogni evento "compreso" contribuisce a riorganizzare le astrazioni relative
agli eventi passati, in modo che gli script da esse prodotte siano sempre piu' efficaci nel riconoscere
quel tipo di evento. Questa forma di apprendimento graduale procede per "somiglianze": cio' che
viene ricordato sono le somiglianze fra eventi diversi, le quali, opportunamente astratte, formano gli
script e altre strutture di memoria piu' complesse. Viene creata una nuova struttura di memoria
quando nessuna delle strutture esistenti e' capace di interpretare l'evento.
La memoria del modello di Schank e' pertanto sintattica (episodica) e dinamica (adattativa). La
memoria ha due funzioni: una passiva, che e' quella di ricordare, e una attiva, che e' quella di
prevedere. La comprensione del mondo e la sua categorizzazione procedono simultaneamente.
Tanto il frame di Minsky quanto lo script di Schank sono compatibili con l'ipotesi dei moduli di
Fodor.
La cognizione come manipolazione di modelli
Non tutte le teorie rappresentazionali assumono che la rappresentazione mentale del mondo
avvenga tramite un linguaggio. Sia Johnson-Laird sia Kosslyn, ispirandosi alle idee di Craik,
suppongono che la mente rappresenti e manipoli (rispettivamente) "modelli" del mondo oppure
immagini mentali. Entrambi ritengono che normalmente la mente risolva i problemi senza far uso di
inferenze, e pertanto una rappresentazione linguistica sarebbe soltanto d'impaccio.
Secondo Johnson-Larid, un'inferenza e' valida se, quando le sue premesse sono vere, le sue
conclusioni non possono essere false; pertanto per costruire un'inferenza valida occorre immaginare

la situazione descritta dalle premesse, ovvero costruire un modello mentale di tale situazione sulla
base del significato delle premesse (e non soltanto della loro forma sintattica); poi formulare una
conclusione che sia vera in quella situazione; e infine verificare se esiste un modello mentale della
stessa situazione in cui quella conclusione e' falsa. Se non esiste, la conclusione e' valida. In
generale, quando la situazione e' complessa, e' difficile costruire tutti i modelli possibili, e pertanto
la conclusione non sara' "certamente" valida, ma "forse" valida. E questo riflette il comportamento
della gente comune.
I modelli che la mente formula sono delle utili semplificazioni della realta'. Che quelle
semplificazioni possano rendere conto di un comportamento razionale, benche' trascurino molta
dell'informazione presente nel mondo, e' dimostrato da alcuni esempi ben noti di modelli. Si pensi
al caso dei numeri: l'umanita' usa comunemente i numeri senza bisogno di conoscere tutte le
proprieta' dei numeri, senza avere in testa un modello formale dell'intera aritmetica (che, tra l'altro,
non sarebbe in ogni caso possibile per il teorema di Godel).
Johnson-Laird studia in particolare l'inferenza deduttiva, quella su cui riposa la gloria della Logica
Matematica; ma non tanto il fatto che la gente sappia compiere deduzioni, quanto il fatto che la
gente le sbagli spesso (e diverse persone possono persino sbagliare in modo diverso). Se la mente
avesse al suo interno una "logica mentale", come postulato un po' da tutti da Frege a Piaget, non si
farebbero errori. In realta' e' facile dimostrare che le gente non usa la logica quando compie
ragionamenti: a parte qualche matematico che soffre di deformazione professionale, quasi tutti
siamo piu' bravi a risolvere un quiz espresso con una storia (per esempio, se un biglietto per il
cinema costa diecimila lire e ne compro sei pagando con un biglietto da centomila, e' facile
calcolare che mi aspetto quarantamila lire di resto) che non l'equivalente problema matematico
espresso in formule (quanto fa 100.000-(10.000x6)?).
La gente costruisce modelli del mondo, e nel costruire quei modelli puo' dimenticare qualcosa che e'
cruciale per spiegare la situazione. Da un lato il possedere dei modelli rende piu' rapida la soluzione
dei problemi, dall'altro puo' indurre in errore.
Johnson-Laird prova che la mente non puo' avere una logica mentale (o perlomeno che nessuno sa
spiegare ne' come quella logica mentale sorga nella mente ne' come sia realizzata ne' come possa
sbagliare ne' perche' persone diverse sbagliano in modo diverso) e che invece un ragionamento
basato sui modelli sarebbe coerente con il comportamento della gente.
In particolare Johnson-Laird risolve il paradosso dell'acquisizione delle capacita' inferenziali: come
fanno i bambini ad imparare a ragionare se non sanno ancora ragionare? Soltanto ragionando e'
possibile imparare gli elementi che servono per poter ragionare! Nella logica dei modelli mentali
non servono regole di inferenze, e pertanto non c'e' bisogno di spiegare come queste vengano
acquisite. I bambini ragionano costruendo modelli del mondo, e con il tempo imparano a costruire
modelli sempre piu' complessi. E questo rende conto dello sviluppo cognitivo.
Estendendo un'intuizione di Paivio, secondo il quale devono esistere due tipi di rappresentazione
diversi, uno verbale e uno visivo (in corrispondenza isomorfa con la percezione visiva), JohnsonLaird ipotizza che la mente utilizzi in realta' tre tipi di rappresentazione: "proposizioni" (che
rappresentano il mondo attraverso sequenze di simboli), modelli mentali (che sono strutturalmente
analoghi al mondo) e "immagini" (che sono i correlati percettivi dei modelli).

I modelli mentali consentono di rappresentare le situazioni e di ragionare senza far uso della logica;
ma per costruire interpretazioni alternative e' necessario far ricorso alle proposizioni. Il significato
di una frase non puo' prescindere da quello dell'intero discorso, e questo e' dato dal modello mentale
che ha costruito. Una frase non e' altro che una procedura per costruire, modificare, estendere un
modello mentale. il modello mentale di un discorso esibisce una struttura che corrisponde
direttamente alla struttura del mondo descritto dal discorso. .sp 5
FIGURA 6 .sp 5
Le immagini sono semplicemente un modo particolare di "guardare" ai modelli: rappresentano le
caratteristiche percepibili dei corrispondenti oggetti del mondo reale.
Modelli, immagini e proposizioni sono funzionalmente e strutturalmente diversi: per esempio, una
rappresentazione proposizionale ha una struttura sintattica arbitraria, mentre un modello rispecchia
la struttura del mondo; i modelli e le immagini sono specifici (posso immaginare un triangolo, ma
non il "triangolo" in generale), mentre le proposizioni possono essere universali; e cosi' via.
Le espressioni linguistiche vengono trasformate in rappresentazioni proposizionali, ovvero in
espressioni del linguaggio mentale; la semantica del linguaggio mentale fa poi corrispondere
rappresentazioni proposizionali a modelli mentali, ovvero le rappresentazioni proposizionali
vengono interpretate rispetto a modelli mentali.
In questo schema Johnson-Laird riesce a spiegare anche le inferenze "implicite", che sono quelle
compiute piu' o meno irrazionalmente e istantaneamente e sono forse la maggioranza. Per esempio,
se sto male di stomaco dopo aver mangiato in un certo ristorante e' probabile che attribuiro' al cuoco
di quel ristorante la responsabilita' del mio malore, e lo faro' nel momento stesso in cui comincio a
stare male. E' possibile che esistano molte altre spiegazioni razionali che assolverebbero il cuoco,
ma e' per me "istintivo" assumere che quella sia la spiegazione. Queste inferenze "implicite" fanno
riferimento a un modello mentale unico, a differenza di quelle "esplicite", come i problemi di
aritmetica, nelle quali occorre riflettere, ovvero costruire diversi modelli e integrarli fra di loro.
Nella teoria di Johnson-Laird inferenze esplicite (ragionamento classico) e implicite (ragionamento
del senso comune) trovano pertanto una naturale unificazione.
La cognizione come adattamento all'ambiente
I sistemi che sono capaci di un comportamento razionale in ambienti dinamici e imprevedibili,
ovvero di calcolare le proprie azioni con risorse computazionali limitate, ovvero di complementare
la propria conoscenza con l'informazione che e' disponibile nell'ambiente, vengono chiamati "agenti
situati". Il compito piu' difficile per un agente situato e' quello di reagire al cambiamento, e di
reagire in un modo che sia razionale (tempestivo ed appropriato), pena l'estinzione. Per compiere le
operazioni piu' banali della vita quotidiana, un agente dovrebbe in effetti possedere una quantita'
spaventosa di conoscenza e al tempo stesso riuscire a elaborare quella conoscenza in una frazione di
secondo; questi due requisiti sono ovviamente conflittuali. L'unico modo di ovviare a tale
inconveniente e' di conferire maggiore enfasi sull'interazione fra un agente e il suo ambiente, come
hanno fatto prima Rosenschein e poi Brooks.

A differenza dei sistemi di produzione, gli agenti situati non sono dotati di conoscenza. La loro
memoria non e' piu' il luogo delle rappresentazioni, ma e' semplicemente il luogo in cui viene
generato il comportamento.
Brooks ha proposto una architettura "subsumzionale" (subsumption architecture) nella quale il
comportamento dei sistemi cognitivi e' dettato prevalentemente dalla struttura dell'ambiente in cui
tali sistemi agiscono. Cio' che viene rappresentato non e' il mondo, ma come operare nel mondo. La
mente non ha bisogno di rappresentare un certo problema, ma soltanto di rappresentare come si
risolve quel particolare problema.
Nell'architettura di Brooks non esiste un posto di comando centralizzato che coordini le attivita' del
sistema cognitivo, ma esistono tanti centri decisionali che operano in parallelo, ciascuno adibito a
svolgere un compito ben preciso. Il sistema non possiede pertanto la rappresentazione esplicita di
cosa stia facendo: possiede diversi processi che operano in parallelo, ciascuno dei quali rappresenta
soltanto il proprio, limitatissimo, obiettivo. Il sistema si decompone, cioe', in strati di
comportamenti orientati ad eseguire dei compiti (ovvero ogni strato e' una rete di automi a stati
finiti), e si compone in maniera incrementale attraverso una verifica con il mondo reale. Nella teoria
rappresentazionale, invece, un sistema viene decomposto secondo le funzioni cognitive (memoria,
ragionamento, apprendimento, etc).
Per esempio, una delle "Creature" (robot) costruite da Brooks esplora il mondo in cui vive: il primo
strato e' costituito da tutti i comportamenti necessari per evitare ostacoli, il secondo strato e'
costituito da tutti i comportamenti necessari per andare a visitare luoghi visibili. I due strati sono
attivi contemporaneamente, e del tutto ignari l'uno dell'altro, ma la loro azione combinata risulta in
un'attivita' di esplorazione "intelligente" da parte del robot.
Un organismo artificiale deve saper rispondere in tempi ragionevoli e nel modo appropriato a
cambiamenti nel suo ambiente; deve sapersi adattare a cambiamenti delle proprieta' di quel suo
ambiente; deve saper approfittare di circostanze favorevoli; deve avere uno scopo.
Brooks critica qualunque tentativo di costruire sistemi intelligenti che siano isolati dal mondo. Ha
senso soltanto costruire sistemi che vivono nel mondo, che elaborano percezioni e compiono azioni.
Per questi sistemi rappresentare il mondo costituisce addirittura un ostacolo alla sopravvivenza!
L'unico modo di sopravvivere nel mondo e' quello di usare il mondo cosi' com'e', e non una sua
rappresentazione. Nel mondo reale non esiste una chiara divisione fra percezione, ragionamento e
azione.
Brooks si ispira all'ecologismo di Gibson, secondo il quale l'ambiente corretto per una teoria
dell'azione non e' quello astratto degli oggetti e delle loro relazioni, ma quello reale delle forme e
dei colori che il sistema percettivo ci propone. Anzi: percezione e azione non sono processi distinti.
Gli organismi si muovono nel mondo usando l'informazione che e' presente nel mondo. Il sistema
percettivo si e' adattato a quei cambiamenti che sono rilevanti ai fini dell'azione.
Cosi' un organismo che deve evitare un ostacolo non ha bisogno di rappresentare internamente la
situazione del mondo con se stesso e quell'ostacolo per rendersi conto che si trova in rotta di
collisione e per calcolare poi come cambiare traiettoria; puo' semplicemente calcolare che deve

spostarsi sulla base della propria velocita', senza alcun bisogno di costruire un modello del mondo.
Il modello del mondo e' dato dal mondo stesso. Per esempio, per afferrare un oggetto, l'organismo
non ha bisogno di costruire un modello matematico del mondo e di calcolare la sequenza di azioni
da compiere per spostare la mano in modo che alla fine la mano afferri l'oggetto; basta allungare la
mano fino a quando entri in contatto con l'oggetto e poi lasciare che sia la mano a determinare come
afferrare l'oggetto.
Quella che Brooks propone e' una rivoluzione tolemaica: invece di mettere la mente al centro
dell'universo, la mente diventa uno dei tanti agenti immerso nell'ambiente, e l'ambiente diventa uno
spazio di possibili azioni. L'ambiente non e' una struttura statica composta di oggetti e relazioni fra
oggetti, ma una struttura dinamica che cambia man mano che l'organismo agisce/reagisce in essa;
azione e percezione sono due facce della stessa medaglia. Al tempo stesso l'organismo non possiede
un sistema centralizzato di controllo, la mente, ma un insieme di sistemi di controllo, ciascuno
capace di svolgere autonomamente la propria funzione.
Per Brooks il comportamento "intelligente" puo' essere partizionato in un insieme di attivita' che
vanno dal camminare al mangiare, ciascuna delle quali necessita di un proprio meccanismo di
percezione e di controllo e puo' funzionare in parallelo e asincronamente con tutte le altre. Un
organismo (o "creatura") puo' essere costruito in maniera incrementale aggiungendo gradualmente
nuove attivita'. Nel mondo e' presente tutta l'informazione necessaria per svolgere un'attivita', e
pertanto non e' necessario (e' anzi dannoso) conservare una rappresentazione del mondo. Il mondo
e' una specie di memoria esterna dell'organismo, dalla quale l'organismo puo' reperire attraverso la
percezione tutta l'informazione che gli serve. Ogni attivita' necessita soltanto di qualche
informazione, fra tutta quella disponibile nel mondo, e la percezione e' in grado di reperire proprio
quella e solo quella senza dover analizzare tutto il mondo.
La cognizione sarebbe pertanto una specie di cinematica razionale.
In un certo senso Brooks ha semplicemente fatto notare che tutti i sistemi intelligenti di cui siamo a
conoscenza hanno un corpo! Grazie al corpo possono percepire il mondo e possono agire sul mondo
in maniera diretta.
La cognizione come interazione con l'ambiente
Per Maturana e' la relazione con l'ambiente a determinare la configurazione del sistema cognitivo di
un organismo. E' allora fondamentale il processo tramite il quale ogni organismo e' in grado di
riorganizzare di continuo la propria struttura: l'"autopoiesi". L'adattamento, per esempio, consiste
nel rigenerare la struttura dell'organismo in modo che il suo rapporto con l'ambiente rimanga
costante. Un organismo e' pertanto una struttura in grado di rispondere all'ambiente, e lo stimolo e'
la parte di ambiente che viene assimilata nella sua struttura.
Maturana pensa che il comportamento intelligente sia originato da processi estremamente semplici e
per nulla intelligenti: la cellula vivente non e' nulla di speciale, ma molte cellule viventi a contatto
diventano un sistema complesso per via dell'autopoiesi. Secondo Kuppers tutti i fenomeni della vita,
come il metabolismo e l'ereditarieta', possono essere ricondotti all'interazione fra macromolecole
biologiche, ovvero alle leggi della Fisica e della Chimica, e, in particolare, la cellula vivente ha
avuto origine dall'applicazione iterativa delle stesse regole fondamentali che presiedono a tutti i
fenomeni chimici e fisici. Maturana suppone che gli organismi multi-cellulari nascano quando due o

piu' unita' autopoietiche (a cominciare da due o piu' cellule) entrano in una interazione che avviene
piu' sovente delle interazioni di ciascuna con il resto dell'ambiente (quando cioe' si verifica un
"accoppiamento strutturale"). E' in questo modo che elementi inerti diventano macromolecole, che
le macromolecole diventano cellule organiche, e cosi' via fino agli organismi cellulari e poi agli
esseri intelligenti. Tutto cio' che serve sono soltanto le leggi della Fisica e della Chimica e la legge
dell'evoluzione di Darwin. Le strutture che vengono effettivamente costruite sono quelle che hanno
senso nell'ambiente.
Nell'ottica di Maturana la cognizione e' un fenomeno puramente biologico: gli organismi non fanno
alcun uso di strutture rappresentazionali, bensi' il loro comportamento "intelligente" e' dovuto
unicamente al cambiamento continuo del sistema nervoso indotto dalla percezione. L'intelligenza e'
azione. Il ricordo, per esempio, non e' qualcosa di astratto, ma semplicemente la capacita' di
generare il comportamento che meglio si accoppia con una situazione ricorrente dell'ambiente.
Anche Prirogine ha spostato l'enfasi dai processi di organizzazione a quelli di auto-organizzazione,
sottolineando come questi processi siano fondamentali per l'intero universo fisico. In questo
scenario non e' piu' lo stato di equilibrio a determinare la dinamica del sistema, ma quegli stati
stazionari che fungono da stati di equilibrio relativo, suscettibili di sempre ulteriore evoluzione
nell'ambito di un disordine perenne. E' il disordine a causare l'auto-organizzazione spontanea. La
vita sarebbe allora perfettamente inserita nello schema generale: in condizioni di non equilibrio la
vita risulta essere quasi una conseguenza inevitabile delle leggi fisiche, tanto quanto il fatto che la
Terra giri attorno al Sole. Mentre i processi reversibili della Fisica sono riconducibili alla
termodinamica degli stati d'equilibrio, fenomeni altrettanto naturali come la costruzione di forme e
la creazione di ordine necessitano pertanto di una termodinamica dei processi irreversibili lontani
dagli stati di equilibrio. Processi come quello della vita non sarebbero possibili se non venissero
sempre mantenuti lontano dallo stato d'equilibrio. La scienza tradizionale (quella dell'equilibrio, dei
processi reversibili) ha per oggetto tutto cio' che e' morto. Una scienza dei sistemi "dissipativi"
potrebbe invece rendere conto di tutto cio' che e' vivo. .sp 5
Bibliografia:
Ashby R. (1956): An introduction to cybernetics (Chapman & Hall)
Barwise J. (1983): Situations and attitudes (MIT Press)
Brooks R. (1991): Intelligence without representation
(Artificial Intelligence n.47 p. 139)
Brooks R. (1991): Intelligence without reason (Proc IJCAI)
Chomsky N. (1975): Reflections on language (Pantheon)
Church A. (1941): Calculi of lambda conversion (Princeton Univ Press)
Craik K. (1943): The nature of explanation (Cambridge Univ Press)
Dretske F. (1981): Knowledge and the flow of information (MIT Press)
Dretske F. (1985): Machines and the mental (Proc. American Philosophical
Association p.23)
Dreyfus H. (1979): What computers can't do (Harpers & Row)
Fodor J. (1983): Modularity of mind (MIT Press)

Gibson J. (1979): The ecological approach to perception (Houghton Mifflin)


Green C. (1969): Application of theorem proving to problem solving
(Proc. IJCAI p.219)
Hayes P. (1981): The logic of frames (in Brachman R.:
Readings in Knowledge Representation, ed. Morgan Kaufman)
Jackson F. (1982): Epiphenomenal qualia (Philosophical Quarterly n.32 p.127)
Johnson-Laird P. (1983): Mental models (Harvard Univ Press)
Kosslyn S. (1983): Ghosts in the mind's machine (W. Norton)
Lucas J. (1961): Minds, machines and Godel (Philosophy n.36 p.112)
Maturana H. (1980): Autopoiesis and cognition (Reidel)
Maturana H. e Varela F. (1987): The biological roots of human understanding
(New Science Library)
McCarthy J. (1958): Programs with common sense
(in Minsky M.: Semantic information processing, ed. MIT Press)
McCarthy J. (1969): Some philosophical problems from the standpoint of
Artificial Intelligence (Machine Intelligence n.4 p.463)
McCarthy J. (1956): Inversion of functions defined by Turing machines
(Automatic Studies)
Minsky M. (1968): Semantic information processing (MIT Press)
Neisser U. (1966): Cognitive psychology (Appleton-Century-Crofts)
Neisser U. (1987): Concepts and conceptual development (Cambridge Univ Press)
Neisser U. (1975): Cognition and reality (Freeman)
Newell A. & Simon H. (1972): Human Problem Solving (Prentice-Hall)
Newell A. (1990): Unified theories of cognition (Harvard Univ Press)
Paivio A. (1971): Imagery and verbal processes (Holt Rinehart & Winston)
Penrose R. (1989): The emperor's new mind (Oxford Univ Press)
Putnam H. (1988): Representation and reality (MIT Press)
Rosenschein S. (1985): Formal theories of knowledge (SRI Report)
Ryle G. (1949): The concept of mind (Barnes & Noble)
Schank R. (1975): Conceptual information processing (North Holland)
Schank R. (1982): Dynamic memory (Cambridge Univ Press)
Schank R. (1989): Inside case-based reasoning (Lawrence Erlbaum)
Searle J. (1984): Mind, brains and science (BBC Publications)
Shannon C. & Weaver W. (1949): The mathematical theory of communication
(Univ of Illinois Press)
Simon H. (1962): The architecture of complexity (Proc of the American
Philosophical Society n.26 p.467)

Simon H. (1969): The sciences of the artificial (MIT Press)


Smolensky P. (1988): On the proper treatment of connectionism
(Behavioral and brain sciences n.11 p.1)
Turing A. (1992): Mechanical Intelligence (Elsevier Science)
Von Neumann J. (1958): The computer and the brain (Yale Univ Press)
Wiener N. (1948): Cybernetics (John Wiley)
Wilensky R. (1983): Planning and understanding (Addison Wesley)
Winograd T. & Flores F. (1986): Understanding computers and cognition (Ablex)

La scienza del buon senso


Il mondo degli uomini
Nel corso dei secoli gli studi sulla mente sono stati compiuti da due punti di vista: quello
psicologico (di come si comporta la mente) e quello matematico (di quali teorie formali possono
rendere conto di quel comportamento). In entrambi i casi la tradizione era quella della scienza
"descrittiva", non quella della scienza "prescrittiva", ovvero dell'ingegneria. La necessita' di
costruire macchine, e non soltanto teorie, ha fatto sorgere l'esigenza di affrontare il problema anche
da un'ottica ingegneristica. Lo stesso approccio che vale per costruire macchine meccaniche ed
elettriche deve essere applicato alle macchine del buon senso: studiare il campo, elaborare una
teoria descrittiva, tradurre la teoria descrittiva in una teoria normativa.

Naturalmente il paradosso insito in questo programma e' che la scienza moderna ha avuto origine
dalla scoperta che il mondo del buon senso non e' il mondo reale: non e' il Sole a girare attorno alla
Terra, come il buon senso ci farebbe credere, ma viceversa. I monumenti scientifici della nostra era,
la Relativita' Generale e la Meccanica Quantistica, sono entrambi due monumenti di violazioni del
senso comune.
Il paradosso e' soltanto apparente: una cosa e' impiegare il buon senso per capire com'e' fatto il
mondo reale, un'altra cosa e' utilizzare il buon senso per agire nel mondo reale. Non e' detto, cioe',
che l'azione discenda direttamente dalla rappresentazione del mondo reale. Una qualsiasi
rappresentazione, per esempio, non fa altro che trasformare il mondo reale in una forma che sia piu'
facile da manipolare. Ancora oggi le mappe geografiche sono bidimensionali benche' sia chiaro a
tutti che la Terra e' rotonda e qualunque rappresentazione bidimensionale e' pertanto imprecisa: cio'
non toglie che una cartina stradale offra il grande vantaggio di poter essere tenuta in mano mentre si
cerca una via guidando nel traffico caotico di Los Angeles, mentre un mappamondo non sarebbe
altrettanto pratico.
In generale e' plausibile che un agente razionale debba rappresentare internamente non tutto il
mondo ne' il mondo cosi' com'e' secondo la Fisica, ma soltanto un sotto-insieme del mondo e nel
modo che gli e' piu' comodo per farne l'uso che deve farne. D'altronde anche lo scienziato piu'
geniale evita accuratamente le formule chilometriche della Relativita' Generale e si accontenta della
Fisica naif del buon senso quando deve acciuffare al volo un prezioso vaso di porcellana che sta
precipitando al suolo. In certe situazioni cio' che conta e' il fine, non il mezzo.
Questa nascente "scienza del buon senso" deve descrivere e prescrivere come compiere inferenze su
tutto cio' di cui il buon senso fa cosi' buon uso: informazioni approssimate nonche' incomplete, fatti
che possono non essere veri o possono evolvere nel tempo, le analogie e le generalizzazioni.
Ma, se il senso comune ha come obiettivo primario quello di guidare l'agente cognitivo nel
compiere azioni razionali all'interno del suo mondo, conviene forse impostare questa scienza del
buon senso dal punto di vista proprio dell'azione.
Il Cambiamento
Uno dei compiti piu' difficili di un sistema cognitivo e' quello di capire come le proprie azioni
cambiano il mondo. Gli effetti sono molto piu' difficili da gestire che non le cause. Mentre, dato un
effetto, ci sono generalmente un numero finito di cause possibili (altrimenti non esisterebbe la
professione del medico e i criminali andrebbero in giro impuniti), una causa ha un numero
virtualmente infinito di effetti. Se una porta sbatte, immagino che qualcuno l'abbia chiusa o che due
imposte aperte facciano corrente. Se apro una porta, la quantita' di dettagli che cambia nel mondo e'
infinita: non solo cambiano la posizione della porta, la scena che vedo, la posizione della mia mano,
e cosi' via, ma cambiano anche gli infiniti punti che compongono la porta, la scena e la mia mano.
Un altro problema connesso con il cambiamento e' quello temporale: il cambiamento, il passaggio
da una situazione a un'altra, avviene gradualmente, anzi in maniera proprio continua. Se e' intuitivo
che sia possibile rappresentare l'inizio e la fine di un'azione, non e' altrettanto intuitivo come si
possa conservare traccia di tutte le infinite micro-transizioni che sono avvenute fra quell'inizio e
quella fine. Si puo' sostenere che un tale livello di dettaglio non serve, anzi potrebbe persino essere
dannoso; e forse e' vero; ma cio' non toglie che, se servisse, non sapremmo come fare. Il tempo e' in

effetti ancora un limite della nostra civilta'. Sappiamo come immortalare due situazioni: basta
prendere una fotografia di ciascuna; ma non abbiamo ancora inventato uno strumento per
immortalare la sequenza continua di situazioni che si succedono fra quelle due (il film non vale,
perche' i suoi fotogrammi sono sempre delle fotografie scattate a intervalli discreti di tempo). I
Matematici possono aver risolto i paradossi di Zenone, ma gli ingegneri ancora non hanno scoperto
come applicare quei risultati teorici alla realta' pratica.
Per rappresentare il cambiamento McCarthy introdusse un "calcolo delle situazioni", nel quale ogni
situazione puo' essere espressa tramite una formula della logica dei predicati del primo ordine. Le
relazioni causali fra due situazioni sono calcolabili allora con il calcolo dei predicati. Nel calcolo
delle situazioni la storia del mondo e' una successione parzialmente ordinata di stati e azioni: la
proprieta' degli stati e' la permanenza, la proprieta' delle azione e' il cambiamento; uno stato e' vero
in certe situazioni e falso in altre, un'azione puo' essere compiuta in certe situazioni e non in altre;
gli stati sono espressi tramite espressioni logiche che mettono in relazione alcuni oggetti in quello
stato, mentre un'azione viene espressa da una funzione che ad ogni stato fa corrispondere un altro
stato.
L'effetto
Il problema dei contorni ("frame problem"), formulato originariamente da McCarthy e gia' noto a
Peirce, consiste nel risolvere un apparente paradosso: ammesso che sia possibile rappresentare tutto
cio' che cambia per effetto di un'azione, non sembra possibile rappresentare tutto cio' che "non"
cambia per effetto di quell'azione, in quanto gli oggetti e le situazioni dell'universo sono ovviamente
infiniti. Se Dario regala un'auto a Cinzia, non e' cambiata la targa della mia auto, non e' cambiata
l'eta' di Brigitte Bardot, non e' cambiata la posizione geografica di Roma, non e' cambiato il nome di
mia madre, e cosi' via. Se la mente e il computer appartengono entrambi alla categoria dei sistemi di
credenze, devono saper entrambi risolvere questo problema.
Non e' possibile neppure rappresentare tutto cio' che cambia per effetto di un'azione. L'universo puo'
infatti essere rappresentato a diversi livelli di dettaglio, ed esiste sempre un dettaglio
sufficientemente piccolo per cui anche l'azione apparentemente piu' semplice ha un numero infinito
di conseguenze. Quando Dario regala un'auto a Cinzia, infiniti particolari dell'auto cambiano la loro
posizione nello spazio, infiniti dettagli cambiano nella vita del concessionario e in quella di Cinzia,
e cosi' via. Questo paradosso, complementare a quello del frame, e' detto di "ramificazione".
Infine il paradosso di "qualificazione" mette persino in dubbio che un sistema di convinzioni possa
rappresentare le stesse condizioni che permettono l'esecuzione di un'azione: esiste sempre un
numero infinito di condizioni che renderebbero impossibile l'azione, e pertanto le condizioni che
consentono quell'azione devono comprendere anche l'insieme infinito delle negazioni di quelle
altre. Dario puo' regalare l'auto a Cinzia se: ha i soldi, il concessionario e' aperto, Dario non si
rompe una gamba mentre si reca dal concessionario, un ladro non gli ruba i soldi, un terremoto non
distrugge la citta', uno sceicco non acquista prima di lui tutte le auto del mondo, e cosi' via.
Sono innumerevoli i casi in cui impieghiamo informazioni riguardo la persistenza degli oggetti e
delle situazioni. Per esempio, per aprire una porta, si puo' girare la maniglia o sfondarla con una
spallata; generalmente si preferisce il primo metodo poiche', una volta sfondata, una porta non e'
piu' una porta. Per esempio, se devo indicare la mia casa a un amico che deve venire a trovarmi, gli
do' come riferimento una descrizione della casa dei vicini, ma non una descrizione dell'auto dei
vicini, ben sapendo che la prima non si spostera' nei prossimi minuti, mentre la seconda potrebbe.

Se Dario ha dimenticato (come al solito) il portafoglio nell'auto e Cinzia ha preso l'auto per andare a
prendere Chiara dall'asilo, e' chiaro che il portafoglio si e' spostato con l'auto; per non parlare del
fatto che, se poi il portafoglio e' scomparso, Chiara sara' la principale indiziata. Queste azioni sono
naturali poiche' e' naturale stabilire cosa cambia e cosa no per effetto delle azioni. Ma un computer
che tentasse di simulare gli stessi comportamenti dovrebbe possedere una quantita' infinita di
informazioni.
La stragrande maggioranza della conoscenza che impieghiamo quotidianamente e' banale; ma e'
essenziale per compiere i nostri atti quotidiani. Ci capita raramente di dover dimostrare un teorema
di alta Matematica, o di dover costruire un razzo interplanetario o di dover eseguire la
moltiplicazione di due numeri di venti cifre ciascuno; ma, per assurdo, quelle sono le cose per cui e'
chiara la conoscenza necessaria. Ci capita molto piu' spesso di dover ricordare dove abbiamo messo
le chiavi di casa, o di dover preparare un'insalata o di dover correre a un appuntamento nel traffico
intenso dell'ora di punta; e per questi casi non e' affatto chiaro quale e quanta conoscenza sia
necessario possedere. E' infinito l'elenco di fattori che intervengono a decidere quale rotta seguire
nel traffico: dal livello della benzina all'usura della frizione, dalle proprie convinzioni sulle
probabilita' di un ingorgo in un luogo piuttosto che in un altro alle proprie convinzioni sulle
probabilita' che il vigile di turno si impietosisca e ci lasci passare dal centro storico.
Fodor riconduce la problematica dei contorni a un fenomeno piu' ampio: la fissazione razionale
("rational fixation") delle convinzioni si attua attraverso un processo che e' non-dimostrativo. Vi
intervengono inferenze di tipo non deduttivo (ovvero diverse da quelle utilizzate nella Logica
Matematica) come l'analogia e l'induzione; che sono poi le stesse su cui e' costruita gran parte della
Scienza. La mente costruisce convinzioni in continuazione, ma quasi mai attraverso un'inferenza
deduttiva (Sherlock Holmes a parte), e quasi sempre ragionando su informazioni che sono per lo
piu' imprecise e insufficienti.
Mentre nella deduzione e' sufficiente avere a disposizione un numero finito di informazioni, quelle
che servono a dimostrare vero o falso il teorema, nelle altre forme di inferenza, per esempio
nell'induzione, non c'e' limite al numero di informazioni necessarie per dimostrare qualcosa. Un
esempio di inferenza deduttiva e' quando Vincenzo vuole sapere se Cinzia e' sposata; gli basta
apprendere che Dario e' suo marito, per dedurne che Cinzia e' sposata. Ma quando Vincenzo vuole
sapere a che ora verranno a trovarlo Dario e Cinzia, nessuna informazione e' sufficiente: anche se
gli amici fossero arrivati puntualissimi nelle cento volte precedenti, Vincenzo non avrebbe ancora la
certezza che arriveranno puntuali anche questa volta. Un'inferenza deduttiva non puo' mai essere
falsificata da una nuova informazione, una induttiva puo' sempre essere falsificata da nuova
informazione.
Il frame problem segnala un problema di fondo della teoria rappresentazionale: e' impossibile
stabilire una corrispondenza fra la percezione e la rappresentazione interna.
Si possono adottare almeno due scorciatoie per evitare i problemi relativi ai contorni. Il primo e'
quello di rappresentare soltanto l'"ambiente" in cui il sistema cognitivo deve operare. Per quanto
anche l'ambiente, come qualsiasi sottoinsieme dell'universo, possa essere sempre ridotto a un
numero potenzialmente infinito di oggetti, e' relativamente piu' semplice decidere quali siano
"rilevanti" ai fini della sopravvivenza del sistema. DeMey, per esempio, sostiene che ogni sistema di
elaborazione dell'informazione deve possedere un modello interno dell'ambiente in cui opera. In
altre parole, un modo per risolvere i paradossi di McCarthy e' quello di postulare in un mondo

"chiuso", ovvero un mondo che ammette un numero noto e limitato di oggetti e azioni. Tanto i
moduli di Fodor quanto i modelli mentali di Johnson-Laird "chiudono", a modo loro, il mondo, in
maniera tale da evitare il problema.
Resta pero' da stabilire in che modo si dovrebbe "chiudere" il mondo, ovvero in che modo lo
"chiuda" la nostra mente. In altre parole, cosa e' necessario che sia effettivamente rappresentato
nella mente? La teoria rappresentazionale va complementata con una teoria dei contorni per
stabilire la "rilevanza" di cio' che puo' essere rappresentato, in maniera tale che alla fine vengano
rappresentati unicamente quei fattori realmente importanti per le future inferenze e venga scartato
tutto cio' che e' di scarsa importanza oppure che puo' essere derivato dai precedenti. Tutte le teorie
dei contorni finora proposte (tutte caratterizzate da una chiusura del mondo a livello sintattico,
ovvero da una regola per "minimizzare" il cambiamento) non sembrano pero' in grado di risolvere il
frame problem.
Un'altra soluzione al frame problem e' ovviamente quella di abbandonare l'ipotesi che la mente sia
un sistema rappresentazionale, o quantomeno che una tale rappresentazione debba per forza essere
un linguaggio. In altre parole il secondo modo di evitare i paradossi di McCarthy e' di non
rappresentare per nulla l'ambiente, come fa Brooks.
L'incoerenza
Una delle proprieta' che distingue nettamente il buon senso dalla Logica matematica e' che il primo
non e' coerente, a differenza della seconda che non puo' essere altro che coerente. Il buon senso non
e' coerente poiche', per definizione di buon senso, siamo pronti a cambiare le nostre convinzioni in
un batter d'occhio se cosi' ci conviene fare. Il buon senso non e' coerente soprattutto poiche' il piu'
delle volte non usa la logica, ma, salvo controindicazioni, salta direttamente a qualche conclusione:
per esempio, salvo controindicazioni, do' per scontato che Dario e Cinzia abbiano soltanto due
figlie.
Il frame problem puo' essere risolto introducendo qualche forma di non-monotonia. L'ereditarieta'
puo' dar luogo a non-monotonia. I "default" di Minsky originano non-monotonia. In tutti questi casi
abbiamo bisogno di affermare qualcosa in mancanza di tutta l'informazione necessaria per
affermarlo e pertanto vogliamo avere la possibilita' di precisare che "e' cosi' a meno che...". Ci
riserviamo cioe' il diritto di ritrattarlo quando e come ci pare. La nonmonotonia esprime il fatto che
"normalmente e' cosi'". Normalmente la nonmonotonia si ottiene tramite qualche variazione del
"postulato del mondo chiuso" di Reiter ("cio' che non e' vero e' falso").
La proprieta' delle logiche non-monotone e' che consentono di ritrattare le conclusioni a cui sono
pervenute: in una logica non-monotona la verita' di un teorema cambia a seconda degli assiomi che
vengono introdotti. In pratica e' diverso il concetto di verita': a ogni insieme di premesse viene
associata una conclusione che viene assunta per vera in difetto di una dimostrazione della sua
falsita'. Questo significa anche che un sistema di logica non-monotona puo' contenere delle
contraddizioni, e pertanto deve essere dotato di meccanismi per "tutelare" la propria incoerenza:
sotto quali condizioni e in che modo e' possibile compiere delle inferenze?
Il Senso Comune

Un sistema esperto e' dotato dell'euristica relativa al proprio campo, ma non ha l'euristica relativa al
mondo in generale. Per quanto "efficace" possa essere il suo comportamento in quel campo, non e'
un comportamento "intelligente". Un sistema esperto per preparare un picnic funzionerebbe anche
se stesse piovendo, un sistema esperto per curare una malattia continuerebbe a funzionare anche se
il paziente fosse gia' morto, e cosi' via.
Il "buon senso" fa uso di un'infinita' di regole per stabilire cosa ha senso e cosa non ha senso fare in
una certa situazione.
In tal modo il buon senso consente anche di decidere quali azioni compiere in tempi molto rapidi.
Sarebbe difficile sopravvivere in un mondo cosi' complicato e dinamico come il nostro se di fronte
ad ogni situazione la nostra mente dovesse rappresentare la situazione in termini formali e poi
compiere inferenze logiche per decidere come dobbiamo comportarci. Nella stragrande
maggioranza delle occasioni non abbiamo bisogno di fare nulla di tutto cio': e' "ovvio" quali siano
le azioni possibili. Se piove, per esempio, possiamo aprire l'ombrello o ripararci sotto un porticato;
ma un sistema inferenziale potrebbe impiegare tanto tempo a raggiungere questa conclusione da
prendersi una polmonite. Sono relativamente poche, anzi, le occasioni in cui usiamo le nostre
capacita' inferenziali: giusto i compiti di matematica, i giochi enigmistici, lo scopone scientifico, la
dichiarazione delle tasse e poche altre cose.
Secondo Lenat le unita' di conoscenza del senso comune sarebbero unita' di "realta' per consenso",
ovvero tutte quelle cose che tutti sappiamo e che diamo per scontato che tutti sanno. In altre parole:
cio' che e' implicito negli atti di comunicazione fra umani. Cio' avrebbe origine da un principio di
economia delle comunicazioni, ovvero dalla necessita' di minimizzare gli atti di comunicazione e
massimizzare al tempo stesso l'informazione trasmessa.
Alla base di questa "conoscenza tacitamente accettata" ci sarebbero le regolarita' del mondo. In
effetti nelle nostra vita quotidiana nulla desta tanto scalpore quanto l'imprevisto: non fanno notizia
le diecimila persone che muoiono ogni anno sulle strade italiane, ne' le mille persone uccise dalla
Mafia in Sicilia, ne' le decine di migliaia che periscono per colpa del fumo (fra cui molti innocenti
che hanno avuto soltanto la sventura di frequentare ristoranti trasformati in camere a gas); ma un
attentato terroristico che uccida una sola persona all'altro capo del mondo finisce immediatamente
in prima pagina; conflitti razziali in Nigeria e Armenia destano molto meno scalpore di quelli di Los
Angeles, benche' causino molti piu' morti. La morale riflette poi questo "senso' delle regolarita': nel
Far West chi rubava un cavallo veniva impiccato, chi uccideva un nero no; in Italia il genitore che
fuma davanti ai propri bambini non viene considerato irresponsabile, ma se lascia spalancata
un'imposta che fa corrente si', benche' il danno arrecato alla salute della sua prole sia molto
maggiore nel primo caso. Le regolarita' del mondo sono importanti anche per molti animali, che
dimostrano piu' panico davanti a una situazione sconosciuta che non davanti a un pericoloso
predatore. E' probabile che la regolarita' sia un'informazione molto utile per la sopravvivenza: un
animale sa quali chance gli sono concesse dai pericoli che conosce, e, per quanto basse possano
essere quelle chance, sa come comportarsi di conseguenza; ma, di fronte a un nuovo tipo di
situazione, non sa valutare le chance e non sa quale sia il comportamento piu' opportuno.
Lenat sta costruendo un'enciclopedia del senso comune, l'esatto complementare di una comune
enciclopedia: conterra' cioe' tutte le informazioni che non sono contenute in un'enciclopedia, le
quali sono a loro volta proprio le informazioni che servono per poter capire le informazioni fornite
da un'enciclopedia. Nessuno conosce tutte le informazioni contenute in un'enciclopedia, ma tutti
condividiamo le informazioni che sono necessarie per consultare un'enciclopedia.

Lenat ha messo in pratica un'idea che risale almeno a Dewey, per il quale la conoscenza era gia' una
rubrica di "tutto cio' che abbiamo imparato per sopravvivere", una rubrica il cui elemento piu'
tipico, formato appunto attraverso l'esperienza, e' la "regola del buon senso".
Il sistema di Lenat ha conoscenza su cosa sono gli alberi e gli animali, su come un albero e un
animale possono interagire, su come funziona il televisore e come funziona lo schiaccianoci, su
cosa significa "fare la spesa" e cosa significa "lavare l'auto", sul fatto che i fiumi scorrono verso il
mare e non verso le montagne e sul fatto che gli animali prima nascono e poi muoiono e non
viceversa, che un quadro di Picasso non puo' essere stato dipinto prima della nascita di Picasso o
dopo la morte di Picasso, che nessun bambino e' piu' vecchio dei suoi genitori, che per passare da
una stanza all'altra non si buttano giu' le pareti ma si usano le porte, che il sei aprile non e' un giorno
speciale, che l'hotel vende camere e il ristorante vende pasti; e cosi' via. Sono milioni (per
l'esattezza la stima attuale di Lenat e' dieci milioni) le informazioni che sono necessarie per agire
sensatamente nel nostro mondo. .sp 5
Bibliografia:
DeMey M. (1982): The cognitive paradigm (Univ of Chicago Press)
McCarthy J. (1969): Some philosophical problems from the standpoint of
Artificial Intelligence (Machine Intelligence n.4)
Lenat D. (1990): Building large knowledge-based systems
(Addison-Wesley)

La macchina del cervello


Il cervello

Perche' il cervello e' tanto piu' veloce del computer nel compiere operazioni di estrema complessita'
(come riconoscere che il volto di Vincenzo e' il volto di Vincenzo, qualunque siano la prospettiva, la
luminosita', la posizione), mentre e' cosi' lento nel compiere operazioni apparentemente piu'
semplici (come calcolare 352 x 121)? La domanda e' chiaramente due domande in una: 1. perche' il
cervello impiega cosi' tanto tempo a calcolare 352 x 121, al punto che un computer puo' essere
milioni di volte piu' veloce? 2. perche' il cervello impiega cosi' poco tempo a riconoscere il volto di
Vincenzo? E ne aggiungerei una terza, forse piu' importante di quanto sembri: 3. perche' il tempo
impiegato per riconoscere il volto di Vincenzo e' piu' o meno lo stesso per tutti i cervelli (mio, di
Dario, di Cinzia), mentre il tempo impiegato per calcolare 352 x 121 varia sensibilmente di
individuo in individuo?
Una risposta spontanea potrebbe essere che per un cervello "riconoscere" e' compito piu' "naturale"
che non "calcolare". Mentre non ha bisogno di imparare come si fa a riconoscere un volto, il
cervello deve imparare come si fa a calcolare una moltiplicazione, e la sua performance nel secondo
caso dipende da quanto bene lo impara.
Secondo James il cervello non e' stato costruito per calcolare 352 x 121, ma per aiutarci a
sopravvivere nel mondo. La mente e' un prodotto dell'evoluzione e uno strumento dell'adattamento.
Parafrasando Dewey, l'uomo pensa per vivere, non viceversa. E Maturana spiega che le rane
riconoscono soltanto gli insetti, ovvero cio' che a loro "serve" vedere per riuscire a sopravvivere.
Il neurone
La cellula fondamentale del cervello, quella che si presume sia responsabile del comportamento
"intelligente", e' il neurone.
Un neurone ha una struttura fisica relativamente semplice: un gruppo di filamenti detti "dendriti"
trasportano al neurone i segnali provenienti da altri neuroni; un unico filamento detto "assone"
trasporta il segnale di questo neurone ad altri neuroni; e il corpo del neurone trasforma i segnali di
input nel segnale di output. I punti in cui l'assone di un altro neurone entra in contatto con una
dendrite di questo si chiamano "sinapsi". Una sinapsi puo' essere "inibitoria", se, a fronte di un
segnale, fa diminuire il potenziale del neurone, oppure "eccitatoria", se lo fa aumentare. Quando il
segnale complessivo (dovuto a tutte le dendriti) che giunge al corpo del neurone supera il valore del
potenziale (la cosiddetta "soglia"), il neurone emette a sua volta un segnale lungo il proprio assone,
e tale segnale puo' essere raccolto da un numero qualsiasi di altri neuroni. .sp 5
FIGURA 7 .sp 5
Secondo Akamatsu, pero', non tutti i neuroni obbediscono a questo schema: i neuroni della corteccia
associativa, perlomeno, sembrano reagire a qualcosa di piu' complicato di un semplice segnale
elettrico. Piu' che il valore di soglia sembra importare il valore massimo del segnale e il suo
andamento nel tempo.
I neuroni sono diffusi in tutto il sistema nervoso, dai muscoli al midollo spinale, e formano una
gigantesca e intricatissima "rete neurale". La struttura e la funzione di questa rete sono ancora
largamente incognite, anche perche', ovviamente, tutto cio' che sappiamo lo sappiamo dallo studio
delle anomalie cerebrali, non dallo studio di un cervello sano e vivo, che funziona correttamente: i

neurologi possono esaminare soltanto i cervelli malati (o quelli morti). Per assurdo, conosciamo
meglio le anomalie del cervello che non le sue regolarita'.
La corteccia cerebrale e' uno dei caratteri distintivi dei mammiferi, e ancor piu' dei primati, rispetto
agli altri animali. Nel cervello dell'uomo e' enorme, tanto da occultare le parti che sono piu' comuni
nelle altre specie. La gran parte degli animali possono vivere benissimo senza la corteccia, mentre
un uomo senza corteccia e' di fatto un vegetale. A tutt'oggi sono state riconosciute piu' di cinquanta
regioni corticali: la corteccia somatosensoria e' una mappa topografica del corpo, in quanto la
disposizione dei suoi gruppi neurali rispecchia quella delle aree anatomiche a cui quei gruppi
neurali fanno riferimento; la corteccia visiva non solo corrisponde alla retina, ma e' a sua volta
suddivisa in gruppi neurali corrispondenti ciascuno a una specifica caratteristica dell'informazione
visiva (luminosita', orientamento, direzione di moto e cosi' via); la corteccia uditiva e'
probabilmente organizzata in maniera analoga; la corteccia motoria e' una mappa del sistema
muscolare.
Esistono due tipi di neurone nella corteccia: piramidali e stellati. I primi mandano segnali anche
fuori dalla corteccia, ad altre regioni del sistema nervoso, oltre a mandarli ad altre zone della
corteccia stessa tramite connessioni collaterali dette "ricorrenti".
I gruppi neurali
Per quanto sia utile considerare il neurone alla stregua dell'"atomo" di cervello, per spiegare i
fenomeni cerebrali sembra avere piu' senso assumere come unita' elementare la popolazione di
neuroni, o il "gruppo neurale".
Edelman, ispirandosi al principio darwiniano di competizione, ritiene che ogni stimolo
dell'ambiente dia luogo a un processo competitivo fra i gruppi neurali che sono in grado di
rispondere a esso, e quelli che rispondono "meglio" ne escano "rafforzati". E' pertanto l'ambiente a
compiere la "selezione dei gruppi neurali" piu' idonei. L'interazione con l'ambiente non e'
fondamentale soltanto per determinare come viene percepito il mondo, ma anche per lo sviluppo del
cervello stesso.
Il cervello non e' affatto cristallizzato fin dalla nascita in una configurazione neurale determinata dal
codice genetico. Il cervello e' un sistema evolutivo: i geni ne determinano soltanto la configurazione
iniziale, ma e' l'esperienza a forgiare poi il cervello secondo una legge che e' fondamentalmente
quella di Hebb (le connessioni piu' sollecitate dall'esperienza si rafforzano, le altre si
indeboliscono).
In tal modo viene spiegata la differenza fra i vari individui: a seconda delle esperienze vissute il
cervello assume configurazioni neurali diverse. E' praticamente impossibile che due cervelli vivano
esattamente le stesse esperienze e risultino pertanto identici.
Cio' spiega anche un noto paradosso: per quanto grande, il genoma umano non sarebbe lontamente
in grado di specificare i miliardi di connessioni neurali del cervello. La formazione del cervello non
puo' avere origini solamente genetiche.

Gli esperimenti di Cepko e Walsh hanno inoltre dimostrato che il ruolo di una cellula nervosa non e'
determinato dal codice genetico ma dalla sua posizione, dai messaggi che riceve dai neuroni vicini.
Una cellula che finisca nella zona della visione, per esempio, diventera' un neurone visivo in quanto
verra' addestrato a tale compito dai neuroni di quella zona. La ragione per cui un neurone tende a
stabilirsi in un certo punto piuttosto che un altro del cervello potrebbe essere del tutto casuale,
indipendente dall'informazione genetica.
Infine Edelman propone la soluzione anche ad un altro paradosso millenario: com'e possibile che
venga generata una percezione unitaria (per esempio, nel caso della visione) se quella percezione
risulta dalla funzione di diverse parti (o "mappe") del cervello, ciascuna indipendente dalle altre
(nel caso della visione ne sono gia' state identificate una ventina)? A meno di postulare l'esistenza di
un "omuncolo" che controlli e assembli le diverse funzioni, fenomeni come la visione si direbbero
impossibili. Edelman paragona questo dilemma a quello che dovette affrontare Darwin quando si
accinse a spiegare l'origine delle specie senza richiedere interventi divini. La risposta nel caso del
cervello e' che esistono delle "rientranze" (delle connessioni bidirezionali) fra le varie parti,
rientranze che, ancora una volta, sono il frutto dell'esperienza, "crescono" durante lo sviluppo. Ogni
mappa e' specializzata nel riconoscere una qualche caratteristica, ma le rientranze fra le varie mappe
fanno si' che quelle caratteristiche vengano composte in una percezione unitaria.
E' in tal modo che il cervello e' in grado di compiere le operazioni di "classificazione". Se esistono
infiniti modi di partizionare l'universo in categorie, come fa un organismo a riconoscere un oggetto?
Come ho fatto a riconoscere Vincenzo dopo averlo visto soltanto un paio di volte? Come faccio a
categorizzare uno stimolo? Edelman dimostra che gli stimoli possono essere raggruppati in insiemi
"polimorfi", insiemi per i quali non esistono ne' condizioni sufficienti ne' condizioni necessarie: le
proprieta' di un insieme polimorfo possono cambiare a seconda del contesto. Lo schema delle
rientranze risulta essere la struttura minima in grado di classificare un oggetto.
Anche la formazione del cervello soggiace pertanto a una forma di competizione darwiniana. A
competere non sono pero' i neuroni, ma le loro connessioni: dalla nascita in poi i neuroni sono piu' o
meno sempre gli stessi; durante la vita variano soprattutto le intensita' delle connessioni.
In particolare Edelman ritiene quindi che si debba ragionare in termini di popolazione, e non solo di
individuo, nello studiare il sistema nervoso; esattamente come quando si studia l'evoluzione delle
specie. I processi cerebrali sono dinamici e stocastici.
Il Connessionismo
Dalle scoperte della Neurofisiologia ha avuto origine una corrente di pensiero antagonista rispetto a
quella rappresentazionale del "linguaggio della mente". Questa corrente "connessionista" utilizza
una libera astrazione della struttura del cervello. Invece di postulare che le facolta' mentali abbiano
origine dall'elaborazione di strutture rappresentazionali, il "Connessionismo" postula che esse
abbiano origine dalle "connessioni" fra unita' molto semplici.
Tali connessioni hanno una consistenza (o "peso") che non e' fissa, bensi' variabile nel tempo. Il
modo in cui la connessione varia puo' essere proporzionale a quanto spesso la connessione viene
attivita oppure tale da minimizzare l'errore. Il segnale scambiato da due neuroni e' a sua volta
funzione del peso della loro connessione.

Quando la rete di connessioni viene attivata da un certo input, i neuroni si scambiano segnali
inibitori ed eccitatori finche' la rete raggiunge un nuovo stato di equilibrio (uno stato in cui lo
scambio di segnali non provoca piu' variazioni nei pesi delle connessioni).
Il caso piu' tipico e' quello del riconoscimento, il processo fondamentale della memoria. Il modo in
cui impariamo a "riconoscere" un volto non e' uno studio dettagliato delle sue caratteristiche, bensi'
l'esperienza di vederlo: piu' volte lo vediamo piu' diventa facile riconoscerlo. Talvolta non siamo
neppure in grado di ricordare le caratteristiche di quel volto, anche se sappiamo riconoscerlo con
facilita'. Tecnicamente questo significa che il cervello associa un unico output a diversi input: tutte
le possibili varianti in cui quel volto si puo' presentare (di fronte, di profilo, ombreggiato, con o
senza barba, con o senza occhiali, e cosi' via). E' l'esperienza ad addestrare il cervello: man mano
che il cervello viene esposto a quel volto, si rafforzano le connessioni piu' adatte a far riconoscere
quel volto.
E' chiaro che in tal modo sbiadisce la differenza fra "memoria", "apprendimento" e "ragionamento".
L'elaborazione parallela distribuita costituisce un'alternativa "non simbolica" (non
rappresentazionale) alla teoria computazionale di Fodor (simbolica e rappresentazionale). Cio' che
viene rappresentato non ha una relazione intuitiva con le convinzioni o percezioni. Si tratta invece
di una rete di nodi, ciascuno dei quali comunica con altri tramite connessioni la cui forza e' variabile
nel tempo; questa forza, che varia in funzione proprio dell'attivita' dei nodi, e' il fattore principale di
rappresentazione. E' come se i nodi si scambiassero simultaneamente una grande quantita' di
messaggi: la rappresentazione e' data dall'insieme di questi messaggi (e non dal contenuto dei nodi).
Quando la rete viene attivata a fronte di uno stimolo, le connessioni cambiano la propria forza fino a
raggiungere una configurazione stabile che costituisce la risposta a quello stimolo. Cosi', per
esempio, tutte le immagini di Vincenzo (di profilo, di fronte, con la barba, senza la barba, con gli
occhiali, senza gli occhiali, etc) causano una propagazione di messaggi all'interno della rete finche'
questa converge a una configurazione che e' proprio quella della rappresentazione di "Vincenzo".
Non solo il connessionismo rende conto, come la teoria computazionale, del processo attraverso il
quale la mente riesce a far riferimento al mondo esterno, non solo (a differenza della teoria di
Fodor) e' biologicamente plausibile, ma fornisce anche una spiegazione di come le rappresentazioni
mentali vengano costruite (per fluttuazione di forze di connessioni) e di come esse siano connesse
con il mondo (attraverso associazioni del tipo stimolo-risposta); e non ha bisogno di postulare alcun
linguaggio mentale.
In pratica il Connessionismo adotta due postulati fondamentali: le rappresentazioni mentali non
hanno costituenti (non sono decomponibili in rappresentazioni mentali piu' elementari); e
l'elaborazione mentale procede per associazioni (l'unica relazione rilevante fra rappresentazioni
mentali e' il tipo di segnale che transita fra due neuroni, eccitatorio o inibitorio).
Il primo postulato ha come diretta conseguenza le due principali proprieta' del cervello: la
"ridondanza" (in generale la perdita di una parte del cervello non fa perdere alcun ricordo specifico,
ma causa un degrado uniforme della memoria) e la "tolleranza" (un disturbo non degrada la
memoria).

L'apprendimento e' dovuto al fatto che le connessioni cambiano i propri pesi, e cio' e' dovuto
semplicemente alla frequenza di percezioni. Il comportamento e' causato, in ultima analisi,
dall'associazione fra stimoli e risposte, fra l'input che perviene alla rete di neuroni e l'output che
quella rete emette per effetto delle proprie connessioni. Tutte le facolta' cognitive superiori vengono
ricondotte a meccanismi guidati dalle connessioni.
La mente riesce a riconoscere un oggetto non perche' compie delle sofisticate rappresentazioni e poi
dei sofisticati ragionamenti su tali rappresentazioni, ma perche' i segnali percettivi relativi a
quell'oggetto si propagano in una rete di neuroni e causano in essa un nuovo stato di equilibrio che
e' proprio il concetto di quell'oggetto.
In quest'ottica il "concetto" non e' qualcosa di pre-esistente, archiviato per sempre nella memoria a
lungo termine, ma una struttura temporanea, che viene costruita sul momento a fronte di una certa
situazione e soltanto in quanto serve ad agire in quella situazione. In tal modo il Connessionismo
riesce a rendere conto del fenomeno rilevato da Barsalou.
In generale la singola unita' di una rete connessionista non rappresenta nulla. E' l'insieme a
rappresentare qualcosa, anzi a rappresentare tutto. Tanto la memoria quanto il ragionamento sono
"distribuiti". In particolare non e' possibile studiare il comportamento del sistema attraverso le parti
che lo compongono (un sistema connessionista non e' "riducibile").
Un sistema connessionista e' "adattativo" e "auto-organizzantesi", capace cioe' di rispondere agli
stimoli dell'ambiente cambiando la propria struttura interna, ed e' al tempo stesso una memoria
"associativa", in quanto risponde ad ogni stimolo con il segnale piu' fortemente associato a quello
stimolo.
Il Connessionismo diverge pertanto da gran parte della tradizione scientifica moderna, che ha
origine da un approccio riduzionista. Presenta pero' delle similitudini con la Termodinamica (il
sistema tende sempre verso lo stato di massima entropia, il comportamento del sistema puo' essere
descritto soltanto come funzione di quantita' macroscopiche) e, come ha dimostrato Willshaw, con
l'olografia (anche l'ologramma distribuisce l'informazione su tutta la superficie e anche l'ologramma
e' trasparente a una deformazione dell'informazione). Come gia' messo in luce da Lashley, esiste
infine anche una similitudine con la Meccanica Quantistica: il dualismo fra mente e cervello
presenta un qualche grado di analogia con quello fra particelle e onde, in quanto un ricordo
all'interno della memoria si comporta in maniera analoga a un'onda in un campo elettromagnetico.
I Dreyfus hanno proposto un modello olografico come un'alternativa al modello computazionale.
L'ologramma e' il paradigma fondamentale anche del modello di Pribram. Pribram ritiene che ogni
percezione sensoriale venga trasformata in un'"onda cerebrale" ("brain wave"), uno schema di
attivazione elettrica che si propaga attraverso il cervello in modo simile al fronte d'onda in un
liquido. E' questo attraversamente del cervello a fornire l'interpretazione della percezione sensoriale,
sotto forma di un'"onda di memoria" ("memory wave"), la quale a sua volta attraversa il cervello.
Le varie onde che viaggiano nel cervello possono interferire e dalle loro interferenze hanno origine
fenomeni interessanti: per esempio, dall'interferenza fra un'onda di memoria e un'onda visiva ha
origine una struttura che ricorda l'ologramma.

Il Connessionismo rende facilmente conto di molte leggi psicologiche: quella del condizionamento
di Pavlov (se a uno stimolo incondizionato che provoca una certa risposta incondizionata si associa
ripetutamente uno stimolo condizionato, dopo un numero sufficientemente elevato di volte lo
stimolo condizionato provochera' da solo la risposta incondizionata); la legge dell'effetto di
Thorndike (la probabilita' che un certo stimolo causi una certa risposta e' proporzionale alla
soddisfazione che essa ha prodotto in passato, e la probabilita' che essa non si verifichi piu' e' invece
inversamente proporzionale); la legge del rinforzo primario di Hull (se una coppia stimolo-risposta
provoca una diminuzione delle necessita', allora aumenta la probabilita' che a fronte di quello
stimolo si verifichi quella risposta); la legge del rinforzo di Skinner (se una risposta viene associata
a un rinforzo, la probabilita' che la risposta si verifichi aumenta); la legge della distribuzione
mnemonica di Lashley (ogni funzione mnemonica non e' localizzata in un punto preciso della
mente, ma distribuita su tutta la mente); e la legge della memoria associativa di Hebb (le
connessioni del cervello si modificano nel tempo e tale modifica avviene in funzione
dell'esperienza).
In un modo o nell'altro e' la legge di Hebb a dominare lo scenario del Connessionismo, cosi' come
quella di Darwin domina la Biologia moderna. Nella "Mente Artificiale" facevo anche notare che la
legge di Hebb potrebbe essere un caso particolare di una piu' generale proprieta' della materia. Il
muscolo esercitato e' piu' forte, il muscolo non esercitato si atrofizza.
La computazione neurale
Tanto la teoria rappresentazionale quanto quella connessionista sono teorie computazionali. La
prima concepisce pero' la computazione come il processo di trasformare certi simboli in altri
simboli secondo certe regole (in accordo con la tradizione matematica che pervade tanto
l'Aritmetica insegnata nelle scuole elementari quanto la Logica piu' teorica), mentre la seconda
considera la computazione come il processo di trasformare certi input in certi output secondo certe
connessioni (in accordo con una tradizione statistica che e' piu' propria delle scienze naturali che di
quelle esatte). .sp 5
FIGURA 8 .sp 5
Rumelhart e McClelland definiscono la neurocomputazione come una forma di "computazione
distribuita e parallela" (PDP o "parallel distributed processing"): una rete neurale e' un grafo diretto
non lineare, nel quale ogni elemento di elaborazione (ogni nodo della rete) riceve segnali da altri
nodi ed emette a sua volta un segnale verso altri nodi, e ogni connessione fra nodi ha un "peso" che
puo' variare nel tempo.
Le fondamenta computazionali del Connessionismo vennero gettate da McCulloch e Pitts, i quali
svilupparono una teoria matematica del neurone "binario", una libera astrazione (e semplificazione)
del neurone reale che puo' assumere soltanto due stati, attivo e non attivo, e quando e' attivo emette
sempre lo stesso output; e in particolare dimostrarono che una rete di neuroni binari e' equivalente a
una macchina di Turing universale (ovvero che ogni programma realizzato su un computer puo'
essere realizzato anche tramite una rete neurale).
Rosenblatt estende il modello del neurone binario al caso in cui le connessioni possono avere pesi

con valori continui e tali valori possono cambiare nel tempo; e dimostra che questo suo
"percettrone" puo' essere essere addestrato a rispondere correttamente attraverso un numero finito di
ripetizioni di una procedura di addestramento. Selfridge assegna un significato ben preciso a ogni
unita' del suo "pandemonium", ciascuna specializzata nel riconoscere un'entita' ben precisa, e le
organizza a strati gerarchici, in modo che il nodo dell'ultimo strato possa prendere la decisione sulla
base di cio' che e' stato progressivamente identificato dai nodi degli strati inferiori.
Fra queste reti neurali e i tradizionali computer alla Von Neumann esiste un abisso: in un computer
la conoscenza e' contenuta in un luogo ben preciso, la memoria, mentre in una rete neurale la
conoscenza non e' localizzabile, e' distribuita nella rete, e precisamente nelle sue connessioni; le
unita' di elaborazione di un computer sono sistemi statici (forniscono sempre lo stesso output a
fronte di un dato input), mentre quelle di una rete neurale sono sistemi dinamici (l'output dipende
anche dal peso delle sinapsi); i computer sono in grado di compiere operazioni solo su quantita'
esatte, mentre le reti neurali rispondono anche a configurazioni di input approssimate o incomplete
o disturbate; il flusso "sequenziale" di operazioni di un computer e' prevedibile, mentre quello
"parallelo" delle reti neurali e' praticamente impossibile da ricostruire a mano; il computer ha
difficolta' a memorizzare schemi complessi (come l'immagine di un volto, che e' composta da
migliaia di punti), ed e' lento poi nel reperirli, mentre la rete neurale memorizza facilmente schemi
complessi ed e' rapida nel reperirli, e viceversa per i calcoli matematici; il computer non e'
"tollerante", ovvero non e' trasparente alla perdita di informazione, mentre l'output di una rete
neurale non si degrada necessariamente se parte dell'informazione si perde (un volto viene
riconosciuto anche se parte dell'immagine e' sbiadita); un computer, infine, non e' in grado di
imparare dalle proprie esperienze, una rete neurale si' (il processo di addestramento puo' continuare
all'infinito).
E' soprattutto diverso il modo in cui si puo' rendere "intelligente" la macchina: se programmare
secondo Von Neumann consiste nel dire al computer "come" risolvere un certo problema (ovvero
fornirgli la sequenza di istruzioni che devono essere eseguite per pervenire alla soluzione), se
programmare un sistema esperto consiste nel dargli la conoscenza per risolvere problemi in un certo
dominio, programmare una rete neurale consiste invece nel presentarle la soluzione di molti
problemi di una certa classe.
Come ha fatto notare Kosko, la computazione neurale, cosi' come la Statistica, ha come obiettivo
quello di approssimare la funzione che mette in corrispondenza certi input e certi output, ma, a
differenza della Statistica, non richiede che venga formulato un modello matematico. Anche i
sistemi esperti sono "approssimatori" di funzioni che non richiedono un modello matematico, ma le
reti neurali sono anche sistemi dinamici (si puo' prendere la derivata nel tempo del loro
comportamento).
Kosko ha anche fatto notare una importante similitudine con la logica fuzzy (vedi dopo): lo spazio
degli stati neurali (l'insieme di tutti i possibili output di una rete neurale) e' identico all'insieme di
potenza fuzzy (l'insieme di tutti i sottoinsiemi fuzzy dell'insieme dei neuroni). Precisamente, un
insieme di "n" neuroni (i cui segnali variano in maniera continua fra zero e uno) definisce una
famiglia di insiemi fuzzy n-dimensionali. Quello spazio e' l'ipercubo unitario, l'insieme di tutti i
vettori di lunghezza "n" e di coordinate nell'intervallo continuo fra zero e uno. Reti come quelle di
Hopfield tendono a portare lo stato del sistema vicino a uno dei "2 alla n" vertici dell'ipercubo; cosi'
facendo, questi sistemi disambiguano dinamicamente descrizioni fuzzy minimizzandone l'entropia
fuzzy.

Naturalmente la computazione neurale presta il fianco alle stesse critiche che hanno perseguitato
per secoli il metodo induttivo: programmare una rete significa fornirle un insieme molto grande di
esempi, ma, per quanto grande sia quell'insieme, non e' possibile fornire alla rete tutti gli esempi
possibili e immaginabili; l'insieme che viene scelto riflette soltanto in maniera approssimata il
mondo reale, e un insieme di esempi molto particolari potrebbe addirittura "ingannare" la rete sulla
vera natura del mondo.
Modelli connessionisti
Esistono innumerevoli architetture connessioniste, le quali differiscono fondamentalmente in questi
parametri: il numero di strati in cui le unita' sono organizzate; il modo in cui le unita' sono connesse
fra di loro; il modo in cui le unita' vengono attivate; il modo in cui le connessioni devono
apprendere i concetti; il modo in cui le connessioni possono cambiare nel tempo; il modo in cui le
unita' vengono interpretate semanticamente. A seconda di come questi parametri sono organizzati
l'architettura connessionista risulta piu' o meno adatta a svolgere certi compiti.
Per esempio, le unita' possono essere organizzate soltanto in due strati (input e output) oppure avere
un certo numero di strati intermedi (cosiddetti "strati nascosti"). Per esempio, le connessioni
possono essere unidirezionali (i segnali si propagano soltanto dallo strato di input verso quello di
output) o bidirezionali (i segnali possono propagarsi anche all'indietro), come nell'architettura di
Hopfield. Per esempio, l'architettura di Hopfield tende a convergere verso uno stato di equilibrio
che equivale matematicamente allo stato di minima energia in un sistema termodinamico; e cosi'
anche l'architettura di Hinton e Sejnowski (la cosiddetta "macchina di Boltzman"), che pero' utilizza
un algoritmo statistico. Per esempio le connessioni possono cambiare di peso secondo la legge di
Hebb (la variazione di peso di una connessione e' funzione del prodotto delle attivazioni dei due
neuroni che congiunge) oppure secondo la "regola delta" di Widrow e Hoff (la variazione di peso
delle connessioni e' funzione della discrepanza fra l'output fornito e l'output atteso) oppure ancora
secondo la "propagazione all'indietro" ("back propagation") di Rumelhart (che calcola l'errore in
ogni nodo e lo propaga all'indietro aggiustando i pesi degli strati intermedi per minimizzarlo). Per
esempio, l'apprendimento puo' essere "supervisionato" (la rete viene addestrata a riconoscere gli
input di alcune categorie predefinite) oppure "non supervisionato" (la rete partiziona gli input
creando delle categorie). Per esempio, all'architettura connessionista puo' essere assegnata una
semantica distribuita, in cui un concetto e' rappresentato da uno schema di attivazione, oppure
localizzata, in cui ogni unita' ha un significato (come in quella di Selfridge).
In tutti i casi i neuroni "formali" del Connessionismo computazionale sono delle astrazioni teoriche
che riflettono soltanto le proprieta' macroscopiche dei neuroni biologici. E' pero' importante che
riflettano quelle proprieta' poiche', una volta stabilita almeno questa equivalenza, e' poi possibile
usare gli strumenti della Matematica per derivare altre proprieta' che sarebbero difficili, se non
impossibili, da scoprire a livello neurologico. Per esempio, Hecht-Nielsen (riprendendo un teorema
di Kolmogorov) ha dimostrato che per ogni possibile funzione esiste una rete neurale a tre strati che
ne calcola i valori. Non e' detto che per ogni rete neurale esista una funzione che ne descrive il
comportamento globale, ma per ogni funzione esiste una rete neurale che la simula. Se si riuscira' a
determinare anche una relazione deterministica fra ogni funzione e la rete che e' sufficiente per
calcolarla, sara' possibile predire, data una funzione cerebrale, quale possa essere la complessita'
della rete neurale adibita a svolgere quella funzione.
L'architettura di Kohonen, ispirati dagli studi di Malsburg sulla corteccia cerebrale, e' quella che

apprende in maniera "spontanea". Mentre un'architettura supervisionata deve unicamente imparare a


classificare correttamente le nuove occorrenze in concetti predefiniti, un'architettura come quella di
Kohonen deve essere in grado anche di "costruire" i concetti a partire dalle occorrenze che le
vengono presentate. Una rete ha appreso un nuovo concetto quando, all'aumentare delle occorrenze
di tale concetto, i pesi delle connessioni convergono verso una configurazione stabile. Questo
modello esibisce alcune proprieta' matematiche che lo differenziano dagli altri. Innanzitutto
evidenzia che la stratificazione dei neuroni svolge un ruolo ben determinato: in una rete a tre strati
(input, nascosto e output) quanto piu' grande e' lo strato nascosto tanto piu' rapida, ma limitata, e' la
generalizzazione degli input; quanto piu' piccolo e' lo strato nascosto tanto piu' lenta, ma precisa, e'
la generalizzazione. Poi, per definizione, e' in grado di formare un modello accurato e compatto
della densita' di probabilita' delle occorrenze. Utilizzando una legge di apprendimento diversa da
quella di Hebb, infine, Kohonen ottiene anche un comportamento "competitivo": la sua legge limita
a uno solo il numero dei neuroni che puo' essere attivato da un segnale inviato a una popolazione di
neuroni. In tal modo tutti i pesi possono essere resi "equiprobabili", ovvero con la stessa probabilita'
di verificarsi (anche se e' necessaria una correzione scoperta da Desieno, il cosiddetto "fattore di
coscienza").
Gli esperimenti di Thompson sembrano dimostrare che le sinapsi del cervello apprendono
effettivamente in maniera non supervisionata e locale, e pertanto il modello di Kohonen sarebbe piu'
accurato di, per esempio, quello di back propagation (che e' non locale e supervisionato). Klopf ha
pero' dimostrato che la legge di Hebb e' in grado di spiegare il condizionamento di Pavlov, ed esiste
ormai una certa unanimita' sul fatto che le sinapsi siano controllate da qualche variante della legge
di Hebb (ne sono state proposte decine).
Il modello di Grossberg, che riflette la legge del rinforzo (il fatto che un ricordo tende a rinforzarsi
o ad affievolirsi in funzione del numero di volte che viene richiamato) e il condizionamento di
Pavlov, riduce invece uno stato cognitivo a uno stato dinamico di "risonanza adattativa" che si
estende nel tempo. L'algoritmo di risonanza risulta non lineare, non locale e non stabile.
Grossberg risolve in questo modo un noto paradosso che sorge spontaneo di fronte al modello
connessionista: come puo' una rete neurale essere cosi' stabile da ricordare cio' che ha appreso in un
lontano passato e al tempo stesso essere cosi' flessibile da apprendere nuove cose? Il suo modello
della risonanza adattativa risolve il paradosso. Allo stesso risultato si puo' comunque pervenire con
metodi di approssimazione stocastica, come ha dimostrato Kosko accoppiando due vincoli
conflittuali, uno sulla "plasticita'" della rete e uno sulla sua "stabilita'".
Il modello di Hopfield si ispira a un materiale, lo "spin glass", che assomiglia a una rete neurale
nella quale i pesi siano distribuiti simmetricamente e i neuroni siano binari. La rete e' composta da
un solo strato di neuroni, ma ciascun neurone e' connesso con tutti gli altri. La proprieta' matematica
piu' importante delle reti di Hopfield e' che memorizzano l'informazione che apprendono in
configurazioni che risultano "stabili dinamicamente" (o "ultrastabili"), ovvero che la loro dinamica
e' dominata dall'attrazione verso un numero molto elevato di stati localmente stabili: ogni ricordo e'
un "minimo locale" per una "funzione energia" calcolata in maniera assai simile all'energia
potenziale della Fisica. La proprieta' psicologica piu' importante delle reti di Hopfield e' una diretta
conseguenza: la capacita' di "correggere" informazioni incomplete o incorrette (ogni deviazione dai
minimi locali viene infatti "attratta" verso uno di quei minimi fino a cadervi dentro e tende pertanto
a scomparire). Kosko ha dimostrato che una variante della rete di Hopfield converge certamente a
uno stato stabile.

Sono molti i modelli neurofisiologici che possono essere simulati tramite una funzione energia. Il
modello di Hopfield e', per esempio, molto simile a quello richiesto dalla teoria della
"stereofusione" di Marr, e a quello richiesto dalla teoria di Anderson per il sistema collaterale
ricorrente delle piramidi corticali.
Il modello di Hinton e Sejnowsky (detto "della macchina di Boltzman") si rifa' a un altro fenomeno
fisico, quello della tempratura dei metalli. Quando si riscalda il metallo a temperature molto elevate
e poi lo si lascia raffreddare a temperatura ambiente, si costringe di fatto l'energia globale del
metallo a un valore minimo assoluto. La proprieta' piu' interessante di questo procedimento e' che il
metallo raggiunge sempre lo stesso stato di minimo, qualunque fossero le sue condizioni iniziali e
comunque venga eseguita la tempratura. Kirkpatrick ha scoperto un algoritmo matematico (quello
di Metropolis) che simula il fenomeno fisico: se si fa cambiare una parte a caso del sistema alla
volta e si accettano con probabilita' 100% i cambiamenti che riducono l'energia globale e con una
probabilita' che e' funzione esponenziale della variazione di energia quelli che la fanno aumentare,
si ottiene lo stesso comportamento della tempratura.
Quando la regola di "apprendimento" della rete di Hopfield viene sostituita con quella della
tempratura, si ottiene la macchina di Boltzman, che, a differenza della rete di Hopfield, ha le
proprieta' di stabilizzarsi sempre in un minimo globale (dopo un numero infinito di passi, pero') e di
non destabilizzarsi mai.
I Geman hanno dimostrato che la tempratura renderebbe conto di parecchi fenomeni legati
all'elaborazione delle immagini.
Fukushima ha proposto un modello comnnessionista (il "cognitrone") in cui i neuroni sono
organizzati secondo una gerarchia: ogni neurone di uno strato puo' ricevere input soltanto da un
certo numero dei neuroni dello strato precedente. Ogni neurone ha pertanto una "visione" parziale
di cio' che sta succedendo, e soltanto salendo nella gerarchia si ottiene una visione globale. Il
vantaggio di questo modello e' che, essendo molto piu' semplice, consente di costruire architetture
molto piu' complesse. Fukushima ha dimostrato che questo modello e' adatto a riconoscere
immagini, e in particolare puo' focalizzare l'attenzione su un oggetto all'interno di una scena.
Se e' vero che il cervello e' partizionato in zone specializzate a svolgere certi compiti, un modello
connessionista biologicamente plausibile deve rendere conto di come certi insiemi di neuroni
vengano a costituire simili zone. Jacobs ha proposto un'architettura "modulare" in cui ciascuna
sotto-rete compete con le altre per apprendere durante l'addestramento; in tal modo ciascuna rete
riesce ad apprendere soltanto certe cose e pertanto finisce per specializzarsi nello svolgere certe
funzioni. L'architettura compie pertanto una decomposizione funzionale dei problemi, nel senso che
ogni problema viene decomposto in sotto-problemi indipendenti i quali vengono gestiti da diverse
sottoreti della rete complessiva. Per esempio, nella visione esistono due problemi indipendenti, che
sono quello del "cosa" e quello del "dove": nel modello di Jacobs queste due funzioni vengono
automaticamente ripartite fra due sotto-reti.
Non e' detto che una sola di questi modelli debba essere quello realmente utilizzato dal cervello. E'
probabile anzi che il cervello utilizzi piu' di un modello, a seconda delle funzioni da svolgere. Ogni
modello si presta piu' o meno bene a svolgere certi compiti e non abbiamo alcuna evidenza che

esista un super-modello in grado di svolgere bene tutti i compiti.


Il dilemma composizionale
Rimane soprattutto il mistero di come si possa passare dai segnali elettrochimici che i neuroni si
scambiano alle idee che si formano nella mia mente, ovvero come si possano mettere in relazione il
modello connessionista (che tratta i neuroni) e il modello rappresentazionale (che tratta le idee).
Le spiegazioni proposte quasi sempre si ispirano, direttamente o indirettamente, alla
"lateralizzazione delle funzioni", la teoria (resa popolare dagli esperimenti di Sperry) secondo cui
l'emisfero sinistro del cervello e' cruciale per le funzioni di linguaggio (e' dominante per le funzioni
di linguaggio), mentre quello destro e' specializzato nel riconoscimento (e' dominante per il
riconoscimento). In quel contesto il modello connessionista si presta per simulare l'emisfero destro,
mentre il modello rappresentazionale rispecchia le funzioni analitiche di quello sinistro. .sp 5
Bibliografia:
Anderson J. (1977): Reply to Grossberg (Psychological Review n.85 p.597)
Barsalou L. (1987): The instability of graded structures
(in Neisser U.: Concepts reconsidered, ed. Cambridge Univ Press)
Cepko C. e Walsh C. (1991): (Science)
Desieno D (1988): Adding a conscience to competitive learning
(Proc IJCNN p.117)
Dreyfus H. e Dreyfus S. (1985): Mind over machine (Free Press)
Edelman G. (1987): Neural Darwinism (Basic)
Edelman G. (1989): The remembered present (Basic)
Edelman G. (1992): Bright air brilliant fire (Basic)
Fodor J. e Pylyshyn Z. (1988): Connectionism and cognitive architecture
(Cognition n.28 p.3)
Fukushima K. (1988): Neocognitron (Neural Networks n.1 p.119)
Geman S. & Geman D. (1984): Stochastic relaxation, Gibbs distribution
and the Bayesian restoration of images
(IEEE Transactions on Pattern Matching n.6 p.721)
Grossberg S. (1988): Neural networks and natural intelligence (MIT Press)
Hebb D. (1949): The organization of behavior (John Wiley)
Hecht-Nielsen R. (1989): Neurocomputing (Addison-Wesley)
Hinton G. e Sejnowsky T. (1985): A learning algorithm for Boltzmann
machines (Cognitive Science n.9 p.147)
Hinton E. & Anderson J. (1989): Parallel models of associative memory
(Lawrence Erlbaum)

Hopfield J. (1982): Neural networks and physical systems


(in Anderson and Rosenfeld: Neurocomputing, MIT Press)
Jacobs R. (1991): Task decomposition through competition in a modular
connectionist architecture (Cognitive Science n.15 p. 219)
Kirkpatrick S. (1983): Optimization by simulated annealing
(Science n.220 p.671)
Klopf H. (1988): A neuronal model of classical conditioning
(Psychobiology n.16 p.85)
Kohonen T. (1988): Self-organization and associative memory (Springer Verlag)
Kosko B. (1992): Neural networks and fuzzy systems (Prentice Hall)
Kuppers B. (1990): Information and the origin of life (MIT Press)
Malsburg C. (1973): Self-organization of orientation sensitive cells
(Kybernetik n.14 p.85)
Marr D. (1978): Analysis of a cooperative stereo algorithm
(Biological Cybernetics n.28 p.223)
McClelland J. (1986): Parallel Distributed Processing vol. 2 (MIT Press)
McCulloch W. e Pitts W. (1943): A logical calculus of the ideas
immanent in the nervous system
(in Anderson and Rosenfeld: Neurocomputing, MIT Press)
Metropolis N. (1953): Equation of state calculations by fast computing
machines (Journal of Chemical Physics n.21 p.1087)
Pribram K. (1971): Languages of the brain (Prentice Hall)
Rosenblatt F. (1962): Principles of neurodynamics (Spartan)
Rumelhart D. (1986): Parallel Distributed Processing vol. 1 (MIT Press)
Selfridge O. (1959): Pandemonium (Symposium on the mechanization of
thought process)
Sperry R. (1982): Some effects of disconnecting the cerebral emispheres
(Science n.217 p.1223)
Thompson R. (1986): The neurobiology of learning and memory
(Science n.240 p.941)
Widrow B. e Hoff M. (1960): Adaptive switching circuits (in
Anderson and Rosenfeld: Neurocomputing, MIT Press)
Willshaw D. (1981): Holography, associative memory and inductive
generalization
(in Hinton E. & Anderson J.: Parallel models of associative memory)
La fine della ragione

Verita' e realta'
La verita' e' la relazione che esiste fra una proposizione sul mondo e lo stato del mondo; o, se si
preferisce la versione di James, la verita' e' una relazione fra un'idea e la realta'. La missione della
Scienza e' quella di scoprire la verita' del mondo.
Le verita' che il mondo ci rende note tramite i sensi sono relativamente poche, soprattutto perche'
sono sempre le stesse: il Sole sorge tutti i giorni da Est. Un cieco vissuto in isolamento che
acquisisse di colpo la facolta' della vista andrebbe certamente in visibilio nel vedere per la prima
volta l'astro sorgere da Oriente, e ne ricaverebbe una verita' importante. Ma i mille giorni successivi
non aggiungerebbero nulla di nuovo alle verita' note circa il moto relativo di Terra e Sole.
Se ci limitassimo a catalogare le verita' presentateci dall'esperienza, sapremmo ben poco del mondo.
Abbiamo invece la facolta' di generare nuove verita' da quelle note. Questa facolta' e' l'inferenza.
L'inferenza e' il processo tramite cui elaboriamo delle verita' (o presunte tali) per ottenere delle altre
verita' (o presunte tali). E' grazie all'inferenza che abbiamo potuto costruire modelli dell'universo
sempre piu' raffinati. E' grazie all'inferenza che abbiamo capito come guarire le malattie e come
costruire i grattacieli, tutte cose che in Natura non avevamo potuto osservare.
Non tutto e' cosi' semplice, pero'. Gia' James faceva notare che, siccome la realta' cambia nel tempo,
la verita' e' a sua volta una proprieta' variabile nel tempo.
Churchland e Rorty preferiscono in effetti pensare alla "verita'" come a una sorta di convenzione
sociale, come a una dichiarazione di consenso. Nelle parole di Putnam "la verita' e' accettabilita'
razionale idealizzata".
L'inferenza e' il processo tramite il quale si genera della nuova verita', o, meglio, il processo che
consente di stabilire qualche proprieta' di un insieme date le proprieta' di un altro insieme. Seguendo
Collins, possiamo allora catalogare i tipi di inferenza sulla base di come inferiscono la proprieta' di
un insieme: dall'insieme che lo contiene (deduzione), da un insieme simile (analogia), da un altro
sottoinsieme dello stesso insieme (induzione), dai suoi sottoinsiemi (generalizzazione), da un suo
sottoinsieme che puo' essere inferito da quell'insieme (abduzione). Questa non e' altro che
un'estensione della classificazione dovuta a Peirce in abduzione (o formazione di ipotesi),
deduzione (inferenza analitica) e induzione (inferenza sintetica).
Dimostrare la verita'
Il progetto di ogni teoria computazionale della mente e' quello di ridurre l'intelligenza all'inferenza e
l'inferenza alla manipolazione di simboli, i quali vengano manipolati in funzione della propria
struttura. Se l'inferenza necessaria a rendere conto dell'intelligenza fosse soltanto quella deduttiva, il
problema sarebbe gia' stato elegantemente risolto con l'uso della Logica Matematica, il nostro
principale sistema di manipolazione di simboli, che usa per l'appunto la deduzione.
La logica classica esibisce invece diverse limitazioni, che sono evidenziate da questi esempi:

"Dario cena in casa": la logica classica puo' soltanto affermare che "ogni" sera Dario cena in casa
oppure che "almeno una" sera Dario cena in casa, ma non il fatto intuitivo che quella frase esprime
("in generale" Dario cena in casa, salvo qualche eccezione). La logica classica non gestisce
l'informazione incompleta.
"Con 90 probabilita' su cento Dario sta cenando in casa": la logica classica puo' soltanto affermare
che Dario sta cenando in casa o che non sta cenando in casa. La logica classica non gestisce
l'informazione incerta.
"Spesso Dario cena a casa": la logica classica puo' soltanto affermare che Dario cena "sempre" a
casa. La logica classica non gestisce l'informazione approssimata.
"Dario e' sposato e cena a casa; Dario cena a casa; allora Dario dev'essere sposato". La logica
classica puo' inferire che Dario e' sposato soltanto se "tutti" gli uomini che cenano a casa sono
sposati. La logica classica non gestisce l'analogia.
"Dario non ha cenato a casa; allora Cinzia dev'essere in viaggio". La logica classica puo' inferire
che Cinzia e' in viaggio soltanto se "Dario non cena in casa" implica che "Cinzia e' in viaggio";
mentre in questo caso l'implicazione funziona alla rovescia. La logica classica non gestisce
l'abduzione.
La deduzione della logica classica non e' pertanto l'unica inferenza possibile. Anzi, nella vita
quotidiana per ricavare le verita' che ci servono a muoverci nel mondo reale usiamo dei tipi di
inferenza molto diversi.
Il pregio e il fascino della deduzione e' che e' "esatta". Ogni verita' dimostrata tramite la deduzione
soddisfa una serie spettacolare di proprieta', tra cui quella di essere vera per sempre. Il difetto della
deduzione e' che in realta' non crea nessuna nuova verita': ogni verita' dimostrata dalla deduzione
era gia' implicita nelle verita' note. La deduzione "dimostra", e non "costruisce", verita'. Altri tipi di
inferenza non dimostrano, ma costruiscono, nuove verita' (o presunte tali).
La teoria degli insiemi non e' meno sospetta. La mereologia di Lesniewski (lo studio delle parti e
degli interi e degli assiomi che servono per mettere in relazione gli une con gli altri), il calcolo degli
individui di Goodman e la teoria degli ensemble di Bunt sono alternative alla teoria degli insiemi
che rispettano il comandamento di Goodman: "nessuna distinzione di entita' senza distinzione di
contenuto." La teoria degli insiemi non soddisfa questo principio poiche' l'elemento "Piero"
l'insieme "{Piero}" (che ha come unico elemento Piero), l'insieme "{{Piero}}" (che ha come unico
elemento un insieme che ha come unico elemento Piero), e cosi' via all'infinito, sono tutti diversi fra
di loro pur rappresentando sostanzialmente la stessa cosa. La mereologia, in particolare, consente di
rappresentare i plurali in maniera piu' naturale (nel calcolo dei predicati il plurale richiede la
quantificazione di due variabili, una che rappresenta un insieme e una che svaria su tutti gli
elementi di quell'insieme, e questa notazione non e' certamente intuitiva).
Il processo di inferire la verita' puo' essere sintetico o analitico: nel primo caso viene prodotta una
verita' che non era ancora nota, nel secondo viene riformulata una verita' che era gia' nota. La
deduzione e' un esempio di inferenza analitica: la verita' di un teorema e' gia' contenuta
implicitamente nel sistema formale, e si tratta soltanto di usare le regole di inferenza per
dimostrarla. L'induzione e' invece un esempio di inferenza sintetica, poiche' la verita' che viene
prodotta non era gia' nota.
Un problema secolare dell'induzione e' che conserva la falsita', non la verita'; ma questo e' oggi
secondario rispetto a un altro problema: l'induzione viene usata per costruire concetti precisi e

rigidi, mentre i concetti usati nella vita quotidiana sono imprecisi e flessibili. Michalsky ha fatto
notare che questo fatto, lungi dall'essere un'imperfezione della mente umana, ha la funzione di
aumentare l'economia cognitiva delle nostre descrizioni. Per esempio, "triangolo" ha un significato
ben preciso in Geometria che nella pratica non viene quasi mai usato: "triangolo" e' un certo tipo di
isolato, uno strumento musicale o persino la relazione sessuale fra tre persone. Cio' e' possibile in
quanto, fra le altre cose, il concetto di triangolo non e' cosi' rigido da permettere soltanto il triangolo
geometrico.
Talvolta considerata un caso particolare dell'induzione, l'abduzione e' in realta' tutt'altro. La
proprieta' piu' importante dell'abduzione e' quella di essere in grado di giungere a una conclusione
anche in mancanza di informazione. Tale conclusione non e' necessariamente nella "chiusura
deduttiva" del sistema formale, ovvero non e' implicita nelle verita' gia' note.
Per gli scopi pratici l'abduzione e' sempre riconducibile a una forma di diagnosi, il cui scopo ultimo
e' quello di determinare quale sia la teoria migliore per spiegare un certo insieme di dati.
L'abduzione e' l'inferenza piu' usata per costruire teorie scientifiche, ed e' anche quella usata dal
dottore per inferire dai sintomi la malattia (il dottore deve trovare una malattia che sia coerente con
i sintomi).
Seguendo Levesque, possiamo distinguere l'abduzione dalla deduzione tramite la regola di
inferenza:
.ce se B e' vero e inoltre A implica B, allora A "spiega" B
in contrapposizione con quella della deduzione:
.ce se A e' vero e inoltre A implica B, allora A "convalida" B
L'abduzione e' coerente, in quanto, una volta abdotto A, posso verificare che da esso consegue B,
ma non e' necessariamente esatta, in quanto B potrebbe non essere dovuto ad A. In altre parole
l'abduzione risale alla causa di un effetto e formula un'ipotesi che sia coerente con tale effetto; ma,
naturalmente, possono esistere piu' cause dello stesso fenomeno.
Un tipo di ragionamento ancora piu' comune (e che alcuni ritengono piu' comune anche della
deduzione) e' quello analogico. A partire dai modelli psicologici di Spearman e da quelli matematici
di Polya, il ragionamento analogico e' stato considerato uno dei processi fondamentali per spiegare
come la mente riesca a risolvere problemi complessi in tempi brevissimi.
L'analogia puo' essere definita come la capacita' di risolvere un problema essendo noto come si
risolve un problema simile, ovvero di trasformare la soluzione di un problema nella soluzione di un
altro problema.
In generale l'"analogia" puo' essere interpretata come una "corrispondenza" fra le descrizioni di due
situazioni. Tale corrispondenza puo' essere piu' o meno parziale, a seconda del criterio di confronto

prescelto. Una volta stabilito che essa supera un dato limite, e che pertanto fra le due situazioni
sussiste una relazione di analogia, puo' aver luogo il ragionamento analogico, che consiste
nell'inferire alcune proprieta' di una delle due situazioni sulla base delle proprieta' dell'altra
situazione. Le proprieta' inferite per analogia possono essere qualsiasi cosa: attributi di un oggetto,
aspetti di un concetto, modi di risolvere un problema, e cosi' via.
Carbonell distingue due tipi di ragionamento analogico, quello "trasformazionale", che consiste nel
"trasferire" le proprieta' da una situazione a un'altra (seguendo Winston) tenendo conto delle diverse
"metriche" delle due situazioni, e quello "derivazionale", che consiste nel "derivare" le proprieta' di
una situazione da quelle di un'altra situazione sulla base dell'esperienza collegata a questa.
Quest'ultimo tipo di ragionamento analogico ricorda il meccanismo delle K-Line di Minsky, quello
di ricostruire gli aspetti rilevanti di un'esperienza passata.
Schank ha sviluppato una forma di analogia "per casi" (case-based reasoning) nella quale una
"memoria episodica" archivia tutti i "casi" incontrati sotto forma di loro generalizzazioni e ogni
nuovo "caso" che si presenta provoca la ricerca di un caso "simile" sia per guidare l'interpretazione
del nuovo caso (guidata dall'aspettarsi che succedano certi fatti che successero nel caso precedente)
sia per compilare nuove generalizzazioni di casi. Rispetto allo spazio di problema dei sistemi
deduttivi (come i sistemi di produzione) la memoria episodica contiene non "soluzioni" ma "esempi
di soluzione". Sia il ragionamento a regole di produzione sia quello a casi appartengono alla
categoria dei ragionamenti "template-based", dove il template e' un'espressione logica nel primo
caso e un caso nel secondo; ma il primo seleziona regole i cui antecedenti concordano con la
situazione corrente, e pertanto non puo' trattare situazioni nuove e non puo' incrementare la propria
memoria, mentre il secondo seleziona casi che corrispondono alla situazione corrente, tratta
situazioni nuove "per analogia" e incrementa la propria memoria "per validazione". .sp 5
FIGURA 9 .sp 5
Intendere la verita'
La Logica e' "estensionale" nel senso che la verita' di un'espressione dipende unicamente dagli
oggetti a cui si riferisce (dalla sua estensione), non dal suo significato (dalla sua intensione). In altre
parole i simboli di un linguaggio "estensionale" rappresentano oggetti o proprieta' di oggetti, e ogni
frase composta di tali simboli esprime una verita' o una falsita' relativa a tali oggetti o a tali
proprieta'. "Piero Scaruffi e' italiano" esprime una proprieta' di Piero Scaruffi che e' vera.
I linguaggi estensionali soddisfano la cosiddetta "legge di Leibniz": se in una frase si sostituisce un
termine con un altro termine che fa riferimento allo stesso oggetto si conserva la verita' (o la falsita')
della frase. Se al posto di "Piero Scaruffi", scriviamo "L'autore di questo libro" otteniamo ancora
una frase vera: "L'autore di questo libro e' italiano".
Che esistano dei problemi con le estensioni era gia' noto a Russell: "L'unicorno vola" e' falsa perche'
l'unicorno non e' tra gli oggetti che volano, ma il suo opposto "L'unicorno non vola" e' anche falsa,
in quanto l'unicorno non e' neppure fra gli oggetti che non volano, e cio' contraddice la legge
secondo cui una frase e' vera se il suo opposto e' falso.
Russell fece anche notare quanto poco conti l'estensione: siccome non sono sposato, l'espressione

"la moglie di Piero Scaruffi" non ha alcuna estensione, ma ha un significato intuitivo, eppure la
logica la tratta alla stregua di qualsiasi altra espressione priva di estensione ("l'elefante con le ali",
"il politico non corrotto", "Babbo Natale" e cosi' via), per cui l'una vale l'altra. Esiste una differenza
intuitiva fra "la moglie di Piero Scaruffi e' bella" e "il politico non corrotto e' bello", ma per la
Logica Matematica queste frasi sono equivalenti.
Frege studio' anche un caso che viola la legge di Leibniz: i verbi "sapere", "credere" e "pensare"
seguiti da una frase non permettono piu' di sostituire un termine con un termine dallo stesso
referente. Per esempio, se "Cinzia sa che Giusi ha trent'anni", e Giusi e' la moglie di Vincenzo, non
e' necessariamente vera la frase, apparentemente equivalente: "Cinzia sa che la moglie di Vincenzo
ha trent'anni". Cinzia potrebbe non sapere che Giusi e' la moglie di Vincenzo e in tal caso non
saprebbe rispondere alla domanda "Quanti anni ha la moglie di Vincenzo?" pur sapendo rispondere
alla domanda "Quanti anni ha Giusi?" La legge di Leibniz viene violata in tutti i casi di "contesto
opaco", come quelli di "sapere", "credere" e "pensare".
Insomma la logica estensionale non sa trattare frasi assai comuni nel linguaggio corrente come
quelle che usano i contesti opachi ("sapere", "credere", "pensare") e come quelle che usano gli
operatori modali (tutte le parole che si possono ricondurre alle forme "e' possibile che" e "e'
necessario che", dal verbo "dovere" all'avverbio "forse").
Queste frasi non sono "estensionali", nel senso che non soddisfano la legge di Leibniz.
Queste frasi sono invece interpretabili nella semantica dei modelli ("model-theoretic") di Kripke. Il
primo a concepire il nostro mondo come uno dei mondi possibili fu Leibniz, ma il primo a dare un
rigoroso fondamento logico a questa intuizione fu Kripke. Un'affermazione che e' falsa in questo
universo puo' benissimo essere vera in un altro mondo. Pertanto i valori di verita' di una frase sono
sempre relativi a un particolare mondo.
Nella semantica dei mondi possibili una proprieta' e' necessaria se in tutti i mondi e' vera, una
proprieta' e' possibile se esiste almeno un mondo in cui e' vera. "Piero Scaruffi e' italiano" e'
possibile, non necessaria; "Piero Scaruffi e' Piero Scaruffi" e' necessaria. Queste definizioni sono
estremamente utili nel diagnosticare i cosiddetti "controfattuali", ovvero frasi ipotetiche del tipo "Se
non fossi Piero Scaruffi, sarei francese" (non ha molto senso domandarsi se questa frase sia "vera" o
"falsa": e' pero' "possibile").
Mentre la teoria dei modelli di Tarski e' puramente estensionale (per ogni modello il significato di
un predicato e' determinato dall'elenco degli oggetti per cui e' vero), la logica "modale" di Kripke e'
intensionale: primo perche' tratta possibilita' che non esistono e potrebbero non esistere mai, e poi
perche' nella semantica dei mondi possibili le definizioni estensionali sono impossibili in quanto
l'insieme di oggetti e' infinito.
Nella logica modale di Lewis una proposizione e' necessaria se e' vera in ogni mondo possibile, e'
possibile se e' vera in almeno un mondo possibile. "Necessita'" e "possibilita'" sono operatori
modali, nel senso che operano su espressioni logiche esattamente come i comuni connettivi logici. I
due operatori modali sono duali (l'uno puo' essere espresso in funzione dell'altro), e in cio' riflettono
semplicemente il dualismo dei due quantificatori (anche l'esistenziale e l'universale possono essere

espressi in funzione l'uno dell'altro). Una logica modale viene costruita aggiungendo agli assiomi di
una logica non-modale alcuni assiomi contenenti gli operatori modali. Per esempio, e' comune
aggiungere gli assiomi modali cosiddetti "di Kripke" (se e' necessario che A implichi B, allora se A
e' necessario anche B e' necessario) e "di verita'" (se A e' necessario, A e' vero). .sp 5
FIGURA 10 .sp 5
Gli operatori modali possono in realta' stare per qualsiasi coppia di concetti duali. Per esempio,
potrei costruire una logica modale i cui operatori sono "A Dario piace..." e "A Cinzia piace..." ( i
loro gusti sono praticamente incompatibili, per cui possono essere derivati gli uni dagli altri).
Sono possibili infiniti tipi di logiche modali. Tutto dipende da quali assiomi modali si decide di
introdurre. E' chiaro che questi assiomi devono riflettere l'accezione comune di quelle proprieta'
modali (per esempio, di "necessita'" e "possibilita'", per esempio di "A Dario piace..." e "A Cinzia
piace..."). In particolare, le logiche intensionali rappresentano attitudini proposizionali, attitudini
mentali verso una proposizione. Se l'intensionalita' e' limitata alle attitudini di conoscere e credere,
la logica e' quella epistemica.
In questo caso gli operatori modali della logica sono quelli di "conoscenza" (l'operatore epistemico)
e "credenza" (l'operatore doxastico). Le due entita' sono distinte dall'assioma di verita', che alla luce
dei nuovi operatori si puo' leggere cosi': se conosco qualcosa, quel qualcosa e' vero; se credo in
qualcosa, quel qualcosa non e' necessariamente vero. Il problema e' che non e' chiaro quali altri
assiomi siano coerenti con l'accezione di conoscenza e di credenza. L'assioma di Kripke, per
esempio, applicato agli operatori epistemico e doxastico, afferma la mia onniscienza matematica: se
conosco A, allora conosco anche tutto cio' che consegue da A; e siccome io conosco gli assiomi di
Peano, vuol dire che conosco tutto cio' che e' dimostrabile in Matematica; il che', ahime', non e'.
Costruire la verita'
Il fatto che la logica classica "dimostri" e non "costruisca" verita' puo' dar adito anche a un altro
genere di critica. Le sue regole di inferenza si prestano infatti a dei grossolani paradossi:
l'implicazione, per esempio, non corrisponde al "se" del linguaggio comune ("P implica Q" non e'
identico a "se P, allora Q"). Per esempio, "Vincenzo e' scapolo implica Vincenzo e' piemontese" non
corrisponde a "Se Vincenzo e' scapolo, allora Vincenzo e' piemontese", tant'e' che la seconda non ha
alcun senso mentre la prima, secondo la logica classica, risulta persino vera; ancora, "ogni figlio di
Vincenzo si chiama Alfredo" risulta vera nella logica classica, poiche' il mio amico Vincenzo non ha
figli, mentre non ha senso nel linguaggio comune, appunto in quanto Vincenzo non ha figli.
Per ovviare a questi paradossi della logica classica, la logica "intuizionista" limita il suo campo
d'azione a cio' che puo' essere costruito mentalmente. Cosi' non ha senso prendere la negazione di
una verita', un espediente che e' invece spesso utilizzato nel calcolo logico. Il significato di
un'espressione non sta nelle sue condizioni di verita', ma nel modo di dimostrarla.
La teoria del significato di Dummett e' una variante della logica intuizionista che sostituisce verifica
e falsificazione a verita' e falsita'.

Anche la semantica "dei giochi" di Hintikka assume che la verita' possa essere ottenuta soltanto
attraverso un processo di "falsificazione" e di "verifica": la verita' di un'espressione viene
determinata attraverso un insieme di regole, dipendenti dal dominio, che definiscono una sorta di
"gioco" fra due agenti, il primo intenzionato a "convalidare" e il secondo a "confutare"
l'espressione. L'espressione e' vera se vince il primo agente. La differenza fra Hintikka e Dummett
e' che la teoria del primo (verificazionista come quella del secondo) e' ancora una semantica "truthconditional".
Affine a questi "giochi" di verita' e' il ragionamento "opportunistico" coniato da Hayes-Roth, nel
quale un certo numero di agenti indipendenti cooperano per giungere alla soluzione. La metafora e'
quella di un "consulto" di medici specialisti: a turno ciascuno specialista esamina sia la diagnosi
parziale degli altri specialisti sia il paziente, e aggiunge a sua volta qualcosa alla diagnosi parziale.
A forza di alternarsi gli specialisti dovrebbero prima o poi trasformare quella diagnosi parziale nella
diagnosi finale. Nel modello "a lavagna" (blackboard) di Hayes-Roth ogni agente legge le
conclusioni degli altri agenti, ragiona e poi scrive a sua volta le conclusioni a cui e' pervenuto. Ogni
agente e' specializzato in qualche tipo di ragionamento, o nel ragionare in qualche specifico
dominio, in modo che il lavoro collettivo sia ben distribuito. Questo e' pertanto un modo di
ragionare "incrementale" (nel senso che la soluzione viene costruita poco alla volta) e
"opportunistico" (in quanto gli agenti sfruttano di volta in volta le opportunita' che si presentano).
In ogni istante questo sistema di agenti ha a disposizione due "agende" di azioni: quelle che il
sistema "desidera" compiere (cioe' le azioni che almeno un agente ha bisogno di compiere per
continuare il proprio ragionamento, ma non puo' compiere per mancanza di informazione), ovvero
l'agenda delle azioni necessarie; e quelle che il sistema puo' compiere (cioe' le azioni per le quali si
sono verificate le condizioni), ovvero l'agenda delle azioni possibili. Dal confronto fra le due
agende il sistema determina quali azioni sono al tempo stesso necessarie e possibili, e pertanto quali
agenti devono riprendere il proprio ragionamento. Il vantaggio computazionale di questo tipo di
ragionamento e' proprio dovuto al fatto che prende in considerazione soltanto le azioni che sono
possibili e necessarie, ovvero quelle e solo quelle che sono rilevanti ai fini della risoluzione del
problema. .sp 5
FIGURA 11 .sp 5
Infine un altro modo di "costruire" la verita' e' quello di partire da un'ipotesi e raffinarla di passo in
passo. Secondo la teoria "revisionista" della verita' di Gupta, infatti, la verita' non andrebbe stabilita
tramite una regola di applicazione, ma tramite una regola di revisione. Per esempio, si voglia
determinare tutte le frasi di un dato linguaggio che sono vere quando quel linguaggio comprende un
predicato di verita' (un predicato che fa riferimento al concetto di "vero"). Per poter valutare quel
predicato di verita' e' necessario sapere qual'e' l'estensione di "vero", ma l'estensione di "vero" e'
proprio cio' che si deve stabilire. L'unico modo di uscire da questa circolarita' e' di assumere
inizialmente un'estensione di "vero" e applicare una regola di revisione il cui risultato sara'
un'estensione di "vero" migliore della precedente. La "verita'" viene pertanto ottenuta attraverso un
processo incrementale di raffinamento progressivo. La scelta di questa regola di revisione puo'
avvenire in diversi modi, ma e' ovviamente fondamentale che a un certo punto l'estensione di "vero"
converga verso un'estensione stabile, e Belnap propone una "politica di scelta" che dovrebbe essere
ottimale.
L'incertezza

Nel 1927 Heisenberg diede una svolta storica non solo alla scienza ma al concetto stesso di verita'
enunciando il suo principio di indeterminatezza. Da allora l'"incertezza" e' divenuta, in un modo o
nell'altro, una delle poche certezze della Scienza moderna. Da allora e' entrato nell'uso comune di
ritenere che esista un limite alla capacita' della Scienza di capire l'universo.
In ballo c'e' il principio di causalita', e cioe' che ogni effetto sia preceduto da una causa e una sola.
Per esempio, nella meccanica newtoniana la posizione e la velocita' in un certo istante di una
particella non soggetta a forze determinano in modo univoco dove si trovera' la particella in un
istante successivo. In pratica il principio di causalita' asserisce che, se e' noto il presente, si puo'
calcolare il futuro.
Il principio di indeterminatezza di Heisenberg rimette in discussione le stesse premesse del
principio di causalita', ovvero che possano essere note simultaneamente la posizione e la velocita' di
una particella: esse possono essere misurate simultaneamente soltanto con un margine di incertezza
(piu' precisa e' la misura della prima piu' imprecisa e' quella della seconda). Di conseguenza anche il
"futuro" della particella ha un margine di incertezza, ovvero sono possibili diversi futuri, ciascuno
con una certa probabilita'.
Nonostante la Meccanica Quantistica abbia ricevuto un numero impressionante di conferme
sperimentali, molti pensatori sono sempre stati riluttanti ad accettare l'idea che tutto sia affidato al
caso. Uno di questi, Albert Einstein, parlo' per tutti noi (credenti e non) quando disse che Dio non
gioca a dadi. E Einstein aveva la tendenza ad avere sempre ragione, anche quando pensava di avere
torto. Quella celebre frase aleggia ancora come una minaccia sul principio di indeterminatezza e su
tutta la Scienza e la Filosofia che ne sono seguite.
La Probabilita'
Il mondo della logica e' un mondo ideale, semplice e chiaro, in cui e' possibile compiere
ragionamenti esatti. Il mondo reale e' molto diverso, in quanto la maggioranza delle informazioni
sono incerte, inesatte, vaghe.
Una prima forma di incertezza e' quella relativa a quanto un soggetto crede che qualcosa sia vero.
Seguendo Savage, questa incertezza, o, meglio, questo "grado di convinzione", puo' essere espresso
in termini di probabilita', le quali hanno il pregio di soddisfare un insieme di regole matematiche
(benche' fossero state inventate per esprimere una misura della frequenza con cui un evento si
verifica, e non per esprimere una misura dell'attesa che un evento si verifichi, ovvero per un
compito descrittivo e non normativo: ancora una volta la Matematica e il suo mondo ideale
finiscono per prevalere sulla Psicologia e sul mondo reale).
Tversky ha invece dimostrato che la teoria matematica della probabilita' non si presta a descrivere e
prescrivere il comportamento umano, il quale e' soggetto ad aberrazioni di prospettiva (i cosiddetti
"framing effects", che influenzano convinzioni, e pertanto le probabilita'). Per esempio, quando
Vincenzo doveva decidere se acquistare la casa o meno, era entusiasta tutte le volte che pensava al
risparmio dell'affitto, ma terrorizzato ogni volta che pensava al proprio conto in banca. A seconda di
come il problema viene presentato, la propensione al rischio puo' essere completamente diversa,
come ogni agente immobiliare ben sa. In generale questo fenomeno e' riconducibile al fatto che ben
pochi hanno l'esperienza necessaria per stabilire esattamente l'"utilita'", e pertanto le probabilita' di
riuscita, di un certo corso d'azione. Tversky ne deduce che nessuna teoria "normativa" adeguata puo'

essere anche una teoria "descrittiva" accurata.


Tversky e Shafer ovviano a questo inconveniente (o, piuttosto, vizio bello e buono) con una teoria
"costruttivista" delle probabilita', nella quale la probabilita' descrive una situazione ideale che deve
in qualche modo essere posta in relazione di analogia con la situazione reale, e cio' puo' avvenire in
diverse maniere. Secondo Shafer, in accordo con gli esperimenti di Tversky, il modo in cui
assegniamo probabilita' a un evento e' una sorta di esperimento mentale tramite il quale tentiamo di
costruire una situazione immaginaria, e il risultato a cui perveniamo dipende proprio dal processo di
costruzione, dal "come" ci siamo arrivati. Seguendo due strade diverse, possiamo pervenire a due
risultati diversi. Secondo Shafer la gente non ha preferenze, le costruisce.
Savage baso' la sua teoria delle probabilita' su argomenti pragmatici che riguardavano la presa di
decisioni. Cox tento' invece di fondare una teoria dell'inferenza probabilistica su basi assiomatiche:
i suoi assiomi non fanno riferimento ad alcun criterio pragmatico, bensi' soltanto alle relazioni fra
evidenza ("evidence") e convinzione ("belief"). Qualunque fenomeno che possa essere descritto
dagli assiomi di Cox puo' essere ricondotto al calcolo delle probabilita'. In tal modo Cox dimostra
anche che qualunque formalismo numerico per ragionare sull'incertezza e' un travestimento della
teoria delle probabilita'. E Aleliunas sosterra' qualcosa di simile per i formalismi non numerici, da
cui si potrebbe dedurre che qualunque teoria dell'incertezza e' in un'ultima analisi una variante della
teoria delle probabilita'.
Un'assiomatizzazione piu' coerente con i risultati sperimentali e' quella di Pearl. Pearl comincia con
l'osservare che una proprieta' dell'informazione e' quella di essere rilevante per qualche altro tipo di
informazione, altrimenti non sarebbe informazione. La proprieta' duale della rilevanza e' la
dipendenza: se, dato quel che e' noto, un'informazione e' rilevante per un'altra informazione, allora
quest'altra e' dipendente dalla prima. Per l'esattezza la rilevanza puo' essere identificata con la
"indipendenza condizionale", ovvero con la proprieta' che la probabilita' condizionale di due eventi
rispetto a quanto e' noto sia pari al prodotto delle probabilita' condizionali dei singoli eventi rispetto
a quanto e' noto. Pearl fornisce poi una formulazione assiomatica dell'indipendenza condizionale.
E' possibile anche una rappresentazione grafica della dipendenza condizionale, sotto forma di
"diagrammi di influenza", detti anche "reti causali". Le reti causali di Pearl sono grafi aciclici
diretti, nei quali i nodi sono variabili casuali (che possono avere qualsiasi valore, il valore di uno dei
"casi" che si possono presentare) e gli archi esprimono le dipendenze fra tali variabili. Un grafo
causale consente di calcolare le probabilita' condizionali di tutti i nodi nella rete, una volta che siano
dati i valori di alcuni nodi. Man mano che piu' informazione diventa disponibile, ovvero che i valori
di altri nodi vengono vengono definiti, le probabilita' condizionali dei nodi liberi cambiano, in
accordo con la cosiddetta "formula di inversione" di Bayes. Il grafo che rappresenta una situazione
reale puo' essere molto complesso, ma esiste una tecnica matematica per semplificarlo (basata sul
concetto di "d-connessione", che stabilisce quali variabili sono dipendenti e quali no). .sp 5
FIGURA 12 .sp 5
Una rete causale ha anche la facolta' di essere "isotropa", nel senso che puo' essere usata per
compiere inferenze in entrambe le direzioni: scorrendo il grafo dall'alto verso il basso si compie
un'inferenza di tipo "predittivo", nel senso che si puo' inferire con quante probabilita' un certo
evento causera' un altro evento; mentre scorrendo invece il grafo dal basso verso l'alto si compie

un'inferenza di tipo "diagnostico", nel senso che si puo' inferire con quanta probabilita' un evento e'
dovuto a un altro evento.
Secondo Pearl l'esperienza viene trasformata in modelli causali affinche' sia poi possibile prendere
delle decisioni. Le reti causali, infatti, o meglio i diagrammi di influenza, possono essere "risolti"
tramite tecniche matematiche (formalizzate da Shachter) per ottenere dei consigli su quale
"decisione" prendere. La tecnica di prendere decisioni e' diventata una disciplina a se stante con
l'"analisi delle decisioni" di Raiffa, la quale, sull'esempio di Savage, mutua molte idee
dall'Economia (principalmente quella di "utilita'" di von Neumann, ovvero di calcolare i pro e i
contro di una decisione) e ha come fine ultimo quello di definire cosa sia una decisione "buona"
(siccome una decisione "buona" non da' necessariamente un risultato "buono", un risultato cattivo
non significa necessariamente che la decisione fosse anche cattiva).
L'intero fenomeno del "prendere decisioni" esiste in quanto esiste l'incertezza; se non esistesse
l'incertezza, esisterebbe sempre una sola decisione sensata.
Le reti causali non devono usare necessariamente le probabilita'.
Uno dei pilastri ideologici della teoria delle probabilita' e' che la probabilita' di un evento e' uguale a
uno meno la probabilita' del suo opposto, o, equivalentemente, che la somma delle probabilita' di
tutti gli eventi sia uno. Per esempio, se la probabilita' che io scriva degli altri libri e' il 90%, la
probabilita' che io smetta di scrivere deve essere il 10%.
La "funzione di convinzione" ("belief function") di Dempster e' una generalizzazione della
probabilita' a tutti i possibili sotto-insiemi di eventi. Per esempio, nel caso di un dado gli eventi
possibili sono sei (le sei facce del dado), ma i possibili sotto-insiemi di eventi sono 64 (i sei di cui
sopra, piu' le varie combinazioni di due facce, come "pari" e "dispari", quelle di tre facce, di quattro
e cosi' via). La somma delle probabilita' di tutti i sotto-insiemi vale uno, ma la somma delle
probabilita' di tutti i singoli eventi vale meno di uno. Dempster consente pertanto di assegnare una
probabilita' a un gruppo di eventi nel suo insieme, senza assumere che sia nota anche la probabilita'
dei singoli eventi. Indirettamente Dempster consente di rappresentare l'"ignoranza", come lo stato in
cui la convinzione di un evento non e' nota (anche se e' nota quella di un insieme a cui quell'evento
appartiene).
Dal punto di vista semantico Pearl ha dimostrato che una funzione di convinzione relativa a una
proposizione rappresenta la probabilita' di dimostrare che, dati i vincoli imposti dall'evidenza
disponibile, quella proposizione e' vera; secondo Pearl la funzione di convinzione misura quanto la
proposizione si avvicina alla "necessita'". La probabilita' classica, invece, misura quanto la
proposizione si avvicina alla "verita'". La teoria di Bayes considera l'evidenza disponibile alla
stregua di assunzioni riguardo le probabilita', mentre la teoria di Dempster considera l'evidenza
disponibile alla stregua di probabilita' per scegliere le assunzioni; nel primo caso una proposizione
e' credibile quando e' dimostrabilmente probabile, nel secondo caso una proposizione e' credibile
quando e' probabilmente dimostrabile; nel primo caso la teoria delle probabilita' e' il linguaggio
oggetto e la logica e' il meta-linguaggio, nel secondo caso i ruoli sono invertiti. Il vantaggio della
teoria di Dempster e' che non richiede un modello probabilistico completo del dominio. .sp 5

FIGURA 13 .sp 5
La "formula di combinazione" di Dempster esibisce la proprieta' che due evidenze a favore si
rinforzano l'un l'altra, mentre due evidenze contrarie si indeboliscono l'un l'altra. Di conseguenza
una rete causale basata sulla funzione di convinzione restringe progressivamente il campo delle
ipotesi e pertanto meglio rappresenta il senso comune. Sfortunatamente la formula di inversione di
Dempster ha anche un'altra proprieta': quella di crescere esponenzialmente in complessita', e di
essere pertanto computazionalmente impraticabile.
La Possibilita'
E' dubbio, inoltre, se il senso comune calcoli probabilita' di necessita' o probabilita' di verita'.
La logica delle possibilita' (per esempio, nella versione di Dubois) assegna a ogni assioma un grado
di possibilita' e un grado di necessita'. Per esempio, "Dio esiste" ha per me necessita' zero e
possibilita' uno, ovvero sono del tutto ignorante sulla verita' o falsita' di questa proposizione.
Viceversa la necessita' uno significa che l'assioma e' vertamente vero e la possibilita' zero che e'
certamente falso. La principale differenza fra la logica modale e la logica delle possibilita' e' che
nella prima non esistono gradi di necessita' e di possibilita' ("Vincenzo e' a casa" e' possibile, punto
e basta), nella seconda si' ("Vincenzo e' a casa" e' possibile con grado X). La logica delle possibilita'
ammette un solo insieme di assiomi, mentre quella modale ne ammette molti.
Le possibilita' sono state usate anche come un'alternativa alle probabilita', per esempio da Shackle.
La possibilita' si distingue dalla probabilita' in quanto consente di trattare anche quei casi in cui tutti
gli eventi sono incerti allo stesso modo. La possibilita' puo' in effetti trattare l'intero spettro
dell'incertezza, dall'informazione completa all'ignoranza totale.
L'ambiguita'
Non bisogna confondere l'imprecisione (Dario ha guardato la partita con il 99% di probabilita') e la
vaghezza ("Vincenzo e' molto simpatico"). Nel primo caso la proposizione e' vera o falsa, ma per
mancanza di informazione possiamo soltanto fornire una stima della sua verita'. Nel secondo caso
l'informazione e' completa e la proposizione e' precisissima, ma non e' ne' vera ne' falsa, bensi'
qualcosa di intermedio.
Il linguaggio ordinario e' vago. Questo non e' un problema, come i logici "bivalenti" (quelli che
ammettono soltanto il vero e il falso) hanno sempre sostenuto, ma una soluzione. E' grazie al suo
essere vaga che una asserzione viene creduta vera; all'aumentare della sua precisione diminuisce la
certezza della sua verita'. Per esempio, "I libri di Piero Scaruffi sono interessanti" mi sembra
ovviamente vera; ma se cerco di precisare che "I libri di Piero Scaruffi sono interessanti con un
grado di interesse di 0,76" non sono piu' sicuro di quello 0,76: perche' non 0,77? L'essere vago e'
una proprieta' cruciale del linguaggio, senza la quale la nostra capacita' di comunicare e di percepire
il mondo sarebbe gravemente limitata. Il computer su cui sto scrivendo e' "rumoroso", il tempo oggi
e' "bello" ed e' gia' "tardi" per andare al cinema: questo mondo e' facile da esprimere e da capire; se
dovessi riformulare ogni frase in termini precisi (magari usando decibel, gradi centigradi e minuti)
non riuscirei ad essere altrettanto chiaro ed efficace.

Persino quando dico di essere alto un metro e settanta, o di avere trentotto anni, o di avere gli occhi
azzurri dico qualcosa che non e' del tutto vero: sono tutte approssimazioni grossolane (in realta'
sono alto m. 1,704325332; ho trentotto anni, 192 giorni, 7 ore, 42 minuti e 12 secondi di vita; la
frequenza di colore dei miei occhi e'...). Ma alla domanda "quanti anni hai?" la gente si aspetta di
sentirsi rispondere "trentotto" e non "trentotto anni, 192 giorni, 7 ore...".
Non bisogna eliminare la vaghezza, come tentano di fare i logici, ma fornire una teoria della
vaghezza. Esistono due tipi di vaghezza, una estensionale e una intensionale: la prima e' quella
relativa all'appartenenza di un oggetto a un certo concetto (la vaghezza di "I libri di Piero Scaruffi
sono interessanti" esprime un grado di incertezza sul fatto che quei libri appartengano al concetto di
"interessante"), mentre la seconda e' relativa all'appartenenza di un concetto a un altro concetto (la
vaghezza di "I libri sono mezzi di comunicazione"). L'esattezza (l'essere o vero o falso e mai nulla
di intermedio) e' un limite dell'approssimato.
Nel caso delle teorie dell'incertezza, il grado di verita' e' la misura della coerenza che esiste fra una
proposizione sul mondo e lo stato del mondo. Il significato di una proposizione e' il vincolo che
limita i valori delle variabili presenti (esplicitamente o implicitamente) in quella proposizione.
Zadeh definisce una procedura per "calcolare" il significato, ovvero quel vincolo, tramite tecniche
di programmazione non lineare. Una proposizione puo' cosi' risultare vera, falsa, parzialmente nota
oppure vaga con un certo grado di vaghezza.
La teoria delle quantita' "fuzzy" di Zadeh afferma che non esistono cose vere e cose false, ma
soltanto gradi di verita'. Questa e' una concezione del mondo molto piu' vicina a quella del senso
comune: non e' che un oggetto sia rosso o meno; puo' essere piu' o meno rosso. La logica
matematica e' una grossolana approssimazione del nostro mondo, un'approssimazione in cui gli
oggetti possono soltanto essere rossi o non essere rossi, ma non possono essere "molto rossi" o
"poco rossi" o "quasi rossi".
Kline ha dimostrato che non solo questa concezione e' piu' intuitiva, ma puo' anche risolvere i
celebri paradossi causati dalla legge di non contraddizione ("non e' possibile che una proposizione e
il suo opposto siano contemporaneamente veri") e dalla legge del medio escluso ("o una
proposizione e' vera o e' vero il suo opposto"): tanto il paradosso del barbiere quanto quello del
mentitore sono risolvibili ammettendo un grado di verita' di 0,5.
La logica fuzzy e' una logica a piu' valori, come quella di Lukasiewicz, nel senso che un termine
puo' avere piu' dei due valori, vero e falso, della logica classica. Non si oppone, pero', a quella
classica, ma la amplia.
La logica fuzzy rende persino conto di un problema ontologico che ha assillato i Filosofi per secoli:
se da un mucchio di sabbia tolgo un granello, ho ancora un mucchio di sabbia? Se si', allora posso
ripetere questa procedura e ottenere sempre un mucchio di sabbia; ma i granelli sono in numero
finito, e prima o poi mi ritrovero' con nulla. Nella logica fuzzy, invece, ogni volta che rimuovo un
granello ottengo un oggetto che e' sempre di meno un mucchio di sabbia: ogni applicazione di una
regola di inferenza fa perdere un po' di verita' alla proposizione risultante.
Addirittura nella logica fuzzy e' possibile che un insieme appartenga (parzialmente) a una delle sue

parti. Ogni insieme puo' essere sottoinsieme di un altro insieme con un certo grado di appartenenza
e nulla proibisce che "alto" sia sottoinsieme parziale di "basso" mentre "basso" e' sottoinsieme
parziale di "alto". .sp 5
FIGURA 14 .sp 5
L'idea di fondo e' un derivato del principio di indeterminatezza di Heisenberg, che precisione e
certezza siano inversamente proporzionali, e del principio "di incompatibilita'" di Duhem, secondo
cui la convinzione che una asserzione vaga sia vera discende dal suo essere vaga. Entrambi dicono
la stessa cosa: all'aumentare della precisione di una proposizione diminuisce la certezza che quella
proposizione sia vera. Un aspetto di questo principio e' un fenomeno ben noto ad ogni politico: e'
facile essere certi di qualcosa in termini qualitativi, visto che non si puo' essere precisi, mentre e'
difficile essere certi di qualcosa in termini quantitativi, poiche' allora si dovrebbe essere molto
precisi.
Un insieme "fuzzy" e' un insieme di elementi che appartengono all'insieme soltanto in parte, ovvero
ogni elemento e' caratterizzato da un certo grado di appartenenza all'insieme fuzzy (o grado di
esistenza). Per esempio, nell'insieme fuzzy degli amici di Dario ci sono amici piu' amici e amici
meno amici. Questi gradi di appartenenza sono espressi come numeri reali compresi fra zero e uno.
Un amico di Dario che abbia grado di appartenenza uno e' l'amico perfetto; un amico di Dario che
abbia grado di appartenenza zero e' il nemico perfetto. Su queste quantita' fuzzy e' allora possibile
operatore con "modificatori fuzzy" come "molto" e "poco", "quasi" e "alquanto" e con
"quantificatori fuzzy" come "molti" e "pochi".
Nella teoria classica degli insiemi un oggetto e' membro di un insieme oppure non lo e'. Nella teoria
degli insiemi fuzzy un oggetto puo' essere membro di piu' insiemi con un certo grado di
appartenenza ("membership"), il quale puo' variare da zero a uno. Di conseguenza anche i valori di
verita' non sono piu' zero e uno ma variano in quello stesso intervallo continuo. La logica non e' piu'
bivalente, ma ha valori multipli. Una frase fuzzy (come "I libri di Piero sono interessanti") puo'
allora avere un valore di verita' di 0,65 o 0,72 o 0,38.
A proiettare l'universo di discorso (relativo a una certa variabile) nell'intervallo dei valori compreso
fra zero e uno e' una "distribuzione di possibilita'" (relativa a quella variabile), la quale specifica di
fatto cio' che si ritiene essere epistemicamente possibile (i valori ammissibili per quella variabile). Il
valore della distribuzione per un certo termine T del discorso esprime il grado di preferenza che si
attribuisce all'espressione "il valore della variabile e' T", ovvero il grado di possibilita' di T per
quella variabile. Per esempio, se la variabile in questione e' la statura di Dario, quanto ritengo che
sia possibile che "Dario e' alto".
Gli esperimenti di Rosch sul modo in cui gli individui classificano oggetti in categorie sembrano
confermare che le categorie non sono necessariamente esclusive, ovvero che uno stesso oggetto
puo' appartenere parzialmente a piu' categorie.
I sistemi fuzzy (per esempio quelli di Yager) sono sistemi di produzione in cui le regole di
produzione impiegano termini (predicati e modificatori) fuzzy. (Di fatto questo significa che sono
insiemi di vincoli elastici su un insieme di variabili; e l'inferenza e' allora un processo di

propagazione di tali vincoli). A differenza delle regole di produzione classiche, che sono attive o
meno, le regole fuzzy sono sempre attive. Ogni regola e' sempre parzialmente soddisfatta. Cio' che
cambia e' il grado di soddisfazione. Dworkin ha fatto notare che cio' e' piu' coerente con il modo in
cui si evolve la nostra societa'. Non e' vero che una legge e' in vigore o meno; e' vero che certe leggi
sono piu' o meno in vigore. Le leggi cambiano nel tempo in accordo con i principi del vivere
sociale. E ogni giudice che si rispetti deve prendere in considerazione diverse leggi e applicare
secondo il relativo grado di rilevanza.
I sistemi fuzzy si prestano anche per rappresentare il significato di un discorso i linguaggio
ordinario. Secondo la semantica "test-score" di Zadeh, che risulta essere una generalizzazione delle
semantiche verita'-condizionale, dei modelli e dei mondi possibili, il significato di una proposizione
e' la procedura che porta a calcolare il valore di "test-score" sulla base del grado di soddisfazione
dei vincoli elastici.
Kosko ha introdotto una formalizzazione della logica fuzzy in cui un insieme fuzzy e' un punto in
un ipercubo unitario (l'equivalente dell'"universo di discorso" di Zadeh) e un insieme non fuzzy e'
uno dei vertici di tale ipercubo. Tutti i paradossi della logica classica si verificano nei punti medi di
questo ipercubo. L'entropia di un insieme fuzzy (e in un certo senso la sua "ambiguita'") risulta
definita dal numero di violazioni della legge di non contraddizione rapportato al numero di
violazioni della legge del medio escluso; l'entropia e' nulla proprio quando queste leggi valgono
entrambe, e' massima nel centro dell'ipercubo. Alternativamente, e in maniera equivalente,
l'entropia di un insieme fuzzy puo' anche essere definita come una misura di quanto un insieme e'
sottoinsieme di un sottoinsieme di se stesso.
Un sistema fuzzy risulta allora una relazione fra ipercubi, e, piu' precisamente, una relazione che
porta famiglie di insiemi fuzzy in famiglie di insiemi fuzzy. Un genere particolare di sistemi fuzzy
e' quello delle "memorie associative fuzzy", che portano "palle" di insiemi fuzzy in "palle" di
insiemi fuzzy (dove una "palla" esprime la continuita' del sistema fuzzy).
In tal modo Kosko potrebbe anche dimostrare che la logica fuzzy si presta meglio della teoria delle
probabilita' a descrivere il mondo. La logica fuzzy, che e' in grado di replicare tutti i risultati della
teoria delle probabilita', anzi persino di renderne conto senza postulare l'esistenza del caso (per
esempio, la frequenza relativa e' una misura di quanto un insieme e' sottoinsieme di un altro
insieme), si presta meglio a descrivere il mondo. Per esempio, se la probabilita' che in un frigorifero
ci sia una mela e' 50% e in un altro frigorifero c'e' mezza mela e' ovvio che i due frigoriferi si
trovano in due stati diversi, anche se quegli stati sono equivalenti dal punto di vista della loro
incertezza numerica: il primo e' uno stato casuale, il secondo e' uno stato fuzzy (ambiguo, ma
ancora deterministico). Kosko si domanda se la Meccanica Quantistica tratta la casualita' o
l'ambiguita' dell'universo: un'onda di probabilita' misura la probabilita' che una particella si venga a
trovare in una certa regione dello spazio oppure il grado in cui una nuvola di elettroni copre quella
regione? L'universo e' casuale o deterministico? Einstein avrebbe probabilmente preferito una
Meccanica Quantistica basata sulla fuzzy logic.
Uno dei fatti piu' antipatici della Scienza moderna e' la netta e rigida separazione fra le scienze della
mente e le scienze del resto dell'universo. Mentre da un lato Meccanica Quantistica e Relativita'
Generale sembrano convergere sempre piu' verso una formulazione unificata delle leggi della
Natura, la Neurofisiologia e la Psicologia stanno pervenendo a un modello altrettanto solido e
coerente, ma di tutt'altra forma. Sembrerebbe che l'essenza dell'universo e delle sue leggi cambi

drasticamente nel momento in cui si varca la soglia del nostro cranio. D'altro canto i due mondi
appaiono separati da un abisso incolmabile.
Se fosse possibile ricostruire la Meccanica Quantistica utilizzando un principio di "ambiguita'",
invece che un principio di "incertezza", potremmo descrivere il mondo con la logica fuzzy. Al
tempo stesso abbiamo scoperto delle relazioni matematiche fra sistemi fuzzy e sistemi neurali,
ovvero dovrebbe essere possibile descrivere anche il cervello con la logica fuzzy. Allora avremmo
trovato il ponte che colma quell'abisso.
Kosko fa notare che molte leggi della Fisica dovrebbero essere reversibili, ma non lo possono essere
perche' altrimenti si viola proprio il postulato della sua casualita': se nel passare da uno stato X a
uno stato Y esisteva un certo grado di probabilita', una volta che quella transizione di stato si sia
verificata quel grado di probabilita' non esiste piu', in quanto e' diventato certezza; nel tornare
indietro pertanto la probabilita' e' uno. Se si usa la logica fuzzy, invece, l'"ambiguita'" di un evento
rimane sempre la stessa, prima e dopo il suo essersi verificato, e un'ipotetica ripetizione alla
rovescia sarebbe perfettamente coerente.
Forse e' l'uomo, nella sua immane ignoranza delle cause fondamentali dell'universo, a giocare a
dadi, e non Dio. .sp 5
Bibliografia:
Aleliunas R. (1988): A new normative theory of probabilistic logic
(Proc Biennial Conference of the CSCSI p.67)
Belnap N. (1982): Gupta's rule of revision theory of truth
(Journal of Philosophical Logic n.11 p. 103)
Bunt H. (1985): Mass-terms and model-theoretic semantics (Cambridge Univ Press)
Carbonell J. (1983): Derivational analogy (Proc AAAI)
Churchland P. (1979): Scientific realism and the plasticity of mind
Cox R. (1961): The algebra of probable inference (John Hopkins Press)
Dempster A. (1968): A generalization of Bayesian inference
(Journal Royal Statistical Society n.B30 p.205)
Dubois D. & Prade H. (1988): Possibility theory (Plenum Press)
Dummett M. (1978): Truth and other enigmas (Harvard Univ Press)
Dworkin R. (1977): Taking rights seriously (Harvard Univ Press)
Goodman N. (1972): Problems and projects (Bobbs-Merrill)
Gupta A. (1981): Truth and paradox
(Journal of Philosophical Logic n.11 p. 1)
Hayes-Roth B. (1985): A blackboard architecture for control
(Journal of Artificial Intelligence n.26 p.251)

Hintikka J. (1983): The game of language (Reidel)


Kline M. (1980): The loss of certainty (Oxford Univ Press)
Kosko B. (1992): Neural networks and fuzzy systems (Prentice Hall)
Kripke S. (1963): Semantical considerations on modal logic
(Acta Philos. Fenn. n.16 p.83)
Levesque H. (1989): A knowledge-level account of abduction (Proc. IJCAI p.1061)
Lewis C.I. (1932): Symbolic Logic (Mineola)
Michalsky R. (1983): Machine Learning I (Morgan Kaufman)
Michalsky R. (1986): Machine Learning II (Morgan Kaufman)
Michalsky R. (1990): Machine Learning III (Morgan Kaufman)
Pearl J. (1988): Probabilistic reasoning in intelligent systems
(Morgan Kaufman)
Peirce C. (1965): Collected Papers (Harvard Univ Press)
Polya G. (1954): Mathematics and plausible reasoning (Princeton Univ Press)
Putnam H. (1981): Reason, truth and history (Cambridge Univ Press)
Raiffa H. (1968): Decision Analysis (Addison-Wesley)
Rorty R. (1979): Philosophy and the mirror of nature (Princeton Univ Press)
Savage L. (1954): The foundations of statistics (John Wiley)
Schank Roger (1982): Dynamic memory (Cambridge Univ Press)
Schank R. (1989): Inside case-based reasoning (Lawrence Erlbaum)
Shachter D. (1986): Evaluating influence diagrams (Stanford Univ Report)
Shackle G. (1961): Decision, order and time (Cambridge Univ Press)
Shafer G. (1976): A mathematical theory of evidence (Princeton Univ Press)
Shafer G. & Tversky A. (1985): Languages and designs for probability
judgement (Cognitive Science n.9. pag.309)
Tversky A. & Kahneman D. (1986): The framing of decisions and the
psychology of choice (Science n.211 p.453)
Von Neumann J. & Morgenstern O. (1953): Theory of games and economic
behavior (Princeton Univ Press)
Winston G. (1979): Learning and reasoning by analogy (Communications ACM
vol.23 n.12 p.689)
Yager R. (1992): An introduction to fuzzy logic applications
(Kluwier Academic)
Zadeh L. (1975): Fuzzy sets and their applications (Academic Press)
Zadeh L. (1978): A theory of approximate reasoning (Machine Intelligence
n.9 p.149)
Zadeh L. (1978): Fuzzy sets as a basis for a theory of possibilities

(Systems n.1 p.3)


Zadeh L. (1986): test-score semantics (Literary and Linguistic Computing,
n.1 p.24)
La coscienza e l'io
La Coscienza
Per parecchi secoli un luogo comune molto diffuso e' stato quello che la mente umana possa
conoscere se stessa molto meglio di quanto possa conoscere il resto del mondo. Sara' per i progressi
compiuti dalle scienze fisiche nel comprendere il resto del mondo, sara' per i progressi compiuti
dalle scienze umane nel comprendere il cervello, ma oggi la situazione appare addirittura capovolta:
siamo coscienti che conoscere il resto del mondo e' infinitamente piu' alla nostra portata che non
conoscere noi stessi.
Quando penso a me stesso percepisco una cosa che e' completamente diversa da qualunque cosa io
possa percepire aprendo il mio cranio e scrutandovi dentro. Il primo mistero e' perche' io percepisca
qualcosa che non e' la verita'; o, meglio, qualcosa che non corrisponde a cio' che, applicando lo
stesso mezzo di indagine, ci appare essere la verita'; ovvero perche' la struttura della mente sia
inaccessibile alla nostra mente, e al tempo stesso possiamo percepire di avere una mente.
Ma un mistero non meno grande e' perche' io percepisca qualcosa. Se io non percepissi nulla di me
stesso, gran parte dei problemi filosofici dell'umanita' non esisterebbero (e, per esempio, io non
avrei bisogno di passare tanti weekend a scrivere libri come questo).
Un mistero collaterale e' quello che io posso percepire soltanto la struttura del cervello degli altri,
non del mio. Ma questo, piu' che un mistero, e' forse un teorema, facile da dimostrare: se percepissi
il mio cervello, per definizione il mio cervello si troverebbe nello stato di percepire il mio cervello
mentre si trova nello stato di percepire il mio cervello mentre si trova nello stato di...
Un altro mistero, spesso sottovalutato, e' se esistano altri oggetti, entita', materiali, fenomeni, corpi,
che si possono auto-percepire. Cosa proverebbe un cristallo se potesse concentrarsi sulla propria
essenza? Percepirebbe la propria struttura fisica, o anch'esso (egli?) percepirebbe un flusso
disordinato di emozioni, pensieri, sensazioni?
La Coscienza e' una proprieta' soltanto del nostro cervello? di tutti i cervelli? di tutte le cose? Un
pezzo del cervello avrebbe coscienza? Se no, qual'e' il minimo necessario per avere coscienza?
Cosa mi fa pensare che gli altri esseri umani provino le stesse sensazioni che provo io?
Essenzialmente il fatto che si comportano in maniera "analoga". E' l'analogia l'unica reale
"dimostrazione" che la mia Coscienza non e' l'unica al mondo, non e' sola nell'universo. Ma dove
finisce l'analogia? Fin dove posso spingermi con l'analogia? Perche', volendo, posso trovare
analogie persino nel comportamento nei sassi; e certamente ne posso trovare nel comportamento
degli animali, delle piante, dei cristalli e di tanti tipi di materiali. Quali sono le analogie rilevanti al
fine di determinare se un "essere" ha coscienza di se'?

Nella storia delle scienze della mente e della macchina possiamo evidenziare tre fasi. In ciascuna
fase un elemento e' stato considerato essenziale per decidere se una macchina sia o meno
"intelligente": la razionalita', l'intenzionalita' e l'introspezione. Per razionalita' intendiamo un
comportamento che e' coerente con la necessita' di sopravvivere nel proprio ambiente. Per
intenzionalita' la capacita' di far riferimento ad altri oggetti. Per introspezione intendiamo il far
riferimento a se stessi.
La razionalita' e' certamente comune a tutti gli animali, e probabilmente a tutto cio' che
(tautologicamente) esiste (ovvero e' sopravvissuto). L'intenzionalita' e' comune almeno a diversi
sistemi biologici, oltre che a qualche oggetto costruito dall'uomo. L'introspezione e' il criterio che
sta assumendo una crescente rilevanza per stabilire il primato dell'essere umano.
Molti altri misteri hanno a che vedere con la reificazione della Coscienza.
Dove ha sede la Coscienza? Se lo stato mentale e' uno stato (o un processo) neurale, dov'e' situato?
Non lo "sento" in nessun punto particolare della mente, e talvolta lo sento persino fuori dalla mente
(nel cuore, per esempio).
Quanto e' estesa? Dove finisce? Certo ogni coscienza deve finire prima che comincino le altre. Ma
dentro o fuori del proprio corpo?
Perche' non posso controllare certi eventi del mio corpo, come il battito del cuore?
Perche', a differenza del corpo, la Coscienza e' una cosa sola, non scomponibile in parti costituenti?
In realta' la "Coscienza" andrebbe innanzitutto divisa in due parti: l'essere cosciente che esiste il
mondo (compreso il mio corpo e il mio cervello) e l'essere cosciente che esisto io (non in quanto
corpo o cervello, ma in quanto io).
La coscienza di se'
Come nel caso dell'Intelligenza, esistono le opinioni piu' svariate e pittoresche su cosa sia la
Coscienza e su come funzioni.
Dennett ritiene che l'origine della Coscienza sia da ricercarsi nella stratificazione della mente a
"macchine virtuali", in accordo con Jaynes, secondo il quale la Coscienza avrebbe origine da una
gerarchia di livelli nel cervello, e ne rappresenterebbe il livello piu' elevato.
Ma un folto gruppo di pensatori ritiene che sia semplicemente impossibile studiare e capire la
Coscienza. Per Nagel la proprieta' di "cosa si prova ad essere" ("what it is like to be") non e'
trattabile con gli strumenti della Scienza, e rimarra' pertanto sempre inaccessibile: non potremo mai
"provare" cosa si prova ad essere un pipistrello, anche se ci venisse fornita una quantita' sterminata
di informazione su quell'argomento. Jackson elucida questa posizione portando l'esempio di una

scienziata dotata di tutta la conoscenza possibile riguardo i colori ma incapace di vedere altro che
bianco e nero: se un giorno riacquistasse di colpo la capacita' di distinguere i colori, "capirebbe"
cosa si vede quando si vede, per esempio, il rosso; anche prima aveva tutta la conoscenza sul rosso,
ma soltanto vedendolo potrebbe capire cosa si prova a vederlo.
Secondo McGinn il mistero della Coscienza e' insolubile da noi umani, la nostra mente non ha
quella capacita' e non potra' mai averla, e soltanto un essere esterno potrebbe riuscirci. Organismi
diversi possono concepire fenomeni diversi: una scimmia non puo' concepire gli elettroni; un uomo
cieco dalla nascita non puo' concepire il colore rosso. McGinn chiama questa proprieta' la "chiusura
cognitiva" di un organismo e sostiene che la Coscienza non rientra nella nostra chiusura cognitiva:
esistono soltanto due metodi per capire la Coscienza, quello introspettivo (in cui l'io ragiona su se
stesso) e quello scientifico (in cui lo scienziato costruisce un modello matematico di un fenomeno),
ma tutti e due sono inadeguati alla bisogna.
Esiste poi una corrente di pensiero che propone un'interpretazione della Coscienza alla luce della
Meccanica Quantistica. Penrose, per esempio, ritiene che la Coscienza sia un fenomeno
quantomeccanico.
Deutsch, generalizzando le idee di Turing, definisce una macchina "quantistica" analoga alla
macchina di Turing, ma nella quale gli stati possono essere sovrapposizioni (combinazioni lineari)
di stati; il comportamento di una simile macchina e' allora la sovrapposizione del comportamento di
diverse macchine di Turing. Una simile macchina puo' calcolare soltanto le funzioni ricorsive, ed e'
pertanto tanto potente quanto quella di Turing, ma garantisce di risolvere in tempi molto piu' brevi
problemi che esibiscono un intrinseco parallelismo. Deutsch interpreta il funzionamento di un
computer quantistico come se scomponesse il problema e poi delegasse i sottoproblemi a copie di se
stesso in altri universi.
In natura esiste un fenomeno analogo, quello della "condensazione bosonica", scoperto da Frohlich
prima a livello teorico e poi in diversi sistemi biologici; e Marshall pensa che il cervello faccia uso
di effetti d'interferenza quantistici di questo genere e che la natura olistica degli stati di
condensazione bosonica renda conto dell'unitarieta' della Coscienza. Per inciso, un tale stato e' in
grado di contenere una quantita' enorme di informazioni in uno spazio molto ristretto. Come nelle
reti neurali e negli ologrammi, l'informazione e' distribuita sull'intero sistema (una conseguenza
delle proprieta' quantistiche).
L'identita'
Il pensiero moderno ritiene in maniera unanime che l'identita' dell'io non abbia nulla a che fare con
l'identita' della forma: se un capolavoro chirurgico consentisse di trapiantare un altro cervello nel
mio corpo, quel nuovo essere non sarei piu' io, sarebbe quell'altro. E' il cervello a determinare chi
sono, non la forma in cui e' contenuto il cervello.
Il problema e' che il cervello stesso e' una forma, ed e' una forma suscettibile di evoluzione. Da un
lato si pone quindi il problema di determinare quale porzione del cervello determina la mia identita'
(quale pezzo del cervello puo' essere asportato senza che io cessi di essere io, e quale invece non
puo' essere asportato senza che io cessi di essere io), dall'altro si pone il problema non meno
spinoso di come io possa continuare ad essere io anche se nel corso degli anni la forma del mio
cervello continua a cambiare. Un'altra domanda sorge spontanea: se un novello Frankenstein

riuscisse a produrre in laboratorio una copia esatta del mio cervello, atomo per atomo, quel cervello
sarei io? Ci sono poi tutte le variazioni su queste domande: cosa succederebbe se io smontassi il
mio cervello e poi lo rimontassi accuratamente pezzo per pezzo? Sarei ancora io? E cosa
succederebbe se scambiassi semplicemente di posto un paio di cose fra di loro? Unger elenca decine
di varianti su questi esperimenti mentali che sembrano confutare l'idea di una discontinuita' fra l'io e
il resto del mondo.
Il problema dell'identita' dell'io e' ancora piu' complicato del problema dell'identita' di un oggetto.
Non solo non sono chiari i confini dell'oggetto, ma non e' neppure chiaro da quale parte (cervello?
corteccia cerebrale? cervelletto?) e da quale attributo (forma, sostanza, anima?) abbia origine l'io.
I dati neurologici e psicologici che sono disponibili sembrano piuttosto indicare una "gradualita'"
dell'identita'.
Cosi' per Churchland la Coscienza non e' un'entita' unica e indivisibile e uguale per tutti, ma esiste
una gradazione di coscienza e ogni individuo ha un grado di coscienza diverso; ovvero la Coscienza
e' in gran parte una proprieta' acquisita durante l'esistenza, e in minima parte una proprieta' innata
dell'organismo umano. Churchland riconduce la Coscienza a una forma particolare di percezione, la
percezione di se stessi. E per Buck il comportamento e' governato da fattori biologici (innati),
epistemici (acquisiti) e razionali (elaborati)
Che non esista un'identita' unica e' implicito nella teoria dello "split brain" di Sperry (secondo la
quale l'emisfero sinistro elabora informazioni in modo analitico e distribuito mentre quello destro
elabora informazioni in modo sintetico e olistico) e nella constazione che i due emisferi dello "split
brain" esibiscano personalita' indipendenti.
Nagel ritiene che i pazienti di Sperry a cui e' stato reciso il corpus callosum non abbiamo ne' due
menti ne' una sola: la Coscienza non puo' essere "contata". Gli esperimenti dimostrano infatti che i
due emisferi non sono in grado di competere e che tendono sempre a cooperare, ovvero che sono
stati progettati per lavorare in tandem. Altri esperimenti hanno dimostrato che il corpus callosum
non era stato del tutto rimosso dal cervello di pazienti che pure esibivano gia' due personalita'. Altri
esperimenti ancora provano che il molte fibre del corpus callosum muoiono spontaneamente
durante la vita dell'individuo.
Anche la teoria "dei livelli intermedi" di Jackendoff nega il carattere unitario della Coscienza,
basandosi su fatti psicologici: di ogni facolta' mentale abbiamo coscienza a livelli cognitivi diversi,
e non sempre al livello piu' elevato. Ogni facolta' mentale si presenta a diversi livelli di
interpretazione (per esempio il linguaggio puo' essere scomposto in fonologia, sintassi, semantica e
cosi' via) che formano una "catena". Le varie catene, corrispondenti alle varie facolta' cognitive, si
intersecano in diversi punti, e in quei punti (ovvero fra quei livelli) esse possono interagire. La
Coscienza linguistica ha origine dal livello fonologico, la coscienza visiva ha origine dello sketch a
due dimensioni e mezza e cosi' via. Per tutte le facolta' finora studiate il livello di "coscienza" e'
sempre un livello intermedio.
Analogamente secondo Flanagan la Coscienza e' un insieme eterogeneo di processi i quali hanno in
comune la proprieta' di essere "sentiti". Non ci sarebbe cioe' una Coscienza unica, ma ci sarebbe un

insieme di fenomeni ciascuno dei quali e' "cosciente". Fra i tanti fenomeni che hanno luogo nel
nostro corpo, alcuni dei quali sono totalmente inconsci e non percepibili (per esempio, il battito del
cuore), altri sono inconsci ma percepibili da altri processi (le percezioni sensoriali, per esempio) e
infine alcuni sono consci, ovvero auto-percepibili.
Parafrasando Lockwood, sembrerebbe che esistano gradi di una stessa Coscienza composita in zone
diverse del cervello corrispondenti a gradi di connettivita' (a "topologie di connettivita'", direbbe
Edelman) fra quelle zone.
Esiste un equilibrio ottimale di gradi di coscienza? Gershwind ritiene di si': troppa fusione fra gli
emisferi rende difficile utilizzare varie funzioni in parallelo (per esempio, il noto esercizio di
muovere una mano in un verso e l'altra in un altro); troppa poca fusione porta allo sdoppiamento.
In altre parole Descartes avrebbe ragione che la mente e' una sola e indivisibile, e Sperry avrebbe a
sua volta ragione che ce ne sono due; e forse tagliando qualcos'altro se ne troverebbero altre ancora:
ci sono una moltitudine di fenomeni di coscienza che possono essere presenti in grado minore o
maggiore in certe zone a seconda del grado di connettivita'.
L'evoluzione della Coscienza
Purtroppo non abbiamo molti dati su come sia evoluta la Coscienza, su come si sia passati da esseri
senza Coscienza a esseri con Coscienza. Il pensiero neo-darwiniano ritiene comunque che anche la
Coscienza si sia evoluta dal nulla per effetto di un processo di selezione e di adattamento.
La rivoluzione cartesiana in questo campo e' dovuta a James, il quale, affermando che la Coscienza
non e' una sostanza ma un processo, getto' le fondamenta per una teoria scientifica della Coscienza.
Basandosi sul proprio modello neurobiologico, Edelman presume che la Coscienza sia un processo
dovuto a una proprieta' dell'organizzazione del cervello, la quale avrebbe a sua volta avuto origine
dall'evoluzione e sarebbe un processo di popolazione (non un processo di individui). Questo
processo avrebbe sede in una parte del cervello relativa al "se'" (self), comprendente ipotalamo,
amigdala, ippocampo, etc, che e' del tutto distinta da quella relativa al "resto" (non-self),
comprendente la corteccia cerebrale, il talamo, il cerebellum, etc. Le parti del self si sarebbero
evolute per provvedere a funzioni adattative omeostatiche. L'esperienza percettiva scaturirebbe da
un processo di "ricategorizzazione" che confronta una categoria percettiva appena percepita con il
valore assegnato in passato a quella categoria dai sistemi cerebrali adattativi omeostatici (un valore
essendo una misura di quanto contribuisce all'adattamento). Il linguaggio, che secondo Edelman e'
un'evoluzione della capacita' di formare concetti (ovvero relazioni) e consiste nella connessione
rientrante di fonologia, sintassi e semantica, consentirebbe poi agli individui della specie umana un
livello di Coscienza superiore.
La sensazione di una percezione emerge pertanto dalla correlazione fra una percezione e il
corrispondente concetto. La Coscienza e' il risultato di una memoria comparativa in cui
categorizzazioni gia' esistenti vengono continuamente confrontate con categorizzazioni in corso.
Se C(I) e' la categorizzazione dovuta alla componente di self e C(W) e' quella relativa al non-self, e

C(C(I)*C(W)) e' la ricategorizzazione di C(W) rispetto a C(I), la Coscienza e' il risultato di un


processo rientrante fra .ce C( C(W)*C(I) ) nell'istante "n" .ce e C(W) nell'istante "n+1".
Basandosi sulla topologia di connettivita' del cervello umano, Edelman cerca anche di individuare il
luogo in cui tale processo rientrante puo' aver luogo, ma senza giungere (per ora) a una conclusione
definitiva.
Anche la Coscienza "linguistica" (quella di ordine superiore) e' ovviamente un prodotto
dell'evoluzione, e avrebbe una funzione ben precisa: liberarci dalla schiavitu' del presente. La
Coscienza puo', infatti, distinguere passato da presente, e aggiungere il primo al secondo fra i
parametri che determinano l'azione (puo', per esempio, pianificare le proprie azioni future).
Grazie al linguaggio la Coscienza puo' anche modellare le relazioni fra self e non-self (il self puo'
ora essere definito tramite frasi del linguaggio e non soltanto da eventi in corso) e comunicare con
altre coscienze.
Edelman consiglia pertanto di distinguere due tipi o livelli di Coscienza: quella che consiste nel
semplice essere cosciente della differenza fra se' e il resto del mondo, e quella in cui invece si e'
anche in grado di modellare quel "se'".
Il senso della Coscienza
Come osserva Sellars, una delle prime cose da spiegare e' perche' lo spirito sia diverso dal corpo:
che bisogno c'era di creare un "mentale" cosi' diverso dal "fisico"?
Sembra sempre piu' probabile pero' che si dovranno abbandonare le attuali posizioni teleologiche e
darwiniane: e' sempre meno lecito spacciare non solo la Coscienza, ma anche le attivita' creative (e
il fatto stesso che io stia scrivendo questo libro) come funzioni dovute alla necessita' di
sopravvivere alla selezione naturale. E' chiaro anche all'uomo della strada che gran parte delle
attivita' umane non solo non aiutano a sopravvivere, ma in certi casi sono persino pericolose (vedi le
brame di potere dei dittatori) o comunque controproducenti (potrei impiegare molto piu'
proficuamente il mio tempo che non scrivendo libri). Piu' passa il tempo piu' il comportamento
umano si va allontanando da moventi puramente darwiniani (si pensi a quanto sono innaturali gli
anticoncezionali).
O il nostro cervello e' riuscito a ingannare Madre Natura o, piu' semplicemente, il principio che era
alle origini e che ancora vige non e' soltanto darwiniano.
Jaynes fa notare, per esempio, che la Coscienza di un'azione tende a seguire l'azione, non a
precederla, e pertanto ha una scarsa influenza sul risultato. Quando parlo a qualcuno, prima di
emettere una frase non ero conscio di stare per emettere quella frase; soltanto dopo averla emessa,
mi rendo conto di aver pronunciato certe parole piuttosto che altre; avrei potuto usare molti modi
diversi per dire la stessa cosa, ma quello che ho scelto alla fine non e' dovuto al mio esserne stato
cosciente "dopo" averlo detto. E' nel momento di sentire cio' che stavo dicendo che io sono stato
veramente cosciente di dirlo; prima ho parlato, poi mi sono sentito e poi (per ultimo) sono stato
cosciente di aver detto quelle parole. Puo' succedere che io sia cosciente di voler dire certe parole

"prima" di dirle, ma questo e' quasi sempre il caso in cui poi non le dico; cio' di cui sono realmente
cosciente non e' il fatto di stare per dirle, ma il fatto di stare per "non" dirle!
E' vero che l'organismo ha bisogno di saper distinguere se stesso dal resto del mondo. Questa e'
un'informazione fondamentale per poter utilizzare l'esperienza. E questa e' un'informazione che
probabilmente tutti gli animali hanno. Cio' che nell'uomo si e' sviluppato in maniera abnorme e'
quella che Dennett chiama "l'io come centro di gravita' narrativa"; e questo "io" prende forma poco
alla volta, ed e' estremamente labile nei primi anni di vita. Il suo scopo sembra essere piu' sociale
che evolutivo, sembra essere soprattutto quello di poter comunicare con gli altri. Per poter
raccontare un episodio e tutto cio' che ne consegue occorre innanzitutto avere un modello di se
stessi. Questo "io narrativo" viene irrobustito man mano che le esperienze aumentano e man mano
che aumentano le comunicazioni di tali esperienze ad altri.
Il fatto saliente di questo "io narrativo" e' che viene costruito durante la vita e puo' essere cambiato
in qualsiasi istante (da una particolare esperienza o persino dalla semplice introspezione).
Anche Humphrey ritiene che la funzione della Coscienza sia quella di consentire l'interazione
sociale con altre coscienze. E cio' sarebbe in accordo con le teorie sociobiologiche di Wilson,
intendendo la comunicazione come il processo per cui il comportamento di un animale influenza il
comportamento di un altro animale
Maggiori sono le capacita' di comunicazione, maggiore dovrebbe allora essere il grado di
Coscienza; e alla specie umana, capace di un sistema di comunicazione cosi' raffinato come il
linguaggio, spetterebbe un primato assoluto. Viene pero' da domandarsi se questa gradazione vale
anche all'interno della specie umana: un uomo dotato di una dialettica piu' abile ha anche maggiore
Coscienza di se' degli altri uomini? .sp 5
FIGURA 15 .sp 5
La Coscienza del mondo
La nostra coscienza del mondo e' inevitabilmente condizionata dalle nostre facolta' percettive.
Come fece notare Wittgenstein, un tempo credevamo che il Sole girasse attorno alla Terra poiche'
"sembra" che cosi' sia: il problema e' che non potrebbe sembrare altrimenti! Non esiste alcun modo
per cui la Terra giri su se stessa e a un osservatore terrestre non "sembri" che il Sole stia girando
attorno ad essa!
La Scienza consiste nell'eliminare la Coscienza dalla percezione del mondo: il metodo scientifico e'
oggettivo, non soggettivo, e tanto piu' scientifico quanto meno soggettivo. Nell'Astronomia, per
esempio, non si trova traccia delle sensazioni provocate dal tramonto sulle coppie di innamorati, e
neppure di quelle causate all'astronomo stesso dalla scoperta di un nuovo quasar. Lo scienziato deve
innanzitutto neutralizzare le proprie emozioni, ovvero se stesso. Lo scienziato ideale di Galileo e', in
effetti, un computer.
Dietro a questa concezione della scienza galileiana ci sono almeno due assunzioni implicite: che la
Coscienza sia inutile ai fini di capire il mondo; e che la Coscienza possa essere persino fuorviante ai

fini di capire il mondo. Einstein e Heisenberg hanno, in misura diversa, re-introdotto lo scienziato
nella scienza, dimostrando che non e' possibile separare l'osservazione dall'osservatore; ma
l'osservatore e' comunque rimasto un essere passivo e senza struttura.
Se partiamo dal presupposto che la mente sia direttamente cosciente soltanto di oggetti mentali
(sensazioni, emozioni, pensieri) e che ogni altro stato di Coscienza debba essere costruito tramite il
pensiero a partire da questi (parafrasando Russell: ogni proposizione che possiamo capire sia
composta di costituenti che conosciamo per conoscenza diretta, e non soltanto per descrizione), non
e' chiaro come possiamo avere coscienza del mondo esterno (e della materia in generale possiamo
sapere soltanto per descrizione, non per conoscenza diretta).
Secondo Russell la Coscienza e' una finestra sul cervello che ci offre il grado di trasparenza
necessario per poter avere conoscenza diretta della materia: possiamo essere coscienti dei processi
del nostro cervello e tramite questi, indirettamente, del mondo esterno.
Cio' che noi proviamo, cio' di cui siamo coscienti, e' un processo fisico che ha luogo nel nostro
cervello: e' la Coscienza il trait d'union fra processi cerebrali e processi mentali.
Anche per Armstrong la Coscienza e' la percezione di stati mentali.
Lockwood ne deduce che le nostre sensazioni sono attributi intrinseci di stati fisici del cervello. La
Coscienza non farebbe altro che scandagliare il cervello alla ricerca di sensazioni: non e' lei a
crearle, si limita a cercarle.
Per l'esattezza Lockwood reinterpreta la teoria della mente di Russell e la Meccanica Quantistica in
maniera tale che ogni attributo osservabile dalla mente (ogni sensazione, per esempio) corrisponda a
un osservabile del cervello; e il mondo esterno sia un sistema fisico in cui e' definito un insieme di
osservabili compatibili, il cui stato e' pertanto definito da una somma di autostati di tali osservabili
(cioe' da una somma di "prospettive").
Sellars si spinge ancora piu' in la' di Russell. Secondo Sellars fra i costituenti ultimi della materia
devono comparire anche i "sensi" che rendono conto delle qualita' delle cose. Per esempio, una
palla rossa e' un insieme di particelle in continuo e violento movimento: da cosa ha origine
l'impressione di colore omogeneo? Se scompongo la palla, continuo ad ottenere oggetti rossi:
quando scompare il rosso e rimangono soltanto dei costituenti incolore? Secondo Sellars, mai: ogni
proprieta' di un oggetto (comprese le sensazioni che esercita su di noi) devono essere presenti nei
suoi costituenti. Sellars e' scettico nei confronti delle attuali teorie scientifiche in quanto piu' si
prende sul serio le loro descrizioni della materia, meno "materia" sembra esserci nel mondo!
La coscienza del tempo
Del tempo conosciamo soprattutto una proprieta': il tempo passa. Ma perche' passa? E a che
velocita' passa?
Parafrasando Sant'Agostino: "Che cos'e' il tempo? Se nessuno me lo chiede, so che cos'e'. Ma se lo

voglio spiegare a qualcuno, non so cosa sia."


La coscienza del passato ha a che vedere con la memoria, ma e' piu' di una semplice memoria: e' un
ricordo, nel quale ricompare parte delle emozioni provate durante quell'evento e che e' in grado di
generare anche nuove emozioni. La coscienza del futuro, e per esempio della morte, e' di nuovo
qualcosa di piu' di un semplicemente ragionamento, di una previsione: ho paura della morte, non
vedo l'ora che questo libro sia in libreria, e cosi' via. Provo sensazioni legate al tempo che deve
ancora avvenire. Infine ho coscienza del passare del tempo, del fatto che ogni istante il presente
diventa passato e il futuro diventa qualcosa di diverso dal futuro di un istante prima.
Davies ritiene che la coscienza del tempo sia dovuta alla memoria a breve termine. Lockwood
precisa: siamo coscienti di un ricordo del passato, non del passato. Ma siamo coscienti anche del
futuro, e non e' chiaro come c'entri la memoria a breve termine.
In Relativita' io sono semplicemente un pezzo dello spazio-tempo quadridimensionale, ovvero sono
un'area quadri-dimensionale e in particolare contengo gia' il mio futuro (in realta' la teoria della
superstringa prevede dieci dimensioni, ma sei di queste sono trascurabili ai fini pratici della
psicologia umana). Nell'ipotesi di Russell che esista quella "finestra" sul mondo, dovrebbe allora
esistere anche una finestra sul tempo, sia passato sia futuro, e questo spiegherebbe allora la
coscienza del tempo.
In realta' la coscienza del tempo e' soltanto un pezzo del mosaico: abbiamo coscienza del mondo, e
di come noi agiamo nel mondo. Non siamo soltanto in grado di avere coscienza di cio' che potrebbe
succedere nel futuro (o che, ahime', certamente succedera'), ma anche di cose che (ahime') non
potranno succedere mai (che io diventi miliardario o che vinca un premio Nobel o che incontri una
donna perfetta): posso immaginare tutte queste cose e persino provare le emozioni che proverei se
accadessero. I sogni sono forse il caso limite di questa capacita' della Coscienza.
Le emozioni
Dagli studi di Mandler e altri sembra certo che l'emozione giochi un ruolo fondamentale nel
determinare il comportamento e che questo ruolo sia in qualche modo connesso con la cognizione,
anche se non e' chiaro quale sia questa relazione fra cognizione ed emozione.
Buck identifica tre funzioni dell'emozione: adattamento corporeo all'ambiente, comunicazione
sociale con altre coscienze, ed esperienza soggettiva. Tutte e tre originano da "moventi" che devono
essere soddisfatti e l'emozione corrispondente in un certo istante non e' altro che una misura di
quanto insoddisfatti essi sono in quell'istante.
Johnson-Laird, per esempio, ritiene che la mente conscia sia dovuta a un processo seriale di
elaborazione simbolica che ha luogo al livello piu' elevato di una gerarchia di elaboratori; mentre la
mente inconscia sarebbe dovuta a un processo parallelo di rappresentazione simbolica distribuita.
Le emozioni sarebbero segnali non-simbolici che si propagano all'interno della gerarchia, causati da
interpretazioni cognitive della situazione, in accordo con le teorie di Mandler.
Occorre innanzitutto, come fa notare Sloman, distinguere fra emozioni e attitudini: un'emozione e'

un episodio. "Vincenzo ama Giusi" e' un'attitudine, non un'emozione. "Vincenzo si e' arrabbiato
perche' Giusi non ha preparato la cena" e' un'emozione.
Lazarus sostiene che l'obiettivo finale delle emozioni e' sempre quello di aiutare l'organismo a
sopravvivere ed esse esprimono il significato personale delle esperienze di un individuo. Lazarus
esplora il ruolo delle emozioni nell'adattamento e conferisce un primato alla cognizione nelle
relazioni fra emozioni e cognizione (a differenza di Zajonc, che privilegia l'emozione): l'emozione
e' dovuta a una valutazione delle conseguenze potenziali di una situazione. Cosi' un animale
dovrebbe riuscire a capire che una certa situazione puo' causare danno prima di poter provare la
sensazione di pericolo. La controversia fra Lazarus e Zajonc potrebbe essere risolta considerando i
diversi ruoli, sincretico e analitico, dei due emisferi cerebrali, il primo piu' portato a privilegiare
l'emozione, il secondo piu' idoneo a privilegiare la cognizione.
Analogamente Sousa ritiene che le emozioni siano tutt'altro che un fatto irrazionale, ma abbiano
anzi la stessa funzione delle percezioni e contribuiscano pertanto a creare desideri e convinzioni e,
in ultima analisi, a decidere come agire nel mondo.
Le emozioni potrebbero persino essere una conseguenza diretta del fatto di esistere nel mondo in
cui esistiamo. Secondo Sloman ogni agente intelligente e limitato che debba agire in un ambiente
complesso, in cui sarebbe necessario un numero infinito di risorse per poter prendere decisioni,
deve essere dotato di meccanismi che causano stati di emozione. Le emozioni sarebbero pertanto il
prodotto dei vincoli imposti dall'ambiente sull'azione dell'agente intelligente.
Analizzando la "grammatica" delle emozioni, Sloman fa notare che un'emozione sottintende
generalmente un movente di quell'emozione: e' in risposta a quel movente, e in particolare alla sua
"forza", che viene generata l'emozione. La relazione che sussiste fra quel movente e quell'emozione
classifica di fatto l'emozione. Per esempio, l'emozione di essere arrabbiato con qualcuno ha origine
dalla convinzione che quel qualcuno abbia compiuto (o non compiuto) un'azione che impedisce la
realizzazione di un proprio desiderio. Questa puo' essere la definzione di "arrabbiato". Quando
usiamo termini come "paura", "delusione", "imbarazzo", non facciamo altro che definire uno stato
di cose dovuto a un certo movente e l'insieme di stato di cose e movente definisce un tipo di
emozione piuttosto che un altro ("paura", "delusione", "imbarazzo", etc). La teoria dei moventi di
Sloman non e' molto diversa da quella delle "disposizioni" di Ryle, che enfatizza una catena causale
fra gli stati mentali e l'azione attraverso una gerarchia di disposizioni.
Sloman fa anche notare che puo' aver luogo un'interazione fra stati emotivi e stati cognitivi. Per
esempio, quando penso che le mie invettive contro i fisolofi potranno procurarmi delle recensioni
negative, provo l'impulso di cambiare il testo di questo libro; ma quando rifletto che le vendite di un
libro come questo dipendono in minima misura dalla qualita' delle recensioni, lascio il testo com'e',
anche se l'ansia mi rimane.
Gran Finale
Giunto a questo punto il lettore sara' tanto incuriosito quanto perplesso: "Va bene: questo Scaruffi
mi ha presentato centinaia di idee filosofiche, psicologiche, biologiche, matematiche, informatiche
degli ultimi anni. E molte di queste idee sono stimolanti e inquietanti e d'ora in poi la mia vita non

sara' piu' la stessa. Ma, per la miseria, cosa vuole arrivare a dire?"
La prima cosa che voglio dire e' che una disciplina partita dall'Intelligenza e' arrivata a studiare la
Coscienza e la Materia, spingendosi sempre piu' addentro nei misteri millenari dell'esistenza umana.
Il computer si e' rivelato uno strumento fondamentale e rivoluzionario per l'esplorazione scientifica
dei fenomeni biologici e psicologici, cosi' come il telescopio o il ciclotrone lo erano stati per le
scienze fisiche.
La seconda cosa che voglio dire e' che probabilmente non ne sappiamo piu' di prima: sappiamo
pero' meglio cio' che non sappiamo, abbiamo un'idea piu' precisa di cio' che cerchiamo e di cio' che
ci manca per trovarlo. Per adesso abbiamo soltanto trovato molte piu' domande, ma abbiamo
sempre le stesse, esigue, risposte di mille anni fa.
Nel corso del suo cammino questa disciplina ha soperto fatti sempre piu' strabilianti (che il cervello
e' composto di neuroni, che la Mente non usa la Matematica, e cosi' via). Credo e spero che oggi
stai mettendo in luce un altro fatto strabiliante (tanto strabiliante quanto, a posteriori, ovvio):
esistono numerose proprieta' in comune fra mente e materia.
E' intuitivo che fenomeni di "apprendimento" simili a quello della memoria si possono osservare
anche nella materia inanimata: un pezzo di carta piegato molte volte tendera' a rimanere piegato, e
tendera' ad assumere di nuovo la sua configurazione piatta se invece lasciato stare per un tempo
sufficientemente lungo; un alieno, a cui non sia stato ancora spiegato che la memoria e' un'esclusiva
degli esseri intelligenti, potrebbe dedurne che un foglio di carta piegato piu' volte tende a
"ricordare" di essere stato piegato. La memoria potrebbe insomma essere una proprieta' piu'
generale della materia. Sono poi infinite le informazioni sul passato che possiamo dedurre dalla
materia del nostro ambiente: si pensi al metodo del carbonio utilizzato dagli archeologici, ai cerchi
dei tronchi degli alberi, agli strati di roccia dei canyon, etc. Sono tutte forme di "memoria" in senso
astratto.
La mente esibisce delle proprieta' che sono comuni a tutta la materia. E, anche se la mente e'
fondamentalmente diversa dal resto della materia, il fatto che tante sue proprieta' si ritrovino in
Natura (e viceversa) dovrebbe aiutare lo scienziato della mente a trovare una teoria scientifica
unificata per la mente e la materia. Un po' come le similitudini fra corpi celesti e corpi terrestri
aiutarono Newton a unificare la Meccanica.
La proprieta' che differenzia la mente dal resto della materia, e che dovrebbe trovare una
spiegazione piu' scientifica in quella teoria unificata dei fenomeni materiali e mentali, non e'
l'intenzionalita', non e' la memoria, non e' il ragionamento. E' il fatto che queste proprieta', comuni
in misura maggiore o minore a tutta la materia, vengano utilizzate per agire coscientemente nel
mondo.
In definitiva qual'e' lo scopo del cervello, di questo grande meccanismo trasduttore che assorbe
l'energia dell'ambiente e la trasforma in un'altra forma di energia, quella misurata dall'elettroencefalogramma, affinche' possa poi essere trasformata di nuovo in energia meccanica, ovvero nei
movimenti del corpo? A mio avviso avremo la risposta quando sapremo spiegare le somiglianze fra
mente e materia, e non le loro differenze.

Filosofi e scienziati si sono spartiti spirito e materia. Gli scienziati, convinti di sapere cosa sia la
materia (o perlomeno convinti di sapere cosa si debba fare per scoprire cos'e' la materia) e di non
avere la piu' pallida idea di cosa sia lo spirito, hanno edificato teorie sempre piu' sofisticate sulla
struttura e sul comportamento della materia, lasciando ai Filosofi il rompicapo dello spirito (e con la
segreta convinzione di esserseli tolti dai piedi per sempre).
Adesso che i Filosofi cominciano a capire qualcosa della mente, non sembra piu' cosi' sicuro che i
Fisici sappiano cos'e' la materia. Man mano che si fa luce sui misteri della mente, la nostra
concezione della materia (newtoniana o quantistica che sia) appare sempre piu' inadeguata.
La ragione per cui nessuno finora e' venuto a capo della differenza fra spirito e materia e' forse che
abbiamo una teoria sbagliata della materia e, assumendo quella per giusta, e' automaticamente
impossibile sviluppare una teoria corretta dello "spirito": data quella teoria della materia, il
problema era di spiegare la mente in funzione della materia; la ragione per cui nessuno ci e' riuscito
e' forse che teoria della materia e' sbagliata, che la materia non e' come crediamo. Il problema e' che
non e' facile per nessuno decidere di abbandonare, o anche solo pensare di decidere di abbandonare,
la teoria attuale, mettendo a repentaglio un intero establishment scientifico: e' infinitamente piu'
facile lasciare che continui ad esistere un problema irrisolto della mente.
Certo la materia dei Fisici ci appare anomala rispetto alle leggi macroscopiche che osserviamo in
Natura. Basti dire che le leggi "naturali" della Fisica obbediscono a funzioni continue (con il che'
vengono garantite eleganza, economia e soprattutto la facilita' di calcolo manuale, che non era un
fatto trascurabile prima dell'invenzione del computer), mentre invece le leggi della selezione
naturale o quelle dei sistemi neurali obbediscono a degli algoritmi discreti. Essendo pigro di natura,
mi domando se sia piu' semplice ricondurre la mente alle leggi della Fisica o ricondurre l'universo a
una rete neurale... Non sono sicuro della risposta, ma forse bisognerebbe provare a costruire un
modello in cui l'universo non e' altro che una vasta rete controllata da una sorta di legge di Hebb per
i corpi celesti: non si sa mai.
In realta' ho la sensazione che una teoria corretta della materia avrebbe gia' spiegato la mente, senza
alcun bisogno di ulteriori sforzi. Einstein e Heisenberg hanno avuto un'intuizione portentosa (che
l'osservatore non possa essere separato dall'osservato, e, fino a prova contraria, un osservatore e'
uno spirito, una mente), ma quell'intuizione e' stata poco approfondita dalle scienze fisiche, piu'
interessate al mondo dell'"osservato" che a quello dell'"osservatore".
L'Intelligenza Artificiale e' la prima scienza "esatta" (nel senso che si propone di usare lo strumento
matematico, sia pur riveduto e corretto all'insegna dell'"inesattezza" della Natura) ad occuparsi
specificamente dello spirito, della mente, e, in ultima analisi, proprio di quell'osservatore che i
Fisici hanno abbandonato in qualche nota a pie' di pagina.
Qualcosa esiste. Non sappiamo esattamente cosa, ma sappiamo che qualcosa esiste. Ci sembra
anche plausibile che potrebbe esistere qualcos'altro, un universo completamente diverso. Ed e'
allora curioso che esista proprio questa "cosa" invece che tutte le altre possibili.
Se davvero tutto soggiace a un principio darwiniano di selezione, il mondo e' cosi' com'e' in quanto
e'; e sara' come sara' in quanto sara'. Se non fosse cosi' com'e', non sarebbe. E' un principio che vale
per la Via Lattea, per il Sole, per la Terra, per la Vita, per la Mente e per la Coscienza.
Ma la domanda cruciale dovrebbe essere: "perche' esiste qualcosa?" Perche' non nulla? Tutte le
complicazioni dei Filosofi e degli scienziati (ma certamente anche di tutti gli altri esseri umani)
nascono da questo fatto: che esiste qualcosa, invece che non esistere nulla.
Studiando la Mente, si ha spesso la sensazione che la soluzione stia in questo paradosso, in
quest'oggetto, la Mente, che non si conosce, che non sa cosa sia, che deve studiarsi lungo l'arco di
secoli e secoli per cercare di venire a capo di se stessa, e che forse oggi, dopo tutti quei secoli, non
e' per nulla piu' vicina alla verita' di quanto lo fosse quando ha cominciato. Mi domando se il primo

barlume di coscienza del Pitecantropo venne con il primo barlume di stupore: "perche' esisto? e
perche' penso?" La Mente, questo paradosso.

Potrebbero piacerti anche