Sei sulla pagina 1di 59

UNIVERSITA’ DEGLI STUDI DI PALERMO

FACOLTA’ DI LETTERE E FILOSOFIA

CORSO DI LAUREA IN
FILOSOFIA DELLA CONOSCENZA E DELLA COMUNICAZIONE

Intelligenza Artificiale
Da Leibniz ai robot

Tesi di laurea di Relatore Ch. mo Prof.


Michele Scarpinato Gianlazzaro Rigamonti
Num. Matricola: 0448015

ANNO ACCADEMICO 2007/2008


INDICE

Introduzione 1

Capitolo I

Calcolare il pensiero 4

Leibniz 4

Boole 6

Frege 7

Turing 9

Capitolo II

L' imitazione del pensiero 10

La macchina di Turing 10

Il gioco dell'imitazione 12

Il calcolatore adatto 15

Turing e il cervello 16

Obiezioni contro l'argomentazione principale 18

Le conclusioni di Turing 21

Capitolo III

Cervelli a transistor 23
Capitolo IV

Il demone di Searle 27

IA forte e IA debole 27

La stanza cinese 28

Le repliche 30

L'intenzionalità e simbolo 32

Contro il dualismo 34

Ancora sull'intenzionalità 35

L' esempio di Danto per chiarire la differenza tra IA forte e debole 36

Searle sofista 38

Capitolo V

Intelligenza Robotica 41

La sintassi trascende la semantica 41

Una visione monista dell' IA 45

Robot 47

Roboetica 49

Conclusioni 53
INTRODUZIONE

L'intelligenza artificiale è oggetto di studio di molte discipline, tanto che intorno ad essa si

formano laboratori e dipartimenti interdisciplinari.

L'intelligenza artificiale nasce intorno alle discipline matematiche, e la sua realizzazione

tecnica è affidata agli ingegneri; le sue implicazioni sono strettamente filosofiche e i suoi

risultati sono molto utili per la psicologia e per le neuroscienze.

Il termine intelligenza artificiale (da ora in avanti, per brevità, IA) risale al dibattito iniziale

sulla possibilità di costruire un “cervello elettronico” che possa compiere operazioni

intellettuali al posto dell'uomo.

Fra i primi a credere che fosse possibile costruire una macchina che sostituisse l'uomo

anche nelle attività intellettuali troviamo uno dei più grandi matematici e filosofi dell'epoca

moderna, Leibniz.

Leibniz pensava che l'uomo potesse affidare le operazioni meccaniche e ripetitive a delle

calcolatrici e dare così alla mente umana la possibilità di dedicarsi ad attività nuove e creative,

ed effettivamente egli stesso si impegnò a costruire un modello di calcolatrice basata sulla

Pascaliana (macchina addizionatrice costruita dal filosofo francese Pascal) che implementava

anche l'operazione di moltiplicazione (inoltre Leibniz credeva che tutto il pensiero fosse

calcolabile grazie ad una caratteristica universale, un alfabeto speciale i cui simboli

racchiudono tutto il pensiero umano).

Ancora dopo Leibniz, un altro matematico tentò l'impresa di costruire un calcolatore

1
universale, si tratta di Babbage e della sua Macchina Analitica.

Questa macchina, a differenza delle precedenti, poteva essere programmata, così da

definirsi universale. Il suo funzionamento non dipendeva soltanto dalla sua struttura hardware

(ovvero la sua progettazione fisica-meccanica), ma anche dal software (i programmi, serie

ordinata di operazioni da compiere) che veniva passato tramite schede perforate, proprio come

quelle usate nei telai degli opifici per determinare la trama del tessuto.

Sfortunatamente Babbage non riuscì mai a completare la sua Macchina Analitica a causa

del mancato finanziamento del progetto.

Tratteremo in questa tesi l'evoluzione del dibattito intorno alla possibilità di costruire

macchine che possano pensare.

Le posizioni fondamentali in questo dibattito sono quella di Turing, secondo cui se una

macchina appare intelligente possiamo dire che lo è realmente; quella di Searle, che critica la

possibilità di un'IA “forte”, in cui le macchine non simulano un comportamento intelligente

ma sono realmente intelligenti; e ancora quella che vede l'IA come una cosa possibile nel

tempo, in cui le macchine costruiranno la loro intelligenza immergendosi nel mondo con un

corpo altrettanto artificiale.

Se in fondo alla posizione di Turing troviamo il dualismo che vede la mente come uno

schema logico che usa il corpo biologico come supporto materiale, ma è perfettamente

astraibile per essere installato su un altro tipo di supporto, allora possiamo dire che la tesi di

fondo di Searle è monista: l'intelligenza è determinata da poteri causali nel nostro cervello.

La terza posizione che sembra andare contro Searle, in quanto crede nella possibilità di

un'IA e di una Coscienza Artificiale nel senso “forte”, è in realtà a sua volta una tesi monista.

Un programma in quanto tale non ha semantica e si limita a manipolare simboli formali, come

direbbe Searle, ma non dobbiamo più considerare un programma, ma un insieme di

2
programmi che conoscono il mondo attraverso vari organi di senso artificiali che collegano i

simboli formali con il loro corrispondente materiale.

Un calcolatore con un corpo è un robot e di storie di fantascienza sui robot ce ne sono

tante, ma dove si trova la linea che divide la fantasia dalla scienza? Ogni giorno che passa la

tecnologia sembra far pensare che quella fantasia in realtà fosse solo lungimiranza.

3
CAPITOLO I

CALCOLARE IL PENSIERO

Leibniz

Tra gli ingegneri, quando si parla della storia dei calcolatori i più si fermano a ricordare

von Neumann e Turing, altri arrivano anche a parlare della macchina analitica di Babbage, ma

solo in pochi risalgono indietro nel tempo a Pascal o Leibniz dando loro, magari,

un'importanza marginale per quanto riguarda la storia degli odierni calcolatori, e forse far

dimenticare loro la stretta relazione tra gli odierni computer e la calcolatrice di Pascal (la

pascaliana) che faceva solamente le due operazioni di addizione e sottrazione, o la

calcolatrice di Leibniz che faceva tutte le operazioni algebriche è proprio questo anglicismo,

come se computatore e calcolatore fossero due termini tra loro lontani.

Quello che più lega soprattutto l'informatica moderna alle calcolatrice di Leibniz è proprio

l'idea che ne sta alla base, tanto che si può dire che Leibniz fu il padre dei fondamenti

dell'informatica, infatti la sua idea era quella di costruire una macchina che svolgesse con

esattezza i faticosi calcoli che occupavano il tempo di uomini ingegnosi.

Con una macchina calcolatrice “uomini eccellenti” per il loro ingegno avrebbero potuto

liberarsi dalla noia di fare i calcoli e affidarli a chiunque sapesse usare una macchina

calcolatrice.

Fu proprio così che Leibniz costruì, con un meccanismo tutto suo, la sua calcolatrice basata

4
sulla “ruota di Leibniz”.

L'opera che fa di Leibniz il padre dei fondamenti dell'informatica, e dell'intelligenza

artificiale in particolare, è la sua Dissertatio de arte combinatoria1 del 1666, in cui propone di

costruire un alfabeto (caratteristica) dei pensieri umani e scoprire gli strumenti adatti a

manipolare i simboli di questo alfabeto.

Questo alfabeto che doveva raccogliere il pensiero umano in tutta la sua estensione, detto

anche caratteristica universale (differente dalla caratteristica reale in cui ogni simbolo

rappresentava un'idea ben definita come nella chimica o nell'astronomia), era secondo Leibniz

uno strumento utile al potenziamento del pensiero umano. I ragionamenti potevano essere

trattati con un rigore matematico che li rendeva più precisi, più esatti, permettendo di

controllare meglio i passaggi logici e risolvere discussioni altrimenti interminabili.2

Leibniz così progettava il primo linguaggio artificiale capace di formalizzare il pensiero

per un calcolo di tipo logico-matematico.

La sua convinzione era che uno dei segreti dell'algebra fosse proprio l'uso corretto della

notazione simbolica che mette subito all'occhio la relazione tra i simboli.

Per la realizzazione del suo progetto era necessaria prima un'enciclopedia che contenesse

tutto ciò che è conosciuto dall'uomo, poi in base a questa si dovevano scegliere le nozioni

fondamentali e i simboli adeguati.

Una volta costruito l'alfabeto, poi, necessitava ridurre le regole deduttive a manipolazioni

di questi simboli, quello che noi oggi chiamiamo logica simbolica e Leibniz ieri chiamava

calculus ratiocinator. Tutto il pensiero formalizzato poteva essere calcolato e di fronte a

1 G.W. Leibniz, Dissertatio de arte combinatoria, 1666


2 Prima di Leibniz un tentativo di formalizzare il pensiero in modo che si potessero rendere evidenti le
soluzioni dei problemi risale a Raimondo Lullo, nell'alto Medioevo, con l'ars magna, in cui proponeva un
sistema di tavole rappresentati concetti fondamentali la cui combinazione (che avveniva secondo regole ben
precise) rivelava le verità essenziali della religione.

5
qualsiasi discussione si potevano scomporre i pensieri e ordinarli e vedere le loro relazioni.

Se crediamo che il pensiero umano possa essere formalizzato e calcolabile, allora il passo è

breve all'idea che questo può essere calcolato da una macchina calcolatrice a vedere in ciò gli

albori dell'intelligenza artificiale.

Boole

Martin Davis in Il calcolatore universale3 ci propone come evoluzione del pensiero

leibniziano l'algebra booleana, capace di formalizzare i ragionamenti più impliciti e informali.

La maggior parte dei nostri ragionamenti non sono di tipo sillogistico, ma si avvalgono di

quelle che Boole chiama «proposizioni secondarie, cioè proposizioni esprimenti relazioni fra

altre proposizioni»,4 come nella seguente conversazione, in cui Joe e Susan ragionano su dove

possa essere il libretto degli assegni di Joe:

SUSAN L'hai lasciato al supermercato quando sei andato a fare la spesa?


JOE No, ho telefonato e non l' hanno trovato. Se l'avessi lasciato lì l'avrebbero trovato di sicuro.
SUSAN Aspetta un momento! Ieri sera hai staccato un assegno al ristorante, e poi ti ho visto
rimettere il libretto nella tasca della giacca. Se dopo non l'hai più usato dev'essere ancora lì.
JOE Hai ragione, non l'ho più usato. E' nella tasca della giacca.5
Joe controlla nella tasca della giacca e trova effettivamente il blocchetto degli assegni lì.
Questo ragionamento può essere facilmente formalizzato etichettando le varie proposizioni con
altrettante lettere dell'alfabeto, come nell'esempio proposto:
L= Joe ha lasciato il libretto degli assegni al supermercato
T= Il libretto degli assegni non è stato trovato al supermercato
S= Joe ha staccato un assegno ieri sera al ristorante
G= Ieri sera, dopo aver staccato l'assegno, Joe si è messo il libretto nella tasca della giacca
N= Joe non ha più usato il libretto degli assegni da ieri sera

3 Martin Davis, Il calcolatore universale. Da Leibniz a Turing, Adelphi, Milano, 2003


4 Martin Davis, Il calcolatore universale. Da Leinbiz a Turing, pag 55
5 Ibidem pag 55

6
A= Il libretto degli assegni di Joe è ancora nella tasca della sua giacca6
e quindi possiamo scrivere questo ragionamento in modo da rendere evidente il suo carattere
inferenziale:
PREMESSE
Se L, allora T
Non T
S&G
Se S&G&N, allora A
N
CONCLUSIONI
Non L
7
A
Potremmo continuare a seguire il lavoro di Boole nella formalizzazione che diviene

estremamente astratta di questo ragionamento, ma quanto visto basta per capire il suo lavoro.

Grazie a questo modo di scrivere il ragionamento non sillogistico della conversazione, salta

immediatamente all'occhio il suo carattere inferenziale.

Frege

Con l'algebra booleana, Davis dice, si va oltre la logica Aristotelica, ma si è ancora lontani

da quello che avrebbe voluto realizzare Leibniz. Solo Frege riuscirà con un lavoro analogo a

quello di Boole a trovare un alfabeto che permetta di formalizzare ogni tipo di frase.

L'opera in cui Frege espone la formalizzazione matematica del pensiero, proprio come

avrebbe desiderato Leibniz, è l'Ideografia8 (titolo originale in tedesco Begriffsschrift) la cui

importanza possiamo rilevare già dal sottotitolo: Linguaggio in formule del pensiero puro

6 Ibidem pag 56
7 Ibidem pag 56
8 G. Frege, Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denken, Halle a.
S., 1879 trad. it Ideografia, in G. Frege, Logica e aritmetica, a cura di C. Magione, Boringhieri, Torino, 1967

7
modellato su quello dell'aritmetica.

Martin Davis scrive:

mentre per Boole le correlazioni fra proposizioni potevano essere espresse a loro volta da
proposizioni («secondarie»), Frege comprese che queste correlazioni potevano essere usate anche per
analizzare la struttura di una singola proposizione, e ne fece il fondamento della sua logica.9

Così possiamo analizzare la singola proposizione “Tutti gli uomini sono mortali” usando la

relazione logica dell'inferenza se...allora... e rileggerla come “Se x è uomo, allora x è

mortale”. Questa proposizione può essere scritta ancora più stenograficamente (e ancora in

modo che assomigli ad una vera e propria formula matematica):

(∀x)(u(x) → m(x))

dove:

∀ è il simbolo che sta per il quantificatore universale che può essere letto come “ Tutti” o

“Per ogni”;

u() rappresenta la proprietà “uomo” che x deve avere;

→ è il simbolo che in logica indica la relazione di inferenza se... allora...;

m() rappresenta la proprietà “mortale” che x deve avere;

In questo modo Frege costruiva quello che Davis considera l'antenato degli odierni

linguaggi di programmazione, infatti nell'Ideografia veniva descritto minuziosamente un

linguaggio artificiale con tanto di regole grammaticali.

Grazie a questo linguaggio era possibile presentare le inferenze logiche in un modo

meccanico, dove tutto dipendeva dalla disposizione dei simboli.

Questa formalizzazione però non permette di ricavare con certezza se una conclusione

segua in generale da certe premesse o meno, e per questo ancora non è possibile quel calculus

ratiocinator leibniziano.

9 Martin Davis, Il calcolatore universale, pag 70

8
Turing

La formalizzazione di questi linguaggi logico-matematici, studiati e implementati anche da

altri matematici oltre quelli citati (da Russell a Hilbert a Gödel), portò Turing a costruire la

prima macchina calcolatrice che eseguisse queste operazioni logiche.

La grande innovazione di Turing, non fu solo quella di aver progettato una macchina che

eseguisse operazioni logiche (detta “Macchina di Turing”, MT), ma soprattutto di aver

costruito una “Macchina di Turing Universale” (MTU) capace di simulare le normali MT.

Per la prima volta con la MTU il programma e i dati non coincidevano con la macchina

stessa.

Questo tipo particolare di macchina era detta quindi programmabile, ovvero di volta in

volta era capace di eseguire una lista di operazioni logiche diversa, ovvero programmi diversi.

Se il pensiero poteva essere realmente formalizzabile in un linguaggio logico per essere

calcolato, come avrebbe voluto Leibniz, la MTU avrebbe potuto calcolarlo.

Se la macchina naturale che calcola il pensiero nella sua forma naturale è il cervello, allora

possiamo dire che una MTU che calcola il pensiero formalizzato matematicamente simula il

cervello.

9
CAPITOLO II

L' IMITAZIONE DEL PENSIERO

La macchina di Turing

Alan M. Turing nel suo tentativo del 1936 di rispondere al problema della decisione di

Hilbert (conosciuto meglio come Entscheidungsproblem) inventò un calcolatore ideale,

chiamato da allora Macchina di Turing, nell'articolo On Computable Numbers, with an

Application to the Entscheidungsproblem.10

La MT utilizza come supporto fisico per le operazioni di calcolo un nastro,11 o meglio

l'astrazione di un nastro, infatti questo è monodimensionale, biinfinito (si può scorrere avanti

e indietro infinitamente) ed è diviso in celle, le quali possono ospitare solo un simbolo

dell'alfabeto alla volta.

I simboli dell'alfabeto di MT sono finiti (Σ={ s1, s2, ..., sn }) e si indica con s0 la cella

vuota.12

10 Turing Alan M., On Computable Numbers, with an Application to the Entscheidungsproblem, «Proceedings
of the London Matematical Society» (2), vol. 42, 230-65 (1937);
11 Questo tipo di supporto di immagazzinamento dati non è dei migliori dal punto di vista delle prestazioni.
Turing si accorse che il nastro, come ogni altro tipo di supporto sequenziale (i dispositivi di memorizzazione
sequenziale sono tutti quei dispositivi la cui lettura deve partire dall'inizio e arrivare fino al punto desiderato
un passo alla volta) erano troppo lenti, e sarebbe stato meglio sostituirlo con un dispositivo di
memorizzazione diretto (la lettura di una determinata area è possibile direttamente spostando la testina su
quell'area)
12 L'alfabeto finito usato nella Macchina di Turing, è binario, i simboli sono “cella piena” e “cella vuota”.

10
Per la lettura e scrittura dei simboli sul nastro la MT utilizza una testina mobile che

“osserva” una cella alla volta. I movimenti della testina sul nastro sono tre: spostamento a

destra, a sinistra e posizionamento al centro (utilizzato per la configurazione finale); mentre le

operazioni che può compiere su ogni singola cella sono due: lettura e scrittura. La

cancellazione della cella in realtà è la sovrascrizione del simbolo s0 sul simbolo già presente

sul nastro.

L'elemento non meccanico della MT è lo stato interno. Lo stato interno di una MT è

paragonabile allo stato mentale dell'uomo durante una procedura di calcolo, e dipende dalle

operazioni precedenti.

La MT può assumere uno stato interno q0, q1, …, qn (uno e solo uno alla volta); il numero

dei possibili stati interni è finito.

La combinazione tra lo stato interno e il simbolo in lettura della testina in quel dato

momento viene detta configurazione di una MT.

La MT può eseguire quindi tre operazioni atomiche: la sostituzione di un simbolo con un

altro simbolo; spostamento della testina su una delle celle immediatamente adiacenti (la prima

a destra o la prima a sinistra) e il cambiamento dello stato interno della macchina.

La rappresentazione grafica di un operazione atomica è per esempio “s1 D q2”, leggo il

simbolo s1 la testina si sposta a destra e si passa allo stato interno q2.

Le istruzioni che una MT può eseguire sono rappresentabili secondo una quintupla formata

dalla configurazione e seguita dall'operazione che la macchina deve svolgere quando si trova

in quella determinata configurazione.

L'insieme di istruzioni formano una tavola della MT; è necessario che non ci sia la

possibilità che ad una determinata configurazione corrisponda più di un'operazione da

eseguire.

11
Il calcolo si ferma quando arrivati ad una determinata configurazione non segue alcun'altra

operazione e si arriva alla configurazione finale con la testina che si sposta al centro e la MT

ha come stato interno q0 (questo stato interno non è indispensabile, si potrebbe costruire una

macchina che non termini).

L'input è già impresso sul nastro all'avvio della MT, mentre l'output è quello che rimane sul

nastro al termine della tavola di istruzioni.

Per convenzione la testina della MT è posizionata all'avvio sulla prima cella a sinistra con

un simbolo e ha come stato interno q1.

Ogni tavola può essere rappresentata da un numero descrittivo, ottenuto con una

codificazione simile alla codifica di Gödel. Se la macchina universale di Turing dovesse

computare il proprio numero descrittivo si troverebbe in una condizione non soddisfacente.13

Il gioco dell'imitazione

Una macchina universale, programmabile, se ben programmata potrebbe pensare? E'

possibile istanziare un programma che dia vita ad una mente?

Secondo Alan Turing sì. La mente non sarebbe altro che un sistema logico supportato da

una macchina biologica facilmente sostituibile da qualsiasi altro tipo di macchina.

Tale convinzione secondo Hodges14 potrebbe derivare dalla sua prima lettura scientifica,

13 Tra le MT distinguiamo quelle bloccate da quelle senza blocco. Le prime sono macchine che terminano le
loro operazioni, mentre le seconde continuano per un tempo indefinito. Un classico esempio di MT senza
blocco è quella di una macchina che deve calcolare la successione di cifre decimali di un numero irrazionale
come π, perché appunto continuano a calcolare all'infinito senza mai arrestarsi. Le macchine bloccate invece
sono MT che terminano le loro operazioni. Turing chiama soddisfacenti quei numeri descrittivi
corrispondenti alle macchine senza blocco, viceversa sono per lui insoddisfacenti i numeri corrispondenti a
macchine bloccate.
14 Hodges Andrew, Alan Turing: The Enigma, Touchstone Book-Simon & Schuster, New York, 1984; trad. it.

12
quando all'età di dieci anni lesse Natural Wonders Every Child Should Know,15 in cui si poteva

leggere:

Il corpo, naturalmente è una macchina. Una macchina estremamente complessa, molte e molte volte
più complicata di qualunque macchina che sia stata fatta dalle mani dell'uomo; ma pur sempre una
macchina.16

Queste parole valevano anche per il cervello, che nel libro veniva descritto come una

macchina a combustione interna, il cui carburante non sarebbe altro che l'ossigeno.

In Macchine calcolatrici e intelligenza,17 Turing articola la sua posizione sulle macchine

pensanti rispondendo alle obiezioni più comuni sull'argomento, e lo fa modificando la

domanda e ponendola su un piano empirico.

Turing spiega così il “gioco dell'imitazione”, conosciuto oggi come test di Turing, in cui un

giocatore (l'interrogante) deve fare domande ad altri due giocatori di cui non conosce nulla. I

due giocatori sono rispettivamente un uomo e una donna, e il compito dell'interrogante è

scoprire con le sue domande chi sia l'uomo e chi la donna; ha contatti con loro solo tramite

bigliettini che non lasciano intuire il sesso dei giocatori (l'interrogazione non avviene

oralmente per evitare che il tono della voce falsi l'esperimento, ma tramite carta o con una

telescrivente).

Compito dei giocatori è ovviamente non far vincere l'interrogante, mettendosi d'accordo su

chi dei due debba essere il mentitore che risponde come farebbe proprio l'altra persona. Per

esempio possiamo decidere che l'uomo è il mentitore e questo dovrà sforzarsi di rispondere il

Storia di un enigma: vita di Alan Turing (1912-1954), Bollati Boringhieri, Torino, 1991
15 Edwin Tenney Brewster, Natural Wonders Every Child Should Know.
16 Hodges, p.21
17 Turing Alan M., Computing Machinery and Intelligence, Mind, vol. 59, 433-60 (1950); trad. it. Macchine
calcolatrici e intelligenza, in V. Somenzi (a cura di), La filosofia degli automi, Bollati Borienghieri, Torino,
1994

13
più possibile come farebbe una donna, mentre la donna può rispondere semplicemente

d'istinto. Così le domande più esplicite verranno scartate giacché se l'interrogante chiedesse il

sesso dei giocatori entrambi risponderebbero che il loro sesso è femminile, e all'interrogate

non resta che lavorare di fantasia per trovare domande che svelino il mentitore.

Turing a questo punto suggerisce di mettere al posto del mentitore umano un calcolatore

digitale a rispondere. Turing si chiede se l'interrogante stavolta abbia più successo nel capire

chi sia la persona e chi il computer. Questa domanda per lui è sostitutiva a quella originale: le

macchine possono pensare?

Turing capisce subito che questa riformulazione esplicita il problema sotteso dalla

domanda originale, ovvero il problema della relazione mente/corpo.

Il nuovo problema ha il vantaggio di tirare una linea di separazione abbastanza netta tra le capacità
fisiche e quelle intellettuali di un uomo.18

Infatti le domande che possono essere fatte devono basarsi su ogni campo della conoscenza

umana, dato che i giocatori (umano e calcolatore) possono entrambi dichiarare attributi fisici

umani e non è possibile per l'interrogante richiedere una dimostrazione empirica di questa

affermazione.

Secondo Turing l'unica obiezione che si può fare a questo gioco è che la macchina si trova

nello svantaggio di non essere imitabile dall'uomo per la sua perfezione, ma una macchina

potrebbe essere programmata per simulare gli eventuali errori umani.

La migliore strategia per la macchina è quella di formulare risposte quanto più possibile

simili a quelle che darebbe istintivamente il giocatore umano.

18 Turing, p. 168

14
Il calcolatore adatto

L'articolo di Turing procede con la descrizione del tipo di macchina migliore per questo

gioco, il calcolatore digitale.

Il calcolatore digitale come un calcolatore umano deve seguire delle regole fisse, senza

alcuna possibilità di deviare.

Probabilmente Alan Turing quando si riferiva al calcolatore umano doveva pensare a «le

ragazze della stanza grande», personale femminile non qualificato, che svolgevano il lavoro

d'ufficio durante la Seconda Guerra Mondiale nei laboratori di calcolo,19 proprio come delle

calcolatrici. Il loro servizio era di fondamentale importanza per il lavoro di Turing, tanto che

egli fu tra i firmatari di una richiesta di personale di questo tipo a Winston Churchill.20

Alan Turing era molto affascinato dal loro lavoro, eseguivano

i compiti loro assegnati, senza sapere minimamente a cosa servissero. Questo era ciò che
affascinava Alan: che delle persone potessero collaborare a qualcosa di intellettualmente difficile
senza alcun bisogno di usare la propria mente.21

Le capacità del calcolatore digitale sono ben definite dalla sua struttura hardware, ma noi

dobbiamo immaginare a scopo teorico che siano infinite.

19 Durante la Seconda Guerra Mondiale, Turing, lavorò al Government Code and Cypher School (GCCS) per
decifrare le intercettazioni delle comunicazioni dei militari tedeschi che utilizzavano un complesso metodo di

crittografia basata sulla macchina Enigma con l'aggiunta di un quadro di commutazione alfabetica.

Turing ebbe il compito di organizzatore del lavoro della Baracca 8, l'ufficio in cui risiedeva la mente del

GCCS, e non si impegnò soltanto dell'algoritmo per decrittare i messaggi, ma anche sul fronte ingegneristico,

cercando di ottimizzare al massimo le macchine utilizzate.

20 Hodges, p.289
21 Hodges, p. 277

15
La quantità di memoria è una delle caratteristiche più importanti per il calcolatore digitale,

che deve poter immagazzinare quanti più dati possibili per avere «stati mentali» più

complessi.22

Per «stati mentali» dobbiamo intendere gli stati in cui si trova la macchina di Turing ad

ogni operazione.

Ogni comportamento del calcolatore è determinato in un momento dato dai simboli che sta

osservando e dallo stato mentale in cui si trova in quel dato momento.23

Gli stati mentali sono numerosi ma finiti (secondo la concezione materialista della

mente),24 se non fosse così, se, come scrive Turing

ammettessimo un'infinità di stati mentali, alcuni di essi sarebbero «arbitrariamente vicini» fra loro,
e quindi confusi.25

Il calcolatore digitale può avere anche un elemento casuale, col quale può confondere le

idee dell'interrogante dando risposte sbagliate. Questo elemento di casualità portò molti ad

affermare che la macchina possa essere provvista di libero arbitrio, ma Turing è contrario

all'uso di questa espressione.26

Turing e il cervello

Per costruire un cervello elettronico Turing cerca delle analogie tra il sistema nervoso

centrale e le potenzialità del calcolatore. Turing osserva con attenzione il processo che ha

22 Hodges, p. 144
23 Hodges, p. 144
24 Hodges, p. 148
25 Hodges, p. 144
26 Turing 1950 p. 172

16
condotto il cervello di un uomo adulto al suo stato attuale.

Cercando di imitare una mente umana adulta siamo tenuti a riflettere parecchio sul processo che
l'ha condotta allo stato in cui si trova. Possiamo notare qui tre componenti: a) lo stato iniziale della
mente, diciamo alla nascita; b) l'educazione cui è stata sottoposta; c) altre esperienze, che non possono
venir descritte come educazione , che essa ha vissuto.27

Per meglio spiegare come si possa dare la mente ad un cervello elettronico Turing propone

di elaborare un programma che non miri a simulare una mente adulta, ma quella di un infante

per sottoporla poi a un appropriata istruzione, così che si possa evolvere “naturalmente”.

La speranza di Turing che il cervello di un bambino sia «qualcosa di simile a un taccuino

di quelli che si comprano dai cartolai»,28 con molta carta bianca e poco di scritto nasce, forse

ancora una volta, da Natural Wonders in cui si legge:

Capite ora perché dovete andare a scuola per cinque ore al giorno, e sedere su un duro banco a
studiare materie ancor più dure, mentre tanto più volentieri ve la svignereste per andare a nuotare? E'
così che potete costruire nel vostro cervello questi puntini che servono a pensare (...) Si comincia da
giovani, quando il cervello è ancora in crescita: con anni di lavoro e di studio, lentamente si formano
sopra l'orecchio sinistro i puntini del pensiero che poi dovremo usare per il resto dei nostri giorni.29

Questa concezione della macchina cervello permette a Turing di immaginare una macchina

con installato solo lo stretto necessario perché impari dal suo istruttore e dall'esperienza,

migliorandosi di volta in volta.

I difetti fisici della macchina, come la mancanza di un sistema visivo o motorio, non sono

rilevanti, basta trovare il processo educativo adeguato, proprio - ricorda Turing - come fu fatto

27 Ibidem p. 189
28 Turing 1950, p. 189
29 Hodges, p. 21

17
con Helen Keller,30 ragazza divenuta cieca e sorda 19 mesi dopo la nascita che conseguì

un'istruzione universitaria grazie ad un particolare metodo d'insegnamento.

Il metodo dei premi e delle punizioni, secondo Turing, non è un metodo sufficiente per

l'educazione di un bambino, e tanto meno si può applicare al processo d'istruzione del

calcolatore; sono necessari «altri canali di comunicazione, “non emozionali”».31

Obiezioni contro l'argomentazione principale

In Macchine calcolatrici e intelligenza Turing risponde alle obiezioni che fino a quel

momento erano state mosse alla possibilità di creare una macchina pensante.

Le obiezioni sono di vario genere, da quella teologica a quella matematica, da quella

dell'autocoscienza a quella delle capacità extrasensoriali.32

Turing non ammette le obiezioni di tipo teologico33 ed antropocentrico che vogliono l'uomo

come unico essere dotato di intelligenza, vuoi per costituzione biologica vuoi per grazia

divina, e tanto meno può accettare la tesi delle capacità extrasensoriali.

Le obiezioni che più lo interessano invece sono quella matematica, quella

dell'autocoscienza (molto antropocentrica, ma in cui si esplicita il rapporto mente/corpo) e

l'obiezione di Lady Lovelace.

L'obiezione matematica riprende il suo lavoro sui numeri computabili e sul problema della

decisione di Hilbert come argomento contro la possibilità da parte delle macchine di pensare.

30 http://it.wikipedia.org/wiki/Helen_Keller
31 Turing 1950, p. 190
32 Turing 1950 p. 176
33 Nonostante Turing sia stato fermamente ateo, rispose all'obiezione teologica affermando che l'Onnipotenza
divina potrebbe dare anche un'anima immortale alle macchine, noi non lo possiamo escludere.

18
Alcuni risultati della logica matematica possono essere utilizzati per dimostrare che le

macchine discrete hanno dei limiti. Il teorema di Gödel è uno di questi, e dimostra che in ogni

sistema logico possono essere formulati degli enunciati che non possono essere né dimostrati

né confutati all'interno del sistema stesso, queste proposizioni sono dette indecidibili.

Inoltre lo stesso Turing era arrivato a questo risultato nel 1936 in On Computables

Numbers, contemporaneamente e indipendentemente da Alonzo Church.

Il lavoro di Turing usava le macchine per arrivare a questa conclusione.

Questo è il risultato matematico: si sostiene che esso dimostra un'incapacità della macchina alla
quale l'intelletto umano non è soggetto.34

Turing risponde che non è mai stata dimostrata l'illimitatezza delle capacità dell'intelletto

umano. Il fatto che a delle domande critiche la macchina risponda in modo errato, non deve

darci un senso di superiorità, infatti anche gli uomini non possono rispondere.

Altra obiezione su cui Turing si sofferma a riflettere è l'obiezione mossa da Jefferson 35

definita come l'argomento dell'autocoscienza, tesi di tipo antropocentrico, ma di grande

importanza, perché mette l'accento sul rapporto mente/corpo.

Jefferson afferma che fin quando una macchina non baserà i suoi output su delle emozioni

non potremo eguagliarla al cervello. Jefferson conosce benissimo il cervello, è un

neurochirurgo, e sa che le emozioni hanno il potere di far secernere alle ghiandole degli

ormoni che influenzano il comportamento dell'individuo.

Secondo Turing il punto di vista di Jefferson conduce al solipsismo, in cui per «essere

34 Turing 1950, p. 178


35 Sir Geoffrey Jefferson (neurochirurgo, 1886-1961) in No Mind for Mechanical Man, 1949

19
sicuri che una macchina pensa è quello di essere la macchina e di sentire se stessi pensare».36

Per spirito comune Turing preferisce non ammettere alcuna forma di solipsismo e accettare

che tutti pensiamo e modifica il gioco dell'imitazione nel gioco dell'esame orale, in cui un

esaminatore interroga un candidato, e suppone che il candidato sia un calcolatore.

Se le risposte del candidato-computer fossero soddisfacenti, non solo in aritmetica, ma

anche in letteratura, Jefferson potrebbe considerarle come un semplice espediente? Secondo

Turing considerale come semplice espediente consisterebbe nell'accettare le tesi

solipsistiche.37

Inoltre Turing argomenta la sua risposta sulla capacità della macchina di scrivere un

sonetto nel seguente modo

Io non credo neppure che si possa porre un limite e scartare l'ipotesi dei sonetti, anche se l'esempio
è un po' ingiusto, in quanto un sonetto scritto da una macchina potrà essere apprezzato al meglio solo
da un'altra macchina.38

Un po' come per Wittgenstein: se un leone potesse parlare, noi non potremmo capirlo.39

Altra obiezione su cui secondo Turing è necessario fermarsi a riflettere è l'obiezione di

Lady Lovelace, prima programmatrice in assoluto nella storia a cui si deve il linguaggio di

programmazione assembly, che riferendosi alla macchina analitica di Babbage affermò che

questa non aveva nessuna capacità creativa, ma poteva solo eseguire i nostri ordini, qualsiasi

cosa le ordinassimo.

36 Turing 1950, p. 179


37 Le tesi solipsistiche sostengono un idealismo soggettivo che nega la realtà del mondo esterno e degli altri
soggetti.
38 Hodges, p. 528
39 Wittgenstein, Ricerche Filosofiche

20
Turing crede che questa affermazione sia determinata dalla macchina analitica e dal tipo di

macchine esistenti all'epoca di Lady Lovelace, che non potevano di certo incoraggiare a

pensare a macchine capaci di imparare.

Una riformulazione di questa obiezione può essere che la macchina non può fare qualcosa

che ci sorprenda. Turing risponde ironizzando sulla propria sbadataggine:

Le macchine mi prendono alla sprovvista molto frequentemente.40

La sorpresa deriverebbe da calcoli fatti male o da considerazioni poco precise, e il risultato

finale è diverso da quello previsto.

L'obiezione che questa sorpresa non dipenda dalla macchina, ma dal programmatore

riporta secondo Turing all'obiezione dell'autocoscienza già discussa.

Le conclusioni di Turing

Il gioco dell'imitazione fondava la sua validità sul fatto che se riusciva, ovvero se

l'interrogante confondeva il calcolatore con il giocatore umano, potevamo dire che

l'intelligenza artificiale è possibile, che le macchine possono pensare e che quel calcolatore

può essere definito come cervello elettronico; infatti se la macchina mostra una parvenza di

pensiero, pensa realmente.

Quando una macchina appare comportarsi come un essere umano, allora tanto vale dire che si
comporta come un essere umano.41

40 Turing 1950, p. 184


41 Hodges, p. 347

21
Un altro esempio utilizzato da Turing, e che rafforza la sua tesi, è quello delle macchine

che giocano a scacchi.

Formalizzando le strategie del gioco degli scacchi era possibile programmare una

macchina in modo che riuscisse a vincere, tutto stava nell'istanziare correttamente il

programma.

Un programma che simuli un campione di scacchi non era solo idea di Turing, ma di molti

matematici.

Per Turing però un «giocatore-schiavo»42 era un calcolatore che sapeva realmente giocare a

scacchi, niente più, o niente meno, di un giocatore umano. Forse il giocatore-schiavo avrebbe

avuto il vantaggio di eseguire le mosse (sempre vincenti) più rapidamente del suo avversario,

spiazzandolo ad ogni mossa.

Una volta programmata per giocare la macchina può essere utilizzata proprio come se43

giocasse a scacchi.

La macchina imita il cervello, ed è quello che vuole Turing, una macchina che imiti il

comportamento del cervello. Il calcolatore può apprendere, può giocare a scacchi, può

insomma imitare il cervello indipendentemente da cosa succeda realmente in quest'ultimo.

Il cervello del neonato non è altro che una macchina disorganizzata che sarà ordinata

dall'educazione, infatti Turing concepisce l'intelligenza come qualcosa di diverso da una

facoltà innata, non può essere quindi per il cervello elettronico un impianto elettrico già

pronto, e installato al momento della nascita.

42 Hodges, p.278
43 Hodges, p. 427

22
CAPITOLO III

CERVELLI A TRANSISTOR

Turing in Macchine calcolatrici e intelligenza, come in altri articoli minori e in

dichiarazioni rilasciate nel corso di interviste esplicita la sua intenzione di costruire una

macchina che simuli il cervello, non di costruirne uno elettronico, nel senso più materiale

dell'espressione. La sua idea era quella di creare una macchina che imitasse l'uomo nel

pensiero e non nella struttura biologica (nonostante il suo enorme interesse per la biologia e la

struttura del cervello), tanto che afferma ironicamente:

No, non mi interessa arrivare a fare un cervello potente. Quello che vorrei ottenere è soltanto un
cervello mediocre, diciamo come quello del presidente dell'American Telephon and Telegraph
Company 44

Inoltre nella stessa occasione Turing aveva parlato dell'idea che il suo collega matematico e

ingegnere Claude Shannon aveva della possibilità di costruire un cervello elettronico

Shannon non vuole dare solo dei dati al suo Cervello, vuole dargli cultura! Vuole offrirgli della musica!45

Shannon nel 1953 in Calcolatori e automi46 fa un'accurata analisi della ricerca

neurofisiologica di quei tempi, che reputa molto primitiva, in quanto non era ancora chiaro se

il livello neurale fosse quello più adatto all'analisi funzionale.

44 Hodges, p. 329
45 ibidem
46 Shannon Claude, Calcolatore e automi, in V. Somenzi (a cura di), La filosofia degli automi, Bollati
Borienghieri, Torino, 1994

23
Questa incertezza era dovuta all'osservazione della struttura causale del cervello: il

numero, la dislocazione, e le interconnessioni dei neuroni lasciano pensare che la costruzione

di un modello del cervello debba essere preceduta da un un modello di un cervello con una

struttura media.

Il problema dell'IA quindi sembra spostarsi, almeno per Shannon e altri matematici,

sull'hardware anziché sul software, ovvero sulla costruzione di una macchina che possa

assomigliare il più possibile al cervello umano in termini di struttura funzionale,

procrastinando il problema del programma che simuli le risposte.

Per le conoscenze di quel periodo, sia nel campo della neurologia che nel campo della

realizzazione di macchine, Shannon delinea le differenze tra cervello e calcolatore.

Una delle differenze fondamentali, oltre le a quelle di dimensione, sono quelle di

organizzazione strutturale (casualità della configurazione dei neuroni nel sistema nervoso

contro il preciso cablaggio e assemblaggio dei componenti elettronici); nel caso del cervello il

funzionamento complessivo non dipende dalla sua esatta configurazione.47

Altra differenza che rende il cervello diverso da un calcolatore è data dall'affidabilità del

primo nel tempo rispetto al secondo. Il cervello può funzionare per anni senza casi di

malfunzionamento, mentre ciò non è garantibile per le macchine.

La differenza di organizzazione logica già ha a che fare con le facoltà del cervello di

organizzare e classificare gli input, mentre con i calcolatori tutto fila liscio fin quando si tratta

di espressioni aritmetiche, più o meno complicate, ma all'infuori di questo cominciano i

problemi.

La differenza di dispositivi di ingresso e uscita si riferisce all'importanza degli organi di

senso, che nonostante possano essere ricreati artificialmente non danno al calcolatore un

47 Shannon, p. 95

24
contatto col mondo reale diretto, ma tramite «uno spazio astratto di numeri e di operazioni sui

numeri».48

Cinque anni dopo il matematico von Neumann in Calcolatore e cervello49 considerando

definitivamente come elemento base del sistema nervoso il neurone, compara quest'ultimo

con i corrispettivi artificiali: tubi a vuoto e transistor. In questa analisi von Neumann ricava

differenze più dettagliate di quanto aveva fatto Shannon, le mette in relazione e trae

conclusioni di tipo empirico.

Se per Shannon il cervello umano era superiore alla macchina per efficienza a lungo

termine, per von Neumann l'efficienza può essere considerata in termini di affaticamento e

quindi a breve termine; infatti se Shannon vede nel cervello una macchina che funziona

attivamente negli anni senza avere grossi disturbi funzionali, per von Neumann il cervello ha

il difetto, rispetto alla macchina, di avere dei tempi di ripresa decisamente più lunghi.50

Le conclusioni che trae von Neumann sembrano essere però ancora una volta a favore del

cervello naturale; infatti,

in termini di numero di azioni che possono essere svolte da organi attivi delle stesse dimensioni
complessive (definite dal volume o dal consumo d'energia) nello stesso intervallo di tempo, i
componenti naturali superano quelli artificiali per un fattore di 104.51

Altra differenza già segnalata da Shannon e ripresa da von Neumann è quella

nell'organizzazione logica, per cui il sistema naturale può funzionare in modo più efficiente

48 Shannon, p. 96
49 Von Neumann, Calcolatore e cervello, Shannon Claude, Calcolatore e automi, in V. Somenzi (a cura di), La
filosofia degli automi, Bollati Borienghieri, Torino, 1994
50 Von Neumann, p. 131
51 Von Neuman, p. 133

25
lavorando in parallelo, mentre le macchine non possono che lavorare in serie.52

Inoltre la differenza nella memoria non è una differenza da sottovalutare, il fabbisogno di

memoria per una macchina artificiale è indubbiamente maggiore di quello di una macchina

naturale.

Con questa analisi dettagliata von Neumann individua i neuroni come organi logici

elementari, ovvero organi digitali.53

Per concludere von Neumann ammette che non c'è un unico sistema di comunicazione nel

sistema nervoso. Non ci sono solo comunicazioni di istruzioni e comunicazioni di numeri, ma

anche comunicazioni che non richiedono formalismi aritmetici, come quelle che hanno a che

fare con il linguaggio.54

52 In parallelo significa che possono ricevere, elaborare e restituire più dati contemporaneamente, mentre in
serie indica la possibilità di operare un dato alla volta. Tuttavia, oggi, esistono calcolatori capaci di lavorare
in parallelo.
53 Per tecnologia digitale si intende un dispositivo, o un sistema di dispositivi, che lavora (prende in input o
restituisce in output o ancora soltanto manipola) con un alfabeto discreto, ovvero che tra un simbolo e l'altro
non ne intercorre nessun altro. Per fare un esempio, possiamo dire che l'insieme dei numeri naturali è
digitale, mentre quello dei numeri razionali è analogico (ovvero, tra un numero e il suo successivo naturale
ne esistono infiniti razionali in mezzo, tra l'1 e il 2 abbiamo 1,1 1,2, ma anche 1,0001 1,00001 e così via).
54 Von Neumann, p. 149

26
CAPITOLO IV

IL DEMONE DI SEARLE

IA forte e IA debole

Un testo fondamentale nella letteratura sull'IA, è Menti, cervelli e programmi55 di John

Searle, un articolo che ha suscitato un dibattito molto importante negli anni '80 coinvolgendo

gli studiosi più autorevoli del settore.

L'articolo è visto come una risposta a Turing (una risposta postuma, dato che Turing morì

nel 1954) e al suo gioco dell'imitazione.

L'obiettivo della critica di Searle è l'idea che un programma istanziato in una macchina

possa avere intenzionalità.

Per Searle affinché ci sia intenzionalità è necessario riprodurre i poteri causali presenti nel

cervello.

Una distinzione fondamentale che Searle fa, e che sarà oggetto di fraintendimenti, è quella

fra IA debole e IA forte.

L'IA debole ( o cauta ) ha come obiettivo di essere uno strumento ausiliare per lo studio

della mente. La concezione dell'IA forte prevede invece che il calcolatore non sia

semplicemente un simulatore della mente, ma che il computer, correttamente programmato,

sia una vera e propria mente con relativi stati cognitivi annessi. Nell'IA forte

55 Searle John R., Minds, Brains and Programs, in The Behavioral and Brain Sciences, 1980, Cambridge
University Press; trad. it. Menti, cervelli e programmi, un dibattito sull'intelligenza artificiale, a cura di
Graziella Tonfoni

27
I programmi non sono semplici strumenti che ci rendono possibile considerare spiegazioni
psicologiche: piuttosto i programmi costituiscono di per sé le spiegazioni.56

La critica non è rivolta a tutta l'IA, ma soltanto all'ipotesi forte, mentre Searle dichiara

utilissimi gli sforzi condotti nel campo dell'IA debole.

L'IA forte non risponde alla domanda «le macchine possono pensare?», giacché non tratta

di macchine, ma di programmi.

Questo è il motivo per cui l'ipotesi “forte” dell'Intelligenza Artificiale ha poco da dirci intorno al
pensare, poiché non riguarda le macchine, ma piuttosto i programmi, e nessun programma è di per sé
capace di pensare.57

La stanza cinese

Per argomentare la sua tesi Searle decide di fare un esperimento mentale conosciuto come

“la stanza cinese”, in cui egli stesso si immedesima nel ruolo di un calcolatore umano, proprio

come lo doveva aver immaginato Turing.

Searle suppone di trovarsi dentro una stanza, seduto ad una scrivania con un plico di fogli

scritti in cinese, e non conoscendo egli il cinese, può concepirli semplicemente come simboli

formali che non differirebbero per nulla da caratteri giapponesi o scarabocchi.

Sulla scrivania inoltre c'è un secondo plico, sempre scritto in cinese, e delle regole, stavolta

scritte in inglese, lingua madre dello stesso Searle e che quindi egli può capire benissimo, che

legano gli scritti in cinese del secondo plico con quelli del primo.

Searle immagina un terzo plico ancora, sempre scritto in cinese con regole in inglese che lo

56 Searle, p. 46
57 Searle, p. 46

28
mette in relazione al secondo.

Le regole sono in inglese e io capisco queste regole come qualunque inglese di madrelingua. Esse
mi rendono possibile mettere in relazione una serie di simboli formali con un'altra serie di simboli
formali (e tutto quello che formale significa qui, è che posso identificare i simboli interamente
attraverso le loro forme).58

Le persone al di fuori di questa stanza che forniscono i fogli chiamano il primo plico “uno

scritto”, il secondo “una storia” e il terzo “quesiti”. Il risultato che dovrà elaborare Searle

viene chiamato “risposta alla domanda” e la serie di regole in inglese le chiamano

“programmi”.

Seguendo correttamente le regole, le risposte cinesi alle domande cinesi saranno corrette,

proprio come se le desse un cinese madrelingua, proprio come se le domande, la storia e le

risposte date da Searle fossero in inglese.

A questo punto è doveroso secondo Searle chiedersi se sia legittimo pensare che lui

comprenda il cinese.

Nel caso del cinese, diversamente da quello dell'inglese, produco le risposte col manipolare
simboli formali non interpretati.59

Credo che lo stesso Turing possa essere d'accordo con l'argomentazione portata avanti in

questo modo, infatti ricordiamo che l'idea di calcolatore umano proveniente dalla sua

esperienza a Bletchley, consisteva in operaie che eseguivano il loro compito senza

comprendere di che si trattasse.

Secondo Searle la base dell'IA forte, o teoria che la macchina abbia capacità cognitive,

58 Searle, p. 48
59 Searle, p. 49

29
nasce dal fatto che attribuiamo stati intenzionali alla terza persona, per metafora o per

analogia, per cui «la porta sa quando deve aprirsi grazie alle sue cellule fotoelettriche».60

Precisamente scrive Searle, noi estendiamo la nostra intenzionalità ai mezzi meccanici, in

quanto estensioni dei nostri scopi.

Quando Searle usa il termine “intenzione” intende un particolare tipo di stato mentale

diretti verso oggetti o modi di essere della realtà nel mondo.

Uso il termine «intenzionalità» come un termine tecnico che sta a significare quella caratteristica
delle rappresentazioni grazie alla quale esse sono riguardo a qualcosa o dirette a qualcosa.61

L'intenzionalità è qualcosa che sopraggiunge alla coscienza che è una caratteristica

biologica dei sistemi nervosi di più alto livello, come il cervello degli uomini e degli altri

animali.

Le repliche

La prima esposizione della critica all'IA forte è subito seguita da repliche provenienti dal

mondo accademico vicino a Searle.

La prima replica è quella del “sistema”: secondo alcuni studiosi (dell'istituto di Berkeley)

la comprensione non sarebbe da cercare semplicemente nel calcolatore umano, ma nell'intero

sistema stanza, calcolatore e plichi insieme. La risposta a questa replica è molto facile, infatti

Searle ripropone lo stesso identico esperimento, ammettendo la possibilità di imparare egli

stesso a memoria le regole che legano i testi in cinese, e ammette anche di imparare a

memoria quei simboli in cinese. Praticamente Searle si propone di diventare l'intero sistema.

60 Searle, p. 52
61 Searle John R., La costruzione della realtà sociale, Edizioni di Comunità; p. 13

30
Il risultato però sembra non cambiare, infatti Searle sarà molto più veloce a fornire le risposte

in cinese, ma continuerà a non capirle, a non capire ciò che egli stesso dice.

La seconda replica, conosciuta come la replica del robot (dagli studiosi di Yale), prevede

che il computer sia il cervello elettronico di un vero e proprio robot che abbia la capacità di

vedere tramite una telecamera e muoversi tramite gambe artificiali.

Searle coglie in questa replica un elemento molto importante, che

la cognizione non è solamente una questione di manipolazione di simboli, poiché essa aggiunge un
insieme di relazioni causali inerenti al mondo esterno (cfr. Fodor, Methodological Solipsism, BBS 3
(1), 1980).62

La replica che però spinge ad esplicitare la posizione di Searle rispetto alla relazione

mente/cervello è la replica di Berkeley e del MIT, la replica del “simulatore del cervello”.

Nella replica del “simulatore del cervello” si ipotizza un programma che simuli la

sequenza di scariche neuroniche che avvengono nelle sinapsi del cervello in un madre lingua

cinese.

La posizione di Searle si fa più netta. Non basta simulare formalmente un cervello affinché

si possa avere intenzionalità, serve un cervello vero e proprio con i relativi «poteri causali».63

Il suggerimento che dà Searle a coloro che si ostinano a perseguire l'IA forte sta nel cercare

di capire e riprodurre i poteri causali presenti nel cervello, e non solo la configurazione delle

reti neurali.

La possibilità di capire una lingua non è data all'uomo in quanto programmato così, ma

perché costituito biologicamente (fisicamente e chimicamente) in un determinato modo.

Hodges invece scrive che per comprendere il modello turinghiano di «cervello» dobbiamo

considerare che in esso la fisica e la chimica sono irrilevanti, in quanto sostituibili, mentre

62 Searle, p.58
63 Searle, p.60

31
bisogna considerare «lo schema logico» degli stati mentali.64

Credo che Turing abbia poi cambiato idea visto che impegnò l'ultima parte della sua vita

nella ricerca di regole inscritte nella struttura biologica degli embrioni, anche se i suoi studi

sulla struttura del cervello a livello neuronico non sembrano essere andati molto lontano.

L'intenzionalità e il simbolo

Searle conclude questo suo primo articolo riproponendo la domanda iniziale, «Può una

macchina pensare?», e in un modo che lascia sorpresi i suoi avversari.

Secondo Searle è ovvio credere che le macchine possano pensare: l'uomo, infatti, è una

macchina a tutti gli effetti. Inoltre Searle afferma che anche una macchina costruita dall'uomo

può essere considerata pensante, solo ad una condizione però: che venga riprodotto il sistema

nervoso, con neuroni, dendriti e tutto il resto.

Si potrebbe ricreare il sistema nervoso utilizzando principi chimici diversi dai nostri e

avere ancora intenzionalità, credenze e il resto delle capacità cognitive.

Se si possono raddoppiare esattamente le cause, si potrebbero raddoppiare anche gli effetti.65

Anche un calcolatore digitale può, secondo Searle, pensare, ma non unicamente per il fatto

che su esso sia installato il programma giusto.

Un programma manipola simboli formali, non li comprende. Il fatto che questi simboli

siano formali è molto importante, li distingue dai normali simboli.

Un simbolo di per sé ha il compito di rappresentare qualcosa per chi lo usa; i simboli cinesi

per Searle, e per chiunque non conosca il cinese, non hanno nessun contenuto

64 Hodges, p. 180
65 Searle, p. 65

32
rappresentazionale.

La relazione che connette la sintassi (il simbolo cinese) con la semantica (il suo significato)

non è legato da un codice biunivoco, con una relazione causale.66

I calcolatori che basano le loro capacità cognitive sui programmi operano correttamente nel

campo sintattico, sanno benissimo come posizionare il verbo all'interno della frase, come

coniugarlo e come completare le frasi, ma non capiscono il contenuto delle loro operazioni,

mancano di semantica.

L'unica intenzionalità esistente in una stanza dove opera un calcolatore è quella degli

operatori che immettono i dati di input e leggono quelli restituiti dalla macchina come output.

Per il calcolatore il rapporto tra input e output è puramente formale-meccanico ed è il

programma stesso.

Tale intenzionalità, quale sembra abbiano i computer, è solamente nelle menti di quelli che la
programmano e di quelli che li usano, di quelli che immettono gli input e di quelli che interpretano
l'output.67

Searle crede che molti degli errori in questo campo dipendano dal fatto che si è pensato che

simulare significhi duplicare, sia rispetto alle capacità intellettive che a quelle emotive.

Per eliminare questa confusione gli esperti di IA dovrebbero evitare ogni forma di

comportamentismo e operazionismo, invalidando il test di Turing che per Searle è tipico di

questa tradizione.68

66 Cimatti Felice, Mente, segno e vita: elementi di filosofia per le Scienze della comunicazione, Carrocci
editore, p. 17
67 Searle, p. 66
68 Searle, p. 70

33
Contro il dualismo

Subito dopo queste considerazioni Searle discute un altro errore filosofico, quello forse più

importante in quanto si presta come terreno fertile all'ipotesi forte dell'IA, il dualismo.69

L'idea che mente e cervello siano due cose differenti, quasi dicotomiche, per cui quando si

parla di mente il cervello non c'entra nulla, dà forza a sostenitori dell'IA forte e alla loro tesi

che la mente sia solamente un programma, un complessissimo programma istanziato su un

supporto fisico, nel caso umano un cervello biologico, nel caso delle macchine un calcolatore

digitale.

Searle non ammette nessuna difficoltà nel riconoscere che un cervello sia un calcolatore

digitale a tutti gli effetti, solo esclude che

Qualunque cosa faccia il cervello per produrre intenzionalità, questa non può consistere
nell'istanziare un programma, poiché nessun programma, di per sé, è sufficiente per l'intenzionalità.70

L'articolo di Searle suscitò grande entusiasmo tra gli studiosi di IA di tutte le discipline

aprendo un dibattito piuttosto vivace a cui Searle non poté non partecipare in chiusura con una

risposta a tutti gli interlocutori.

Alcuni dei partecipanti al dibattito avvalorarono la tesi di Searle, spiegando ulteriormente

la sua critica o aggiungendo esempi che esplicassero il suo punto di vista.

Altri invece lo criticarono sostenendo ancora una volta il dualismo. Dennett, per esempio,

afferma «Io capisco l'inglese, il mio cervello no».71

Searle ammette che finché per il calcolatore i dati saranno solo simboli formali, senza che

69 ibidem
70 Searle, p. 72
71 Searle, p.192

34
si associ loro un contenuto semantico, il calcolatore stesso resterà, per usare le parole di

Dennett «cieco rispetto al significato di ciò che è stato scritto», 72 mentre non può ammettere

che il cervello non capisca l'inglese, anzi, è proprio il suo cervello secondo lui che fa quel

lavoro (proprio come lo stomaco digerisce la pizza, per usare un suo esempio), definendolo

consapevole.73

Searle, per altro, rifiuta l'idea di Bridgeman per cui «le sole proprietà del cervello sono le

proprietà che esso ha a livello dei neuroni».74

Per concludere su questo tema, Searle è disposto ad usare, anche se mal volentieri, la

terminologia classica definendosi un interazionista, e in qualche modo un monista.75

Ancora sull'intenzionalità

Mosso da tante critiche fondate sull'incomprensione della tesi dell'intenzionalità e della sua

attribuzione a terzi, Searle specifica la differenza tra “intenzionalità intrinseca” e “attribuzioni

di intenzionalità relative all'osservatore”.

L'intenzionalità intrinseca sarebbe l'intenzionalità del soggetto pensante, mentre

l'intenzionalità relativa all'osservatore sarebbe quella che l'osservatore attribuisce agli oggetti,

siano essi porte con cellule fotoelettriche, o calcolatori digitali che giocano al test di Turing.

Ogni stato d'intenzionalità attribuito dipende dall'osservatore che lo attribuisce.

Non ci sono due tipi di stati mentali intenzionali; c'è solo un tipo in cui essi hanno intenzionalità
intrinseca; ma ci sono attribuzioni di intenzionalità in cui l'attribuzione non attribuisce intenzionalità

72 Searle, p. 95
73 Searle, p. 192
74 Searle, p. 207
75 Searle, p. 209

35
intrinseca al soggetto dell'attribuzione.76

Dunque, il termostato di Mc Carthy77 non ha opinioni sue sulla temperatura dell'ambiente,

fa soltanto delle misurazioni e dei confronti con i parametri preimpostati.

Sull'attribuzione di stati mentali a terzi c'è una vasta produzione della filosofia analitica,

soprattutto per quanto riguarda intenzionalità e credenze degli animali.

L'attribuzione di stati intenzionali è dovuto all'applicazione del nostro vocabolario

intenzionale per riferirci al comportamento di un animale, piuttosto che di una macchina.

Anche se non si crede che la mente di un animale possa avere stati intenzionali, quali le

credenze,78 questo comportamento può essere giustificato nel caso degli animali per il

rapporto affettivo che intratteniamo con essi.79 Certe giustificazioni non valgono nel caso dei

calcolatori.

L'esempio di Danto per chiarire la differenza tra IA forte e debole

Altro fraintendimento è sulla distinzione tra IA debole e IA forte. Searle non critica affatto

l'idea di un'IA debole, anzi afferma di esserle favorevole, almeno come programma di ricerca.

Se qualcuno scrivesse un programma che desse input o output corretti per le storie cinesi,

scrive Searle, saremmo arrivati ad una buona comprensione del linguaggio, e ciò sarebbe

76 Searle, p. 194
77 ibidem
78 A favore della tesi che anche gli animali posseggano stati intenzionali come le credenze possiamo citare

Russell che in La conoscenza umana, le sue possibilità e i suoi limiti definisce «l'idea» come uno stato
dell'organismo, l'impossibilità che appartenga agli animali è data dalla concezione intellettualistica che ne
abbiamo. Anche Searle in La costruzione sociale della realtà crede che un animale possa avere delle credenze
che sono dette prelinguistiche. Queste considerazioni confermano che gli stati intenzionali hanno un
fondamento biologico, e la relazione necessaria del soggetto col mondo.
79 Carapezza Marco, Segno e simbolo in Wittgenstein, Bonanno 2006; p. 118

36
notevole.80

Tra gli autori che più hanno contribuito a spiegare il punto di vista searliano credo che sia

Danto a rendere meglio l'idea di una distinzione tra sintassi e semantica.

L'articolo di Danto dice già tanto dal titolo: L'uso e la menzione di termini e la simulazione

della comprensione linguistica.81

Secondo Danto noi crediamo che i programmi che giocano al test di Turing comprendano

realmente il linguaggio, mentre in realtà si tratta di una simulazione, in cui il calcolatore

menziona correttamente i termini ma non ne conosce effettivamente i casi d'uso. Ancora una

volta c'è differenza tra sintassi e semantica.

Danto porta come esempio le figlie di Milton che leggevano ad alta voce testi in greco ed

ebraico al loro padre cieco: non conoscevano il significato di ciò che pronunciavano, ma

sapevano rispondere a domande sulle parole greche, come la lunghezza delle parole e la loro

pronuncia.

Danto basandosi su questo esempio definisce le figlie di Milton capaci di menzionare il

termine ma non di utilizzarlo.

Ogni parola ha delle proprietà che le permetteno di essere identificata da qualcuno che è

incapace di usarla; sono le M-proprietà, differenti dalle U-proprietà, che sono quelle proprietà

che uno deve conoscere per utilizzare una parola all'interno di una frase.

Le U-proprietà non sono definibili attraverso l'insieme delle M-proprietà.

Il problema consiste nel fatto che noi non possiamo inferire da una descrizione fenomenica

se è possibile applicare o meno anche una descrizione interna. Noi non sappiamo se la

macchina comprende veramente i termini o soltanto sembra farlo.

80 Searle, p. 201
81 (articolo incluso in) Searle, p. 90

37
Se una macchina è programmata per simulare la comprensione, questa è limitata solo alle

M-proprietà, utilizzando solo M-regole e M-leggi.

Secondo Danto la posizione di Searle è quella che la competenza d'uso (U-competenza) dei

termini non può essere definita in M-termini, mentre in ogni U-realizzazione può essere data

una simulazione M-specificata.

Il calcolatore simulerà le proprietà delle U-realizzazioni senza averle.82

Searle sofista

Il filosofo statunitense riceve tra le tante critiche anche quella di essere un sofista, o meglio

la sua “stanza cinese” non sarebbe altro che un sofisma, un inganno dialettico.

Hofstadter scrive a proposito della stanza cinese:83

Accettando questa proposta, il lettore è inconsapevolmente risucchiato in una concezione non


realistica del rapporto tra intelligenza e manipolazione dei simboli.

Secondo Hofstadter infatti intelligenza e manipolazione dei simboli si trovano posti a

livelli concettuali diversi e Searle ha solo la capacità di coinvolgere il lettore in un gioco che

finisce dove lo stesso Searle vuole. Il lettore si impersonifica nell'uomo dentro la stanza

cinese e si immagina simulatore di un programma che gioca al test di Turing, vincendolo.

Searle ci invita a distogliere l'attenzione all'intero sistema e a concentrarci solo sul punto

del demone.84 la meccanicità delle operazioni e la loro estrema lentezza e guida il lettore a

82 Searle, p.93
83 D.R. Hofstadter, D.C. Dennett, The Mind's I. Fantasies and Reflections on Self and Soul, Basic books, INC.,
1981; trad. it L'io della mente. Fantasie e riflessioni sul sé e sull'anima, Adelphi Edizioni S.P.A., Milano,
1985
84 Demone è il nome che viene dato all'uomo che sta dentro la stanza cinese a svolgere le operazioni. Questo

38
“percepire l'assenza di comprensione”.

Hofstadter invece prende spunto da questo esperimento per riflettere su cosa significhi

comprendere una lingua. Egli fa riferimento alla comprensione di una lingua diversa da quella

materna che non è il semplice applicare un insieme di regole di traduzione nel parlare e

nell'ascoltare, ma significa trascendere la propria madrelingua e non sentire più dei rumori (le

parole, i segni) ma il loro significato.

Hofstadter scrive:

la padronanza di una nuova lingua non consiste nel far eseguire al nostro “sottosistema per la
madrelingua” un programma di regole che ci permettano di trattare un linguaggio come un insieme di
suoni e di segni senza senso.85

Dopo questa riflessione, che può sembrare marginale, Hofstadter ci mostra come debba

cambiare qualcosa nel demone stesso affinché questo capisca il cinese, e quindi ci sono due

livelli, quello dello hardware (demone e fogli che capisce solo l'inglese) e quello del software

(le istruzioni che il demone deve eseguire) che Searle continua a confondere per tenere in

piedi la sua argomentazione. Secondo Hofstadter egli confonderebbe anche altri due livelli nel

suo test: la stanza cinese sarebbe inizialmente la riproduzione di un sistema che esegue lo

script di Schank86 e finisce per superare il test di Turing, come se il piano concettuale fosse lo

stesso.

Lo script di Schank risponde a domande stereotipate in alcuni contesti, mentre il test di

appellativo non è casuale, ma deriva da una tradizione propria dell'informatica di chiamare daemon alcuni
programmi che agiscono in modo latente.
85 Ibidem pag. 367
86 Lo script di Schank consiste in un programma che “comprende” storie stereotipate, in cui gli eventi si
ripetono di volta in volta, come l'andare al ristorante (per seguire l'esempio tipico per spiegare questo script) o
alla posta. Lo script si aspetta delle informazioni precise determinanti un contesto e non altre, grazie a queste
informazioni riuscirà a rispondere correttamente.

39
Turing, abbiamo visto è qualcosa di più complesso delle la semplice interrogazione di un

calcolatore su un determinato campo.

Altra critica che Hofstadter fa a Searle, condivisa anche da Martin Davis, è l'inaccettabilità

del dogma dei “poteri causali”, frutto a volte della giusta configurazione chimico-fisica del

nostro cervello, altre volte invece frutto di qualcosa di non definito.87

87 Pag. 362

40
CAPITOLO V

INTELLIGENZA ROBOTICA

La sintassi trascende la semantica

Le tesi analizzate fin qui hanno avuto nella storia del dibattito dell'IA un ruolo

fondamentale, infatti il test di Turing continua ad essere considerato da molti un test valido

per provare l'intelligenza simulata dalla macchina, e la stanza cinese continua ad essere un

punto di riferimento per chiunque si interessi all'aspetto psicologico e filosofico

dell'intelligenza.

Nel dibattito contemporaneo, sono emerse altre posizioni rispetto l'IA, che riformulano lo

studio di questa disciplina.

Una posizione abbastanza rilevante è quella sostenuta, tra i tanti, anche da Giuseppe O.

Longo,88 che concorda con Searle che i programmi manipolino essenzialmente simboli

formali, occupandosi della sintassi, ma non ritiene che ciò non sia sufficiente per costituire

una semantica.89

Indubbiamente perché ci sia semantica ci deve essere la conoscenza sensibile, corporea. E'

solo grazie alla nostra conoscenza del mondo sensibile che noi possiamo avere oggetti di

88 Il professor Giuseppe O. Longo è professore Ordinario dell'università di Trieste, appartenente al dipartimento


di Elettrotecnica Elettronica Informatica.
89 Searle, p.72

41
intenzioni e contenuti delle rappresentazioni simboliche.

La semantica non sarebbe una capacità rigida che “il parlante”90 possiede o meno, ma una

proprietà sfumata, a gradi, costruita nel tempo tra le diverse sintassi «create e gestite dai suoi

sensi e dalla sua conoscenza razionale».91

La semantica nascerebbe sulla complessa rete dei sistemi sintattici, arricchendosi

proporzionalmente alla complessità di questa rete.

Se la semantica non si basasse su una struttura di diverse sintassi, l'unica semantica che

potremmo avere sarebbe chiusa e rigida come in un codice.

La sintassi di un uomo normale è certo diversa, forse più raffinata o completa, di quella di un
sordo o di un cieco. Un sordo che sia anche cieco avrà una sintassi meno articolata, e quindi una
semantica meno ricca, di quella di un sordo che ci veda, e così via.92

E' la Lebensform, la nostra forma di vita che costruisce la nostra complessa sintassi, che

non è solo visiva, che non è solo uditiva, ma è visiva e anche uditiva, ma anche olfattiva e

così via. La nostra sintassi dipende dalle facoltà con cui tracciamo il mondo, e dentro questo

tracciato troviamo la semantica.

E' per il fatto che conosciamo il mondo in un determinato modo che ci facciamo

un'immagine del mondo in un modo ben definito.

Che la sintassi sia costituente della semantica però non è cosa del tutto nuova ai filosofi del

linguaggio. Marco Carapezza, in Segno e simbolo in Wittgenstein, mostra come già nel

Tractatus Logico-Philosophicus Wittgenstein riproponeva il principio di contesto di Frege che

90 Naturale o artificiale che sia.


91 Longo Giuseppe O., Evoluzione del linguaggio: verso una multimedialità per la cultura?, Presentato al
Convegno "Componenti scientifiche dell'armonia e del bello" Milano, 25 maggio 2001
92 Longo 2001, paragrafo Sintassi e semantica

42
consigliava di «cercare il significato delle parole, considerandole non isolatamente, ma nei

loro nessi reciproci».93

Le singole parole ricaverebbero il significato solo all'interno di una proposizione che ne

delinea il contesto.

In effetti, analizzando le espressioni comuni della nostra lingua, possiamo notare come una

stessa parola prenda significati differenti a seconda del contesto in cui si trova, come ad

esempio la parola “cane” che nelle seguenti frasi prende accezioni diverse:

«Sto accarezzando il mio cane»

«Ti sei comportato da cane!»

Direi che nei due casi in cui occorre il termine “cane” il significato è addirittura opposto.

Nel primo caso il cane come docile animale domestico, nel secondo come essere irrazionale e

aggressivo.

Analizziamo con più attenzione cosa scrive Wittgenstein in merito nella proposizione 3.3

del Tractatus:

T. 3.3: Solo la proposizione ha un senso; solo nel contesto della proposizione un nome ha
significato.

Credo che non si possa essere più espliciti.

Riconosciuta la validità del principio di contesto Carapezza analizza altri due punti del

Tractatus che rafforzano la nostra tesi di una semantica fondata sulla sintassi, nelle

proposizioni 3.141 e 3.251:

93 Carapezza, p. 99

43
T. 3.141: La proposizione non è un miscuglio di parole. - (Come il tema musicale non è un
miscuglio di suoni).

La proposizione è articolata.

e ancora

T. 3.251: La proposizione esprime in guisa determinata e chiaramente indicabile ciò che esprime.
La proposizione è articolata.

Queste proposizioni sottolineano l'importanza dell'articolazione delle parole che

compongono la proposizione.

L'articolazione non è altro che la struttura logica della proposizione, non è altro che la

costruzione grammaticale.

Se è nelle regole sintattiche che i termini si appropriano delle semantica, non dobbiamo

pensare che il significato delle parole si riduca semplicemente al livello grammaticale; infatti

ogni parola ha di per sé un “potenziale semantico” che le permette di far parte di una

proposizione e non di un'altra.

Per dirlo in termini searleani, ogni parola si trova collegata ad un network di significati, ed

è nell'articolazione della proposizione che si determina a quale significato la parola debba

connettersi.

Queste argomentazioni hanno come fine di supportare la tesi iniziale di Turing sulla

necessità e possibilità di costruire una macchina che diventi intelligente con il tempo,

imparando grazie a un'educazione adeguata e dall'esperienza diretta con il mondo.

Il calcolatore deve sviluppare le sue capacità semantiche a partire dalle capacità sintattiche,

e deve soprattutto sviluppare le sue capacità sintattiche conoscendo il mondo.

Così la replica del robot a Searle risulta molto sensata, infatti è necessario che un

44
calcolatore possa costruirsi una sintassi che tenga conto delle immagini visive, e quindi ha

bisogno di occhi cibernetici, e per imitare il meglio possibile la sintassi dell'uomo dovrà

vivere nel mondo, proprio come l'uomo.

E' necessario che passi del tempo affinché la macchina costruisca una sua sintassi,

d'altronde l'uomo non la impara in un giorno.

Se valesse realmente l'innatismo delle nostre facoltà linguistiche come sostiene Chomsky,

cadrebbe la tesi che la sintassi si costruisce nel tempo, ma non si farebbe che dare maggior

ragione alle tesi dell'IA forte, in quanto tutto dipenderebbe da un Dispositivo Linguistico

installato nella nostra testa e contenente tutta la sintassi già bella e pronta, e questo potrebbe

essere ricreato ingegneristicamente.

Una visione monista dell'IA

A proposito di un evoluzionismo dell'intelligenza dei calcolatori il professor Longo

analizza l'evoluzione dell'intelligenza umana, partendo dal funzionamento del nostro sistema

conoscitivo.

Ci sarebbero una conoscenza tacita, inscritta nel nostro DNA e una conoscenza esplicita

che fa parte dell'educazione.

La prima corrisponde a quelle conoscenze che si attuano «nel corpo e tramite il corpo»,94

tramandate biologicamente nella storia evolutiva della nostra specie.

La seconda modalità di conoscenza «si attua tramite la mente»95 ed è presente solo a livello

razionale.

94 Longo, Il nuovo Golem, come il computer cambia la nostra cultura, Edizioni Laterza, Bari 2000; p. 59
95 ibidem

45
La conoscenza dell'uomo non è interamente trasferibile alle macchine, come si pensava

agli albori dell'IA, ci si è dovuti arrendere alla necessità di dare al cervello elettronico un

«equivalente di un corpo con tutta la sua attività cognitiva profonda e in parte forse non

algoritmica»96

La possibilità di un'intelligenza disincarnata, come quella degli angeli, essenze intellegibili

senza corpo, è un'idea che ha già dato molti insuccessi e delusioni.

Secondo il professor Longo, per costruire un modello più simile possibile all'intelligenza

umana si dovrebbe cominciare con il simulare le azioni più semplici del nostro

comportamento quotidiano, anziché le operazioni più complesse.

Molte delle nostre azioni sono involontarie, avvengono senza l'interazione della mente che

le rallenterebbe in modo non indifferente. E' grazie a questi atti inconsci, di velocità fulminea,

se per esempio riusciamo a salvarci da situazioni di pericolo.97

Il corpo è, dunque, fondamentale per la costruzione di una mente, e per citare ancora

Longo

La conoscenza corporea e l'immersione del corpo nel mondo sono condizioni necessarie e
sufficienti per una semantica ricca e articolata, cioè una semantica come la si intende comunemente.
Senza la connessione mente-corpo la semantica sarebbe povera e rischierebbe di ridursi a vuota
sintassi.98

La conclusione che un cervello elettronico basti implementare un corpo elettronico non

deve però illuderci che ciò ci condurrà ad un'intelligenza simile a quella umana, anzi è da

96 Longo 2000, p. 61
97 Longo 2000, p. 63
98 Longo 2000, p. 64

46
considerare che questa intelligenza sia completamente diversa, perché anche quando

riuscissimo a ricreare un robot antropomorfo che assomigli il più possibile ad un uomo tanto

da poter asserire che abbia la stessa nostra Lebensform, la sua storia, le sue necessità e i suoi

fini determineranno necessariamente un'intelligenza diversa.

Proprio come rispose Turing a Jefferson «un sonetto scritto da una macchina potrà essere

apprezzato al meglio solo da un'altra macchina».

Secondo questa tesi le macchine potranno avere una semantica e quindi un'intenzionalità

con l'andare del tempo, basta che abbiano un corpo con il quale mappare il mondo e una loro

storia.

Il paradigma è cambiato, se prima l'IA doveva simulare l'intelligenza umana,

uguagliandone il comportamento davanti a determinate situazioni, con questa nuova

concezione l'IA deve mettere in conto la possibilità che il comportamento sia intelligente ma

differente da quello dell'uomo, giacché il robot avrebbe categorie (in senso kantiano) tutte

della sua specie.

Robot

Parlando di IA è scontato e necessario che si arrivi ai robot, ed è doveroso soffermarsi a

riflettere sulle implicazioni dovute alla loro esistenza.

Il tema dei robot è stato molto considerato nella letteratura e nella filmografia

fantascientifica, facendo riflettere i filosofi sulle implicazioni etiche ed epistemologiche che

l'esistenza di robot porta con sé.

47
Un robot non sarebbe semplicemente una macchina che compie determinati lavori (come le

macchine multifunzionali presenti nelle nostre cucine che frullano, impastano, tagliuzzano e

via dicendo secondo “il programma” che noi impostiamo), ma una macchina capace di creare

e gestire una sua sintassi sulla quale basare una sua semantica, a seconda delle sue categorie,

nella sua mente.

Un robot potrebbe formarsi una mente simile a quella dell'uomo solo se vivesse il mondo

come l'uomo, solo se potesse «gustare le fragole con la panna»99 o inciampare su una radice di

un albero mentre passeggia nel bosco. Nel primo caso forse il robot non può provare le

sensazioni che può provare un uomo quando mangia qualcosa (tratterò il problema delle

sensazioni e delle emozioni più avanti), ma può comunque riconoscerne la qualità, sentirne

l'odore: riconoscere le qualità organolettiche tramite dei sensori.100 Nel secondo caso, il robot

forse non sentirà dolore (ma potrebbe comunque riconoscere d'essersi danneggiato) ma è

necessario che abbia due gambe per inciampare e cadere, affinché sappia che significa

inciampare.

Naturalmente sarebbe pretendere troppo anche immaginare che il robot debba fare diretta

esperienza di tutto ciò che è necessario che comprenda, noi esseri umani impariamo molto

dalle esperienze che ci vengono raccontate.

Già Turing aveva visto lontano: per i cervelli elettronici è necessario un modello

d'apprendimento adeguato (anche se Turing esplicita motivazioni più estetiche che

epistemologiche per quanto riguarda la possibilità per un robot di andare a scuola con i

bambini umani).101

99 Turing, p. 178
100Si pensi al robot sommelier costruito in Giappone nel 2007, capace di distinguere vini, formaggi e frutta;
http://www.vino24.tv/content/view/1291/2/
101 Turing, p. 179

48
Roboetica

Dal punto di vista etico l'esistenza dei robot, intesi proprio come una nuova forma di vita,

porta a una profonda riflessione, non solo per quanto riguarda il rapporto con forme di vita

diverse dalla nostra, ma anche sulle fondamenta dell'etica stessa.

Supponiamo di considerare i robot forme di vita diverse dalle nostre come gli animali:

come dovremmo relazionarci con essi? Sicuramente non possiamo mangiare un robot, ma

possiamo “staccare la spina” in qualsiasi momento, possiamo trattarlo come un nostro

inferiore.

Se supponessimo che gli animali siano intelligenti, in base a teorie comportamentiste

soprattutto, potremmo considerare a maggior ragione che anche i robot lo siano (al di là della

supposizione precedente che un robot possa diventare intelligente con il tempo), e se ogni

essere intelligente è degno di essere rispettato, i robot, al pari degli animali, lo sono.

Se supponessimo invece che gli animali non siano intelligenti, e che i robot siano loro pari,

potremmo schiavizzarli, decidere sulla loro vita, e trattarli come inferiori?

Possiamo pensare che non ci sia un solo concetto di vita, ma due, quello delle vite naturali

e quello della vita artificiale, dove la prima vale molto più della seconda.

La vita animale vale più di quella artificiale perché la nostra vita è basata su un rapporto

emotivo che crediamo più empatico.

Il rapporto empatico possibile con un animale è di tipo psicologico: noi ci caliamo nei suoi

pensieri, e pensiamo di comprenderlo mettendoci in qualche modo nei suoi panni; questo vale

sia se consideriamo gli animali capaci di facoltà cognitive, sia se queste invece sono da noi

negate (questa seconda ipotesi si fonda proprio sul rapporto empatico).

Un rapporto empatico con un robot è immaginabile (tale immaginazione è alla base di

49
molti racconti di fantascienza), ed è molto più complesso di quello con gli animali, infatti non

ci sarebbe solo un'empatia di tipo psicologico, ma anche estetico (Einfühlung), in cui noi

proiettiamo le nostre emozioni sull'oggetto che abbiamo di fronte, trasferendo la nostra vita

psichica nella realtà esterna, sia sugli oggetti che negli individui. Più le sembianze del robot si

avvicinano all'uomo (l'antropomorfismo è necessario affinché la sua immersione nel mondo

sia più simile possibile alla nostra), più il rapporto empatico di tipo estetico supera il rapporto

empatico di tipo psicologico. Un esempio concreto di questo è mostrato in AI: Intelligenza

Artificiale102 di Steven Spielberg o in Io e Caterina103 del nostro Alberto Sordi.

Non importa che i robot abbiano delle emozioni proprie o meno, ciò che conta è che noi

proiettiamo le nostre su di essi.

Immaginiamo se Levinás si trovasse davanti un volto metallico (o perché no, in pelle

sintetica), con freddi occhi elettronici, e una bocca con labbra cromate, potrebbe ancora

sostenere le sue tesi? La robotica porta con sé dei cambiamenti di paradigma in tutte le

scienze, specialmente in quelle filosofiche.

Inoltre non è da escludere che i robot, costruendosi una propria semantica, riescano a

costruirsi una propria collezione di stati emotivi (che non definirei “emozioni artificiali” ma

naturali, della sua propria natura) e di sensazioni, infatti pensare un'intelligenza senza

emozioni è già pensare a qualcosa in difetto rispetto a quella umana, mancherebbe quella che

Goleman chiama l'intelligenza emotiva.

Pensiamo a Marvin, il robottino di Guida galattica per gli autostoppisti,104 nichilista che

riconosce la sua inutilità nel mondo dato che

102 A.I. Artificial Intelligence, USA 2001, col, 145'


103 Io e Caterina, Italia/Francia 1980, col, 105'
104 Douglas Adams, Guida galattica per gli autostoppisti, Pan Books, Londra 1979

50
Ho il cervello grande come un pianeta e mi fanno unicamente raccogliere un pezzo di carta105

A proposito di roboetica Longo ci ricorda le Leggi di Asimov,106 leggi che lo scrittore

immaginò dare ai robot in modo che questi formando una loro coscienza rimangano però

vincolati all'uomo.

1) Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo
mancato intervento, un essere umano riceva danno.

2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non
contravvengono alla Prima Legge.

3) Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la
Prima o con la Seconda Legge.

Queste tre regole non sono complete, la macchina potrebbe interpretare la Prima Legge in

modo che “un essere umano” sia un individuo e reputi corretto danneggiare l'intera umanità.

Fu per questo che Asimov introdusse la Legge Zero

0) Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato
intervento, l’umanità riceva danno.

Le leggi proposte sono antropocentriche, non tengono in conto di un'etica fra i robot; forse

Asimov ha voluto lasciare che i robot si auto-regolamentassero tra loro, o è implicito che una

guerra tra robot possa causare danni all'umanità?

105 http://it.wikipedia.org/wiki/Marvin_l'androide_paranoico
106 Longo Giuseppe O., L'etica al tempo dei robot, in Mondo Digitale 2007

51
Mentre molti hanno un atteggiamento “xenofobo” nei confronti dei robot, come degli

alieni, considerandoli superiori agli uomini e potenzialmente minacciosi, io preferisco pensare

ad un mondo come quello proposto in Futurama107 in cui uomini e robot (ma anche alieni)

convivono pacificamente.

107 Futurama, cartone animato ideato da Matt Groening, USA 1999 (prima serie, è in corso la quinta stagione)

52
CONCLUSIONE

Visti i risultati della tecnologia odierna, la tesi che le macchine calcolatrici dotate di un

corpo meccanico un giorno possano pensare sembra essere possibile.

I robot in commercio sono però diversi da quelli descritti da Longo, che nel tempo

costruirebbero la loro semantica. I robot odierni sono degli specialisti, sono dei sistemi

esperti108 in un determinato settore e svolgono la loro attività in quel campo con una sintassi

all'osso e quindi una semantica davvero povera, la loro attività non è intelligente, mancano di

creatività.

Tuttavia noi dobbiamo immaginare dei robot che non siano sistemi esperti, ma siano come

l'uomo, pronti ad imparare qualsiasi cosa.

Searle ha ragione nel dire che non è il software a essere intelligente, l'intelligenza si crea

con il corpo e con la sua immersione nel mondo, come scrive Longo, parafrasando Kant:

Hardware e software si condizionano a vicenda e sono interdipendenti: se una macchina senza

programma è vuota, un programma senza macchina è cieco.109

Non è nella macchina che dobbiamo cercare il pensiero, né nel programma istanziato,

bensì nell'unione dei due. Più la macchina sarà capace di immergersi nel mondo sensibile, più

svilupperà una semantica simile alla nostra.

108 Programmi che riescono a risolvere dei problemi su un campo particolare facendo delle inferenze. Ci sono
sistemi esperti basati su regole (seguono l'implicazione materiale SE (dato) ALLORA (soluzione)), e sistemi
esperti più complessi basati su alberi (partendo da un albero di dati e deduzioni, ogni dato del problema
verrebbero analizzati dall'albero e il nodo finale sarebbe la deduzione risolutiva)
109 Longo 2000, p. XI

53
L'intelligenza della macchina non si svilupperà in un giorno, dovrà avere il tempo per

scoprire il mondo, e l'intelligenza che naturalmente ne sorgerà sarà un'intelligenza simile a

quella umana ma diversa. Sarà possibile costruire macchine con intelligenza completamente

diversa da quella umana, basta che abbiano un modo diverso di conoscere il mondo. Un robot

bipede con due occhi frontali avrà un'intelligenza diversa (forse inferiore anche se più simile a

quella umana) di un robot che si muove su delle ruote e con un solo occhio che ruota intorno

alla sua testa.

La differenza tra un sistema esperto e un robot intelligente sta nel fatto che la conoscenza

del sistema esperto è a priori (anche se la sua conoscenza si affinerà con l'esperienza), mentre

il robot intelligente nascerà con la sola capacità di imparare.

Ogni robot esperto si differenzierà dagli altri per le caratteristiche adatte alla sua attività,

invece i robot intelligenti saranno tutti intelligenti allo stesso modo, tutti dello stesso modello,

si differenzieranno tra loro solo dall'istruzione ricevuta e che li renderà esperti di un

determinato campo.

54
BIBLIOGRAFIA

Carapezza Marco, Segno e simbolo in Wittgenstein, Bonanno 2006

Davis Martin, The Universal Computer. The road from Leibniz to Turing, W.W.
Norton, 2000; trad. it. Il calcola universale: Da Leibniz a Turing,
Adelphi Edizioni S.P.A., Milano, 2003

Hofstader Douglas R., The Mind's I. Fantasies and Reflections on Self and Soul, Basic books,
Dennett Daniel C., INC., 1981; trad. it L'io della mente. Fantasie e riflessioni sul sé e
sull'anima, Adelphi Edizioni S.P.A., Milano, 1985

Hodges Andrew, Alan Turing: The Enigma, Touchstone Book-Simon & Schuster, New
York, 1984; trad. it. Storia di un enigma: vita di Alan Turing
(1912-1954), Bollati Boringhieri, Torino, 1991

Longo Giuseppe O., Il nuovo golem. Come il computer cambia la nostra cultura,
Universale Laterza, Roma-Bari, 2000

Longo Giuseppe O., Evoluzione del linguaggio: verso una multimedialità per la cultura?,
Presentato al Convegno "Componenti scientifiche dell'armonia e del
bello" Milano, 25 maggio 2001

Longo Giuseppe O., L'etica al tempo dei robot, in Mondo Digitale, marzo 2007

Searle John R., Minds, Brains and Programs, in The Behavioral abd Brain Sciences,
1980, Cambridge University Press; trad. it. Menti, cervelli e
programmi, un dibattito sull'intelligenza artificiale, a cura di Graziella
Tonfoni

Shannon Claude, trad. it. Calcolatori e automi, in V. Somenzi (a cura di), La filosofia
degli automi, Bollati Borienghieri, Torino, 1994
Turing Alan M., Computing Machinery and Intelligence, Mind, vol. 59, 433-60 (1950);
trad. it. Macchine calcolatrici e intelligenza, in V. Somenzi (a cura
di), La filosofia degli automi, Bollati Borienghieri, Torino, 1994

von Neumann John, The computer and the Brain, trad. it. Calcolatori e cervello, in V.
Somenzi (a cura di), La filosofia degli automi, Bollati Borienghieri,
Torino, 1994

Potrebbero piacerti anche