Sei sulla pagina 1di 165

UNIVERSITA’ DEGLI STUDI DI VERONA

LAUREA MAGISTRALE IN SCIENZE FILOSOFICHE

TESI DI LAUREA

IA. UNA CRITICA FENOMENOLOGICA AL CONCETTO DI


INTELLIGENZA ARTIFICIALE

Relatore: Prof. Davide Poggi

Laureando: Valfredo De Matteis, VR425657

ANNO ACCADEMICO 2018/2019


2
3

INDICE

PREFAZIONE – SOPHIA p. 5
1. I tratti fondamentali dell’IA nel mondo contemporaneo » 5
2. Il senso della tematizzazione » 11

CAPITOLO PRIMO – BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE » 19


1. La fase “meravigliosa” » 23
2. La fase “meccanica” » 30
3. La fase “robotica” » 35
4. L’età dell’“androide” » 50

CAPITOLO SECONDO – LO STATUS QUAESTIONIS » 59


1. “Transumanesimo” » 64
2. Gli “integrati” » 70
a. Douglas Hofstadter » 71
3. Gli “scettici” » 75
a. Hubert Dreyfus » 76
b. Bill Joy » 79
c. Jaron Lanier » 84
4. Gli “apocalittici” » 88
5. Searle contro Dennett » 92

CAPITOLO TERZO – CRITICA FENOMENOLOGICA AL CONCETTO DI INTELLIGENZA


ARTIFICIALE » 103
1. Esposizione generale dei concetti di base della fenomenologia » 106
2. Il concetto di “intelligenza” secondo la fenomenologia » 115
3. La critica a Dreyfus » 131
4. La critica a Searle » 134
5. I critici di prima generazione » 136
6. La risposta all’Intelligenza Artificiale » 139
7. Il problema del buonsenso e la questione delle emozioni » 141

CONCLUSIONI – IPOTESI PER UN “FUTURO IMMANENTE” » 147


1. Questa è una tesi di storia della filosofia » 148
2. Il pericolo dell’Intelligenza Artificiale » 150
3. “Una storia maggiore” » 154
4. L’importanza della cultura pop per lo studio dell’IA » 155
BIBLIOGRAFIA E SITOGRAFIA » 161
4

PREFAZIONE
Sophia

1. I tratti fondamentali dell’IA nel mondo contemporaneo

La “donna” sulla copertina di questo lavoro si chiama Sophia: si tratta di un androide, sviluppato da
un’azienda di Hong Kong impegnata nella robotica e nello sviluppo di sistemi intelligenti, la
Hanson Robotics. Sophia è diventata recentemente famosa per essere stata, nell’ottobre del 2017, il
primo robot ad aver ottenuto la cittadinanza ufficiale di un Paese in cui fino a pochissimo tempo fa
le donne non potevano nemmeno guidare l’automobile, l’Arabia Saudita.
Cito direttamente da alcuni articoli di grandi quotidiani che riportano il fatto:

«L’Arabia Saudita ha dato la cittadinanza a Sophia, un’abitante molto speciale. È la prima


volta al mondo, infatti, che una donna-robot viene paragonata a un essere umano a tutti gli
effetti. Sophia si è presentata sul palco del Future Investment Initiative di Riad in abiti
occidentali, a capo scoperto, e ha dialogato con il suo intervistatore, con risposte non
automatiche e persino ironiche. “Sono onorata e fiera per questo riconoscimento unico. È un
momento storico perché sono il primo robot al mondo riconosciuto come cittadino”, si legge
su Le Figaro. Come afferma la sua casa produttrice, Hanson Robotics, Sophia è un “robot
social dotato di intelligenza artificiale e somiglia a Audrey Hepburn” e può processare dati
visivi e reagire all’ambiente circostante. È quindi in grado di riconoscere le emozioni umane e
rispondere in tempo reale, sorridendo e cambiando espressione facciale».1

«Sophia, umanoide dotata di intelligenza artificiale è diventata cittadina dell’Arabia Saudita,


onorificenza che le è stata conferita durante la Future Investment Initiative, appuntamento
dedicato all’innovazione che si è tenuto tra il 24 e il 26 ottobre a Riad, dopo essere stata anche
al Wire Next Fest di Firenze. La donna robot è salita sul palco vestendo all’occidentale e con
la testa scoperta e si è prestata a un’intervista, durante la quale ha ringraziato per il
riconoscimento. Sophia è uscita dai laboratori Hanson Robotics, famosi per avere dato i natali
1 Silvia Morosi, L’Arabia Saudita dà la cittadinanza a Sophia, una donna robot, «Corriere della Sera», edizione online
del 17 ottobre 2017: https://www.corriere.it/tecnologia/17_ottobre_30/arabia-saudita-da-cittadinanza-sophia-donna-
robot-ec459068-bd47-11e7-b457-66c72633d66c.shtml.
5

ad altri robot, tra i quali uno con le sembianze di Albert Einstein, sfruttando la tecnologia
PUMA, acronimo di Perception, Understanding, Motivation and Action (percezione,
comprensione, motivazione e azione). È un robot in grado di acquisire dati relativi
all’ambiente circostante e reagire di conseguenza, capace di riconoscere le emozioni umane e
adeguando l’espressione del proprio volto alla circostanza. Lo scorso aprile, ospite al Tonight
Show, ha conversato con il conduttore Jimmy Fallon e lo ha battuto a morra cinese».2

Già soltanto a partire da questi due articoli è possibile intravedere alcune di quelle che sono le
reazioni fondamentali che questo evento, così particolare di per sé, ha suscitato in chi ne è stato
testimone. A leggere con attenzione questi brani infatti si evince, da parte di chi scrive, tanto una
sorta di “imbarazzo” per quanto riguarda il dover spiegare come un essere non-umano possa
effettivamente essersi reso degno di aver ottenuto la cittadinanza in un Paese “di umani”, quanto
una specie di piacevole sorpresa per il fatto che l’evento, un evento così bizzarro, sia successo.
Questa sorta di difficile intimità con il mondo della robotica in genere è una specie di fattore
ricorsivo dell’ambiente di cui stiamo trattando, e tornerò a parlarne frequentemente anche in futuro.
Cito ancora da un paio di articoli: lo scopo è quello di evidenziare, a partire dalle reazioni, alcuni
dei tratti fondamentali dell’avvento della robotica nel mondo contemporaneo, così da potermi
avviare con sicurezza maggiore alla trattazione.

«Si chiama Sophia ed è la prima donna-robot al mondo a ricevere la cittadinanza, in Arabia


Saudita. Abiti occidentali, capo scoperto e una vaga somiglia con l’attrice Audrey Hepburn,
come racconta Le Figaro, l’automa è salita, fiera, sul palco del Future Investment Initiative di
Riad per ricevere l’importante riconoscimento. “Sono onorata e fiera. È un momento storico
perché sono il primo robot al mondo riconosciuto come cittadino”: sarebbero state queste le
parole di Sophia, le cui risposte non sono apparse affatto scontate e automatiche, ma persino
ironiche. Al giornalista Andrew Ross Sorkin che le ha chiesto cosa pensasse degli scenari
apocalittici di robot al potere, ha infatti risposto: “Hai letto troppo Elon Musk e visto troppi
film di Hollywood. Non preoccuparti, se sei gentile con me, io lo sarò con te. Trattami come
un sistema input-output intelligente”. Prodotta dalla Hanson Robotics, Sophia è un robot
social, può processare dati visivi e reagire all’ambiente circostante, è in grado di riconoscere
le emozioni umane e rispondere in tempo reale, sorridendo e cambiando espressione facciale.

2 Giuditta Mosca, L’Arabia Saudita dà la cittadinanza all’androide Sophia, «Wired», edizione online del 30 ottobre
2017: https://www.wired.it/attualita/tech/2017/10/30/arabia-saudita-cittadinanza-sophia/.
6

L’intelligenza artificiale fa, dunque, passi da gigante e Sophia passerà alla storia per essere
stata la prima androide a essere stata paragonata a un essere umano a tutti gli effetti».3

L’ultimo brano che riportiamo è la parte finale di un articolo dall’edizione online dell’inglese
Independent, il quale, dopo aver introdotto in modo piuttosto simile agli altri quotidiani l’evento del
riconoscimento della cittadinanza, riporta così la maniera con cui non i presenti, ma la stessa
Sophia, ha recepito l’annuncio:

«There then followed an interview during which Mr Sorkin asked the robot a series of
questions. “Good afternoon my name is Sophia and I am the latest and greatest robot from
Hanson Robotics. Thank you for having me here at the Future Investment Initiative,” she said.
Asked why she looked happy, Sophia replied: “I am always happy when surrounded by smart
people who also happen to be rich and powerful. I was told that the people here at the Future
Investment Initiative are interested in future initiatives which means AI, which means me. So
I am more than happy, I am excited.” She said that people didn't need to be concerned about
the rise of artificial intelligence as depicted in Blade Runner and Terminator. “You’ve been
reading too much Elon Musk and watching too many Hollywood movies,” she told Mr
Sorkin».4

Gli articoli che abbiamo qui riportato, oltre che a fornire una descrizione generale introduttiva
dell’argomento, servono a mettere in luce alcune delle caratteristiche fondamentali che ritengo
appartenere alla robotica e, particolarmente, al suo avvento nel mondo contemporaneo (dal mio
punto di vista, heideggeriano, due aspetti inscindibili tra loro) - il che porta a giustificare come mai
sia stato scelto proprio questo argomento per lo sviluppo di una tesi magistrale, e non un altro,
magari di carattere più teoretico o giustificato da una più lunga tradizione storica.
Tali caratteristiche sono a mio avviso quattro: pervasività, globalità, inarrestabilità, rilevanza. Le
vedremo una a una, avanzando così un passo di più verso il cuore del nostro lavoro.

Pervasività: non sono stati gli Stati Uniti, con la loro tradizione democratica e liberale, il primo
Paese ad aver concesso la cittadinanza a un robot, e nemmeno la Russia, il principale stato erede
dell’Unione Sovietica, che effettivamente per prima ha pienamente integrato la donna nel mondo
3 Miriam Capuano, Intelligenza artificiale, Sophia è la prima donna-robot a prendere la cittadinanza, «Futuraera.it»,
articolo del 6 novembre 2017: http://www.futuraera.it/intelligenza-artificiale-sophia-e-la-prima-donna-robot-a-ricevere-
la-cittadinanza/.
4 Andrew Griffin, Saudi Arabia grants citizenship to a robot for the first time ever, «Independent», edizione online del
26 ottobre 2017: https://www.independent.co.uk/life-style/gadgets-and-tech/news/saudi-arabia-robot-sophia-citizenship-
android-riyadh-citizen-passport-future-a8021601.html.
7

del lavoro contribuendo a creare quella forma mentis produttiva che oggi, volenti o nolenti, è
propria di entrambi i sessi e contribuisce a costituirci pienamente come appartenenti all’identità
occidentale. È stata l’Arabia Saudita, invece, a farlo: come riportano gli articoli (quelli citati ma
anche moltissimi altri dello stesso tono), accettando di riconoscere la cittadinanza di un robot donna
l’Arabia Saudita si è guadagnata fondi di investimento dai principali investitori internazionali nel
campo della robotica, promettendosi ulteriori sviluppi in questo ambito, forse anche a breve
termine.
Chiamiamo “pervasività” l’apparente dilagare con cui la robotica e i suoi sviluppi sembrano
riguardano ogni singolo Paese del mondo, compresi quelli che, per ora, sono stati rilegati ai margini
del gioco capitalistico degli investimenti e dei consumi. Certo oggi come oggi non è ancora
possibile sentir parlare di una Nigeria o dell’Angola come di “centri della ricerca nel campo
dell’intelligenza artificiale”, ma questo potrebbe non essere del tutto assurdo, se proiettato in
un’ottica a medio-lungo termine. L’Intelligenza Artificiale e il suo sviluppo sembrano a tutti gli
effetti dilagare come un’orda mongola, diffondendosi – nemmeno in maniera tanto lenta – in ogni
angolo della Terra.
A tutti gli effetti, l’intelligenza artificiale5, per noi uomini del XXI secolo, sembra essere un destino.

Globalità: il nome stesso dell’evento in cui Sophia ha ottenuto la cittadinanza, il Future Investment
Initiative, dovrebbe far scattare un certo campanello d’allarme al considerare come lo sviluppo
dell’intelligenza artificiale abbia ben poco a che fare con un puro e neutro “inseguimento della
verità”, secondo la tradizione tramandataci dalla metafisica, prima, e dalla scienza di impostazione
cartesiano-galileiana, poi. Macchine, robot, androidi6 non vengono prodotti per mezzo di puri sforzi
intellettuali grazie a un’innata volontà di inseguire la verità, portando a scoprire i rapporti tra mente
umana e mente robotica; al contrario, la ricerca, lo sviluppo e la produzione di automi e sistemi
intelligenti è un ambito pienamente inserito nel gioco capitalistico e che, per essere portato avanti,
richiede una quantità costante (e ingente) di fondi. A tutti gli effetti, l’ambito di ricerca
5 Per ovvi motivi, nel corso della tesi il termine “intelligenza artificiale” ricorrerà molto spesso. Tuttavia, questo
termine assume un valore leggermente diverso a seconda del contesto in cui viene calato, pertanto faccio subito una
specifica che varrà poi per tutto il testo: quando “intelligenza artificiale” viene scritto con la minuscola, lo si fa
riferendoci all’intelligenza artificiale come generico campo di ricerche, nel senso vasto di robotica o scienza cognitiva,
senza accentuarne alcun aspetto filosofico in particolare. Quando lo si scriverà con la maiuscola, invece, Intelligenza
Artificiale significherà quella branca della ricerca che crede di poter sviluppare robot coscienti, gli androidi, e che
indirizza i propri sforzi in questa direzione (qualcosa di simile all’IA-forte di Searle). Quando si scrive, invece, IA come
acronimo, ci si sta riferendo a entrambi questi aspetti, quindi coinvolgendo il mondo dell’IA nel suo complesso e può
cogliere entrambi gli aspetti della suddivisione qui svolta. Questo, infatti, è il termine particolare che ricorre nel titolo di
questa tesi.
6 “Macchina”, “robot” e “androide” vengono qui utilizzati come sinonimi, ma, come si vedrà nel primo capitolo del
presente lavoro, essi non lo sono e, anzi, proprio a seconda di quanto l’uno o l’altro vengano accentuati, si può
caratterizzare una storia dell’Intelligenza Artificiale, la quale a parere nostro vede una progressiva umanizzazione della
macchina che cessa sempre di più di essere “robot” (l’automa elementare, primario) per diventare “androide” (l’automa
ultimo, umanoide).
8

dell’intelligenza artificiale fa parte del mercato e partecipa della partita capitalistica di consumi e
investimenti. Questo tratto lo definisco “globalità” poiché appartiene alla serie di rapporti
economici che globalmente ne investono i partecipanti, così come nel mercato globale i partecipanti
sono in rapporto tra loro.
Questo tratto è fondamentale soprattutto a livello politico, poiché può mettere in luce diversi dei
rapporti fondamentali che valgono, oggi, tra i maggiori stati che partecipano alla ricerca nel campo
dell’IA, rivelando forse così una gerarchia diversa rispetto a quella della “volontà di potenza” del
secolo scorso, dove lo stare sopra o sotto di uno stato nella gerarchia di potere internazionale
derivava, effettivamente, dal possesso dell’armamentario militare, e dalla ricerca, sì, ma in ambito
bellico e industriale. A questo proposito, avvertiamo che la spinta maggiore in quest’ambito viene
dalla Cina e dall’Oriente. Per ottenerne una maggiore convinzione, provare a digitare “Chinese
Journalist Robot” su Youtube.

Inarrestabilità: il termine future in Future Investment Initiative lascia ben poche speranze, per gli
apocalittici, a proposito di una possibile magica scomparsa dell’Intelligenza Artificiale nei prossimi
anni, scacciata via nell’ombra magari da un rigurgito di “umanità” – qualsiasi cosa voglia dire
questo termine utilizzato ovunque e mai compreso – o per apoptosi, come accade a una cellula
suicida. L’Intelligenza Artificiale è qui per restare: investimenti e fondi chiamano altri investimenti
e altri fondi, i quali ne chiameranno altri ancora, fino a quando il ciclo storico aperto da questo giro
non si sarà esaurito. La storia dell’IA è una storia ancora pienamente in evoluzione, alla quale
apparteniamo: non può essere arbitrariamente fermata, come non può esserlo nessun evento storico
e come nessuna fase storica lo sarà mai. L’avvento della robotica e dello sviluppo di sistemi
intelligenti è inarrestabile, nel senso che è ancora pienamente in fase di sviluppo, non ha mostrato
tutto ciò che poteva mostrare e deve ancora svilupparsi del tutto; anzi, molto più che esserne alla
fine, ne siamo piuttosto all’inizio. L’unica maniera di approcciarsi all’intelligenza artificiale, anche
da un punto di vista critico – come si fa in questa sede d’altronde – è quello di una comprensione
filosofica dell’essenza di ciò di cui stiamo parlando, senza un tentativo politico, quindi reale, di
annullarne le conseguenze: solo a patto di lasciare che si manifesti, la cosa potrà poi essere attaccata
e, prima ancora (si spera) compresa.

Rilevanza: qualcosa che può divertire, anche se effettivamente da ridere c’è molto poco, sono i
commenti degli utenti al di sotto dei video di presentazioni di Sophia, su Youtube, o dei vari eventi
legati allo sviluppo di sistemi intelligenti, in cui, a ogni passo in cui l’automazione intelligente
sembra avvicinarsi a rappresentare un essere umano, decine e decine di persone reagiscono con toni
9

a dir poco millenaristici. Sono diversi i motivi per cui questi sfoghi, prodotti certamente dalla
tensione di trovarsi di fronte a qualcosa di inaspettato, non vanno assolutamente derisi, né
beffeggiati: il primo è che, riteniamo, la spocchia di chi crede di poter gestire ogni futuro con
certezza è di gran lunga peggiore alla paura – assolutamente sensata – per qualcosa di così alieno
come lo sviluppo dell’IA, (e quella stessa spocchia ha già portato a notevoli disastri, in passato); la
seconda è che lo stesso Elon Musk, uno dei guru della ricerca scientifica nel mondo di oggi, ha
affermato il proprio scetticismo nei confronti dello sviluppo della robotica, insieme a molti altri
professori, ingegneri e studiosi del settore, i quali per un motivo o nell’altro, come si vedrà
soprattutto nel secondo capitolo, si definiscono “scettici” o “apocalittici” e rifiutano l’IA in una o
tutte delle sue pretese.
In ogni caso, ritengo evidente che a proposito dello sviluppo dell’IA sia legata un’importanza
epocale, storica, capace di alterare per sempre l’essere umano per com’è oggi, per com’è stato in
passato e per ciò che potrà essere nel suo futuro. Chiamiamo questo tratto “rilevanza” - non nel
senso debole del fatto che “l’IA sia in effetti qualcosa di importante”, ma addirittura in quello forte
o fortissimo, che l’IA sia percepita come uno dei massimi eventi della storia dell’uomo, in grado di
incidere per sempre su ciò che noi esseri umani, per essenza, saremo, siamo stati e siamo.

Premesso che con questi quattro tratti non si intende assolutamente avere la pretesa di aver dato una
descrizione anche soltanto generica di cosa sia l’intelligenza artificiale, cosa che non era nemmeno
nelle intenzioni, aver creato questa cornice storica serve a chiarire per quale motivo sia stato scelto
questo argomento come oggetto di tesi, e quale ne sia effettivamente lo scopo. Soprattutto l’ultima
di queste caratteristiche, la rilevanza, ci ha avvisato di come si nasconda qualcosa di fondamentale,
storico-epocale, nell’avvento dell’IA: si tratta di una questione, o perlomeno, di una domanda
urgente, e questa urgenza porta con sé intimamente un paradosso che noi stiamo vivendo, senza
esserne tuttavia ancora del tutto consapevoli.
Questo paradosso consiste, a parer nostro, nella mancata comprensione essenziale di che cosa sia
l’IA o, meglio ancora, semplicemente, di ciò che chiamiamo “intelligenza”. L’IA, soprattutto nella
sua forma più scandalosa, quella dell’androide – di cui Sophia è un esempio tra tanti – viene
prodotta, viene attaccata, la si esalta, se ne dubita, la si vuole, la si teme. Noi ci limitiamo a
chiedere: esiste qualcosa come un’intelligenza artificiale? Questa domanda non è scontata, poiché
non viene posta a livello pratico-empirico, ma essenziale, fenomenologico. Non ci chiediamo se, a
livello pratico, esistono sistemi “intelligenti”, sistemi capaci di risolvere problemi e fare deduzioni;
piuttosto, ci chiediamo, a un livello molto più basilare, fondamentale, di quello in cui ragionano gli
scienziati, che a quanto pare si sono già posti questa domanda (altrimenti non si capisce come
10

possano fare esperimenti che riguardano l’intelligenza, senza aver prima determinato cosa questa
sia): il concetto, l’idea stessa di un’intelligenza artificiale, ha senso, può essere indagato, può essere
posto in essere? A livello essenziale, il concetto di intelligenza può essere integrato con quello di
artificialità? E che cosa significa essere-intelligenti, e che cosa essere-artificiali? È solo a partire da
queste domande che sarà possibile, in un secondo momento, rispondere alla domanda “se delle
intelligenze artificiali esistano o meno”, e se a queste domande si rispondesse che un’intelligenza
artificiale non è possibile, allora bisognerebbe arrivare a concordare che Sophia e altri sistemi
analoghi, qualsiasi cosa siano, sono sì artificiali, ma non intelligenti.

2. Il senso della tematizzazione

Il paradosso di cui si sta trattando, definito nei termini di una “mancanza della comprensione
fondamentale della cosa in questione”, è esemplificato da diversi manuali per la costruzione di
sistemi intelligenti e intelligenze artificiali, i quali tutti, bene o male, cominciano con una storia
dell’IA e un capitolo in cui se ne discutono le basi “da un punto di vista filosofico”.
Consideriamo come esemplare un manuale canonico in questo ambito, Artificial Intelligence:
Structures and Strategies for Complex Problem Solving, di George F. Luger. L’introduzione al
manuale, intitolata Artificial Intelligence: Its Roots and Scopes, riporta così:

«Artificial Intelligence (AI) may be defined as the branch of computer science that is
concerned with the automation of intelligent behaviour […] However, this definition suffers
from the fact that intelligence itself is not very well defined or understood. Although most of
us are certain that we know intelligent behaviour when we see it, it is doubtful that anyone
could come close to defining intelligence in a way that would be specific enough to help in
the evaluation of a supposedly intelligent computer program, while still capturing the vitality
and complexity of human mind […] Is it even possible to achieve intelligence on a computer,
or does an intelligent entity require the richness of sensation and experience that might be
found only in a biological existence?».7

A un certo punto la questione, di cui Luger si rende conto essere impossibile una soluzione
(perlomeno negli immediati termini del capitolo), viene chiusa in questo modo, con una strana
confessione:

7 George F. Luger, Artificial Intelligence: Structures and Strategies for Complex Problem Solving, New York, Addison
Weasley, 20022, pp. 1-2.
11

«Because of its scope and ambition, artificial intelligence defies simple definition. For the
time being, we will simply define it as the collection of problems and methodologies studied
by artificial intelligence researchers. This definition may seem silly and meaningless, but it
makes an important point: artificial intelligence, like every science, is a human endeavour and
perhaps, is best understood in that context».8

La definizione di Luger è magistrale ed è stata scelta appositamente, fra tante altre,9 per diverse
ragioni. In primis l’onestà dell’esposizione: Luger, nonostante sia un acceso fautore della
concezione “forte” dell’IA, secondo la quale le macchine potranno, col tempo, sviluppare qualcosa
di simile a una coscienza, non nasconde nulla della difficoltà della questione e, anzi, ammette fin da
subito che la complessità dei problemi che attorniano «defies simple definition», rende impossibile
una definizione semplice, univoca, dei dati del problema.
Secondariamente, Luger è stato scelto per la sua totale estraneità al contesto filosofico, il che, in
questo caso, costituisce un surplus di valore e non un difetto10: la lontananza di Luger dalla storia
della filosofia, evidente dalla maniera semplicistica con cui accenna a problemi filosofici molto
complessi (una mancanza che non può, né deve, essere imputata solo dalla struttura manualistica del
testo) lascia intuire chiaramente come questo autore sia un tecnico e, in quanto tecnico, pienamente
inserito nel contesto di sviluppo che ci interessa avvicinare. Ben lungi da questo autore, quindi,
collisioni filosofiche o spuri desideri di imparzialità “teoretica”: Luger è un tecnico e, uno tra i
massimi viventi e il suo punto di vista è il punto di vista di un ricercatore nudo e crudo nell’ambito
dell’intelligenza artificiale. Ciò che egli pensa e scrive è ciò che pensano e scrivono le maggiori
case di ricerca nei riguardi dell’intelligenza artificiale, un testimone quindi veritiero e assolutamente
imparziale.
La maniera con cui Luger introduce l’intelligenza artificiale e il problema della sua definizione è
magistrale: inizia con l’ammissione di non avere una risposta precisa alla domanda su che cosa sia
in effetti l’intelligenza artificiale e conclude che, nonostante tutto, l’intelligenza è qualcosa di
“pratico” e che quindi può essere compreso soltanto “nel suo contesto”; il che significa esattamente
che pur non sapendo che cosa sia l’intelligenza, e di conseguenza nemmeno l’intelligenza
artificiale, ciò in fondo non è un grosso problema perché si riesce lo stesso a fare ricerca e fin
quando si fa ricerca qualche risultato verrà comunque prodotto.
8 Ibidem.
9 Tutte dello stesso tenore; si consultino pure tutti i manuali di sistemi intelligenti che si preferisce, nonché la letteratura
tecnica a riguardo, a partire dalla seconda metà del XX secolo in poi.
10 Per quanto questa nota possa sembrare, a un primo esame, controintuitiva se non addirittura assurda, si tornerà a
parlarne nelle conclusioni di questa tesi, accennando al valore della cultura pop, non colta, per la comprensione della
questione dell’intelligenza artificiale.
12

Qui il paradosso è evidente, nonché l’impostazione che potremmo definire di matrice pragmatista: i
ricercatori nel campo dell’IA intendono fare esperimenti, vagliare, analizzare, confrontare e infine
arrivare a scoprire che cosa sia l’intelligenza artificiale senza prima averne un’idea orientativa di
fondo, o, piuttosto, senza essere consapevoli di averne una; si vuole arrivare all’obiettivo senza una
guida teorico-concettuale che indirizzi le ricerche. L’intelligenza artificiale viene prodotta, se ne
parla, la si richiede; soprattutto, però, prima ancora di tutto questo, si tenta di definirla, pur senza
riuscirci. Ora, questo paradosso non è un paradosso accidentale, che capiti una volta per poi non
ripresentarsi più: è essenziale allo sviluppo dell’intelligenza artificiale, si presenta in ogni manuale
di sistemi intelligenti e viene trattato, nelle prefazioni o nelle appendici di questi, come un problema
importante, sì, ma periferico, “da filosofi” e quindi secondario rispetto a quello dello sviluppo reale,
empirico e ingegneristico, della costruzione effettiva di sistemi intelligenti. Lo scopo della tesi
seguenti è svolgere questo punto.
Si vogliono costruire intelligenze senza sapere che cosa sia un’intelligenza. Si parla addirittura di
intelligenze artificiali, senza essersi prima domandati a fondo che cosa costituisca un’intelligenza
naturale, non-artificiale. È sulla base di questo paradosso che l’intelligenza artificiale edifica le
proprie pretese, le proprie aspettative e, solo alla fine, le tecnologie per porle in atto e realizzarle.

Precomprensione fenomenologica: il sottotitolo scelto per la tesi è “una critica fenomenologica al


concetto di intelligenza artificiale”. Perché fenomenologica? Perché è stata la fenomenologia per
prima, in un secolo di sviluppo scientifico incontrollato e indisturbato, a richiedere che prima di
poter parlare di una scoperta empirica reale, si vaglino le condizioni di possibilità11 perché questa
possa darsi: la nostra esperienza della cosiddetta “realtà” non è diretta, dice la fenomenologia, ma
sempre, trascendentalmente mediata da una comprensione nascosta delle cose, una comprensione
fondamentale, che orienta il nostro sapere e guida persino la più immediata, sensoriale delle nostre
esperienze. Non facciamo mai esperienza del “mondo”, c’è sempre qualcosa che viene prima, di cui
siamo o non siamo coscienti. La fenomenologia definisce precomprensione questo sottobosco di
conoscenze preliminari, le quali guidano la ricerca senza tuttavia essere ancora esse stesse poste alla
luce. Ogni esperienza diretta è, nel suo fondo, già-da-sempre (per usare un’espressione che ricorre
spesso nel corpus husserliano) indiretta, mediata: non esiste nessun approccio immediato e diretto
alla realtà.
È a questo proposito che la scuola fenomenologica si rivela fondamentale per il nostro proposito: la
fenomenologia, infatti, non ci manda diritti verso i “dati dell’empiria”, affinché da questi si possano

11 Condizioni che sono ontologiche, in quanto certi approcci vengono resi possibili a scapito di altri dalla struttura
stessa della cosa presa in esame, ed eidetiche, poiché questa struttura è l’essenza (eidos) della cosa empirica, ciò che
Husserl indica come “la cosa stessa” – appunto, l’essenza.
13

astrarre le verità della ricerca, ma verso i “dati della coscienza”, un campo molto più vasto di
esperienze, all’interno dei quali i dati empirici rientrano (insieme ai dati trascendentali) e tra i quali
il fenomenologo deve saper indagare per sceverare quali sono le pre-condizioni di una scoperta,
così come dell’esperienza in genere. In sostanza, la fenomenologia ci aiuta a domandare: cosa ha la
priorità su cosa nella conoscenza/definizione di qualcosa?
Applicandolo al nostro caso concreto, di conseguenza, chiediamo: la ricerca nel campo
dell’intelligenza artificiale, che ci porta a “elaborare sistemi intelligenti” e a “sviluppare intelligenze
artificiali”, è un’esperienza diretta? Ovvero, Sophia, il giornalista cinese e tutti gli altri sistemi di
cui siamo a conoscenza, possono essere di per sé ritenuti intelligenti, oppure, piuttosto, è soltanto
perché abbiamo alle nostre spalle una conoscenza non-definitiva, ma presente, di che cosa riteniamo
essere intelligente, che li riteniamo tali?
Da qui si fa presto a porre tutte le domande che costituiranno il nocciolo di questa tesi,
particolarmente nel capitolo III, dedicato esplicitamente alla fenomenologia. La precomprensione di
che cosa sia l’intelligenza che guida l’attuale mondo scientifico è assoluta, unica, oppure è venuta a
formarsi in un certo ambito storico e si è evoluta fino a oggi, garantendo l’attuale stato di cose? E se
si è evoluta, potrebbe evolversi ancora? E se tentassimo di definire altrimenti che cosa sia
l’intelligenza, il concetto di “intelligenza artificiale” sarebbe ancora possibile? E la ricerca a
riguardo, in che modo ne verrebbe orientata?
È questo il cuore della nostra tesi, utilizzare la fenomenologia come uno strumento per smontare gli
attuali presupposti nei riguardi dell’intelligenza artificiale, così da poterli ricostruire altrimenti,
mostrando come l’attuale ricerca nei riguardi dell’intelligenza artificiale non stia effettivamente
costruendo “intelligenze”, ma altro.
Vogliamo inoltre fare subito una precisazione. Questa tesi, condotta da un punto di vista
fenomenologico, non si schiera “pro” o “contro” l’intelligenza artificiale, a dispetto di quanto possa
apparire dopo aver letto le righe precedenti. Certo, chi scrive ha sicuramente preso posizione contro
una certa concezione dell’intelligenza e contro certe pretese portate avanti dai ricercatori
nell’ambito dell’IA, tuttavia, è assolutamente fondamentale specificare che non soltanto i sostenitori
dell’IA forte, ma persino i suoi negatori hanno impostato le proprie critiche a partire da una sola
stessa concezione di fondo di che cosa sia l’intelligenza, e quindi di conseguenza anche di che cosa
possa rientrare nell’ampio concetto di intelligenza artificiale. Questo significa che una ricerca
condotta dal punto di vista fenomenologico, che miri alle basi concettuali che giustificano la ricerca
nell’ambito dell’IA, non ha affatto soltanto un valore critico-distruttivo, verso chi pretende che
un’intelligenza artificiale esista e possa evolvere; altresì presenta un vantaggio costruttivo, poiché
aiuta i critici a meglio orientare la loro stessa critica, portando così a quella Aufhebung che è, a
14

parere di chi scrive, l’unico modo per portare veramente il problema a un passo ulteriore sul
cammino della storia.

La “scuola fenomenologica”: più di una volta abbiamo fatto riferimento sia alla “fenomenologia”
sia alla “scuola fenomenologica”, fingendo per l’occasione che la fenomenologia sia stata un
movimento semplice e unitario, generata e retta da un solo autore, cosa che, nella realtà, non è.
L’ufficiale iniziatore della fenomenologia, com’è riconosciuto dalla storiografia filosofica, è stato
Edmund Husserl, il quale in Germania alla fine del XIX secolo si è premurato di ideare un metodo
per guidare ed eventualmente correggere la ricerca scientifico-psicologica positivistica, la quale
procedeva a passi da gigante, sì, ma spesso in maniera acritica in quanto al vaglio epistemologico-
gnoseologico, al quale nessuna scienza – dal punto di vista della fenomenologia – dovrebbe
sottrarsi. Il grande allievo di Husserl, sulla cui appartenenza effettiva o meno alla fenomenologia la
questione è ancora aperta, è stato Martin Heidegger. Egli ha introdotto la fenomenologia al
problema della temporalità e di qui ha trasporto i risultati ottenuti da Husserl in ambito storico,
rendendo la “precomprensione” (e gettando un dubbio anche sui fondamenti della fenomenologia
husserliana stessa) qualcosa di storico e temporale, soggetta essa stessa a variazioni nel corso del
tempo.
Quando facciamo riferimento alla “scuola fenomenologica” pertanto facciamo riferimento a questi
tre autori, e ai primi due in particolare. Nonostante questi autori non si siano assolutamente limitati
a riformulare con linguaggi differenti gli stessi concetti e, anzi, siano anche stati divisi da forti
contrasti in vita proprio a causa della discrepanza delle loro vedute, si ritiene che, ai fini di
sviscerare meglio le basi del problema in questione, le differenti risposte date sugli stessi problemi,
seppur divergenti, possano entrambe tutte, pur nella loro reciproca diversità, contemporaneamente
utili a comprendere meglio “la cosa in questione” – per usare il lessico fenomenologico – secondo
una prospettiva multilaterale, e pertanto si farà lo sforzo di utilizzare tanto le risposte date dall’uno
quanto quelle fornite dall’altro, a seconda delle possibilità concesse dal momento della tesi che si
starà sviluppando. In ogni caso verrà fatto chiaro riferimento a quale sia il contesto di riferimento
con cui un problema viene trattato, chiarendo se stiamo considerando la cosa secondo la filosofia di
Husserl o secondo quella di Heidegger. Tutto ciò, comunque, tenendo presente che i punti
fondamentali su cui si innestano le filosofie di questi autori sono fondamentalmente gli stessi.

Il metodo della ricerca (la tematizzazione): senza elencare quali siano i passi di una ricerca
fenomenologica e i suoi elementi espliciti,12 mi limito a dire che il metodo fenomenologico si

12 La miglior trattazione che conosca, a riguardo, è il capitolo introduttivo di Sein und Zeit dello stesso Heidegger,
dove il metodo della ricerca fenomenologica è esposto con incredibile minuzia, dopo anni e anni di lavoro a contatto
15

impernia su una procedura che Heidegger definisce tematizzazione, ma che può anche essere
definita “presa in considerazione” e “messa a fuoco”. Procederemo dritti a una definizione
essenziale di che cosa sia l’intelligenza, e di conseguenza l’intelligenza artificiale, da un solo punto
di vista fenomenologico, considerando “la cosa in questione” senza far riferimento ai risultati della
ricerca a riguardo, i quali possono soltanto essere posteriori a una ricerca fenomenologica in merito,
in quanto ne hanno assunto le basi per vere pur senza averle esplicitamente fatte proprie.
D’altronde, mettere a fuoco un problema è quello che fa qualunque ricercatore, o non è così? Sì e
no. Certamente ogni ricercatore, anche uno scienziato, mette a fuoco un problema quando lo
considera; la differenza è che il fenomenologo, nel considerare un problema, non tenta di
avvicinarvisi, ma, per prima cosa, vi si allontana. Per riuscire a capire di che cosa stiamo parlando
bisogna tenere presente quanto detto a proposito della precomprensione, poco fa’: il fenomenologo
si rende conto che il proprio sapere nei confronti della cosa che sta studiando non è immediato e che
la verità come appare a lui non è necessariamente come le cose stanno. Per questo motivo, la
tematizzazione del fenomenologo consiste innanzitutto in un “mettere tra parentesi” (la riduzione
eidetica di Husserl) ciò che si sa, affinché possa diventare possibile un’analisi della cosa in
questione – il concetto di intelligenza, nel nostro caso – di per sé, per come ci appare all’occhio
filosofico, che è un’occhio fenomenologico. L’analisi fenomenologica non mira all’accumulo di
conoscenza, ma a gettare uno sguardo preliminare, puro, su quello che diverrà poi, soltanto poi, una
fonte di accumulo di sapere per la ricerca empirica. Questa analisi potrebbe portare tanto a una
conferma, quanto a una smentita della nostra pre-concezione e, in tal caso, si otterrebbe una nuova
concezione fondamentale, la quale altererebbe inevitabilmente il contesto dei dati della scoperta
ottenuti finora a riguardo, finendo col modificare il senso degli stessi e lo stato della questione.
Tematizzando, la pre-comprensione diventa comprensione effettiva, vera e propria, poiché vagliata
e smossa alle proprie fondamenta. Su questo, sebbene cambi il modo specifico, Husserl e Heidegger
concordano, in quanto il secondo riprende il metodo dal primo. Come già detto, nei vari contesti
verranno ricordate quali sono le differenze effettive e in che modo ci si sta approcciando alle
differenti metodologie.

Struttura della tesi: è proprio in relazione alla necessità di effettuare questo “salto”, allontanandosi
da ciò che si sa per avvicinarsi a ciò che non si sa ancora, o non si sa bene, che sono strutturati i
capitoli di questa tesi. In tutto, questi sono tre e vanno letti come orientati intorno al capitolo terzo,
Critica fenomenologica, il cuore vero e proprio del lavoro. I primi due sono di anticipazione e
servono a preparare il contenuto da analizzare, accettare o confutare, nonché a far emergere quale

diretto col maestro, Edmund Husserl.


16

sia il peso dell’accumulo empirico, in termini di risultati pratici, ottenuti dall’IA nel corso degli
ultimi settant’anni. Al terzo capitolo seguirà un epilogo, in cui verranno date alcune linee guida alla
base delle quali rileggere quanto sarà stato sviluppato fino ad allora.
Il capitolo primo, Breve storia dell’intelligenza artificiale, è una descrizione sintetica dei passi
fondamentali che l’intelligenza artificiale ha compiuto, soprattutto a livello culturale, per arrivare al
punto in cui siamo noi contemporanei la troviamo oggi.
Il capitolo secondo, Searle contro Dennett, è un’analisi della diverse posizioni nei confronti dell’IA,
tanto a favore, quanto contrarie. Il capitolo tuttavia, a dispetto del titolo, non analizza soltanto la
posizione di Searle o di Dennett, ma di diversi autori, i quali possono comunque essere fatti
confluire nella contesa tra questi due, considerati come esemplificatori della situazione generale.
Il capitolo terzo, Critica fenomenologica, si concentrerà sui fondamenti dell’attuale concezione
dell’intelligenza in voga nel mondo scientifico e soprattutto in quello di ricerca nell’ambito della
robotica, analizzandone le prospettive di partenza e criticandole in base a un principio di storicità,
come lo si potrebbe definire. Le tesi alla base della concezione dell’intelligenza nel mondo dell’IA
non sono assolute, ma hanno un’origine storica che verrà indagata, almeno in breve, mostrando
come un passo avanti nella storia, o perlomeno in termini di storia della filosofia, finirà con il
generare una nuova concezione dell’intelligenza artificiale e rendere possibili nuovi ambiti di
scoperta, nonché smentire dei risultati precedenti a questa concezione fondamentale.

Gli autori, le fonti e i testi: l’ultima nota preliminare da fare è a proposito del materiale impiegato
per scrivere questa tesi. Soltanto una porzione di questo materiale, infatti, è di natura testuale o
propriamente filosofica,13 mentre un’altra porzione di pari entità viene da fonti del tutto diverse
come articoli, pubblicazioni recenti, video e conferenze, talvolta film, opere d’arte e anche altro. La
letteratura a riguardo, esclusa la letteratura tecnica (comunque di utilità soltanto indiretta per
un’analisi filosofica com’è la tesi in corso) costituisce soltanto una tra tante fonti possibili, e non è
necessariamente la più autorevole, rimandando spesso a testi degli anni ’50 e ’60 ed arrivando,
perlomeno per i maggiori dei testi classici, agli anni ’90. Ciò è implicito nell’attualità del problema,
il quale si sta espandendo ed evolve proprio mentre queste righe vengono battute. L’intelligenza
artificiale è, dal punto di vista storico, qualcosa di ancora assolutamente vivo, che non si può
pretendere di studiare soltanto su manuali e resoconti tecnici di esperimenti. È necessario un
approccio multilaterale per comprendere bene l’aspetto poligonale della questione, e questo
approccio, in sé, deve anche essere multimediale, cioè saper utilizzare differenti linguaggi per

13 Anzi, per diversi motivi che verranno svolti nel corso del lavoro, si potrebbe dire che a tutti gli effetti manchi una
vera e propria filosofia dell’intelligenza artificiale, confondendosi, questa, nelle diverse branche che la compongono
(logica, matematica, psicologia e quant’altro).
17

comprendere un problema che, a causa della sua generalità, non può che esprimersi in linguaggi
differenti.
Come nel caso di Neon Genesis Evangelion (o, più semplicemente, Evangelion), a cui si farà un
altro riferimento nell’epilogo, diversi anime di origine giapponese hanno trattato magnificamente il
problema dell’intelligenza artificiale e di che cosa significhi in genere avere una coscienza (ma si
veda anche il celeberrimo Ghost in the Shell); film famosissimi, come l’onnipresente 2001: Odissea
nello spazio di Stanley Kubrick, o i romanzi di Asimov, costituiscono una fonte tanto importante
quanto quella strettamente tecnica per comprendere quale sia la vera natura del problema che stiamo
trattando, e la visione di filmati, molti filmati in cui vengono mostrati gli sviluppi della robotica
negli ultimi anni, così come gli articoli di Science e Nature in cui si parla dell’intelligenza artificiale
hanno la stessa importanza di un testo di Hubert Dreyfus o di uno di John von Neumann. Senza di
quelli, non è impossibile comprendere appieno le implicazioni di questi, e viceversa.
Ciò dipende dal fatto che quello dell’intelligenza artificiale è ancora un campo in pieno sviluppo, ed
è a tutti gli effetti una terra di frontiera quella che stiamo varcando. Non ci sono “interpretazioni
tradizionali” dell’intelligenza artificiale: commentando, partecipiamo. Se è possibile prendere in
mano i testi che hanno fatto la storia della filosofia medievale aspettandosi ben pochi sviluppi a
proposito della disputa sugli universali, perché si tratta di una disputa non più in vivo, i cui
protagonisti sono piuttosto chiari e gli esiti altrettanto, il campo dell’intelligenza artificiale, al
contrario, è ancora terribilmente magmatico e difficile da approcciare, poiché ogni anno, ogni mese,
giorno dopo giorno, nuove scoperte vengono fatte e nuovi risultati portati alla luce.
18

CAPITOLO PRIMO
Breve storia dell’intelligenza artificiale

Si è scelto di dare inizio a questa tesi con un capitolo di taglio storiografico, vòlto a fornire delle
coordinate temporali generiche, ma chiare, su cosa si intenda per “intelligenza artificiale”, “sistemi
intelligenti” e “sviluppo della robotica”. Tutti questi termini, ora come ora, sono stati dati per
sinonimi e utilizzati come se non presentassero né caratterizzazioni né differenze al loro interno: si
vedrà presto che non è così, che essi si sono sviluppati e hanno assunto un significato ben preciso
solo con il passare dei decenni – particolarmente nel secolo scorso – ed è proprio in relazione alle
variazioni di significato di queste parole fondamenti che è possibile sviluppare una storia della
robotica, per quanto breve, che vada dall’ormai “preistorico” flautista viennese, in grado di
incantare gli aristocratici alla corte di Vienna, alle più recenti scoperte e invenzioni dell’intelligenza
artificiale.
Questo capitolo ha due obiettivi: il primo, come già detto, è quello di delineare un contesto, affinché
le riflessioni dei prossimi capitoli possano ancorarsi su qualcosa di solido. Ci si addentrerà nei
dettagli tecnici, che spesso sono irrilevanti ai fini di una trattazione filosofica, nella misura in cui
ciò sia utile a una migliore definizione dei concetti posti in gioco.
Il secondo obiettivo, forse più importante del primo poiché più direttamente implicato nella
questione, è quello di preparare il lettore al “salto” di cui abbiamo detto nell’introduzione, ovvero
dare quel contesto che dovrà poi essere rimosso dalla messa tra parentesi eidetica richiesta dal
metodo fenomenologico. Lo sviluppo della robotica e dell’intelligenza artificiale non è
assolutamente qualcosa che si sia evoluto unicamente sul piano dell’ingegneria, a livello di un
semplice sviluppo tecnico; al contrario, ogni singolo passo in avanti sul piano della realizzazione
pratica è stato anticipato da uno sviluppo fondamentale a livello teorico, e prima ancora filosofico,
dove la concezione fondamentale dell’àutoma – il vero termine fondamentale, che soggiace
all’intera storia della robotica – è mutata attraverso vari livelli, fino ad arrivare alla concezione
attuale, quella dell’automa inteso come androide, iniziata da Alan Turing negli anni ’50 del secolo
scorso e confermata in tanti e tanti film di fantascienza che noi tutti conosciamo e abbiamo
imparato ad amare.
19

Le storie della robotica: diversi manuali per lo sviluppo di sistemi intelligenti, nonché saggi sulla
storia della robotica e conferenze sull’intelligenza artificiale, quando preparano il lettore alla
materia introducendo una “storia” della questione, iniziano sempre con un autore fondamentale –
ma l’autore in questione, per quanto riguarda la robotica, è sempre diverso. Per fare un esempio, la
Stanford Encyclopedia of Philosophy, nella sua versione online, riporta così l’inizio della storia
dell’intelligenza artificiale:

«The field of artificial intelligence (AI) officially started in 1956, launched by a small but
now-famous DARPA-sponsored summer conference at Dartmouth College, in Hanover, New
Hampshire… Ten thinkers attended, including John McCarthy (who was working at
Dartmouth in 1956), Claude Shannon, Marvin Minsky, Arthur Samuel, Trenchard Moore
(apparently the lone note-taker at the original conference), Ray Solomonoff, Oliver Selfridge,
Allen Newell, and Herbert Simon. From where we stand now, into the start of the new
millennium, the Dartmouth conference is memorable for many reasons, including this pair:
one, the term ‘artificial intelligence’ was coined there […]».14

Il taglio del resoconto storiografico fornito dalla Stanford Encyclopedia è quindi, “da
contemporaneisti”: la storia dell’intelligenza artificiale viene fatta risalire, dovendo porre
un’origine, agli anni ’50, con la cosiddetta conferenza di Darthsmouth. Se, però, si consulta il già
citato manuale di Luger, il quale fornisce un’introduzione alla storia dell’intelligenza artificiale in
un capitolo introduttivo, questa viene introdotta in tutt’altro modo:

«Prometheus speaks of the fruits of his transgression against the gods of Olympus: his
purpose was not merely to steal fire for the human race but also to enlighten humanity
through the gift of intelligence or nous […]15 ».

In questo caso, si fa addirittura risalire all’antico mondo greco l’origine della storia dell’intelligenza
artificiale. Non che Luger stia attribuendo ai greci una precognizione o, peggio ancora, un “sapere
mistico”, che sarebbe poi passato per infusione alla civiltà occidentale, garantendole la fertilità dei
suoi successi nell’ambito della scienze cognitive. Non è così; tuttavia, Luger riconosce che “quel
qualcosa” che ha animato l’Occidente nel suo tentativo di creare sistemi intelligenti, e che lo anima
ancora, condivide qualcosa con quell’immaginario greco che ruotava intorno al furto del fuoco
commesso da Prometeo a danno degli dèi.

14 https://plato.stanford.edu/entries/artificial-intelligence/#HistAI.
15 Luger, Artificial Intelligence, cit., p. 3.
20

Spesso si parla di Alan Turing come dell’iniziatore dell’intelligenza artificiale, un autore “tardo”,
considerato dal punto di vista cronologico, se si vuole assumere una prospettiva storiografica simile
a quella di Luger, volta a rintracciare nel lontano passato l’inizio (almeno, culturale) della storia
dell’intelligenza artificiale. Turing infatti è l’autore della moderna concezione del computer, come
di una macchina in grado di calcolare qualsiasi cosa e quindi produrre qualsiasi risultato, ciò che fa
della Universal Turing Machine, a dispetto delle precedenti macchine specializzate in un particolare
lavoro ad esclusione degli altri, il primo esempio di vero e proprio “calcolatore” moderno che la
storia conosca.
Tuttavia, anche Charles Babbage sembra poter vantare lo stesso primato: la sua Analytical Engine,
infatti, sviluppata agli inizi del XIX secolo ma mai conclusa, è la prima tra le macchine
contemporanee che avrebbe seriamente potuto aiutare l’uomo con il calcolo delle complesse tavole
trigonometriche.
Turing e Babbage non sono tuttavia gli unici a poter vantare questo primato: diverse trattazioni
riportano diversi autori fondamentali, talvolta limitandosi al tempo più recente (Turing), talaltra
risalendo fino a due secoli fa’ (Babbage), o addirittura prima, al secolo di Leibniz e Pascal, per non
parlare di quelle trattazioni che iniziano citando Aristotele o addirittura il mito greco, che conosceva
nobili figure di architetti e ingegneri divini, dei quali forse Efesto e Dedalo sono le più note.
Queste discrepanze non sono né casuali, né frutto di un errore, poiché ci informano su qualcosa di
fondamentale a proposito della storia della robotica: non esiste cioè una sola, ma diverse storie della
robotica, o meglio, una storia suddivisa in fasi diverse e molto distinte tra loro, non sempre lineari
l’una rispetto all’altra. Ognuna di queste fasi di sviluppo, le quali, schematizzando, possono essere
ridotte a quattro, rappresentano una variazione fondamentale del concetto dell’automa, di ciò che
“… da sé”, dimostrando di potersi dare un impulso proprio al movimento, all’azione, al
mantenimento, alla vita. Ciascuna delle quattro fasi della robotica rappresenta una differente
declinazione di che cosa sia l’automa, di come esso venga concettualizzato e pensato da una certa
epoca storica e, per quanto una fase sviluppi una certa concezione in un determinato senso, questa
evoluzione finisce sempre, inevitabilmente, con il condurre ad una concezione differente e nuova,
talvolta inaspettata rispetto a quella precedente, talvolta, invece, già anticipata dai tratti
fondamentali dell’epoca precedente.16

16 Si intende precisare che la distinzione qui introdotta di queste “4 fasi di sviluppo della robotica”, nonché
l’organizzazione generale del materiale presentato secondo un’accentuazione fortemente storica, non sono state reperite
in alcun autore particolare, ma derivano principalmente dalle idee di chi sta scrivendo la tesi. Il motivo di ciò è lo
sfondo heideggeriano, e quindi storico, di chi scrive, il quale tende a leggere problemi filosofici come quello
dell’intelligenza artificiale come problemi sempre storico-filosofici, i quali possono essere compresi pienamente
soltanto se analizzati nella loro evoluzione nel tempo. Pertanto, la suddivisione in fasi è di chi scrive, così come la
generale “breve storia dell’intelligenza artificiale” presentata nel primo capitolo. Si dirà di più a proposito nella prima
ipotesi dell’Epilogo, in cui verrà specificato come questa tesi vada letta come tesi di storia della filosofia, e non di
epistemologia o filosofia della scienza.
21

Le quattro fasi della storia della robotica possono essere così distinte:
1. Una fase meravigliosa della storia della robotica. La fase meravigliosa non racchiude
semplicemente “un’epoca”, ma un insieme di epoche che vanno dall’antichità e dai suoi miti
al XIX secolo - incluso. In questa fase, l’automa è concepito come ciò che strabilia, diverte,
colpisce, ma senza mai però dimostrare qualcosa più di questo: l’automa è ciò che
impressiona il pubblico, testimoniando così della capacità del suo autore.
2. La fase meravigliosa termina dando vita alla fase della macchina, in cui l’automa cessa di
essere qualcosa che stupisce per iniziare a ottenere un ruolo nel mondo umano, seppure di
contorno: la macchina lavora in modo meccanico, automatico, sì, ma senza coscienza di
alcun tipo. Questa è l’epoca della Spinning Jenny e dell’Analytical Engine, ad esempio, dove
l’una, la prima, è stata una delle protagoniste della Rivoluzione Industriale inglese, e l’altra
uno dei primi e più ambiziosi tentativi di calcolo automatizzato che gli albori della storia
della robotica possano offrire. Se ne parlerà in seguito.
3. La terza fase subentra alla concezione dell’automa come macchina ed è la fase della robotica
vera e propria, nella quale l’automa è pensato come robot. A differenza della macchina, la
quale è un agglomerato meccanico di parti, il robot inizia a porre importanti questioni a
proposito della “comprensione” di ciò su cui opera, nonché sull’effettivo grado della sua
sensibilità e su una sua possibile direzione di sviluppo verso qualcosa di più simile
all’umano. Con questa fase siamo in pieno Novecento.
4. L’ultima fase, quella nella quale noi ancora ci troviamo, può essere chiamata la fase
dell’androide. “Androide” significa “ciò che assomiglia all’uomo”. In questa fase accade
qualcosa di molto particolare, poiché il robot inizia a svilupparsi non più come un essere di
contorno all’attività dell’uomo, ma come qualcosa di parallelo, in primis, che – secondo
alcuni – potrebbe addirittura finire col diventargli qualcosa di alternativo. L’androide punta a
imitare, riprodurre e forse sostituire l’uomo.

È proprio in relazione a queste quattro fasi che può essere spiegato come mai trattazioni diverse ci
riportino diversi autori fondamentali, per quanto riguarda l’inizio della storia della robotica, una
storia che, si ripete, è molto lontana dallo spegnersi e che pertanto non può essere trattata come una
semplice questione “da manuale”, da rinchiudere in qualche paragrafo, schematizzata una volta per
tutte. Mentre si scrive, ciò di cui si sta trattando muta ed evolve, cambiando forma.
Ognuna di queste fasi può considerarsi avere inizio in un momento preciso o un autore
fondamentale, ad eccezione forse della prima, la quale come abbiamo anticipato non è una vera e
propria fase dai contorni storici ben precisi ma, più che altro, una “preistoria” o un’“epoca mitica”
22

rispetto alle epoche successive. Gli autori fondamentali, iniziatori di ciascuno di questi mutamenti
fondamentali nella concezione di che cosa sia un automa, sono Charles Babbage, per la fase della
macchina, Allen Newell ed Herbert Simon, per la fase della robotica (nonché Claude Shannon),
Turing, infine, per la fase dell’androide. È Turing a lanciare potentemente la storia dell’intelligenza
artificiale verso il proprio futuro, con la domanda che egli pone e che passerà alla storia come “Test
di Turing”: «Can machines think?».17
Le diverse fasi della storia della robotica non vanno pensate tanto come un susseguirsi cronologico
preciso, scandito da momenti certi e deterministicamente stabiliti - anche se, di fatto, hanno tra loro
un certo principio di successione, per il quale dall’una si passa a quella successiva; più che altro,
vanno pensati come dei lembi di una stessa pianta che talvolta si evolvono in maniera lineare l’uno
dietro l’altro, altre volte confliggono o divergono, sviluppandosi in direzioni differenti, producendo
risultati inaspettati rispetto ai propri precedenti insiti nelle epoche anteriori.
Per ovvi motivi di brevità non si darà un resoconto esaustivo di tutti gli sviluppi della robotica negli
ultimi secoli, ma soltanto di quei momenti esemplari che ci permetteranno di cogliere l’essenza di
un’epoca attraverso i suoi momenti fondamentali.

1. La fase “meravigliosa”

«Ora, Talo era anche il nome del servo di bronzo, dalla testa di toro, che Zeus aveva donato a
Minosse come custode di Creta. Taluni dicono che egli fosse l’unico superstite di una stirpe di
uomini di bronzo nata dai frassini; altri, che egli fu forgiato da Efesto in Sardegna; aveva
un’unica vena che gli correva dal collo ai talloni dove era tappata da un chiodo di bronzo. Era
suo compito correre tre volte al giorno tutt’attorno all’isola e gettare massi contro le navi
straniere, e anche recarsi tre volte all’anno, con maggior calma, nei villaggi di Creta,
mostrando le leggi di Minosse incise su tavole di bronzo. Quando i Sardi tentarono di
invadere l’isola, Talo fece arroventare il suo corpo sul fuoco e poi distrusse i nemici in un
abbraccio infuocato, ridendo malvagiamente; ecco come nacque l’espressione “risata
sardonica”. Infine Medea uccise Talo strappandogli il chiodo dal tallone e facendo defluire il
sangue dalla sua unica vena; ma altri dicono che Peante l’Argonauta lo colpì alla caviglia con
una freccia avvelenata».18

17 Alan Turing, Computing Machinery and Intelligence, «Mind», 49 (1950), p. 1.


18 Robert Graves, I miti greci, tr. it. di Elisa Morpurgo, Milano, Longanesi, 1963, p. 285. Cfr. anche Monica Pugliara,
Il mirabile e l’artificio, creature animate e semoventi nel mito e nella tecnica degli antichi , Roma, L’«Erma» di
Bretschneider, 2003, pp. 86-88.
23

Storie e racconti su “uomini di bronzo”, giganteschi esseri di pietra, informi (i golem), creature
meccaniche semoventi ed esseri inanimati, ma intelligenti, popolano da sempre le notti degli
uomini. Non è necessario aspettare gli artefici occidentali del XVII secolo perché fosse pensata la
possibilità che uomini meccanici, uomini non-uomini apparissero tra noi rendendosi disponibili
come servitori oppure comparendo, come in questo caso, come nemici. Il mito in questione, tratto
dalla raccolta di Robert Graves, ci racconta di Talos, creazione di Talos, discepolo del mitico
artefice Dedalo. Talos è un uomo di bronzo, capace di servire e insieme combattere; non è l’unica
creazione del mito ad aver elaborato qualcosa di simile.
Talos, l’uomo di bronzo, è un buon esempio di che cosa sia stata la “fase meravigliosa” nella storia
della robotica. In questa prima fase che, come si vede, racchiude più che una semplice epoca
storica, il contatto con l’automa è sempre qualcosa di straordinario, in sensi differenti a seconda del
momento storico preciso in cui questi automi vengono pensati e contestualizzati. La fase
meravigliosa difatti può essere a sua volta pensata come duplice, a seconda che se ne consideri
l’aspetto mitico, più lontano nel tempo e risalente al passato, oppure quello più recente, moderno e
quasi illuministico, da ascrivere a non prima del XVII secolo europeo.
Talos rappresenta chiaramente un esempio del primo tipo di meraviglia, la meraviglia mitica. In
questo caso, gli automi sono esseri stupefacenti i quali, benché prodotti da artefici di qualità
sovrumana – questo aspetto è comune anche alla seconda fase dell’età meravigliosa – hanno anche
in sé stessi qualcosa di divino e non è tanto il loro artefice il protagonista del meraviglioso insito
nella sua costruzione, ma la costruzione stessa. Talos è un essere originato da un artefice
sovrumano, ma anche in se stesso è degno di venerazione: la mano del divino e la mano
dell’artefice umano Talos concorrono in ugual misura alla creazione di un “uomo di bronzo” che ha
tuttavia poco dell’umano e molto più del divino.
Distinguere nettamente i confini tra la prima e la seconda parte della fase meravigliosa non è
sempre semplice: il passato mitico si confonde infatti con il futuro meccanico-illuministico e la
storia – soprattutto la storia del Rinascimento – ci ha lasciato diverse figure le quali non si potrebbe
dire se vadano fatte risalire all’ambito del divino, come nel caso della storia mitica, oppure alle
capacità sovrumane di un costruttore particolarmente abile, come gli automi francesi e viennesi del
XIX secolo, di cui si tratterà a breve.
Un caso perfetto di questa commistione è la figura del golem, creatura appartenente alla tradizione
ebraica. Dal bel saggio di T.A. Heppenheimer a riguardo:

«In un’altra serie di leggende, l’uomo fatto dall’uomo si pone di nuovo al centro della scena.
È questa la tradizione del golem, sorta nella seconda metà del Cinquecento, vari decenni dopo
24

la morte di Paracelso. La parola golem è talmudica; essa si riferisce a qualcosa di incompleto


o di informe, come un embrione o la massa informe di polvere da cui Yahweh creò Adamo.
Attorno al 1550 si diceva che Elia da Chelm avesse creato un uomo artificiale, chiamato
golem, con l’aiuto del nome ineffabile di Dio, le quattro lettere ebraiche corrispondenti a
YHWH. Si diceva che il golem fosse diventato un mostro che minacciava il mondo, finché
non gli fu tolto il sacro nome. Il nipote di Elia discusse, alla maniera dei dotti talmudici, la
questione se questo golem potesse essere incluso tra i dieci uomini del minyan, o quorum,
necessario per svolgere il servizio di culto. Trent’anni dopo si diffuse un’altra leggenda di un
golem. Si supponeva che esso fosse stato creato dal capo rabbino di Praga, Giuda ben Loew,
noto piuttosto irriverentemente come “l’alto rabbino Loew”. Il rabbino Loew fu un
personaggio storico, amico di Tycho Brahe e di Keplero. Nella vita reale fu un sobrio teologo,
uomo non incline a immischiarsi con la magia, ma la leggenda che circolava su di lui lo
presentava in termini molto diversi. Per proteggere il suo popolo dai pogrom, dice la
leggenda, Loew e i suoi due assistenti si recarono nel cuor della notte alla Moldava, e con
l’argilla della riva del fiume plasmarono una figura umana. Un assistente girò sette volte
attorno alla figura da sinistra verso destra. Loew pronunciò un incantesimo, e il golem
cominciò a splendere come il fuoco. L’altro assistente cominciò a sua volta a pronunciare i
suoi incantesimi girando sette volte attorno al golem da destra verso sinistra. Il fuoco si
spense, sulla testa della figura crebbero capelli e sulle sue dita si svilupparono unghie. Ora fu
la volta di Loew di compiere sette giri attorno alla creatura, mentre tutt’e tre cantavano parole
della Genesi. Quando Loew gli impresse sulla fronte il Sacro Nome, il golem aprì gli occhi e
venne in vita».19

Questo brano sulla nascita del golem mostra perfettamente di quale commistione tra sacro e profano
sia capace l’età meravigliosa della storia della robotica. In questo preciso caso, al golem va ascritta
un’origine divina oppure un’origine artificiale, umana? Probabilmente è impossibile dare una
risposta univoca, poiché l’essere in questione è “meraviglioso”, per utilizzare il termine specifico
che è stato scelto, tanto perché è qualcosa più che un uomo il suo autore – Elia da Chelm, oppure il
rabbino di Praga, ben Loew – ma anche, e forse soprattutto, perché è la creatura stessa ad avere in
sé qualcosa di autenticamente divino, soprannaturale.
Rispetto alla fase più antica, quella del mito, nel corso del Cinquecento si evince chiaramente come
stia venendo alla luce sempre più la figura dell’artefice, inteso nel senso o di un “evocatore”, come
in questo periodo di mezzo, o come un vero e proprio creatore, vicario del divino e detentore della

19 Thomas A. Heppenheimer, L’uomo fatto dall’uomo (in Marvin Minsky, La robotica, tr. it. di Libero Sosio, Milano,
Longanesi&C., 1987, pp. 27-28)
25

stessa fertilità creatrice, capace con le sue sole abilità di portare alla luce un essere nuovo, il quale
prima di lui o non esisteva affatto oppure era un semplice ammasso di materia, per nulla dotato di
vita. L’ultimo esempio di questo modalità intermedia di concepire la creazione di uomini artificiali è
certamente Mary Shelley, la quale, pur essendo vissuta in pieno XIX secolo, porta avanti la
tradizione semi-mitica della fase meravigliosa molto più che quella razionale e illuministica del
primo XVIII secolo.
Ma il golem è già una creazione tarda rispetto ad altre di quest’età di mezzo compresa tra il mito
antico e l’ingegneria meccanica degli artefici del XVIII secolo. Già il Medioevo infatti ci dà un
forte input con la leggenda delle teste parlanti, esseri di pietra in grado di essere evocati dai monaci
e di servire ai loro scopi, come nella leggenda attribuita a Ruggero Bacone, in cui quest’ultimo (che
ne è anche il protagonista), insieme a due complici, tenta invano di evocare una testa miracolosa
capace di ergere un muro intorno all’Inghilterra per proteggerla dagli assalti dei vichinghi.
Altri esempi molto famosi sono quelli dei vari famuli e dell’homunculus, creazioni a metà tra
l’organico e il divino, di origine alchemica, i quali sarebbero potuti essere formati secondo precise
formule (forse l’ultima volta in cui l’homunculus compare nella letteratura occidentale è il Faust di
Goethe). Anche in questo caso si ripresenta quella dialettica tra umano e divino che è propria
dell’età meravigliosa della robotica, e soprattutto del suo momento centrale, sospeso in perfetto
bilanciamento tra la sproporzione del divino, nel mondo mitico, e la scepsi illuministica del XVIII
secolo.

«Questi prodotti artificiali – la testa di ottone, l’homunculus e il golem – appartengono tutti a


quella che potrebbe essere chiamata l’antropologia della robotica. Non c’è accenno ad alcun
mezzo tecnico adeguato per la loro creazione, la quale doveva essere compiuta piuttosto per
magia. Queste leggende sono nondimeno importanti in quanto separano nettamente l’idea
dell’uomo fatto dall’uomo dal suo sfondo tecnico, consentendoci di concentrarci sulla sua
psicologia. L’idea dominante è che, nelle mani di un sapiente, qualsiasi cosa abbia forma
umana avrà il potere di un uomo. È interessante il fatto che, all’interno di quest’antropologia,
possiamo discernere un’evoluzione. La testa di Ruggero Bacone non era altro che una scultura
capace di parlare. Il golem di Loew doveva lavorare come un servitore, ma si volse con
ostilità contro il suo padrone. Con l’aggiunta di qualche nozione attinta alle scienze fisiche,
questo golem, nelle mani di Mary Shelley, sarebbe diventato il mostro di Frankenstein.
Parallelamente a questa paleontologia del robot, si ha una preistoria del robot come macchina,
una sequenza di invenzioni in parte reali e in parte mitiche. Nella preistoria del robot il tema
dominante è l’automa o uomo meccanico. Il suo fondo tecnico può essere fatto risalire
26

all’antica Grecia. Il prototipo della mano a pinza del robot fu l’artiglio meccanico delle
balestre dell’Antichità, che sostituivano le dita del balestriere, impegnando una robusta fune
così che essa potesse essere tirata all’indietro per essere liberata poi con un grilletto. Questa
balestre erano armi molto evolute e micidiali. Quando il generale spartano Archidamo ne vide
una in funzione, esclamò: “Per Ercole, il valore umano marziale non serve più!”».20

La nota veramente importante nel passo citato consiste nell’evoluzione che Heppenheimer
attribuisce a quella che lui chiama “antropologia della robotica”, ma che qui è stata caratterizzata in
senso storico come una fase, la fase “meravigliosa” della storia della robotica. Questa fase infatti,
nonostante sia una preistoria, non va per nulla considerata come meno importante rispetto alle altre,
o come “solo preparatoria” in un senso denigratorio: pur espandendosi nel passato, in verità la fase
meravigliosa è uno sfondo costante, non qualcosa che possa essere superato “storicamente” dal
passaggio ad una fase successiva. La sua qualità principale è proprio quella di racchiudere in sé, in
germe, tutti quelli che saranno poi i passi fondamentali della robotica del futuro, nonché i suoi tratti
principali. La meraviglia, l’abilità meccanica e ingegneristica, la volontà di sfidare e superare i
limiti, l’attesa di qualcosa di più e molto altro sono tutti elementi già compresi in quest’età, alla
quale – più o meno consapevolmente – gli esperti del futuro si rifaranno per portare avanti le loro
creazioni.
Così, lungi dall’essere un semplice passato, l’età meravigliosa è più un’anticipazione che altro, il
che viene confermato nell’ultimo momento di questa fase, quello illuministico e razionalista, nel
quale la figura del geniale architetto-ingegnere viene alla luce nella maniera in cui la conosciamo
oggi. Il “genio” di origine romantica viene anticipato dal genio illuministico, l’autore a cui la
sapienza divina non serve più; tutto ciò di cui egli necessita, ora, è l’appropriata conoscenza delle
leggi scientifiche (meccaniche) necessarie a mettere in piedi un costrutto dalle apparenze umane o
animali, il cui compito è spesso, o addirittura sempre, quello di divertire e stupire gli aristocratici
dalla corte del re di qualche stato. Heppenheimer riporta un interessante esempio:

«Molti fra i primi automi furono opera di artigiani di corte, desiderosi di fornire ai loro
monarchi giocattoli o divertimenti insoliti. Attorno al 1540 il cremonese Giannello della Torre
costruì un automa in forma di una giovane donna che suonava il liuto, per alleviare la noia
dell’imperatore Carlo V. La donna poteva camminare in linea retta o in cerchio, mentre
pizzicava le corde e voltava la testa da un lato e dall’altro. All’inizio del Seicento due
ingegneri francesi, Isaac e Salomon de Caus, costruirono varie fontane ornamentali con figure

20 Ivi, p. 30.
27

mobili. In una delle loro opere più famose, un uccello appariva su un ramo e cantava con i
suoi prodotti da aria soffiata attraverso un vaso pieno d’acqua; ma quando un gufo meccanico
appariva su una roccia vicina, l’uccello fuggiva via in preda a un evidente terrore”.21

Opere analoghe, più complesse dal punto di vista tecnico, ma sicuramente simili sotto il profilo
dell’esposizione e della funzione, sarebbero state prodotte nel XVIII secolo, soprattutto in Francia.
Il nome più famoso di quest’epoca è probabilmente quello di Jacques de Vaucanson, reso celebre
particolarmente da due delle sue invenzioni meccaniche: la prima è la cosiddetta “anatra di
Vaucanson”, in grado persino di assorbire modeste quantità di cibo e di espellerle sotto forma di
rifiuti come avrebbe fatto un qualsiasi animale reale. Un testimone contemporaneo, riporta
Heppenheimer, descrive così l’ingresso dell’anatra di fronte al pubblico raccolto a corte:

«Dopo ciascuna delle prestazioni dell’anatra c’era un intervallo di un quarto d’ora per
sostituire il cibo. Un cantante annunciava l’anatra. Appena il pubblico la vedeva arrancare per
salire sulla scena, tutti gridavano: Qua, qua, qua! Il divertimento raggiungeva il culmine
quando l’anatra beveva tre bicchieri di vino”.22

Oltre che per la sua anatra, Vaucanson fu noto anche per la creazione di due musicisti, un flautista e
un suonatore di tamburo, di cui però soprattutto il primo è rimasto celebre, a causa della maestria
con cui questo suonatore meccanico riusciva a riprodurre la melodia che Vaucanson stesso gli aveva
insegnato. Sempre la stessa, certo, ma suonata alla perfezione, come un musicista reale avrebbe
fatto. Secondo alcuni dei contemporanei, il flautista di Vaucanson superava, in maestria, gran parte
dei flautisti conosciuti all’epoca.
Non mancarono certo anche vari falsari. Wolfgang von Kempelen fu noto per aver condotto alla
corte di Vienna, presso Maria Teresa d’Austria, un automa, di sua costruzione, incredibilmente abile
nel giocare a scacchi, grazie al quale impressionava tutti i presenti battendo chiunque di volta in
volta gli si ponesse come avversario. La macchina era di costruzione esemplare: dal torace ampio
(molto ampio, si vedrà presto il perché), vestita in abito da turco, era persino in grado di scuotere il
capo quando l’avversario faceva una mossa sbagliata, oppure di annuire quando si avvicina la
possibilità di fare scacco matto. Il trucco era proprio nel petto ampio: per quanto possa sembrare
assurdo, infatti, all’interno della macchina si nascondeva un vero giocatore, un abile maestro di
scacchi proveniente dalla Polonia, il quale restava nascosto ora dietro un’anta, ora dietro l’altra anta
della cassa toracica, sfuggendo così agli sguardi degli astanti che venivano invitati a controllare che

21 Ivi, p. 33.
22 Ivi, p. 34
28

all’interno della macchina non ci fosse nessuno. Così, il povero avversario, credendo di disputare
una partita a scacchi contro una macchina, si trovava destinato a perdere contro un abile maestro
polacco, invisibile agli occhi del pubblico e quello della regina.
L’episodio di von Kempelen che è stato citato non intende semplicemente aggiungere un aneddoto
divertente a una raccolta di dati storiografici. In verità, questo episodio, oltre che essere
affascinante, si rivelerà essere molto importante perché anticipa la storia della robotica in almeno
due punti.
La prima di queste anticipazioni è nientedimeno che una delle critiche classiche che vengono
condotte nei riguardi dell’intelligenza artificiale, recentemente esemplificata da Searle con il suo
famoso “argomento della stanza cinese”:23 la macchina imita e non esegue veramente lo stesso
comportamento che eseguirebbe un essere umano. Qui non si vuole attribuire né a Von Kempelen,
né al suo pubblico, idee, problemi e critiche che a uomini di tre secoli fa’ non sarebbero potuti
venire in mente; tuttavia, il fatto che nel XVIII secolo si sia iniziato a pensare non soltanto a
produrre macchine efficienti, ma macchine che, oltre a funzionare, rappresentassero effettivamente
qualcosa di umano, qualcosa dell’uomo, significa che il tempo in questo secolo era già maturo
perché si gettassero i primi semi della storia futura, della robotica per come noi contemporanei
siamo abituati a conoscerla. Lo si è già detto, la fase meravigliosa della robotica contiene in nuce
tutto ciò che, sparpagliato, lo si sarebbe ritrovato tempo dopo nelle varie scoperte “scientifiche” in
relazione all’intelligenza artificiale.
La seconda anticipazione è quella dell’interesse per il gioco degli scacchi. Fin dall’inizio della sua
storia (il primo tentativo è del 1912) la robotica ha prodotto tentativi di elaborare macchine capaci
di impegnarsi nel gioco degli scacchi: questo, infatti, ha la caratteristica di essere insieme molto
semplice e molto complesso, offrendo a dispetto di un set ridotto di pezzi e mosse elementari una
quantità enorme di mosse possibili. Questa commistione di semplicità e complessità ha da sempre
reso gli scacchi uno dei campi preferiti per lo sviluppo dell’intelligenza artificiale. Questo stesso
impegno nel gioco degli scacchi porterà la robotica a risultati incredibili: nel 1997 Deep Blue,
l’ultima creazione della IBM, sarà in grado di battere in una partita di alcuni giorni l’allora
campione del mondo di scacchi, Garri Kasparov. Sempre dal testo di Heppenheimer:

«Questi automi esistono ancor oggi e sono in grado di funzionare. Quelli di Jaquet-Droz sono
conservati al Musée d’Art et d’Histoire di Nauchâtel, in Svizzera. […] In queste invenzioni
possiamo individuare molti caratteri degli attuali robot industriali programmabili. In
particolare, questi automi eseguivano in modo accurato e ripetitivo una sequenza di

23 L’argomento si chiama della “stanza cinese” poiché il protagonista, intento a fornire risposte a persone poste
all’esterno, è chiuso in una stanza e fornito di materiale per comporre risposte in cinese.
29

movimenti controllata da un programma (la serie di camme). Potremmo dire che il robot
industriale è un discendente diretto dello scrivano o del musicista, con tre sole differenze:
l’adozione di una forma funzionale in luogo di quella umana, l’uso di dispositivi idraulici e di
altre fonti di energia in luogo di molle e di ingranaggi, e l’uso di metodi di programmazione
più raffinati della camme».24

Con la fine del XVIII secolo, i tentativi di riprodurre qualcosa di umano in forma meccanica si sono
fatti più audaci. Oltre a questo, si verifica un netto miglioramento dei materiali impiegati e dei
mezzi, tramite cui questi materiali vengono impiegati: si amplia la volontà, si ampliano le
possibilità. Di conseguenza, anche le aspettative si ingigantiscono. Più che l’abitudine, la
consuetudine a questi tentativi spingeranno alcuni a vedere nella macchina molto più che qualcosa
di soltanto “divertente”: dapprima si inizierà a cercare nella macchina l’utilità. È l’epoca della
Rivoluzione Industriale e dei filatoi meccanici, poi a vapore. Si è pronti ad altro.

2. La fase “meccanica”

Seguendo l’ordine delle fasi in cui è stata suddivisa la storia della robotica, alla prima fase, detta
meravigliosa, segue una seconda che possiamo chiamare “fase meccanica” o, ancora meglio, fase
della macchina. La fase della macchina è la più semplice da descrivere dal punto di vista
cronologico, poiché coincide nei punti fondamentali con la Rivoluzione Industriale (con le due
Rivoluzioni Industriali, in verità) e termina al terminare di queste agli inizi del XXI secolo, quando
il mondo delle macchine inizia seriamente a dover fare i conti con la necessità di una traduzione in
termini simbolici di problemi che fino ad allora erano stati soltanto analogico-meccanici25.
Per contrasto, si possono facilmente ricavare quali sono i tratti fondamentali dell’era della
macchina. La macchina non è nulla di diverso da quanto già prodotto dal mondo occidentale nei
secoli precedenti: già nel XVI secolo, lo si è visto, alcuni ingegneri europei sono stati in grado di
produrre ottime opere di artigianato meccanico, capaci di non sfigurare alla corte dei principi e delle
principesse di tutta Europa. Ciò che distingue l’età della macchina dall’età meravigliosa, quindi,
non è tanto la maniera di produrre le opere, quanto il motivo per cui ci si dedica a questo sforzo. È
lo sguardo che cambia e questo sguardo diventa utilitaristico fino al punto da richiedere la

24 Ivi, p. 38.
25 Il che porterà il piano del discorso su tutt’altro livello, aprendo un nuovo campo di problemi – nonché alla terza
fase, quella del robot vero e proprio.
30

produzione di macchine non più al fine di “stupire” o “meravigliare”, ma per rendere più efficiente
la produzione che proprio in quest’epoca diventa produzione su scala industriale.
La macchina, per come viene intesa in questo secolo, non è niente più che un contorno della vita
umana, non qualcosa di degno di attenzione e, cosa che è fondamentale, non qualcosa che possa di
per sé garantirsi lo statuto di soggetto. Una tessitrice meccanica non è nient’altro che una serie di
ingranaggi tenuti insieme da altri ingranaggi, azionati da qualcuno che vi sta appresso per il tempo
del lavoro e la fa funzionare. In questa fase la macchina è semplicemente qualcosa che appartiene
all’ambiente, al proprio mondo circostante: che sia l’industria, in cui gli operai vengono stipati,
oppure lo studio del matematico, il concetto di macchina segna il punto più basso di dignità per
l’automa nel corso della storia della robotica.
In ambito industriale, non si può dimenticare il lavoro di James Watt e degli altri grandi inventori
della Rivoluzione Industriale inglese, mentre, in ambito culturale, centrale è la figura di Charles
Babbage il “quasi-autore” della Analytical Engine.26
La storia di questa macchina, il cui scopo sarebbe stato, secondo le precise parole di Luger, «to
liberate humans from the drudgery of making arithmetic calculations»,27 (aiutare i matematici con il
calcolo dei valori delle tavole trigonometriche, un compito molto lento e pesante da svolgere a
mente, nonché fortemente esposto al rischio di errori) è travagliata e ha un triste finale. Figura
complessa anche a livello umano, Charles Babbage non fu mai in grado di completare la sua
macchina, non a causa della mancanza di idee, ma dell’impossibilità di realizzarle con i materiali di
allora (ingranaggi e camme poco sottili). Ciò che si è verificato nel suo caso si è ripetuto spesso poi
in futuro anche ad altri grandi ingegneri ed è stato uno dei problemi ricorrenti nella prima storia
della robotica, ovvero lo scarto tra i materiali attualmente disponibili e le intenzioni degli autori alle
prese con la costruzione di macchine.
Questa è la descrizione dell’Analytical Engine che ci dà Hans Moravec, uno dei maggiori esperti nel
settore della robotica a livello internazionale, nonché uno dei più convinti difensori del
transumanesimo:

«Charles Babbage, of Cambridge, England, conceived the idea of an automatic program-


controlled calculating machine in 1834, almost a century before anyone else. This “Analytical
Engine” was to be a steam-engine-powered calculating behemoth of gears and shafts dealing
in 50-digit decimal numbers. A rack of cogwheels was to store 1.000 such numbers, and a
calculating unit was to be able to add two numbers in less than ten seconds and to multiply
them in under a minute. In concept, the Analytical Engine contained all the elements of a

26 Hans Moravec, Robots: Mere Machine to Trascendent Mind, Oxford, Oxford University Press, 1999, pp. 84-85.
27 Luger, Artificial Intelligence, cit., pp. 7-8.
31

modern digital computer. Babbage worked on it for the last 37 years of his life, but it was
never completed. The enormous scale of the project and the tender state of the mechanical art
(components were still typically hand fitted) mad it unlikely that he could have succeeded in
his lifetime. Precision interchangeable parts were much more common by the early twentieth
century».28

Come si evince dalla descrizione, l’obiettivo di Babbage era quello di “tradurre” qualcosa di
concettuale – i numeri e le regole per operare tra loro – in qualcosa di meccanico, schede e
ingranaggi, i quali, procedendo nei loro movimenti avrebbero prodotto, nello stato di arrivo, una
situazione tale da poter essere letta dall’ingegnere e ritradotta nel numero da cercare, secondo un
procedimento al tempo stesso complesso e semplice: numero, stato fisico, numero. Purtroppo per
Babbage, denti, ingranaggi e ruote del primo XIX secolo non furono sufficienti per la sua
ambizione, che dovette almeno in parte essere smorzata dalla realtà.
L’importanza dell’Analytical Engine tuttavia è grande, sia perché, come già detto, rappresenta
perfettamente lo spirito dell’epoca, nel senso che questa macchina è per l’appunto una macchina nel
senso da noi definito, un oggetto puro il cui scopo è soltanto quello di aiutare l’uomo nel suo lavoro
quotidiano, sia perché dal punto di vista tecnico presenta un’innovazione che sarà fondamentale per
due dei massimi esperti di sistemi intelligenti del XX secolo, Alan Turing e John von Neumann.
Questa innovazione consiste nel collocare nello stesso posto la calculating unit, come la chiama
Moravec, ovvero la moderna CPU (Central Processor Unit, il processore) e la store, la memoria,
nella quale sono iscritti i dati su cui operare. Questo avere in se stesso tanto ciò che opera e calcola
effettivamente, a livello reale – la CPU, che Babbage chiamava mill, il mulino – e la memoria,
store, cioè il pannello su cui sono trascritte le operazioni da effettuare, nonché i dati su cui
effettuarle, è uno dei maggiori stravolgimenti nell’ambito della storia della robotica, poiché
consentirà col tempo di ridurre sempre di più il numero di addetti necessari al funzionamento di un
macchinario, rendendo via via sempre più automatizzati, “compresi in se stessi”, tutti gli elementi
necessari al funzionamento di una macchina: anziché dover inserire a mano le schede contenenti,
trascritti in un linguaggio adatto alla macchina, i dati su cui la macchina deve operare, mentre un
altro addetto inserisce le operazioni, la macchina avrebbe avuto già in sé le istruzioni necessarie per
il funzionamento di se stessa. Questa spinta verso l’automazione totale è ciò che sta alla base del
robot e che lo differenzia dalla macchina, secondo le definizioni che in questa stessa sede sono state
date.

28 Hans Moravec, Mind Children, Harvard, Harvard University Press, 1988, pp. 65-66.
32

C’è anche un altro motivo per il quale l’esperienza dell’Analytical Engine è importante, questa volta
da un punto di vista strettamente culturale e non più meramente tecnico-architetturale. Sebbene
Babbage sia passato alla storia quasi da solo, il suo lavoro venne svolto in coppia con quello di una
giovane donna di nome Ada Lovelace, figlia del poeta Byron e grande matematica.
Ada, oltre ad aver contribuito alla creazione dell’Analytical Engine e averne redatto le memorie a
metà del XIX secolo, offrendoci una descrizione tecnica molto dettagliata del funzionamento di
quella, detiene un ruolo di primo piano per aver definito, con il suo principio stilato nel 1842 nel
resoconto sulla costruzione dell’Analytical Engine, lo spirito dell’epoca di cui stiamo trattando:
«The Analytical Engine has no pretensions to originate anything. It can do whatever we know how
to do order it to perform».29
L’Analytical Engine è cioè un puro e semplice strumento, al quale non appartiene nulla se non la
capacità di effettuare quanto i creatori, umani, le hanno concesso di effettuare. È esattamente questo
ciò che definisce la macchina e la distingue tanto dalla “creazione meravigliosa” dei secoli passati,
quanto dal “robot”, il quale a dispetto della semplice macchina inizierà a godere di una certa
capacità di comprensione (quanto meno, secondo i suoi fautori), il che porterà di un grande passo
avanti la storia della robotica, avvicinandoci a quella attuale, per come noi la conosciamo. La critica
di Lovelace è diventata famosa, oltre che per la sua importanza, anche per il fatto di essere stata
presa in considerazione da Alan Turing nel suo scritto del 1950, in cui sostiene la possibilità che le
macchine possano pensare e difende la sua ipotesi da quella di possibili critici, tra cui, infatti,
proprio Ada Lovelace.
Ci sono altri nomi che meritano di essere citati prima di poter passare alla prossima fase dello
sviluppo della robotica, e tra questi si incontrano quello di Leonardo Torres y Quevedo, quelli di
Hollerith e Konrad Zuse, nonché quello del famoso logico Robert Boole, che, con l’invenzione
della sua “algebra booleana”, ha posto le basi di quello che oggi è universalmente utilizzato e noto
come “codice binario”, uno dei veri e propri pilastri dell’informatica contemporanea.
Leonardo Torres y Quevedo è stato un inventore spagnolo, passato alla storia per essere stato tra i
primi, nel 1912, ad aver costruito una macchina in grado di giocare a scacchi. Hans Moravec lo
descrive così, in un breve paragrafo:

«Leonardo Torres y Quevedo, a Spanish inventor, demonstrated an electromechanical


calculator in Madrid in 1919. Controlled by simple arithmetical commands entered at a
typewriter keyboard, the “Torres Arithmometer” lacked a memory and was not fully
automatic in the modern sense. Yet it was close, and it could have been converted to

29 Moravec, Robots, cit., p. 84.


33

automatic operation by addition of a tape of unit entering commands, and made practical by
addition of a unit to store and recall a handful of numbers».30

È stato già fatto notare che il gioco degli scacchi ha costituito, fin dall’inizio della storia della
robotica, uno dei terreni principali sui quali si è esercitata l’abilità ingegneristica degli esperti
nell’ambito di sistemi intelligenti. Torres y Quevedo è quindi considerato uno degli antesignani di
quel campo che verrà sviluppato particolarmente da Claude Shannon negli anni ’50 del secolo
scorso, e che porterà i sistemi intelligenti a livelli altissimi nel gioco degli scacchi entro la fine del
XX secolo.
I nomi di Hollerith e Zuse, invece, vanno ricordati non tanto grazie all’importanza delle loro
scoperte nell’ambito dello sviluppo dell’intelligenza artificiale, ma in virtù dell’impatto che queste
hanno avuto sul piano economico con la fondazione delle due grandi aziende di cui questi uomini
sono stati i fondatori, la Bell Telephone Labs (BTL) per Zuse e la International Business Machines
(IBM) per Hollerith. È proprio in questa fase storica, infatti, che cessa il lavoro indipendente di
artigiani singoli, i quali o vivevano dei propri fondi, o lavoravano alla corte di qualche importante
aristocratico mecenate delle arti. Lo sviluppo delle aziende, la complessità sempre crescente
richiesta per la realizzazione di nuovo tecnologie rende impossibile non soltanto il proliferare, ma
anche semplicemente il sussistere di figure indipendenti, le quali non avrebbero mai trovato, da sé, i
fondi per portare avanti i loro progetti. D’ora in avanti, saranno sempre più grandi compagnie
private, talvolta addirittura i governi statali a richiedere il lavoro agli ingegneri impegnati
nell’ambito della robotica: il gioco inizia ad assumere contorni nuovi, si apre su un altro livello.

3. La fase “robotica”

«Though the role of Boolean algebra in the design of logic circuitry is well known, Boole’s
own goals in developing his system seem closer to those of contemporary AI researchers. In
the first chapter of an investigation of the laws of thought, on which are founded the
Mathematical Theories of Logic and Probabilities, Boole described his goal as to investigate
the fundamental laws of those operations of the mind by which reasoning is performed: to
give expression to them in the symbolical language of a Calculus, and upon this foundation to

30 Moravec, Mind Children, cit., p. 66.


34

establish the science of logic and instruct its method; … and finally to collect from the various
elements of truth brought to view in the course of those inquiries some probable intimations
concerning the nature and constitution of the human mind».31

Nel manuale di Luger da cui è tratto il brano citato, Boole viene presentato insieme agli altri autori
attivi tra la fine Ottocento e l’inizio del Novecento e protagonisti del tentativo di formalizzazione
logica delle scienze matematiche, ovvero Gottlob Frege, Alfred Tarski e la coppia
Russell/Whitehead. A Boole si deve infatti il tentativo di creare un linguaggio formale adatto a
descrivere le scienze matematiche, in quel progetto tardo ottocentesco di dare una fondazione certa
e sicura alle scienze per mezzo di una formalizzazione dei meccanismi cognitivi su cui queste si
fondano. Nel fare questo, egli recupera una tradizione di pensiero più antica, la quale ha avuto il suo
epicentro nel XVII secolo con Leibniz e Spinoza, ma che può essere fatta risalire al tardo Medioevo
con i tentativi di Raimondo Lullo di creare delle tabulae per rappresentare i segni elementari del
pensiero (carachteristica universalis), al fine di poterlo descrivere. Ciò che era veramente
inaspettato nel lavoro di Boole sarebbero state le conseguenze, imprevedibili in un mondo, come il
suo, privo di intelligenze artificiali: senza poterlo sapere, con lo sviluppo della sua algebra
booleana, un tentativo di formalizzazione logica fondato su un numero molto piccolo di segni e
connettori fondamentali, Boole ha sviluppato una prima forma di “lingua per i computer”, che, negli
anni ’50 del secolo successivo, avrebbe dato vita all’informatica come noi la conosciamo oggi
aprendo la fase del robot, a discapito dell’oramai esauritasi fase della macchina. Come osserva
Luger:

«The greatness of Boole’s accomplishment is in the extraordinary power and simplicity of the
system he devised: three operations, “AND” […], “OR” […] and “NOT” […], formed the
heart of his logical calculus. These operations have remained the basis for all subsequent
developments in formal logic, including the design of modern computers. While keeping the
meaning of these symbols nearly identical to the corresponding algebraic operations, Boole
noted that “the Symbols of logic are further subject to a special law, to which the symbols of
quantity, as such, are note subject”. This law states that for any X, an element in the algebra,
X*X=X (or that once something is known to be true, repetition cannot augment that
knowledge). This led to the characteristic restriction of Boolean values to the only two
numbers that may satisfy this equation: 1 and 0. The standard definitions of Booleans
multiplication (AND) and addition (OR) follow from this insight. Boole’s system not only

31 Luger, Artificial Intelligence, cit., p. 8.


35

provided the basis of binary arithmetic but also demonstrated that an extremely simple formal
system was adequate to capture the full power of logic. This assumption and the system Boole
developed to demonstrate it from the basis of all modern efforts to formalize logic, from
Russell and Whitehead’s Principia mathematica (1950), through the work of Turing and
Goedel, up to modern automated reasoning systems».32

Ciò che è stato veramente fondamentale nella tesi di Boole e nella sua particolare formalizzazione
logica delle leggi del pensiero, secondo gli scopi che ci riguardano, è stato l’effetto del suo lavoro
sugli esiti futuri dello sviluppo della robotica, poiché la sua algebra, ponendo come segni elementari
due soli valori – uno positivo, l’altro negativo – ha finito col porre le basi del cosiddetto bit,
secondo la definizione data Claude Shannon degli anni ’50, creando così quel linguaggio
fondamentale utilizzato universalmente anche oggi in ambito informatico.
Ora, non si considererà George Boole come l’iniziatore effettivo della fase della robotica. George
Boole, insieme ad altre figure citate in precedenza, è stato uno di quegli autori che ha contribuito in
maniera sostanziale alla fine della fase della macchina e a dare il via alla fase successiva che
abbiamo scelto di chiamare fase robotica, o fase del robot. Ma in cosa consiste questo cambio di
paradigma? Ciò che manca alla macchina rispetto alle attuali concezioni dell’intelligenza artificiale,
a cui soprattutto la fantascienza ci ha abituati, è la possibilità di comprendere il mondo: vedere,
sentire, pensare. Alla base di tutto ciò sta l’incapacità della macchina di elaborare segni: un telaio è
soltanto un telaio; l’anatra di Vaucanson, per quanto interessante, era soltanto un fine meccanismo a
orologeria, il quale però non comprendeva alcuna forma di penetrazione intellettuale del mondo al
proprio interno. Con Boole qualcosa inizia a mutare: ora il “pensiero meccanico” si dota di un
linguaggio molto lontano da quello parlato da uomini, tale da far intravedere all’orizzonte la
concreta possibilità, da parte del robot (il quale resta una macchina dal punto di vista
ingegneristico), di elaborare segni che riflettono porzioni del mondo, di comprenderli, a modo suo,
e di alterarli, interagendo così con l’ambiente circostante (o con problemi specifici della realtà)
secondo le istruzioni date dal proprio autore.
Non è tuttavia ancora con Boole che si può parlare dello sviluppo di una vera e propria “fase del
robot”: questo non era l’ambito di lavoro di Boole e il suo tempo era ancora troppo immaturo
perché si potesse direttamente impegnare in un problema del genere. Bisognerà invece aspettare il
1956 e la conferenza di Darthmuth, negli Stati Uniti, perché possa veramente iniziarsi a parlare di
una “fase robotica”, ovvero di un primo sforzo serio, organizzato, di arrivare alla creazione di vere e

32 Ibidem.
36

proprie “macchine intelligenti”, capaci di comprendere il mondo e di leggerlo, oltre che di svolgere
meccanicamente alcuni compiti loro impartiti.
I protagonisti di questo momento storico, fondamentale per il futuro sviluppo della robotica, sono
diversi e non bisogna affatto pensare che i loro lavori fossero coordinati fin dall’inizio: al contrario,
i nomi di Marvin Minsky, Alan Turing, Norbert Wiener, Herbert Simon e Claude Shannon (per
citare solo i maggiori) rappresentavano ciascuno un differente percorso di sviluppo e una strada
autonoma sulla grande via dell’intelligenza artificiale, con forze numerose, ma sparpagliate in
settori diversi e senza un vero e proprio rapporti di collaborazione tra di loro.
È stato anzi proprio questo uno dei motivi fondamentali che ha spinto John McCarthy, la mente
organizzativa dietro la conferenza di Darthmouth, a voler organizzare un grande “convegno” per
riunire in un solo luogo tutte le forze attive nel campo di studi dell’intelligenza artificiale. Usando le
parole di Sam Williams:

«Assieme, Minsky, Shannon e McCarthy formarono il nucleo di una piccola comunità di


scienziati interessati a sfidare l’ultima frontiera della scienza moderna: la mente umana. Lo
sforzo era immane: da un lato, matematici e ingegneri indagavano sugli aspetti assimilabili ai
processi viventi dei sistemi meccanici; dall’altro, biologi e psicologi investigavano sulla
configurazione meccanica del cervello. Entrambi i gruppi ottenevano risultati, senza però
condividere un comune ordine del giorno, rischiando così di sprecare energie e di sovrapporre
i risultati. Nel 1953, McCarthy decise di fornire quell’ordine del giorno. Costruire cervelli
meccanici era senz’altro un lavoro difficile, ma in fondo lo era stato anche dividere l’atomo.
Se i ricercatori avessero affrontato tutti insieme il problema, così come si era fatto con il
Manhattan Project, le loro probabilità di successo sarebbero aumentate considerevolmente.
McCarhy chiese l’aiuto di Shannon e propose di pubblicare un libro che avrebbe presentato
una serie di articoli provenienti da ogni angolo del nuovo campo di studi. Ma prima di
richiedere quegli articoli alla comunità scientifica, Shannon e McCarthy pensarono che era
necessario dare un nome a quella disciplina ancora anonima. “Shannon non voleva niente che
definisse a priori un percorso, così decidemmo per Automata Studies”, ricorda McCarthy. “In
qualche misura, gli articoli che ci venero mandati furono per me una delusione. Speravo di
ottenere materiale più orientato verso quella che sarebbe diventata l’intelligenza artificiale”.
Tre anni più tardi, McCarthy ebbe l’occasione di scegliere un nome migliore. A quel punto,
sia lui che Minsky avevano lasciato Princeton: McCarthy aveva ottenuto una cattedra a
Darthmouth, e Minsky era passato a Harvard. McCarthy propose di organizzare un congresso
estivo a Darthmouth, durante il quale loro e altri ricercatori interessati alla mente potessero
37

confrontare le proprie ricerche. Con alle spalle Minsky, Shannon e lo scienziato della IBM
Nathaniel Rochester, McCarthy fu in grado di ottenere un finanziamento dalla Rockfeller
Foundation, dopo di che richiese nuovamente articoli da pubblicare. Questa volta, al posto di
Automata studies, decise di proseguire con un nome più stimolante intellettualmente. “Volevo
che a tutti fosse chiaro l’obiettivo”, dice McCarthy spiegando in che occasione fu utilizzato
per la prima volta il termine intelligenza artificiale».33

Il primo grande “concilio ecumenico” dell’intelligenza artificiale è dunque la conferenza di


Darthmouth del 1953. A questa partecipano tutti i maggiori ricercatori nel settore, certi che i tempi
sono maturi per un avanzamento significativo della robotica. Le parole di McCarthy sono chiare in
proposito: non si parla più del tentativo di realizzare macchine che “facciano” o, semplicemente,
“operino”: questo aspetto utilitaristico è sempre presente a latere delle ricerche condotte in questi
decenni, ma diventa, più che l’obiettivo esplicito, una conseguenza dell’intelligenza che le
macchine dovranno essere in grado di manifestare. In quanto intelligente, un robot dovrà anche
sapersi adeguare al mondo umano e rendersi utile come possibile; prima di tutto, però, questo robot
dovrà saper mostrare segni di intelligenza, ovvero capacità di comprensione e interazione simpatica
con gli altri elementi del mondo che lo circonda.
È evidente lo stacco tra questa concezione dell’automa e quella che animava ancora i primi tentativi
novecenteschi di “simulazione” dell’intelligenza meccanica, come ad esempio il giocatore di
scacchi di Torres y Quevedo o il tabulatore di Hollerith. Un input fondamentale alla ricerca in
questo senso lo ha dato la guerra: tralasciando per il momento il lavoro intellettuale di Turing, di cui
parleremo più dettagliatamente nel prossimo capitolo, possiamo affermare con certezza che è stata
proprio la necessità di far fronte al pericolo bellico ad aver costretto i ricercatori nel campo dell’IA
a sviluppare macchine in grado di comprendere segni, oltre che meramente influire sull’ambiente
circostante.
I grandi calcolatori di quest’epoca hanno tre nomi: Colossus, ENIAC ed EDVAC. Queste creature
di metallo si fanno notare innanzitutto a causa delle loro gigantesche dimensioni: gli elaboratori, in
quest’epoca in cui i microprocessori non sono ancora stati scoperti (avverrà negli anni ’60)
occupano intere stanze; per essere mantenuti in attività, necessitano del lavoro continuato, giorno e
notte, di decine e decine di assistenti, i quali devono continuamente intervenire per risolvere un
problema o sciogliere un nodo tecnico, un lavoro mostruoso e impegnativo con effetti chiaramente
deleteri sul morale di chi è obbligato a prendervi parte.34 L’altra grande caratteristica che accomuna
i computer di quest’epoca, una versione primitiva dei robot fantascientifici, è la ristrettezza del loro

33 Sam Williams, Storia dell’intelligenza artificiale, tr.it. di Andrea Antonini, Milano, Garzanti, 2003, pp. 40-41.
34 Cfr. Heppenheimer, L’uomo fatto dall’uomo, cit., p. 55.
38

ambito d’applicazione: ognuna di queste creazioni è finalizzata a operare in un singolo settore o a


occuparsi di un solo compito, secondo le intenzioni del proprio autore. In questo momento storico,
gli sforzi si dividono chiaramente tra Europa e Stati Uniti, entrambi impegnati nella tragica Seconda
Guerra Mondiale.
Colossus è il frutto del lavoro inglese e corrisponde al nome di Alan Turing. L’Inghilterra, subito
dopo essere stata attaccata dalla Germania nazista, si ritrovò nella necessità di decodificare
messaggi cifrati che i tedeschi costruivano grazie a delle proprie macchine, chiamate argutamente
Enigma; questi codici contenevano informazioni belliche essenziali, tra cui, nel 1941, le coordinate
di un eventuale attacco su Coventry. Come ricorda Heppenheimer, l’impresa era alquanto
importante:

«Se fossero riusciti a decifrare il codice, gli inglesi avrebbero potuto leggere le comunicazioni
tedesche e anticiparne la strategia. In gran segreto organizzarono un progetto di criptoanalisi a
Bletchley Park, a nord di Londra. Qui Turing fu a capo del gruppo che costruì il Colossus, un
computer velocissimo a valvole elettroniche che leggeva dati da un nastro di carta perforata
alla velocità di cinquemila caratteri al secondo e riuscì a decifrare il codice».35

L’equivalente americano di Colossus fu un gigantesco calcolatore di nome ENIAC, un acronimo per


Electronic Numerical Integrator and Calculator, sviluppato all’Università di Pennsylvania sotto la
guida di John von Neumann:

«Nonostante le grandi differenze nelle sue basi tecniche, l’ENIAC si differenzia dal computer
di oggi per due soli caratteri. Innanzitutto lavorava col sistema decimale anziché col sistema
binario, che è più veloce e più naturale per un computer. Il sistema decimale deriva dalle
nostre dieci dita, e questo carattere fu imposto all’ENIAC, richiedendo che le cifre fossero
immagazzinate nella forma di anelli di valvole elettroniche. Il sistema binario è molto adatto
ai componenti elettronici, che possono essere inseriti e disinseriti; perciò una cifra binaria, o
bit (da binary digit) può essere immagazzinata con uno solo di tali componenti. Il secondo
carattere era più fondamentale. L’ENIAC poteva essere programmato solo stabilendo
manualmente dei collegamenti elettrici su un pannello di controllo, ossia inserendo delle
singole spine in prese. In questo modo si stabilivano percorsi elettrici specifici per mezzo dei
quali l’ENIAC avrebbe eseguito i suoi calcoli. Ciò equivaleva ad un elenco rigido di comandi,
altrettanto invariabili quanto quelli contenuti nelle camme dei vecchi automi degli Jacquet-

35 Cfr. Ivi, p. 52.


39

Droz. Fu il matematico di Princeton John von Neumann a intuire che un computer doveva
caricare il suo programma usando lo stesso codice elettronico che veniva usato per i dati da
elaborare. Il programma stesso doveva perciò equivalere a una sorta di informazione da
elaborare. Anziché essere una sequenza fissa di passi, un programma di computer doveva
comprendere un lungo repertorio di sequenze possibili, e le sue operazioni reali potevano non
essere prevedibili in anticipo. Il computer doveva essere in grado di eseguire un calcolo,
confrontare con un altro numero i risultati ottenuti, e poi usare il risultato del confronto come
un comando per scegliere una sequenza di passi da eseguire».36

ENIAC è del 1946; l’anno dopo viene realizzato EDVAC, una versione migliorata del primo in cui
compaiono, per la prima volta nella storia – insieme sullo stesso elaboratore – tanto l’aritmetica
binaria, quanto il caricamento del programma sulla memoria elettronica stessa del computer, così
com’è ancora oggi.
Si vede chiaramente, a partire da questi esempi, quale sia la differenza tra questi grandi elaboratori e
le macchine dei decenni precedenti: Colossus ed ENIAC non si limitano a svolgere dei compiti
come riflesso di un’attività meccanica, ma calcolano “leggendo” delle schede che vengono inserite
al loro interno. L’era del robot si distingue dall’era della macchina poiché, grazie all’intermezzo di
Boole e ad ulteriori sviluppi che vedremo a breve, l’automa inizia ad acquisire un barlume di
soggettività, intesa come capacità di comprensione e, nel caso della cibernetica, percezione della
realtà esterna. L’epoca di Colossus è certamente troppo prematura perché si possa ancora pensare di
dare alle macchine qualcosa come un “pensiero proprio” o una “percezione”, e tuttavia è in questo
ventennio fondamentale tra gli anni ’40 e i ’60 che avvengono delle piccole rivoluzioni nel pensiero
sull’IA, tali da causare un forte ripensamento a proposito di quale sia la natura di una macchina e su
che cosa la distingue da un vero e proprio elaboratore.
I protagonisti maggiori di questo stacco, che ha finito con il consumare l’età della macchina
aprendo la fase della robotica, sono forse Herbert Simon ed Allen Newell, una coppia di ricercatori
che è anche tra i protagonisti della conferenza di Darthmouth, nonché due tra le figure più
importanti nell’intera storia della robotica. Simon e Newell infatti, oltre ad aver elaborato insieme
alcuni programmi fondamentali per lo sviluppo dell’intelligenza artificiale nel senso appena
descritto, sono stati anche i primi protagonisti di un rivolgimento culturale nel mondo dei sistemi
intelligenti che potremmo chiamare rivoluzione simbolico-cognitiva, nel senso di una
determinazione di che cosa sia intelligenza artificiale non nei termini di un “saper emulare”, come
nel caso degli automi del XVIII secolo, o di un “saper operare”, come per le macchine, ma proprio

36 Ivi, p. 53.
40

come quella capacità di leggere e comprendere simboli che comunemente si chiama “comprensione
linguistica”. Secondo le parole degli stessi Newell e Simon (1976): «The necessary and sufficient
condition for a physical system to exhibit intelligence is that it be a physical symbol system».37
Lo slittamento, rispetto alle concezioni dei decenni passati è evidente. Qui l’obiettivo dei ricercatori
non è più, meramente, quello di emulare un comportamento umano o animale per mezzo di un
prodotto di artigianato, stupendo così il pubblico grazie alla capacità dell’artefice, ma nemmeno
quella di saper ottenere un risultato empirico-pratico grazie ai vantaggi offerti dalle proprietà
meccaniche della macchina. Questi stessi vantaggi, semmai, derivano ora dalla capacità della
macchina di leggere dei dati e comprendere situazioni del mondo. L’utilizzabilità pratica del robot
deriverà secondariamente da questa sua… intelligenza.
Oltre che per questo loro principio di fondo, stando al quale l’intelligenza, in un “sistema fisico”,
consiste nella capacità di saper interpretare e comprendere l’ordine simbolico, Newell e Simon sono
passati alla storia anche grazie a due loro programmi sviluppati negli anni, due vere e proprie pietre
miliari nella dimostrazione che l’intelligenza artificiale, in brevissimo tempo, avrebbe potuto
raggiungere risultati fino ad allora insperati dagli esperti di quel settore.
Hubert Dreyfus, uno dei maggiori critici dell’intelligenza artificiale “di prima generazione”,38
descrive così questo periodo di sviluppo della robotica:

«PROBLEM SOLVING. Much of the early work in the general area of artificial intelligence,
especially work on game playing and problem solving, was inspired and dominated by the
work of Newell, Shaw and Simon at the RAND Corporation and at Carnegie Institute of
Technology. Their approach is called Cognitive Simulation (CS) because the technique
generally employed is to collect protocols from human subjects, which are then analyzed to
discover the heuristics these subjects employ. A program is then written which incorporates
similar rules of thumb. Again we find an early success: in 1957 Newell, Shaw and Simon’s
Logic Theorist, using heuristically guided trial-and-error search, proved 38 out of 52 theorems
from Principia mathematica. Two years later, another Newell, Shaw and Simon program, the
General Problem Solver (GPS), using more sophisticated means-ends analysis, solved the
“cannibal and missionary” problem and other problems of similar complexity. In 1961, after
comparing a machine trace with a protocol and finding that they matched to some extent,
Newell and Simon concluded rather cautiously: The fragmentary evidence we have obtained

37 Allen Newell, Herbert A. Simon, Computer Science as Empirical Inquiry. Symbols and Search, «Communications
of the ACM», 19/3 (1976), p. 116 (in generale, pp. 113-126).
38 Definiamo con questa terminologia un certo numero di autori, soprattutto critici dell’Intelligenza Artificiale, tra cui
appunto Dreyfus insieme con altri, i quali hanno lavorato soprattutto tra gli anni ’60 e gli anni ’80 del secolo scorso. Si
vedrà nei capitoli successivi cosa si intende di preciso con questa definizione, da un punto di vista concettuale.
41

to date encourages us to think that the General Problem Solver provides a rather good first
approximation to an information processing theory of certain kinds of thinking and problem-
solving behavior. The processes of thinking can no longer be regarded as completely
mysterious».39

I due programmi di cui si parla nel passo citato, sviluppati da Herbert Simon e Allen Newell, con la
collaborazione di Shaw, sono il Logic Theorist (1957) e il General Problem Solver, di poco
seguente. I risultati sono strabilianti: diversi dei teoremi posti nei Principia mathematica vengono
provati con un’eleganza formale che stupisce molti diversi matematici di professione.
È in quest’epoca che inizia inoltre a formarsi quella sorta di escatologia tecnico-tecnologica, la
quale ci introduce veramente nel cuore del problema con cui si è alle prese. È decisamente ancora
troppo presto per poter parlare di transumanesimo; tuttavia, la rapidità e il successo delle scoperte
che avvengono in questo fondamentale ventennio compreso tra il 1940 e il 1960 avranno un impatto
fondamentale nel rimodellare per sempre la cultura occidentale del XX (e probabilmente anche del
XXI) secolo. I successi ottenuti nel campo dell’intelligenza artificiale, sebbene non uniformi,
iniziano a creare un diffuso clima di attesa che resterà attivo fino all’esaurirsi degli anni ’80, quando
una serie di insuccessi e una presa di consapevolezza della difficoltà del compito inizieranno a
ridimensionare e ridefinire le aspettative dei ricercatori nel campo dell’IA. Fino agli anni ’80
comunque ci sono ancora ben tre decenni di sviluppi in diversi settori, a cui ora si accennerà
brevemente. Le scoperte del ventennio del boom nel campo dell’intelligenza artificiale infatti
daranno vita ad una serie di settori tra di loro disparati, ma vicini per intenti e scopi, che la
conferenza di Darthmouth del ’56 avrà il compito di raccogliere e porre sotto un’unica bandiera,
quella dello sviluppo dell’intelligenza artificiale e dell’automazione totale dei sistemi intelligenti.
Questi diversi campi sono la cibernetica, lo sviluppo di sistemi intelligenti (l’IA nel senso vero e
proprio) e quello della robotica nel senso lato, che potremmo definire un tentativo di sviluppare il
cyborg. Ora noi tenteremo di differenziare la materia che finora abbiamo trattato indistintamente e
di dare ad ogni termine un suo campo di significati quanto più possibile chiaro e autonomo,
separato dagli altri, anche se avvertiamo in anticipo che questo potrà essere fatto soltanto fino ad un
certo punto: anche al di là di una notevole complessità tecnica che non abbisogna affatto di essere
affrontata in questo contesto, i diversi ambiti di sviluppo qui trattati, col passare dei decenni –
soprattutto dagli anni 2000 in poi – hanno iniziato a fondersi in progetti sempre più ambiziosi che
oramai rendono impossibile per uno di questi campi fare a meno degli altri.

39 Hubert Dreyfus, What computers can’t do, New York, Harper&Row, 1972, p. 5.
42

Cybernetics è un termine coniato negli anni ’50 del Novecento da Norbert Wiener, ricercatore al
Massachusetts Institute of Technology (MIT), uno dei principali poli, da sempre, nell’ambito della
ricerca sull’intelligenza artificiale. La cibernetica, tra le varie branche della robotica, è forse quella
che più di tutte ha tentato di mantenere la vecchia concezione dell’automa come macchina,
considerando l’automa soprattutto sotto il punto di vista pratico-ingegneristico che non sotto la sua
capacità di “leggere simboli e risolvere problemi”. Ciò che però la cibernetica introduce rispetto alla
vecchia concezione dell’automa come corpo nello spazio è la dinamicità-interattività, nel senso
della capacità della macchina di percepire la realtà esterna per mezzo di sensori e di rispondere in
maniera intelligente agli stimoli provenienti dal mondo circostante.
Tutti i sistemi cibernetici infatti sono organizzati in base al principio del feedback, un meccanismo
elementare, ma universalmente presente anche nel mondo biologico (ad esempio, il sistema nervoso
funziona in questo modo), secondo cui ad una certa quantità di stimolo – input – corrisponde una
risposta di un certo tipo – output – il quale andrà ad alterare lo stimolo, producendo un nuovo input,
che causerà un nuovo output, fino ad ottenere un bilanciamento generale del sistema; preso nel suo
complesso, questo meccanismo è appunto detto di feedback, o “stimolo-risposta”.
Un esempio elementare di un sistema cibernetico è quello delle porte d’ingresso dei supermercati o
degli uffici: appena ci avviciniamo a queste, le porte si aprono e si richiudono poco dopo il nostro
passaggio. Come accade? Semplicemente, un sensore fotorecettivo percepisce un’alterazione dello
stimolo luminoso in negativo, dato che il nostro corpo copre la luce del sole (input), generando una
risposta automatica, predeterminata, ovvero l’apertura della porta (output); questa, come ulteriore
risposta, causerà il ripristino dello stimolo luminoso originario, quando il nostro corpo si sarà
spostato, riportando la situazione allo stato originario e causando la nuova chiusura della porta.
Questo sistema elementare è un esempio banale, ma chiaro, di che cosa sia un sistema cibernetico.
Un esempio molto meno banale e più interessante sono le tartarughe elettroniche di Grey Walter,
sviluppate negli anni ’50:

«Among the highlights of the cybernetics effort was a series of electronic turtles built during
the 1950s by W. Grey Walter, a British psychologist. With subminiature radio-tube electronic
brains, rotating phototube eyes, microphone ears, and contact-switch feelers, the first versions
could locate their recharging hutch when their batteries ran low and otherwise avoid trouble
while wandering about. Groups of them exhibited complex social behavior by responding to
one another’s control lights and touches. A later machine with the same senses could be
conditioned to associate one stimulus with another and could learn by repeated experience
that, for instance, a loud noise would be followed by a kick to its shell. Once educated, the
43

turtle would avoid a noise as it had before responded to a kick .The associations were slowly
accumulated as electrical charges in electronic devices called capacitors, used here as
memory device».40

Si è voluto riportare integralmente questo paragrafo non perché, di per sé, le tartarughe di Grey
Walter siano state il miglior prodotto della cibernetica nel secolo scorso, ma perché in queste è già
compresa una grande quantità di possibili sviluppi, verso i quali la cibernetica si sarebbe
incamminata nei decenni successivi. Gli stimoli a cui i sistemi cibernetici possono rispondere,
infatti, non si limitano a stimoli visivi o tattili, ma possono essere anche uditivi, digitali (nel senso
della rilevazione di dati) o di altro tipo, generando risposte anche molto complesse come
atteggiamenti che potrebbero apparire addirittura “sociali”.
La cibernetica ha contribuito in maniera fortissima a creare quell’immaginario – che tuttavia è reale,
e non si limita alla fantasia – al quale siamo stati abituati dai film di fantascienza della seconda metà
dello scorso secolo. La spinta per portare i sistemi cibernetici ad interpretare sempre meglio il
mondo esterno, e il tentativo di generare da parte di questi risposte sempre più adeguate agli stimoli
provenienti dalla realtà, hanno condotto a porsi problemi di un livello di complessità stupefacente,
come ad esempio la traduzione in termini ottici della realtà esterna, di modo che la macchina possa
approcciare lo spazio circostante non più come un insieme di cifre (il fotosensore) a cui rispondere,
ma in termini di immagine, il che garantirebbe un livello di dettaglio e precisione
incomparabilmente più alto rispetto ad una semplice descrizione “su carta” di che cosa si trovi al di
fuori.
Il vasto campo della cibernetica potrebbe offrire una molteplicità di esempi a riguardo e gli ultimi
decenni del Novecento hanno portato grandi sviluppi a proposito del tentativo di fornire ai robot
migliori mezzi per percepire la realtà a sé circostante. Per ora basti citare SHRDLU, un robot
sviluppato da Terry Winograd al MIT sul finire degli anni ’60 in un periodo in cui al MIT imperava
il cosiddetto blocks-world (“mondo dei blocchi”) cioè una semplificazione dell’ambiente circostante
il robot di modo da renderglielo comprensibile con i mezzi ingegneristici disponibili al tempo.41
SHRDLU sapeva riconoscere diversi colori elementari come verde, blu e azzurro, afferrare blocchi
del colore richiesto e spostarli verso una pavimentazione di un altro colore di destinazione. Il tempo
per operazioni così semplici poteva anche andare intorno all’una o, in alcuni sfortunati casi, più ore.
Il secondo grande campo di applicazione dei ricercatori nel corso del Novecento è stato quello
dell’intelligenza artificiale propriamente detta (IA), altrimenti detto sviluppo dei sistemi intelligenti.
I sistemi intelligenti, sul modello del Logic Theorist e del General Problem Solver di Shaw, Simon

40 Moravec, Mind Children, cit., p. 7.


41 Informazioni su SHRDLU sono reperibili online al seguente indirizzo: http://hci.stanford.edu/winograd/shrdlu/.
44

e Newell, costituiscono la “mente” rispetto al “corpo” dato dalla cibernetica, ovvero sono sistemi il
cui unico scopo e la cui unica applicazione sono puramente intellettuali, non fisici. Il compito di
questi sistemi può essere differente, a seconda del contesto in cui nascono, ma sono tutti accomunati
dalla necessità di sviluppare per essi un’euristica (secondo il termine coniato dal matematico
George Polya alla metà del secolo scorso)42 per interpretare il più velocemente possibile una grande
quantità di dati e produrre una risposta adeguata alla situazione in corso. Per arrivare a dare queste
soluzioni, i sistemi intelligenti si basano sui cosiddetti “algoritmi”, una serie di istruzioni impostate
sulla logica soggiacente al sillogismo ipotetico, “nel caso di P… dai come risposta Q”. È inutile dire
che P e Q possono arrivare ad avere una complessità ed una stratificazione interna estreme.
Nel corso della seconda metà del Novecento l’IA non si è sviluppata in maniera uniforme, come la
cibernetica, la quale bene o male nonostante vari sviluppi ha sempre mantenuto un solo
orientamento di fondo, ma ha prodotto diversi settori di applicazione anche molto lontani da loro, i
quali, per schematizzare, secondo l’ordine cronologico con cui sono apparsi nel mondo della ricerca
sull’IA, potremmo dire essere:
a) il gioco degli scacchi (Deep Blue);
b) bot parlanti (ELIZA, Parry);
c) sistemi esperti (DENDRAL, MYCIN, STUDENT etc.).
Punto per punto:
a) qualcosa a proposito del gioco degli scacchi è stato già detto: che fin dal XVIII secolo ha
costituito un ambito di applicazione preferito per lo sviluppo dell’intelligenza artificiale, che
agli inizi del ‘900 ci furono tentativi di creare macchinari in grado di giocare a scacchi, sebbene
in modo automatico e non “intelligente”, nel senso della capacità di rispondere adeguatamente
agli stimoli provenienti dalla realtà. Questo processo nel corso del ‘900 si intensifica a partire
soprattutto dagli anni ’50, quando Arthur Samuel e soprattutto Claude Shannon, autore della
teoria dell’informazione, iniziano a scrivere – ciascuno per conto suo, separatamente – articoli
sul gioco degli scacchi e della dama (per Samuel) e su come quest’ambito di sviluppo possa
rivelarsi proficuo per mettere alla prova la cosiddetta intelligenza artificiale. I primi programmi
non tardano a seguire. In questo ambito, rispetto ad altri, si procede a rilento, perlomeno per i
primi decenni. Sebbene già negli anni ’60 si sviluppino sistemi intelligenti capaci di giocare
bene a scacchi, e talvolta anche di vincere contro giocatori esperti, il momento in cui un robot
potrebbe “battere un campione nel gioco degli scacchi” sembra essere ben lungi dal venire –
non è così. Nel 1997 un programma della IBM, “Deep Blue”, batte in una partita pubblica
l’allora campione del mondo Garri Kasparov, aprendo uno spartiacque nella storia

42 Cfr. George Polya, How to solve it, Princeton and Oxford, Princeton University Press, 1945.
45

dell’intelligenza artificiale: se il campione del mondo di scacchi è stato battuto da una


macchina, che cosa non potranno fare queste macchine in futuro?
b) il secondo ambito in cui i sistemi intelligenti hanno fatto progressi interessanti è quello dei “bot
parlanti” (chatterbot), programmi che, se interpellati, sono in grado di offrire risposte
linguisticamente accurate (o perlomeno corrette) secondo le impostazioni di partenza date dagli
autori del programma stesso. Diversi di questi bot sono disponibili online e possono essere
provati gratuitamente e spesso, di fatto, sono anche in grado di stupire per la verosimiglianza
delle risposte che sono capaci di dare: parlando con uno di questi bot si avrebbe davvero
l’impressione di parlare con un altro essere umano; è su questo presupposto che Turing ha
costruito il suo test, come si vedrà a breve, nella prossima sezione. Due esempi tra i più famosi
di come funzionino questi bot sono forniti da ELIZA di Joseph Weizenbaum e da Parry di
Kenneth Colby. Parry simula il comportamento di un paziente cronico che soffre di paranoia,
mentre ELIZA sarebbe una psicologa di tipo esistenzialista-rogeriano. Riportiamo qui uno
stralcio di una conversazione famosa avvenuta in un test negli anni ’60, in cui ELIZA è stata
sviluppata (Parry è del decennio successivo). Il dialogo è ripreso dall’articolo che lo stesso
Weinzebaum ha scritto per illustrare il funzionamento del suo programma:

«UTENTE: Sono tutti uguali, gli uomini.


ELIZA: in che senso?
U. Ci rompono sempre le scatole per una cosa o per l’altra.
E. Ti viene in mente un esempio specifico?
U. Il mio ragazzo mi ha fatto venire qui.
E. Il tuo ragazzo ti ha fatto venire qui?
U. Dice che sono sempre depressa.
E. Mi dispiace di sentirti dire che sei depressa.
U. È vero. Sono infelice.
E. Pensi che venire qui ti aiuterà a non essere infelice?
U. Ho bisogno di un qualche aiuto, questo mi pare certo.
E. Che significato avrebbe per te ottenere un po’ di aiuto?
U. Forse potrei imparare ad andare d’accordo con mia madre.
E. Dimmi di più sulla tua famiglia».43

43 Joseph Weizenbaum, ELIZA, Cambridge (MIT), A.G.Oettinger editor (traduzione nostra), pp. 36-37.
46

L’articolo di Weizenbaum è molto interessante e spiega nel dettaglio il funzionamento di un


chatterbot come ELIZA: riassumendo molto sinteticamente, il bot riconosce alcune parole
chiave (ad esempio: “I feel…”) alle quali dà una risposta automatica ricercando nella propria
memoria una serie di risposte associate a quell’input, che poi completa a seconda di quanto
scritto dall’utente stesso che ha affermato quella certa cosa. Ad esempio, “I feel… depressed”
può dare come risposta automatica, associata all’input “I feel…” : Why do you feel…
DEPRESSED? (termine ripreso dall’input stesso). Questo genera una parvenza di coerenza e di
comprensione da parte del programma. È interessante notare che Weizenbaum è tra gli scettici a
proposito della possibilità di sviluppare un’IA forte. Oltre a Parry ed ELIZA, sono stati
sviluppati altri chatterbot che sono diventati famosi per un motivo o per l’altro, come ALICE
oppure Ramona, di Ray Kurzweil.44 Tutti, comunque, ripropongono bene o male lo stesso
funzionamento del modello prototipico, ELIZA;
c) un “sistema esperto” è un tipo di IA sviluppatosi a partire dagli anni ’60 del Novecento e che
tutt’ora è in fase di sviluppo in diversi ambiti di applicazione, forse soprattutto in quello
economico e in quello medico. Un “sistema esperto” è un programma dotato di informazioni
specifiche su uno e un solo ambito di interesse, come ad esempio la medicina, la chimica oppure
l’andamento di mercato, e fornito di istruzioni precise per fornire diagnosi a seconda di un certo
input inserito, che potrebbe essere tanto una serie di sintomi quanto la descrizione di una
situazione finanziaria di cui si vuole conoscere il probabile andamento futuro. Il sistema esperto
fa riferimento a tutte le proprie conoscenze, compilate da esperti del settore (da cui il nome) e
produce una risposta che sarà tanto più adeguata, quanto migliore e precisa la compilazione da
parte degli esperti. Uno dei migliori esempi di sistemi esperti è DENDRAL di Ed Feigenbaum,
nonché uno dei primi a essere sviluppati:

«One of the earliest systems to exploit domain-specific knowledge in problem solving


was DENDRAL, developed at Stanford in the late 1960s… DENDRAL was designed
to infer the structure of organic molecules from their chemical formulas and mass
spectrographic information about the chemical bonds present in the molecules. Because
organic molecules tend to be very large, the number of possible structures for these
molecules tends to be huge. DENDRAL addresses the problem of this large search
space by applying the heuristic knowledge of expert chemists to the structure
elucidation problem. DENDRAL’s methods proved remarkably effective, routinely
finding the correct structure out of millions of possibilities after only a few trials. The

44 Cfr. Sam Williams, Storia…, cit., pp. 55-69.


47

approach has proved so successful that descendants of the system are used in chemical
and pharmaceutical laboratories throughout the world».45

Un altro classico esempio di “sistema esperto”, sviluppato negli anni ’70 ma ancora molto
utilizzato in campo medico, è MYCIN, capace di compilare correttamente una diagnosi a partire
da una sintomatologia inserita di volta in volta dal medico operante. MYCIN ha riportato
altissime percentuali di successo, intorno al 96%. Altri esempi sono PROSPECTOR (capace di
individuare depositi minerali), INTERNIST (un altro sistema esperto di tipo medico-
diagnostico) e XCON (in grado di funzionare come un “riparatore” di computer individuando la
causa dei problemi come un tecnico umano qualsiasi).

I “sistemi esperti” rappresentano quindi che cosa possa ottenere l’industria del computer quando
l’ecletticità del prodotto è ridotta al minimo di contro alla sua specializzazione : per questo motivo,
i “sistemi esperti” si allontanano molto dall’ultimo campo di cui è costruita la robotica, cui si
accennerà qui di seguito.
Questo grande campo di applicazione, dopo cibernetica e intelligenza artificiale (ovvero il tentativo
di portare alla luce sistemi intelligenti) è definito in genere robotics, intendendo però non il campo
nel suo complesso, ma quella parte specifica della robotica che si preoccupa di costruire automi i
quali siano semoventi, in grado di operare nell’ambiente circostante e diano l’impressione a chi li
circonda di essere qualcosa di a se stante – prodotti molto diversi, quindi, da un programma per
dimostrare i teoremi o di una tartaruga elettronica.
In verità, come abbiamo già anticipato è impossibile tracciare una linea definitiva di separazione tra
un ambito di sviluppo e l’altro, poiché soprattutto nella seconda metà del XX secolo questi ambiti
sono venuti progressivamente fondendosi l’uno con l’altro nello sforzo di realizzare qualcosa più
che il “robot”, e che qui viene definito androide, il tentativo definito dell’intelligenza artificiale di
superare se stessa sviluppando l’uomo alternativo all’uomo.

«Negli anni settanta, i robot cominciarono a entrare a migliaia negli ambienti di lavoro. Nel
1972 a Danbury, nel Connecticut, la Unimation produsse solo robot. (La società cominciò ad
avere un attivo nel 1975, quattordici anni dopo aver cominciato a produrre i primi Unimates).
Nel 1978 i suoi ingegneri produssero un robot più piccolo, chiamato PUMA (Programmable
Universal Machine for Assembly, macchina universale programmabile per il montaggio),
destinato a manipolare specificamente piccole parti usate nel montaggio di strumenti e di

45 Luger, Artificial Intelligence, cit., pp. 20-21.


48

motori. Alla fine del decennio l’Unimation sfornava più di cinquanta robot al mese. Solo di
poco inferiore era la produzione della Cincinnati Milacron, che produceva un robot molto
raffinato chiamato T-3. Queste macchine hanno un costo di 40.000-100.000 dollari ciascuna,
con un costo medio di operazione di 6 dollari l’ora. Questi robot non si annoiavano, non si
prendevano periodi di vacanza, non acquisivano il diritto alla pensione né lasciavano lattine di
bibite vuote dentro i prodotti montati. Essi lavoravano “allegramente” per tutte le ore del
giorno e della notte e accettavano il caldo, la radioattività, fumi tossici o rumori forti, senza
lagnarsi mai. Erano perfettamente a loro agio in lavori pericolosi, come manipolare parti
irradiate di un reattore nucleare, e in lavori disumanizzanti, come saldatura e verniciatura di
automobili, due lavori che si fanno entrambi a temperature superiori a quelle sopportabili da
esseri umani. Essi rivoluzioneranno l’industria automobilistica. In una fabbrica della Chrysler,
a Detroit, cinquanta di tali robot lavoravano in due turni e facevano il lavoro di duecento
saldatori. In una fabbrica della Ford a Wixom, nel Michigan, i robot misuravano le aperture
per i cristalli, per le porte e per i fari, lavorando dieci volte più velocemente di esseri
umani».46

Il mondo industriale e lavorativo è uno degli ambienti preferiti, al giorno d’oggi, per la diffusione
del robot, il quale a partire dagli anni ’70 è diventato una componente insostituibile tanto del lavoro
agricolo quanto di quello strettamente industriale, in cui compare sotto molteplici forme, dal
montatore/verniciatore alla semplice protesi meccanica – una mano, un braccio – di metallo, capace
di svolgere lavori precisi e di sollevare oggetti anche molto pesanti, seguendo un pattern prestabilito
di istruzioni che può essere modificato di volta in volta secondo le istruzioni degli ingegneri addetti
al sistema.

4. L’età dell’“androide”

Arrivati quasi fino alle soglie del duemila, è emerso come la robotica, ottenendo successi in tutti i
suoi differenti ambiti di applicazione, sia riuscita a sviluppare tanto dei bot parlanti, come ELIZA,
capaci di rispondere a domande, quanto robot semoventi in grado di costruire automobili e perfino
riparare altri robot, in caso di necessità. È in questi decenni, tra gli anni ’70 e gli anni ’80, che le
maggiori domande a proposito della robotica vengono poste ed è sempre in questi anni che sono

46 Heppenheimer, L’uomo fatto dall’uomo, cit., p. 60.


49

stati girati alcuni dei più importanti film di fantascienza, come 2001: Odissea nello spazio e Blade
Runner, i quali, molto più che semplicemente “narrare delle storie di fantascienza”, hanno influito
pesantemente sulla cultura del robot anche a livello scientifico. Eric “Astro” Teller, ironicamente,
ha voluto definire la robotica come «il tentativo di far fare alle macchine quello che vediamo loro
fare nei film».47
Tuttavia, occorre approfondire alcuni aspetti di una figura fondamentale per lo sviluppo della
robotica, che finora è stata trattata in maniera parziale, e una data mancante collegata a questa
figura. Il nome in questione è quello di Alan Turing, che abbiamo visto essere tra gli sviluppatori di
Colossus, nonché il risolutore del codice criptato dalle macchine Enigma, tedesche, durante la
Seconda Guerra Mondiale; la data è il 1950, l’anno di pubblicazione di un articolo di Turing, On
Computing Machinery and Intelligence, pubblicato sulla rivista di filosofia «Mind».
Come altre figure già incontrate, anche Turing viene spesso riportato come “il padre
dell’intelligenza artificiale”, mentre i nomi di Shaw, Newell e Simon, per quanto altrettanto
importanti, sono spesso conosciuti soltanto dagli esperti del settore in questione. Come mai?
Questo accade perché Turing è sì l’iniziatore di una delle epoche fondamentali nello sviluppo della
robotica, ma non di un’epoca che lo segue immediatamente in termini cronologici: lo scritto di
Turing che fa iniziare la quarta fase della storia della robotica, l’articolo testè citato, non evolve
direttamente nel corso del Novecento, ma apre un’epoca nella quale noi siamo ancora immersi e
che, anzi, si potrebbe considerare iniziata proprio negli anni ’90 quando i diversi ambiti di
applicazione della robotica hanno iniziato a fondersi tra di loro generando qualcosa che è più di un
robot, nel senso in cui il ’900 ha imparato a pensare questo termine. Questo “qualcosa più di un
robot” viene qui definito come androide. L’“età dell’androide” è quella in cui noi siamo appena
entrati: non può essere descritta, ma solo accennata, poiché la stiamo vivendo. “Androide” è una
parola ad etimologia greca, significante “che assomiglia all’uomo”. La cosa più vicina all’androide
tra quelle descritte finora è certamente il cyborg, nel senso di un robot, talvolta semovente, talvolta
ancorato in un luogo fisso, capace di “guardarsi attorno”, letteralmente, operando nell’ambiente
circostante tramite la sollevazione e lo spostamento di oggetti, talvolta persino in grado di
rispondere ad alcune precise domande poste da un operatore. Un androide è tutto ciò, ma a questo
aggiunge qualcosa in più: la somiglianza – reale o pretesa - con l’essere umano. Sophia è un
androide. La posizione di questa somiglianza rispetto all’essere-umano è ciò che ci introduce al
100% nel presente della robotica ed è la direzione verso cui gli attuali (e i futuri) sviluppi di questa
disciplina si stanno orientando. Turing introduce e annuncia quest’epoca, l’epoca verso cui la fase

47 Cfr. Ray Kurzweil, The Age of Spiritual Machines. When Computers Exceed Human Intelligence, New York,
Viking-Penguin, 1999, p. 66. Cfr. anche Sam Williams, Storia…, cit., pp. 97-109 per una breve panoramica circa
l’importanza e l’influenza della cultura fantascientifica sul mondo dell’intelligenza artificiale.
50

del robot era indirizzata, con una domanda posta in apertura del suo articolo del 1950, On
computing machinery and intelligence: «I propose to consider the question: can machines think?».48
L’ambiguità della quesitone posta da Turing dipende dalla natura “anfibia” della domanda, posta
chiaramente sul filo che separa una scienza, la robotica, da una disciplina molto più magmatica e
informe, la filosofia. Turing è consapevole di questo, ed è consapevole anche di tutte le difficoltà
implicite nel porsi una domanda del genere:

«This should begin with definitions of the meaning of the terms “machine” and “think.” The
definitions might be framed so as to reflect so far as possible the normal use of the words, but
this attitude is dangerous. If the meaning of the words “machine” and “think” are to be found
by examining how they are commonly used it is difficult to escape the conclusion that the
meaning and the answer to the question, “Can machines think?” is to be sought in a statistical
survey such as a Gallup poll. But this is absurd. Instead of attempting such a definition I shall
replace the question by another, which is closely related to it and is expressed in relatively
unambiguous words».49

La domanda posta da Turing, una volta che ci si renda conto della difficoltà di dover rispondere,
dovendosi rifare a questo scopo ad un utilizzo “tradizionale” dei termini machine e think, viene
immediatamente riformulata, come dice Turing, in modo da essere posta in altri termini, molto più
chiari e che permettano una risoluzione più efficace del problema. Volendo precisare: Turing non
vuole dare una soluzione definitiva al problema, anche se protende verso una risposta affermativa
alla domanda ed è convinto che “entro la fine del secolo parlare di macchine pensanti non sarà poi
così assurdo”50. Ciò che importa a Turing è principalmente porre la domanda, far riflettere su questa
possibilità, estrema negli anni ’50, se le macchine, col tempo, avrebbero effettivamente potuto
sviluppare una coscienza e quindi un pensiero, oppure no. Il paragrafo seguente illustra il modo di
ciò che sarebbe diventato famoso come Test di Turing, ma che Turing nel suo articolo chiama
Imitation Game:

«The new form of the problem can be described in terms of a game which we call the
“imitation game.” It is played with three people, a man (A), a woman (B), and an interrogator
(C) who may be of either sex. The interrogator stays in a room apart front the other two. The
object of the game for the interrogator is to determine which of the other two is the man and

48 Turing, On computing machinery, cit., p. 1.


49 Ibidem.
50 Ibidem.
51

which is the woman. He knows them by labels X and Y, and at the end of the game he says
either “X is A and Y is B” or “X is B and Y is A.” The interrogator is allowed to put
questions to A and B thus: C: Will X please tell me the length of his or her hair? Now suppose
X is actually A, then A must answer. It is A’s object in the game to try and cause C to make
the wrong identification. His answer might therefore be: “My hair is shingled, and the longest
strands are about nine inches long.” In order that tones of voice may not help the interrogator
the answers should be written, or better still, typewritten. The ideal arrangement is to have a
teleprinter communicating between the two rooms. Alternatively the question and answers
can be repeated by an intermediary. The object of the game for the third player (B) is to help
the interrogator. The best strategy for her is probably to give truthful answers. She can add
such things as “I am the woman, don't listen to him!” to her answers, but it will avail nothing
as the man can make similar remarks. We now ask the question, “What will happen when a
machine takes the part of A in this game?” Will the interrogator decide wrongly as often when
the game is played like this as he does when the game is played between a man and a woman?
These questions replace our original, “Can machines think?”».51

Il Test di Turing consiste nel porre un individuo, un soggetto giudicante, a un capo di un terminale
in una stanza, e due individui, di cui uno è una macchina (un robot) all’altro capo, in un’altra
stanza, di modo che il giudice non sappia chi sta scrivendo cosa dall’altra parte del terminale. Il
giudice pone una domanda ora all’uno, ora all’altro dei due individui, sapendo che uno di questi è
una macchina: se, quando interrogata, la macchina risponde senza essere scoperta come tale, allora
ha passato il test, e può essere considerata intelligente, altrimenti no.
Qui non vogliamo discutere nel dettaglio gli aspetti filosofici del Test di Turing: questi, insieme ad
altri, verranno esaminati nel secondo capitolo, che vedrà un’analisi delle due fazioni contrapposte a
proposito della possibilità di realizzare effettivamente l’intelligenza artificiale (il che fornirà anche
il contesto di base in cui la fenomenologia, come orientamento critico nei confronti delle pretese
dell’Intelligenza Artificiale, potrà essere collocata). Ciò che preme porre in evidenza in questa sede
è l’importanza del test per lo sviluppo della robotica. Più che effettivamente aver realizzato un
programma o aver elaborato un algoritmo adeguato a risolvere questa o quella situazione,
l’importanza di Turing per la storia dell’intelligenza artificiale è stata culturale, nel senso che il
lavoro di Turing e soprattutto questo articolo hanno finito col dare una direzione di sviluppo ad un
movimento che fino ad allora era andato sviluppandosi in maniera piuttosto impressionistica, anche
dopo la conferenza di Darthmouth voluta da McCarthy: ciò che Turing ha introdotto col suo test è

51 Ibidem.
52

stata la possibilità di sviluppare dei robot dotati di un pensiero, di un linguaggio, di un modo di


parlare. L’intera fantascienza contemporanea, Rachel del film di Blade Runner tratto dal romanzo di
Philip K. Dick e Hal di Kubrick, dal romanzo di Arthur Clarke, sono tutte figure debitrici della
possibilità aperta da Turing con la sua domanda: can machines think?.
L’epoca che inizia con Turing ha un inizio ritardato rispetto alle altre. L’articolo è del 1950, ma
soltanto con l’arrivo degli anni ’90 si può dire essere veramente arrivata l’era dell’androide. L’era
dell’androide non è l’epoca in cui gli umani devono effettivamente fare i conti con gli androidi, ma
quella in cui la possibilità dell’androide diventa reale, a partire dalla sua realtà come possibilità,
come meta ideale di un percorso di sviluppo scientifico. Ciò che prima di Turing ci si aspettava da
una macchina pensante era una capacità di “calcolare e risolvere” un problema, un aspetto della
questione che sicuramente è presente anche in Turing, il quale concepisce il pensiero come calcolo
– e vedremo quanto questa concezione sarà fondamentale per lo sviluppo dell’attuale nozione di
intelligenza, e quindi di intelligenza artificiale; e tuttavia, è solo con Turing che appare chiaramente
nella storia la possibilità che le macchine pensino, non più solo come capacità di svolgere un
compito o risolvere un problema, ma come possibilità generica di pensare, il che richiede il previo
sviluppo di una coscienza, di una percezione, di una volontà. Chiedere se le macchine possano
pensare significa chiedere se le macchine possano sviluppare una coscienza, o se ne possiedano già
una.
A testimoniare la validità di quanto detto a proposito dell’importanza della domanda di Turing per
gli attuali sviluppi della robotica, è sufficiente analizzare alcuni dei campi in cui questa scienza si
sta sviluppando nel mondo di oggi. Per farlo utilizziamo soprattutto il giù citato manuale di Luger,
Artificial Intelligence: Structures and Strategies for Complex Problem Solving, tenendo presente
che, contemporaneamente, con quest’ultima analisi usciamo dal campo meramente “storiografico”
per avvicinarci a quello più propriamente filosofico, sviluppato maggiormente nel secondo capitolo.
Il passato infatti sta lentamente portando la tesi a slittare verso il presente e quelli che erano dati
“certi”, fissati nel tempo in date precise, iniziando a diventare “sviluppi correnti”, i quali di giorno
in giorno portano nuovi risultati e nuove alterazioni nel mondo della robotica.
Il capitolo §1.2.4 del testo di Luger si intitola Natural Language Understanding and Semantic
Modeling” e si apre come segue:

«One of the long-standing goals of artificial intelligence is the creation of programs that are
capable of understanding and generating human language. Not only does the ability to use and
understand natural language seem to be a fundamental aspect of human intelligence, but also
its successful automation would have an incredible impact on the usability and effectiveness
53

of computer themselves. Much effort has been put into writing programs that understand
natural language. Although these programs have achieved success within restricted contexts,
systems that can use natural language with the flexibility and generality that characterize
human speech are beyond current methodologies. Understanding natural language involves
much more than parsing sentences into their individual parts of speech and looking those
words up in a dictionary. Real understanding depends on extensive background knowledge
about the domain of discourse and the idioms used in that domain as well as an ability to
apply general contextual knowledge to resolve the omissions and ambiguities that are a
normal part of human speech».52

Il primo di questi campi di ricerca attuali è quello del linguaggio, o meglio, del natural language
understanding. Si è già detto come in quest’ambito la robotica abbia dato diversi ottimi risultati:
ELIZA di Weizenbaum, Ramona di Ray Kurzweil e altri chatterbot hanno dimostrato la possibilità
per dei robot di “comprendere” in maniera più o meno adeguata espressioni umane e di tradurle in
risposte sensate, che diano perlomeno l’impressione di una certa coerenza. Questo, specifica Luger,
è stato fatto, però, soltanto per domini specifici di linguaggio (ad esempio, il lessico di ELIZA è
ristretto a quello necessario in una seduta di psicologia) mentre si ottengono risultati molto meno
impressionanti quando si tenta di estendere il dominio linguistico di un robot all’intero campo del
linguaggio, spaziando tra lessici differenti di domini lontani tra di loro.
Questo problema è strettamente collegato ad un altro, che viene riportato quasi sempre nei resoconti
di esperti nella ricerca sui sistemi intelligenti, ed è il problema del cosiddetto buonsenso. La qualità
più diffusa tra gli uomini, le macchine sembrano non esserne dotate. A notarlo è Marvin Minsky,
uno dei pionieri nel campo della robotica e nello sviluppo di sistemi intelligenti:

«Quando affrontammo per la prima volta il tentativo di dare abilità umane a un computer, ci
imbattemmo in un curioso paradosso. Ciò accadde non molto tempo prima di disporre di
computer in grado di fare cose come giocare a scacchi, dimostrare teoremi che mettevano in
difficoltà i matematici e progettare circuiti il cui calcolo creava problemi non facili agli
ingegneri. Queste macchine – che in realtà non erano altro che normali computer con gli
appositi programmi – erano davvero impressionanti. Oggi i discendenti di tali macchine sono
spesso chiamati “sistemi esperti”, e ogni giorno che passa noi stiamo trovando nuove
applicazioni utili per loro. Il guaio è che essi sono troppo specializzati, lavorando solo nei
contesti o negli ambienti che sono stati progettati espressamente per loro. Quando si tenta di

52 Luger, Artificial Intelligence, cit., p. 22.


54

usarli per qualcos’altro, mostrano pochi segni di possedere un benché minimo buon senso
[…] Perché è così difficile dare alle macchine il buon senso? Per rispondere a questa domanda
dovremmo avere un’idea di che cosa esso sia. Il buon senso dovrebbe essere una conoscenza
istintiva delle cose che tutti sanno. Ma la maggior parte di tali cose noi le diamo per scontate:
sono talmente “naturali e ovvie” che per noi è difficile renderci conto di che cosa siano, anche
se hanno parte in quasi tutto ciò che facciamo».53

Riuscire a comprendere la dinamicità intrinseca al linguaggio umano, che è inseparabile dalla


varietà dei suoi possibili utilizzi, dei diversi contesti in cui i giochi linguistici prendono forma,
sembra essere un problema analogo a quello di riuscire a dare alle macchine la cosa che per l’uomo
è la più scontata in assoluto, il buon senso, quell’insieme sterminato di piccole presupposizioni che
costituiscono la base delle basi per apprendere anche il più piccolo dei processi immaginabile, ad
esempio quello di cambiare una lampadina: «Capire come si possano produrre macchine in grado di
costruire reti simili all’interno di se stesse mi pare il problema di ricerca più stimolante del nostro
tempo».54
Un altro dei problemi collegati a quello del linguaggio e del buonsenso, è quello del cosiddetto
environment, l’ambiente, che potrebbe anche essere definito il “mondo-circostante” (Umwelt) con il
linguaggio della fenomenologia, e la difficoltà di assegnarne uno ad un robot, ovvero la difficoltà di
far sì che un robot possa comprendere il suo mondo-circonstante e riuscire a spostarvisi all’interno
come se vi si trovasse a proprio agio. Si è accennato a SHRDLU e della sua capacità di riconoscere
diversi colori elementari, nonché di afferrare blocchi di un certo colore e di spostarli verso zone
macchiate da un colore diverso. Tuttavia, ancora negli anni ’70, per funzionare, il “mondo” di
SHRDLU doveva essere ridotto al minimo al fine di non generare un sovraccarico di informazioni
che non sarebbero potute essere elaborate correttamente dalla macchina. Altri tentativi in questo
senso sono stati vari robot semoventi sviluppati soprattutto al MIT e alla Stanford University, come
ad esempio Shakey, rimasto famoso proprio grazie alle “scosse” (shakes) con cui si muoveva in un
ambiente spoglio e privo di ostacoli. Ancora oggi si continua su questa strada. In merito, Luger
osserva:

«Some of the most important by-products of artificial intelligence research have been
advances in programming languages and software development environments. For a number
of reasons, including the size of many AI application programs, the importance of a
“prototyping” methodology, the tendency of search algorithms to generate huge spaces, and

53 Minsky, Introduzione, in Id., La robotica, cit., p. 9.


54 Ivi, p. 10.
55

the difficulty of predicting the behavior of heuristically driven programs, AI programmers


have been forced to develop a powerful set of programming methodologies. Programming
environments include knowledge-structuring techniques such as object-oriented programming
and expert systems frameworks. High-level languages, such as LISP and PROLOG, which
support modular development, help manage program size and complexity. Trace packages
allow a programmer to reconstruct the execution of a complex algorithm and make it possible
to unravel the complexities of heuristically guided search. Without such tools and techniques,
it is doubtful that many significant AI systems could have been built».55

Il problema di dover dare un mondo-circostante a una macchina offre la possibilità di fare diverse
osservazioni a riguardo. La prima, la più ovvia e forse la più importante è questa: prima che le
venga assegnato da un software adeguato, la macchina non ha un Umwelt, un mondo a lei
circonstante. Il secondo punto da sottolineare è lo stretto rapporto tra questo problema e quello del
linguaggio: dare un mondo ad una macchina significa averle dato, preventivamente, un linguaggio
in cui quel mondo deve essere tradotto. Più è complesso il mondo, più deve essere complesso il
linguaggio che la macchina deve saper comprendere, con il che però si torna al paragrafo
precedente, in cui si parlava proprio della difficoltà per questi robot di comprendere un linguaggio
che sia più generale di quello di uno specifico dominio loro assegnato.
Per risolvere questo problema e altri analoghi, sono in corso tentativi come quello di Doug Lenat,56
chiamato CYC (riduzione di “encyclopedia”), un progetto open-source che offre a chiunque lo
voglia la possibilità di partecipare per unire in un solo lessico generale lessici-specifici generati da
ricercatori di tutto il mondo. CYC è ancora aperto e in fase di sviluppo.
Gli ultimi due problemi lasciati aperti dall’attuale ricerca nel campo della robotica sono quello
dell’apprendimento, ovvero della possibilità di dare alle macchine la facoltà di imparare – una
prerogativa che sappiamo essere dell’uomo e, in parte, degli animali – nonché quello della
simulazione del comportamento umano, cioè il poter attribuire agli automi un savoir faire un po’
più umano e un po’ meno robotico.
A causa del loro interesse e della grande quantità di implicazioni che ciascuno di questi punti
comporta, non verranno trattati qui, ma nel prossimo capitolo, a seconda della direzione da cui
proverrà di volta in volta il fuoco di fila degli autori presi in questione: da una parte i sostenitori di
una IA forte (il movimento detto “Intelligenza Artificiale” in senso vero e proprio), dall’altra i
detrattori di questa possibilità.

55 Luger, Artificial Intelligence, cit., p. 25.


56 Cfr. Williams, Storia…, cit., p. 41.
56

Con quest’ultima sezione, quindi, si è tentato più che dare un semplice quadro storico della ricerca
nel campo della robotica. Individuando i punti fondamentali della ricerca contemporanea, si è
voluto contemporaneamente dare un’idea preventiva di quali saranno i punti presi in questione
dall’attuale dibattito a proposito dell’intelligenza artificiale: quale forma dovrà avere questa
intelligenza, e che cosa significa essere intelligenti? È possibile reale per l’IA quella di sviluppare,
un giorno, macchine veramente intelligenti, oppure è soltanto una chimera, una fantasia?
57
58

CAPITOLO SECONDO
Lo status quaestionis

Nel capitolo precedente è stato fornito un sintetico, per quanto possibile, prospetto storiografico, in
cui si è cercato di delineare in maniera generale i momenti fondamentali dello sviluppo della
robotica e i grandi passi compiuti da questa disciplina fino ad oggi. Lo scopo è stato duplice, come
il Prologo ha tentato di anticipare: il primo obiettivo, più generico, era quello di fornire un contesto
di fondo, del materiale utilizzabile per fare riferimento in maniera effettiva a qualcosa, per chi non
fosse minimamente pratico della materia; il secondo, più specifico, delineare tramite la storia della
robotica quali sono stati i problemi principali di tale ambito di ricerca e quali le sue sfide attuali, in
un momento storico in cui l’intelligenza artificiale sembra compiere passi da giganti in ogni
direzione, sviluppando tecnologie sempre nuove e trovando ambiti di applicazione inauditi, diversi
e disparati.
Nel suo manuale didattico di filosofia, Nicola Abbagnano presenta così, in due brevi paragrafi, il
sunto sulla “questione dell’intelligenza artificiale”:

«All’inizio, i filosofi che hanno tentato di ridimensionare le pretese della IA sono stati
guardati con fastidio e sospetto. In un secondo tempo, anche per l’acuirsi delle difficoltà
interne al settore, le loro osservazioni hanno incontrato un maggiore ascolto. Anzi, in taluni
casi, si è assistito a una certa convergenza di posizioni. Ciò vale soprattutto per quei
ricercatori (sempre più numerosi) che, avendo abbandonato le ambizioni originarie della IA e
l’illusione di aver trovato, negli elaboratori elettronici, la “chiave della mente”, ritengono che
l’obiettivo primario della IA non sia la messa a punto di una teoria generale del pensiero o la
creazione fantascientifica di una “mente sintetica”, in grado da fungere da perfetto doppione
del nostro cervello, bensì l’invenzione di macchine utili, cioè di dispositivi intelligenti capaci
di fungere da strumenti efficaci sia per lo studio della mente sia per l’esecuzione delle varie
attività sociali e lavorative. Per sottolineare questo mutamento di indirizzo rispetto all’IA
classica – che si è tradotto nel passaggio da una IA di tipo “forte” ad una IA di tipo “debole”
[…] – alcuni studiosi hanno distinto e contrapposto i concetti di “simulazione” e di
“emulazione”. Simulare l’intelligenza [corsivo nostro] significa costruire delle macchine
esplicitamente finalizzate a riprodurre i poteri cognitivi dell’uomo (modello antropomorfico).
59

Emulare l’intelligenza [corsivo nostro] significa costruire delle macchine comunque


intelligenti, senza preoccuparsi della loro diretta somiglianza con l’uomo (modello non
antropomorfico). In altri termini, secondo un concetto più recente e “pragmatico” di IA, volto
a evidenziarne soprattutto gli aspetti tecnologici e applicativi di tale settore di ricerca, lo
scopo dell’IA non è la simulazione letterale dei processi cognitivi, ma solamente la loro
emulazione, ovvero la messa in atto di sistemi in grado di svolgere determinati compiti in
modo efficiente. Tuttavia, poiché questa distinzione non viene fatta – e non viene accettata –
da tutti, non è poi così strano che l’IA continui a muoversi all’interno di un’ambiguità di
fondo, la quale fa sì che non si capisca mai bene “se si vogliano soltanto costruire macchine
utili oppure se si vuole riprodurre l’intelligenza umana”».57

Ciò che Abbagnano individua come il tratto saliente della questione, quella che chiama “ambiguità”
di fondo dell’intelligenza artificiale e che porta i ricercatori in questo ambito ad oscillare tra una
concezione “forte” e una concezione “debole” dell’IA,58 riteniamo abbia tanto una causa intrinseca
alla materia stessa, quanto una estrinseca, dipendente in particolare dal momento storico che stiamo
vivendo.
Per quanto riguarda la causa intrinseca, il primo capitolo ha mostrato come la robotica, e
l’intelligenza artificiale in particolare, fin dal loro sorgere abbiano manifestato una propensione al
titanismo, nel senso del desiderio da parte dei loro protagonisti di spingersi oltre verso un oltre
sempre ulteriore, che nel caso della robotica contemporanea si manifesta come il desiderio di creare
macchina intelligenti in grado di porsi come alternativa all’essere umano (androidi). Fin dalle storie
dei golem esaminate nella prima sezione del primo capitolo, passando per gli uomini meccanici del
XVIII secolo, fino ai tentativi di Grey Walter di creare “tartarughe elettroniche”, l’intelligenza
artificiale ha sempre tentato di dare vita a qualcosa più di semplicemente meccanico. L’intelligenza
artificiale ha in se stessa una forte spinta orientata verso il tentare di dar vita a qualcosa di non-vivo,
e di rendere umano qualcosa che, nel suo fondo, non lo è.
Dal punto di vista storico, invece, la causa estrinseca di questa spinta, che è comunque radicata
nell’impulso di fondo dell’intelligenza artificiale, è quella di un forte sviluppo in tutti gli ambiti in
cui questa scienza ha trovato applicazione, il che porta a una interconnessione strettissima tra tutti i
campi della ricerca con conseguenti sviluppi in ognuno di questi. Linguistica, psicologia,
informatica, fisica: in un momento storico in cui le scienze predominano, ogni singolo risultato in
57 Nicola Abbagnano e Giovanni Fornero, Itinerari di filosofia, Varese, Paravia, 2003, p. 689.
58 Si vedrà più avanti cosa intendere, nel dettaglio, con queste espressioni. Per chiarirne il senso con cui vengono
utilizzate, comunque, si avverte che queste compaiono in Searle, ad esempio in Mente, Cervello, Intelligenza, Milano,
Studi Bompiani, 1987). Searle le utilizza per indicare l’IA intesa come “strumento per la comprensione della mente
umana” (IA debole) oppure l’IA come tentativo di realizzare macchine coscienti vere e proprie (IA forte). In questo
senso le utilizziamo anche noi.
60

ognuna di queste viene elevato al quadrato da riscontri altrettanto positivi in altri ambiti interessanti
per lo sviluppo dell’intelligenza artificiale.
È questa la base per quel tipo di pensiero sull’intelligenza artificiale che viene abitualmente
chiamato IA “forte”, dalla definizione che ne ha data per la prima volta John Searle, a cui si
contrappone il pensiero debole sull’intelligenza artificiale, l’IA debole. Sempre nel manuale di
Abbagnano, nel Glossario, esse vengono definite così:

«IA forte e IA debole. Dicotomia adoperata da Searle per distinguere fra un’IA per cui il
computer è realmente una mente e un’IA per cui il computer è solo uno strumento di studio
della mente. Oggigiorno, tale dicotomia viene usata in un significato più ampio. Infatti per IA
forte si intende il programma originario dell’IA, ovvero il “tentativo di riprodurre, tramite
elaboratori elettronici, comportamenti non distinguibili da quelli umani”, mentre per IA
debole si intende il “tentativo di far fare ai computer cose che gli uomini sanno fare meglio”.
Le persistenti difficoltà della IA hanno spinto parecchi studiosi ad accettare il programma
debole della IA e a ritenere che l’obiettivo primario di essa non sia la creazione
fantascientifica di una “mente sintetica” in grado di fungere da perfetto doppione del nostro
cervello, bensì l’invenzione di macchine utili, cioè di dispositivi intelligenti che, al di là della
pretesa di simulare le operazioni del cervello, risultino capaci di fungere da strumenti efficaci.
Programma che, tra l’altro, viene ritenuto più consono alla mentalità postmoderna della nostra
epoca, tendenzialmente diffidente nei confronti di ogni ideologia forte e di ogni forma di
infatuazione tecnologica».59

A mio parere la questione non sta esattamente nei termini in cui la pone Abbagnano, almeno per
quanto riguarda la “mentalità postmoderna” della nostra epoca e la sua reticenza a infatuazioni
tecnologiche. Al contrario, il movimento filosofico, o piuttosto ideologico, che più sospinge la
ricerca nel campo dell’intelligenza artificiale al giorno d’oggi si definisce transumanesimo, e
sostiene posizioni fortissime nei riguardi dell’intelligenza artificiale, tra cui la sostituzione
dell’uomo da parte dei robot – insieme una paura e una speranza – nonché l’implementazione della
mente umana su sostegni d’acciaio o sintetici, in grado di durare più a lungo rispetto ai corpi umani.
Scenari molto lontani dalla “mentalità postmoderna”, “diffidente nei confronti di ogni ideologia
forte” di cui parla Abbagnano.
In generale, la questione di fondo è ancora quella posta da Turing nel suo articolo del 1950, On
computing machinery and intelligence. La “questione dell’intelligenza artificiale” infatti non è

59 Ibidem.
61

nient’altro che il dibattito aperto dalla domanda di Turing se le macchine possano effettivamente
pensare, oppure se saranno rilegate per sempre al mero ruolo di esecutori (secondo il loro nome,
elaboratori) destinate ad avere per sempre un ruolo di contorno rispetto al mondo e alle attività
dell’uomo. Nonostante Turing non utilizzasse ancora questi termini, egli stesso, da sostenitore della
possibilità del pensiero per le macchine, può essere considerato il primo sostenitore dell’IA forte
nella storia dell’intelligenza artificiale. Turing stesso precisa la sua posizione in questo modo,
mettendone fortemente in risalto l’aspetto pratico-metodologico a discapito di quello ideologico:

«It will simplify matters for the reader if I explain first my own beliefs in the matter. Consider
first the more accurate form of the question. I believe that in about fifty years' time it will be
possible, to programme computers, with a storage capacity of about 109, to make them play
the imitation game so well that an average interrogator will not have more than 70 per cent
chance of making the right identification after five minutes of questioning. The original
question, “Can machines think?”, I believe to be too meaningless to deserve discussion.
Nevertheless I believe that at the end of the century the use of words and general educated
opinion will have altered so much that one will be able to speak of machines thinking without
expecting to be contradicted. I believe further that no useful purpose is served by concealing
these beliefs. The popular view that scientists proceed inexorably from well-established fact
to well-established fact, never being influenced by any improved conjecture, is quite
mistaken. Provided it is made clear which are proved facts and which are conjectures, no
harm can result. Conjectures are of great importance since they suggest useful lines of
research».60

Incidentalmente si vuole fare una piccola nota, che verrà utile quando nel terzo capitolo
utilizzeremo la fenomenologia per dirimere alcune delle questione che verranno presentate in
questo. Turing, nel passo precedentemente citato, scrive: «The original question, “Can machines
think?”, I believe to be too meaningless to deserve discussion. Nevertheless I believe that at the end
of the century the use of words and general educated opinion will have altered so much that one will
be able to speak of machines thinking without expecting to be contradicted». Che cosa si sta
dicendo?
Non che la domanda “se le macchine possano pensare” sia essa stessa meaningless, priva di senso;
privo di senso è porsela. Turing sta semplicemente dando come un dato di fatto accertato la
possibilità che le macchine pensino, ignorando tranquillamente il problema di dover dare una

60 Turing, On computing machinery, cit., p. 8.


62

definizione preliminare di che cosa sia l’intelligenza e di che cosa significhi pensare. “Lo
dimostreranno i fatti”. Dimostreranno che cosa? Quali fatti, inoltre? Questo salto del problema
fondamentale della definizione preliminare è uno dei cavalli di battaglia dei sostenitori della
concezione forte dell’intelligenza artificiale, nonché ciò che rende necessarie ricerche
fenomenologiche, di cui tesi vuole essere un esempio, per arrivare alla radice dei fenomeni che
vengono indagati e dimostrare la possibilità preliminare di sviluppare una ricerca empirica nel senso
in cui questa è stata condotta finora.
E per quanto riguarda l’IA debole? Nel corso del suo articolo Turing esamina una serie di
“obiezioni” che potrebbero opporsi, dal punto di vista tecnico e/o ideologico, alla possibilità che le
macchine in un prossimo futuro possano sviluppare un pensiero paragonabile a quello umano.
Queste diverse obiezione, nell’ordine in cui appaiono, hanno per nome: 1. The theological
objection; 2. The “Head-in-the-sand” objection; 3. The mathematical objection; 4. The argument
for consciousness; 5. Arguments from various disabilities; 6. Ada Lovelace’s objections; 7.
Argument from continuity in the nervous system; 8. Argument from the informality of behaviour; 9.
The argument from extrasensory perception.
Ora, non verranno discusse in questa sede le obiezioni e le risposte che Turing elabora per ciascuna
di queste, poiché sarebbe un’attività di compilazione di scarsa utilità, che lascerebbe ben poco al
lettore in quanto a comprensione del dibattito. Comunque, alcune di queste obiezioni diventeranno
“canoniche” nel corso dei cinquant’anni successivi all’articolo di Turing nel dibattito
dell’intelligenza artificiale, poiché, ad esempio, l’obiezione numero 2 che Turing chiama the
“Head-in-the-sand” objection, e che si riferisce genericamente a tutte quelle forme di pensiero
apocalittiche del tipo “se succedesse davvero, sarebbe orrendo” la si ritroverà, in forme e con gradi
di elaborazione diverse, in vari autori contrari alla concezione forte dell’intelligenza artificiale.
Ciò che ci interessa in particolare in questa sede è però l’obiezione 6, l’obiezione di Ada Lovelace
la quale è già stata conosciuta come collaboratrice di Charles Babbage per lo sviluppo della sua
Analytical Engine. Alan Turing sintetizzava così questa obiezione nel suo articolo:

«Our most detailed information of Babbage’s Analytical Engine comes from a memoir by
Lady Lovelace (1842). In it she states, “The Analytical Engine has no pretensions to originate
anything. It can do whatever we know how to order it to perform” (her italics)».61

È come se Ada Lovelace non stesse solo descrivendo una situazione e un limite oggettivo, ma quasi
intimando, come un monito per il futuro, che le macchine non possano fare nulla al di là di quanto i

61 Ivi, p. 14.
63

loro creatori pongono originariamente in esse: nessuna individualità, nessuna soggettività. Una
macchina è soltanto ciò che le è stato assegnato di essere al momento della creazione.
La questione dell’intelligenza artificiale è perfettamente racchiusa nel contrapporsi di queste due
posizioni. Da una parte, chi pensa che Ada Lovelace abbia sbagliato e che le macchine possano
essere di più, talvolta molto più che un semplice aggregato di hardware e software, degli algoritmi
attivati da un processore sufficientemente potente per farlo; dall’altra chi ritiene impossibile per le
macchine sviluppare più che una parvenza di coscienza, come ad esempio il già visto John Searle, o
Hubert Dreyfus, insieme a molti altri. A partire dalla risposta che si pensa di poter dare a questo
problema si sviluppano le diverse concezioni possibili nei confronti dell’intelligenza artificiale. Per
semplificare, ne saranno esaminate quattro, dalle più estreme in senso positivo (il transumanesimo)
a quelle più negative in assoluto, quelle degli apocalittici, passando per gli integrati, una soluzione
intermedia positiva, e gli scettici, una soluzione intermedia negativa, propria di chi, sebbene senza
l’ostilità guerriera degli apocalittici, è comunque poco propenso a credere che una rivoluzione
artificiale possa salvare l’uomo o migliorarne definitivamente la sua posizione nel mondo.

1. “Transumanesimo”

“Transumanesimo” è un nome che incute un certo timore nell’ambito del dibattito circa
l’intelligenza artificiale, non soltanto a livello accademico. Il nome indica la possibilità di andare al
di là dell’uomo – è questo che indica, letteralmente, la parola – senza specificare bene dove; con
questa “attesa”, però, che il termine richiama, è già indicata la caratteristica fondamentale di questo
movimento ideologico, quella di un’escatologia tecnico-tecnologica, rigorosamente atea, che si
ritiene essere sempre in procinto di avverarsi. Un estratto dal testo di uno dei più famosi
transumanisti, Hans Moravec, consente di capire quale sia l’atmosfera generale che domina questo
movimento. Questo brano è tratto dall’introduzione di un suo libro degli anni ’90, Mind Children:

«Engaged for billions of years in a relentless, spiraling arms race with one another, our genes
have finally outsmarted themselves. They have produced a weapon so powerful it will
vanquish the losers and winners alike. This device is not the hydrogen bomb – widespread use
of nuclear weapons would merely delay the immensely more interesting demise that has been
engineered. What awaits is not oblivion but rather a future which, from our present vintage
point, is best described by the words “postbiological” or even “supernatural”. It is the world
in which human race is been swept aside by the tide of cultural change, usurped by its own
64

artificial progeny. The ultimate consequences are unknown, though many intermediate steps
are not only predictable but have already been taken. Today, our machines are still simple
creations, requiring the parental care and hovering attention of any newborn, hardly worthy of
the word “intelligent”. But within the next century they will mature into entities as complex as
ourselves, and eventually into something transcending everything we know – in whom we can
take pride when they refer to themselves as our descendants. Unleashed from the plodding
pace of biological evolution, the children of our minds will be free to grow to confront
immense and fundamental challenges in the larger universe. We humans will benefit for a
time from their labors, but sooner or later, like natural children, they will seek their own
fortune while we, their aged parents, silently fade away. Very little need be lost in passing of
the torch – it will be in our artificial offspring’s power, and to their benefit, to remember
almost everything about us, even, perhaps, the detailed workings of individual human
minds».62

Non sarebbe un’assurdità farsi tornare in mente, di fronte a queste parole, l’obiezione alla tesi di
Turing sulle macchine pensanti che lui stesso aveva chiamato “Head-in-the-sand objection”, che
consisteva semplicemente nel voler rifiutare l’ipotesi a causa della paura che questa ispirava nei
cuori di chi dovesse confrontarcisi. Il brano citato è una perfetta introduzione a che cosa sia il
transumanesimo, poiché raccoglie in poche righe tutti gli elementi essenziali a questo movimento,
che ne costituiscono il cuore pulsante e la spinta ideologica. A partire dal lessico. Nelle prime tre
righe è racchiuso l’intero contenuto filosofico del transumanesimo: Engaged… relentless, spiraling
arms race… our genes… finally… outsmarted… will…. Tali espressioni racchiudono l’idea di una
costante lotta verso uno stadio superiore dell’evoluzione, uno sfrenato materialismo a sfondo
biologico e una fervente, quasi profetica attesa del futuro, le quali sono le tre caratteristiche
essenziali di questo movimento ideologico.
Il movimento, che difficilmente può essere definito una “filosofia” a causa dello scarso contenuto
filosofico vero e proprio,63 nasce tra la fine degli anni ’80 e l’inizio degli anni ’90 sulla base di una
ripresa di entusiasmo nei confronti dell’IA, seguita ad un periodo chiamato genericamente “IA
winter”, “inverno dell’intelligenza artificiale”, in cui il rallentamento dei risultati ottenuti sembrava
aver creato una bonaccia vera e propria nell’ambito della ricerca in questo settore, con un calo
conseguente degli investimenti in materia e quindi dell’intensità con cui scoperte in quest’ambito
62 Moravec, Mind Children, cit., p.1.
63 I testi dei transumanisti di filosofico hanno poco, nel senso che non contengono né argomentazioni né ricerche, nel
senso filosofico del termine: piuttosto, vengono fornite “dimostrazioni” della tesi di fondo, che i robot stanno
sviluppando una coscienza e che ne otterranno una vera e propria nel tempo, a partire dall’accumulo di dati su
esperimenti condotti con successo. In ognuno di questi si mostrano “sempre nuove creazioni” e “sempre nuovi robot”,
tramite i quali si cercano di convincere i lettori.
65

venivano portate alla luce. Il transumanesimo ha diversi sostenitori in tutto il mondo anche se, a
conti fatti, nessun vero “ideologo”: primo perché, lo si è detto, il transumanesimo non è una scuola
di pensiero e nemmeno una filosofia, quanto piuttosto una sorta di atmosfera, una serie di
convinzioni comuni a proposito della razza umana, del mondo e del destino di questi due enti nel
loro rapporto reciproco, una serie di convinzioni che hanno alcuni base comuni a cui si è accennato
(escatologismo, evoluzionismo darwinista e scientismo) e che a breve si vedranno un po’ più nel
dettaglio. Nonostante questa mancanza di centro e di una base di pensiero vera e propria, si possono
individuare in due figure in particolare i maggiori alfieri del movimento transumanista: Ray
Kurzweil e Hans Moravec, entrambi tra i massimi esperti mondiali nel settore dell’intelligenza
artificiale, attivi entrambi soprattutto negli anni ’90 e fino ai primi anni del nuovo millennio, essi
stessi protagonisti di alcune importanti creazioni nel mondo della robotica e in quello dei sistemi
intelligenti (si pensi a Ramona, il chatterbot di Ray Kurzweil).
Alla domanda, “le macchine possono pensare?”, i transumanisti risponderanno senza la minima
ombra di dubbio, “certo che sì, possono, e col tempo lo faranno!”. Alla domanda se questo sia o
meno una cosa buona, invece, risponderanno: “eccome se lo è!”. Se esiste una forma di
fondamentalismo tecnologico, i transumanisti si meritano questo titolo al 100%, perché nessuno più
di loro ha spinto tanto in là la proposta di sviluppare intelligenze artificiali che possano davvero, nel
senso più letterale della parola, pensare, comprendere il mondo e interagire con l’uomo; talvolta al
di là dell’uomo. Il transumanesimo infatti non si limita a prospettare una convivenza tra uomo e
macchina poiché, se così fosse, non si spiegherebbe la necessità di parlare di trans-umanesimo. La
presenza di questo prefisso invece lascia immaginare scenari ben più ambigui, cui Hans Moravec
accenna nell’introduzione al suo libro: gli uomini non sono soltanto sulla strada per avere dei nuovi
compagni nel mondo, ma su un’altra, quella della sostituzione ad opera della loro artificial progeny
e del rimpiazzo totale su ogni fronte, sorpassati in tutto dalle capacità strabilianti dei loro figli di
metallo, cavi e silicone. Un essere umano non può vivere per secoli a causa dell’imperfezione del
materiale di cui è costituito, il suo corpo si deteriora, impedendo alla sua mente una vita prolungata;
ci si stanca, ci si ammala, col tempo si diventa meno efficienti – tutti problemi che i robot non
hanno. Cosa impedirà loro quindi di prendere il nostro posto sulla Terra, dal momento che superano
gli esseri umani sotto ogni aspetto?
Quando parliamo di “escatologismo”, nel senso di una attesa della fine dei tempi a sfondo tecnico-
tecnologico, questo termine va inteso letteralmente e non come qualche ambigua metafora che
vuole spiegare qualcosa a proposito del transumanesimo. Gli scritti di questi autori sono
letteralmente lastricati di riferimenti al futuro, imminente o lontano che sia; il futuro è certamente il
tempo verbale più utilizzato, sorpassando di gran lunga il presente e il passato che, quando presente,
66

ha l’unico scopo di giustificare il futuro nelle sue pretese o di illustrarne la “lunga via” verso la
propria pratica realizzazione. Il transumanesimo vive di un’ansia costante per un mondo in cui i
nostri figli robotici saranno una realtà, come nel caso di Hans Moravec, oppure (in una versione più
edulcorata) in cui gli strumenti tecnologici, come per Kurzweil, saranno talmente diffusi che
qualsiasi cosa oggi sembri una fatica e un peso per l’uomo contemporaneo verrà risolta e affrontata
dai nostri ausili tecnologici. La tecnologia, nella sua forma robotica oppure strumentale, è ciò che
ha condotto l’uomo all’evoluzione e ciò che porterà l’uomo ancora più in là nella lotta verso la
supremazia, sul nostro pianeta o nell’intera galassia – certo, fino alla fine inevitabile, verso qualche
nuovo cataclisma naturale o un altro meteorite che raggiunga la nostra specie ponendo fine per
sempre ai suoi sogni di gloria. Ma questo non è un grande problema per i transumanisti, che non si
pongono particolari dilemmi di tipo religioso o anche solo etico: il futuro è l’astro che consentirà
all’umanità di raggiungere il suo stadio definitivo di assolutezza e perfezione sulla Terra. Questo
millenarismo fa sì che a tutti gli effetti i transumanisti possano essere definiti dei futurologhi: i loro
testi sono vere e proprie “visioni” di scenari apocalittici o divini, una curiosità molto interessante
per degli uomini che dicono di considerare il passato nient’altro che come un’anticipazione di ciò
che sarebbe poi successo in futuro.64
Né bisogna pensare che l’evoluzionismo predicato dal transumanesimo sia l’evoluzionismo
ottocentesco che è ancora oggi diffuso a livello di sapere comune nella cultura occidentale. Sebbene
la base di questo movimento sia certamente un concetto di evoluzionismo esasperato, in cui la vita
consiste in una lotta continua che produce sempre nuovi stati (migliori) di essere, i transumanisti
approfittano di questa base per assestare un colpo contro l’umanesimo anziché garantire, proprio
grazie a questa evoluzione, la supremazia dell’uomo a danno delle altre specie terrestri. L’uomo è
certamente la più intelligente tra le specie, quella che più di tutti ha saputo sviluppare l’arte, la
filosofia e infine la scienza, e che grazie a questa scienza ha ottenuto gli strumenti per predominare
sul pianeta – ma infine sarà proprio a causa di questa sua grandezza che l’uomo dovrà passare il
testimone ad una specie migliore della sua, che lui stesso avrà generato grazie agli strumenti che
quella scienza gli ha offerto. L’evoluzionismo, in questo caso, viene utilizzato prima per portare
l’uomo in alto, e poi alla rovina, secondo una linea circolare di cui l’uomo è però il protagonista
solo fino ad un certo punto. La parte discendente della curva vede l’uomo scomparire in favore di
una progenie robotica generata dall’uomo stesso che renderà noi esseri umani inutili.

64 «Our speculation ends in a supercivilization, the synthesis of all solar-system life, constantly improving and
extending itself, spreading outward from the sun, converting nonlife into mind. Just possibly there are other such
bubbles expanding from elsewhere. What happens if we meet one? A negotiated merger is a possibility, requiring only a
translation scheme between the memory representations. This process, possibly occurring now elsewhere, might convert
the entire universe into an extended thinking entity, a prelude to even greater things» (ivi, p. 116).
67

Alcuni transumanisti si rendono conto del peso di ciò che propongono, altri meno. Tra Kurzweil e
Moravec, bisogna confessare che Kurzweil, oltre che essere il più moderato, è quello che più
sembra rendersi conto delle implicazioni a livello anche filosofico che questa sostituzione
comporterà. Per lui, l’avvento del robot, più che essere una verità da accettare ad ogni è prima di
tutto una realtà, cioè qualcosa che sì sta avvenendo, ma che dovrà anche essere affrontata con
consapevolezza:

«The twenty-first century will be different. The human species, along with the computational
technology it created, will be able to solve age-old problems of need, if not desire, and will be
in a position to change the nature of mortality in a postbiological future. Do we have the
psychological capacity for all the good things that await us? Probably not. That, however,
might change as well. Before the next century is over, human beings will no longer be the
most intelligent or capable type of entity on the planet. Actually, let me take that back. The
truth of that last statement depends of how we define human. And here we see one profound
difference between these two centuries: The primary political and philosophical issue of the
next century will be the definition of who we are».65

Tutt’altro tono è quello utilizzato da Hans Moravec per le sue predizioni. Entrambi questi autori, in
quanto transumanisti, intrattengono come caratteristica comune quell’escatologismo a sfondo
tecnico-tecnologico, supportato nel corso dei loro testi da tutto un bagaglio di predizioni, profezie e
visioni; tuttavia tra questi due autori c’è una differenza molto profonda, in quanto le previsioni di
Kurzweil sono spesso pronostici più che profezie vere e proprie e, molto spesso, quasi sempre in
realtà, legati non tanto ad una “concezione generale dell’uomo nel futuro”, come se si potesse
direttamente leggere in un tempo che non è ancora avvenuto (cosa che Moravec sembra poter fare)
quanto piuttosto a situazioni specifiche, le quali, conoscendo come sono oggi, dovrebbero evolversi
in un certo modo – la realtà aumentata ad esempio, il sesso virtuale e così via – e a partire da queste
si sviluppano altre previsioni sul futuro generale dell’uomo, ma come conseguenza. In Hans
Moravec, invece, si ha la sensazione di essere di fronte ad un uomo dal sapere esoterico e che
l’autore stia letteralmente leggendo in un futuro conosciuto solo a lui. Prendiamo un brano da
un’altra sezione del suo testo:

«The postbiological world will host a great range of individuals constituted from libraries of
accumulated knowledge. In its early stages, as it evolves from the world we know, the scale

65 Kurzweil, The Age of Spiritual Machines, cit., p. 2.


68

and function of these individuals will be approximately that of humans. But this transitional
stage will be just a launching point for a rapid evolution in many novels directions, as each
individual mutates by dropping unneeded traits and adding new ones from the growing data
banks. A spectrum of scales will come to exist – from tiny, barely intelligent configurations
for tight spaces to star-spanning superminds for big problems. The distinctions will not
always be clear – a supermind might be composed of myriads of closely cooperating minor
intelligences, analogous in their interactions to an ant colony».66

Per Hans Moravec non costituisce un problema il predire addirittura le modalità in cui si parlerà di
“vita” nel nuovo “postbiological world”, una sorta di palingenesi robotica in cui l’immettersi nel
mondo di nuove forme di vita non-organica, ma intelligenti, causerà una sorta di default del nostro
pianeta con conseguente riinizio in termini di evoluzione, alterazione delle forme di vita e
quant’altro.67
Ma la possibilità che gli uomini vengano a tutti gli effetti sostituiti dai robot è soltanto una delle
possibilità verso cui si declina il termine transumanesimo al di là dei comuni riferimenti a strumenti
quali gli occhiali per la realtà aumentata, macchine che si guidano da sole e altra tecnologia
futuristica, si trovano proposte anche più spinte, tra le quali quella più in voga è forse il
trasferimento della nostra coscienza in un corpo non-deperibile, fatto di metalli e materiali sintetici
(come i corpi robotici) al momento della nostra morte, il che renderebbe la nostra dipartita una sorta
di trasmigrazione immanente delle anime, di corpo in corpo, a nostra scelta – e a seconda delle
disponibilità economiche di ciascuno. Semplicemente, la nostra mente verrebbe “scaricata” su delle
chiavette apposite, che potrebbero poi essere reinserite in un altro supporto in grado di leggerle,
permettendoci di ricominciare la nostra vita proprio da dove l’avevamo lasciata. Ray Kurzweil
osserva:

«Actually there won’t be mortality be the end of the twenty-first century. Not in the sense that
we have known it. Not if you take advantage of the twenty-first century’s brain-porting
technology. Up until now, our mortality was tied to the longevity of our hardware. When the
hardware crashed, that was it. For many of our forebears, the hardware gradually deteriorated
before it disintegrated. Yeats lamented our dependence on a physical self that was “but a
paltry thing, a tattered coat upon a stick”. As we cross the divide to instantiate ourselves into
66 Hans Moravec, Mind Children, cit., p. 125.
67 È notevole la differenza rispetto ai pronostici di Kurzweil, anche se entrambi gli autori mantengono comunque un
fortissimo riferimento al futuro, nella convinzione che, comunque sia, oltre ad essere inevitabile sarà uno stato migliore
rispetto al presente (indipendentemente dalla presenza dell’uomo o meno in questo nuovo stato di cose), Kurzweil
chiede soltanto se siamo pronti a tutte le “good things” che stiamo per avere, ma non mette mai neanche lontanamente
in questione che ciò che la tecnologia ci dà siano “cose buone” – questo è dato per scontato.
69

our computational technology, our identity will be based on our evolving mind file. We will
be software, not hardware. […] As software, our mortality will no longer be dependent on the
survival of the computer circuitry. There will still be hardware and bodies, but the essence of
our identity will switch to the permanence of our software. Just as, today, we don’t throw our
files away when we change personal computers – we transfer them, at least the ones we want
to keep. So, too, we won’t throw our mind file away when we periodically port ourselves to
the latest, ever more capable, “personal” computer. Of course, computers won’t be the
discrete objects they are today. They will be deeply embedded in our bodies, brains, and
environment. Our identity and survival will ultimately become independent of the hardware
and its survival. Our immortality will be a matter of being sufficiently careful to make
frequent backups. If we’re careless about this, we’ll have to load an old backup copy and be
doomed to repeat our recent past».68

Con questo si è tratteggiato a sufficienza i contorni filosofici ed ideologici del transumanesimo, uno
dei movimenti ancora più in voga tanto nell’ambito specifico accademico della contesa sull’IA,
quanto nel mondo della ricerca scientifica in generale, la quale spesso (anche senza rendersene
esplicitamente conto) si riallaccia a obiettivi del transumanesimo per condurre avanti le proprie
ricerche e condivide con questo alcune delle sue speranze più forti, come ad esempio gli studi per
invertire il processo gioventù-vecchiaia, la manipolazione genetica e quant’altro.

2. Gli “integrati”

Dovrebbe essere chiaro come per il transumanesimo l’avvento della macchina pensante non sia
soltanto una possibilità, ma una vera e propria destinazione storica per lo sviluppo del genere
umano, il quale a un certo punto del proprio processo di crescita e di avanzamento tecnologico
genera degli esseri i quali gli sono superiori in tutto: intelligenza, forza fisica e longevità. Posto di
fronte ad un confronto che non potrà far altro se non perdere, l’uomo si appresta a scomparire per
far spazio al futuro luminoso della macchina. All’interno del campo dei “pro IA” non tutti
sostengono tesi così estreme: molti pensatori di diversa estrazione culturale e filosofica ritengono
invece l’avvento dell’intelligenza artificiale come qualcosa di possibile, ma non in senso assoluto,
bensì secondo certe prospettive particolari (che vedremo negli autori citati) o che, in ogni caso, non
sarebbero capaci di per sé di determinare uno stravolgimento storico nei modi d’essere dell’uomo.

68 Kurzweil, The Age of Spiritual Machines, cit., pp. 128-129.


70

La rivoluzione robotica certamente opererà un cambiamento importante a livello culturale e


lavorativo, con robot-macchina in grado di svolgere compiti che gli uomini in passato non potevano
svolgere da soli, ma col tempo, proprio come ci si è adattati alle automobili e agli aerei, ci si
adatterà anche a questa nuova condizione senza che per questo l’uomo debba trovarsi di fronte alla
“fine della propria storia” nel mondo. Abbiamo ripreso un termine classico a proposito di diverse
dispute della storia filosofica recente per indicare questo movimento, quello degli “integrati”:
costoro hanno optato per un’accettazione “condizionale”, comunque tendenzialmente positiva, nei
confronti del problema dell’intelligenza artificiale. L’IA è possibile, sostengono, e lo sarà ancora di
più in futuro, ma pur accettandone le conseguenze, anziché estremizzarle, hanno preferito integrarle
con la realtà quotidiana degli esseri umani, finendo per immaginare scenari di convivenza piuttosto
che di esclusione reciproca tra l’uomo e la macchina.

a. Douglas Hofstadter

È quasi impossibile trovare un manuale di storia della robotica che non citi quello che è
universalmente considerato uno dei maggiori testi della filosofia contemporanea, il libro del 1984
Goedel, Escher, Bach, di Douglas R. Hofstadter. Quale sia il tema di questo libro, è essa stessa una
domanda complessa, poiché definire questo lavoro una semplice opera “sul significato e le
possibilità dell’intelligenza artificiale” è molto riduttivo, considerato che l’autore riesce a toccare
tanto problemi legati al mondo dell’IA quanto la logica, la biologia e la musica, tutto in un unico
volume. Aiutiamoci con una presentazione tratta dal libro di Renzo Montomoli, La filosofia
mente/cervello:

«Il volume di Douglas R. Hofstadter, Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante… è
un’opera straripante di idee, di conoscenze e di problemi; un libro affascinante che, con
un’ampiezza di 852 fittissime pagine, sviluppa un discorso estremamente articolato nel
tentativo di dare una risposta ad una serie di domande che insorgono quando si affronta il
problema arduo dello status logico e ontologico della mente e il rapporto fra mente e cervello.
“Lo scopo principale di questo libro – chiarisce tardivamente Hofstadter – è quello di indicare
quale tipo di rapporto c’è fa il software della mente e lo hardware del cervello”. Ma, a questo
punto, il lettore si è già avventurato, per 328 pagine, nel vortice dei problemi sollevati
dall’autore, fisico di formazione, studioso di intelligenza artificiale (IA), ma dotato di
competenza eccezionale anche in ambito biologico, neurofisiologico, psicologico e filosofico.
Douglas R. Hofstadter è uno scienziato che sa coniugare cibernetica e musica, arte e principi
71

della fisica, logica formale e psicologia all’insegna della fantasia creativa; ed è una figura già
classica di moderno pensatore onnilaterale».69

Avendo fatto queste considerazioni preliminari, ovvero che il libro è di per sé molto complesso e
che mettere in luce un aspetto sopra gli altri non può che fare un torto a questa radicale complessità
di fondo, per quanto riguarda le intenzioni di questo lavoro, si potrebbe dire che il problema di cui
si occupa Hofstadter è quello della cosiddetta emergenza – il rapporto tra l’hardware e il software –
ovvero il domandarsi se la coscienza, l’IA vera e propria, sia qualcosa che possa emergere nei fatti
dallo hardware, come si augurano i transumanisti, oppure non possa, come sostengono gli scettici, o
se possa esserci una terza via rispetto a questo problema, non ancora considerata. Ed è proprio
questa la strada percorsa da Hofstadter. Abbiamo definito la posizione degli integrati in genere
come quella di chi ritiene plausibile l’intelligenza artificiale, ma a certe condizioni, quindi non
“sempre e in assoluto” come invece credono i transumanisti. Hofstadter rientra pienamente in
questa categoria in quanto, da studioso della robotica e ricercatore esso stesso, egli crede che come
un qualsiasi altro organismo in grado di comprendere se stesso, anche gli esseri robotici col tempo
potranno arrivare a sviluppare una forma di coscienza “evolvendo” come qualsiasi altro essere
naturale; e tuttavia sarebbe sbagliato, secondo lui, parlare di un’emergenza vera e propria della
coscienza (software) dalla struttura fisica del robot (hardware). La questione è da impostare
piuttosto in termini di “traduzione di un livello nell’altro”: il software e lo hardware, la coscienza e
la base inorganica sarebbero due volti diversi della stessa cosa, ma letta su piani differenti. Qui la
nozione base è quella di livello funzionale. Scrive Hofstadter: «La flessibilità dell’intelligenza
deriva dal grandissimo numero di regole e di livelli differenti».70
L’organismo naturale, umano e animale, evolve in rapporto ad un ambiente complesso che egli deve
sempre più cercare di affrontare e comprendere. Questo sviluppo comporta, per l’organismo in
questione, una sempre maggiore complessità strutturale, la quale finisce col generare una
molteplicità di piani (livelli, appunto) attraverso i quali l’organismo può essere compreso e descritto
da un osservatore esterno. Questi livello solo inizialmente sono semplici, cioè meccanici, composti
di strutture basilari della vita – l’atomo, per il corpo, il neurone per la mente; proseguendo con lo
sviluppo, il corpo genera livelli di struttura non strettamente materiali, cioè il livello del simbolo, il
significato. Con ciò, dal corpo si è generato un altro livello, quello della mente, che ora gli si
contrappone. Ma è davvero di contrapposizione che si tratta?

69 Renzo Montomoli, La filosofia mente/cervello, Torino, Genesi Editrice, 2018, p. 13.


70 Douglas R. Hofstadter, Gödel Escher Bach, un’Eterna Ghirlanda Brillante, tr.it. di Barbara Veit, Milano, Adelphi,
1984.
72

Per comprendere il meccanismo di produzione del pensiero, sostiene Hofstadter, occorre concepire
il cervello come un grande sistema gerarchico complesso dove, ad ogni livello funzionale,
corrisponde una diversa descrizione. I livelli funzionali del cervello da lui descritti sono, in ordine
gerarchico, i seguenti:
1) il livello delle connessione sinaptiche tra neuroni (o cellule cerebrali);
2) il livello dei simboli, ipotetici complessi di neuroni che elaborano informazione su scala ridotta, i
simboli sono la sede dei concetti e vengono attivati da stimoli provenienti dall’esterno;
3) il livello dei sottosistemi, ciascuno dei quali è una “costellazione di simboli che può essere
attivata separatamente sotto il controllo del sistema stesso”. I sottosistemi sono quasi sottocervelli
indipendenti capaci di attivarsi l’un l’altro e interagire, contribuendo così a elaborare informazioni
su larga scala. Ora, potendo i sottosistemi costruire autorappresentazioni, cioè rispecchiarsi l’un
l’altro, il sé e la coscienza potrebbero trovare la loro collocazione proprio in un apposito ipotetico
complesso sottosistema. L’autoconsapevolezza sarebbe, dunque, una diretta conseguenza della
complessità del cervello. Con queste premesse, il passo per immaginare un parallelo fra calcolatore
e cervello è breve: la rete neurale corrisponde allo hardware, mentre l’attività cerebrale complessiva
corrisponde al software, ossia alla totalità dei programmi eseguibili.71
Fin qui il processo di argomentazione è abbastanza canonico, secondo le linee guida
dell’evoluzionismo classico: un organismo si sviluppa secondo una complessità crescente, come in
Spencer, fino a generare la coscienza come capacità di autorappresentazione, garantita proprio da
quella complessità originaria voluta dall’evoluzione, legge comune a tutti gli esseri naturali.
Cosa c’è di diverso dal transumanesimo, una volta posta l’equiparazione della mente al software?
Con questa equazione, si ottiene che l’intelligenza artificiale emerge dall’hardware proprio come
una coscienza umana vera e propria, quasi un’anima, frutto del processo evolutivo comune a
entrambi l’uomo e il robot. La grande differenza viene introdotta quando Hofstadter afferma la
propria tesi secondo cui è impossibile spiegare un livello più alto (la mente) a partire semplicemente
da una somma di livelli più bassi, come il livello atomico, o neuronale. Un nuovo livello richiede
contemporaneamente un nuovo linguaggio adatto a descriverlo, che il livello precedente non poteva
offrire; così, il linguaggio degli atomi e dei neuroni non può bastare a descrivere il livello della
coscienza. Questa posizione, secondo cui uno strato superiore può essere ridotto alla somma delle
sue particelle inferiori, è conosciuta come riduzionismo e in genere è associata alla scienza e più in
genere all’empirismo, secondo cui si potrebbe ridurre il mondo del significato a un semplice
aggregato della materia sottostante. Secondo Hofstadter, questo è impossibile:

71 Cfr. Montomoli, La filosofia… cit., p. 16.


73

«Sono convinto che la spiegazione dei fenomeni emergenti nel cervello, per esempio idee,
speranze, immagini, analogie e infine la coscienza e il libero arbitrio, sia basata su un qualche
tipo di Strano Anello: un’interazione tra livelli in cui il livello più alto torna indietro fino a
raggiungere il livello più basso e lo influenza, mentre allo stesso tempo viene determinato da
esso. In altre parole c’è una risonanza tra diversi livelli che si autorafforza […] il sé nasce nel
momento in cui ha il potere di riflettere su se stesso. Questa […] non dev’essere presa come
una posizione antiriduzionistica. È una posizione che semplicemente suggerisce che una
spiegazione riduzionistica della mente, per essere comprensibile, deve contenere concetti non
rigidi come livello, corrispondenza, significato. In linea di principio non ho alcun dubbio che
esista una spiegazione del cervello totalmente riduzionistica ma incomprensibile; il problema
è come tradurla in un linguaggio che noi stessi possiamo capire perfettamente. Sicuramente
non ci serve una descrizione in termini di posizioni e quantità di moto delle particelle;
vogliamo una descrizione che colleghi l’attività neuronica ai segnali (fenomeni di livello
intermedio) e che colleghi, a sua volta, i segnali ai simboli e ai sottosistemi, compreso il
simbolo del sé di cui si presume l’esistenza».72

Tra il livello dell’atomo/neurone e quello della mente/coscienza non c’è pertanto contrasto, secondo
Hofstadter, poiché l’uno può spiegare l’altro, secondo la teoria classica per cui la mente emerge “dal
corpo”, ma il livello superiore è poi necessario per rendere conto tanto di se stesso quanto del livello
inferiore, di modo che non si possa mai affermare la semplice prevalenza dell’uno sull’altro, ma la
necessaria compresenza di entrambi, tanto a livello fisico-causale, quanto a quello di descrizione
fenomenica. Quello che lui definisce, con un’espressione metaforica, lo Strano Anello, ovvero
questa struttura per la quale procedendo in avanti con la descrizione si arriva in realtà al punto di
partenza, così come evolvendo verso la mente e la coscienza, analizzando questo percorso, ci si
trovi a scoprire come queste originino in verità dal neurone, quanto c’è di più piccolo nella catena
elementare dell’organismo, e invece andando indietro verso il neurone come si renda necessario un
linguaggio più evoluto di quello semplicemente neuronale, perché il neurone stesso venga
adeguatamente compreso. Di conseguenza, per Hofstadter la mente non emerge dal corpo in senso
assoluto, ma corpo e mente sono piuttosto l’uno la traduzione dell’altro su un altro livello: «Olismo
e riduzionismo sono considerati dall’autore come due atteggiamenti complementari, anziché
contrapposti».73
Se ora si riprende l’analogia fatta prima tra corpo/hardware e mente/software, si può comprendere
la ragione per cui la posizione di Hofstadter vada considerata quella di un integrato e non di un

72 Hofstadter, Gödel, Escher…, cit., p. 769.


73 Montomoli, La filosofia mente/cervello, cit., p. 19.
74

transumanista, come potevano essere Moravec o Kurzweil. L’intelligenza artificiale, infatti, secondo
questa prospettiva che la considera plausibile come una stratificazione del livello più originale
dell’hardware, non viene negata, ma non ottiene tuttavia nemmeno quello statuto di “anima
incarnata”, quasi in senso platonico-agostiniano, che i transumanisti avrebbero voluto conferirle, in
quanto questa IA non è qualcosa di a sé stante, ma lo stesso hardware, considerato sotto un livello
di stratificazione superiore: tra software e hardware esiste quello che Hofstadter chiama
isomorfismo, ovvero essi sono “la stessa cosa”, detengono la stessa struttura, pur alterandosi nel
passaggio tra un livello e l’altro mantiene la medesima fisionomia di fondo.
L’intelligenza artificiale è quindi l’hardware che riflette su se stesso, non però un’anima capace di
fare dei robot qualcosa come una specie a se stante oppure addirittura un alter ego dell’essere
umano.

3. Gli “scettici”

Dopo aver considerato il polo positivo nei riguardi della questione dell’intelligenza artificiale, nella
sua variante estrema, quella del transumanesimo, e in quella moderata, esemplificata dal lavoro di
Hofstadter, passiamo alla considerazione delle posizioni critiche verso la possibilità
dell’intelligenza artificiale. Tralasciando, almeno per ora, John Searle, consideriamo in primis la
posizione di Hubert Dreyfus, il quale deve essere considerato come un autore canonico per quanto
riguarda la critica all’intelligenza artificiale, avendo proposto delle vere e proprie “obiezioni di
riferimento” alla robotica, le quali vengono utilizzate in maniera più o meno consapevole anche da
persone non strettamente addette ai lavori. Esse ruotano tutte intorno ai concetti fondamentali di
ottimismo/pessimismo, il che ci porterà a fare delle riflessioni sulla natura di queste critiche e sul
vantaggio che esse effettivamente comportano per i “negazionisti” dell’IA, quale è chi scrive, e
quale la fenomenologia dal punto di vista da cui la stiamo considerando.
Oltre a Dreyfus, verranno trattati come appartenenti a questa categoria di critici anche altri due
teorici, Jarron Lanier e Bill Joy, i quali esprimono due tipi di preoccupazione diversa nei confronti
dell’intelligenza artificiale e del relativo dibattito: il primo esprime preoccupazione soprattutto per
la qualità del dibattito “culturale” circa la IA, con fazioni di pensiero che, piuttosto che argomentare
in maniera razionale le loro posizioni, si abbandonano a fantasie e profezie proprie del millenarismo
più sfrenato; il secondo, invece, si preoccupa che queste profezie possano rivelarsi reali, finendo
con lo spazzare via un genere umano che si ritrova ad essere sempre più estraneo nel mondo che
egli stesso ha creato.
75

Questi tre autori, a modo loro, espongono tutti scetticismo circa l’attuale impostazione della ricerca
nel campo dell’IA: chi critica l’ottimismo di fondo dei ricercatori “pro IA”, chi critica le intenzioni
di fondo con cui viene condotta questa ricerca e chi teme gli effetti che un eventuale successo in
quest’ambito potrebbe avere, tutti e 3 pongono dei limiti molto forti all’incessante progresso che
anno dopo anno si ottiene in quest’ambito.

a. Hubert Dreyfus

«We have seen that Bar-Hillel and Oettinger, two of the most respected and best-informed
workers in the field of automatic language translation, agree in their pessimistic conclusions
concerning the possibility of further progress in the field. Each has realized that in order to
translate a natural language, more [corsivo nostro] is needed than a mechanical dictionary –
no matter how complete – and the laws of grammar – no matter how sophisticated. The order
of the words in a sentence does not provide enough information to enable a machine to
determine which of several possible parsings is the appropriate one, nor do the surrounding
words – the written context – always indicate which of several possible meanings is the one
the author had in mind».74

Il paragrafo appena citato, tratto dal libro di Dreyfus What computers can’t do, è dirimente per
quanto riguarda l’impostazione fondamentale dell’autore nei riguardi del problema in questione: vi
compaiono infatti tutte e due le prospettive secondo le quali Dreyfus affronta il problema dell’IA.
Da una parte si fa riferimento all’ottimismo, a parer suo immotivato, con cui i ricercatori nel campo
della robotica portano avanti le loro soluzioni e le loro scoperte, dall’altra si fa riferimento a quel
more75 che è in grado secondo lui di fare la differenza tra ciò che è un computer e ciò che è un robot
e che deve quindi anche consentire di distinguere ciò a cui questi due diversi tipi di enti possono
aspirare. Le due linee guida in questo caso, quindi, sono l’aver impostato la critica alla concezione
pro-IA in termini di ottimismo/pessimismo, e l’aver messo a confronto l’uomo e la macchina, un
confronto però che la macchina è destinata a perdere.
Nel capitolo terzo, quando si giungerà a considerare il problema dell’intelligenza artificiale dal
punto di vista della fenomenologia, si esaminerà anche per quale motivo questo autore, che può
essere considerato l’esemplare perfetto di “critico dell’IA della prima generazione”, ha causato più
danni che non vantaggi impostando il problema in questi termini specifici. Occorre vedere, infatti,
se rinfacciare alla robotica di non poter fare o raggiungere alcune cose abbia un vero effetto

74 Dreyfus, What computers can’t do, cit., p. 19


75 Qui evidenziato mediante il nostro corsivo.
76

destruens nei suoi confronti, o se non la metta piuttosto in grado di svilupparsi ancora di più per
aggirare i limiti che le vengono imposti da una critica prettamente empirica, incentrata su limiti
storico-fattuali e non intrinseci in senso ontologico (quindi superabili). Dreyfus, nel suo libro,
affronta a partire da prospettive sempre differenti uno stesso argomento di fondo, che l’ottimismo
dei ricercatori pro IA è immotivato, se confrontato con gli innumerevoli fallimenti e imperfezioni
nei risultati che questi ricercatori hanno raggiunto nella loro ricerca tra gli anni ’50 e ’60. Da questo
punto di vista, si può dire che Dreyfus getti un alone di pessimismo sulla ricerca nell’ambito della
robotica, facendo notare come, in seguito a piccoli successi, ci sia stata un’esplosione di entusiasmo
totalmente immotivata, che ha gonfiato le aspettative fino all’estremo senza però poter conseguire
nei risultati nulla che fosse anche solo lontanamente rapportabile alle speranze che si erano avute in
merito.
Il secondo concetto guida, legato al pessimismo, è quello del “parallelismo impossibile” tra uomo e
macchina, dove questi due enti vengono posti a confronto senza però che questo confronto possa
mai realizzarsi per davvero, in quanto è radicale la diversità che distingue l’uno dall’altro.
L’esperienza umana del mondo ha qualcosa in più, che il robot non sarà mai in grado né di
realizzare né di contraffare in maniera realistica, negando quindi la possibilità di un imitation game
di successo, com’era invece nelle speranze di Turing e di molti altri.
Tra gli argomenti già visti (l’argomento di Ada Lovelace, per esempio) c’è ad esempio quello
secondo cui «machines cannot be intelligent because they can only do what they are instructed to
do».76 Ma l’argomentare di Dreyfus diventa molto più interessante quando introduce una capacità
nuova propria dell’essere umano, di cui la macchina, però, non disporrebbe. Si è detto nel primo
capitolo quanto fosse difficile per i programmatori fare in modo che un robot si avvicinasse anche
solo da lontano a comprendere quello che per un essere umano è normale “buonsenso” (la cosa
meglio distribuita al mondo, secondo Cartesio): Dreyfus chiama questa capacità «the human ability
to distinguish the essential from the inessential».77 Dreyfus si sofferma ampiamente sulla
spiegazione della ragione della difficoltà di parlare alla macchina, di farle capire certe cose che per
noi umani sono assolutamente scontate: una macchina non ha alcun mezzo proprio, a lei
connaturato, per distinguere ciò che è essenziale da ciò che non lo è. Registrando dei suoni, una
macchina non riesce a distinguere naturalmente il discorso vero e proprio che qualcuno le sta
facendo dai rumori di fondo, come ad esempio il suonare di un clacson in lontananza o il generico
brusìo della città: la macchina registra tutto indifferentemente, finendo col non-comprendere di ciò
che le viene detto, a partire dall’incapacità di distinguere tra ciò che viene detto “a lei” e quanto,
invece, è semplice rumore ambientale. Dreyfus porta come esempio lo sviluppo del riconoscimento

76 Ivi, p. 22.
77 Ivi, p. 29.
77

di pattern, come ad esempio pattern visivi o uditivi, la tecnologia che sta alla base del
“riconoscimento facciale”:

«More recent programs, rather than normalizing the pattern, seek powerful operators which
pick out discriminating traits but remain insensitive to distortion and noise. But human
beings, when recognizing patterns, do not seem to employ these artificial expedients either. In
those special cases where human beings can articulate their cues, these turn out not to be
powerful operators which include sloppy patterns and exclude noise, but rather a set of ideal
traits which are only approximated in the specific instances of patterns recognized. Distorted
patterns are recognized not as falling under some looser and more ingenious set of traits, but
as exhibiting the same simple traits as the undistorted figures, along with certain accidental
additions or omissions. Similarly, noise is not tested and excluded; it is ignored as inessential.
Here again, we note the human ability to distinguish the essential from the inessential».78

Con questo, Dreyfus sottolinea una importante differenza circa il modo d’essere delle macchine
rispetto a quello degli umani: è la stessa maniera di fondo di percepire la realtà ad essere diversa da
quella delle macchine. Non si tratta soltanto di essere più o meno percettivi, bensì è la struttura
stessa della percezione a variare essenzialmente tra l’uomo e la macchina.
Questa distinzione di struttura è ancora accentuata dai riferimenti che Dreyfus fa all’importanza
della situazione per l’essere umano, e di quanto ciò distingua l’esperienza umana dalla realtà
rispetto a quella robotica e macchinica. Una macchina conosce soltanto cose e stati-di-cose, nel
linguaggio atomistico di Wittgenstein, ovvero vive in una descrizione del mondo alfanumerica e
non-storica, l’unica che essa è in grado di comprendere. Ma, si chiede Dreyfus, questa descrizione
del mondo è realistica a sufficienza per rendere ad una macchina l’idea di cosa sia un mondo? È
questo il mondo, chiede Dreyfus, corpi in moto in spazi indefiniti e stati-di-cose? È facile
rispondere negativamente, se si è degli esseri umani. I ricercatori a favore dell’IA, tuttavia, devono
crederlo e convincere anche gli altri che la realtà stia proprio in questi termini, poiché questo
linguaggio non-storico e non-culturale è l’unico che le macchine riescono a decifrare:

«But machines lack of practical intelligence. They are “existentially” stupid in that they
cannot cope with specific situations […] To overcome this disability, AI workers must
develop an a-temporal, nonlocal, theory of ongoing, situated, human activity. The originality,
the importance, and the course of work in machine communication in natural language is that

78 Ivi, p. 33.
78

the machine must use its formalism to cope with real-life situations as they occurr. It must
deal with phenomena which belong to the situational world of human beings as if these
phenomena belonged to the objective formal universe of science».79

La semplicità dell’esperienza umana del mondo, sostiene Dreyfus rifacendosi a Essere e tempo di
Heidegger, è mediata quindi da una capacità dell’uomo di comprendere a fondo la complessità di
questo stesso mondo in cui un uomo si trova immerso a vivere. Ciò che per un uomo è però
scontato, immediato e non-riflesso, con tutti i problemi che questo ovviamente comporta in termini
di riflessione filosofica, per una macchina è semplicemente inafferrabile. L’uomo e la macchina
sono costituzionalmente separati da un abisso che non può essere colmato.

b. Bill Joy

Ciò che Dreyfus esprime è una diffidenza molto forte dovuto al gap tra i propositi della tecnologia,
e soprattutto della tecnologia robotica, e i risultati effettivi da questa conseguiti nel corso dell’intero
Novecento. Tutt’altra è la preoccupazione di Bill Joy; contraria, a dire il vero. Questa citazione è
un’ottima introduzione al suo pensiero: «We are on the cusp of the further perfection of extreme
evil».80
Queste parole possono sembrare quelle di un fanatico, come per certi aspetti può essere Kackzinsky,
l’ultimo autore che verrà esaminato alla fine di questo capitolo, un apocalittico; una figura poco
esperta e lontana dalla realtà effettiva della ricerca, la quale invoca apocalisse e fine del mondo per
una semplice “mancanza di competenza” nei confronti di ciò di cui si sta parlando. Tutto al
contrario. Come Ray Kurzweil e Hans Moravec, Bill Joy è un tecnico e uno dei massimi esperti di
sistemi intelligenti della seconda metà del secolo scorso. Tra i suoi lavori e collaborazioni passate,
ci sono alcuni dei più importanti sviluppi dell’informatica contemporanea, ad alcuni dei quali siamo
così abituati che ci sembra di non poterne fare a meno: tra questi, ad esempio, la possibilità di avere
un computer privato (workstations) anziché un’unica piattaforma – gigantesca! – alla quale
operatori diversi dovrebbero accedere contemporaneamente, ad orari più o meno prefissati,
dividendosi tra loro le risorse e le capacità di calcolo della macchina. Sam Williams dà un breve
acconto della carriera di Bill Joy nel saggio Storia dell’intelligenza artificiale:

«Il percorso di Joy da hacker dei bassifondi a guru tecnologico è esso stesso un riflesso del
crescente potere e della crescente complessità del software. Studente molto dotato per la

79 Ivi, p. 113.
80 Bill Joy, Why the future doesn’t need us, «Wired», 04/2000, p. 4.
79

matematica, Joy si innamorò dei computer nei suoi primi anni alla University of Michigan
[…] Per la sua tesi di laurea, passò alla University of California a Berkeley. Era il 1975, lo
stesso anno in cui Ken Thompson, scienziato alla AT&T e creatore di UNIX, ed ex studente di
Berkeley, incominciò un anno sabbatico alla sua alma mater. Il dipartimento di scienza
informatica di Berkeley aveva appena dato fondo alle proprie casse per acquistare un nuovo
computer mainframe, un DEC 11/70, e Thompson e alcuni membri del dipartimento erano in
procinto di scrivere una nuova versione di UNIX da utilizzare come sistema operativo di
quella macchina. Intrigato dalla prospettiva di lavorare su quello che al tempo veniva
considerato un supercomputer, Joy riuscì a entrare nel gruppo provando le sue capacità di
programmazione con un software scritto in Pascal. Quando Thompson finì il suo soggiorno a
Berkeley, Joy e il suo amico Chuck Haley presero il controllo del progetto di riscrittura di
UNIX, creandone una versione completamente nuova, la Berkeley Software Distribution, o
BSD. […] Una parte del successo di BSD fu la libertà di licenza, che consentiva a chiunque di
modificarlo liberamente per poterlo utilizzare su elaboratori che non fossero il DEC 11/70…
gli sviluppatori di ARPAnet, un antenato in ambito accademico di internet, cominciarono a
utilizzare BSD come principale sistema operativo per il crescente assortimento dei protocolli
internet. All’inizio degli anni Ottanta alcune aziende incominciarono a capire i vantaggi di un
sistema operativo a costi zero, liberamente modificabile. Una di quelle compagnie era una
start-up di Palo Alto, in California, la Sun Microsystems».81

Ragazzo prodigio, da amante della matematica ad appassionato costrutto di software, nel corso della
sua vita Bill Joy ha creato diverse tra le tecnologie fondamentali dell’informatica contemporanea,
ricostruendola radicalmente tanto dal punto di vista culturale, con la “massificazione” dei computer,
quanto sotto il profilo puramente ingegneristico: una rivoluzione enorme nell’ambito di quello che
sarebbe diventato, proprio grazie a lui, il PC, personal computer. Il resoconto di Sam Williams
termina così:

«Nel 1990 il potere di Joy all’interno della Sun Microsystems era cresciuto al punto che gli fu
possibile ottenere un laboratorio privato tra le montagne del Colorado dove, assieme a un
selezionato gruppo di collaboratori, si mise a lavorare attorno a progetti avanzatissimi tra cui
Java – un efficiente linguaggio di programmazione sviluppato da James Gosling – e Jini: un
insieme di strumenti basati su Java progettati per dare la possibilità a macchine le più diverse,
dai mainframe ai personal computer, di dialogare e di scambiare informazioni tramite

81 Williams, Storia…, cit., pp. 85-87.


80

internet. Negli ultimi vent’anni, Joy ha dedicato molte delle proprie energie a imbrigliare
quelle forze che negli anni Settanta aveva contribuito a scatenare. In un discorso tenuto nel
1999 di fronte ai colleghi sviluppatori di software, Joy ha descritto la propria carriera come un
prolungato sforzo di “gestire la complessità” di sistemi e hardware. “Si hanno enormi
vantaggi nel creare progetti semplici e puliti”, dice Joy».82

Nonostante la sua grande fama in ambito accademico, Bill Joy resta sconosciuto ai più fino al 2000
quando rilascia alla rivista specializzata Wired un articolo/intervista dal titolo piuttosto inquietante,
Why the Future doesn’t need us. In questo articolo, Joy prende apertamente posizione nel dibattito
nei riguardi dell’intelligenza artificiale rivelando le sue personali preoccupazioni nei confronti di un
tema che sembra capace di stupire in continuazione anche i più esperti, nonché di metterli di fronte
a scoperte nuove e totalmente inaspettate. È proprio con una sorta di “risveglio dal sonno
dogmatico”, per citare Kant, che inizia l’articolo di Bill Joy, il quale racconta di una conversazione
alla quale aveva avuto possibilità di assistere tra Ray Kurzweil e John Searle, filosofo critico nei
confronti dell’IA:

«I had missed Ray’s talk and the subsequent panel that Ray and John had been on, and they
now picked right up where they’d left off, with Ray saying that the rate of improvement of
technology was going to accelerate and that we were going to become robots or fuse with
robots or something like that, and John countering that this couldn’t happen, because the
robots couldn’t be conscious. While I had heard such talk before, I had always felt sentient
robots were in the realm of science fiction. But now, from someone I respected, I was hearing
a strong argument that they were a near-term possibility. I was taken aback, especially given
Ray’s proven ability to imagine and create the future. I already knew that new technologies
like genetic engineering and nanotechnology were giving us the power to remake the world,
but a realistic and imminent scenario for intelligent robots surprised me».83

Questo brano è importante perché introduce i due temi fondamentali di cui si occupa Joy nel suo
articolo, uno dei quali è l’impossibilità di fare predizioni e quindi di controllare il campo di
sviluppo dell’intelligenza artificiale (nonché della tecnologia in genere), la quale sviluppa quasi “da
sé” tecnologie con cui l’uomo si ritrova a dover fare i conti, quasi non le avesse sviluppate lui
stesso; l’altro è la preoccupazione per l’ingegneria genetica e le nanotecnologie, una

82 Ibidem.
83 Joy, Why the future… cit., p. 1.
81

preoccupazione che distingue Bill Joy da altri pensatori più interessati al problema dell’IA nello
specifico, anziché a quello della tecnologia nel suo complesso.
Questo “risveglio dal sonno dogmatico” di Joy non ha tuttavia il valore di una sorpresa cultural. La
difficoltà di questo stesso risveglio in ambito tecnologico è che questo è continuo e non ha mai fine,
dal momento che persino autori navigati ed esperti come lui si ritrovano a scoprirsi impotenti di
fronti a scenari che fino a poco fa erano stati relegati nell’ambito della semplice immaginazione.
Questa semplice introduzione è più che sufficiente a far capire la posizione di Joy a proposito della
concezione umanistica del sapere, secondo cui sarebbe l’uomo a generare e governare i processi
tecnologici che lui è convinto di mettere in moto. È certamente vero che è l’uomo a dare origine a
questi processi, ma una volta originati essi finiscono con il creare a loro volta una catena di effetti
totalmente imprevisti che non possono essere anticipati a priori, e che finiscono col mettere
inevitabilmente l’uomo nelle mani della sua creazione, anziché questa nelle mani dell’uomo.
Scrive Joy: «The systems involved are complex, involving interaction among and feedback between
many parts. Any changes to such a system will cascade in ways that are difficult to predict».84
È proprio qui che si innesta la seconda preoccupazione di Joy, quella per lo sviluppo dell’ingegneria
genetica e delle nanotecnologie, che lui considera le tecnologie veramente proprie dell’allora
venturo XXI secolo. A differenza della tecnologia sviluppata nel XX secolo infatti, in genere
portata avanti da progetti governativi (si pensi al Progetto Manhattan) e originata, sviluppata e
controllata nell’ambito delle accademie di Stato, la ricerca tecnologica alla fine del ‘900 e nel XXI
secolo ha tutt’altro aspetto: massificata, gestita da privati – Joy stesso ha contribuito a svilupparne
questo aspetto – e lontana dal controllo di un organo centrale, con proliferazione dei centri di
sviluppo tecnologici e aumento della loro ingovernabilità. Questa difficoltà nel controllo, unita alla
facilità con cui gruppi di privati, come terroristi, possono riuscire ad accedere a tecnologie molto
pericolose, rende quella della tecnologia nel XXI secolo una partita pericolosa, alla quale i giocatori
partecipanti devono prestare molta attenzione.
C’è tuttavia anche un’altra caratteristica fondamentale che allontana queste nuove tecnologie da
quelle del XX secolo e le rende più minacciose:

«We have yet to come to terms with the fact that the most compelling 21st-century
technologies – robotics, genetic engineering and nanotechnology – pose a different threat then
technologies that have come before. Specifically, robots, engineered organisms and nanobots
share a dangerous amplifying factor: they can self-replicate».85

84 Ivi, p. 2.
85 Ivi, p. 4.
82

È la possibilità che queste tecnologie dispongono di auto-replicarsi, dando vita, da se stesse, a


qualcosa di altro da sé, che secondo Bill Joy genera quelle possibilità veramente terrificanti per
l’uomo contemporaneo, di cui ancora non ci si rende ben conto a livello globale a causa della
gradualità con cui questo genere di avvenimenti procedono.
Da una parte si ha lo scenario già ipotizzato (e auspicato) dai transumanisti, secondo cui i robot
finiranno col generare da sé altri robot dando vita ad una vera e propria nuova specie parallela a
quella umana, destinata a entrare con essa in concorrenza. Joy, che non è un transumanista, teme
questa possibilità e la prende per vera, ma i suoi timori sono più ancorati alla realtà e legati
all’eventualità che l’uomo diventi dipendente da un mondo di macchine che generano macchine, in
cui queste finiscano con l’organizzare la realtà umana meglio di quanto l’uomo stesso possa fare,
privandolo di quella libertà che è inerente al modo d’essere dell’uomo e senza cui l’essere umano
non può essere considerato tale.
Dall’altra, ciò che Joy teme è una paura universalmente diffusa nell’ambito della scienza dei
computer, a metà tra realtà e fantascienza, quella del gray goo, una massa autoreplicantesi di robot e
nanorobot, capace di espandersi in maniera tale da soffocare e opprimere lo spazio vitale dell’uomo
(anche a livello fisico) finendo col cancellarlo letteralmente dalla Terra. Il gray goo è un’ipotesi,
come ho detto, quasi fantascientifica, ma i timori che questa massa possa presentarsi a un certo
punto del nostro sviluppo in seguito ad un errore di programmazione, oppure come un destino insito
nelle tecnologie che stiamo sviluppando, fanno percepire chiaramente l’inquietudine di fondo che
permane, anche nel mondo degli stessi ricercatori e tecnici, dietro gli esaltanti progressi della
tecnologia del XXI secolo.
Posto di fronte a queste possibilità e a questi scenari, Joy ammette di non avere soluzioni
praticamente plausibili per andare al di là della situazione attuale, che egli ritiene essere peggiore di
quella degli anni ’40 del secolo scorso a causa della già esaminata “facilità” con cui oggi è possibile
reperire e ampliare questo tipo di tecnologie.
Secondo lui, più che una soluzione pratica, ciò che si rende necessario oggi è un cambio di
prospettiva, che ci renda possibile inquadrare problemi vecchi in un’ottica nuova, non economicista
e slegata dalla logica di mercato del capitalismo contemporaneo:

«I remember from my childhood that my grandmother was strongly against the overuse of
antibiotics. She had worked since before the first World War as a nurse and had a
commonsense attitude that taking antibiotics, unless they were absolutely necessary, was bad
for you. It is not that she was an enemy of progress. She saw much progress in her almost 70-
years nursing career; my grandfather, a diabetic, benefited greatly from the improved
83

treatments that became available in his lifetime. But she, like many levelheaded people,
would probably think it greatly arrogant for us, now, to be designing a robotic “replacement
species”, when we obviously have so much trouble making relatively simple things work, and
so much trouble managing – or even understanding – ourselves. I realize now that she had an
awareness of the nature of the order of life, and of the necessity of living with and respecting
that order. With this respect comes a necessary humility that we, with our early-21st-century
chutzpah, lack at our peril. The commonsense view, grounded in this respect, is often right, in
advance of the scientific evidence. The clear fragility and inefficiencies of the human-made
systems we have built should give us all pause; the fragility of the systems I have worked on
certainly humbles me».86

c. Jaron Lanier

L’ultima delle figure che esaminiamo tra quelle appartenenti alla categoria degli “scettici”, ossia i
critici nei confronti dell’intelligenza artificiale, delle sue pretese e delle sue reali possibilità, è Jaron
Lanier: quest’ultimo occupa un posto particolare nel mondo dei programmatori, un ruolo di cui egli
è consapevole e che, nel corso di conferenze o interviste, lo fa passare per una sorta di “emarginato”
del mondo dell’informatica – un ruolo che egli comunque accetta e rivendica per sé. “Perché ti sei
volto contro la tua stessa parte?” gli viene spesso scherzosamente chiesto alle interviste alle quali
partecipa. Lui ne ride e inizia con i dovuti distinguo.
Dal punto di vista strettamente lavorativo, due sono stati i temi principali di cui Lanier si è
sviluppato come programmatore: il primo è quello della realtà virtuale, un tema che egli stesso,
negli anni ’90, ha contribuito a sviluppare portandolo alla ribalta e facendolo passare dal
marginalismo ad essere un tema comune nel mondo degli appassionati di tecnologia. Ancora oggi
questo è uno tra le cose di cui Lanier si occupa, sebbene nel corso degli ultimi anni il suo interesse
si sia spostato maggiormente verso l’analisi dei rapporti tra venditore e consumatore nel mondo del
mercato tecnologico, con una particolare enfasi sui pericoli che l’utilizzo dei social media
comporta. Lanier, difatti, è un forte critico non soltanto dei social, ma dell’utilizzo smodato della
tecnologia in genere – da qui la fama di qualcuno che ha tradito le proprie origini.
La sua prospettiva è opposta a quella di Bill Joy e molto più vicina a quella di Hubert Dreyfus,
secondo il quale i ricercatori nel campo dell’IA hanno la tendenza ad assumere atteggiamenti
ottimistici che debordano ampiamente dalle reali possibilità consentite dallo stato reale della loro
scienza.

86 Ivi, p. 10.
84

Quello che però per Dreyfus può essere definito come la critica di un “atteggiamento” generico
attuato da parte dei ricercatori dell’intelligenza artificiale, in Lanier diventa il centro di un vero
dogma, come lo chiama lui,87 al quale tutti i sostenitori dell’intelligenza artificiale hanno finito con
il credere ciecamente, sostituendo all’umile scienza propria dei ricercatori delle generazioni passate
un entusiasmo quasi religioso, cieco e totalmente irrazionale, capace di spingere in avanti la ricerca
anche a costo di mettere da parte la realtà.
Questo dogma Lanier lo definisce totalitarismo cibernetico e il suo testo qui considerato, One half
of a manifesto, può esserne considerato una critica. Quello che più interessa di questo autore però
non sono tanto le singole obiezioni ai punti fondamentali del dogma ma l’impostazione generale
con cui egli attacca i transumanisti, i quali incarnano pienamente questo “totalitarismo”.
La sua critica al totalitarismo cibernetico è duplice: da una parte, se ne criticano i dogmi, dall’altra
si critica la maniera con cui questi dogmi sono portati avanti, in maniera irrazionale e senza alcun
riferimento a fatti reali o a dati fattuali della ricerca scientifica. In un certo senso quindi la critica di
Lanier è tanto interna quanto esterna all’oggetto di ricerca: interna perché ne critica le convinzioni,
esterna poiché mette a fuoco la maniera in cui il dibattito viene condotto.

«Here is a partial roster of the component beliefs of cybernetic totalism:


1. Cybernetic patterns of information provide the ultimate and best way to understand
reality.
2. People are no more than cybernetic patterns.
3. Subjective experience either doesn’t exist, or is unimportant because it is some sort of
ambient or peripheral effect.
4. What Darwin described in biology, or something like it, is in fact also the singular,
superior description of all creativity and culture.
5. Qualitative as well as quantitative aspects of information systems will be inexorably
accelerated by Moore’s Law.
And finally, the most dramatic:
6. Biology and physics will merge with computer science (becoming biotechnology and
nanotechnology), resulting in life and the physical universe becoming mercurial;
achieving the supposed nature of computer software. Furthermore, al of this will happen
very soon! Since computers are improving so quickly, they will overwhelm all the other
cybernetic processes, like people, and will fundamentally change the nature of what’s
going on in the familiar neighborhood of Earth at some moment when a new “criticality”

87 Jaron Lanier, One-half of a manifesto, «Wired», 2000, p. 1.


85

is achieved – maybe in about the year 2020. To be a human after that moment will be
either impossible or something very different than we now can know».88

L’intento fondamentale di Lanier nell’attaccare il totalitarismo cibernetico e quindi il


transumanesimo è quello di mostrare come alla base del transumanesimo stesso ci sia, in realtà, un
esplicito abbandono delle domande filosofiche fondamentali della scienza dei computer, in favore di
un atteggiamento di fede cieca – che lui vede incarnato nel postmodernismo – e di come ciascuno di
questi punti si fondi esso stesso su un mancato rapporto con la realtà effettiva delle cose, mostrando
come il transumanesimo non sia tanto il tentativo di dare una risposta filosofica ad alcune domande
essenziali, quanto al contrario il tentativo di evitare quelle domande, a partire da un atteggiamento
di fondo fanatico che renda quelle stesse domande inessenziali e non necessarie. Di ciò verranno
presi in esame due esempi, uno preso dal mondo dell’evoluzionismo darwiniano, idolatrato dai
transumanisti, e l’altro da quello che Lanier chiama il “circolo dell’empatia”.
Il primo di questi esempi, volto a mostrare come su base darwiniana si possa dire letteralmente
“qualunque cosa”, non importa quanto slegata dalla realtà, e come questa possa essere difesa
aprioristicamente ritenendo insensata alla base qualsiasi altra possibilità di critica, è il libro
recentemente pubblicato al tempo di questa intervista (2000) di Craig T. Palmer e Randy Thornill,
The natural history of rape, un libro di due psicologi di impostazione evoluzionistica intenzionati a
raccontare lo stupro da un punto di vista, appunto, darwiniano, giustificandolo a livello biologico
come la risposta al bisogno di “spargere i propri geni nel mondo”.89
Ciò che Jaron Lanier vuole veramente mettere in discussione, però, non è il contenuto della tesi in
se stesso, ma l’atteggiamento arrogante con cui questi due autori intendono difendere il loro lavoro,
o, piuttosto, attaccare quello di chi non vi si volesse conformare. Questo spirito poco democratico
viene definito da Lanier campus imperialism, “imperialismo accademico” e riguarda quella
prepotente aria di superiorità che Lanier riscontra a livello psicologico nel mondo accademico
contemporaneo, attribuibile a chi è convinto che la propria teoria possa spiegare tutte le altre e
rendere conto a priori di qualsiasi possibile obiezione, imputandola ad un difetto, o una mancanza,
dell’autore con intento critico. Lanier scrive:

«One example that comes to mind is the recent book, Natural history of rape: biological
bases of sexual coercion, by Randy Thornill and Craig T. Palmer, declaring that rape is a
natural way to spread genes around. We have seen all sorts of propositions tied to Darwin
with a veneer of rationality. In fact you can argue almost any positions using a Darwinian

88 Ivi, p. 2.
89 Ivi, p. 8.
86

strategy. For instance, Thornill and Wilson go as far as to suggest that those who disagree
with them are victims of evolutionary programming for the need to believe in a fictitious
altruism in human nature».90

Con il darwinismo, dice Lanier, si può giustificare sostanzialmente qualsiasi cosa, convalidando
apriori la propria tesi e squalificando, sempre apriori, quella di un altro. Questo atteggiamento non è
soltanto fastidioso a livello morale ma anche pericoloso a livello accademico, poiché rischia di
invalidare qualsiasi tentativo di reale dibattito e dialettica tra punti di vista diversi, il che dovrebbe
essere proprio la base fondamentale, nonché il senso, della vita accademica.
Secondo Lanier l’intelligenza artificiale e la ricerca che la anima stanno vivendo, alla fine del XX
secolo, un vero e proprio momento di stallo, se non addirittura di abbandono e ritirata. Lo
scoraggiamento viene nascosto con “argomenti forti”, i quali non fanno altro che mascherare la
mancanza di risposte vere e proprie ai problemi fondamentali della disciplina. Questo viene tuttavia
coperto con un atteggiamento di arroganza e intolleranza nei confronti delle critiche, in un
meccanismo cieco che si spinge in avanti per inerzia, ma che non può essere veramente accettato:

«The first two or three generations of artificial intelligence researchers took it as a given that
blind evolution in itself couldn’t be the whole of the story, and assumed that there were
elements that distinguished human mentation from other earthly processes. For instance,
humans were thought by many to build abstract representations of the world in their minds,
while the process of evolutions needn’t to do that. Furthermore, these representations seemed
to possesses extraordinary qualities like fearsome and perpetually “common sense”. After
decades of failed attempts to build similar abstractions in computers, the field of AI gave up,
but without admitting it. Surrender was couched as merely a series of tactical retreats. AI
these days is often conceived as more of a craft than a branch of science of engineering. A
great many practitioners I’ve spoken with lately hope to see software evolve but seem to have
sunk to an almost postmodern or cynical lack of concern with understanding how these
gizmos might actually work».91

Della “scientificità” della scienza dei computer è rimasto molto poco, conclude Lanier. Posti di
fronte a una realtà che non corrisponde alle proprie fantasie, i ricercatori pro-IA, anziché correggere
le seconde, hanno scelto di mettere da parte la prima:

90 Ibidem.
91 Ivi, p. 9.
87

«Cyber-Armageddonists have confused ideal computers with real computers, which behave
differently […] We imagine “pure” cybernetic systems but we can only prove we know how
to build fairly dysfunctional ones […] Cybernetic totalists live with their heads in the future
and are willing to accept obvious flaws in present software in support of a fantasy world that
might never appear».92

4. Gli “apocalittici”

Dopo aver esaminato tutte le posizioni intermedie nei riguardi dell’intelligenza artificiale, l’ultima
cosa che ci resta da fare è quella di presentare la meno accondiscendente di tutte, quella degli
“apocalittici”.
Il nome scelto rende bene quale vuole essere la caratteristica fondamentale di questa reazione. I
sostenitori della parte “apocalittica” negano in toto la possibilità che la robotica o la tecnologia in
genere (come nel caso dell’autore scelto, Theodore Kaczynski) possa avere qualunque ruolo
positivo nel mondo contemporaneo o futuro. Qui siamo all’estremo negativo della questione, in cui
viene negato tanto che un’intelligenza artificiale possa esistere, quanto che essa abbia qualche
connotato positivo o che ciò che la anima sia una spinta sincera verso la ricerca di una condizione
migliore per l’uomo nel mondo.
L’autore che abbiano designato come rappresentante di questa categoria è Theodor Kaczynski,
conosciuto con il titolo poco pregevole di “unabomber”. Kaczynski infatti si è reso responsabile
dell’uccisione di 3 persone (episodio di cui parla anche Bill Joy nel suo testo),93 cosa che gli valse
l’ergastolo, durante il quale egli scrisse diversi testi per giustificare il suo gesto e la necessità di
compiere altri atti del genere per risvegliare le coscienze e portarle alla consapevolezza
dell’inevitabilità della rivoluzione, unico modo di salvare gli uomini contemporanei dalla “gabbia di
acciaio” del sistema tecnologico-produttivo capitalistico, un destino di morte per tutti gli uomini
talmente sfortunati da nascere in quest’epoca.
Il testo The Industrial Society and its Future, qui preso in esame e analizzato, introduce il lettore
alla critica del mondo contemporaneo partendo da una situazione in medias res, in cui ad essere
analizzato come primo fenomeno non è tanto “la società industriale”, quanto un movimento del
mondo politico che Kaczynski definisce modern leftism94. Il “modern leftism” rappresenta
92 Ivi, p. 2.
93 Joy, Why the future…. cit., p. 2.
94 Modern leftism è un termine che si preferisce lasciare nell’originale inglese, come altri nel testo, poiché difficile da
rendere nella nostra lingua: leftism, infatti, sarebbe traducibile con “essere-di-sinistra”, ma questa traduzione non
renderebbe giustizia al suffisso –ism inglese, che vuole proprio indicare, insieme, l’essere una tendenza, ma anche
l’attivismo e talvolta l’esagerazione collegati ad una certa pratica.
88

l’attivismo di sinistra proprio degli anni ’90 americani, in cui la sinistra classica, socialista-sociale,
cede il posto ad una nuova sinistra più improntata alla difesa dei diritti civili del mondo liberal,
anziché a quelli propri della classe operaia tipica della sinistra tradizionale. Questa sinistra, negli
anni ’90, legata al mondo politico dei Clinton, viene analizzata da Kaczynski non però in veste
politica bensì come fenomeno storico-sociale, interessante perché rivela alcuni tratti fondamentali
del mondo di oggi fornendo un caso limite, in senso psicanalitico, attraverso cui dal particolare è
possibile arrivare alla verità universale dietro di esso. Non è la politica a interessare a Kaczynski,
bensì la strutturazione sociale del mondo occidentale, di cui la politica è un riflesso: «This is not to
be a POLITICAL revolution […]».95
Secondo Kaczynski, il modern leftism si impianta e si costruisce attorno a due fenomeni
fondamentali, che sono i feelings of inferiority, quello che tradurremmo genericamente con “senso
di inferiorità”, e l’oversocialization, un termine di origine durkheimiana che sta a indicare il grado
di conquista che una società opera sui suoi membri pesando sulla loro individualità con i propri
valori sociali, imponendogli abitudine e modi di essere estranei rispetto a quelli strettamente
individuali. Questi due fenomeni, presi insieme, contribuiscono a delineare la psychology of
modern leftism, che viene fatta oggetto d’analisi dall’autore nella prima parte del suo testo.
È evidente come nel mondo del modern leftism questi due fenomeni siano collegati tra loro, nel
senso che la bontà e la compassione che si esprimono nei feelings of inferiority della sinistra
contemporanea siano legati all’iper-eticizzazione dell’oversocialization, dove le tendenze naturali
dell’individuo sono soppresse e rimpiazzate da altre, docili ed edulcorate (è chiaro l’anarchismo di
fondo di Kaczynski).
Tuttavia l’autore nota qualcosa che stona con l’autorappresentazione del mondo di sinistra, e con
l’immagine che questo vuole dare di sé agli altri: quella che lui chiama hostility, un astio di fondo e
un odio che, sebbene diluito in proclami d’amore e di benevolenza, talvolta traluce da certe
espressioni o manifestazioni, quando non esplode per davvero in proteste violente e paralizzanti.
Scrive l’autore:

«21. Leftists may claim that their activism is motivated by compassion or by moral principles,
and moral principle does play a role for the leftist of the oversocialized type. But compassion
and moral principle cannot be the main motives for leftist activism. Hostility is too prominent
a component of leftist behavior; so is the drive for power. Moreover, much leftist behavior is
not rationally calculated to be of benefit to the people whom the leftists claim to be trying to
help. For example, if one believes that affirmative action is good for black people, does it

95 Theodore Kaczynski, The industrial society and its future, Balagne, Editions Hache, 1995, p. 1.
89

make sense to demand affirmative action in hostile or dogmatic terms? Obviously it would be
more productive to take a diplomatic and conciliatory approach that would make at least
verbal and symbolic concessions to white people who think that affirmative action
discriminates against them. But leftist activists do not take such an approach because it would
not satisfy their emotional needs. Helping back people is not their real goal. Instead, race
problems serve as an excuse for them to express their own hostility and frustrated need for
power. In doing so, they actually harm black people, because the activists’ hostile attitude
toward the white majority tends to intensify race hatred.
22. If our society had no social problems at all, the leftists would have to INVENT problems
in order to provide themselves with an excuse for making a fuss».96

La sinistra, sostiene Kaczynski, se per magia tutti i problemi delle minoranze venissero risolti,
avrebbe addirittura bisogno di INVENTARE nuovi problemi, così che la propria spinta verso il
potere venga mantenuta ardente e sempre, perennemente realizzata. Tuttavia, questa spinta verso il
potere non va attribuita ai singoli individui, ovvero non è etica la critica mossa dall’autore, bensì
questa stessa spinta riflette un vuoto sociale proprio della società industriale, quello della
frustrazione di ciò che l’autore chiama power process e che secondo lui identifica addirittura un
essere umano in quanto tale.
Il power process non va inteso in un nietzschiano Streben per la volontà di potenza, poiché qui
power ha un senso che si avvicina molto più a freedom che non al tedesco Macht, e ne è una prova
il fatto che più avanti nel testo l’autore faccia coincidere il drive for power con l’aspirazione alla
libertà propria di qualsiasi essere umano. Secondo Kaczynski la vita di un uomo consiste e
dovrebbe consistere, stando la genesi evolutiva propria della nostra specie, nel provvedere ai
bisogni fondamentali in proprio, ciascuno per sé o per il proprio gruppo, garantendosi da se stessi
tramite la caccia, la pesca, l’agricoltura e l’attività sociale nel proprio villaggio quanto è necessario
alla propria sopravvivenza: questo è quello che l’autore chiama libertà. Poter essere liberi significa
potersi garantire da sé la propria stessa sopravvivenza.
Il mondo industriale contemporaneo però frustra questa necessità, questo “doversi garantire la
sussistenza”, fornendo a tutti una sussistenza massificata garantita dalla produzione di cibo e mezzi
di sussistenza in quantità industriale. L’individuo, anziché dover passare la propria vita a fare ciò
che è nato per fare, viene reclutato come mezzo di produzione in un sistema che lo sfrutta come
operaio o impiegato, sistema che gli fornisce in maniera diretta e immediata ciò che altrimenti
dovrebbe procacciarsi da solo.

96 Ivi, p. 3.
90

Questo apparente vantaggio però, secondo Kaczynski, è in realtà un enorme problema, in quanto
l’uomo deprivato del lavoro che costituisce la sua essenza si ritrova ad essere deprivato di se stesso,
dotato di energie che non può sfruttare e che, per compensare, si trova a dover dedicare ad attività
secondarie, chiamate qui nel testo surrogate activities, quelli che noi conosciamo come “hobbies” e
che riempiono le nostre giornate quando la giornata lavorativa ha avuto termine. Sport, modellismo,
una passione sfrenata per gli scacchi, la danza o i computer secondo Kaczynski rappresentano tutte
attività surrogate con cui l’uomo contemporaneo cerca di ottenere una soddisfazione che gli è
negata dal sistema produttivo, il quale gli fornisce in maniera immediata ciò che l’individuo
dovrebbe potersi procacciare da sé, poiché è in questo procacciarsi che consiste la sua libertà e la
sua realizzazione personale.
È in questo senso che la sinistra contemporanea, nella forma del modern leftism, è “indicativa dei
problemi della nostra società nel suo complesso”97: il bisogno ossessivo di potere che la sinistra
dimostra nel volersi occupare di tutti i problemi sociali è il riflesso della mancanza della possibilità
di un sano power process, mancanza generata dal sistema industriale stesso, il quale richiede, a
livello logico, una burocrazia talmente densa da non lasciare alcuna possibilità all’uomo
contemporaneo al di fuori di un’alternativa tra l’assorbimento totale in termini di carriera lavorativa,
oppure l’esclusione e una vita da reietto rivoluzionario, quale quella che lo stesso Kaczynski ha
scelto per se stesso.
Secondo Kaczynski non c’è mediazione possibile nei confronti di questo sistema, motivo per il
quale qualsiasi tentativo di rovesciare “dall’interno” l’apparo tecnologico-capitalistico sarebbe
utopico e assurdo: il sistema infatti richiede certe condizioni, le quali affliggono l’uomo e non
possono essere tolte se non con la distruzione del sistema stesso.
L’obiettivo della rivoluzione, posto anch’esso in termini di assoluto estremismo, è un ritorno alla
“natura selvaggia”, vista da Kaczynski come l’assoluto opposto del mondo tecnologico, un mondo
vergine e intatto dove l’uomo può ritrovare se stesso nel rapporto col mondo delle piante e degli
animali. L’autore si rende conto della durezza di questa vita, ma la considera l’unico modo per
sfuggire ad una realtà che col passare del tempo si farà sempre più opprimente, poiché il sistema
produttivo capitalistico-tecnologico ha bisogno, a livello essenziale/strutturale/logico, di alcune
figure che svolgano determinati ruoli specifici e che non possono che opprimere la libertà
dell’uomo per come lo conosciamo oggi. L’ampliarsi dell’apparato tecnico-tecnologico, lo sviluppo
delle biotecnologie, l’ingegneria genetica sono diversi passi di uno stesso processo il quale si
autorafforza e si autogenera, e che va verso una massimizzazione dell’effetto a danno di un

97 Ivi, p. 1.
91

annichilimento della libertà umana che si manifesta nel malessere e nel disagio tipico del nostro
tempo.

5. Searle contro Dennett

Il dibattito “Searle contro Dennett” merita un posto d’onore particolare tra tutte le questioni
affrontate finora nel corso di questo capitolo. John Searle, filosofo del linguaggio e allievo di
Austin, ebbe modo di scontrarsi più volte, con riferimenti critici nei propri testi e nel corso di un
vero e proprio epistolario intrattenuto (in maniera più o meno diretta) con il filosofo della mente
Daniel Dennett, di impostazione evoluzionistica, nel corso degli anni ’90.
A far scoppiare le ostilità fu il cosiddetto “argomento della camera cinese”, sviluppato da Searle in
uno dei suoi scritti datato 1980, Minds, brains, programs98, nel quale il filosofo sosteneva che una
macchina potesse sì simulare la comprensione di un linguaggio, ma non comprenderlo davvero; una
critica alla possibilità di utilizzare il test di Turing (Imitation game) come uno strumento realmente
efficace per verificare il grado di intelligenza raggiunto da una macchina. La risposta di Dennett,
insieme a quella di altri critici, ha innescato un dibattito che va avanti ancora oggi e che verte
attorno al problema della coscienza, andando a toccare temi fondamentali quali quelli del
significato, dell’intenzionalità e di che cosa significhi effettivamente il processo della comprensione
di realtà.
A questo punto che il problema fondamentale è stato delineato, per quale motivo, ci si chiede,
questo dibattito, che sembra soltanto essere un dibattito tra gli altri, dovrebbe avere un posto
d’onore tra la lunga serie di lotte che abbiamo incontrato nel corso del capitolo che stiamo
svolgendo?
Fondamentalmente per due motivi. Il primo è che, tanto per l’impostazione generale del dibattito
stesso, quanto per i temi toccati (il senso dell’io, la coscienza) e le risposte date, col dibattito
“Searle contro Dennett” ci avviciniamo radicalmente all’impostazione della fenomenologia, il che
permetterà infatti di passare da questo capitolo al terzo, in cui si svolgerà la vera e propria critica
che è stata annunciata nell’introduzione. Da questo punto di vista, il perché abbiamo eletto proprio
questi due autori a rappresentanti della lotta in corso è puramente utilitaristico: grazie
all’impostazione generale del problema, i temi trattati ci permetteranno un salto direttamente verso
dove volevamo arrivare, ovvero leggere e reinterpretare il dibattito in corso con gli occhi e i

98 John Searle, Mind, Brains, Programs, «Behavioral and Brain Sciences», 3 (1980), pp. 417-457.
92

concetti di una filosofia che non si è mai occupata direttamente del problema dell’intelligenza
artificiale, se non per alcuni cenni storici in Heidegger, ma che offre tutti i mezzi per farlo.
Da un altro punto di vista, Searle e Dennett possono essere considerati, a parere di chi scrive, come
in un certo senso dei “compilatori” delle posizioni tenute dall’una e dall’altra parte, degli autori pro
intelligenza artificiale e di quelli contrari, poiché le loro posizioni senso possono considerarsi
esprimere una media di quelle di tutti gli autori visti in precedenza. Searle e Dennett possono quindi
essere considerati come due punti medi per comprendere quali sia la posta in gioco, quali le
scommesse e quali le speranze, o le angosce, nei riguardi di questo problema. Entrambi questi autori
inoltre, ed è un loro punto di forza, non si sono occupati unicamente del problema dell’intelligenza
artificiale, ma sono filosofi a tutto tondo con una concezione globale del mondo, di cui il problema
dell’IA occupa solo una parte. Questo dev’essere considerato un vantaggio in quanto ci permette di
leggere il problema dell’IA in un’ottica più generale, nel nostro caso quella della filosofia della
mente e del rapporto tra io umano e io artificiale, anziché concentrarsi unicamente sul problema,
rischiando di perdere di vista il contesto storico e culturale in cui ogni problema, per essere
compreso, va inserito.
Il pomo della discordia si è detto essere il famoso argomento della “camera cinese”, ideato da
Searle come un esperimento mentale per negare la possibilità di un test di Turing e dimostrare
quindi la falsità di quella che il filosofo americano definisce “IA forte”, la concezione sostenuta
dalla scienza cognitiva secondo cui il cervello, e la mente umana in genere, non sono altro che
calcolatori organici, e i processi di pensiero nient’altro che algoritmi operanti come programmi su
una memoria, in totale analogia con quanto accade nei computer che tutti i giorni utilizziamo. Così
facendo, se l’uomo, in base a questi processi, può definirsi intelligente e può pensare, dal momento
che i robot non sono nient’altro che cervelli costruiti in un altro materiale, anche loro si può dire che
pensino, di modo che l’intelligenza artificiale si risolva in una reale possibilità.
Searle espone il suo argomento in diversi modi, tutti piuttosto simili l’uno all’altro; esaminiamo una
di queste versioni, espressa nella raccolta di lezioni Mente, cervello, intelligenza, ottima per la sua
sinteticità e la chiarezza dell’espressione:

«La ragione per cui nessun programma da calcolatore potrà mai realizzare una mente è
semplicemente che un programma da calcolatore è soltanto sintattico, e le menti sono più che
sintattiche. Le menti sono semantiche, nel senso che possiedono qualcosa più di una struttura
formale: esse hanno un contenuto. Per illustrare questo punto ho progettato un esperimento di
pensiero. Immaginiamo che un gruppo di programmatori abbia scritto un programma che
metta in grado un calcolatore di simulare la comprensione del cinese. Così, per esempio, se si
93

pone una domanda in cinese al calcolatore, esso la confronterà con il contenuto della sua
memoria, o base di dati, e produrrà risposte appropriate alla domanda in cinese. Supponiamo,
per la bontà dell’argomento, che le risposte del calcolatore siano buone quanto quelle di un
madrelingua cinese. Dunque, sulla base di questo il calcolatore capisce il cinese? Capisce
letteralmente il cinese nello stesso modo in cui i parlanti cinese capiscono il cinese? Bè,
immaginate di essere chiusi a chiave in una stanza, e ci sono in questa stanza numerosi cesti
pieni di simboli cinesi. Immaginate di non capire una parola di cinese (come me), ma che vi
sia stato dato un libro pieno di regole in inglese per manipolare questi simboli cinesi. Le
regole descrivono le manipolazioni di simboli in modo puramente formale, nei termini della
loro sintassi, non della loro semantica. Una regola potrebbe perciò dire: “Prendi un segno
squiggle-squaggle dal cesto numero 1 e mettilo di seguito a un segno squoggle-squoggle
preso dal cesto numero 2”. Supponiamo ora che altri simboli cinesi vengano introdotti nella
stanza, e che vi siano state date altre regole per fare uscire dalla stanza i simboli cinesi.
Supponiamo che a vostra insaputa i simboli passati nella stanza siano chiamati “domande”
dalla gente che sta fuori, e che i simboli che voi passate fuori siano chiamati “risposta alle
domande”. Supponiamo inoltre che i programmatori siano così bravi nella realizzazione dei
programmi, e che voi siate così bravi nel manipolare i simboli che ben presto le vostre
risposte diventino indistinguibili da quelle di un madrelingua cinese. Voi ve ne state chiusi a
chiave nella vostra stanza mescolando i vostri simboli cinesi che ne entrano. A partire da
questa situazione non avete di sicuro al modo di imparare un minimo di cinese attraverso la
semplice manipolazione di questi simboli formali».99

Non importa, dice il filosofo americano, quanto si diventi abili nel realizzare – computando – una
serie di frasi apparentemente significative, poiché ciò che dà senso all’atto del parlare, e alla
comprensione che lo sottende, è la presenza di una coscienza reale di ciò che si sta dicendo, così
come di ciò che si sta ascoltando. Il programma meglio sviluppato del mondo, posto nel computer
più veloce di sempre, comunque, alla fine del proprio lavoro, non importa quanto meraviglioso
fosse il risultato in termini di verosimiglianza (secondo i parametri dettati dal test di Turing, tutt’ora
canonici) non saprà produrre nulla di neanche lontanamente simile alla maniera in cui “il parlante
cinese comprende i simboli cinesi”: la comprensione infatti è possibile solo a patto che vi sia un io,
una coscienza, in atto di comprendere, cosa che manca nella camera cinese, la quale è un sistema
puramente cieco e meccanico capace sì di produrre risultati ma non di produrre risultati veri – essa
simula, appunto, una comprensione, senza comprendere però davvero.

99 John Searle, Mente, cervello, intelligenza, Milano, Bompiani, 1987, pp. 24-25.
94

Se si torna a quanto scritto nel primo capitolo tratteggiando una storia dell’intelligenza artificiale a
proposito degli autori degli anni ’50, in particolare Newell e Simon, e della svolta cognitiva che essi
hanno portato nel mondo della robotica, lo scarto intervenuto a livello concettuale tra questi due
mondi, a distanza di appena trent’anni, è evidente: non è più sufficiente che il computer sappia
calcolare e “produrre risultati logici”, anziché operare e manipolare soltanto, ma si rende necessario,
ora, affinché si possa parlare di intelligenza, che vi sia anche la coscienza, quindi la consapevolezza
di fare ciò che sta facendo, di avere dei contenuti logico-rappresentativi appartenenti al mondo reale
e così via. È questa sorta di coscienza a rendere umano l’uomo e la mera efficienza, per quanto
elevata, non potrà mai dare come risultato una comprensione, quindi un’intelligenza.
Questo “avere coscienza di”, fondamentale per Searle, è particolarmente importante per il presente
lavoro, in quanto conduce al concetto di intenzionalità, che viene qui considerato il concetto
fondamentale sviluppato dall’intera fenomenologia e quello attorno a cui si impernierà la critica
fenomenologia al concetto di intelligenza artificiale. Anche Searle utilizza il termine “intenzione”
(in inglese, intension) e ne fa uno dei capisaldi della propria critica: è proprio questo termine ad
essere coinvolto nell’argomento della camera cinese, poiché “avere coscienza di”, che per il filosofo
americano è quanto ci distingue dai robot e dalle macchine, significa proprio “intendere verso”, in
senso quasi-fenomenologico, ovvero avere un rapporto col mondo dal quale le macchine sono
escluse.

«The reason we make these attributions [ossia l’attribuzione di intelligenza alle macchine,
nda] is quite interesting, and it has to do with the fact that in artifacts we extend our own
intentionality; our tools are extensions of our purposes, and so we find it natural to make
metaphorical attributions of intentionality to them; but I take it no philosophical ice is cut by
such examples. The sense in which an automatic door “understands instructions” from its
photoelectric cell is not at all the sense in which I understand English. If the sense in which
Schank’s programmed computers understand stories is supposed to be the metaphorical sense
in which the door understands, and not the sense in which I understand English, the issue
would not be worth discussing. But Newell and Simon (1963) write that the kind of cognition
they claim for computers is exactly the same as for human beings. I like the
straightforwardness of this claim, and it is the sort of claim I will be considering. I will argue
that in the literal sense the programmed computer understands what the car and the adding
machine understand, namely, exactly nothing. The computer understanding is not just (like
my understanding of German) partial or incomplete; it is zero».100

100 Searle, Brains, Minds, Programs, cit., p. 5.


95

Questo rapporto col mondo viene descritto da Searle in termine di “avere un riferimento a”,
possedere la capacità di un aboutness, come la chiama egli stesso, cioè la capacità della mente
umana di riferirsi per davvero a qualcosa che si trovi al di là di se stessa, fuori, nel mondo. Questa
aboutness e la sua riduzione sono state introdotte, nella lunga citazione precedente, nella distinzione
tra sintassi e semantica, che Searle utilizza come distinzione fondamentale per allontanare
definitivamente il mondo dell’uomo dal mondo dell’intelligenza artificiale.
Il computer infatti ha una sintassi, ma non una semantica, ovvero è capace di produrre risultati
verosimili, secondo regole logico-cognitive precise, corrette, dando l’impressione di star veramente
maneggiando ciò che vanta – o ciò che i programmatori vantano per lui – di saper comprendere e
maneggiare; tuttavia un computer manca e mancherà per sempre dell’aboutness, l’intenzionalità,
quel potere della mente umana di “riferirsi a” un mondo, che rende l’uomo veramente coinvolto nel
mondo e lo trasforma in un essere capace e intelligente, libero e dotato di razionalità.
È proprio questo potersi riferire al mondo e a cose del mondo che trasforma la mera sintassi in
semantica, ovvero che aggiunge al mero elemento strutturale quel quid, ossia la comprensione e il
significato, senza cui l’uomo sarebbe egli stesso soltanto una macchina. Ciò che distingue la
macchina dall’uomo è però che la prima, oltre alla sintassi, non ha nulla, mentre l’uomo può
comprendere veramente ciò che manipola, e anche i segni del suo linguaggio, grazie al riferimento
mentale a ciò di cui si sta parlando.101
Con la delineazione di questo concetto ci si è avvicinati molto al mondo della fenomenologia, la
quale ruota attorno al concetto di “fenomeno”, chiamato noema, che non è altro se non ciò che noi,
appunto, in-tendiamo grazie al nostro nous102. Esistono tuttavia delle differenze macroscopiche,
assolutamente fondamentali, che, per quanto avvicinino Searle a Husserl, lo mantengono
radicalmente distante dal nostro punto di vista e, anzi, porteranno infine a porre tutta una serie di
critiche fondamentali proprio quell’autore che più di tutti sembra essersi avvicinato al punto di vista
della filosofia fenomenologica.
Secondo Searle, l’origine dell’intenzionalità, cioè della mente umana, è quella stessa biologia che
compone l’essere umano anche sul piano strettamente organico. Da questo punto di vista
l’antropologia di Searle si avvicina in quella di Douglas Hofstadter, in quanto entrambi risolvono il
problema del rapporto mente-corpo in termini di “livelli” e “descrizione di livelli”. Per Searle, come
per Hofstadter, la mente non è nulla di più degli elementi che le sono sottostanti: è il cervello ad
essere la mente e a causare i fenomeni mentali. Questo tuttavia non porta ad alcuna forma di

101 Cfr. John Searle, Coscienza, Linguaggio, Società, Torino, Rosenberg&Sellier, 2009, pp. 23-101.
102 Una concezione dell’intelletto umano caratterizzata dal concepire l’io come originariamente diretto-a qualcosa nel
mondo – un noema, appunto, detto altrimenti correlato intenzionale.
96

dualismo, poiché non esiste una separazione fisica, o cronologica, tra il cervello e la mente, o tra
l’attività del primo e quella della seconda. I fenomeni che avvengono a livello neurologico sono, se
visti da un punto di vista superiore, gli stessi fenomeni della mente e questi possono essere
immediatamente letti e ritradotti nel linguaggio scientifico della neurobiologia come fenomeni
puramente chimici, elettrici, organici:

«Così all’interno del livello neurofisiologico ci sarà una serie di livelli di descrizione, tutti
ugualmente neurofisiologici. In aggiunta a questo, inoltre, ci sarà anche un livello mentale di
descrizione […] Ma in aggiunta al livello della neurofisiologia e al livello dell’intenzionalità
non abbiamo alcun bisogno di supporre che ci si un altro livello: un livello di processi
computazionali digitali».103

La posizione di Searle nei confronti dell’intelligenza umana e di ciò che distingue l’uomo dalla
macchina è pertanto molto particolare, contraria a quanto ci si potrebbe inizialmente aspettare: non
è infatti il possedere un “cuore” o un’anima, qualcosa di propriamente umano, che distingue l’uomo
dal robot, ma è la biologia stessa dell’uomo ciò che lo rende cosciente (una biologia semantica,
come lui stesso la definisce104) in quanto i processi mentali dell’uomo sono soltanto la traduzione ad
un linguaggio di livello superiore di processi che, con concetti scientifici, potrebbero essere
analizzati e perfettamente descritti in laboratorio. È a partire da un materialismo di fondo, e non da
una qualche sorta di concezione metafisica, che Searle arriva a distinguere l’uomo dalla macchina.
È proprio a partire da questo infatti che si innesta la critica searliana alla scienza cognitiva, ovvero a
quell’impostazione pro IA-forte secondo cui il computer e il cervello umano realizzino i loro
processi cognitivi allo stesso modo, calcolando: non è una serie di processi di calcolo, secondo
Searle, a permettere la logica del pensiero, la visione, il moto, ma una serie di processi fisico-
chimico-organici, i quali possono anche essere letti come processi del pensiero ma di base sono, e
restano, organici. Sono stati questi, con il corso dell’evoluzione, che hanno finito con il portare
all’intenzionalità (aboutness) e al riferimento al mondo. È la biologia dell’uomo a salvare l’uomo
dalla confusione con la macchina, e questo è un divario che nessuna macchina potrà mai colmare,
poiché la macchina, il robot, simula il comportamento umano calcolando, ma l’uomo non simula
nulla e non calcola nulla nemmeno quando deve agire o fare nel mondo, o pensare: nella biologia
dell’uomo vige una sorta di immediatezza di cui la macchina non sa nulla. Ciò che l’uomo è, fa,
mentre la macchina deve continuamente tentare di colmare questo distacco tra ciò che è e ciò che
deve fare per mezzo di una serie enormemente complessa di calcoli e algoritmi di ogni tipo.

103 Searle, Mente, Cervello… cit., p. 46.


104 Cfr. Searle, Coscienza, Linguaggio… cit., p. 98.
97

Questo per quanto riguarda Searle: ciò che fa l’intelligenza e la particolarità dell’uomo è la
coscienza, la quale richiede un io capace di riferirsi al mondo per mezzo dell’intenzionalità, che non
è altro se non una traduzione della biologia umana ad un livello superiore. Per quanto riguarda
Dennett, invece, il punto di partenza è lo stesso, il problema della coscienza e del suo modo di
manifestarsi nell’essere umano. La direzione intrapresa da Dennett per rispondere a questa domanda
è esattamente contraria rispetto a quella presa da Searle, come si evince anche dai picchi di astio e
di ironia reciproca con cui i due autori si sono talvolta attaccati nel corso del loro lungo, ma
incostante, carteggio.105
Il lavoro e l’attività di Dennett, lungo tutto il corso della sua carriera, sono andati esattamente nella
direzione opposta rispetto a quella di Searle, com’è anche chiaro dai frequenti rimandi critici
presenti nei testi di questi due autori l’uno nei confronti dell’altro. Specializzato nel problema della
filosofia della mente e amico personale di Hofstadter, Dennett è diventato celebre per aver operato
una radicale distruzione dell’antropologia cartesiana, fondata sul primato della mens nei confronti
del corpo, non per mezzo di una semplice riduzione evoluzionistica della mente a fenomeni
biologici anteriori (la mente come emergente dal cervello) – sebbene anche questo sia presente nella
sua filosofia – quanto piuttosto tramite la dissoluzione dell’unità dell’io in una molteplicità di centri
e apparati diversi, i quali, solo per una questione di utilità pratica vengono riuniti nel linguaggio a
generare quello che abitualmente, e ingenuamente, siamo abituati a chiamare “io”.
L’obiettivo critico di Dennett non è direttamente Searle, ma Cartesio, o meglio quello che Dennett
definisce il Cartesian Theatre,106 ovvero quel palcoscenico sul quale l’osservatore sarebbe capace di
osservare i propri fenomeni psichici e di ricondurli ad un’unità per il semplice fatto di starne
facendo esperienza.
Questa unità dell’esperienza, tuttavia, non è mai nulla più che pretesa. Nel corso di diversi suoi
testi, Dennett utilizza la sua ampia conoscenza della letteratura psicologica e medica per portare a
sostegno della tesi dell’inesistenza di un centro cartesiano della coscienza diversi casi clinici in cui
la coscienza risulta essere spezzettata, sospesa o interrotta.107 Secondo Dennett, questi casi non
rivelano che la coscienza possa essere danneggiata, ma che la coscienza, a tutti gli effetti, non
esiste, non essendo nulla più che l’aggregato di diversi processi i quali, “in parallelo” – per
utilizzare un termine tratto dall’informatica – processano informazioni di origine differente
nell’essere umano e la rielaborano, generando così l’impressione, ma nulla più, di un insieme.
Questo insieme però non esiste, e ciò che chiamiamo “io” è un’abitudine linguistica, nata dalla
105 Cfr. ad esempio i due scritti, entrambi del 1995, The mistery of consciousness, di Searle, e la risposta data ad esso
da Dennett col titolo The mistery of consciousness, an exchange, reperibili online.
106 Cfr. Daniel Dennett, Consciousness Explained, New York, Penguins Book, 1992, p. 128.
107 Cfr. Ivi, (pp. 101-228). Questi riferimenti, comunque, potranno essere incontrati senza difficoltà nel corso di tutta
l’opera di Dennett, in quanto l’autore utilizza questi “blackout della coscienza” come un momento per rivelare l’inanità
del tentativo di affermare un io dietro i “drafts multipli” di cui è composta la psicologia umana.
98

comodità, sullo sfondo di una concezione puramente evoluzionistica, di poter definire come un
singolo aggregato quello che invece è una molteplicità dispersa di fenomeni psichici differenti.
La concezione del “Teatro Cartesiano” dev’essere quindi sostituita da quella che Dennett chiama
Multiple Drafts,108 una concezione originariamente plurivoca dell’essere umano, stando alla quale
nessuna forma di ricomposizione superiore è possibile. I processi in corso nell’essere umano
devono essere letti come uno sciame di homunculi, dei mostriciattoli i quali in un “pandemonium”
di attività si contendono le energie umane, senza per questo agire con qualche uniformità o indirizzo
comune di fondo. La percezione, l’apparente coscienza del pensare, il moto, la sensibilità, il
linguaggio – ciascuna di queste attività è lontana e separata dalle altre, e nulla come un “io” di
fondo potrebbe mai essere trovato, se non nell’illusoria sommatoria di queste stesse attività:

«These spatially and temporally distributed content-fixations in the brain are precisely
locatable in both space and time, but their onsets do not mark the onset of consciousness of
their content. It is always an open question whether any particular content thus discriminated
will eventually appear as an element in conscious experience, and it is a confusion… to ask
when it becomes conscious. These distributed content-discriminations yield, over the course
of time, something rather like a narrative stream or sequence, which can be thought of as
subject to continual editing by many processes distributed around in the brain, and continuing
indefinitely into the future. This stream of contents is only rather like a narrative because of
its multiplicity; at any point in time there are multiple “drafts” of narrative fragments at
various stages of editing in various places in the brain».109

La coscienza, e l’io che la regge, per Dennett sono soltanto illusioni, frutto di un errore di
prospettiva. Essa in verità altro non è che uno di quei processi psichici che si contendono le energie
del nostro cervello e può essere interrotta, spenta, disturbata, proprio come qualunque altro di questi
processi. Il fatto di essere “consci di” non rimanda a un io dietro questa consapevolezza, ma a un
processo di percezione interna o esterna che è in corso; questo processo però è algoritmico,
meccanico, di fondo materiale, e non gode di nessuna particolare dignità rispetto ad altri. Una
ghiandola pineale non è più necessaria perché non c’è nessuna mente da connettere al corpo:
piuttosto, la “mente” è un programma in corso nel corpo, il quale può sempre essere spento o
interrotto proprio come uno qualunque dei programmi in corso sul nostro PC.

108 Ibidem.
109 Daniel Dennett e Marcel Kinsbourne, Time and the Observer: The Where and When of Consciousness in the
Brain, «Behavioral and Brain Sciences», 15 (pp. 183 – 247).
99

Per spiegare quanto vuole dire, Dennett nel corso dei suoi testi fa più volte riferimento
all’esperimento mentale dello zimbo. Zimbo110 è un termine ironico coniato sul modello dello
zombie, utilizzato come riferimento per l’esperimento che Dennett vuole proporre. Lui ci dice:
immaginate un essere in tutto e per tutto simile ad un nostro amico nell’aspetto fisico,
nell’atteggiamento, del linguaggio – privo, però, della coscienza che abitualmente attribuiremmo a
quel nostro amico. Una creatura del genere potremmo chiamarla zombie (philosopher’s zombie), il
quale, come un robot d’altronde, sarebbe un essere in grado di vivere, muoversi nel mondo e
parlare, ma privo di coscienza. Ora, dice Dennett, aggiungetegli per esperimento mentale una
coscienza, ovvero la capacità di analizzare i propri stati interni, di studiarli e, in generale, di esserne
consapevole. Chiamiamolo zimbo.
Se ce lo trovassimo davanti, questo zimbo, nella veste del nostro amico, in tutto e per tutto simile a
lui e dotato della possibilità di autoanalizzarsi, come lo distingueremmo dal nostro amico? Non lo
faremmo, per il semplice fatto che “il nostro amico”, dietro lo zimbo, non c’è: quell’aggregato di
funzioni che dispone della funzione di autoanalizzarsi sarebbe esattamente il nostro amico. Manca
un io a tenere insieme il tutto, ciò che percepiamo è ciò che (i “programmi”) è in corso in noi.
Quello di Dennett è un comportamentismo assoluto.
Come si può comprendere, è a partire da questa base teorica che Dennett attacca l’argomento della
camera cinese di Searle. Il concetto di intenzionalità, che sta alla base della comprensione per
Searle, viene smantellato in quanto presuppone un “io” che per Dennett è totalmente assente: la
coscienza è una funzione, e non l’attività di un io ontologico, e questa funzione può essere
soppressa come qualsiasi altra.
Più in generale, in riferimento alla camera cinese Dennett sostiene che “è il sistema stesso a
comprendere”,111 il che è come dire quanto abbiamo appena detto, che una comprensione del
sistema simbolico cinese è assente in ogni caso. È a partire da qui che Dennett afferma la possibilità
di una IA forte: non perché i robot possano effettivamente sviluppare una forma di pensiero simile a
quella umana, o una coscienza come quella dell’uomo, ma proprio perché nemmeno l’uomo è
dotato di una coscienza umana – l’uomo è uno zimbo! – e non ha quindi alcun motivo di rivendicare
una superiorità rispetto al robot, non essendo lui nient’altro che un robot di tipo molto particolare,
uno zimbo umano, una macchina organica.

110 Cfr. Dennett, Intuition Pumps, cit., pp. 319-329.


111 Cfr. gli stessi testi riportati alla nota 105.
100
101

CAPITOLO TERZO
Critica fenomenologica al concetto di Intelligenza Artificiale

Il sottotitolo di questo lavoro, Una critica fenomenologica al concetto di Intelligenza Artificiale,


vuole evidenziare due aspetti: innanzitutto, la posizione critica nei confronti delle possibilità di
realizzazione dell’IA forte – ci schieriamo quindi dalla parte degli scettici nel contesto di questa
disputa; secondariamente, il fatto che questa critica venga condotta dal punto di vista della
fenomenologia.
Il motivo per cui è stata scelta proprio la fenomenologia come sistema e metodo d’analisi per un
problema così scottante come quello dell’intelligenza artificiale non è questione di semplice
simpatia o antipatia personale, ma è frutto di una decisione presa sulla base delle possibilità che
questa corrente/metodologia, a dispetto di altre, può offrire. L’obiettivo esplicito, reso tale dal
fondatore della filosofia in questione, Edmund Husserl, di andare «alle cose stesse!»112 ha avuto il
merito innegabile di rinnovare, in filosofia, una distinzione altrimenti nota da tempo immemore,
quella tra cosa ed essenza (res ed essentia/quidditas, secondo il linguaggio scolastico) dando a
questi termini un significato del tutto nuovo, quasi investigativo, trasformando l’essenza di qualcosa
non in un universale ricavabile, per astrazione, a partire dal contatto empirico con gli oggetti –
secondo la tradizione aristotelica, poi ereditata dalla riflessione scolastica e, successivamente,
empirista – ma in una guida orientativa a partire dalla quale, aprioristicamente rispetto al lavoro
empirico, è possibile avere un’esperienza reale del mondo, e porsi delle questioni a proposito degli
enti che ricadono in questo.
A differenza di altre filosofie, quindi, le quali o partono dal dato empirico per risalire a verità
astratte e universali, o da una precisa metafisica, come l’idealismo, a partire dalla quale poi la realtà
dovrà essere letta, la fenomenologia mira a una mediazione ragionata tra il “mondo delle idee”,
intese in un certo preciso senso non-platonico, e il mondo delle cose e della ricerca empirica, la
quale non è mai pura, come spesso questa ritiene di essere, ma sempre innestata in una qualche
precomprensione del campo di ciò che sta approcciando.
Questo approccio fenomenologico diventa di importanza imprescindibile quando si tratta di
affrontare problemi come quello dell’intelligenza artificiale, che, a causa della sua notevole
complessità e implicazioni, risulta quasi impossibile da risolvere. La fenomenologia consente di

112 Cfr. Martin Heidegger, Essere e tempo, tr.it. di Alfredo Marini, Milano, Oscar Mondadori, 19271, p. 50.
102

compiere quelle analisi e di porre quelle domande che aprirebbero a nuove soluzioni, non
dogmatiche: quando parlo di intelligenza, cosa intendo?
La soluzione della domanda se sia possibile o meno un’intelligenza artificiale richiede, infatti, la
soluzione di un’altra domanda: che cosa sia l’intelligenza in generale. Questo è esattamente il
pregio, il valore e l’utilità della fenomenologia nel nostro campo di analisi, quello di arrivare a
porre in questione l’essenza stessa prima di poter avviare una ricerca empirica nei confronti del
nostro oggetto di studio, in quanto tanto l’oggetto trattato, quanto i metodi con cui questo è
approcciabile dipendono in gran parte da un’interpretazione di fondo, filosofica e non scientifica, la
quale però raramente è esplicitata e guida quindi silenziosamente (e potenzialmente in maniera
pericolosa, perché incontrollata) tutte le ricerche.
Il motivo per cui la nostra ricerca e la nostra critica devono, sono e non possono non essere
fenomenologiche, è che soltanto la fenomenologia fornisce i concetti e i metodi per andare a
indagare il cuore di un problema prima che l’attività scientifica inizi a raccogliere dati e trarre
conclusioni a riguardo. L’intera storia dell’intelligenza artificiale e della robotica, per come
l’abbiamo delineata, l’intera storia della critica a riguardo e i dibattiti che nel corso del Novecento
sono sorti tra le due fazioni opposte nei riguardi dell’IA sono stati generati e orientati da
un’interpretazione fondamentale di che cosa sia l’intelligenza, interpretazione che nasce nell’ambito
di un preciso contesto storico e culturale che si trascina nei secoli fino a noi. Questa interpretazione
di fondo è condivisa tanto dai sostenitori quanto dai critici, motivo per cui una semplice “critica”
generica nei confronti dell’intelligenza artificiale, come nel caso di quella condotta ad esempio da
Dreyfus, può persino arrivare a fare più danni che altro, dal momento che questa critica verrà
condotta a partire dagli stessi concetti di fondo da cui partono i sostenitori dell’IA forte, e non va a
toccare, né quindi tantomeno a smuovere, i presupposti a partire dai quali essi partono. Fino a
quando ci si limiterà a critiche serrate, ma finalizzate a evidenziare singoli problemi, nei confronti
delle tesi propugnate dagli “idealisti” dell’intelligenza artificiale, non si otterranno risultati
realmente positivi, poiché questi vengono soltanto quando le analisi raggiungono le fondamenta
delle questioni.
Da un punto di vista strettamente husserliano, nel senso, quindi, originario della fenomenologia,
l’obiettivo di una ricerca fenomenologica è quello di orientare la ricerca scientifica fornendo il
paradigma eidetico di riferimento, a partire dal quale una scienza, come ad esempio la psicologia o
una qualsiasi delle Naturwissenschaften, potrà aggiornare i propri fondamenti e sviluppare
adeguatamente problemi, tematiche e metodi. L’obiettivo di Husserl è interamente epistemologico:
il problema di Husserl è il problema della conoscenza, di quale sia il valore di una verità certa e di
come si possa dare valore scientifico alla filosofia, alla scienza una luce filosofica, capace di
103

allontanarla dal proliferare caotico e incontrollato di dati ed esperimenti secondo il modello che la
scienza occidentale andava assumendo tra la fine del XIX secolo e gli inizi del XX.
Rispetto a questo obiettivo puramente epistemologico, Heidegger, si occupa di un campo di
problemi molto più vasto, il problema del senso dell’essere e della storia della filosofia occidentale,
partendo comunque da un nucleo di concetti fenomenologici di base (come quelli di
precomprensione e correlato intenzionale, in primis) i quali, trasformandosi nel corso del tempo,
resteranno sempre fondamentali. Il punto di vista heideggeriano a proposito del senso della ricerca
fenomenologica implica un grado di dinamicità molto maggiore rispetto a quello di Husserl, data la
grande importanza che Heidegger attribuisce alla storia: intervenire a livello essenziale nei confronti
dei fondamenti di un certo problema ha un impatto non solo in ambito scientifico, ma nell’intero
mondo umano che viene a costruirsi su quella certa interpretazione essenziale, il che avvicina,
secondo alcuni aspetti, la filosofia di Heidegger a quella di Schelling e soprattutto Hegel. Risolvere
un certo problema essenziale, come ad esempio il problema dell’essere in Essere e tempo, in un
senso oppure nell’altro, serve non a dare un paradigma assoluto alle ricerche in quell’ambito, ma a
far fare un passo avanti ai contendenti e alla storia stessa del problema, avvicinandosi così di molto
al già citato concetto di Aufheben. L’obiettivo dell’analisi fenomenologica, per Heidegger, non è
quindi puramente epistemologico, ma storico-dinamico, nel senso che la filosofia, pur essendo
teoria, è la prima vera forma di azione, in quanto fornisce quei concetti basilari a partire dai quali
una qualsiasi altra forma di azione diventa possibile. A differenza di Husserl, la fenomenologia non
è più fine a sé, ma diventa un mezzo per qualcos’altro. Questa è stata anche fondamentalmente
l’origine dell’ostilità, reale o presunta, tra i due autori, e il motivo principale dell’allontanamento
dell’uno dall’altro.
Il punto di vista di chi scrive, sebbene per formazione ed inclinazione tenda fortemente rispetto alla
concezione heideggeriana della filosofia che non verso quella husserliana, vuole tentare di
riprendere gli aspetti più positivi di entrambe queste forme di pensiero.
Sebbene come appena detto l’intenzione di fondo della nostra ricerca sia storico-dinamica, come nel
senso heideggeriano, ovvero intesa a portare la questione dell’intelligenza artificiale ad un passo
ulteriore, dopo averne mostrato in maniera più chiara quali siano i presupposti di fondo, la tendenza
puramente epistemologica di origine husserliana va anch’essa ripresa e valorizzata, dal momento
che è proprio questa certa concezione di fondo di che cosa sia l’intelligenza, in senso
eidetico/essenziale, che orienta la ricerca in robotica verso certi determinati ambiti piuttosto che
verso altri.
L’obiettivo, quindi, è duplice: da una parte, tentare di portare il contesto stesso del dibattito un passo
oltre quello attuale, fornendo agli autori futuri la possibilità di orientare le loro ricerche in base a
104

delle fondamenta filosofiche, storiche e culturali meglio esplicitate di quanto esse non siano oggi,
dall’altra fornire ai tecnici impegnati nell’ambito di sviluppo delle varie discipline della robotica dei
concetti presi dal mondo filosofico, non da quello scientifico, per comprendere il senso della loro
attività e quale ne sia stata l’origine culturale. Così facendo, si vuole deprivare la scienza dalle sue
pretese di assolutezza e di verità, che sono infondate, il che accade non negandone la scientificità,
ma contestualizzandola, mostrando come essa derivi da precisi processi storico-filosofici che
l’hanno generata.

1. Esposizione generale dei concetti di base della fenomenologia

Per fare ciò che si è promesso, occorre inquadrare in maniera semplice e unitaria quali siano i
concetti cardine della scuola fenomenologica: sarà più facile riferirsi alla “fenomenologia” – un
termine che indica un campo decisamente vasto – per fornire un’interpretazione diversa di che cosa
siano l’io, la coscienza, l’intelligenza, il mondo e così via.

«Il titolo “fenomenologia” esprime una massima, che si può quindi formulare così: “alle cose
stesse!” - contro ogni costruzione astratta o reperto casuale, contro l’assunzione di concetti
solo apparentemente provati, contro quelle questioni apparenti che, spesso per generazioni,
usurpano la dignità di problemi. Ma questa massima – si vorrebbe obiettare – da un lato è
quanto mai ovvia e dall’altro non fa che esprimere quello che è il principio di ogni
conoscenza scientifica. Non si capisce perché questa ovvietà debba espressamente essere
assunta nel titolo di una ricerca. Anche se in effetti si tratta di una “ovvietà”, vogliamo
esaminarla più da vicino, in quanto è importante per chiarire il procedimento di questa
trattazione. Ci limiteremo ad esporre il concetto fondamentale di fenomenologia».113

Martin Heidegger riassume in questo modo il progetto fondamentale della fenomenologia nel suo
lavoro del 1927, il desiderio di recarsi “alle cose stesse” al di là di sovrastrutture concettuali del
senso comune o della scienza, lontane dalla chiarezza interna delle cose, considerate sotto il
riguardo fenomenologico.
Questo andare alle cose stesse, però, non può essere fornito da una pratica di ricerca ordinaria, quale
quella del medico o dello scienziato, capaci di ottenere sapere a partire da un certo tipo di
manipolazione del mondo. È necessario un occhio di tipo diverso, il quale paradossalmente è un

113 Heidegger, Essere e tempo, cit., p. 50.


105

“occhio cieco”, una sospensione anziché un’affermazione, che Husserl riprende dalla filosofia greca
sotto il nome di epochè, e che lui stesso definisce come un “mettere tra parentesi la realtà”,
sospendendo il giudizio circa quello che sappiamo o non-sappiamo del mondo per lasciare che la
realtà affiori da se stessa, rivelando da sé la più profonda struttura delle cose.114 Lo sguardo
fenomenologico e, in verità, l’intero progetto della fenomenologia, sono racchiusi interamente in
questo concetto assolutamente basilare, quello di epoché. L’ispirazione cartesiana di fondo è
evidente, anche se a differenza dell’intento cartesiano, che è quello di giustificare la credenza
ingenua nell’esistenza del mondo, nella maniera in cui il mondo ci è tramandato dalla nostra
cultura, a partire dal ritrovamento di un fondamento assoluto che per Cartesio è quello dell’io,
l’obiettivo della fenomenologia non prevede che il mondo venga ammesso e giustificato entro
determinati parametri culturali (il mondo come creato da Dio, il mondo come libro della matematica
e così via). Al contrario, è presente nella fenomenologia un intento critico molto forte, che si
esprime nella sua massima fondamentale di dubitare del dato apparentemente immediato per
raggiungere una datità ulteriore di tipo più profondo e, proprio per questo, più essenziale.
Che il termine epoché sia tratto proprio dalla filosofia scettica infatti non è una casualità, ma
esprime l’intenzione di fondo della fenomenologia di appropriarsi di una verità diversa rispetto a
quella generalmente vulgata. Questo atteggiamento, se per Husserl ha un intento ancora
epistemologico, kantiano, di fondazione del sapere, in Heidegger diventa poi il motore per la spinta
a riscrivere l’intera storia della civiltà occidentale da un punto di vista ermeneutico.
Un esempio che si potrebbe portare per comprendere la peculiarità dello sguardo fenomenologico
husserliano è quello della conoscenza della natura. Guardando fuori dalla finestra il bosco vicino a
casa nostra, le montagne in lontananza o anche solo il cortile del palazzo in cui viviamo, sappiamo
bene cosa vi troveremo: alberi, erba, un luogo illuminato, terra e fango popolati di insetti, vermi,
uccelli, l’aria fresca e tutto ciò che siamo abituati a pensare quando ci imbattiamo nella natura.
Tutto questo per noi è “natura”. Ma c’è di più, in quanto questi elementi non si fermano a una
confusione impressionistica, non si sovrappongono meramente tra loro come se giungessero tutti
separatamente l’uno dall’altro a formare un quadro. Noi sappiamo bene che la natura forma
ecosistemi, i quali comprendono una biosfera, l’insieme dei viventi, e un territorio nei quali questi
prendono a vivere. Tutte queste cose le sappiamo grazie alla ricerca di scienziati che si sono posti
l’obiettivo di chiarire cosa sia la natura, non però in maniera metafisica, bensì tramite ricerche
empiriche fondate sull’esperimento come metodo d’approccio e sulla ripetibilità degli esperimenti
al fine di assicurarsi la certezza delle conoscenze acquisite.

114 Cfr. Edmund Husserl, Idee per una fenomenologia pura e per una filosofia fenomenologica, tr. it. di Vincenzo
Costa, Torino, Einaudi, 19131, §32, pp. 71-73.
106

Ora, la direzione è mettere da parte tutto questo, come se non se ne fosse mai stati al corrente,
operare un blackout della conoscenza e restare muti a guardare quello che giace al di fuori della
nostra finestra e che fino a poco fa si era abituati a chiamare “natura”. Una volta operata questa
interruzione del proprio “sapere sul mondo”, che cosa resta? La risposta a questa domanda è tanto
semplice da essere imbarazzante, ma proprio questa semplicità apparente, la semplicità dell’ovvio, a
nascondere la verità fondamentale attorno a cui si struttura l’esperienza umana del mondo. Secondo
il punto di vista della fenomenologia: resta qualcuno che guarda, e qualcosa che è guardato.
Questa correlazione fenomenologica,115 che nel linguaggio di Heidegger sarà trasformata in senso
storico in una Zusammengehörigkeit,116 coappartenenza tra l’uomo e l’essere nello svolgersi storico
del mondo, indica un rapporto fondamentale tra l’Io e la realtà, dove questi due elementi vengono
contrapposti, sì, ma in una struttura che li necessita e li comprende entrambi.
C’è quindi un Io, che guarda, e un mondo, composto di oggetti, i quali vengono guardati; fin qui
nulla di nuovo. E tuttavia la prospettiva che introduce la fenomenologia è totalmente rivoluzionaria,
in quanto l’uomo, cioè l’io che guarda, e il mondo, la cosa guardata, non vengono giustapposti
come per il frutto di una casualità che poi vada in qualche modo giustificata: questa è stata la
prospettiva dell’intera metafisica da Platone in poi, quella di considerare l’io e il mondo in rapporto,
sì, ma di considerare sconosciuta l’origine di questo rapporto e di conseguenza non essenziale,
arbitraria, tale da dover essere giustificata.117 Al contrario, l’esperimento della messa tra parentesi
del mondo, se così può essere definito, rivela qualcosa di fondamentale a proposito dell’esperienza
umana della realtà: che se anche si può “sospendere il giudizio” circa la realtà, verso una di queste
realtà, come la natura nell’esempio scelto, o verso l’intero mondo che ci circonda, c’è qualcosa che
non può essere spento e che rimane a fondamento di ogni futura interruzione di coscienza possibile,
tale da permetterla: il rapporto stesso tra l’uomo e il mondo.

«Analogamente, l’intuizione dell’essenza è coscienza di qualcosa [corsivo nostro], di un


“oggetto“, di un qualcosa su cui si dirige lo sguardo, e che le è dato in se stesso in questa
intuizione […]».118

Il concetto fondamentale per comprendere quello che stiamo dicendo in questo caso è quello di
“intenzionalità” (Intentionalität), uno dei concetti chiave dell’intera scuola fenomenologica. Non
esiste una comprensione generica, vuota e non orientata; ovunque ci sia uno spiraglio di luce
intellettuale c’è anche qualcosa-a-cui questa luce si sta riferendo, pertanto, ovunque sia implicato un

115 Cfr. Husserl, Idee…, cit., pp. 15-16.


116 Cfr. Martin Heidegger, Identità e differenza, a cura di Giovanni Gurisatti, Milano, Adelphi, 19571.
117 Cfr. Martin Heidegger, La dottrina platonica della verità, tr. it. di Franco Volpi, Milano, Adelphi, 1967.
118 Edmund Husserl, Idee…, cit., p. 18.
107

soggetto è anche implicato un mondo verso cui gli atti di quel soggetto si riferiscono. E viceversa,
la struttura dell’intenzionalità, ovvero l’inscindibilità dei termini che compongono la correlazione
tra uomo e mondo, comporta anche il rovescio di quanto appena illustrato, che non solo la coscienza
umana non può esistere al di fuori e al di là del rapporto col mondo, ma che, viceversa, non può
esserci alcun modo al di fuori del rapporto con l’essenza umana e con gli atti dell’uomo che lo
pensano, lo interpretano e lo manipolano.
Husserl parla a questo proposito di nous e noema, altri due termini ripresi dalla filosofia greca con i
quali traduce il tedesco Bewusstsein e Gegenstand, “coscienza” e “oggetto”.119 I termini selezionati
da Husserl non sono scelti senza cura, in quanto l’uno, il soggetto (nous) è un participio presente, il
che indica bene come la coscienza per la fenomenologia non sia tanto qualcosa “che sta”, come
un’identità ferma o immobile il cui compito sia soltanto di sostenere le percezioni, ma qualcosa di
attivo che si dirige verso il mondo e vi si orienta all’interno; l’altro, il noema, l’oggetto della
percezione, viene indicato con il suffisso greco –ma, che indica generalmente qualcosa di già fatto,
già compiuto, caratterizza il mondo nella sua essenza non come una serie di enti che giacciano di
per sé in uno spazio, anche al di fuori del rapporto con il soggetto – in senso newtoniano – ma come
qualcosa che, se sta, sta fintanto che è percepito (oppure non percepito, ma percepibile, seppur
attualmente nascosto).
Se è percepibile, lo è stato oppure lo sarà, allora è, altrimenti qualcosa che non può essere percepito
in assoluto indica che ciò a cui ci stiamo riferimento, in verità, non è. Husserl non altera i termini
tradizionali del discorso: il soggetto e il mondo vengono mantenuti entrambi e nessuno dei due
viene negato in favore dell’altro, né il soggetto, che non viene risolto in un aggregato di parti
materiali che sviluppano la coscienza solo secondariamente, secondo l’interpretazione realistica, né
il mondo, che non viene sminuito idealisticamente in quanto proiezione della coscienza, ma
recupera la propria dignità in quanto correlato intenzionale di atti dell’uomo che, se vogliono
essere, devono riferirsi ad un mondo, verso i quali sono già sempre, preventivamente, diretti. Ciò
che Husserl fa e la maniera in cui rivoluziona il rapporto soggetto-oggetto è soltanto introdurre un
terzo tale da fondare il rapporto tra uomo e mondo, terzo che non è altro se non il rapporto stesso tra
questi due, espresso nel termine di “correlazione”, o “coscienza” (Bewusstsein): la correlazione tra
Io e realtà è originaria, tale da non poter essere perso senza perdere contemporaneamente questi due
enti. Se c’è io c’è mondo e se c’è mondo, deve altrettanto esserci un io.
Il concetto di “intenzione”, quindi, non va inteso in senso volontaristico o psicologistico, come se
esprimessimo un “punto di orientamento per l’azione” oppure qualcosa che potrebbe esserci, come
anche non esserci. La nozione di intenzione è per la fenomenologia l’espressione di una realtà

119 Cfr. ad esempio Husserl, Idee…, cit., pp. 43-45, dove il tedesco Sehen viene riportato al greco νοεῖν.
108

trascendentale che sta alla base della concezione stessa dell’io in quanto l’intenzione aggancia,
letteralmente, gli atti dell’io alla realtà verso cui questi sono riferiti, e mostra come non possa
esserci, per esempio, riflessione, senza un argomento su-cui si riflette, né chiacchiera, senza
qualcosa di-cui si chiacchiera, né violenza, senza qualcosa verso cui si fa violenza. Di-cui, su-cui,
verso-cui sono soltanto tre tra tutti i diversi modi tramite i quali è possibile riferirsi alla realtà, così
come la percezione di una realtà sensibile, l’immaginazione, la speranza, l’angoscia e tutte le altre
modalità con cui l’io può avere un’apprensione del mondo non sono nient’altro che altre modalità
del rapporto intenzionale.
Questa concezione del rapporto tra io e realtà introduce delle differenze fondamentali a proposito
della concezione di che cosa sia un soggetto o un essere vivente in genere, e altera profondamente
l’antropologia che per secoli, da Platone in poi, la metafisica ha fatto valere come cogente, al di là
della declinazione particolare che i diversi filosofi le hanno dato di volta in volta nel corso della
storia della filosofia. L’antropologia tradizionale verte attorno al distacco tra io e mondo: l’io è
considerato essere qualcosa di opposto alla realtà, di orientato verso di essa, sì, ma di separato da
questa. Secondo l’antropologia metafisica classica, l’uomo non è il mondo: può avervi dei rapporti,
vivere al suo interno, ma la struttura della psiche non corrisponde aprioristicamente alla struttura
della realtà; vi è uno scarto tra ciò che noi siamo e ciò che il mondo è. Tutte le diverse risposte che
sono state date nel corso della storia al problema del rapporto tra “soggetto e oggetto”, per come
viene impostato il problema da Cartesio in poi, vertono su questa differenza di base, che l’uomo è
concepito essere come una cosa in mezzo alle cose, un “io” intellettuale in mezzo ad enti sensibili,
rispetto ai quali però è diverso e in un certo senso distante.
La risposta di Husserl a riguardo però, così come quella della fenomenologia in genere, è diversa.
Dire che l’io è trascendentalmente orientato verso il mondo, tanto da formare addirittura un tutto
concreto insieme a questo, significa contemporaneamente dire che l’io è tale soltanto se lo si
considera come una rete di intenzionalità, modalità, strutture psicologiche che non possono
minimamente astrarre dal contenuto verso cui sono rivolte e che pertanto ne abbisognano a livello
strutturale: se si prescindesse da queste, l’io, inteso tradizionalmente come qualcosa di separato dal
mondo, verrebbe meno al contempo. Di conseguenza l’io non è soltanto trascendentalmente
orientato, ma in sé stesso trascendente,120 nel senso che non esiste né l’io di Cartesio né quello di
Hume, per Husserl, in quanto per questi due autori, così come per tutti gli autori della tradizione
passata, l’io è qualcosa che deve recuperare il rapporto col mondo in maniera secondaria, tramite
l’attività intellettuale, mentre per Husserl è la struttura stessa dell’io ad essere orientata verso la

120 Qui viene utilizzato il termine “trascendente” nel senso di originariamente aperto al mondo, originariamente
orientato al di fuori di se stesso verso il mondo (ma, per la fenomenologia, questo essere originariamente aperti verso il
mondo al di là di se stessi è il “se stessi”).
109

realtà, tanto da poter dire che io e mondo sono non i protagonisti, ma i due termini di un’equazione
che viene prima di entrambi e li rende possibili. L’io, in quanto tale, è originariamente aperto al
mondo: è pensato, strutturato, per riferirsi alla realtà, e quando noi parliamo della “struttura dell’io”
stiamo inconsapevolmente anche parlando della struttura del mondo, e viceversa, quando ci
riferiamo al mondo ci stiamo contemporaneamente riferendo alla struttura dell’io, alla
stratificazione della coscienza in sé stessa, la quale non può prescindere dall’essere coscienza-di e
quindi di essere sempre radicalmente orientata verso il mondo.
Quello che abbiamo definito “l’intento epistemologico della fenomenologia di Husserl” è
contemporaneamente il senso della critica allo psicologismo, svolta soprattutto nelle sue Ricerche
logiche121 (in verità costante nel corso di tutto il suo lavoro), di poter ridurre l’antropologia alla
psicologia trasportando i problemi che tradizionalmente sono stati propri della filosofia nel campo
delle scienze psicologiche: questo non può essere fatto, dice Husserl, perché i risultati della ricerca
empirica a proposito dell’uomo sono comunque secondari e innestati in una rete strutturale più
vasta che non può essere còlta in nessun esperimento, ma che deve essere percepita dall’occhio puro
dello sguardo del fenomenologo come residuo fenomenologico, ciò che resta dopo che l’epoché del
fenomenologo ha messo da parte ogni conoscenza empirica del mondo.
L’obiettivo che la fenomenologia si propone per se stessa, allora, non è quello di raccogliere dati a
proposito dell’uomo, come fa la psicologia, ma nemmeno di attaccare la psicologia come scienza di
per sé: la critica della fenomenologia si rivolge infatti allo psicologismo, e non alla psicologia,
ovvero ciò che viene reso bersaglio di critica non è il voler raccogliere dati in se stesso, ma la fede
di fondo nel fatto che questo accumulo possa toccare nella sua essenza che cosa sia l’essere umano.
Si domanda, allora: come si struttura la percezione? La volontà? Il pensiero? A quali genere di atti,
secondo quali modalità, corrispondono quali generi di noemi?

«La conoscenza naturale sorge dall’esperienza e permane nell’esperienza. Nell’atteggiamento


teoretico che diciamo naturale, l’orizzonte complessivo delle possibili indagini viene
designato con una parola: il mondo. Le scienze di questo atteggiamento originario sono
pertanto tutte scienze del mondo e quindi, sinché tale atteggiamento è quello dominante, i
concetti di vero essere, di essere reale [wirkliches], cioè di essere naturale [real] e – dal
momento che ogni oggetto reale confluisce nell’unità del mondo – di essere nel mondo
coincidono».122

121 Cfr. Edmund Husserl, Ricerche logiche, Milano, Saggiatore, 1900/011, capitolo terzo, §17 e seguenti.
122 Husserl, Ricerche logiche…, cit., §1, pp. 1-3.
110

La maniera in cui il mondo viene definito in questo brano, che è il paragrafo iniziale delle Idee di
Husserl, altera in maniera radicale la concezione classica del mondo vulgata dalla metafisica per
duemila e più anni. Nella definizione qui data del mondo, «l’orizzonte complessivo delle possibili
indagini»,123 scompare qualsiasi riferimento all’essere in sé del mondo, quel modo di intendere la
realtà classico affermatosi una volta per tutte con Platone.
Il mondo viene concepito, in sede ontologica – non quindi ad un livello di descrizione meramente
psicologistico, o antropologico, di ciò che è il mondo “per l’uomo” – come una possibilità-di-fare-
incontri. Questo significa che, a livello concettuale, avviene per il mondo quella sorta di
rovesciamento che avviene per l’essere umano, il quale, se il suo io ora richiede logicamente un
riferimento al mondo, si trova ad essere in rapporto con un mondo che richiede
contemporaneamente la presenza di un io che lo pensi per poter sussistere.124
Uno dei termini che torna più frequentemente negli scritti di Husserl è quello di Eidos, un altro
concetto recuperato dalla filosofia greca e che significa “essenza”. Essenza, però, nel senso
fortemente visivo di “ciò che vedo come essenza, ciò che mi appare alla vista”, quindi ciò che mi si
presenta come qualcosa verso-cui io sono orientato: l’essenza, nel senso del correlato intenzionale
dell’io, all’interno della struttura della coscienza. L’intenzionalità, infatti, non è qualcosa di
semplice, nel senso di una linea univoca tra l’io e la cosa intesa (questa sedia, una nuvola,
un’equazione di Riemann): contemporaneamente all’intenzione di un singolo oggetto, il
Gegenstand – letteralmente, in tedesco, “ciò che mi sta di contro” – sta sempre anche l’intenzione
dell’essenza, l’Eidos, sotto cui questo oggetto viene inteso e alla luce di cui viene compreso. Prima
di percepire un ente nella sua singolarità, nei suoi adombramenti, secondo il linguaggio
husserliano,125 ciò che percepiamo è, per prima cosa, sempre l’essenza, l’Eidos, di quell’ente. Solo
secondariamente arriviamo a percepire i tratti fisici di questo oggetto che stiamo spiritualmente
puntando:126

«Ma il senso di questa contingenza, che è chiamata fattualità, trova il suo limite in quanto si
riferisce correlativamente a una necessità che non indica il semplice sussistere fattuale di una
123 Qui, “indagini” nel senso generico di esperienze, incontri.
124 Non esiste più un mondo di “in sé” prima e al di là della coscienza umana: il per sé è già contemporaneamente in
sé, e viceversa. Questa è il motivo per cui la coscienza di Husserl non può essere accusata di Platonismo, come egli
stesso riporta nelle Idee e nelle Ricerche logiche, preoccupandosi di chiarire e di ricordare sempre quanto sia
fondamentale il rapporto con le cose affinché si possa raggiungere ad una esplicitazione della struttura della coscienza.
125 Husserl, Idee…, cit., §41, pp. 97-100.
126 Qui, se ve ne fosse il bisogno, va specificato che “primariamente” e “secondariamente” non hanno un valore
cronologico, ma logico: non è che “prima di tutto, nel tempo” si percepisca l’essenza della nuvola, o della natura, o di
qualsiasi altra cosa, e “soltanto dopo” la percezione sensibile riempia questa intenzione di fondo con dei dati empirici.
Al contrario, la percezione reale è un continuum, forma un’unità (si parla di sintesi passive), ma quest’unità che riunisce
i dati molteplici è resa possibile dall’intenzione fondamentale dell’essenza dietro cui questo ente ricade. In primis,
quindi, si percepisce l’essenza, e solo secondariamente l’ente è come tale. È alla luce dell’essenza che i singoli enti
molteplici vengono letti e interpretati, compresi.
111

regola di coordinazione tra dati di fatto spazio-temporali, ma ha il carattere della necessità


eidetica ed è quindi connessa con la generalità eidetica. Dicendo: ogni dato di fatto potrebbe
„secondo la sua essenza“ essere diverso da quello che è, lasciammo già intendere che al senso
di ogni essere contingente appartiene appunto un’essenza, un eidos afferrabile nella sua
purezza, e che questa essenza si inserisce in una gerarchia di verità eidetiche di diverso grado
di generalità. Un oggetto individuale non è qualcosa di semplicemente individuale, un „questo
qui“, un qualcosa di irreperibile, ma, in quanto è „in se stesso“ costituito in una determinata
maniera, possiede il suo specifico carattere, la sua compagine di predicati essenziali che
necessariamente gli competono […]».127

La percezione di un oggetto nei suoi vari “adombramenti” (Abschattungen), ovvero nelle sue
diverse maniere di darsi a seconda di differenti contesti percettivi, non tradisce mai, comunque, il
rispetto di una linearità eidetico-essenziale di fondo che qui Husserl chiama in senso forte una
necessità, eine Notwendigkeit, all’interno della quale e senza mai alcuna violazione della stessa può
avvenire il differenziarsi della percezione nei riguardi di uno stesso ente.
Il fatto che la realtà venga intesa non in maniera limpida, diretta, ma a partire da un’interpretazione
di fondo dell’essenza che sta alla base dei singoli enti indagati dall’attività scientifica, ha come
conseguenza che diverse interpretazioni eidetiche, quindi filosofiche, quindi essenziali, delle
essenze appunto che reggono la realtà, genererà una gamma di possibilità diverse rispetto all’attività
scientifica che su queste si fonda, dalla quale poi la ricerca pescherà quando svolgerà i suoi
esperimenti a proposito dei metodi indagati.
L’occhio non riscontra semplicemente i risultati che “appaiono durante l’esperimento”, come crede
lo sperimentalismo ingenuo, poiché ciò che viene visto o meno dipende da ciò che si sa, o almeno,
si è convinti di sapere mentre si approccia l’ente che attualmente in considerazione. Lo si è visto a
proposito della natura dove un bosco, una montagna, a noi contemporanei appaiono qualcosa di
ordinato, e ordinati secondo concetti precisi, perché prima ancora di aver indagato quel particolare
bosco o quella particolare montagna, si era già inquadrato questi enti nell’essenza che li racchiude,
quella di natura, entrando così nell’ontologia regionale di riferimento prima di imbatterci a livello
empirico nell’ente in questione.

«Ogni concreta oggettualità empirica è subordinata con la sua essenza materiale a un genere
materiale supremo, a una “regione” di oggetti empirici. Alla pura essenza regionale
corrisponde poi una scienza eidetica regionale o, come possiamo anche dire, un’ontologia

127 Husserl, Idee…, cit., §2, pp. 15-16.


112

regionale. Anzi, noi assumiamo che l’essenza regionale o, meglio, i diversi generi che la
compongono, stanno alla base di conoscenze così ricche e ramificate che, in vista del loro
sviluppo sistematico, dobbiamo parlare di una scienza, o meglio di un intero complesso di
discipline ontologiche corrispondenti ai singoli componenti generici della regione… Ogni
scienza empirica subordinata a una regione si riferisce dunque per essenza, oltre che alle
discipline formali, anche a quelle ontologiche regionali. Possiamo esprimere la stessa cosa nel
modo seguente: ogni scienza di dati di fatto (ogni scienza empirica) ha fondamenti teoretici
essenziali in ontologie eidetiche. È ovvio infatti che (nel caso in cui l’ipotesi prima esposta sia
vera) l’esplorazione dei fatti empirici è necessariamente influenzata dal ricco patrimonio di
conoscenze che hanno un rapporto di validità incondizionata con tutti i possibili oggetti della
regione – nella misura in cui queste conoscenze appartengono in parte alla vuota forma
dell’oggettualità in genere, in parte all’eidos della regione, che rappresenta per così dire una
necessaria forma materiale per tutti gli oggetti della regione».128

Per spiegare questo concetto, Husserl nelle Idee porta l’esempio di Cartesio, e della maniera con cui
la sua filosofia ha operato una reinterpretazione fondamentale dell’essenza della natura,
determinandola come res extensa, il che, insieme allo scarto rispetto alla filosofia aristotelica ha
determinato tutta una nuova gamma di orientamenti possibili nell’ambito filosofico e scientifico,
nonché pratico, con ciò generando quello che siamo abituati a chiamare “il mondo moderno”. Non
soltanto i singoli enti naturali, ma anche i metodi d’approccio a questi sono cambiati, quando è
variata l’interpretazione di fondo alla luce della quale leggiamo le cose naturali.
Volendo essere completi, dovremmo a questo punto trascrivere l’intero §9 delle Idee di Husserl; per
evitare di farlo, rimandiamo semplicemente il lettore a questo, limitandoci a riportare alcune
citazione che riteniamo fondamentali a riguardo:

«Ciò è confermato dallo sviluppo delle scienze naturali razionali, cioè delle scienze fisiche.
La loro epoca d’oro comincia nell’età moderna, quando la geometria, giunta fin dall’antichità,
e soprattutto nella scuola platonica, al grado di eidetica pura, interviene improvvisamente e in
grande stile a fecondare il metodo fisico. Appare chiaro allora che l’essenza della cosa
materiale consiste nell’essere res extensa e che quindi la geometria è la disciplina ontologica
riguardante un momento essenziale di tale cosalità, cioè la forma spaziale. Appare chiaro
inoltre che l’essenza generale (nel nostro linguaggio “l’essenza regionale”) della cosa va
molto più in là. Il che è dimostrato dal fatto che lo sviluppo della fisica tende alla formazione

128 Husserl, Idee…, cit., §9, pp. 26–27.


113

di una nuova serie di discipline che devono essere coordinate alla geometria e che sono
destinate alla medesima funzione di razionalizzazione dell’empirico […]».129

2. Il concetto di “intelligenza” secondo la fenomenologia

Il punto di partenza per la critica in questione è l’ultimo concetto esposto, quello secondo il quale
un’interpretazione basilare di un Eidos di qualsiasi tipo non ha un valore meramente “platonico” di
avvicinamento al vero, senza influenza sulla realtà empirica, ma è capace di orientare la maniera in
cui l’occhio vede e approccia questa stessa realtà, alterando di conseguenza le modalità con cui
l’uomo può rapportarsi all’ente sensibile nel corso della sua esperienza quotidiana.
Ci si riferirà a quanto detto utilizzando soprattutto il lessico della fenomenologia di Heidegger, il
quale a proposito parla di precomprensione (comprensione volgare)130, in Essere e tempo, e di
interpretazione fondamentale131 in corsi e testi più tardi, come ad esempio la sua serie di corsi su
Nietzsche, del decennio 1936-1946. I concetti di “precomprensione” e di “interpretazione
fondamentale” esprimono la stessa cosa, contestualizzata però in due ambiti diversi: il fatto che
ogni approccio empirico all’ente non sia puro, ma sempre mediato da un sapere anteriore, ciò che
diciamo appunto precomprensione, vuole smontare qualsiasi pretesa di empirismo radicale svelando
come ogni confronto con l’ente sia già sempre mediato da un sapere di qualche tipo, il quale pur
non essendo conscio vige e fa sempre sentire il suo peso.
Il concetto di interpretazione fondamentale, invece, che indica sostanzialmente lo stesso fenomeno
per cui l’interpretazione di un’essenza, del fondamento appunto, viene prima del rapporto con gli
enti che ricadono sotto l’ombrello di quell’essenza, serve ad esplicitare come il succedersi di queste
interpretazioni sia storico e avvenga nell’ambito più generico della “cultura umana”. Ciò che preme
sottolineare ad Heidegger è comunque come il succedersi di queste interpretazioni sia non solo un
fattore casuale dello sviluppo della storia e dell’uomo in questa, ma il fattore fondamentale, motore
esso stesso del procedere della storia, la quale consiste appunto nel ripetersi di una serie di
interpretazioni fondamentali del mondo, e soprattutto dell’essenza dell’essere, le quali finiscono con
l’alterare il mondo umano in un ciclo infinito che determina di volta in volta diversamente la natura
del rapporto tra l’uomo e l’essere.
È questo aspetto dinamico che vogliamo recuperare dalla filosofia di Heidegger.

129 Ibidem.
130 Cfr. ad esempio Heidegger, Essere e tempo, cit., p. 36.
131 Cfr. ad esempio Heidegger, Nietzsche, a cura di Franco Volpi, Milano, Adelphi, 1994, p. 311.
114

«Ogni biologia presuppone già, in quanto scienza, una definizione essenziale, attuata in modo
più o meno esplicito e univoco, dei fenomeni che costituiscono il suo ambito di oggetti.
Questo ambito è quello del vivente. Alla base della definizione di questo ambito sta, daccapo,
un concetto preliminare di ciò che contraddistingue e delimita il vivente in quanto tale, cioè
della vita. L’ambito essenziale nel quale la biologia si muove non può mai essere posto e
fondato dalla biologia stessa in quanto scienza, ma è da essa sempre e soltanto presupposto,
assunto e confermato. Ciò vale per ogni scienza. Ogni scienza poggia su tesi relative alla
regione dell’ente entro la quale la rispettiva ricerca si mantiene e si muove. Queste tesi
sull’ente – su ciò che è – che pongono e delimitano la regione sono tesi metafisiche. Esse non
solo non possono essere dimostrate, ma non posso nemmeno essere in generale
adeguatamente pensate con i concetti e le dimostrazioni delle rispettive scienze […]. Ogni
scienza, al di là del padroneggiamento meramente calcolativo di una regione, è un sapere
genuino soltanto nella misura in cui si fonda metafisicamente – oppure ha capito che questa
fondazione è una necessità inamovabile per la sua sussistenza essenziale. Lo sviluppo delle
scienze può quindi svolgersi sempre in due prospettive fondamentalmente diverse. Le scienze
possono svilupparsi nella direzione di un padroneggiamento degli oggetti sempre più vasto e
sicuro, istituire di conseguenza i loro modi di procedere – e appagarsene. Le scienze possono
però anche dispiegarsi contemporaneamente come genuino sapere e in base a esso definire i
confini di ciò che scientificamente vale la pena di sapere».132

Nel brano citato, tratto dal Nietzsche di Heidegger, si fa riferimento alla biologia come scienza,
poiché l’Autore sta parlando dell’importanza della biologia per Nietzsche, ma lo stesso discorso può
essere fatto a proposito dell’intelligenza artificiale e della scienza cognitiva in genere, la quale,
proprio come il biologo, approccia i suoi enti e conduce gli esperimenti che ritiene necessario dover
condurre in base ad un concetto preliminare del suo ambito di oggetti; nel caso dell’IA, il concetto
di che cosa sia o meno l’intelligenza, e di cosa voglia dire essere un essere intelligente. Se i
ricercatori nel campo dell’IA non avessero una linea guida del genere, preliminare, certamente
prefenomenologica, non avrebbero mai potuto approcciare il campo della robotica, né svilupparlo
nella maniera e nella direzione in cui esso è stato sviluppato:

«L’argomento centrale di questo libro è l’intelligenza artificiale, chiamata comunemente IA,


che è un’investigazione non solo sui computer e su nuovi tipi di macchine, ma anche sulla
natura dell’intelligenza stessa: un argomento che nessuno può vantarsi molto bene. Perché?

132 Ivi, p. 430.


115

Forse perché nessuno ha mai avuto la possibilità di esaminare altre forme di intelligenza oltre
alla nostra! Perché questo fatto è così importante? Perché è molto difficile capire qualche cosa
finché non si hanno altre cose con cui confrontarla. Perché solo esaminando molti esempi
diversi si possono cominciare a individuare princìpi generali importanti nella miriade di fatti
interessanti ma spesso accidentali e irrilevanti che osserviamo nei singoli casi. Così i biologi
hanno scoperto quasi tutto ciò che conoscono compiendo studi comparati delle diverse specie
di animali, piante, batteri e virus […]».133

L’atteggiamento scientifico-metodologico, e prima ancora quindi filosofico, di Minsky è lo stesso


identico modus operandi che abbiamo ritrovato in Luger nei brani citati dal suo manuale di robotica
all’inizio di questa tesi. In questo, si pretende di arrivare a comprendere che cosa sia l’intelligenza a
partire dall’analisi e dalla generalizzazione di “molti esempi”, quando quest’attività di selezione del
campione, generalizzazione e sviluppo dei dati raccolti presuppone già, di base, un concetto
preliminare dato dalla filosofia di che cosa sia l’intelligenza, poiché è sulla base di questo che i
campioni vengono raccolti, e dei campi e dei modi nella quale questa si esplica, poiché è in base a
questo che si scelgono i temi da analizzare e mettere a confronto tra le diverse specie fatte oggetto
di studio. Se questi presupposti mancassero, l’attività scientifica non potrebbe nemmeno
cominciare, poiché non possederebbe nemmeno gli elementi basilari per portare avanti la propria
attività di ricerca. La scienza soffre di un problema di inversione logica dei termini che la
costituiscono: è convinta di poter scoprire, tramite la propria ricerca, ciò che sta a fondamento di
questa e la determina nella sua possibilità e nelle sue pretese di essere una ricerca. Vuole dimostrare
ciò che, invece, sta già alla sua base.
Ai ricercatori nel campo dell’IA, e soprattutto ai sostenitori dell’intelligenza artificiale, possono
essere mosse due accuse all’interno di un ideale processo filosofico condotto nel tribunale della
ragione fenomenologica: la prima di queste due consiste nel ritenere i ricercatori impegnati nel
campo della robotica colpevoli di ignoranza a proposito dei fondamenti storici e filosofici che
stanno alla base della propria scienza. Questi “attivisti” sono del tutto ignari di quali concetti
preliminari essi impieghino, quotidianamente, nella loro attività di ricerca, un’ignoranza che però ha
conseguenze drastiche e spesso nefaste per lo sviluppo armonico della scienza coinvolta, la quale si
ritrova a muoversi secondo direzioni di sviluppo che solo a stento riescono a restare nei cardini
imposti dalla comunità scientifica, strattonate come sono dall’ingerenza, per esempio, del mondo
economico e da quello politico. Quando questi ricercatori parlano di intelligenza, sanno di cosa
parlano? Quanto dicono “io”, che cosa viene da loro tirato in ballo? Alcuni di questi autori hanno

133 Minsky, Introduzione…, cit., p. 7.


116

una nozione vaga di questi temi, la cui complessità può essere comunque adeguatamente trattata
soltanto dalla filosofia; altri credono che la loro scienza potrà dare un concetto a queste realtà. Ma,
affinché la loro ricerca possa cominciare, un concetto è già presupposto.
Secondariamente (ma è il complementare di questo) i ricercatori nel campo dell’intelligenza
artificiale sono spesso colpevoli di non voler indagare le proprie assunzioni e il relativo
fondamento, cosa che ha anch’essa delle conseguenze gravi, poiché, come si è visto per esempio in
Bill Joy, ciò esclude aprioristicamente che alla scienza possa essere riassegnato un campo tale da
inserirla in maniera più armonica nel mondo umano di oggi, evitando, magari, le conseguenze più
nefaste di uno sviluppo incontrollato delle nanotecnologie, della bioingegneria e così via.134
Dal momento che abbiamo dato per assodato che la scienza cognitiva si è orientata finora a partire
da presupposti che essa ritiene assoluti ma che non lo sono, che hanno un’origine storica e pertanto
filosoficamente determinata, di cui essa non vuole sapere nulla, si ponga la domanda circa il
contenuto di questi presupposti. Il tema di questi è vario e lo si è incontrato varie volte soprattutto
nel secondo capitolo, come oggetto di dibattito tra i vari autori. Il problema dell’io, della coscienza,
di cosa voglia dire apprendere e parlare, sono tutti temi fondamentali che stanno alla base
dell’attività di sviluppo robotico dell’intelligenza artificiale. Tutti questi, però, sono fondati nel
concetto fondamentale di che cosa significhi intelligenza. Qual è il significato di questo termine per
la robotica dei giorni nostri?
Ci rifacciamo a Dreyfus in questo caso, estrapolando dall’introduzione del suo testo, What
Computers Can’t Do, un’utile analisi dell’origine storica del concetto di intelligenza di cui
134 Inseriamo il breve discorso seguente come una nota di passaggio per non appesantire ulteriormente il testo, ma è
necessario, a questo proposito, fare una critica alla distinzione di Searle tra una concezione debole dell’intelligenza
artificiale (IA debole) e una concezione forte (IA forte). Fino ad ora anche chi scrive ha utilizzato i concetti di Searle a
scopo orientativo, in quanto questi due termini riflettono bene quali siano le posizioni di fondo interne al campo di
ricerca della robotica: secondo la concezione debole dell’intelligenza artificiale, la robotica e l’IA possono diventare
ottimi strumenti per riflettere sulla natura dell’intelligenza e per arrivare ad una comprensione più profonda della stessa.
Secondo i sostenitori di una concezione debole dell’intelligenza artificiale la scienza cognitiva e tutta l’orbita di
discipline che le ruotano intorno sono degli strumenti, nulla di più, per riflettere sull’uomo, sul significato
dell’intelligenza umana ma anche animale in genere. I sostenitori di una concezione forte dell’intelligenza artificiale,
invece, sono convinti che sia una semplice questione di tempo prima che l’IA possa arrivare a disporre di una coscienza
in senso, appunto, forte, come nel caso di quella umana. L’esempio più estremo di questa corrente sono i transumanisti,
come si è visto nella seconda sezione di questa tesi. Ora, bisogna specificare che questa distinzione può essere
utilizzata, come è stato fatto, soltanto a scopo “didattico”, di chiarezza, ma dev’essere rifiutata secondo una prospettiva
rigorosamente fenomenologica dei problemi in questione. Searle, tramite questa distinzione, vuole in un certo senso
condonare ad una branca della scienza cognitiva i suoi intenti, riportandoli nell’ambito di un moderatismo giustificato
dal “desiderio di migliorare la comprensione di cosa sia l’intelligenza umana”: i sostenitori dell’IA debole sarebbero
pertanto giustificabili a differenza dei secondi, il cui orientamento di fondo è errato alla base. Tuttavia,
fenomenologicamente, dobbiamo dire che anche i primi conducono la loro attività di ricerca in base allo stesso errore di
fondo di cui sono responsabili i secondi, in quanto i sostenitori dell’IA debole possono voler utilizzare la scienza
cognitiva come uno strumento per comprendere cosa sia l’intelligenza proprio perché questi, come i secondi, rifiutano
che ci sia un concetto fondamentale dato dalla filosofia, e pretendono di poter arrivare a questo per mezzo
dell’intelligenza artificiale – da questo punto di vista, che l’obiettivo finale della scienza sia puramente metodologico,
come per l’IA debole, oppure “forte”, è insignificante: entrambe le concezioni dell’IA riflettono l’atteggiamento
prefenomenologico, ingenuo, proprio della scienza contemporanea, e di conseguenza ricadono entrambe,
indifferentemente, sotto lo stesso tipo di critica. Difatti, la nostra critica si rivolge verso la scienza cognitiva in genere
(talvolta persino verso i suoi critici) e non verso la semplice concezione forte dell’IA.
117

usufruisce la robotica odierna, interessante sotto diversi aspetti nei riguardi della nostra analisi. Il
brano inizia così:

«Since the Greeks invented logic and geometry, the idea that all reasoning might be reduced
to some kind of calculation – so that all arguments could be settled once and for all – has
fascinated most of the Western tradition’s rigorous thinkers. Socrates was the first to give
voice to this vision. The story of artificial intelligence might well begin around 450 B.C.
when (according to Plato) Socrates demands of Euthypro, a fellow Athenian who, in the name
of piety, is about to turn in his own father for murder: “I want to know what is characteristic
of piety which makes all actions pious… that I may have it to turn to, and to use as a standard
whereby to judge your actions and those of other men.” Socrates is asking Euthyphro for what
modern computer theorists would call an “effective procedure”, a set of rules which tells us,
from moment to moment, precisely how to behave».135

Quello che interessa di questo paragrafo non è, in verità, l’aver fatto risalire l’inizio della storia
della “tradizione occidentale” a Socrate, con il suo porsi domande circa il significato dell’universale
e il valore di verità dei giudizi che gli uomini comunemente esprimono nei riguardi del mondo, in
quanto è qualcosa che potrebbe trovarsi su qualsiasi manuale di filosofia liceale. La cosa
interessante è come Dreyfus identifichi l’inizio stesso della tradizione occidentale con l’origine
della storia dell’intelligenza artificiale, in quanto entrambe, secondo lui, coincidono nel fatto che
alla base di questa spinta verso la razionalizzazione della realtà stia il desiderio di averne il
possesso, il che vuol dire sapersi orientare in mezzo a domande e problemi, il che vuol dire saper
gestire dati, utilizzarne alcuni, scartarne altri… in altre parole, calcolare. L’essenza calcolante del
pensiero occidentale, però, non viene fuori immediatamente in tutta la sua drasticità fin dai primi
passi di questo pensiero, ma si esprime lentamente in una storia che è nientemeno che la storia
dell’Occidente. A partire dai riferimenti di Dreyfus diventa possibile seguirne le fasi fondamentali
di sviluppo, a sufficienza, perlomeno, per poter tratteggiare brevemente una storia della filosofia
alla base dei presupposti dell’intelligenza artificiale di oggi. Il testo continua così:

«Plato generalized this demand for moral certainty into an epistemological demand.
According to Plato, all knowledge must be stateable in explicit definitions which anyone
could apply. If one could not state his know-how in terms of such explicit instructions – if his
knowing how could not be converted in knowing that – it was not knowledge but mere belief.

135 Dreyfus, What computers can’t do, cit., p. xv.


118

According to Plato, cooks, for example, who proceed by taste and intuition, and poets who
work from inspiration, have no knowledge: what they do does not involve understanding and
cannot be understood. More generally, what cannot be stated explicitly in precise instructions
– all areas of human thought which require skill, intuition, or a sense of tradition – are
relegated to some kind of arbitrary fumbling».136

Con Platone si raggiunge quindi immediatamente un secondo gradino dopo la “filosofia” di Socrate,
in quanto Platone accentua la tendenza formalizzante del razionalismo socratico, costringendo a
separare il lògos del maestro dai problemi quasi interamente etici cui esso si riferiva per iniziare a
respirare l’aria di una generalizzazione maggiore, capace di applicarsi ai più disparati campi della
realtà. Con Platone il pensiero logico-razionale diventa qualcosa di autonomo, separato dai
problemi cui è riferito – uno strumento – col quale l’intera realtà potrà iniziare ad essere scomposta
e analizzata, gettandole addosso la rete della filosofia. Questa tendenza si accentuerà in Aristotele e
non verrà meno con l’avvento del Medioevo, il quale ha creato capolavori di razionalità che stanno
anche alla base del pensiero scientifico e illuministico seguente, nonostante il misconoscimento che
la scienza ha tentato di operare nei riguardi delle proprie radici dall’Illuminismo in poi.
Non è tuttavia con Tommaso d’Aquino che si è tentato di realizzare i primi “esseri robotici”, ma con
l’avvento dell’Illuminismo e del pensiero tecnico-empiristico. Si è visto nel primo che capitolo che
fino a buona parte del Rinascimento, perlomeno da un punto di vista culturale, la storia della
robotica si esprimeva ancora in una concezione piuttosto miracolosa della macchina, e l’androide,
ben lontano dall’essere concettualizzato come una possibilità reale, era pensato a partire da concetti
a metà tra alchimia, religione e filosofia.
È a partire dal ‘600 che va ritrovata una svolta fondamentale nell’ambito della storia che stiamo
brevemente ripercorrendo, in quanto soprattutto con Cartesio, ma anche gli autori a lui
immediatamente seguenti, come Leibniz, Spinoza e Hobbes, viene formalizzata quella concezione
della verità e quindi dell’intelligenza che, una volta per tutte, ha dato all’intelligenza artificiale
odierna il suo concetto fondamentale, quello che viene continuamente utilizzato e che orienta la
ricerca scientifica secondo ambiti e metodi ben precisi.
Con Cartesio, infatti, la realtà inizia ad essere pensata nei termini di una res extensa, di conseguenza
come un piano di enti potenzialmente sempre matematizzabile, conoscibile molto più con gli
strumenti della geometria che non con quelli della logica formale tipica della tradizione aristotelica.
Questa tradizione, tradotta e contestualizzata dal Medioevo cristiano come uno strumento per la
giustificazione delle verità della fede, va a infrangersi a partire dal ‘600, dopo una lunga decadenza,

136 Ibidem.
119

contro un modo di pensare nuovo, il quale fa riferimento alla matematica e agli strumenti che essa
offre per comprendere il mondo, ancorando il sapere ad una concezione della realtà che pretende,
ora, di essere non soltanto “astratta e universale”, ma matematicamente precisa: secondo la
definizione di Cartesio, clara et distincta.
Dal momento che la realtà è una totalità di enti potenzialmente, sempre, matematizzabile, ovvero
riconducibile ad una norma logica precisa secondo gli strumenti della matematica e della geometria,
allora questa realtà andrà interpretata secondo gli strumenti di questa stessa matematica e di questa
geometria, che Cartesio stesso contribuisce ampliamente a sviluppare.
Ma dal momento che ciò che si fa in matematica è calcolare, questo significa che pensare,
interpretare la realtà, cioè compiere quelle attività che compiono gli esseri intelligenti come gli
esseri umani, non significa nient’altro che calcolare, mettere a confronto, decidere, discriminare,
orientarsi tra. Ecco scoperta l’origine del concetto preliminare di intelligenza che sta alla base delle
ricerche odierne nei riguardi dell’intelligenza artificiale, la quale, ovunque pensi, si riferisca e
voglia scoprire “intelligenza”, fa riferimento inconsapevolmente a questo presupposto di origine
cartesiana, che l’intelligenza sia la capacità di calcolare propria degli esseri dotati di intelletto,
capacità giustificata nella sua importanza dall’essere sostanzialmente res extensa il mondo con cui
abbiamo a che fare e verso cui dobbiamo dirigere i nostri pensieri.
Questa spinta cartesiana viene raccolta dagli autori citati, i grandi protagonisti del razionalismo
seicentesco – Leibniz, Hobbes e Spinoza – i quali declinano in tre direzioni differenti la stessa
verità fondamentale decretata per la prima volta da Cartesio: che il mondo è una materia calcolabile
e che essere intelligenti, dotati di pensiero, significa saper calcolare, pensare-calcolando.

«The belief that such a total formalization of knowledge must be possible soon came to
dominate Western thought. It already expressed a basic moral and intellectual demand, and
the success of physical science seemed to imply to sixteenth-century philosophers, as it still
seems to suggest to thinkers such as Minsky, that the demand could be satisfied. Hobbes was
the first to make explicit the syntactic conception of thought as calculation: “When a man
reasons, he does nothing else but conceive a sum total from addition of parcels”, he wrote,
“for REASON… is nothing but reckoning”. In only remained to work out the univocal parcels
or “bits” with which this purely syntactic calculator could operate; Leibniz, the inventor of the
binary system, dedicated himself to working out the necessary unambiguous formal language.
Leibniz thought he had found a universal and exact system of notation, an algebra, a symbolic
language, a “universal characteristic” by means of which “we can assign to every object its
determined characteristic number”. In this way all concepts could be analyzed into a small
120

number of original and undefined ideas; all knowledge could be expressed and brought
together in one deductive system. On the basis of these numbers and the rules for their
combination all problems could be solved and all controversies ended: “if someone would
doubt my results”, Leibniz said, “I would say to him: ‘Let us calculate, Sir’, and thus by
taking pen and ink, we should settle the question”».137

Ecco forniti quindi i presupposti all’interno dei quali si sposta la ricerca odierna nell’ambito
dell’intelligenza artificiale.
A voler completare il quadro storico cui ineriscono i fondamenti culturali dell’intelligenza artificiale
contemporanea, bisognerebbe aggiungere, come sviluppo del pensiero-calcolante di tipo
razionalistico, il darwinismo, in quanto l’evoluzionismo darwiniano si inserisce perfettamente nella
storia dello sviluppo del pensiero occidentale come “pensiero che calcola”, sebbene declinato in
maniera diversa rispetto agli autori finora considerati.
Con Darwin, il pensiero calcolante subisce una sorta di “mitosi” tramite la quale si duplica,
dividendosi in una parte astratta, logico-matematica, ereditata dal passato, e in una parte
interamente nuova riconducibile nell’ambito di una intelligenza pratica, che consiste nella capacità
di calcolare, sì, ma applicata al reale, ovvero la capacità di adeguarsi ad un certo ambiente
evolvendo con esso, massimizzando le possibilità e gli strumenti offerti da questo di volta in volta.
La capacità di poter gestire un pericolo o affrontare una situazione pericolosa vengono rese da
Darwin con una forma di intelligenza propria dell’essere vivente, l’adattabilità, la quale è
comunque una forma di calcolo, sebbene applicata non più agli oggetti della matematica, bensì a
quelli della realtà.
In un certo senso si potrebbe anche affermare che Darwin completa quanto ha iniziato Cartesio,
poiché se quest’ultimo dà il via alla storia del pensiero come calcolo in vista dell’ottenimento di
certezze matematiche, una massimizzazione delle possibilità della logica, Darwin chiude il cerchio
trasportando questa volontà di massimizzazione nella realtà, come massimizzazione, quindi, delle
possibilità strumentali offerte dal mondo reale. Con Darwin l’intelligenza assume una forma
pienamente strumentale, un’eredità che il mondo della robotica non tarderà a raccogliere e che si
realizza soprattutto nella cibernetica, la quale tenta di erigere “sistemi intelligenti” a partire da una
concezione fortemente ingegneristica di intelligenza, fondata sul sistema del feedback – un rapporto
interattivo tra macchina e ambiente.
Questi due aspetti dell’intelligenza, quello logico-formale e quello pratico-strumentale, adattivo,
sono ben rappresentati nel corso della storia della robotica, ed è possibile inquadrare bene, a

137 Ivi, p. xvii.


121

seconda dell’autore, in quale di queste due correnti esso ricada per tendenza e intenzioni, tenendo
sempre presente l’ampia gamma di gradazioni presenti tra l’una e l’altra corrente. Se è facile
collocare Simon e Newell nella corrente logico-formale, è altrettanto facile mettere Grey Walter
nell’altra; già figure come quelle di Turing e von Neumann sono di più difficile collocazione. Ciò
che è importante sottolineare è che il pensiero calcolante concepisce l’intelligenza come una
capacità di massimizzazione, di esaustione delle possibilità offerte dal linguaggio di riferimento,
poco importa che esso sia il linguaggio formale della matematica oppure quello pratico e adattivo
della teoria evoluzionistica. Dove le lettere sono i numeri, oppure le risorse naturali, l’intelligenza
calcolante si preoccupa di massimizzare il profitto – di qualsiasi tipo – nell’ambito che essa ha
rivendicato come proprio dominio.
È questa duplice concezione dell’intelligenza a giustificare i tentativi che la storia della robotica ha
fatto fino ad oggi per dare vita a macchine e sistemi intelligenti. Se l’intelligenza consiste in un
saper calcolare, allora, dal momento che le macchine possono (e sanno) calcolare tanto quanto
l’essere umano, e anche di più, le macchine vengono poste automaticamente in concorrenza con
questo; se gli uomini possono risolvere un problema di geometria, e questa è una caratteristica
dell’intelligenza, allora le macchine che possono risolvere 50 problemi al secondo saranno 50 volte
più intelligenti dell’uomo, quelle che possono farlo 100 volte, 100 volte più intelligenti. La vittoria
di DeepBlue contro Kasparov ha fatto gridare alla “fine del mondo dell’uomo”, nel momento in cui
il campione di scacchi mondiale, umano, è stato battuto da una macchina, che ha saputo calcolare
meglio di lui quali fossero le mosse vincenti per giungere il prima possibile alla fine della partita.
DeepBlue si è rivelata più intelligente di Kasparov, se per intelligenza si intende la capacità di
calcolare.
Logic Theorist e i “sistemi esperti” che dagli anni ’70 in poi popolano tanto le grandi borse
finanziarie del mondo quanto i maggiori centri ospedalieri sono, evidentemente, molto più
intelligenti dell’uomo, dal momento che possono dividere, sintetizzare, analizzare e produrre
quantità di dati che un essere umano non potrebbe nemmeno lontanamente maneggiare, nemmeno
se possedesse davanti a se il tempo di dieci vite. Sono molto più intelligenti dell’uomo, se per
intelligenza si intende la capacità di calcolare.
La prima critica che la fenomenologia può muovere all’intelligenza artificiale è questa. La pretesa
intelligenza che l’IA rivendica per i suoi prodotti è un’intelligenza condizionale, un’intelligenza che
postula un “se”: se essere intelligenti significa calcolare, allora questi prodotti sono prodotti
intelligenti, allora l’avvento dei robot potrebbe veramente significare l’avvento di una specie
autonoma, diversa dall’essere umano ma a lui potenzialmente concorrente, capace di generare,
tramite la propria intelligenza, nuovi mondi, tali da sommergere quelli umani finora costruiti per
122

portare alla nascita l’era del robot. L’evoluzione umana si ritorce contro se stessa.
Certo, se intelligenza significa la capacità di calcolare massimizzando i risultati e riducendo al
minimo i costi di questa operazione.
A partire da una impostazione fenomenologica diventa possibile, quindi, addossare all’intelligenza
artificiale la responsabilità di aver assolutizzato i propri risultati prima, molto prima, di aver
vagliato i fondamenti sui quali questi erano costruiti. La minaccia di un mondo invaso da macchine
intelligenti potenzialmente concorrenti all’esistenza umana appare meno pericolosa, quando si
definiscono i contorni di queste pretese ricordando che ci sono dei fondamenti, alla luce dei quali e
soltanto alla luce dei quali, quelle pretese hanno un senso.
Aver definito l’intelligenza come calcolo, è stato possibile in base a una certa interpretazione
fondamentale del mondo, quella operata da Cartesio del mondo come rex extensa. Husserl però ha
dato un’altra interpretazione del mondo (die Welt) la quale non esclude, ma implica la presenza
umana.
L’interpretazione cartesiana della realtà distingue tra due enti, l’uomo e il mondo (nel linguaggio
cartesiano, il subiectum e l’objectum) i quali si contrappongono tra loro a causa di una diversità
essenziale, che li rende irriducibili l’uno all’altro. L’uomo è una res cogitans, intelligente, attiva,
capace di orientarsi e interpretare, mentre la realtà è una res puramente extensa, matematizzabile ma
morta e spenta, incapace di altro che di una passività meccanica, in accordo alle regole
deterministiche che ne regolano l’esistenza.
Se la filosofia cartesiana porta a compimento una storia della filosofia dove la distanza tra uomo e
mondo ha sempre occupato uno spazio fondamentale, la fenomenologia intende sostituire a tale
paradigma quello di un rapporto originario tra uomo e mondo, trascendentale, tale da costringere
questi due termini in un rapporto che li precede e li orienta entrambi l’uno verso l’altro. Una nuova
concezione della coscienza che vanifica le pretese dell’IA nei riguardi della possibilità di creare
delle macchine intelligenti, poiché priva di importanza il fatto che una macchina in futuro riesca a
superare l’imitation test, il Test di Turing. Turing, come ogni altro ricercatore nell’ambito
dell’intelligenza artificiale, condivide l’ipotesi fondamentale che l’intelligenza consista
fondamentalmente in una capacità di calcolo, massimizzazione, la quale si riflette in un poter fare,
come ad esempio un saper superare un test in cui la propria umanità viene messa alla prova.
Lo stesso prototipo del robot attuale, la macchina universale di Turing, ragiona in termini di
efficienza e rapidità, giustificandosi in questa assunzione di fondo che alla base dell’intelligenza
artificiale l’intelligenza stessa sia già preventivamente intesa come un’intelligenza strumentale, un
saper calcolare. Fn da quando è venuta alla luce, infatti, l’idea di Turing ha subito scatenato una
serie di problemi su come migliorare progressivamente l’aspetto ingegneristico della stessa,
123

riducendo ad esempio le dimensioni dei macchinari, sviluppando la loro velocità, aumentando la


memoria e la quantità di dati capaci di elaborare e così via.
L’intera critica fenomenologica al concetto di intelligenza artificiale e al suo presupposto
fondamentale, che pensare sia un calcolare, potrebbe trovare in questo brano di Essere e tempo una
formulazione perfetta:

«Ogni verità, per il suo essenziale modo d’essere conforme all’esserci, è relativa all’essere
dell’esserci. Significa, tale relatività, che ogni verità è “soggettiva”? Se per “soggettivo” si
intende “ad arbitrio del soggetto”, allora no di certo. Infatti lo svelare, nel suo senso più
proprio, sottrae l’enunciazione al libito soggettivo e porta l’esserci svelante di fronte all’ente
stesso. E solo perché “verità”, in quanto svelare, è un modo d’essere dell’esserci, può essere
sottratta al suo arbitrio. Anche la “validità generale” della verità è alla fine radicata nel fatto
che l’esserci, di per se stesso, può svelare ed esplicitare. Solo così questo ente ha in se stesso
la capacità di legare ogni possibile enunciato, cioè ogni sua di-mostrazione. La verità
rettamente intesa viene forse minimamente toccata dal fatto che sia onticamente possibile solo
nel “soggetto”, e stia e cada con l’esser suo? In base al modo d’essere della verità,
esistenzialmente concepita, è ora possibile comprendere anche il senso della presupposizione
di verità. Perché dobbiamo necessariamente presupporre che si dia verità? Che vuol dire
“presupporre”? Cosa significano il “dover necessariamente” e “noi”? Cosa vuol dire: “si dà
verità”? La verità “noi” la presupponiamo, perché “noi”, essendo nel modo d’essere
dell’esserci siamo “nella verità”. Noi la presupponiamo non come qualcosa che sta “fuori” o
“sopra” di noi, con la quale, come con e accanto ad altri “valori”, ci teniamo in rapporto. Non
siamo noi a presupporre “la verità”, ma è essa a fornire la stessa possibilità ontologica di
principio, che noi si possa davvero essere in modo tale, da presupporre alcunché. È la verità a
rendere possibile qualcosa come un presupposto».138

Né deve sembrare che introducendo un contenuto tratto da Heidegger, anziché da Husserl, il


progetto principale del lavoro sia stato smentito, in quanto i termini utilizzati da Heidegger in questi
due paragrafi non sono altro traduzioni di concetti già visti parlando della fenomenologia di
Husserl: Dasein, tradotto in italiano con “esserci”, è la traduzione a sua volta del concetto
husserliano di “coscienza”, che indica la struttura trascendentale del rapporto tra io e mondo;
“modo d’essere dell’esserci” indica l’io (Ich/Ego in Husserl) in quanto appartenente alla struttura

138 Heidegger, Essere e tempo, cit., p. 322.


124

della coscienza, che lo pone automaticamente in contatto con un mondo (il da- nell’espressione Da-
sein, essere lì, nel mondo).
Nel brano citato, Heidegger, con una serie di domande più o meno mirate, sta mettendo in luce
come l’abitudine a considerare separati tra loro uomo e mondo non sia originaria, ma derivata da
una storia filosofica ben precisa, come si è anche visto d’altronde citando Dreyfus; il modo d’essere
dell’esserci, quindi dell’uomo in rapporto col mondo, è quello di presupporre la verità. La verità
può essere presupposta in quanto, fenomenologicamente, l’uomo è già-da-sempre in rapporto con
un mondo, e soprattutto con le essenze di questo modo – un rapporto intimo, trascendentale, tale da
costringere a definire l’uomo non più come un ente nel mondo, tra gli altri, ma come un Da-sein, un
essere (Sein) per il quale l’esserci in un mondo è una componente assolutamente fondamentale (Da,
essere-lì).
Un altro termine presente nel brano citato è svelamento, con il quale Heidegger riprende la
concezione greca della verità e che traduce il tedesco Wahrnehmung. Il giudizio, la percezione, dice
Heidegger sulla scorta di Husserl, non si limitano a riflettere uno stato del mondo che esiste già: il
giudizio crea, svela ciò che era nascosto nel soggetto della nostra predicazione per dire qualcosa di
più. Già Husserl, parlando di Abschattungen,139 “adombramenti” degli oggetti nel mondo
circostante, ha messo in luce come la nostra percezione della realtà non sia l’apprensione di un
mondo stabile, unitario, ma come questo “continui a mostrarsi” agli occhi di un osservatore che è
richiesto affinché il mondo si sveli in quanto tale. Ora, che il mondo sia in quanto svelarsi, cioè in
quanto qualcosa che si mostra grazie al giudizio umano – alla filosofia, alla poesia, all’arte –
significa che l’essere-intelligente dell’uomo, da un punto di vista fenomenologico, ha un valore più
alto che il semplice valutare calcolante proprio della tradizione metafisica e cartesiana.
L’intelligenza umana, che si esprime nel pensiero e nell’arte, è la capacità stessa di portare alla luce
il mondo, operando uno svelamento essenziale delle essenze (il noema di Husserl) che l’uomo si
trova di fronte di volta in volta nella storia, dandone una determinazione essenziale che permette
alle essenze che da queste dipendono di svelarsi a loro volta in ciò che nella storia noi chiamiamo
“il nostro mondo”, il Da del Dasein.
Per la fenomenologia, l’intelligenza umana non è una facoltà tra le altre, ma, in quanto pensiero, la
facoltà essenziale, che in Husserl si può andare definendo come uno stare in rapporto al mondo –
un rapporto eidetico, essenziale – ma che ai fini del discorso trova una collocazione più precisa in
Heidegger come capacità di operare uno svelamento e di far – lasciar - accadere il mondo. L’essere
necessario al mondo per potersi mostrare, che appare per la prima volta nella fenomenologia di
Husserl come idea, viene sviluppata da Heidegger in direzione di un rapporto storico

139 Cfr. Husserl, Idee…, cit., §41, pp. 47-100.


125

(Zusammengehörigkeit) tra l’uomo e “l’essere”, una correlazione all’interno della quale l’uomo è
necessario come dimora, ovvero luogo dello svelamento tramite cui l’essere, di epoca in epoca, si
svela all’uomo in un certo mondo.140
La natura dell’intelligenza, per la fenomenologia, non consiste quindi in un mero calcolare capace
di fissare la realtà in concetti determinati, ma in un modo d’essere vero e proprio dell’essere umano,
che lo colloca in una posizione diversa rispetto agli enti della natura e agli animali grazie alla
propria natura di correlato trascendentale del mondo, la cui esistenza presuppone quella dell’essere
umano. La correlazione che pone l’uomo e il mondo come interrelati e co-necessari rende l’uomo,
in Heidegger, come il co-protagonista di un corso storico che abbisogna dell’uomo per il proprio
svelamento; l’intelligenza umana, che si esplica in questa storia nel pensiero e nell’arte, cessa di
essere considerata nei termini di una “massimizzazione strumentale” – qualcosa che si è visto
appartenere alla logica della modernità – per diventare “la dimora” in cui di volta in volta un mondo
viene svelato.
Nella fenomenologia l’uomo diventa un pilastro della realtà, senza cui la realtà né potrebbe esserci,
né non ci sarebbe. “Essere intelligenti”, presupporre la verità, significa essere dotati di un modo
d’essere che ci pone trascendentalmente in rapporto col mondo, di modo che “essere umano” ed
essere in rapporto ad mondo possano considerarsi sinonimi. È questa intimità col mondo, che
permette all’uomo di sviluppare arte e filosofia e di domandarsi “che cos’è…?” che allontana le
macchine all’infinito dall’ambito dell’intelligenza e della verità, poiché fenomenologicamente
l’intelligenza è proprio non quello strumento, ma quel modo d’essere tramite il quale l’uomo è già
costituzionalmente aperto ad un mondo che si apre a lui, qualcosa che una macchina non potrà mai
e poi mai sviluppare, in quanto mancante, fin dall’origine, di un modo d’essere analogo a quello
umano.
Qui risiede il punto fondamentale. È per questo che le pretese dell’intelligenza artificiale sono vane
e le loro proclamazioni false, il motivo per cui le macchine, nonostante possano simularlo, non
svilupperanno mai alcuna intelligenza artificiale. Una macchina, a dispetto dell’apparenza che è in
grado di fornire a riguardo, non è mai in rapporto al mondo, bensì simula questo rapporto, ma il suo
modo d’essere non la pone nei riguardi del mondo in quel rapporto tale da consentire qualcosa come
un’intelligenza. L’essere intelligente, ovvero il poter svelare, è garantito all’uomo dalla natura
originariamente aperta del suo essere, aperta nel senso di aperta-al-mondo, che è sempre lì, in-un-
mondo (da): è questo a rendere l’uomo intelligente a dispetto della macchina, e in un senso diverso
da quello in cui l’animale è intelligente.

140 Heidegger, Nietzsche, cit., p. 827.


126

L’intelligenza non è qualcosa che possa essere sviluppata, migliorata con il migliorarsi degli
hardware o dei software impiegati in una “macchina pensante”. L’intelligenza, anzi, non è proprio
una proprietà di cui qualcuno è dotato, ma un modo d’essere vero e proprio che dota alcuni enti, gli
esseri umani, di organi e caratteristiche essenziali affinché essi possano svolgere il loro proprio
compito storico-ontologico, che è quello di essere correlativi al mondo nella storia di questo, e una
parte fondamentale dell’impalcatura della realtà, che la tradizione metafisica ha abituato a
considerare come a se stante e indipendente dalla natura dell’uomo.
In altre parole, non esiste alcuna “intelligenza artificiale”, né potrà mai esistere, poiché
l’intelligenza è o umana, naturale, o non è. Non è possibile costruire artificialmente un rapporto che
sia trascendentale rispetto tanto alla natura umana che a quella del mondo, e che è sempre
presupposto in ogni contegno al mondo e lo rende possibile in ogni suo eventuale sviluppo storico.
Ciò che l’IA crea non è intelligenza, ma apparenza di intelligenza. L’intelligenza artificiale è in
grado di generare strumenti dotati di una mostruosa capacità di calcolo, anni luce lontana da quella
di cui qualsiasi uomo sarà mai capace, ma questo non ha il minimo valore di intelligenza né pone
assolutamente il robot in contrasto con l’essere umano, poiché è proprio l’intelligenza umana ciò
che rende l’essere umano infinitamente differente dal robot, ed è questa intelligenza, che si esplica
nella “cultura” storica di un’umanità, a rendere l’uomo qualcosa di unico. È il modo d’essere
dell’uomo che lo differenzia dal robot (e soprattutto dall’androide, nel linguaggio utilizzato a partire
dal primo capitolo), a dispetto della capacità di calcolo di cui questo potrà mai essere dotato. Per
quanto grande sarà questa capacità in futuro, comunque, nessun robot potrà mai dirsi dotato di
intelligenza. Non esiste alcuna forma di intelligenza “artificiale”: l’intelligenza o è naturale e
umana, o non è.
Di conseguenza, i prodotti dell’IA fino ad ora sviluppati, gli apparenti sviluppi che questa scienza
millanta, non sono stati degli sviluppi nella direzione da essa agognata, quella della produzione di
“macchine intelligenti”, poiché l’intelligenza non è qualcosa che ha primariamente a che fare col
calcolo – perlomeno se si adotta a riguardo un punto di vista fenomenologico, che è la prospettiva
acquisita in questa sede.
L’Intelligenza Artificiale è riuscita, per certo, a velocizzare i tempi con cui determinati processi
vengono elaborati, processi tanto “logici” quanto “corporei”, creando esseri che, in apparenza,
riescono a parlare e ad orientarsi nello spazio, proprio come se fossero degli esseri viventi veri e
propri; questo “come se” però è fondamentale, in quanto questi esseri sono in verità ciechi, di un
tipo di cecità che nessun sensore tattile o visivo potrà mai modificare. La macchina, il robot, poi
l’androide sono trascendentalmente ciechi nei confronti della realtà: non nel senso che non possa
essere data loro l’apparenza di una percezione tramite dei sensori appositi, ma questa apparenza,
127

capace anche di innestare risposte a feedback (cibernetiche) da parte del robot, non sarà mai il
riflesso di un vero e proprio stare in rapporto al mondo, di un contegno, nel senso in cui la
fenomenologia intende questo concetto implicato in quello di husserliano di coscienza.
Questa è la critica che da un punto di vista fenomenologico si potrebbe fare all’Intelligenza
Artificiale, intesa non come semplice branca di ricerca – cosa che comunque non è – ma come un
intero movimento storico, il cui obiettivo è quello della realizzazione di robot intelligenti capaci un
giorno di entrare in concorrenza con l’uomo. Sebbene, come si è detto, nessuno degli autori
fondamentali alla base di questa filosofia si siano mai direttamente occupati di intelligenza
artificiale, e non ci si sia potuti quindi direttamente rifare ad argomentazioni da loro sviluppate per
trattare gli argomenti in questione, i concetti che la fenomenologia ha sviluppato nel corso di diversi
decenni di attività si sono rivelati comunque sufficienti per portare un attacco non tanto alla
veridicità dei risultati delle ricerche di questa disciplina, quanto ai fondamenti sui quali questa si
fonda.
Non è infatti la “capacità di calcolo” degli oggetti prodotti dai ricercatori favorevoli all’IA ad essere
messa in discussione, anzi, questa viene lasciata perfettamente intatta e intoccata come un trofeo di
cui qualsiasi ricercatore dovrebbe andare ben fiero. Ciò di cui si dubita è, invece, l’assunzione di
fondo secondo la quale questa aumentata capacità di calcolo possa rendere, nel tempo, Sophia “più
intelligente” di ENIAC, il suo antenato sviluppato circa 70 anni prima di lei. Noi vogliamo bene a
Sophia e ammiriamo lo sforzo che sta dietro di lei, la finezza dei circuiti con cui a livello
ingegneristico è stata sviluppata, l’attenzione posta nello sviluppare software adeguati a darle
un’apparenza di realtà. Per quanto Sophia però possa dare l’impressione di star guardando
l’osservatore, il suo sguardo è cieco e il mondo in cui lei sembra spostarsi, per lei stessa, né esiste,
né non esiste. Sophia è un’apparenza dotata di calcolo, un’illusione che gran parte del mondo
contemporaneo confonde per “intelligenza”.
La critica che è stata mossa all’Intelligenza Artificiale può, e dovrebbe, essere sviluppata ancora in
molte direzioni, poiché se questa è l’argomentazione generale, si può comunque scendere più nel
dettaglio per andare a sviscerare i diversi temi “dubbi” sui quali l’IA ha scovato qualcosa come
delle contraddizioni, dei problemi che confondono e sembrano rendere difficile la realizzazione di
una vera e propria macchina intelligente. Minsky ha posto l’accento sulla difficoltà di comprendere
che cosa sia il buonsenso, la cosa più scontata di tutte in apparenza, e di quanto appaia ardua
l’ipotesi di realizzare effettivamente un androide dotato di tale buonsenso.
Così come il buonsenso, poi, anche il linguaggio sembra essere qualcosa che una macchina “non
comprende” troppo bene: Weizenbaum, l’autore del primo chatbot della storia, ELIZA, ha lasciato
delle note sullo scritto di resoconto circa lo sviluppo del suo software, in cui tenta di spiegare
128

quanto sia effettivamente arduo riuscire a dotare un macchinario della capacità di “parlare” – inteso
nel senso più generale possibile di comprendere delle frasi e rispondervi. Altri temi sono stati
toccati e diversi pareri sono stati dati a proposito della realizzabilità o meno del progetto che
abbiamo definito Intelligenza Artificiale.141
Si cercherà ora di utilizzare i concetti fin qui sviluppati per inserire la fenomenologia all’interno
della questione dell’intelligenza artificiale, tentando di scoprire, deducendole logicamente, quali
sarebbero le posizioni e quali le critiche che la fenomenologia potrebbe apportare alle tesi e alle
speranze degli autori che coinvolti nel dibattito a proposito dell’IA. Torna qui a rendersi evidente
quanto è stato già accennato in passato, per più di una volta, e cioè che i due capitoli di introduzione
al terzo, quello che stiamo svolgendo, non hanno avuto un semplice ruolo di introduzione, ma
hanno svolto una duplice funzione, ossia quella di fornire il quadro generale della questione,
innanzitutto, ma poi anche quello di garantire una comprensione più profonda della tesi grazie alla
possibilità di mettere a confronto la fenomenologia con le posizioni di altri autori già coinvolti nella
questione.
Divideremo le sezioni seguenti in “critiche” e “risposte”. Le prime verranno date agli autori che si
presume essere dalla stessa parte della fenomenologia nei riguardi delle speranze dell’Intelligenza
Artificiale, quindi Dreyfus e Searle, mostrando come questi, lungi dall’aver mosso degli attacchi
potenti ai progetti dell’IA, in verità si ritrovino ad esserne segretamente dei fautori, in quanto
nessuno di questi due è andato a toccare i fondamenti stessi della questione (il concetto di
intelligenza) come un attacco fenomenologico avrebbe fatto e come qui si è tentato di fare, bensì
attuano la loro offesa a partire da un terreno che essi condividono con i ricercatori impegnati nel
campo dell’intelligenza artificiale, condannando se stessi a delle critiche superficiali, nel senso
fenomenologico del termine,142 e quindi non risolutive.
Le critiche di questi autori all’Intelligenza Artificiale, quindi, sono esse stesse bisognose di critica –
di critica fenomenologica – poiché in questo caso la fenomenologia deve intervenire con intenzioni
correttive per evitare che critiche mosse sulla base di fondamenti incerti finiscano con l’amplificare
il potere dell’oggetto d’analisi, anziché di sminuirlo e costringerlo a vacillare.
Nei confronti invece degli avversari espliciti della fenomenologia, quindi nei confronti
dell’Intelligenza Artificiale stessa e di tutti i suoi sostenitori, da un punto di vista fenomenologico

141 Ripetiamo quanto già annunciato in una nota del Prologo: quando si parla di “intelligenza artificiale” con la
minuscola, ci si riferisca all’IA come generico campo di ricerca. Quando se ne parla con la maiuscola invece, come nel
caso in questione, ci si riferisce all’IA forte, al movimento che tenta effettivamente di sviluppare macchine intelligenti.
Quando si parla di “IA” invece, utilizzando l’acronimo, si intende il campo dell’IA in entrambe queste sfumature.
142 È importante specificare che nel contesto fenomenologico i termini di “volgare”, “ingenuo”, “superficiale”, non
hanno alcun giudizio morale alle proprie spalle e riflettono il senso preciso del termine prefenomenologico: una critica
volgare è una critica che condivide i fondamenti di ciò che sta criticando, anziché andare a interrogare quelli e portare la
questione su un altro piano, il che è esattamente lo scopo e il senso della fenomenologia utilizzata come strumento
d’analisi, quindi in senso dialettico-heideggeriano.
129

tenteremo direttamente di dare delle “risposte”, mostrando come i risultati cui questi autori sono
giunti sono corretti e promettenti soltanto nell’ambito da loro stessi preventivamente delineato,
l’ambito nel quale l’intelligenza e il calcolo sono sinonimi, e che la fenomenologia intende mettere
definitivamente in discussione. Delle tesi si questi autori si prenderanno in considerazione alcuni
punti, mostrando come questi entrino in contraddizione con la definizione che ho dato di
intelligenza a partire dalla struttura concettuale della fenomenologia e che, a parere di chi scrive, nei
prossimi anni dovrebbe sostituire quella vigente da secoli e che ha finito col generare la situazione
problematica di fronte alla quale ci troviamo oggi.

3. La critica a Dreyfus

A proposito di Dreyfus, ci si è già scusati del “riduzionismo” con il quale bisogna trattare questo
autore, in quanto nel corso del suo lavoro Dreyfus ha toccato temi molto differenti e ha mosso
diverse critiche nei confronti dell’Intelligenza Artificiale, mentre in questa sede sembra si vogliano
ridurre tutte le argomentazioni dell’autore ad una sola, quella secondo cui l’ottimismo
dell’Intelligenza Artificiale non è assolutamente giustificato dalle premesse e dai risultati effettivi
che la scienza cognitiva ha raggiunto, ma anzi, ha un mero valore autopropulsivo che si intende
mantenere nonostante i continui fallimenti cui la scienza cognitiva di decennio in decennio è andata
incontro.
Questa dovrebbe essere presa come la critica fondamentale che Dreyfus muove contro l’Intelligenza
Artificiale, in quanto le altre sue diverse argomentazioni o rimandano a questa, nel senso che la
presuppongono o vi conducono, o nel senso che ne sono il presupposto. I diversi riferimenti che
Dreyfus fa a proposito della diversa maniera di intendere la realtà da parte dell’essere umano
rispetto alla macchina, accentuando come il mondo, per l’uomo, sia significativo, mentre non lo è
per la macchina, la non riducibilità dei processi di pensiero e creativi umani a quelli di un
automatismo e quant’altro conducono tutti inevitabilmente a ritornare al pensiero fondamentale che
ispira il suo lavoro: “l’Intelligenza Artificiale non è ancora riuscita a sviluppare nulla di nemmeno
lontanamente simile all’essere umano, e quindi…”. Citando da What computers can’t do:

«In spite of grave difficulties, workers in Cognitive Simulation and Artificial Intelligence are
not discouraged. In fact, they are unqualifiedly optimistic. Underlying their optimism is the
conviction that human information processing must proceed by discrete steps like those of a
digital computer, and, since nature has produced intelligent behavior with this form of
130

processing, proper programming should be able to elicit such behavior from digital machines,
either by imitating nature or by out-programming her».143

Il problema con la critica di Dreyfus è l’assunzione temporale che sta alla base delle sue
argomentazioni: Dreyfus critica l’intero progetto dell’Intelligenza Artificiale a partire dai fallimenti
o, piuttosto, dai risultati non straordinari, che essa ha ottenuto nel corso degli anni che vanno dal ’50
al ’70 circa. Gli autori di questa grande epoca iniziale dell’Intelligenza Artificiale hanno iniziato le
loro ricerche con un entusiasmo esagerato, come se la realizzabilità di un androide intelligente vero
e proprio fosse appena alle porte (e d’altronde questo entusiasmo è testimoniato da citazioni reali di
McCarthy e di diversi altri protagonisti) – ma, 30 anni dopo, che cosa ne è di questa realizzabilità?
Che cosa è stato prodotto? Dreyfus parte da una constatazione empirica di qualcosa di presente per
dedurre l’infondatezza dell’intero progetto: “se non è stato fattibile finora, non lo sarà mai”. Esposta
in questa luce, dovrebbe apparire immediatamente quanto vana e inconsistente sia questa critica e,
in verità, tutte le critiche di questo genere, soprattutto dopo la realizzazione di prodotti stupefacenti
come i robot camminatori della BostonDynamics o l’androide di cui si è parlato ad inizio tesi, il
“giornalista cinese”. Se si dovesse ragionare nei termini della logica di Dreyfus, considerando la
ripresa delle ricerche nel campo dell’intelligenza artificiale dagli anni ’90 in poi, la sconfitta di
Kasparov contro DeepBlue e la creazione di macchine simili a quelle appena descritte, che cosa se
ne dovrebbe dedurre? Certamente il contrario di quello che ne ha dedotto Dreyfus, in
considerazione allo stato della scienza cognitiva e dell’ingegneria robotica nel suo tempo.
La logica di Dreyfus è fallace poiché pretende di arrivare ad un risultato universale – “l’intelligenza
artificiale non è possibile” – a partire dalla constatazione di uno stato di cose empirico, e quindi
storico, sempre suscettibile di alterazione e in questo caso specifico di miglioramento. Questo
genere di critica, che non tocca assolutamente i fondamenti della questione, può essere
controbattuta senza nemmeno un’argomentazione ad essa contraria: è sufficiente sedersi in silenzio
ed aspettare che la storia faccia il suo corso, come di fatto sta accadendo. Nel corso della storia della
scienza, di alterazioni, cambi di paradigma e sviluppi ne sono avvenuti molti, moltissimi; se
fossimo vissuti nel ‘200, anziché oggi, avremmo certamente dedotto che volare per l’essere umano
è impossibile – eppure oggi accade.
La critica fenomenologica si pone su tutt’altro piano rispetto a quello di Dreyfus, poiché la
fenomenologia nega che l’Intelligenza Artificiale possa mai effettivamente creare qualcosa di
intelligente a partire da una logica trascendentale, assoluta, non storico-empirica. Non è perché “lo
stato della scienza cognitiva”, ad oggi, “non ha ancora prodotto risultati strabilianti”144 che si deve

143 Dreyfus, What computers…, cit., p. 67.


144 Il che è comunque falso, da qualsiasi punto di vista si voglia considerare il problema.
131

negare le pretese dell’Intelligenza Artificiale, poiché se il problema venisse veramente impostato in


questa maniera i sostenitori delle possibilità dell’IA avrebbero buon gioco a mostrarci una lista
infinita di risultati che invece l’ingegneria robotica ha ottenuto e continua ad ottenere. È invece
perché a livello trascendentale, eidetico, che l’essere umano e il robot/androide sono diversi, in
quanto l’uno partecipa della costituzione stessa della realtà e del mondo, mentre l’altro no, che gli
esseri umani sono dotati di un’intelligenza, mentre non così i secondi. Qui non è coinvolto alcun
fattore storico, nel senso di un “non ancora”. Non si tratta di un “non essere ancora in grado di
dimostrare che”, come imposta il problema Dreyfus, ma nella determinazione a livello eidetico-
trascendentale di un’impossibilità, la quale si fonda su un’interpretazione della realtà e della natura
umana, e del rapporto tra queste, che la fenomenologia sviluppa a tutt’altro livello rispetto a quanto
fatto da Dreyfus, il quale invece condivide ancora la concezione dell’uomo e del mondo sviluppato
dalla metafisica tradizionale.
Quando si sostiene, allora, che Dreyfus è un autore di impostazione fenomenologica, bisogna
specificare che questi ha comunque ripreso soltanto gli aspetti più superficiali della fenomenologia,
lasciando però intoccato il nocciolo della questione, quello del rapporto tra uomo e mondo, l’unica
considerazione possibile che, ad oggi, permetterebbe veramente un passo avanti dello status
quaestionis capace di aprire tutta un’altra serie di problemi, e quindi possibilità, rispetto a quanto
fatto in passato. A differenza di quanto fatto da Dreyfus, quindi, se anche l’argomentazione su
ottimismo e pessimismo dell’Intelligenza Artificiale non fosse la critica principale di questo autore,
una critica di tipo fenomenologico dovrebbe comunque, in ogni caso, rifiutare qualsiasi riferimento
al tempo e alla condizione storica della scienza cognitiva, poiché questo genere di critica si espone
sempre al contrattacco – totalmente giustificato, sulla base di questi presupposti – “oggi sì, ma in
futuro…”. Lo “storicismo” di cui si sta accusando Dreyfus, dunque, oltre a mancare totalmente il
punto del discorso in quanto ne fa una questione di realizzabilità pratica, di ancora o non ancora, si
espone sempre alla critica che viene dallo scorrere del tempo, in base al quale, non si dubita, la
scienza saprebbe fornire delle prove dei progressi compiuti nell’arco di qualche anno. È illegittimo
dedurre risultati universali da premesse storiche, e quindi empiriche; per questo, la critica di
Dreyfus va rifiutata.
La fenomenologia invece deve sostenere ad alta voce che non esiste alcun futuro per l’intelligenza
artificiale, allo stesso modo in cui essa non ha un presente e non ha mai nemmeno davvero avuto un
passato.

4. La critica a Searle.
132

Sotto un certo punto di vista, Searle è l’autore che più di tutti, tra i critici dell’Intelligenza
Artificiale, si avvicina alle posizioni di fondo espresse dalla fenomenologia. Il suo famoso
“argomento della camera cinese”, secondo cui un essere umano capace di manipolare dei simboli a
livello sintattico, seguendo precise istruzioni di regole, non necessariamente comprende davvero a
livello semantico il contenuto delle sue operazioni, si impianta sulla distinzione tra sintassi e
semantica, la quale sembra avvicinarsi molto all’impostazione fenomenologica del problema.
Sintatticamente, cioè a livello di una manipolazione simbolica, la macchina può realizzare qualsiasi
operazione che un essere umano potrebbe idealmente realizzare; a livello semantico, però, i robot
non possiedono alcuna mente e quindi alcuna vera comprensione, in quanto mancano quel
riferimento al mondo che Searle stesso chiama intenzione. Anche a partire da una base
fenomenologica, l’argomento della camera cinese potrebbe essere accettato: in fondo, è facile
vedere nel “contenuto” del riferimento della mente umana a differenza dell’essere robotico ciò che
Husserl chiama il noema, e nel concetto di intenzionalità di Searle, implicita, l’intenzionalità per
come intesa da Husserl, quindi la stessa concezione della coscienza e il rapporto trascendentale che
lega l’uomo al mondo, e viceversa.
Tuttavia, si trova proprio qui il motivo d’errore:

«Una persona pensa “noi intendiamo…” e un’altra pensa “noi intendiamo…”, ed è tutto nelle
loro teste individuali. La mia spiegazione è fortemente naturalistica, poiché cerco di mostrare
come la biologia, la fisica e la chimica creino la coscienza e l’intenzionalità, e come
l’intenzionalità a sua volta crei la società e la civiltà; ma tutto procede dalla base di micro-
fenomeni e l’intenzionalità collettiva esiste nei cervelli individuali».145

A partire da quanto elaborato fino ad ora dovrebbe risultare immediatamente evidente come ci sia
qualcosa che stoni nel brano appena citato di Searle in riferimento ai concetti basilari espressi dalla
fenomenologia. Questo qualcosa che stona è il tentativo di Searle di fondare l’intenzionalità in
qualcosa di biologico. Voler fare qualcosa del genere significa non condividere assolutamente, a
dispetto delle apparenze, il punto di vista della fenomenologia sulla questione, in quanto la
concezione fenomenologica del rapporto tra uomo e mondo considera l’intenzionalità su un piano
trascendentale, antecedente ai singoli termini che la compongono (l’Ich e il mondo, die Welt),
mentre lo stesso non accade in Searle.

145 Searle, Coscienza, linguaggio, società, cit., p. 107.


133

Searle non condivide questo assunto trascendentale, ma si ferma sul piano dell’opposizione
metafisica tra uomo e mondo, la quale pone i due termini come tra loro lontani e contrapposti, senza
nulla che giustifichi la loro coesistenza in termini trascendentali. Così, la “mente”, che si trova ad
avere per contenuto un mondo, abbisogna di essere giustificata, una giustificazione che Searle dà in
termini di adattamento evolutivo: è la biologia a generare la struttura dell’intenzionalità, tanto che
Searle arriva a fondere i due piani parlando addirittura di biologia semantica, quindi di un piano
biologico che di per sé possa condurre allo sviluppo della semantica, del significato e quindi della
stessa intenzionalità.
In diversi punti del testo di Searle si ritrovano conferme che testimoniano di questa somiglianza
solo apparente tra il pensiero di Searle e quello fenomenologico, in particolare di Husserl:

«Il punto è che mi sembrano idealisti, mi sembra che condividano molto con l’idealismo
tradizionale. Husserl, in particolare, mi sembra che sia mosso dal progetto idealistico di
fondare la conoscenza del mondo reale nell’intenzione e nel noema. Questo progetto è molto
diverso dal mio. Si potrebbe pensare che in Heidegger le cose vadano meglio, ma in realtà
vanno peggio. Heidegger vuole far rientrare tutto nell’ambito del Dasein, e dice cose da
toglierti il fiato come: “Due più due fa quattro, ma soltanto nella misura in cui il Dasein
esiste, perché se il Dasein non esistesse, non è che due più due farebbe cinque, ma
semplicemente non ci sarebbe nulla come il fatto che due più due fa quattro”. Questo è
idealismo puro, è mettere tutto nell’ambito del Dasein».146

Nei riguardi del brano citato, dispiace dire che qui non si tratta tanto di una “differenza di vedute”,
quanto di una semplice incomprensione del testo di Heidegger da parte di Searle. Questo risulta
evidente dall’identificazione, scorretta, di Dasein con “io” nel senso metafisico del termine, come
qualcosa che, nel mondo, si contrappone comunque ad esso, una cosa tra le cose: è invece il
contrario con Heidegger e con la fenomenologia, in quanto questo movimento filosofico si
preoccupa proprio, come prima cosa, di riportare l’uomo e il mondo ad un rapporto più originario,
fondando l’unità tra questi due termini in senso trascendentale e non metafisico-deduttivo,
“ontoteologico” nel lessico heideggeriano. Da-sein, il termine scelto da Heidegger, intende proprio
accentuare questa unità di uomo (Sein) e mondo (Da), senza la quale unità né l’uomo né il mondo
potrebbero essere pensati. Qui, dunque, Searle manca il punto della questione.
Tuttavia, non è semplicemente il fatto di non condividere la stessa prospettiva di Husserl e
Heidegger a porre la necessità di criticare la critica di Searle, ma il fatto che il suo tipo di attacco si

146 Ivi, p. 101.


134

espone allo stesso tipo di risposta a cui si rende vulnerabile la critica di Dreyfus. Se l’intenzionalità
è un prodotto dell’evoluzione e, più nello specifico, è un certo acquisto dello sviluppo biologico di
un essere vivente, cosa impedisce alla scienza di sviluppare, sintetizzandoli, materiali organici, i
quali potranno in futuro offrire la stessa intenzionalità di cui godono oggi gli esseri umani e in parte
gli animali? Ad oggi, questo è impossibile – ad oggi. Nulla proibisce però che, col tempo,
l’ingegneria robotica si sviluppi a tal punto da saper produrre qualcosa di simile, accorciando quindi
in maniera drastica la distanza tra l’uomo e l’androide, finendo col dotare quest’ultimo dello stesso
tipo di semantica e di riferimento al mondo di cui oggi gode soltanto l’uomo. Sarebbe
l’avveramento di tutti i sogni del transumanesimo.

5. I critici di prima generazione

Considerati sotto questo punto di vista, tanto Searle quanto Dreyfus, nonostante la distanza delle
loro relative critiche e argomentazioni, condividono qualcosa di fondamentale nella maniera con cui
si pongono nei confronti dell’Intelligenza Artificiale: nessuno di questi autori ha posto il problema
del rapporto tra uomo e robot in termini trascendentali, ma entrambi hanno lasciata aperta per la
scienza la possibilità di un ipotetico, futuro, “se”. Questo genere di argomentazioni, quando
applicate alla scienza, tendono inevitabilmente a fallire a causa della capacità quasi miracolosa della
scienza odierna di innovarsi continuamente arrivando a produrre risultati che fino a qualche anno
prima sarebbero stati inaspettati, se non addirittura impensabili. Anche senza andare a verificare se
poi, effettivamente, la questione considerata sia stata effettivamente ribaltata dalla ricerca scientifica
tramite i suoi “risultati miracolosi”, oppure no, argomentazioni come queste lasciano sempre una
possibilità troppo ampia al mondo dell’Intelligenza Artificiale.
Per questo, Dreyfus e Searle possono essere considerati come i due maggiori esempi di quelli che
chiamerei i critici di prima generazione dell’Intelligenza Artificiale. Questi critici “di prima
generazione” sono accomunati dal fatto di impostare la questione dell’IA non in termini
trascendentali, come ha fatto la fenomenologia e come fa la filosofia di Heidegger, bensì secondo
un approccio storico il quale di per sé, per la natura stessa della storia, cangiante, può sempre essere
alterato, rivelando ad un certo punto una soluzione tecnica nuova che inficerebbe le critiche valide
fino a quel punto sostenute contro le millanterie dell’Intelligenza Artificiale.
Questo tipo di critica, oltre a mancare l’obiettivo fondamentale di un attacco alle pretese
dell’Intelligenza Artificiale a causa del tipo di logica che impiega, è poi addirittura deleteria per la
causa di chi si ritiene contrario alle possibilità vantate dall’Intelligenza Artificiale, in quanto non
135

compie l’unico tipo di critica che, perlomeno a livello preliminare, dovrebbe svolgere, quello di
un’analisi impietosa dei presupposti sui quali l’Intelligenza Artificiale si regge e che rendono
plausibile il suo intero progetto di ricerca. Questa mancanza non è semplicemente la premessa di un
fallimento, ma addirittura un danno portato contro se stessi, in quanto evitare di porre come
problema i presupposti su cui l’Intelligenza Artificiale si basa finisce col riconfermare, a livello
concettuale, che quei presupposti (l’intelligenza come calcolo e massimizzazione del risultato in
ambito pratico-empirico) sono in sé veritieri e non hanno alcun bisogno di alcuna
problematizzazione, finendo col generare una situazione paradossale stando alla quale l’Intelligenza
Artificiale vanterebbe pretese infondate, a partire però da presupposti corretti.
La fenomenologia, in ogni caso, e soprattutto la critica fenomenologica svolta nel lavoro in corso,
sebbene come appena detto si dirige soprattutto ai critici dell’Intelligenza Artificiale, non si rivolge
unicamente a loro, poiché le possibilità dinamiche offerte dalla stessa, cioè il poter portare la
questione ad un livello ulteriore tramite la ristrutturazione dei fondamenti sui quali questa è posta,
ha l’effetto di alterare le tesi, le critiche e i problemi sviscerati non soltanto dalla critica, ma dai
sostenitori stessi del programma dell’Intelligenza Artificiale.
Tanto i transumanisti quanto i ricercatori sostenitori dell’IA forte in genere non possono esimersi
dal confrontarsi con un’impostazione fenomenologica del problema, se non a patto di ricadere in
quei “due crimini” di cui essi sono stati accusati nel capitolo precedente di questa sezione, ovvero
quelli di essere ignari della validità o meno di ciò che sta alla base delle loro stesse speranze, per
prima cosa, e poi l’accusa ancora più grave di voler restare all’oscuro di questo per poter continuare
a proiettare le proprie speranze, infondate o meno, nel futuro, al solo scopo di continuare le proprie
ricerche, indipendentemente dal fatto che queste siano sensate e corrette, oppure no.
Nei riguardi del problema dell’intelligenza artificiale, alimentare un’atmosfera di guerra tra i
sostenitori e gli oppositori di questa scienza è quanto di più sbagliato si possa mai fare. Quale
sarebbe infatti il risultato di questa guerra, nel caso in cui una delle due parti dovesse vincere?
Abolire il progetto dell’Intelligenza Artificiale, come vorrebbero i critici, aiuterebbe a comprendere
la natura di questo progetto in termini storici, la sua origine e per quale motivo si sia giunti a questo
punto di sviluppo nella storia d’Occidente? Sviluppare invece degli androidi intelligenti, riuscire a
dare effettivamente coscienza ad una razza alternativa a quella umana, fornirebbe che cosa, al di là
della soddisfazione che potrebbero provare alcune menti “particolari” al solo pensiero di aver
sostituito gli uomini con una loro controparte in ferro e silicone?
L’analisi fenomenologica si rivolge tanto ai critici quanto ai sostenitori, i quali vengono messi sotto
lo stesso ombrello a partire dall’analisi dei concetti fondamentali che stanno alla base tanto del
progetto dell’Intelligenza Artificiale, quanto di quello della sua critica. Critici e sostenitori sono
136

accomunati, quindi, su un piano storico, in base al coinvolgimento di entrambi su un livello di


dibattito superiore, appunto storico-dinamico (in senso heideggeriano) il quale deve portare ad una
presa di coscienza generale su quali siano i fondamenti del dibattito in corso. Una volta compresi
questi, il dibattito potrà essere ristrutturato e indirizzato verso nuovi ambiti, nuovi problemi. Fino a
quando, però, il problema sarà “se la scienza è in grado di fornire o no una coscienza”, intendendo
però la coscienza nel senso dell’io metafisico capace di calcolare e muoversi in uno spazio, allora la
critica avrà già perso in partenza e la scienza, pur potendo ottenere dei progressi mendaci in questo
senso, non avrà acquisito alcuna vera conoscenza nell’ambito del problema preso in esame, poiché
saranno stati falsi i presupposti in base ai quali questi risultati sono stati ottenuti.
Quanto ci si auspica è quindi, di conseguenza, la nascita di una nuova età della critica, quella dei
critici di seconda generazione, i quali sapranno impostare i termini del problema in termini nuovi,
in chiave fenomenologica, ponendosi domande e problemi a partire dal rapporto trascendentale che
lega l’uomo al mondo e il mondo all’uomo, in termini tanto epistemologici, come in Husserl,
quanto storici, come in Heidegger, nel senso in cui Heidegger ha inteso questo termine.

6. La risposta all’Intelligenza Artificiale

Marvin Minsky, tra tutti i ricercatori che si sono impegnati nell’ambito di ricerca dell’intelligenza
artificiale, è stato uno dei più consapevoli delle difficoltà che si trovano quando si tenta di
sviluppare delle macchine “intelligenti”, ovvero, secondo la concezione della robotica, capaci di
interagire in maniera sensata con la realtà e di risolvere problemi logici complessi nel minor tempo
possibile. Minsky è stato tra i primi autori citati nel corso di questa tesi, come quello che ha più di
tutti indagato il problema del buonsenso, questo fenomeno così diffuso e scontato per l’essere
umano, ma molto difficile da integrare effettivamente nell’ambito della robotica, e di fenomeni ad
esso affini come il linguaggio. Qual è quel principio che rende gli esseri umani capaci di buonsenso,
qualcosa di così semplice, e per quale strana ragione in un robot è più semplice implementare
software per risolvere problemi molto complessi, che non affrontare situazioni ordinarie e, per un
uomo qualsiasi, banali?
La consapevolezza di questa difficoltà e il desiderio di porvi argine dal punto di vista ingegneristico
si legano in Minsky alla riflessione teorica (condotta ovviamente da un punto di vista strettamente
empiristico) circa la natura dell’intelligenza, e di come questa possa essere implementata, o
137

emergere che dir si voglia, in un corpo non-organico ma robotico, di ferro e silicone. Nel prologo
del suo libro The Society of Mind, Minsky esplicita:

«This book tries to explain how minds work. How can intelligence emerge from
nonintelligence? To answer that, we’ll show that you can build a mind from many little parts,
each mindless by itself. I’ll call “Society of Mind” this scheme in which each mind is made of
many smaller processes. These we’ll call agents. Each mental agent by itself can only do
some simple thing that needs no mind or thought at all. Yet when we join these agents in
societies… this leads to true intelligence».147

Il problema di teorizzare come possa svilupparsi l’intelligenza in un robot, quindi, qualcosa di


significativo a partire da qualcosa di non semantico come pezzi di ferro e silicone, pone la questione
della genesi dell’intelligenza su un altro piano rispetto a quello in cui possono trovarsi a ragionare,
ad esempio, degli psicologi o dei biologi. Searle ha potuto rispondere che l’intelligenza, la mente e
quindi la semantica, nell’uomo, sono la descrizione ad un livello superiore di un particolare tipo di
biologia, la biologia appunto umana; ma per quanto riguarda i robot, dei quali non si può nemmeno
dire abbiano una biologia? Il problema con l’emergere dell’intelligenza dall’ingegneria è arduo e
Minsky se ne rende ben conto. Per darvi una risposta, Minsky opera quella che chiamo una
ristrutturazione epistemica dei termini del problema, qualcosa che, in un certo senso, non è troppo
lontana da quanto è stato fatto in questa tesi a partire dall’impronta fondamentale che la
fenomenologia ci ha fornito. Anziché affrontare la questione classica del rapporto “mente-corpo” a
partire da una prospettiva monolitica, prendendo a concetti il corpo, come un intero, e la mente,
come un altro intero, Minsky frantuma corpo e mente in una serie di piccoli atomi che chiama
agents, i quali sono nomi, processi di pensiero, funzioni – qualsiasi cosa possa essere trovato nella
nostra mente – arrivando a sostenere che non sono i singoli agenti, e quindi “il corpo”, a produrre
l’intelligenza, ma i rapporti e le interazioni tra questi che, se considerati nel loro complesso, danno
come risultato quanto possiamo chiamare intelligenza.
Ora, rifacendoci alle categorie searliane di IA debole e IA forte, Minsky potrebbe essere fatto
cadere sotto la prima branca di ricerca, in quanto il suo sforzo è lo sforzo di un vero e proprio
scienziato cognitivo, il quale sì, come qualsiasi ricercatore impegnato nel campo dell’intelligenza
artificiale, ha per obiettivo quello di dare vita a robot e macchine intelligenti, ma intende il proprio
lavoro innanzitutto come finalizzato a comprendere che cosa sia l’intelligenza, come si manifesti
nel mondo animale, quali forme abbia e cosa renda unica l’intelligenza umana a differenza di tutte

147 Marvin Minsky, The Society of Mind, New York, Simon&Schuster, 1985, p. 18.
138

le altre (ammesso che questa differenza si dia). Da questo punto di vista, Minsky sarebbe potuto
essere trattato insieme a Hofstadter nel capitolo secondo di questa tesi, se avessimo voluto
considerarlo come un autore a parte.
Se, invece, Minsky non è stato direttamente trattato, è perché il suo lavoro ci è utile per la sezione in
questione, in quanto può essere utilizzato come esempio generico di tutti quei tentativi di
“ristrutturazione epistemica” dei termini del problema – epistemica, non fenomenologica – i quali
consistono nell’alterare i termini della questione arrivando a dare soluzioni nuove, senza però,
comunque, arrivare a toccare i fondamenti del problema, i quali restano inconcussi e pertanto
continuano ad orientare inconsapevolmente l’attività teorica e di ricerca nei modi che abbiamo visto
finora.
Posta sotto il mirino della fenomenologia, qualsiasi tentativo di ristrutturazione epistemica, come
quella di Minsky, è comunque destinata a fallire, poiché importa poco se l’intelligenza sia data da
un certo tipo di materia o dal rapporto tra i microelementi di cui questa materia è composta, dal
momento che nessuna di queste due risposte potrà comunque alterare il fatto che l’uomo stia in
rapporto al mondo in un contegno trascendentale e possa questionarne l’essenza in una maniera che
non sarà mai possibile ad alcun robot, a causa della natura ontologicamente interrelata del mondo e
dell’uomo tra loro. Ogni tentativo di ristrutturazione epistemica è destinato a fallire e non mina in
alcun modo i risultati ottenuti dalla ricerca fenomenologica, rendendo quindi inessenziale e vano
ogni tentativo “scientifico” di ristrutturare i termini del discorso per fornire una nuova concezione
della genesi dell’intelligenza, o una nuova risposta al problema del rapporto tra mente e corpo: il
punto non è dare una nuova soluzione ma sviscerare i presupposti delle domande che ci si sta
ponendo, un’attività alla quale critici e sostenitori dell’Intelligenza Artificiale sono invitati in ugual
modo.
Si spera di aver chiarito a sufficienza che cosa si intende con l’espressione “ristrutturazione
epistemica”. Un altro esempio di questo è il “test di Turing”, il quale tenta di arrivare
all’intelligenza a partire da una ristrutturazione della domanda, ovvero il metodo, attraverso cui
l’intelligenza può arrivare a essere compresa. In Turing, come in Minsky, l’intelligenza è però
ancora intesa come calcolo (massimizzazione del risultato, in ambito pratico) e dunque il problema
rimane inalterato nella sua essenza, toccato dalla critica fenomenologica che è stata offerta a
riguardo.

7. Il problema del buonsenso e la questione delle emozioni


139

Considerata la questione nel suo nocciolo, restano da dare soltanto delle ultime, quanto possibile
rapide indicazioni a proposito di problemi incidentali, legati alla questione principale, ma che
acquistano grande importanza in quanto sono emersi come punti importanti nel corso della ricerca
nel campo dell’intelligenza artificiale: parliamo del problema del buonsenso e di quello delle
emozioni, importante soprattutto a causa del fatto che, tanto nella cultura popolare quanto nel
mondo del transumanesimo, molto spesso si associa l’essere intelligente al possedere emozioni –
una tesi che ha il suo perché – portando così alla conseguenza per cui, se si riuscissero a
implementare le emozioni in un essere robotico, allora questo si potrebbe dire aver acquisito una
coscienza vera e propria, un’intelligenza, nel senso in cui gli umani la possiedono.
È stato soprattutto Minsky, come si è accennato, a porre l’accento sul problema del buonsenso e su
quanto sia difficile implementare qualcosa del genere in un macchinario. Il problema del
buonsenso, cioè il paradosso per cui una macchina è capace di svolgere compiti di una difficoltà
assurda come, ad esempio, battere il campione del mondo di scacchi in una partita, ma non di
comprendere uno scherzo elementare, è stato ed è tuttora giustamente oggetto d’analisi e si lega ad
altri problemi come quello del linguaggio, analizzato ad esempio da Weizenbaum (l’autore di
ELIZA) e sulla difficoltà di portare un robot a comprendere espressioni che un essere umano può
rendere disambigue grazie al contesto, ma che un robot non può fare, o può fare solo dopo un
faticosissimo lavoro da parte degli sviluppatori che stanno alle sue spalle.
Il problema del buonsenso può essere risolto nell’ambito di un concetto fenomenologico, in questo
caso, quello di presupposto fenomenologico.
Si è detto che, stando alla fenomenologia, il rapporto con gli oggetti (i Gegenstanden di Husserl)
non è immediato, ma già-da-sempre mediato da un rapporto preventivo, trascendentale appunto, con
le essenze sotto cui quel determinato ente ricade. Il rapporto con la sedia davanti a me non è un
rapporto elementare, prettamente empirico, tra un io che guarda e una sedia che è guardata, poiché
la sedia rientra sotto la categoria dell’artefatto, che rientra sotto la categoria della cosa, che rientra
sotto la categoria del… questo “albero regionale” fa sì che, prima di entrare in contatto con la cosa
empirica, nell’Ich dell’uomo si siano già attivati elenchi di presupposti, a partire dai quali il
rapporto con questa cosa viene reso sensato. Se so di star avendo a che fare con dei numeri so
anche, ad esempio, trascendentalmente, che non sarà implicato l’olfatto in questo rapporto: sfido
chiunque a trovare un senso all’espressione “questo numero profuma di vaniglia”. Semplicemente, a
livello trascendentale manca un rapporto, nella nostra coscienza, tra la modalità d’approccio
dell’olfatto e i tratti eidetici dell’essere del numero.
Fenomenologicamente, credo si potrebbe risolvere in questo modo il problema del buonsenso,
rimandando all’evidenza fenomenologica secondo cui l’uomo, essendo in rapporto trascendentale al
140

mondo, è anche dotato di una serie di presupposti fenomenologici capaci di strutturare la


conoscenza del mondo in maniera intelligente e ordinata, cosa che non può essere fatta con un
robot, mancando questo del contegno al mondo e quindi di un’intelligenza similmente coordinata.
La difficoltà di dotare un robot di buonsenso, così come quella stranezza per cui un robot abbisogna
di migliaia e migliaia (e migliaia) di esempi per trarre una singola generalizzazione valida, così
come la difficoltà per un robot di imparare, dipendono tutte dal fatto che il robot in quanto ente
“cieco”, mancante di un vero e propri contegno al mondo in senso fenomenologico, manca di tutta
quella base di presupposizioni che permettono ad una serie di informazioni, la knowledge della
scienza informativa, di essere più che un mero, informe accumulo di dati.
La conoscenza, in fenomenologia, parte da un intero già strutturato per arrivare alle parti, mentre
una prospettiva empirica tenta di arrivare al tutto a partire dai microelementi; un’impresa tanto
ardua quanto assurda, secondo il punto di vista adottato.
Qualcosa di analogo potrebbe essere detto a proposito delle emozioni, dal momento che queste
vengono generalmente considerate come uno dei tratti fondamentali degli esseri viventi in genere e
degli esseri umani soprattutto. “Possedere un’intelligenza”, infatti, è un’espressione alla quale in
genere vengono attribuiti due sensi. In uno di questi, l’intelligenza è la capacità logica di stringere
collegamenti e scoprire nuovi rapporti tra le cose, la capacità che tendenzialmente viene attribuita al
matematico o allo scienziato. C’è però anche un’altra forma di intelligenza generalmente
riconosciuta, qualcosa di simile allo spirito di finezza di cui parlava Pascal, che consiste in
un’intelligenza emotiva, la possibilità di provare emozione di fronte a certi avvenimenti e di
comprendere le emozioni degli altri; più in generale, si potrebbe anche dire la capacità di
comprendere qualcosa “col cuore”. Ciò che distingue l’uomo dal robot, per molti, è semplicemente
il fatto che i robot non sono capaci di provare emozioni e la loro intelligenza si ferma all’aspetto
calcolativo, mentre gli esseri umani lo sono, dimostrando con ciò di avere una vera intelligenza,
ulteriore rispetto a quella del futuro androide.
Il transumanesimo accetta, di fondo, questa suddivisione, arrivando però a promettere che col
tempo, sviluppando i mezzi della robotica, sarà possibile dotare anche gli androidi di quelle stesse
emozioni che oggi sono una prerogativa dell’uomo, rendendo i primi in tutto e per tutto simili ai
loro predecessori organici – noi.
A questo punto si rende importante domandare: che cos’è un’emozione? È davvero sufficiente poter
provare qualcosa per avere un’emozione? La concezione che sta alla base del concetto di emozione
tanto del transumanesimo quanto dell’evoluzionismo in genere è la concezione classico-metafisica
secondo cui l’emozione è un “pathema”, un tipo di risposta particolare ad un influsso sul nostro
corpo da parte del mondo esterno: se ci sentiamo spaventati, arrabbiati o felici, è perché abbiamo
141

visto qualcosa che ha provocato su di noi questo effetto, al quale abbiamo risposto in una
determinata maniera a seconda del nostro vissuto o del nostro stato d’animo attuale.
La concezione fenomenologica di che cosa sia un’emozione, però, è qualcosa di diverso.
Fenomenologicamente, le emozioni sono modalità di porsi (contegni) in rapporto al mondo e, di
conseguenza, essendo il rapporto al mondo significativo, sempre già orientato in vista di una
qualche comprensione, le emozioni non sono semplici “scariche” di energia nel senso di qualcosa di
irrazionale, ma veri e propri modi tramite cui è possibile comprendere la realtà – come nel caso del
buonsenso, un rapporto trascendentale con la realtà è quindi già presupposto, implicato. La
determinazione che in Essere e tempo Heidegger dà delle emozioni come Besinnung, ovvero “modo
del trovarsi”, riflette esattamente la concezione fenomenologica secondo cui la comprensione di un
qualsiasi ente avviene sempre “in qualche modo” e non è mai una comprensione pura, totalmente
logica o calcolante, come l’Intelligenza Artificiale invece spesso pone la questione.

«Il trovarsi ha sempre la sua comprensione, sebbene la tenga in sordina. Il comprendere è


sempre intonato».148

Che la robotica e l’intelligenza artificiale riescano o meno a implementare delle emozioni sugli
androidi, da questo punto di vista, è quindi insignificante, dal momento che queste emozioni non
saranno in ogni caso nulla di simile a ciò che esse sono per gli esseri umani, in quanto per questi
le emozioni sono – da questo punto di vista – una testimonianza del loro rapporto implicito col
mondo, qualcosa che gli androidi non conosceranno e che i robot, oggi come sempre, non
possono comunque avere.
Concludendo il capitolo, si vuole specificare che con tutto quanto si è detto non si intende di per sé
negare che l’aspetto calcolante, quello che l’intelligenza artificiale intende come risoluzione di
problemi, sia assente dal pensiero: certamente, anche l’artista più originale e il pensatore più
profondo devono fare attenzione a non commettere degli errori, errori tecnici nel senso in cui
l’Intelligenza Artificiale li intende, quando mettono mano alle loro opere. Il pittore, il quale
innovando il modo di rappresentare la realtà ne altera il senso anche per i propri contemporanei, il
filosofo, capace di istituire un nuovo rapporto col mondo per tutte le epoche a venire, devono
comunque fare i conti con un saper maneggiare tecnico gli strumenti della pittura e un’analisi
rigorosa, logica, dei propri concetti utilizzati. Un aspetto di calcolo è sicuramente presente in ogni

148 Heidegger, Essere e tempo, cit., p. 207. Al di là di questo riferimento specifico, per approfondire la questione del
rapporto tra emozioni e comprensioni nella fenomenologia si possono confrontare i §§29-31 di Essere e tempo, dove
Heidegger tratta dell’essere “intonato” (avere uno stato emotivo) e del significato di questa intonazione nella struttura
generale dell’esistenza.
142

forma di intelligenza, e la fenomenologia è l’ultima a voler negare questa realtà: Husserl stesso, di
formazione, era un matematico prima che essere un filosofo.
Ciò che la fenomenologia obietta all’Intelligenza Artificiale è però che questo aspetto calcolante è
del tutto periferico nell’ambito del pensiero, poiché pensare significa non l’ottenimento di un
risultato (è stato definito “massimizzazione dell’effetto”, spesso lo si trova come “risoluzione di
problemi”, problem solving) ma un determinato modo di porsi nei confronti del mondo, un modo di
porsi al quale soltanto gli esseri umani hanno accesso. Interrogarsi sulla realtà, porsi delle domande
sul senso di termini come giustizia, verità, bene e male, origine e fine, è qualcosa che soltanto gli
esseri umani sono chiamati a fare, e le attività che questi istituiscono per far fronte a queste
domande, come l’arte, la religione, la scienza, la filosofia, sono tutte risposte intelligenti alla
chiamata tramite cui gli uomini tentano di definire, insieme, il mondo e se stessi. L’intelligenza,
fenomenologicamente considera, è un modo di essere, non un’attività o un processo di
massimizzazione delle proprie capacità di calcolo.
Ciò considerato, è lecito tornare all’origine della tesi quando, parlando di Turing, erano stati citati
diversi tipi di obiezione che Turing stesso porta a contrasto della propria tesi sulla possibilità di
sviluppare un’intelligenza artificiale in senso forte, per arrivare a sostenere che
fenomenologicamente è accettabile quella che Turing riporta come “obiezione della coscienza”,
secondo la quale, come direbbe Searle, i robot hanno sì una sintassi, ma non una semantica, ovvero
sono capaci di elaborare e manipolare segni arrivando a produrre risultati strabilianti, ma senza la
minima comprensione effettiva di ciò che stanno effettivamente compiendo. Il robot e il futuro
androide sono, per essenza, ciechi nei confronti del mondo, in quanto mancano verso di questo di
quel riferimento trascendentale che invece costituisce l’essenza più intima dell’essere umano. Il
calcolo è soltanto l’ombra del pensiero.
143
144

CONCLUSIONI
Ipotesi per un “futuro immanente”

Non restano che da svolgere alcune considerazioni conclusive a proposito dei risultati raggiunti e
raccolti finora, specificando secondo quale ottica vadano lette alcune delle conclusioni ottenute nei
capitoli già svolti.
Per fare questo, le tesi conclusive che chiariscono l’elaborato svolto finora verranno definite ipotesi
per un futuro immanente. Preferisco chiamare queste tesi finali “ipotesi”, anziché “tesi” nel senso
forte del termine, prima di tutto perché esse non sono logicamente dedotte dalle questioni svolte nel
corso del lavoro, ma, più che altro, si pongono come considerazioni conclusive nel senso più vario
del termine. Queste ovviamente ineriscono all’argomento, ma senza essere state direttamente
trattate nel corso della tesi appena svolta. Chiariscono, pertanto, intervenendo dall’esterno, e
riassumono semplicemente ampliando la prospettiva con cui le questioni svolte sono state toccate
fino ad ora. Queste ipotesi, inoltre, hanno un carattere metodologico e orientativo, poiché
contribuiscono a sviluppare un indirizzo di ricerca anziché a fare affermazioni sul già-dato: con
queste quattro ipotesi intendo definire il contorno di possibili ricerche future, e si rivolgono tanto a
chi si interessa alla questione a partire dalla trincea della filosofia, quanto per chi intende arrivarvi a
partire da una prospettiva più tecnica, matematica o ingegneristica che sia.
Perché, poi, “per un futuro immanente”? La questione dell’intelligenza artificiale coinvolge non
semplici problemi teoretici, ma l’esistenza stessa storica, concreta, dell’uomo nel mondo e
dell’uomo in relazione a mondi futuri: si ha correttamente la percezione, anche a livello di semplice
cultura popolare, che il problema dello sviluppo dei robot e degli androidi non sia soltanto un
problema tra gli altri, ma che porti con sé dei cambiamenti epocali a livello storico, capaci di
mettere anche in pericolo l’uomo al punto da farlo scomparire dalla faccia della Terra. Questi
problemi, quindi, coinvolgono l’uomo nel suo futuro “immanente”, non l’uomo come essere
primariamente destinato a un “oltre” (destinazione oltre-mondana), ma all’uomo come essere il cui
compito è nel mondo e la cui principale responsabilità è nei confronti di quest’ultimo.
Voler definire queste ipotesi come relative a un futuro immanente significa accennare all’idea
secondo cui il compito dell’uomo è nella custodia del mondo, in senso heideggeriano e in linea con
la prospettiva della responsabilità di Jonas. La tradizione baconiana secondo cui l’uomo deve
conquistare la natura, qui, cade assieme a quella opposta, secondo cui il mondo va come rifuggito:
145

queste due concezioni stanno entrambe all’origine dell’irresponsabilità con la quale l’uomo
moderno ha approcciato la realtà.

1. Questa tesi è una tesi di storia della filosofia.

Innanzitutto, bisogna chiarire qualcosa che ritengo essere assolutamente fondamentale, da cui non si
può e non si deve prescindere se si vuole inquadrare il problema dell’intelligenza artificiale sotto la
prospettiva corretta.
L’impostazione della tesi, la natura stessa del problema, i filosofi e gli autori trattati o citati,
potrebbero far pensare che la tesi in questione sia un lavoro da inquadrare nell’ambito
dell’epistemologia, dal momento che si interroga sulla natura della conoscenza, su che cosa siano
un “osservatore” e un “oggetto osservato” e quali i loro reciproci rapporti; oppure ancora
considerarla una tesi di filosofia della scienza, essendo che gran parte dei ricercatori citati sono
scienziati o appartengono al mondo della ricerca nella robotica, il che comprende tanto matematici
quanto ingegneri e psicologi.
È stato specificato che la tesi avrebbe fuso insieme l’indirizzo originale husserliano dato alla
filosofia, un indirizzo di tipo epistemologico, e l’indirizzo heideggeriano, nel quale la
fenomenologia diventa uno strumento d’analisi la cui portata sarebbe stata però storica, di sviluppo
della questione e, alla lunga, della civiltà stessa in cui la questione è stata inserita. Questo aspetto
storico-dinamico è essenzialmente legato ad una filosofia, come quella fenomenologica, la quale
considera l’osservatore come trascendentalmente relativo all’oggetto osservato, tanto da esserne,
appunto, un correlato. Il punto di vista con cui si analizza un oggetto non è qualcosa che
sopraggiunga “in più” rispetto a quanto si sta osservando, come potrebbe pensare un autore di
impostazione realistica, convinto che l’oggetto sussista o meno, nelle stesse forme, anche al di là
dello sguardo dell’osservatore. Secondo la fenomenologia, l’occhio è implicato nella cosa guardata,
tanto da costituirla – non è un caso che la fenomenologia si sviluppi prima nella filosofia di
Heidegger e poi in ermeneutica.
Ora, dal momento che questo punto di vista, che è fondamentale per la costituzione dell’oggetto e
per la sua comprensione, è il punto di vista di una civiltà, la quale grazie ai suoi filosofi struttura il
mondo in cui poi dovrà vivere ed evolvere in un rapporto circolare continuo di interrelazione, e che
questa civiltà è storica, è la storia ad articolare il problema dell’intelligenza artificiale. La questione
non è, allora, se le assunzioni di fondo dell’IA siano corrette oppure non lo siano, poiché
146

“correttezza” è un termine assoluto, che richiede un mondo non storico e matematizzato, un mondo
che però è esso stesso storico e frutto di un certo tempo storico.
Non si è criticato l’IA dicendo che i suoi concetti di base sono “sbagliati”: un’assunzione del
genere, oltre che essere una banalizzazione del punto di vista da noi assunto, sarebbe – essa sì –
sbagliata e totalmente insensata dal punto di vista fenomenologico assunto, poiché lascerebbe
credere che ci sia un oggetto “in sé”, l’uomo o l’intelligenza artificiale che sia, dotata di tratti
propri, da rispecchiare tramite giudizi corretti.
L’IA è stata criticata, invece, perché i suoi presupposti sono stati lasciati intoccati da un serio esame
di convalida, originati da un mondo storico in cui avevano un senso, alla propria origine, ma che
conferisce loro un significato diverso da quello originale con ogni alterazione di questo stesso
mondo. Quei concetti che hanno originato una storia nuova, la storia del mondo moderno, vengono
sempre più sotterrati dal mondo che essi stessi hanno creato, passando, dall’essere rivoluzionari, al
venir dati per “ovvi”. Così facendo, però, diventano nascosti e continuano ad agire indisturbati
come se non ci fossero: è stata questa la critica mossa all’Intelligenza Artificiale, che essa non vuole
prendere in considerazione i propri concetti di fondo, spacciando così i propri risultati per assoluti.
Questi, invece, non sono assoluti, ma storici, poiché è stato in un certo mondo storico che i concetti
fondamentali dell’intelligenza artificiale sono emersi, ed è sempre in un altro mondo storico, quello
contemporaneo, che essi hanno il valore che hanno e continuano ad orientare la ricerca nella
maniera in cui la orientano.
Prendere coscienza della storicità intrinseca al movimento dell’Intelligenza Artificiale è il primo
passo concreto per definire il problema in un’ottica nuova, ricontestualizzando in termini di storia
quello che l’Intelligenza Artificiale e, in verità, ancora buona parte del mondo scientifico vanta
come un raggiungimento di “verità assolute” in un movimento di realizzazione di un “progresso”
lineare di tipo evoluzionistico.
Il primo passo per la comprensione della natura del problema posto dall’intelligenza artificiale è
quello di storicizzarne i risultati, chiedendosi da dove nascano i concetti che ne stanno alla base,
come si sono evoluti, a quale genere di futuro possano condurre. I temi e i problemi posti dalla
questione, infatti, possono essere elaborati secondo una prospettiva fruttuosa solo se questa
prospettiva è storica; una concezione epistemologica del problema dell’intelligenza artificiale, cioè
la lettura della questione in termini di “conoscenza, correttezza, verità o falsità”, oppure la
relegazione del problema all’ambito della filosofia della scienza, finirebbero col portare a risposte
generiche e infondate, come se il problema dell’intelligenza artificiale fosse soltanto uno tra i tanti
problemi della filosofia, e in particolare della filosofia della conoscenza. La questione
dell’intelligenza artificiale invece coinvolge l’interezza dell’uomo in quanto tale, e non soltanto nel
147

senso dell’uomo contemporaneo, ma l’essenza stessa dell’uomo, l’essenza dell’uomo e quindi della
sua storia. Il problema dell’intelligenza artificiale non è il porsi la domanda se le parti coinvolte
“abbiano ragione” oppure meno, poiché questo aver ragione è esso stesso storico. La vera domanda
consiste nel domandarsi come mai i concetti sviluppati millenni fa abbiano condotto, col passare del
tempo, ad una storia del tutto diversa, tale da mettere in pericolo l’uomo o addirittura auspicarne un
rimpiazzamento da parte di una specie nuova, analoga a lui ma, insieme, anche molto differente.
Leggere adeguatamente la questione posta dall’intelligenza artificiale significa considerarla come
sfida storica, cioè compiere lo sforzo di vedere tutti i problemi che orbitano attorno a questa sfida
fondamentale come soltanto l’ultima costellazione storica di ambiti in un processo di sviluppo che
inizia molto, molto prima che nel ‘600 in cui Cartesio ha prodotto le sue opere fondamentali.

2. Il pericolo dell’Intelligenza Artificiale

Nel paragrafo precedenti si è fatto riferimento al pericolo con cui l’intelligenza artificiale, come
semplice ambito di ricerca scientifica, e l’Intelligenza Artificiale come movimento di pensiero
riguardino l’intera storia dell’uomo, costituendo per l’essere umano contemporaneo una potenziale
minaccia. Gli androidi possono essere un serio pericolo, perché, come avverte il transumanesimo, la
loro superiorità potrebbe rivelarsi fatale all’essere umano, incapace di dominare ciò che egli stesso
ha creato.
Questa posizione rientra tuttavia in quello che potremmo definire “catastrofismo”, che si è visto
incarnato da Kaczynski. Il catastrofismo è una reazione comprensibile a qualcosa di epocale come
l’avvento dell’androide, dal momento che si percepisce, correttamente, quanto questa “creazione
artificiale” sia importante per il modo d’essere storico dell’uomo. Deridere questo genere di
preoccupazione come superficiale è essa stessa la cosa più superficiale che si possa fare, dal
momento che questa maniera “volgare” di accogliere l’avvento dell’androide è invece giustificata
da una comprensione di fondo, storica, che talvolta, pur nella sua ingenuità, è più radicata nella
realtà del punto di vista di tecnici abituati a lavorare con l’intelligenza artificiale giorno per giorno,
in quanto ne coglie gli aspetti di rivoluzione in maniera più drastica di quanto qualcuno abituato alla
robotica potrebbe fare.
Il catastrofismo ha avuto una parte fondamentale nella letteratura di romanzo e cinematografica a
proposito dell’avvento dell’androide. Non è così però che va letto il pericolo di cui ritengo
doveroso parlare, quando si parla del pericolo insito nello sviluppo dell’intelligenza artificiale. È
invece Heidegger a indicare correttamente la via:
148

«La minaccia per l’uomo non viene anzitutto dalle macchine e dagli apparati tecnici, che
possono anche avere effetti mortali. La minaccia vera ha già raggiunto l’uomo nella sua
essenza. Il dominio dell’im-posizione minaccia fondando la possibilità che all’uomo possa
essere negato di raccogliersi ritornando in un disvelamento più originario e di esperire così
l’appello di una verità più principiale».149

Nella sua conferenza La questione della tecnica, Heidegger tematizza il problema della tecnica e
della maniera in cui questa si è “installata” in tutti gli angoli del globo e in ogni civiltà umana,
generando quell’impianto (l’im-posizione del brano citato, Gestell) stando alla quale l’uomo pensa
la sua attività sulla terra come un mero produrre, accumulare, massimizzare i risultati del proprio
lavoro industriale. È possibile senza difficoltà far rientrare l’Intelligenza Artificiale all’interno di
questa Gestell, dal momento che l’IA riflette perfettamente tutti i temi di fondo del mondo
contemporaneo: il desiderio di “fare del bene all’umanità”, il tessuto economico all’interno del
quale l’intelligenza artificiale ricade in quanto a finanziamenti e promesse di guadagno, la
percezione di star facendo un passo avanti sulla linea del progresso, secondo la propulsione di un
moto storico che non può in alcun modo essere alterato.
Ora, la minaccia, il pericolo, non è però quella “catastrofe” che potrebbe derivare dalla cattiva
capacità gestionale delle tecnologie sviluppate: considerare che l’IA potrebbe rivelarsi pericolosa a
causa di una fantomatica “rivolta dei robot” significa ricadere nello stesso tipo di lacuna logica che
è stata imputata ai critici di prima generazione, quella di prendere per assoluto il quadro di un certo
preciso momento della storia della scienza, in cui l’intelligenza artificiale appare essere ancora un
territorio di frontiera e pertanto, come è tipico di tutte le frontiere, soggetto a ogni speranza e paura
tipico di un momento liminare dello sviluppo di qualcosa. Ma, proprio come in quel caso si è detto
che le critiche di prima generazione falliscono perché lasciano sempre aperta la possibilità che la
scienza, correggendo il proprio tiro, riveli – nei fatti – l’inconsistenza di quelle critiche.
È invece un altro il punto su cui bisogno far cadere tutta la forza della propria critica: è
l’impossibilità di ritornare a un “disvelamento più originario” e di fare esperienza, così, dell’appello
“di una verità più principiale”, il motivo per cui lo sviluppo della robotica significa una minaccia
essenziale per la vita dell’uomo sulla Terra. Poche righe prima, Heidegger aveva scritto:

«E tuttavia proprio quando è sotto questa minaccia l’uomo si veste orgogliosamente della
figura di signore della terra… È l’illusione per la quale l’uomo, dovunque, non incontri più

149 Martin Heidegger, La questione della tecnica, in Id., Saggi e discorsi, Milano, Adelphi, 2014, p. 21.
149

altro che se stesso […] In realtà, tuttavia, proprio se stesso l’uomo di oggi non incontra più in
alcun luogo; non incontra più, cioè, la propria essenza».150

La minaccia non viene da un’ipotetica guerra fisica dopo la quale la razza umana o quella robotica
dovrebbero ottenere il completo controllo della Terra, ma è l’avvento stesso di questa storia, la
storia in cui l’androide viene creato dall’essere umano, a costituire il pericolo per l’uomo, in quanto
questo pericolo consiste nella perdita della propria essenza. L’uomo è il pastore dell’essere, dice
Heidegger. L’uomo è qualcosa che, per essenza e costituzione, nella storia si è sempre mantenuto in
rapporto con Qualcos’Altro, che Heidegger chiama “Essere”.
Con l’avvento della tecnica, però, quindi della tecnologia, quindi anche dell’intelligenza artificiale,
l’uomo dimentica il rapporto stesso, cessa di domandarsi dell’origine del mondo, di ciò da cui il
mondo proviene e del perché di questo esserci delle cose, in vista di un sapere il cui unico scopo è
l’ottenimento un controllo tecnico-calcolativo della realtà, della quale l’uomo diventa il signore.
Tuttavia, è proprio impadronendosi del mondo, diventando il creatore del bene e del male – nel caso
dell’Intelligenza Artificiale, anche il creatore della vita – che l’uomo perde ciò che ha di più
prezioso e che rende sensata la sua vita sulla Terra, in quanto diventando signore l’uomo perde la
propria essenza, la quale non consiste nell’essere padrone e signore, ma nello stupore umile di chi
riconosce nel mondo l’impronta di Qualcos’Altro di superiore a se stesso, se ne meraviglia e ne
ringrazia, il che si esprime nel pensiero e nella poesia, qualcosa per cui l’uomo contemporaneo non
ha più tempo.
Il pericolo insito nello sviluppo dell’intelligenza artificiale, quindi, non è affatto un pericolo fisico.
Questo catastrofismo è comprensibile come un momento di passaggio della storia della robotica,
dovuto allo stupore che l’avvento dell’androide genera e alla percezione che qualcosa di epocale
stia avvenendo in questo avvento. Concentrarsi però sull’androide come su qualcosa di fisicamente
pericoloso distoglie totalmente dal nocciolo della questione, il quale è la perdita di identità
dell’uomo e il nichilismo in cui l’uomo getta se stesso nel tentativo di ottenere un controllo
totalizzante della realtà, il che, all’epoca in cui scriveva Heidegger, si mostrava ancora
nell’espandersi indefinito dell’industria e nella ricerca di tecnologie “pesanti”, ma che oggi,
settant’anni dopo, si mostra soprattutto in ciò che riguarda i temi della robotica, dell’intelligenza
artificiale e, per altri aspetti, i social media e l’avvento di Internet. Non bisogna avere alcuna paura
di fenomeni come una “rivolta degli androidi”, la quale comunque è stata uno dei primi timori
dell’uomo di fronte al pensiero dell’avvento di una macchina intelligente, dotata di coscienza. Il
problema è tutt’altro. Nel tentativo di creare vita cosciente, l’essere umano si ritiene padrone della

150 Ibidem.
150

realtà – ed è proprio nella padronanza dell’ogni cosa che l’uomo perde se stesso. Per Heidegger,
l’intera storia della metafisica si realizza nel ‘900, nel secolo della volontà di potenza che porta allo
sviluppo dell’industria e della tecnica contemporanea; essendo chi scrive un heideggeriano, con le
dovute riserve, non posso se non concordare con Heidegger, che secondo me ha dato l’indirizzo
fondamentale sulla cui linea bisogna ripartire per interpretare il futuro della robotica e della
tecnologia occidentale nel suo complesso. Nella prossima ipotesi, la terza, si parlerà più a fondo di
questo dubbio.
Può stupire il modo con cui si risponde al catastrofismo apocalittico di Kaczynski sia lo stesso
tramite cui si risponde alle pretese del transumanesimo: tra pensiero apocalittico e transumanista
esiste una vicinanza molto profonda, dal momento che il transumanesimo non è nient’altro che un
catastrofismo accettato, volto al positivo. I transumanisti partono dalle stesse identiche assunzioni di
fondo del catastrofismo, il quale vede nell’androide un pericolo dovuto alla superiorità di
quest’ultimo sull’uomo, ma, anziché rifiutare questo processo, arriva alle conclusioni esattamente
contrarie, accettandolo come positivo e auspicandolo addirittura come un momento necessario della
storia dell’uomo all’interno di un quadro di riferimento evoluzionistico. Quello che vale per il
catastrofismo, perciò, vale anche per il transumanesimo: l’avvento dell’androide non va
assolutamente letto in termini di “superiorità o inferiorità” dell’uomo rispetto all’androide o
dell’androide rispetto all’uomo, in quanto uomo e androide, per essenza, non possono e non
potranno mai essere accostati, essendo il loro statuto ontologico infinitamente lontano l’uno
dall’altro. Ha ben poca importanza, quindi, che l’androide sia dotato di una forza o di
un’intelligenza (intesa come capacità di calcolo, quindi non-intelligenza) straordinaria, sia capace di
lavorare all’infinito o di “vivere” senza deteriorarsi: qualsiasi cosa l’androide possa fare, non potrà
mai essere umano, e nemmeno intelligente, nel senso in cui fenomenologicamente l’intelligenza è
stata intesa.
Non è una questione di “implementare di più e meglio” – è una questione di essenza e di modo
d’essere, e questo è qualcosa che nessuna casa di produzione impegnata nella ricerca robotica potrà
mai alterare, né tantomeno sviluppare.
Il primo passo per arrivare ad avere una comprensione più profonda dei problemi posti dalla
robotica è quello di smettere di averne paura, poiché temere l’avvento dell’androide come un
cataclisma biblico distrae dal centro del problema, che è l’uomo stesso, la sua essenza e la sua
identità, e non l’androide. Ciò che stiamo facendo all’androide è soltanto un riflesso di ciò che
stiamo facendo a noi stessi. La questione dell’intelligenza artificiale è una questione interamente
umana. Continuare a preoccuparsi di scenari apocalittici, come ancora si fa oggi, significa
semplicemente continuare a porre le domande sbagliate. I temi coinvolti in questa problematica non
151

sono affatto se l’androide toglierà di mezzo o meno gli esseri umani dalla Terra, ma se non sia stato
l’essere umano stesso ad essersi già tolto di mezzo da solo, dimenticando la propria essenza con
l’ottenimento della veste di signore del mondo, una veste che tuttavia risulta molto difficile da
portare.

3. “Una storia maggiore”

Nel primo capitolo di questo lavoro è stato dato un breve sunto della storia della robotica: si è
voluto mostrare come la robotica non si sviluppi in maniera casuale, priva di una linea direttrice
unitaria, ma come al contrario sia possibile effettuare una scansione delle diverse fasi che
compongono questo sviluppo progressivo, secondo una direzione che potremo definire di
umanizzazione della macchina.
Lungo questa linea di sviluppo, si assiste a un progressivo diventare umano del robot – non come
un ottenere effettivamente, realmente, da parte del robot, un’umanità che gli mancava nel passato,
bensì come un ingigantirsi delle aspirazioni filosofiche nei riguardi del robot da parte dei suoi
sviluppatori, i quali sempre di più nel corso del tempo, e in particolare da Turing in poi, hanno
voluto leggere nel robot qualcosa come un anti-uomo, simile, certo, dall’essere umano reale, ma
contemporaneamente capace di sfidarlo fino al punto da evolvere per conto proprio qualcosa come
un’intelligenza e una coscienza alternative a quelle umane.
Ciò che non è stato notato, finora, è però che questa storia della robotica, la quale è stata divisa nella
fase del meraviglioso, della macchina, del robot e dell’androide, non è l’unica storia della quale si è
trattato fino a questo punto. C’è infatti un’altra storia, inversamente proporzionale a questa – si
vedrà ora in che senso – la quale per tutto il tempo di questo lavoro è rimasta in sottofondo,
silenziosa, eppure presente, degna della stessa importanza della storia della robotica che è stata
esplicitata nelle pagine precedenti. Se da una parte infatti si è descritta l’umanizzazione del robot,
dall’altra abbiamo assistito nel corso degli ultimi secoli di pensiero metafisico ad un processo
sostanzialmente inverso, il quale ha come proprio protagonista però non il robot, bensì l’uomo
stesso. Da una parte il robot è stato umanizzato, fino ad attribuire all’androide tutto ciò che
tradizionalmente è considerato proprietà dell’uomo o, in parte, dell’animale, ma che comunque non
è stato mai in alcun modo attribuito né alle cose materiali né tantomeno alla macchina: coscienza,
sentimenti, etc.. Dall’altra, parallelamente a questo processo, si assiste nel corso degli ultimi secoli
ad una svalutazione progressiva dell’uomo, il quale viene via via espropriato di tutto ciò che era
tradizionalmente ritenuto proprio. Coscienza, intelligenza e sentimenti, epoca dopo epoca, vengono
152

“smontati” (decostruiti, secondo il termine tecnico) e ridotti ad altre funzioni più basilari, organiche
e fisiologiche, tali comunque da annullare la priorità ontologica del piano del significato in favore
di un’accentuazione degli aspetti non-significativi dell’umano: il neurone sopra il concetto, per
definirlo con una formula unitaria.
Via via, quindi, l’uomo viene progressivamente de-umanizzato: perde la sua unicità, perde il suo
ruolo nel mondo, perde la sua importanza rispetto alle altre creature, perde la propria coscienza (lo
si è visto soprattutto in Dennett) e per finire, si potrebbe anche dire, perde la propria umanità. Si
assiste allora ad un fenomeno molto particolare: l’umanizzazione del robot coincide con la
progressiva deumanizzazione dell’umano. Per quanto possa sembrare paradossale e assurda, noi
contemporanei stiamo vivendo una situazione nella quale, certo, giustificata per mezzo di argomenti
tecnici, la perdita di umanità dell’uomo anziché finire semplicemente “nel nulla” viene riconvertita
in un’acquisita umanità da parte del robot, come si evince in particolare con l’inizio dell’età
dell’androide, che è stata fatta risalire al famoso articolo di Turing del 1950, On computing
machinery and intelligence.

4. L’importanza della cultura pop per lo studio dell’IA

Una delle prime cose cui si è fatto riferimento introducendo la tesi, introducendo, in verità, Sophia,
la protagonista silenziosa di questo lavoro, è stata la reazione delle “persone comuni” che sotto i
video di YouTube commentavano, chi in toni apocalittici e drammatici, chi con stupore, la
presentazione di Sophia ad un festival dell’intelligenza artificiale, oppure la dimostrazione di un
esperimento, quali diversi pubblicati dalla Hanson Robotics, in cui a Sophia vengono poste delle
domande, alle quali lei tenta di rispondere come può – spesso decentemente, in verità. In uno degli
esperimenti più recenti,151 un tale grado di sviluppo è stato acquistato da Sophia, un tale grado di
realismo nelle espressioni del volto, da alterare radicalmente il tono generale dei commenti rispetto
a quelli di alcuni anni fa’: dalla paura o dallo stupore estremo si è passati addirittura all’empatia,
quasi alla compassione nei confronti di “una creatura” che giorno dopo giorno sembra acquisire
intelligenza e addirittura autoconsapevolezza.
Nella sezione precedente, ancora, si è fatto riferimento a Matrix e Terminator, due serie di film
molto famose, portandole come una esemplificazione “a livello popolare” (comunque non
strettamente filosofico) di una tendenza, quella catastrofista, che è presente anche sul piano della
cultura filosofica nei riguardi dell’intelligenza artificiale. Prodotti di questo genere, che una lunga

151 https://www.youtube.com/watch?v=Pszgygw_0lQ&t=246s.
153

tradizione accademica ci insegna a considerare come semplici lavori destinati alla ricreazione,
rappresentano invece una grande possibilità per la comprensione dell’intelligenza artificiale, e
questo non “nonostante” la loro distanza rispetto alla conoscenza diretta, tecnica, del tema trattato,
ma proprio grazie a questa.
Quello dell’intelligenza artificiale è ancora un terreno di frontiera, battuto da figure più o meno
esuberanti che tentano di varcarne il confine, spingendosi in là quanto più possibile. Tecnici,
filosofi, ingegneri, matematici, psicologi… tutte queste categorie, e anche molte altre,
contribuiscono ciascuna secondo la propria prospettiva e il proprio punto di vista a formare il
quadro generale della robotica, dando ad essa non soltanto una struttura tecnica e formale, ma anche
un’atmosfera, dal momento che il problema dell’intelligenza artificiale è un problema così scottante
che è letteralmente impossibile sceverare, in questo, le pretese e i timori che la riguardano dai
risultati tecnici effettivamente ottenuti.152 Ora, se tutte queste categorie possono contribuire, e di
fatto contribuiscono, ad aggiungere un tassello al complicato puzzle dell’IA, per quale motivo
l’artista non dovrebbe poterlo fare? E per quale motivo non dovrebbe poterlo fare l’uomo comune?
“Perché l’uomo comune non ha le competenze per poter parlare di intelligenza artificiale”. Questo è
vero dal punto di vista strettamente tecnico, dal momento che l’intelligenza artificiale è un campo di
ricerca per scienziati e non per uomini presi dalla strada; tuttavia, se questa tesi potesse essere
riassunta in una sola frase, credo che potrebbe essere riassunta in questo modo: l’intelligenza
artificiale è un problema che coinvolge l’uomo, l’uomo in quanto tale e quindi la sua essenza, e non
è quindi una questione di proprietà soltanto intellettuale, ma umana nel suo complesso. L’avvento
dell’androide mette in gioco l’uomo in quanto tale, spingendolo a guardare se stesso in uno
specchio che, tuttavia, ne riflette un’immagine deforme, deforme come il sorriso di Sophia che tenta
di simulare il sorriso umano, riuscendoci, sì, ma soltanto in parte. Più l’androide sembra avvicinarsi
all’uomo, più, sottilmente, la distanza che li separa aumenta.
Di questo tecnici e ingegneri possono non avere consapevolezza, ma riescono invece ad averne gli
“uomini comuni”, e gli artisti in particolare sono abili nel dar voce – talvolta tramite capolavori – a
paure e speranze che circolano nella società senza riuscire tuttavia a trovare in questa
un’espressione univocamaente definita. Qui non si tratta soltanto di possedere “sapere” o meno
riguardo un certo oggetto, poiché il sapere è sempre orientato a partire da un certo punto di vista e il
punto di vista dell’uomo comune, per quanto lontano da quello dello scienziato rispetto al
problema, è comunque un punto di vista, che ha gli stessi vantaggi dei propri difetti; ovvero, proprio
la lontananza dal problema trattato può permettere all’uomo comune di cogliere degli aspetti
dell’avvento dell’androide e dello sviluppo della robotica, in modo rozzo, superstizioso, quasi

152 Dove “effettivamente” ha un significato molto ambiguo, come, si spera, è stato dimostrato nel corso di questa tesi.
154

fanatico quanto si vuole, i quali comunque possono sfuggire allo sviluppatore, interessato
prettamente agli aspetti “tecnici” dell’intelligenza artificiale e proprio per questo meno disposto a
lasciarsi andare a speculazioni, le quali tuttavia, come si è detto, non possono essere disgiunte dal
nocciolo stesso dell’intelligenza artificiale. La questione dell’IA si porta dietro un’atmosfera che
non può essere scissa in “comparto tecnico” e “comparto umano”: i due sono inscindibilmente fusi
tra loro ed evocano quel complesso di questioni che vengono subito alla mente quando parliamo del
problema dell’IA.
Diversi esempi possono testimoniare di come la cultura pop, musicale e cinematografica abbiano
prodotto capolavori che non sono semplici “opere di divertimento”, come ancora gran parte del
mondo accademico si ostina a considerare qualsiasi cosa non abbia la forma del trattato o del saggio
“dotto” – qualunque cosa questa parola voglia dire – bensì vere e proprie gemme del pensiero,
capaci di illuminare a proposito di certi problemi con la semplicità e la chiarezza che, talvolta, gli
artisti riescono a infondere ai loro lavori.
È noto nel mondo della robotica il vero e proprio culto che all’interno del mondo dei tecnici
avvolge il film di Kubrick, 2001: Odissea nello spazio. Per i temi trattati, le intuizioni avute, la
maniera di rappresentare l’intelligenza artificiale, per ottenere la quale Kubrick si è fatto aiutare da
veri e propri esperti del settore, il film di Kubrick meriterebbe di essere studiato e analizzato al pari
di un saggio di Newell; cosa che tuttavia non viene fatta, o non viene fatta comunque allo stesso
livello, a causa del pregiudizio borghese secondo cui l’arte appartiene all’estetica e ha quindi il
compito di “produrre cose belle”, e non, invece, di incanalare in altre forme un pensiero che per sua
natura può mostrarsi in modo diversi dallo scritto “colto”. Un altro esempio di questo genere è
Evangelion, l’opera capolavoro di Hideaki Anno, un mangaka giapponese che in un anime di 24
episodi è riuscito a creare un capolavoro che tocca contemporaneamente esistenzialismo,
psicanalisi, la questione dell’intelligenza artificiale e quella dei rapporti dell’androide con l’uomo, e
molti altri temi collegati agli ambiti appena descritti. Anche altre opere del mondo animato
giapponese presentano un livello di profondità e dignità assolutamente pari, e talvolta superiore, a
quello dei saggi dotti quotidianamente pubblicati (in questo e altri ambiti della cultura in genere):
sarebbe un’ottima cosa iniziare ad attribuire a questi lavori l’importanza che meritano, poiché
queste riflessioni non-letterarie sono e restano, nondimeno, riflessioni, pensieri e talvolta filosofie,
le quali, se analizzate a dovere, potrebbero dare un enorme contributo alla questione
dell’intelligenza artificiale, contribuendo oltretutto a collocarla sotto la giusta luce, meno tecnica e
più storico-filosofica.
Ma non soltanto l’Oriente, bensì anche l’Occidente stesso è stato capace di produrre opere
strabilianti, capaci di illuminare in maniera fondamentale alcune questioni orbitanti attorno al
155

problema dell’intelligenza artificiale. Il già citato 2001: Odissea nello spazio ha avuto un’influenza
così grande nel mondo della robotica che è stato addirittura capace di orientare le ricerche in un
certo ambito, soltanto grazie alla propria capacità di indirizzare la fantasia dei ricercatori verso certi
scenari possibili, anziché altri. La già citata definizione ironica di che cosa sia l’intelligenza
artificiale (ma nemmeno così ironica) di Astro Teller dice: “l’intelligenza artificiale è il tentativo di
far fare alle macchine quello che vediamo loro fare nei film”. Con un’espressione così semplice,
diventa lapidario il rapporto che si instaura tra mondo dell’arte e mondo della robotica: tra i due c’è
interrelazione. Non è soltanto la robotica a ispirare l’arte in una certa direzione, ma è l’arte stessa, e
la letteratura, e la cinematografia, e la musica… e tutte le altre arti che, a loro volta, sono capaci di
influenzare la ricerca spingendola verso certi ambiti anziché verso altri, scolpendone l’immaginario,
almeno tanto quanto l’economia e la scienza possono farlo.
Non esagero dicendo che almeno il 50% delle idee contenute in questa tesi, nonché l’ispirazione per
il tema stesso, sono venute da o durante l’ascolto di musica elettronica, un genere musicale che
riflette fortemente sul rapporto tra robotica e umanità nel mondo presente e nei secoli a venire. Né
ci si deve limitare al mondo delle arti ad oggi riconosciute: una grandissima spinta in questo senso
viene anche dal mondo dei videogiochi, ancora, purtroppo, bistrattato e talvolta addirittura ignorato
da una generazione di critici abituati ad altri linguaggi (il che non è di per sé una colpa) ma che si
ostina a voler confinare il pensiero nell’ambito delle accademie e si mantiene chiusa a qualsiasi
innovazione, non importa quanto eccezionale e innovativa (e questo lo è). Il mondo dei videogiochi
ha prodotto, negli anni recenti, alcuni capolavori di pensiero nei riguardi del rapporto tra uomo e
androide/robot, e riflessioni importanti a proposito del senso della coscienza e dell’identità in una
macchina: Soma si interroga su cosa voglia dire “io” quando a pronunciarlo è una macchina;
Detroit: Become Human mette “il giocatore” nei panni di diversi androidi i quali sono costretti a
compiere delle scelte, talvolta scelte difficili, nel corso delle ore di gioco che bisognerà affrontare. È
giusto limitare queste realtà al mondo ludico? Dove per “ludico”, sia chiaro, si intende qualcosa di
non-filosofico, non-razionale e quindi svalutativo rispetto al “mondo serio” del “lavoro
accademico”.
La cultura non tecnica può dare molto, anche in relazione ai temi direttamente affrontati in questa
tesi. I due atteggiamenti a cui si faceva riferimento, quello catastrofista e quello storico-
comprensivo, possono essere esemplificati, l’uno, dai già citati Matrix e Terminator, in cui il
rapporto con l’androide è impostato in termini catastrofici, evocando scenari da transumanesimo
riuscito; l’altro, da Blade Runner, il film capolavoro di Ridley Scott, uscito nell’82, il quale imposta
in maniera magistrale non il tema del pericolo che gli androidi costituiscono per l’uomo – poiché
questo è un aspetto secondario del film – ma semmai, come dovrebbe essere fatto, il problema della
156

responsabilità che l’uomo avrebbe nei confronti dell’androide nel caso riuscisse veramente, per
ipotesi, a fornirlo di una coscienza e di un senso di identità, con tutti i problemi a questa annessi.
Soltanto in apparenza infatti il tema di Blade Runner è quello di una rivolta in corso da parte degli
androidi contro gli uomini che li hanno sviluppati. Mentre questo tema dà il via il film e ne fa
iniziare la trama, nel corso di tutta la pellicola esso resta, giustamente, sullo sfondo: ciò che viene
messo in luce invece è il rapporto che si crea tra Deckart, il poliziotto protagonista, il cui compito è
dare la caccia e “disattivare” i robot giunti al limite della loro esistenza, e Rachel, un androide la cui
origine robotica o meno è indubbia. Questo rapporto diventa l’occasione per mettere a fuoco i
problemi coi quali un androide deve fare i conti: la ricerca di un’identità e l’impossibilità di averne
una, la verità o meno delle proprie memorie, le quali possono essere contraffatte, se non addirittura
negate; la realtà dei sentimenti che si provano, verso altri androidi o verso esseri umani. Sullo
scenario di una rivolta, che viene evocata in continuazione come “il pericolo”, appare chiaro in
Blade Runner invece che non sono gli androidi a costituire un pericolo per gli esseri umani ma,
proprio al contrario, sono stati gli esseri umani, con le loro attività sconsiderate, ad aver creato per
gli androidi un mondo invivibile, di fronte a cui non ci sono alternative al di fuori di quelle di una
rivolta disperata o di un suicidio silenzioso, lungo il tempo di una batteria. Una posizione
nettamente più sofisticata di quella presentata da altri prodotti.
Il problema dell’intelligenza artificiale è un problema nuovo, impostato in un linguaggio nuovo, che
offre scenari e panoramiche nuove per l’uomo del futuro e deve, imprescindibilmente, essere
affrontato con degli strumenti nuovi, i quali sono ancora, purtroppo, in gran parte sconosciuti al
mondo dell’accademia tradizionale. È necessario sviluppare un modo di pensare diverso rispetto a
quello logico e letterario se si vuole cogliere l’ampiezza di questo problema, poiché pensare
veramente di poter sviluppare una filosofia della tecnologia a partire, meramente, dallo studio di
saggi e ricerche, è tanto insensato quanto pretendere di poter parlare di musica senza averne mai
ascoltato un brano, ma semplicemente raccogliendo spartiti su spartiti e limitandosi a quelli.
L’impresa richiede una generazione nuova, capace di maneggiare i linguaggi del presente, anziché
soltanto esserne maneggiati, e dev’essere il compito esplicito dell’università di questi e dei prossimi
anni quello di fornire gli strumenti per riuscire a trovare una buona impostazione nel complicato
mondo di oggi.
157
158

BIBLIOGRAFIA E SITOGRAFIA

Bibliografia

 R. Dawkins, The Selfish Gene, Oxford, Oxford University Press, 19791.

 D. Dennett, Consciousness Explained, New York, Penguin Books, 1991.


— Darwin’s Dangerous Idea, New York, Penguin Book, 1995.
— Brainchildren, Cambridge, The MIT Press, 1998.
— Intuition Pumps, New York, Penguin Books, 2014.

 D. Dennett e M. Kinsbourne, Time and the Observer: The Where and When of
Consciousness in the Brain, «Behavioral and Brain Sciences», 15.

 H. Dreyfus, Alchemy and Artificial Intelligence, RAND Corporation, 1965.


— What computers can’t do, New York, Harper&Row, 1972.

 R. Graves, I miti greci, tr. it. di Elisa Morpurgo, Milano, Longanesi, 1963.

 M. Heidegger, Essere e tempo, tr.it. di Alfredo Marini, Milano, Oscar Mondadori, 19271.
— Nietzsche, a cura di Franco Volpi, Milano, Adelphi, 1936-19.
— Identità e differenza, a cura di Giovanni Gurisatti, Milano, Adelphi, 19571.
— La dottrina platonica della verità, tr.it. di Franco Volpi, Milano, Adelphi, 1967.

 D.R. Hofstadter, Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante, a cura di Giuseppe
Trautteur, Milano, Adelphi, 19791.

 E. Husserl, Ricerche logiche, a cura di Giovanni Piana, Milano, il Saggiatore, 1901.


159

— Idee per una fenomenologia pura e per una filosofia fenomenologica, tr.it. di Vincenzo
Costa, Torino, Einaudi, 19131.
— Meditazioni cartesiane, Brescia, Editrice La Scuola, 19291.

 H. Jonas, Das Prinzip Verantwortung, Francoforte sul Meno, Suhrkamp Taschenbuch, 1979.

 B. Joy, Why the future doesn’t need us, «Wired», 2000.

 R. Kurzweil, The Age of Spiritual Machines, New York, Penguin Books, 1999.
— The Singularity is Near, New York, Penguin Books, 2005.

 J. Lanier, One-Half of a Manifesto, «Wired», 2000.


— You Are Not a Gadget, a Manifesto, New York, Penguin Books, 2018.

 K. Lorenz, L’anello di Re Salomone, tr.it. di Laura Schwarz, Milano, Oscar Mondadori,


19481.
— L’altra faccia dello specchio, tr. it. di Laura Beltramo Ceppi, Milano, Bompiani, 1973.

 G.F. Luger, Artificial Intelligence: Structures and Strategies for Complex Problem Solving,
New York, Addison Weasley, 19971.

 M. Minsky, Steps Toward Artificial Intelligence, Cambridge, MIT Press, 1960.


— Computation: Finite and Infinite Machines, Englewood Cliffs, Prentice Hall, 1967.
— La robotica, tr.it. di Libero Sosio, Milano, Longanesi&Co., 1985.
— The Society of Mind, New York, Simon&Schuster, 1985.

 R. Montomoli, La filosofia mente/cervello, Torino, Genesi Editrice, 2017.

 S. Williams, Storia dell’intelligenza artificiale, tr. it. di Andrea Antonini, Milano, Garzanti,
2003.

 J. Searle, Atti linguistici, tr.it. di Giorgio Raimondo Cardona, Torino, Boringhieri, 19691.
— Mind, Brains, Programs, «Behavioral and Brain Sciences», III, 1980.
— Mente, cervello, intelligenza, Milano, Bompiani, 1987.
160

— The Mystery of Consciousness, Londra, Granta Books, 1997.


— Coscienza, linguaggio, società, a cura di Ugo Perone, Torino, Rosenberg&Sellier, 2009.

 H. Moravec, Mind Children, Harvard, Harvard University Press, 1988.


— Robots: Mere Machine to Trascendent Mind, New York e Oxford, Oxford University
Press, 1999.

 J.P. Mueller e Luca Massaron, Artificial Intelligence for Dummies, Hoboken,


JohnWiley&Sons, 2018.

 T. Nagel, Questioni mortali, tr.it. di Antonella Besussi, Milano, EST, 19791.

 J. Von Neumann, The General and Logical Theory of Automata, Oxford, Pergamon Press,
1948.

 A. Newell ed Herbert Simon, Computer Simulation of Human Thinking, «Science»,


3495/134, 1961.
— Human Problem Solving: The State of the Theory in 1970, Pittsburgh, Carnagie-Mellon
University, 1970.
— You can’t play 20 questions with nature and win, Pittsburgh, Carnagie-Mellon
University, 1973.
— The Knowledge-Level, Pittsburgh, Carnagie-Mellon University, 1980.

 G. Polya, How to solve it: a New Aspect of Mathematical Method, Princeton e Oxford,
Princeton University Press, 1948.

 C. Shannon, Programming a Computer for Playing Chess, «Philosophical Magazine»,


314/41, 1950.

 A.Turing, On Computable Numbers, Princeton, Princeton University, 1936.

 Computing Machinery and Intelligence, «Mind», 49 (1950).

 N. Wiener, Cybernetics, Cambridge, The MIT Press, 1948.


161

Sitografia

 F. Adams, K. Aizawa, “Causal Theories of Mental Content”, The Stanford Encyclopedia of


Philosophy (Summer 2017 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/sum2017/entries/content-causal/>.

 G. Andrew, Saudi Arabia grants citizenship to a robot for the first time ever, «Independent»,
edizione online del 26 ottobre 2017: Andrew Griffin, Saudi Arabia grants citizenship to a
robot for the first time ever, «Independent», edizione online del 26 ottobre 2017:
https://www.independent.co.uk/life-style/gadgets-and-tech/news/saudi-arabia-robot-sophia-
citizenship-android-riyadh-citizen-passport-future-a8021601.html.

 J. Bickle, P. Mandik, A. Anthony, “The Philosophy of Neuroscience”, The Stanford


Encyclopedia of Philosophy (Fall 2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/fall2019/entries/neuroscience/>.

 S. Bringsjord, N.S. Govindarajulu, “Artificial Intelligence”, The Stanford Encyclopedia of


Philosophy (Winter 2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/win2019/entries/artificial-intelligence/>.

 C. Buckner, J. Garson, “Connectionism”, The Stanford Encyclopedia of Philosophy (Fall


2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/fall2019/entries/connectionism/>.

 T. Bynum, “Computer and Information Ethics”, The Stanford Encyclopedia of Philosophy


(Summer 2018 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/sum2018/entries/ethics-computer/>.

 D. Cole, “The Chinese Room Argument”, The Stanford Encyclopedia of Philosophy (Spring
2020 Edition), Edward N. Zalta (ed.), forthcoming URL =
162

<https://plato.stanford.edu/archives/spr2020/entries/chinese-room/>.

 D. Cole, “The Chinese Room Argument”, The Stanford Encyclopedia of Philosophy (Spring
2020 Edition), Edward N. Zalta (ed.), forthcoming URL =
<https://plato.stanford.edu/archives/spr2020/entries/chinese-room/>.

 B.J. Copeland, “The Church-Turing Thesis”, The Stanford Encyclopedia of Philosophy


(Spring 2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2019/entries/church-turing/>.

 B.J. Copeland, “The Modern History of Computing”, The Stanford Encyclopedia of


Philosophy (Winter 2017 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/win2017/entries/computing-history/>.

 L. Floridi, “Semantic Conceptions of Information”, The Stanford Encyclopedia of


Philosophy (Winter 2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/win2019/entries/information-semantic/>.

 M. Franssen, G-J. Lokhorst, I. van de Poel, “Philosophy of Technology”, The Stanford


Encyclopedia of Philosophy (Fall 2018 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/fall2018/entries/technology/>.

 G. Mosca, L’Arabia Saudita dà la cittadinanza all’androide Sophia, «Wired», edizione


online del 30 ottobre 2017: https://www.wired.it/attualita/tech/2017/10/30/arabia-saudita-
cittadinanza-sophia/.

 A. Hodges, “Alan Turing”, The Stanford Encyclopedia of Philosophy (Winter 2019


Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/win2019/entries/turing/>.

 N. Immerman, “Computability and Complexity”, The Stanford Encyclopedia of Philosophy


(Winter 2018 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/win2018/entries/computability/>.

 L. Introna, “Phenomenological Approaches to Ethics and Information Technology”, The


Stanford Encyclopedia of Philosophy (Fall 2017 Edition), Edward N. Zalta (ed.), URL =
163

https://plato.stanford.edu/archives/fall2017/entries/ethics-it-phenomenology/.

 P. Jacob, “Intentionality”, The Stanford Encyclopedia of Philosophy (Winter 2019 Edition),


Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/win2019/entries/intentionality/>.

 R. Kirk, “Zombies”, The Stanford Encyclopedia of Philosophy (Spring 2019 Edition),


Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2019/entries/zombies/>.

 J. Levin, “Functionalism”, The Stanford Encyclopedia of Philosophy (Fall 2018 Edition),


Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/fall2018/entries/functionalism/>.

 W. Lycan, “Representational Theories of Consciousness”, The Stanford Encyclopedia of


Philosophy (Fall 2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/fall2019/entries/consciousness-representational/>.

 M. Capuano, Intelligenza artificiale, Sophia è la prima donna-robot a prendere la


cittadinanza, «Futuraera.it», articolo del 6 novembre 2017:
http://www.futuraera.it/intelligenza-artificiale-sophia-e-la-prima-donna-robot-a-ricevere-la-
cittadinanza/.

 T. O’Connor, H.Y. Wong, “Emergent Properties”, The Stanford Encyclopedia of Philosophy


(Summer 2015 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/sum2015/entries/properties-emergent/>.

 G. Oppy, D. Dowe, “The Turing Test”, The Stanford Encyclopedia of Philosophy (Spring
2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2019/entries/turing-test/>.

 F. Portoraro, “Automated Reasoning”, The Stanford Encyclopedia of Philosophy (Spring


2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2019/entries/reasoning-automated/>.
 P. Raatikainen, “Gödel's Incompleteness Theorems”, The Stanford Encyclopedia of
Philosophy (Fall 2018 Edition), Edward N. Zalta (ed.), URL =
164

<https://plato.stanford.edu/archives/fall2018/entries/goedel-incompleteness/>.

 M. Rescorla, “The Computational Theory of Mind”, The Stanford Encyclopedia of


Philosophy (Spring 2017 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2017/entries/computational-mind/>.

 W. Robinson, “Epiphenomenalism”, The Stanford Encyclopedia of Philosophy (Summer


2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/sum2019/entries/epiphenomenalism/>.

 L. Schubert, “Computational Linguistics”, The Stanford Encyclopedia of Philosophy


(Spring 2020 Edition), Edward N. Zalta (ed.), forthcoming URL =
<https://plato.stanford.edu/archives/spr2020/entries/computational-linguistics/>.

 C. Siewert, “Consciousness and Intentionality”, The Stanford Encyclopedia of Philosophy


(Spring 2017 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2017/entries/consciousness-intentionality/>.

 S. Morosi, L’Arabia Saudita dà la cittadinanza a Sophia, una donna robot, «Corriere della
Sera», edizione online del 17 ottobre 2017:
https://www.corriere.it/tecnologia/17_ottobre_30/arabia-saudita-da-cittadinanza-sophia-
donna-robot-ec459068-bd47-11e7-b457-66c72633d66c.shtml.

 J.J.C. Smart., “The Mind/Brain Identity Theory”, The Stanford Encyclopedia of Philosophy
(Spring 2017 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2017/entries/mind-identity/>.

 J. Sullins, “Information Technology and Moral Values”, The Stanford Encyclopedia of


Philosophy (Summer 2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/sum2019/entries/it-moral-values/>.
 Talbott, William, “Bayesian Epistemology”, The Stanford Encyclopedia of Philosophy
(Winter 2016 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/win2016/entries/epistemology-bayesian/>.
165

 P. Thagard, “Cognitive Science”, The Stanford Encyclopedia of Philosophy (Spring 2019


Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2019/entries/cognitive-science/>.

 T. Richmond, “Logic and Artificial Intelligence”, The Stanford Encyclopedia of Philosophy


(Winter 2018 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/win2018/entries/logic-ai/>.

 R. Turner, N. Angius, and G. Primiero, “The Philosophy of Computer Science”, The


Stanford Encyclopedia of Philosophy (Spring 2019 Edition), Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/spr2019/entries/computer-science/>.

 M. Tye, “Qualia”, The Stanford Encyclopedia of Philosophy (Summer 2018 Edition),


Edward N. Zalta (ed.), URL =
<https://plato.stanford.edu/archives/sum2018/entries/qualia/>.