Sei sulla pagina 1di 12

Macchine intelligenti

Quarta dispensa
Le critiche all’intelligenza artificiale e i nuovi paradigmi
Introduzione
L’obiettivo di fondo della ricerca sull’intelligenza artificiale, era quello di costruire
computer almeno in parte intelligenti. E questo progetto, come abbiamo già rilevato
nella precedente dispensa, è andato incontro a molte delusioni. Analizzare il
comportamento intelligente, e riuscire a farlo riprodurre da una macchina, si è rivelato
assai più complicato di quanto non sembrasse in prima istanza, soprattutto quando si
è cercato di riprodurre al computer l’intelligenza comune, quella capacità che orienta il
comportamento quotidiano di ogni essere umano. I sostenitori dell’intelligenza
artificiale, però, non si sono scoraggiati. Il compito di costruire una macchina
intelligente, dicono, è certo difficile, ma non è impossibile, e con il tempo sarà
possibile conseguire risultati soddisfacenti. A questo atteggiamento ottimistico si sono
opposti diversi filosofi e scienziati, che hanno sollevato critiche radicali all’intelligenza
artificiale. Tra di essi vi è il filosofo americano John Searle, che ha cercato di confutare
i fondamenti teorici stessi del progetto dell’intelligenza artificiale.

La critica all’intelligenza artificiale elaborata da John Searle non è l’unica. Un


atteggiamento altrettanto scettico verso questa disciplina è molto diffuso anche tra gli
scienziati e i medici che studiano la struttura ed il funzionamento del cervello. Per
quale ragione?

Secondo l’intelligenza artificiale il pensiero è una specie di ‘programma’ eseguito


dal nostro cervello. Come un normale PC esegue il sistema operativo e i vari
programmi applicativi, così il nostro cervello ‘eseguirebbe’ dei programmi per il
linguaggio, per il ragionamento e così via. Per quanto riguarda i computer sappiamo
che la capacità di eseguire programmi non dipende dai materiali con cui essi vengono
costruiti ma solo dalla loro organizzazione logica. I primi computer erano basati su
valvole simili a quelle usate nelle vecchie radio dei nostri nonni. Quelli moderni invece
si basano su piccolissimi microcircuiti stampati su una lastra di silicio. E sono già in
corso degli studi per realizzare computer ‘molecolari’ o ‘quantici’.

Ma è possibile dire che il pensiero e la mente non hanno nulla a che fare con il
modo in cui è fatto il cervello? Ebbene la maggior parte degli scienziati che studia il
cervello sono convinti che questo non è possibile. È solo grazie alla meravigliosa e
complicatissima struttura di questo organo, al modo in cui esso funziona e in cui è
collegato al resto del corpo che noi esseri umani possiamo pensare. Il nostro cervello è
costituito da una enorme quantità di cellule, i neuroni, collegate fra loro a formare una
specie di rete tridimensionale lungo la quale si scambiano incessantemente segnali.
Una rete talmente intricata che probabilmente non riusciremo mai a sapere quante
possibili connessioni possa avere. Molti studiosi sono convinti che una macchina, per
essere intelligente, dovrebbe simulare proprio questo incessante brulichio mediante
delle reti neurali artificiali.

Collegato a questo nuovo paradigma nello studio dei sistemi intelligenti, chiamato
connessionismo, c’è una disciplina consolidatasi negli ultimi dieci anni. Si tratta della
‘vita artificiale’ (artificial life, o alife) che, come potrete immaginare, affronta il tema
dello studio e della simulazione informatica dei sistemi biologici e dell’evoluzione.
Searle e l’argomento della stanza cinese
Come abbiamo visto nella prima dispensa, i fondamenti teorici di molta parte
dell’intelligenza artificiale sono la teoria rappresentazionale della mente e
l’equivalenza formale tra cervello e macchina di Turing. Queste due teorie hanno
avuto una larghissima diffusione sulla scena della filosofia della mente per oltre
quaranta anni e sono tuttora sostenute, in varie forme, da molti importanti filosofi e
studiosi, e in particolare dalla maggioranza dei ricercatori e degli scienziati che
operano nel campo della IA.

Non sono tuttavia pochi i filosofi che vi si sono opposti strenuamente. Tra di essi
uno dei più autorevoli e tenaci è il filosofo John Searle che a più riprese ha cercato di
confutare l’idea che il pensiero umano sia riducibile ad una semplice elaborazione di
simboli. La sua argomentazione propone fra l’altro un gioco ideale: il gioco della
stanza cinese, che funziona in questo modo.

Immaginiamo di prendere una persona qualsiasi che non sappia una parola di
cinese. Ora, supponiamo che la persona in questione venga messa una stanza. Nella
stanza ci sono un’infinità di piccole scatole che contengono dei foglietti di carta su cui
sono disegnati tutti i possibili ideogrammi della scrittura cinese. La persona nella
stanza non conosce il cinese. Dunque per lei questi simboli sui fogli non sono che
scarabocchi privi di significato.

A questo punto immaginiamo che insieme ai fogli con gli ideogrammi al nostro
personaggio venga fornito un manuale in italiano che contiene un insieme di istruzioni
come questa: se ricevi il simbolo che ha la stessa forma di quello nella scatola X allora
restituisci il simbolo nella scatola Y. Anche senza capire nulla del cinese il soggetto
potrebbe eseguire queste istruzioni, basandosi esclusivamente sulla forma dei simboli.

Ora, immaginiamo che fuori dalla porta ci sia una persona che conosce il cinese.
Questa persona di tanto in tanto manda dentro alla stanza una serie di simboli cinesi
che corrispondono a frasi perfettamente sensate. Ad esempio: “che colore preferisci?”
La persona dentro alla stanza, naturalmente, non capisce questi messaggi. Tuttavia,
guarda attentamente i simboli ricevuti, e cerca nel manuale se esiste una regola che li
riguardi; se c’è, la esegue scrupolosamente. Supponiamo che le regole scritte sul
manuale siano fatte in modo tale che la serie di simboli che la persona nella stanza
estrae dalla scatola e restituisce siano riposte sensate alle domanda. Ad esempio: “Il
colore che preferisco è l’azzurro”. Ebbene in questo caso la persona fuori dalla stanza
sarebbe convinta di parlare con qualcuno che conosce perfettamente il cinese, anche
se in realtà la persona dentro la stanza non sa una sola parola di quella lingua!

Se riflettiamo sul gioco proposto da Searle ci rendiamo conto che esso assomiglia
alla descrizione funzionale di un computer. Infatti:

• la persona nella stanza è assimilabile al computer (o al processore)

• il manuale è il programma eseguito dal processore e scritto nel suo


linguaggio macchina,

• i simboli nelle scatole sono i dati usati dal programma per ‘rispondere’ alle
domande in cinese

L’argomentazione proposta da Searle voleva appunto dimostrare questo: anche se


fosse possibile trovare tutte le regole che ci permettono di parlare una lingua, di
ragionare, o di fare ogni altra attività intelligente che desideriamo, comunque i
computer non potrebbero mai capire veramente quello che fanno. Il problema secondo
Searle consiste nel fatto che i computer manipolano i simboli esclusivamente in base
alla loro forma o sintassi, ma non al loro significato, o semantica. Il significato infatti è
una proprietà primaria che deriva ai simboli dal fatto di essere usati in riferimento al (o
di intendere il) mondo esterno. E questa facoltà di riferimento al mondo o
intenzionalità è una qualità non riducibile o spiegabile in termini puramente simbolici o
sintattici. Solo un cervello fatto così e così, collocato dentro ad un corpo dotato di
certi apparati sensoriali e in grado di entrare in relazione con l’ambiente può causare i
fenomeni mentali. Caratteristiche che i computer non hanno:

Il cervello è un organo biologico specifico e le sue proprietà biochimiche


specifiche gli consentono di causare la coscienza e altri tipi di fenomeni mentali. Le
simulazioni al calcolatore dei processi cerebrali forniscono modelli degli aspetti
formali di questi processi, ma la simulazione non va confusa con la riproduzione. Il
modello computazionale dei processi mentali non è più reale di quello di qualsiasi
altro fenomeno naturale.1

Naturalmente i fautori dell’intelligenza artificiale, o in generale della teoria


rappresentazionale della mente, hanno reagito proponendo diverse
controargomentazioni all’attacco di Searle. Molte di queste risposte hanno un
carattere tecnico che non possiamo affrontare in questa sede. Ci limiteremo a
ricordarne solo due.

La prima, un po’ paradossalmente, sostiene che sebbene la persona nella stanza


non capisca il cinese, la stanza nel suo complesso sì. Detto in termini più formali, è il
sistema di elaborazione nel suo complesso che gode della proprietà di essere
intelligente. Esattamente come nel nostro cervello le singole cellule nervose (che,
vedremo, svolgono compiti di elaborazione di informazione, anche se in modo affatto
diverso dai calcolatori digitali) prese singolarmente non mostrano intelligenza, mentre
il sistema cerebrale innegabilmente è intelligente. Secondo Searle, tuttavia, questa
mossa teorica, che egli definisce ardita, non regge. Basterebbe una semplice modifica
dell’esperimento mentale della stanza cinese per confutarla: ad esempio, potremmo
immaginare che la persona imparasse a memoria le forme dei simboli e il prontuario
delle regole. A questo punto essa potrebbe lavorare anche all’aperto e non ci sarebbe
nessun sistema più complesso a cui appellarsi.

Una seconda serie di obiezioni alle tesi di Searle si basano su un argomento ancora
più radicale. Il problema messo in evidenza dal filosofo americano è la mancanza di
semantica o di intenzionalità dei sistemi formali. Ma ci si può domandare, che cosa è
questa semantica? Esiste un fenomeno naturale spiegabile scientificamente che
risponde alla definizione di semantica? In effetti sia la critica di Serale, sia quelle simili
di altri studiosi come Richard Dreyfus, fanno appello a una facoltà primaria irriducibile
e dunque non spiegabile scientificamente, se non mediante petizione di principio: le
semantica esiste, e siccome un computer non ha semantica allora un computer non
può essere intelligente. Ma se la semantica non esistesse come fenomeno primario? In
fondo, moltissimi fenomeni fisici che sembravano determinati da proprietà irriducibili
sono stati spiegati o ridotti a fenomeni fisici più semplici (si pensi alla natura della luce
o del magnetismo). Dunque nulla ci vieta di immaginare che in realtà la semantica non
sia altro che il prodotto osservabile di una complessa serie di interrelazioni tra processi
puramente sintattici posti su vari livelli gerarchici.

E per l’obiezione che il computer è privo di corpo, basta semplicemente dotare la


macchina di strumenti di percezione e di effettori (dispositivi in grado di agire sul
mondo circostante), per risolvere il problema. Non a caso le recenti tendenze nel
campo dell’intelligenza artificiale hanno ripreso la sperimentazione nel campo della

1 Searle, J., La mente è un programma?, in «Le Scienze quaderni», n. 66, giugno 1992, p. 8.
robotica, cercando di realizzare agenti artificiali dotati di corpi meccanici
strutturalmente simili a quelli degli organismi naturali.

Naturalmente il dibattito sui fondamenti (o sulle pretese, a seconda dei punti di


vista) dell’intelligenza artificiale è proseguito a lungo e prosegue ancora oggi, sebbene
molto dell’entusiasmo dei primi anni sia scemato. Ma una analisi approfondita di
questo dibattito esula dagli scopi di questo corso. I lettori interessati potranno far
riferimento ai testi citati nella bibliografia per approfondire questi aspetti.

Un nuovo paradigma: le reti neurali e il connessionismo


L’intelligenza artificiale, come abbiamo detto più volte, sostiene che le facoltà
cognitive di un agente intelligente derivino dalla sua natura di ‘manipolatore’
automatico di simboli. Abbiamo visto che questo genere di sistemi, a partire dalla
macchina di Turing fino ad arrivare al computer digitale, sono totalmente indipendenti
dal mezzo materiale con cui vengono realizzati. Un computer può essere fatto tanto
con componenti elettronici al silicio quanto con componenti meccanici (leve, ruote,
alberi di distribuzione e pulegge, come la macchina di Babbage2) o elettromeccanici
(come i primi computer che usavano valvole termoioniche). Ma potrebbe anche essere
costituito da un semplice insieme di molecole in grado di interagire mediante reazioni
chimiche, o da cellule organiche che si scambiano proteine ed enzimi 3. Ciò che conta
in un computer è la sua struttura formale e funzionale: se in una macchina, comunque
essa sia costruita, vi sono dei componenti che svolgono le funzioni previste dal
modello teorico di Von Neumann4, essa funzionerà esattamente come un normale PC.

Questo ovviamente vale anche per i processi mentali, posto che la mente sia
veramente il ‘prodotto’ delle computazioni simboliche del cervello. La struttura
biologica di quest’ultimo, dunque, sarebbe completamente irrilevante ai fini di
spiegare la natura dell’intelligenza. Tuttavia questa affermazione così radicale non è
ovviamente condivisa da tutti gli studiosi. Sembra strano che la struttura biologica e le
fisiologia di un organo complesso come il nostro cervello (e della sua ramificata
propaggine, il sistema nervoso) non abbia niente che fare con l’intelligenza.

In primo luogo, si osserva, allo stato attuali delle conoscenze circa il funzionamento
del cervello, risulta piuttosto arduo individuare al suo interno un qualche meccanismo
che sia funzionalmente equivalente ad una macchina formale automatica a stati
discreti e sequenziali. Anzi, per quanto si è potuto verificare, nel cervello si verificano
miliardi di processi contemporanei (o paralleli) e caratterizzati da variazioni di stato
continue. In secondo luogo, esistono delle capacità cognitive come la percezione
(visione, udito, tatto) che ragionevolmente non sembrano riducibili a processi
computazionali simbolici. Infine abbiamo visto come, nonostante i cinquanta anni di
ricerche e sperimentazioni, l’intelligenza artificiale classica non sia ancora riuscita a
costruire dei modelli computazionali delle varie facoltà cognitive umane plausibili ed
effettivamente funzionanti.

Tutte queste considerazioni hanno portato, a partire dalla fine degli anni ’70, alla
nascita di una nuova impostazione nello studio della mente (e parallelamente nella
costruzione di macchine intelligenti). Questa nuova impostazione si chiama
connessionismo. Il fondamento teorico del connessionismo, che rovescia
completamente le tesi della IA classica, in estrema sintesi è il seguente: per spiegare
2 Si veda la relativa scheda nel secondo capitolo.

3 Non si tratta di esempi un po’ fantasiosi. Esistono veramente dei progetti di ricerca volti alla costruzione
di computer molecolari o biologici, che sarebbero assai più veloci degli attuali computer elettronici.

4 Anche su questo modello ci siamo soffermati nel secondo capitolo.


e/o riprodurre l’intelligenza e tutte le facoltà cognitive di un essere umano (o di
qualche altra specie animale) è necessario emulare le proprietà e la fisiologia del
cervello, ovvero il funzionamento delle sue cellule.

La struttura cellulare del cervello e la sua fisiologia


Studiare la struttura biologica e la fisiologia del cervello è un compito tutt’altro che
facile. Tuttavia a partire dall’inizio del nostro secolo sono stati fatti dei grandissimi
passi in avanti in questo campo. Oggi disponiamo di apparecchiature, come la TAC,
che ci consentono di ottenere immagini dettagliate del cervello in attività. E molte
conoscenze sono venute anche studiando i danni e le disfunzioni riportate da persone
cerebrolese.

In questo modo i neuroscienziati sono riusciti a capire che tutte le attività


intelligenti sono controllate dalla parte esterna del cervello, quella parte caratterizzata
da un superficie involuta di colore grigiastro e chiamata corteccia cerebrale. E
sappiamo anche che la corteccia è a sua volta divisa in diverse regioni specializzate:
ogni regione controlla una determinata facoltà cognitiva. Ma le conoscenze sul
cervello non si fermano qui. I neuroscienziati, infatti, sono riusciti a ricostruire anche la
struttura cellulare del cervello e a capirne almeno in parte il funzionamento.

Il cervello è costituito da un enorme insieme di cellule, denominate neuroni. I


neuroni sono costituiti da un corpo centrale o soma, dal quale si dipartono una serie di
prolungamenti filiformi; alcuni di questi prolungamenti sono piuttosto ‘corti’ e
terminano a loro volta in strutture fortemente ramificate: essi sono denominati
dendriti. Uno dei prolungamenti invece è molto più lungo degli altri (talvolta, come
avviene nelle cellule collegate direttamente agli organi sensoriali esso può estendersi
persino per diverse decine di centimetri) e si chiama assone. Anche l’assone termina
in una o più ‘code’ alla cui estremità si trova una sorta di rigonfiamento, detto sinapsi.
Ogni neurone è collegato mediante le sue terminazioni sinaptiche ai dendriti di molti
altri neuroni. In questo modo i neuroni, che nel cervello umano sono circa dodici
miliardi, formano un reticolo di interconnessioni fittissimo: secondo alcune stime il
numero di connessioni possibili (che ovviamente non sono pari a quelle realmente
esistenti) sarebbe superiore al numero degli atomi nell’universo!

Ma come funzionano queste cellule, ed in che modo determinano l’attività del


cervello? Ebbene, si è scoperto che i neuroni comunicano tra loro scambiandosi dei
segnali elettrici e attivandosi reciprocamente. Il rilascio di un segnale da parte di un
neurone non è automatico e immediato: affinché avvenga è necessario che il neurone
venga eccitato da altri neuroni fino al superamento di una certa soglia; solo allora la
cellula invia un segnale agli altri neuroni con cui è collegata. I segnali in uscita da un
neurone viaggiano sotto forma di minuscoli impulsi elettrici cha vanno dal nucleo della
cellula, lungo l’assone, fino alle sinapsi. Quando le cariche giungono alle terminazioni
sinaptiche esse inducono la liberazione di particolari molecole dette
neurotrasmettitori; queste a loro volta raggiungono le terminazioni dendritiche dei
neuroni collegati all’assone, e scatenano una reazione chimica che permette il
passaggio del segnale elettrico da un neurone all’altro.

Studiando l’attività biochimica dei neuroni mediante dei raffinati sistemi di


rilevamento, si è notato che ogni diversa facoltà cognitiva e locomotoria corrisponde
ad una aumento di attività in particolari aree del cervello. Si suppone perciò che il
cervello abbia una struttura modulare: ogni modulo è specializzato per un certo tipo di
attività.
Le reti neurali
Le ricerche di impostazione connessionista hanno cercato di emulare il
comportamento delle cellule neuronali facendo ricorso alle cosiddette reti neurali:

Una rete neurale è una struttura formata da un certo numero di unità


collegate tra loro da connessioni. Attraverso le connessioni un’unità influenza
fisicamente le altre unità con cui è collegata. Le unità hanno alcune
caratteristiche essenziali delle cellule nervose, i neuroni del sistema nervoso
reale, mentre le connessioni alcune delle caratteristiche essenziali dei
collegamenti sinaptici tra neuroni5.

Una rete neurale è costituita da un insieme di nodi collegati. Per ogni nodo vi sono
dei collegamenti di input (da cui arrivano segnali) e dei collegamenti di output
(attraverso cui la rete emettte segnali). I nodi possono assumere due stati: stato di
riposo e stato di attivazione. Quando un nodo è in stato di attivazione esso invia dei
segnali ai nodi con cui è collegato. Un aspetto importante della microfisiologia
cerebrale che viene emulato dalle reti neurali è il sistema di eccitazione. Infatti i
collegamenti tra i nodi di una rete neurale sono di due tipi: collegamenti eccitatori e
collegamenti inibitori. Ogni collegamento tra un nodo della rete e un altro, inoltre, è
dotato di un peso. Il peso del collegamento che assegna diversi valori ai segnali che li
attraversano. Ogni nodo diventa attivo e dunque manda un segnale ai nodi ad esso
connessi solo se i messaggi che gli arrivano (nel computo tra segnali inibitori e segnali
eccitatori) lo portano oltre una certa soglia di attivazione (misurata mediante una
scala numerica). Visto nel suo complesso, il comportamento di una rete neurale può
essere descritto come un processo in cui, una volta fornita in ingresso alla rete una
configurazione di segnali-stimolo (mediante l’attivazione di alcuni suoi nodi, detti nodi
in input), la rete rilascia in uscita un’altra configurazione di segnali.

Le reti neurali si differenziano in base alla loro architettura, cioè in base al modo in
cui i nodi si dispongono su uno o più strati: in particolare si distinguono reti a uno
strato, reti a due strati reti a tre o più strati. In questi ultimi due tipi gli strati esterni
svolgono rispettivamente la funzione di strato di input e strato di output, un po’ come
nel cervello ci sono cellule che sono in contatto diretto con gli organi di senso e cellule
che governano il movimento e l’emissione di messaggi vocali.

Un altro aspetto che differenzia le reti neurali è rappresentato dalla tipologia delle
connessioni tra i nodi: in alcuni casi le connessioni viaggiano solo in un senso; in altri, i
messaggi possono andare sia in avanti sia indietro; in altri ancora, nodi
topologicamente distanti possono avere dei collegamenti diretti. Dal punto di vista
della implementazione, una rete neurale può essere simulata interamente ‘via
software’ mediante un normale calcolatore digitale; oppure può essere realizzata
direttamente a livello hardware, mediante la connessione di molti semplici
microprocessori in grado di lavorare in parallelo.

Quali proprietà hanno le reti neurali che le rendono, oltre che un modello (a dire il
vero ancora ‘alla lontana’) del cervello, un possibile modello dei comportamenti
intelligenti?

Una prima proprietà interessante è che le reti neurali, a differenza dei computer
digitali, funzionano in modalità parallela, nel senso che in ogni istante molti nodi
cambiano il loro stato simultaneamente. Questo tipo di elaborazione sembra essere
molto più aderente al funzionamento reale del cervello rispetto al modello di
elaborazione sequenziale proprio delle macchine di Turing e Von Neumann. Ma la
proprietà più interessante delle reti neurali è la loro capacità di apprendimento: esse

5 D. Parisi, Mente. I nuovi modelli della vita artificiale, Il mulino 1999, p. 80.
cioè possono imparare a svolgere dei compiti senza bisogno di essere programmate
esplicitamente.

Il processo di apprendimento avviene in questo modo: per un dato periodo di


tempo vengono forniti alla rete una serie di stimoli in entrata e i corrispondenti stimoli
in uscita che essa dovrebbe generare. Ad esempio, in entrata vengono fornite le
rappresentazioni in formato bitmap dei caratteri di un certo sistema di scrittura, e in
uscita le corrispondenti posizioni della tavola ASCII 6. Durante questo periodo nella rete
vengono modificati i pesi assegnati ai collegamenti tra nodi. Superata un certa soglia
di autorganizzazione interna la rete è in grado di riconoscere da sola le configurazioni
di input: essa ha cioè imparato a riconoscere i caratteri della scrittura.

Un’altro aspetto estremamente interessante delle reti neurali (soprattutto in


relazione al discorso sui fondamenti dell’intelligenza artificiale classica e sulla teoria
rappresentazionale della mente) è che in esse la conoscenza necessaria a svolgere un
dato compito non è rappresentata da simboli distinti che vengono trasformati in base
a regole, ma è diffusa tra tutti i nodi della rete che concorrono ad elaborala. In altri
termini, la conoscenza insita in una rete neurale e la sua elaborazione sono
subsimboliche.

Anche da questa nostra breve trattazione, appaiono evidenti le ragioni in virtù delle
quali si afferma che il connessionismo rappresenti un paradigma teorico radicalmente
diverso dalla teoria computazionale classica: esso in primo luogo sostiene che per
ottenere un comportamento intelligente è necessario emulare la struttura fisica
(cellulare per la precisione) del cervello; ma soprattutto sostiene che i processi
cognitivi e, inter alia, il pensiero, non sono il prodotto di processi computazionali
simbolici, ma emergono dal comportamento complessivo di moltissime unità
subsimboliche che, prese singolarmente, non rappresentano niente.

Sulla base di questo paradigma, la cui prima formulazione risale ad un lungimirante


(visto da oggi) saggio di W. McCulloch e W. Pitt risalente al 19437, sono state
realizzate numerose applicazioni delle reti neurali in vari domini: per esempio nella
simulazione dei comportamenti elementari di specie inferiori, spesso associata alla
costruzione di robot reali. In questo settore specifico il primo esperimento importante
è stato il Perceptron di Rosenblatt (1958) che era un robot in grado di muoversi in un
ambiente evitando gli ostacoli. Un altro settore in cui il paradigma connessionista ha
avuto larga diffusione è quello dello studio e della emulazione dei processi soggiacenti
alla percezione, ambito nel quale l’impostazione computazionale classica ha mostrato
notevoli limiti. E non sono mancate anche le applicazioni pratiche, soprattutto nel
campo dei software per il riconoscimento dei caratteri (OCR, su cui ci siamo soffermati
nel primo capitolo), e, negli ultimi anni, anche nel campo dell’analisi finanziaria.

Intorno a queste sperimentazioni, poi, è proliferata una ingente mole di letteratura


teorica e filosofica che considera il connessionismo la strada maestra per la creazione
di macchine intelligenti e per lo studio dell’intelligenza naturale. Naturalmente i
sostenitori dell’IA classica e della teoria rappresentazionale hanno reagito, producendo
una pari mole di confutazioni delle tesi connessioniste. E in realtà, sebbene il
connessionismo abbia riportato dei buoni successi nei domini che abbiamo appena
ricordato, quando si è tentato di applicarlo alla riproduzione artificiale delle facoltà
cognitive superiori ha rivelato non pochi limiti. Infatti, è innegabile che molte di queste
attività consistano in qualche specie di elaborazione simbolica (non necessariamente
di tipo computazionale): e finora nessuno è stato in grado di capire come dalla
6 Della tavola ASCII abbiamo parlato nel primo capitolo.

7 W. McCulloch e W. Pitt, “A Logical Calculus of the Ideas Immanent in Nervous Activity”, in Bul. Math
Biophys., vol. 5, p. 115-133.
concorrenza di moltissimi processi di elaborazione paralleli e subsimbolici possa
effettivamente emergere una qualche forma di elaborazione simbolica, come la
competenza linguistica o la capacità di ragionare in modo deduttivo.

Per questa ragione molti studiosi sono convinti che se una prospettiva di sviluppo e
di successo per l’intelligenza artificiale esiste veramente, questa scaturirà dalla
convergenza tra il modello computazionale e modello connessionista. Infatti i processi
che avvengo nel cervello, almeno allo stato attuale delle conoscenze, sembrano
disporsi su vari livelli: ai livelli bassi (che corrispondo alla percezione e ai processi di
elaborazione degli stimoli provenienti dall’ambiente) avvengono molte elaborazioni
veloci e parallele di elementi subsimbolici; ai livelli alti invece si collocano dei processi
che trasformano l’output dei livelli bassi in simboli e con tali simboli eseguono quelle
elaborazioni che la Buona Vecchia IA ha studiato da mezzo secolo ai giorni nostri.

La vita artificiale
In questo corso abbiamo visto come negli ultimi cinquanta anni un intero esercito
di studiosi abbia cercato di riprodurre mediante i computer quel complesso di
fenomeni che chiamiamo mente o intelligenza.. Un obiettivo assai difficile, e tuttora
ben lontano dall’essere conseguito.

Negli ultimi anni però c’è stato qualcuno che ha pensato di andare oltre: sono i
ricercatori impegnati in una curiosa disciplina che si chiama vita artificiale, o Alife
(contrazione dall’inglese artficial life). Non si tratta di novelli emuli del dottor
Frankenstein, né di arditi sperimentatori delle tecnologie genetiche. La vita artificiale
infatti ha come obiettivo la simulazione del comportamento di organismi ed ecosistemi
reali sul computer. La data di nascita ufficiale di questo campi di studi a cavallo tra
biologia, genetica e informatica è stata fissata nel 1987, quando in una conferenza
tenuta all’Oppenheimer Study Center di Los Alamos (New Mexico) il biologo
Christopher Langton riunì circa 160 studiosi provenienti da molteplici campi
disciplinari.

Esattamente come l’intelligenza artificiale studia i principi e la natura


dell’intelligenza cercando di riprodurne alcune caratteristiche mediante i computer,
così la vita artificiale cerca di rispondere a domande sulla natura della vita e dei
processi che caratterizzano un organismo vivente (o una popolazione di organismi), e
di capire come si siano svolti i processi evolutivi che da forme di vita semplici hanno
portato all’evoluzione di forme di vita sempre più complesse e intelligenti, mediante
simulazioni realizzate al computer.

In un certo senso il programma della vita artificiale estende quello dell’intelligenza


artificiale. L’intelligenza, infatti, è una caratteristica di alcune specie viventi superiori
(e, in senso pieno, solo dalla nostra specie) che si sono evolute a partire da forme di
vita più semplici. Dunque lo sviluppo e la natura dei sistemi intelligenti rientra tra gli
obiettivi della vita artificiale. Tuttavia, allo stato attuale, la maggior parte delle
ricerche in questa disciplina è rivolta allo studio di processi biologici elementari
(assimilabili a quelli dei virus o degli esseri monocellulari) o alla simulazione del
comportamento di esseri più complessi ma comunque assai in basso nella scala
evolutiva, come gli insetti.8

La maggior parte delle creature studiate dalla vita artificiale sono pure simulazioni
software che vivono in ambienti digitali. Tuttavia non mancano applicazioni di sistemi
di vita artificiali a piccoli robot che sono in rado di muoversi in ambienti reali ancorché

8 Che pure mostrano in alcuni casi dei comportamenti sociali assai articolati: si pensi alle formiche o alle
api!
semplici. Già abbiamo citato il caso del Perceptron di Rosenblatt, un robot tartaruga
che, governato da una rete neurale, poteva muoversi in un appartamento evitando gli
ostacoli e individuando le fonti di energia necessarie al suo ‘sostentamento’. Da allora
numerose sono state le creature meccaniche realizzate dai ricercatori per studiare le
basi del comportamento degli esseri viventi.

La somiglianza nei comportamenti tra alcune delle forme di vita artificiale (digitali o
robotiche che siano) sviluppate dai ricercatori di Alife e le creature organiche cui esse
si richiamano ha portato alcuni studiosi in questo settore ad assumere una posizione
che può sembrare paradossale: per conto loro gli esseri artificiali sono ‘vivi’ tanto
quanto quelli organici. Altri studiosi, invece, si limitano ad asserire che le
sperimentazioni condotte con i computer ci possono far capire meglio alcuni dei
misteri della vita organica, senza assumere che le forme di vita artificiale possano dirsi
viventi in un senso pieno. Insomma, come nell’intelligenza artificiale, anche nella vita
artificiale vi è una posizione ‘forte’ e una ‘debole’.

La teoria dell’evoluzione di Charles Darwin


Un elemento fondamentale degli studi di vita artificiale è lo studio e la simulazione
dei processi evolutivi teorizzati da Charles Darwin nel secolo scorso. Come forse
saprete Darwin è l’artefice della teoria evoluzionista attualmente condivisa da
pressoché tutti i biologi, sebbene vi siano vari punti di vista su diversi aspetti interni
alla teoria stessa.

Il cuore della teoria darwiniana è costituito dal concetto di ‘selezione naturale’.


Secondo questa teoria tutte le forme di vita attualmente esistenti si sono evolute nel
corso del tempo in virtù di una serie di variazioni casuali intervenute tra gli individui di
generazioni successive. Alcune di queste variazioni, in determinati momenti, si sono
rivelate dei vantaggi competitivi per gli individui che le subivano, favorendone la
sopravvivenza e la riproduzione. In sostanza nella competizione per le risorse in un
dato ambiente, questi individui ‘mutanti’ si sono rivelati più efficienti nel procurarsi il
cibo e nella cura della progenie. In seguito a molteplici variazioni di successo da una
unica specie se ne generano altre, alcune delle quali sono premiate dal processo di
selezione naturale, mentre altre vengono punite e si estinguono.

È importante ribadire che secondo la teoria di Darwin le mutazioni che


differenziano ogni individuo di una specie vivente sono puramente casuali: non esiste
nessuno scopo o nessuna direzione preferenziale nell’evoluzione. In un certo senso
l’evoluzione è una specie di programma eseguito dalla natura. Un processo insomma,
che si presta ad essere simulato abbastanza facilmente mediante i computer.

Automi cellulari e algoritmi genetici


Naturalmente gli organismi che vengono simulati negli esperimenti di vita
artificiale sono estremamente semplici, molto più semplici dei più semplici batteri che
vivono sulla terra. I più noti enti artificiali studiati nell’ambito della vita artificiale sono
gli automi cellulari, le cui basi teoriche si debbono, indovinate un po’, ad Alan Turing e
a John Von Neumann. Un automa cellulare è una macchina software autodiretta che di
norma ‘vive’ in ambienti simulati bidimensionali, è dotata di alcuni semplici
comportamenti simili a basilari processi vitali (mangiare, spostarsi alla ricerca di cibo,
difendersi da altri automi) ed è in grado di autoreplicarsi assemblando elementi inerti
tratti dall’ambiente in base a regole semplicissime (come avviene nella mitosi
cellulare, diretta dal DNA). La duplicazione di un automa cellulare non è
completamente deterministica (altrimenti ci troveremmo di fronte a un programma
che copia se stesso9). Nel processo di replica, infatti, possono occorrere delle
mutazioni che simulano le variazioni degli organismi reali previste dalla teoria
darwiniana.

In questo modo un sistema in cui ‘vivono’ degli automi cellulari simula il corso di un
processo evolutivo per selezione naturale, con il vantaggio che i tempi che regolano
l’andamento del processo possono essere controllati dai ricercatori, a differenza di
quanto avviene negli esperimenti effettuati con organismi reali.

Un esempio di applicazione dei principi degli automi cellulari, estremamente


semplice – ma altrettanto pieno di sorprese – è costituito dall’ambiente artificiale
conosciuto come ‘gioco della vita’, ideato dal matematico John Horton Conway nel
1960. L’ambiente del gioco è costituito da una scacchiera bidimensionale. Gli
organismi che vivono nell’ambiente sono rappresentati da una o più celle piene nella
scacchiera. Le celle vuote sono invece considerate morte. Questi organismi si
evolvono in base a tre semplici regole:

• ogni cella con nessuna o una sola cella adiacente muore (questa regola simula la
morte per isolamento);

• ogni cella con quattro celle adiacenti piene muore (questa regola simula la morte
per sovraffollamento);

• ogni cella morta con tre celle adiacenti piene torna in vita alla generazione
successiva (questa regola simula la nascita).

Seguendo queste semplici regole, il sistema si evolve da solo e durante questa


evoluzione genera forme di vita sempre più complesse battezzate con strani nomi:
alianti, lampeggiatori, fulmini, bombardieri. A un certo punto alcune di queste forme di
vita assumono comportamenti che possono essere descritti (ad un livello di
descrizione alto) come dare la caccia alle forme più semplici, difendere porzioni di
territorio e così via.

Un altro tipo di strutture digitali autoreplicantesi ed evolutive studiate in vita


artificiale sono gli algoritmi genetici. L’idea degli algoritmi genetici è stata sviluppata
da John Holland, intorno alla metà degli anni ’70, come metodo per individuare e
ottimizzare gli algoritmi usati nel calcolo di alcune funzioni. 10 A tale fine Holland si è
rifatto al meccanismo della selezione naturale: si generano in modo casuale alcuni
algoritmi genitori, dotati di un certo ‘patrimonio genetico digitale’ espresso in termini
di sequenze di bit. A questi algoritmi vengono applicati due tipi di processi evolutivi: la
mutazione casuale di un o più bit del patrimonio genetico originale; il crossing-over,
ovvero la generazione di un individuo figlio il cui patrimonio genetico è costituito da
parte del patrimonio di due algoritmi ‘genitori’ (come avviene nella riproduzione
sessuata degli organismi viventi).

Una volta ottenuta una generazione di algoritmi ‘figli’ si stima, in base a una
funzione di valutazione, quali tra i nuovi individui siano più adatti alla risoluzione del
problema che è stato affidato loro (come nella selezione naturale l’adattamento
all’ambiente premia alcuni degli individui mutanti): gli individui ‘migliori’ vengo
mantenuti per essere sottoposti ad un nuovo processo di mutazione, mentre gli altri

9 I virus informatici hanno esattamente questo comportamento, ma a differenza dei virus organici, non
possono mutare e dunque evolversi da soli: ogni nuovo virus deve essere esplicitamente programmato da
un programmatore umano, che svolge un po’ il ruolo che i creazionisti attribuiscono a Dio.

10 Un algoritmo è la sequenza finita e ben definita di passi che sono necessari per calcolare una certa
funzione.
sono eliminati. Il processo prosegue finché l’evoluzione non genera degli algoritmi in
grado di risolvere il problema.

Molto spesso le tecnologie alla base degli algoritmi genetici vengono applicate
anche a popolazioni di reti neurali che, come abbiamo visto, presentano per conto loro
alcune interessanti proprietà di autoapprendimento. In questo modo, ad esempio,
sono state generate delle specie di ‘formiche digitali’ che sono in grado di svolgere
compiti quali la ricerca del cibo, la capacità di lottare e di sopraffare i simili, la
capacità di evitare il contatto con ‘sostanze velenose’.

Lo spazio a disposizione di questa dispensa e gli scopi di questo corso non ci


consentono di approfondire ulteriormente questi argomenti, che al pari
dell’intelligenza artificiale (su cui siamo soffermati in modo particolare) evocano
interrogativi e curiosità di non poco rilievo. I lettori che sono interessati ad avere
ulteriori notizie, oltre che dai libri citati in bibliografia (in particolare quelli di Silvi
Antonimi e di Parisi), potranno trovare una grande quantità di informazioni (e di
programmi di vita artificiale da provare sul proprio computer di casa) sul sito Artificial
Life online, realizzato dalla Santa Fe University, il cui indirizzo è
http://alife.santafe.edu.

Bibliografia
Barr, A., Feigenbaum, E. A., The Handbook of Artificial Intelligence (vol. 1), William Kaufmann,
Los Altos (Calif.) 1981
Bernstein, J., Uomini e macchine intelligenti, Adelphi, Milano 1990
Bobrow, D. G., Collins, A., Representation and Understanding: Studies in Cognitive Sciences,
Academic Press, New York 1975
Boden, M. A., Artificial Intelligence and Natural Man, Basic Books, New York 1987
Chomsky, N., Saggi linguistici. Vol. 2 – La grammatica generativa trasformazionale, Bollati
Boringhieri, Torino 1979
Cook, V., Newson, M., Grammatica universale. Introduzione a Chomsky, Il Mulino, Bologna 1996
Dennet, D. C., Coscienza. Che cosa è, Rizzoli, Milano 1993
Dennet, D. C., La mente e le menti, Sansoni, Firenze 1997
Di Francesco, M., Introduzione alla filosofia della mente, Nuova Italia Scientifica, Firenze 1996
Dreyfus, H. L., Che cosa non possono fare i computer. I limiti dell’intelligenza artificiale,
Armando, Roma 1988
Feigenbaum, E., Feldman, J., (a cura di), Computers and Thought, McGraw-Hill, New York 1963
Fodor, J., Concetti. Dove sbaglia la scienza cognitiva, McGraw-Hill Italia, Milano 1999
Frixione, M., Logica, significato e intelligenza artificiale, Franco Angeli, Milano 1994
Haugeland, J., Intelligenza Artificiale, Bollati Boringhieri, Torino 1988
Haugeland, J., Progettare la mente. Filosofia, psicologia, intelligenza artificiale, Il Mulino,
Bologna 1989
Hobbes, T., The Leviathan, (tr. it Il Leviatano, Editori Riuniti, Roma 1982)
Hodges, W., Logica, Garzanti, Milano 1986
Hofstadter, D. R., Dennet, D. C., L’io della mente. Fantasie e riflessioni sul sé e sull’anima,
Adelphi, Milano 1985
Hofstadter, D. R., Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante, Adelphi, Milano 1984
Johnson-Laird, P. N., La mente e il computer. Introduzione alla scienza cognitiva, Il Mulino,
Bologna 1990
Kodarkowsky, M. e Shamkovich, L., A New Era. How Garry Kasparov Changed the World of
Chess, Ballantine Books, New York 1997
Lolli, G. (a cura di), Mente e macchine, «Le Scienze quaderni», n. 66, giugno 1992
McClelland, J. L., Rumelhart, D. E., Parallel Distributed Processing. Exploration in the
Microstructure of Cognition, MIT Press, Cambridge (Mass.) 1986
McCorduck, P., Storia dell’intelligenza artificiale. Gli uomini, le idee, le prospettive, Franco
Muzzio, Padova 1987
McCulloch, W. S., Pitt, W. S., A Logical Calculus of the Ideas Immanent in Nervous Activity, in
«Bul. Math. Biophys.», vol. 5, 1943, p. 115-133
Minsky, M., (a cura di), Semantic Information Processing, MIT Press, Cambridge (Mass.) 1968
Minsky, M., Framework for Representing Knowledge, in Winston 1975 (tr. it. in Haugeland 1989)
Minsky, M., La società della mente, Adelphi, Milano 1989
Mishkoff, H. C., Understanding Artificiale Intelligence, Sams, Indianapolis 1985
Parisi, D., Mente. I nuovi modelli della Vita Artificiale, Il Mulino, Bologna 1999
Pessa, E., Intelligenza artificiale. Teorie e sistemi, Bollati Boringhieri, Torino 1992
Picardi, E., Le teorie del significato, Laterza, Roma-Bari 1999
Pratt, V., Macchine pensanti. L’evoluzione dell’intelligenza artificiale, Il Mulino, Bologna 1990
Rich, E., Intelligenza Artificiale, McGraw-Hill Italia, Milano 1986
Rolston, D. W., Sistemi esperti. Teoria e sviluppo, McGraw-Hill Italia, Milano 1991
Rose, S., Il cervello e la coscienza, Mondadori, Milano 1977
Schank, R. C., Abelson, R. P., Script, Plans, Goals, and Understanding, Lawrence Erlbaum,
Hillsdale (N.Y.) 1977
Schank, R. C., Il computer cognitivo, Giunti, Firenze 1989
Searle, J., Mente, cervello, intelligenza, Bompiani, Milano 1999
Searle, J., Menti cervelli e programmi, Clup-Clued, Milano 1984
Searle, J., La mente è un programma?, in «Le Scienze quaderni», n. 66, giugno 1992
Silvi Antonini, S., Vita artificiale. Dal Golem agli automi cellulari, Apogeo, Milano 1995
Smolensky, P., Connessionismo tra simboli e neuroni, Marietti, Milano 1992
Somenzi V., Cordeschi, R. (a cura di) , La filosofia degli autom, Boringhieri, Torino 1986 (2° ed.
1994)
Tabossi, P., Intelligenza naturale e intelligenza artificiale introduzione alla scienza cognitiva, Il
Mulino, Bologna 1994
Tagliasco, V., Dizionario degli esseri umani fantastici e artificiali, Mondadori, Milano 1999
Turing, A. M., Computing Machinery and Intelligence, in «Mind», Vol. 59, 433-60, 1950 (tr. it
Macchine calcolatrici e intelligenza, in Somenzi e Cordeschi 1986)
Vallar, G. (a cura di), I misteri della mente. «Le Scienze quaderni», n. 101, aprile 1998
Weizenbaum, J., Il potere del computer e la ragione umana, Edizioni Gruppo Abele, Torino 1987
Winograd, T., Calcolatori e conoscenza, Mondadori, Milano 1987
Winograd, T., Understanding Natural Language, University Press - Academic Press, New York
1972
Winston, P., The Psychology of Computer Vision, McGraw-Hill, New York 1975