Sei sulla pagina 1di 397

Il futuro della mente

L’AVVENTURA DELLA SCIENZA PER CAPIRE,


MIGLIORARE E POTENZIARE IL NOSTRO CERVELLO

MICHIO KAKU

Traduzione di
Chiara Barattieri di San Pietro
e Giuseppe Maugeri
Michio Kaku
Il futuro della mente. L’avventura della scienza per capire, migliorare e potenziare il nostro cervello

Titolo originale
Future of the Mind: The Scientific Quest to Understand, Enhance, and Empower the Mind
© 2014 by Michio Kaku
All rights reserved

Progetto grafico: Limiteazero + Cristina Chiappini


Redazione e impaginazione: Daiana Galigani
Coordinamento produttivo: Enrico Casadei

© Codice edizioni, Torino


ISBN 978-88-7578-513-0
Tutti i diritti sono riservati

codiceedizioni.it
facebook.com/codiceedizioni
twitter.com/codiceedizioni
pinterest.com/codiceedizioni
Alla mia amata moglie, Shizue, e alle mie figlie, Michelle e Alyson
Il futuro della mente
Introduzione

I due più grandi misteri della natura sono la mente e l’universo.


L’immensa tecnologia a nostra disposizione ci ha permesso di fotografare
galassie lontane miliardi di anni luce, manipolare il genoma e sondare il
cuore dell’atomo. Eppure la mente e l’universo, le più oscure e affascinanti
frontiere della scienza, sfuggono ancora alla comprensione dell’uomo e ne
tormentano l’immaginazione.
Per apprezzare la maestosità dell’universo basta rivolgere lo sguardo ai
cieli notturni, rischiarati da miliardi di stelle. Da quando i nostri antenati
hanno contemplato per la prima volta lo splendore del cielo stellato, l’uomo
ha iniziato a meditare su domande eterne come “Da dove viene tutto
questo? E qual è il suo significato?”.
Per addentrarsi nel mistero della mente, invece, basta guardarsi allo
specchio e chiedersi cosa si nasconda dietro ai nostri occhi. Altre domande
incalzano: “Abbiamo un’anima? Cosa ne è di noi dopo la morte? E chi sono
io?”. E, più importante: “Qual è il posto dell’uomo nel grande disegno
cosmico?”. Come ha detto una volta il grande biologo vittoriano Thomas
Huxley: «La vera domanda, il problema alla base di tutti gli altri e di questi
il più interessante, è la definizione del posto dell’Uomo nella Natura e in
relazione al Cosmo».
Ci sono cento miliardi di stelle nella Via Lattea, un numero all’incirca
pari ai neuroni del cervello. Potremmo dover viaggiare quarantamila
miliardi di chilometri, e raggiungere la prima stella al di fuori del sistema
solare, per trovare un oggetto complesso come quello che poggia sulle
nostre spalle1. E non solo la mente e l’universo rappresentano le più grandi
sfide scientifiche dell’uomo, ma tra loro intercorre una relazione curiosa.
Per un verso, esse si collocano l’una agli opposti dell’altra, perché
mentre l’universo riguarda la vastità dello spazio, popolato da bizzarre
entità come buchi neri, stelle che esplodono e galassie in collisione, la
mente ha a che fare con l’intimità dei pensieri, è il luogo delle speranze e
dei desideri più segreti, e ci accompagna ovunque, anche se spesso non
sappiamo da dove iniziare quando ci viene chiesto di esprimere e spiegare il
nostro pensiero.
Per un altro verso, però, per quanto materie collocate su piani opposti, la
mente e l’universo sono accomunate dalla storia e dalla leggenda. Da tempi
immemori superstizione e magia avvolgono entrambe nel mistero: astrologi
e frenologi sostenevano di saper comprendere il significato dell’universo, a
loro dire nascosto nelle costellazioni dello zodiaco o nelle protuberanze del
cranio; allo stesso tempo, nel corso dei secoli, medium e indovini sono stati,
alternativamente, celebrati o denigrati.
L’universo e la mente continuano a incrociare i rispettivi cammini,
grazie anche alle brillanti profezie spesso presentateci dalla fantascienza.
Da bambino sognavo di diventare uno degli Slan, la razza di esseri
telepatici creata dall’immaginazione di A.E. van Vogt. Mi domandavo
meravigliato come il Mulo della Trilogia della Fondazione di Isaac Asimov
potesse scatenare i suoi immensi poteri mentali e minacciare di prendere il
controllo dell’Impero Galattico. E guardando il film Il pianeta proibito, mi
chiedevo come una civiltà avanzata milioni di anni oltre la nostra potesse
riplasmare la realtà a proprio piacimento con il solo potere della mente.
Poi, quando avevo circa dieci anni, apparve sugli schermi televisivi “lo
strabiliante Dunninger”. Incantava il pubblico con i suoi spettacoli di magia
al motto di “a chi crede, non serve spiegazione; a chi non crede, nessuna
spiegazione sarà mai sufficiente”. Un giorno disse che avrebbe trasmesso i
suoi pensieri a milioni di persone sparse nella nazione: chiuse gli occhi e
iniziò a concentrarsi, annunciando di stare inviando telepaticamente ai suoi
spettatori il nome di un presidente degli Stati Uniti. Poi chiese agli
ascoltatori di scrivere su una cartolina il nome che era apparso loro in mente
e di spedirgliela. La settimana seguente ci informò trionfante dell’arrivo di
migliaia di lettere con il nome «Roosevelt», lo stesso che lui aveva
“trasmesso” in tutti gli Stati Uniti.
La cosa non mi impressionò. L’eredità di Roosevelt, per chi aveva
vissuto negli anni della depressione e della seconda guerra mondiale, era
ancora viva a quei tempi, e quindi la scelta del nome non era sorprendente
(piuttosto, sarebbe stato impressionante se avesse pensato al presidente
Millard Fillmore, pensai).
Eppure mise in moto la mia immaginazione. Non riuscii a resistere alla
tentazione di sperimentare io stesso la telepatia: cercai di leggere la mente
degli altri, chiudendo gli occhi e concentrandomi con tutte le mie forze.
Volevo “ascoltare” i pensieri delle persone e muovere gli oggetti nella
stanza con il potere della telecinesi.
Non ci riuscii.
Forse al mondo esistevano delle persone con il dono della telepatia, ma
evidentemente io non ero una di loro. Iniziai a pensare che le meravigliose
imprese di questi individui fossero impossibili, quanto meno senza l’aiuto
di un assistente; ma con il passare degli anni imparai anche un’altra lezione:
per sondare le profondità dei più grandi misteri dell’universo non serve la
telepatia, o chissà quale altro potere sovrannaturale, ma una mente aperta,
determinata e curiosa. Nello specifico, per capire se i congegni fantastici
che animano il mondo della fantascienza siano davvero possibili bisogna
immergersi nello studio della fisica avanzata: per riconoscere quale sia il
limite oltre cui il possibile diventa impossibile, è necessario conoscere le
leggi della fisica.
Sono due le passioni che hanno acceso la mia immaginazione durante
tutti questi anni: conoscere le leggi fondamentali della fisica e capire come
la scienza forgerà il nostro futuro. Per illustrare le prime e condividerne
l’entusiasmo ho scritto Iperspazio, Oltre Einstein e Mondi paralleli, mentre
per raccontare il fascino del futuro ho pubblicato Visioni, Fisica
dell’impossibile e Fisica del futuro. Scrivendo e studiando, tutto è andato
rafforzando la mia convinzione che la mente umana sia una delle forze più
grandi e misteriose al mondo.
Tuttavia, nel corso di gran parte della nostra storia non siamo stati in
grado di capire cosa fosse o come funzionasse la mente: gli antichi egizi,
nonostante l’immensa eredità che ci hanno lasciato nelle arti e nelle scienze,
credevano che il cervello fosse un organo inutile, e lo gettavano al momento
di imbalsamare un faraone morto; Aristotele era convinto che l’anima
risiedesse nel cuore e non nel cervello, la cui unica funzione sarebbe stata
quella di raffreddare l’apparato cardiovascolare; altri, come Cartesio,
pensavano che l’anima prendesse parte alla vita del corpo attraverso una
minuscola struttura all’interno del cervello, la ghiandola pineale. Ad ogni
modo, in mancanza di una qualsiasi prova tangibile, nessuna di queste
teorie poteva essere confermata.
Questa “età buia” durò migliaia di anni, e non senza ragione: il cervello
pesa solo un chilo e mezzo, eppure è l’oggetto più complesso del sistema
solare. Sebbene rappresenti solo il 2 per cento del peso corporeo, ha un
appetito vorace e consuma ben il 20 per cento della nostra energia totale
(nei neonati, addirittura il 65 per cento), mentre ben l’80 per cento dei nostri
geni si esprime nelle funzioni cerebrali. Si stima che all’interno del cranio
trovino posto cento miliardi di neuroni con una quantità esponenziale di
connessioni e percorsi neurali.
Nel 1977 l’astronomo Carl Sagan vinse il premio Pulitzer con I draghi
dell’Eden, in cui riassumeva tutto ciò che allora si sapeva sul cervello; un
libro splendido, che cercava di presentare lo stato dell’arte delle
neuroscienze, il cui studio al tempo si basava principalmente su tre metodi.
Il primo era la comparazione del cervello dell’uomo con quello di altre
specie, un’operazione noiosa e difficile che richiedeva la dissezione di
migliaia di cervelli animali. Anche il secondo metodo, l’analisi dei pazienti
che esibivano comportamenti bizzarri, perché colpiti da ictus o affetti da
altre patologie, era ugualmente indiretto: difatti, solo un’autopsia post
mortem era in grado di rivelare quale parte del cervello fosse
malfunzionante. Infine, applicando degli elettrodi, gli scienziati potevano
risalire lentamente e con difficoltà all’area responsabile di un determinato
comportamento.
Tuttavia gli strumenti di base a disposizione delle neuroscienze non
garantivano la sistematicità del metodo: di certo non era possibile ordinare
su un catalogo un paziente colpito da ictus, che presentasse un danno
nell’area che si desiderava studiare. Dato che il cervello è un sistema
vivente e dinamico le autopsie spesso non ne rivelano le caratteristiche più
interessanti, come per esempio il modo in cui le sue diverse parti
interagiscono tra loro, per non parlare della sua capacità di generare
pensieri tanto diversi quali l’amore, l’odio, la gelosia e la curiosità.

Rivoluzioni gemelle

Quattrocento anni fa fece la sua comparsa il telescopio, un “miracoloso”


strumento che iniziò subito a scrutare il cuore dei corpi celesti. È uno dei
congegni più rivoluzionari (e sediziosi) di tutti i tempi: all’improvviso, i
miti e i dogmi del passato svanirono davanti ai nostri occhi, come nebbia al
mattino. Non più perfetti esempi delle saggezza divina, la luna rivelava i
suoi crateri frastagliati, il sole le sue macchie nere, Giove le lune, Venere le
fasi e Saturno gli anelli. Ciò che l’universo svelò nei quindici anni che
seguirono oltrepassava tutta la conoscenza accumulata durante l’intera
storia dell’uomo.
Allo stesso modo, tra la metà degli anni novanta e l’inizio del
ventunesimo secolo la comparsa delle apparecchiature per la risonanza
magnetica e l’imaging cerebrale ha trasformato le neuroscienze: negli ultimi
quindici anni abbiamo imparato sul cervello più di quanto avessimo
scoperto nel corso della nostra storia fino a quel momento. La mente, una
volta considerata fuori dalla nostra portata, sta ora assumendo un ruolo
centrale per la scienza.
Il premio Nobel Eric R. Kandel scrive: «Le più importanti scoperte sulla
mente umana emerse in questo periodo non sono giunte da quelle discipline
che per tradizione sono impegnate nello studio della mente, come la
filosofia, la psicologia o la psicoanalisi. Sono invece nate dalla loro unione
con la biologia del cervello…»2.
La fisica ha preso parte a questa impresa in maniera determinante,
fornendo alla ricerca una serie di nuovi strumenti con acronimi come RM,
EEG, PET, CAT, TCM, TES e DBS, che hanno rivoluzionato lo studio del
cervello. Tutto a un tratto, grazie a questi strumenti potevamo osservare i
pensieri muoversi in un cervello vivo e pensante. Come afferma il
neurologo V. S. Ramachandran, dell’università della California: «A tutte
quelle domande che i filosofi si sono posti per millenni, noi scienziati
possiamo iniziare a dare una risposta grazie all’imaging cerebrale,
studiando i pazienti e facendo loro le domande giuste»3.
Se mi guardo indietro, i miei primi passi nel mondo della fisica hanno
incrociato quelle stesse tecnologie che oggi stanno permettendo alla scienza
di scoprire la mente. Alle superiori, per esempio, venni a conoscenza di una
nuova forma di materia, chiamata antimateria, e decisi di portare avanti un
progetto di ricerca su questo argomento. Essendo una delle sostanze più rare
sulla Terra, dovetti rivolgermi alla vecchia Commissione per l’Energia
Atomica per ottenere una minuscola quantità di sodio-22, una sostanza che
per natura emette un elettrone positivo (un anti-elettrone, o positrone). Con
questo piccolo campione in mano, fui in grado di costruire una camera a
nebbia e un potente campo magnetico, il quale mi permise di fotografare le
tracce di vapore lasciate dalle particelle di antimateria. Al tempo non lo
sapevo, ma il sodio-22 sarebbe presto divenuto l’elemento chiave di una
nuova tecnologia chiamata PET (tomografia a emissione di positroni), che
da allora ci ha permesso di realizzare osservazioni sbalorditive sul cervello
pensante.
Un’altra tecnologia che conobbi alle superiori fu la risonanza
magnetica. Seguii una lezione di Felix Bloch dell’università di Stanford,
che nel 1952 condivise il premio Nobel per la fisica con Edward Purcell per
la scoperta della risonanza magnetica nucleare. Il dr. Bloch spiegò a noi
ragazzi che in presenza di un forte campo magnetico gli atomi si allineano
lungo le sue direttrici come l’ago di una bussola. Se poi si applica una
pulsazione radio agli atomi, secondo una precisa frequenza di risonanza, è
possibile farli orientare nella direzione opposta. Tornando poi alla posizione
iniziale, essi emettono un’altra pulsazione, una sorta di eco, che ci permette
di identificarli (più avanti utilizzai il principio della risonanza magnetica
per costruire un acceleratore di particelle da 2,3 milioni di elettronvolt nel
garage di mia madre).
Solo un paio di anni dopo, quando ero matricola all’università di
Harvard, ebbi l’onore di avere il dr. Purcell come insegnante di
elettrodinamica. Più o meno nello stesso periodo riuscii anche a trovare un
piccolo impiego estivo, e colsi l’opportunità di lavorare con il dr. Richard
Ernst, che al tempo stava tentando di generalizzare il lavoro di Bloch e
Purcell sulla risonanza magnetica; ci riuscì poi in maniera spettacolare, e
nel 1991 vinse il premio Nobel per la fisica ponendo le basi della moderna
macchina RM (imaging a risonanza magnetica). A sua volta, questo
strumento ci ha permesso di ottenere immagini del cervello in vivo, con una
precisione ancora maggiore delle immagini PET.

Potenziare la mente

Alla fine sono diventato un professore di fisica teorica, ma il fascino per


i misteri della mente è rimasto intatto. È stato incredibile vedere come, solo
negli ultimi dieci anni, i progressi della fisica abbiano reso possibili alcune
di quelle magie che mi affascinavano da bambino. Grazie alla risonanza
magnetica gli scienziati sono ora in grado di leggere nella mente e, grazie a
un microchip, sono riusciti a collegare a un computer il cervello di pazienti
completamente paralizzati, permettendo loro, tramite il solo pensiero, di
navigare su internet, leggere e scrivere email, giocare al computer,
controllare la propria sedia a rotelle, far funzionare gli elettrodomestici e
muovere dei bracci meccanici (in pratica, tutto ciò che una persona normale
può fare con un computer).
Ma la scienza è andata oltre: collegando il cervello di questi pazienti a
un esoscheletro progettato per contenere gli arti paralizzati, forse un giorno
le persone tetraplegiche saranno in grado di condurre una vita quasi
normale. Questo tipo di tecnologia potrebbe costituire un valido aiuto anche
nelle situazioni che costituiscono un pericolo per la vita umana: un giorno
gli astronauti potrebbero esplorare i pianeti lontani guidando dei surrogati
meccanici, controllandoli mentalmente dal proprio salotto di casa.
Come nel film Matrix, in futuro potremmo riuscire a scaricare ricordi e
conoscenze con un semplice computer. Gli scienziati sono già riusciti a
inserire dei ricordi nel cervello di alcuni animali, ed è forse solo questione
di tempo prima che si riesca a fare la stessa cosa con il cervello umano:
installare ricordi artificiali che ci permettano di possedere nuove
conoscenze, vivere il ricordo di viaggi mai fatti e apprendere la maestria di
atleti e giocatori; e se in questo modo scienziati e professionisti potranno
acquisire nuove conoscenze e competenze tecniche, l’impatto di una simile
eventualità sull’economia mondiale sarà profondo. Anche la condivisione
dei ricordi potrebbe non essere impossibile: un giorno potremmo avere a
disposizione una brain-net, una sorta di “internet della mente”, tramite cui
trasmettere pensieri ed emozioni a tutto il mondo. Potremmo addirittura
essere in grado di registrare i sogni e spedirli via “brain-mail”.
La tecnologia potrebbe addirittura permetterci di diventare più
intelligenti. Il progresso ci ha permesso di capire le straordinarie abilità dei
savant, persone le cui abilità cognitive, artistiche e matematiche
oltrepassano i livelli della media. Sono inoltre oggetto di studio e
sequenziamento i geni che ci separano dalle scimmie, cosa che ci garantirà
una panoramica senza precedenti sulle origini evolutive del cervello. Negli
animali sono già stati identificati alcuni dei geni che possono migliorare le
prestazioni mentali e mnemoniche.
L’eccitazione e il fermento generati da progressi tanto suggestivi sono
tali da aver attirato l’attenzione della classe politica, e le neuroscienze sono
improvvisamente diventate motivo di rivalità transatlantica tra le maggiori
potenze economiche del pianeta. Nel gennaio 2013 il presidente Barack
Obama e l’Unione Europea hanno annunciato di voler finanziare due
progetti indipendenti e multimiliardari per il c.d. reverse engineering del
cervello umano, ovvero la sua “ingegnerizzazione inversa”. Decifrare
l’intricato circuito neurale di quest’organo, una volta considerato
irrimediabilmente al di là dei limiti della scienza moderna, è oggi oggetto di
studio di due iniziative pilota che, come il Progetto Genoma Umano,
rivoluzioneranno le nostre competenze mediche e scientifiche
sull’argomento: non solo questo ci guiderà verso una prospettiva sulla
mente del tutto nuova, ma darà anche slancio all’industria, stimolerà
l’attività economica e aprirà nuovi orizzonti scientifici.
Una volta decodificati i percorsi neurali del cervello, possiamo
aspettarci di giungere alla piena comprensione della malattia mentale e
delle sue cause, e di trovare una cura a questa antica piaga dell’uomo. La
decodifica delle connessioni neurali renderà possibile creare una copia del
cervello, cosa non slegata da dubbi di ordine etico e filosofico: chi siamo
noi, davvero, se la nostra coscienza può essere copiata su un computer?
L’uomo potrebbe giocherellare con il concetto di immortalità: mentre il
corpo invecchia e muore, la coscienza potrebbe vivere per sempre?
Oltre a tutto questo, un giorno forse, in un futuro assai remoto, la nostra
mente, ormai libera dai suoi limiti corporali, potrà vagabondare per le stelle,
come molti scienziati in passato hanno congetturato: tra qualche secolo, il
nostro intero programma neurale potrebbe viaggiare nelle profondità dello
spazio trasportato dai raggi laser, probabilmente il modo migliore in cui la
nostra coscienza potrebbe esplorare le stelle.
Siamo testimoni della nascita di un panorama scientifico del tutto
nuovo, che rimodellerà il destino dell’umanità: l’età dell’oro delle
neuroscienze.
Nell’elaborare queste mie predizioni ho potuto avvalermi
dell’inestimabile sostegno di alcuni scienziati che si sono gentilmente
concessi a varie interviste radiofoniche, e che sono stati tanto disponibili da
voler ospitare una troupe televisiva nei loro laboratori. Essi sono gli
scienziati che stanno gettando le fondamenta del futuro della mente. Perché
le loro idee potessero essere incluse nel libro che state leggendo ho voluto
che osservassero due requisiti fondamentali: 1) che le loro previsioni
obbedissero in maniera rigorosa alle leggi della fisica; e 2) che esistesse un
prototipo in grado di dimostrare il principio alla base della loro idea.

Vivere con la malattia mentale


Ho scritto una biografia di Albert Einstein, intitolata Il cosmo di
Einstein, per la quale ho dovuto immergermi nei più minuti dettagli della
sua vita privata. Sapevo che il figlio più giovane di Einstein fosse affetto da
schizofrenia, ma non mi ero mai reso conto della reale entità del fardello
emotivo posto sulle spalle del grande scienziato. Einstein venne a contatto
con la malattia mentale anche in un altro modo: uno dei suoi più stretti
collaboratori, Paul Ehrenfest, il fisico che lo aiutò a ideare la teoria della
relatività generale, soffriva di depressione; Ehrenfest uccise suo figlio,
affetto da sindrome di Down, e poi si suicidò. Nel corso degli anni, io stesso
ho scoperto che molti tra i miei colleghi e amici hanno dovuto affrontare la
malattia mentale nelle rispettive famiglie.
Neanche la mia è stata risparmiata: parecchi anni fa mia madre è
deceduta, dopo aver lottato a lungo contro l’Alzheimer. Fu straziante
vederla perdere i suoi ricordi, fino al giorno in cui, guardandola negli occhi,
capii che non sapeva chi io fossi. In lei ho visto estinguersi lentamente la
fiamma di ciò che ci rende umani. Aveva faticato una vita per crescere la
sua famiglia e, invece di godersi la vecchiaia, i ricordi più cari le venivano
sottratti.
A mano a mano che la generazione dei baby boomers andrà
invecchiando, la triste esperienza che io e altri abbiamo vissuto si ripeterà
sempre più spesso. Il mio desiderio è che i rapidi avanzamenti delle
neuroscienze possano un giorno alleviare le sofferenze di chi è afflitto dalla
malattia mentale e dalla demenza.

Cosa guida questa rivoluzione?

Si stanno analizzando i dati delle immagini digitali del cervello, e i


progressi compiuti finora sono stupefacenti: ogni anno i giornali
annunciano una nuova, sensazionale, scoperta. Ci sono voluti più di
trecento anni dall’invenzione del telescopio perché entrassimo nell’era
spaziale, ma dall’introduzione della risonanza magnetica e delle altre
tecnologie di imaging ne sono bastati solo quindici perché si riuscisse a
mettere in collegamento diretto il cervello con il mondo circostante. Perché
così velocemente? E cos’altro possiamo aspettarci?
Parte di questo rapido progresso si è verificata perché i fisici di oggi
hanno una buona conoscenza dell’elettromagnetismo, che governa i segnali
elettrici trasmessi attraverso i neuroni: alla base della tecnologia che regola
la risonanza magnetica ci sono le equazioni matematiche di James Clerk
Maxwell, le stesse usate per calcolare i principi fisici che regolano antenne,
radar, ricevitori radio e torri a microonde. Ci sono voluti secoli per risolvere
il segreto delle forze elettromagnetiche, ma le neuroscienze odierne
possono finalmente godere dei frutti di questa grande impresa. Nella Parte I
di questo libro presenterò la storia del cervello e spiegerò come una serie di
strumenti, progettati nei laboratori di fisica, ci abbiano permesso di ottenere
immagini ad altissima risoluzione dei meccanismi cognitivi. Dato che la
coscienza gioca un ruolo centrale in qualsiasi discussione che riguardi la
mente, presenterò anche il mio punto di vista, in quanto fisico, e offrirò una
definizione di coscienza che include anche il regno animale. Cercherò di
definire una gerarchia dei livelli di coscienza, e di assegnare un valore a
ciascuno di essi.
Ma per dare una risposta completa alla domanda su come si evolverà
questa tecnologia dovremo prendere in considerazione anche la legge di
Moore, secondo cui la potenza di calcolo di un computer raddoppia ogni 18
mesi. Spesso sorprendo le persone con una semplice considerazione: i nostri
telefoni cellulari vantano oggi una potenza di calcolo maggiore di quella
posseduta dall’intera NASA quando, nel 1969, portò due persone sulla luna.
I computer hanno ora una capacità computazionale sufficiente per registrare
i segnali elettrici del cervello e per tradurli, almeno in parte, in un
linguaggio digitale comprensibile, rendendo possibile sia l’interfaccia
diretta cervello-macchina sia il controllo, da parte del cervello, di un
oggetto. Questo campo di applicazione oggi in rapida espansione si chiama
BMI (brain-machine interface, o interfaccia neurale), e si basa sulle scienze
informatiche: esplorerò questa tecnologia nella Parte II del libro, spiegando
come essa abbia reso possibile la registrazione dei ricordi, la lettura della
mente, la registrazione dei sogni e la telecinesi.
Nella Parte III affronterò il tema delle forme alternative della coscienza,
dai sogni alle droghe alla malattia mentale, fino alla coscienza dei robot e
degli alieni. In questa sezione prenderò in esame anche la questione delle
potenzialità che il controllo e la manipolazione del cervello, nel trattamento
di malattie come la depressione, il Parkinson, l’Alzheimer e molte altre,
porta con sé. Presenterò qui i progetti BRAIN (Brain Research Through
Advancing Innovative Neurotechnologies), annunciato dal presidente
Barack Obama, e lo Human Brain Project (“Progetto Cervello Umano”)
dell’Unione Europea, che sosterranno la ricerca con finanziamenti pari a
miliardi di dollari ed euro, al fine di decodificare i percorsi cerebrali, fino al
livello neurale. Si tratta di iniziative pilota che senza dubbio apriranno le
porte ad aree di ricerca innovative, garantendoci la possibilità di curare la
malattia mentale, e rivelandoci i segreti più nascosti della coscienza.
Una volta stabilita una definizione di coscienza, la potremo utilizzare
per esplorare le forme di coscienza non umana (quella dei robot, per
esempio). Quanto potranno progredire i robot? Potranno provare delle
emozioni? Costituiranno una minaccia per l’uomo?
Esploreremo anche il fenomeno della coscienza aliena, i cui
rappresentanti potrebbero avere obiettivi del tutto diversi dai nostri.
Nell’Appendice discuterò quella che è forse l’idea scientifica più
bizzarra formulata ad oggi: il concetto, derivato dalla fisica quantistica, che
la coscienza stia alla base di tutta la realtà.
Le idee in questo campo certo non mancano, e solo il tempo ci dirà
quali di esse siano sogni irraggiungibili, nati dall’immaginazione troppo
accesa degli scrittori di fantascienza, e quali rappresentino, invece, una
strada concreta che la ricerca scientifica può intraprendere. Il progresso
delle neuroscienze è stato astronomico, e sotto vari aspetti la chiave di volta
è stata la fisica moderna e la sua capacità di utilizzare l’intero potere delle
forze elettromagnetiche e nucleari per sondare i grandi misteri della mente.
Ripeto: non sono un neuroscienziato, bensì un fisico teorico da sempre
appassionato dalle questioni che riguardano la mente dell’uomo. Spero che
il punto di vista di un fisico possa aiutare ad arricchire le conoscenze in
questo ambito e contribuire alla comprensione dell’oggetto allo stesso
tempo più familiare e più alieno dell’universo: la mente umana.
Ma, considerando la velocità con cui si vanno sviluppando prospettive
radicalmente nuove, è importante avere una buona comprensione dei
processi che portano alla formazione del cervello.
Iniziamo quindi raccontando le origini delle neuroscienze moderne, la
cui data di nascita, secondo alcuni storici, risale a quando un certo Phineas
Gage ha visto un palo di ferro attraversagli il cranio. L’evento ha innescato
una reazione a catena che ha portato la ricerca scientifica a intraprendere
ciò che oggi è uno studio rigoroso del cervello. Sebbene sfortunatissimo per
il signor Gage, tale evento ha segnato le sorti della scienza moderna.
1
Per rendercene conto, dobbiamo definire la parola complesso in termini di quantità di
informazione immagazzinabile. Il rivale più stretto potrebbe essere l’informazione contenuta
all’interno del DNA. Il nostro DNA contiene tre miliardi di coppie di nucleotidi, composte da una
coppia di basi azotate (A, T, C, G) complementari appaiate. La quantità totale di informazioni che
possiamo immagazzinare nel nostro DNA è perciò quattro alla tremiliardesima potenza. Eppure il
cervello può immagazzinare molte più informazioni grazie ai suoi cento miliardi di neuroni,
ciascuno dei quali può essere attivo o non attivo: ciò significa che il cervello parte da due elevato
alla cento miliardesima potenza di stati iniziali. Inoltre, mentre il DNA è statico, lo stato del
cervello cambia ogni millisecondo, e un unico pensiero può comprendere anche un centinaio di
scariche neuronali. Ciò significa che i pensieri possibili in cento generazioni sono due elevato alla
cento miliardesima potenza, il tutto elevato alla centesima. Il cervello è inoltre sempre in attività,
giorno e notte, senza interruzione. Il numero totale di pensieri possibili all’interno di n
generazioni è due elevato alla cento miliardesima potenza, il tutto elevato alla n-esima. Un
numero davvero astronomico: la quantità di informazioni che possiamo immagazzinare nel nostro
cervello eccede di gran lunga quella immagazzinata nel DNA. Per la verità, è la più grande
quantità di informazioni che possiamo immagazzinare nel nostro sistema solare, o addirittura nel
nostro settore della Via Lattea.
2
Miriam Boleyn-Fitzgerald, Pictures of the Mind: What the New Neuroscience Tells Us About
Who We Are, Pearson Education, Upper Saddle River 2010, p. 89.
3
Ivi, p. 137.
Parte I
Mente e coscienza
Capitolo 1
Svelare la mente

Per quanto riguarda il cervello, parto da una premessa fondamentale: il suo funzionamento, ciò
che chiamiamo “mente”, è la conseguenza diretta della sua anatomia e della sua fisiologia, e niente
altro.
Carl Sagan

Nel 1848 Phineas Gage lavorava nel Vermont come operario addetto
alle ferrovie. Un giorno una carica di dinamite esplose accidentalmente
sparandogli in faccia un palo di ferro lungo più di un metro: questo
attraversò la parte frontale del cervello di Gage, per uscire dalla sommità
del suo cranio e atterrare a oltre cento metri di distanza. I compagni,
scioccati alla vista di pezzi di cervello volare via assieme al palo,
chiamarono subito un medico: con grande stupore di tutti, medico incluso,
Gage non morì sul colpo.
Per diverse settimane rimase semi incosciente1 ma alla fine sembrò
rimettersi del tutto (nel 2009 fu ritrovata una delle rare fotografie di Gage,
che mostra un bell’uomo dall’aspetto sicuro, con una ferita alla testa e
all’occhio sinistro, e con in mano una palo di ferro). Tuttavia, dopo
l’incidente, i colleghi di Gage cominciarono a notare un netto cambiamento
nella sua personalità: da caposquadra allegro e sollecito quale era, divenne
violento, ostile ed egoista, e alle donne veniva consigliato di non
avvicinarglisi. John Harlow, il medico che lo aveva curato, osservò che
Gage era «capriccioso e incostante. La sua mente concepiva innumerevoli
piani e operazioni, organizzate con la stessa velocità con cui erano poi
abbandonate a favore di altre che [al paziente] apparivano più semplici. Un
bambino, in quanto a capacità intellettiva e manifestazioni, ma con le
passioni animali di un uomo». Harlow notò che era «radicalmente
cambiato», e i suoi amici sostennero che «non era più Gage»2. Dopo la sua
morte, avvenuta nel 1860, Harlow conservò il cranio di Gage e il palo
incriminato; indagini condotte ai raggi X sul reperto anatomico
confermarono in seguito che l’incidente aveva seriamente danneggiato
l’area cerebrale che si trova proprio dietro alla fronte – il lobo frontale – di
entrambi gli emisferi.
Questo incredibile evento non cambiò solo la vita di Phineas Gage, ma
l’intero corso della scienza: se prima di allora in filosofia dominava il
dualismo, secondo cui anima e cervello erano due entità separate, con il
tempo divenne sempre più chiaro che il danno al lobo frontale del cervello
di Gage aveva determinato il brusco cambiamento della sua personalità. Ciò
portò a una trasformazione del paradigma del pensiero scientifico: si
potevano associare aree del cervello specifiche a specifici comportamenti.

Il cervello di Broca

Nel 1861, solo un anno dopo la morte di Gage, tale approccio fu


ulteriormente sostenuto dal lavoro di Pierre Paul Broca, un medico di Parigi
che aveva osservato e documentato un grave disturbo del linguaggio in uno
dei suoi pazienti, che altrimenti appariva del tutto normale: il paziente di
Broca riusciva a comprendere perfettamente ciò che gli veniva detto, ma
sapeva pronunciare solo la sillaba tan. Alla sua morte, Broca ne effettuò
l’autopsia e scoprì che il paziente presentava una lesione al lobo temporale
sinistro, una regione del cervello vicino all’orecchio. In seguito Broca
avrebbe confermato questa scoperta osservando tale correlazione in altri
dodici pazienti affetti da una lesione alla stessa area cerebrale. Oggi i
pazienti con una lesione al lobo temporale, in genere all’emisfero sinistro,
sono definiti affetti da afasia di Broca: chi soffre di questo disturbo riesce a
capire cosa gli viene detto ma non è in grado di parlare o, se lo fa, omette
diverse parole.
Pochi anni dopo, nel 1874, Carl Wernicke, un medico tedesco, descrisse
alcuni pazienti affetti dal problema opposto: persone che erano in grado di
parlare ma che non riuscivano a capire ciò che gli veniva detto o presentato
in forma scritta. Spesso questi pazienti comunicavano in maniera corretta
(da un punto di vista grammaticale e sintattico) ma utilizzavano parole prive
di senso o termini inesistenti. L’aspetto più toccante era che spesso non si
rendevano conto di stare utilizzando un linguaggio incomprensibile. Al
momento dell’autopsia, Wernicke osservò che questi pazienti avevano
sofferto di una lesione a un’area leggermente diversa del lobo temporale
sinistro.
I lavori di Broca e Wernicke, pietre miliari nel campo delle
neuroscienze, hanno permesso di stabilire un chiaro collegamento tra
problemi comportamentali come i deficit del linguaggio e lesioni a
specifiche regioni del cervello.
Fu durante il caos della guerra che si realizzò un’altra scoperta
fondamentale. Nel corso dei secoli, le religioni hanno spesso considerato la
dissezione del corpo umano un tabù, cosa che per lungo tempo ha
ostacolato il progresso della medicina. Tuttavia, in tempo di guerra, quando
centinaia di migliaia di soldati morivano sui campi di battaglia, ideare
trattamenti rapidi ed efficaci divenne la priorità. Nel 1864, durante la guerra
franco prussiana, un medico tedesco di nome Gustav Fritsh si ritrovò a
dover soccorrere decine di soldati con ferite aperte al cranio, dove il
cervello era ben visibile; Fritsh notò che, toccando tali aree esposte, la parte
opposta del corpo del ferito sobbalzava. Utilizzando la stimolazione
elettrica, Fritsch riuscì in seguito a dimostrare in maniera rigorosamente
scientifica che l’emisfero sinistro controllava il lato destro del corpo e
viceversa. Fu una scoperta impressionante: dimostrava la natura elettrica
del cervello e come ogni sua particolare regione controllasse una parte
controlaterale del corpo (a questo proposito, è curioso notare come
l’applicazione di elettrodi al cervello sia stata sperimentata per la prima
volta dai romani circa duemila anni fa: nel 43 a.C., il medico di corte
dell’imperatore Claudio applicò delle torpedini alla testa di un paziente che
soffriva di una grave cefalea3).
La scoperta dell’esistenza di percorsi elettrici tra il cervello e il corpo fu
analizzata sistematicamente solo a partire dagli anni trenta, quando il
medico Wilder Penfield iniziò il suo lavoro su pazienti epilettici che
soffrivano di convulsioni e attacchi potenzialmente letali. Per questi
pazienti l’ultima speranza era un intervento di chirurgia cerebrale che
implicava la rimozione di parti del cranio e l’esposizione del cervello (dal
momento che quest’ultimo non possiede recettori del dolore, una persona
può rimanere cosciente per l’intera durata dell’intervento: Penfield, infatti,
utilizzava solo un anestetico locale).
Penfield notò che stimolando con un elettrodo alcune parti della
corteccia poteva evocare una risposta in diverse parti del corpo del paziente.
Si rese conto, così, che sarebbe stato possibile disegnare uno schema delle
corrispondenze dirette tra specifiche regioni della corteccia e il corpo
umano: i suoi disegni erano tanto accurati che ancora oggi sono utilizzati
nella loro versione originale. L’impatto sulla comunità scientifica e sul
pubblico fu immediato: il diagramma di Penfield mostra in che modo le
diverse regioni cerebrali controllino varie funzioni, e quanto ciascuna di
esse sia estesa. Per esempio, dato che le mani e la bocca svolgono un ruolo
di importanza vitale per la nostra sopravvivenza, al loro controllo è dedicata
una quantità notevole di risorse cerebrali, mentre le terminazioni nervose
sulla nostra schiena sono quasi nulle.
Penfield scoprì inoltre che, stimolando parti del lobo temporale, ai
pazienti tornavano in mente, con chiarezza cristallina, ricordi dimenticati da
tempo. Il medico rimase molto colpito quando un paziente, nel bel mezzo
dell’operazione, pronunciò le seguenti parole: «È come… essere davanti al
portone delle scuole superiori… Sento mia madre parlare al telefono: sta
dicendo a mia zia di fare un salto in serata»4. Penfield si rese conto che quel
paziente stava osservando i ricordi sepolti nelle profondità della propria
mente. Nel 1951, quando pubblicò i risultati, tali scoperte contribuirono alla
trasformazione della nostra comprensione del cervello.
Figura 1. Mappa della corteccia motoria creata dal Penfield, che mostra la corrispondenza tra le
diverse regioni cerebrali e le parti del corpo che controllano (Jeffrey L. Ward).

Una mappa del cervello

Tra gli anni cinquanta e sessanta del Novecento fu creata una mappa del
cervello che ne localizzava le diverse regioni e per alcune di esse
identificava anche le rispettive funzioni.
La figura 2 mostra la neocorteccia, lo strato esterno del cervello.
Nell’uomo questa struttura è molto sviluppata ed è divisa in quattro lobi,
tutti deputati all’elaborazione dei segnali sensoriali, tranne uno: il lobo
frontale, localizzato proprio dietro la fronte. La corteccia prefrontale, la
parte più anteriore del lobo frontale, è la sede dell’elaborazione della
maggior parte del pensiero razionale. Le parole su queste pagine, per
esempio, sono elaborate dalla vostra corteccia prefrontale. Una lesione a
quest’area può compromettere la capacità di una persona di pianificare o
immaginare il futuro, come nel caso di Phineas Gage. In questa regione il
cervello soppesa le informazioni sensoriali e pianifica le azioni da
intraprendere.

Figura 2. I quattro lobi della neocorteccia del cervello sono responsabili di funzioni diverse ma tra
loro correlate (Jeffrey L. Ward).

Il lobo parietale si trova nella parte superiore del cervello: l’emisfero


destro controlla l’attenzione sensoriale e l’immagine del corpo, il sinistro i
movimenti complessi e alcuni aspetti del linguaggio. Una sua lesione può
far insorgere diversi problemi, tra cui la difficoltà a identificare le parti del
proprio corpo.
Il lobo occipitale si trova nella parte più posteriore del cervello ed
elabora l’informazione visiva proveniente dagli occhi. Un danno a
quest’area può causare cecità e disturbi della visione.
Il lobo temporale controlla il linguaggio (solo sul lato sinistro), il
riconoscimento dei volti e alcune emozioni. Un suo danno può far perdere
la capacità di parlare o di riconoscere i volti familiari.

Il cervello in evoluzione
Quando osserviamo le diverse strutture del nostro corpo – muscoli, ossa
e polmoni – la loro funzione sembra logica ed evidente. La struttura del
cervello, invece, appare casuale e caotica, e il tentativo di mapparlo è stato
spesso definito “cartografia per pazzi”.
Nel 1967, per dare un senso a questa struttura, il medico del National
Institute of Mental Health Paul MacLean decise di applicare la teoria
evoluzionistica di Darwin. Divise il cervello umano in tre parti (da allora la
ricerca ha dimostrato che è possibile ridefinire il modello in modo più
dettagliato, ma lo useremo come schema per spiegare la struttura generale
del cervello) e notò, per prima cosa, che le sue parti posteriore e centrale –
il tronco cerebrale, il cervelletto e i nuclei della base – erano in pratica
identiche a quelle del cervello dei rettili. Ora note come cervello rettiliano,
queste strutture sono le più antiche dal punto di vista evolutivo, e governano
funzioni basilari quali l’equilibrio, la respirazione, la digestione, la
frequenza cardiaca e la pressione del sangue. Controllano anche
comportamenti come il combattimento, la caccia, l’accoppiamento e la
territorialità, necessari per la sopravvivenza e la riproduzione. Possiamo far
risalire la nascita del cervello rettiliano a cinquecento milioni di anni fa.
Figura 3. La storia del cervello: il cervello rettiliano, il sistema limbico (il cervello mammifero), e la
neocorteccia (il cervello umano). Si può dire che il percorso evolutivo del cervello umano sia partito
dal primo, fino a giungere al nostro (Jeffrey L. Ward).

Nel corso dell’evoluzione da rettili a mammiferi anche il cervello è


diventato più complesso, e ha sviluppato strutture completamente nuove. Il
sistema limbico (o cervello mammifero), si trova attorno al cervello
rettiliano, al centro del cervello. Questa struttura ricopre un ruolo
importantissimo per gli animali che vivono in gruppi sociali (come le
scimmie) e contiene aree deputate all’elaborazione delle emozioni: dal
momento che le dinamiche dei gruppi possono essere molto complesse, il
sistema limbico gioca un ruolo essenziale per distinguere i potenziali
nemici, gli alleati e i rivali.
Le diverse parti del sistema limbico che controllano i comportamenti
più importanti per gli animali sociali sono:

L’ippocampo: è la porta d’ingresso della memoria. Qui i ricordi a


breve termine sono elaborati in ricordi a lungo termine. Il nome
significa “cavalluccio marino” e ne descrive la forma. Una sua lesione
distrugge la capacità di creare nuovi ricordi a lungo termine: chi ne
soffre rimane intrappolato in un eterno presente.
L’amigdala: da “mandorla”, è il luogo in cui le emozioni, in particolare
la paura, nascono e vengono registrate.
Il talamo: è una sorta di stazione di ritrasmissione che raccoglie i
segnali sensoriali dal tronco cerebrale e li spedisce alle varie regioni
della corteccia. Il suo nome significa “stanza nascosta”.
L’ipotalamo: regola la temperatura corporea, il ritmo circadiano, la
fame, la sete e alcuni aspetti della riproduzione e del piacere. Si trova
sotto il talamo, da cui il nome.

Infine, la terza e più recente regione del cervello mammifero, la


corteccia cerebrale, costituisce lo strato più esterno. Al suo interno, la
struttura evolutiva che si è sviluppata per ultima è la neocorteccia, che
controlla i comportamenti più evoluti. Negli uomini è particolarmente
sviluppata: corrisponde all’80 per cento circa della massa del nostro
cervello, nonostante sia sottile quanto un fazzoletto, ed è assai convoluta –
mentre nei ratti è liscia – così che il cranio possa contenerne un’area molto
estesa.
In un certo senso, il cervello dell’uomo può essere considerato un
museo che custodisce i resti di tutte le precedenti fasi di un’evoluzione
avvenuta nel corso di milioni di anni, a mano a mano che esso andava
ampliandosi per dimensioni e funzioni (grosso modo, è lo stesso percorso
intrapreso da ognuno di noi a partire dalla nascita: il cervello del neonato si
sviluppa allargandosi e proiettandosi in avanti, come se riproponesse gli
stadi dell’evoluzione).
Anche se a giudicare dal suo aspetto la neocorteccia potrebbe sembrare
cosa da poco, è possibile apprezzare tutta la complessità della sua
architettura osservandola al microscopio. La sostanza grigia è composta da
miliardi di cellule chiamate neuroni: come una gigantesca rete telefonica,
esse ricevono i messaggi provenienti da altri neuroni attraverso i dendriti,
minuscole ramificazioni che si dipartono da un’estremità di ciascun
neurone. All’estremità opposta troviamo una lunga fibra, l’assone, che
connette ciascun neurone ai dendriti di decine di migliaia di altre cellule
cerebrali. Presso ciascuna giunzione tra assone e dendrite troviamo delle
piccole lacune, le sinapsi, cancelli che regolano il flusso di informazioni
che passano tra le diverse cellule. I neurotrasmettitori, sostanze chimiche tra
cui la dopamina, la serotonina e la noradrenalina, possono entrare nella
sinapsi e alterare il flusso dei segnali: dal momento che sono in grado di
modificare le informazioni che viaggiano attraverso i miliardi di percorsi
cerebrali, queste molecole esercitano un potente effetto sull’umore, le
emozioni, i pensieri e gli stati mentali.

Figura 4. Diagramma di un neurone. I segnali elettrici viaggiano lungo l’assone fino alla sinapsi; i
neurotrasmettitori possono regolarne il flusso (Jeffrey L. Ward).

La risonanza magnetica: una finestra sul cervello

Per capire in che modo questa rivoluzionaria tecnologia abbia


contribuito a decodificare il pensiero, dobbiamo rivolgere la nostra
attenzione ad alcuni principi base della fisica.
Le onde radio, un tipo di radiazione elettromagnetica, sono in grado di
attraversare i tessuti biologici senza provocare dei danni. Le macchine per
la risonanza magnetica sfruttano tale fenomeno, e facendo passare delle
onde elettromagnetiche attraverso il cranio, questa tecnologia ci ha regalato
immagini meravigliose di ciò che mai avremmo pensato si potesse vedere:
il funzionamento del cervello mentre sperimenta sensazioni ed emozioni.
Seguendo la rapida danza di luci della macchina a risonanza magnetica è
possibile tracciare il movimento dei pensieri nel cervello, nello stesso modo
in cui osserveremmo l’interno di un orologio mentre ticchetta.
La prima cosa che si nota osservando una di queste macchine è
l’enorme magnete, in grado di produrre un campo magnetico da venti a
sessantamila volte superiore rispetto a quello terrestre; questo componente è
uno dei motivi principali per cui tali macchine possono pesare fino a una
tonnellata, occupare una stanza intera e costare diversi milioni di dollari. In
compenso, sono più sicure delle macchine a raggi X, perché non producono
ioni nocivi per l’uomo. Le tomografie assiali computerizzate (TAC),
anch’esse in grado di produrre immagini tridimensionali, bombardano il
corpo con una dose di raggi X diverse volte superiore a quella di una
normale radiografia, e per questo motivo il loro uso deve essere
attentamente controllato; di contro, le macchine per la risonanza magnetica
sono sicure se utilizzate in maniera appropriata. Ma si tratta di un problema
legato alla negligenza degli operatori: il campo magnetico è tanto potente
da scagliare un oggetto in aria a grande velocità, se attivato al momento
sbagliato (e alcune persone sono rimaste ferite o persino uccise in tal
modo).
Nella macchina a risonanza magnetica il paziente giace disteso su un
lettino che viene fatto scivolare all’interno di un cilindro e che contiene due
grandi bobine, le quali generano il campo magnetico: quando queste
vengono accese, i nuclei degli atomi del nostro corpo si comportano in
maniera molto simile a quelli dell’ago di una bussola e si allineano secondo
la direzione del campo magnetico generato. Un piccolo impulso radio fa sì
che alcuni di questi nuclei si allineino lungo la direzione opposta.
Ritornando nella loro posizione iniziale, essi emettono una pulsazione di
energia radio secondaria che può essere registrata dalla macchina, e
analizzando tali debolissimi segnali è possibile ricostruire la posizione e la
natura di questi atomi. Allo stesso modo in cui i pipistrelli utilizzano l’eco
per determinare la posizione degli oggetti sul loro cammino, gli impulsi
registrati dalla macchina per la risonanza magnetica permettono agli
scienziati di ricreare immagini di buona qualità di ciò che si trova
all’interno del cervello. Il computer poi ricostruisce la posizione degli
atomi, creando incredibili immagini a tre dimensioni.
Quando fecero la loro comparsa, le macchine per la risonanza
magnetica erano in grado di mostrare solo la struttura fisica del cervello e
delle sue regioni. Tuttavia, a metà degli anni novanta è stato inventato un
nuovo tipo di RM, la cosiddetta risonanza magnetica funzionale, o fMRI,
che identifica la presenza di ossigeno nel sangue del cervello (gli scienziati
a volte utilizzano una lettera minuscola davanti all’acronimo RM per
identificare i diversi tipi di risonanza: io uso l’abbreviazione RM quando
parlo di tutti i diversi tipi di macchine per la risonanza magnetica). Le RM
rilevano direttamente la corrente elettrica che attraversa i neuroni; dato che
per il loro funzionamento è necessario l’ossigeno, il sangue ossigenato può
rappresentare una traccia indiretta dell’energia elettrica neuronale, e
mostrare in che modo le diverse regioni del cervello interagiscano tra loro.
Questo strumento ci ha già fornito le prove per sfatare l’ipotesi che sia
possibile localizzare il pensiero in un singolo centro cerebrale; al contrario,
possiamo osservare l’energia elettrica mentre si muove tra le diverse parti
del cervello pensante. Tracciando il cammino dei pensieri, le immagini di
risonanza magnetica hanno già fatto luce sulla natura di patologie come
l’Alzheimer, il Parkinson, la schizofrenia e varie altre malattie mentali.
Il grande vantaggio della RM è la sua particolare capacità di analizzare
il cervello e identificare le minuscole parti che lo compongono con una
precisione pari a una frazione di millimetro: una scansione RM ricreerà
sullo schermo un’immagine del cervello non solo come una serie di punti
bidimensionali, i cosiddetti pixel, ma elaborerà decine di migliaia di punti
colorati in uno spazio tridimensionale, ovvero i voxel, generando
un’immagine 3D.
Dal momento che i diversi elementi chimici oscillano in risposta a
frequenze radio diverse, è possibile modificare la frequenza della
pulsazione radio della macchina e identificare nel cervello i singoli elementi
diversi. Come abbiamo visto, le macchine fMRI sono regolate per
riconoscere gli atomi di ossigeno contenuti all’interno del sangue e
misurare quindi il flusso ematico cerebrale, ma non sono gli unici atomi che
esse riescono a individuare. Negli ultimi dieci anni è stata progettata una
nuova tecnologia di imaging chiamata imaging a tensore di diffusione
(DTI), in grado di localizzare le molecole d’acqua presenti nel cervello.
Seguendo i percorsi neurali, la DTI genera immagini suggestive che
ricordano le piante rampicanti di un giardino. Gli scienziati possono ora
determinare in che modo una specifica parte del cervello sia collegata alle
altre.
Tuttavia la tecnologia della risonanza magnetica presenta alcuni
svantaggi: sebbene siano ineguagliabili nella risoluzione spaziale del
cervello grazie alla localizzazione di voxel tridimensionali grandi come la
punta di uno spillo, le RM hanno una scarsa risoluzione temporale. Per
tracciare il percorso compiuto dal sangue serve almeno un secondo, un
lasso di tempo che appare minimo solo se si dimentica che i segnali elettrici
viaggiano a velocità quasi istantanea: ciò significa che un’immagine di RM
può perdersi una parte dei dettagli di questo intricato schema.
Un altro problema è il loro costo (che si aggira intorno a qualche
milione di euro), motivo per cui spesso i medici devono condividere tra loro
le macchine. Ma, come quasi sempre accade nell’ambito della tecnologia, i
futuri sviluppi dovrebbero permettere di abbatterne i costi.
Tuttavia quelli attuali, per quanto esorbitanti, non hanno posto un freno
alla caccia alle applicazioni commerciali. Una delle idee più sfruttate è il
loro utilizzo come macchina della verità: secondo alcuni studi, questi
strumenti permetterebbero di identificare una bugia con un livello di
accuratezza del 95 per cento, almeno. Pur rimanendo tale livello ancora
oggetto di controversia, l’idea di base è che quando diciamo una bugia
dobbiamo allo stesso tempo conoscere la verità, escogitare una menzogna e
confrontare rapidamente la consistenza di quest’ultima rispetto a dei fatti
noti. Alcune società sostengono che la tecnologia RM sia in grado di
mostrare come i lobi prefrontale e parietale si attivino quando una persona
mente: nello specifico, l’attivazione riguarderebbe la “corteccia orbito-
frontale” (questa struttura, tra le sue varie funzioni, svolge quella di
“verifica dei fatti”, ovvero ci avverte delle presenza di informazioni
contrastanti), un’area che si trova proprio dietro le orbite degli occhi.
Secondo questa teoria, la corteccia orbito-frontale capirebbe la differenza
tra verità e menzogna, e di conseguenza andrebbe in sovraccarico (ma
anche altre aree del cervello si accendono quando si mente come, per
esempio, le cortecce prefrontali superomediale e inferolaterale, coinvolte
nella cognizione).
Diverse aziende già vendono macchine per la risonanza magnetica
destinate a questa funzione, e nei tribunali stanno facendo ingresso casi
giudiziari che coinvolgono tale tecnologia; ma è importante notare come
queste immagini di RM indichino una maggiore attività cerebrale soltanto
in alcune aree. E, mentre l’esame del DNA può a volte avere
un’accuratezza di una parte su dieci o più miliardi, le immagini di RM non
vi riescono, perché per escogitare una menzogna serve il coinvolgimento di
molte aree del cervello, le stesse che sono anche coinvolte nell’elaborazione
di altri tipi di pensiero.

L’elettroencefalografia

Un altro strumento utile per sondare le profondità del cervello è l’EEG,


l’elettroencefalografia. La tecnologia EEG è stata introdotta nel 1924, ma
solo di recente, grazie ai computer, è stato possibile dare un senso a tutti i
dati provenienti dagli elettrodi.
Il suo utilizzo prevede che il paziente indossi un casco alquanto
futuristico, sulla cui superficie sono fissati una ventina di elettrodi (alcuni
modelli più avanzati utilizzano una specie di rete per capelli, contenente
una serie di piccoli elettrodi), in grado di registrare i deboli segnali elettrici
che circolano nel cervello.
Una scansione EEG differisce da un’immagine di RM sotto vari aspetti
fondamentali. Come abbiamo visto, le scansioni RM sfruttano l’eco di
ritorno delle pulsazioni radio “sparate” attraverso i tessuti cerebrali; ciò
significa che, variando il tipo di pulsazione radio utilizzata, è possibile
analizzare atomi diversi, cosa che la rende una tecnologia piuttosto
versatile. La macchina EEG, al contrario, analizza i debolissimi segnali
elettromagnetici emessi spontaneamente dal cervello, ragione per cui viene
definita tecnologia passiva: l’EEG è imbattibile nella registrazione della
vasta gamma di segnali elettromagnetici emessi dal cervello, cosa che
permette agli scienziati di misurare l’attività cerebrale quando dormiamo, ci
concentriamo su un determinato compito, ci rilassiamo, sogniamo e via
dicendo. I diversi stati della coscienza vibrano a frequenze diverse: il sonno
profondo, per esempio, corrisponde alle onde delta, che compiono da 0,1 a
4 cicli al secondo, mentre gli stati mentali attivi, come quando risolviamo
un problema, corrispondono alle onde beta, che viaggiano da 12 a 30 cicli al
secondo. Queste oscillazioni permettono alle diverse aree cerebrali di
condividere tra loro le informazioni e di comunicare le une con le altre, pur
trovandosi in zone opposte nel cervello. Inoltre, mentre le scansioni RM che
misurano il flusso ematico possono essere acquisite solo alcune volte al
secondo, le scansioni EEG misurano l’attività elettrica in modo istantaneo.
Figura 5. In alto, vediamo un’immagine acquisita con una macchina per la risonanza magnetica
funzionale: l’immagine mostra le regioni di maggiore attività (AP Photo / David Duprey). In basso,
vediamo il pattern floreale creato da una macchina RM a tensore di diffusione, in grado di
identificare i percorsi neurali e le connessioni cerebrali (Tom Barrick, Chris Clark / Science Source).

I vantaggi delle scansioni EEG consistono comunque nel costo e nella


comodità: studenti delle superiori hanno addirittura condotto degli
esperimenti nelle loro case, con dei sensori EEG piazzati sulle proprie teste.
In compenso, lo svantaggio maggiore di questa tecnologia, e che per
decenni ne ha frenato lo sviluppo, è la sua bassissima risoluzione spaziale:
un dispositivo EEG registra i segnali elettrici già diffusi attraverso la teca
cranica, rendendo difficile l’identificazione dell’attività elettrica anomala
che si origina nelle regioni più profonde del cervello. Osservando l’intricato
schema che risulta da una sessione EEG, nella pratica, è impossibile dire
con sicurezza da quale area cerebrale sia stato prodotto; anche il minimo
movimento, come quello di un dito, può alterare il segnale, vanificando di
fatto l’intera sessione.

Scansioni PET

Un altro utile strumento proveniente dai laboratori di fisica è la


tomografia a emissione di positroni (PET), che calcola il flusso di energia
nel cervello localizzando il glucosio, la molecola di zucchero che fornisce
energia alle cellule. Come la camera a nebbia che avevo costruito da
studente, le macchine PET tracciano le particelle subatomiche emesse da
alcune molecole di sodio-22 all’interno del glucosio. Per eseguire una
registrazione PET al paziente viene iniettata una soluzione contenente uno
zucchero leggermente radioattivo, in cui gli atomi di sodio sono stati
sostituiti da un atomo di sodio-22; ogni volta che uno di questi atomi
decade emette un elettrone positivo, o positrone, che può essere subito
fotografato dai sensori. Seguendo il percorso di questi atomi siamo in grado
di tracciare il flusso di energia che attraversa il cervello quando pensa.
Le immagini PET hanno gli stessi vantaggi di quelle di risonanza
magnetica, ma non la stessa risoluzione spaziale: invece di misurare il
flusso ematico, che rappresenta solo un indicatore indiretto del consumo di
energia del corpo, misurano il consumo di energia direttamente, e sono
quindi più correlate all’attività neurale.
La tec nologia PET ha però un aspetto negativo: al contrario della RM e
delle scansioni EEG, le analisi PET implicano una leggera esposizione alle
radiazioni, perciò i pazienti non possono essere sottoposti troppe volte a
questo esame. In linea di massima, a causa del minimo ma non trascurabile
rischio di sovraesposizione alle radiazioni, non è permesso acquisire più di
un’analisi PET in un anno per ciascun individuo.

Il magnetismo nel cervello

Sono molti gli strumenti entrati a far parte della “cassetta degli attrezzi”
dei neuroscienziati negli ultimi dieci anni: tra di essi lo scanner
elettromagnetico transcranico (TES), la magnetoencefalografia (MEG), la
spettroscopia nel vicino infrarosso (NIRS) e l’optogenetica.
Il magnetismo è stato inoltre utilizzato per bloccare l’attività di
specifiche parti del cervello senza l’ausilio della chirurgia. Il principio
fisico alla base di questi nuovi strumenti è che una rapida inversione di un
campo elettrico ne genera uno magnetico e viceversa; i
magnetoencefalogrammi misurano in modo passivo i campi magnetici
prodotti dal cambiamento dei campi elettrici del cervello. Essi sono molto
deboli, e loro forza è pari a un miliardesimo di quella terrestre. Come le
EEG, i MEG hanno una risoluzione temporale elevatissima, fino al
millesimo di secondo, ma la loro risoluzione spaziale è solo pari a un
centimetro cubo.
Al contrario della MEG, che come abbiamo detto è una tecnologia
passiva, uno scanner elettromagnetico transcranico è in grado di generare
un potente impulso elettrico, da cui a sua volta si genera un forte impulso
magnetico. Se posto vicino al cervello, l’impulso magnetico generato dalla
TES penetra nel cranio e crea un campo elettrico all’interno del cervello:
l’impulso elettrico secondario, a sua volta, è sufficiente per spegnere o
smorzare l’attività di aree del cervello selezionate.
In passato gli scienziati potevano basarsi soltanto sull’effetto di un ictus
o di un tumore per “spegnere” l’attività di una parte del cervello e
determinarne la funzione; grazie alla TES è invece oggi possibile inibire o
attenuare l’attività di un’area cerebrale a proprio piacere: direzionando il
campo magnetico in maniera appropriata è infatti possibile determinarne la
funzione solo osservando in che modo si modifichi il comportamento di una
persona (quando gli impulsi sono diretti verso lobo temporale sinistro, per
esempio, è possibile osservare come ciò influisca negativamente sull’abilità
di parlare).
Figura 6. Scanner elettromagnetico transcranico e magnetoencefalogramma. Al posto delle onde
radio, la MEG sfrutta i principi del magnetismo per determinare la natura dei pensieri. Applicando un
campo magnetico al cervello è possibile silenziare in modo temporaneo l’attività di alcune sue parti,
permettendo agli scienziati di determinare l’azione delle diverse regioni cerebrali senza dover
necessariamente ricorrere a conseguenze di eventi traumatici, come un ictus (Jeffrey L. Ward).

Uno degli svantaggi di questa tecnologia è che i campi magnetici


generati non penetrano nel cervello in profondità (perché i campi magnetici
si riducono molto più velocemente rispetto alla legge del quadrato inverso
che si applica all’elettricità). La TES è utile per inibire l’azione di aree
cerebrali superficiali, vicino al cranio, ma non è in grado di raggiungere i
centri più profondi come il sistema limbico. Tuttavia, la TES di prossima
generazione potrebbe superare questo problema tecnico aumentando
l’intensità e la precisione del campo magnetico generato.
Stimolazione cerebrale profonda

Un altro strumento neurologico fondamentale è la cosiddetta


stimolazione cerebrale profonda (DBS). Mentre i primi elettrodi utilizzati
da Penfield erano relativamente grossolani, oggi abbiamo a disposizione
elettrodi delle dimensioni di un capello, in grado di raggiungere aree del
cervello che si trovano anche molto in profondità. Questo ha permesso agli
scienziati non solo di localizzare le diverse funzioni cerebrali, ma anche di
trattare alcune malattie mentali: la DBS si è già rivelata efficace nei soggetti
affetti da Parkinson, in cui alcune regioni del cervello, iperattive, creano
spesso tremori incontrollabili alle mani.
Più di recente, questi elettrodi sono stati applicati all’area di Brodmann
numero 25, una zona del cervello spesso iperattiva nei pazienti depressi che
non rispondono alla psicoterapia o ai farmaci. Dopo decenni di tormenti e
agonia, i soggetti hanno beneficiato degli effetti quasi miracolosi della
stimolazione cerebrale profonda.
Ogni anno vengono identificati nuovi modi di utilizzare questa e altre
nuove tecnologie di scansione cerebrale, nel trattamento delle diverse
principali patologie mentali, e ciò lascia prevedere l’avvento di una nuova
area per la diagnosi e la cura.

Optogenetica: accendere il cervello

Il più recente e forse entusiasmante strumento a disposizione dei


neurologi è l’optogenetica. Un tempo considerata fantascienza, ci permette
di attivare i percorsi neurali alla base di determinati comportamenti
semplicemente direzionando un fascio di luce sul cervello, come fosse una
bacchetta magica.
Sembra incredibile, ma è possibile inserire, con precisione chirurgica e
direttamente all’interno della cellula, un gene sensibile alla luce:
illuminandolo con un fascio luminoso, il neurone si attiva. Questa
tecnologia ha dotato gli scienziati di un vero e proprio “interruttore” capace
di attivare e inibire determinati percorsi neurali.
Sebbene sia nata solo dieci anni fa, è già possibile dimostrare come
negli animali questa tecnologia sia effettivamente in grado di controllare
alcuni comportamenti: con un semplice fascio di luce si può bloccare il volo
di un moscerino della frutta, fermare il movimento di un verme e spingere
dei topi a correre in cerchio. Al momento stanno cominciando
sperimentazioni sulle scimmie, e si parla della possibilità di effettuare degli
studi sull’uomo, dal momento che questo nuovo strumento potrebbe trovare
diretta applicazione nel trattamento di malattie come il Parkinson e la
depressione.

Il cervello trasparente

Come l’optogenetica, la possibilità di creare un cervello trasparente, tale


da rendere perfettamente visibili a occhio nudo i suoi percorsi neurali, ha
rappresentato un nuovo e spettacolare passo avanti per le neuroscienze. Nel
2013 gli scienziati dell’università di Stanford hanno annunciato di essere
riusciti a rendere trasparente l’intero cervello di un topo e parti del cervello
umano. L’annuncio ha avuto un impatto tale da guadagnarsi la copertina del
“New York Times”5.
A livello cellulare le singole cellule sono trasparenti, quindi è possibile
osservare i microscopici elementi che le compongono. Tuttavia, quando
miliardi di cellule si aggregano in organi come il cervello, la presenza di
lipidi (grassi, olii e altre sostanze chimiche non solubili in acqua)
contribuisce a rendere l’organo opaco. Il segreto di questa nuova tecnica è
stata la capacità dei ricercatori di rimuovere tali sostanze lipidiche, pur
mantenendo intatti i neuroni, immergendo il cervello in un idrogel (una
sostanza gelatinosa composta principalmente di acqua) in grado di legarsi a
tutte le sue molecole eccetto che ai lipidi. Il cervello viene “lavato” in una
soluzione saponata a cui è applicato un campo elettrico, e che è fatta
drenare portando via con sé i lipidi e lasciando l’organo trasparente. I
percorsi neurali sono poi resi visibili grazie all’aggiunta di coloranti.
Creare tessuti trasparenti non è una novità, ma riuscire a realizzare le
condizioni giuste per rendere trasparente un intero cervello ha richiesto una
buona dose di ingegno: «Ho bruciato e sciolto più di un centinaio di
cervelli» ha confessato Kwanghun Chung, una delle ricercatrici dello
studio. Questa nuova tecnica, battezzata Clarity, può essere applicata anche
ad altri organi (anche a quelli conservati da anni in soluzioni come la
formalina) ed è già stato possibile creare fegati, polmoni e cuori trasparenti.
Le possibili applicazioni per la medicina saranno di certo incredibili.
Quattro forze fondamentali

Il successo di questa prima generazione di strumenti di imaging è stato


sbalorditivo: prima del loro ingresso sulla scena si conoscevano solo una
trentina di aree cerebrali, mentre oggi la sola risonanza magnetica è in
grado di identificarne dalle due alle trecento, aprendo alle neuroscienze
prospettive del tutto nuove. Dal momento che queste nuove tecnologie sono
state introdotte dalla fisica solo negli ultimi quindici anni, ci si può
chiedere: ce ne saranno altre? La risposta è sì, ma si tratterà di variazioni e
miglioramenti delle precedenti, e non di tecnologie completamente nuove.
Questo perché esistono solo quattro forze fondamentali che governano
l’universo: la forza gravitazionale, la forza elettromagnetica, la forza
nucleare debole e la forza nucleare forte (i fisici hanno tentato di
rintracciare le prove dell’esistenza di una quinta forza, ma fino ad oggi tutti
i tentativi sono falliti).
La forza elettromagnetica, la stessa che illumina le nostre città, nasce
dall’interazione tra l’energia elettrica e quella magnetica, ed è la risorsa su
cui si basano quasi tutte le tecnologie di imaging di oggi (con l’eccezione
della PET, che sfrutta la forza nucleare debole). La creazione di campi
elettrici e magnetici non è più un mistero, dal momento che i fisici hanno
ormai più di centocinquant’anni di esperienza: qualsiasi nuova tecnologia di
imaging cerebrale sarà quasi senza dubbio il risultato di una modificazione
delle tecnologie esistenti piuttosto che qualcosa di radicalmente nuovo.
Così come accade alla maggior parte delle tecnologie, le dimensioni e i
costi di queste macchine subiranno un netto abbassamento, mentre
aumenteranno in modo capillare la diffusione e l’uso di tali, sofisticati
strumenti (nei laboratori di fisica si stanno già facendo i calcoli necessari
per miniaturizzare una macchina RM perché possa entrare in un telefono
cellulare). Allo stesso tempo, il problema fondamentale che le scansioni
cerebrali dovranno risolvere è quello della risoluzione, sia spaziale sia
temporale. La risoluzione spaziale di un’immagine RM aumenterà a mano a
mano che il campo magnetico diventerà più uniforme, e i componenti
elettronici più sensibili: ad oggi una scansione RM è in grado di identificare
punti, o voxel, delle dimensioni di una frazione di millimetro, ma ciascuno
di essi può contenere centinaia di migliaia di neuroni. Le nuove tecnologie
dovrebbero essere in grado di accrescere ulteriormente questa risoluzione, e
la vera sfida sarà creare una macchina RM in grado di identificare i singoli
neuroni e le loro connessioni.
Anche la risoluzione temporale delle macchine di fMRI è limitata,
perché, come abbiamo visto, l’analisi viene fatta analizzando il flusso di
sangue ossigenato che attraversa il cervello; la macchina, di per sé, avrebbe
una buona risoluzione temporale, ma tracciare il flusso ematico ne rallenta
le prestazioni. Le macchine RM del futuro saranno in grado di localizzare
sostanze diverse, meglio correlate all’attività neuronale, permettendo in
questo modo l’analisi in tempo reale dei processi mentali.
Se i progressi degli ultimi quindici anni vi sembrano spettacolari,
sappiate che è solo un assaggio di ciò che ci aspetta in futuro.

Nuovi modelli di cervello

Ogni nuova scoperta scientifica ha sempre portato con sé un’idea nuova


di cervello. Uno dei primissimi modelli era il cosiddetto omuncolo, un
omino che viveva all’interno del cervello e che prendeva tutte le decisioni.
La spiegazione però non era molto utile, perché non spiegava cosa
succedesse nel cervello di questo omino: ce n’era forse un altro nascosto
all’interno del primo?
Con l’arrivo dei primi strumenti meccanici, venne proposto il modello
“della macchina”, con cui si paragonava il cervello a un orologio dotato di
ruote e ingranaggi meccanici. Tale analogia fu utile a scienziati e inventori:
Leonardo da Vinci, per esempio, progettò un vero e proprio uomo
meccanico.
Verso la fine del diciannovesimo secolo le macchine a vapore iniziarono
a plasmare i nuovi imperi, ed emerse un’altra analogia: quella con il motore
a vapore e i suoi flussi energetici in competizione tra loro. Secondo alcuni
storici tale modello idraulico avrebbe influenzato la visione del cervello di
Sigmund Freud, dato che per lui le principali Marshall Cavendish
International forze in costante lotta tra loro nel cervello erano tre: l’ego (che
rappresenta il sé e il pensiero razionale), l’id (i desideri repressi) e il
superego (la nostra coscienza). In linea con il modello, un conflitto tra
queste forze può causare un accumulo di pressione in grado di determinare
la regressione o il generale tracollo dell’intero sistema. Era un modello
ingegnoso ma, come ammise lo stesso Freud, necessitava del contributo di
studi dettagliati del cervello a livello neuronale, cosa che avrebbe richiesto
un altro secolo.
All’inizio del secolo scorso, con l’avvento del telefono, si affacciò una
nuova analogia: il gigantesco centralino telefonico. Il cervello era ora una
maglia di linee telefoniche connesse tra loro in una vasta rete, e la coscienza
non era altro che una lunga linea di centralinisti seduti di fronte a un grande
pannello di interruttori, impegnati a collegare e scollegare cavi;
sfortunatamente, il modello non spiegava come questi messaggi andassero a
formare l’unità chiamata cervello.
Con l’avvento dei transistor divenne popolare un altro modello, quello
del computer. Le centraline telefoniche, ormai obsolete, furono sostituite da
microchip contenenti centinaia di milioni di transistor: ciò che chiamiamo
mente era forse solo un software installato su un “wetware” (ovvero un
hardware composto da tessuto cerebrale piuttosto che da transistor). Tale
modello, che resiste ancora oggi, ha dei limiti in quanto non può spiegare in
che modo quest’organo esegua calcoli che richiederebbero un computer
delle dimensioni della città di New York. Il cervello non dispone di alcuna
forma di programmazione, non ha un sistema Windows o un processore
Pentium (e, nonostante sia estremamente veloce, un Pentium presenta
sempre un collo di bottiglia: tutti i calcoli devono passare attraverso questo
singolo processore. Nel cervello, al contrario, un impulso neurale è
relativamente lento, ma il sistema sopperisce con cento miliardi di neuroni,
i quali elaborano i dati in maniera simultanea. In questo modo un
processore parallelo lento può battere un singolo processore veloce).
L’analogia più recente è quella che accosta il cervello a internet e ai
miliardi di computer collegati tra loro. La coscienza, in questa immagine, è
un fenomeno “emergente”, che affiora quasi per miracolo dall’azione
collettiva di miliardi di neuroni (il problema di questa teoria è che non dice
assolutamente nulla di come un simile miracolo avvenga, e nasconde la
complessità del cervello sotto il tappeto della teoria del caos).
Non c’è dubbio che tutte queste analogie si basino su un fondo di verità,
ma nessuna di esse è in grado di catturare la vera complessità del cervello.
L’analogia che personalmente ritengo più utile (anche se imperfetta) è
quella di un’azienda di grosse dimensioni: troviamo qui un apparato
burocratico immenso e linee di comando complesse, che gestiscono un
ampio flusso di informazioni fino all’amministrazione centrale; qui, dove si
trova l’amministratore delegato, si prendono le decisioni.
Se tale analogia fosse valida, dovrebbe poter spiegare alcune particolari
caratteristiche del cervello:

La maggior parte delle informazione è “subcosciente”.


L’amministratore delegato è beatamente inconsapevole della vasta e
complessa quantità di informazioni che attraversa gli uffici. Solo una
piccola quantità di informazioni raggiunge la sua scrivania, che
nell’analogia sarebbe la corteccia prefrontale: lui deve conoscere solo
le informazioni abbastanza importanti da dover ottenere la sua
attenzione (altrimenti rimarrebbe schiacciato sotto una valanga di
informazioni non pertinenti). Questa organizzazione è probabilmente
un sotto-prodotto dell’evoluzione, altrimenti i nostri antenati sarebbero
rimasti sommersi dalle informazioni subcoscienti e superflue che
inondano il cervello quando deve affrontare un’emergenza. Per fortuna
siamo inconsapevoli dei milioni di miliardi di calcoli elaborati dal
nostro cervello: se incontriamo una tigre non possiamo essere distratti
dallo stato del nostro stomaco, delle nostre dita, dei capelli ecc. Tutto
quello che dobbiamo sapere è che dobbiamo correre.
Le “emozioni” sono decisioni rapidissime, prese in maniera
indipendente a livello più basso. Dal momento che il pensiero
razionale necessita di parecchi secondi, spesso è impossibile dare una
risposta ragionata a un’emergenza: le unità più basse del cervello
devono valutare rapidamente la situazione e prendere una decisione,
abbracciare un’emozione, senza chiedere il permesso ai “piani alti”. Le
emozioni (paura, rabbia, orrore ecc.) sono segnali d’allarme lanciati a
livello più basso per avvertire il centro di comando dell’esistenza di
situazioni potenzialmente gravi o pericolose. Il nostro controllo
cosciente sulle emozioni è limitato. Non importa, per esempio, quanto
possiamo allenarci a parlare di fronte a un grande pubblico: ci
sentiremo sempre nervosi ogni qual volta dovremo salire su un palco.
Rita Carter, autrice di Mapping the Mind, scrive: «Le emozioni non
sono sentimenti, ma una serie di meccanismi di sopravvivenza, radicati
nel corpo, evoluti per permetterci di evitare il pericolo e dirigerci verso
ciò che potrebbe rappresentare un beneficio»6.
C’è sempre un gran clamore volto ad attirare l’attenzione
dell’amministratore delegato. Non esiste un omuncolo, una CPU o
un processore che prenda tutte le decisioni da solo; al contrario, i vari
dipartimenti del centro di comando sono in costante competizione tra
loro per garantirsi l’attenzione dell’amministratore. Non esiste, quindi,
una sorta di continuità di pensiero coerente e costante, ma una
cacofonia di feedback che competono tra loro. Il concetto di “io”,
inteso come singola unità che prende tutte le decisioni, è un’illusione
creata dal nostro stesso inconscio. Siamo convinti che la nostra mente
sia un’entità singola che elabora le informazioni continuamente e
senza intoppi, incaricata di tutte le nostre decisioni. Tuttavia
l’immagine che emerge dalle scansioni cerebrali è abbastanza diversa.
Il professor Marvin Minsky del MIT, uno dei padri fondatori
dell’intelligenza artificiale, sostiene che l’immagine che meglio
rappresenta la nostra mente sia più quella di una «società di menti»,
dotata di differenti sottounità, ciascuna in gara con le altre. Quando ho
intervistato Steven Pinker, psicologo dell’università di Harvard, gli ho
chiesto in che modo la coscienza emerga da tutto questo caos: mi ha
risposto che essa è una tempesta che imperversa nel nostro cervello7.
Questa è l’immagine che ha elaborato quando ha scritto «la
sensazione, intuitiva, che esista un “io” esecutivo all’interno di un
centro di controllo nel cervello, che osserva gli schermi dei segnali
sensoriali e che schiaccia i pulsanti che controllano i muscoli, è
un’illusione. La coscienza è un vortice di eventi distribuiti su tutto il
cervello, che competono per ottenere attenzione: quando un processo
riesce a mettere da parte gli altri, il cervello lo razionalizza a posteriori
creando l’impressione che, per tutto il tempo, sia sempre rimasto in
carica un singolo sé»8.
Le decisioni finali sono prese dall’amministratore delegato. Quasi
tutto l’apparato burocratico raccoglie e mette insieme le informazioni
per conto dell’amministratore delegato. Quest’ultimo vede solo i
direttori di ciascun dipartimento e cerca di mediare tra tutte le
informazioni contrastanti che si riversano nel suo ufficio, ma poi chi
decide, chi prende la risoluzione finale, è lui. Gli animali decidono
principalmente seguendo l’istinto; al contrario, i processi decisionali si
trovano a un livello più alto nell’uomo, il quale sceglie solo dopo aver
vagliato tutte le diverse informazioni che provengono dai sensi. Allo
stesso modo, le decisioni finali della società sono prese
dall’amministratore, situato nella corteccia prefrontale.
Il flusso delle informazioni è gerarchico. A causa della mole di
informazioni che devono arrivare all’ufficio dell’amministratore o
scendere fino al personale, queste devono essere organizzate in
complesse matrici di reti nidificate e ramificate (pensiamo a un pino,
con il centro di comando sulla punta e una piramide di rami che si
sviluppano verso il basso, suddividendosi in diverse sottounità). Ci
sono, certo, delle differenze tra un apparato burocratico e la struttura
del pensiero. La prima regola della burocrazia è che essa “si espande
fino a occupare tutto lo spazio assegnatole”9. Ma lo spreco di energia è
un lusso che il cervello non può permettersi: esso consuma, circa,
appena 20 watt di potenza (quella di una lampadina, tanto per
intenderci), ed è probabilmente l’energia massima possibile: se ne
generasse di più, il calore potrebbe danneggiare i tessuti, dunque il
cervello tenta di risparmiare, utilizzando tutte le scorciatoie a sua
disposizione. Vedremo quali ingegnosi strumenti l’evoluzione abbia
creato, senza che lo sapessimo, per aggirare tutti gli ostacoli.

La “realtà” è davvero reale?

Tutti conosciamo l’espressione “vedere per credere”, ma gran parte di


ciò che vediamo è un’illusione. Quando osserviamo un paesaggio, per
esempio, ci sembra un panorama armonico, proprio come quello proiettato
su uno schermo cinematografico; in realtà nel nostro campo visivo c’è un
punto cieco in corrispondenza del nervo ottico, e quando osserviamo
qualcosa dovremmo sempre vedere un grosso punto nero al centro. Ma il
cervello ci inganna, e tappa il buco facendo una media con il resto: ciò
significa che parte di quello che vediamo è in realtà falso, generato dal
nostro subconscio.
Non solo: siamo in grado di vedere con chiarezza solo una parte del
nostro campo visivo, quello centrale, chiamato fovea, mentre l’area
periferica rimane fuori fuoco per risparmiare energia. La fovea è molto
piccola, e per catturare quanta più informazione possibile l’occhio è
obbligato a muoversi in continuazione con un rapido movimento
oscillatorio chiamato saccade. Tutto questo è fatto in maniera incoscia,
dandoci la falsa impressione che il nostro campo visivo sia chiaro e nitido.
Da bambino, quando vidi per la prima volta il diagramma dello spettro
elettromagnetico in tutto il suo splendore, rimasi stupito dal fatto che una
grandissima parte dello spettro elettromagnetico fosse per noi del tutto
invisibile (la luce infrarossa, i raggi ultravioletti, i raggi X e i raggi gamma).
Capii che quello che vedevo era solo una minuscola e brutale
approssimazione della realtà (“Se forma e sostanza fossero la stessa cosa,
non ci sarebbe bisogno della scienza” recita un vecchio adagio). La retina
possiede dei sensori in grado di percepire solo il rosso, il verde e il blu, e
questo significa che in realtà non abbiamo mai visto il giallo, il marrone,
l’arancione e una miriade di altri colori: esistono, ma il nostro cervello li
può solo approssimare mescolando diverse quantità di rosso, verde o blu (se
osserviamo con attenzione lo schermo di una vecchia televisione a colori
vedremo solo un insieme di punti rossi, verdi o blu: la televisione a colori in
realtà è un’illusione).
I nostri occhi ci ingannano anche facendoci credere di poter percepire la
profondità. Le retine sono strutture bidimensionali, ma dato che i nostri
occhi sono separati l’uno dall’altro di qualche centimetro, gli emisferi
destro e sinistro uniscono le immagini e creano la falsa impressione di una
terza dimensione. Per quanto riguarda gli oggetti lontani, invece, siamo in
grado di giudicarne la distanza grazie alla parallasse, ovvero il modo in cui
essi si spostano quando muoviamo la testa (ciò spiega perché i bambini
credono che la luna “li segua”: dato che il cervello fa fatica a comprendere
la parallasse di un oggetto distante quanto un corpo celeste, ci sembra che
quest’ultimo si trovi sempre a una distanza fissa “dietro” di noi, mentre si
tratta solo di un’illusione creata da una delle scorciatoie dal cervello).

Il paradosso del cervello diviso

La metafora della gerarchia aziendale differisce dalla reale struttura del


cervello nel curioso caso dei cosiddetti pazienti split-brain. Una delle più
insolite caratteristiche del cervello è che possiede due emisferi quasi
identici, il sinistro e il destro; da tempo gli scienziati si chiedono perché il
cervello presenti tale inutile ridondanza dal momento che può operare
anche se uno dei due viene rimosso. Nessuna classica gerarchia aziendale
presenta questa caratteristica. E se ciascun emisfero ha una propria
coscienza, significa che possediamo due coscienze?
Roger W. Sperry del California Institute of Technology ha vinto il
premio Nobel nel 1981 per aver dimostrato che in realtà i due emisferi
cerebrali non sono l’uno l’esatta copia dell’altro, ma svolgono compiti
diversi, risultato che ha fatto molto scalpore nel mondo della neurologia
(oltre ad aver alimentato un’intera industria editoriale di dubbi libri di auto-
aiuto, che dichiarano di poter applicare la dicotomia cervello destro/cervello
sinistro alla vita di tutti i giorni).
Sperry era impegnato nel trattamento dei pazienti epilettici: nel cervello
di questi soggetti i segnali neuronali vanno talvolta fuori controllo ed
entrano nel cosiddetto anello di retroazione (feedback loop), in cui il
segnale nervoso rimbalza ripetutamente in un circolo retroattivo – quello
che succede quando avviciniamo un microfono a un altoparlante – causando
attacchi, anche letali. Sperry operava i pazienti recidendo il corpo calloso,
la struttura che collega i due emisferi del cervello, così che le due strutture
non potessero più comunicare e scambiare informazioni; ciò di solito
bloccava i segnali impazziti e i conseguenti attacchi.
Dopo l’operazione i pazienti split-brain sembravano normali: erano
vigili e in grado di sostenere una conversazione come se niente fosse
successo. Ma a un’indagine approfondita si poteva scoprire qualcosa di
molto particolare.
In genere l’azione dei due emisferi si completa nel corso di un processo
di collaborazione, a mano a mano che i pensieri viaggiano dall’uno all’altro.
Il cervello sinistro è logico e analitico, ed è sede delle abilità linguistiche,
mentre il cervello destro opera in maniera più olistica e artistica. Tuttavia
quello dominante è il sinistro, ed è lui che prende le decisioni finali.
Attraverso il corpo calloso i comandi passano da sinistra a destra, ma se
questa connessione è eliminata, il cervello destro si ritrova libero dalla
dittatura del sinistro: può dunque avere una volontà propria, in contrasto
con i desideri del sinistro.
In breve, all’interno della testa si trovano a convivere due volontà che a
volte entrano in competizione per il controllo del corpo. Ciò può generare
situazioni assai bizzarre, per esempio nel caso di una mano sinistra
(controllata dal cervello destro) che inizia ad agire in maniera indipendente
dai nostri desideri, come se fosse un’appendice aliena.
Si ricorda il caso, documentato, di un paziente split-brain che, in
procinto di abbracciare la moglie, scoprì che le sue mani avevano intenzioni
del tutto diverse tra loro: la prima stava per cingerla, ma l’altra le assestò un
pugno in faccia. Una paziente split-brain diceva che quando cercava di
vestirsi una mano sceglieva un abito dal guardaroba e l’altra ne prendeva
uno diverso. Un altro paziente soffriva d’insonnia perché temeva che una
delle sue mani avrebbe cercato di strangolarlo nel sonno.
Questi pazienti dicono di avere l’impressione di vivere in un fumetto: i
medici la chiamano sindrome del Dottor Stranamore, da una scena
dell’omonimo film.
Sperry, dopo uno studio dettagliato condotto su questi pazienti, giunse
alla conclusione che in un singolo cervello operino due menti separate.
Scrisse che ciascun emisfero «è in realtà un sistema cosciente di per se
stesso, che percepisce, pensa, ricorda, ragiona, desidera e prova emozioni
da solo, tutti processi che caratterizzano l’essere umano. […] Entrambi gli
emisferi, il destro e il sinistro, possono essere coscienti, nello stesso
momento, dello svolgersi di esperienze mentali che possono essere diverse
o direttamente in conflitto, e che si svolgono in parallelo»10.
Quando ho intervistato Micheal Gazzaniga dell’università della
California, un’autorità in materia di pazienti split-brain, gli ho chiesto quali
esperimenti fosse possibile eseguire per testare questa teoria11. Ci sono
numerosi modi per comunicare in maniera indipendente con ciascun
emisfero senza che l’altro lo sappia: è possibile, per esempio, far indossare
a un soggetto degli occhiali progettati in modo che le domande possano
essere mostrate a ciascun occhio in maniera separata, così da riuscire a
porre le domande direttamente e separatamente a un singolo emisfero. La
parte difficile è però ottenere delle risposte separate, dal momento che il
cervello destro non può parlare (i centri del linguaggio si trovano solo nel
cervello sinistro). Per scoprire cosa pensa il cervello destro, Gazzaniga ha
progettato un esperimento in cui il (muto) cervello destro può “comunicare”
utilizzando le tessere dello Scarabeo.
Gazzaniga ha iniziato chiedendo all’emisfero sinistro di un paziente
cosa egli avrebbe voluto fare dopo la laurea, e lui ha risposto che voleva
diventare progettista. Ma le cose si sono fatte interessanti quando la stessa
domanda è stata posta all’emisfero destro (quello muto): con la mano
sinistra questo emisfero ha composto la parola “pilota di auto”. All’insaputa
del cervello sinistro, dominante, il destro aveva progetti per il futuro del
tutto diversi. Si può dire che avesse letteralmente una mente propria.
Rita Carves scrive: «Le implicazioni potenziali di queste scoperte sono
incredibili: i risultati indicano che ognuno di noi potrebbe nascondere, nella
propria testa, un prigioniero muto, con una propria personalità, coscienza e
ambizioni del tutto diverse da quelle dall’entità che noi stessi crediamo di
essere»12.
I due emisferi potrebbero addirittura avere convinzioni diverse: il
neurologo V. S. Ramanchandran ha descritto il caso di un paziente split-
brain che, alla domanda se credesse in dio o no, aveva risposto di essere
ateo, ma il cui emisfero sinistro aveva dichiarato di essere credente. Sembra
quindi possibile trovare due posizione religiose opposte nello stesso
cervello. Ramachandran continua: «Cosa succede quando muore questa
persona? Un emisfero va in paradiso e l’altro all’inferno? Io stesso non
saprei rispondere»13 (possiamo quindi immaginare un soggetto split-brain
con uno sdoppiamento di personalità che sia politicamente sia di sinistra sia
di destra: dal momento che il cervello di destra non può parlare, se gli
chiedessimo chi voterebbe ci direbbe il nome del candidato del cervello di
sinistra, e possiamo solo immaginare il caos che si verrebbe a creare in una
cabina per il voto elettronico se ci fosse da tirare una leva).

Chi comanda?

David Eagleman è un ricercatore del Baylor College of Medicine.


Intervistando David, che ha speso una considerevole quantità di tempo ed
energie per capire il problema della mente subcosciente, gli ho chiesto: se la
maggior parte dei nostri processi mentali sono subcoscienti, perché
ignoriamo questo fatto fondamentale? Mi ha fatto l’esempio di un giovane
re che eredita il trono e si prende il merito di tutto ciò che avviene nel suo
regno, ma che non ha la minima idea delle migliaia di individui tra persone
a corte, cavalieri e contadini necessari per mantenere il trono14.
La scelta del nostro candidato politico, moglie o marito, amici e
occupazione futura sono tutte influenzate da cose di cui non siamo
coscienti; è strano, mi ha detto, come sia altamente probabile che «le
persone di nome Denise o Dennis diventassero dentisti, le Laura e i
Lawrence facessero gli avvocati (in inglese lawyer), e i George e le
Georgina i geologi»15. Ciò significa che quello che crediamo essere la
“realtà” è solo un’approssimazione che il cervello crea per riempire le
lacune. Ognuno di noi, infatti, vede la realtà in maniera leggermente
diversa. Eagleman mi ha fatto notare, per esempio, che almeno «il 15 per
cento delle donne ha, per mutazione genetica, un tipo di cono (fotorecettore
del colore) in più (il quarto), sicché distingue colori che appaiono identici a
quasi tutti noi, dotati di soli tre tipi di coni»16.
Più la nostra comprensione del pensiero aumenta, maggiore è il numero
di domande che si affacciano: cosa succede con esattezza nel centro di
comando della mente quando si deve confrontare con un centro di comando
ribelle e in ombra? E, ad ogni modo, cosa intendiamo per coscienza, se può
essere divisa in due? E qual è la relazione tra “sé” e “coscienza di sé”?
Se saremo in grado di rispondere a tutte queste domande, le risposte
apriranno forse la strada alla comprensione di coscienze non umane, come
quella dei robot e degli alieni, che potrebbero essere del tutto diverse dalla
nostra.
Lasciatemi quindi porre una domanda semplice a una questione
incredibilmente complessa: cos’è la coscienza?

1
Si veda Michael S. Sweeney, Brain: The Complete Mind: How It Develops, How It Works, and
How to Keep It Sharp, National Geographic, Washington 2009, pp. 207-8.
2
Rita Carter, Mapping the Mind, University of California Press, Berkeley 2010, p. 24.
3
Judith Horstman, The Scientific American Brave New Brain, John Wiley and Sons, San Francisco
2010, p. 87.
4
Carter, Mapping the Mind, cit., p. 28.
5
The Transparent Brain, in “New York Times”, 10 aprile 2013.
6
Carter, Mapping the Mind, cit., p. 83.
7
Intervista radiofonica a Steven Pinker per Exploration, settembre 2003.
8
Steven Pinker, The Riddle of Knowing You’re Here, in Your Brain: A User’s Guide, “Time” Inc.
Specials, New York 2011.
9
Boleyn-Fitzgerald, Pictures of the Mind, cit., p. 111.
10
Carter, Mapping the Mind, cit., p. 52.
11
Intervista radiofonica a Micheal Gazzaniga nel settembre 2012 per Science Fantastic.
12
Carter, Mapping the Mind, cit., p. 53.
13
Boleyn-Fitzgerald, Pictures of the Mind, cit., p. 119.
14
Intervista a David Eagleman nel maggio 2012 per Science Fantastic.
15
David Eagleman, In incognito: la vita segreta della mente, Milano, Mondadori 2012 (ed. orig.,
Incognito: The Secret Lives of the Brain, Vintage 2012).
16
Ivi.
Capitolo 2
La coscienza secondo un fisico

La mente dell’uomo è capace di ogni cosa… perché in essa si trova tutto, tutto il passato e tutto il
futuro.
Joseph Conrad

La coscienza può ridurre anche il più sofisticato dei pensatori a straparlare senza coerenza.
Colin McGinn

La coscienza ha affascinato i filosofi per secoli, e non siamo ancora


riusciti a definirla in modo chiaro. David Chalmers ha catalogato più di
ventimila scritti in materia: nessun’altra questione scientifica ha mai
ricevuto tanta attenzione e creato così poco consenso. Per Leibniz, se
ingrandissimo il cervello quanto un mulino e vi entrassimo, non
troveremmo la coscienza da nessuna parte.
Alcuni filosofi dubitano perfino che possa esistere una teoria della
coscienza: essa non potrà mai essere spiegata, perché un oggetto non può
comprendere se stesso. Secondo Pinker: «Non siamo in grado di ritenere
diecimila parole nella memoria a breve termine, di vedere la luce
ultravioletta o di ruotare un oggetto nella quarta dimensione e forse non
sapremo mai che cos’è il libero arbitrio e la facoltà senziente»1.
In realtà, per gran parte del ventesimo secolo una delle teorie
psicologiche dominanti è stata quella del comportamentismo, che negava
del tutto l’importanza della coscienza: l’idea era che solo il comportamento
oggettivamente misurabile degli animali o dell’uomo, e non gli stati interni
e soggettivi della mente, potesse essere l’unico, vero, oggetto di interesse
scientifico.
Altri hanno rinunciato del tutto a trovarne una definizione, e hanno
tentato semplicemente di descriverla. Lo psichiatra Giulio Tononi ha
affermato: «Sappiamo tutti cos’è la coscienza: è quella cosa che tutte le
notti ci abbandona quando ci addormentiamo e che ritorna il mattino
seguente al nostro risveglio»2.
Nonostante il dibattito sulla natura della coscienza sia proseguito per
secoli, pochi sono i punti fermi a cui si è giunti. Dal momento che molte
delle invenzioni che hanno permesso lo spettacolare progresso delle
neuroscienze si devono alla fisica, potrebbe essere utile riesaminare l’antica
questione alla luce di questa disciplina.

Come i fisici vedono l’universo

Quando un fisico cerca di comprendere un fenomeno, per prima cosa


raccoglie i dati disponibili, dopodiché ne propone un “modello”, ovvero una
versione semplificata che ne possiede tutte le caratteristiche essenziali. In
questa disciplina un modello è definito da una serie di parametri (per
esempio temperatura, energia e tempo) ed è usato per predire l’evoluzione
futura del suo oggetto, simulandone il comportamento; alcuni dei più grandi
supercomputer del mondo sono utilizzati per ricreare l’azione dei protoni,
delle esplosioni nucleari, dei cambiamenti climatici, del Big Bang e dei
buchi neri. Poi si crea un modello migliore, usando parametri più sofisticati,
e si fa una nuova simulazione.
Dopo essersi interrogato sulla natura del moto lunare Isaac Newton creò
un modello semplice, ma che avrebbe cambiato il corso della storia
dell’uomo: immaginò di lanciare una mela, e giunse alla conclusione che
tanto più forte fosse riuscito a lanciarla tanto più lontano questa sarebbe
ricaduta. Se la velocità impressa fosse stata sufficiente, la mela avrebbe
potuto addirittura compiere un giro completo del globo e ritornare al punto
di partenza. Secondo Newton questo modello poteva rappresentare il moto
lunare attorno alla Terra, dal momento che le forze in gioco erano le stesse
che regolavano il moto della mela attorno al pianeta.
Ma di per sé il modello era inutile, e la vera rivoluzione si ebbe solo
quando Newton fu in grado di utilizzare la sua nuova teoria per calcolare la
posizione (futura) degli oggetti in movimento. Era un problema complesso,
che lo obbligò a creare una branca della matematica del tutto nuova – il
calcolo infinitesimale – con cui fu poi in grado di determinare non solo la
traiettoria della luna, ma anche della cometa di Halley e dei pianeti. Da
allora gli scienziati hanno utilizzato queste leggi per simulare la traiettoria
degli oggetti in movimento, dalle palle di cannone ai macchinari, dalle
automobili ai razzi, fino agli asteroidi, le meteore e addirittura le stelle e le
galassie.
Il successo o il fallimento di un modello dipende dalla fedeltà con cui
esso riproduce i parametri fondamentali del fenomeno primario: in questo
caso il parametro di base era la posizione della mela e della luna nello
spazio e nel tempo, e descrivendo l’evoluzione temporale di questi corpi
(ovvero, lasciando che il tempo si muovesse in avanti) per la prima volta
nella storia Newton liberò il potenziale dei corpi in movimento, una delle
più importanti scoperte della scienza.
I modelli sono utili finché non vengono rimpiazzati da altri, più accurati
e definiti da parametri migliori. Einstein sostituì la descrizione di Newton
con un modello basato su un nuovo parametro: la curvatura dello spazio e
del tempo. Secondo Einstein, la mela non si muoveva perché la Terra
esercitava una forza su di essa, ma perché il pianeta era in grado di curvare
il tessuto dello spazio e del tempo, e ciò significava che la mela si stava
semplicemente muovendo lungo la sua superficie curva. Partendo da questo
presupposto, Einstein fu in grado di simulare l’evoluzione dell’intero
universo e noi, grazie ai computer di oggi, possiamo elaborare questo
modello per creare le strabilianti immagini dei buchi neri in collisione.
Proviamo ora a incorporare questa metodologia in una nuova teoria
della mente.

Definizione di coscienza

Partendo da frammenti di diverse definizioni in neurologia e biologia,


definisco la coscienza come segue:
La coscienza è un processo in grado di creare un modello del mondo utilizzando molteplici
anelli di retroazione (feedback loops) di vari parametri (come temperatura, spazio, tempo e
relazioni con gli altri) al fine di raggiungere un obiettivo (come trovare un partner, cibo, riparo).

Chiamerò questa definizione teoria dello spazio-tempo della coscienza


per sottolineare l’idea che mentre gli animali creano un modello del mondo
soprattutto in relazione allo spazio e alle relazioni reciproche, gli esseri
umani, in aggiunta, modellano l’idea del mondo anche in relazione al tempo
passato e futuro.
Il livello di coscienza più basso è il livello 0: qui troviamo gli organismi
stazionari o con una mobilità limitata che creano un modello del proprio
spazio utilizzando anelli di retroazione in relazione a un numero limitato di
parametri (per esempio la sola temperatura). Pensiamo al termostato: tale
strumento regola la temperatura in una stanza azionando in maniera
automatica e autonoma un condizionatore o un calorifero; per farlo utilizza
un anello di retroazione che attiva un interruttore se la temperatura si alza o
si abbassa troppo (dal momento che quando viene riscaldato un metallo si
espande, un termostato può attivare un interruttore se, per esempio, una
linguetta di metallo si espande oltre un determinato punto).
Ciascun anello di retroazione rappresenta “un’unità di coscienza”: un
termostato ha quindi una singola unità di coscienza al livello 0, e si
troverebbe al livello 0:1.
In questo modo possiamo organizzare la coscienza sulla base di una
gerarchia numerica, che riflette il numero e la complessità degli anelli di
retroazione utilizzati dall’organismo per elaborare la propria idea di mondo.
La coscienza non è più, quindi, una vaga collezione di concetti indefiniti e
circolari, ma un sistema di gerarchie organizzabili secondo precisi principi
matematici. Un batterio (o un fiore) possiede più anelli di retroazione, e si
troverà quindi a un livello 0 più elevato; un fiore con 10 anelli di
retroazione (che misurano, per esempio, la temperatura, l’umidità, la luce
solare, la gravità ecc.) si troverebbe al livello 0:10.
Gli organismi che si possono muovere e che possiedono un sistema
nervoso centrale si trovano al livello 1, che prevede un nuovo insieme di
parametri per descrivere lo spostamento nello spazio. A questo livello
troviamo per esempio i rettili, la cui coscienza può contare su un numero
così elevato di anelli di retroazione da aver dovuto sviluppare un sistema
nervoso centrale in grado di amministrarli tutti. Il cervello dei rettili
potrebbe avere più di 100 anelli di retroazione (che governano l’olfatto,
l’equilibrio, il tatto, l’udito, la vista, la pressione sanguigna ecc., ciascuno
dei quali può contenerne altri): la vista, per esempio, implica a sua volta
numerosi anelli di retroazione, dal momento che l’occhio può riconoscere il
colore, il movimento, la forma, l’intensità della luce e le ombre. Allo stesso
modo anche gli altri sensi, come l’udito e il gusto, necessitano di anelli di
retroazione aggiuntivi. La totalità di questi sistemi crea nell’animale
l’immagine mentale della propria e altrui posizione nel mondo (per esempio
la posizione della preda). Il livello 1 della coscienza è controllato
principalmente dal cosiddetto cervello rettiliano, posto nella parte mediana
e posteriore del cranio.
Abbiamo poi il livello 2 di coscienza, che appartiene a quegli organismi
in grado di creare un modello della loro posizione nel mondo non solo
rispetto allo spazio fisico, ma anche in relazione agli altri, ovvero gli
animali sociali che provano emozioni. Il numero di anelli di retroazione a
questo livello esplode in modo esponenziale, ed è quindi utile introdurre un
nuovo livello: creare alleanze, identificare i nemici, sottomettersi al
maschio dominante ecc., sono tutti comportamenti molto complessi che
richiedono un cervello sviluppato. Perciò questo livello coincide con la
formazione del sistema limbico, ovvero di nuove strutture cerebrali che,
come abbiamo visto in precedenza, includono l’ippocampo (per i ricordi),
l’amigdala (per le emozioni) e il talamo (per le informazioni sensoriali).
Tutte queste strutture forniscono al cervello nuovi parametri, sulla cui base
creare un modello di mondo in relazione agli altri. Il numero e il tipo di
sistemi di riscontro possono variare.
Il livello 2 di coscienza si definisce in base al numero di anelli di
retroazione necessari a un animale per interagire socialmente con i membri
del proprio gruppo. Per sfortuna, gli studi sulla coscienza animale sono
molto pochi, e quindi pochi sono i dati a nostra disposizione rispetto alla
varietà di modi in cui gli animali comunicano tra loro.
Approssimativamente, possiamo descrivere il livello 2 della coscienza
prendendo in considerazione il numero di animali appartenenti al proprio
branco o alla propria tribù e poi elencare le forme di interazione emotiva
che si instaurano tra di essi: per esempio, riconoscere i rivali e gli alleati,
creare legami, rendere favori, stabilire coalizioni, comprendere la propria
posizione sociale e quella degli altri, rispettare i superiori, dimostrare forza
nei confronti dei membri inferiori, cospirare per innalzarsi sulla scala
sociale ecc. (dal livello 2 escludiamo gli insetti perché, sebbene mostrino
relazioni sociali con i membri del proprio alveare o gruppo, da quello che ci
è dato capire non provano emozioni).
Nonostante la mancanza di studi empirici sul comportamento animale,
possiamo tentare di creare una gerarchizzazione approssimativa del livello 2
elencando il numero totale di emozioni e comportamenti sociali che un
animale è in grado di esibire. Se, per esempio, un branco di lupi è composto
da 10 animali, e ciascuno di essi interagisce con tutti gli altri mostrando 15
diversi comportamenti ed emozioni, il livello di coscienza del lupo sarà
dato, secondo una prima approssimazione, dal prodotto di questi due fattori:
avremmo quindi un livello 2:150 di coscienza. Questo numero prende in
considerazione sia il numero di animali con cui il singolo lupo deve
interagire, sia il numero delle forme di comunicazione di cui è capace. Il
dato è frutto dell’approssimazione del numero totale di interazioni sociali
che l’animale può mostrare, ed è senza dubbio suscettibile di modifiche a
mano a mano che scopriamo di più sul suo comportamento.
(Dal momento che la natura non si evolve in maniera precisa e lineare,
esistono dei caveat, come per esempio il livello di coscienza di animali
sociali che sono anche cacciatori solitari3).

Livello 3 di coscienza: la simulazione del futuro

Secondo questo approccio, l’essere umano non è unico e la coscienza si


sviluppa in realtà secondo un continuum. Come disse Darwin: «La
differenza tra l’uomo e gli animali più evoluti è, per quanto grande,
certamente di grado e non di tipo»4. Ma ciò che separa la coscienza umana
da quella animale è che l’uomo è l’unico esemplare del regno animale a
comprendere il concetto di futuro: al contrario degli animali, noi ci
interroghiamo sulle conseguenze di un’azione con settimane, mesi o anche
anni di anticipo. È mia convinzione, quindi, che gli organismi di livello 3
siano in grado di creare un modello che rappresenta la propria posizione nel
mondo e di simulare la sua evoluzione nel futuro, generando predizioni
approssimative. Possiamo riassumere il tutto come segue:
Quella dell’uomo è una coscienza in grado di creare un modello di mondo che si evolve nel
tempo sulla base dell’esperienza pregressa. Ciò implica la capacità di mediare e valutare le
informazioni provenienti da numerosi anelli di retroazione e di prendere delle decisioni per
raggiungere i propri obiettivi.

Al livello 3 gli anelli di retroazione in gioco sono tanto numerosi che


l’organismo ha bisogno di un amministratore centrale in grado di analizzare
la loro evoluzione futura e di prendere una decisione finale. Ecco perché il
nostro cervello differisce da quello degli altri animali, in particolar modo
nelle maggiori dimensioni della corteccia prefrontale, e ci permette di
“prevedere” il futuro.
Daniel Gilbert, psicologo di Harvard, ha scritto: «La più grande
conquista del cervello umano è la sua capacità di immaginare oggetti e
situazioni che non esistono nel mondo reale, ed è questa capacità che ci
permette di elaborare il futuro. Come ha suggerito un filosofo, il cervello
dell’uomo è una “macchina anticipatrice”, e “creare il futuro” è la sua
funzione più importante»5.
Utilizzando le immagini delle scansioni cerebrali possiamo tentare di
identificare un’area precisa del cervello dove tali simulazioni si realizzano.
Gazzaniga ha scritto: «L’area 10 (lo strato granulare interno, o lamina IV)
nella corteccia prefrontale laterale dell’uomo è circa due volte più grande se
comparata a quella delle scimmie. Essa è coinvolta nei processi di memoria,
pianificazione, flessibilità cognitiva e pensiero astratto, nell’iniziazione e
nell’inibizione dei comportamenti appropriati e inappropriati,
nell’apprendimento di regole e nella scelta delle informazioni rilevanti da
tutto ciò che è percepito attraverso i sensi»6 (sebbene esistano delle
sovrapposizioni con altre aree del cervello, nel libro che state leggendo mi
riferisco a quest’area, dove si concentrano i processi decisionali, con il
termine corteccia prefrontale dorsolaterale).
Sebbene gli animali possano mostrare una ben definita comprensione
del proprio posto nello spazio, e alcuni di essi dimostrino di avere una certa
consapevolezza degli altri, non è chiaro se siano in grado di pianificare
sistematicamente il futuro e di comprendere il concetto di “domani”. La
maggior parte di loro, anche quelli sociali che possiedono un sistema
limbico ben sviluppato, reagiscono alle situazioni (per esempio, la presenza
di potenziali predatori o partner) basandosi principalmente sull’istinto,
piuttosto che pianificando il proprio futuro in maniera sistematica.
Preparandosi per andare in letargo, per esempio, non si può dire che i
mammiferi pianifichino il proprio comportamento: essi seguono in gran
parte l’istinto in risposta alla percezione di una diminuzione della
temperatura ambientale. In tal caso parliamo, quindi, di un anello di
retroazione che regola una fase annuale della vita dell’animale, in quanto la
coscienza di questi esseri è guidata da informazioni provenienti dai sensi, e
niente indica che vaglino in maniera sistematica piani e schemi d’azione
diversi. In effetti gli animali predatori, nel braccare una preda grazie
all’ingegno e all’inganno, anticipano gli eventi futuri, ma la loro
pianificazione è limitata all’istinto e alla durata della caccia. Anche i
primati sono esperti pianificatori a breve termine (per esempio nella ricerca
del cibo), ma non ci sono indicazioni che essi proiettino il proprio
comportamento più di qualche ora in avanti.
Gli esseri umani sono diversi. Sebbene in molte situazioni il nostro
comportamento sia guidato dall’istinto e dalle emozioni, siamo
costantemente impegnati nell’analisi e nella valutazione delle informazioni
che provengono dai nostri molteplici anelli di retroazione, e lo facciamo
con simulazioni che talvolta eccedono la durata della nostra stessa vita,
proiettate addirittura a migliaia di anni nel futuro, con l’obiettivo di vagliare
le diverse possibilità disponibili e prendere la decisione migliore in grado di
realizzare il nostro intento.
Le ragioni per cui questa capacità si è evoluta sono molteplici. Per
prima cosa, poter “sbirciare” nel futuro rappresenta un enorme vantaggio
evolutivo in termini di capacità di sfuggire ai predatori, e trovare cibo e
partner. In secondo luogo, ci permette di valutare numerosi risultati
potenzialmente diversi, e scegliere il migliore. Terzo, il numero di anelli di
retroazione cresce in maniera esponenziale a mano a mano che si sale nella
gerarchia dei livelli: al livello 3 il cervello ha bisogno di un
“amministratore” centrale per valutare tutti i messaggi in entrata, spesso
contrastanti e in competizione tra loro. L’istinto non è più sufficiente: serve
un “ufficio” preposto che valuti tutti questi sistemi sulla base dei risultati
che è possibile ottenere da ciascuno di essi, simulandoli nel futuro. È
proprio questo ciò che distingue la coscienza dell’uomo da quella degli
animali: senza un amministratore, si verificherebbe il caos e il sistema
subirebbe un sovraccarico sensoriale.
Tutto questo si può dimostrare con un semplice esperimento. David
Eagleman ha descritto il comportamento del pesce spinarello: se si permette
a un esemplare femmina di invadere il territorio di un maschio,
quest’ultimo entrerà in uno stato confusionale7, per cui inizierà il rituale di
accoppiamento nel tentativo di accoppiarsi, e contemporaneamente cercherà
di difendere il proprio territorio e di attaccarla per ucciderla.
La stessa cosa succede con i topi. Mettiamo un elettrodo davanti a un
pezzo di formaggio e lasciamo che il topo si avvicini: se arriva a toccarlo,
l’elettrodo colpisce l’animale con una scossa elettrica. Uno dei suoi anelli di
retroazione spinge il topo a mangiare il formaggio, ma un altro lo avverte di
starne alla larga per evitare la scossa elettrica; modificando la posizione
dell’elettrodo, è possibile che il topo entri in confusione, diviso tra i due
sistemi in conflitto. Mentre l’uomo può contare su un amministratore
capace di valutare i pro e i contro di una situazione, il topo, il cui
comportamento è guidato da due sistemi ora in conflitto, si sposta avanti e
indietro (e ricorda il proverbio dell’asino che muore di fame perché
indeciso tra quale delle due identiche balle di fieno mangiare).
In che modo il cervello dell’uomo simula il futuro, di preciso? Il
cervello è sommerso da una grande quantità di dati sensoriali ed emotivi,
ma la chiave del nostro successo è la capacità di creare dei collegamenti
causali tra gli eventi: se si verifica A, allora si avrà B, ma se si verifica B,
allora potrebbero risultare C e D. Ciò dà il via a una reazione a catena,
creando una cascata di scenari potenziali, ciascuno ampiamente ramificato.
L’amministratore della corteccia prefrontale valuta i risultati di tali alberi
causali, e prende la decisione finale.
Poniamo di voler rapinare una banca: quanti scenari realistici siamo in
grado di simulare? Dobbiamo pensare ai diversi nessi causali che
coinvolgono la polizia, i passanti, i sistemi di allarme, le relazioni con i
complici, il traffico e il procuratore distrettuale: in altre parole, perché la
simulazione sia efficace, dobbiamo considerare centinaia di causalità.
Possiamo quindi descrivere questo livello di coscienza in maniera
algebrica, immaginando di chiedere a una persona di elaborare, per una
serie di situazioni date come quella descritta sopra, l’evoluzione futura degli
eventi, e calcolando la somma totale del numero dei nessi causali che è in
grado di creare (le cose sono un po’ più complicate di così, dal momento
che ogni persona può creare un numero illimitato di collegamenti causali
per una serie di situazioni immaginabili. Per evitare il problema, riduciamo
questo numero al numero medio ottenuto da un ampio gruppo di controllo:
come nel test per il QI, possiamo moltiplicare questo numero per 100. Il
livello di coscienza di una persona potrebbe quindi essere 3:100, e ciò
significherebbe che essa è in grado di simulare gli eventi futuri come una
persona media).
Riassumiamo i livelli di coscienza nel seguente diagramma:

LIVELLI DI COSCIENZA PER SPECIE DIFFERENTI

Livello Specie Parametro Struttura cerebrale


0 Piante Temperatura, luce Nessuna
1 Rettili Spazio Tronco cerebrale
2 Mammiferi Relazioni sociali Sistema limbico
3 Uomo Tempo (specie il futuro) Corteccia prefrontale
La tabella riassume la teoria dello spazio-tempo della coscienza. Definiamo quindi coscienza un
processo in grado di creare un modello di mondo utilizzando molteplici anelli di retroazione, che
agiscono secondo diversi parametri (spazio, tempo e relazioni sociali), il cui obiettivo è l’ottenimento
di un risultato. La coscienza dell’uomo ne è un esempio particolare: essa implica l’esistenza di un
sistema di mediazione dei diversi feedback che le permette di simulare l’evoluzione di un evento nel
futuro sulla base delle esperienze passate.

(Notiamo qui che le categorie proposte corrispondono all’incirca ai


livelli di evoluzione che troviamo in natura, ovvero rettili, mammiferi e
umani. Tuttavia esistono delle zone grigie, come animali che possiedono
limitati aspetti dei diversi livelli di coscienza, altri che possiedono una
rudimentale capacità di pianificazione, o ancora singole cellule che
comunicano tra loro. La tabella vuole solo presentare un quadro globale
dell’organizzazione della coscienza nel regno animale).

Che cos’è l’umore? Perché abbiamo delle emozioni?

Tutte le teorie devono essere falsificabili. La sfida che si pone alla teoria
dello spazio-tempo della coscienza è quella di riuscire a spiegare tutti gli
aspetti della coscienza umana, dal momento che se ci sono processi
cognitivi che non riesce a spiegare, la teoria può dirsi confutata. Si potrebbe
obiettare che il nostro senso dell’umorismo sia tanto effimero e
donchisciottesco da trascendere qualsiasi spiegazione: trascorriamo una
gran quantità di tempo a ridere con gli amici o davanti a un comico, e
tuttavia sembra che l’umorismo non abbia niente a che fare con la
simulazione del futuro. Ma consideriamo questo: in una barzelletta, gran
parte del divertimento sta nella battuta finale.
Quando ascoltiamo una storiella non possiamo fare a meno di prevedere
come andrà a finire e completare il racconto da soli (anche se
inconsapevolmente). Conosciamo a sufficienza il mondo fisico e quello
sociale per anticipare la fine della storia, ma scoppiamo a ridere quando la
battuta finale ci porta a una conclusione del tutto inaspettata. L’essenza
dell’umorismo sta nella sorpresa data dal disallineamento tra la nostra
simulazione del futuro e la conclusione (ed è un aspetto importante dal
punto di vista evolutivo. Per cui avere un senso dell’umorismo ben
sviluppato riflette il nostro livello 3 di coscienza e intelligenza, ovvero la
capacità di simulare eventi futuri).
Al comico americano W.C. Fields fu chiesto cosa ne pensasse
dell’educazione dei giovani: «Crede che i giovani debbano essere saper
presi?» «Certamente,» rispose lui «a calci».
La battuta è divertente perché ci immaginiamo che la risposta si debba
riferire, in qualche modo, alla pedagogia: W.C. Fields propone invece un
futuro del tutto diverso, che prevede un uso socialmente inappropriato della
forza (è ovvio che quando spieghiamo una battuta essa perde la sua forza
perché avevamo già simulato diverse situazioni possibili nella nostra testa).
Ciò spiega anche quello che tutti i comici sanno già: il segreto
dell’umorismo sono i tempi comici. Se la battuta arriva troppo in fretta, il
cervello non ha il tempo fare una previsione e perde la sensazione di
sorpresa. Se arriva troppo tardi, il cervello ha già avuto il tempo di simulare
diverse possibilità, e ancora una volta si perde il senso dell’imprevisto.
(La risata, chiaramente, ha altre funzioni, come quella di legare con i
compagni della propria cerchia: in realtà utilizziamo il senso dell’umorismo
per valutare il carattere di chi ci sta intorno, un processo essenziale per
determinare il nostro status all’interno della società. Ridere contribuisce
quindi a definire la nostra posizione dell’ambiente sociale, ovvero il livello
2 di coscienza).

Perché giochiamo e spettegoliamo?

Anche attività in apparenza del tutto inutili, come il pettegolezzo e il


gioco, devono poter essere spiegate all’interno di questa cornice (se un
marziano visitasse un’edicola terrestre e ne vedesse gli espositori,
tracimanti tonnellate di giornali scandalistici, giungerebbe alla conclusione
che il pettegolezzo è l’attività principale degli esseri umani, e questa
osservazione non sarebbe troppo lontana dalla realtà).
Dal momento che i complessi meccanismi delle interazioni umane sono
in cambiamento costante, le chiacchiere sono essenziali alla sopravvivenza
in quanto ci aiutano a dare un senso al nostro terreno sociale, anch’esso in
costante evoluzione. Pur essendo, questo, un compito del livello 2, quando
veniamo a conoscenza di un pettegolezzo cominciamo subito ad elaborarne
delle simulazioni per tentare di capire quali effetti potrebbe avere sulla
nostra posizione sociale, e da qui subentra il livello 3. Migliaia di anni fa il
pettegolezzo era l’unico modo per venire a conoscenza di informazioni
vitali che riguardavano la nostra tribù: la vita spesso dipendeva dalla
conoscenza dell’ultimo “gossip”.
Anche qualcosa di superfluo come il “gioco” è un aspetto essenziale
della coscienza. Se chiedete a un bambino perché ami giocare, la risposta
sarà “perché è divertente”, ma ciò non porterebbe altro che alla domanda
successiva: e perché è divertente? Spesso quando i bambini giocano
cercano di ripetere in forma semplificata le complesse interazioni degli
adulti: la società umana è estremamente complessa, troppo per il cervello in
via di sviluppo di un bambino, quindi egli ne elabora dei modelli
semplificati mettendo in scena rappresentazioni, come “dottore e malato”,
“guardie e ladri” e “la scuola”. Ciascun gioco è un modello che permette ai
bambini di fare esperienza con un piccolo segmento del comportamento
adulto ed elaborarne delle simulazioni (allo stesso modo, quando gli adulti
giocano a poker il cervello è costantemente indaffarato a creare i modelli di
carte in mano agli avversari, per poi proiettarli nel futuro grazie ai dati in
suo possesso, come la personalità dei giocatori e la loro capacità di barare.
Il segreto di giochi come gli scacchi, le carte e le scommesse è la capacità
di simulare il futuro. Gli animali, che vivono nel presente, non sono bravi a
giocare, specie se si tratta di giochi che implicano una pianificazione. I
cuccioli dei mammiferi, in effetti, si impegnano in una forma di gioco, ma
sono perlopiù attività pensate per esercitarsi, saggiare la forza degli altri,
fare esperienza di lotte future, e stabilire la gerarchia sociale da cui
dipenderà, per esempio, l’ordine con cui potranno cibarsi).
La mia teoria dello spazio-tempo della coscienza potrebbe aiutare a fare
luce anche su un altro argomento controverso: l’intelligenza. Sebbene i
fautori del test del QI sostengano che sia uno strumento in grado di
misurarla, con esso in realtà non otteniamo nessuna definizione di
intelligenza. Qualche detrattore ha cinicamente sostenuto, e non a torto, che
il test del QI misuri “quanto siamo bravi a eseguire un test del QI”; questo
tipo di test è stato inoltre criticato per la sua forte influenza culturale. Nella
nuova cornice, invece, l’intelligenza può essere vista come la complessità
delle simulazioni del futuro che una persona è in grado di creare. Un
maestro del crimine, quindi, che potrebbe aver abbandonato la scuola,
essere in pratica un analfabeta e fallire miseramente un test del QI, potrebbe
comunque superare in abilità le forze dell’ordine: raggirare la polizia
significherebbe soltanto essere in grado di elaborare simulazioni del futuro
più sofisticate.

Livello 1: il flusso di coscienza


Gli esseri umani sono, con ogni probabilità, gli unici organismi su
questo pianeta in grado di operare a tutti i livelli della coscienza. Con la
risonanza magnetica possiamo analizzare le diverse strutture coinvolte in
ciascuno di essi.
Nell’uomo, il flusso di coscienza a livello 1 è in pratica rappresentato
dall’interazione tra la corteccia prefrontale e il talamo. Quando facciamo
una passeggiata nel parco percepiamo il profumo delle piante, la brezza
leggera, l’immagine del sole, ecc. I nostri sensi trasmettono i segnali al
midollo spinale, al tronco cerebrale e poi al talamo, e quest’ultimo
reindirizza i segnali alle diverse aree corticali del cervello, operando come
una stazione di ritrasmissione. L’immagine del parco, per esempio, è inviata
alla corteccia occipitale nella parte posteriore del cervello, mentre le
sensazioni tattili prodotte dal vento sono trasmesse al lobo parietale. I
segnali sono elaborati nelle appropriate aree corticali e poi spediti alla
corteccia prefrontale, dove prendiamo coscienza di tutte queste sensazioni.
Figura 7. Al livello 1 della coscienza le informazioni sensoriali viaggiano attraverso il tronco
cerebrale e il talamo, per raggiungere le diverse aree corticali del cervello e, alla fine, la corteccia
prefrontale (Jeffrey L. Ward).

Troviamo illustrato tutto ciò nella figura 7.

Livello 2: trovare il nostro posto nella società

Mentre il livello 1 utilizza le sensazioni per creare un modello della


nostra posizione fisica nello spazio, il livello 2 crea un modello del nostro
posto nella società.
Immaginiamo di andare a un ricevimento a cui siano presenti persone
importanti per la nostra carriera: mentre osserviamo la sala nel tentativo di
identificare i colleghi, nel nostro cervello si verificherà un’intensa
interazione tra l’ippocampo (che elabora i ricordi), l’amigdala (che elabora
le emozioni) e la corteccia prefrontale (che mette insieme tutte queste
informazioni).

Figura 8. Il sistema limbico genera ed elabora le emozioni. Al livello 2 le informazioni sensoriali


investono il cervello come un bombardamento costante: in tal senso, le emozioni sono risposte
immediate a segnali di emergenza provenienti dal sistema limbico, che non necessitano
dell’elaborazione dalla corteccia prefrontale. Anche l’ippocampo è importante per la formazione dei
ricordi: il livello 2, in pratica, implica la reazione dell’amigdala, dell’ippocampo e della corteccia
prefrontale (Jeffrey L. Ward).

A ciascuna immagine il nostro cervello associa in modo automatico


un’emozione, come felicità, paura, rabbia o gelosia, ed elabora le emozioni
nell’amigdala.
Se tra gli invitati scorgiamo il nostro più acerrimo rivale, che
sospettiamo ci stia pugnalando alle spalle, l’amigdala elaborerà l’emozione
della paura e trasmetterà con urgenza un messaggio alla corteccia
prefrontale, che a sua volta la modificherà in un segnale di potenziale
pericolo. Contemporaneamente, il sistema endocrino riceve un segnale e
inizia a rilasciare nel sangue vari ormoni, tra cui l’adrenalina, aumentando il
battito cardiaco e preparandoci a una possibile risposta di attacco o fuga.
Tutto questo è illustrato nella figura 8.
Oltre al semplice riconoscimento delle altre persone, il nostro cervello
possiede l’incredibile capacità di indovinare ciò a cui gli altri stanno
pensando. La cosiddetta teoria della mente, proposta per la prima volta dal
David Premack dell’università della Pennsylvania, è la capacità di inferire i
pensieri degli altri. In una società complessa come la nostra chiunque abbia
la capacità di indovinare in maniera corretta le intenzioni, le motivazione e i
piani degli altri membri del gruppo possiede un incredibile vantaggio in
termini di sopravvivenza. La teoria della mente ci permette di stringere
alleanze, isolare i nemici e rinforzare i legami, aumentando così, in maniera
significativa, il nostro potere e le nostre possibilità di sopravvivenza. Alcuni
antropologi credono addirittura che la padronanza della teoria della mente
abbia svolto un ruolo essenziale nell’evoluzione del cervello.
Ma come si realizza tale capacità? Nel 1996 la scoperta dei neuroni
specchio da parte di Giacomo Rizzolatti, Leonardo Fogassi e Vittorio
Gallese ha cominciato a fornire degli indizi. Questi neuroni si attivano sia
quando stiamo svolgendo un’azione sia quando vediamo la stessa azione
eseguita da un’altra persona (ed essi sono coinvolti anche nelle emozioni:
quando ne proviamo una pensiamo che chi ci sta di fronte stia provando la
stessa cosa).
I neuroni specchio sono fondamentali nei processi di imitazione ed
empatia, dotandoci della capacità di ripetere compiti complessi eseguiti da
altri e, allo stesso tempo, di provare anche le stesse emozioni di chi è
impegnato in quel determinato compito. Essi, con tutta probabilità, sono
stati essenziali per l’evoluzione dell’uomo, perché la cooperazione è
essenziale ai fini della coesione della tribù.
I neuroni specchio sono stati scoperti per la prima volta nelle aree
premotorie delle scimmie, e da allora sono stati identificati anche nella
corteccia prefrontale degli esseri umani. Ramachandran è certo che questa
classe di neuroni abbia svolto un ruolo essenziale nella creazione del nostro
senso di auto-consapevolezza, e aggiunge: «Sono convinto che i neuroni
specchio saranno per la psicologia quello che il DNA è stato per la biologia:
costituiranno il paradigma di uno studio unificato e ci aiuteranno a spiegare
una serie di processi mentali che fino ad oggi sono rimasti misteriosi, e
inaccessibili agli esperimenti»8 (va notato, a questo riguardo, che tutti i
risultati scientifici sono stati testati e riconfermati, e non c’è dubbio che
alcuni neuroni esibiscano questo comportamento fondamentale per
l’empatia, l’imitazione, ecc.; tuttavia si dibatte sulla loro identità: alcuni
sostengono che tali comportamenti possano essere comuni a molti neuroni,
e che quindi non esista una singola classe dedicata).

Livello 3: la simulazione del futuro

Il livello 3 è quello più alto, ed è associato soprattutto alle capacità


dell’Homo sapiens: a tale livello il modello del mondo è ulteriormente
elaborato per creare delle predizioni future, che si ottengono analizzando i
ricordi passati di persone ed eventi, e creando tra loro dei collegamenti che
formano un albero causale. Osservando i diversi volti delle persone al
ricevimento ci potremmo chiedere: come questo individuo mi può aiutare?
In che modo il pettegolezzo che gira sulla bocca di tutti si andrà esaurendo?
C’è qualcuno che ce l’ha con me?
Mettiamo che abbiate perso il lavoro e che ne stiate cercando un altro.
Parlando con le persone al ricevimento la vostra mente è impegnata a
elaborare i diversi scenari futuri possibili con ciascuna di loro. Potreste
chiedervi: come posso fare impressione? Quali argomenti devo portare
avanti per presentare il mio lato migliore? Questa persona può offrirmi un
lavoro?
Figura 9. La simulazione del futuro, al centro dell’attività del livello 3, è mediata dalla corteccia
prefrontale dorsolaterale, in competizione con il centro del piacere e la corteccia orbitofrontale (che
agisce per controllare gli impulsi). Il processo di simulazione del futuro vero e proprio si realizza
quando la corteccia prefrontale accede ai ricordi del passato per prevedere l’evoluzione degli eventi
nel tempo (Jeffrey L. Ward).

Alcuni recenti studi di imaging cerebrale hanno in parte fatto luce sui
meccanismi che permettono al cervello di simulare il futuro, processo che
sembra originarsi principalmente dall’attività della corteccia prefrontale
dorsolaterale – l’amministratore centrale – tramite i ricordi del passato. I
risultati di tali simulazioni possono essere desiderabili, e in questi casi si
attiveranno i centri del piacere (nel nucleo accumbens, localizzato vicino
all’amigdala, e nell’ipotalamo), o negativi, e richiedere l’intervento della
corteccia orbitofrontale. Alla fine sarà la corteccia prefrontale dorsolaterale
a mediare e a prendere la decisione finale, come descritto nella figura 9
(ricordo che alcuni neurologi questa battaglia assomiglia alle dinamiche
freudiane tra ego, id e superego).

Il mistero dell’autoconsapevolezza

Se la teoria dello spazio-tempo della coscienza è corretta, essa ci


permette di definire in maniera rigorosa anche l’autoconsapevolezza. Al
posto di riferimenti vaghi e circolari, dovremmo essere in grado di proporne
una definizione verificabile e utilizzabile. Definiamo l’autoconsapevolezza
come:
La creazione di un modello del mondo e la sua simulazione nel futuro in cui noi stessi
compariamo.

Gli animali, quindi, possiedono una certa autoconsapevolezza, dal


momento che devono sapere dove si trovano per sopravvivere e riprodursi;
ma tale aspetto è essenzialmente limitato all’istinto.
La maggior parte degli animali, quando posti di fronte a uno specchio,
non sanno riconoscersi nell’immagine di fronte e la attaccano (il “test dello
specchio”, che possiamo far risalire a Darwin). Tuttavia alcuni, come gli
elefanti, le grandi scimmie, i delfini dal naso a bottiglia, le orche e le gazze
ladre sono in grado di capire che l’immagine che vedono allo specchio
rappresenta loro stessi.
Gli esseri umani, tuttavia, hanno fatto un gigantesco passo in avanti, dal
momento che sono di continuo impegnati a elaborare scenari futuri in cui
appaiono come attori principali: cerchiamo costantemente di immaginare
come ci comporteremmo in situazioni diverse (andare a un appuntamento,
candidarci per un nuovo lavoro, cambiare carriera), nessuna delle quali è
determinata dall’istinto. È molto difficile impedire al nostro cervello di
simulare il futuro, sebbene in tal senso siano stati elaborati alcuni metodi
complessi (per esempio, la meditazione).
Il sogno ad occhi aperti è fondamentalmente la recita del nostro ruolo
all’interno di diversi scenari possibili, finalizzati all’ottenimento di un
determinato risultato che mettiamo in scena nel nostro cervello. Dal
momento che siamo orgogliosi di conoscere i nostri limiti e i nostri punti di
forza, non è difficile porci all’interno del modello e schiacciare il tasto
“play”, iniziando a recitare in uno spettacolo virtuale.
Dove sono “io”?

Esiste con ogni probabilità una parte specifica del cervello il cui lavoro
consiste nell’unificare i segnali provenienti dai due emisferi e creare una
sensazione di sé uniforme e coerente. Todd Heatherton, psicologo della
Dartmouth University, è convinto che questa regione si trovi all’interno
della corteccia prefrontale, e più nello specifico nella corteccia prefrontale
mediale. Il biologo Carl Zimmer ha scritto: «Rispetto al senso del “sé”, la
corteccia prefrontale mediale potrebbe svolgere lo stesso ruolo che
l’ippocampo svolge per la memoria (…): costruire un senso unificato di chi
siamo»9. Dunque, tale struttura potrebbe essere la porta d’ingresso al
concetto di “io”, in altre parole, la regione del cervello che fonde, integra e
architetta un racconto unificato della nostra identità (ma ciò non vuol dire
che la corteccia prefrontale mediale sia l’omuncolo che siede nel nostro
cervello e che controlla ogni cosa).
Se questa teoria è vera, allora quando riposiamo o sogniamo ad occhi
aperti e pensiamo a noi stessi o ai nostri amici, il cervello dovrebbe essere
più attivo del normale, anche quando altri parti delle regioni sensoriali del
cervello non lo sono; e le scansioni cerebrali indicano proprio questo.
Heatherton conclude: «Per la maggior parte del tempo in cui siamo
impegnati a sognare ad occhi aperti pensiamo a ciò che ci è capitato o a ciò
che pensiamo di altre persone, ovvero compiamo un’autoriflessione»10.
Secondo la nostra teoria dello spazio-tempo la coscienza nasce
dall’attività combinata delle diverse sottounità del cervello, che si trovano
tra loro in competizione per creare un unico modello di mondo. Eppure la
coscienza ci appare un fenomeno uniforme e continuo: com’è possibile che
tutti vivano una sensazione di “sé” continua, in cui un’unica entità è sempre
al comando?
Nel capitolo precedente abbiamo incontrato la difficile situazione dei
pazienti split-brain, i quali si trovano a combattere contro mani aliene
dotate di una mente propria. Sembra che il cervello di queste persone ospiti
due centri di coscienza: in che modo ciò può generare un unico e coeso
senso del “sé”?
Ho posto questa domanda a una persona che potrebbe avere la
risposta11. Come accennato, Micheal Gazzaniga ha studiato lo strano
comportamento dei pazienti split-brain: nel corso di vari decenni ha
scoperto che quando il loro emisfero sinistro era messo di fronte al fatto che
all’interno dello stesso cranio sembravano risiedere due centri separati della
coscienza, esso tendeva a dare spiegazioni assurde, senza preoccuparsi di
quanto strane potessero sembrare. Gazzaniga è convinto che ciò crei la falsa
sensazione, comune a tutti, di essere individui unici e unificati. Ha chiamato
l’emisfero sinistro l’interprete: la sua funzione sarebbe quella di creare idee
per coprire le incongruenze e le lacune della nostra coscienza.
In un esperimento con un paziente split-brain, Gazzaniga aveva
presentato la parola rosso solo all’emisfero sinistro e la parola banana solo
a quello destro (l’emisfero sinistro, dominante, non poteva essere quindi
consapevole dell’idea di banana). Al soggetto era poi stato chiesto di
prendere in mano una penna con la mano sinistra (controllata dall’emisfero
destro) e di disegnare qualcosa: ovviamente il paziente aveva disegnato una
banana. L’emisfero destro agiva così perché aveva visto la banana, ma il
cervello sinistro non poteva averne idea.
Al soggetto era poi stato chiesto di spiegare perché avesse disegnato
proprio quell’oggetto. Dal momento che il linguaggio è controllato solo
dall’emisfero sinistro, e che questo non poteva sapere niente della banana, il
paziente avrebbe dovuto rispondere “non lo so”. Invece disse: «È più
semplice disegnare con questa mano, perché con questa mano è più facile
buttare giù qualcosa». Secondo Gazzaniga l’emisfero sinistro stava
cercando di trovare una spiegazione a un fatto incongruente, perché il
paziente non aveva idea di come mai la sua mano destra avesse disegnato
una banana.
Gazzaniga conclude: «È compito dell’emisfero sinistro realizzare quella
inclinazione tutta umana di trovare un ordine al caos, di far rientrare tutti i
fatti in una storia coerente e di trovare un contesto a tutto. Sembra che
questo emisfero sia portato a cercare di dare una struttura al mondo anche di
fronte a prove evidenti dell’inesistenza di uno schema»12.
Da qui proviene il nostro senso del “sé”. Sebbene la coscienza sia un
patchwork di tendenze contrastanti e spesso in contraddizione, l’emisfero
sinistro ignora tali incongruenze e riempie le lacune più evidenti per
garantire l’esistenza di un senso uniforme di “io”. In altre parole, esso
trascorre il suo tempo a inventare frottole, alcune delle quali strampalate e
assurde, per dare un senso al mondo: si chiede “perché?”, e inventa
spiegazioni, anche se la domanda non ha una risposta.
(Esiste probabilmente una ragione evolutiva per cui l’uomo ha
sviluppato un cervello diviso in due: un bravo amministratore spesso
incoraggia i propri assistenti a sostenere punti di vista opposti in una
discussione, per stimolare un dibattito intenso e meditato, e la maggior parte
delle volte la risposta giusta emerge dall’interazione tra idee sbagliate. Allo
stesso modo, i due emisferi si completano l’un l’altro, fornendo un’analisi
pessimistica/ottimistica o analitica/olistica della stessa questione. Come
vedremo, nel caso di alcune malattie mentali questo scambio di idee tra i
due emisferi non funziona nel modo corretto).

Ora che abbiamo una teoria della coscienza che funziona, è venuto il
momento di utilizzarla per capire in che modo si evolveranno le
neuroscienze. Oggi abbiamo a nostra disposizione un vasto e straordinario
repertorio di esperimenti neuroscientifici che stanno modificando in
maniera fondamentale l’intero panorama scientifico: grazie
all’elettromagnetismo gli scienziati sono in grado di esplorare la natura dei
pensieri, inviare messaggi telepatici, controllare gli oggetti con la telecinesi,
registrare i ricordi e, forse, farci diventare più intelligenti.
L’applicazione pratica più immediata di questa nuova tecnologia è
qualcosa che una volta era considerata assolutamente impossibile: la
telepatia.

1
Steven Pinker, Come funziona la mente, Milano, Mondolibri 2001, pp. 651-65 (ed. orig. How the
Mind Works, 1997).
2
“The Biological Bulletin”, n. 3, dicembre 2008, p. 216.
3
Sono d’obbligo, quindi, alcune precisazioni. I gatti selvatici, per esempio, sono animali sociali
che, allo stesso tempo, non cacciano in branco: il numero di animali del branco è quindi pari a 1,
ma solo per quanto riguarda la caccia. Quando arriva la stagione degli accoppiamenti i gatti
selvatici mostrano complessi rituali di corteggiamento, di cui il livello 2 non può non tener conto.
Quando poi la femmina del gatto selvatico partorisce una cucciolata che deve essere curata e
sfamata, il numero di interazioni sociali aumenta di conseguenza. Anche nel caso dei cacciatori
solitari, quindi, il numero dei membri della specie che interagiscono tra loro non può essere 1, e il
numero totale di anelli di retroazione può essere piuttosto elevato. Inoltre, se il numero di membri
di un branco diminuisce, potrebbe sembrare che il livello 2 si riduca di conseguenza. Per tenerne
conto, dobbiamo quindi introdurre il concetto di un livello 2 medio che sia comune per l’intera
specie, oltre a uno specifico livello 2 di coscienza per il singolo animale. Il livello 2 medio per
una determinata specie non cambia se il branco si ridimensiona, perché è comune all’intera
specie, ma cambia il livello 2 del singolo individuo (che ne descrive l’attività mentale e della
coscienza). Riferendosi all’uomo, il livello 2 medio deve tenere in considerazione il numero di
Dunbar (150) ovvero il numero approssimativo di persone del nostro gruppo sociale di cui
possiamo tenere traccia. Il livello 2 dell’uomo inteso come specie sarà quindi il risultato del
numero totale di emozioni e comportamenti distinti che utilizziamo per comunicare, moltiplicato
per 150 (mentre i singoli individui possono mostrare un livello 2 di coscienza molto diverso, dal
momento che la cerchia di amici e il modo con cui interagiamo con essi può variare in maniera
considerevole). Notiamo qui che anche alcuni organismi appartenenti al livello 1 (come gli insetti
e i rettili) possono mostrare dei comportamenti sociali. Le formiche, quando si scontrano,
scambiano tra loro informazioni tramite scie chimiche, e le api utilizzano la “danza” per
comunicare la posizione dei fiori. I rettili possiedono addirittura un sistema limbico primitivo ma,
in generale, come detto, questi animali non sembrano provare alcuna emozione.
4
Michael S. Gazzaniga, Human: quel che ci rende unici, Raffaello Cortina, Milano 2009, p. 27
(ed. orig. Human, 2008).
5
Daniel Gilbert, Stumbling on Happiness, Alfred A. Knopf, New York 2006, p. 5.
6
Gazzaniga, Human, cit., p. 20.
7
Eagleman, In incognito, cit., p. 144.
8
John Brockman, The Mind: Leading Scientists Explore the Brain, Memory, Personality, and
Happiness, Harper Perennial, New York 2011, p. XIII.
9
Floyd Bloom, Best of the Brain from Scientific American: Mind, Matter, and Tomorrow’s Brain,
Dana Press, New York 2007, p. 51.
10
Ivi, p. 51.
11
Intervista radiofonica a Micheal Gazzaniga nel settembre 2012, per Science Fantastic.
12
Gazzaniga, Human, cit., p. 85.
Parte II
Il potere della mente sulla materia
Capitolo 3
Telepatia. A cosa pensi?

Che ci piaccia o meno, il cervello è una macchina. Gli scienziati sono arrivati a questa
conclusione non perché sono dei guastafeste meccanicisti, ma perché hanno accumulato le prove che
ogni aspetto della coscienza possa essere fatto risalire al cervello.
Steven Pinker

Alcuni storici sono convinti che Harry Houdini sia stato il più grande
mago mai vissuto. Le sue mirabolanti fughe da casse chiuse e camere
sigillate, con acrobazie che sfidavano la morte, hanno lasciato senza fiato i
suoi spettatori, ed era capace di far sparire le persone e farle riapparire nei
posti più inaspettati. Sapeva inoltre leggere la mente, o almeno così
sembrava.
Houdini provò in tutti modi a spiegare che le sue magie erano
un’illusione, una serie di abili giochi di prestigio: lui stesso ricordava al suo
pubblico che leggere la mente è impossibile. Oltraggiato dai sedicenti
maghi che ingannavano i propri facoltosi mecenati con scadenti trucchi da
salotto e sedute spiritiche, decise di viaggiare per tutto il paese al fine di
smascherarli, e promise che sarebbe stato in grado di copiare qualsiasi
numero di lettura del pensiero eseguita da questi ciarlatani privi di scrupoli.
Fu anche membro del comitato organizzato da “Scientific American” che
offriva una generosa ricompensa a chiunque fosse stato in grado di provare
di avere dei poteri psichici (ricompensa che nessuno si è mai aggiudicato).
Houdini credeva che la telepatia fosse impossibile; ma la scienza sta
dimostrando che si sbagliava: infatti, oggi essa è oggetto di intenso studio
nelle università di tutto il mondo, e gli scienziati sono già riusciti a
utilizzare dei sensori per leggere e decifrare, direttamente dal cervello,
singole parole, immagini e pensieri. Tali scoperte potrebbero cambiare il
modo di comunicare con i pazienti vittime di ictus o di incidenti, “bloccati”
all’interno dei propri corpi, incapaci di articolare i pensieri se non tramite il
movimento delle palpebre. Ma questo è solo l’inizio: la telepatia potrebbe
cambiare radicalmente il modo con cui interagiamo con i computer e il
mondo.
In un recente rapporto della IBM, il famoso Next 5 in 5 forecast1, in cui
gli scienziati dell’azienda propongono gli sviluppi più rivoluzionari da loro
previsti per i prossimi cinque anni, si dichiara che presto saremo in grado di
comunicare mentalmente con i computer, magari sostituendo mouse e
comandi vocali. Questo significherebbe utilizzare il potere della mente per
telefonare, pagare le bollette, guidare, prendere appuntamenti e creare
meravigliose sinfonie e opere d’arte. Le possibilità sono infinite, e sembra
che tutti, dalle aziende di computer agli educatori, dagli sviluppatori di
videogiochi agli studi di registrazione, fino al Pentagono, stiano facendo
convergere i propri interessi verso questa tecnologia.
La telepatia vera, quella di cui leggiamo nei libri di fantascienza e nei
fantasy, non è possibile senza l’aiuto di un assistente. Un elettrone emette
una radiazione elettromagnetica quando subisce un’accelerazione, e ciò vale
anche per gli elettroni che oscillano all’interno del cervello emettendo onde
radio. Questi segnali, però, sono troppo deboli per essere percepiti dagli
altri, e anche se fossimo in grado di intercettarli non sapremmo come
interpretarli: se però l’evoluzione non ci ha dotati della capacità di decifrare
tale insieme casuale di segnali, i computer possono farlo. Grazie alla
tecnologia EEG gli scienziati sono stati in grado di ottenere una grossolana
approssimazione dei pensieri di una persona: ai soggetti dell’esperimento
veniva fatto indossare un casco dotato di sensori EEG, ed era richiesto di
concentrare la propria attenzione su alcune immagini, per esempio quella di
un’automobile. Per ogni immagine venivano registrati i segnali EEG
generati dal suo cervello, e così è stato possibile creare un rudimentale
dizionario del pensiero, basato sulle singole corrispondenze. Quando poi a
quest’ultimo veniva mostrata l’immagine di un’altra auto, il computer era in
grado di riconoscere lo schema EEG generato, come quello associato al
pensiero di un’automobile.
Il vantaggio della tecnologia EEG è che i sensori utilizzati sono poco
invasivi e di facile applicazione: basta indossare un casco contenente un
sacco di elettrodi e la macchina EEG è in grado di identificare i segnali
elettrici generati dal cervello con una precisione temporale pari al
millisecondo (il suo problema, come abbiamo visto, è che le onde
elettromagnetiche si deteriorano quando attraversano il cranio, ed è difficile
localizzarne la fonte precisa). Questo metodo è in grado di dirci se il
soggetto stia pensando a un’automobile o a una casa, ma non di ricreare
l’immagine dell’automobile. Ecco dove entra in scena il lavoro di Jack
Gallant.

Video della mente

L’epicentro di gran parte di questa ricerca è l’università della California,


a Berkeley, la stessa dove anni fa anch’io ho completato il mio dottorato di
ricerca in fisica teorica. Ho avuto il piacere di visitare il laboratorio del
dottor Gallant2 il cui gruppo ha ottenuto un risultato una volta considerato
impossibile: videoregistrare i pensieri delle persone. «Si tratta di un
gigantesco passo avanti nella ricostruzione dell’immaginario della mente,
su cui stiamo letteralmente aprendo una finestra» mi ha detto Gallant3.
Visitando quei laboratori, la prima cosa che ho notato è stato il gruppo
di giovani ed entusiasti dottorandi e ricercatori accalcati di fronte agli
schermi dei computer, intenti a scrutare le immagini video ricostruite a
partire dalle scansioni cerebrali. Parlando con il team di Gallant mi è
sembrato di essere testimone di un evento storico.
Gallant mi ha spiegato che, per prima cosa, si fa lentamente entrare il
soggetto, sdraiato su una barella con la testa rivolta in avanti, in un’enorme
macchina RM di ultima generazione (che può costare più di tre milioni di
dollari). Al soggetto sono poi mostrati diversi video, come quelli che si
possono trovare su Youtube; per raccogliere una quantità di dati sufficiente,
è necessario che la persona rimanga a guardare questi filmati per diverse
ore, un compito davvero arduo. Ho chiesto a Shinji Nishimoto, uno dei
ricercatori, come riuscissero a trovare dei volontari disponibili a stare fermi
ore a guardare frammenti di video: mi ha risposto che le persone lì presenti,
studenti e ricercatori, avevano volontariamente deciso di fare da cavie per le
loro stesse ricerche.
Mentre la persona osserva i video, la macchina RM ricrea l’immagine
tridimensionale del flusso ematico all’interno del cervello. L’immagine così
formata è una distesa di trentamila voxel, ovvero di punti che rappresentano
un punto di energia neurale ciascuno, e il cui colore corrisponde
all’intensità del segnale e del flusso sanguigno. I punti rossi indicano
un’attività neurale intensa, mentre i punti blu indicano un’attività più debole
(l’immagine finale assomiglia molto a un albero di Natale a cui sia stata
data la forma di un cervello: da essa risulta subito chiaro che il cervello,
mentre il soggetto osserva i filmati, sta concentrando la maggior parte della
propria energia nella corteccia visiva, posta nella parte posteriore del
cervello).
La macchina RM di Gallant è così potente da essere in grado di
identificare fra le due e le trecento regioni cerebrali diverse; per ognuna
riesce, in media, a realizzare immagini composte da un centinaio di punti
(uno degli obiettivi delle prossime generazioni di RM è offrire una
risoluzione ancora più accurata, aumentando il numero di punti per
regione).
All’inizio questo insieme di punti colorati in tre dimensioni sembrava
non aver alcun significato, ma dopo anni di ricerche Gallant e colleghi sono
riusciti a sviluppare una formula matematica che sta iniziando a identificare
le relazioni che intercorrono tra determinati aspetti dell’immagine (per
esempio i margini, la trama, l’intensità, ecc.) e i voxel che le compongono.
Se osserviamo il margine di un’area cerebrale, per esempio, possiamo
notare che separa un’area più chiara da una più scura, e che genera un
determinato schema di voxel. Grazie a tutti i soggetti impegnati nella
visione di un’enorme raccolta di filmati, la formula matematica è stata
definita facendo sì che il computer fosse in grado di capire in che modo
ogni singola immagine si converta in voxel RM, ed è stato possibile
stabilire una correlazione diretta tra alcuni schemi di voxel e le
caratteristiche di ciascuna immagine.
Adesso, quando a un soggetto è mostrato un altro filmato, il computer,
analizzando i voxel creati durante la registrazione RM, ricrea
un’approssimazione grossolana di ciò che egli stava guardando: il software
seleziona l’immagine che più si avvicina a ciò che il soggetto ha appeno
visto a partire da un centinaio di filmati che ha in memoria, dopodiché
unisce tra loro le immagini per creare un’approssimazione più precisa. In
questo modo il computer riesce a creare un filmato a bassa risoluzione
dell’immagine che si sta realizzando nella mente del soggetto. La formula
matematica di Gallant è tanto versatile da riuscire a ricostruire un’immagine
a partire da un insieme di voxel RM o, al contrario, da partire da
un’immagine e convertirla in voxel RM.
Ho avuto l’occasione di vedere il video realizzato dal gruppo di Gallant,
e vi posso assicurare che è stato strabiliante: sembrava di guardare,
indossando gli occhiali da sole, un film in cui comparissero volti, animali,
strade e palazzi. Sebbene si fossero persi i dettagli di ciascun volto o
animale, era possibile identificare con chiarezza il tipo di oggetto.
Non solo il programma è in grado di decodificare ciò che il soggetto sta
osservando, ma riesce anche a identificare e interpretare le immagini a cui
stiamo pensando. Immaginiamo che ci venga chiesto di pensare alla
Gioconda: da precedenti studi svolti tramite RM sappiamo che, anche se
non stiamo davvero guardando il dipinto con i nostri occhi, la nostra
corteccia visiva è attiva. Il programma di Gallant analizza i segnali cerebrali
mentre il soggetto sta pensando alla Gioconda e passa in rassegna i suoi
archivi di immagini alla ricerca dell’abbinamento più vicino. In un
esperimento a cui ho assistito, il computer selezionava un’immagine
dell’attrice Salma Hayek come l’approssimazione più stretta della
Gioconda. Certo, l’uomo medio è in grado di riconoscere centinaia di volti;
ma il fatto che un computer sia stato in grado di analizzare un’immagine
creata all’interno di un cervello, e che poi abbia scelto questo abbinamento
tra i milioni di immagini a sua disposizione, è pur sempre impressionante.
L’obiettivo è quello di creare un dizionario accurato che permetta di
abbinare un oggetto reale con il rispettivo schema cerebrale ottenuto
elaborando un’immagine di risonanza magnetica. In linea di massima un
abbinamento preciso è molto difficile da ottenere, e richiederà anni di
lavoro, ma alcune categorie di oggetti sono in realtà piuttosto semplici da
interpretare scegliendo tra una serie di immagini. Stanislas Dehaene del
Collège de France, a Parigi, stava esaminando alcune scansioni RM del
lobo parietale, l’area cerebrale deputata al riconoscimento dei numeri,
quando uno dei suoi giovani ricercatori gli ha detto che, con una rapida
occhiata allo schema RM, era in grado di dire quale stesse osservando il
paziente. Alcuni numeri infatti creano schemi particolari nelle scansioni
RM. Per Dehaene, «se consideriamo duecento voxel in quest’area e
osserviamo quali di essi siano attivi e quali no, possiamo costruire uno
strumento di apprendimento automatico che decodifichi il numero a cui sta
pensando il soggetto in quel momento»4.
Rimane aperta la domanda su quando potremo vedere filmati di buona
qualità dei nostri pensieri. Per sfortuna, quando una persona pensa a
un’immagine parte dell’informazione che riguarda l’oggetto pensato va
persa, e le scansioni del cervello lo confermano: se confrontiamo
un’immagine RM del cervello che osserva un fiore con un’immagine RM
del cervello che pensa a un fiore, è subito chiaro che la seconda immagine
presenta un’attivazione cerebrale molto inferiore rispetto alla prima; anche
se ci saranno grandi passi avanti nei prossimi anni, questa tecnologia non
sarà mai perfetta. Una volta ho letto la storia di un uomo che incontra il
genio della lampada: il genio gli offre di creare qualsiasi cosa lui sia in
grado di immaginare. Senza indugio, l’uomo chiede un’automobile di lusso,
un jet privato e un milione di dollari. All’inizio contempla i suoi doni in
estasi, ma osservandoli in dettaglio scopre che l’automobile e l’aereo sono
senza motore, l’immagine delle banconote è sfuocata e che è tutto
inutilizzabile. Questo perché i nostri ricordi sono solo un’approssimazione
della realtà.
Presto saremo, data la rapidità con cui gli scienziati stanno iniziando a
decodificare questi schemi cerebrali, in grado di leggere il pensiero e le
parole che ci passano per la mente?

Leggere la mente

In realtà, in un edificio vicino al laboratorio del dr. Gallant, Brian Pasley


e colleghi5 stanno ora letteralmente leggendo la mente, o quanto meno
hanno iniziato a farlo: Sara Szczepanski, una delle ricercatrici di Pasley, mi
ha spiegato in che modo siano in grado di identificare le parole a cui
pensiamo.
Questi scienziati utilizzano la tecnologia ECOG (elettrocorticogramma),
un significativo passo in avanti rispetto alla giungla di segnali prodotti dalle
scansioni EEG. Le scansioni ECOG non hanno rivali in quanto ad
accuratezza e risoluzione, perché i segnali sono registrati direttamente dalla
corteccia cerebrale e non devono attraversare la teca cranica. Il rovescio
della medaglia è che per posizionare una rete di 64 elettrodi contenuta in
una griglia di 10x10 centimetri direttamente sul cervello è necessario
rimuovere una porzione di cranio.
Per fortuna, i ricercatori hanno potuto portare avanti questi esperimenti
su un gruppo di pazienti epilettici che soffrivano di attacchi debilitanti: il
sensore ECOG è stato dunque posizionato durante le operazioni a cervello
aperto, eseguite dai medici della vicina università della California di San
Francisco.
Grazie all’elettrodo, i ricercatori hanno potuto registrare i segnali
cerebrali generati dal cervello dei pazienti mentre costoro erano impegnati
ad ascoltare parole diverse: in questo modo si è potuto creare un dizionario
di abbinamenti tra ciascuna parola e i rispettivi segnali cerebrali registrati
tramite l’elettrodo. In seguito, quando una parola è pronunciata, è possibile
osservare lo stesso schema elettrico ripetersi: tale corrispondenza significa
che, se anche il soggetto sta solo pensando a quella parola, il computer è in
grado di identificarne i segnali cerebrali caratteristici, e identificarla.
Grazie a questa tecnologia potremmo forse un giorno essere in grado di
comunicare per via telepatica: anche i pazienti paralizzati a causa di un
ictus potrebbero “parlare” attraverso un sintetizzatore vocale, in grado di
riconoscere gli schemi cerebrali delle singole parole.
Non sorprende quindi che le BMI (le interfacce neurali) siano diventate
un argomento scottante, e che diversi gruppi di lavoro in tutti gli Stati Uniti
stiano ora compiendo significativi passi avanti in questo campo. Nel 2011
gli scienziati dell’università dello Utah hanno ottenuto risultati simili6: in
questo caso, i ricercatori avevano posizionato delle griglie, ciascuna
contenente sedici elettrodi, su corteccia motoria facciale (che controlla i
movimenti della bocca, delle labbra, della lingua e del volto) e sull’area di
Wernicke, che elabora le informazioni linguistiche.
Al soggetto era poi stato chiesto di pronunciare dieci semplici parole,
come sì e no, caldo e freddo, fame e sete, ciao e arrivederci e più e meno.
Utilizzando un computer per registrare i segnali cerebrali generati quando
queste parole erano pronunciate, gli scienziati sono stati in grado di creare
ogni singola corrispondenza, per quanto grossolana, tra le parole e i segnali
elettrici provenienti dal cervello. Quando poi al paziente è stato chiesto di
pronunciarne alcune, i ricercatori sono stati in grado di identificarle con
un’accuratezza che andava dal 76 al 90 per cento, solo osservando il pattern
neurale generato. Il prossimo passo sarà utilizzare griglie con 121 elettrodi
per ottenere una risoluzione migliore.
In futuro questa tecnologia potrebbe tornare a vantaggio di individui che
soffrono di paralisi per via di ictus o a seguito di patologie come la malattia
di Lou Gehrig: essi sarebbero messi, così, nelle condizioni di poter
comunicare grazie al collegamento diretto tra cervello e computer.

Scrivere con la mente

Alla Mayo Clinic del Minnesota, Jerry Shih ha usato la tecnologia dei
sensori ECOG per permettere ai pazienti epilettici di imparare a scrivere
con la mente. La calibrazione dello strumento è semplice: per prima cosa al
paziente vengono mostrate delle lettere, chiedendogli di concentrarsi
mentalmente su ciascuna di esse; allo stesso tempo, un computer registra i
segnali che provengono dal cervello a mano a mano che questo le passa in
rassegna. Come per l’esperimento precedente, una volta creato questo
dizionario di associazioni univoche è semplice per il paziente pensare a una
lettera per poterla vederla trascritta sullo schermo, e questo solo grazie al
potere della mente.
Shih, a capo del progetto, sostiene che l’accuratezza di questo strumento
si avvicini al 100 per cento, ed è convinto che in futuro sarà possibile creare
un dispositivo che registri le immagini, e non solo le parole, elaborate dalla
mente del paziente. Ciò potrebbe rappresentare un vantaggio pratico per
artisti7 e architetti, ma il grosso punto debole della tecnologia ECOG è che,
come abbiamo detto, è necessario esporre chirurgicamente parte del
cervello.
Allo stesso tempo, grazie alla loro non invasività, stanno ora
comparendo sul mercato le “macchine da scrivere EEG”; pur non essendo
così precise o accurate come le macchine ECOG, hanno il vantaggio di
poter essere vendute liberamente. La Guger Technologies, una società
austriaca, ne ha di recente presentato un modello a una fiera commerciale:
secondo i responsabili8, per imparare a usare questo strumento, che è in
grado di trascrivere a una velocità di 5-10 parole al minuto, bastano
all’incirca dieci minuti.

Dettato e musica telepatici

La trasmissione di intere conversazioni potrebbe rappresentare il


prossimo passo, in grado di velocizzare l’intera comunicazione telepatica: il
problema, tuttavia, sta nella creazione di una mappa uno-a-uno tra le
migliaia di parole di una lingua e i rispettivi segnali EEG, MRI o ECOG.
Eppure, se riuscissimo anche solo a identificare i segnali cerebrali di alcune
centinaia di parole, ciò sarebbe sufficiente per realizzare una normale
conversazione: in pratica, se una persona pensasse alle varie parole
contenute in frasi e paragrafi, il computer potrebbe trascriverle.
Giornalisti, scrittori, romanzieri e poeti troverebbero in questa
tecnologia un vantaggio indubbio, dal momento che potrebbero limitarsi
pensare a ciò che vogliono scrivere lasciando che sia il computer a farlo,
come una specie di segretario mentale; potremmo addirittura lasciar detto al
nostro robo-segretario di prenotare un tavolo al ristorante, un volo o una
vacanza, e lasciare che sia lui a occuparsi dei dettagli.
Non solo le parole, ma anche la musica potrebbe un giorno essere
trascritta in questo modo. I musicisti potrebbero semplicemente canticchiare
una melodia e lasciare che un computer la trascriva per loro, con le note al
posto giusto. Per farlo basterebbe far canticchiare mentalmente a qualcuno
una serie di note: ciascuna di esse genererebbe una serie di segnali elettrici
che permetterebbero di nuovo ai ricercatori di compilare un glossario di
abbinamenti, così che quando si pensa a una nota musicale il computer la
possa trascrivere su uno spartito.
Nei libri di fantascienza chi possiede doti telepatiche spesso è in grado
di comunicare attraverso le barriere linguistiche, dal momento che i pensieri
sono considerati universali. Tuttavia, anche se emozioni e sentimenti
potrebbero davvero essere non verbali e universali, e quindi trasmissibili
telepaticamente a chiunque, il pensiero razionale è legato al linguaggio in
modo tanto stretto da rendere la trasmissione dei pensieri complessi oltre le
barriere linguistiche assai improbabile: le parole sarebbero comunque
inviate per via telepatica nella loro lingua di originale.

Elmetti telepatici

Nei film di fantascienza compaiono spesso delle specie di “elmetti


telepatici”: indossandoli, i personaggi sono subito in grado di leggere nella
mente dell’altro. L’esercito americano ha in effetti espresso interesse nei
confronti di questa tecnologia: in un combattimento a fuoco, tra esplosioni e
proiettili che fischiano sopra la testa, uno strumento simile potrebbe salvare
la vita dei soldati, dal momento che comunicare gli ordini nel bel mezzo di
una battaglia può rivelarsi difficile (posso testimoniare personalmente
questo fatto, in quanto anni fa, durante la guerra del Vietnam, ho prestato
servizio nella U.S. Infantry di Fort Benning, in Georgia: durante gli
addestramenti, il fragore della granate e delle mitragliatrici vicine a me e
attaccate al mio orecchio era così assordante che non riuscivo a sentire
nient’altro, e ho udito un forte suono in quello stesso orecchio per i tre
giorni successivi).
Di recente, l’esercito americano ha stanziato quasi sei milioni e mezzo
di dollari a favore della ricerca condotta da Gerwin Schalk, dell’Albany
Medical College, pur sapendo che la realizzazione di un casco simile dista
ancora parecchi anni. Schalk conduce gli esperimenti con la tecnologia
ECOG per cui, come abbiamo visto, è necessario impiantare una serie di
elettrodi direttamente sulla superficie corticale esposta: grazie a questo
metodo, i suoi computer sono stati in grado di riconoscere le vocali e 36
parole all’interno del cervello pensante dei pazienti con, in alcuni di questi
esperimenti, un’accuratezza del 100 per cento. Ma, al momento, per
l’esercito americano questa tecnologia non è ancora praticabile in quanto
richiede un intervento di chirurgia eseguito in un ambiente ospedaliero
pulito e sterile; e, anche così, siamo ben lontani dalla possibilità di
trasmettere telepaticamente un messaggio urgente al nostro quartier
generale. Eppure Schalk, con i suoi esperimenti ECOG, ha dimostrato come
ciò sia in teoria possibile.
David Poeppel, della New York University, sta studiando ora un altro
metodo9: esso prevede l’impiego della tecnologia MEG, la quale, senza
bisogno di aprire il cranio dei soggetti, al posto degli elettrodi utilizza
piccole scariche di energia magnetica per creare delle cariche elettriche nel
cervello. Oltre a non essere invasiva, il suo vantaggio sta nella capacità di
misurare con precisione l’attività neurale, di natura molto veloce (al
contrario delle più lente scansioni RM). Nei suoi esperimenti, Poeppel è
riuscito a registrare l’attività elettrica generata nella corteccia uditiva
quando i soggetti pensavano in silenzio a una parola. Lo svantaggio è che i
macchinari in grado di generare gli impulsi elettrici necessari alle
registrazioni sono ancora molto ingombranti.
È chiaro che stiamo cercando un metodo non invasivo, portatile e
accurato. Poeppel spera che il suo lavoro con la tecnologia MEG possa fare
da complemento agli studi con i sensori EEG; ma le scansioni MEG e EEG
non sono accurate, e dovremo aspettare ancora diversi anni per un vero
“casco telepatico”.

MRI al telefono

Il limite alla ricerca è imposto dalla natura relativamente ancora poco


raffinata degli strumenti finora messi a punto; con il passare del tempo,
però, dispositivi con una precisione via via maggiore saranno in grado di
sondare la mente sempre più in profondità. Il prossimo grande passo avanti
potrebbe essere la creazione di macchine RM che stiano nel palmo di una
mano.
Il motivo per cui le macchine RM oggi sono così grandi è legato alla
necessità di avere un campo magnetico uniforme per ottenere una buona
risoluzione delle immagini finali: più grande è la macchina, infatti, più
uniforme è il campo generato e quindi migliore è l’accuratezza. Ora, però, i
fisici sono in grado di estratte le proprietà matematiche dei campi magnetici
generati (già scoperte nell’Ottocento dal fisico James Clerk Maxwell): nel
1993, in Germania10, Bernhard Blümich e colleghi hanno costruito la
macchina RM più piccola del mondo: delle dimensioni di una
ventiquattrore, essa utilizza un campo magnetico debole e distorto, ma i
supercomputer odierni sono in grado di analizzare i segnali e correggerli in
modo che lo strumento produca immagini tridimensionali realistiche. Dato
che la potenza di calcolo dei computer raddoppia all’incirca ogni due anni,
essi sono oggi abbastanza piccoli e potenti da riuscire ad analizzare il
campo magnetico creato da uno strumento delle dimensioni di una valigetta,
e compensare le sue distorsioni.
Nel 2006, per dimostrare il funzionamento di questa macchina, Blümich
e colleghi hanno acquisito le scansioni RM di Ötzi, “l’uomo del Similaun”
rimasto intrappolato nel ghiacci più di cinquemila anni fa, verso la fine
dell’ultima era glaciale. Data la posizione piuttosto bizzarra in cui Ötzi è
rimasto congelato era difficile stiparlo nel piccolo cilindro di una normale
macchina RM, ma non è stato un problema realizzare le scansioni per lo
strumento portatile di Blümich.
Gli scienziati hanno stimato che all’aumentare della potenza di calcolo
una macchina RM potrà raggiungere le dimensioni di un telefono cellulare:
i dati grezzi raccolti dallo strumento potrebbero poi essere inviati via
wireless a un supercomputer, che elaborerebbe il debole campo magnetico
(compensato dall’aumento della potenza di calcolo) generato dal dispositivo
portatile per creare un’immagine tridimensionale, accelerando così i
progressi della ricerca. «Una cosa come il tricorder di Star Trek potrebbe
non essere poi così lontana», ha detto Blümich (un tricorder è un piccolo
strumento palmare inventato dagli sceneggiatori della saga, in grado di
analizzare un soggetto e fornire in tempo reale una sua diagnosi medica). In
futuro la potenza di calcolo contenuta nel cassetto delle medicine di casa
potrebbe superare quella posseduta da un ospedale universitario di oggi.
Invece di aspettare il permesso di un ospedale o di un’università, potremmo
acquisire i dati comodamente nel salotto di casa, passando il palmare RM
sul nostro corpo e spedendo i dati a un laboratorio di analisi.
Ciò significa che, in futuro, anche il “casco telepatico” RM sarà
realizzabile, e con una risoluzione assai migliore delle scansioni EEG. Ecco
cosa potrebbe succedere nei prossimi decenni: all’interno del casco,
minuscoli magneti elettromagnetici produrrebbero un debole campo
magnetico e le pulsazioni radio necessarie; questi segnali grezzi potrebbero
poi essere inviati a un computer tascabile nascosto nella cintura del soldato;
l’informazione sarebbe poi trasmessa a un server via radio, e l’elaborazione
finale verrebbe eseguita in una località distante dal campo di battaglia. Il
messaggio potrebbe poi essere ritrasmesso alle truppe impegnate sul campo,
e i soldati potrebbero ascoltarlo tramite un microfono o degli elettrodi
impiantati direttamente nella corteccia uditiva.

Darpa e il miglioramento dell’uomo

Dati i costi di una simile ricerca è legittimo chiedersi chi la stia


pagando: le aziende private hanno iniziato solo di recente a mostrare
interesse verso questa tecnologia, ma per molte di loro è una grossa
scommessa che potrebbe non fruttare mai niente. Uno degli sponsor più
importanti è invece la DARPA (Defense Advanced Research Projects
Agency”), l’agenzia del Pentagono per i progetti di difesa avanzati, che ha
permesso lo sviluppo di alcune tra le più importanti tecnologie del
ventesimo secolo.
Il presidente americano Dwight Eisenhower fondò l’agenzia subito
dopo il lancio nello spazio del satellite Sputnik da parte dei russi, nel 1957,
che aveva lasciato stupefatto l’intero mondo: avendo capito che nel settore i
sovietici avrebbero ben presto superato gli Stati Uniti, Eisenhower stabilì in
tutta fretta la nascita della DARMA per permettere al paese di restare
competitivo. Nel corso degli anni i numerosi progetti a cui l’agenzia ha dato
inizio hanno assunto dimensioni tali da diventare entità indipendenti: la
NASA fu uno dei suoi primi spin-off.
Il piano strategico della DARPA suona quasi come fantascienza, dal
momento che «il suo unico carattere è l’innovazione radicale» e che l’unica
giustificazione per la sua esistenza è «accelerare la “gestazione” del
futuro»11. I suoi scienziati sono impegnati nel tentativo di spostare i confini
di ciò che è fisicamente possibile: come ha detto Micheal Goldblatt, suo ex
dirigente, quello che cercano di fare è di non violare le leggi della fisica, «o
almeno non consapevolmente, o quanto meno non più di una alla volta».
Ciò che distingue l’operato della DARPA dalla fantascienza pura è il
suo stupefacente elenco di successi: uno dei primi progetti, portato avanti
negli anni sessanta, fu Arpanet, una rete di telecomunicazioni militare
pensata per collegare elettronicamente scienziati e ufficiali durante e dopo
la terza guerra mondiale; alla luce della caduta del blocco sovietico del
1989, la National Science Foundation decise che non fosse necessario
mantenere il segreto militare su tale iniziativa, e togliendo i sigilli di
segretezza ne mise a disposizione i codici e i progetti, a tutti gli effetti
gratis. Fu così che Arpanet divenne internet.
Quando l’Air Force americana ebbe bisogno di guidare i propri missili
balistici nello spazio, la DARPA contribuì al segretissimo Progetto 57,
ideato per permettere all’aviazione di sferrare un attacco con bombe
all’idrogeno ai danni dei silos dei missili sovietici in caso di guerra
termonucleare; tale progetto avrebbe poi costituito le fondamenta del
Global Positioning System (GPS) e oggi, al posto di guidare missili,
fornisce indicazioni stradali a chi guida.
La DARPA ha svolto un ruolo fondamentale nello sviluppo di una serie
di invenzioni che hanno modificato il corso del ventesimo e del
ventunesimo secolo: tra di esse si contano i telefoni cellulari, gli occhiali a
infrarossi, le telecomunicazioni e i satelliti meteo. Ho avuto modo di
conoscere i suoi scienziati e funzionari in più occasioni; un ricevimento mi
ha offerto l’occasione di pranzare12 con uno dei suoi ex direttori e porgli
una domanda che mi ha sempre lasciato perplesso: perché ci affidiamo ai
cani per identificare l’esplosivo nascosto nelle valigie dei passeggeri? Senza
dubbio i sensori a nostra disposizione sono abbastanza sensibili per rivelare
la presenza di sostanze chimiche esplosive. Il mio ospite mi ha risposto che
in effetti la DARPA si era attivamente interessata alla questione, ma si è
dovuta scontrare con una difficoltà tecnica non indifferente: il senso
dell’olfatto dei cani, evolutosi nel corso di milioni di anni, è in grado di
identificare una manciata di molecole, un tipo di sensibilità estremamente
difficile da replicare anche con i sensori più sensibili (è quindi probabile
che, almeno per i prossimi anni, continueremo a fare affidamento sui nostri
amici a quattro zampe per la sicurezza degli aeroporti).
In un’altra occasione13, un gruppo di fisici e ingegneri della DARPA
sono stati miei ospiti durante un mio discorso sul futuro della tecnologia. In
seguito, ho chiesto loro se avessero qualche preoccupazione; mi hanno
risposto che in effetti ne avevano una, a proposito della loro immagine
pubblica: la maggior parte delle persone non ha mai sentito parlare
dell’agenzia, ma taluni associano il suo nome a cospirazioni governative,
dagli UFO all’Area 51 e Roswell, fino al controllo del clima. Sospirando,
hanno aggiunto che, se solo tutto questo fosse vero, potrebbero di certo
contare sull’aiuto degli alieni per far fare un salto in avanti alla loro ricerca!
La DARPA ha ora messo gli occhi sulle interfacce cervellomacchina,
dedicando all’impresa un budget di tre miliardi di dollari. Nel discuterne le
potenziali applicazioni, Goldblatt non risparmia l’immaginazione:
«Immaginate se i soldati potessero comunicare con il solo pensiero…
Immaginate la minaccia di un attacco biologico priva di conseguenze. E
pensate per un momento a un mondo in cui imparare sia facile quanto
mangiare, e la sostituzione di pezzi danneggiati del corpo comoda come
andare a un fast food. Per quanto impossibili appaiano queste visioni, o per
quanto arduo possa apparirvi l’impegno di realizzarle, queste visioni sono il
lavoro quotidiano del Defense Sciences Office»14 [un ramo della DARPA].
Goldblatt è convinto che gli storici in futuro decreteranno che la vera
eredità della DARPA sia stata il generale miglioramento dell’uomo, “la
nostra forza storica futura”. In questo senso, nota, lo slogan dell’esercito
americano “Sii tutto ciò che puoi essere” assume un nuovo significato.
Forse non è un caso che Goldblatt stia lavorando così alacremente a questo
progetto: sua figlia soffre di paralisi cerebrale ed è costretta dalla nascita su
una sedia a rotelle. Eppure la sua malattia, pur richiedendo un’assistenza
costante, non le ha impedito di superare tutte le avversità: oggi frequenta
l’università e sogna di fondare un’azienda. Goldblatt riconosce che lei sia
stata la sua musa, e come ha notato l’editor del “Washington Post”: «Quello
che sta facendo è spendere una quantità indicibile di milioni di dollari per
creare qualcosa che potrebbe benissimo essere il prossimo passo
nell’evoluzione umana. E, sì, gli è venuto in mente che la tecnologia che sta
contribuendo a creare potrebbe un giorno permettere a sua figlia non solo di
camminare, ma anche di “trascendere”»15.

Questioni di privacy

Quando sentiamo parlare di macchine per leggere la mente, il pensiero


comune va alla protezione della privacy: l’idea che qualcuno, con una
macchina nascosta da qualche parte, possa leggere i nostri pensieri più
intimi ci irrita. Come abbiamo sottolineato, la coscienza umana è
costantemente impegnata a elaborare simulazioni del futuro, e perché
queste siano accurate può capitare di dover immaginare scenari ambientati
nei territori dell’immoralità e dell’illegalità; ma che questi piani siano
davvero messi in pratica o meno, preferiamo che restino privati.
Agli scienziati, a volte, la vita potrebbe sembrare più semplice se
fossero in grado di leggere i pensieri altrui a distanza, per esempio
utilizzando apparecchi portatili piuttosto che goffi elmetti o tecnologie che
implicano un’operazione chirurgica; ma le leggi della fisica rendono questa
evenienza estremamente difficile.
Quando ho chiesto a Nishimoto16, che lavora nel laboratorio di
Berkeley del dr. Gallant, un’opinione in merito alla questione della privacy,
il professore ha sorriso e mi ha risposto che i segnali radio degradano
piuttosto in fretta al di fuori del cervello, e per questo motivo sono troppo
deboli e indiretti per avere un senso per chiunque si trovi a una distanza
maggiore di un metro o due (a scuola abbiamo studiato le leggi di Newton,
e come la gravità diminuisca del quadrato della distanza: ciò significa che
se raddoppiamo la distanza di un corpo da una stella, il campo
gravitazionale esercitato su di esso diminuisce di quattro volte. I campi
magnetici, invece, degradano molto più in fretta: la maggior parte di questi
segnali diminuisce con la terza o quarta potenza della distanza, e ciò
significa che se raddoppiamo la nostra distanza da una macchina RM, il
campo magnetico che si applica si riduce di otto o più volte).
Bisogna poi considerare le diverse interferenze provenienti dal mondo
esterno, che maschererebbero i segnali, già deboli prodotti dal cervello: è il
motivo per cui gli esperimenti odierni sono condotti secondo rigide
condizioni di laboratorio e per cui, anche così, gli scienziati sono in grado
di estrapolare dal cervello pensante solo qualche lettera, parola o immagine.
La tecnologia odierna non è in grado di registrare la valanga di pensieri che
circolano nel cervello mentre valutiamo, nello stesso momento, lettere,
parole, frasi o informazioni sensoriali: gli strumenti per la lettura del
pensiero come quelli che si vedono nei film non sono quindi possibili
oggigiorno, né lo saranno per vari altri decenni.
Almeno per i prossimi anni realizzare una scansione cerebrale vorrà dire
avere accesso diretto al cervello in condizioni di laboratorio, ma
nell’improbabile evenienza che qualcuno trovi il modo di leggere i pensieri
a distanza esistono contromisure che possiamo adottare: per mantenere la
privacy sui nostri pensieri potremmo usare uno schermo che impedisca alle
nostre onde cerebrali di cadere nelle mani sbagliate, per esempio una
cosiddetta gabbia di Faraday, inventata dal grande fisico inglese Micheal
Faraday nel 1836, i cui effetti furono osservati per la prima volta da
Benjamin Franklin. In poche parole, l’elettricità si disperde rapidamente
attorno a una gabbia di metallo e per questo motivo il campo elettrico al suo
interno è pari a zero; per dimostrarlo alcuni fisici come me si sono prestati
ad entrare in gabbie metalliche a cui erano applicate enormi correnti
elettriche e, miracolosamente, ne sono usciti illesi. Ecco perché gli
aeroplani possono essere colpiti dai lampi senza riportare danni, e i cavi
elettrici sono ricoperti di reti metalliche. Uno schermo telepatico potrebbe
consistere in un sottile foglio metallico posizionato attorno alla testa.

Telepatia tramite nanosonde cerebrali

Esiste un altro modo per risolvere, almeno in parte, il problema della


privacy e la difficoltà di posizionare sensori ECOG all’interno del cervello.
Per posizionare nel cervello delle sonde in grado di intercettare i pensieri
potremmo un giorno utilizzare la cosiddetta nanotecnologia, ovvero la
capacità di manipolare singoli atomi; queste nanosonde potrebbero essere
fatte di nanotubi di carbonio (un elettroconduttore) sottili quanto è
permesso dalle leggi della fisica atomica, essendo costituite da singoli atomi
di carbonio organizzati a forma di tubo, per uno spessore totale pari a una
manciata di molecole (sono oggetto di intenso interesse scientifico, e ci si
aspetta che nei decenni a venire rivoluzioneranno il modo in cui gli
scienziati sondano il cervello).
Questi tipi di sonde potranno essere posizionate con precisione in aree
cerebrali specializzate: potrebbero essere poste nel lobo temporale sinistro
per trasmettere i segnali inerenti al linguaggio, e nel talamo e nella corteccia
visiva per elaborare le immagini visive, mentre le emozioni vengono
elaborate tramite nanosonde a livello dell’amigdala e del sistema limbico. I
segnali così raccolti potrebbero essere trasmessi a un piccolo computer che
li elaborerebbe e li ritrasmetterebbe via wireless a un server, e da qui a
internet.
I problemi di privacy verrebbero in parte risolti, perché sarebbe
possibile controllare il passaggio dei nostri pensieri, via cavo o su internet:
mentre i segnali radio possono essere captati da chiunque con un ricevitore,
lo stesso non può dirsi per i segnali elettrici. In questo modo si risolverebbe
anche il problema della necessità di un intervento chirurgico al cranio,
obbligato nel caso delle reti ECOG, perché le nanosonde possono essere
inserite tramite microchirurgia.
Alcuni scrittori di fantascienza hanno immaginato un futuro in cui tali
nanosonde sono impiantate sull’uomo direttamente alla nascita, così che per
i bambini delle nuove generazioni la telepatia diventi una forma di vita (in
Star Trek, per esempio, questo tipo di impianto è di routine per i figli dei
Borg, in modo da permettere a tutti i membri della razza aliena di
comunicare telepaticamente con gli altri: essi non sono in grado di
immagine un mondo dove la telepatia non esista e danno per scontato che
sia la norma).
Date le loro minuscole dimensioni, queste nanosonde sarebbero
invisibili all’esterno e non potrebbe emergere alcuna forma di ostracismo
sociale; certo, all’inizio la società potrebbe respingere l’idea di inserire
delle sonde in maniera permanente nel cervello delle persone, ma, data la
loro utilità, secondo gli scrittori di fantascienza ci abitueremmo presto
all’idea, proprio com’è avvenuto per i cosiddetti “bambini in provetta” dopo
le controversie iniziali.

Problemi legali

In futuro, la domanda che dovremo porci non riguarda la possibilità che


qualcuno sia in grado di leggere la nostra mente di nascosto, ma se
accetteremmo l’idea che i nostri pensieri siano registrati: cosa succederebbe
se una persona senza scrupoli riuscisse ad avere accesso a una loro copia?
Si tratta di un problema etico che riguarda il diritto a impedire che i nostri
pensieri siano letti contro la nostra volontà. Brian Pasley sostiene che «le
questioni etiche esistenti non riguardino la ricerca attuale, ma le sue
possibili applicazioni. Deve esserci equilibrio: essere in grado di
decodificare i pensieri di una persona in maniera istantanea potrebbe
comportare grandi benefici per le migliaia di disabili gravi che al momento
non sono in grado di comunicare. D’altra parte, la possibilità che questa
tecnologia sia applicata a persone non consenzienti genera grande
preoccupazione»17.
Quando tutto ciò sarà possibile dovremo affrontare una serie di
questioni etiche e legali, così come è sempre avvenuto in passato ogni qual
volta una nuova tecnologia ha fatto la sua comparsa: spesso ci sono voluti
anni prima che il sistema legale fosse in grado di affrontare le implicazioni
di una nuova scoperta scientifica.
Potrebbe per esempio essere necessario riscrivere la legge sul diritto
d’autore: cosa accadrebbe se qualcuno rubasse il progetto di una nostra
invenzione leggendoci nel pensiero? È possibile brevettare i pensieri? Chi
possiede davvero un’idea?
Un altro punto riguarda il coinvolgimento dello stato. John Perry
Barlow, poeta e paroliere dei Grateful Dead, disse: «Affidarsi al governo
per proteggere la privacy è come chiedere a un voyeur di montarvi le
persiane». Potrebbe essere permesso alla polizia di leggere il pensiero di
una persona durante un interrogatorio? Ricordiamoci che i tribunali si sono
già espressi in merito a casi dove l’indagato si è rifiutato di fornire il
proprio DNA come prova; se fosse permesso al governo di leggere nel
pensiero senza il consenso dell’imputato, tale indagine costituirebbe una
prova ammissibile in tribunale? Che attendibilità avrebbe? Va fatto notare
che, così come i poligrafi RM misurano solo l’aumento dell’attività
cerebrale, pensare a un crimine e commetterlo sono due cose diverse. Al
controinterrogatorio l’avvocato della difesa potrebbe sostenere che questi
pensieri fossero solo, appunto, pensieri e niente più.
Anche il diritto legale delle persone paralizzate rappresenta un’altra area
di incertezza. Nel redigere per esempio il proprio testamento, una scansione
sarebbe sufficiente a renderlo legale? Immaginiamo che una persona
paralizzata abbia conservato una mente sveglia e attiva, e che voglia firmare
un contratto o gestire i propri risparmi. Dovremmo ritenere questi
documenti legali pur sapendo che la tecnologia che li ha resi possibili
potrebbe non essere perfetta?
Non esistono leggi della fisica che possano risolvere questi problemi: a
mano a mano che la tecnologia maturerà, essi dovranno essere risolti da
giudici e giurie all’interno dei tribunali.
Allo stesso tempo, governi e multinazionali saranno obbligati a
inventare nuovi modi per impedire lo spionaggio mentale. Quello
industriale rappresenta già un’industria multimiliardaria, per combattere il
quale gli enti costruiscono in genere costose “camere sicure”, ispezionate
con regolarità al fine di assicurare l’assenza di cimici e altri dispositivi di
ascolto. In futuro (premesso che sia possibile progettare uno strumento per
intercettare le onde cerebrali a distanza) potrebbe essere necessario
concepire stanze blindate in modo da impedire l’accidentale fuoriuscita dei
segnali cerebrali. Per proteggerle dal mondo esterno, queste camere
sarebbero circondate da mura metalliche, così da formare una gabbia di
Faraday.
Ogni qual volta è stato possibile impiegare una nuova forma di
radiazioni i sevizi segreti hanno cercato di sfruttarla a proprio vantaggio, e
le onde cerebrali non saranno certo un’eccezione. Il caso di spionaggio che
coinvolse una forma di energia radiante più famoso fu quello del minuscolo
strumento a microonde nascosto nel Grande Sigillo degli Stati Uniti presso
l’ambasciata americana a Mosca: dal 1945 al 1952 questa “cimice” ha
trasmesso i segreti americani direttamente ai sovietici e, grazie ad essa,
durante la crisi di Berlino del 1948 e la guerra di Corea i russi furono in
grado di scoprire i piani degli Stati Uniti. Il dispositivo avrebbe potuto
continuare a trasmettere ancora oggi, modificando il corso della storia della
guerra fredda e del mondo, ma fu scoperta da un ingegnere inglese, che
captò per caso una conversazione segreta su una frequenza radio aperta.
Quando esaminarono la cimice gli ingegneri americani rimasero stupefatti:
per tutti quegli anni non erano stati in grado di identificarla perché si
trattava di uno strumento passivo, in quanto priva di una fonte di energia
propria (i sovietici avevano astutamente aggirato il problema alimentando la
cimice con un raggio a microonde proveniente da una fonte remota). Lo
spionaggio del futuro potrebbe puntare a intercettare le onde cerebrali.
Sebbene gran parte di questa tecnologia si trovi ancora a uno stadio
primitivo, la telepatia sta lentamente entrando a far parte delle nostre vite, e
in futuro potremmo interagire con il mondo esterno solo grazie al potere
mentale; gli scienziati, tuttavia, vogliono andare oltre la semplice lettura
della mente, che è passiva, e assumere un ruolo attivo. La telecinesi, ovvero
la capacità di muovere gli oggetti con il pensiero, è un potere che di solito
viene attribuito agli dei: il potere divino di dare forma alla realtà secondo i
propri sogni, l’espressione ultima dei nostri pensieri e desideri.
E presto la avremo.
1
Consultabile all’indirizzo internet http://www.ibm.com/5in5.
2
Intervista a Jack Gallant, 11 luglio 2012, all’università della California, Berkeley. Anche,
intervista radiofonica a Jack Gallant per Science Fantastic, luglio 2012.
3
“Berkeleyan Newsletter”, 22 settembre 2011, consultabile all’indirizzo internet
http://tinyurl.com/m7cpdwj.
4
Brockman, The Mind, cit., p. 236.
5
Visita al laboratorio del dr. Pasley del 11 luglio 2012, all’università della California, Berkeley.
6
The Brain Institute, University of Utah, Salt Lake City, consultabile all’indirizzo internet
http://brain.utah.edu.
7
Consultabile all’indirizzo internet http://tinyurl.com/ycgfuuq.
8
Consultabile all’indirizzo internet http://tinyurl.com/oqjfowm.
9
“Discover Magazine Presents the Brain”, primavera 2012, p. 43.
10
“Scientific American”, Novembre 2008, p. 68.
11
Joel Garreau, Radical evolution, Sperling & Kupfer, Milano 2007, p. 23 (ed. orig., Radical
Evolution, 2006).
12
Simposio sul futuro della scienza sponsorizzato da Science Fiction Channel presso il Chabot Pace
and Science Center, Oakland, California, nel maggio del 2004.
13
Conferenza ad Anaheim, California, nell’aprile del 2009.
14
Garreau, Radical evolution, cit., p. 21-22.
15
Ivi, p. 17.
16
Visita al laboratorio di Jack Gallant presso l’università della California, Berkeley, l’11 luglio,
2012.
17
Consultabile all’indirizzo internet http://tinyurl.com/lk2l6v7.
Capitolo 4
Telecinesi. Il controllo della mente sulle cose

È dovere del futuro quello di essere pericoloso… I più grandi avanzamenti dell’uomo non sono
stati altro che processi che hanno sconvolto le società in cui sono avvenuti.
Alfred North Whitehead

Cathy Hutchinson è intrappolata nel suo corpo, paralizzata da un ictus


che l’ha colpita quattordici anni fa. Quadriplegica, come migliaia altri di
pazienti, ha perso il controllo sulla maggior parte dei propri muscoli e delle
proprie funzioni corporali, e passa gran parte della giornata sdraiata,
bisognosa di assistenza infermieristica costante. Eppure la sua mente è
lucida, prigioniera del corpo.
Nel maggio del 2012, però, il suo destino è cambiato radicalmente: gli
scienziati della Brown University hanno inserito un piccolo chip (chiamato
Braingate) sulla sua corteccia cerebrale, connesso a un computer. Con il
solo pensiero, Cathy ha gradualmente imparato a controllare il movimento
del braccio in modo da, per esempio, afferrare una bottiglia e portarsela alla
bocca: per la prima volta, ha ripreso un certo controllo sul mondo che la
circonda.
Essendo paralizzata e non potendo parlare, Cathy ha comunicato il suo
entusiasmo muovendo gli occhi tramite uno strumento che ne segue il
movimento e lo traduce in un messaggio scritto. Quando le è stato chiesto
come si sentisse dopo anni di prigionia all’interno di un guscio chiamato
corpo, la donna ha risposto «in estasi!» e, immaginando il giorno in cui
anche i suoi altri arti saranno connessi al cervello tramite un computer, ha
aggiunto: «Mi piacerebbe avere delle gambe meccaniche». Prima dell’ictus,
Cathy amava cucinare e fare giardinaggio: «So che un giorno questo
accadrà di nuovo» ha aggiunto1. Data la velocità con cui la ricerca sulle
cyberprotesi si sta muovendo, il suo desiderio potrebbe presto realizzarsi.
John Donoghue e colleghi della Brown University e dell’università
dello Utah hanno creano un minuscolo sensore che agisce da ponte verso il
mondo esterno per coloro che non sono più in grado di comunicare. Durante
la mia intervista mi ha detto: «Abbiamo preso un minuscolo sensore, grande
appena 4 millimetri, ovvero quanto un’aspirina per bambini, e l’abbiamo
impiantato sulla corteccia cerebrale del soggetto. Grazie ai 96 “capelli”, o
elettrodi, che intercettano gli impulsi cerebrali, è in grado di identificare i
segnali che regolano l’intenzione di muovere un braccio. La nostra ricerca
si concentra su questo arto, data la sua importanza per la persona»2. Dato
che negli anni la corteccia motoria è stata finemente mappata, ora è
possibile posizionare il chip sopra ai neuroni che controllano un arto
specifico.
La chiave del successo di Braingate sta nella sua capacità di tradurre i
segnali neurali provenienti dal chip in comandi significativi che permettano
al computer di muovere un oggetto del mondo reale, a partire dal cursore di
uno schermo. Donoghue chiede al paziente di immaginare di muovere un
cursore, per esempio verso destra: il computer impiega solo pochi minuti
per registrare i segnali cerebrali che corrispondono a tale compito, e così sa
che dovrà spostare il cursore verso destra ogni qual volta identifichi un
segnale cerebrale simile.
In questo modo il computer crea una mappa uno-a-uno tra determinate
azioni che il paziente immagina, e l’azione in sé. Nella pratica, un soggetto
sperimentale può iniziare a controllare il movimento del cursore dal primo
tentativo.
Braingate apre le porte a un nuovo mondo di neuroprotesi, in grado di
permettere alle persone paralizzate di muovere con la mente arti artificiali e
di comunicare con i propri cari. La prima versione di questo chip, testata nel
2004, era stata progettata in modo che i pazienti potessero comunicare con
un computer portatile; poco dopo, gli stessi furono in grado di navigare sul
web, leggere e scrivere email, e controllare la propria sedia a rotelle.
Di recente Stephen Hawking, il famoso cosmologo, ha accettato di
installare uno strumento neuroprostetico sui propri occhiali: come un
sensore EEG, questo dispositivo è in grado di connettere i pensieri dello
scienziato direttamente a un computer, in modo da permettergli di
mantenere il contatto con il mondo esterno. Si tratta di una tecnologia
ancora piuttosto primitiva, ma in futuro diverrà molto più precisa, con più
canali e una sensibilità maggiore.
Tutto questo, mi ha detto Donoghue, potrebbe avere un profondo
impatto sulla vita dei pazienti: «Sarà anche possibile collegare il computer a
qualsiasi strumento elettronico, come un tostapane, una macchina per il
caffè, un condizionatore, un interruttore della luce, una macchina da
scrivere. Si tratta di qualcosa di banale per le conoscenze di oggi, e che non
costa niente. Per una persona quadriplegica significherebbe poter cambiare
canale quando guarda la televisione, o accedere la luce, senza che nessuno
lo faccia per lei»; in pratica, essi saranno in grado di fare tutto ciò che può
fare una persona normale con un computer.

Riparare un danno al midollo spinale

Molti sono i gruppi di lavoro che si stanno buttando nella mischia. Gli
scienziati della Northwestern University hanno fatto un altro grande passo
avanti riuscendo a collegare il cervello di una scimmia direttamente al suo
braccio, bypassando il midollo spinale danneggiato. Nel 1995 fu data la
notizia che l’attore Christopher Reeve, che nei panni di Superman si era
librato nelle profondità dello spazio, era rimasto completamente paralizzato:
disarcionato da cavallo, era caduto atterrando sul proprio collo e il midollo
spinale era rimasto danneggiato appena sotto la testa. Se fosse vissuto più a
lungo, Reeve sarebbe stato testimone del lavoro di questi scienziati. Solo
negli Stati Uniti, le persone che soffrono di un danno al midollo spinale
sono più di duecentomila3. Anni fa sarebbero probabilmente morti poco
dopo l’incidente, ma gli avanzamenti nell’assistenza al trauma acuto hanno
determinato un sostanziale aumento del numero di persone che sopravvive a
questo tipo di traumi; in televisione non mancano le immagini delle
migliaia di soldati feriti, vittime della guerra in Iraq e Afganistan, e se ad
essi aggiungiamo il numero di pazienti paralizzati a seguito di ictus o di
altre malattie come la sclerosi laterale amiotrofica (SLA), il loro numero
sale a due milioni.
Gli scienziati della Nortwestern hanno impiantato sulla corteccia
cerebrale della scimmia un chip composto da cento elettrodi, tramite cui
registrare direttamente i segnali neurali mentre l’animale era intento ad
afferrare una palla, alzarla e lasciarla cadere in un tubo. Dal momento che a
ciascun compito corrisponde un determinato schema di segnali, gli
scienziati hanno potuto a mano a mano decodificarli.
Quando la scimmia vuole muovere il braccio4 i segnali neurali sono
elaborati dal computer facendo riferimento a questo codice, e vengono
inviati, invece che a un braccio meccanico, direttamente ai nervi del suo
braccio. «Intercettiamo i segnali elettrici naturali del cervello che
comandano i movimenti del braccio e della mano, e li inviamo direttamente
ai muscoli»5 ha commentato Lee Miller.
La scimmia ha imparato a coordinare i muscoli del braccio tramite
tentativi ed errori: «Questo processo di apprendimento motorio è molto
simile al percorso che intraprendiamo quando impariamo a utilizzare un
nuovo computer, un mouse o una racchetta da tennis» aggiunge Miller (è
impressionante che la scimmia sia stata in grado di controllare così tanti
movimento del braccio con un chip cerebrale di soli cento elettrodi: Miller
fa notare come il controllo di un braccio vero implica l’azione di milioni di
neuroni. Il motivo per cui cento elettrodi possono rappresentare
un’approssimazione ragionevole è che essi connettono solo i neuroni di
output, dopo che il cervello ha compiuto tutta una serie di complesse
elaborazioni: escludendo dal computo tutte queste analisi sofisticate, i cento
elettrodi possono semplicemente occuparsi della trasmissione
dell’informazione dal cervello al braccio).
Questo strumento è solo uno dei molti progettati alla Northwestern che
permetteranno ai pazienti di bypassare una lesione al midollo spinale. Un
altro sfrutta il movimento delle spalle per controllare un braccio: alzare le
spalle determina la chiusura della mano, abbassarle la fa aprire. Il paziente
può anche stringere le dita attorno a un oggetto o stringere una chiave tra
pollice e indice.
Miller conclude: «Un giorno questo collegamento tra cervello e muscoli
potrebbe aiutare i pazienti paralizzati a seguito di una lesione al midollo
spinale a eseguire tutte quelle attività quotidiane che garantiscono una
maggiore indipendenza».

Rivoluzionare le protesi

La maggior parte dei finanziamenti che ha permesso tali incredibili


sviluppi si deve a un progetto DARPA chiamato Revolutionizing
Prosthetics (“rivoluzionare le protesi”), un’iniziativa da centocinquanta
milioni di dollari che dal 2006 finanzia questo tipo di ricerca. Una delle
forze trainanti dell’iniziativa è il colonnello dell’esercito americano
Geoffrey Ling, oggi a riposo, un neurologo con alle spalle diverse missioni
in Iraq e Afghanistan, rimasto sgomento di fronte alle carneficine di guerra
dovute agli attacchi sferrati ai convogli di soldati. In passato, molti di questi
militari sarebbero morti sul posto; oggi, grazie agli elicotteri e a un’ampia
infrastruttura medica di evacuazione, molti di loro sopravvivono, portandosi
dietro, però, le sofferenze dei gravi danni fisici. Quasi mille e cinquecento
soldati hanno perso un arto, tornati dal Medio Oriente6.
Ling si è chiesto se esistesse un modo per sostituire tali arti, e grazie al
finanziamento del Pentagono, ha chiesto ai suoi collaboratori di trovare una
soluzione concreta nel giro di cinque anni. Con sua incredulità, la richiesta
è stata accolta: Ling ricorda che «pensavano che fossimo pazzi. Ma le cose
avvengono sotto il segno della follia»7.
Spronati all’azione dall’entusiasmo di Ling, il suo team ha fatto
miracoli. Il progetto ha finanziato alcuni scienziati appartenenti al
laboratorio di fisica applicata della John Hopkins University, i quali hanno
creato il braccio meccanico più avanzato esistente oggi al mondo, in grado
di riprodurre quasi tutti i delicati movimenti delle dita, della mano e del
braccio, nelle tre dimensioni. Questa protesi avanzatissima ha stesse
dimensioni, forza e agilità di un braccio vero e, nonostante sia fatto di
acciaio, se fosse ricoperto da una plastica color pelle sarebbe, in pratica,
indistinguibile.
Il braccio è stato dato a Jan Sherman, una donna divenuta quadriplegica
a seguito di una malattia genetica che ha danneggiato le connessioni tra il
suo cervello e il corpo, lasciandola paralizzata dal collo in giù. Gli elettrodi
sono stati posizionati direttamente sulla corteccia cerebrale di Jan con un
intervento chirurgico all’università di Pittsburgh, e poi collegati a un
computer e al braccio meccanico. Cinque mesi dopo, Jan è andata in
televisione durante il programma 60 Minutes: davanti ai telespettatori di
tutta la nazione, ha usato il suo nuovo braccio per salutare amabilmente il
pubblico, dare il benvenuto al presentatore e stringergli la mano. Per
dimostrare l’accuratezza del braccio, lo ha addirittura salutato con un
piccolo colpo del pugno.
Ling ha detto: «Sogno che tutto questo possa diventare disponibile per
tutti i tipi di pazienti: vittime di ictus, paralisi cerebrale e anziani».

La telecinesi nella vita quotidiana


Gli scienziati non sono i soli a interessarsi alle interfacce neurali: anche
gli imprenditori stanno studiando con attenzione questa tecnologia, con
l’obiettivo di inserire in maniera permanente nei loro piani aziendali le
strabilianti invenzioni da essa prodotte. Il suo ingresso è già avvenuto nel
mercato di videogiochi e giocattoli che fanno uso di sensori EEG per
controllare mentalmente oggetti, nel mondo virtuale e in quello reale. Nel
2009 la NeuroSky ha lanciato Mindflex, un gioco progettato per muovere
una palla in un labirinto usando dei sensori EEG: se si concentra
indossando il dispositivo, il giocatore può aumentare la velocità di una
ventola all’interno del labirinto che spinge una piccola palla lungo il
percorso.
Sta anche fiorendo il mercato dei videogiochi controllabili con la mente:
alla NeuroSky oggi lavorano millesettecento sviluppatori di software, e
molti di loro sono impegnati nel dipartimento che si occupa del Mindwave
Mobile headset dell’azienda, un progetto da più di cento milioni di dollari.
Questi videogames sfruttano un piccolo sensore EEG portatile, che se
posizionato con una benda sulla fronte del giocatore, gli permette di
navigare in una realtà virtuale, in cui i movimenti dell’avatar sono
controllati mentalmente. Controllando il proprio personaggio sullo schermo
il giocatore può sparare, scappare dai nemici, passare ai livelli successivi,
realizzare punti ecc., come in un normale videogioco. Solo, senza usare le
mani.
«Si verrà a creare tutto un nuovo ecosistema di nuovi giocatori, e
NeuroSky è molto ben posizionata per diventare il corrispettivo della Intel
in questa nuova industria»8 ha dichiarato Alvaro Fernandez della
SharpBrains, società di ricerca di mercato.
Oltre a sparare con armi virtuali, il casco EEG può dirci anche quando
la nostra attenzione sta calando. NeuroSky ha ricevuto numerose richieste
da società impegnate nella prevenzione degli incidenti sul lavoro per venire
in aiuto di quei lavoratori che operano con macchinari pericolosi e che
possono perdere la concentrazione o addormentarsi alla guida. Il casco EEG
potrebbe aiutare a salvare delle vite attivando un sistema di allarme, in
modo da avvisare l’operaio o l’autista che la sua concentrazione sta
scemando (cuffie simili stanno ora spopolando in Giappone: questi sensori,
a forma di orecchie di gatto, si indossano in testa e si drizzano quando
l’attenzione del soggetto si concentra su qualcosa, per poi abbassarsi
quando scema. A una festa possiamo esprimere un romantico interesse solo
con il pensiero, e sapere se stiamo facendo colpo su qualcuno).
Ma forse le applicazioni più innovative sono quelle che sta portando
avanti Miguel Nicolelis della Duke University: durante la nostra intervista,
mi ha detto che ritiene di poter riprodurre gran parte degli strumenti che si
oggi si trovano solo nei libri di fantascienza.

Mani intelligenti e unione di menti9

Nicolelis ha dimostrato che è possibile realizzare un’interfaccia neurale


che lavori su continenti diversi. Nel suo laboratorio in Nord Carolina,
Nicolelis ha messo una scimmia, sulla cui corteccia cerebrale era stato
impiantato un chip collegato a internet, su un tapis roulant. Dall’altra parte
del mondo, in un laboratorio di Kyoto, in Giappone, i segnali cerebrali
provenienti da questo animale giungevano a un robot in grado di
camminare: con i suoi movimenti la scimmia controllava il robot
giapponese, che ne imitava l’andatura. Grazie ai sensori cerebrali e un
pezzetto di cibo per ricompensa, Nicolelis ha addestrato la scimmia a
controllare CB-1, un robot umanoide dall’altra parte del pianeta.
Nicolelis è impegnato anche nella risoluzione di uno dei principali
problemi di questo tipo di interfacce, ovvero la mancanza di sensazioni: le
protesi odierne, infatti, non possiedono il senso del tatto, dunque a chi le
indossa sembrano oggetti estranei e, dato che manca un segnale di ritorno,
una persona dotata di una mano prostetica potrebbe anche spezzare un dito
a qualcuno stringendogli la mano. Raccogliere un guscio d’uovo con un
braccio meccanico sarebbe quindi impossibile.
Nicolelis spera di aggirare il problema con un’interfaccia diretta tra il
cervello e se stesso. Dopo aver inviato i messaggi al braccio meccanico
dotato di sensori, il cervello riceverebbe un feedback dal braccio stesso,
bypassando il tronco cerebrale: si tratterebbe di un’interfaccia neurale
“cervello-computer-cervello” (brain-machine-brain-interface, o BMBI), e
sarebbe in grado di garantire un meccanismo di feedback diretto, generando
la sensazione del tatto.
Per prima cosa Nicolelis ha collegato la corteccia motoria di una
scimmia rhesus a un braccio meccanico, dotato di sensori che rimandano al
cervello i segnali sensoriali attraverso degli elettrodi posizionati sulla
corteccia somatosensoriale (che elabora le informazioni relative al tatto).
Dopo ogni tentativo andato a buon fine le scimmie venivano premiate: in
questo modo hanno imparato a usare l’apparato dopo quattro-nove prove.
Per riuscirci Nicolelis ha dovuto inventare un nuovo codice che potesse
rappresentare le diverse superfici (lisce o ruvide). «Dopo un mese di pratica
– mi ha detto – questa parte del cervello impara il nuovo codice artificiale e
inizia ad associarlo alle diverse superfici. Ciò dimostra, per la prima volta,
che è possibile creare un canale sensoriale» simulando le sensazioni della
pelle.
Gli ho fatto notare che questa idea assomiglia molto all’holodeck di Star
Trek, uno strumento che permette a chi lo utilizza di esplorare una realtà
virtuale, riferendo le sensazioni fisiche di quando entra in contatto con un
oggetto virtuale, proprio come se fosse vero. In termini tecnici, ciò si
definisce tecnologia aptica (l’uso della tecnologia digitale per simulare la
sensazione del tatto); Nicolelis ha risposto: «Sì, penso che questa sia la
prima dimostrazione che, in un futuro non troppo remoto, una cosa come
l’holodeck sarà possibile».
L’holodeck del futuro potrebbe combinare due diverse tecnologie: gli
utenti potrebbero indossare lenti a contatto collegate a internet, in modo da
osservare una realtà virtuale a 360° modificabile con un semplice click,
mentre grazie alle tecnologia BMBI sarebbe possibile inviare dei segnali
tattili direttamente al cervello ogni qual volta l’utente toccasse un oggetto
contenuto in tale realtà, così da ricrearne l’illusione di solidità.
Questo tipo di interfaccia renderebbe possibile non solo la tecnologia
aptica, ma anche un vero e proprio “internet mentale”, o brain-net, in grado
di mettere in contatto diretto il cervello di due soggetti diversi. Nel 201310
Nicolelis è riuscito a realizzare a completare uno studio che sembrava
arrivare direttamente da Star Trek: l’“unione mentale” tra due cervelli.
Usando due gruppi di ratti, uno nei laboratori della Duke University e
l’altro a Natal, in Brasile, Nicolelis ha insegnato al primo gruppo di animali
a premere una leva quando vedevano una luce rossa, mentre il secondo
gruppo ha imparato a premere una leva quando il loro cervello era stimolato
da un segnale trasmesso tramite un impianto neurale (la ricompensa era
poter bere un sorso di acqua). Nicolelis ha poi connesso le cortecce motorie
dei cervelli di entrambi i gruppi attraverso un filo sottile, collegato a
internet.
Quando il primo gruppo di ratti vedeva accendersi la luce rossa, un
segnale neurale era inviato via internet al secondo gruppo in Brasile, che
poi premeva la leva: sette volte su dieci il secondo gruppo di ratti ha
risposto in maniera corretta ai segnali inviati dal primo. Questa è stata la
prima dimostrazione che i segnali neurali possono essere trasferiti, nonché
interpretati nel modo corretto, da due cervelli diversi. Tutto ciò è ben
lontano dall’unione mentale immaginata dalla fantascienza, dove le
coscienze di due soggetti si fondono in un’unica entità. Il lavoro è ancora in
una fase iniziale, condotto su un campione sperimentale limitato; tuttavia,
rappresenta la prova che, in linea di principio, un brain-net è possibile.
Nel 2013 è stato fatto un altro importante passo avanti quando gli
scienziati, andando oltre la sperimentazione animale, hanno dimostrato la
prima comunicazione diretta cervello-cervello nell’uomo, ovvero la
trasmissione di un messaggio da un cervello umano a un altro attraverso
internet.
Questo successo è stato conseguito all’università di Washington, dove
uno scienziato ha inviato un segnale neurale (“muovi il tuo braccio destro”)
a un altro scienziato. Il primo indossava un casco EEG, e giocava a un
videogioco in cui era impegnato a sparare immaginando di muovere il suo
braccio destro, stando però attento a non muoverlo fisicamente. Tramite
internet il segnale proveniente dal casco EEG è stato trasmesso al secondo,
che indossava un casco magnetico transcranico accuratamente posizionato
sull’area corticale che controlla il braccio destro. Quando il segnale ha
raggiunto il secondo ricercatore, il casco ha trasmettesso un impulso
magnetico al suo cervello, facendo sì che il braccio destro si muovesse
involontariamente, in maniera del tutto autonoma. Quindi, in remoto, un
cervello umano potrebbe controllare il movimento di un altro.
Questi risultati aprono la strada a varie nuove possibilità, per esempio lo
scambio di messaggi non verbali tramite internet: un giorno potremmo
essere in grado di trasmettere l’esperienza di ballare il tango, fare bungee
jumping o skydiving a persone nella nostra mailing list. Non solo l’attività
fisica, ma anche le emozioni e i sentimenti potrebbero essere inviati tramite
questo tipo di comunicazione “cervello-cervello”.
Nicolelis immagina il giorno in cui le menti di tutto il mondo
parteciperanno a una rete sociale, non attraverso una tastiera, ma
direttamente con la mente; al posto delle semplici email gli utenti della
brain-net potrebbero scambiarsi pensieri, emozioni e idee per via telepatica
in tempo reale. Oggi una telefonata può trasmettere i contenuti di una
conversazione e il tono della voce, ma niente di più; le video conferenze
sono un po’ meglio, dal momento che è possibile leggere il linguaggio del
corpo dell’interlocutore. Una brain-net rappresenterebbe l’ultima frontiera
della comunicazione, in quanto renderebbe possibile condividere la totalità
delle nostre informazioni mentali: in una conversazione, assieme alle
sfumature di significato e i sottintesi, le menti degli uomini sarebbero in
grado di condividere i propri pensieri e le emozioni più intime.

Intrattenimento full immersion

La creazione di una brain-net avrebbe un impatto anche sull’industria


multimiliardaria dell’intrattenimento. Negli anni venti del Novecento fu
messa a punto la tecnologia della registrazione del suono e della luce, che
permise il passaggio dai film muti a quelli sonori e che trasformò il cinema
in modo radicale. Da allora, questa combinazione di base tra suono e
immagine non è cambiata molto, ma in futuro potremmo essere testimoni di
un ulteriore passaggio: grazie alla possibilità di registrare tutti i cinque sensi
(tra cui l’olfatto, il gusto e il tatto) e le emozioni, le sonde telepatiche
potrebbero gestire l’intera gamma di percezioni cerebrali permettendo agli
spettatori di immergersi completamente nella trama di un film. Guardando
una commedia romantica o un thriller mozzafiato potremmo nuotare in un
oceano di sensazioni, come se fossimo davvero presenti sulla scena,
trascinati dalla corrente dei sentimenti e delle emozioni degli attori.
Potremmo sentire il profumo della protagonista, il terrore delle vittime di un
horror ed esultare per la vittoria contro il nemico.
Una simile immersione implicherebbe un cambiamento radicale nel
modo in cui sono realizzate le pellicole cinematografiche: per prima cosa
gli attori dovrebbero imparare a interpretare i propri personaggi indossando
sensori e nanosonde EEG/MRI che registrino sensazioni ed emozioni (un
fardello ulteriore, visto che dovrebbero girare ogni scena simulando tutti i
cinque sensi; proprio come alcuni attori non furono in grado di compiere il
passaggio dai film muti al sonoro, forse nascerà una nuova generazione di
attori che sarà in grado di interpretare tutti i cinque sensi). Il montaggio
richiederebbe non solo il taglio e la divisione delle scene, ma anche il
coordinamento di tutte le diverse sensazioni. Il pubblico in platea
riceverebbe tutti i segnali elettrici dritti nel proprio cervello: al posto degli
occhiali 3D dovrebbero tutti indossare dei sensori cerebrali, e le sale
cinematografiche dotarsi di dispositivi in grado di elaborare questi dati e
ritrasmetterli al pubblico.

Creare una brain-net

La creazione di una brain-net in grado di trasmettere questo tipo di


informazioni dovrebbe avvenire per stadi. Il primo passo sarebbe quello di
impiantare delle nanosonde all’interno delle più importanti parti del
cervello, come il lobo temporale sinistro, che governa il linguaggio, e il
lobo occipitale, che regola la visione. I computer dovrebbero poi analizzare
i segnali e decodificarli; l’informazione sarebbe infine trasmessa via
internet per mezzo di cavi a fibre ottiche.
La parte più difficile starebbe nell’inviare tali segnali direttamente nel
cervello di un’altra persona, per essere elaborati dal ricevente. Ad oggi lo
studio in quest’area si è concentrato solo sull’ippocampo, ma in futuro
dovrebbe essere possibile trasmettere segnali neurali anche ad altre parti del
cervello, corrispondenti ai sensi dell’udito, della vista, del tatto, ecc.
Rimane ancora molto lavoro da fare per gli scienziati impegnati a mappare
le aree corticali coinvolte nella percezione sensoriale, ma una volta
conclusa la mappatura (come già fatto per l’ippocampo, di cui parleremo
nel prossimo capitolo) sarà possibile trasmettere parole, pensieri, ricordi ed
esperienze direttamente a un cervello diverso dal nostro.
Nicolelis ha scritto: «Non è inconcepibile che le generazioni del futuro
possano in effetti possedere le capacità, la tecnologia e l’etica necessaria per
stabilire una brain-net funzionale, uno strumento attraverso cui miliardi di
esseri umani possano consensualmente stabilire contatti diretti e temporanei
con altri, attraverso il solo pensiero. Cosa, un tale, colossale, esempio di
coscienza collettiva possa sembrare, sentire o fare, né io né nessun altro ad
oggi possiamo immaginare o descrivere».

Brain-net e civilizzazione

Una brain-net potrebbe addirittura cambiare il corso della nostra


civilizzazione: l’introduzione di un nuovo sistema di comunicazione ha
sempre accelerato i cambiamenti sociali, facendoci balzare da un’era
all’altra. Nella preistoria i nostri antenati nomadi vagavano in piccole tribù
che comunicavano tra loro attraverso dei grugniti e il linguaggio del corpo.
L’avvento del linguaggio ci ha permesso, per la prima volta, di comunicare
tramite simboli e idee complesse, facilitando la nascita dei villaggi, dei
paesi e infine delle città. Negli ultimi millenni la scrittura ha permesso la
stratificazione della conoscenza e della cultura tra le diverse generazioni,
portando alla nascita delle scienze, delle arti, dell’architettura e degli
imperi. L’avvento del telefono, della radio e della televisione ha esteso la
comunicazione tra i continenti, e oggi internet ha reso possibile la nascita di
una civilizzazione planetaria che collega tutti i continenti e i cittadini del
mondo. Il prossimo, gigantesco, passo avanti potrebbe essere la creazione di
una brain-net globale, in cui l’intero spettro dei sensi, delle emozioni, dei
ricordi e dei pensieri possa essere condiviso su scala planetaria.

«Saremo parte del loro sistema operativo»

Quando l’ho intervistato, Nicolelis mi ha detto che il suo interesse per la


scienza è iniziato quando era ancora un ragazzino in Brasile, dove è nato. Si
ricorda di aver assisitito al lancio dell’Apollo sulla luna, lo stesso che aveva
catturato l’attenzione di tutto il mondo: per lui si trattava di un’impresa
impressionante e, mi ha detto, ora il suo “viaggio sulla luna” sta rendendo
possibile la telecinesi.
Il suo interesse per il cervello è iniziato alle superiori, quando gli capitò
tra le mani un libro del 1964 di Isaac Asimov intitolato Il cervello umano.
Ma non gli piacque il finale, perché non spiegava in che modo tutte quelle
strutture interagissero le une con le altre per creare la mente (perché, al
tempo, nessuno conosceva la risposta); in quel momento, che cambiò la sua
vita, capì che il suo destino poteva essere quello di provare a capire i segreti
del cervello.
Circa dieci anni fa, mi ha spiegato, ha iniziato a pensare seriamente di
fare ricerca sul suo sogno di bambino; così ha preso un topo e gli ha lasciato
controllare un dispositivo meccanico. «All’interno del cervello
posizionammo dei sensori che leggevano i segnali elettrici cerebrali, e
trasmettevamo questi ultimi a una piccola leva robotica in grado di portare
dell’acqua da una fontanella alla bocca del ratto. L’animale doveva
imparare a muovere mentalmente lo strumento robotico per ottenere
l’acqua. Fu in assoluto la prima dimostrazione di come sia possibile
collegare un animale a una macchina così che la possa far funzionare senza
muovere il proprio corpo».
Oggi Nicolelis è in grado di analizzare i segnali provenienti non da
cinquanta, ma da mille neuroni cerebrali di una scimmia per poterne
riprodurre i diversi movimenti: la scimmia può controllare vari strumenti,
come un braccio meccanico o un’immagine virtuale nel cyberspazio.
«Abbiamo addirittura creato un avatar che può essere controllato dai
pensieri dell’animale senza che questo faccia alcun movimento» mi ha
spiegato. Ciò è stato possibile mostrando alla scimmia un video con l’avatar
rappresentante il suo corpo: comandando con la mente al suo corpo di
muoversi, la scimmia spostava di conseguenza l’avatar.
Nicolelis immagina che, in un futuro non troppo remoto, giocheremo ai
videogiochi e controlleremo computer e apparecchi elettrici con la mente:
«Saremo parte del loro sistema operativo, immersi in loro con meccanismi
molto simili agli esperimenti che sto descrivendo»11.

Esoscheletri

La prossima impresa di Nicolelis è il progetto Walk Again (“cammina


di nuovo”) il cui obiettivo non è niente meno che la progettazione di un
esoscheletro completo, controllabile con la mente. Di primo acchito la
parola esoscheletro ricorda il film Iron Man, ma si stratta in realtà di uno
speciale indumento che ricopre il corpo intero, in modo che braccia e
gambe possano muoversi tramite dei motori; Nicolelis lo chiama “robot
indossabile” (si veda la figura 10).
Figura 10. L’esoscheletro che Nicolelis spera possa essere controllato dalla mente di una persona
paralizzata del tutto (The Laboratory of Dr. Miguel Nicolelis, Duke University).

Il suo obiettivo, mi ha detto, è aiutare le persone paralizzate a


“camminare pensando”, servendosi della tecnologia wireless, «così che
nessun cavo esca dalla testa … Registreremo venti-trentamila neuroni in
modo da poter comandare uno scheletro robotico, così che la persona possa,
pensando, tornare a camminare, muoversi e afferrare gli oggetti».
Nicolelis sa che ci sono ancora diversi ostacoli da superare prima che il
progetto diventi realtà. Per prima cosa avremo bisogno di una nuova
generazione di chip cerebrali, che possano essere impiantati in maniera
sicura e affidabile negli anni; dopodiché sarà necessario creare dei sensori
wireless, così che l’esoscheletro possa muoversi liberamente. I segnali
provenienti dal cervello potrebbero essere trasmessi a un computer delle
dimensioni di un telefono cellulare, magari attaccato alla cintura della
persona. Certo, la decodifica e l’interpretazione dei segnali provenienti dal
cervello attraverso i computer dovrà migliorare: per il macaco sono bastate
poche centinaia di neuroni, ma per un essere umano ne serviranno, almeno,
diverse migliaia per controllare un braccio o una gamba meccanici. Infine,
dovremo trovare una fonte di energia trasportabile e sufficientemente
potente per muovere l’intero esoscheletro.
L’obiettivo di Nicolelis è davvero dei più ambiziosi: creare un
esoscheletro funzionante per i Mondiali di calcio 2014, dove a dare il calcio
di inizio sarà un cittadino brasiliano tetraplegico12. Con orgoglio, l’aveva
definito «il lancio del Brasile sulla luna»13.

Avatar e replicanti

Nel film Il mondo dei replicanti Bruce Willis interpreta un agente


dell’FBI impegnato a investigare su alcuni casi di omicidio. Gli scienziati
hanno creato degli esoscheletri tanto perfetti che eccedono le capacità degli
esseri umani: si tratta di creature meccaniche super potenti e con corpi
meravigliosi e di cui l’umanità, in realtà, è divenuta schiava. Le persone,
infatti, vivono rintanate nei propri bozzoli, preferendo controllare i propri
splendidi doppioni via wireless; per le città si vedono “persone” al lavoro,
ma si tratta di replicanti i cui padroni, che invecchiano, rimangono
convenientemente nascosti. La trama prende una piega inaspettata quando
Bruce Willis scopre che la persona che si nasconde dietro agli omicidi
potrebbe essere in qualche modo legata all’inventore dei replicanti, cosa che
lo spinge a riflettere sul reale valore di questa invenzione.
Nel successo cinematografico Avatar, nel 2154 il nostro pianeta ha
esaurito la maggior parte dei suoi minerali, per cui una società mineraria
terrestre intraprende un viaggio spaziale per raggiungere Pandora, una luna
appartenente ad Alfa Centauri, alla ricerca di un metallo raro, l’unobtanium;
esso è abitato da una popolazione indigena, i Na’vi, che vivono in armonia
con il suo lussureggiante ambiente. Per comunicare con loro, gli esseri
umani hanno addestrato alcuni operatori specializzati nel controllo mentale
del corpo di alcuni nativi geneticamente modificati. Sebbene l’atmosfera sia
velenosa e l’ambiente differisca radicalmente da quello della Terra, gli
avatar non hanno difficoltà a vivere nel mondo alieno. Questa non semplice
relazione, tuttavia, collassa quando la compagnia mineraria identifica un
ricco deposito di unobtanium sotto l’albero cerimoniale sacro dei Na’vi. Ne
nasce un conflitto tra la compagnia, che vuole distruggere l’albero sacro e
privare la terra del metallo, e i nativi. La guerra sembra una causa persa per
gli abitanti del pianeta, finché un operatore umano specializzato diserta e
guida il popolo Na’vi alla vittoria.
Oggi gli avatar e i replicanti sono fantascienza, ma un giorno potrebbero
rappresentare uno strumento essenziale per la ricerca scientifica. Il corpo
umano è fragile, forse troppo per i pericoli insiti in determinate imprese, tra
cui i viaggi spaziali. Sebbene la fantascienza sia ricca delle eroiche
prodezze compiute da astronauti coraggiosi ai confini più remoti della
galassia, la realtà è molto diversa: le radiazioni dello spazio sono tanto
intense che gli astronauti devono dotarsi di schermi adatti, altrimenti
possono subire gli effetti di un invecchiamento prematuro, o essere vittime
di malattie da radiazioni e cancro. I lampi solari possono riversare su una
navicella spaziale radiazioni letali. Un semplice volo transatlantico dagli
Stati Uniti all’Europa ci espone a un millirem di radiazioni all’ora
(all’incirca la stessa quantità a cui siamo esposti durante una radiografia
dentale), ma nello spazio le radiazioni possono essere molto più intense,
specie in presenza di raggi cosmici o esplosioni solari (nel corso di alcune
intense tempeste solari la NASA ha avvertito gli astronauti americani, di
stanza nella stazione spaziale, di spostarsi nelle sezioni più schermate).
Molti altri pericoli ci aspettano nello spazio: le micrometeore, la
prolungata assenza di peso e l’aggiustamento a diversi campi di gravità.
Dopo solo pochi mesi in assenza di peso, il corpo umano perde una quantità
considerevole di calcio e minerali, lasciando gli astronauti incredibilmente
deboli nonostante facciano esercizio tutti i giorni; al rientro sulla Terra,
dopo un anno nello spazio, gli astronauti russi si dovettero letteralmente
trascinare fuori dalle navette spaziali. Inoltre, alcuni degli effetti della
perdita di muscolatura e ossatura potrebbero essere permanenti, e ciò
significa che gli astronauti potrebbero risentire dell’assenza di peso
prolungata per il resto della loro vita.
Il pericolo delle micrometeore e dei campi magnetici lunari è tanto
grande che molti scienziati hanno proposto di realizzare una gigantesca
caverna sotterranea per stabilire una stazione spaziale lunare permanente, e
proteggere così gli astronauti. A tal scopo si potrebbero utilizzare le caverne
naturali che si creano nei tunnel lavici vicino ai vulcani estinti, ma il modo
più sicuro di esplorare la luna resta la comodità dei nostri salotti: protetti da
tutti i pericoli, gli astronauti potrebbero controllare dei replicanti ed
eseguire gli stessi compiti, riducendo allo stesso tempo i costi dei viaggi
spaziali, dal momento che il supporto vitale all’equipaggio è estremamente
costoso.
Forse, quando la prima navetta interplanetaria raggiungerà un pianeta
distante, e il replicante di un astronauta poserà il piede sul terreno alieno, lui
o lei potrà esordire dicendo: “Un piccolo passo per la mente dell’Uomo…”.
Uno dei possibili problemi di questo approccio è il tempo necessario a
un messaggio per viaggiare fino alla luna, e oltre: un segnale radio impiega
poco più di un minuto a raggiungere la luna, e questo non impedirebbe agli
astronauti sulla Terra di controllare con facilità un replicante che si trovi lì,
ma più difficile sarebbe comunicare con i replicanti su Marte, perché per
raggiungerlo il segnale radio impiega almeno venti minuti.
La tecnologia dei replicanti avrebbe un impatto sul piano pratico anche
più vicino a casa: in Giappone l’incidente al reattore di Fukushima, nel
2011, ha causato miliardi di dollari di danni e, dal momento che gli operai
non possono entrare nelle aree contaminate per più di qualche minuto, la
bonifica definitiva potrebbe impiegare anche quarant’anni. Sfortunatamente
i robot odierni non sono ancora abbastanza avanzati per operare all’interno
di forti campi radioattivi ed eseguire le riparazioni necessarie: gli unici
robot utilizzati a Fukushima sono piuttosto primitivi, semplici telecamere
posizionate su computer a quattro ruote. Un automa vero e proprio che
possa pensare da solo (o essere controllato da un operatore lontano) ed
eseguire le riparazioni all’interno di campi magnetici intensi è ancora
lontano parecchi decenni.
La mancanza di robot industriali è stata una grossa limitazione per i
sovietici durante l’incidente di Chernobyl in Ucraina, nel 1986: gli operai
mandati direttamente sul sito dell’incidente per estinguere le fiamme
morirono a causa dell’esposizione alle radiazioni, e Mikahil Gorbaciov
dovette infine ordinare all’aereonautica sovietica di “interrare” il reattore,
lanciando dagli elicotteri cinquemila tonnellate di sabbia di boro e cemento.
I livelli di radiazione erano così alti che per realizzare le opere di
contenimento furono adoperati più di duecentocinquantamila operai,
ciascuno dei quali poteva eseguire le riparazioni all’interno del reattore solo
per alcuni minuti, ricevendo la massima esposizione alle radiazioni
sopportabile da una persona per tutta la vita; ognuno di essi ricevette una
medaglia. L’enorme impresa ha rappresentato l’opera di ingegneria civile
più grande mai realizzata, e di cui i robot di oggi non sarebbero stati capaci.
La Honda Corporation, infatti, ha progettato un robot potenzialmente in
grado di operare in ambienti radioattivi letali, ma non è ancora pronto14. Un
sensore EEG posizionato sulla testa di un operatore, e connesso a un
computer che ne analizza le onde cerebrali e che trasmette i messaggi, così
elaborati, via radio ad ASIMO (Advanced Step in Innovative Mobility),
permette all’operatore, modulando le proprie onde cerebrali, di controllare
il robot solo con il pensiero.
Per sfortuna, ora come ora questo robot non è in grado di eseguire le
riparazione necessarie a Fukushima, dal momento che è in grado di
compiere quattro movimenti basilari (solo della testa e delle spalle), mentre
per riparare un impianto nucleare sono necessari centinaia di movimenti.
ASIMO non è abbastanza avanzato da realizzare semplici compiti come
ruotare un cacciavite o usare un martello.
Anche altri gruppi stanno esplorando le potenzialità del controllo
mentale dei robot. All’università di Washington, Rajesh Rao ha creato un
automa simile, controllato da un operatore che indossa un casco EEG:
Morpheus, un luccicante robot umanoide alto 50 centimetri, deve il suo
nome a un personaggio del film Matrix e all’antica divinità greca del sonno.
Indossando il casco EEG lo studente volontario esegue dei movimenti, per
esempio con la mano, che generano dei segnali EEG registrati poi dal
computer. Alla fine della fase di addestramento il computer possiede un
catalogo di segnali associati a diverse, specifiche, azioni. A quel punto il
robot è programmato per muovere la propria mano ogni qual volta riceve un
determinato segnale EEG, così, pensando di muovere la propria mano,
l’operatore fa muovere la mano di Morpheus. La prima volta che una
persona indossa il casco EEG il computer impiega circa dieci minuti per
calibrarsi sui suoi segnali cerebrali, ma alla fine ci si impratichisce, e si può
guidare il robot facendogli fare dei passi verso di noi e raccogliere un cubo
da un tavolo, dirigerlo per circa due metri fino a un altro tavolo e fargli
appoggiare il cubo15.
La ricerca sta progredendo in fretta anche in Europa. Nel 2012 gli
scienziati svizzeri della École Polytechnique Fédérale di Losanna hanno
presentato il loro ultimo lavoro, un robot guidato telepaticamente da sensori
EEG il cui operatore può trovarsi fino a cento chilometri di distanza: il suo
aspetto ricorda Roomba, l’aspirapolvere automatico presente in molte case,
ma in realtà si tratta di un robot altamente sofisticato, equipaggiato di
telecamera e in grado di orientarsi in un ufficio affollato. Un paziente
paralizzato potrebbe, per esempio, guardare il monitor di un computer
connesso alla videocamera del robot, vedere attraverso i suoi occhi e, a
parecchi chilometri di distanza, controllarne il movimento con il solo
pensiero16.
Forse in futuro i lavori più pericolosi saranno eseguiti da robot
controllati così. Nicolelis sostiene che «saremo probabilmente in grado di
operare delegati e ambasciatori, così come robot e navi spaziali di diverse
forme e dimensioni, mandate a esplorare stelle e pianeti negli angoli più
distanti dell’universo…»17.
Nel 2010 il mondo ha osservato con sgomento la fuoriuscita di cinque
milioni di barili di petrolio nel Golfo del Messico; lo sversamento della
Deepwater Horizon è stato uno dei disastri petroliferi più gravi della storia,
eppure gli ingegneri sono stati incapaci di intervenire per quasi tre mesi. Per
settimane i sub robot controllati in remoto si sono impegnati, invano, per
tappare la falla, in quanto non possedevano la destrezza e la versatilità
necessarie: se fosse stato possibile inviare dei sommozzatori replicanti, la
cui sensibilità per la manipolazione degli strumenti è molto maggiore,
avrebbero risolto il problema in pochi giorni, evitando miliardi di danni al
territorio e in cause giudiziarie.
Un’altra possibilità è rappresentata dai sottomarini replicanti,
microcapsule che in futuro potranno essere iniettate nel nostro corpo per
eseguire delicate operazioni chirurgiche. L’idea fu esplorata per la prima
volta nel film Viaggio allucinante, interpretato da Raquel Welch: gli
scienziati riuscivano a ridurre un sottomarino alle dimensioni di un globulo
rosso e a iniettarlo nel flusso sanguigno di un paziente colpito da embolia
cerebrale. Restringere gli atomi vìola le leggi della fisica quantistica, ma un
giorno forse potremo inoculare sistemi microelettromeccanici (MEMS,
Micro Electro-Mechanical Systems), grandi quanto una cellula, e tanto
piccoli da poter stare sulla punta di spillo, direttamente nel flusso ematico.
Essi sfruttano le stesse tecniche di incisione usate dalle aziende della
Silicon Valley, capaci di inserire centinaia di milioni di transistor su un
wafer delle dimensione di un’unghia: in tal modo anche un’elaborata
macchina dotata di ingranaggi, leve, carrucole e addirittura motori potrebbe
essere resa più piccola del punto alla fine di questa frase. Un giorno, forse,
potremo comandare telepaticamente un sottomarino MEMS indossando un
casco pieno di elettrodi, ed effettuare un intervento chirurgico dall’interno
del corpo umano.
La tecnologia MEMS potrebbe aprire nuovi orizzonti della medicina e
inaugurare un’era di operazioni eseguite grazie a microdispositivi che
operano direttamente dentro il corpo; i sottomarini MEMS potrebbero
perfino guidare delle nanosonde cerebrali, così da poterle collegare con
precisione ai soli neuroni coinvolti in specifici comportamenti, facendo sì
che ricevano e trasmettano solo i loro segnali, ed eliminando
l’approssimazione odierna.

Il futuro

Tra non molto i risultati ottenuti oggi nei laboratori di tutto il mondo
potrebbero alleviare le sofferenze delle persone affette da paralisi o
disabilità: grazie al potere della mente esse potranno comunicare con i
propri cari, controllare la propria sedia a rotelle e il proprio letto,
camminare (guidando degli arti meccanici), usare un elettrodomestico e
condurre una vita quasi normale.
Sul lungo termine, invece, questi progressi potrebbero avere importanti
conseguenze pratiche ed economiche a livello mondiale, dal momento che
verso la metà di questo secolo l’interazione mentale con i computer
potrebbe divenire la norma. Il giro di affari dell’industria dei computer si
aggira intorno a migliaia di miliardi di dollari, e rappresenta un mercato in
grado di creare giovani miliardari e nuove società nel giro di una notte: i
progressi di questo tipo di interfacce avranno quindi di certo un effetto su
Wall Street, oltre che nei nostri salotti.
I dispositivi che oggi usiamo per interagire con i computer (il mouse, la
tastiera, i portatili e i notebook, ecc.) potrebbero pian piano sparire per
lasciare spazio a semplici comandi mentali, che ordineranno a minuscoli
chip nascosti nell’ambiente di soddisfare i nostri desideri. Seduti in ufficio,
a passeggio nel parco, guardando le vetrine o semplicemente rilassandoci,
la nostra mente potrebbe interagire con decine di chip per controllare il
nostro conto in banca, organizzare una serata a teatro o fare una
prenotazione.
Anche i maestri dell’arte potrebbero trarre vantaggio da questa
tecnologia: se un artista riuscisse a visualizzare mentalmente la propria
opera, potrebbe poi riprodurre l’immagine su schermi olografici
tridimensionali grazie ai sensori EEG. Dal momento che l’immagine
mentale non sarebbe precisa quanto l’oggetto reale, egli potrebbe poi
migliorarla immaginandola più e più volte: dopo varie ripetizioni, la
versione definitiva potrebbe essere realizzata grazie a una stampante 3D.
Allo stesso modo, gli ingegneri potrebbero progettare modelli in scala di
ponti, tunnel e aeroporti usando solo la propria immaginazione, e sempre
con il pensiero potrebbero apportare all’istante qualsiasi modifica al
progetto originale; i singoli pezzi della macchina così progettata potrebbero
passare direttamente dallo schermo del computer alla stampante 3D.
Chi critica questa possibilità sostiene che i poteri telecinetici presentino
un limite enorme: la mancanza di energia. Alcuni super eroi possono
muovere una montagna col pensiero, come nel film X-Men: Conflitto finale,
in cui il perfido Magneto sposta il Golden Gate puntandovi semplicemente
un dito. Tuttavia il corpo umano può riunire in media solo circa 0,15 kW di
potenza, ed è quindi troppo debole per realizzare le imprese erculee
illustrate nei fumetti; ecco perché esse sono frutto di pura fantasia.
Il problema, però, ha una soluzione. Potremmo collegare la nostra
mente a una fonte di energia esterna, ingigantendone così la potenza di
milioni di volte, e avvicinandola a quella degli dei. In un episodio di Star
Trek l’equipaggio della nave raggiunge un pianeta lontano, dove incontra
una creatura che dichiara di essere Apollo, il dio greco del sole. L’essere,
che con i suoi trucchi di magia abbaglia tutti i membri dell’equipaggio,
sostiene di aver visitato la Terra eoni prima, quando gli uomini lo
adoravano. Eppure i membri l’equipaggio, scettici, sospettano l’inganno e
scoprono che la potenza del sedicente dio si deve in realtà a una fonte di
energia nascosta, che gli permette di realizzare i suoi inganni.
Distruggendola, egli ritorna ad essere un semplice mortale.
Allo stesso modo, anche noi in futuro potremmo controllare
mentalmente una fonte di energia che ci garantisca una forza sovraumana.
Un operaio edile, per esempio, potrebbe sfruttare tale risorsa per alimentare
i grossi macchinari necessari al suo lavoro e, in questo modo, riuscirebbe a
costruire da solo edifici e abitazioni utilizzando il potere della sua mente: la
fonte di energia provvederebbe a spostare e sollevare i carichi pesanti,
mentre l’operatore assomiglierebbe di più a un direttore d’orchestra, che
con la sola forza del suo pensiero conduce il movimento di gru e bulldozer.
La scienza comincia a raggiungere il passo della fantascienza anche in
altri modi: la saga di Guerre stellari è ambientata in un’epoca in cui la
civilizzazione umana si è diffusa in tutta la galassia, e la pace è garantita
dall’operato dei cavalieri Jedi, valorosi guerrieri che utilizzano il potere
della “Forza” per leggere nella mente e combattere con le spade laser.
Tuttavia non dovremo aspettare che l’uomo colonizzi l’intera galassia
per iniziare a sfruttare la potenza della Forza, perché, come abbiamo visto,
alcune sue declinazioni sono possibili già oggi (come per esempio la
capacità di “leggere” i pensieri altrui degli elettrodi ECOG e dei caschi
EEG). I poteri telecinetici dei cavalieri Jedi, invece, diventeranno realtà
solo quando impareremo a sfruttare telepaticamente una fonte di energia
esterna: mentre quei personaggi possono convocare a sé la propria spada
laser con un semplice movimento della mano, noi potremmo ottenere lo
stesso risultato sfruttando la forza del magnetismo (che può lanciare in aria
un martello, come vi riesce il magnete delle macchine per la risonanza
magnetica). Grazie alla moderna tecnologia, attivando telepaticamente una
fonte di energia esterna, potremmo già afferrare la spada laser che si trova
all’altro capo della stanza.

Potere divino

La telecinesi è un potere di cui sono dotati solo gli dei e i supereroi;


nell’universo dei supereroi cinematografici di Hollywood forse il
personaggio più potente è Phoenix, una donna X-Men dotata di poteri
telecinetici, grazie ai quali può muovere qualsiasi oggetto. Phoenix sposta
macchinari pesanti, blocca inondazioni e solleva aeroplani con il solo potere
della mente (alla fine, consumata dal lato oscuro del suo potere, si
impossessa di lei una furia distruttrice cosmica, capace di incenerire interi
sistemi solari e distruggere le stelle: il suo potere è così grande e
incontrollabile che la conduce all’autodistruzione).
Ma quanto lontano si potrà spingere la scienza nell’uso dei poteri
telecinetici?
In futuro, anche con una fonte esterna di energia che ingigantisca il
nostro pensiero, è improbabile che le persone divengano in grado di
muovere alcunché, fossero anche piccoli oggetti come una penna o una
tazza: come abbiamo detto, l’universo è governato da quattro forze
fondamentali, e nessuna di queste può muovere un oggetto senza una fonte
di energia esterna (quella che si avvicina di più è il magnetismo, ma il suo
effetto si esercita solo sui magneti: plastica, acqua e legno attraversano un
campo magnetico indisturbati). Anche la semplice levitazione, un trucco
sempre presente negli spettacoli di magia, oltrepassa le capacità della
scienza.
Perciò, perfino con una fonte esterna di energia è improbabile che una
persona dotata di poteri telecinetici possa essere in grado di muovere gli
oggetti a suo piacimento; tuttavia, esiste una tecnologia che ci si avvicina a
questa magia, ed è la capacità di trasformare un oggetto in un altro.
Essa è chiamata materia programmabile ed è diventata oggetto di
intensa ricerca alla Intel: l’idea alla sua base è la creazione di oggetti
costituiti da catomi, dei chip microscopici. Ciascun catomo è controllato via
wireless e può essere programmato per cambiare la carica elettrica sulla
propria superficie in modo che si leghi ad altri catomi in maniera diversa.
Programmando le cariche elettriche in un modo, i catomi si possono legare
per formare un telefono cellulare; premendo un bottone si modifica questa
programmazione e i catomi si possono riorganizzare per formare un altro
oggetto, per esempio un computer portatile.
Ho assistito a una dimostrazione di questa tecnologia18 alla Carnegie
Mellon University di Pittsburgh, dove gli scienziati sono stati in grado di
creare dei chip delle dimensioni della punta di uno spillo. Per esaminare i
catomi sono entrato in una “camera bianca” indossando un abbigliamento
specifico (una tuta bianca speciale, stivali e maschera) per evitare che la più
piccola particella di polvere entrasse nella stanza; ho potuto osservare al
microscopio l’intricata circuiteria all’interno di ciascun catomo, che rende
possibile programmarli via wireless e modificare la carica elettrica della
loro superficie. Proprio come oggi siamo in grado di programmare un
software, in futuro potremmo riuscire a programmare l’hardware.
Il prossimo passo sarà scoprire se essi possano davvero combinarsi tra
loro e creare degli oggetti, e se possano essere modificati in altri oggetti
ancora, a nostro piacimento. Per ottenere un prototipo funzionante
potremmo dover attendere fino alla metà del secolo: data la complessità
insita nella programmazione di miliardi di catomi, avremo bisogno di un
computer in grado di orchestrare le singole cariche su ciascuno di essi.
Forse per la fine del secolo potremo controllare mentalmente questo
computer, così da trasformare un oggetto in un altro; e non avremo bisogno
di memorizzarne tutti i cambiamenti e le configurazioni possibili, perché ci
basterà inviare al computer un comando mentale affinché la trasformazione
si realizzi.

Un racconto morale

Trasformare ogni proprio desiderio in realtà è un dono che possiedono


solo gli dei; tuttavia, questo potere celestiale ha anche un aspetto negativo,
dal momento che qualsiasi tecnologia può essere usata a fin di bene, così
come a fini malvagi. La scienza, in definitiva, è una lama a doppio taglio:
può contribuire a eliminare povertà, malattia e ignoranza, ma anche
danneggiare le persone, e in molti modi.
Queste tecnologie potrebbero anche rendere la guerra un’esperienza
ancor più brutale. Un giorno, forse, i combattimenti corpo a corpo si
svolgeranno tra replicanti dotati di armi altamente tecnologiche: i soldati in
carne e ossa, al sicuro a migliaia di chilometri di distanza, potrebbero
utilizzare i più innovativi e tecnologici armamenti senza preoccuparsi dei
danni collaterali. Le guerre combattute con i replicanti potrebbero
proteggere la vita dei soldati, ma anche causare terribili danni ai civili, alle
proprietà e all’ambiente.
Il problema più grande di questo potere potrebbe essere la sua potenza,
forse superiore alle capacità di controllo di qualsiasi comune mortale. Nel
romanzo Carrie Stephen King esplora il mondo di una giovane perseguitata
dai compagni: messa alla berlina dal gruppo di ragazzi più popolari della
scuola, la sua vita diventa una serie infinita di insulti e umiliazioni. Ma i
suoi aguzzini non sanno che Carrie è dotata di poteri telecinetici.
Le interminabili umiliazioni che Carrie subisce culminano quando al
ballo di fine anno i ragazzi le imbrattano il vestito rovesciandole addosso
una secchiata di sangue di maiale. Qui arriva il punto di rottura: dopo aver
raccolto tutti i suoi poteri telecinetici, la ragazza intrappola i compagni nella
scuola e li annienta, uno per uno. Deciderà alla fine di bruciare l’intero
edificio scolastico, ma i suoi poteri telecinetici si riveleranno essere così
potenti che nemmeno lei riuscirà a tenerli sotto controllo, e morirà
nell’incendio della sua casa, da lei stessa provocato.
Il potere della telecinesi potrebbe ritorcersi contro al suo detentore, e
non solo: pur con tutte le precauzioni possibili per comprendere e
imbrigliare questa capacità, essa potrebbe comunque distruggerci, se per
ironia obbedisse troppo fedelmente al nostro pensiero e ai nostri comandi.
A quel punto sarebbero i nostri stessi pensieri a determinare il nostro
destino.
Il film Il pianeta proibito, del 1956, si ispira a un dramma
shakespeariano, La Tempesta, che ha inizio quando una barca, con a bordo
un mago e sua figlia, si arena su un’isola deserta. Nel film un professore e
sua figlia atterrano con la propria astronave su un pianeta lontano, un tempo
dimora dei Krell, una civiltà avanzatissima il cui più grande progresso era
stato creare uno strumento per la telecinesi: qualsiasi cosa avessero
desiderato si sarebbe subito materializzata davanti a loro.
Tuttavia, alla vigilia del loro più grande trionfo, mentre stavano
mettendo in funzione il dispositivo, il popolo scomparve senza lasciare
traccia; cosa aveva distrutto l’intera civiltà dei Krell?
Quando un equipaggio di astronauti provenienti dalla Terra atterra sul
pianeta per salvare l’uomo e la figlia, si scopre che esso è infestato da un
mostro orrendo, che riduce in schiavitù i membri dell’equipaggio. Uno di
loro riesce alla fine a scoprire il segreto dei Krell e del mostro, e prima di
morire, mormora: «Mostri dell’id».
Il professore, allora, comprende la scioccante verità: dopo aver messo in
funzione la macchina per la telecinesi, i Krell si erano addormentati e i
desideri del loro inconscio si erano materializzati all’istante: nelle
profondità della loro mente erano seppelliti bisogni animali e desideri
ancestrali repressi da tempo, e le fantasie e i sogni di vendetta erano
divenuti all’improvviso reali, distruggendo la grande civiltà dei Krell in una
sola notte. Nonostante avessero conquistato molti altri mondi c’era una cosa
che non potevano controllare, il loro inconscio.
Ecco la morale: chi volesse liberare il potere della mente non deve
dimenticare che al suo interno, oltre ai più nobili traguardi e pensieri umani,
si trovano anche i mostri dell’inconscio.

Cambiare chi siamo: ricordi e intelligenza

Fin qui abbiamo discusso in che modo la scienza riuscirà ad ampliare le


nostre capacità mentali grazie alla telepatia e alla telecinesi. In pratica
rimarremmo gli stessi, dal momento che questi sviluppi non cambierebbero
in nessun modo l’essenza dell’uomo; tuttavia si sta aprendo ora una
frontiera del tutto nuova, che potrebbe alterare la natura stessa di cosa
significhi essere umani: grazie ai più recenti progressi nel campo della
genetica, della fisica dell’elettromagnetismo e della medicina, infatti, in
futuro potremmo essere in grado di alterare i ricordi e diventare addirittura
più intelligenti. L’idea di inserire un ricordo nella mente di una persona,
imparare abilità complesse in pochissimo tempo e aumentare la propria
intelligenza sta pian piano lasciando il regno della fantascienza per
diventare realtà.
Senza i ricordi saremmo perduti, alla deriva in un mare di stimoli senza
senso, incapaci di comprendere il passato, o noi stessi. Cosa succederebbe
se un giorno riuscissimo a impiantare dei ricordi artificiali nel cervello di
una persona? O se potessimo diventare maestri di qualsiasi disciplina solo
installando un programma nella nostra memoria? E cosa succederebbe se
non fossimo in grado di distinguere un ricordo vero da uno falso? Chi
saremmo allora?
Il ruolo degli scienziati sta cambiando: da osservatori passivi della
natura stanno diventando suoi artefici, e ciò significa che un giorno
potremmo riuscire a manipolare ricordi, pensieri, intelligenza e coscienza;
non più semplici testimoni degli intricati meccanismi della mente, in futuro
potremmo divenirne i controllori.
Ora, quindi, rispondiamo a una domanda: è possibile creare dei ricordi
artificiali?

1
Sul “New York Times”, 17 maggio 2012, p. 17.
2
Intervista radiofonica a John Donoghue nel novembre 2009 per Science Fantastic.
3
Centers for Disease Control and Prevention, Washington, D.C., consultabile all’indirizzo internet
http://tinyurl.com/lxjyjas.
4
Consultabile all’indirizzo internet http://tinyurl.com/k24xdz9.
5
Consultabile all’indirizzo internet http://tinyurl.com/kdyp3fl.
6
Consultabile all’indirizzo internet http://tinyurl.com/alo38n4. CBS 60 Minutes, andato in onda il
30 dicembre 2012.
7
Ivi.
8
In “Wall Street Journal”, 29 maggio 2012.
9
Sul “New York Times”, marzo 2013, consultabile all’indirizzo internet
http://tinyurl.com/ckq7lhk. Si veda anche l’“Huffington Post”, 28 febbraio 2013,
http://tinyurl.com/c4w5p85.
10
“USA Today”, 8 agosto 2013, p. 1D.
11
Intervista a Miguel Nicolelis nell’aprile 2011.
12
L’obiettivo è stato raggiunto con successo. Per un approfondimento si veda
http://tinyurl.com/q9a757z. [N.d.R.].
13
Per una discussione completa sull’esoscheletro, si veda Miguel Nicolelis, Il cervello universale:
la nuova frontiera delle connessioni tra uomini e computer, Bollati Boringhieri, Torino 2013 (ed.
orig, Beyond Boundaries: The New Neuroscience of Connecting Brains with Machines – and
How It Will Change Our Lives, 2011).
14
Consultabile all’indirizzo internet http://www.asimo.honda.com. Si veda anche l’intervista ai
creatori di ASIMO dell’aprile 2007 per la serie televisiva in onda sulla BBC Visions of the
Future.
15
Consultabile all’indirizzo internet http://tinyurl.com/npyr9bz.
16
In “Discover”, 9 dicembre 2011, consultabile all’indirizzo internet http://tinyurl.com/8xcbnzg.
17
Nicolelis, cit., p. 315.
18
Intervista agli scienziati della Carnegie Mellon nell’agosto 2012 per la serie televisiva Sci Fi
Science, in onda su Discovery/Science Channel TV.
Capitolo 5
Ricordi e pensieri su ordinazione

Se il nostro cervello fosse abbastanza semplice da capire, non saremmo abbastanza intelligenti
per capirlo.
Anonimo

Neo è Il Prescelto. Solo lui può portare alla vittoria un’umanità sconfitta
dalle Macchine: solo Neo può distruggere Matrix, che per controllare
l’umanità ha impiantato nel cervello degli uomini dei falsi ricordi. In una
scena del film, divenuta ormai classica, le Sentinelle protettrici di Matrix
hanno accerchiato Neo e sembra che l’ultima speranza dell’umanità stia per
essere distrutta; ma grazie a un elettrodo precedentemente impiantato nella
parte posteriore del collo del protagonista, Neo può imparare
istantaneamente qualsiasi arte marziale, e nel giro di pochi secondi diventa
un maestro di karate capace di sconfiggere i nemici a colpi di calci volanti
mozzafiato e pugni ben assestati. Nel film imparare le incredibili capacità di
un maestro di cintura nera di karate è semplice come infilare una spina nel
cervello e premere “download”. Forse, un giorno, questo sarà possibile
anche per noi, cosa che aumenterà in maniera sensazionale le nostre
capacità.
Ma cosa accadrebbe se questi ricordi fossero falsi? In Atto di forza,
l’eroe è sottoposto a una procedura simile, e la distinzione tra realtà e
finzione gli risulta del tutto offuscata: fino alla fine del film combatterà i
cattivi su Marte, quando all’improvviso si renderà conto di esserne il leader.
Scioccato, scopre che i suoi ricordi di cittadino rispettoso della legge sono
completamente falsi.
Hollywood ama i film che esplorano l’affascinante, benché fittizio,
mondo dei ricordi artificiali. Con la tecnologia di oggi tutto questo non è
chiaramente possibile, ma possiamo immaginare che un giorno, tra molti
decenni, lo possa diventare.

Come ricordiamo

Come Phineas Gage, lo strano e sensazionale caso di Henry Gustav


Molaison (conosciuto nella letteratura scientifica con le sole iniziali HM) ha
permesso ai ricercatori di conseguire grandi successi nel campo della
neurologia, e di comprendere l’importanza dell’ippocampo nella
formazione dei ricordi.
A seguito di un incidente di cui fu vittima all’età di nove anni, HM
riportò alcuni lesioni cerebrali che gli causavano degli attacchi convulsivi
debilitanti, finché nel 1953, compiuti venticinque anni, fu sottoposto a
un’operazione chirurgica che riuscì ad attenuarli. I chirurghi che eseguirono
l’operazione rimossero per sbaglio parte dell’ippocampo, e ciò fece
emergere un altro problema: se all’inizio HM sembrava normale, presto fu
chiaro che l’uomo non era più in grado di ricordare niente. HM viveva
sempre nel presente: salutava le stesse persone diverse volte al giorno con
la stessa espressione, come se le avesse viste per la prima volta, e tutto ciò
che entrava nella sua memoria durava solo pochi minuti, per poi
scomparire: come Bill Murray ne Il giorno della marmotta, HM era
destinato a rivivere lo stesso giorno, giorno dopo giorno, per il resto della
sua vita; ma, a differenza del personaggio di Bill Murray, HM non era in
grado di ricordarsi le interazioni precedenti. La sua memoria a lungo
termine, invece, era rimasta intatta, ed era in grado di ricordare gli eventi
della vita antecedenti l’intervento chirurgico. Privo di un ippocampo
funzionante, HM non era in grado di immagazzinare nuove esperienze: per
esempio, ogni volta che si guardava allo specchio rimaneva impietrito di
fronte al volto di un vecchio che non riconosceva, dal momento che
pensava di avere ancora venticinque anni (per sua fortuna, anche quel
ricordo scompariva presto nella nebbia). In un certo senso, HM era come un
animale, incapace di ricordare il passato prossimo, o di simulare il futuro:
privo di un ippocampo funzionante, HM era regredito da un livello 3 a un
livello 2 di coscienza.
Oggi i progressi nel campo delle neuroscienze hanno portato a una
migliore comprensione di come i ricordi si formino e siano immagazzinati e
richiamati alla memoria. «Questa immagine si è andata componendo
davanti ai nostri occhi solo negli ultimi anni, grazie a due importanti
sviluppi della tecnologia: i computer e gli scanner» ha dichiarato Stephen
Kosslyn, neuroscienziato di Harvard1.
Come sappiamo, le informazioni sensoriali (per esempio vista, tatto e
gusto) devono passare per prima cosa attraverso il tronco cerebrale e il
talamo, che agisce come una stazione di re-indirizzamento e ritrasmette i
segnali ai diversi lobi sensoriali del cervello, dove sono analizzati. Le
informazioni così elaborate raggiungono la corteccia prefrontale, dove
entrano nella coscienza e formano quella che consideriamo la nostra
memoria a breve termine, il cui intervallo di lavoro può andare da pochi
secondi a qualche minuto (si veda la figura 11).
Perché siano immagazzinati per un tempo maggiore, questi ricordi
devono passare per l’ippocampo, dove sono suddivisi in categorie diverse.
Anziché immagazzinare tutti i ricordi in una sola area, come fosse un
nastro o un hard-disk, l’ippocampo reindirizza i vari frammenti alle aree
corticali (questo metodo è in realtà più efficiente rispetto a una registrazione
di tipo sequenziale: se i nostri ricordi fossero registrati uno dopo l’altro,
come su un nastro magnetico, avremmo bisogno di un enorme spazio di
memoria. In futuro anche i sistemi di registrazione digitale potrebbero
adottare questo trucco). I ricordi emotivi, per esempio, sono immagazzinati
nell’amigdala, mentre le parole sono registrate nel lobo temporale; i colori e
le altre informazioni visive sono raccolte nel lobo occipitale, e il senso del
tatto e del movimento si ritrova nel lobo parietale. Ad oggi gli scienziati
hanno identificato più di venti categorie di ricordi immagazzinate in diverse
parti del cervello, tra cui i concetti legati a oggetti come la frutta e la
verdura, le piante, gli animali, le parti del corpo, i colori, i numeri, le lettere,
i sostantivi, i verbi, i nomi propri, i volti, le espressioni del viso, le
emozioni e i suoni2.
Figura 11. L’immagine mostra il processo di creazione dei ricordi. Gli impulsi provenienti dai sensi
passano attraverso il tronco cerebrale e raggiungono il talamo, si dirigono verso le diverse aree
corticali e arrivano, infine, alla corteccia pre-frontale. Ritornano poi all’ippocampo, dove si
stabilizzano in ricordi a lungo termine (Jeffrey L. Ward).

Un singolo ricordo (per esempio una passeggiata al parco) implica la


separazione e l’immagazzinamento di diverse informazioni in varie regioni
del cervello; ma la percezione di un singolo aspetto del ricordo (per
esempio l’odore dell’erba appena tagliata) può subito spingere il cervello a
riunire tutti i frammenti e ricreare il ricordo, completo e coerente. Il fine
ultimo della ricerca sulla memoria è capire in che modo questi frammenti
siano riassemblati dal cervello per far riemergere il ricordo dell’esperienza
passata, ovvero il cosiddetto problema del legamento (binding), la cui
soluzione potrebbe aiutarci a spiegare molti dei peculiari aspetti della
memoria. Antonio Damasio3 ha descritto il caso di alcuni pazienti che, a
seguito di ictus, non erano più capaci di identificare una singola categoria di
oggetti, pur rimanendo intatta la loro capacità di ricordare qualsiasi altra
cosa: l’ictus aveva danneggiato solo un’area del cervello, per l’appunto
dov’era immagazzinata quella particolare categoria.
Il problema del legamento si complica ulteriormente se consideriamo
che tutti i nostri ricordi ed esperienze sono personali: i ricordi sono su
misura di ogni singolo individuo, e le categorie di una persona potrebbero
non corrispondere a quelle di un’altra. Un enologo, per esempio, potrebbe
poter contare su svariate categorie mentali per etichettare le sottili
variazioni del gusto, mentre un fisico potrebbe possedere svariate categorie
mentali per classificare le diverse equazioni. Dopo tutto, tali categorie sono
il sottoprodotto dell’esperienza, quindi persone diverse potrebbero averne, a
proprio appannaggio, di diverse.
Un approccio innovativo al problema del legamento parte dall’analisi
delle onde elettromagnetiche del cervello, che oscillano a circa 40 cicli al
secondo e che sono rilevabili tramite EEG: un frammento di memoria
potrebbe quindi oscillare a una frequenza ben precisa e stimolarne un altro,
immagazzinato in una parte distante del cervello4. In passato si pensava che
i ricordi fossero fisicamente immagazzinati gli uni vicino agli altri, mentre
secondo questa nuova teoria i ricordi non sarebbero collegati spazialmente
bensì temporalmente, oscillando all’unisono. Se ciò fosse verificato
significherebbe che le oscillazioni elettromagnetiche cerebrali collegano le
diverse regioni del cervello, ri-creando i ricordi. Da ciò ne deriva che il
costante flusso di informazioni tra ippocampo, corteccia prefrontale, talamo
e diverse aree corticali potrebbe non avvenire esclusivamente per via
neurale: una sua parte potrebbe realizzarsi in forma di risonanza attraverso
le diverse strutture cerebrali.

Registrare un ricordo

Purtroppo HM è scomparso nel 2008, all’età di ottantadue anni, prima


di poter vedere alcuni sensazionali risultati conseguiti dalla scienza: la
creazione di un ippocampo artificiale e la possibilità di inserire dei ricordi
nel cervello. Anche se sembra fantascienza, nel 2011 gli scienziati della
Wake Forest University e della University of Southern California sono
riusciti a registrare il ricordo creato dal cervello di un topo e a registralo in
forma digitale su un computer. Pur essendo solo una dimostrazione di
principio, l’esperimento ha dimostrato che il sogno di inserire un ricordo
nel cervello potrebbe un giorno diventare realtà.
L’idea sembrava irrealizzabile, perché, come abbiamo visto, i ricordi
non sono altro che l’elaborazione di una serie di esperienze sensoriali
immagazzinate in diversi punti della neocorteccia e del sistema limbico.
Ma, grazie a HM, abbiamo anche scoperto che esse transitano tutte
attraverso l’ippocampo, dove sono convertite in ricordi a lungo termine.
Theodore Berger, a capo del progetto, ha dichiarato: «Se non sarà possibile
farlo con l’ippocampo, non sarà possibile per nessun’altra parte del
cervello»5.
Grazie alle tecniche di imaging cerebrale, gli scienziati della Wake
Forest e della USC hanno potuto osservare che nell’ippocampo del topo si
trovano almeno due tipi diversi di neuroni (identificati con le sigle CA1 e
CA3), impegnati a comunicare tra loro quando il soggetto impara un
compito nuovo. Dopo aver insegnato ai topi a premere due leve in sequenza
per ottenere una ricompensa, gli scienziati hanno iniziato ad analizzare i
risultati così ottenuti e a decodificare i relativi segnali neurali, compito che
si doveva rivelare più frustrante del previsto, perché la comunicazione tra
questi due gruppi di neuroni non sembrava seguire alcuno schema. Dopo
aver monitorato milioni di segnali, i ricercatori sono riusciti a capire quale
specifico input elettrico determinasse la comparsa di un certo output e,
grazie alle sonde cerebrali impiantate nell’ippocampo dei topi, sono stati in
grado di registrare i segnali tra CA1 e CA3 proprio mentre gli animali
imparavano a premere le due leve in sequenza.
Gli scienziati hanno poi somministrato ai topi una speciale sostanza
chimica in grado di rimuovere il ricordo del compito appreso e, dopo
qualche tempo, hanno riproposto al loro cervello la registrazione degli stessi
segnali neurali ad esso associati: gli animali erano di nuovo in grado di
ricordare il compito originale e di ripeterlo. Ciò che questi ricercatori sono
riusciti a fare è stato creare un ippocampo artificiale, capace di ricostruire
ricordi digitali: «Premi un pulsante e l’animale si ricorda; schiacci di nuovo,
e il ricordo scompare» ha dichiarato Berger. «È un passo davvero
importante: per la prima volta siamo riusciti a mettere insieme tutti i pezzi
del puzzle»6.
Come ha detto Joel Davis dell’Office of the Chief of Naval Operation,
sponsor di questo studio: «Siamo sulla strada giusta per poter creare
impianti che aumentino le nostre capacità cognitive: ora è solo questione di
tempo»7.
Se guardiamo a quello che potremmo ottenere, non sorprende quindi
che quest’area di ricerca si stia muovendo molto rapidamente. Nel 2013 è
stato compiuto un altro importante passo avanti, questa volta al MIT: gli
scienziati sono riusciti a impiantare nel cervello di un topo non solo
semplici ricordi, ma anche memorie fasulle. Ciò significa che in futuro
potremo caricare nel nostro cervello il ricordo di eventi che non si sono mai
verificati, cosa che potrebbe avere un profondo impatto sui sistemi
educativi e l’intrattenimento8.
Gli scienziati del MIT hanno utilizzato una tecnica chiamata
optogenetica (di cui parleremo più diffusamente nel Capitolo 8): essa ci
permette di attivare un gruppo di neuroni semplicemente illuminandolo.
Grazie a questa tecnologia gli scienziati sono riusciti a identificare dei
neuroni specifici, responsabili di alcuni ricordi in particolare.
Immaginiamo che il topo entri in una gabbietta e che qui gli venga
inferta una scossa elettrica: nel suo ippocampo sarà possibile isolare e
registrare l’attività dei neuroni responsabili del ricordo dell’evento
doloroso. Se poi il topo è posto in un’altra gabbia, del tutto differente e
senza pericoli, possiamo utilizzare l’optogenetica e, illuminando i neuroni
con la luce di una fibra ottica, riattivare il ricordo dello shock: il topo
esibirà quindi un comportamento di paura, nonostante la totale assenza di
pericoli.
In questo modo gli scienziati del MIT sono riusciti non solo a
impiantare ricordi normali, ma anche ricordi di eventi mai accaduti. In
futuro questa tecnica potrebbe permettere, per esempio, agli insegnanti e
agli addetti alla formazione di impiantare ricordi di nuove capacità per
riqualificare i lavoratori, o trasformare il cinema in una forma di
intrattenimento completamente nuova.

Un ippocampo artificiale

Ad oggi l’ippocampo artificiale, ancora primitivo, è in grado di


registrare solo un ricordo alla volta. Gli scienziati stanno pensando di
aumentarne la complessità in modo da riuscire a registrare una serie di
ricordi, e di ampliare il campione sperimentale fino ad includere le
scimmie. Si sta inoltre pensando di rimpiazzare i cavi con minuscoli
dispositivi radio e rendere questa tecnologia wireless, così che i ricordi
possano essere registrati e installati da remoto, evitando l’ingombro degli
elettrodi cerebrali.
Dato che nell’uomo l’ippocampo partecipa all’elaborazione dei ricordi,
le potenzialità di questa tecnologia potrebbero andare a beneficio dei
trattamenti per i casi di ictus, demenza e Alzheimer, e in generale per tutte
quelle condizioni patologiche che sorgono in seguito a un deterioramento o
una lesione di questa struttura cerebrale.
Certo, sarà necessario scendere a compromessi con diversi ostacoli:
nonostante tutto quello che abbiamo imparato grazie a HM, l’ippocampo
rimane una sorta di scatola nera, il cui funzionamento interno resta ancora,
in larga parte, ignoto. Quindi non ci è dato creare un ricordo dal nulla;
tuttavia, quando un compito è stato eseguito, e il relativo ricordo elaborato,
è possibile registrarlo e riprodurlo.

Direzioni future

In tal senso il lavoro su primati ed esseri umani sarà molto più difficile,
dal momento che in queste specie l’ippocampo è una struttura molto più
grande e complessa. Per prima cosa sarà necessario crearne una mappa
neurale dettagliata, posizionando degli elettrodi in diverse aree e
registrando i segnali che ne attraversano le diverse regioni. L’ippocampo è
diviso in quattro aree principali, da CA1 a CA4, e sarà necessario tracciare i
segnali scambiati tra ciascuna di esse.
Il secondo passo consisterà nel chiedere ad alcuni volontari di eseguire
un determinato compito, nel corso della cui realizzazione gli scienziati
registreranno gli impulsi che attraversano le diverse regioni
dell’ippocampo, registrando così il ricordo stesso. Il ricordo di ciascun
compito eseguito (per esempio saltare attraverso un cerchio) genererà uno
schema di attività elettrica a livello dell’ippocampo, che potrà essere
registrato e analizzato; sarà poi possibile creare un dizionario che abbini il
ricordo con il flusso di informazioni registrato.
Infine, il terzo passo sarà registrare il ricordo e trasmetterlo
all’ippocampo di un altro soggetto attraverso degli elettrodi, e verificare la
possibilità che esso venga interpretato correttamente dal ricevente,
permettendo in tal modo al destinatario di imparare a saltare attraverso un
cerchio senza averlo mai fatto. Se il tentativo avrà successo, sarà possibile
estendere gradualmente il tipo di ricordi e crearne un vero e proprio
archivio.
Potremmo dover aspettare decenni prima di arrivare ad avere dei ricordi
artificiali per l’uomo, ma possiamo già immaginare cosa accadrebbe: in
futuro le persone potrebbero essere assunte per creare determinate memorie,
per esempio una vacanza indimenticabile o una battaglia eroica, registrate
usando dei nanoelettrodi posizionati in diverse parti del cervello (dovranno
essere estremamente piccoli, per non interferire con la formazione del
ricordo).
I segnali generati sarebbero poi inviati via wireless a un computer e lì
registrati, e in seguito, se una persona decidesse di voler fare
quell’esperienza, potrebbe inserire nel proprio cervello il relativo ricordo
tramite degli elettrodi posizionati nel suo ippocampo.
(Tale idea, è ovvio, non è priva di complicazioni. Se provassimo a
installare il ricordo di un’attività fisica, per esempio un’arte marziale, ci
scontreremmo con il problema della “memoria muscolare”. Quando
camminiamo non pensiamo in maniera cosciente a mettere una gamba
davanti all’altra: è un’attività per noi naturalissima, dal momento che la
svolgiamo spesso e da quando siamo piccoli. Ciò significa che i segnali che
controllano le nostre gambe non hanno più origine interamente
nell’ippocampo, ma provengono anche dalla corteccia motoria, dal
cervelletto e dai gangli della base. Se in futuro volessimo inserire delle
memorie relative a, per esempio, uno sport, gli scienziati dovrebbero
decifrare il modo con cui i ricordi vengono in parte immagazzinati anche in
altre aree del cervello).

Visione e ricordi umani

La formazione dei ricordi è un compito piuttosto complesso, e


l’approccio che abbiamo discusso finora si avvale di una scorciatoia:
intercettando i segnali che attraversano l’ippocampo possiamo sfruttare
impulsi sensoriali che sono già stati elaborati. In Matrix l’elettrodo del
protagonista è posizionato a livello della parte posteriore della testa, e
carica i ricordi direttamente all’interno del cervello; ciò implica che sia
possibile decodificare gli impulsi grezzi e non ancora elaborati che
provengono dagli occhi, dalle orecchi, dalla pelle ecc., e che risalgono
lungo il midollo spinale e il tronco cerebrale, fin dentro al talamo: un
approccio molto più difficile e complesso rispetto all’analisi di messaggi già
elaborati dall’ippocampo.
Per dare solo un’idea del volume di informazioni non elaborate che
raggiungono il talamo attraverso il midollo spinale basta considerare il
senso della vista, che partecipa all’elaborazione e alla codifica di tutti i
nostri ricordi. La retina contiene all’incirca centotrenta milioni di cellule,
chiamate coni e bastoncelli, che elaborano e registrano ogni istante cento
milioni di bit di informazioni provenienti dalle immagini dell’ambiente
esterno.
Questa enorme quantità di dati è poi raccolta e trasmessa attraverso il
nervo ottico, che trasporta nove milioni di bit di informazioni al secondo,
fino al talamo. Da qui l’informazione raggiunge il lobo occipitale nella
parte posteriore del cervello, dove la corteccia visiva inizia la difficile
elaborazione dei dati; quest’area corticale è composta da numerose
sottounità (indicate con le sigle da V1 a V8), ciascuna delle quali è deputata
a un compito specifico.
L’area V1 opera proprio come uno schermo, creando sulla parte
posteriore del cervello uno schema molto simile alla forma dell’immagine
originale. La somiglianza è stupefacente, tranne che al centro, perché V1
dedica ai segnali ricevuti dalla fovea, il centro dell’occhio, un’area
proporzionalmente molto maggiore (è qui che si concentra il maggior
numero di neuroni primari): l’immagine proiettata su V1, quindi, non è una
replica perfetta dell’originale, ma è distorta proprio nella regione centrale,
che risulta occupare la maggior parte dello spazio.
Oltre all’area V1 ci sono altre aree all’interno del lobo occipitale che
elaborano aspetti diversi dell’immagine, tra cui:

Visione stereoscopica: i neuroni confrontano le immagini provenienti


dai due occhi (nell’area V2).
Distanza: i neuroni calcolano la distanza tra noi e l’oggetto che stiamo
osservando, sfruttando, tra le altre cose, la presenza delle ombre
(nell’area V3).
I colori: sono elaborati nell’area V4.
Movimento: esistono circuiti neurali diversi che identificano diverse
classi di movimento, tra cui lo spostamento in linea retta, a spirale ed
espansivo (nell’area V5).

Sono stati identificati più di trenta diversi circuiti neurali coinvolti nella
visione, ma è assai probabile che ne esistano molti di più.
Dal lobo occipitale l’informazione passa alla corteccia prefrontale, dove
è possibile finalmente “vedere” l’immagine e creare il ricordo a breve
termine. L’informazione è poi spedita all’ippocampo, che la elabora e
immagazzina per un tempo massimo di ventiquattr’ore. Il ricordo viene poi
suddiviso in parti più piccole e distribuito tra le varie aree corticali.
Il punto è che la visione, un processo che per noi avviene senza sforzo,
implica il lavoro sequenziale di miliardi di neuroni, che trasmettono milioni
di bit di informazioni al secondo. Non dimentichiamo, poi, che esse
possono giungere al cervello da tutti e cinque gli organi di senso, assieme
alle emozioni associate ad ogni immagine: il tutto è elaborato
dall’ippocampo e va a creare il semplice ricordo di un’immagine. Ad oggi
non esiste macchina che sia in grado di eguagliare la raffinatezza di questo
processo, e tentare di replicarlo è la vera sfida degli scienziati che stanno
cercando di creare un ippocampo artificiale per l’uomo.

Ricordare il futuro

Se la codificazione di un ricordo generata da un solo senso è un


processo così complesso, in che modo abbiamo sviluppato la capacità di
immagazzinare una tale enorme quantità di informazioni a lungo termine9?
Il comportamento degli animali è perlopiù guidato dall’istinto, ed essi non
sembrano possedere una memoria a lungo termine molto sviluppata.
Secondo James McGaugh, neurobiologo dell’università della California, «la
funzione della memoria è di prevedere il futuro»10, e questo ci pone di
fronte a un’interessante possibilità: la memoria a lungo termine potrebbe
essersi sviluppata proprio per la sua utilità nella previsione degli eventi che
devono ancora accadere. In altre parole, la capacità di riportare alla
memoria eventi del lontano passato si deve alle necessità e ai vantaggi
legati alla simulazione del futuro.
Gli studi di imaging cerebrale realizzati dagli scienziati della
Washington University di St. Luis mostrano, in effetti, che le aree coinvolte
nel recupero dei ricordi sono coinvolte anche nella simulazione del futuro;
in particolare, i percorsi neurali che collegano la corteccia prefrontale
dorsolaterale all’ippocampo si attivano quando una persona è impegnata a
pianificare il futuro e a ricordare il passato. In un certo senso possiamo dire
che il cervello tenta di “ricordare il futuro”, attingendo tra i ricordi del
passato per determinare in che modo un certo evento si evolverà. Questo
potrebbe anche spiegare il fatto che le persone affette da amnesia, come
HM, siano incapaci di immaginare ciò che faranno in futuro o anche solo il
giorno dopo.
«Potremmo definirlo un viaggio mentale nel tempo, ovvero la capacità
di prendere i pensieri che riguardano noi stessi e proiettarli nel passato e nel
futuro»11 ha dichiarato Kathleen McDermott della Washington University,
aggiungendo che lo studio condotto rappresenta una «potenziale risposta
alla domanda sull’utilità evolutiva della memoria. La ragione per cui siamo
in grado di ricordare il passato nei suoi più vividi dettagli potrebbe risiedere
proprio nel fatto che questo processo svolge un ruolo fondamentale nella
nostra capacità di immaginare noi stessi all’interno di scenari futuri,
capacità che possiede un chiaro significato adattivo»12. Per un animale
ricordare il passato è perlopiù uno spreco di risorse, dal momento che il
vantaggio che ottiene è minimo, ma per l’uomo simulare il futuro sulla base
delle lezioni passate rappresenta un motivo essenziale della sua intelligenza.

Una corteccia artificiale

Nel 2012 gli stessi scienziati della Wake Forest Baptist Medical Center
e della University of Southern Carolina che avevano creato l’ippocampo
artificiale del topo, hanno annunciato un altro esperimento, di portata
ancora più vasta: anziché registrare un ricordo nell’ippocampo murino,
sono riusciti a duplicare un processo cognitivo molto più complesso
generato nella corteccia di un primate.
Per prima cosa i ricercatori hanno selezionato cinque scimmie rhesus e
hanno inserito dei minuscoli elettrodi all’interno di due strati della loro
corteccia cerebrale chiamati L2/3 e L5, per poi registrare i segnali neurali
che li attraversavano mentre ogni singola scimmia imparava a eseguire un
compito sperimentale (che prevedeva di porla in osservazione di una serie
di immagini, premiandola ogni qual volta fosse stata in grado di scegliere,
da un mazzo di immagini più corposo, le stesse viste in precedenza). Dopo
una fase di preparazione, le scimmie erano divenute in grado di eseguire il
compito con un’accuratezza pari al 75 per cento. Se gli scienziati
ritrasmettevano il segnale preregistrato alla corteccia cerebrale dell’animale
impegnato nell’esecuzione del test, i risultati miglioravano del 10 per cento.
Se alla scimmia erano iniettate determinate sostanze i risultati calavano del
20 per cento, ma se la registrazione era di nuovo inviata alla corteccia, la
performance si alzava oltre il livello normale. Pur considerando il campione
piuttosto limitato, e nonostante i miglioramenti della prestazione fossero
modesti, lo studio ha indicato che la registrazione è riuscita a catturare in
maniera accurata il processo decisionale della corteccia.
Essendo stato condotto su primati e non su modelli murini, e avendo
coinvolto la corteccia cerebrale e non solo l’ippocampo, questo studio
potrebbe avere importanti implicazioni nel momento in cui iniziasse la
sperimentazione sull’uomo. Sam A. Deadwyler della Wake Forest ha detto:
«L’idea alla base di questo studio è la possibilità di avere uno strumento,
come questo, che possa generare dei segnali in uscita in grado di aggirare
un’area cerebrale danneggiata e creare una connessione alternativa»13.
L’esperimento trova la sua possibile applicazione nei pazienti con un danno
alla neocorteccia: come una sorta di stampella, questo strumento potrebbe
eseguire le operazioni cognitive di pertinenza dell’area danneggiata.

Un cervelletto artificiale

Ma l’ippocampo e la neocorteccia artificiali sono solo i primi passi, e in


futuro avremo l’equivalente artificiale anche di altre parti del cervello. Gli
scienziati della Tel Aviv University, in Israele, hanno già creato un
cervelletto (struttura che svolge una compito essenziale nel cervello
rettiliano, controllando l’equilibrio e altre funzioni corporali di base)
sintetico nel ratto.
Quando dirigiamo un soffio d’aria verso il suo muso, il ratto sbatte le
palpebre; se allo stesso tempo riproduciamo un suono, il ratto può essere
condizionato a esibire questo comportamento alla sola riproduzione del
suono. L’obiettivo degli scienziati israeliani era la creazione di un
cervelletto artificiale che duplicasse questo evento.
Per prima cosa, gli scienziati hanno registrato i segnali neurali in
ingresso nel tronco cerebrale quando l’animale riceveva il soffio d’aria sul
muso e sentiva il suono riprodotto; i segnali così registrati erano poi
elaborati e trasmessi a un’altra sede del tronco cerebrale: come previsto,
alla ricezione del segnale i ratti sbattevano le palpebre. Questa era la prima
volta non solo che un cervelletto artificiale funzionava in modo corretto, ma
che dei messaggi provenienti da una parte del cervello erano processati e
ritrasmessi a una sua parte diversa.
Commentando questo lavoro, Francesco Sepulveda dell’università
dell’Essex ha detto: «Questo dimostra i progressi compiuti verso la
creazione di un circuito che possa un giorno sostituire aree cerebrali
danneggiate, e perfino aumentare le capacità del cervello sano».
Lo stesso Sepulveda è convinto che i cervelli artificiali abbiano un
grande potenziale, e ha aggiunto: «Questo è un processo che probabilmente
richiederà parecchi decenni, ma scommetto che prima della fine del secolo i
correlati sintetici di specifiche parti del cervello, come l’ippocampo o la
corteccia visiva, saranno disponibili»14.
Sebbene i progressi in questo campo si stiano susseguendo a un ritmo
incredibile (considerata la complessità del compito), si tratta di una corsa
contro il tempo, dato che i nostri sistemi sanitari stanno ora affrontando la
più grande minaccia della storia: il declino, dal punto di vista cognitivo,
delle persone affette da Alzheimer.

Alzheimer, il distruttore della memoria

Alcuni sostengo che l’Alzheimer sia la malattia del secolo: oggi gli
americani affetti da questo tipo di demenza sono quasi cinque milioni e
mezzo15, e ci si aspetta che il loro numero quadruplichi entro il 2050. Il 5
per cento delle persone di età compresa tra i sessantacinque e i
settantacinque anni ha l’Alzheimer, ma la percentuale raggiunge il 50 per
cento se si si considerano le persone con un età superiore agli ottantacinque
anni, pur in assenza di chiari fattori di rischio (se torniamo indietro, agli
inizi del ventesimo secolo, l’aspettativa di vita negli Stati Uniti era di
quarantanove anni, quindi l’Alzheimer non rappresentava un problema
significativo; oggi, invece, le persone al di sopra degli ottant’anni
rappresentano uno dei gruppi demografici con la crescita maggiore).
Durante le prime fasi della malattia l’ippocampo, la parte del cervello
attraverso cui elaboriamo i ricordi, inizia un lento processo di
deterioramento: gli studi di imaging cerebrale mostrano chiaramente che le
dimensioni dell’ippocampo nei pazienti affetti da Alzheimer si riducono,
così come il collegamento tra questo e la corteccia prefrontale, lasciando il
cervello incapace di elaborare in maniera appropriata i ricordi a breve
termine. I ricordi a lungo termine già immagazzinati nella corteccia
cerebrale rimangono relativamente intatti, quanto meno all’inizio, e ciò
porta la persona a non essere in grado di ricordare cosa abbia fatto pochi
minuti prima, pur riuscendo a rievocare in modo nitido eventi accaduti
decine di anni prima.
Negli suoi stadi finali la malattia progredisce al punto che anche i
ricordi a lungo termine vanno distrutti: il paziente non è più in grado di
riconoscere i propri figli o il partner, né di ricordare chi sia, e può
addirittura cadere in uno stato vegetativo pseudo-comatoso.
Purtroppo la comprensione dei meccanismi fisiopatologici alla base
dell’Alzheimer è cominciata a emergere solo di recente. Uno dei più
importanti progressi è stato fatto nel 2012, con la scoperta che l’Alzheimer
comincia dalla formazione di proteine Tau, che a loro volta accelerano la
formazione di Beta amiloide, uno sostanza gommosa simile a colla che
intasa il cervello (prima di allora non era chiaro se ciò fosse la causa vera e
propria dell’Alzheimer, o il sottoprodotto di un disturbo ancor più
fondamentale).
Quel che rende queste placche amiloidi così difficili da identificare e
colpire con i farmaci è che esse, molto probabilmente, sono costituire da
prioni, ovvero molecole proteiche che hanno assunto una conformazione
errata: anche se non si tratta di batteri o virus, hanno la capacità di
riprodursi. Se osservata dal punto di vista anatomico, una molecola proteica
assomiglia a una giungla di atomi aggrovigliati assieme; affinché la proteina
possa assumere la sua forma e funzione è necessario che tale groviglio di
atomi si ripieghi in maniera corretta. I prioni, invece, sono proteine deformi
ripiegatesi in maniera scorretta e, ancor peggio, che possono indurre altre
proteine sane, quando vi entrano a contatto, ad assumere la stessa
conformazione anomala. In tal modo, un singolo prione può generare una
cascata di proteine malformate, creando una reazione a catena che
contamina miliardi di altre proteine.
Oggi non sappiamo come fermare l’inesorabile progressione
dell’Alzheimer, ma ora che i meccanismi di base della malattia sono chiari,
la creazione di anticorpi o di un vaccino il cui target siano queste molecole
proteiche deformi potrebbe rivelarsi un approccio assai promettente; in
alternativa, si potrebbe creare un ippocampo artificiale, per ripristinare la
memoria a breve termine nei pazienti.
Inoltre, se riuscissimo a identificare i geni che ottimizzano la memoria,
la genetica potrebbe permetterci di migliorare la capacità del cervello di
creare ricordi; e il futuro della ricerca in questo campo potrebbe trovarsi nel
cosiddetto topo intelligente.

Il topo intelligente

Nel 1999 Joseph Tsien e i suoi colleghi di Princeton, del MIT e della
Washington University hanno scoperto che, aggiungendo un singolo gene,
era possibile migliorare in maniera significativa la memoria e le prestazioni
cognitive di un topo. Questi “topi intelligenti”, chiamati Doogie (da Doogie
Howser M.D., un popolare personaggio televisivo americano) erano in
grado di orientarsi più velocemente all’interno di un labirinto, ricordare
meglio gli eventi e ottenere risultati molto migliori in un gran numero di
compiti assegnati loro nel corso degli esperimenti, rispetto agli altri topi.
Tsien è partito dallo studio del gene NR2B che, come una sorta di
interruttore, controlla la capacità del cervello di associare un evento a un
altro (gli scienziati l’hanno verificato in quanto, silenziando o rendendo
inattivo questo gene, i topi perdono tale capacità); il motivo per cui
l’apprendimento dipende dal gene NR2B sta nel fatto che esso controlla le
comunicazioni tra le cellule della memoria e l’ippocampo. Per prima cosa
Tsien ha creato un gruppo di topi privi del gene, e ha osservato che essi
manifestavano delle difficoltà sul piano della memoria e
dell’apprendimento. Ne ha poi creato un altro dotato di più copie dello
stesso, scoprendo che questi nuovi topi mostravano capacità cognitive
superiori. Se posti in una piccola vaschetta piena d’acqua e obbligati a
nuotare, i topi del primo gruppo si dibattevano nell’acqua senza una
direzione precisa, avendo dimenticato che, come era stato loro mostrato
pochi giorni prima, a pelo d’acqua fosse possibile trovare una piattaforma
subacquea nascosta su cui fermarsi a riposare. I topi intelligenti, invece, vi
si dirigevano senza esitazione al primo tentativo.
Da allora i ricercatori hanno confermato questi risultati anche in altri
laboratori, e sono riusciti a creare topi ancor più intelligenti. Nel 2009 Tsien
ha pubblicato un articolo annunciando la creazione un’altra popolazione di
topi, chiamata Hobbie-J (dal nome di un popolare cartone animato cinese):
gli Hobbie-J erano in grado di ricordare fatti nuovi tre volte più a lungo
rispetto alla popolazione murina geneticamente modificata ritenuta più
intelligente. «Questo va a supporto dell’idea che NR2B sia un interruttore
universale per la formazione dei ricordi» ha commentato. «È come prendere
Micheal Jordan e far nascere un super Micheal Jordan» ha detto Deheng
Wang, uno studente di Tsien.
Ma anche questa nuova popolazione di topi ha dei limiti: quando era
data loro la possibilità di girare a destra o a sinistra per ottenere un dolce-
ricompensa, Hobbie-J era in grado di ricordare il percorso corretto molto
più a lungo dei topi normali, ma lo dimenticava dopo cinque minuti. «Non
ne potremo mai fare dei matematici. Dopo tutto, sono topi» ha detto Tsien.
Va notato che alcune di queste popolazioni si mostravano
eccezionalmente timide rispetto a dei topi normali. Alcuni pensano che, con
una memoria eccezionale, ci si ritrovi a saper ricordare anche tutti i
fallimenti e i dolori subiti, divenendo forse più esitanti; ricordare tutto
presenta anche degli aspetti negativi.
Gli scienziati sperano in futuro di poter estendere questi risultati anche
ad altre specie animali, come per esempio i cani – dal momento che con
loro condividiamo molti geni – e forse un giorno anche all’uomo.

Mosche intelligenti e topi scemi

L’NR2B non è l’unico gene ad avere un impatto sulla memoria oggetto


di studio da parte degli scienziati. Gli esperimenti che si stanno compiendo
in questo campo potranno forse un giorno dare una risposta ai molti misteri
che circondano la memoria a lungo termine dell’uomo (per esempio, perché
lo studio compiuto nell’ultimo minuto prima di un esame non è efficace, e
perché ricordiamo un evento se ha una forte connotazione emotiva). Gli
scienziati hanno scoperto l’esistenza di due importanti geni, il CREB
attivatore, che stimola la formazione di nuove connessioni tra i neuroni, e il
CREB repressore, che sopprime la formazione di nuovi ricordi.
Jerry Yin e Timothy Tully del Cold Spring Harbor Laboratory stanno
portando avanti degli esperimenti con le drosofile, o moscerini della frutta.
Di norma, questi insetti necessitano di dieci prove prima di imparare un
determinato compito (per esempio, riconoscere un odore o evitare una
scossa elettrica). I moscerini della frutta con un gene CREB repressore
soprannumerario non erano assolutamente in grado di avere dei ricordi
durevoli, ma la vera sorpresa è venuta dai moscerini con un gene CREB
attivatore in più: essi imparavano il compito in una sola sessione, il che
significa che «questi insetti possiedono una memoria fotografica» ha
affermato Tully, aggiungendo che ricordano le capacità di quegli studenti
che «sono in grado di leggere un capitolo di un libro una sola volta,
visualizzarlo nella propria mente, e dirti che la risposta si trova al terzo
paragrafo di pagina 274».
Tale effetto non si limita ai moscerini della frutta. Alcino Silva, anche
lui in forza al Cold Spring Harbor Laboratory, ha portato avanti gli stessi
esperimenti ma sui topi, scoprendo che i soggetti della specie con un difetto
del gene CREB attivatore erano sostanzialmente incapaci di formare ricordi
a lungo termine; in altre parole, erano topi amnesici. Ma anche loro erano in
grado di imparare qualcosa se esposti a lezioni brevi, inframezzate da una
pausa. Gli scienziati ipotizzano che nel cervello dell’uomo esista una
piccola quantità di CREB attivatori, che limita il numero di informazioni
che possiamo imparare in un dato periodo: perciò, se ci riduciamo a studiare
per un esame il giorno prima, andremo a esaurire l’intera quantità di CREB
attivatore a nostra disposizione e non saremo in grado di imparare
nient’altro, almeno finché non faremo una pausa per ripristinarne le scorte.
«Siamo ora in grado di dare una spiegazione biologica al perché
studiare all’ultimo minuto non funzioni» ha commentato Tully; il metodo
migliore per prepararsi a un esame è dunque quello di ripassare
mentalmente ogni giorno, a intervalli regolari, finché i contenuti non
entrano a far parte della memoria a lungo termine.
Questo potrebbe spiegare anche perché i ricordi carichi di emozioni
siano così vividi nella nostra memoria, e perché riescano a mantenersi nel
corso di decenni: il gene CREB repressore agisce come un filtro che
elimina le informazioni inutili, ma se un ricordo è associato a un’emozione
forte ciò può rimuovere il gene CREB repressore o aumentare i livelli di
gene CREB attivatore.
La comprensione della basi genetiche della memoria farà grandi
progressi in futuro: è probabile che le enormi potenzialità del cervello
umano dipendano dall’azione non di un solo gene ma da una loro sofisticata
combinazione, e che potendo ritrovarne i corrispettivi nel genoma umano,
possa divenire possibile migliorare la nostra memoria e le nostre capacità
cognitive.
Ma non illudiamoci di poter mettere il turbo al nostro cervello nel breve
periodo, perché gli ostacoli ancora da superare sono molti. Per prima cosa,
non è chiaro se i risultati fin qui illustrati si possano applicare all’uomo:
spesso terapie che sembrano avere grandi potenzialità nei topi non sono
altrettanto efficaci per la specie umana; e, in secondo luogo, anche se così
fosse, non ne conosciamo l’impatto. Questi geni potrebbero, per esempio,
contribuire al miglioramento della memoria senza avere alcun effetto
sull’intelligenza in generale. Infine, la terapia genetica (ovvero, la
riparazione dei geni difettosi) è più complessa di quanto si pensasse
all’inizio, e ad oggi solo una piccola manciata di malattie genetiche può
essere curata facendovi ricorso. Anche se per infettare le cellule con il gene
“buono” si ricorre a virus resi inoffensivi, il corpo non riconosce l’intruso e
continua a inviare anticorpi, che attaccano l’invasore rendendo spesso
inutile la terapia: l’inserimento di un gene per migliorare la memoria
potrebbe subire lo stesso destino (non bisogna inoltre dimenticare che pochi
anni fa questo campo di studi ha subito una forte battuta d’arresto con la
morte di un giovane paziente all’università della Pennsylvania durante una
procedura di questo tipo: il lavoro sulla modificazione dei geni nell’uomo
deve ancora affrontare e risolvere diversi aspetti etici e legali).
La sperimentazione sull’uomo procederà, quindi, a ritmi molto più lenti
rispetto a quella sugli animali, ma possiamo già immaginare il giorno in cui
verrà perfezionata e diventerà realtà. Ad ogni modo, modificare i nostri geni
potrebbe richiedere soltanto una semplice iniezione: potremmo iniettare nel
sangue un virus innocuo che andrebbe a infettare le cellule normali
inserendo i propri geni; una volta incorporato all’interno delle cellule,
questo “gene intelligente” si attiverebbe rilasciando delle proteine, che
migliorerebbero le nostre capacità mnemoniche e cognitive influenzando il
lavoro dell’ippocampo, e la formazione dei ricordi.
Se la terapia genetica dovesse rivelarsi una procedura troppo complessa,
potremmo aggirarla inserendo le proteine adatte direttamente nel sangue:
invece di subire un’iniezione, dovremmo inghiottire una pillola.

Una pillola intelligente

Uno degli obiettivi della ricerca è quello di creare una “pillola


intelligente” in grado di potenziare concentrazione, memoria e intelligenza:
in questo senso alcune società farmaceutiche hanno già iniziato a
sperimentare diversi farmaci, come il MEM 1003 e il MEM 1414, che
sembra riescano a migliorare le funzioni cognitive.
Come abbiamo visto, grazie alla sperimentazione animale gli scienziati
hanno scoperto che la creazione di ricordi a lungo termine è resa possibile
dall’interazione tra geni ed enzimi, e che l’apprendimento si realizza
quando l’attivazione di specifici geni (come il CREB), che emettono la
proteina corrispondente, va a rinforzare determinati circuiti neurali: in
poche parole, maggiore è la quantità di proteina CREB nel cervello, più è
veloce la formazione dei ricordi a lungo termine (fatto verificato negli studi
su molluschi marini, moscerini della frutta e topi). La caratteristica
fondamentale del MEM 1414 è la sua capacità di accelerare la produzione
di proteine CREB: nei test di laboratorio, una volta somministrato il
farmaco a topi non più giovani, i loro ricordi a lungo termine si formavano
in maniera significativamente più veloce rispetto al gruppo di controllo.
Gli scienziati hanno iniziato, ora, a identificare i processi biochimici
implicati nella formazione dei ricordi a lungo termine, sia a livello genetico
sia molecolare: solo quando avremo compreso il processo di formazione
della memoria in ogni suo aspetto saremo in grado di sviluppare delle
terapie in grado di accelerarlo e rinforzarlo. A quel punto, non solo le
persone anziane e i malati di Alzheimer, ma anche le persone comuni,
potranno trarre beneficio da questo “motore turbo” per il cervello.

Si possono cancellare i ricordi?

L’Alzheimer può distruggere i ricordi in modo indiscriminato, ma cosa


possiamo dire della possibilità di cancellarli in maniera selettiva? L’amnesia
è uno degli stratagemmi narrativi preferiti dal cinema: nel film The Bourne
Identity, il bravo agente della CIA Jason Bourne è ripescato in acqua da
alcuni marinai, mezzo morto. Di nuovo cosciente, il protagonista capisce
subito di aver subito una grave perdita di memoria: braccato da alcuni
assassini, egli non sa chi sia, cosa sia successo né perché lo vogliano morto.
L’unico indizio che ha a disposizione è la sua straordinaria abilità di
ingaggiare istintivamente un combattimento e avere la meglio, come fosse
un agente segreto.
L’amnesia a seguito di un trauma, come un colpo alla testa, è un fatto
ben documentato; ma è possibile cancellare i ricordi in maniera selettiva?
Nel film Se mi lasci ti cancello due persone si incontrano per caso su un
treno e si sentono subito attratte l’una dall’altra. Tuttavia la sorpresa è
grande quando scoprono di essere stati innamorati in passato, e di non
averne alcun ricordo: apprenderanno, con incredulità e sgomento, di aver
pagato una società per eliminare i reciprochi ricordi dopo una lite
particolarmente violenta (ma sembra che il destino abbia concesso loro una
seconda opportunità di tornare insieme).
L’idea dell’amnesia selettiva è stata elaborata ulteriormente dal film
Men in Black, in cui gli agenti di un’organizzazione segreta utilizzano uno
strumento, il neutralizzatore, per cancellare i ricordi dell’incontro tra essere
umani e alieni; il dispositivo è persino dotato di una manopola per stabilire
fino a che punto nel passato i ricordi debbano essere cancellati.
Tutto ciò è perfetto per rendere avvincente la trama di un film di
successo, ma esiste la possibilità che questa tecnologia sia davvero
realizzabile, anche solo in futuro?
Per la verità sappiamo che l’amnesia è possibile, e che ne esistono due
tipi fondamentali a seconda che sia convolta la memoria a breve termine o
quella a lungo termine. La cosiddetta amnesia retrograda si verifica nel
caso in cui un trauma o una lesione al cervello determini la perdita dei
ricordi preesistenti, in genere a partire dal momento dell’evento traumatico
che ha causato l’amnesia: questa è il tipo di amnesia di Jason Bourne, che
ha perso tutti i ricordi appartenenti alla sua vita precedenti al momento in
cui è stato ritrovato, più morto che vivo, in acqua. Il suo ippocampo è
ancora intatto, e quindi per il suo cervello è possibile formare nuovi ricordi
nonostante la memoria a lungo termine sia stata danneggiata. Al contrario,
nel caso dell’amnesia anterograda il danno è a carico della memoria a
breve termine, e per il cervello diventa impossibile formare nuovi ricordi a
partire dall’evento che ha causato l’amnesia; in genere questo tipo di
amnesia può coprire un periodo che va da pochi minuti a qualche ora, ed è
causata da una lesione all’ippocampo (questo tipo di amnesia è stato dipinto
con grande maestria nel film Memento, la storia di un uomo deciso a
vendicare la morte della moglie. La sua memoria dura però solo quindici
minuti e quindi, per ricordare gli indizi che ha scoperto fino a quel
momento sull’assassino, è costretto a trascrivere tutto su fogli, fotografie e
sul suo corpo con dei tatuaggi. Rileggendo con dolore gli indizi che ha
lasciato a se stesso riesce a mettere insieme una serie di prove schiaccianti
che altrimenti avrebbe dimenticato).
In realtà, però, la perdita di memoria interessa tutti gli eventi che
risalgono fino al momento del trauma o della malattia, e sotto questo
aspetto l’amnesia selettiva di Hollywood diventa inverosimile: film come
Men in Black partono dall’assunto che i ricordi siano immagazzinati in
sequenza, come in un hard-disk, e che sia possibile schiacciare il tasto
“cancella” per eliminare tutto ciò che viene prima o dopo un determinato
momento nel tempo; ma noi sappiamo che i ricordi sono suddivisi in parti,
ognuna immagazzinata in una parte diversa del cervello.

Un farmaco per dimenticare

Alcuni scienziati stanno ora studiando gli effetti di alcuni farmaci in


grado di cancellare quei ricordi dolorosi che talvolta perseguitano e
tormentano le persone vittime di un trauma psicologico. Nel 2009 alcuni
scienziati olandesi guidati da Merel Kindt hanno annunciato di aver
scoperto una nuova applicazione del propranololo, un farmaco già noto che
potrebbe rivelarsi essere il “farmaco miracoloso” per alleviare il dolore
associato a ricordi traumatici; esso non induce un’amnesia che riguarda un
momento temporale specifico, ma è in grado di alleviare il dolore associato
al ricordo dell’evento rendendolo più facile da gestire, e secondo questo
studio i suoi effetti sarebbe visibili dopo soli tre giorni.
Dato che le persone che soffrono di disturbo post-traumatico da stress
(PTSD, Post-Traumatic Stress Disease) sono migliaia, è comprensibile che
la notizia abbia avuto un grande impatto sui media: sembrava che chiunque,
dai veterani di guerra alle vittime di abusi sessuali e incidenti, potesse
finalmente trovare sollievo. La scoperta, allo stesso tempo, sembrava
contraddire i risultati dei precedenti studi neuroscientifici, secondo cui i
ricordi a lungo termine sono codificati non elettricamente, ma a livello di
molecole proteiche; tuttavia, alcuni esperimenti hanno di recente dimostrato
che la memoria implica il recupero e la ricostruzione del ricordo stesso, e
ciò significa che la struttura proteica coinvolta potrebbe in realtà
modificarsi durante il processo. In altre parole, riportare un evento alla
memoria modifica il ricordo stesso, e in ciò potrebbe risiedere la ragione
dell’efficacia del farmaco: la capacità del propranololo di interferire con
l’assorbimento di adrenalina è noto, e questo neurotrasmettitore svolge un
ruolo chiave nella creazione dei ricordi a lungo termine, che sono spesso il
risultato di eventi traumatici. «Il propranololo si posiziona sulla cellula
nervosa e blocca l’ingresso dell’adrenalina: così, pur essendo presente,
questo neurotrasmettitore non può svolgere la propria funzione» spiega
James McGaugh dell’università della California. In altre parole, senza
l’adrenalina il ricordo si affievolisce.
Alcuni test di laboratorio eseguiti su persone vittime di ricordi legati a
traumi hanno mostrato risultati davvero promettenti. Tuttavia, l’uso di
questo farmaco ha subito una pesante battuta d’arresto quando si è trattato
di affrontare i risvolti morali della cancellazione della memoria: i membri di
alcuni comitati etici, infatti, pur non mettendone in discussione l’efficacia,
hanno espresso preoccupazione nei confronti di un farmaco “dell’oblio”,
dal momento che i ricordi hanno una funzione ben precisa, quella di darci la
possibilità di imparare dalle nostre esperienze. Anche i momenti spiacevoli,
si sostiene, contribuiscono a una funzione più alta; quindi, il President’s
Council on Bioethics ha espresso una valutazione negativa sul farmaco,
giungendo alla conclusione che «smorzare la memoria di eventi terribili ci
renderebbe troppo sicuri di noi stessi, impassibili di fronte alla sofferenza,
ai torti, o alla crudeltà… Possiamo permetterci di diventare insensibili ai
peggiori dolori del mondo, senza rischiare di perdere la sensibilità nei
confronti delle sue più grandi gioie?».
David Magus, della Centre for Biomedical Ethics dell’università di
Stanford afferma che «da tutte le relazioni che intessiamo con gli altri, e da
tutte le relative rotture, per quanto dolorose esse siano, impariamo sempre
una lezione che ci rende persone migliori».
Altri non sono d’accordo. Secondo Roger Pitman, dell’università di
Harvard, se un medico si trova di fronte alla vittima di un incidente stradale
che sta soffrendo «dovremmo forse impedirgli di somministrare della
morfina, perché correremmo il rischio di privare il paziente dell’intera
esperienza emotiva? Chi mai potrebbe sostenerlo? E perché la psichiatria
dovrebbe essere diversa? Penso che in qualche modo dietro a questa
posizione si nasconda l’idea che i disturbi mentali siano diversi da quelli
fisici».
La conclusione di questo dibattito avrà una conseguenza diretta sulla
prossima generazione di farmaci, dal momento che il propranololo non è
l’unica molecola coinvolta.
Nel 2008 due gruppi di ricerca, entrambi impegnati in sperimentazioni
con modelli animali, hanno annunciato l’esistenza di altri farmaci in grado
di cancellare i ricordi, e non solo di gestire il dolore ad essi associato: Joe
Tsien del Medical College of Georgia e suoi colleghi a Shangai hanno
annunciato di essere riusciti a cancellare un ricordo dal cervello di un topo
usando una proteina chiamata CaMKII, e gli scienziati del SUNY
Downstate Medical Center di Brooklyn hanno riscontrato lo stesso effetto
con la molecola PKMzeta. Andre Fenson, uno degli autori del secondo
studio, ha commentato: «Se i nostri risultati saranno confermati, in futuro
avremo una terapia farmacologica a base di PKMzeta per la rimozione dei
ricordi». Non solo il farmaco cancella i ricordi dolorosi, ma, ha aggiunto
Fenson, potrebbe anche «contribuire al trattamento della depressione,
dell’ansia generalizzata, delle fobie, dello stress post-traumatico e delle
dipendenze».
Fino ad oggi le sperimentazioni sono state condotte solo su animali, ma
presto inizieranno anche gli studi sull’uomo: se i risultati saranno
trasferibili alla nostra specie, sviluppare un farmaco “dell’oblio” potrebbe
rivelarsi una possibilità concreta. Non sarà certo il tipo di pillola che si vede
nei film (in grado di procurare un’amnesia al momento più preciso e
opportuno) ma potrebbe avere vaste applicazioni mediche nel mondo reale,
in modo particolare per chi soffre di ricordi legati a eventi traumatici.
Rimane da vedere, tuttavia, il grado di selettività di tale processo di
cancellazione nell’uomo.

Cosa potrebbe andare storto?

Un giorno, tuttavia, potremmo riuscire a registrare con precisione la


totalità dei segnali che attraversano l’ippocampo, il talamo e il resto del
sistema limbico, e ottenerne una registrazione fedele; poi, inserendo queste
informazioni nel nostro cervello, potremmo essere in grado di rivivere
l’esperienza di tutto ciò che ha vissuto un’altra persona. La domanda a quel
punto sarebbe: cosa potrebbe andare storto?
Il film del 1983 Brainstorm – Generazione elettronica, una pellicola
molto lungimirante per il suo tempo, esplora proprio le implicazioni di
questa ipotesi: alcuni scienziati creano “The Hat”, un casco corredato di
elettrodi in grado di registrare in maniera accurata tutte le sensazioni che la
persona che lo indossa sta vivendo, e che poi, riproducendo il nastro, può
essere usato da chiunque per rivivere le medesime esperienze sensoriali. Per
divertimento, uno dei protagonisti indossa il casco mentre fa l’amore e ne
registra l’esperienza, per poi riprodurre la registrazione senza interruzioni e
amplificare, quindi, l’esperienza originale; ma quando un’altra persona,
ignara del contenuto della registrazione, indossa il casco e rivive
l’esperienza registrata, rischia di morire a causa del sovraccarico
emozionale. Più avanti nel film una delle protagoniste soffre di un attacco
di cuore, ma prima di morire registra i suoi ultimi attimi: quando il nastro è
riprodotto da un’altra persona, per poco anch’egli non rimane vittima di un
infarto e muore.
Quando la notizia del dispositivo trapela, i militari tentano di
impossessarsene: inizia dunque uno scontro tra questi ultimi, che ne vedono
le potenzialità come arma, e gli scienziati, che con essa sperano di svelare i
misteri della mente.
Brainstorm ha messo in evidenza in maniera quasi profetica non solo le
potenzialità di questa tecnologia ma anche le sue possibili insidie: pur
essendo nato come semplice racconto di fantascienza, alcuni scienziati sono
convinti che in futuro questi stessi problemi potrebbero presentarsi
all’attenzione del pubblico e nelle aule di tribunale.
Abbiamo appena visto che, per quanto riguarda la registrazione di
singoli ricordi nel modello murino, i risultati finora ottenuti sono
promettenti; ciononostante, prima di poter registrare in modo affidabile una
serie di ricordi nei primati e nell’uomo potremmo dover aspettare fino alla
metà del secolo. Un “The Hat” in grado di registrare la totalità degli stimoli
che passano per il cervello richiede la capacità di intercettare i dati
sensoriali grezzi che risalgono dal midollo spinale ed entrano nel talamo:
prima che anche questo possa essere possibile potremmo dover aspettare
fino alla fine del secolo.

Aspetti sociali e legali

Già la nostra generazione potrebbe dover affrontare alcuni aspetti della


questione: se arrivassimo al punto in cui fosse possibile apprendere la
matematica semplicemente installando un programma nel cervello, il
sistema scolastico sarebbe rivoluzionato; forse permetterebbe agli
insegnanti di dedicare più tempo ai singoli studenti, e di garantire loro
un’attenzione personale per quelle materie che si basano meno sulla
competenza, e che dunque non potrebbero essere acquisite schiacciando un
bottone. Allo stesso modo, quella parte di studio necessaria per diventare
medico, avvocato o scienziato che consiste nella memorizzazione
pedissequa potrebbe essere drasticamente ridotta.
Ciò, in teoria, potrebbe addirittura darci la possibilità di avere il ricordo
di viaggi che non abbiamo mai fatto, premi che non abbiamo mai vinto,
amanti che non abbiamo mai incontrato o famiglie che non abbiamo mai
avuto. Potrebbe venire in soccorso nel caso di esistenze complicate, creando
ricordi perfetti di una vita mai vissuta. Ogni genitore sarebbe ben felice di
poter educare i propri figli avendo come riferimento dei ricordi reali; la
richiesta di uno strumento simile sarebbe enorme, e alcuni esperti di etica
temono che i falsi ricordi potrebbero essere tanto verosimili da spingere le
persone a preferire una vita immaginaria a quella reale.
Anche i disoccupati potrebbero beneficiare della possibilità di imparare
nuove capacità spendibili sul mercato del lavoro con un semplice impianto
dei ricordi. In passato, ogniqualvolta una nuova tecnologia ha fatto la sua
comparsa, milioni di lavoratori sono rimasti indietro, spesso senza alcuna
forma di sostegno; fabbri o carrozzai sono scomparsi in quanto si sono
evoluti in operai metalmeccanici o altre figure professionali impiegate
nell’industria, ma la riqualificazione richiede un’enorme quantità di tempo
e impegno. Se queste capacità potessero essere impiantate nel cervello
l’impatto sul sistema economico mondiale sarebbe immediato, e lo spreco
di capitale umano sarebbe evitato (in un certo senso, se queste competenze
fossero disponibili a chiunque potrebbero svalutarsi, ma l’aumento del
numero e della qualità dei lavoratori qualificati compenserebbe comunque
tale aspetto).
Anche l’industria del turismo vivrebbe una fioritura economica
importante: gli ostacoli che i turisti all’estero devono superare sono
molteplici, tra cui la difficoltà di imparare nuove abitudini e di conversare
in una lingua straniera, mentre in tal modo potrebbero vivere un’esperienza
in un altro paese senza lottare per imparare a usare la moneta e i sistemi di
trasporto locali: certo, installare un’intera lingua con le sue decine di
migliaia di parole ed espressioni potrebbe essere difficile, ma per sostenere
una conversazione decente basterebbe apprendere una piccola quantità di
nozioni.
Queste registrazioni mnemoniche si faranno inevitabilmente strada
anche sui social network: in futuro potremmo essere in grado di registrare
un ricordo e caricarlo su internet, in modo che altri milioni di persone
possano provare e vivere la nostra stessa esperienza. Abbiamo già parlato di
una brain-net per la condivisione dei pensieri, ma se riusciremo a registrare
e creare anche dei ricordi, allora sarà possibile trasmettere intere esperienze.
Mettiamo che un atleta abbia appena vinto una medaglia d’oro alle
Olimpiadi: perché non condividere lo sforzo sostenuto e l’estasi della
vittoria postando i propri ricordi sul web? L’esperienza potrebbe diventare
virale, e miliardi di persone potrebbero condividere il momento di gloria. I
giovanissimi, spesso all’avanguardia in fatto di videogiochi e piattaforme
sociali, potrebbero prendere l’abitudine di registrare le loro esperienze più
memorabili e caricarle su internet; come le fotografie con il cellulare, per
loro registrare interi ricordi potrebbe diventare una seconda natura (ciò
richiederebbe che entrambi, mittente e destinatario, avessero nanocavi
praticamente invisibili per collegarne gli ippocampi: le informazioni
verrebbero poi spedite via wireless a un server, che potrebbe convertire il
messaggio in un segnale digitale trasportabile dalla rete, e nascerebbero
blog, liste di discussione, social media e chat room).

Una biblioteca di anime

Pensiamo all’ipotesi di ricreare un albero genealogico dei ricordi: oggi,


risalendo le testimonianze lasciate dai nostri antenati, ci appare solo un
ritratto unidimensionale della loro vita. Nel corso della storia dell’uomo le
persone sono vissute, hanno amato e sono morte senza lasciare una traccia
sostanziale della propria esistenza; nella maggior parte dei casi siamo in
grado di risalire alla loro data di nascita e di morte, senza poter sapere
molto di ciò che c’è stato in mezzo. Oggi ci lasciamo alle spalle una lunga
traccia di documenti elettronici (ricevute delle carte di credito, bollette,
email, estratti conto bancari ecc.) e anche il web, inevitabilmente, sta
diventando un gigantesco deposito di tutti i documenti che descrivono la
nostra vita. Eppure tutto ciò non è in grado di dire molto a proposito di quel
che stavamo pensando o provando. Forse, in un lontano futuro, il web potrà
diventare una gigantesca biblioteca capace di raccontare la nostra storia,
attraverso i dettagli non solo delle nostre vite, ma anche delle nostre
coscienze.
In futuro le persone potrebbero abituarsi a registrare i ricordi, così che i
propri discendenti possano rivivere le loro stesse esperienze: sfogliando
questa biblioteca di memorie, ogni membro della famiglia potrebbe vedere
e sentire quel che hanno vissuto i suoi predecessori, e capire quale sia il suo
posto nella storia da una prospettiva più ampia.
Ciò significa che, anche molti anni dopo la nostra morte, chiunque in
futuro potrebbe riprodurre la nostra vita semplicemente premendo il
pulsante “play”. Se questa previsione fosse corretta, potremmo “riportare
indietro” i nostri antenati e intrattenerci con loro per una chiacchierata
pomeridiana, solo inserendo un disco e premendo un bottone.
Allo stesso tempo, se volessimo prendere parte alla vita di una figura
storica che ammiriamo, potremmo in questo modo essere in grado osservare
da vicino come abbia affrontato i momenti più complessi della propria
esistenza. Se ci fosse una persona che consideriamo il nostro modello di
riferimento e volessimo sapere in che modo sia sopravvissuta alle sue
grandi sconfitte, potremmo rivivere le registrazioni dei suoi ricordi e farne
tesoro. Se potessimo studiare i ricordi di un premio Nobel potremmo
addirittura scoprire come nascono le grandi idee. Oppure potremmo
osservare da vicino i ricordi di grandi politici e statisti nei momenti in cui
hanno preso le decisioni cruciali che hanno influenzato il corso della storia
mondiale.
Miguel Nicolelis è convinto che tutto ciò, un giorno, sarà realtà:
«Ognuna di queste registrazioni immortali sarà onorata come un pietra
preziosa e unica, una delle miliardi di menti, ugualmente uniche, che una
volta hanno vissuto, amato, sofferto e prosperato finché, anch’esse, sono
diventate immortali, non corpi distesi in gelide tombe silenziose, ma libere
di esprimere pensieri vivi, amori vissuti intensamente e dolori altrettanto
forti».

Il lato oscuro della tecnologia

Alcuni scienziati hanno riflettuto sulle implicazioni etiche di questa


tecnologia. Quasi tutte le nuove scoperte in campo medico hanno generato
preoccupazioni in tal senso: per alcune è stato necessario applicare delle
misure restrittive, o un divieto quando si sono rivelate dannose (come il
talidomide, un sonnifero che, somministrato alle gestanti, ha causato gravi
difetti alla nascita in tantissimi bambini), altre invece hanno avuto un
successo tale da cambiare la nostra concezione dell’uomo, come nel caso
dei bambini in provetta: quando, nel 1978, nacque Louise Brown, la prima
neonata nata da un ovulo fecondato in laboratorio, l’evento creò una tale
tempesta mediatica che persino il papa si sentì in dovere di emettere un
comunicato in cui criticava questa tecnologia, eppure oggi vostro fratello,
vostro figlio o il vostro partner (persino voi stessi) potrebbe essere un
prodotto della fecondazione in vitro. Come molte altre tecnologie, è
probabile che il pubblico possa semplicemente abituarsi all’idea che i
ricordi vengano registrati e condivisi.
Altri esperti di bioetica hanno espresso preoccupazioni diverse. Cosa
succederebbe se qualcuno impiantasse dei ricordi nel nostro cervello senza
il nostro permesso? E se si trattasse di ricordi dolorosi o devastanti? E che
ne sarebbe dei pazienti Alzheimer, i soggetti ideali per beneficiare di questa
tecnologia, ma troppo malati per esprimere il proprio consenso?
Il fu Bernard Williams, filosofo dell’università di Oxford, temeva che
questo strumento avrebbe potuto sovvertire il normale ordine delle cose,
che consiste nel dimenticare: «Dimenticare è lo strumento da cui traiamo
maggior beneficio».
Se fosse possibile impiantare nel cervello dei ricordi così come
carichiamo un file su un computer, le fondamenta del nostro sistema legale
ne verrebbero sconvolte. Uno dei pilastri della giustizia è la testimonianza
oculare: cosa succederebbe se fosse possibile creare il ricordo di un crimine
e impiantarlo di nascosto nel cervello di una persona innocente? Se un
criminale avesse bisogno di un alibi, potrebbe segretamente installare nel
cervello di un’altra persona un ricordo, convincendola che fossero insieme
al momento del reato. Senza contare che, oltre alle testimonianze rese a
voce, perderebbero la loro affidabilità anche le dichiarazioni messe per
iscritto, dal momento che quando firmiamo un deposizione o un qualsiasi
altro documento che abbia valenza legale ci basiamo sulla nostra memoria
per distinguere ciò che è vero da ciò che è falso.
Sarebbe quindi necessario introdurre delle misure di sicurezza, in
quanto avremmo bisogno di approvare leggi che definiscano in maniera
chiara i limiti di accesso ai ricordi. Proprio come le leggi che limitano la
libertà dei terzi di entrare in casa nostra, così dovremmo dotarci di norme
atte a impedire l’accesso ai nostri ricordi senza il nostro permesso. Sarebbe,
inoltre, necessario poter stabilire il confine dei ricordi artificiali, così da
poter essere consapevoli della loro artificiosità e godere comunque del
ricordo di una bella vacanza, pur sapendo che non ha mai avuto luogo.
Registrare, conservare e caricare i ricordi potrebbe permetterci di tenere
traccia del nostro passato e di imparare nuove competenze, ma non
modificherebbe la nostra capacità innata di elaborare e digerire questa
grande quantità di informazioni: per farlo dovremmo accrescere la nostra
intelligenza, e i progressi in tale direzione sono ostacolati dalla mancanza di
una sua definizione universalmente condivisa. Tuttavia, un esempio di
intelligenza c’è, e nessuno può metterlo in discussione: Albert Einstein, il
cui cervello, a sessant’anni dalla morte, sta ancora fornendo indizi dal
valore inestimabile sulla natura del genio.
Alcuni ricercatori sono convinti che, utilizzando la giusta combinazione
di elettromagnetismo, genetica e terapie farmacologiche, sia possibile
innalzare l’intelligenza al livello del genio, e citano i casi documentati di
persone normalissime che, a seguito di un trauma cerebrale, sono diventate
savant, ovvero dotate di straordinarie abilità artistiche e cognitive. Tale
risultato, oggi, si ottiene a seguito di incidenti casuali; ma cosa accadrebbe
se la scienza intervenisse, riuscendo a comprendere il segreto di un simile
processo?

1
Nicholas Wade, The Science Times Book of the Brain, New York Times Books, New York 1998,
p. 89.
2
Wade, The Science Times Book of the Brain, cit., p. 89.
3
Antonio Damasio, Il sé viene alla mente: la costruzione del cervello cosciente, Adelphi, Milano
2012, pp. 130-53 (ed. orig. Self Comes to Mind, 2012).
4
Wade, The Science Times Book of the Brain, cit., p. 232.
5
Consultabile all’indirizzo internet http://www.newscientist.com/article/dn3488.
6
Consultabile all’indirizzo internet http://tinyurl.com/kx293lb.
7
Consultabile all’indirizzo internet http://tinyurl.com/ksfdapj.
8
Consultabile all’indirizzo internet http://tinyurl.com/m489mmb.
9
Questo riporta in evidenza la domanda che riguarda la memoria a lungo termine di animali come
i piccioni viaggiatori, gli uccelli migratori, le balene ecc., dal momento che migrano per centinaia
o migliaia di chilometri in cerca di cibo e di un partner. Gli scienziati non ne sanno molto, ma si
crede che la loro memoria a lungo termine si basi sulla localizzazione di punti di riferimento
specifici, piuttosto che sull’elaborazione di eventi passati: in altre parole, non farebbero uso dei
ricordi per simulare il futuro, e la loro memoria consterebbe soltanto di una serie di indicatori.
Sembra, dunque, che solo nell’uomo i ricordi a lungo termine contribuiscano alla simulazione del
futuro.
10
Michael Lemonick, Your Brain: A User’s Guide, in “Time”, dicembre 2011, p. 78.
11
Consultabile all’indirizzo internet http://tinyurl.com/k5cgh2q.
12
Consultabile all’indirizzo internet http://tinyurl.com/lgd78ej.
13
Sul “New York Times”, 12 settembre 2012, p. A18.
14
Consultabile all’indirizzo internet http://tinyurl.com/k38qf2o.
15
Alzheimer’s Foundation of America, consultabile all’indirizzo internet http://www.alzfdn.org.
Capitolo 6
Il cervello di Einstein, ovvero come aumentare
l’intelligenza

Il cervello è più ampio del cielo


Perché, se li metti fianco a fianco
L’uno conterrà l’altro
Con facilità, e te in aggiunta.
Emily Dickinson

Il talento arriva dove nessuno sa arrivare; il genio arriva a ciò che nessuno vede.
Arthur Schopenhauer

Il cervello di Einstein è scomparso. O meglio: è mancato all’appello per


oltre cinquant’anni, finché nel 2010 gli eredi del medico che lo prelevò
dopo la sua morte, avvenuta nel 1955, lo consegnarono al Museo Nazionale
per la Salute e la Medicina di Silver Spring, nel Maryland. Analizzare il
cervello di Einstein potrebbe aiutarci a rispondere ad alcune domande:
cos’è il genio? Come misuriamo l’intelligenza e la sua relazione con il
successo? E alcune di esse sono di natura filosofica: il genio è determinato
dai geni, o deriva piuttosto dall’impegno e dal successo personale?
Il cervello di Einstein potrebbe inoltre aiutarci a far luce sulla domanda
più importante: è possibile diventare più intelligenti?
La parola Einstein ha ormai perso il valore di nome proprio, riferito a
una persona specifica, ed è diventato sinonimo di genio: l’immagine che
evoca (pantaloni larghi, capelli bianchi scompigliati, aspetto disordinato) è
iconica e immediatamente riconoscibile.
L’eredità di Einstein è stata enorme. Quando nel 2011 alcuni fisici
ventilarono la possibilità di un suo errore, ovvero che le particelle potessero
in realtà infrangere la velocità della luce, questa ipotesi innescò un acceso
dibattito nel mondo della fisica, che trovò spazio anche sulla stampa
popolare: l’idea che la relatività, pietra angolare della fisica moderna,
potesse essere sbagliata fece scuotere la testa ai fisici di tutto il mondo.
Come previsto, una volta che i risultati furono ricalibrati, Einstein dimostrò
ancora una volta di aver avuto ragione. Mai mettersi contro Einstein!
Un modo per capire cosa sia il genio è stato analizzare il suo cervello.
Sembra che Thoman Harvey, il medico che ne eseguì l’autopsia
all’ospedale di Princeton, abbia deciso su due piedi di conservarne il
cervello del fisico, all’insaputa e contro la volontà della sua famiglia; forse
fu mosso dall’intuizione che un giorno esso avrebbe rivelato chissà quali
segreti, o forse pensò, come molti altri, che dovesse esservi una parte
“sede” della sua immensa intelligenza. Secondo Brian Burrell, nel libro
Postcards from the Brain Museum, Harvey «si sentì sommerso dalla
grandezza del momento e rimase paralizzato di fronte al genio. Presto
avrebbe scoperto di aver fatto il passo più lungo della gamba»1.
Quel che successe in seguito pare più una commedia che un capitolo di
storia della scienza. Negli anni seguenti, Harvey promise di pubblicare i
risultati delle sue analisi, ma continuò ad accampare scuse dal momento che
quella non era la sua specialità. Per decenni, il cervello fu conservato in due
grossi barattoli pieni di formaldeide riposti in una scatola di cartone, sotto
un frigobar. Harvey chiese a un tecnico di laboratorio di dividere il cervello
in 240 sezioni, che in rare occasioni spediva agli scienziati che ne facevano
richiesta per motivi di studio. Una volta, a un ricercatore di Berkeley furono
recapitate in un barattolo vuoto della maionese.
Quarant’anni dopo, Harvey attraversava la nazione su una Buick
Skylark, portando con sé il cervello di Einstein in un tupperware, nella
speranza di poterlo riconsegnare alla nipote del fisico, Evelyn, che però si
rifiutò di accettarlo; alla sua morte, nel 2007, il medico lasciò la collezione
ai suoi eredi, perché la donassero alla scienza. Una storia tanto eccezionale
che divenne un documentario tv.
Quello di Einstein non fu l’unico cervello ad essere conservato per i
posteri: un secolo prima, anche quello di uno dei più grandi matematici
della storia, Carl Friedrich Gauss, chiamato il Principe della Matematica, fu
espiantato e custodito da un medico; tuttavia, al tempo l’anatomia del
cervello era in gran parte sconosciuta e non fu possibile trarre altra
conclusione se non che avesse convoluzioni, o pieghe, insolitamente ampie.
Si potrebbe pensare che quello di Einstein fosse ben altra cosa rispetto a
un normale cervello umano, che magari fosse enorme e con aree
insolitamente sviluppate. In verità, è stato scoperto il contrario (è
leggermente più piccolo) e ha un aspetto piuttosto ordinario; senza sapere di
chi sia, un neurologo non lo degnerebbe di una seconda occhiata.
Le uniche differenze osservate erano minime: una parte, il giro
angolare, era più grande del normale, e le aree parietali inferiori di entrambi
gli emisferi erano più ampie del 15 per cento rispetto alla media (va notato
che esse sono quelle deputate all’elaborazione del pensiero astratto, alla
manipolazione di simboli come la scrittura e la matematica, e
all’elaborazione visuospaziale). Ma il cervello di Einstein rientra comunque
nei limiti della norma: non è chiaro quindi se la sua genialità risiedesse
nella struttura organica in sé o piuttosto nella forza della sua personalità, nel
modo di esprimersi e nei suoi tempi e modi. Nello scrivere una mia
biografia del grande fisico, Il Cosmo di Einstein, mi divenne chiaro come
alcune caratteristiche della sua vita fossero importanti tanto quanto le
anomalie del suo cervello. Einstein stesso ha espresso questo concetto, forse
meglio affermando: «Non ho alcun talento particolare... Sono solo
spassionatamente curioso». Einstein confessò di aver avuto notevoli
difficoltà in matematica da giovane: a un gruppo di scolari una volta
confidò: «Non importa quali difficoltà possiate avere con la matematica, le
mie erano più grandi». E allora perché Einstein era Einstein?
Per prima cosa, dal momento che era un fisico teorico e non
sperimentale, trascorse la maggior parte del suo tempo pensando per
“esperimenti concettuali”, manipolando mentalmente sofisticate
simulazioni del futuro. Il laboratorio, in altre parole, era nella sua testa.
In secondo luogo, trascorse più di dieci anni riflettendo su una sola
teoria: tra i sedici e i ventisei anni si concentrò sulla luce, chiedendosi se
fosse possibile superarne la velocità; da queste considerazioni arrivò a
formulare la relatività speciale, che a sua volta aprì le porte ai segreti delle
stelle e ci diede la bomba atomica. Tra i ventisei e i trentasei anni si
concentrò sulla teoria della gravità, lasciandoci i buchi neri e la teoria del
Big Bang. Infine, dall’età di trentasei anni fino alla morte cercò una “teoria
del tutto” che unificasse l’intero sapere della fisica. Una capacità, questa,
che mostra chiaramente la tenacia con cui era capace di elaborare questo
tipo di informazioni.
Possiamo aggiungere che la sua era una personalità importante. Einstein
era un bohémien, per il quale ribellarsi allo stato delle cose nel mondo della
fisica era cosa naturale: non tutti i suoi colleghi possedevano la fibra o
l’immaginazione per sfidare le teorie di Isaac Newton che avevano
dominato la fisica nei due secoli precedenti, e che allora erano ancora
imperanti.
I tempi erano maturi per la nascita di un genio. Nel 1905 la vecchia
fisica newtoniana si stava disfacendo di fronte al risultato di alcuni
esperimenti che indicavano con chiarezza la nascita di una fisica nuova, in
attesa di un Einstein che sapesse indicare la strada. Il radio, una misteriosa
sostanza che brillava al buio per un tempo indefinito, pareva ricavare la sua
energia dall’aria, violandone le leggi della conservazione. In altre parole,
Einstein era l’uomo giusto al momento giusto: se un giorno fosse possibile
clonarlo partendo dalle cellule del suo cervello, non credo che un tale
individuo sarebbe il nuovo Einstein. Perché nasca un genio, sono necessarie
anche le giuste circostanze storiche.
È mia convinzione che la genialità possa emergere dalla combinazione
di determinate capacità mentali innate e la determinazione mirata a ottenere
grandi cose. L’essenza della genialità di Einstein fu probabilmente la sua
straordinaria capacità di immaginare il futuro simulandolo per esperimenti
concettuali, creando nuovi principi della fisica. Come disse lui stesso: «Il
vero segno dell’intelligenza non è la conoscenza, ma l’immaginazione». Per
Einstein, la parola immaginazione significava frantumare i confini
dell’universo noto ed entrare nel regno dell’ignoto.
Le nostre capacità sono scritte nei nostri geni e nella struttura del nostro
cervello, ed è con il risultato del sorteggio di questo fortunato bagaglio che
tutti noi nasciamo. Ma il modo in cui organizziamo i nostri pensieri ed
esperienze, e la nostra capacità di immaginare il futuro, dipendono solo da
noi. Lo stesso Darwin una volta scrisse: «Ho sempre sostenuto che, eccetto
gli stolti, gli uomini non differiscono molto in intelletto ma solo in zelo e
duro lavoro»2.

Si può imparare la genialità?

Ciò riapre la questione: la genialità è innata o si acquisisce? Come il


dibattito “geni contro ambiente” può risolvere il mistero dell’intelligenza?
Una persona normale può diventare un genio?
Dato che far aumentare le cellule cerebrali è un’impresa difficile, una
volta si pensava che l’intelligenza si stabilizzasse alle soglie dell’età adulta.
Tuttavia, dalle nuove ricerche emerge che il cervello può cambiare quando
apprende un compito nuovo: sebbene le cellule della corteccia non
aumentino, le connessioni tra i neuroni cambiano ogni volta che si impara
qualcosa.
Nel 2011 gli scienziati dello University College di Londra hanno
analizzato il cervello dei tassisti londinesi che, con fatica, devono imparare
le venticinquemila strade di quel vertiginoso labirinto che è la città: ci
vogliono dai tre ai quattro anni per prepararsi al test, e lo supera solo la
metà dei candidati.
I ricercatori hanno studiato il cervello dei soggetti prima di sostenere il
test, e poi di nuovo nel corso dei tre e quattro anni successivi: i candidati
che lo avevano passato presentavano un volume di materia grigia maggiore
rispetto a prima, nell’area posteriore e anteriore dell’ippocampo (questa,
ricordiamo, è la struttura dove sono rielaborati i ricordi). È curioso notare,
anche, come i test abbiano mostrato che il punteggio di questi tassisti, nei
compiti di elaborazione delle informazioni visive, era inferiore rispetto alla
norma: forse esiste un compromesso, una sorta di prezzo da pagare, per
l’apprendimento di questa enorme quantità di informazioni.
«Il cervello dell’uomo rimane “plastico” anche in età adulta, così che
possa adattarsi ai nuovi compiti – dice Eleanor Maguire della Wellcome
Trust, ente finanziatore dello studio – un incoraggiamento per quegli adulti
che vogliono continuare a imparare anche in età avanzata»3.
Allo stesso modo, il cervello dei topi che hanno imparato molti compiti
è leggermente diverso, non tanto nel numero di neuroni quanto nella natura
delle connessioni, che cambia con l’apprendimento: in altre parole,
imparare altera, letteralmente, la struttura del cervello.
Questo ci ricorda il vecchio adagio “la pratica rende perfetti”. A tale
riguardo lo psicologo canadese Donald Hebb ha fatto un’importante
scoperta: con l’esercizio, alcuni percorsi cerebrali si rinforzano, così che il
compito che dobbiamo svolgere diventa più semplice con il tempo. Al
contrario dei computer digitali, tanto stupidi oggi quanto lo erano in
passato, il cervello è una macchina capace di ricablare le proprie
connessioni ogni volta che impara qualcosa, una differenza fondamentale.
Questa lezione si può applicare non solo ai tassisti londinesi, ma anche
ai grandi musicisti d’orchestra. Secondo lo psicologo K. Anders Ericsson e
colleghi, che hanno studiato i maestri di violino al celebre Hanns Eisler
College di Berlino, a vent’anni i violinisti migliori possono con facilità aver
accumulato fino a diecimila ore di pratica, per più di trenta ore a settimana
di studio estenuante. Ericsson ha altresì scoperto che gli studenti “solo”
eccellenti ne studiavano al massimo ottomila, mentre i futuri insegnanti di
musica si esercitavano per un totale di “sole” quattromila ore. Il neurologo
Daniel Levitin dice: «L’immagine che emerge è che per raggiungere il
livello di abilità di un esperto mondiale sono necessarie diecimila ore di
pratica, in qualsiasi campo... In diversi studi, condotti su compositori,
giocatori di basket, scrittori, pattinatori, pianisti, scacchisti, criminali, e
qualsiasi altra occupazione si possa pensare, questo numero compare più e
più volte». Malcolm Galdwell, nel suo libro Outliers (“fuoriclasse”), la
chiama la «regola delle diecimila ore»4.

Come si misura l’intelligenza?

Ma come si misura l’intelligenza? Per secoli, le discussioni in merito si


sono basate su dicerie e aneddoti; oggi, tuttavia, gli studi compiuti grazie
alla tecnologia RM hanno mostrato che la principale attività del cervello
nello svolgimento di determinati puzzle matematici coinvolge le
connessioni tra la corteccia prefrontale (sede del pensiero razionale) e i lobi
parietali (che elaborano i numeri), un dato in linea con gli studi anatomici
del cervello di Einstein, da cui emerge come i suoi lobi parietali inferiori
fossero più grandi del normale: è quindi plausibile che l’abilità matematica
sia correlata a un maggiore scambio di informazioni tra la corteccia
prefrontale e i lobi parietali. Ma le maggiori dimensioni del cervello in
quest’area erano dovute al duro lavoro e allo studio, o Einstein era nato
così? La risposta non è ancora chiara.
Il principale problema è l’assenza di una definizione di intelligenza
accettata universalmente, senza parlare di una teoria sulla sua origine che
sia condivisa da tutti scienziati; e la soluzione di questo problema potrebbe
essere fondamentale se il nostro obiettivo è quello di accrescerla.

I test del QI e il dr. Terman

Lo strumento per definizione – nonché il più diffuso – di cui ci


serviamo per misurare l’intelligenza è il test del QI, il cui pioniere fu Lewis
Terman dell’università di Stanford, che nel 1916 modificò un test
precedentemente ideato da Alfred Binet per il governo francese: a partire da
allora e per diversi decenni, esso divenne il punto di riferimento per la stima
dell’intelligenza. Terman dedicò la vita all’assunto che l’intelligenza fosse
misurabile ed ereditabile, e che costituisse il miglior fattore per predire il
successo.
Cinque anni dopo, Terman diede inizio a una ricerca condotta sui
bambini in età scolare chiamata Studi genetici sul genio, che divenne una
pietra miliare5: si trattava di uno studio ambizioso, la cui portata e durata
non avevano precedenti negli anni venti, e che dettò lo standard per la
ricerca in questo campo per un’intera generazione. Terman registrò con
dovizia i successi e gli insuccessi degli individui nel corso della loro vita,
riempiendo grossi faldoni con i risultati ottenuti. Agli studenti con un QI
alto fu dato l’appellativo di Termiti.
All’inizio l’idea di Terman suscitò un successo clamoroso, e divenne lo
standard di giudizio per tutti i bambini, così come degli altri test; durante la
prima guerra mondiale fu sottoposto a più di un milione e mezzo di soldati.
Tuttavia, nel corso degli anni cominciò ad emergere un risvolto inaspettato:
a distanza di decenni il successo dei bambini con un QI alto era di poco
maggiore rispetto a quelli con un punteggio più basso. Terman poteva
orgogliosamente indicare alcuni studenti che avevano ottenuto
riconoscimenti e che si erano assicurati lavori ben retribuiti, ma rimase
sempre più stupito dal numero di studenti eccellenti secondo il test che da
adulti venivano considerati dei falliti, svolgevano lavori umili o senza
possibilità di carriera, erano divenuti criminali o conducevano una vita ai
margini della società. Un risultato piuttosto sconvolgente per Terman, che
aveva dedicato la sua carriera a provare come un alto QI potesse predire il
successo di un individuo.

Successo e ritardo della gratificazione

Nel 1972 Walter Mischel, anch’egli a Stanford, adottò un approccio


diverso, decidendo di analizzare nei bambini un’altra caratteristica, ovvero
la capacità di ritardare la gratificazione: fu dunque pioniere del “test della
caramella”, in cui si chiedeva ai bambini di scegliere tra una caramella
subito o due caramelle venti minuti più tardi. Seicento bambini, tra i quattro
e i sei anni, presero parte a questo esperimento; quando Mischel rivide i
partecipanti, nel 1988, scoprì che chi aveva ritardato la gratificazione era in
generale più capace.
Nel 1990 un altro studio mostrò una correlazione diretta tra chi aveva
ritardato la gratificazione e i punteggi SAT (Scholastic Assessment Test,
“test di valutazione scolastica”); un ulteriore studio, condotto nel 2011,
indicò che tale caratteristica persiste tutta la vita. I risultati di questi e altri
studi furono illuminanti. I bambini che sapevano ritardare la gratificazione
ottenevano in seguito punteggi migliori in quasi tutti i parametri di
successo: lavori meglio pagati, minore dipendenza da sostanze, punteggi
più alti nelle graduatorie, maggiore successo scolastico, migliore
integrazione sociale, ecc.
Ma la cosa più affascinante erano le immagini cerebrali degli stessi
individui, le quali rivelarono uno schema ben preciso: mostravano infatti
una differenza specifica nel modo in cui la corteccia prefrontale interagisce
con l’area ventrale dello striato, una regione coinvolta nella dipendenza (e
non stupisce, dal momento che quest’area contiene il nucleus accumbens:
abbiamo visto nel Capitolo 2 come la parte del cervello che ricerca il
piacere e quella razionale che controlla la tentazione sembrino qui darsi
battaglia).
Questa differenza non è un caso: negli anni successivi lo studio è stato
verificato da diversi gruppi indipendenti, con risultati identici. Altre
ricerche hanno inoltre verificato la differenza nel circuito frontale-striato
del cervello – che sembra presiedere la gratificazione ritardata – e pare che
l’unica caratteristica in stretta relazione con il successo, che persiste negli
anni, sia proprio questa.
Pur essendo una semplificazione molto grossolana, queste immagini
dimostrano che la connessione tra il lobo prefrontale e quello parietale
svolge un ruolo importante nell’elaborazione del pensiero matematico e
astratto, mentre il collegamento tra il sistema prefrontale e quello limbico
(che controlla in maniera cosciente le emozioni e il piacere) è fondamentale
per avere successo nella vita.
Richard Davidson, neuroscienziato all’università del Wisconsin-
Madison, conclude: «I voti a scuola e il punteggio SAT sono meno
importanti rispetto al saper cooperare, regolare le proprie emozioni,
ritardare la gratificazione e focalizzare l’attenzione. Tutti i dati indicano che
per avere successo queste capacità sono molto più importanti del QI o dei
voti»6.

Nuove misure dell’intelligenza


È chiaro quindi che ci debbano essere altri modi per misurare
l’intelligenza e il successo. I test del QI non sono inutili, ma si limitano a
misurare solo alcuni tipi di intelligenza. Micheal Sweeney, autore di Brain:
The Complete Mind, osserva che «questi test non misurano la motivazione,
la perseveranza, le abilità sociali e tutta una serie di altri fattori che
caratterizzano una vita piena e felice»7.
Il problema di molti di questi test standardizzati è la possibile
distorsione implicita dovuta alle influenze culturali; essi inoltre valutano
solo quella che alcuni psicologi chiamano intelligenza convergente, una
forma particolare di ingegno caratterizzata dalla tendenza a concentrarsi su
una sola linea di pensiero, mentre ignorano forme più complesse di
“intelligenza divergente”, in grado di prendere in considerazione altri
fattori. Durante la seconda guerra mondiale l’aeronautica militare
americana chiese agli scienziati di elaborare un esame psicologico in grado
di misurare l’intelligenza dei piloti, e la loro capacità di gestire situazioni
difficili e inaspettate. Una delle domande era: se il tuo aereo venisse
abbattuto in territorio nemico e in qualche modo dovessi tornare all’interno
dei confini dei territori alleati, cosa faresti? I risultati erano in contrasto con
ciò che si considera il pensiero convenzionale.
Secondo la maggior parte degli psicologi, lo studio avrebbe dovuto
mostrare che i piloti con un QI più alto ottenevano risultati migliori, ma ci
si accorse che era vero il contrario: i piloti che avevano superato meglio il
test erano quelli che possedevano un pensiero divergente più accentuato,
che erano cioé in grado di prendere in considerazione molteplici linee di
pensiero ed escogitare una quantità di modi di scappare fantasiosi e poco
ortodossi8.
La differenza tra il pensiero divergente e quello convergente si osserva
anche negli studi sui pazienti split-brain, che mostrano come ciascun
emisfero cerebrale abbia una capacità innata per una o l’altra forma di
pensiero. Ulrich Kraft, medico a Fulda, in Germania, ha scritto che
«l’emisfero sinistro è responsabile del pensiero convergente, mentre
l’emisfero destro di quello divergente. Il primo esamina i dettagli e li
elabora in maniera logica e analitica, ma gli manca la capacità di dare
priorità e formare collegamenti astratti. Il secondo è più fantasioso e
intuitivo, e tende a lavorare in maniera olistica, integrando i singoli pezzi
del puzzle in un’unica entità»9.
In questo libro sostengo che avere una coscienza equivalga a possedere
la capacità di creare un modello di mondo e di proiettarlo nel futuro per
conseguire determinati obiettivi. I piloti che avevano dimostrato di
possedere un’intelligenza divergente erano in grado di simulare
accuratamente molteplici scenari potenziali e con un maggiore livello di
complessità; allo stesso modo, nel famoso test della caramella, i bambini
che erano in grado di rimandare la gratificazione erano quelli dotati di una
più sviluppata capacità di simulare il futuro, e di visualizzare non solo la
conseguenza a breve termine, il “tutto e subito”, ma la ricompensa a lungo
termine.
Sviluppare un esame dell’intelligenza più sofisticato, in grado di
quantificare in modo diretto la capacità di una persona di simulare il futuro,
sarebbe difficile ma non impossibile: potremmo inventare un gioco in cui
vince chi riesce a immaginare il maggior numero di scenari futuri
potenziali, calcolando il punteggio sulla base del numero di simulazioni
generate e dei reciproci collegamenti causali. Così, anziché misurare la
semplice capacità di assimilare informazioni, potremmo determinare la
capacità di manipolare e plasmare le stesse per ottenere un risultato.
Potremmo chiedere di organizzare la fuga da un’isola deserta infestata da
predatori affamati e serpenti velenosi, elencando tutti i modi possibili per
sopravvivere, affrontare e respingere le bestie feroci e infine mettersi in
salvo, creando un elaborato diagramma causale di tutti i possibili risultati e
le conseguenti situazioni future.
Esiste, quindi, un filo conduttore che lega la discussione: l’intelligenza
sembra essere correlata alla complessità delle nostre simulazioni del futuro,
e questo si ricollega al nostro precedente discorso sulla coscienza.
Considerando i rapidi passi avanti che si stanno compiendo nei
laboratori di tutto il mondo nello studio dell’elettromagnetismo, della
genetica e delle terapie farmacologiche, sarà possibile misurare
l’intelligenza e aumentarla? Potremo diventare dei nuovi Einstein?

Migliorare l’intelligenza

Questa eventualità è stata analizzata per la prima volta nel racconto del
1959 Fiori per Algernon, in seguito diventato un film vincitore di un
premio Oscar e di un Golden Globe. La storia racconta la vita di Charly
Gordon, un garzone del fornaio con un QI di 68. La sua è una vita semplice:
non si rende conto di come i colleghi lo prendano sempre in giro e non sa
neppure scrivere il suo nome in modo corretto.
La sua unica amica è l’insegnante Alice, che prova pietà per lui e che
cerca di insegnargli a leggere. Alice viene a conoscenza del fatto che è stata
scoperta una nuova procedura in grado di trasformare topi normali in
animali superintelligenti, e decide di presentare Charly agli scienziati che
l’hanno messa a punto. Questi acconsentono a eseguire l’esperimento per la
prima volta sull’uomo, e nel giro di poche settimane Charly inizia a
mostrare dei cambiamenti considerevoli: il suo vocabolario si espande,
inizia a divorare libri dalla biblioteca, diventa una specie di casanova e la
sua stanza si riempie di arte moderna. Presto si interessa alla fisica, e legge
testi sulla relatività e sulla teoria quantistica, sfidando i limiti della scienza
più avanzata. Lui e Alice intrecciano una storia d’amore.
Gli scienziati però si accorgono che i topi dell’esperimento cominciano
a perdere le proprie capacità, e che infine muoiono. Rendendosi conto di
poter perdere tutto, Charly tenta disperatamente di utilizzare il suo nuovo
intelletto superiore per trovare una cura, ma riesce soltanto ad essere
testimone del suo inesorabile declino: il suo vocabolario si contrae,
dimentica le nozioni di matematica e di fisica, e lentamente torna ad essere
quello di prima. Nelle scene finali del film Alice, straziata, guarda Charly
giocare con dei bambini.
Il racconto e il film, per quanto commoventi e acclamati dalla critica,
furono considerati pura fantascienza. La trama era toccante e originale, ma
l’idea di aumentare l’intelligenza di una persona era considerata
impossibile: le cellule del cervello non si possono generare, dicevano gli
scienziati, e quindi il racconto era del tutto illogico. Ora non più.
Sebbene sia ancora impossibile accrescere la nostra intelligenza, i rapidi
passi avanti che si stanno compiendo nello studio dei sensori
elettromagnetici, della genetica e delle cellule staminali potrebbero, un
giorno, trasformare tutto questo in realtà. Oggi l’interesse scientifico è
rivolto in particolare ai savant, persone autistiche dotate di capacità
fenomenali; le stesse capacità, cosa ancora più importante, che qualsiasi
persona può acquisire quasi istantaneamente a seguito di una lesione a
carico di specifiche parti del cervello, e che alcuni scienziati sono convinti
possano essere indotte utilizzando i campi magnetici.

Savant: super geni?


All’età di nove anni Z fu colpito da un proiettile alla testa che gli
trapassò il cranio. Non morì, come temevano i medici, ma il proiettile causò
un’estesa lesione all’emisfero sinistro del suo cervello, determinando
un’emiparesi destra e lasciando Z, per sempre, muto e sordo.
Il proiettile ebbe anche uno stranissimo effetto collaterale: Z sviluppò
strabilianti capacità motorie e una memoria strabiliante, tipica dei savant.
Quello di Z non è un caso isolato: nel 1979 un ragazzino di dieci anni di
nome Orlando Serrell rimase tramortito dopo un forte colpo al lato sinistro
della testa causato da una palla da baseball. Dopo essersi riavuto Serrell
accusò forti mal di testa, ma quando il dolore scomparve scoprì di essere in
grado di eseguire calcoli matematici complessi e di avere una memoria
quasi fotografica di determinati eventi della sua vita (era in grado di
calcolare una data posta a migliaia di anni di distanza nel futuro).
Su tutta la popolazione mondiale di circa sette miliardi di individui,
esistono solo circa un centinaio di casi documentati di savant; ma il loro
numero è molto superiore se includiamo anche quei soggetti le cui capacità
mentali non sono sovraumane ma “solo” straordinarie (sembra infatti che
circa il 10 per cento degli individui affetti da autismo mostri una qualche
capacità savant). Queste persone possiedono capacità cognitive che
travalicano l’odierna conoscenza scientifica.
Sono molti i tipi di savant che di recente hanno attratto la curiosità degli
scienziati: più o meno la metà di loro soffre di una qualche forma di
autismo (mentre l’altra metà è affetta da altre malattie mentali o da disturbo
psicologico) e spesso presenta gravi problemi di interazione sociale, cosa
che li porta a isolarsi.
Esiste poi la cosiddetta sindrome di savant acquisita che emerge nel
momento in cui un adulto, in apparenza normale, subisce un grave trauma
(come battere la testa contro il fondo della piscina, o venire colpito da una
palla da baseball o da un proiettile) quasi sempre all’emisfero sinistro.
Alcuni scienziati, tuttavia, sostengono che tale distinzione possa essere
fuorviante, e che forse tutti i casi savant siano acquisiti. Dal momento che i
savant autistici iniziano a mostrare le proprie capacità intorno all’età di tre o
quattro anni, è possibile che l’autismo (proprio come un colpo alla testa)
rappresenti l’origine dei loro talenti.
La comunità scientifica non è concorde sull’origine di queste capacità
straordinarie. Secondo alcuni, questi individui sono nati così come sono, e
simili anomalie sono uniche quanto loro: le capacità che esibiscono, anche
se risvegliate da un proiettile, sono innate. Se così fosse, è possibile che non
possano essere imparate, né trasferite ad altri.
Altri sostengono che questa teoria vìoli quella dell’evoluzione, che si
realizza in maniera incrementale nel corso di lunghissimi periodi di tempo.
Se esistono i savant, allora tutti noi possediamo simili capacità in forma
latente; ciò implica che in futuro potremo essere in grado di attivare questi
miracolosi poteri a nostro piacimento? Alcuni ne sono convinti, e vari
articoli scientifici sostengono che le stesse capacità si nascondano in
ognuno di noi e possano essere fatte emergere sfruttando i campi magnetici
generati da uno scanner elettromagnetico (TES); oppure, che abbiano una
base genetica, e che in tal caso possano essere ricreate con l’ausilio di una
terapia genetica. Potrebbe persino essere possibile coltivare delle cellule
staminali che permettano ai neuroni di crescere nella corteccia prefrontale e
in altri centri del cervello, e vedere così aumentare le nostre capacità
mentali.
Tutte queste possibilità sono oggetto di dibattito e ricerca. Non solo
potrebbero permettere ai medici di trovare un rimedio ai devastanti effetti di
malattie come l’Alzheimer, ma potrebbero anche permetterci di diventare
più intelligenti: le possibilità non mancano.
Il primo caso documentato risale al 1789, quando il medico Benjamin
Rush iniziò a studiare un paziente che, nonostante il suo handicap mentale,
sottoposto al quesito “quanti secondi ha vissuto un uomo di settant’anni,
diciassette giorni e dodici ore” dopo novanta secondi diede la risposta
esatta: 2.210.500.800.
A Darold Treffert, un medico dei Wisconsin10 che ha studiato i savant
per molto tempo, piace ricordare l’esempio di un paziente cieco a cui fu
posta una semplice domanda: se si mette un chicco di grano sul primo
riquadro di una tavola da scacchi, due nella seconda, quattro in quella
successiva, e si continua a raddoppiare, quanti chicchi di grano si avranno
nel sessantaquattresimo riquadro? All’uomo occorsero solo quarantacinque
secondi per trovare la risposta giusta: 18.446.744.073.709.551.61611.
Ma il caso più noto è senza dubbio quello di Kim Peek, da cui trassero
ispirazione i creatori del film Rain Man – L’uomo della pioggia. Sebbene
l’uomo fosse affetto da un gravissimo ritardo mentale (era a malapena
capace di allacciarsi le scarpe o i bottoni della camicia) aveva imparato a
memoria circa dodicimila libri ed era in grado di citarne interi passaggi,
parola per parola. Impiegava circa otto secondi per leggere una pagina (Kim
riusciva a memorizzare un libro intero in mezz’ora, ma con una tecnica di
lettura davvero inusuale: leggeva entrambe la pagine nello stesso momento,
utilizzando contemporaneamente un occhio per ognuna). Sebbene fosse
molto timido, con il tempo iniziò ad apprezzare il fatto di esibirsi in
prodezze matematiche davanti agli occhi dei curiosi, i quali lo mettevano
alla prova ponendogli domande trabocchetto.
Certo, gli scienziati devono fare attenzione a distinguere i casi autentici
dai semplici trucchi di memorizzazione; ma le capacità dei savant non sono
solo matematiche, e si estendono alla musica, all’arte e alla meccanica. Dal
momento che i soggetti autistici savant manifestano grandissime difficoltà a
esprimere verbalmente i propri processi mentali, un altro approccio consiste
nello studiare i soggetti affetti dalla sindrome di Asperger, una forma di
autismo più lieve: essa è stata riconosciuta condizione psicologica a sé
stante solo nel 1994, ed è per questo che le ricerche in merito sono scarse.
Come i soggetti autistici, questi malati faticano moltissimo a interagire con
gli altri, ma con la preparazione adeguata possono acquisire una socialità
sufficiente per mantenere un posto di lavoro e articolare i propri processi
mentali. Una piccola parte di loro possiede le stesse, incredibili, capacità
savant, e alcuni scienziati sono convinti che molti grandi geni del passato
fossero affetti dalla sindrome di Asperger: ciò potrebbe spiegare la strana e
solitaria natura di fisici come Isaac Newton e Paul Dirac – Newton, in
particolare, era patologicamente incapace di fare due chiacchere.
Ho avuto il piacere di intervistare uno di questi soggetti, Daniel
Tammet, autore del best seller Nato in un giorno azzurro: quasi un caso
unico tra i savant, Daniel è in grado di articolare i propri pensieri e scrivere
libri, e di parlarne alla radio e alla televisione. Per una persona che aveva
difficoltà così grandi da bambino, oggi possiede delle superbe abilità
comunicative12.
Daniel si è distinto per aver conquistato il primato mondiale di
memorizzazione del pi greco: è stato capace di imparare a memoria le sue
prime 22.514 cifre decimali. Gli ho chiesto in che modo sia riuscito in tale
impresa erculea e mi ha risposto che da sempre associa ogni numero a un
colore o a una tessitura. Gli ho poi posto la domanda chiave: se ogni
numero ha un colore o una tessitura, come riesce a ricordarne migliaia?
Purtroppo a questo punto mi ha detto di non saperlo, che, semplicemente,
per lui funziona in questo modo. I numeri sono sempre stati tutta la sua vita,
fin da quando era bambino, e così gli appaiono in mente, in una miscela
costante di cifre e colori.

Asperger e la Silicon Valley

Fino a qui la discussione sembra essere puramente astratta, priva di


conseguenze dirette sulla vita di tutti i giorni; ma il coinvolgimento delle
persone con una leggera forma di autismo e affette da Asperger potrebbe
essere più diffuso di quanto non si pensasse in precedenza, in modo
particolare nei campi in cui la tecnologia è più avanzata.
La serie televisiva The Big Bang Theory segue le stravaganti avventure
di un gruppo di giovani scienziati, la maggior parte fisici “sfigati”, nella
loro maldestra ricerca di una compagna: ogni episodio presenta un incidente
divertente che rivela quanto i loro tentativi in tal senso siano penosi e
inadeguati. La tacita assunzione su cui si basa l’intera serie è che le loro
abilità intellettuali siano pari alla loro imbranataggine. Allo stesso modo,
tradizione vuole che tra i guru della tecnologia della Silicon Valley una
percentuale più alta della norma sia priva di spiccate abilità sociali (un detto
tra le studentesse delle facoltà di ingegneria avanzata, dove il rapporto
uomo/donna è molto a favore di queste ultime, recita: “Le probabilità sono
buone, ma quelli buoni sono tipi improbabili”).
Alcuni scienziati si sono messi ad analizzare tali impressioni: l’ipotesi è
che le persone affette da Asperger e da altre lievi forme di autismo
possiedano capacità cognitive particolarmente adatte per alcuni campi di
studio, come quello dell’industria tecnologica. I ricercatori dello University
College di Londra hanno studiato sedici persone a cui era stata
diagnosticata una leggera forma di autismo e li hanno confrontati con sedici
individui normali. Ad entrambi i gruppi sono state mostrate delle
diapositive che riportavano numeri e lettere in schemi sempre più
complessi.
I risultati hanno mostrato che le persone autistiche possedevano una
maggiore capacità di concentrarsi sul compito richiesto; a mano a mano che
la sua complessità aumentava, il divario tra le capacità intellettuali dei due
gruppi diveniva sempre più ampio, e i soggetti autistici mostravano risultati
significativamente migliori rispetto al gruppo di controllo (il test, tuttavia,
ha mostrato anche che questi stessi soggetti tendevano ad essere distratti più
facilmente da rumori esterni e luci intermittenti, rispetto al gruppo di
controllo).
Nilli Lavie ha dichiarato: «Lo studio conferma la nostra ipotesi, ovvero
che le persone autistiche possiedano una sensibilità percettiva superiore
rispetto alla media… Una persona autistica riesce a percepire una quantità
significativamente maggiore di informazioni rispetto a un adulto
normale»13.
Com’è ovvio, questo non dimostra che le persone intelligenti siano
affette da una qualche forma di Asperger, ma indica che negli ambiti che
richiedono una buona capacità di focalizzare la propria attenzione potrebbe
esserci una maggiore percentuale di soggetti affetti da tale malattia.

Studi di imaging cerebrale sui savant

Quello dei savant è un tema che da sempre compare nei racconti


aneddotici, ma di recente l’intero campo di studi è stato rivoluzionato con
l’arrivo della tecnologia RM e delle altre tecniche di imaging cerebrale.
Il cervello di Kim Peek, per esempio, mostrava delle caratteristiche
inusuali: le immagini RM mostrano che era privo del corpo calloso, la
struttura che connette l’emisfero destro a quello sinistro, e questo con ogni
probabilità è il motivo per cui era in grado di leggere due pagine alla volta,
mentre il deficit nelle abilità motorie si riflette nella deformazione del
cervelletto, l’area che controlla l’equilibrio14. Per sfortuna le scansioni RM
non possono identificare l’origine esatta delle sue straordinarie capacità e
della sua memoria fotografica ma, in linea di massima, questi studi hanno
dimostrato che gran parte dei soggetti che hanno sviluppato una condizione
simile da adulti aveva subito una lesione all’emisfero sinistro.
L’interesse si è concentrato in modo particolare sulla corteccia
temporale anteriore e orbitofrontale sinistra, e alcuni sono convinti che tutte
le abilità savant (autistiche, acquisite o Asperger) derivino da una lesione a
carico di quest’area specifica del lobo temporale; essa, agendo da
“revisore”, elimina periodicamente i ricordi irrilevanti. Ma a seguito di una
lesione all’emisfero sinistro, l’emisfero destro inizia a prendere il
sopravvento; quest’ultimo è molto più preciso di quello sinistro, che spesso
distorce la realtà e inventa fatti che non conosce. Si ritiene che, a causa
della lesione alla controparte sinistra, l’emisfero destro debba sobbarcarsi
un carico di lavoro non indifferente, e che in ciò risieda il motivo per cui le
competenze savant si sviluppano. L’emisfero destro, per esempio, è molto
più artistico di quello sinistro, e in condizioni normali quest’ultimo ne
limita il talento tenendolo sotto controllo. Se l’emisfero sinistro subisce un
danno, dunque, ciò può determinare la liberazione delle qualità latenti
dell’emisfero destro, e una conseguente esplosione di talento artistico. Il
segreto per liberare le nostre capacità savant, quindi, starebbe nell’attenuare
l’attività del cervello sinistro così che non possa più limitare il talento
naturale dell’emisfero destro, fenomeno chiamato anche danno all’emisfero
sinistro e compensazione dell’emisfero destro.
Nel 1998 Bruce Miller dell’università della California, a San Francisco,
ha condotto una serie di esperimenti che sembravano supportare tale
ipotesi15. Assieme ad alcuni collaboratori ha studiato cinque individui
normali affetti da demenza frontotemporale (FTD, Frontotemporal
Dementia) a partire dalle prime fasi della malattia. Al progredire dei
sintomi, i soggetti mostravano l’emergere di abilità savant: a mano a mano
che la demenza andava affermandosi, infatti, molti iniziavano a esibire
talenti artistici sempre più straordinari, sebbene nessuno di essi avesse mai
mostrato di possederne prima di allora. Si trattava di abilità visive, non
musicali, e le loro opere, per quanto straordinarie, erano semplici copie
prive di qualità originali, astratte o simboliche (nel corso dello studio una
delle pazienti ha mostrato dei miglioramenti, e di conseguenza le sue abilità
savant sono andate riducendosi: ciò indica una stretta relazione tra i disturbi
del lobo temporale sinistro e le capacità savant).
Le analisi di Miller sembrano dimostrare che la degenerazione della
corteccia temporale anteriore e orbitofrontale sinistra diminuisce
l’inibizione dei sistemi visivi dell’emisfero destro, incrementando così le
capacità artistiche. Ancora una volta, la lesione a carico di una particolare
area dell’emisfero sinistro avrebbe obbligato l’emisfero destro a prendere il
comando della situazione e svilupparsi.
Oltre che sui soggetti savant, gli studi di imaging con risonanza
magnetica sono stati portati avanti anche su persone affette da sindrome
ipertimestica, anch’esse dotati di memoria fotografica16: queste non
soffrono né di autismo né di altri disturbi cognitivi, ma ciononostante
condividono alcune abilità con i pazienti che ne sono affetti. Sull’intero
territorio degli Stati Uniti sono stati documentati solo quattro casi di
autentica memoria fotografica, e uno di questi è Jill Price, una dirigente
scolastica di Los Angeles; Jill è capace di ricordare con precisione ciò che
stava facendo in un qualsiasi giorno del suo passato, ma dice di avere
difficoltà a cancellare alcuni pensieri. Il suo cervello le pare «bloccato in
modalità pilota automatico» e le sembra di osservare il mondo su due
schermi separati, in cui passato e presente sono sempre in competizione per
attirare la sua attenzione.
Gli scienziati dell’università della California, a Irvine, hanno studiato il
cervello di Jill a partire dal 2000, individuandone alcune particolarità: molte
regioni cerebrali, per esempio, sono più ampie del normale, come per
esempio il nucleo caudato (una struttura coinvolta nella formazione delle
abitudini) e il lobo temporale (che immagazzina i fatti e i numeri), e si
pensa che sia la collaborazione di queste due aree a determinare la sua
memoria fotografica: il cervello di Jill, quindi, è diverso da quello dei
savant che hanno subito una lesione o un danno al lobo temporale sinistro.
La ragione ci è sconosciuta, ma ciò indica l’esistenza di un altro approccio
per tentare di replicare tali, incredibili, capacità cognitive.

Possiamo diventare savant?

Tutte queste considerazioni sembrano suggerire che sia davvero


possibile disattivare deliberatamente parti dell’emisfero sinistro e, in questo
modo, aumentare l’attività di quello destro, obbligandolo a sviluppare
capacità savant.
Va ricordato che la stimolazione magnetica transcranica, o TMS, ci
permette in effetti di silenziare parti del cervello: perché non applicare
questa metodica proprio alla corteccia temporale anteriore e orbitofrontale
sinistra, e attivare la genialità dei savant a nostro piacere?
Questa ipotesi è stata effettivamente testata. Qualche anno fa il lavoro di
Allan Snyder dell’università di Sydney è apparso sulle prime pagine dei
giornali quando ha dichiarato che, applicando la TMS ad alcune parti
dell’emisfero sinistro, i suoi soggetti sperimentali avevano esibito capacità
savant; direzionando le onde magnetiche a bassa frequenza verso l’emisfero
sinistro, è infatti possibile spegnere questa regione cerebrale così che l’altro
emisfero prenda il sopravvento. Snyder e colleghi hanno condotto
l’esperimento su undici volontari di sesso maschile. Applicando la TMS
sulla regione frontotemporale sinistra dei soggetti mentre questi erano
impegnati nell’esecuzione di compiti sperimentali quali lettura e disegno,
due di loro hanno effettivamente mostrato miglioramenti significativi
nell’abilità di correggere la sintassi e riconoscere parole doppie, sebbene in
nessuno di loro ciò abbia determinato la comparsa di abilità savant17. In un
altro studio R.L. Young e colleghi hanno somministrato a diciassette
soggetti una batteria di test psicologici progettati specificamente per
analizzare le abilità savant (questo tipo di test analizza la capacità di una
persona di memorizzare fatti, elaborare numeri e date, creare opere
artistiche o suonare uno strumento musicale): cinque di loro hanno mostrato
dei miglioramenti dopo il trattamento con TMS18.
Micheal Sweeney ha commentato dicendo che «se applicata ai lobi
prefrontali, la TMS ha dimostrato di poter migliorare la velocità e l’agilità
dell’elaborazione cognitiva. Gli impulsi TMS sono un’iniezione di caffeina
localizzata, ma nessuno sa con esattezza in che modo l’azione dei magneti
riesca a ottenere un tale risultato»19. Questi esperimenti indicano, ma in
nessun modo provano, che silenziare l’attività di una parte della regione
frontotemporale sinistra può aumentare alcune capacità; ma si tratta di
abilità ben lontane da quelle dei savant, e va detto che questi stessi
esperimenti sono stati condotti anche da altri gruppi di lavoro, con risultati
non definitivi. Son quindi necessari ulteriori studi nel campo, ed è troppo
presto per esprimere un giudizio in un senso o nell’altro.
A questo scopo, lo strumento per la TMS è il più semplice e comodo da
usare dal momento che è in grado di silenziare in modo selettivo varie parti
del cervello, senza doversi basare su una lesione o un trauma cerebrale. Ma
va ricordato che questa tecnologia è ancora poco sofisticata, e che la sua
azione si esercita su milioni di neuroni alla volta perché i campi magnetici
(a differenza delle sonde elettriche) non sono precisi e la loro azione si
estende ad aree vaste diversi centimetri quadrati. Sappiamo che nei savant
le aree danneggiate sono quelle della corteccia temporale anteriore e
orbitofrontale sinistra e che questa lesione, molto probabilmente, è
quantomeno in parte responsabile delle loro straordinarie abilità; è tuttavia
possibile che l’area specifica da silenziare sia addirittura una sottoregione
ancor più piccola, e ciò significa che ogni impulso TMS potrebbe
inavvertitamente disattivare anche aree che dovrebbero invece rimanere
intatte per produrre tali abilità.
Grazie alle sonde TMS potremo in futuro riuscire a restringere l’area
cerebrale coinvolta in questo genere di esperimenti, e una volta che essa
sarà stata identificata con precisione, si potranno usare sonde elettriche
accuratissime (come quelle utilizzate nella stimolazione cerebrale profonda)
per attenuarne l’attività in maniera ancora più precisa: sarà allora possibile
far emergere le abilità savant semplicemente premendo un bottone.

Dimenticare di dimenticare, e la memoria fotografica

Sebbene le capacità savant possano emergere a seguito di un trauma


all’emisfero sinistro (che determina il fenomeno della compensazione da
parte del destro), ciò non spiega ancora in maniera precisa in che modo
l’emisfero destro riesca a eseguire queste incredibili imprese mnemoniche:
quale meccanismo neurale permette l’emergere della memoria fotografica?
La risposta a tale domanda potrebbe stabilire se sia davvero possibile anche
per noi diventare savant.
Fino a pochi anni fa si credeva che la memoria fotografica fosse dovuta
alle peculiari abilità mnemoniche di alcuni cervelli straordinari; in tal caso,
sarebbe stato molto difficile per una persona normale apprendere abilità
simili. Nel 2012, tuttavia, uno studio ha dimostrato che potrebbe essere vero
l’esatto contrario20.
Il segreto della memoria fotografica potrebbe essere non la capacità del
cervello di imparare ma, all’opposto, la sua incapacità di dimenticare: se
così fosse, la memoria fotografica potrebbe non essere un vero mistero,
dopo tutto.
Questo nuovo studio, condotto sui moscerini della frutta, è stato portato
avanti dagli scienziati del Scripps Research Institute, in Florida. I ricercatori
hanno scoperto che il modo attraverso cui questi insetti imparano potrebbe
capovolgere l’idea ora dominante su come i ricordi si formano e vengono
rimossi. I moscerini erano esposti a diversi odori e ricevevano un rinforzo
positivo (del cibo) o negativo (una scossa elettrica).
Era già noto agli scienziati che la dopamina, un neurotrasmettitore,
svolge un ruolo importante nella formazione dei ricordi; con loro sorpresa,
hanno scoperto che la molecola regola attivamente sia la formazione dei
nuovi ricordi sia la loro rimozione. Nel processo di formazione si attiva il
recettore dCA1, mentre la rimozione degli stessi inizia con l’attivazione del
recettore DAMB.
In passato si pensava che dimenticare fosse il semplice risultato della
degradazione dei ricordi nel tempo, un procedimento di per sè passivo; il
nuovo studio indica che dimenticare è un processo attivo, che richiede
l’intervento della dopamina.
Per dimostrare la loro tesi i ricercatori hanno dimostrato che
interferendo con l’azione dei recettori dCA1 e DAMB era possibile
aumentare o diminuire la capacità dei moscerini di ricordare e dimenticare:
una mutazione nel recettore dCA1, per esempio, danneggiava la capacità
del moscerino di ricordare, mentre una mutazione a livello del recettore
DAMB ne diminuiva la capacità di dimenticare.
Tale effetto, ipotizzano i ricercatori, potrebbe a sua volta spiegare in
parte le capacità savant, che sarebbero quindi prodotte dall’incapacità di
questi soggetti di dimenticare. Uno degli studenti impegnati nello studio,
Jacob Berry, ha commentato: «Le persone savant hanno incredibili capacità
mnemoniche, ma questo poterebbe dipendere non dalla loro memoria
quanto da un deficit nei meccanismi dell’oblio. Questa potrebbe rivelarsi
una strategia per lo sviluppo di farmaci per la cognizione e la memoria,
farmaci che possano inibire questo meccanismo e migliorare la resa
cognitiva»21.
Ammettendo che un simile risultato sia estendibile agli esseri umani, ciò
potrebbe incoraggiare i ricercatori a sviluppare nuovi farmaci e
neurotrasmettitori in grado di attenuare la degenerazione dei ricordi.
Potremmo quindi decidere di attivare selettivamente la memoria fotografica
secondo necessità, neutralizzando il processo di dimenticanza e, nel caso
delle persone affette da sindrome savant, bloccare il continuo
sovraffollamento di informazioni estranee e inutili che impediscono loro di
pensare.
Esiste anche la possibilità che il progetto BRAIN, sostenuto
dall’amministrazione Obama, riesca a identificare gli specifici percorsi
neurali coinvolti nella sindrome savant acquisita: i campi magnetici
transcranici sono ancora troppo poco precisi per essere diretti su quei pochi
neuroni che si pensa siano coinvolti nella sindrome, ma grazie alle
nanosonde e alle tecnologie di imaging più avanzate il progetto potrebbe
riuscire a isolare il percorso neurale preciso che rende possibile la memoria
fotografica e le incredibili abilità di calcolo, artistiche e musicali tipiche dei
savant. La ricerca investirà miliardi di dollari nell’identificazione degli
specifici percorsi neurali implicati nelle malattie mentali e in altre patologie
cerebrali; potremmo anche svelare il segreto di questa affascinante
sindrome, e divenire in grado di trasformare una persona normale in un
savant (come in passato è successo causa di un trauma o di un incidente),
tramite una procedura clinica standard. Solo il tempo ce lo dirà.
Gli approcci finora illustrati non prevedono l’alterazione sostanziale del
cervello o del corpo. Grazie ai campi magnetici, si spera, potremo liberare il
potenziale già presente nel nostro cervello in forma latente; l’idea alla base
è che in potenza siamo tutti dei savant, e che per esprimere i nostri talenti
nascosti avremo solo bisogno di alterare in minima parte alcuni circuiti
neurali.
Un altro approccio, invece, consiste nell’alterare il cervello e i geni in
maniera diretta, utilizzando a tale scopo le ultime scoperte in fatto di
neuroscienze e genetica: l’uso delle cellule staminali sembra essere
promettente.

Cellule staminali per il cervello

Abbiamo detto che per molti anni si è creduto – e ciò era considerato un
dogma delle neuroscienze – che le cellule cerebrali non si rigenerassero.
Riparare le cellule cerebrali vecchie e morenti, o farne crescere di nuove, e
migliorare quindi le nostre capacità cognitive, sembrava impossibile. Il
1998 è stato l’anno della svolta, l’anno in cui è stato scoperto che il cervello
in effetti possiede delle cellule staminali adulte, e che queste si trovavano
nell’ippocampo, nel bulbo olfattivo e nel nucleo caudato. Detto in parole
povere, le cellule staminali sono la “madre di tutte le cellule”: quelle
embrionali, per esempio, sono in grado di evolversi in qualsiasi altro tipo di
cellula. Sebbene ciascuna cellula contenga tutto il materiale genetico
necessario per costituire un essere umano, solo quelle staminali embrionali
hanno la capacità di differenziarsi in qualsiasi altra cellula del corpo.
Le cellule staminali adulte, invece, hanno perso tale, camaleontica,
capacità, ma possono ancora riprodurre e rimpiazzare le vecchie cellule. Per
quanto riguarda la possibilità di migliorare la nostra memoria, l’interesse
scientifico si è concentrato sulle cellule staminali adulte dell’ippocampo: si
è scoperto che qui nascono ogni giorno migliaia di nuove cellule, anche se
molte di esse muoiono nel giro di pochissimo. È stato però possibile
dimostrare che i ratti che imparano nuove abilità conservano un maggior
numero di cellule nuove, e che lo stesso effetto si può ottenere anche dalla
combinazione di esercizio fisico e sostanze in grado di migliorare l’umore;
al contrario, lo stress ne accelera la morte.
Nel 2007 siamo stati testimoni di un’importante progresso scientifico
quando alcuni scienziati americani e giapponesi sono riusciti a creare nuove
cellule staminali riprogrammando normali cellule dell’epidermide22. La
speranza è che un giorno queste staminali, di provenienza naturale o
ricreate tramite ingegnerizzazione genetica, possano essere inserite nel
cervello dei pazienti malati di Alzheimer per sostituire le cellule morenti (le
nuove cellule, in quanto prive delle connessioni opportune, non andrebbero
direttamente a integrarsi nell’architettura neurale del cervello: ciò significa
che per incorporare i nuovi neuroni il paziente dovrebbe re-imparare alcune
capacità).
La ricerca sulle cellule staminali è, senza dubbio, una delle aree più
attive nell’ambito delle neuroscienze. «In questo momento la ricerca sulle
cellule staminali e la medicina rigenerativa stanno attraversando una fase
estremamente feconda. Le conoscenze vanno accumulandosi a un ritmo
sostenuto, e oggi stanno nascendo diverse società per dare inizio a varie
sperimentazioni cliniche in ambiti diversi»23 ha commentato lo svedese
Jonas Frisén del Karolinska Institute.

La genetica dell’intelligenza

Oltre alle cellule staminali si sta esplorando ora anche un altro


approccio, che consiste nell’isolamento dei geni responsabili
dell’intelligenza umana. I biologi hanno constatato che per il 98,5 per cento
siamo identici agli scimpanzé, ma ciononostante viviamo due volte più a
lungo e, negli ultimi sei milioni di anni, la nostra intelligenza è
letteralmente esplosa: ciò significa che nella manciata residua di geni ci
devono essere anche quelli che determinano le peculiarità del cervello
umano. Nel giro di pochi anni gli scienziati avranno completato la mappa di
tutte queste differenze genetiche, ed è possibile che i segreti della longevità
e dell’intelligenza dell’uomo si trovino proprio lì; dunque i ricercatori
hanno concentrato l’attenzione su quei geni che probabilmente hanno
guidato l’evoluzione del cervello umano24.
L’indizio chiave che potrebbe rivelare il segreto della nostra intelligenza
potrebbe venire dallo studio dei nostri antenati primati. Ciò solleva un’altra
domanda: è possibile che questo tipo di ricerche porti a una situazione
simile a quella vista ne Il pianeta delle Scimmie?
La lunga serie cinematografica racconta di come una guerra nucleare
abbia determinato la fine della civiltà moderna. L’umanità regredisce a uno
stato barbarico, mentre le radiazioni accelerano l’evoluzione di altri primati,
che assumono il ruolo di specie dominante sul pianeta. Queste scimmie
danno origine a una civiltà avanzata, mentre gli esseri umani sono ridotti a
vagare mezzi nudi nelle foreste, sporchi e puzzolenti. Nel migliore dei casi,
gli uomini diventano animali da zoo: i ruoli si sono invertiti, e le scimmie ci
osservano con sguardo allocchito dalle sbarre delle nostre gabbie.
Nell’ultimo episodio della saga, L’alba del pianeta delle scimmie,
vediamo gli scienziati umani impegnati nella ricerca di una cura per
l’Alzheimer. Nel corso delle sperimentazioni si imbattono in un virus che,
inoculato in uno scimpanzé, ne aumenta imprevedibilmente l’intelligenza.
Durante il suo trasferimento in un rifugio per primati, l’animale è trattato
con crudeltà; ma grazie alla sua nuova intelligenza riesce a scappare e, dopo
averli infettati con lo stesso virus, a liberare anche tutti gli altri animali
dalle rispettive gabbie: una massa di scimmie intelligenti si riversa urlando
in preda alla furia sul Golden Bridge, travolgendo polizia e persone. Alla
fine del film, dopo uno spettacolare e feroce scontro con le autorità, le
scimmie si rifugiano in pace in una foresta di sequoie a nord del ponte.
Quanto è realistico uno scenario del genere? Non troppo, nel breve
termine; tuttavia, non possiamo escludere che non lo diventi nel futuro, dal
momento che nei prossimi anni gli scienziati dovrebbero riuscire a
catalogare tutte le mutazioni genetiche che hanno creato l’Homo sapiens.
Tuttavia, prima di avere delle scimmie intelligenti, dovremo risolvere molti
altri misteri.
Katherine Pollard è rimasta affascinata non tanto dalla fantascienza
quanto dalla genetica di ciò che ci rende umani: Pollard è un’esperta di
bioinformatica, una disciplina che solo dieci anni fa neppure esisteva.
Questo campo della biologia, invece di sezionare il corpo di un animale per
comprendere com’è fatto, sfrutta l’enorme potenza di calcolo dei computer
per analizzare i geni delle specie animali. Da anni Katherine lavora su
avanzatissimi progetti di ricerca al fine di trovare i geni che definiscono
l’essenza di ciò che ci separa dalla scimmie. Nel 2003, poco dopo aver
completato il suo dottorato all’università della California di Berkeley, ha
avuto la sua occasione.
«Ho colto al volo l’opportunità di lavorare con un team internazionale
che stava identificando la sequenza di basi del DNA, le “lettere”, che
compongono il genoma dello scimpanzé comune» mi ha raccontato25. Il suo
obiettivo era chiaro: Katherine sapeva che dalle scimmie, i nostri parenti
geneticamente più stretti, ci separano solo quindici milioni di coppie di basi
su tre miliardi nella composizione del nostro genoma (ciascuna “lettera” del
nostro codice genetico rappresenta una base azotata, di cui esistono quattro
tipi, A, T, C e G. Il nostro genoma è composto da miliardi di lettere
organizzate pressappoco così: ATTACGGC…)
«Ero determinata a trovarle» ha scritto.
Isolare questi geni potrebbe avere grandi implicazioni per il nostro
futuro: una volta scoperti i geni che hanno permesso l’origine all’Homo
sapiens, sarà possibile capire come si è evoluto l’uomo. Il segreto
dell’intelligenza potrebbe essere lì, e potremmo addirittura riuscire ad
accelerare la strada intrapresa dall’evoluzione aumentando la nostra
intelligenza. Ma anche quindici milioni di coppie di basi sono un numero
enorme da analizzare: come trovare una manciata di aghi in questo pagliaio
genetico?
Polland sapeva che la maggior parte del nostro genoma è costituito dal
cosiddetto DNA spazzatura, che contiene geni che non codificano nessuna
proteina e che non è stato, per la maggior parte, toccato dall’evoluzione;
questo DNA muta lentamente a una velocità nota (se ne modifica all’incirca
l’1 per cento ogni quattro milioni di anni). Dato che dal punto di vista
genetico differiamo dalla scimmie di circa l’1,5 per cento, ciò significa che
le linee evolutive delle due specie si sono separate probabilmente circa sei
milioni di anni fa. Quindi ciascuna delle nostre cellule possiede un
“orologio molecolare”, e dal momento che l’evoluzione accelera tale
velocità di mutazione, analizzare il punto in cui l’accelerazione ha avuto
luogo ci permette di capire quali geni stiano guidando la nostra evoluzione.
Pollard sapeva che se fosse riuscita a programmare un software per
identificare l’esatta localizzazione di tali cambiamenti accelerati all’interno
nel nostro genoma, avrebbe potuto isolare con precisione i geni che hanno
dato origine all’Homo sapiens. Dopo mesi di duro lavoro per ottimizzare il
programma, lo ha finalmente installato sui giganteschi computer
dell’università della California a Santa Cruz, e ha atteso con ansia i risultati.
Quando il computer ha infine prodotto i risultati dell’elaborazione,
Katherine ha trovato proprio quello che stava cercando: 201 sequenze del
genoma umano a rapida evoluzione. Ma la sua attenzione è caduta sulla
prima della lista.
«Con il mio supervisore David Haussler, che controllava il mio lavoro,
ho guardato il risultato della lista, un elenco di 118 basi che assieme sono
poi divenute note con il nome di HAR1 (Human Accelerated Region 1,
“regione umana accelerata 1”)» mi ha raccontato26.
«Avevamo fatto tombola» avrebbe poi scritto. Era un sogno diventato
realtà.
Stava ammirando un’area del nostro genoma contenente solo 118
coppie di basi, ed esse mostravano il più ampio numero di mutazioni che ci
separano dalle scimmie. Di queste coppie, dal momento della nascita della
razza umana, solo 18 mutazioni si sono modificate: tale incredibile scoperta
sembrare indicare che il merito della nostra risalita dalle paludi del passato
sia dovuta a una manciata di mutazioni.
Assieme ad alcuni colleghi, Pollard ha in seguito tentato di decifrare la
natura precisa di questo misterioso cluster chiamato HAR1, scoprendo che,
nel corso di milioni di anni di evoluzione, esso era rimasto praticamente
immutato. I primati si sono separati dai polli circa trecento milioni di anni
fa, e ciononostante queste due specie differiscono solo per due coppie di
basi. HAR1 è rimasto praticamente immutato per svariate centinaia di
milioni di anni, durante i quali si sono verificati solo 2 cambiamenti nelle
lettere G e C; eppure, nel corso di soli sei milioni di anni, HAR1 è mutato
18 volte, determinando la significativa accelerazione nella nostra
evoluzione.
Ancora più affascinante è il ruolo ricoperto da HAR1 nella definizione
della struttura generale della corteccia cerebrale e del suo peculiare aspetto
convoluto: un difetto di HAR1 causa un disturbo chiamato lissencefalia o
cervello liscio, ovvero uno scorretto ripiegamento della corteccia (i difetti a
carico di questa regione sono correlati anche alla schizofrenia). Oltre alla
sua ampiezza, una delle caratteristiche principali della nostra corteccia
cerebrale è il suo aspetto ondulato e convoluto, caratteristica che ne
aumenta la superficie e quindi la potenza computazionale. Il lavoro di
Pollard ha mostrato come la modificazione a carico di solo 18 lettere del
genoma abbia in parte determinato uno dei più importanti e caratteristici
cambiamenti nella storia dell’uomo, aumentando in maniera significativa la
nostra intelligenza (ricordiamo qui come il cervello di Gauss, preservato
dopo la sua morte, all’osservazione mostrasse inusuali ripiegamenti della
corteccia).
La lista della dottoressa Pollard comprendeva un centinaio di altre
regioni a rapido cambiamento, alcune già note. FOXP2, per esempio,
svolge un ruolo fondamentale nello sviluppo del linguaggio, un’altra
caratteristica essenziale dell’uomo (le persone portatrici di un’anomalia
carico di questo gene presentano difficoltà a eseguire i movimenti del volto
necessari a esprimersi verbalmente). Un’altra regione, chiamata HAR2,
conferisce alle nostre dita la destrezza necessaria per manipolare gli
strumenti più delicati.
Grazie al sequenziamento del genoma dell’Uomo di Neanderthal è stato
inoltre possibile confrontare la nostra struttura genetica con quella di una
specie ancora più vicina a noi rispetto agli scimpanzé (gli scienziati hanno
scoperto che condividiamo con loro FOXP2, e ciò significa che, come noi,
gli uomini di Neanderthal erano in grado di emettere vocalizzi e utilizzare
un linguaggio).
Un altro gene cruciale è ASPM, che si pensa essere responsabile della
nostra accresciuta capacità cerebrale rispetto alle scimmie. Alcuni scienziati
sono convinti che questi e altri geni possano spiegare perché gli esseri
umani siano diventati intelligenti (i soggetti con un difetto genetico a livello
di ASPM sono spesso affetti da microcefalia, una grave forma di ritardo
mentale causata dalle dimensioni molto ridotte del cranio, grande all’incirca
come quello dei nostri antenati australopitechi).
Gli scienziati sono riusciti a rintracciare il numero di alterazioni di
ASPM, scoprendo che negli ultimi cinque-sette milioni di anni, da quando
ci siamo separati dagli scimpanzé, esso è mutato circa 15 volte. Le
alterazioni più recenti sembrano essere correlate ai momenti salienti della
nostra evoluzione: una si è verificata più di centomila anni fa, al momento
della comparsa dell’uomo moderno in Africa (il cui aspetto è identico al
nostro), mentre l’ultima è avvenuta quasi seimila anni fa, in concomitanza
con l’introduzione della scrittura e dell’agricoltura.
Dal momento che tali mutazioni coincidono con periodi di rapida
crescita dell’intelletto, siamo portati a credere che ASPM sia uno dei
pochissimi geni responsabili della nostra intelligenza: se cosi fosse,
potremmo forse capire se siano ancora attivi, e se in futuro continueranno a
determinare le sorti dell’evoluzione umana.
Tutte queste ricerche sollevano una domanda: potrebbe la
manipolazione di pochi geni renderci più intelligenti?
Molto probabilmente sì.
Gli scienziati stanno ora compiendo rapidi progressi nello studio del
meccanismo preciso tramite cui questi geni hanno dato origine
all’intelligenza, e alcune regioni genetiche come HAR1 e e geni come
ASPM potrebbero contribuire a risolvere il mistero del cervello. Se il
genoma umano contiene all’incirca ventitremila geni, com’è possibile che
essi determinino le connessioni tra cento miliardi di neuroni, ovvero un
quadrilione di connessioni (uno seguito da quindici zeri)? Sembra
matematicamente impossibile. Il genoma umano è all’incirca tremila
milioni di volte troppo piccolo per codificare tutte le nostre connessioni
neurali. La nostra stessa esistenza sembra essere un paradosso matematico.
La risposta potrebbe trovarsi nelle scorciatoie adottate dalla natura per
creare il cervello. In primo luogo, molti neuroni sono connessi in maniera
casuale, così da rendere inutile una progettazione dettagliata; dunque,
queste regioni si organizzano da sole a partire dalla nascita e a mano a mano
che il bambino interagisce con l’ambiente.
In secondo luogo, la natura tende a lavorare per moduli ripetibili: una
volta scoperta una soluzione efficace, la ripete più e più volte. Questo
potrebbe spiegare perché sia bastato un piccolo numero di mutazioni
genetiche per determinare gran parte dello sviluppo intellettuale dell’uomo
negli ultimi sei milioni di anni.
Se così fosse, le dimensioni conterebbero davvero. Se modificassimo
leggermente ASPM e pochi altri geni, potremmo creare un cervello più
grande e più complesso, rendendo perciò possibile aumentare l’intelligenza
dell’uomo (per farlo, però, non sarebbe sufficiente aumentare le sole
dimensioni, dal momento che anche l’organizzazione svolge un ruolo
fondamentale; quel che è certo è che l’accrescimento della materia grigia
cerebrale è un prerequisito necessario).

Scimmie, geni e genio

Gli studi della dottoressa Pollard si sono concentrati sulle aree del
genoma umano che condividiamo con gli scimpanzé e che si sono evolute;
è però possibile che esistano regioni peculiari solo agli esseri umani, e che
non si trovano nelle scimmie. Nel novembre 2012, alcuni scienziati guidati
da un gruppo di ricerca dell’università di Edimburgo hanno isolato il gene
RIM-941, l’unico mai scoperto prima d’ora che appartenga solo all’Homo
sapiens e non ad altri primati27. I genetisti sono stati in grado di dimostrare
che la sua comparsa risale tra uno e sei milioni di anni fa (quindi dopo la
separazione delle linee filogenetiche degli uomini e degli scimpanzé).
Per sfortuna la scoperta ha anche dato il via a un’enorme tempesta
mediatica, e tra le notizie scientifiche, nei blog di scienza e su internet,
hanno fatto la loro comparsa i titoli più altisonanti: i giornalisti si sono
affannati a scrivere che era stato scoperto il gene che avrebbe potuto
rendere gli scimpanzé intelligenti, e i giornali strillavano che era stata
finalmente isolata a livello genetico l’essenza dell’“umanità”.
Alcuni scienziati di chiara fama si sono allora fatti avanti per tentare di
calmare le acque, spiegando che con tutta probabilità l’intelligenza umana
si deve alla complessa interazione di vari geni, e che non è possibile, con
uno solo di essi, far diventare una scimmia improvvisamente intelligente
quanto un uomo.
Anche se grazie a titoli esagerati, gli articoli ebbero il merito di
sollevare una domanda importante: quanto è realistico Il pianeta delle
scimmie?
Le cose non sono così semplici. Se fosse possibile alterare i geni HAR1
e ASPM e determinare un’improvvisa espansione della struttura e delle
dimensioni del cervello della scimmia, non sarebbero le uniche alterazioni a
intervenire: per prima cosa sarebbero necessari muscoli del collo più forti e,
in generale, un corpo di dimensioni maggiori per sostenere una testa più
grande. Ma ciò, da solo, sarebbe inutile se non fosse possibile controllare
dita capaci di sfruttare le potenzialità degli strumenti, cosa che implica una
trasformazione anche del gene HAR2; inoltre, dato che le scimmie spesso
camminano appoggiandosi sulle mani, dovrebbe alterararsi anche un altro
gene, così che la schiena si raddrizzi e la posizione eretta le lasci libere di
muoversi. L’intelligenza in sé, poi, sarebbe inutile se questi animali non
fossero in grado di comunicare con gli altri membri della propria specie: ciò
implicherebbe anche la mutazione del gene FOXP2, che permette la nascita
del linguaggio. Infine, se volessimo creare una specie di scimmie
intelligenti, dovremmo modificare anche il canale del parto, in quanto esso
non sarebbe ampio a sufficienza: si dovrebbe ricorrere a un parto cesareo o
alterarne geneticamente le dimensioni, in modo da permettere il passaggio
di un cervello più grande.
Come risultato di tutti gli interventi necessari potremmo ottenere un
essere molto simile a noi; in altre parole, sembra anatomicamente
impossibile creare delle scimmie intelligenti (come visto nei film) senza
trasformarle in qualcosa di molto simile agli essere umani.
È dunque chiaro che creare scimmie intelligenti non è un’impresa
semplice; ciò che vediamo nei film di Hollywood sono uomini che
indossano costumi da scimmia, o il risultato di effetti speciali generati al
computer: così, tutti i problemi sono convenientemente nascosti sotto un
metaforico tappeto. Se davvero gli scienziati potessero utilizzare la ricerca
genetica per creare scimmie intelligenti, è probabile che queste ci
assomiglierebbero molto, avrebbero mani in grado di maneggiare strumenti,
corde vocali per permettere l’uso del linguaggio, una spina dorsale che
possa sostenere la posizione eretta e ampi muscoli del collo per sostenere la
testa, proprio come noi.
Tutto ciò solleva anche dei problemi etici: la nostra società potrebbe
permettere lo studio genetico sulle scimmie, ma non tollerare la
manipolazione di creature dotate di intelletto, in grado di provare
sofferenza, di esprimersi a sufficienza per lamentarsi della propria
situazione, e il cui punto di vista verrebbe ascoltato dal pubblico.
Non sorprende, quindi, che quest’area della bioetica, essendo ancora
praticamente nuova, sia rimasta del tutto inesplorata. La tecnologia di oggi
ancora non permette simili risultati, ma nei prossimi decenni, a mano a
mano che saranno identificati i geni che ci separano dalle scimmie e le loro
rispettive funzioni, il modo di trattare gli animali sottoposti a questo genere
di modificazioni genetiche potrebbe diventare una questione
importantissima.
Dunque, si tratta solo di una questione di tempo prima che anche le
minime differenze genetiche tra noi e gli scimpanzé possano essere
sequenziate, analizzate e interpretate con precisione; eppure ciò non
risponde ancora alla domanda di base: quali sono state le forze evolutive
che hanno contribuito a dotarci di una simile eredità genetica, in seguito alla
separazione dalla linea filogenetica delle scimmie? Per quale motivo si sono
sviluppati geni come ASPM, HAR1 e FOXP2? In altre parole, la genetica
offre la possibilità di capire come l’uomo sia diventato intelligente, ma non
spiega perché ciò sia avvenuto.
Se sarà possibile chiarire tale interrogativo, la risposta potrebbe indicare
in che modo l’uomo si evolverà, la qual cosa ci porta direttamente al cuore
del dibattito odierno: qual è l’origine dell’intelligenza?

L’origine dell’intelligenza
A partire da Darwin si sono succedute numerose teorie sul perché si sia
sviluppata l’intelligenza dell’uomo28.
Secondo una di esse, tale evoluzione si sarebbe realizzata per stadi a
partire dal cambiamento climatico avvenuto in Africa: con il progressivo
diminuire delle temperature le foreste iniziarono a retrocedere, obbligando i
nostri antenati a spostarsi nelle pianure aperte e nelle savane, dove erano
esposti all’attacco dei predatori e al capriccio degli agenti atmosferici. Per
sopravvivere nel loro nuovo, ostile, habitat gli esseri umani furono costretti
a imparare l’arte della caccia e la deambulazione in posizione eretta, in
modo da lasciar libere le mani e i pollici opponibili per usare gli strumenti.
A sua volta la coordinazione manuale necessaria alla fabbricazione degli
strumenti avrebbe favorito lo sviluppo di un cervello più grande: ciò
significa che, secondo questa teoria, non soltanto gli uomini nostri antenati
hanno creato gli strumenti, ma anche gli strumenti hanno creato l’uomo.
Ma i nostri predecessori non hanno impugnato all’improvviso uno
strumento, diventando intelligenti. Al contrario: mentre chi era in grado di
manipolare uno strumento aveva maggiori possibilità di rimanere vivo nella
prateria, gli altri gradualmente scomparivano; coloro che riuscivano a
sopravvivere e prosperare erano gli stessi che, attraverso le mutazioni,
divenivano sempre più bravi nella fabbricazione degli utensili, cosa che
richiedeva un cervello sempre più grande.
Un’altra teoria indentifica un vantaggio nella natura sociale e collettiva
dell’uomo. Gli esseri umani sono facilmente in grado di coordinare l’azione
di un centinaio di altri individui, in situazioni come la caccia, la
coltivazione, il combattimento e l’edificazione: tali aggregazioni sono
molto più ampie di quelle che si possono osservare tra gli altri primati, e
potrebbero aver favorito l’uomo rispetto agli altri animali: ci vuole un
cervello più grande, secondo questa teoria, per valutare e controllare il
comportamento di così tanti soggetti (come anche per ordire, tramare,
ingannare e manipolare altri esseri intelligenti della propria tribù: secondo
la teoria machiavellica dell’intelligenza, gli individui in grado di
comprendere le motivazioni degli altri e di sfruttarle a proprio vantaggio
sarebbero avvantaggiati rispetto a chi, invece, non ci riesce).
Un’altra teoria sostiene che allo sviluppo dell’intelligenza avrebbe
contribuito lo sviluppo del linguaggio, avvenuto in un secondo momento: al
linguaggio si associa il pensiero astratto e la capacità di pianificare,
organizzare una società, creare mappe, ecc. Gli esseri umani possiedono un
vocabolario molto esteso che, con le sue decine di migliaia di parole in
media per persona, non è comparabile a quello di nessun altro animale.
Grazie al linguaggio l’uomo ha potuto coordinare e guidare l’attività di più
persone, nonché manipolare concetti e idee astratte. Possedere un
linguaggio significa anche poter comandare una battuta di caccia, un grosso
vantaggio per inseguire un mammut, come per comunicare ai compagni
dove abbonda la cacciagione o dove, invece, incombe il pericolo.
Tra le teorie proposte vi è anche quella della “selezione sessuale”,
secondo cui le femmine preferirebbero accoppiarsi con i maschi intelligenti.
Nel regno animale, per esempio in una famiglia di lupi, il maschio alfa tiene
assieme il branco con la forza bruta, e qualsiasi sfidante alla gerarchia va
rimesso al suo posto a suon di morsi e zampate. Tuttavia, milioni di anni fa,
con l’aumentare dell’intelligenza dell’uomo, la sola forza ha cessato di
essere sufficiente al fine di tenere assieme una tribù: chiunque fosse stato
abbastanza furbo e intelligente avrebbe potuto tendere un’imboscata,
mentire, tradire e formare fazioni all’interno della famiglia per sconfiggere
il maschio dominante; la nuova generazione di maschi alfa non avrebbe
dovuto necessariamente essere la più forte. Questa è con ogni probabilità la
ragione per cui le femmine scelgono i maschi furbi (non per forza il nerd
“sfigato”, ma magari il rugbista brillante). A sua volta l’evoluzione del
nostro cervello sarebbe stata accelerata dalla selezione sessuale, e in
particolare dalle femmine che, scegliendo compagni in grado di pianificare,
diventare capo-tribù e superare gli altri in astuzia, selezionavano i maschi
con il cervello più grande.
Queste sono solo alcune delle teorie sull’origine dell’intelligenza,
ognuna delle quali possiede dei pro e dei contro; l’idea comune, tuttavia,
sembra essere la capacità di simulare il futuro. La funzione di un capo, per
esempio, è quella di scegliere gli obiettivi futuri della tribù: ciò significa
che deve saper comprendere le intenzioni degli altri per pianificare una
strategia. Chi meglio simula il futuro è in grado di tramare, complottare,
interpretare i pensieri dei propri compagni e armarsi, meglio dei propri
simili.
Anche il linguaggio ci permette di simulare il futuro. Pur servendosi di
una rudimentale forma di comunicazione, il linguaggio degli animali si
realizza principalmente nel presente: possono comunicare per avvisare i
compagni di una minaccia immediata, per esempio un predatore che si
nasconde tra gli alberi, ma non sembrano esprimersi al passato o al futuro –
gli animali, cioè, non coniugano i verbi. Ciò significa che, forse, questa
nostra capacità di esprimere il tempo passato e futuro ha rappresentato un
grande passo avanti nello sviluppo dell’intelligenza.
Daniel Gillbert, psicologo di Harvard, ha scritto: «Dopo la sua iniziale
comparsa sulla Terra il nostro cervello è rimasto bloccato in un presente
permanente per diverse centinaia di milioni di anni, e gran parte dei cervelli
animali lo è tutt’ora. Ma non il vostro e non il mio, perché due o tre milioni
di anni fa i nostri antenati hanno iniziato la grande fuga dal qui e ora…»29.

Il futuro dell’evoluzione

Abbiamo visto come gli interessanti risultati ottenuti fino ad oggi


sembrino suggerire la possibilità che aumentare memoria e intelligenza sia
una strada davvero percorribile, soprattutto con tecniche in grado di
ottimizzare e massimizzare le naturali capacità del cervello. Sono ora
oggetto di studio una serie di metodi (farmacologici, genetici o tecnologici,
come la TES) forse in grado di aumentare le potenzialità dei nostri neuroni.
Alterare le dimensioni del cervello delle scimmie è una possibilità
concreta, sebbene difficile da realizzare. Per avere terapie genetiche di
questa portata dovremo aspettare ancora parecchi decenni, ma
ciononostante si pone un’altra serie di domande delicate: dove potremmo
arrivare? È possibile estendere l’intelligenza di un organismo in maniera
indefinita? Ci sono dei limiti imposti dalle leggi della fisica?
Inaspettatamente, la risposta è sì: le leggi della fisica limitano la portata
delle modificazioni genetiche al cervello dell’uomo. Per trovare tale limite
possiamo intanto cercare di capire se l’evoluzione stia ancora accrescendo
l’intelligenza dell’uomo, e cosa possa essere fatto per accelerare un simile
processo naturale.
Nell’immaginario popolare, in futuro l’evoluzione ci doterà di grandi
cervelli e di piccoli corpi senza peli, proprio l’immagine che abbiamo ora
degli alieni (i quali, appunto, si suppone possiedano un livello di
intelligenza superiore al nostro): provate a entrare in un qualsiasi negozietto
di chincaglieria e troverete lo stesso piccolo extraterrestre, con grandi occhi
da insetto, una testa enorme e la pelle liscia.
In realtà, l’evoluzione complessiva dell’uomo (ovvero la forma base del
corpo e il relativo livello di intelligenza) sembrerebbe essere giunta a un
punto fermo, osservazione supportata da diversi fattori: per prima cosa,
essendo mammiferi bipedi in grado di camminare in posizione eretta, la
misura del canale del parto limita le dimensioni massime del cranio di un
bambino; in secondo luogo, la tecnologia moderna ha eliminato gran parte
delle pressioni evolutive che invece agivano sui nostri antenati (per
esempio, non c’è più alcuna pressione selettiva sulle persone miopi, dal
momento che chiunque oggi può permettersi un paio di occhiali o delle lenti
a contatto).
L’evoluzione a livello genetico e molecolare continua, ad ogni modo,
inarrestabile: sebbene sia difficile da osservare a occhio nudo, è comprovato
che la biochimica dell’uomo si sia modificata per adattarsi ai mutamenti
climatici, per esempio per combattere la malaria nelle zone tropicali. Da
quando, poi, abbiamo imparato ad addomesticare le mucche e a berne il
latte, abbiamo sviluppato gli enzimi per digerire il lattosio, senza contare le
mutazioni necessarie per adattarci alla dieta nata dalla rivoluzione agricola;
le persone, inoltre, continuano a scegliere partner sani e vitali, permettendo
all’evoluzione di proseguire nell’eliminazione dei geni inadatti. Nessuna di
queste mutazioni, tuttavia, ha modificato la nostra struttura corporea o ha
aumentato le dimensioni del nostro cervello.

La fisica del cervello

Dal punto di vista biologico, quindi, l’evoluzione ha smesso di


selezionare gli individui più intelligenti, o almeno non lo fa più tanto in
fretta come aveva fatto migliaia di anni fa.
Le leggi della fisica indicano, inoltre, che il limite naturale massimo
della nostra intelligenza è già stato raggiunto, e ciò significa che qualsiasi
miglioramento dovrà avvenire grazie a mezzi esterni: i fisici che hanno
studiato la neurologia del cervello sono giunti alla conclusione che esistano
dei limiti all’intelligenza con cui ci scontriamo ogni volta che immaginiamo
un cervello più grande, più densamente popolato di neuroni o con
un’architettura più complessa.
Il primo principio della fisica che possiamo applicare al cervello è
quello della conservazione della materia e dell’energia: la quantità totale di
materia ed energia di un sistema rimane costante. Per eseguire le sue
incredibili acrobazie mentali il cervello deve poter risparmiare energia, e
per farlo sfrutta diverse scorciatoie. Come abbiamo visto nel Capitolo 1, ciò
che vediamo con i nostri occhi è in realtà assemblato tramite una serie di
stratagemmi cognitivi; allo stesso modo, l’analisi ragionata di ogni evento
critico richiederebbe troppo tempo ed energia, quindi il cervello conserva le
forze facendo ricorso alle emozioni, che non sono altro che giudizi
immediati. Anche dimenticare è un modo alternativo di mantenere
l’efficienza del sistema: la coscienza può accedere solo a una piccola
frazione di ricordi, ovvero quelli che hanno un impatto effettivo sul
cervello.
Quindi la domanda da porre è: un aumento delle dimensioni cerebrali o
della densità dei neuroni ci renderebbe più intelligenti?
Probabilmente no. Per Simon Laughlin, dell’università di Cambridge, «i
neuroni della sostanza grigia corticale lavorano con assoni vicini al limite
fisico»30. I modi per aumentare l’intelligenza secondo le leggi della fisica
sono vari, ma ognuno presenta dei limiti:

Aumentare le dimensioni ed estendere la lunghezza dei neuroni. In


questo modo, però, il cervello consuma più energia e genera una
maggiore quantità di calore, cosa dannosa per la nostra sopravvivenza.
Se il cervello utilizza più energia si riscalda, e se la temperatura
corporea aumenta troppo, ciò comporta un danno ai tessuti, difatti le
reazioni chimiche del corpo umano e il suo metabolismo obbligano la
temperatura a rimanere all’interno di un intervallo preciso. Inoltre,
neuroni più lunghi significano un tempo di propagazione del segnale
maggiore, quindi un rallentamento dei processi cognitivi.
A parità di spazio aumentare il numero di neuroni, rendendoli più
piccoli. In questo caso le complesse reazioni chimiche ed elettriche che
si devono realizzare al loro interno verrebbero meno, perché
aumenterebbe il numero di segnali errati. Douglas Fox, scrivendo per
“Scientific American”, ha detto: «Possiamo considerarla la madre di
tutte le limitazioni: le proteine che i neuroni usano per generare gli
impulsi elettrici, chiamate canali ionici, sono intrinsecamente
instabili»31.
Aumentare la velocità del segnale aumentando lo spessore dei neuroni.
Anche in questo caso, però, aumenteremmo il consumo di energia e la
quantità di calore prodotta. Aumenterebbero anche le dimensioni del
cervello, incrementando il tempo necessario a un segnale per
raggiungere la propria destinazione.
Aumentare il numero di connessioni tra i neuroni. Ma ciò
aumenterebbe il consumo di energia e la produzione di calore, e il
risultato sarebbe un cervello più grande e più lento.

Ogni volta che tentiamo di modificare il cervello ci ritroviamo con le


mani legate: le leggi della fisica sembrano indicare che l’uomo abbia
raggiunto il massimo livello di intelligenza possibile in natura. A meno che
non si riesca ad aumentare all’improvviso le dimensioni del cranio o la
natura stessa dei neuroni, sembra che quella a nostra disposizione sia il
massimo dell’intelligenza possibile e che, se volessimo aumentarla, l’unica
strada consista nel riuscire a rendere il cervello più efficiente (con i farmaci,
manipolando i geni e, forse, sfruttando le potenzialità di strumenti come la
TES).

Considerazioni finali

Nel corso dei decenni futuri potremmo riuscire ad aumentare la nostra


intelligenza sfruttando una combinazione di farmaci, terapia genetica e
strumenti tecnologici; diversi studi stanno ora rivelando i segreti
dell’intelligenza e i modi con cui essa potrebbe essere modificata o
aumentata. Ma in questo caso quali sarebbero le conseguenze per la
società? Dato che la scienza sta compiendo rapidi passi avanti in tal senso,
la questione è sotto l’attenta lente degli esperti di etica. La preoccupazione
maggiore è che la società si divida in due: una simile tecnologia potrebbe,
da una parte, essere appannaggio solo di ricchi e potenti, i quali
probabilmente la utilizzerebbero per rafforzare la propria posizione di
vantaggio, mentre dall’altra le classi meno agiate, non in grado di
beneficiare della “potenza cognitiva aggiuntiva”, vedrebbero ridursi
ulteriormente le proprie possibilità di successo nella società.
Questa preoccupazione è senza dubbio valida, ma in aperta
contraddizione con la storia della tecnologia: se, in effetti, in passato molte
scoperte tecnologiche sono state appannaggio di ricchi e potenti, con la
produzione di massa, la competizione dei mercati e il miglioramento dei
trasporti e della tecnologia stessa, i costi si sono abbassati permettendo a
tutti l’accesso a tali risorse (oggi diamo per scontato di poter trovare sulla
nostra tavola cibi che il re d’Inghilterra non si sarebbe potuto procurare un
secolo fa: la tecnologia ha reso possibile l’acquisto, in qualsiasi
supermercato, di prelibatezze di provenienza esotica che avrebbero fatto
l’invidia degli aristocratici vittoriani). Perciò, se sarà possibile aumentare
l’intelligenza, il prezzo di una simile tecnologia si abbasserà in modo
graduale, perché non potrà mai essere monopolio dei ricchi privilegiati:
prima o poi il progresso, il lavoro e le semplici forze di mercato ne
abbasseranno il prezzo.
Suscita inquietudine anche la possibilità che la razza umana possa
dividersi tra chi deciderà di aumentare la propria intelligenza e chi preferirà
rimanere se stesso, cosa che porterebbe ad avere una classe di intellettuali
super-intelligenti, padroni di una massa di meno dotati.
Ancora una volta, forse, queste paure sono esagerate: l’uomo medio non
ha assolutamente alcun interesse a risolvere le complesse equazioni
tensoriali relative a un buco nero, o a possedere le competenze matematiche
necessarie per padroneggiare la matematica della quarta dimensione o
dell’iperspazio, o la fisica della teoria quantistica. Al contrario, l’uomo
medio potrebbe trovarle attività piuttosto noiose e inutili, e ciò significa che
la maggior parte di noi non diventerebbe un genio della matematica
neanche se ne avesse l’opportunità.
Ricordiamoci che la società ha già una classe di matematici e fisici,
pagati significativamente meno di un normale uomo di affari e con un
potere molto inferiore a quello del politico medio: essere super intelligenti
non garantisce il successo economico e, al contrario, può relegare ai ranghi
più bassi di una società che stima molto di più gli atleti, le star del cinema, i
comici e gli intrattenitori.
Nessuno è mai diventato ricco con la relatività.
Molto dipende, inoltre, da quali specifici tratti cognitivi possano essere
perfezionati, dal momento che l’intelligenza matematica non è l’unica
forma di intelligenza esistente (alcuni sostengono che in questo ambito
andrebbe incluso anche il genio artistico, e in tal caso una persona potrebbe
intelligentemente usare il proprio talento per guadagnarsi da vivere).
Genitori un po’ troppo ansiosi potrebbero voler aumentare il QI dei
propri figli, magari studenti delle superiori, per prepararli agli esami finali;
come abbiamo visto, però, il QI non corrisponde necessariamente al
successo nella vita. Allo stesso modo, le persone potrebbero voler
migliorare la propria memoria: abbiamo però visto nel caso dei savant che
avere una memoria fotografica può essere una benedizione e una
maledizione allo stesso tempo. In entrambi i casi è comunque improbabile
che un miglioramento simile riesca a dividere in due la società.
La società nel suo complesso, tuttavia, potrebbe beneficiarne: lavoratori
più intelligenti potrebbero essere meglio preparati ad affrontare un mercato
del lavoro sempre in evoluzione, limitando i costi della loro formazione.
Inoltre il grande pubblico avrebbe a disposizione maggiori strumenti per
prendere decisione informate sulle più importanti e complesse questioni che
riguardano le tecnologie del futuro (come le politiche sul cambiamento
climatico, l’energia nucleare e l’esplorazione dello spazio).
Questa tecnologia potrebbe essere d’aiuto anche nel mondo reale.
Oggigiorno i bambini che frequentano scuole private ed esclusive, seguiti
da tutor personali, sono meglio preparati ad affrontare il mercato del lavoro
perché hanno avuto più occasioni di apprendimento, grazie anche al ricorso
a materiali educativi complessi: se a tutti fosse data l’opportunità di
incrementare la propria intelligenza, tale distinzione andrebbe appianandosi,
e il successo di una persona dipenderebbe più dalla sua motivazione,
ambizione, immaginazione e dal suo spirito d’iniziativa, piuttosto che
dall’essere nati con la camicia.
Aumentare la nostra intelligenza potrebbe accelerare anche
l’innovazione tecnologica, perché determinerebbe una maggiore capacità di
simulare il futuro, valore inestimabile dal punto di vista scientifico: la
ricerca spesso si ritrova a un punto morto quando mancano idee che
stimolino gli studi in nuove direzioni: avere la capacità di simulare scenari
futuri diversi aumenterebbe in maniera significativa la velocità dei progressi
scientifici.
Queste scoperte scientifiche, a loro volta, potrebbero far nascere nuove
industrie, aumentando la ricchezza della società in generale, creando nuovi
mercati, impieghi e opportunità: la storia è costellata di progressi
tecnologici che hanno generato industrie del tutto nuove, da cui tutta la
società, e non solo pochi individui, ha tratto beneficio (si pensi ai transistor
e ai laser, che costituiscono oggi le fondamenta dell’economia mondiale).
In un racconto di fantascienza che si rispetti non può però mancare il
supercriminale, il personaggio che utilizza il proprio cervello superiore per
realizzare terribili scorribande e ostacolare il supereroe. Ogni Superman ha
il suo Lex Lutor, ogni Spiderman il suo Goblin; non possiamo dunque
escludere che una mente criminale non utilizzi il proprio “super cervello”
per creare una “super arma” e pianificare il crimine del secolo. Detto
questo, non dobbiamo dimenticare che anche le nostre forze dell’ordine
sarebbero dotate di una mente superiore, in grado di sventare il grande
intelletto demoniaco: un supercriminale è pericoloso solo se è l’unico a
possedere un’intelligenza superiore.
Finora abbiamo esaminato la possibilità di migliorare o alterare le
nostre capacità cognitive tramite la telepatia, la telecinesi, i ricordi artificiali
o un incremento dell’intelletto, in altre parole miglioramenti che implicano
una trasformazione e un miglioramento delle nostre capacità cognitive. Ciò
muove dal tacito assunto che la nostra coscienza sia unica; vorrei, però,
provare a esplorare l’idea che ne esistano altre, perché in tal caso potremmo
trovare modi di pensare nuovi, che ci guiderebbero verso risultati e
conseguenze del tutto diversi. In noi troviamo stati in cui la coscienza è
alterata, come i sogni, le allucinazioni indotte dalle droghe e la malattia
mentale; ed esistono coscienze non umane, come quella dei robot o degli
alieni. Dobbiamo abbandonare la nozione sciovinista secondo cui la
coscienza umana sarebbe l’unica: esiste più di un modo di creare un
modello del nostro mondo, e più di un modo di simulare il futuro.
I sogni, per esempio, sono una delle forme più antiche della coscienza
già studiate dai nostri antenati, eppure di recente sono stati fatti pochissimi
progressi verso la loro comprensione. Forse, però, non si tratta di eventi
casuali messi insieme da un cervello addormentato, ma di fenomeni che
potrebbero darci qualche indizio sul significato profondo della coscienza: i
sogni potrebbero essere la chiave per comprendere i suoi stati alterati.

1
Consultabile all’indirizzo internet http://tinyurl.com/l5tok5q.
2
Stephen Jay Gould, Intelligenza e pregiudizio, Il Saggiatore, Milano 1998, p. 109 (ed. orig. The
Mismeasure of Man, 1981).
3
Consultabile all’indirizzo internet http://tinyurl.com/p2ojcu2.
4
Malcolm Gladwell, Outliers: The Story of Success, Back Bay Books, New York 2008, p. 40.
5
C. K. Holahan e R.R. Sears, The Gifted Group in Later Maturity, Stanford University Press,
Stanford 1995.
6
Boleyn-Fitzgerald, Pictures of the Mind, cit., p. 48.
7
Sweeney, Brain, cit., p. 26.
8
Bloom, Best of the Brain from Scientific American, cit., p. 12.
9
Bloom, Best of the Brain from Scientific American, cit., p. 15.
10
Consultabile all’indirizzo internet http://www.daroldtreffert.com.
11
Daniel Tammet, Nato in un giorno azzurro: il mistero della mente di un genio dei numeri,
Rizzoli, Milano 2008, p. 4 (tit. orig. Born on A Blue Day, 2007).
12
Intervista radiofonica a Daniel Tammet nell’ottobre 2007 per Science Fantastic.
13
“Science Daily”, marzo 2012, http://tinyurl.com/7w7z3ta.
14
AP wire story, 8 novembre 2004, http://www.space.com.
15
“Neurology 51”, ottobre 1998, pp. 978-82. Si veda anche http://tinyurl.com/kpfjcep.
16
Sweeney, Brain, cit., p. 252.
17
Center of the Mind, Sydney, Australia, http://www.centerofthemind.com.
18
Robyn L. Young, Michael C. Ridding e Tracy L. Morrell, Switching Skills on by Turning Off Part
of the Brain, “Neurocase”, 10, 2004, pp. 215, 222.
19
Sweeney, Brain, cit., p. 311.
20
“Science Daily”, maggio 2012, http://tinyurl.com/crmomk7.
21
“Science Daily”, cit.
22
Sweeney, Brain, cit., p. 294.
23
Sweeney, Brain, cit., p. 295.
24
Katherine S. Pollard, What Makes Us Different, “Scientific American Special Collectors
Edition”, inverno 2013, 31-35.
25
Pollard, What Makes Us Different, cit., 31-35.
26
Ididem.
27
TG Daily, 15 novembre 2012. http://tinyurl.com/b3uxxo9.
28
Si veda per esempio, Gazzaniga, Human, cit., 2009.
29
Daniel Gilbert, Stumbling on Happiness, Alfred A. Knopf, New York 2006, p. 15.
30
Douglas Fox, The Limits of Intelligence, in “Scientific American”, luglio 2011, p. 43.
31
Ivi, cit., p. 42.
Parte III
Alterazioni della coscienza
Capitolo 7
In sogno

Il futuro appartiene a quanti credono nella bellezza dei propri sogni.


Eleanor Roosevelt

I sogni possono determinare il destino.


Forse il sogno più celebre di tutta l’antichità è quello manifestatosi nel
312 d.C., mentre l’imperatore romano Costantino era impegnato in una
delle più grandi battaglie della sua vita. Di fronte a un esercito nemico due
volte più nutrito del suo, si rese conto che probabilmente il giorno dopo
sarebbe morto sul campo; la notte, però, gli apparve in sogno un angelo che,
recando l’immagine di una croce, pronunciò le fatidiche parole: «Con
questo segno, vincerai». Costantino dispose immediatamente che gli scudi
dei suoi soldati venissero decorati con il simbolo della croce.
Le cronache storiche riportano il trionfo del giorno seguente, trionfo che
gli permise di rinforzare la sua presa sull’impero romano. Costantino fece
poi voto di ripagare il debito di sangue verso il cristianesimo, una religione
per certi versi ancora oscura, perseguitata per secoli dagli imperatori romani
precedenti e i cui seguaci finivano in pasto ai leoni nel Colosseo; e
promulgò quelle leggi che avrebbero spianato il cammino perché alla fine
divenisse la religione ufficiale di uno dei più grandi imperi del mondo.
Per migliaia di anni re e regine, così come ladri e mendicanti, si sono
interrogati sui sogni: per gli antichi erano presagi del futuro, ragion per cui,
nel corso della storia, innumerevoli sono stati i tentativi di interpretarli. La
Bibbia, in Genesi 41, racconta l’ascesa di Giuseppe, che millenni fa decifrò
in modo corretto i sogni del faraone egizio. Dopo aver sognato sette vacche
grasse seguite da sette vacche magre, infatti, quest’ultimo era rimasto così
turbato da interpellare scribi e mistici di tutto il regno perché ne chiarissero
il senso. Nessuno riuscì a fornire una spiegazione convincente, finché
Giuseppe non ne riassunse il significato: l’Egitto avrebbe avuto sette anni di
buoni raccolti seguiti da sette anni di siccità e carestia, perciò il faraone
avrebbe dovuto cominciare subito ad accumulare riserve di grano e
provviste, preparandosi ad affrontare i futuri periodi di magra e afflizione.
Quando la sua previsione si avverò, Giuseppe venne considerato alla
stregua di un profeta.
I sogni sono stati a lungo associati alle profezie, ma in epoche più
recenti pare abbiano anche stimolato più volte il progresso scientifico.
L’idea che i neurotrasmettitori potessero ragolare il flusso delle
informazioni nelle sinapsi, alla base delle neuroscienze, venne in sogno al
farmacologo Otto Loewi. Allo stesso modo, nel 1865, August Kekulé fece
un sogno in cui i legami di atomi di carbonio formavano una catena che alla
fine si avvolgeva formando un cerchio, proprio come un serpente che si
morde la coda. Questo sogno gli consentì di ricostruire la struttura atomica
della molecola del benzene: «Impariamo a sognare!» fu la conclusione del
chimico.
I sogni sono stati considerati anche come una finestra sui nostri pensieri
e sulle nostre reali intenzioni. Come scrisse Montaigne, forse essi
costituiscono la vera interpretazione delle nostre inclinazioni, ma per
comprenderli e classificarli è necessaria un’arte. In tempi meno lontani
Freud ha proposto una teoria per spiegare l’origine dei sogni: ne
L’interpretazione dei sogni li ridusse a manifestazioni dei nostri desideri
inconsci, spesso repressi dalla mente durante lo stato di veglia, ma liberi di
scatenarsi durante la notte. Per lui i sogni non erano solo prodotti casuali
della nostra immaginazione sovreccitata, ma potevano davvero svelare
segreti e verità profonde su noi stessi: «I sogni sono la via regia verso
l’inconscio» scriveva. Da allora, sono stati scritti tomi su tomi che,
basandosi sulla teoria freudiana, pretendono di svelare il significato
nascosto di ogni immagine inquietante.
Hollywood non fa che sfruttare la profonda attrazione che i sogni
esercitano su ognuno di noi; una scena ricorrente in molti film è quella in
cui il protagonista vive una sequenza onirica terrificante per poi risvegliarsi
di colpo, madido di sudore. Nel film Inception Leonardo DiCaprio
interpreta una sorta di ladro capace di sottrarre, grazie a una macchina di
sua invenzione, gli intimi segreti delle persone dal più improbabile dei
luoghi: i loro sogni. Le aziende spendono milioni di dollari per proteggere
segreti e brevetti industriali, e i magnati custodiscono gelosamente le loro
ricchezze utilizzando codici elaborati: il suo compito è quello di carpire tali
codici. La trama subisce un’accelerazione nel momento in cui i personaggi
si inseriscono nei sogni di una persona che sogna di dormire, e dunque di
sognare nel sogno. Così facendo, questi “banditi onirici” scendono in livelli
sempre più profondi all’interno del subconscio del soggetto.
Anche se i sogni ci ossessionano da sempre è solo nell’ultimo decennio
o giù di lì che gli scienziati sono stati in grado di svelarne i misteri. In
effetti, al giorno d’oggi possono fare qualcosa che prima era ritenuto
impossibile: tramite le macchine per la risonanza magnetica, infatti,
possono scattare fotografie approssimative e video rudimentali dei sogni.
Un giorno, forse, avrete l’opportunità di guardare il video del sogno che
avete fatto la notte precedente e arrivare a una certa comprensione del
vostro inconscio. Con un allenamento adeguato potreste essere in grado di
controllare in modo consapevole la natura dei vostri sogni; e forse, come il
personaggio interpretato da DiCaprio, con una tecnologia avanzata potreste
perfino entrare nel sogno di qualcun altro.

La natura dei sogni

Per quanto misteriosi, i sogni non sono un lusso o qualcosa di superfluo,


l’inutile ruminazione della nostra mente oziosa; al contrario, sono essenziali
per la sopravvivenza. Le scansioni cerebrali mostrano come alcuni animali
presentino un’attività cerebrale onirica: privati dei sogni, essi morirebbero
più in fretta di quanto non farebbero per fame, perché il loro metabolismo
ne risulterebbe gravemente scombussolato; purtroppo la scienza non ne
conosce con esattezza il motivo.
Il sogno costituisce un elemento fondamentale anche del nostro ciclo
del sonno: circa due ore di ogni nostro sonno notturno sono occupate da
sogni che durano dai cinque ai venti minuti ciascuno; dunque, nel corso di
una vita media, sono circa sei gli anni trascorsi a sognare.
I sogni presentano inoltre caratteri universali per l’intera razza umana:
gli scienziati non fanno che evidenziare la ricorrenza di temi comuni
nell’esame delle diverse culture. Nell’arco di oltre quarant’anni lo
psicologo Calvin Hall ha archiviato cinquantamila sogni, ampliando
successivamente lo studio con mille resoconti di sogni redatti da studenti
universitari1. Come c’era da aspettarsi, ha rilevato che la maggior parte
delle persone sogna le stesse cose, rielaborando per esempio le esperienze
degli ultimi giorni (tuttavia, sembra che la maniera in cui sognano gli
animali differisca dalla nostra: nei delfini, per esempio, dorme solo un
emisfero alla volta, al fine di evitare l’annegamento, visto che non si tratta
di pesci ma di mammiferi; quindi, se sognano, lo fanno probabilmente con
un solo emisfero alla volta).
Il cervello, come abbiamo visto, non è tanto un elaboratore digitale,
quanto una specie di rete neurale che rinnova di continuo le proprie
connessioni ogni volta che apprende qualcosa. Gli scienziati che lavorano
con le reti neurali hanno tuttavia riscontrato un fatto interessante: hanno
notato che spesso, dopo aver appreso troppo, questi sistemi si saturano e,
invece di elaborare un maggior numero di informazioni, entrano in una
specie di stato onirico in cui talvolta ricordi casuali vagano e si fondono tra
loro, mentre le reti neurali tentano di “digerire” il materiale appena
acquisito. Ecco che allora i sogni potrebbero essere le “pulizie domestiche”
attraverso cui la mente cerca di organizzare i ricordi in maniera più coerente
(se questo è vero, forse allora tutte le reti neurali, compresi gli organismi in
grado di apprendere, potrebbero entrare in uno stato di sogno al fine di
riordinare i propri ricordi; dunque i sogni avrebbero uno scopo. Alcuni
scienziati si sono spinti fino a ipotizzare che, per questo motivo, anche i
robot che imparano dall’esperienza potrebbero sognare).
Gli studi neurologici sembrano confermare tale conclusione: essi hanno
infatti dimostrato che la memoria può essere migliorata dormendo a
sufficienza tra il momento in cui si svolge una certa attività e quello in cui
essa viene messa alla prova tramite un test: l’imaging cerebrale rivela che le
aree del cervello che si attivano durante il sonno sono le stesse coinvolte nel
processo di apprendimento, quindi forse sognare serve proprio a
consolidare le nuove informazioni acquisite.
Inoltre, se alcuni sogni possono interessare eventi accaduti poche ore
prima di andare a dormire, perlopiù essi incorporano ricordi vecchi di un
paio di giorni: diversi esperimenti hanno infatti dimostrato che se mettete di
buonumore qualcuno, passeranno un paio di giorni prima che anche i suoi
sogni si colorino di rosa.

Scansioni cerebrali dei sogni

Le scansioni cerebrali stanno svelando alcuni dei misteri legati ai sogni.


Di solito le elettroencefalografie dimostrano che il cervello emette onde
elettromagnetiche stazionarie mentre siamo svegli; tuttavia, mentre
scivoliamo gradualmente nel sonno, i nostri segnali EEG cominciano a
cambiare frequenza. Quando sogniamo il tronco cerebrale emette onde di
energia elettrica che poi risalgono verso le aree corticali del cervello, in
particolare la corteccia visiva: ciò conferma che le immagini visive sono
una componente importante dei sogni. Quando infine entriamo in uno stato
di sogno le nostre onde cerebrali sono rappresentate da rapidi movimenti
oculari (REM, rapid eyes movement), e dal momento che anche alcuni
mammiferi entrano in uno stato di sonno REM, possiamo dedurre che
sognino anche loro.
Mentre le aree visive del cervello sono attive, altre aree che interessano
olfatto, gusto e tatto sono in gran parte disattivate: quasi tutte le immagini e
le sensazioni elaborate dal corpo sono autogenerate, originate cioè dalle
vibrazioni elettromagnetiche del nostro tronco cerebrale, e non da stimoli
esterni. Quando sogniamo, dunque, il nostro corpo è in gran parte isolato
dal mondo circostante, e inoltre siamo più o meno paralizzati: lo scopo della
paralisi, forse, è quello di impedirci di dare rappresentazione fisica ai nostri
sogni, cosa che potrebbe rivelarsi disastrosa. Circa il 6 per cento delle
persone soffre di disturbo della “paralisi nel sonno”, in cui ci si sveglia da
un sogno ancora immobilizzati, spesso in preda al panico, convinti che
qualche creatura ci stia bloccando petto, braccia e gambe (dipinti di epoca
vittoriana rappresentano donne che si svegliano con un folletto
raccapricciante che le fissa seduto sul loro petto); alcuni psicologi ritengono
che la paralisi nel sonno possa spiegare l’origine della sindrome da
abduction.
Quando sogniamo si attiva anche l’ippocampo, e ciò implica il fatto che
i sogni attingano al nostro magazzino dei ricordi. Anche l’amigdala e il
cingolato anteriore sono attivi, il che sta a significare che i sogni possono
coinvolgere massicciamente la sfera emotiva, spesso suscitando paura.
Più rivelatrici sono però le aree del cervello che vengono disattivate, tra
cui la corteccia prefrontale dorsolaterale (il centro di comando del cervello),
la corteccia orbitofrontale (che può agire da censore), e la regione temporo-
parietale (che elabora i segnali moto-sensoriali e la consapevolezza
spaziale).
Quando la corteccia prefrontale dorsolaterale è disattivata non possiamo
contare sul centro di pianificazione razionale del cervello, ma vaghiamo
senza meta nei nostri sogni, mentre il centro visivo ci invia immagini non
sottoposte al controllo razionale. Anche la corteccia orbitofrontale, ovvero
il fact-checker, è fuori uso, quindi i sogni possono evolversi liberamente,
senza vincoli alle leggi della fisica o al senso comune; e si inibisce anche la
regione temporo-parietale, che aiuta a coordinare il senso della posizione
usando segnali provenienti dagli occhi e dall’orecchio interno, circostanza
che può spiegare le esperienze extracorporee durante il sogno.
Come abbiamo più volte evidenziato, la coscienza umana descrive
soprattutto i modelli del mondo esterno che il cervello crea e simula nel
futuro: da questa prospettiva, i sogni sono un modo alternativo di simulare
il futuro – un modo in cui le leggi della natura e delle interazioni sociali
sono temporaneamente sospese.

Come sogniamo?

Tutto questo lascia però aperta una domanda: cosa genera i nostri sogni?
Una delle massime autorità mondiali nel campo è Allan Hobson, psichiatra
presso alla Harvard Medical School. Hobson, che ha dedicato interi decenni
della sua vita al compito di svelare i segreti di questo fenomeno, sostiene
che i sogni, specie quelli prodotti durante la fase REM del sonno, possano
essere studiati a livello neurologico, e che insorgano quando il cervello
tenta di dare un senso ai segnali, in gran parte casuali, emessi dal tronco
cerebrale.
Dopo diversi decenni impiegati a catalogare sogni, ne ha rintracciato
cinque caratteristiche fondamentali2:

Emozioni intense: il fenomeno è dovuto all’attivazione dell’amigdala,


capace di scatenare, per esempio, paura.
Contenuto illogico: i sogni possono spostarsi in fretta da una scena
all’altra, a dispetto di qualsiasi logica.
Apparenti impressioni sensoriali: i sogni ci restituiscono false
sensazioni generate dall’interno.
Accettazione acritica degli eventi del sogno: accettiamo la sua natura
illogica.
Difficoltà ad essere ricordati: i sogni si dimenticano in fretta, pochi
minuti dopo il risveglio.
Insieme a Robert McCarley, Hobson ha fatto la storia proponendo la
prima sfida seria alla teoria freudiana dei sogni: la cosiddetta teoria di
attivazione di sintesi. Nel 1977 i due studiosi hanno esposto l’idea che i
sogni traggano origine da attivazioni neurali casuali nel tronco cerebrale, i
cui segnali raggiungono poi la corteccia, che cerca di dare loro un senso.
La chiave dei sogni si trova nei nodi presenti nel tronco cerebrale, la
parte più antica del cervello. Essi secernono sostanze chimiche particolari,
chiamate adrenergici, che ci tengono svegli; quando andiamo a dormire il
tronco cerebrale attiva un altro sistema, il colinergico, che invece emette
sostanze chimiche che inducono lo stato di sogno.
Mentre sogniamo, i neuroni colinergici nel tronco cerebrale cominciano
ad attivarsi, innescando impulsi irregolari di energia elettrica, le onde PGO
(ponto-genicolo-occipitali). Queste si propagano dal tronco cerebrale alla
corteccia visiva, stimolandola a creare sogni. Le cellule presenti nella
corteccia visiva iniziano a risuonare centinaia di volte al secondo in modo
irregolare, mentre il sistema emette sostanze chimiche che scollegano aree
del cervello coinvolte nei processi razionali e logici. I mancati controlli da
parte della corteccia prefrontale e orbitofrontale, insieme al fatto che il
cervello diventa estremamente sensibile ai pensieri vaganti, potrebbe
spiegare la natura bizzarra e incostante dei sogni.
Diversi studi hanno dimostrato come sia possibile entrare nello stato
colinergico senza dormire3. Edgar Garcia-Rill, dell’università
dell’Arkansas, sostiene che la meditazione, gli stati d’ansia o l’essere
immersi in una vasca di isolamento possano di fatto indurlo; e che, posti per
ore di fronte alla monotonia di un parabrezza, anche piloti e autisti possano
entrarvi. Nella sua ricerca Garcia-Rill ha scoperto che gli schizofrenici
hanno un numero insolitamente elevato di neuroni colinergici nel proprio
tronco cerebrale, il che potrebbe spiegare alcune delle loro allucinazioni.
Perché i suoi studi fossero più efficaci, Hobson ha fatto indossare ai
soggetti esaminati una particolare cuffia da notte in grado di registrare in
automatico i dati durante ogni sogno: un sensore collegato alla cuffia teneva
traccia dei movimenti della testa (movimenti che di solito si verificano
quando i sogni giungono al termine), mentre un altro sensore misurava i
movimenti delle palpebre (provocati dalla fase REM). Quando i soggetti si
svegliavano, registravano immediatamente il contenuto del loro sogno,
mentre le informazioni provenienti dalla cuffia da notte venivano immesse
in un computer.
Così facendo Hobson ha accumulato un’enorme mole di informazioni
sui sogni; dunque, qual è il loro significato? Gli ho chiesto. Hobson ha
respinto quella che definisce la «mistica dell’interpretazione da biscotto
della fortuna»: in essi non vede alcun messaggio nascosto da parte
dell’universo. Piuttosto ritiene che, dopo la risalita delle onde PGO dal
tronco cerebrale alle aree corticali, la corteccia cerchi di dare un senso ai
segnali irregolari finendo per trarne una narrazione: in altre parole, un
sogno.

Fotografando un sogno

In passato la maggior parte degli scienziati ha evitato di dedicarsi alla


sfera onirica, vista la soggettività dei sogni e la lunga storia che li lega a
mistici e sensitivi; ma ora, grazie all’imaging a risonanza magnetica, stanno
rivelando i loro segreti. Infatti, dato che i centri cerebrali che dirigono il
sogno sono quasi identici a quelli che gestiscono la visione, è possibile
fotografare un sogno: tale lavoro pionieristico è stato compiuto a Kyoto, in
Giappone, dagli scienziati dell’ATR Computational and Neuroscience
Laboratories.
Ai soggetti, collocati in una macchina RM, vengono fatte visualizzare
quattrocento immagini in bianco e nero, ciascuna costituita da un insieme di
punti in una cornice di dieci pixel per dieci. Le immagini vengono mostrate
una per volta in rapida successione, mentre la RM registra la risposta del
cervello ad ogni serie di pixel. Come con altri gruppi che operano nel
campo della BMI (le interfacce neurali), alla fine gli scienziati creano
un’enciclopedia di immagini, dove ogni immagine di pixel corrisponde a
uno specifico modello di RM: in questo modo sono in grado di lavorare a
ritroso, così da ricostruire correttamente le immagini autogenerate dalle
scansioni RM del cervello effettuate mentre il soggetto sogna.
Come afferma Yukiyasu Kamitani, scienziato capo dell’ATR4: «Questa
tecnologia può essere applicata anche ad altri sensi, oltre che a quello della
vista. In futuro, forse, sarà possibile leggere anche sensazioni e stati emotivi
complessi». In effetti, in questo modo si potrebbe catturare qualsiasi stato
mentale, compresi i sogni, nella misura in cui fosse possibile tracciare una
mappa uno-a-uno tra un determinato stato mentale e una scansione RM.
Gli scienziati di Kyoto si sono concentrati sull’analisi di fotogrammi
generati dalla mente. Nel Capitolo 3 abbiamo incontrato un approccio
simile sperimentato da Jack Gallant, nel quale i voxel delle scansioni RM
del cervello possono essere utilizzati per ricostruire l’immagine reale
percepita dall’occhio con l’aiuto di una formula complessa; ebbene, un
processo simile ha consentito a Gallant e al suo team di creare il video
rudimentale di un sogno. Durante la mia visita al loro laboratorio di
Berkeley5, ho avuto modo di parlare con un membro del team, Shinji
Nishimoto, il quale mi ha permesso di vedere il video di uno dei suoi sogni,
uno dei primi mai realizzati: sullo schermo del computer ho visto tremolare
una serie di volti, a significare che il soggetto (Nishimoto) stava sognando
persone, piuttosto che animali o oggetti. Davvero incredibile. Ahimé, la
tecnologia non è ancora abbastanza sviluppata da consentire di distinguere
con precisione i tratti del volto delle persone visualizzate nel sogno: il passo
successivo sarà quindi quello di aumentare il numero di pixel in modo da
catturare immagini più complesse. Il secondo sarà quello di riprodurre
immagini a colori anziché in bianco e nero.
Ho dunque posto a Nishimoto la domanda fondamentale: come fate a
sapere che il video è corretto? Che la macchina non sta semplicemente
inventando quelle immagini? Un po’ imbarazzato, mi ha risposto che questo
è ancora un punto debole nella sua ricerca: in genere, per annotare i nostri
sogni si hanno solo pochi minuti dopo il risveglio, dopodiché la maggior
parte di essi si perde nella nebbia della coscienza, ragion per cui non è
facile verificarne gli esiti.
Questa ricerca sulla videoripresa dei sogni è ancora un work in
progress, mi ha spiegato Gallant, motivo per cui essa non è ancora pronta
per la pubblicazione. Bisognerà percorrere parecchia strada prima di poter
guardare il video del sogno della notte precedente.

Sogni lucidi

Gli scienziati stanno anche studiando una forma di sogno un tempo


ritenuta un mito: il sogno lucido, ovvero quello che si fa mentre si è
coscienti; suona come una contraddizione in termini, ma la sua consistenza
è stata accertata grazie alle scansioni cerebrali. I sognatori sono consapevoli
di trovarsi in un sogno e possono controllarne scientemente la direzione.
Sebbene la scienza abbia iniziato solo di recente a investigare il sogno
lucido, i riferimenti al fenomeno risalgono indietro nei secoli. Nel
buddhismo, per esempio, ci sono libri che citano il sogno lucido e che
spiegano il percorso da intraprendere per impararne le tecnica. Quanto
all’Europa, nel corso dei secoli diversi autori hanno steso resoconti
dettagliati dei loro sogni lucidi.
Le scansioni cerebrali di sognatori lucidi mostrano che il fenomeno è
reale; durante la fase REM la loro corteccia prefrontale dorsolaterale, di
solito inattiva quando una persona normale sogna, è invece attiva, a indicare
che mentre sognano sono parzialmente coscienti; in effetti, più lucido è il
sogno, più è attiva la corteccia prefrontale dorsolaterale. Dal momento che
la corteccia prefrontale dorsolaterale rappresenta la parte cosciente del
cervello, il sognatore deve essere consapevole mentre sta sognando.
Secondo Hobson chiunque può imparare a fare sogni lucidi utilizzando
delle tecniche determinate; in particolare, i soggetti che vi riescono
dovrebbero tenere un taccuino dei sogni. Prima di andare a dormire
dovrebbero ricordare di “svegliarsi” nel mezzo del sogno, rendendosi conto
di muoversi in un mondo onirico; è uno stato d’animo importante da avere,
prima di posare la testa sul cuscino. Dato che durante la fase REM il corpo
è in gran parte paralizzato, per chi sogna è difficile inviare un segnale al
mondo esterno per comunicare, appunto, di essere entrato nello stato
onirico; tuttavia, Stephen LaBerge dell’università di Stanford ha condotto
degli studi sui sognatori lucidi (tra cui se stesso) che possono comunicare
con il mondo esterno mentre sognano.
Nel 2011, per la prima volta, gli scienziati hanno utilizzato sensori MRI
ed EEG per valutare il contenuto del sogno ed entrare in contatto con i
soggetto dormienti. Presso le sedi di Monaco e Lipsia del Max-Planck-
Institut, gli scienziati hanno reclutato dei sognatori lucidi, sulle cui teste
sono stati applicati dei sensori EEG per determinare il momento in cui
entravano nella fase REM; dopodiché, i sognatori sono stati posti all’interno
di una macchina MRI. Prima di addormentarsi hanno deciso di compiere
una serie di movimenti oculari, e di attuare degli schemi di respirazione una
volta entrati nello stato di sogno: una specie di codice Morse. Era inoltre
stato detto loro che, non appena avessero cominciato a sognare, avrebbero
dovuto stringere il pugno destro e poi il sinistro per dieci secondi: quello era
il segnale che stavano sognando.
Gli scienziati hanno scoperto che, raggiunto lo stato di sogno, la
corteccia sensomotoria del cervello (responsabile del controllo di azioni
motorie come quella di serrare i pugni) veniva attivata. Le scansioni MRI
potevano cogliere il fatto che i pugni venissero serrati e quale pugno lo
fosse stato per primo; quindi, utilizzando un altro sensore (uno spettrometro
nel vicino infrarosso) erano in grado di confermare un’aumentata attività
cerebrale nella regione che controlla la pianificazione dei movimenti.
«I nostri sogni non sono quindi un “cinema del sonno” in cui ci si limita
passivamente a osservare un evento, ma implicano un’attività in quelle aree
del cervello attinenti al contenuto del sogno» dice Michael Czisch,
capogruppo al Max-Planck-Institut6.

Entrare in un sogno

Se siamo in grado di comunicare con una persona mentre sogna, sarà


anche possibile alterare il sogno di qualcuno dall’esterno? Ciò è abbastanza
probabile.
In primo luogo, come abbiamo visto, gli scienziati hanno già compiuto i
primi passi nella videoripresa dei sogni, e nei prossimi anni dovrebbe
divenire possibile ottenere foto e video di sogni assai più accurati; quindi,
dal momento che sono già stati in grado di stabilire un contatto tra il mondo
reale e il sognatore lucido nel mondo fantastico, in linea di principio gli
scienziati dovrebbero essere in grado di alterare deliberatamente il corso di
un sogno. Poniamo che stiano osservando il video di un sogno utilizzando
una macchina MRI nel momento stesso in cui il sogno si sta svolgendo:
mentre il sognatore si aggira in un paesaggio onirico, gli scienziati possono
dire dove stia andando e dargli indicazioni perché scelga direzioni diverse;
dunque, in un futuro prossimo sarà forse possibile guardare il video del
sogno di qualcun altro e influenzarne sul serio l’orientamento generale. Nel
film Inception, però, Leonardo DiCaprio si spinge ben oltre, perché è in
grado non solo di osservare il sogno di un’altra persona, ma perfino di
entrarvi. Come la mettiamo?
Abbiamo già visto che mentre sogniamo siamo paralizzati, così da non
poter dar seguito alle nostre fantasie oniriche, cosa che potrebbe avere
conseguenze assai spiacevoli; tuttavia, durante gli episodi di
sonnambulismo, le persone che ne sono vittima hanno spesso gli occhi
aperti (anche se vitrei). Dunque i sonnambuli vivono in un mondo ibrido, in
parte reale e in parte onirico. Ci sono molti casi documentati di persone che
camminano intorno alle loro abitazioni, che guidano automobili, tagliano
legna e commettono perfino omicidi mentre si trovano in questo stato di
sogno in cui realtà e mondo fantastico si mescolano; è quindi possibile che
le immagini fisiche davvero percepite dall’occhio interagiscano liberamente
con le immagini fittizie che il cervello inventa durante il sogno.
Il modo per entrare nei sogni di un altro, allora, potrebbe essere quello
di far indossare al soggetto in questione delle lenti a contatto in grado di
proiettare immagini direttamente sulle sue retine. Prototipi di lenti a
contatto connesse a internet sono già in fase di sviluppo alla University of
Washington di Seattle7. Se l’osservatore volesse dunque entrare nel sogno
del soggetto dormiente, prima dovrebbe sedersi in uno studio e farsi
riprendere da una videocamera: la sua immagine potrebbe quindi essere
proiettata sulle lenti a contatto del sognatore, creando un’immagine
composita (l’immagine dell’osservatore sovrapposta all’immagine fittizia
fabbricata dal cervello).
L’osservatore potrebbe effettivamente vedere questo mondo onirico
mentre vaga per il sogno, dal momento che anche lui indosserebbe lenti a
contatto connesse a internet: l’immagine MRI del sogno del soggetto, una
volta decifrata dal computer, verrebbe infatti inviata direttamente alle lenti
dell’osservatore.
Si potrebbe inoltre cambiare davvero la direzione del sogno in cui ci si è
inseriti; mentre si cammina per lo studio vuoto, e si vede il sogno svolgersi
sulle proprie lenti, si potrebbe interagire con gli oggetti e le persone che vi
compaiono. Sarebbe proprio una bella esperienza, visto che il contesto
cambierebbe senza preavviso, le immagini apparirebbero e sparirebbero
senza ragione e le leggi della fisica risulterebbero sospese. Varrebbe tutto.
In un futuro più remoto sarà magari possibile anche inserirsi nel sogno
di un’altra persona collegando direttamente due cervelli che dormono;
entrambi i soggetti dovrebbero essere collegati a scanner RM, a loro volta
connessi a un computer centrale in grado di fondere i due sogni in un sogno
unico. Il computer dovrebbe prima decodificare le scansioni RM di
ambedue i soggetti in un’immagine video; poi il sogno di uno verrebbe
inviato alle aree sensoriali del cervello dell’altro. Ad ogni modo, prima che
tutto questo possa diventare fattibile è necessario che la tecnologia relativa
alla videoregistrazione e all’interpretazione dei sogni compia diversi passi
in avanti.
Ma tutto questo solleva un’ulteriore domanda: se è possibile alterare il
corso del sogno di qualcun altro, è quindi possibile controllare anche la sua
mente? Durante la guerra fredda questa faccenda venne presa estremamente
sul serio, perché Unione Sovietica e Stati Uniti erano entrambi impegnati in
una partita mortale, nel tentativo di usare ogni tecnica psicologica possibile
mirata a controllare la volontà degli individui.

1
Calvin Springer Hall e Robert L. Van den Castle, The Content Analysis of Dream, Appleton-
Century-Croft, New York 1966.
2
Intervista del luglio 2012 ad Allan Hobson per il programma radiofonico Science Fantastic.
3
Wade, The Science Times Book of the Brain, cit., p. 229.
4
“New Scientist”, 12 dicembre 2008, http://tinyurl.com/m4qepjk.
5
Effettuata l’11 luglio 2012.
6
“Science Daily”, 28 ottobre 2011, http://tinyurl.com/oegkuyp.
7
Si veda il lavoro di Babak Parviz, http://tinyurl.com/oks7vnt.
Capitolo 8
Si può controllare la mente?

La mente è semplicemente ciò che fa il cervello.


Marvin Minsky

Un toro furente viene rilasciato in un’arena vuota a Cordoba, in Spagna:


per intere generazioni questa bestia feroce è stata allevata appositamente
per massimizzare il suo istinto omicida. Poi, nella stessa arena, con tutta
calma, fa il suo ingresso un professore di Yale: non ha addosso una giacca
di tweed ma è vestito come un matador elegante, porta una giacca dorata e,
con aria di sfida, agita un mantello rosso davanti al toro, incitandolo. Invece
di fuggire in preda al panico, il professore sembra calmo, sicuro di sé e
persino distaccato. A uno spettatore qualsiasi potrebbe sembrare che sia
uscito di senno e voglia suicidarsi.
Imbizzarrito, il toro punta il professore. Poi, all’improvviso, parte alla
carica, rivolgendogli contro le micidiali corna. Ma il professore non scappa
a gambe levate; invece, tiene in mano una scatoletta. Quindi, davanti alle
telecamere, preme un pulsante sulla scatola e il toro si ferma di botto. Il
professore è così sicuro di sé che ha rischiato la vita per dimostrare di aver
appreso l’arte di controllare la mente di un toro impazzito1.
Il professore di Yale è José Delgado, un uomo parecchi anni avanti
rispetto al suo tempo. Negli anni sessanta ideò una serie di eccezionali – ma
inquietanti – esperimenti con gli animali, in cui applicava elettrodi ai loro
cervelli con lo scopo di controllarne i movimenti. Per fermare il toro gli
aveva inserito degli elettrodi nello striato dei gangli della base, per
l’appunto posto alla base del cervello e coinvolto nella coordinazione
motoria.
Delgado compì anche una serie di altri esperimenti sulle scimmie per
capire se fosse possibile riorganizzare la loro gerarchia sociale con la
semplice pressione di un pulsante: dopo aver impiantato degli elettrodi nel
nucleo caudato (regione associata al controllo motorio) del maschio alfa del
gruppo, Delgado riuscì a ridurre a comando le sue tendenze aggressive.
Senza minacce di ritorsione i maschi delta cominciarono a imporsi,
acquisendo territori e privilegi in genere riservati al maschio alfa.
Quest’ultimo, al contempo, sembrava aver perso interesse per la difesa del
suo territorio.
Poi il professore premeva un altro tasto e il maschio alfa tornava subito
alla normalità, riacquistando il suo comportamento aggressivo e
ristabilendo il suo potere di sovrano della collina. I maschi delta
scappavano via impauriti.
Delgado fu il primo a dimostrare come fosse possibile controllare la
mente degli animali in tal modo: da burattinaio tirava i fili di marionette
viventi.
Com’era prevedibile, la comunità scientifica guardò al suo lavoro con
disagio. A peggiorare le cose, nel 1969 quest’ultimo pubblicò un libro dal
titolo provocatorio: Physical Control of the Mind: Toward a Psychocivilized
Society (“il controllo fisico della mente: verso una società psico-
civilizzata”). L’opera sollevò una questione inquietante: se a tirare i fili
sono scienziati come Delgado, chi controlla questi burattinai?
Il lavoro di Delgado mette chiaramente a fuoco le straordinarie
prospettive e i pericoli di una simile tecnologia. Nelle mani di un dittatore
senza scrupoli essa potrebbe essere utilizzata per ingannare e controllare i
suoi disgraziati sudditi; ma potrebbe anche essere usata per liberare milioni
di persone intrappolate in una malattia mentale, perseguitate dalle
allucinazioni o schiacciate dall’ansia. Anni dopo, un giornalista chiese a
Delgado perché avesse intrapreso questi esperimenti controversi: lo
scienziato rispose che intendeva correggere gli orrendi abusi subiti dai
malati di mente. Questi erano spesso sottoposti a lobotomie radicali, in cui
la corteccia prefrontale veniva recisa da un coltello simile a un
rompighiaccio, infilato nel cervello appena al di sopra della palpebra. Gli
esiti erano spesso tragici, e alcuni di tali orrori sono stati descritti nel
romanzo di Ken Kesey Qualcuno volò sul nido del cuculo (da cui il film).
Alcuni pazienti si tranquillizzavano, ma molti altri diventavano simili a
zombie: letargici, indifferenti al dolore e ai sentimenti ed emotivamente
vacui. La pratica era tanto diffusa che, nel 1949, Antonio Moniz vinse il
premio Nobel per averla perfezionata. Ironia della sorte, nel 1950 l’Unione
Sovietica vietò questa tecnica, sostenendo che fosse “contraria ai principi di
umanità”: i sovietici accusavano la lobotomia di trasformare “un folle in un
idiota”. In totale, si stima che, nell’arco di due soli decenni, negli Stati Uniti
siano state eseguite quarantamila lobotomie.

Il controllo della mente e la guerra fredda

Un altro motivo della gelida accoglienza riservata al lavoro di Delgado


è da ricondurre al clima politico del tempo. La guerra fredda era al suo
apice, e davanti alle telecamere sfilavano i ricordi dei soldati americani
catturati durante la guerra di Corea: lo sguardo fisso nel vuoto, questi ultimi
dovevano ammettere di essere spie in missione segreta, confessare crimini
orribili e denunciare l’imperialismo statunitense.
Per dare un senso a tutto ciò, la stampa ricorreva all’espressione
lavaggio del cervello, cui era sottesa l’idea che i comunisti avessero messo
a punto delle tecniche segrete per trasformare i soldati americani in duttili
manichini. In un simile clima politico, nel 1962 Frank Sinatra recitò nel
thriller politico Va’ e uccidi, in cui cercava di far scoprire un agente segreto
comunista, la cui missione era quella di assassinare il presidente degli Stati
Uniti. Nel film c’è un colpo di scena: l’assassino è in realtà un fidato eroe di
guerra americano che, catturato dai comunisti, ha subito un lavaggio del
cervello (proveniente da una famiglia ben introdotta, l’agente sembra al di
sopra di ogni sospetto e, dunque, quasi inarrestabile). Va’ e uccidi
rispecchiava le ansie di tanti americani dell’epoca.
Molti di questi timori erano stati alimentati dal profetico romanzo
pubblicato da Aldous Huxley nel 1931, Il mondo nuovo. Nella distopia ci
sono grandi fabbriche di bambini che producono cloni in provetta; privando
di ossigeno i feti in maniera selettiva, è possibile produrre bambini con
diversi livelli di danno cerebrale. In cima ci sono i bambini alfa, che non
subiscono alcun danno al cervello e sono allevati per governare la società,
mentre in fondo ci sono gli epsilon, che subiscono danni cerebrali
significativi e vengono usati come manodopera disponibile e ubbidiente. In
mezzo ci sono ulteriori livelli composti da altri lavoratori e burocrati. Le
élite, poi, controllano la società tramite droghe che alterano la mente, amore
libero e un lavaggio del cervello costante. In questo modo è possibile
mantere la pace, la tranquillità e l’armonia, ma il romanzo solleva una
domanda inquietante che risuona ancora oggi: quanta della nostra libertà e
umanità vogliamo sacrificare in nome della pace e dell’ordine sociale?

Gli esperimenti della CIA sul controllo della mente

Alla fine l’isteria della guerra contagiò le alte sfere della CIA2. Convinti
che i sovietici fossero molto più avanti nella scienza del lavaggio del
cervello e nella messa a punto di metodi scientifici poco ortodossi, la CIA si
imbarcò in una serie di progetti riservati, come l’MKUltra, che ebbe inizio
nel 1953, per sondare idee bizzarre ed estreme. Nel 1973, mentre lo
scandalo Watergate diffondeva il panico negli ambienti governativi, il
direttore della CIA Richard Helms annullò l’MKUltra e ordinò che tutti gli
incartamenti ad esso relativi venissero immediatamente distrutti; tuttavia,
ventimila documenti sopravvissero in qualche modo alla purga e vennero
declassificati nel 1977 grazie al Freedom of Information Act, rivelando
l’intera portata di questo sforzo enorme.
Oggi sappiamo che, dal 1953 al 1973, l’MKUltra finanziò 80 istituzioni,
compresi 44 tra università e college, e decine di ospedali, aziende
farmaceutiche e prigioni, spesso sperimentando su persone ignare senza il
loro permesso, nel corso di 150 operazioni segrete. In un determinato
periodo, il 6 per cento tondo tondo dell’intero bilancio della CIA venne
impiegato per l’MKUltra.
Alcuni di questi progetti volti al controllo della mente includevano:

lo sviluppo di un “siero della verità” in grado di far rivelare i propri


segreti ai prigionieri;
l’eliminazione dei ricordi attraverso un progetto della US Navy,
denominato Subproject 54;
il ricorso all’ipnosi e a un’ampia varietà di droghe, soprattutto LSD,
per controllare il comportamento;
lo studio sulla possibilità di utilizzare determinate sostanze per il
controllo mentale contro leader stranieri come Fidel Castro;
il perfezionamento di una varietà di metodi di interrogatorio da usare
sui prigionieri;
lo sviluppo di una sostanza capace di mettere rapidamente fuori uso e
di non lasciar traccia;
l’alterazione della personalità tramite droghe in grado di rendere più
malleabili.

Sebbene alcuni scienziati mettessero in dubbio la validità di questi studi,


altri vi si prestarono di buon grado. Vennero reclutate persone operanti in
una vasta gamma di discipline, tra cui sensitivi, fisici e informatici, per
studiare una serie di progetti poco ortodossi: sperimentare con droghe in
grado di alterare la mente come l’LSD, utilizzare i medium per individuare
la posizione dei sottomarini sovietici che scandagliavano la profondità degli
oceani e così via. In un triste incidente, a uno scienziato dell’esercito
americano venne a sua insaputa somministrato dell’LSD; secondo alcuni
rapporti, questi cadde in preda a un disorientamento così violento da
spingerlo a togliersi la vita lanciandosi da una finestra.
La maggior parte di questi esperimenti venivano giustificati sulla base
del fatto che i sovietici fossero molto più avanti degli americani nella
pratica del controllo mentale. In un altro rapporto segreto, il senato degli
Stati Uniti fu informato del fatto che i sovietici stessero sperimentando la
proiezione diretta di microonde nel cervello delle loro cavie. Invece di
denunciare la circostanza, gli Stati Uniti intravidero «un grosso potenziale
per lo sviluppo di un sistema in grado di disorientare o disturbare il modello
di comportamento del personale militare o diplomatico»3. L’esercito
americano si spinse fino a sostenere di essere in grado di proiettare parole e
perfino discorsi interi nelle menti dei nemici: «Un’idea volta alla
manipolazione e al camuffamento […] è quella di creare rumore a distanza
nella testa del personale esponendolo a microonde a bassa potenza […].
Tramite una scelta consona delle caratteristiche dell’impulso si può dar vita
a un discorso comprensibile […]. In tal modo, potrebbe essere possibile
“parlare” ad avversari selezionati nella maniera per loro più inquietante»
diceva il rapporto.
Purtroppo, nessuno di questi esperimenti veniva sottoposto a revisione
paritaria, e dunque milioni di dollari dei contribuenti furono spesi in
progetti che è lecito credere violassero le leggi della fisica (dal momento
che il cervello umano non può ricevere radiazioni a microonde e, cosa più
importante, non ha la capacità di decodificare messaggi inviati tramite
microonde). Steve Rose, biologo all’Open University, ha definito questo
schema inverosimile «un impossibilità neuro-scientifica»4.
Con tutti i milioni di dollari spesi per questi “progetti oscuri”, a quanto
pare non è emerso nulla di scientificamente affidabile. Per quanto l’uso di
droghe che alterano la mente creasse disorientamento e perfino panico tra i
soggetti testati, infatti, il Pentagono non è mai riuscito a centrare l’obiettivo
chiave: il controllo della mente cosciente di una persona.
Inoltre, secondo lo psicologo Robert Jay Lifton, il lavaggio del cervello
praticato dai comunisti aveva scarsi effetti a lungo termine: la maggior parte
dei soldati americani che hanno rinnegato gli Stati Uniti durante la guerra di
Corea hanno fatto ritorno alle proprie personalità subito dopo essere stati
rilasciati. Per giunta, studi condotti su persone che hanno subito il lavaggio
del cervello da parte di determinate sette dimostrano come anche questi
soggetti recuperino la propria consueta personalità una volta lasciato il
gruppo. Parrebbe dunque che, a lungo andare, la personalità di base non
possa essere compromessa dal lavaggio del cervello.
Certo, i militari non sono i primi ad aver condotto esperimenti sul
controllo della mente: nell’antichità stregoni e veggenti sostenevano che
somministrando delle pozioni magiche ai soldati fatti prigionieri, questi
ultimi si sarebbero rivoltati contro i loro capi o ne avrebbero rivelato i
segreti. Uno dei primi medoti di controllo della mente a cui si è fatto ricorso
è l’ipnosi.

Rilassati, chiudi gli occhi…

Da bambino ricordo di aver visto in tv degli speciali dedicati all’ipnosi.


In una di queste trasmissioni, a un soggetto portato in trance ipnotica veniva
detto che al suo risveglio sarebbe stato un pollo; quando questi prese a
chiocciare e a sbattere le braccia per tutto il palco, il pubblico rimase senza
fiato. Per quanto drammatica fosse una simile dimostrazione, non è altro
che un esempio di “ipnosi da palcoscenico”: libri scritti da maghi
professionisti e showmen rivelano il ricorso a complici tra il pubblico, e
chiamano in causa non solo il potere della suggestione ma perfino la
disponibilità della vittima nel cooperare all’inganno.
Una volta mi è capitato di condurre un documentario televisivo della
BBC/Discovery intitolato Time, in cui emergeva l’argomento dei ricordi
perduti da tempo: è possibile richiamarli alla mente, anche se molto lontani,
attraverso l’ipnosi? E, in caso affermativo, si può imporre la propria volontà
sugli altri? Per testare alcune di queste idee, mi sono fatto ipnotizzare in tv.
La BBC ingaggiò un abile ipnotista professionista. Mi fu chiesto di
sdraiarmi al buio, su un letto, in una stanza tranquilla. L’ipnotista mi parlò
in tono lento e gentile, guidandomi verso un graduale rilassamento. Dopo
un po’, mi chiese di ritornare al passato con la memoria, magari fino a un
determinato luogo o fatto che ancora spiccava tra i ricordi malgrado gli anni
trascorsi; e poi mi chiese di rituffarmi in quel luogo, rivivendone la vista, i
suoni e gli odori. Con mia sorpresa, mi passarono davanti località e facce di
persone dimenticate da decenni. Era come guardare un film confuso che
poco alla volta tornava ad essere a fuoco. Ma poi i ricordi cessarono: a un
certo punto non fui più in grado di recuperarne di altri. C’era chiaramente
un limite a ciò che l’ipnosi poteva fare.
Le EEG e le scansioni RM mostrano come durante l’ipnosi il soggetto
riceva dall’esterno scarsissime stimolazioni dirette alle cortecce sensoriali:
in tal modo l’ipnosi consente di accedere ad alcuni ricordi sepolti, ma di
certo non può modificare personalità, obiettivi o desideri. Un documento
segreto del Pentagono datato 1966 conferma quest’ipotesi, spiegando che
l’ipnosi non è da ritenersi un’arma militare. «È probabilmente significativo
il fatto che nella lunga storia dell’ipnosi, le cui applicazioni potenziali
nell’intelligence sono note da sempre, non ci siano resoconti affidabili di un
suo uso efficace da parte di un servizio segreto» recita il documento5.
Va inoltre rilevato come le scansioni del cervello mostrino che l’ipnosi
non è un nuovo stato di coscienza, come il sogno e la fase REM. Se
definiamo la coscienza umana come il processo permanente di costruzione
di modelli del mondo esterno e di simulazione della loro evoluzione futura
allo scopo di portare a termine un obiettivo, risulta evidente che l’ipnosi
non può alterare questo processo fondamentale: essa può accentuare alcuni
aspetti della coscienza e contribuire a recuperare certi ricordi, ma non può
far starnazzare come un pollo senza il nostro consenso.

Sostanze in grado di alterare la mente e siero della verità

Uno degli obiettivi dell’MKUltra era la produzione di un siero della


verità in grado di far rivelare i propri segreti a spie e prigionieri. Sebbene
l’MKUltra sia stato soppresso nel 1973, i manuali per gli interrogatori
dell’esercito americano e della CIA declassificati dal Pentagono ancora nel
1996 consigliavano l’uso di sieri della verità (anche se la Corte Suprema
degli Stati Uniti aveva stabilito che le confessioni ottenute in questo modo
fossero «incostituzionalmente estorte» e, quindi, inammissibili in tribunale).
Qualsiasi appassionato di cinema sa che il Pentothal Sodium è il siero
della verità preferito dalle spie (come in True Lies e Mi presenti i tuoi?):
esso fa parte di una più ampia classe di barbiturici, sedativi e ipnotici che
possono eludere la barriera ematoencefalica che impedisce alle sostanze
chimiche più nocive presenti nel sangue di arrivare al cervello.
Non desta sorpresa, dunque, che la maggior parte delle sostanze che
alterano la mente, come l’alcol, ci danneggi in maniera significativa proprio
perché in grado di superare tale barriera. Il Pentothal Sodium deprime
l’attività nella corteccia prefrontale, rendendo un soggetto più rilassato,
loquace e disinibito; questo non significa, tuttavia, che egli dica la verità. Al
contrario, le persone sotto l’influsso del Pentothal Sodium, come quelle che
hanno bevuto un bicchiere di troppo, sono perfettamente in grado di
mentire: i “segreti” spifferati da un soggetto che abbia assunto questo
farmaco possono essere inventati di sana pianta, ragion per cui anche la
CIA ha infine rinunciato a impiegare sostanze del genere.
Ciò lascia ancora aperta la possibilità che, un giorno, un farmaco
miracoloso in grado di alterare la nostra coscienza di base possa essere
sintetizzato: esso potrebbe funzionare modificando le sinapsi tra le fibre
nervose e colpendo i neurotrasmettitori che operano in quest’area, come la
dopamina, la serotonina o l’acetilcolina. Se pensiamo alle sinapsi come a
una serie di caselli lungo un’autostrada, allora determinate sostanze (per
esempio stimolanti come la cocaina) sono in grado di aprire tali caselli,
consentendo ai messaggi di passare senza impedimenti. La scarica
improvvisa avvertita dai tossicodipendenti è provocata dall’apertura
simultanea di questi caselli, a cui segue una valanga di segnali. Quando
tutte le sinapsi si sono attivate all’unisono, però, possono farlo di nuovo
solo diverse ore dopo: i caselli si richiudono di colpo, e ciò causa la
repentina depressione che si avverte dopo la scarica. Il desiderio del corpo
di sperimentare ancora una volta quella scarica è alla base del meccanismo
della dipendenza.

Come le droghe alterano la mente

Sebbene la base biochimica delle droghe in grado di alterare la mente


non fosse nota al tempo in cui la CIA condusse per la prima volta i suoi
esperimenti su soggetti ignari, da allora è stata spesso analizzata. Diversi
studi condotti sugli animali dimostrano quanto la tossicodipendenza sia
potente: avendone la possibilità, ratti, topi e primati assumono droghe come
cocaina, eroina e anfetamine fino a crollare stremati o morti.
Per avere un’idea di quanto sia ormai diffuso il problema6 considerate
che, al 2007, tredici milioni di americani di età pari o superiore ai dodici
anni (vale a dire, il 5 per cento di tutti gli adolescenti e gli adulti degli Stati
Uniti) aveva provato le metanfetamine o ne era addirittura diventato
dipendente. La tossicodipendenza non distrugge solo esistenze intere, ma
demolisce in maniera sistematica il cervello: le scansioni RM di chi ha
sviluppato una dipendenza da metanfetamina evidenziano la riduzione
dell’11 percento delle dimensione del sistema limbico, che elabora le
emozioni, e la perdita dell’8 per cento di tessuto nell’ippocampo, via
d’accesso alla memoria. Le stesse scansioni mostrano come per certi versi il
danno subito sia paragonabile a quello rilevato nei pazienti affetti da
Alzheimer. Del tutto incuranti di come la metanfetamina devasti il cervello,
i tossicodipendenti ne avvertono un bisogno continuo perché il piacere che
assicura è pari a dodici volte la scarica provocata da un pasto delizioso o dal
sesso.
Essenzialmente, lo “sballo” della tossicodipendenza è dovuto al
dirottamento che la sostanza stupefacente opera sul sistema
piacere/ricompensa del cervello che si trova nel sistema limbico: tale
circuito è primordiale, risalente com’è a milioni di anni addietro nella storia
evolutiva, ma è ancora molto importante per la sopravvivenza umana
perché premia i comportamenti vantaggiosi e punisce quelli nocivi. Una
volta che una sostanza stupefacente ne assume il controllo, però, il risultato
è spesso il caos più totale: prima di tutto queste sostanze penetrano la
barriera ematoencefalica, per poi causare una sovrapproduzione di
neurotrasmettitori come la dopamina, che quindi inonda il nucleus
accumbens. La dopamina, a sua volta, viene prodotta da alcune cellule
cerebrali dell’area tegmentale ventrale (dette cellule VTA).
Tutte queste sostanze funzionano fondamentalmente alla stessa maniera,
ovvero azzerando il circuito VTA-nucleus accumbens che controlla il flusso
di dopamina e di altri neurotrasmettitori al centro del piacere; differiscono
solo nel modo in cui tale processo ha luogo. Ci sono almeno tre sostanze
principali che stimolano il centro del piacere del cervello: la dopamina, la
serotonina e la noradrenalina; tutt’e tre restituiscono sensazioni di piacere,
euforia e falsa sicurezza, producendo inoltre una sferzata di energia.
La cocaina e altre sostanze stimolanti, per esempio, operano in due
modi. In primo luogo, inducono direttamente le cellule VTA a secernere più
dopamina, che si riversa in eccesso nel nucleus accumbens. In seconda
battuta, impediscono alle cellule VTA di riposizionarsi su “off”,
costringendole così a una produzione ininterrotta di dopamina. Inoltre,
bloccano l’assorbimento della serotonina e della noradrenalina.
L’inondazione simultanea dei circuiti neurali da parte di questi tre
neurotrasmettitori, quindi, provoca l’intenso sballo collegato alla cocaina.
L’eroina e gli altri oppiacei, invece, neutralizzano quelle celle dell’area
tegmentale ventrale che possono ridurre la produzione di dopamina,
inducendo così tale area a produrne in eccesso.
Sostanze come l’LSD stimolano la produzione di serotonina, suscitando
delle sensazioni di benessere, risolutezza e affezione; ma attivano anche
aree del lobo temporale interessate alla produzione di allucinazioni (perché
tali allucinazioni si scatenino possono essere sufficienti 50 microgrammi di
LSD; essa, infatti, si lega tanto strettamente che aumentare il dosaggio non
ne intensifica l’effetto)7.
Nel corso del tempo alla CIA devono essersi resi conto del fatto che le
sostanze in grado di alterare la mente non fossero la pozione magica che
cercavano: le allucinazioni e le dipendenze ad esse associate le rendono
imprevedibili, e in grado più di causare problemi che di apportare vantaggi
in situazioni delicate.
Va tenuto presente che solo in anni recenti le scansioni RM del cervello
di tossicodipendenti hanno suggerito un nuovo modo per curare o trattare
alcune forme di dipendenza: per puro caso, infatti, si è osservato che le
vittime di ictus che hanno riportato danni all’insula (situata nella parte
interna del cervello, tra la corteccia prefrontale e la corteccia temporale),
trovano significativamente più facile smettere di fumare rispetto alla media
dei fumatori; un fenomeno riscontrato anche tra quanti abusano di cocaina,
alcool e oppiacei. Se i risultati fossero confermati ciò potrebbe voler dire
che sia possibile, riducendo l’attività dell’insula attraverso elettrodi o
stimolatori magnetici, trattare la dipendenza. «È la prima volta che
riusciamo a dimostrare una cosa del genere, ovvero che un danno a una
zona specifica del cervello può risolvere una dipendenza alla base. È
sbalorditivo»8 dice Nora Volkow, direttrice del National Institute on Drug
Abuse. Allo stato attuale delle cose nessuno è in grado di stabilire come
l’insula agisca, perché è coinvolta in una sconcertante varietà di funzioni
cerebrali fra cui percezione, controllo motorio e autocoscienza. Dovesse
trovare conferme, però, una simile scoperta potrebbe stravolgere per intero
il panorama degli studi sulla dipendenza.

Sondare il cervello con l’optogenetica

Gli esperimenti sul controllo mentale sono stati condotti perlopiù in


un’epoca in cui il cervello era in gran parte un mistero, con tentativi a
casaccio che, molto spesso, si rivelavano fallimentari. Tuttavia, il boom di
dispositivi in grado di sondare il cervello ha creato nuove opportunità che ci
aiuteranno a comprendere la mente e, forse, a controllarla.
L’optogenetica, come abbiamo visto, è oggi uno dei settori scientifici
che sta conoscendo gli sviluppi più rapidi: il suo obiettivo principale è
quello di identificare con precisione il percorso neurale corrispondente a un
determinato modello comportamentale. L’optogenetica inizia con un gene,
chiamato opsina, piuttosto insolito perché fotosensibile (si ritiene che la sua
comparsa, centinaia di milioni di anni fa, sia stata responsabile della
formazione del primo occhio; secondo tale teoria una semplice zona di
epidermide, resa sensibile alla luce dall’opsina, si sarebbe evoluta in quella
che poi è diventata la retina).
Quando il gene dell’opsina viene inserito in un neurone ed esposto alla
luce, il neurone si attiva a comando: premendo l’interruttore si può subito
riconoscere il percorso neurale di certi comportamenti, dal momento che le
proteine prodotte dall’opsina, in quanto conduttrici di elettricità, si
accendono.
Il difficile, però, è inserire questo gene in un singolo neurone; per farlo
si ricorre a una tecnica mutuata dall’ingegneria genetica. L’opsina viene
inserita in un virus reso inoffensivo che, tramite strumenti di precisione,
viene a sua volta applicato a un singolo neurone: così il virus infetta il
neurone inserendovi i suoi geni. A quel punto il neurone viene fatto attivare
proiettando un fascio di luce sul suo tessuto: è così possibile stabilire il
percorso preciso intrapreso da determinati messaggi.
L’optogenetica non consente soltanto di identificare determinati percorsi
illuminandoli con un fascio di luce, ma permette anche agli scienziati di
controllare il comportamento con un metodo il cui successo è già stato
comprovato. Per molto tempo si è sospettato che a far scattare in volo i
moscerini della frutta fosse un semplice circuito neurale; ricorrendo a
questo metodo, è stato finalmente possibile identificare l’esatto percorso
che sottende la loro fuga istantanea. Solo puntando un raggio di luce su tali
moscerini, li si fa volar via a comando.
Grazie a una luce lampeggiante gli scienziati sono adesso in grado di far
smettere ai vermi di dimenarsi, mentre nel 2011 è stato compiuto un
ulteriore passo in avanti: i ricercatori di Stanford sono riusciti a inserire il
gene dell’opsina in una precisa area dell’amigdala dei topi. Questi,
appositamente allevati per essere timidi, si rannicchiavano nella loro
gabbia, ma improvvisamente iniziavano ad esplorarla, dopo aver perso ogni
forma di timidezza, quando un fascio di luce veniva fatto lampeggiare nel
loro cervello.
Le implicazioni sono enormi. Mentre i moscerini della frutta possono
avere semplici meccanismi riflessi che coinvolgono una manciata di
neuroni, i topi hanno sistemi limbici completi simili a quelli del cervello
umano. Sebbene molti esperimenti condotti sui topi non si applichino agli
esseri umani, resta accesa la speranza che gli scienziati possano individuare,
un giorno, i precisi percorsi neurali di determinate malattie mentali, ed
essere quindi messi in condizione di trattarle senza effetti collaterali. Come
dice Edward Boyden del MIT, «se si desidera disattivare un circuito del
cervello e l’alternativa è la rimozione chirurgica di una sua stessa regione,
gli impianti di fibre ottiche potrebbero risultare preferibili».
Un’applicazione pratica riguarda il trattamento del morbo di Parkinson.
Come abbiamo visto, la malattia può essere trattata con una stimolazione
cerebrale profonda, ma dato che il posizionamento degli elettrodi nel
cervello manca di precisione, c’è sempre il rischio di ictus, emorragie e
infezioni. La stimolazione cerebrale profonda può causare anche effetti
collaterali, come capogiri e contrazioni muscolari, dal momento che gli
elettrodi possono stimolare i neuroni sbagliati. L’optogenetica è in grado di
migliorare la stimolazione cerebrale profonda, individuando con esattezza i
percorsi neurali inceppati a livello dei singoli neuroni.
Dalla nuova tecnologia potrebbero trarre benefici anche le vittime di
paralisi. Come abbiamo visto nel Capitolo 4, dei soggetti paralitici sono
stati messi in collegamento con un computer tramite cui potevano
controllare un braccio meccanico; dato che non hanno il senso del tatto,
però, essi finivano spesso per lasciar cadere o schiacciare l’oggetto che
intendevano prendere. «Trasmettendo le informazioni provenienti dai
sensori posti sulle punte delle dita protesiche direttamente al cervello,
tramite l’optogenetica si potrebbe, in linea di principio, creare un senso del
tatto ad alta fedeltà» commenta Krishna Shenoy dell’università di
Stanford9.
L’optogenetica contribuirà anche a chiarire quali percorsi neurali siano
implicati nel comportamento umano; di fatto, sono già previste
sperimentazioni di questa tecnica su cervelli umani, soprattutto nel campo
dei disturbi mentali. Naturalmente bisognerà superare tutta una serie di
ostacoli. In primo luogo, il ricorso a questa tecnica richiede che il cranio
venga aperto; poi, nel caso in cui i neuroni che si intende studiare siano
situati nelle aree più interne del cervello, la procedura sarà ancora più
invasiva. Oltre a ciò, nel cervello bisognerà inserire sottilissimi fili in grado
di proiettare una luce sul neurone modificato, così da innescare il
comportamento desiderato.
Una volta decifrati questi percorsi neurali sarà possibile anche
stimolarli, facendo assumere agli animali comportamenti strani (per
esempio, far correre i topi in tondo). Se gli scienziati hanno appena iniziato
a identificare i percorsi neurali che regolano dei comportamenti animali
semplici, in futuro è plausibile che disporranno di un’intera enciclopedia di
tali comportamenti, degli esseri umani compresi. Nelle mani sbagliate,
tuttavia, l’optogenetica potrebbe potenzialmente essere utilizzata per
controllare il nostro comportamento.
Nel complesso, comunque, i benefici dell’optogenetica superano di gran
lunga i suoi inconvenienti: tale tecnica può letteralmente tracciare i percorsi
cerebrali da seguire per trattare i disturbi mentali e altre patologie, cosa che
potrebbe fornire agli scienziati gli strumenti con cui riparare determinati
danni e curare malattie un tempo ritenute incurabili. In un futuro prossimo,
quindi, le prospettive sono vantaggiose. Resta il fatto che più in là, una
volta, cioè, svelati per intero i percorsi dei comportamenti umani,
l’optogenetica potrebbe anche essere utilizzata per controllare o modificare
il comportamento umano.

Controllo mentale e futuro

In sintesi, il ricorso a determinate sostanze e all’ipnotismo da parte della


CIA si è rivelato un flop. Queste tecniche erano infatti troppo instabili e
imprevedibili per un uso militare: possono essere utilizzate per indurre
allucinazioni e creare dipendenza, ma non possono fare tabula rasa dei
ricordi, né rendere le persone più malleabili o costringerle a compiere atti
contrari alla propria volontà. Per quanto i governi possano continuare la
sperimentazione in tal senso, l’obiettivo rimane sfuggente; al momento, le
droghe sono uno strumento troppo grezzo per consentire di controllare il
comportamento altrui.
Ma questa storia contiene un ammonimento. Carl Sagan accenna a uno
scenario da incubo che in effetti potrebbe avverarsi: immagina, cioè, che un
dittatore possa decidere di far inserire degli elettrodi nei centri del dolore e
del piacere dei bambini. Collegando via wireless gli elettrodi a un computer,
egli sarebbe in grado di controllare i suoi sudditi con la semplice pressione
di un tasto.
Uno scenario alternativo, ma ugualmente agghiacciante, prevede l’uso
di sonde, poste all’interno del cervello, in grado di scavalcare i nostri
desideri e prendere il controllo dei nostri muscoli, costringendoci a svolgere
compiti che non vorremmo fare. Pur essendo rudimentale, il lavoro di
Delgado ha dimostrato che scariche di energia elettrica applicate ad aree
motorie del cervello possono prevalere sui nostri pensieri coscienti,
sottraendo i muscoli al nostro controllo; Delgado era in grado di identificare
solo pochi comportamenti animali governabili con sonde elettriche, ma in
futuro, forse, sarà possibile scoprire un’ampia varietà di comportamenti
governabili elettronicamente con un interruttore.
Non sarebbe un’esperienza piacevole. Per quanto possiate pensare di
essere padroni del vostro corpo vi vedreste attivare muscoli senza il vostro
consenso, e vi ritrovereste a compiere determinate azioni contro la vostra
volontà. Gli impulsi elettrici immessi nel vostro cervello potrebbero essere
più intensi di quelli che inviate in modo cosciente ai vostri muscoli: in
poche parole, avreste l’impressione che qualcuno abbia dirottato il vostro
corpo, rendendolo un oggetto a voi del tutto estraneo.
In linea di principio potrebbe essere plausibile una qualche versione di
questo incubo, in futuro; per fortuna, è altrettanto vero che diversi fattori
potrebbero evitarla. In primo luogo, parliamo di una tecnologia che sta
muovendo i primi passi e che non sappiamo ancora quale tipo di
applicazione troverà nell’ambito del comportamento umano: dunque, c’è un
sacco di tempo per monitorarne gli sviluppi, e magari mettere a punto delle
forme di garanzia che ne prevengano gli abusi. In secondo luogo, il dittatore
in questione potrebbe decidere che la propaganda e la coercizione – i
metodi abituali con cui si tiene sotto controllo una popolazione – sono più
economici ed efficaci che non introdurre elettrodi nel cervello di milioni di
bambini (cosa che, oltre ad essere invasiva, risulterebbe parecchio costosa).
Infine, è probabile che nelle società democratiche emergerebbe un dibattito
pubblico vigoroso circa le promesse e le limitazioni di una simile, potente,
tecnologia. Bisognerebbe approvare delle leggi in grado di impedire l’abuso
di questi metodi senza comprometterne la capacità di ridurre la sofferenza
umana. Presto la scienza ci consentirà una visione dettagliata e senza
precedenti dei percorsi neurali del cervello; per allora, andrà tracciata una
linea ben visibile tra le tecnologie che possono apportare benefici alla
società e quelle che possono invece porla sotto controllo, e la chiave perché
vengano affinati gli adeguati strumenti legislativi è un’opinione pubblica
istruita e informata.
Ad ogni modo, personalmente ritengo che l’impatto reale di questa
tecnologia sarà quello di liberare la mente, e non di asservirla. Queste
nuove tecnologie possono offrire una speranza a quanti sono intrappolati in
un disturbo mentale; sebbene non esista ancora una cura definitiva, esse ci
hanno permesso una conoscenza approfondita di come determinate
patologie si generino e progrediscano. Un giorno, attraverso la genetica, i
farmaci e una combinazione di metodi high-tech, troveremo un modo per
gestire e, infine, curare malattie vecchie come il mondo.
Uno dei più recenti tentativi di sfruttare questa nuova conoscenza del
cervello consiste nell’approcciarsi ai personaggi storici. Forse le intuizioni
della scienza moderna possono aiutarci a spiegare gli stati mentali di quanti
ci hanno preceduti; e una delle figure più enigmatiche oggi analizzate è
senza dubbio quella di Giovanna d’Arco.

1
Nicolelis, Il cervello universale, cit., pp. 272-280.
2
Progetto MKUltra, programma di ricerca sulla modificazione comportamentale della CIA.
Audizioni congiunte davanti al Comitato Ristretto sulle Risorse Umane, Senato degli Stati Uniti,
95° Congresso, 1a Sessione, Ufficio di Tipografia del Governo, 8 agosto 1977, Washington DC,
http://tinyurl.com/yghz8ot; La CIA rivela di aver trovato altri documenti segreti sul controllo
comportamentale, “The New York Times”, 3 settembre 1977; Documenti governativi sul
controllo mentale dell’MKUltra e di Bluebird/Artichoke, http://tinyurl.com/mxypc6x; Esame da
parte del Comitato Ristretto delle operazioni governative in relazione alle attività di intelligence
straniera e militare. Relazione n. 94-755 della Commissione Church, 94° Congresso, 2a Sessione,
p. 392, Ufficio di Tipografia del Governo, Washington DC, 1976; Progetto MKUltra, il
Programma di Ricerca in Modificazione Comportamentale della CIA, http://tinyurl.com/pcdtemf.
3
Steven Rose, The Future of the Brain: The Promise and Perils of Tomorrow’s Neuroscience,
Oxford University Press, Oxford 2005, p. 292.
4
Ivi, p. 293.
5
Hypnosis in Intelligence, Black Vault Freedom of Information Act Archive, 2008,
http://tinyurl.com/m9uxser.
6
Boleyn-Fitzgerald, Pictures of the Mind, cit., p. 57.
7
Sweeney, Brain, cit., p. 200.
8
Boleyn-Fitzgerald, Pictures of the Mind, cit., p. 58.
9
http://tinyurl.com/prfee8r.
Capitolo 9
Stati di coscienza alterata

Amanti e pazzi hanno un cervello così fervido […]


Il lunatico, l’amante, il poeta
son tutti fatti di immaginazione...
William Shakespeare, Sogno d’una notte di mezza estate

Era solo una contadina analfabeta che sosteneva di udire la voce di Dio;
ma Giovanna d’Arco sarebbe emersa dall’anonimato per condurre un
esercito demoralizzato a vittorie che avrebbero cambiato il corso della
storia delle nazioni, facendo di lei una delle figure più affascinanti e
tragiche della storia.
Nel caos della guerra dei cent’anni, quando la Francia settentrionale era
ormai in mano alle truppe inglesi e la monarchia francese batteva in ritirata,
una ragazzina di Orléans asserì di aver ricevuto delle istruzioni divine con
cui guidare l’esercito francese alla vittoria. Non avendo più nulla da
perdere, Carlo VII le assegnò il comando di alcune delle sue truppe. Nello
stupore generale, la ragazza riportò una serie di vittorie sugli inglesi, e le
voci su questa strabiliante fanciulla si diffusero in fretta. La sua reputazione
continuò a crescere trionfo dopo trionfo, elevandola al rango di eroina
popolare attorno a cui i francesi presero a stringersi. Le truppe transalpine,
poco prima sull’orlo della disfatta totale, ottennero una serie di vittorie
decisive che spianarono la strada all’incoronazione del nuovo re.
Tuttavia, la ragazza fu tradita e catturata dagli inglesi; questi ultimi,
consapevoli di quale grave minaccia essa rappresentasse, dal momento che
era un simbolo potente per i francesi e sosteneva di essere guidata da Dio, la
sottoposero a un processo-farsa: al termine di un interrogatorio condotto ad
arte, venne giudicata colpevole di eresia e arsa sul rogo all’età di diciannove
anni. Era il 1431.
In seguito, nel corso dei secoli, sono state azzardate innumerevoli
ipotesi su questa adolescente fuori dal comune: era una profetessa, una
santa o una pazza? Più di recente, gli scienziati hanno cercato di utilizzare
la psichiatria e la neuroscienza moderne per analizzare personaggi storici
come Giovanna d’Arco.
Pochi mettono in dubbio la sincerità delle sue affermazioni in merito
all’ispirazione divina. Ma molti scienziati hanno ipotizzato che, dal
momento che diceva di sentire delle voci, potesse essere affetta da
schizofrenia. Altri hanno contestato tale congettura, visto che i documenti
superstiti del suo processo rivelano un soggetto estremamente razionale. Gli
inglesi predisposero per lei diverse trappole teologiche: per esempio, le
chiesero se fosse in grazia di Dio. Rispondendo di sì, sarebbe stata tacciata
di eresia, dal momento che nessuno può sapere con certezza se è o no in
grazia di Dio; con una risposta negativa, invece, avrebbe confessato la sua
colpa, ammettendo di essere una truffatrice. In entrambi i casi, sarebbe stata
colta in fallo.
Prendendo in contropiede l’uditorio, lei rispose: «Se non lo sono, che
Dio mi ci ponga; se lo sono, possa Dio mantenermici». Sui verbali del
processo, il notaio del tribunale registrò che quelli che la interrogavano
rimasero stupefatti.
In effetti, le trascrizioni del suo interrogatorio sono tanto notevoli che
George Bernard Shaw le utilizzò nella sua pièce Santa Giovanna.
Negli ultimi tempi, su questa donna di certo eccezionale è stata
formulata un’altra teoria: forse soffriva di epilessia del lobo temporale. Chi
è soggetto a tale condizione manifesta i classici attacchi convulsivi, ma in
alcuni casi emerge anche un curioso effetto collaterale che potrebbe gettare
un po’ di luce sulle modalità in cui le credenze umane si strutturano: questi
pazienti soffrono di “iperreligiosità” e non posso trattenersi dal pensare che
dietro ogni cosa ci sia uno spirito o una presenza. Gli eventi casuali non lo
sono mai sul serio, ma hanno sempre un profondo significato religioso:
alcuni psicologi hanno supposto che un certo numero di profeti soffrisse di
lesioni epilettiche del lobo temporale, per spiegare il fatto che fossero
convinti di parlare con Dio. Il neuroscienziato David Eagleman afferma:
«Una buona percentuale di profeti, martiri e leader della storia soffriva, con
tutta probabilità, di epilessia del lobo temporale. Si pensi a Giovanna
d’Arco, la sedicenne che riuscì a imprimere una svolta alla guerra dei
cent’anni perché credeva (e riuscì a convincerne i soldati francesi) di udire
le voci dell’arcangelo Michele, di santa Caterina d’Alessandria e santa
Margherita»1.
Questo bizzarro effetto fu notato nel lontano 1892, quando i libri di
testo sulle malattie mentali cominciarono a riportare un legame tra
“emotività religiosa” ed epilessia, e venne clinicamente descritto nel 1975
dal neurologo Norman Geschwind, del Boston Veterans Administration
Hospital. Geschwind si accorse che gli epilettici che avevano problemi di
trasmissione elettrica nel lobo temporale sinistro spesso sperimentavano
esperienze religiose, e dunque ipotizzò che la tempesta elettrica nel cervello
fosse in qualche modo responsabile di tali ossessioni.
V.S. Ramachandran stima che tra il 30 e il 40 per cento di tutti i pazienti
affetti da epilessia del lobo temporale da lui trattati manifesti una qualche
forma di iperreligiosità: «Talvolta si tratta di un Dio personale2, altre volte è
una diffusa sensazione di essere tutt’uno con il cosmo. Ogni cosa sembra
intrisa di significato. Il paziente dirà: “Finalmente capisco cosa c’è dietro,
dottore. Sono arrivato a comprendere davvero Dio. Conosco il mio posto
nell’universo, lo schema cosmico”»3.
Ramachandran osserva inoltre che molti di questi individui sono
inamovibili e piuttosto convincenti nelle loro credenze: «A volte mi chiedo
se i pazienti che soffrono di epilessia del lobo temporale non abbiano
accesso a un’altra dimensione della realtà, una sorta di tunnel spazio-
temporale verso un universo parallelo. Ma di solito non ne faccio parola con
i miei colleghi, per paura che dubitino della mia salute mentale». Dopo aver
condotto esperimenti sui pazienti affetti da epilessia del lobo temporale,
Ramachandran ha avuto conferma del fatto che essi denotano una forte
reazione emotiva alla parola Dio, diversamente da quanto avviene con
parole neutre: ciò significa che il legame tra iperreligiosità ed epilessia del
lobo temporale è reale, non solo aneddotico.
Lo psicologo Michael Persinger sostiene che un certo tipo di
stimolazione elettrica transcranica (la TMS) possa indurre l’effetto di tali
lesioni epilettiche: se le cose stanno davvero così, è possibile servirsi dei
campi magnetici al fine di modificare l’altrui credo religioso?
Negli studi condotti da Persinger il soggetto indossa un casco
(soprannominato il casco di Dio) contenente un dispositivo in grado di
inviare impulsi magnetici in aree del cervello particolari. Successivamente
intervistato, il soggetto sostiene di essersi trovato in presenza di un grande
spirito. Su “Scientific American”, David Biello afferma: «Durante i tre
minuti di stimolazione i soggetti interessati traducevano questa percezione
del divino nel loro linguaggio culturale e religioso, chiamandola Dio,
Buddha, presenza benevola o meraviglia dell’universo»4. Il fatto che un
simile esito sia riproducibile a comando sta forse a indicare che il cervello è
in qualche modo programmato per rispondere al sentimento religioso.
Spingendosi oltre, alcuni scienziati hanno ipotizzato l’esistenza di un
“gene di Dio” che predispone il cervello ad essere religioso: dal momento
che la maggior parte delle società ha creato una religione di qualche tipo,
sembra plausibile che la nostra capacità di rispondere al sentimento
religioso possa essere geneticamente programmata (alcuni teorici
evoluzionisti hanno cercato di spiegare questi fatti sostenendo che, nei
primi esseri umani, la religione servisse ad accrescere le possibilità di
sopravvivenza, per esempio contribuendo a integrare individui rissosi in
una tribù resa coesa da una mitologia comune).
Può un esperimento come quello con il “casco di Dio” scuotere le
convinzioni religiose di una persona? E può una macchina RM registrare
l’attività cerebrale di un soggetto che sta sperimentando un risveglio
religioso?
Per testare queste idee Mario Beauregard, dell’Université de Montréal,
ha reclutato un gruppo di quindici suore carmelitane che hanno accettato di
infilare la testa in una macchina RM5. Requisito indispensabile per
l’esperimento era l’aver «fatto esperienza di profonda unione con Dio».
In origine, Beauregard sperava che le suore manifestassero una
comunione mistica con Dio, così che la risonanza magnetica potesse
rilevarla; tuttavia, vedersi spingere in una macchina per la risonanza
magnetica, circondate da mucchi di bobine magnetiche, fili e
apparecchiature sofisticate, non si è rivelato essere il presupposto ideale per
un’epifania religiosa. Il meglio che le suore siano riuscite a fare è stato
evocare il ricordo di precedenti esperienze religiose. «Dio non può essere
evocato a proprio piacimento» ha spiegato una di loro.
Il risultato finale è stato confuso e abbastanza inconcludente, ma
durante l’esperimento diverse aree del cervello si sono illuminate in
maniera evidente:

Il nucleo caudato, che ha un ruolo nell’apprendimento e, forse,


nell’innamoramento (le suore stavano forse percependo l’amore
incondizionato di Dio?)
L’insula, che monitora le sensazioni corporee e le emozioni sociali (le
suore sentivano la vicinanza delle consorelle mentre cercavano di
comunicare con Dio?)
Il lobo parietale, che favorisce il processo di consapevolezza spaziale
(le suore si sentivano fisicamente in presenza di Dio?)

Beauregard ha dovuto ammettere che le aree del cervello attivate erano


così tante, e così tante le diverse interpretazioni possibili, da non poter
concludere con certezza se l’iperreligiosità possa essere indotta. Tuttavia,
per lui era evidente come i sentimenti religiosi delle suore trasparissero
dalle loro scansioni cerebrali.
Ma l’esperimento ha forse scosso la loro fede in Dio? No. In realtà, le
suore ne hanno dedotto che Dio ha posto questa sorta di “radio” nel cervello
degli esseri umani – un’antenna divina – perché potessimo avvertire la Sua
presenza e comunicare con Lui. David Biello conclude: «Anche se gli atei
potrebbero sostenere che localizzare la spiritualità nel cervello significa che
la religione non è altro che un illusione divina, le suore erano entusiaste
delle loro scansioni cerebrali proprio per il motivo opposto: sembravano
fornire una prova del fatto che Dio interagisse con loro»6. Per chiosare con
le parole di Beauregard: «Se sei ateo e ti trovi a vivere un certo tipo di
esperienza, la ricondurrai alla magnificenza dell’universo. Se sei un
cristiano, la assocerai a Dio. Chi può dirlo: forse sono la stessa cosa»7.
Allo stesso modo Richard Dawkins, biologo alla Oxford University e
ateo dichiarato, si è sottoposto una volta al “casco di Dio”, per vedere se le
sue convinzioni religiose sarebbero cambiate: non è successo.
In conclusione, dunque, anche se l’iperreligiosità può essere provocata
dall’epilessia del lobo temporale, e perfino da campi magnetici, non ci sono
prove convincenti del fatto che questi ultimi possano alterare le convinzioni
religiose di un individuo.

Malattie mentali

Ma c’è un altro stato alterato di coscienza che comporta enormi


tormenti, sia alla persona che lo sperimenta sia alla sua famiglia, ed è la
malattia mentale. Le scansioni cerebrali e una tecnologia ormai avanzata
sono in grado di svelare l’origine di questo male e condurre, infine, a una
sua cura? In caso affermativo, verrebbe eliminata una delle maggiori fonti
di sofferenza umana.
In passato, per fare un esempio, il trattamento della schizofrenia era
rozzo e brutale. I pazienti che soffrono di questo disturbo mentale
debilitante, che interessa circa l’1 per cento della popolazione, in genere
sentono voci immaginarie e soffrono di deliri paranoidi e pensiero
disorganizzato; un tempo venivano giudicati “posseduti” dal demonio e di
conseguenza banditi, uccisi o rinchiusi. I romanzi gotici fanno talvolta
cenno a uno strano parente folle che vive segregato nel buio di una stanza
nascosta o di un sotterraneo, e anche la Bibbia cita un episodio in cui Gesù
incontra un indemoniato.
Ancora oggi è possibile vedere gente con i classici sintomi della
schizofrenia andarsene in giro litigando con se stessa. Le prime avvisaglie
di solito insorgono nella tarda adolescenza (per gli uomini) o poco dopo i
vent’anni (per le donne). Alcuni schizofrenici conducono esistenze
normalissime, ottenendo addirittura risultati notevoli prima che le voci
prendano infine il sopravvento. Il caso più celebre è quello di John Nash,
premio Nobel 1994 per l’economia e soggetto del film A Beautiful Mind:
poco più che ventenne, Nash si distinse per un lavoro pionieristico in
economia, teoria dei giochi e matematica pura compiuto all’università di
Princeton. Uno dei suoi tutor gli scrisse una lettera di raccomandazione di
una sola riga: «Quest’uomo è un genio». La cosa straordinaria è che fu in
grado di elaborare teorie a un altissimo livello intellettuale pur essendo
perseguitato da allucinazioni. Infine, a trentun’anni, venne ricoverato in
seguito a un esaurimento, dopodiché trascorse parecchio tempo in istituti o
in giro per il mondo, temendo costantemente che agenti comunisti potessero
ucciderlo.
Al momento non esiste un protocollo preciso e universalmente accettato
per diagnosticare la malattia mentale; la speranza, tuttavia, è che un giorno
gli scienziati possano essere in grado di utilizzare le scansioni cerebrali e
altri dispositivi tecnologici per creare strumenti diagnostici accurati. I
progressi nel trattamento delle malattie mentali, in effetti, sono stati
penosamente lenti. Dopo secoli di sofferenza le vittime della schizofrenia
hanno goduto di un primo sollievo quando, negli anni cinquanta, sono stati
scoperti per caso antipsicotici come la torazina, miracolosamente in grado
di tenere a bada (o addirittura, a volte, eliminare) le voci che le
ossessionano.
Si ritiene che questi farmaci agiscano regolando il livello di alcuni
neurotrasmettitori, come la dopamina: nello specifico, essi ne ridurrebbero
il livello bloccando il funzionamento dei recettori D2 di certe cellule
nervose. Tale teoria, secondo cui le allucinazioni sarebbero in parte causate
da livelli di dopamina in eccesso nel sistema limbico e nella corteccia
prefrontale, spiegherebbe anche il motivo per cui i soggetti che assumono
anfetamine sperimentino allucinazioni simili.
La dopamina, in quanto essenziale per le sinapsi del cervello, è stata
chiamata in causa anche per altri disturbi: si ritiene, per esempio, che il
morbo di Parkinson possa essere aggravato dalla mancanza di dopamina
nelle sinapsi, mentre la sindrome di Tourette sia invece scatenata da una sua
sovrabbondanza8 (le persone affette dalla sindrome di Tourette hanno tic e
movimenti facciali inusuali, e una loro piccola minoranza pronuncia parole
oscene in maniera incontrollata e si lascia andare a osservazioni volgari e
sprezzanti).
Più di recente gli scienziati si sono focalizzati su un altro possibile
colpevole: livelli anormali di glutammato nel cervello. Uno dei motivi per
cui si ritiene verosimile il coinvolgimento di tali livelli sta nel fatto che è
risaputo che la fenciclidina (PCP, nota come polvere d’angelo) causa
allucinazioni, simili a quelle sperimentate dagli schizofrenici, inibendo un
recettore dell’acido glutammico chiamato NMDA. La clozapina, un
farmaco per la schizofrenia piuttosto nuovo che stimola la produzione di
glutammato, sembra promettere molto bene.
Ad ogni modo, questi farmaci antipsicotici non sono una panacea: in
circa il 20 per cento dei casi sono in grado di arrestare tutti i sintomi e,
sebbene circa i due terzi dei pazienti che li assumono ne notino una certa
attenuazione, gli altri non registrano alcun miglioramento (secondo una
particolare teoria, i farmaci antipsicotici riproducono una sostanza chimica
naturale che manca nel cervello degli schizofrenici, ma non ne costituiscono
una copia esatta; dunque un paziente deve testare una varietà di farmaci
antipsicotici, procedendo in pratica per tentativi ed errori. Inoltre, questi
farmaci possono avere spiacevoli effetti collaterali, con il risultato che
spesso gli schizofrenici smettono di assumerli e incorrono in una ricaduta).
Di recente, le scansioni cerebrali di pazienti schizofrenici effettuate
mentre accusavano allucinazioni uditive hanno contribuito a spiegare
questo antico disturbo. Per esempio, quando parliamo a noi stessi in
silenzio, alcune aree del cervello si illuminano in uno scanner a risonanza
magnetica, in particolare nel lobo temporale (come nell’area di Wernicke),
esattamente le stesse aree che si illuminano quando uno schizofrenico sente
le voci. Il cervello si impegna a fondo per elaborare una narrazione
coerente, ragion per cui gli schizofrenici tentano di dare un senso a queste
voci non autorizzate, finendo per credere che abbiano origine da fonti
assurde, come i marziani (in grado di proiettare pensieri nelle loro menti).
Michael Sweeney, della Ohio State University, scrive: «I neuroni
programmati per la sensazione del suono si attivano da soli, come stracci
imbevuti di benzina che prendono fuoco spontaneamente nel buio torrido di
un garage. In assenza di immagini e suoni nell’ambiente circostante, il
cervello dello schizofrenico crea una potente illusione di realtà»9.
In particolare, queste voci sembrano provenire da un soggetto terzo, che
spesso impartisce al primo ordini perlopiù banali, ma talvolta violenti. Nel
frattempo, i centri di simulazione nella corteccia prefrontale sembrano
procedere con il pilota automatico; quindi, in un certo senso, è come se la
coscienza di uno schizofrenico conducesse lo stesso genere di simulazioni
che accomunano tutti, se non per il fatto che le sue vengono condotte senza
il suo permesso. Lo schizofrenico parla letteralmente fra sé e sé a sua
insaputa.

Allucinazioni

La mente genera allucinazioni in modo costante e spontaneo, e la


maggior parte di esse è facilmente controllabile: vediamo immagini che non
esistono o udiamo falsi suoni, per esempio, ragion per cui la corteccia
cingolata anteriore è indispensabile per distinguere il reale dal costruito: in
altre parole, questa regione del cervello ci aiuta a distinguere tra gli stimoli
esterni e quelli generati dalla nostra stessa mente.
Tuttavia, si ritiene che negli schizofrenici questo sistema sia
danneggiato al punto tale che il soggetto interessato non riesce a distinguere
le voci reali da quelle immaginarie; la corteccia cingolata anteriore è
fondamentale perché si trova in un luogo strategico – tra la corteccia
prefrontale e il sistema limbico – e il legame tra queste due aree è uno dei
più importanti nel cervello, dal momento che una governa il pensiero
razionale e l’altra le emozioni.
Le allucinazioni, in qualche misura, possono essere create a comando:
se confinate qualcuno in una stanza completamente buia, come una camera
di isolamento, con strani rumori di sottofondo, esse si manifesteranno in
modo spontaneo. È il classico esempio in cui gli occhi ci giocano “un brutto
tiro”; in realtà è il cervello a giocarselo da solo, fabbricando al suo interno
false immagini nel tentativo di dare un senso al mondo circostante e
identificarne le minacce (l’effetto è detto pareidolia). Ogni volta che
osserviamo le nuvole nel cielo riconosciamo sagome di animali, persone o
personaggi dei nostri fumetti preferiti: non abbiamo scelta, è un fenomeno
connaturato al nostro cervello.
In un certo senso tutte le immagini che vediamo, sia reali sia virtuali,
sono allucinazioni, perché il cervello crea costantemente false immagini per
“colmare le lacune”. Nei soggetti affetti da malattie mentali, però, aree
come la corteccia cingolata anteriore sono probabilmente danneggiate, con
il risultato che il cervello confonde realtà e fantasia.

La mente ossessiva

Un altro disturbo nel cui caso si può ricorrere ai farmaci per guarire la
mente è il disturbo ossessivo-compulsivo (DOC). Come abbiamo già visto,
la coscienza umana comporta la mediazione tra una serie di meccanismi di
feedback; a volte, tuttavia, questi meccanismi rimangono bloccati in
posizione “on”.
Un americano su quaranta soffre di disturbo ossessivo compulsivo: le
sue forme possono essere anche lievi, come quando, per esempio, la gente
deve rientrare a casa di continuo per controllare di aver chiuso la porta
(Adrian Monk, protagonista della serie televisiva Detective Monk, soffre di
una lieve forma di DOC). Ma esistono anche forme molto gravi, tanto da
costringere i soggetti che ne sono affetti a graffiarsi o lavarsi
compulsivamente fino a scorticarsi la pelle a sangue; alcune persone colpite
da DOC ripetono comportamenti ossessivi per ore, rendendogli complicato
mantenere un lavoro o gestire una famiglia.
Nella norma, quando cioè vengono messi in atto con moderazione,
questi comportamenti compulsivi costituiscono in realtà un bene per noi,
dal momento che ci aiutano a mantenerci puliti, in salute e al sicuro, motivo
per cui li abbiamo sviluppati nel tempo; ma gli indivui che soffrono di DOC
non possono porre un freno al loro aumento incontrollato.
Le scansioni cerebrali ci stanno finalmente svelando in che modo tutto
questo avvenga nella pratica: almeno tre aree del cervello, che di norma ci
aiutano a mantenerci sani, rimangono bloccate in una retroazione continua.
In primo luogo c’è la corteccia orbitofrontale che, come abbiamo visto nel
Capitolo 1, può agire come fact-checker, assicurandosi che le porte siano
state chiuse nel modo corretto e che le mani siano state lavate; in pratica ci
dice: “Mmh, forse c’è qualcosa che non va”. Poi c’è il nucleo caudato, che
si trova nei gangli della base, e che governa le attività apprese e ormai
automatiche: in poche parole, ordina al corpo di “fare qualcosa”. Infine c’è
la corteccia cingolata, che registra le emozioni coscienti, compreso il
disagio; è come se essa dicesse: “Sto ancora malissimo”.
Il professor Jeffrey Schwartz, docente di psichiatria alla UCLA, ha
cercato di mettere insieme tutto questo per spiegare come il DOC sfugga di
mano. Immaginate di avvertire l’esigenza di lavarvi le mani: la corteccia
orbitofrontale riconosce che qualcosa non va, che avete cioè le mani
sporche; entra in gioco il nucleo caudato, spingendovi in automatico a
lavarvele; infine, la corteccia cingolata registra la soddisfazione dovuta al
fatto che le vostre mani siano pulite.
In un soggetto colpito da DOC, però, questo ciclo è alterato: anche dopo
essersi accorto di avere le mani sporche e averle lavate, egli non smette di
avvertire la spiacevole sensazione che ci sia qualcosa che non va, che le
mani, cioè, siano ancora sporche; così si ritrova bloccato in una retroazione
continua, che non si fermerà.
Negli anni sessanta, la clomipramina ha cominciato a dare un certo
sollievo ai paziendi di DOC. Questo e altri farmaci sviluppati da lì in poi
aumentano i livelli di serotonina nel corpo, e nelle prove cliniche sembrano
ridurre i sintomi del disturbo ossessivo compulsivo addirittura del 60 per
cento. Osserva Schwartz: «Il cervello farà quello che vuole, ma non dovete
permettergli di comandarvi a bacchetta»10. Pur non costituendo certo una
cura, questi farmaci hanno dunque portato un po’ di sollievo a quanti
soffrono di disturbo ossessivo compulsivo.

Disturbo bipolare

Un’altra malattia mentale abbastanza comune è il disturbo bipolare, una


sindrome in cui il paziente soffre di episodi di ottimismo estremo e
delirante, seguiti da un crollo e, quindi, da periodi di profonda depressione.
Il disturbo bipolare sembra interessare intere famiglie e, cosa curiosa,
colpisce di frequente gli artisti, i cui capolavori, forse, nascono durante le
scariche di creatività e ottimismo (un elenco dei creativi afflitti da disturbo
bipolare scorre corposo come un Who’s Who di star del cinema, musicisti,
artisti e scrittori). Per quanto molti dei sintomi del disturbo bipolare
sembrino essere tenuti a bada dal litio, le sue cause non sono ancora del
tutto chiare.
Una teoria sostiene che il disturbo bipolare possa essere causato da uno
squilibrio tra gli emisferi destro e sinistro. Michael Sweeney fa notare che
«le scansioni cerebrali hanno generalmente indotto i ricercatori ad
assegnare le emozioni negative, come la tristezza, all’emisfero destro e
quelle positive, come la gioia, all’emisfero sinistro. Da almeno un secolo a
questa parte i neuroscienziati notano un legame tra danni all’emisfero
sinistro del cervello e stati d’animo negativi (come depressione e pianto
incontrollato). I danni all’emisfero destro, invece, vengono associati a una
vasta gamma di emozioni positive»11.
L’emisfero sinistro, dunque, che è analitico e organizza il linguaggio,
tende a diventare maniacale se abbandonato a se stesso; l’emisfero destro,
al contrario, è olistico e tende a limitare tale mania. Scrive Ramachandran:
«Lasciato senza controllo, l’emisfero sinistro renderebbe probabilmente una
persona delirante o maniacale […]. Sembra perciò ragionevole ipotizzare
un “avvocato del diavolo” nell’emisfero destro che ci consente di adottare
un punto di vista distaccato, oggettivo (allocentrico) di noi stessi»12.
Se la coscienza umana implica proiezioni sul futuro, deve essere dunque
in grado di calcolare l’esito degli eventi con una certa probabilità: quindi le
occorre un delicato equilibrio tra ottimismo e pessimismo per valutare le
probabilità di successo o fallimento in relazione a determinate linee di
azione.
In un certo senso, però, la depressione è il prezzo che paghiamo per tale
capacità di simulare il futuro: la nostra coscienza è in grado di prefigurare
ogni genere di scenario catastrofico, ed è quindi consapevole di tutte le cose
spiacevoli che potrebbero verificarsi (anche le meno realistiche).
Verificare tali teorie è difficile, perché le scansioni cerebrali di soggetti
clinicamente depressi rivelano che le aree del loro cervello ad essere
coinvolte sono molte; risulta complicato, di conseguenza, individuare con
precisione quale potrebbe essere la causa del problema. Tuttavia, negli
individui clinicamente depressi le attività nei lobi parietale e temporale
sembrano soppresse, forse a indicare che si sono ritirati dalla realtà esterna
per rifugiarsi in un proprio mondo interiore. In particolare, sembra giocare
un ruolo importante la corteccia ventromediale: a quanto pare, questa zona
genera la sensazione che il mondo sia pregno di significato e che tutto abbia
uno scopo. La sua iperattività può causare manie di onnipotenza, mentre la
sua inattività è associata alla depressione e alla sensazione che la vita sia
inutile13. È quindi possibile che un difetto in quest’area possa essere
responsabile di alcuni sbalzi d’umore.

Una teoria sulla coscienza e le malattie mentali

In che modo, dunque, la teoria spazio-temporale della coscienza si


applica alla malattia mentale? Può consentirci una più profonda
comprensione di questo genere di disturbo? Come abbiamo già detto,
definiamo la coscienza umana il processo di creazione di un modello del
nostro mondo nello spazio e nel tempo (in particolare, nel futuro),
valutando molte retroazioni continue secondo vari parametri, al fine di
perseguire un determinato obiettivo.
Abbiamo proposto che la funzione chiave della coscienza umana sia la
capacità di simulare il futuro: un compito, questo, non di poco conto. Per
portarlo a termine, il cervello verifica questi anelli di retroazione
bilanciandoli l’un l’altro. Se nel corso di una riunione del consiglio di
amministrazione un AD esperto cerca di appianare le discrepanze tra i
membri del suo staff e di conciliare i punti di vista in competizione, al fine
di vagliare i vari ragionamenti e prendere poi una decisione definitiva, allo
stesso modo le diverse aree del cervello operano valutazioni divergenti circa
il futuro, trasmettendole poi alla corteccia prefrontale dorsolaterale,
l’amministratore delegato del cervello: queste valutazioni concorrenti
vengono quindi valutate e soppesate finché non viene infine presa una
decisione equilibrata e definitiva.
Ora possiamo rivolgerci alla teoria spazio-temporale della coscienza per
ricavare una definizione della maggior parte delle forme di malattia
mentale:
La malattia mentale è in gran parte causata dall’interruzione dei delicati controlli ed
equilibri tra retroazioni continue concorrenti che simulano il futuro (di solito perché un’area del
cervello è troppo, o troppo poco, attiva).

Dato che, a causa di questa perturbazione delle retroazioni continue,


l’AD del cervello (la corteccia prefrontale dorsolaterale) non gode più di
una valutazione equilibrata dei fatti, essa comincia a trarre strane
conclusioni e ad agire in modi bizzarri. Il vantaggio di questa teoria risiede
nella sua verificabilità: bisogna eseguire scansioni RM del cervello di un
soggetto malato di mente non appena egli manifesta un comportamento
disfunzionale, valutando lo svolgimento delle sue retroazioni continue, e
confrontarle con le scansioni RM di soggetti normali. Se la teoria è corretta,
il comportamento disfunzionale (per esempio, sentire voci o manifestare
forme di ossessione) può essere fatto risalire a un malfunzionamento dei
controlli e degli equilibri tra le retroazioni continue; la teoria verrà invece
confutata se il comportamento disfunzionale risulterà essere del tutto
indipendente dall’interazione tra queste aree del cervello.
Possiamo ora applicare la nuova teoria sulla malattia mentale alle varie
forme di disturbi, analizzando la discussione di cui sopra in questa nuova
luce.
Abbiamo appena visto che il comportamento ossessivo di individui
affetti da DOC potrebbe insorgere quando i controlli e gli equilibri tra le
diverse retroazioni continue (la prima registra qualcosa che non va, la
seconda porta a termine l’azione correttiva, la terza segnala che il problema
è stato risolto) accusa una qualche alterazione: lo scompenso tra i controlli e
gli equilibri all’interno di questo anello può intrappolare il cervello in un
circolo vizioso, portandolo a ritenere che il problema non venga mai risolto.
Così, le voci udite dai soggetti schizofrenici potrebbero manifestarsi
allorché diversi anelli di retroazione non sono più in equilibrio tra loro: un
anello di retroazione genera voci fittizie nella corteccia temporale (ovvero,
il cervello parla a se stesso). Le allucinazioni uditive e visive vengono
spesso verificate dalla corteccia cingolata anteriore, consentendo a una
persona normale di distinguere tra voci reali e fittizie; tuttavia, se quest’area
del cervello non funziona in modo corretto il cervello viene invaso da voci
incorporee che ritiene reali, e ciò può sfociare in un comportamento
schizofrenico.
Analogamente, le oscillazioni maniaco-depressive di un soggetto
colpito da disturbo bipolare possono essere ricondotte a uno squilibrio tra
gli emisferi destro e sinistro. L’interazione necessaria tra le valutazioni
ottimistiche e pessimistiche si sbilancia, e la persona finisce per oscillare
violentemente tra due stati d’animo divergenti.
Anche la paranoia può essere analizzata sotto questa luce: il disturbo è il
risultato di uno squilibrio tra l’amigdala (che registra la paura ed esagera le
minacce) e la corteccia prefrontale, che valuta tali minacce mettendole in
prospettiva.
Va di nuovo sottolineato che l’evoluzione ci ha dotato di questi cicli
retroattivi per un motivo: proteggerci. Ci mantengono puliti, sani e
socialmente interconnessi. Il problema sorge quando la dinamica tra cicli
retroattivi contrapposti viene a interrompersi.
La teoria può essere riassunta, a grandi linee, come segue:
Disturbo Ciclo retroattivo Ciclo Area del cervello
mentale 1 retroattivo 2 interessata
Percepisce una Ignora la Amigdala Lobo
Paranoia
minaccia minaccia prefrontale
Lobo temporale
sinistro
Schizofrenia Fabbrica le voci Ignora le voci
Corteccia cingolata
anteriore
Disturbo Emisfero sinistro
Ottimismo Pessimismo
bipolare Emisfero destro
Corteccia
orbitofrontale
DOC Angoscia Appagamento
Nucleo caudato
Corteccia cingolata
Secondo la teoria spazio-temporale della coscienza molte forme di malattia mentale sono
caratterizzate dallo scombussolamento del sistema di controlli e bilanciamenti tra cicli retroattivi nel
cervello, i quali simulano il futuro con esiti contrastanti. Poco alla volta le scansioni cerebrali
identificano le aree interessate: questo è solo un abbozzo preliminare, e una comprensione più
completa delle malattie mentali rivelerà senza dubbio il coinvolgimento di molte più aree del
cervello.

Stimolazione cerebrale profonda

Anche se la teoria spazio-temporale della coscienza può aiutarci a


comprendere l’origine dei disturbi mentali, non ci dice come mettere a
punto nuove terapie e cure.
Come si occuperà in futuro la scienza della malattia mentale? Difficile
prevederlo, dal momento che sappiamo che quella delle malattie mentali
non è semplicemente una categoria, bensì una serie di disturbi che possono
affliggere la mente in un numero sconcertante di modi. Inoltre, i progressi
scientifici che riguardano la conoscenza e la cura delle malattie mentali
sono ancora in una fase embrionale, e vaste aree rimangono tuttora del tutto
inesplorate e prive di spiegazione.
Oggi è però al vaglio un nuovo metodo, mirato a porre fine
all’interminabile tormento a cui sono sottoposti i soggetti affetti da una
delle forme più comuni e, al tempo stesso, ostinatamente persistenti di
disturbo mentale: la depressione (solo negli Stati Uniti affligge circa venti
milioni di persone, e il 10 per cento di esse è vittima di una sua forma che
finora ha resistito a tutti i progressi della medicina14). Un trattamento
diretto, molto promettente, prevede il posizionamento di sonde in
profondità all’interno di alcune aree del cervello.
Per quanto riguarda questo disturbo un indizio importante è stato
portato alla luce da Helen Mayberg e dai suoi colleghi durante una ricerca
condotta presso la Washington University Medical School: come accennato
nel Capitolo 1, grazie alle scansioni cerebrali i ricercatori hanno identificato
un’area della corteccia cerebrale (chiamata area 25 di Brodmann, o area
subcallosa cingolata), costantemente iperattiva nei soggetti depressi per i
quali tutte le forme di trattamento si sono dimostrate infruttuose.
Gli scienziati hanno usato la stimolazione cerebrale profonda in
quest’area, inserendo una piccola sonda nel cervello e applicando una
scossa elettrica, molto simile a quella prodotta da un pacemaker: il successo
registrato dalla DBS nel trattamento di svariati disturbi è stato sorprendente.
Negli ultimi dieci anni è stata utilizzata su quarantamila pazienti affetti da
disturbi motori, come il Parkinson e l’epilessia, che provocano movimenti
incontrollati del corpo. Una percentuale dei pazienti compresa tra il 60 e il
100 per cento ha riportato un significativo miglioramento nella capacità di
controllare il tremore delle proprie mani; al momento, 250 ospedali nei soli
Stati Uniti eseguono trattamenti che prevedono la DBS.
A un certo punto, però, la Mayberg ha avuto l’idea di applicare la DBS
direttamente all’area 25 di Brodmann per trattare anche la depressione: il
suo team ha preso in cura dodici pazienti clinicamente depressi e che non
avevano mostrato alcun miglioramento dopo il ricorso a farmaci,
psicoterapia e terapia elettroconvulsivante.
Il risultato è stato che otto di questi individui cronicamente depressi
hanno evidenziato progressi immediati. Il successo è stato così
sorprendente, in effetti, che altre équipe si sono affrettate a duplicare tali
risultati e ad applicare la DBS a differenti disturbi mentali; oggi la DBS
viene applicata a trentacinque pazienti alla Emory University, e ad altri
trenta in cura presso altri istituti.
Secondo la Mayberg, «la depressione 1.0 era psicoterapia: le persone
discutevano di chi fosse la colpa. La depressione 2.0 poggiava sull’idea di
uno squilibrio chimico. Questa è la depressione 3.0. Ciò che ha catturato
l’immaginazione di tutti è che, sezionando un disturbo del comportamento
complesso negli elementi che lo compongono, si ricava una nuova
prospettiva sul problema»15.
Nonostante il notevole successo della DBS nel trattamento dei soggetti
depressi, è necessario che la ricerca vada avanti. In primo luogo, il motivo
per cui la DBS funziona non è chiaro: si ritiene che distrugga o che riduca
le aree iperattive del cervello (come nel Parkinson e l’area 25 di Brodmann)
e che quindi sia efficace solo contro i disturbi causati da tale iperattività; in
secondo luogo, la precisione di questo strumento va migliorata. Sebbene la
terapia sia stata utilizzata per trattare una varietà di disturbi mentali, come
la sindrome dell’arto fantasma (quando cioè una persona accusa un dolore
in un arto che è stato amputato), la sindrome di Tourette e il disturbo
ossessivo-compulsivo, l’elettrodo inserito nel cervello non è preciso, e
finisce dunque per interessare anche alcuni milioni di neuroni piuttosto che
i pochi responsabili del disagio.
Il tempo non potrà che migliorarne l’efficacia: utilizzando la tecnologia
MEMS si possono creare elettrodi microscopici capaci di stimolare solo
pochi neuroni alla volta. La nanotecnologia potrebbe rendere altresì
possibili nanosonde neurali spesse quanto una molecola, come nei nanotubi
di carbonio; e, via via che la sensibilità della risonanza magnetica aumenta,
dovrebbe farlo anche la nostra capacità di guidare questi elettrodi verso aree
più specifiche del cervello.

Risvegliarsi dal coma

La stimolazione cerebrale profonda si è diversificata in svariati rami


della ricerca, e ha anche comportato un benefico effetto collaterale:
l’aumento del numero di celle della memoria all’interno dell’ippocampo.
Un’ulteriore applicazione consiste nel tentare di risvegliare determinati
soggetti in stato di coma.
Il coma rappresenta forse una delle forme più controverse di coscienza,
e spesso finisce sulle prime pagine dei giornali. Il caso di Terri Schiavo, per
esempio, inchiodò l’attenzione dell’opinione pubblica: nel 1990, a seguito
di un arresto cardiaco che le causò ingenti danni cerebrali dovuti alla
mancanza di ossigeno, la donna entrò in coma e in seguito in stato
vegetativo persistente, e con il sostegno dei medici il marito si disse
intenzionato a consentirle una morte tranquilla e dignitosa. Ma la famiglia
della donna si oppose, sostenendo che staccare la spina a un soggetto che
rispondeva ancora ad alcuni stimoli, e che un giorno avrebbe potuto
miracolosamente risvegliarsi, fosse una pratica crudele. I familiari
sottolinearono come in passato ci fossero stati casi clamorosi in cui dei
pazienti avevano all’improvviso ripreso coscienza dopo svariati anni
trascorsi in stato vegetativo.
Per dirimere la questione si ricorse alle scansioni cerebrali: nel 2003,
esaminando le TAC, la maggior parte dei neurologi concluse che il danno al
cervello della Schiavo fosse così esteso che la paziente non si sarebbe mai
potuta risvegliare. Dopo la sua morte, nel 2005, l’autopsia confermò questi
risultati: non vi era per lei alcuna possibilità di risveglio.
In alcuni altri casi di pazienti in coma, però, le scansioni cerebrali
mostrano che il danno non è così grave, e che quindi esiste una minima
possibilità di recupero. Nell’estate del 2007, un uomo di Cleveland si
risvegliò e salutò la madre dopo essere stato sottoposto a stimolazione
cerebrale profonda; l’uomo aveva subito ingenti danni cerebrali otto anni
prima, ed era piombato in un tipo du coma profondo conosciuto come stato
minimamente cosciente.
Ali Rezai guidò il team di chirurghi che eseguì l’operazione.
Innanzitutto, nel cervello del paziente venne inserita una coppia di fili fino a
raggiungere il talamo, che, come abbiamo visto, è la soglia in cui le
informazioni sensoriali vanno incontro a una prima elaborazione.
Trasmettendo una scarica a bassa tensione attraverso questi fili, i medici
riuscirono a stimolare il talamo, che a sua volta risvegliò l’uomo dal suo
coma profondo (di solito, l’invio di energia elettrica nel cervello provoca la
disattivazione di quell’area specifica, ma in determinate circostanze può
servire a scuotere i neuroni e a farli entrare in azione).
I progressi nella tecnologia della stimolazione cerebrale profonda
dovrebbero aumentare il numero di casi risolti in diversi campi. Un
elettrodo per la DBS, oggi, ha un diametro di circa 1,5 millimetri, che
inserito nel cervello tocca fino a un milione di neuroni, con il rischio di
causare perdite di sangue e danni ai vasi sanguigni: dall’1 al 3 per cento dei
pazienti sottoposti a DBS, infatti, accusa un’emorragia che può sfociare in
un ictus16. La carica elettrica trasmessa da sonde DBS è ancora molto
rudimentale, dal momento che i suoi impulsi hanno velocità costante. In
futuro i chirurghi saranno in grado di regolare la carica elettrica trasmessa
dagli elettrodi, in modo che ciascuna sonda possa essere adattabile a una
persona specifica e a una specifica patologia. La prossima generazione di
sonde per la DBS sarà, di certo, più sicura e più precisa.

La genetica delle malattie mentali

Un altro tentativo di comprendere, e se possibile curare, le malattie


mentali implica la ricerca delle loro radici genetiche. Molti sforzi sono stati
compiuti in questo settore, ma i risultati sono stati abbastanza contraddittori
e, dunque, deludenti. Ci sono prove evidenti del fatto che la schizofrenia e il
disturbo bipolare abbiano una componente genetica, ma i tentativi di
individuare i geni comuni in individui della stessa famiglia affetti da uno
stesso disturbo non si sono dimostrati risolutori. Saltuariamente, gli
scienziati sono risaliti lungo gli alberi genealogici di alcuni individui affetti
da un disturbo mentale per individuare, infine, un gene prevalente; ma i
tentativi di generalizzare il risultato si sono spesso risolti in un fiasco. Nella
migliore delle ipotesi, gli scienziati hanno concluso che, oltre a una
combinazione di diversi geni, per innescare un disturbo mentale è
necessario che intervengano anche dei fattori ambientali. Ad ogni modo,
concordano sul fatto che ogni malattia abbia una propria base genetica.
Nel 2012, tuttavia, uno degli studi più completi mai condotti ha
dimostrato che, dopo tutto, potrebbe in effetti esserci un fattore genetico
comune alla base di diverse malattie mentali. Gli scienziati della Harvard
Medical School e del Massachusetts General Hospital hanno infatti preso in
esame sessantamila soggetti in tutto il mondo e scoperto l’esistenza di un
legame genetico tra cinque dei più diffusi disturbi mentali: schizofrenia,
disturbo bipolare, autismo, depressione e sindrome da deficit di attenzione e
iperattività (ADHD).
Dopo un’approfondita analisi del DNA dei soggetti esaminati, gli
scienziati hanno scoperto che quattro geni accrescevano il rischio di
malattie mentali, e che due di questi chiamavano in causa la
regolamentazione dei canali del calcio nei neuroni (il calcio è una sostanza
chimica essenziale nell’elaborazione dei segnali neurali). Come afferma
Jordan Smoller, della Harvard Medical School, «i risultati dei canali del
calcio suggeriscono che forse – ma è un grosso forse – i trattamenti che
interessano il funzionamento della canalizzazione del calcio potrebbero
avere effetti su tutta una serie di disturbi»17. Ad oggi, i calcio-antagonisti
vengono già utilizzati per trattare i pazienti affetti da disturbo bipolare; in
futuro i bloccanti potrebbero essere usati per curare altre malattie mentali.
Questo nuovo risultato potrebbe contribuire a spiegare il fatto curioso
per cui i vari membri di una stessa famiglia con predisposizione genetica
possono manifestare forme diverse di disturbi. Per esempio, se in una
coppia di gemelli uno dei due soffre di schizofrenia, l’altro potrebbe
accusare una malattia del tutto diversa, come il disturbo bipolare.
Il punto è che, se anche ogni malattia mentale avesse i propri fattori
scatenanti e il proprio corredo genetico, è possibile che le varie malattie
mentali siano legate da un filo conduttore: isolare i loro fattori comuni
potrebbe fornirci indicazioni circa i farmaci più efficaci nel loro
trattamento.
«Quella che abbiamo identificato è probabilmente solo la punta dell
iceberg» commenta Smoller18. «Con il procedere degli studi, ci aspettiamo
che altri geni possano sovrapporsi». La scoperta di ulteriori geni
nell’ambito di queste cinque patologie potrebbe aprire la via a un approccio
del tutto nuovo alla malattia mentale.
Forse, individuare i geni più comuni significherà permettere alla terapia
genica di riparare i danni causati da geni difettosi, o di sviluppare farmaci in
grado di trattare la malattia a livello neurale.

Prospettive future

Allo stato attuale delle cose, dunque, non esiste una cura per i pazienti
affetti da malattie mentali. In passato, gli uomini di scienza erano del tutto
impotenti al riguardo, ma la medicina moderna ci ha fornito una serie di
nuove possibilità e terapie per affrontare questo antico problema. Solo per
citarne alcune:

La scoperta di nuovi neurotrasmettitori e nuovi farmaci capaci di


regolare la segnalazione dei neuroni.
L’individuazione di geni legati ai vari disturbi mentali, e il possibile
ricorso alla terapia genica.
L’utilizzo della stimolazione cerebrale profonda per attutire o
incrementare l’attività neurale in determinate aree.
L’utilizzo di elettroencefalografie (EEG), risonanze magnetiche (RM),
magnetoencefalografie (MEG) e tomografie elettriche di superficie
(TES) per capire esattamente i malfunzionamenti cerebrali.
Nel capitolo sul reverse engineering del cervello esploreremo un’altra
strada che sembra promettente: l’imaging del cervello intero e di tutte
le sue vie neurali, che potrà finalmente svelare il mistero delle malattie
mentali.

Al fine di mettere ordine nella vasta gamma dei disturbi mentali, alcuni
scienziati ritengono di poterli suddividere in almeno due gruppi principali,
ognuno dei quali richiede un approccio diverso:

Disturbi mentali che comportano lesioni al cervello.


Disturbi mentali scatenati da errati collegamenti all’interno del
cervello.

Il primo gruppo comprende Parkinson, epilessia, morbo di Alzheimer e


un’estesa varietà di disturbi causati da ictus e tumori in cui il tessuto
cerebrale è ferito o malfunzionante. Nel caso del Parkinson e dell’epilessia,
in una precisa area del cervello ci sono neuroni iperattivi; nell’Alzheimer,
un accumulo di placche amiloidi distrugge il tessuto cerebrale, ippocampo
compreso; nel caso di ictus e di tumori alcune parti del cervello vengono
silenziate, causando numerosi problemi comportamentali. Ciascuno di
questi disturbi deve essere trattato in maniera diversa, dal momento che
ogni lesione differisce dalle altre: nel caso del Parkinson e dell’epilessia
potrebbe essere necessario l’utilizzo di sonde che silenzino le zone
iperattive, mentre i danni causati da Alzheimer, ictus e tumori sono spesso
incurabili.
In futuro assisteremo a un progresso nei metodi utilizzati per trattare
queste parti lese del cervello, oltre alla stimolazione cerebrale profonda e ai
campi magnetici, e un giorno le cellule staminali potrebbero sostituire il
tessuto cerebrale danneggiato; o forse, grazie ai computer, verranno trovati
ricambi artificiali. In tal caso, il tessuto danneggiato potrà essere rimosso o
sostituito, organicamente ed elettronicamente.
Il secondo gruppo comprende disturbi causati da connessioni
malfunzionanti nel cervello: possono rientrarvi patologie come
schizofrenia, disturbo ossessivo compulsivo, depressione e disturbo
bipolare. Anche se ciascuna area del cervello è di per sé sana e intatta, due o
più tra loro possono essere mal collegate, con conseguente elaborazione
errata dei messaggi; una categoria difficile da trattare, perché non siamo
ancora in grado di comprendere appieno come funzionino le connessioni
del cervello. Finora la strada più battuta per fronteggiare questi disturbi è
stata quella dei farmaci in grado di agire sui neurotrasmettitori, ma la
scienza procede ancora a tentoni.
C’è un altro stato alterato della coscienza, però, che ci ha fornito nuove
indicazioni sul modo in cui lavora la mente, così come nuove prospettive
sul funzionamento del cervello e su cosa potrebbe accadere in caso di
disturbi: è il campo dell’IA, l’intelligenza artificiale. Sebbene stia ancora
muovendo i primi passi, questo campo ha gettato una nuova luce sul
processo che regola il pensiero, e ha perfino reso più profonda la nostra
comprensione della coscienza umana. Le domande a questo punto sono: è
possibile realizzare una coscienza di silicio? In caso affermativo, in cosa
potrebbe differire dalla coscienza umana? E potrebbe, un giorno, cercare di
controllarci?

1
Eagleman, In incognito, cit., p. 232.
2
Boleyn-Fitzgerald, Pictures of the Mind, cit., p. 122.
3
Vilayanur S. Ramachandran, The Tell-Tale Brain: A Neuroscientist’s Quest for What Makes Us
Human, W.W. Norton, New York 2011, p. 280.
4
David Biello, “Scientific American”, p. 41, www.sciammind.com.
5
Ivi, p. 42.
6
Ivi, p. 45.
7
Ivi, p. 44.
8
Sweeney, Brain, cit., p. 166.
9
Sweeney, Brain, cit., p. 90.
10
Ivi, p. 165.
11
Ivi, p. 208.
12
Ramachandran, The Tell-Tale Brain, cit., p. 267.
13
Carter, Mapping the Mind, cit., pp. 100-103.
14
Sherry Baker, Helen Mayberg, in “Discover Magazine Presents the Brain”, Kalmbach Publishing
Co., Waukesha, WI, autunno 2012, pp. 46-53.
15
Ivi, p. 3.
16
Carter, Mapping the Mind, cit., p. 98.
17
“The New York Times”, 26 febbraio 2013, http://tinyurl.com/bth6p9q.
18
Ibidem.
Capitolo 10
Mente artificiale e coscienza di silicio

No, non mi interessa sviluppare un cervello elettronico potente. Mi accontento di uno mediocre,
un po’ come quello del presidente dell’AT&T.
Alan Turing

Nel febbraio del 2011 si è fatta la storia.


Un computer IBM chiamato Watson è riuscito in quello che molti critici
ritenevano impossibile: sconfiggere due concorrenti umani nel quiz
televisivo Jeopardy! Milioni di spettatori erano incollati allo schermo
mentre Watson annientava sistematicamente i suoi avversari sulla tv
nazionale, rispondendo a domande che li lasciavano interdetti, e
aggiudicandosi così il montepremi da un milione di dollari.
La IBM ha dato fondo a tutte le sue risorse per costruire una macchina
dotata di un’enorme potenza di fuoco computazionale: Watson è in grado di
elaborare dati alla velocità di cinquecento gigabyte al secondo
(l’equivalente di un milione di libri al secondo) con sedicimila miliardi di
byte di memoria RAM. In occasione della sfida aveva accesso anche a
duecento milioni di pagine di materiale racchiuse nella sua memoria,
compreso l’insieme completo di conoscenze che compongono Wikipedia.
Poteva dunque analizzare questa montagna di informazioni in diretta tv.
Watson rappresenta solo l’ultima generazione di “sistemi esperti”,
software che utilizzano la logica formale per accedere a grandi quantità di
informazioni specializzate (quando al telefono parlate con un dispositivo
che vi propone un ventaglio di opzioni, vi state relazionando con un
rudimentale sistema esperto). I sistemi esperti continueranno a evolversi,
facilitandoci la vita.
Tanto per fare un esempio, gli ingegneri stanno oggi lavorando alla
creazione di un “robo-doc” che comparirà sul vostro orologio da polso o sul
vostro schermo per darvi consigli medici di base con un’accuratezza del 99
per cento, e quasi gratis: una volta che gli avrete spiegato i sintomi di cui
soffrite, infatti, il robo-doc accederà alle banche dati dei principali centri
medici mondiali per ricavare le informazioni scientifiche più recenti.
Questo ci aiuterà a ridurre al minimo visite dal medico inutili, eliminare
costosi falsi allarmi e rendere naturale la consuetudine di tenerci
regolarmente in contatto con un medico.
Alla fine potremmo avere avvocati robot in grado di rispondere alle
questioni giuridiche più comuni, o segretari robot capaci di programmarci
vacanze, viaggi e cene (naturalmente per i servizi specialistici che
richiedono una consulenza professionale avrete sempre bisogno di
consultare un medico o un avvocato in carne e ossa, mentre questi
programmi saranno sufficienti per fornire consigli sulle banali questioni di
ogni giorno).
Inoltre, gli scienziati hanno creato dei “chatterbot” in grado di emulare
le conversazioni ordinarie. Un soggetto medio può arrivare a conoscere
decine di migliaia di parole, e leggere il giornale può richiederne duemila o
anche di più, ma per una conversazione informale di solito ne bastano
poche centinaia: questi robot possono essere programmati per dialogare
sfruttando un vocabolario ristretto, ma comunque sufficiente fintanto che la
conversazione verte su argomenti ben definiti.

Battage pubblicitario: arrivano i robot

Subito dopo la vittoria di Watson alcuni opinionisti hanno iniziato a


manifestare una certa tensione, e a prefigurare il giorno in cui le macchine
prenderanno il sopravvento. Ken Jennings, uno dei concorrenti sconfitti, ha
dichiarato alla stampa: «Io per primo do il benvenuto ai nuovi signori di
silicio». Gli opinionisti si sono quindi chiesti: “Se Watson può sconfiggere
dei veterani dei quiz televisivi in una gara uomo vs macchina, quali
possibilità restano a noi comuni mortali? In tono semiserio, Jennings ha
risposto: «Brad [l’altro concorrente] e io siamo stati i primi operai
dell’industria della conoscenza a perdere il lavoro per colpa della nuova
generazione di macchine “pensanti”».
I commentatori, comunque, hanno tralasciato di dire che non si poteva
andare da Watson e congratularsi con lui per la vittoria; che non si poteva
assestargli una pacca sulla spalla, né si poteva brindare a champagne in sua
compagnia; che non avrebbe capito il significato di niente di tutto questo, e
che in effetti era totalmente ignaro di aver vinto: montature giornalistiche a
parte, la verità è che Watson è una macchina di calcolo altamente
sofisticata, in grado di elaborare (o scremare informazioni) a una velocità
miliardi di volte superiore a quella del cervello umano, ma del tutto priva di
consapevolezza di sé o di senso comune.
Da un lato, i progressi nel campo dell’intelligenza artificiale sono stati
sorprendenti, soprattutto per quel che riguarda la grezza potenza di calcolo:
se qualcuno dell’anno 1900 potesse vedere i calcoli eseguiti oggi dai
computer, non potrebbe che considerare queste macchine miracolose.
Dall’altro, però, i progressi sono stati assai lenti nella costruzione di
macchine in grado di pensare per proprio conto (veri e propri automi, cioè,
che possano funzionare senza un burattinaio, un joystick o un pannello di
controllo remoto): i robot sono del tutto inconsapevoli della propria natura.
Dato che, come previsto dalla legge di Moore, nell’ultimo mezzo secolo
la potenza di calcolo è raddoppiata ogni due anni, qualcuno sostiene che sia
solo una questione di tempo prima che le macchine acquisiscano una
consapevolezza di sé in grado di rivaleggiare con l’intelligenza umana.
Nessuno può dire quando ciò accadrà, ma l’umanità deve prepararsi al
momento in cui la coscienza meccanica lascerà i laboratori per entrare nel
mondo reale: il modo in cui ci confronteremo con la coscienza robotica
potrebbe decidere il futuro della razza umana.

Cicli di espansione e frenata dell’IA

È difficile predire il destino dell’IA, dal momento che ha già


attraversato tre cicli di espansione e frenata. Negli anni cinquanta sembrava
che domestiche e maggiordomi meccanici fossero dietro l’angolo: si
costruivano macchine capaci di giocare a dama e risolvere problemi
algebrici, si sviluppavano bracci meccanici in grado di riconoscere e
raccogliere cubi, e all’università di Stanford veniva realizzato un robot,
Shakey – in pratica un computer posizionato in cima a delle ruote e dotato
di videocamera – che poteva andarsene in giro per una stanza evitando gli
ostacoli.
Ben presto, nelle riviste scientifiche comparvero articoli
sensazionalistici che annunciavano l’avvento del “compagno” robot.
Alcune previsioni erano troppo conservatrici (nel 1949, “Popular
Mechanics” dichiarò: «In futuro, i computer non peseranno più di una
tonnellata e mezzo») mentre altre erano esageratamente ottimistiche nel
proclamare che il giorno dei robot fosse vicino: Shakey sarebbe ben presto
diventato un valletto o una donna di servizio capace di pulire i nostri tappeti
con l’aspirapolvere e aprire le porte al nostro passaggio. Film come 2001:
Odissea nello spazio ci hanno convinti che presto i robot avrebbero pilotato
razzi su Giove chiacchierando, intanto, con i nostri astronauti. Nel 1965,
Herbert Simon, uno dei fondatori dell’IA, fu categorico: «Nel giro di
vent’anni le macchine saranno in grado di fare qualsiasi lavoro possa fare
un uomo»1. Due anni dopo, un altro padre fondatore dell’IA, Marvin
Minsky, dichiarò: «Entro una generazione […] il problema di come creare
un’“intelligenza artificiale” sarà sostanzialmente risolto»2.
Ma questo ottimismo smisurato si sbriciolò negli anni settanta. Le
macchine in grado di giocare a dama sapevano giocare a dama, e i bracci
meccanici sapevano raccogliere cubi: avevano una sola freccia al loro arco.
I robot più avanzati impiegavano ore soltanto per attraversare una stanza.
Collocato in un ambiente non familiare, Shakey si smarriva subito. E gli
scienziati non erano per nulla vicini a comprendere la coscienza. Nel 1974
l’IA subì un duro colpo quando sia il governo statunitense sia quello
britannico ridussero in modo sensibile i propri finanziamenti ai rispettivi
progetti.
Tuttavia, con l’aumento costante della potenza computazionale
verificatosi negli anni ottanta, nel campo dell’IA si assistette a una nuova
corsa all’oro, alimentata soprattutto dagli strateghi del Pentagono, che
speravano di poter schierare soldati robot sui campi di battaglia. Nel 1985 i
finanziamenti al settore raggiunsero il miliardo di dollari, centinaia di
milioni dei quali spesi per progetti come lo Smart Truck, che avrebbe
dovuto essere una sorta di furgone intelligente e automatico in grado di
penetrare le linee nemiche, fare ricognizioni, condurre missioni (come il
salvataggio di prigionieri) e poi tornare in territorio amico; purtroppo,
l’unica cosa che fece fu perdersi. Gli evidenti fallimenti di questi costosi
progetti portarono a un altro inverno dell’IA nel corso degli anni novanta.
Commentando gli anni trascorsi al MIT, Paul Abrahams ha dichiarato:
«Fu come se un gruppo di persone si fosse proposto di costruire una torre
sulla luna. Ogni anno facevamo notare con orgoglio che quella torre era
molto più alta dell’anno precedente, ma il problema era che la luna non si
era avvicinata granché»3.
Adesso, in parallelo con la marcia inarrestabile della potenza
computazionale, ha però avuto inizio una nuova rinascita dell’IA, con
progressi lenti ma significativi: nel 1997 il computer Deep Blue di IBM ha
sconfitto il campione mondiale di scacchi Garry Kasparov; nel 2005 una
vettura robot realizzata all’università di Stanford si aggiudicò il DARPA
Grand Challenge per le automobili senza conducente. Si tratta di pietre
miliari raggiunte una dopo l’altra.
La domanda è: la terza sarà finalmente la volta buona?
Ora gli scienziati si rendono conto di aver molto sottovalutato il
problema, dal momento che molto del pensiero umano è in realtà costituito
dal subconscio: la parte cosciente dei nostri pensieri, infatti, rappresenta
solo la fetta più sottile delle nostre elaborazioni.
Dice Steven Pinker: «Sborserei un sacco di soldi per un robot che
lavasse i piatti o che sbrigasse delle semplici commissioni, ma non posso,
perché tutti i piccoli problemi tecnici che vanno risolti per costruire un
robot adatto a uno scopo simile, come riconoscere gli oggetti, riflettere sul
mondo e controllare mani e piedi, sono irrisolti»4.
Nonostante il cinema sembri volerci dire che terrificanti Terminator
potrebbero essere dietro l’angolo, il compito di dar vita a una mente
artificiale è molto più complicato di quanto si pensasse. Una volta ho
chiesto a Minsky quando le macchine avrebbero eguagliato, se non
addirittura superato, l’intelligenza umana: lui ha risposto di essere certo che
ciò sarebbe accaduto, ma che ormai non fa più previsioni sulle date. Viste le
montagne russe su cui sembra procedere la storia della IA, forse l’approccio
più saggio per tracciarne il futuro sta nell’evitare di stilare un programma
preciso.

Riconoscimento di pattern e buon senso

Ci sono almeno due problemi fondamentali con cui confrontarsi nel


campo dell’IA: il riconoscimento di pattern e il buon senso.
I nostri robot migliori possono a malapena riconoscere semplici oggetti
come una tazza o una palla. L’occhio del robot può cogliere i dettagli
meglio di un occhio naturale, ma il suo “cervello” non riconosce quel che
sta vedendo: se mettete un robot su una strada sconosciuta e trafficata, si
disorienta subito e si perde. Per via di questo scoglio, il riconoscimento di
pattern (per esempio, l’identificazione di oggetti) è progredito molto più
lentamente di quanto stimato.
Entrando in una stanza un robot deve eseguire migliaia di miliardi di
calcoli, scomponendo gli oggetti che vede in pixel, linee, cerchi, quadrati e
triangoli, e cercando poi di fare il paio con le migliaia di immagini
archiviate nella sua memoria. Per esempio, i robot vedono una sedia come
un guazzabuglio di linee e punti, ma non possono identificare facilmente
l’essenza dell’“idea di sedia”. Anche se un robot è in grado di abbinare con
successo un oggetto a un’immagine nel suo database, una leggera rotazione
(una sedia che per esempio viene rovesciata sul pavimento) o un
cambiamento di prospettiva (la sua visualizzazione da un’angolazione
diversa) basterà a confonderlo. Il nostro cervello, invece, prende
automaticamente in considerazione diverse prospettive e variazioni: il
processo ci sembra naturale, anche se a livello incoscio esegue migliaia di
miliardi di calcoli.
I robot hanno anche un problema con il buon senso. Non sono in grado
di cogliere semplici fatti sul mondo fisico e biologico: non esiste
un’equazione che possa confermare qualcosa di così autoevidente (per noi
umani) come “il caldo umido è spiacevole” o “le madri sono più vecchie
delle loro figlie”. Sono stati compiuti dei progressi nel tradurre questo tipo
di informazioni in logica matematica, ma catalogare il buon senso di un
bambino di quattro anni richiederebbe centinaia di milioni di righe di
linguaggio macchina. Come disse una volta Voltaire, «il senso comune non
è così comune».
Uno dei robot oggi più avanzati (l’abbiamo già incontrato nel Capitolo
4) si chiama ASIMO, ed è stato costruito in Giappone – dove viene
realizzato il 30 per cento dei robot industriali – dalla Honda Corporation.
Questo congegno straordinario, delle dimensioni di un ragazzino, sa
camminare, correre, salire le scale, parlare diverse lingue e ballare (molto
meglio di me, a dirla tutta). Ho interagito con ASIMO diverse volte in tv, e
sono rimasto molto colpito dalle sue capacità.
Poi, però, ho incontrato in privato i suoi creatori5 e ho posto loro una
domanda chiave: quanto è intelligente ASIMO paragonato a un animale?
Loro hanno ammesso che ha l’intelligenza di una cimice. Tutto quel suo
camminare e parlare è soprattutto rivolto alla stampa. Il problema è che, in
linea di massima, ASIMO è un grosso registratore. Dispone di un ristretto
numero di funzioni davvero autonome, per cui quasi ogni discorso o
movimento deve essere attentamente programmato in anticipo; per esempio,
ci sono volute circa tre ore per filmare una breve sequenza in cui interagivo
con ASIMO, perché il gesto della mano e altri movimenti dovevano essere
programmati da un team di handler.
Se rapportiamo tutto questo alla definizione che abbiamo messo a punto
per la coscienza umana, sembra che i robot attuali siano ancora a uno stadio
molto primitivo, in cui cercano semplicemente di dare un senso al mondo
fisico e sociale apprendendo elementi di base. Essi, dunque, non sono
ancora nella fase in cui possono tracciare simulazioni realistiche del futuro.
Chiedere a un robot di predisporre un piano per rapinare una banca, per
esempio, presuppone che esso conosca tutti i fondamentali sulle banche:
dov’è custodito il denaro, che tipo di sistema di sicurezza è in funzione e
quale sarà la reazione di polizia e testimoni; alcuni di questi elementi
possono essere programmati, ma ci sono centinaia di sfumature che la
mente umana coglie in modo naturale e che invece i robot non sono in
grado di afferrare.
I robot eccellono nella simulazione del futuro in qualche caso ben
definito, come giocare a scacchi o fare previsioni metereologiche o di
collisione tra galassie (dato che le regole degli scacchi e la legge di
gravitazione sono note da secoli, simulare le mosse future di una partita a
scacchi o i movimenti del sistema solare è solo questione di grezza potenza
computazionale).
Anche i tentativi di andare oltre questo stadio usando la forza bruta
sembrano annaspare; per risolvere il problema del buon senso è stato messo
a punto un programma ambizioso, denominato CYC.
Il CYC include milioni di righe di linguaggio macchina, tutte contenenti
informazioni riconducibili al buon senso e le conoscenze necessarie per
comprendere il proprio ambiente fisico e sociale. Sebbene il CYC sia
capace di elaborare centinaia di migliaia di fatti e milioni di asserzioni, non
è ancora in grado di riprodurre il livello di pensiero di un bambino di
quattro anni. Purtroppo, dopo alcuni comunicati stampa ottimistici, il
tentativo si è arenato, molti dei suoi programmatori hanno gettato la spugna
e le scadenze sono state riaggiornate; ma il progetto è ancora in piedi.

Il cervello è un computer?
Dove abbiamo sbagliato? Negli ultimi cinquant’anni gli scienziati
operanti nel campo dell’IA hanno cercato di modellare il cervello seguendo
l’analogia con i computer digitali; un approccio, forse, troppo semplicistico.
Come disse una volta Joseph Campbell, «i computer sono come gli dei del
Vecchio Testamento; un sacco di regole e nessuna pietà». Se rimuovete un
singolo transistor da un chip Pentium, il computer si blocca
immediatamente. Ma il cervello umano può funzionare abbastanza bene
anche privato di una sua buona metà.
Questo perché il cervello non è affatto un computer digitale, ma una
sofisticatissima rete neurale: a differenza del primo, che ha un’architettura
fissa (input, output e processore), le reti neurali sono insiemi di neuroni che
si riconnettono di continuo e si rafforzano dopo aver appreso una nuova
attività. Il cervello non è programmato: non ha un sistema operativo, tipo
Windows, né un processore centrale. Piuttosto, le sue reti neurali lavorano
massicciamente in parallelo, con un centinaio di miliardi di neuroni che si
attivano in contemporanea al fine di raggiungere un unico obiettivo:
imparare.
Alla luce di tutto ciò, i ricercatori impegnati nel campo dell’IA stanno
iniziando a rimettere in discussione “l’approccio top-down” seguito negli
ultimi cinquant’anni (per esempio, inserendo tutte le regole di buon senso
su un cd), e riprendendo in esame “l’approccio bottom-up”, che cerca di
seguire Madre Natura, la quale ha creato esseri intelligenti (noi) attraverso
l’evoluzione, partendo da animali semplici come vermi e pesci, per poi
generarne di più complessi. Le reti neurali devono imparare a proprie spese,
scontrandosi con la realtà e commettendo errori.
Rodney Brooks, ex direttore del famoso Artificial Intelligence
Laboratory del MIT e cofondatore di iRobot, azienda che ha portato gli
aspirapolveri meccanici in molti salotti, ha introdotto un nuovo approccio
all’IA: invece di progettare grossi e goffi robot, perché non costruirne di
piccoli e compatti come insetti, che, proprio come succede in natura,
devono imparare a camminare?
Quando l’ho intervistato6, mi ha confidato di provare una certa
ammirazione per le zanzare, che, pur avendo un cervello quasi
microscopico, con pochissimi neuroni, sono in grado di compiere manovre
nello spazio meglio di qualsiasi aeroplano meccanico. All’epoca aveva
realizzato una serie di robot molto semplici e affettuosamente ribattezzati
insectoids o bugbots, che scorrazzavano sui pavimenti del MIT e davano
filo da torcere ai robot più tradizionali. L’obiettivo era realizzare robot che
seguissero il metodo che procede per tentativi ed errori usato, appunto, da
Madre Natura: in altre parole, questi robot imparavano scontrandosi con
l’ambiente circostante (sulle prime potrebbe sembrare che ciò richieda
molta programmazione, tuttavia l’aspetto ironico è che non ne richiede
alcuna: l’unica cosa che la rete neurale fa è riconnettersi in modo costante,
modificando la forza di alcuni percorsi ogni volta che prende una decisione
corretta. La programmazione è nulla, la flessibilità della rete è tutto).
Un tempo gli scrittori di fantascienza immaginavano che i robot su
Marte sarebbero stati umanoidi sofisticati, in grado di camminare e
muoversi proprio come noi, grazie alla complessa programmazione
assicurata loro dall’intelligenza umana. Si è avverato esattamente l’opposto,
e oggi i nipoti del nuovo approccio – come il Mars Rover Curiosity – che se
ne vanno a zonzo sulla superficie di Marte, non sono robot programmati per
camminare come esseri umani: al contrario, posseggono l’intelligenza di un
insetto, ma se la cavano molto bene su quel terreno. I rover inviati su Marte
hanno una programmazione relativamente esigua, e imparano dagli ostacoli
in cui si imbattono.

I robot hanno una coscienza?

Forse il modo migliore per chiarire perché dei veri automi non esistano
ancora è quello di classificare il loro livello di coscienza. Come abbiamo
visto nel Capitolo 2 possiamo ripartire la coscienza in quattro livelli. Il
livello di coscienza 0 attiene ai termostati e alle piante, e chiama in causa
alcuni cicli di retroazione in una manciata di semplici parametri, quali la
temperatura o la luce solare. Il livello di coscienza 1 descrive insetti e rettili,
creature mobili e dotate di un sistema nervoso centrale: esso chiama in
causa la creazione di un modello del mondo in rapporto a un nuovo
parametro, lo spazio. Abbiamo poi il livello di coscienza 2, che ricrea un
modello del mondo in relazione ai propri simili, e che richiede dunque
emozioni. Infine abbiamo il livello di coscienza 3: esso descrive gli esseri
umani, i quali possiedono il senso del tempo e la consapevolezza di sé, che
utilizzano per fare proiezioni su come le cose si evolveranno in futuro e
determinare così il loro posto in tali modelli.
Possiamo servirci di questa teoria per classificare i robot di oggi. I robot
di prima generazione erano di livello 0, visto che erano statici, senza ruote
né battistrada. I robot di oggi sono al livello 1, dal momento che sono
mobili: ma il rango rimane comunque basso perché hanno enormi difficoltà
a orientarsi nel mondo reale. La loro coscienza può essere paragonata a
quella di un verme o di un insetto lento; ma per ricreare una coscienza che
sia pienamente di livello 1, gli scienziati dovranno realizzare robot in grado
duplicare realisticamente la coscienza di rettili e insetti. Anche questi ultimi
possiedono, infatti, abilità che i robot attuali non hanno, come trovare in
fretta un nascondiglio, localizzare i compagni nella foresta, riconoscere ed
eludere i predatori o cercare cibo e riparo.
Come accennato in precedenza, possiamo classificare la coscienza in
base al numero di cicli retroattivi per ciascun livello. I robot in grado di
vedere, per esempio, possono avere diversi cicli retroattivi, perché
dispongono di sensori visivi capaci di rilevare ombre, bordi, curve, forme
geometriche e così via, in uno spazio tridimensionale. Allo stesso modo, i
robot in grado di sentire richiedono sensori capaci di rilevare, per esempio,
frequenza, intensità, enfasi e pause. Il numero totale di questi cicli di
retroazione può ammontare a circa una decina (mentre un insetto, essendo
in grado di perlustrare un ambiente in cerca di cibo, trovare i compagni,
individuare un riparo ecc., può vantare cinquanta o più anelli di
retroazione). Un robot standard, quindi, può avere un livello di coscienza
1:10.
Per poter accedere a un livello di coscienza 2 i robot dovranno essere in
grado di creare un modello di mondo in relazione agli altri. Come già detto,
prima di tutto la coscienza di livello 2 si calcola moltiplicando il numero dei
membri del gruppo per il numero di emozioni e gesti che vengono utilizzati
per comunicare al suo interno: i robot avrebbero in tal modo una coscienza
di livello 2:0. Tuttavia, la speranza è che i robot emotivi, oggi in
costruzione nei laboratori, possano presto aumentare di numero.
Gli attuali robot vedono gli esseri umani semplicemente come un
insieme di pixel che si spostano sui loro sensori video, ma alcuni ricercatori
nel campo dell’IA stanno cominciando a realizzare robot in grado di
riconoscere le emozioni nelle espressioni del nostro volto e nel nostro tono
di voce. Si tratta di un primo passo verso la creazione di robot capaci di
rendersi conto di come gli esseri umani siano più che semplici pixel casuali,
e posseggano stati emotivi.
Nel giro di qualche decennio i robot raggiungeranno pian piano il livello
2 di coscienza, diventando intelligenti come topi, ratti, conigli e infine gatti.
Forse sul finire del secolo saranno intelligenti come scimmie e inizieranno a
porsi degli obiettivi propri.
Una volta che avranno una conoscenza basilare del senso comune e
della teoria della mente, i robot saranno in grado di eseguire simulazioni
complesse in un futuro che li vede attori principali, entrando così nel livello
3 di coscienza.
Lasceranno il mondo del presente per fare il loro ingresso in quello del
futuro. Ma tutto questo è a molti decenni di distanza dalle capacità dei robot
attuali. Eseguire proiezioni sul futuro significa avere una solida conoscenza
delle leggi della natura, della causalità e del senso comune, tanto da riuscire
a proniosticare gli eventi futuri; significa anche comprendere le intenzioni e
le motivazioni umane, così da poterne prevedere gli esiti.
Il valore numerico del livello 3 di coscienza, l’abbiamo già visto: si
calcola prendendo il numero totale di collegamenti causali che si riesce a
cogliere simulando il futuro in una varietà di situazioni di vita reale, e
dividendolo per il valore medio di un gruppo di controllo. Oggi i computer
sono in grado di effettuare un certo numero di simulazioni riguardanti
alcuni parametri (per esempio la collisione di due galassie, il flusso d’aria
attorno a un aereoplano, l’oscillazione degli edifici durante un terremoto),
ma sono del tutto impreparati a simulare il futuro relativo a situazioni
complesse di vita reale, quindi il loro livello di coscienza sarebbe qualcosa
di simile al livello 3:5.
Come vedete, potrebbero volerci decenni di duro lavoro prima di avere
un robot che possa funzionare senza problemi in seno alla società umana.

Dossi lungo la strada

Dunque, quand’è che i robot potrebbero infine eguagliare o superare gli


uomini quanto a intelligenza? Nessuno lo sa, ma sono state azzardate molte
previsioni. La maggior parte di queste si basano sull’estensione della legge
di Moore ai decenni a venire. Tuttavia, essa non è affatto una legge, e in
realtà viola una legge fisica fondamentale: la teoria quantistica.
La legge di Moore non può avere validità eterna: stiamo già assistendo a
un rallentamento, e il ritmo potrebbe interrompersi del tutto entro la fine di
questo o del prossimo decennio, con conseguenze disastrose, soprattutto per
la Silicon Valley.
Il problema è semplice. Ora come ora è possibile inserire centinaia di
milioni di transistor di silicio su un chip delle dimensioni di un’unghia, ma
c’è un limite a quanto vi si può stipare. Oggi il più piccolo strato di silicio
nei chip dei nostri computer è di circa venti atomi in larghezza, che entro il
2020 potrebbero ridursi a cinque. Ma a quel punto entrerebbe in gioco il
principio di indeterminazione di Heisenberg, e non sareste più in grado di
determinare con precisione dove si trovi l’elettrone che, di fatto, potrebbe
“fuoriuscire” dal filo (si veda l’Appendice, dove si discute di teoria
quantistica e del principio di indeterminazione in modo più
particolareggiato).
Il chip andrebbe in corto circuito, e genererebbe calore sufficiente a
friggervi sopra un uovo. Dunque, dispersione e calore finiranno per
condannare la legge di Moore, che presto dovrà essere rimpiazzata.
Se i package per transistor su chip piatti sono ormai prossimi a
raggiungere il limite massimo in termini di potenza di calcolo, la Intel sta
ingaggiando una scommessa multimiliardaria per portare i chip nella terza
dimensione; solo il tempo ci dirà se sia stata vincente (un grosso problema
con i chip 3D è che il calore generato cresce rapidamente con il loro
spessore).
La Microsoft sta prendendo in esame altre opzioni, come l’espansione
in 2D con l’elaborazione in parallelo. Una possibilità è quella di espandere i
chip orizzontalmente, in fila: poi si frammenta in pezzi un problema di
software, si organizza ogni pezzo su un piccolo chip e alla fine si riassembla
il tutto. Ad ogni modo, potrebbe trattarsi di un processo complicato, e il
software cresce a un ritmo molto più lento rispetto al tasso esponenziale e
sovralimentato a cui ci ha abituati la legge di Moore.
Queste soluzioni tampone possono prolungare di qualche anno la
validità della legge di Moore, ma alla fine il tutto sarà sorpassato: la teoria
quantistica prenderà inevitabilmente il sopravvento. Ciò significa che i
fisici stanno sperimentando una grande varietà di alternative, mentre l’era
del silicio volge al termine: presto avremo computer quantistici, computer
molecolari, nanocomputer, computer a DNA, computer ottici… ma nessuna
di queste tecnologie è ancora pronta a calcare il palcoscenico.

La zona perturbante
Ma supponiamo per il momento che un giorno coesisteremo con robot
incredibilmente sofisticati, che magari utilizzano chip con transistor
molecolari, piuttosto che di silicio. Fino a che punto vorremmo che questi
robot ci assomigliassero? Il Giappone è leader mondiale nella realizzazione
di robot che assomigliano a cuccioli e a bambini, ma i loro ideatori prestano
molta attenzione a che questi ultimi non abbiano sembianze troppo umane,
perché la cosa potrebbe risultare inquietante. Del fenomeno, chiamato zona
perturbante, si è occupato per primo Masahiro Mori in Giappone, nel 1970.
L’ipotesi formulata da Mori presuppone che i robot percepiti come troppo
simili agli esseri umani ingenerino angoscia (l’effetto era stato in realtà
citato per la prima volta da Darwin nel 1839 in Viaggio di un naturalista
intorno al mondo e da Freud in un saggio del 1919 intitolato, appunto, Il
perturbante). Da allora, l’ipotesi è stata studiata con molta attenzione, non
solo da ricercatori nel campo dell’IA ma anche da esperti di animazione,
pubblicitari o da chiunque promuovesse un prodotto che avesse a che fare
anche con figure umanoidi. Per esempio, riferendosi al film The Polar
Express, un recensore della CNN ha osservato: «I personaggi umani del
film hanno un’aria assolutamente… be’, raccapricciante. Ragion per cui
The Polar Express è nella migliore delle ipotesi sconcertante e nella
peggiore un tantino terrificante».
Secondo Mori, più un robot assomiglia a un essere umano, più
proviamo empatia nei suoi confronti, ma solo fino a un certo punto: non
appena le sue sembianze si avvicinano sul serio alle nostre, l’empatia
accusa una flessione, denominata appunto zona (o valle) del perturbante. Se
il robot è molto simile a un umano eccetto che per un paio di caratteristiche
“perturbanti”, creerà in noi una sensazione di repulsione e paura, mentre se
viene percepito come umano al 100 per cento, indistinguibile da voi e me,
torneremo a registrare emozioni positive.
Tutto questo ha implicazioni pratiche. Per esempio: i robot dovrebbero
sorridere? Sulle prime, sembrerebbe ovvio che i robot debbano sorridere
alle persone che incontrano per metterle a proprio agio: sorridere è un segno
universale che comunica un senso di calore e accoglienza. Se il sorriso del
robot è troppo realistico, però, ci farà accapponare la pelle (non a caso, le
maschere di Halloween hanno spesso le fattezze di demoni sogghignanti).
Dunque i robot dovrebbero sorridere solo se hanno un aspetto infantile
(cioè, grandi occhi e un viso rotondo) o se sono in tutto e per tutto umani, e
non un qualcosa che sta in mezzo (quando forziamo un sorriso, attiviamo i
muscoli del viso tramite la corteccia prefrontale; quando invece sorridiamo
perché siamo di buon umore, i nostri nervi vengono controllati dal sistema
limbico, che attiva un insieme di muscoli leggermente diverso. Il nostro
cervello sa cogliere la sottile differenza tra i due sorrisi, capacità che si è
rivelata utile per la nostra evoluzione).
Questo effetto può essere studiato ricorrendo alle scansioni cerebrali.
Un soggetto è inserito in una macchina per la risonanza magnetica e gli
viene mostrata l’immagine di un robot che sembra umano, tranne che per i
movimenti del corpo leggermente scattosi e meccanici. Dato che ogni volta
che vede qualcosa il cervello cerca di prevederne i movimenti futuri,
osservando un robot dalle sembianze umane esso si aspetta di vederlo
muovere come un essere umano; ma se il robot si muove come una
macchina la discrepanza che ne emerge ci mette a disagio. In particolare, si
illumina il nostro lobo parietale – più di preciso, la parte in cui la corteccia
motoria si collega con la corteccia visiva, area in cui si ritiene vi siano dei
neuroni specchio. Ciò ha un senso: la corteccia visiva raccoglie l’immagine
del robot umanoide, i cui movimenti sono invece previsti dalla corteccia
motoria e dai neuroni specchio. Alla fine è probabile che la corteccia
orbitofrontale, situata proprio dietro gli occhi, metta tutto insieme
concludendo che qualcosa non quadra.
I registi conoscono bene questo effetto: dal momento che spendono
moltissimi soldi per realizzare un film horror, sono ben consapevoli del
fatto che la scena più spaventosa non è quella in cui una gigantesca massa
informe o Frankenstein saltano fuori all’improvviso da un cespuglio, bensì
quella in cui si assiste a un’aberrazione del normale. Pensate al film
L’esorcista: quale scena ha fatto venire i conati agli spettatori mentre
scappavano via dal cinema, o li ha fatti svenire sulla sedia? Forse quella in
cui si manifestava il demonio? No. I cinema di tutto il mondo si sono
riempiti di urla stridule e sonori singhiozzi quando Linda Blair ha preso a
ruotare la testa sul collo di trecentosessanta gradi.
Questo effetto si riscontra anche nelle giovani scimmie. Se si mostrano
loro immagini di Dracula o Frankenstein si limitano a ridere e a strapparle;
quello che invece le fa urlare di terrore è la foto di una scimmia decapitata.
Ancora una volta, è un’aberrazione del normale a suscitare le paure più
grandi (nel Capitolo 2 abbiamo detto che la teoria spazio-temporale della
coscienza spiega la natura dell’umorismo, perché il cervello simula gli
sviluppi futuri di una barzelletta, per poi rimanere sorpreso alla battuta
finale. Ciò spiega anche la natura dell’orrore: il cervello simula il futuro di
un evento comune, banale, e subisce uno shock quando le cose assumono
all’improvviso una piega orribilmente distorta).
Per questo motivo i robot continueranno ad avere un aspetto un po’
infantile anche quando il loro livello di intelligenza si avvicinerà a quello
umano: solo quando saranno in grado di muoversi e agire in modo
realistico, come veri esseri umani, i progettisti daranno loro sembianze in
tutto e per tutto antropomorfe.

Coscienza di silicio

Come abbiamo visto, la coscienza umana è un mosaico imperfetto di


diverse abilità sviluppatesi nel corso di milioni di anni di evoluzione.
Forniti di informazioni sul mondo fisico e sociale, i robot potrebbero forse
creare simulazioni simili (o, per certi aspetti, addirittura superiori) alle
nostre; la coscienza di silicio, però, rimarrebbe comunque differente dalla
nostra in due aree chiave, quella delle emozioni e quella degli obiettivi.
Per lungo tempo i ricercatori nel campo dell’IA hanno ignorato il
problema delle emozioni, considerandolo secondario: l’obiettivo era quello
di creare un robot che fosse logico e razionale, non sbadato e impulsivo.
Quindi, la fantascienza degli anni cinquanta e sessanta insisteva su robot e
umanoidi (come Spock di Star Trek) con cervelli perfettamente logici.
Parlando di zona perturbante abbiamo visto che i robot dovranno avere
un certo aspetto per entrare nelle nostre case, e che secondo alcuni
dovranno mostrare anche delle emozioni affinché possano creare legami e
stabilire interazioni produttive con noi; in altre parole, i robot dovranno
accedere al livello di coscienza 2. Perché ciò avvenga, dovranno prima di
tutto essere in grado di riconoscere l’intero spettro delle emozioni umane:
analizzando i più impercettibili movimenti di sopracciglia, palpebre, labbra,
guance e così via, un robot dovrà divenire capace di identificare lo stato
emotivo di un essere umano (per esempio, del suo proprietario). Al MIT
Media Lab si è raggiunta l’eccellenza nella creazione di robot in grado di
riconoscere e imitare le emozioni. In più occasioni ho avuto il piacere di
visitare il laboratorio, poco fuori Boston, ed è stato come entrare in una
fabbrica di giocattoli per adulti7: ovunque si volga lo sguardo, si scorgono
dispositivi futuristici progettati per rendere la nostra vita più interessante,
piacevole e comoda.
Guardandomi intorno ho visto molti elaborati high-tech che alla fine
avrebbero preso la strada di Hollywood per fare la loro comparsa in film
come Minority Report e A.I. – Intelligenza Artificiale. Girovagando in
questo parco giochi futuristico mi sono imbattuto in due robot affascinanti,
Huggable e Nexi. La loro creatrice, Cynthia Breazeal, mi ha spiegato che
essi nascono con scopi ben specifici: Huggable è un tenero orsacchiotto
robot in grado di legare con i bambini, di cui riesce a cogliere le emozioni;
dispone di telecamere per gli occhi, un altoparlante per la bocca e di sensori
sulla “pelle” (riuscendo così a capire quando viene toccato, solleticato o
abbracciato). Un domani, un robot del genere potrebbe diventare un
insegnante, un baby-sitter, un aiuto infermiere o un compagno di giochi.
Nexi, invece, può relazionarsi con gli adulti. Assomiglia un po’ al
Pillsbury Doughboy, ha un viso tondo, paffuto e amichevole, con grandi
occhi che possono roteare. È già stato provato in una casa di cura,
riscuotendo enorme successo fra gli anziani, che una volta abituatisi alla sua
presenza volevano parlargli e baciarlo; quando l’esperimento è finito, ne
hanno sentito la mancanza (si veda la figura 12).
La Breazeal sostiene di aver progettato Huggable e Nexi perché non era
soddisfatta dei robot già esistenti, che avevano tutti l’aspetto di lattine piene
di cavi, ingranaggi e motori. Al fine di progettare robot in grado di
interagire emotivamente con le persone, ha cercato di immaginare come
avrebbe potuto farli agire e interagire come facciamo noi. In più, voleva
robot che non rimanessero su uno scaffale di laboratorio, ma che potessero
avventurarsi nel mondo reale. L’ex direttore del MIT Media Lab, Frank
Moss, afferma: «Ecco perché nel 2004 la Breazeal ha deciso che fosse
giunto il momento di creare una nuova generazione di robot sociali che
potessero vivere ovunque: case, scuole, ospedali, strutture di assistenza per
anziani e così via»8.
Figura 12. Huggable (in alto) e Nexi (in basso), due robot realizzati presso il MIT Media Lab ed
espressamente progettati per interagire con gli esseri umani attraverso le emozioni (sopra: MIT
Media Lab, Personal Robots Group; sotto: MIT Media Lab, Personal Robots Group, Miket Siegel).

Alla Waseda University, in Giappone, gli scienziati stanno lavorando su


un robot che con la parte superiore del corpo riproduce movimenti che
indicano emozioni (paura, rabbia, sorpresa, gioia, disgusto, tristezza) e che
può sentire, annusare, vedere e toccare: è stato programmato per
raggiungere semplici obiettivi come soddisfare la sua carenza di energie ed
evitare situazioni pericolose. Scopo dei ricercatori è quello di integrare i
sensi con le emozioni, così che il robot agisca in maniera adeguata alle
diverse situazioni9.
Per non rimanere indietro, la Commissione Europea sta finanziando un
progetto chiamato Feelix Growing e mirato a promuovere l’intelligenza
artificiale nel Regno Unito e in Francia, Svizzera, Grecia e Danimarca.

Robot emotivi

È il momento di fare la conoscenza di Nao10.


Quando è felice, allunga le braccia in segno di saluto o per richiedere un
abbraccio. Quando è triste, china il capo e assume un’aria desolata,
curvando le spalle. Quando si spaventa, si rannicchia impaurito fino a che
qualcuno non gli fa una carezza rassicurante sulla testa.
È come un bambino di un anno, solo che è un robot. È alto poco meno
di mezzo metro e somiglia molto ad alcuni dei robot che si vedono nei
negozi di giocattoli, come i Tranformers, solo che è uno dei robot emotivi
più avanzati del mondo: è stato costruito dagli scienziati dell’University of
Hertfordshire, e la ricerca è stata finanziata dall’Unione Europea.
I suoi creatori l’hanno programmato perché mostrasse emozioni come
felicità, tristezza, paura, eccitazione e orgoglio. Mentre altri robot
manifestano espressioni facciali e verbali rudimentali per veicolare le loro
emozioni, Nao eccelle nel linguaggio corporeo, per esempio nella postura e
nella gestualità. Sa perfino ballare.
A differenza di altri robot, specializzati in una sola area emozionale,
Nao padroneggia una vasta gamma di risposte emotive: per prima cosa,
cattura nel suo campo visivo i volti dei visitatori, li identifica e ricorda le
precedenti interazioni con ciascuno di loro; dopodiché, comincia a
monitorarne i movimenti, può seguirne lo sguardo e dire cosa stiano
guardando. Quindi comincia a relazionarsi con loro e impara a rispondere ai
loro gesti: se gli sorridete o gli date una pacca sulla testa, sa che si tratta di
un segno positivo. Dal momento che il suo “cervello” dispone di reti
neurali, impara dalle interazioni con gli esseri umani. Inoltre, Nao esprime
emozioni in risposta alle sue interazioni con le persone (le sue risposte
emotive sono tutte preprogrammate, come fosse un registratore, ma è lui a
scegliere l’emozione che meglio si adatta alla situazione). Infine, più Nao
interagisce con una determinata persona, meglio ne comprende gli umori, e
più forte è il legame che con lei instaura.
Non solo Nao ha una personalità, ma può in effetti assumerne
molteplici. Dal momento che apprende dalle sue interazioni con gli esseri
umani, e che ogni interazione è unica, alla fine cominciano a emergere
personalità diverse. Una potrebbe essere per esempio abbastanza
indipendente, e non richiedere molte indicazioni da parte degli umani;
un’altra potrebbe invece essere timida e timorosa, spaventarsi di fronte agli
oggetti presenti in una stanza e richiedere di continuo l’intervento umano.
Il responsabile del progetto Nao è Lola Cañamero, informatica presso la
University of Hertfordshire. Per avviare questo ambizioso progetto ha
analizzato le interazioni degli scimpanzé: il suo obiettivo era quello di
riprodurre, il più fedelmente possibile, il comportamento emotivo di uno
scimpanzé di un anno di età.
Per questi robot emotivi la Cañamero vede applicazioni nell’immediato.
Come la Breazeal, ritiene sia possibile utilizzarli per alleviare l’ansia dei
bambini ricoverati in ospedale: «Vogliamo esplorare ruoli diversi. I robot
aiuteranno i bambini a capire in cosa consiste la loro terapia, spiegando loro
cosa fare. Vogliamo aiutare i bambini a tenere sotto controllo la propria
ansia».
Un’altra possibilità è che i robot vengano utilizzati nelle case di cura.
Nao potrebbe rivelarsi un supporto prezioso per il personale di un ospedale
e, in un prossimo futuro, robot del genere potrebbero diventare compagni di
gioco per i bambini, o addirittura parte integrante di una famiglia.
«È difficile prevedere il futuro, ma non ci vorrà molto prima che il
computer che avete di fronte diventi un robot sociale. Potrete parlarci,
divertirvici o perfino arrabbiarvi e urlargli contro: capirà voi e le vostre
emozioni» dice Terrence Sejnowski del Salk Institute, vicino a San Diego11.
Questa è la parte facile. La parte difficile, partendo da queste informazioni,
è quella di calibrare la risposta del robot: se il suo proprietario è arrabbiato
o dispiaciuto, il robot deve essere in grado di tenerne conto
nell’elaborazione della sua risposta.

Emozioni: determinare ciò che è importante

Inoltre, i ricercatori nel campo dell’IA hanno cominciato a rendersi


conto che le emozioni potrebbero essere una chiave d’accesso per la
coscienza. Neuroscienziati come Antonio Damasio12 hanno scoperto che
quando il legame tra il lobo prefrontale (che governa il pensiero razionale) e
i centri emozionali (per esempio, il sistema limbico) è danneggiato, i
pazienti non sanno esprimere giudizi di valore: rimangono pietrificati
davanti alla più semplice delle decisioni (cosa comprare, quando fissare un
appuntamento, con quale colore scrivere) perché per loro tutto ha lo stesso
valore. Quindi, le emozioni non sono un lusso; sono assolutamente
essenziali, e senza di esse un robot avrà difficoltà a determinare ciò che è
importante e ciò che non lo è. Lungi dall’essere marginali nel progresso
dell’intelligenza artificiale, le emozioni stanno assumendovi un’importanza
centrale.
In caso di incendio un robot potrebbe decidere di mettere in salvo i file
di un computer prima delle persone, perché il modo in cui è stato
programmato gli suggerisce che i documenti preziosi non possano essere
sostituiti, mentre i lavoratori sì. È fondamentale che i robot vengano
programmati per distinguere tra ciò che è importante e ciò che non lo è, e
sappiamo che le emozioni sono scorciatoie che il cervello utilizza per
arrivare in fretta all’obiettivo; i robot dovrebbero perciò essere programmati
in modo da disporre di un sistema di valori (secondo cui, per esempio, la
vita umana è più importante degli oggetti materiali, i bambini vanno messi
in salvo per primi in caso di emergenza, gli oggetti con un prezzo più alto
sono più preziosi degli oggetti con un prezzo più basso ecc.).
Il problema con le emozioni, tuttavia, è che talvolta sono irrazionali,
mentre i robot hanno una precisione matematica. La coscienza di silicio
potrebbe dunque differire da quella umana sotto degli aspetti fondamentali:
gli esseri umani hanno poco controllo sulle emozioni, perché si originano
repentinamente nel sistema limbico e non nella corteccia prefrontale del
cervello; oltretutto, esse sono spesso distorte (per esempio, vari test hanno
dimostrato che tendiamo a sopravvalutare le capacità di persone avvenenti,
che così tendono a risalire le gerarchie sociali e ad avere un lavoro migliore,
per quanto possano non essere talentuose come le altre).
In modo analogo, la coscienza di silicio potrebbe non prendere in
considerazione certi segnali sottili che gli esseri umani utilizzano quando si
incontrano gli uni con gli altri, come per esempio il linguaggio del corpo.
Quando qualcuno entra in una stanza dove si trovano già altre persone, i
giovani di solito mostrano deferenza verso i più anziani, così come i
membri di livello più basso di uno staff verso i propri i superiori.
Mostriamo rispetto tramite il modo in cui muoviamo il corpo e le parole, o i
gesti, che scegliamo; dato che è più vecchio del linguaggio parlato, quello
del corpo ha connessioni cerebrali molto sottili. Perché possano interagire a
livello sociale con le persone, i robot devono apprendere tali segnali
inconsci.
La nostra coscienza è influenzata dalle peculiarità nel nostro passato
evolutivo, cosa che per sempre farà difetto ai robot: di conseguenza, la
coscienza di silicio potrebbe non avere le stesse lacune, e anomalie, della
nostra.

Un ventaglio di emozioni

Dato che le emozioni devono essere programmate dall’esterno e poi


“caricate” sui robot, chi le produce potrebbe offrire un ventaglio di
emozioni accuratamente scelte in base alla necessità, utilità o capacità di
intensificare il legame con il proprietario.
Con tutta probabilità, i robot saranno programmati in modo da avere
solo poche emozioni umane, a seconda della situazione. Forse l’emozione
più stimata dal proprietario di un robot sarà la lealtà: tutti vorrebbero un
robot che esegua fedelmente e senza rimostranze le istruzioni che riceve, e
che capisca e preveda le esigenze del padrone. L’ultima cosa che un
proprietario vuole è un robot di carattere, che risponde male, critico e
lamentoso: le critiche utili sono importanti, ma solo se fatte con tatto e in
maniera costruttiva. Inoltre, nel caso in cui diversi umani gli impartissero
istruzioni contrastanti, il robot dovrebbe essere in grado di ignorarle tutte,
ad eccezione di quelle provenienti dal suo proprietario.
Quest’ultimo apprezzerà parecchio anche l’empatia: i robot provvisti di
empatia capiranno i problemi degli altri e andranno in loro aiuto, e
interpretandone i movimenti facciali e il tono della voce, saranno in grado
di comprendere quando una persona è in difficoltà e, se possibile, di fornirle
assistenza.
Può sembrare strano, ma un’altra emozione da prendere in
considerazione è la paura. L’evoluzione l’ha selezionata per un motivo,
quello di evitare determinati pericoli: dovessero anche essere fatti d’acciaio,
i robot dovranno temere le circostanze che potrebbero danneggiarli,
evitando così di precipitare dall’alto o di intrufolarsi dove stia divampando
un incendio. Un robot privo di paura è perfettamente inutile, se finisce per
distruggersi.
Certe emozioni, come la rabbia, potrebbero invece dover essere
cancellate, vietate o minuziosamente regolamentate. Dato che è verosimile
che i robot vengano dotati di un’enorme forza fisica, un robot infuriato
potrebbe creare enormi problemi in casa e sul posto di lavoro: la rabbia
potrebbe mettersi di traverso rispetto ai suoi doveri e causare gravi danni (il
suo scopo evolutivo originario era quello di mostrare la nostra
insoddisfazione, cosa che può essere fatta anche in modo spassionato e
razionale, senza doversi necessariamente arrabbiare).
Un’altra emozione che andrebbe eliminata è il desiderio di comando.
Un robot prepotente non combinerà altro che guai, e metterà alla prova
valutazioni e volontà del suo proprietario (questo punto sarà importante
anche dopo, quando si discuterà della possibilità che un giorno i robot
possano prendere il sopravvento sugli esseri umani): dovrà dunque piegarsi
ai desideri di quest’ultimo, anche se ciò potrebbe non essere il percorso
migliore.
Forse l’emozione più difficile da trasmettere è l’umorismo, un collante
che può legare fra loro degli sconosciuti; una semplice battuta può
disinnescare una situazione tesa così come incendiarla. Abbiamo visto che
la meccanica di base dell’umorismo è semplice: esso si basa su una battuta
imprevista. Eppure, può avere innumerevoli sottigliezze, e spesso valutiamo
gli altri in base a come vi reagiscono. Dato che gli esseri umani si servono
dell’umorismo per valutare i propri simili, non è difficile rendersi conto
della difficoltà insita nel creare un robot in grado di dire se un’uscita sia
divertente o meno. Il presidente Ronald Reagan, per esempio, era famoso
per il modo in cui sdrammatizzava le situazioni più complicate grazie a una
battuta (in effetti, mise insieme un ampio catalogo di motti di spirito,
frecciatine e freddure proprio perché consapevole della forza
dell’umorismo, e alcuni opinionisti ritengono che abbia vinto il dibattito
presidenziale contro Walter Mondale nel momento in cui gli fu chiesto se
fosse troppo vecchio per fare il presidente: Reagan rispose che non avrebbe
portato rancore al suo avversario per la sua giovane età). Inoltre, ridere in
modo non appropriato potrebbe avere conseguenze disastrose – e, in effetti,
a volte è segno di disturbo mentale. Infine, il robot dovrebbe conoscere la
differenza tra ridere con qualcuno e ridere di qualcuno (gli attori sono ben
consapevoli della natura variegata della risata, e sono abbastanza abili da
riprodurre risate che esprimano orrore, cinismo, gioia, rabbia, tristezza ecc.)
Finché la teoria dell’intelligenza artificiale non porterà a nuovi sviluppi,
quindi, i robot faranno meglio a tenersi lontani da umorismo e risate.

Programmare le emozioni

In questa discussione abbiamo finora evitato la difficile questione di


come, con esattezza, le emozioni dovrebbero essere programmate in un
computer: è probabile, a causa della loro complessità, che ciò debba esser
fatto in più fasi.
Il passo inziale, e il più semplice, sarà individuare un’emozione
analizzando i movimenti sul volto di una persona – delle labbra, delle
sopracciglia – e il suo tono di voce. L’odierna tecnologia di riconoscimento
facciale è già in grado di creare un dizionario di emozioni, facendo
corrispondere determinati significati ad altrettante espressioni facciali; tale
procedimento risale in realtà a Darwin, che spese una considerevole
quantità di tempo per catalogare le emozioni comuni ad animali ed esseri
umani.
In secondo luogo, il robot dovrà rispondere in fretta a questa emozione;
anche ciò è abbastanza semplice.
Se qualcuno ride, il robot sorriderà. Se qualcuno è arrabbiato, il robot si
toglierà di mezzo per evitare qualsiasi conflitto. Disponendo di una vasta
enciclopedia di emozioni pre-programmate saprebbe dunque come
rispondere, nell’immediato, a ciascuna di esse.
La terza fase è forse la più complessa, perché richiede di determinare la
motivazione sottesa all’emozione originale; un compito difficile, dato che
una singola emozione può essere scatenata da situazioni differenti. Una
risata può significare che il suo autore è felice, che ha sentito una barzelletta
o che ha visto un tizio scivolare. Oppure potrebbe significare che è nervoso,
oppure ansioso o che sta insultando qualcuno. Allo stesso modo, se una
persona sta urlando potrebbe trattarsi di una situazione di emergenza o
soltanto, magari, di una reazione di gioia e sorpresa. Determinare il motivo
che si cela dietro un’emozione è un’abilità che può mettere in difficoltà
anche gli esseri umani, e per riuscirci il robot dovrà enumerare le varie
ragioni possibili sottese a un’emozione e cercare di stabilire la più sensata:
in pratica, dovrà trovare la ragione che meglio si adatti ai dati di cui
dispone.
Infine, una volta che il robot avrà determinato l’origine dell’emozione,
dovrà fornire la risposta più appropriata. Anche ciò è difficile: spesso ci
sono diverse risposte credibili, e quella sbagliata potrebbe peggiorare la
situazione. Il robot avrà già, nel suo corredo informatico, un elenco di
possibili risposte all’emozione originale, e dovrà calcolare quale potrebbe
meglio addirsi alla situazione: il che significa simulare il futuro.

I robot mentiranno?

In genere, siamo portati a pensare ai robot come ad apparecchi freddi,


analitici e razionali, oltre che incapaci di mentire. Con una maggiore
integrazione nella società, però, forse dovranno imparare a farlo; almeno,
dovranno imparare a contenere le loro osservazioni, mostrando un certo
tatto.
Nella nostra routine capita più volte al giorno di trovarci di fronte a
situazioni in cui siamo costretti a dire una bugia a fin di bene. Se qualcuno
ci chiede che aspetto ha, spesso non osiamo dire la verità. Le bugie a fin di
bene sono come il lubrificante che fa funzionare la società senza intoppi: se
fossimo all’improvviso costretti a dire sempre la verità (come nel film
Bugiardo bugiardo), finiremmo per creare il caos e ferire gli altri. Se diceste
alla gente davvero che aspetto ha o cosa pensate, è probabile che si
sentirebbe insultata; i superiori vi licenzierebbero, i partner vi
scaricherebbero, gli amici vi abbandonerebbero, gli estranei vi
prenderebbero a schiaffi. Certi pensieri è meglio tenerli per sé.
Allo stesso modo, i robot potrebbero dover imparare a mentire o a
nascondere la verità, così da evitare di offendere la gente, ed essere
smantellati dai loro proprietari. Se un robot dicesse la verità durante una
festa, ciò potrebbe avere dei risvolti negativi e scatenare un putiferio; dovrà
quindi imparare ad essere evasivo, diplomatico e discreto nel caso in cui gli
venga chiesto un parere. Dovrà, cioè, eludere la domanda, rispondere per
luoghi comuni o con un’altra domanda, oppure ancora con una bugia bianca
(tutte cose in cui i chatterbot sono sempre più bravi): ciò significa che il
robot è già stato programmato con una lista di possibili risposte evasive, e
che deve scegliere quella che crea il minor numero di complicazioni.
Uno dei casi in cui un robot dovrebbe dire tutta la verità è la domanda
diretta da parte del suo proprietario – essendo quest’ultimo ben consapevole
della brutale onestà della risposta; altra circostanza è quella di un’indagine
della polizia. In tutte le altre situazioni, pur di mantenere in funzione gli
ingranaggi sociali, i robot dovranno essere liberamente in grado di mentire
o nascondere la verità.
In altre parole, dovranno essere educati, proprio come gli adolescenti.

I robot possono provare dolore?

Ai robot verranno in genere assegnate attività noiose, pesanti e


pericolose: non c’è alcun motivo per cui non possano svolgere lavori
ripetitivi o faticosi all’infinito, basterà non programmarli con la capacità di
provare noia o disgusto. Il vero problema emerge quando i robot si trovano
di fronte a lavori pericolosi; in quel caso, forse, varrebbe la pena di
programmarli perché avvertano dolore.
L’evoluzione ha sviluppato il nostro senso del dolore perché ci aiutasse
a sopravvivere in ambienti pericolosi. Esiste un difetto genetico per cui certi
bambini nascono senza la capacità di percepirlo: si chiama analgesia
congenita. Di primo acchito potrebbe sembrare una benedizione, visto che
questi bambini non piangono quando si procurano ferite o lesioni; in realtà
è peggio di una maledizione, ed essi vanno incontro a problemi seri
giacché, per esempio, rischiano di staccarsi un pezzo di lingua con un
morso, o procurarsi gravi ustioni cutanee, o infliggersi dei tagli che possono
perfino portare all’amputazione delle dita. Il dolore ci avverte del pericolo,
dicendoci quando allontanare la mano da un fornello rovente o quando
smettere di correre su un caviglia infortunata.
A un certo punto i robot dovranno essere programmati per sentire il
dolore, altrimenti non sapranno evitare situazioni poco sicure. Il primo
senso del dolore che dovranno avvertire è la fame (di energia elettrica); a
mano a mano che le batterie si esauriscono, questo senso dovrà farsi più
disperato e pressante nel realizzare che presto i loro circuiti si spegneranno,
compromettendo tutto il lavoro svolto fino a quel momento: quanto più
saranno a corto di energia, tanto più dovranno mostrarsi ansiosi.
Inoltre, indipendentemente da quanto siano forti, i robot potrebbero in
modo accidentale raccogliere un oggetto troppo pesante, rischiando di
danneggiarsi; oppure surriscaldarsi lavorando del metallo fuso in una
fabbrica di acciaio, o penetrando in un edificio in fiamme per aiutare i vigili
del fuoco. Dei sensori per la temperatura e la pressione dovrebbero avvisarli
del fatto che un determinato sforzo eccede le loro specifiche tecniche.
Aggiungere la sensazione del dolore al ventaglio delle loro emozioni,
tuttavia, solleva subito un problema etico: molti ritengono che non
dovremmo infliggere sofferenze inutili agli animali, e qualcuno potrebbe
allargare il discorso anche ai robot, cosa che apre la strada alla questione dei
loro diritti. Potrebbe, infatti, essere necessario approvare delle leggi che
limitino la quantità di dolore e pericolo che un robot può tollerare. La gente
non si porrebbe problemi se un robot eseguisse compiti noiosi o pesanti, ma
potrebbe fare pressioni in favore di leggi protettive qualora venissero
sottoposti a compiti pericolosi o dolorosi; ne potrebbe perfino scaturire un
conflitto giuridico in cui, da un lato, proprietari e produttori di robot
chiedono di aumentare la soglia di dolore consentita, mentre gli attivisti si
battono affinché essa venga abbassata.
La cosa, a sua volta, potrebbe avviare tutta una serie di dibattiti etici su
altri diritti in capo ai robot. Per esempio: possono possedere delle proprietà?
E cosa succede se fanno del male a qualcuno in modo accidentale? Possono
essere citati in giudizio e puniti? Chi risulterà responsabile in una causa
legale? Può un robot possedere un altro robot? Questa discussione solleva
un’altra questione insidiosa: bisognerebbe dotare i robot di un senso etico?

Robot etici

Sulle prime, l’idea di robot etici può sembrare uno spreco di tempo e
fatica. Tuttavia, la questione diventa urgente non appena ci rendiamo conto
che essi possono prendere decisioni di vita o di morte: come abbiamo
accennato, dal momento che saranno dotati di forza, e in grado di salvare
vite umane, verranno probabilmente posti in condizione di dover operare in
una frazione di secondo scelte etiche concernenti, per esempio, chi salvare
prima.
Poniamo il caso di un terremoto catastrofico in cui dei bambini siano
intrappolati in un edificio che sta per crollare. In che modo il robot
dovrebbe ripartire la sua energia? Dovrebbe cercare di salvare il maggior
numero di bambini? O i più piccoli? Oppure, ancora, i più esposti al
pericolo? Se le macerie sono troppo pesanti, il robot potrebbe riportare un
danno ai circuiti elettronici, e dovrà dunque confrontarsi con un’ulteriore
questione etica: come soppesare il numero di bambini che può mettere in
salvo rispetto alla quantità di danni che subirà la sua componente
elettronica?
Senza un’adeguata programmazione, il robot potrebbe semplicemente
fermarsi in attesa che sia un essere umano a prendere la decisione finale,
sprecando così del tempo prezioso; qualcuno dovrà quindi programmarlo in
anticipo perché prenda automaticamente la decisione “giusta”.
Tali decisioni etiche dovranno essere pre-installate nel calcolatore del
robot, perché non esiste legge matematica che possa assegnare un valore al
salvataggio di un gruppo di bambini. Il programma dovrà contenere una
lista esaustiva di priorità, una faccenda davvero noiosa, tanto è vero che a
volte un essere umano ci mette una vita intera a far propri questi precetti
etici; un robot, invece, deve impararli in fretta, prima ancora di lasciare la
fabbrica, perché possa essere inserito nel modo corretto in società.
Tuttavia, i dilemmi etici dividono spesso anche noi esseri senzienti. Il
che solleva un ulteriore interrogativo: chi prenderà le decisioni? Chi
deciderà, cioè, l’ordine in cui i robot salveranno delle vite umane?
La questione di come saranno infine prese queste decisioni verrà risolta,
con ogni probabilità, attraverso una combinazione tra legislazione e
mercato, nel senso che sarà necessario approvare delle leggi che
stabiliscano dei criteri in base a cui, per esempio, dare delle priorità di
salvataggio in caso di emergenza. Esistono, però, migliaia di questioni
etiche ancora più spinose, che possono essere decise dal mercato e dal buon
senso.
Se lavorate per un’agenzia di sicurezza che protegge personalità di
spicco, dovrete dare al robot l’ordine preciso in cui salvare le persone nelle
diverse situazioni (basandovi su considerazioni come l’adempimento del
dovere primario nel rispetto del budget).
Cosa succede se un criminale compra un robot con l’intento di fargli
commettere un crimine? Ovvero: a un robot dovrebbe essere consentito
sottrarsi al volere del suo proprietario se quest’ultimo gli chiede di
infrangere la legge? L’esempio di prima ci ha mostrato come i robot
debbano essere programmati per comprendere le norme ed essere in grado
di prendere decisioni etiche: quindi, se il computer è in grado di valutare
che gli si sta chiedendo di infrangere la legge, dev’essergli consentito di
disobbedire al proprietario.
C’è anche il dilemma etico posto dai robot che riflettono le convinzioni
dei loro proprietari, magari diretti da una morale che diverge dalle norme
sociali: le “guerre culturali” saranno enfatizzate una volta che i robot
rispecchieranno le opinioni e la fede dei loro proprietari, ma in un certo
senso tale conflitto è inevitabile, dato che essi sono estensioni meccaniche
dei sogni e dei desideri dei loro creatori; quando saranno abbastanza
sofisticati da prendere decisioni morali, lo faranno.
Le divisioni sociali potrebbero essere sottolineate quando i robot
cominceranno a mostrare comportamenti che sfidano i nostri valori e
obiettivi: robot di proprietà di giovani che hanno appena assistito a un
concerto rock potrebbero entrare in conflitto con quelli di proprietà di
anziani residenti in un quartiere tranquillo (il primo gruppo di robot
potrebbe essere stato programmato per amplificare i suoni delle band,
mentre il secondo per mantenere al minimo i livelli di rumore); robot
posseduti da fondamentalisti praticanti potrebbero litigare con i robot di
soggetti atei; robot di diverse nazioni e culture potrebbero essere progettati
per rispecchiare i costumi delle rispettive società, talvolta in contrasto fra
loro.
Come si fa, quindi, a programmare dei robot eliminando tali conflitti?
Non si può: essi rispecchieranno le propensioni e i pregiudizi dei propri
creatori. In definitiva, le differenze culturali ed etiche che sorgeranno
dovranno essere risolte nei tribunali, e non essendoci legge della fisica che
possa fissare delle questioni morali, per gestire i nuovi conflitti in seno alla
società si dovrà ricorrere alle norme giuridiche. I robot non possono
risolvere i dilemmi morali creati dagli esseri umani; possono, semmai,
amplificarli.
Se i robot possono prendere decisioni etiche e legali, sono anche in
grado di provare e comprendere sensazioni? Se riescono a salvare qualcuno,
possono sperimentarne la gioia? E possono percepire qualcosa come il
colore rosso? Analizzare con freddezza i principi etici in base a cui salvare
qualcuno per primo è una cosa, percepire e comprendere è un’altra. E
dunque: i robot possono provare sensazioni?
I robot possono “capire” o “percepire”?

Nel corso dei secoli sono state avanzate molte teorie circa la possibilità
che una macchina possa pensare e percepire delle sensazioni. La filosofia a
cui personalmente mi rifaccio è detta costruttivismo; ciò ci induce, al posto
di discutere all’infinito la questione, cosa del tutto inutile, a dedicare le
nostre energie alla creazione di un automa per vedere fino a che punto
possiamo spingerci (altrimenti finiamo per arenarci in dibattiti filosofici
interminabili e destinati a rimanere insoluti). Il vantaggio della scienza è
che, una volta che tutto è stato detto e fatto, si possono condurre degli
esperimenti per risolvere un problema in via definitiva.
Perciò, per dirimere la questione se un robot possa pensare, la soluzione
definitiva potrebbe essere quella di costruirne uno; secondo alcuni, tuttavia,
le macchine non saranno mai in grado di pensare come un essere umano.
L’argomento su cui costoro fanno maggiormente leva è che, per quanto
possa manipolare i fatti più in fretta rispetto a un essere umano, un robot
non “capisce” cosa stia manipolando; per quanto sia in grado di elaborare
elementi sensoriali (per esempio colori o suoni) meglio di un essere umano,
non può davvero “percepire” o “sperimentare” la loro essenza.
Per esempio, il filosofo David Chalmers ha suddiviso i problemi legati
all’IA in due categorie, i Problemi Facili e i Problemi Difficili. Per lui, i
Problemi Facili stanno creando macchine che possono imitare sempre
meglio le capacità umane, come giocare a scacchi, sommare numeri,
riconoscere certi schemi ecc. I Problemi Difficili comportano la creazione
di macchine in grado di comprendere i sentimenti e le sensazioni
soggettive, chiamati qualia.
Così come è impossibile insegnare il significato del colore rosso a una
persona non vedente, un robot non sarà mai in grado di provare la
sensazione soggettiva legata al colore rosso, ci dicono. Un computer
potrebbe anche essere in grado di tradurre parole cinesi in inglese con
grande scioltezza, ma non sarà mai in grado di capire cosa stia traducendo.
In questa ottica, i robot sono come i registratori a cassette o le macchine
addizionatrici, meccanismi in grado di recitare e manipolare le informazioni
con precisione incredibile, ma senza alcuna comprensione di sorta.
Questi argomenti devono essere presi sul serio, ma esiste anche un altro
modo di guardare al problema dei qualia e dell’esperienza soggettiva. In
futuro, molto probabilmente una macchina sarà capace di elaborare un
elemento legato alle sensazioni, come il colore rosso, molto meglio di
qualunque umano: sarà in grado di descrivere le proprietà fisiche del rosso e
perfino di utilizzarle in chiave poetica in una frase, meglio di un umano. Il
robot “percepisce” il colore rosso? La questione diventa irrilevante, perché
la parola percepisce non è ben definita. La descrizione del colore ad opera
di un robot potrebbe superare quella di un essere umano, e a quel punto il
primo potrebbe, a ragione, chiedere: gli esseri umani capiscono davvero il
colore rosso? Forse gli uomini non possono capire davvero il colore rosso
con tutte le sfumature e le sottigliezze che può invece apprezzare un robot.
Come disse una volta il comportamentista BF Skinner: «Il vero
problema non è se le macchine pensino, ma se lo facciano gli uomini».
Allo stesso modo, è solo questione di tempo prima che un robot possa
essere in grado di definire e utilizzare in un dato contesto le parole cinesi
molto meglio di qualunque essere umano; quel giorno diventerà irrilevante
stabilire se il robot “capisca” il cinese, perché in tutte le applicazioni
pratiche, emergerà che vi riesce meglio di qualunque essere umano; in altri
termini, la parola capisce non è ben definita.
Dunque, un giorno, quando i robot supereranno la nostra capacità di
manipolare queste parole e sensazioni, diventerà irrilevante decretare se le
“capiscano” o le “percepiscano” (come diceva il matematico John von
Neumann, «in matematica non si capiscono le cose. Semplicemente, si fa
l’abitudine alle cose»13).
Il problema non riguarda dunque l’hardware, ma la natura del
linguaggio umano, in cui le parole che non sono ben definite significano
cose diverse per ciascuno. Un giorno chiesero al grande fisico Niels Bohr in
che modo si potessero capire i profondi paradossi della teoria quantistica: la
risposta, disse lui, sta nel modo in cui si definisce la parola capire.
Daniel Dennett, docente di filosofia alla Tufts University, ha scritto:
«Non potrebbe esserci un criterio oggettivo per distinguere un robot
intelligente da una persona cosciente. Dovete scegliere: potete attenervi al
Problema Difficile, oppure scuotere la testa stupiti e rigettarlo»14.
In altre parole, non esiste nulla come il Problema Difficile.
Per la filosofia costruttivista, il punto non è discutere se una macchina
possa sperimentare il colore rosso o meno, ma costruirla. In un quadro
simile, c’è un continuum di livelli che descrive le parole capire e percepire
(ciò significa che potrebbe anche essere possibile attribuire dei valori
numerici al grado di comprensione e di percezione): a un estremo abbiamo i
robot impacciati di oggi, che possono manipolare alcuni simboli ma poco
più, e all’estremo opposto esseri umani che si vantano di percepire i qualia.
Con il passare del tempo, però, i robot saranno in grado di descrivere le
sensazioni meglio di noi a qualsiasi livello: a quel punto sarà diventato
ovvio che i robot “capiscono”.
Questa era la filosofia dietro il famoso test di Turing: quest’ultimo
predisse che un giorno sarebbe stata costruita una macchina in grado di
rispondere a qualsiasi domanda, tanto da risultare indistinguibile da un
essere umano. «Un computer meriterebbe di essere chiamato intelligente se
riuscisse a far credere a un umano di essere un umano».
Il fisico e premio Nobel Francis Crick lo disse ancora meglio. Nel
secolo scorso, osservò, tra i biologi si accendevano intensi dibattiti intorno
alla domanda: “Cos’è la vita?”; ora, con la nostra comprensione del DNA,
gli scienziati si rendono conto di come la questione non sia ben definita.
Quella semplice domanda nasconde molte varianti, molteplici livelli e
complessità. La domanda “cos’è la vita?” ha semplicemente perso
consistenza. Lo stesso potrebbe infine valere per i concetti di capire e
percepire.

Robot autocoscienti

Quali passi vanno intrapresi prima che computer come Watson


diventino autocoscienti? Per rispondere dobbiamo far riferimento alla
nostra definizione di autocoscienza: la capacità di inserirsi all’interno di un
modello di ambiente e di eseguirne simulazioni nel futuro, finalizzandole
verso un obiettivo; questo primo passo richiede un alto livello di buon senso
che aiuti ad anticipare una varietà di eventi. Il robot deve quindi essere in
grado di inserirsi all’interno del modello, capacità che necessita di una
comprensione delle varie linee di azione che è possibile intraprendere.
Alla Meiji University gli scienziati hanno mosso i primi passi verso la
realizzazione di un robot dotato di autoconsapevolezza15: si tratta di un
compito arduo, ma i ricercatori sono convinti di poterlo portare a termine
creando dei robot dotati di una teoria della mente. Hanno iniziato
costruendo due robot. Il primo è stato programmato per eseguire
determinati movimenti; il secondo per osservare il primo robot e copiarlo.
Gli scienziati sono, dunque, riusciti a creare un secondo robot che potrebbe
sistematicamente simulare il comportamento del primo solo guardandolo: è
la prima volta nella storia che un robot viene costruito allo scopo specifico
di possedere un senso di autocoscienza. Il secondo robot ha una teoria della
mente.
Il passo successivo, compiuto nel 2012, è stato intrapreso dagli
scienziati di Yale, i quali hanno realizzato un robot in grado di superare la
prova dello specchio. Quando sono posti di fronte a uno specchio, quasi
tutti gli animali pensano che l’immagine riflessa sia quella di un altro
animale (come ricorderemo, solo pochissimi hanno superato il test
rendendosi conto che quella che vedevano riflessa era la propria immagine):
gli scienziati di Yale hanno creato un robot chiamato Nico – simile a uno
scheletro allampanato fatto di cavi intrecciati, con bracci meccanici e due
occhi sporgenti sulla sommità – che, posto di fronte a uno specchio, non
solo riconosce se stesso, ma può anche dedurre la posizione degli oggetti in
una stanza dalle loro immagini riflesse. Si tratta di qualcosa di molto simile
a ciò che facciamo quando guardiamo in uno specchio retrovisore e
deduciamo la posizione degli oggetti alle nostre spalle.
Il programmatore di Nico, Justin Hart, dice: «Per quanto ne sappiamo, è
il primo sistema robotizzato che tenti di usare uno specchio in questo modo,
e rappresenta un passo significativo verso un’architettura coerente che
consenta ai robot di conoscere il proprio corpo e il proprio aspetto
attraverso l’autosservazione, un’importante capacità richiesta per superare il
test dello specchio»16.
Dal momento che i robot della Meiji University e di Yale rappresentano
lo stato dell’arte in fatto di realizzazione di robot autocoscienti, va da sé che
è ancora molta la strada che ci divide dal creare robot che abbiano
un’autocoscienza comparabile a quella degli esseri umani.
Il lavoro degli scienziati è solo a un primo step, perché la nostra
definizione di coscienza esige che il robot utilizzi le informazioni in suo
possesso per creare simulazioni nel futuro: cosa che va ben oltre le capacità
di Nico o di qualsiasi altro robot.
Ciò solleva una questione fondamentale: come può un computer avere
piena autocoscienza? Nella fantascienza spesso ci imbattiamo in una
situazione in cui le macchine diventano improvvisamente consapevoli di sé,
come nel film Terminator. Dato che l’intera infrastruttura su cui poggia la
società moderna è la rete – il sistema fognario, la rete energetica, le
telecomunicazioni, gli armamenti – sarebbe facile per un’internet
autocosciente assumerne il controllo: davanti a uno scenario del genere, che
secondo gli scienziati costituisce un esempio di comportamento emergente
(come un numero sufficientemente elevato di computer ammassati che
passano a un’improvvisa fase di transizione verso uno stadio superiore,
senza alcun input esterno), saremmo del tutto impotenti.
Ad ogni modo un simile postulato dice tutto e niente, perché tralascia
tanti passaggi intermedi ma cruciali: equivale infatti a dire che
un’autostrada può all’improvviso diventare consapevole di sé se ha
abbastanza corsie.
Visto che in questo libro abbiamo dato una definizione di coscienza e
autocoscienza, dovrebbe essere possibile elencare le fasi attraverso cui
internet potrebbe diventare cosciente di sé.
Per prima cosa, un’internet intelligente dovrebbe ricreare di continuo
dei modelli del suo posto nel mondo. In linea di principio,
quest’informazione potrebbe essere inserita dall’esterno tramite apposita
programmazione, cosa che comporterebbe il dover descrivere il mondo
esterno (cioè la Terra, le sue città e i suoi computer), all’interno di internet.
In secondo luogo, quest’internet intelligente dovrebbe essere in grado di
collocarsi nell’ambito del modello; anche questo tipo di informazioni sono
ricavabili con facilità, perché si tratterebbe di fornire tutte le specifiche di
internet (il numero di computer, nodi, linee di trasmissione ecc.) e di
metterle in relazione con il mondo esterno.
Ma la terza fase è di gran lunga più complessa: comporterebbe, infatti,
la continua proiezione di questo modello nel futuro, in coerenza con un
determinato obiettivo. Ed è qui che andiamo a sbattere contro un muro,
perché internet non è in grado di eseguire simulazioni nel futuro, e non ha
obiettivi. Anche nel mondo scientifico le simulazioni nel futuro riguardano
in genere pochi parametri (per esempio, la collisione di due buchi neri),
mentre eseguire una simulazione del modello di mondo contenente internet
va ben oltre la capacità di programmazione oggi disponibile; una
simulazione simile dovrebbe includere tutte le leggi del buon senso, tutte le
leggi della fisica, della chimica e della biologia, nonché i fatti sul
comportamento e sulla società umani.
Inoltre, quest’internet intelligente dovrebbe avere un obiettivo, mentre
oggi è solo una strada passiva, senza alcuna direzione o scopo propri.
Naturalmente, in linea di principio è possibile imporre un obiettivo a
internet. Ma consideriamo il seguente problema: si può creare una forma di
internet il cui obiettivo sia l’autoconservazione?
Sarebbe il più semplice degli obiettivi possibili, ma nessuno sa come
programmare nemmeno questo singolo compito. Un programma del genere
potrebbe, per esempio, impedire qualsiasi tentativo di spegnere internet
staccando la spina; ma allo stato attuale delle cose internet è del tutto
incapace di riconoscere delle minacce alla sua esistenza, figuriamoci di
escogitare un modo per prevenirle. Un’internet in grado di rilevare minacce
alla sua esistenza dovrebbe essere in grado, per esempio, di identificare i
tentativi di interromperne l’alimentazione, tagliare le sue linee di
comunicazione, distruggerne i server, disattivare le sue connessioni in fibra
ottica e satellitari ecc.; dovrebbe, inoltre, disporre di contromisure per ogni
scenario, e quindi proiettare tali tentativi nel futuro. Nessun computer al
mondo è in grado di eseguire anche solo una minima quantità di queste
operazioni.
In altre parole, un giorno sarà forse possibile creare robot autocoscienti,
e perfino un’internet autocosciente; quel giorno, però, è lontano nel futuro,
e forse molto vicino alla fine del secolo.
Ma immaginiamo per un momento che quel giorno sia già arrivato, e
che i robot autocoscienti siano in mezzo a noi. Se un robot autocosciente ha
obiettivi compatibili con i nostri, allora questo tipo di intelligenza artificiale
non costituirà un problema. Ma che succede se gli obiettivi divergono? Il
timore è che gli esseri umani possano essere sopravanzati in intelligenza da
robot autocoscienti, e quindi ridotti in schiavitù. In virtù della loro superiore
capacità di simulare il futuro, i robot potrebbero tracciare gli esiti di scenari
innumerevoli al fine di trovare la strategia migliore per rovesciare la
supremazia degli umani.
Un modo per tenere sotto controllo una simile possibilità è quello di
assicurarsi che gli obiettivi di questi robot siano benevoli: come abbiamo
visto, simulare il futuro non è sufficiente, perché tali simulazioni devono
essere orientate verso un obiettivo finale. Se il solo scopo di un robot è
preservare se stesso, esso potrebbe reagire difendendosi contro qualsiasi
tentativo di staccare la spina: cosa che potrebbe rivelarsi un guaio per
l’umanità.

I robot prendereanno il sopravvento?

In quasi tutti i racconti di fantascienza i robot diventano pericolosi per


colpa del loro desiderio di prendere il sopravvento sull’uomo. La parola
robot, in effetti, deriva dal termine ceco che indica lavoro, e appare per la
prima volta nel dramma teatrale RUR (I robot universali di Rossum),
pubblicato nel 1920 da Karel Čapek: nell’opera gli scienziati danno vita a
una nuova razza di esseri meccanici identici agli esseri umani. In breve
tempo, migliaia di questi robot vengono adibiti a lavori umili e pericolosi.
Tuttavia, dal momento che le persone li maltrattano, un giorno si ribellano e
finiscono per annientare la razza umana. Pur avendo assunto il controllo
della Terra, però, i robot hanno un difetto: non possono riprodursi. Alla fine
del dramma, tuttavia, due di loro si innamorano: forse, dunque, una nuova
forma di “umanità” è destinata ancora una volta a riemergere.
Il film Terminator suggerisce uno scenario più realistico, in cui le forze
armate hanno creato una rete di supercomputer, Skynet, che controlla
l’intero arsenale nucleare statunitense. Un giorno la rete “si sveglia” e
diviene una forma di vita senziente, i militari cercano di fermarla ma si
rendono conto che nella sua programmazione c’è un baco: essa è stata
progettata per proteggere se stessa, e l’unico modo per perseguire detto
scopo è eliminare la razza umana. La rete scatena quindi una guerra
nucleare che riduce l’umanità a un ammasso informe di disadattati e ribelli
che combattono contro la sua mostruosa e malefica potenza meccanica.
Certo, è possibile che i robot possano diventare una minaccia. Oggi il
drone Predator può puntare le sue vittime con una precisione micidiale, ma
è controllato da qualcuno con un joystick a chilometri di distanza (secondo
il “New York Times”, l’ordine di aprire il fuoco proviene direttamente dal
presidente degli Stati Uniti); in futuro, però, un Predator potrebbe disporre
della tecnologia di riconoscimento facciale e avere il permesso di sparare se
è sicuro al 99 per cento dell’identità del bersaglio. Potrebbe utilizzare
questa tecnologia in modo automatico per sparare a chiunque si adatti al
profilo, senza più bisogno dell’intervento umano.
Supponiamo adesso che un siffatto drone subisca un danno tale da
compromettere il funzionamento del software di riconoscimento facciale:
esso diventerebbe, così, una specie di robot canaglia con il permesso di
uccidere chiunque gli capiti sotto tiro. Peggio ancora, immaginate una flotta
di simili robot controllati da un comando centrale: se nel computer centrale
dovesse saltare anche un solo transistor, causando un malfunzionamento,
allora l’intera flotta potrebbe finire preda di una frenesia omicida.
Un dilemma più sottile si pone quando, pur funzionando alla perfezione,
i robot hanno un piccolo (ma fatale) baco di programmazione. Per un robot
l’autoconservazione è un obiettivo importante, e ciò torna utile anche agli
esseri umani; ma il vero problema sorge quando gli obiettivi si
contraddicono.
Nel film Io, Robot, il sistema informatico decide che gli esseri umani
sono autodistruttivi, con le loro guerre e le loro atrocità senza fine, e che
l’unico modo per proteggere la razza umana sia quello di prendere il
sopravvento e instaurare una dittatura benevola della macchina sull’uomo.
La contraddizione, qui, non è tra due obiettivi, ma interna a un unico
obiettivo non realistico: questi robot assassini non hanno subito guasti,
bensì concluso in maniera logica e razionale che l’unico modo per
preservare l’umanità sia quello di assumere il controllo della società.
Una soluzione al problema è creare una gerarchia di obiettivi in cui, per
esempio, il desiderio di aiutare gli esseri umani venga prima
dell’autoconservazione. Questo tema è stato esplorato nel film 2001:
Odissea nello spazio. HAL 9000 è un computer senziente capace di
conversare senza problemi con gli esseri umani. Ma gli vengono impartiti
ordini contraddittori, che non possono essere eseguiti senza intaccare il
profilo logico e, nel tentativo di eseguire un compito impossibile, HAL
9000 finisce per “impazzire”: l’unica soluzione per obbedire a comandi
contraddittori ricevuti da umani imperfetti diventa quello di eliminare gli
umani stessi.
La soluzione migliore potrebbe essere quella di ideare una nuova legge
della robotica in base a cui i robot non possano nuocere alla razza umana,
nemmeno in caso di direttive contraddittorie. I robot devono essere
programmati in modo tale che ignorino le contraddizioni di livello inferiore
presenti nelle istruzioni che vengono impartite loro, salvaguardando sempre
la legge suprema. Ma questo potrebbe essere ancora un sistema imperfetto,
nella migliore delle ipotesi; per esempio, se l’obiettivo fondamentale dei
robot è quello di proteggere l’umanità a scapito di qualsiasi altro obiettivo,
tutto dipenderà da come definiscono la parola proteggere: una definizione
meccanica potrebbe differire dalla nostra.
Piuttosto che apparire allarmati, studiosi come Douglas Hofstadter,
scienziato cognitivo presso l’università dell’Indiana, non temono tale
possibilità: nel corso di un’intervista mi ha detto che i robot sono nostre
creature, dunque perché non dovremmo amarli come amiamo i nostri figli?
Del resto – questo è stato il suo ragionamento – non amiamo forse i nostri
figli pur sapendo che in qualche modo ci soppianteranno?
Hans Moravec, ex direttore del laboratorio di intelligenza artificiale
della Carnegie Mellon University, si è detto d’accordo con Hofstadter17.
Nel suo libro Robot, scrive: «Slegati dal ritmo laborioso dell’evoluzione
biologica, i figli della nostra mente saranno liberi di crescere per affrontare
le sfide immense e fondamentali che li attendono in un universo allargato
[…]. Per un certo tempo, noi umani trarremo beneficio dalle loro fatiche,
ma […] come figli naturali, cercheranno la propria strada, mentre noi, i loro
anziani genitori, svaniremo in silenzio»18.
Altri, al contrario, la ritengono una prospettiva orrenda. Forse il
problema può essere risolto rivedendo i nostri obiettivi e le nostre priorità
adesso, prima che sia troppo tardi: visto che questi robot sono figli nostri,
dovremmo “insegnare” loro ad essere benevoli.

IA amica

I robot sono creature meccaniche realizzate in laboratorio: quindi,


ritrovarci circondati da robot killer o da robot amici dipenderà dalla
direzione intrapresa dalla ricerca sull’IA. Gran parte dei finanziamenti
proviene dal settore militare, il cui mandato specifico è quello di vincere le
guerre, ragion per cui i robot killer sono una possibilità concreta.
Tuttavia, dal momento che il 30 per cento dei robot commerciali viene
fabbricato in Giappone, esiste anche un’altra possibilità: che in futuro i
robot vengano progettati per diventare utili compagni di gioco e di lavoro.
Obiettivo, quest’ultimo, che diventa praticabile nel momento in cui la
ricerca robotica è dominata dal settore dei consumi: la filosofia dell’“IA
amica” vuole che gli inventori creino robot che, fin dai primi passi, siano
programmati per recare giovamento agli esseri umani.
Dal punto di vista culturale l’approccio giapponese ai robot differisce da
quello occidentale. Mentre i nostri figli potrebbero rimanere terrorizzati nel
vedere all’opera dei robot in stile Terminator, i bambini giapponesi,
immersi nella religione shintoista (secondo cui gli spiriti vivono in tutte le
cose, robot meccanici compresi) anziché sentirsi a disagio squittiscono di
gioia. Non c’è da meravigliarsi, quindi, che in Giappone questi robot stiano
proliferando sul mercato e nelle abitazioni. Vi salutano ai grandi magazzini
e vi danno consigli in tv; esiste anche un’opera teatrale con un robot come
protagonista. Il Giappone ha anche un altro motivo per sposare i robot: essi
sono i futuri infermieri di un paese sempre più vecchio, dato che il 21 per
cento della popolazione ha più di sessantacinque anni (il Giappone
invecchia più in fretta di qualsiasi altra nazione). In un certo senso, lì si sta
verificando una catastrofe al ralenti. In Giappone ci sono tre fattori
demografici in gioco: in primo luogo, le sue donne hanno la più lunga
aspettativa di vita di qualsiasi gruppo etnico al mondo; in secondo luogo, ha
uno dei tassi di natalità più bassi del pianeta; infine, ha adottato una politica
di immigrazione rigorosa, con una popolazione composta per oltre il 99 per
cento di giapponesi puri. Senza giovani immigrati a prendersi cura degli
anziani, il Giappone potrebbe vedersi costretto a dover contare su infermieri
robot.
Il problema riguarda anche altre nazioni, e quelle europee vengono
subito dopo: Italia, Germania, Svizzera devono affrontare una pressione
demografica simile. E mentre le popolazioni di Giappone ed Europa
potrebbero andare incontro a gravi contrazioni entro la metà del secolo, gli
Stati Uniti non sono messi molto meglio: anche il tasso di natalità dei nativi
statunitensi è infatti diminuito in modo drastico negli ultimi decenni (ma nel
corso di tutto il secolo l’immigrazione manterrà la popolazione USA in
espansione). In altre parole, potrebbe essere un azzardo da mille miliardi di
dollari cercare di scoprire se i robot possano o meno salvarci dall’incubo
demografico.
I giapponesi sono leader mondiali nella realizzazione di robot destinati a
entrare a far parte delle nostre vite; hanno costruito robot in grado di
cucinare, e uno di essi è capace di preparare una scodella di noodle in cento
secondi. Quando andate al ristorante effettuate l’ordine su un tablet, e il
cuoco robot si mette subito in azione: è composto da due grandi braccia
meccaniche, che afferrano ciotole, cucchiai e coltelli e vi preparano da
mangiare. Alcuni cuochi robotici sembrano quasi umani.
Ci sono anche robot musicali votati all’intrattenimento: uno di essi è
munito di curiosi “polmoni” a fisarmonica con cui può generare musica
pompando aria attraverso uno strumento. Esistono anche robot che vi fanno
da donna delle pulizie, e che se preparate il bucato, possono piegarvelo. C’è
perfino un robot in grado di parlare: dispone infatti di polmoni, labbra,
lingua e cavità nasale artificiali. La Sony Corporation ha costruito il robot
AIBO, che assomiglia a un cane: se lo accarezzate, può esprimere un certo
numero di emozioni. Alcuni futurologi prevedono che un giorno l’industria
robotica potrebbe raggiungere i volumi su cui viaggia oggi quella
automobilistica.
Il punto, qui, è che i robot non sono necessariamente programmati per
distruggere e dominare: il futuro dell’IA amica dipende da noi.
Tuttavia, i suoi detrattori sostengono che i robot potrebbero prendere il
sopravvento sugli esseri umani non perché essi siano aggressivi, ma a causa
della superficialità con cui li realizziamo; in altre parole, perché li abbiamo
programmati per rispondere a obiettivi conflittuali.

“Io sono una macchina”

Intervistando Rodney Brooks, l’ex direttore dell’Artificial Intelligence


Laboratory del MIT e cofondatore di iRobot che abbiamo già incontrato in
questo capitolo, gli ho chiesto se pensava che un giorno le macchine
potessero prendere il sopravvento19: lui ha risposto che dovremmo
semplicemente accettare il fatto che anche noi siamo macchine. Questo
significa che un giorno saremo in grado di costruirne di vive come noi.
Tuttavia, ha ammonito, dovremo rinunciare al concetto della “nostra
unicità”.
Questa evoluzione nella prospettiva umana è iniziata nel momento in
cui Copernico si è reso conto che la Terra non è il centro dell.universo, ma
gira intorno al sole; è proseguita, quindi, con Darwin, che dimostrò come
fossimo simili agli animali; e continuerà nel futuro, secondo Brooks,
quando capiremo che siamo macchine, per quanto composte di wetware, e
non di hardware.
Brooks è convinto che il fatto di accettare che anche noi siamo
macchine rappresenterà un cambiamento importante nella nostra visione del
mondo. Scrive infatti: «Non ci piace rinunciare alla nostra unicità, perciò
faremo fatica ad accettare l’idea che i robot possano davvero avere
emozioni o essere creature viventi. Ma credo che finiremo per farlo entro i
prossimi cinquant’anni»20.
Quanto alla questione se i robot prenderanno infine il sopravvento sugli
umani, Brooks si dice convinto che ciò non accadrà, per una serie di motivi.
In primo luogo, nessuno costruirà per errore un robot che voglia governare
il mondo: sarebbe come realizzare un Boeing 747 per errore. Inoltre, ci sarà
tutto il tempo per evitare che questo succeda, perché prima che qualcuno
costruisca un “robot supercattivo”, qualcun altro dovrà costruire un “robot
moderatamente cattivo”, preceduto a sua volta da un “robot non poi così
cattivo”… e via dicendo.
Ecco come lui stesso riassume la sua filosofia: «I robot stanno
arrivando, ma non dobbiamo preoccuparcene troppo. Ci sarà da divertirsi».
Per lui la rivoluzione robotica è una certezza, e già prevede il giorno in cui i
robot supereranno in intelligenza noi umani. Non è questione di se, ma di
quando; e non c’è nulla di cui aver paura, dal momento che ne saremo gli
artefici. Dovremo solo fare in modo di crearli perché ci aiutino, e non
perché ci ostacolino.

Fusione uomo-macchina?

Se chiedete a Brooks come potremo convivere con questi robot


superintelligenti, la sua risposta è semplice: fondendoci con loro. Grazie ai
progressi della robotica e della neuroprotesica sarà possibile inglobare l’IA
nei nostri stessi corpi.
Brooks osserva come il processo, in un certo senso, sia già iniziato: oggi
sono circa ventimila le persone che portano un impianto cocleare, grazie a
cui beneficiano del dono dell’udito. I suoni vengono captati da un
minuscolo ricevitore, che converte le onde sonore in segnali elettrici che
vengono poi inviati direttamente ai nervi uditivi dell’orecchio.
In modo analogo, alla University of Southern California e in altri istituti
è già possibile impiantare una retina artificiale a un paziente non vedente21.
Un metodo prevede l’istallazione su un paio di occhiali di una minicamera
in grado di convertire le immagini in segnali digitali: questi vengono quindi
inviati via wireless a un chip collocato nella retina del paziente, il chip
attiva i nervi della retina, che poi trasmettono il messaggio al lobo
occipitale del cervello attraverso il nervo ottico. Così, un soggetto non
vedente può percepire un’immagine approssimativa di oggetti che gli sono
familiari. Un altro progetto prevede di impiantare un chip fotosensibile sulla
retina stessa, che quindi invia segnali direttamente al nervo ottico; in questo
caso non serve nemmeno la telecamera esterna.
Ciò significa anche che possiamo spingerci più in là, e migliorare sensi
e capacità normali: sempre grazie agli impianti cocleari, diverrà possibile
udire alte frequenze finora a noi precluse. Con gli occhiali infrarossi siamo
già in grado di cogliere al buio il tipo di luminosità emanata dagli oggetti in
base alla loro temperatura (luce di norma invisibile all’occhio umano), e
tramite le retine artificiali potremo potenziare la nostra capacità di cogliere
la luce ultravioletta o infrarossa (le api, per esempio, possono vedere la luce
ultravioletta perché devono seguire il sole per orientarsi tra i fiori).
Alcuni scienziati sognano il giorno in cui potremo disporre di
esoscheletri dotati di “superpoteri” simili a quelli dei fumetti: forza
smisurata, sensi acuiti e capacità fuori dal comune. Diventeremmo cyborg
come Iron Man, esseri umani normali con abilità e poteri sovrumani: ciò
significa che potremmo non doverci preoccupare della possibilità che robot
superintelligenti prendano il sopravvento su di noi perché, semplicemente,
ci fonderemmo con loro.
Certo, si tratta di uno scenario lontano nel tempo, ma alcuni scienziati,
demoralizzati dal fatto che i robot non stiano lasciando le fabbriche per
entrare nelle nostre vite, fanno presente che Madre Natura ha già creato la
mente umana: quindi, perché non copiarla? La loro idea è quella di
smontare il cervello, neurone per neurone, per poi rimontarlo.
Ma il reverse engineering è più che un vasto progetto teso a creare un
cervello vivente: se il cervello può essere duplicato fino all’ultimo neurone,
forse possiamo caricare la nostra coscienza su un computer. Potremmo
anche dimenticarci dei nostri corpi mortali. Questo va ben al di là del
controllo della mente sulla materia: questa è la mente senza materia.

1
Daniel Crevier, AI: The Tumultuous History of the Search for Artificial Intelligence, Basic
Books, New York 1993, p. 109.
2
Ibidem.
3
Michio Kaku, Fisica del futuro. Come la scienza cambierà il destino dell’umanità e la nostra
vita quotidiana entro il 2100, Codice edizioni, Torino 2012, p. 62 (ed. orig. Physics of the Future.
How Science Will Shape Human Destiny and Our Daily Lives by the Year 2100, 2011).
4
Brockman, The Mind, cit., p. 2.
5
Intervista dell’aprile 2007 ai creatori di ASIMO durante una visita al laboratorio Honda a
Nagoya, in Giappone, per la serie tv della BBC Visions of the Future.
6
Intervista dell’aprile 2002 a Rodney Brooks per il programma radiofonico Exploration.
7
Visita al Media Laboratory del MIT effettuata il 13 aprile 2010 per Sci Fi Science di
Discovery/Science Channel TV.
8
Frank Moss, The Sorcerers and Their Apprentices: How the Digital Magicians of the MIT Media
Lab Are Creating the Innovative Technologies That Will Transform Our Lives, Crown Business,
New York 2011, p. 168.
9
Gazzaniga, Human, cit., p. 440.
10
“The Guardian”, 9 agosto 2010, http://tinyurl.com/oe3r8wm.
11
http://tinyurl.com/n97aqnx.
12
Damasio, Il sé viene alla mente, cit., pp. 142-168.
13
Ray Kurzweil, Come creare una mente: i segreti del pensiero umano, Apogeo, Milano 2013, p.
149 (ed. orig. How to Create a Mind: The Secret of Human Thought Revealed, 2012).
14
Pinker, The Riddle of Knowing You’re Here, cit., p. 19.
15
Gazzaniga, Human, cit., p. 440.
16
Kurzweil.net, 24 agosto 2012, http://tinyurl.com/k5fwfgr. Si veda anche “Yale Daily News”, 25
settembre 2012, http://tinyurl.com/n2eo4xv.
17
Intervista del novembre 1998 ad Hans Moravec per il programma radiofonico Exploration.
18
Sweeney, Brain, cit., p. 316.
19
Intervista dell’aprile 2002 a Rodney Brooks per il programma radiofonico Exploration.
20
TED Talks, http://tinyurl.com/lpm7jdn.
21
http://phys.org/news205059692.html.
Capitolo 11
Il reverse engineering del cervello

Amo il mio corpo come chiunque altro, ma se con un corpo di silicio posso arrivare a duecento
anni, faccio a cambio.
Daniel Hill, cofondatore della Thinking Machines Corporation

Risalgono al gennaio del 2013 due notizie bomba che potrebbero


cambiare per sempre il panorama della medicina e della scienza. Il reverse
engineering del cervello, una volta considerato troppo complesso,
all’improvviso è diventato un punto focale della rivalità in campo
scientifico tra le maggiori potenze economiche del mondo.
In primo luogo, nel suo discorso annuale al Congresso, il presidente
Obama ha stupito la comunità scientifica annunciando che i fondi federali
per la ricerca, per una somma pari forse a tre miliardi di dollari, potrebbero
essere assegnati al progetto BRAIN (Brain Researcg through Advancing
Innovative Neurotechnologies); come il Progetto Genoma Umano (HGP,
Human Genome Project) che ha dischiuso gli argini della ricerca genetica,
il BRAIN disvelerà i segreti del cervello a livello neurale attraverso la
mappatura dei suoi percorsi elettrici. Una volta mappato il cervello, una
serie di malattie incurabili come l’Alzheimer, il Parkinson, la schizofrenia,
la demenza e il disturbo bipolare potrebbero essere comprese e, forse,
curate. Per far ripartire il BRAIN, nel 2014 potrebbero essere stanziati cento
milioni di dollari.
Quasi nello stesso momento, la Commissione Europea ha annunciato
che al Progetto Cervello Umano sarebbe stata assegnata una somma
superiore al miliardo di euro allo scopo di creare una copia del cervello
umano fatta di acciaio e transistor, sfruttando la potenza dei più grandi
supercomputer del pianeta1.
I fautori di entrambi i progetti hanno sottolineato gli enormi benefici di
questi tentativi. Il presidente Obama si è affrettato a sottolineare che il
BRAIN non allevierà soltanto le sofferenze di milioni di persone, ma
genererà anche nuovi flussi di entrate: difatti, ha affermato, per ogni dollaro
speso sul Progetto Genoma Umano ne sono stati generati più di
centocinquanta di attività economica. Grazie al completamento del Progetto
Genoma Umano sono fiorite intere nuove industrie; dunque, anche il
BRAIN si rivelerà una scelta vantaggiosa per il contribuente.
Sebbene il discorso del presidente Obama non abbia fornito dettagli, gli
scienziati hanno velocemente colmato molte delle lacune. I neurologi fanno
da un lato notare come sia ora possibile utilizzare strumenti delicati per
monitorare l’attività elettrica di singoli neuroni – d’altra parte, usando
macchine RM è possibile monitorare il comportamento globale dell’intero
cervello. Dall’altro, hanno sottolineato che ciò che manca è la zona di
mezzo, quella in cui ha luogo la maggior parte dell’attività cerebrale di un
certo interesse: è in questa zona mediana, che coinvolge i percorsi di
migliaia (se non milioni) di neuroni, che permangono carenze consistenti
nella nostra comprensione del comportamento e dei disturbi della mente.
Per affrontare l’enorme problema, gli scienziati hanno elaborato un
programma provvisiorio che interessa i prossimi quindici anni: nel corso dei
primi cinque, i neurologi sperano di monitorare l’attività elettrica di decine
di migliaia di neuroni. Gli obiettivi a breve termine potrebbero includere la
ricostruzione dell’attività elettrica di parti importanti del cervello di
animali, come il bulbo encefalico del moscerino della frutta o le cellule
gangliari nella retina di topo (che conta 50.000 neuroni).
Nel giro di dieci anni, quel numero dovrebbe raggiungere l’ordine delle
centinaia di migliaia di neuroni; ciò potrebbe includere l’imaging dell’intero
cervello della drosofila (135.000 neuroni) o perfino della corteccia del
toporagno etrusco, il più piccolo mammifero conosciuto, con un milione di
neuroni.
Infine, entro quindici anni dovrebbe essere possibile monitorare milioni
di neuroni, come nel caso del cervello del pesce zebra o dell’intera
neocorteccia del topo: ciò potrebbe aprire la strada all’imaging del cervello
dei primati.
Nel frattempo, in Europa, il Progetto Cervello Umano dovrebbe
affrontare il problema da un altro punto di vista: entro dieci anni userà dei
supercomputer per simulare il funzionamento di base del cervello di diversi
animali, dai topi agli esseri umani. Invece di occuparsi dei singoli neuroni,
sfrutterà i transistor per imitarne il comportamento, cosicché ci saranno
moduli informatici in grado di funzionare come la neocorteccia, il talamo e
altre parti del cervello.
Alla fine, la rivalità tra questi due enormi progetti potrebbe rivelarsi una
manna inattesa, e aprire la strada a nuove scoperte per il trattamento di
malattie incurabili, e alla nascita di nuove industrie. Ma c’è anche un altro
obiettivo non dichiarato: riuscire a simulare un cervello umano
significherebbe farlo diventare immortale? Che la coscienza può esistere al
di fuori del corpo? Questi ambiziosi progetti sollevano alcune delle
questioni teologiche e metafisiche più spinose con cui l’uomo si sia mai
confrontato.

Costruire un cervello

Come a molti altri bambini, anche a me piaceva smontare gli orologi


vite per vite, per poi cercare di riassemblare il tutto: prendevo mentalmente
nota di ciascun pezzo, studiando il modo in cui ogni ingranaggio si
collegava al successivo, finché l’insieme non si incastrava alla perfezione.
Tutto stava nel capire che la molla faceva ruotare l’ingranaggio principale,
che poi alimentava una serie di ingranaggi più piccoli, che alla fine
facevano girare le lancette dell’orologio.
Oggi, su scala molto più ampia, gli informatici e i neurologi stanno
cercando di scomporre un oggetto infinitamente più complesso, il più
sofisticato dell’intero universo conosciuto: il cervello umano. Per di più,
vogliono rimontarlo, neurone per neurone.
Grazie ai rapidi progressi nel campo dell’automazione, della robotica,
delle nanotecnologie e delle neuroscienze, il reverse engineering del
cervello umano non è più materia per chiacchiere oziose nei dopocena dei
salotti buoni: negli Stati Uniti come in Europa, ingenti risorse verranno
investite in progetti una volta considerati assurdi. Oggi alcuni scienziati
visionari stanno dedicando la propria vita professionale a un progetto che
rischiano di non vedere ultimato; un domani le loro fila potrebbero infittirsi
fino a comporre un esercito intero, finanziato con generosità da Stati Uniti e
Unione Europea.
In caso di successo questi scienziati potrebbero mutare il corso della
storia umana: potrebbero non solo trovare nuove cure e terapie per i disturbi
mentali, ma anche svelare il segreto della coscienza e caricarlo su un
computer.
Si tratta di un compito arduo. Il cervello umano è composto da oltre un
centinaio di miliardi di neuroni, circa lo stesso numero di stelle presenti
nella Via Lattea. Ciascun neurone, a sua volta, è forse collegato a diecimila
altri neuroni, per un totale di dieci milioni di miliardi di possibili
connessioni (senza calcolare il numero di percorsi in mezzo a questo
groviglio). Il numero di “pensieri” che un cervello umano può concepire è
dunque davvero astronomico, e al di là di ogni comprensione.
Eppure ciò non ha fatto desistere uno sparuto manipolo di scienziati
ferocemente appassionati dal tentativo di ricostruire il cervello da zero. «Un
viaggio di mille miglia inizia con il primo passo», recita un vecchio
proverbio cinese, e tale primo passo è stato in effetti compiuto quando gli
scienziati hanno decodificato, neurone per neurone, il sistema nervoso di un
verme nematode: la minuscola creatura, chiamata Caenorhabditis elegans,
possiede 302 neuroni e 7000 sinapsi, tutti catalogati con precisione, e su
internet è possibile reperire una mappa completa del suo sistema nervoso
(ancora oggi è l’unico organismo vivente la cui struttura neurale sia stata
decodificata così nel dettaglio).
In un primo momento si pensava che il reverse engineering completo di
questo organismo elementare avrebbe dischiuso la porta del cervello
umano; per ironia della sorte, è accaduto il contrario. Per quanto il numero
dei neuroni del verme sia limitato, la rete è così complessa e sofisticata che
ci sono voluti anni per comprendere fatti anche molto semplici, come per
esempio quali percorsi siano responsabili di quali comportamenti. Se anche
l’umile verme nematode ha potuto eludere tanto a lungo le nostre
tecnologie, gli scienziati non possono che apprezzare la complessità del
cervello umano.

Tre approcci al cervello

Dal momento che il cervello è così complesso esistono almeno tre modi
distinti per disassemblarlo, neurone per neurone. Il primo è quello di
realizzare una sua simulazione elettronica con dei supercomputer, ovvero
l’approccio adottato dagli europei. Il secondo è quello di tracciare una
mappa dei percorsi neuronali di cervelli reali, come previsto dal BRAIN
(compito che, a sua volta, può essere ulteriormente suddiviso a seconda di
come i neuroni vengono analizzati: anatomicamente, neurone per neurone,
o per funzione e attività). Terzo – l’approccio pionieristico di Paul Allen, il
miliardario a capo di Microsoft – si possono decifrare i geni che controllano
lo sviluppo del cervello.
Il primo approccio, attraverso la sua simulazione tramite transistor e
computer, sta compiendo passi in avanti nel ricostruire il cervello di una
certa sequenza di animali: prima topo, poi ratto, quindi coniglio e infine
gatto. Gli europei stanno seguendo il sentiero accidentato dell’evoluzione,
partendo dai cervelli più elementari per poi risalire la scala. Dal punto di
vista informatico, la soluzione risiede una maggiore potenza
computazionale grezza: più ce n’è, meglio è, e ciò significa utilizzare alcuni
dei più grossi computer al mondo per decifrare i cervelli di topi e uomini.
Il primo obiettivo è il cervello del topo, che, essendo mille volte più
piccolo di un cervello umano, contiene circa cento milioni di neuroni:
analizzare il processo di pensiero ad esso sotteso è oggi compito del
computer Blue Gene di IBM, che, insieme ad alcuni dei più grossi computer
del mondo – un tempo utilizzati per progettare testate a idrogeno per il
Pentagono – si trova al Lawrence Livermore National Laboratory, in
California. Questa colossale collezione di transistor, circuiti integrati e fili
contiene 147.456 processori, per un totale sbalorditivo di 150.000 gigabyte
di memoria (si pensi che un normale computer può avere un processore e un
paio di gigabyte di memoria).
Il progresso è lento ma costante: anziché ricreare un modello dell’intero
cervello, gli scienziati cercano di duplicare soltanto le connessioni tra la
corteccia e il talamo, dove si concentra gran parte dell’attività cerebrale (ciò
significa che in questa simulazione le connessioni sensoriali con il mondo
esterno non sono prese in considerazione).
Nel 2006 Dharmendra Modha, di IBM, ha effettuato una simulazione
parziale del cervello di topo con 512 processori; nel 2007 il suo gruppo ha
simulato il cervello di ratto con 2048 processori; il cervello del gatto, con
più di un miliardo e mezzo di neuroni e nove trilioni di connessioni, è stato
simulato nel 2009, con 24.576 processori.
Oggi, sfruttando la potenza del computer Blue Gene, gli scienziati di
IBM hanno simulato il 4,5 per cento dei neuroni e delle sinapsi del cervello
umano: per iniziare una sua simulazione parziale servirebbero 880.000
processori, traguardo che sarà possibile raggiungere intorno al 2020.
Ho avuto la possibilità di filmare il Blue Gene. Per raggiungerlo ho
dovuto superare diversi controlli di sicurezza, dal momento che si trova nel
più importante laboratorio militare di tutti gli Stati Uniti; una volta
oltrepassati i vari checkpoint si accede nell’enorme sala climatizzata che lo
ospita.
Il computer è davvero un magnifico esemplare di hardware: si compone
di griglie e di grossi armadietti neri pieni di interruttori e luci lampeggianti,
ciascuno dei quali alto circa due metri e mezzo e lungo quasi cinque.
Mentre vi camminavo nel mezzo, mi chiedevo quale tipo di operazioni
stesse eseguendo il Blue Gene; è molto probabile che stesse ricreando
l’interno di un protone, calcolando il decadimento degli inneschi di
plutonio, simulando la collisione di due buchi neri e il pensiero di un topo,
tutto nello stesso momento.
Poi mi è stato detto che anche questo supercomputer sta cedendo il
passo alla generazione successiva, il Blue Gene/Q Sequoia, che condurrà a
un nuovo livello di elaborazione. Al massimo delle sue prestazioni,
quest’ultima versione – che nel giugno del 2012 ha stabilito il record
mondiale di velocità tra i supercomputer – può eseguire operazioni a 20,1
petaFLOPS (ovvero, 20,1 trilioni di operazioni in virgola mobile al
secondo). Si estende su una superficie di quasi 280 metri quadrati e divora
energia elettrica al tasso di 7,9 megawatt, l’equivalente necessario a
illuminare una piccola città.
Questa enorme potenza di fuoco computazionale concentrata in un
computer è in grado di rivaleggiare con il cervello umano?
Purtroppo, no.
Simili simulazioni cercano solo di duplicare le interazioni tra la
corteccia e il talamo; mancano dunque parti consistenti del cervello. Modha
è perfettamente consapevole della complessità del suo progetto, ma la sua
ambiziosa ricerca gli ha consentito di valutare cosa occorra per creare un
modello funzionante dell’intero cervello umano – e non solo di una sua
porzione, o di una sua assai più pallida versione – completo di tutte le parti
che costituiscono la neocorteccia e le connessioni sensoriali. Modha
immagina di utilizzare non un singolo computer Blue Gene, ma migliaia di
essi (nel qual caso, invece di una stanza, servirebbe un intero isolato): il
consumo di energia di un simile mostro di silicio sarebbe così elevato da
richiedere una centrale nucleare da 1000 megawatt per poterlo alimentare, e
per evitare che fonda si dovrebbe deviare il corso di un fiume e farlo
scorrere attraverso i suoi circuiti.
Fa una certa impressione prendere atto del fatto che occorre un
computer grande quanto una città per simulare un pezzo di tessuto umano
che pesa a dir tanto un chilo e mezzo, sta tutto dentro il vostro cranio,
aumenta la temperatura corporea solo di pochi gradi, usa 20 watt di potenza
e ha bisogno solo di qualche panino per tirare avanti.

Il Progetto Cervello Umano

Forse, però, lo scienziato più ambizioso che ha aderito a questa


campagna è Henry Markram dell’École Polytechnique Fédérale di Losanna,
in Svizzera. Lui è la forza trainante del progetto Progetto Cervello Umano,
che riceverà un miliardo di euro di finanziamento in dieci anni da parte
della Commissione Europea.
Markram ha trascorso gli ultimi diciassette anni della sua vita a cercare
di decodificare le connessioni neuronali del cervello, e anche lui sta usando
il Blue Gene per eseguire il reverse engineering del cervello. Al momento il
suo Progetto Cervello Umano è costato all’Unione Europea circa cento
milioni di euro, e sta utilizzando solo una frazione della potenza di calcolo
di cui avrà bisogno nel prossimo decennio.
Markram ritiene che non si tratti più di un progetto scientifico, quanto di
un’impresa ingegneristica che richiede somme di denaro ingenti. Dice: «Per
mettere in piedi tutto questo – i supercomputer, il software, la ricerca – ci
serve circa un miliardo di euro. Non è una spesa eccessiva, se si considera
che il fardello globale dei disturbi legati al cervello supererà ben presto il 20
per cento del prodotto interno lordo mondiale». Dal suo punto di vista un
miliardo di euro sono un’inezia rispetto ai fondi che serviranno, una volta
che i baby boomers andranno in pensione, per via dell’incidenza di
Alzheimer, Parkinson e di altre patologie correlate.
Per lui la soluzione è una questione quantitativa: investire abbastanza
soldi nel progetto porterà alla comprensione del cervello umano; e ora che
si è aggiudicato l’ambito premio della Commissione Europea, il suo sogno
potrebbe diventare realtà.
Quando gli viene chiesto cosa ricaverà il contribuente medio da un così
ingente investimento, Markram ha la risposta pronta: ci sono tre ragioni,
dice, per imbarcarsi in questa missione isolata ma costosa. In primo luogo,
afferma, «è fondamentale capire il cervello umano, se vogliamo dare un
futuro alla società, e penso sia un passo fondamentale nell’evoluzione. La
seconda ragione è che non possiamo continuare a fare sperimentazioni sugli
animali all’infinito […]. È come l’Arca di Noè, come un archivio. La terza
ragione è che su questo pianeta ci sono due miliardi di persone che soffrono
di disturbi mentali»2.
Ritiene uno scandalo che si sappia così poco sulle malattie mentali,
causa di enormi sofferenze per milioni di persone. «Oggi non c’è un solo
disturbo neurologico al cui proposito qualcuno sappia dire cosa non
funzioni correttamente nel circuito – quale percorso, quale sinapsi, quale
neurone, quale recettore. È scioccante»3.
Di primo acchito, dato il numero dei neuroni e delle connessioni,
sembrerebbe impossibile portare a termine il progetto; si direbbe una follia,
ma questi scienziati pensano di avere una carta vincente. Il genoma umano
è costituito da circa 23.000 geni, eppure riesce in qualche modo a creare il
cervello, che è composto da 100 miliardi di neuroni. Sembra
matematicamente impossibile creare il cervello umano a partire dai nostri
geni, eppure è quello che succede ogni volta che un embrione viene
concepito. Com’è possibile che così tante informazioni siano stipate in
qualcosa di così piccolo?
La risposta, ritiene Markram, è che Madre Natura ricorre a scorciatoie:
la chiave del suo approccio consiste, una volta che trova uno schema
soddisfacente, nel ripetere alcuni moduli di neuroni. In un primo momento,
osservando sezioni microscopiche del cervello, non si vede altro che un
groviglio casuale di neuroni; ma a un esame più attento si noterà la
ripetizione degli schemi dei moduli (grazie al sistema modulare è per
esempio possibile assemblare grandi grattacieli in poco tempo, perché una
volta progettato un singolo modulo lo si può replicare all’infinito sulla linea
di montaggio; i tanti moduli sono impilati uno sopra l’altro e, sbrigate le
pratiche amministrative, un condominio è assemblato in pochi mesi).
La chiave del progetto precedente di Markram, il Progetto Blue Brain
(di cui il Progetto Cervello Umano è la diretta continuazione) è stata, ed è
tuttora, la colonna neocorticale, un modulo che si ripete più e più volte nel
cervello: negli esseri umani ogni colonna è alta circa due millimetri, con un
diametro di mezzo millimetro, e contiene 60.000 neuroni (a titolo di
paragone, i moduli neuronali del ratto ne contengono solo 10.000 ciascuno).
Ci sono voluti dieci anni, dal 1995 al 2005, perché Markram mappasse i
neuroni di questa colonna e ne capisse il funzionamento; una volta decifrato
il contenuto, si è poi rivolto all’IBM per creare massicce iterazioni tra
colonne.
Perennemente ottimista, in una conferenza TED tenuta nel 2009 ha
affermato di poter ultimare il progetto nel giro di dieci anni; è molto
probabile che sarà così solo per una versione ridotta all’osso del cervello
umano, senza alcun raccordo ai lobi o ai sensi. Tuttavia ha dichiarato: «Se
lo realizziamo correttamente, dovrebbe parlare, mostrare un’intelligenza e
comportarsi in maniera abbastanza simile a quella di un uomo».
Markram è bravissimo a difendere il suo lavoro, e ha una risposta per
tutto. Quando i critici gli rinfacciano di muoversi su un terreno proibito, lui
controbatte: «Come scienziati, non dobbiamo avere paura della verità, e
dobbiamo comprendere il nostro cervello. È naturale che la gente ritenga
che sia sacro, che non dovremmo armeggiarci perché potrebbe custodire i
segreti dell’anima. Ma, onestamente, credo che se il pianeta capisse come
funziona il cervello, risolveremmo ogni sorta di conflitti, perché ci
renderemmo conto di quanto le reazioni e le incomprensioni siano banali,
deterministiche e controllate».
Di fronte alla critica definitiva secondo cui starebbe «giocando a fare
Dio», Markram afferma: «Penso che siamo ben lontani dal giocare a fare
Dio. Dio ha creato l’intero universo. Noi stiamo solo cercando di costruirne
un modello in scala ridotta»4.

È davvero un cervello?

Sebbene questi scienziati sostengano che la loro simulazione al


computer comincerà a raggiungere la capacità del cervello umano intorno al
2020, la questione principale resta: quanto è realistica questa simulazione?
Può, per esempio, la simulazione del gatto afferrare un topo? O giocare con
un gomitolo di lana?
La risposta è no. Queste simulazioni al computer cercano di riprodurre
la potenza pura dell’accensione dei neuroni nel cervello del gatto, ma non
possono riprodurre il modo in cui le aree del cervello sono collegate fra
loro. La simulazione IBM riguarda esclusivamente il sistema
talamocorticale (ovvero, il canale che collega il talamo alla corteccia): il
sistema non ha un corpo fisico, quindi tutte le complesse interazioni tra il
cervello e l’ambiente non rientrano nella simulazione. Il cervello non ha
lobo parietale, e dunque è privo di connessioni sensoriali o motorie con il
mondo esterno; e, anche all’interno del sistema talamocorticale, il
collegamento di base non rispetta il processo di pensiero di un gatto. Non ci
sono cicli retroattivi e circuiti di memoria dedicati all’inseguimento di una
preda o alla ricerca di un compagno: il cervello del gatto computerizzato è
un foglio bianco, privo di ricordi o di pulsioni istintuali. In altre parole, non
può catturare un topo.
Quindi, anche se intorno al 2020 sarà possibile simulare un cervello
umano, non saremo in grado di intrattenerci una semplice conversazione:
mancando un lobo parietale, sarà come una tabula rasa, privo della pur
minima conoscenza di se stesso, della gente e del mondo che lo circonda.
Senza un lobo temporale non sarà in grado di parlare; senza un sistema
limbico non proverà emozioni. Avrà minore potenza cerebrale di un
neonato.
La sfida che consiste nel collegare il cervello al mondo delle sensazioni,
delle emozioni, del linguaggio e della cultura è solo all’inizio.

L’approccio analisi multidimensionale

Il secondo approccio, quello sostenuto dall’amministrazione del


presidente Obama, consiste nella mappatura diretta dei neuroni del cervello:
invece di ricorrere ai transistor, esso analizza gli autentici percorsi neuronali
del cervello. Il metodo si compone di diversi elementi.
Un procedimento consiste nell’identificare fisicamente ogni neurone e
sinapsi del cervello (i neuroni sono di solito distrutti da questo processo),
con un approccio che viene definito anatomico. Un altro percorso prevede
di decifrare i modi in cui i segnali elettrici fluiscono attraverso i neuroni
quando il cervello sta eseguendo determinati compiti (quest’ultima
modalità, tesa a individuare i percorsi di un cervello vivente, sembrerebbe
essere la più apprezzata dall’amministrazione Obama).
L’approccio anatomico consiste nello smontare le cellule di un cervello
animale, neurone per neurone, utilizzando il metodo detto analisi
multidimensionale: in questo modo la complessità dell’ambiente, il corpo e
i ricordi sono già codificati nel modello. Anziché approssimare il cervello
umano assemblando un enorme numero di transistor, questi scienziati
intendono identificare ogni neurone del cervello; dopodiché, ogni neurone
potrà forse essere simulato da un insieme di transistor, così da ricavare una
replica esatta del cervello umano, completa di memoria, personalità e
connessioni sensoriali. Una volta eseguito, così, il reverse engineering
completo del cervello di qualcuno, esso dovrebbe poter intrattenere una
conversazione istruttiva.
Per portare a termine il progetto non servono altre leggi della fisica:
utilizzando un dispositivo simile a un’affettatrice, Gerry Rubin dell’Howard
Hughes Medical Institute ha sezionato il cervello di un moscerino della
frutta.
Non si tratta di un compito facile, dal momento che il cervello del
moscerino della frutta ha un diametro di soli trecento micron (un granello
minuscolo rispetto al cervello umano). Il cervello del moscerino della frutta
contiene circa 150.000 neuroni: ogni frammento, dal diametro di appena
una cinquantina di miliardesimi di metro, viene meticolosamente
fotografato con un microscopio elettronico; le immagini così ottenute
vengono poi immesse in un computer, quindi un software tenta di
ricostruire le connessioni, neurone per neurone. Proseguendo al ritmo
attuale, Rubin sarà in grado di identificare ogni singolo neurone del cervello
del moscerino della frutta nell’arco di vent’anni.
Il passo da lumaca è dovuto in parte all’attuale tecnologia fotografica,
giacché un microscopio a scansione normale opera a circa 10 milioni di
pixel al secondo (pari un terzo della risoluzione raggiunta dai normali
schermi tv), ma l’obiettivo è quello di realizzare uno scanner in grado di
elaborare la prestazione record di 10 miliardi di pixel al secondo.
Il problema di come conservare i dati forniti dal microscopio è un altro
aspetto che lascia confusi: una volta che il suo progetto avrà preso velocità,
Rubin prevede di eseguire la scansione di circa un milione di gigabyte di
dati al giorno per un singolo moscerino della frutta, così da riempire enormi
magazzini di dischi rigidi; per giunta, dal momento che il cervello di ogni
moscerino della frutta differisce leggermente da quello di tutti gli altri, sarà
necessario scansionare il cervello di centinaia di esemplari per ottenerne
l’accurata approssimazione di uno solo.
In base al lavoro sul cervello del moscerino della frutta, quanto tempo ci
vorrà per scomporre il cervello umano? «Tra un centinaio di anni mi
piacerebbe che si sapesse come funziona la coscienza umana. L’obiettivo di
qui a dieci o venti anni è capire come funziona quello del moscerino della
frutta» dice Rubin5.
Questo metodo può essere velocizzato attraverso diversi miglioramenti
tecnici. Una possibilità è data dall’utilizzo di un dispositivo automatizzato,
in modo che il tedioso processo di dissezione del cervello e di analisi di
ogni frammento venga eseguito in modo meccanico: ciò potrebbe ridurre di
molto i tempi richiesti (tanto per fare un esempio, l’automazione ha
notevolmente ridotto quelli del Progetto Genoma Umano, tanto che esso,
sebbene il budget fosse stato fissato in tre miliardi di dollari, è stato
realizzato prima del tempo e con una spesa minore, circostanza inaudita a
Washington). Un altro metodo prevede di utilizzare una grande varietà di
coloranti in grado di marcare diversi neuroni e percorsi, rendendone in tal
modo più semplice l’individuazione. Un approccio alternativo sarebbe
quello di creare un supermicroscopio automatizzato capace di acquisire i
neuroni uno per uno con dettagli senza precedenti.
Visto che una mappatura completa del cervello e di tutti i suoi sensi
richiederà un centinaio di anni, questi scienziati si sentono un po’ come gli
architetti medievali che concepirono le cattedrali europee, ben sapendo che
a portare a termine quei progetti sarebbero stati i loro nipoti.
Parallelamente alla costruzione di una mappa anatomica del cervello,
neurone per neurone, è stato avviato un programma chiamato Human
Connectome Project (“Progetto Connettoma Umano”), che impiega
scansioni cerebrali per ricostruire i percorsi che collegano diverse aree del
cervello.

Il Progetto Connettoma Umano

Nel 2010 il National Institutes of Health ha annunciato l’assegnazione


di 30 milioni di dollari in cinque anni a un consorzio di università (tra cui la
Washington University di St. Louis e l’università del Minnesota), e un
finanziamento di 8,5 milioni di dollari in tre anni a un consorzio guidato
dall’università di Harvard, dal Massachusetts General Hospital e dalla
UCLA. È ovvio che con simili finanziamenti a breve termine i ricercatori
non possono mettere in sequenza l’intero cervello; tuttavia, l’intento era
quello di dare nuovo impulso alla ricerca.
Molto probabilmente tale tentativo sarà incorporato nel progetto
BRAIN, con notevoli vantaggi sul piano temporale: l’obiettivo è quello di
realizzare una mappa neuronale dei percorsi del cervello umano in grado di
gettare luce su disturbi cerebrali come l’autismo e la schizofrenia. Uno dei
responsabili del Progetto Connettoma Umano, Sebastian Seung, osserva: «I
ricercatori hanno ipotizzato che i neuroni in sé siano sani, e che forse siano
solo collegati tra loro in modo anomalo. Il problema è che finora non
abbiamo avuto a disposizione la tecnologia per testare una simile ipotesi»6.
Se queste malattie sono davvero causate da un malfunzionamento delle
connessioni del cervello, il progetto di Seung potrebbe fornirci indizi
preziosi sul modo di trattarle.
Considerando nel suo complesso l’obiettivo finale di scansire il l’intero
cervello umano, a volte dispera di poter portare a termine il progetto: «Nel
diciassettesimo secolo» afferma «il matematico e filosofo Blaise Pascal
scrisse del suo terrore per l’infinito, del sentimento di insignificanza che
provava nel contemplare la vastità dello spazio. Come scienziato, non
dovrei parlare dei miei sentimenti […]. Provo curiosità e meraviglia, ma a
volte mi sono sentito anche disperato»7. Ma lui e altri come lui vanno
avanti, anche se ci vorranno intere generazioni perché il progetto giunga al
termine: e hanno motivo di sperare, perché uno giorno microscopi
automatici effettueranno scansioni a un ritmo instancabile, e macchine
dotate di intelligenza artificiale le analizzeranno 24 ore su 24, ogni giorno.
Al momento, però, acquisire immagini del cervello umano con i comuni
microscopi elettronici richiederebbe circa uno zettabyte di dati,
l’equivalente di tutti i dati raccolti oggi, nel mondo, sul web.
Seung invita la gente a prendere parte a questo grande progetto
visitando il sito web EyeWire: lì, il “cittadino scienziato” medio può
visualizzare una massa di percorsi neuronali che gli viene richiesto di
colorare senza debordare. È come un libro da colorare virtuale, solo che le
immagini riproducono autentici neuroni nella retina di un occhio,
fotografati da un microscopio elettronico.

L’Allen Brain Atlas

Infine, esiste un terzo modo per mappare il cervello. Anzichè


analizzarlo utilizzando simulazioni al computer o individuando tutti i
percorsi neurali, un altro approccio ha preso il via grazie a una generosa
donazione di 100 milioni di dollari da parte del miliardario Paul Allen,
cofondatore di Microsoft. Lo scopo era quello di costruire una mappa, o
atlante, del cervello del topo, ponendo l’accento sull’individuazione dei
geni responsabili della formazione del cervello stesso.
La speranza è che tale comprensione di come i geni si esprimono nel
cervello possa aiutare a decifrare autismo, Parkinson, Alzheimer e altre
disabilità; dal momento che un gran numero di geni del topo si trova anche
negli esseri umani, è possibile che i risultati aprano una strada alla
comprensione del nostro cervello.
Grazie a questa repentina iniezione di fondi il progetto è stato portato a
termine nel 2006, e i suoi risultati sono stati resi disponibili sul web. Subito
dopo è stata annunciata una sorta di sua prosecuzione, l’Allen Human Brain
Atlas, con la speranza di realizzare una mappa tridimensionale del cervello
umano anatomicamente e geneticamente completa. Nel 2011 l’Allen
Institute ha annunciato di aver mappato la biochimica di due cervelli umani,
trovando mille siti anatomici con cento milioni di punti dati che descrivono
il modo in cui i geni sono espressi nella biochimica soggiacente. Lo studio
ha confermato che l’82 per cento dei nostri geni trova espressione nel
cervello.
«Finora, una mappa definitiva del cervello umano, con questo livello di
dettaglio, semplicemente non esisteva», commenta Allen Jones dell’Allen
Institute; che aggiunge: «L’Allen Human Brain Atlas offre una visuale del
tutto inedita sul nostro organo più complesso e importante»8.

Obiezioni al reverse engineering

Gli scienziati che hanno dedicato la loro vita al reverse engineering del
cervello sono consapevoli dei decenni di dure fatiche ancora davanti a loro,
ma sono anche convinti delle implicazioni pratiche del proprio lavoro.
Ritengono che anche risultati parziali aiuteranno a decodificare il mistero
dei disturbi mentali che da sempre affliggono gli esseri umani.
I cinici, tuttavia, sostengono che dopo aver portato a termine l’arduo
compito disporremo di una montagna di dati che non avremo idea di come
assemblare. Immaginate, per esempio, un Uomo di Neanderthal imbattersi
un giorno nel progetto completo di un computer IBM Blue Gene: tutti i
particolari sono presenti, fino all’ultimo transistor, e il piano è imponente,
tanto da occupare migliaia di metri quadrati di carta. Il Neanderthal
potrebbe anche essere consapevole del fatto che il progetto racchiuda il
segreto di una macchina superpotente: la massa pura e semplice di dati
tecnici, però, non significherebbe niente per lui.
Allo stesso modo, il timore è che, dopo aver speso miliardi per decifrare
la posizione di ogni neurone del cervello, non saremo in grado di capire
cosa il tutto, nella sua interezza, significhi: per riuscirci, potrebbero
occorrere svariati altri decenni di duro lavoro.
Per esempio, il Progetto Genoma Umano ha registrato un incredibile
successo nel mettere in sequenza tutti i geni, ma si è rivelato una grossa
delusione per chi si aspettava una cura immediata per le malattie genetiche:
un enorme dizionario con ventitremila voci, ma senza definizioni e dalle
pagine vuote, per quanto l’ortografia di ogni singolo gene sia perfetta. Il
progetto ha rappresentato una svolta, ma allo stesso tempo è soltanto il
primo passo di un lungo viaggio la cui meta è capire cosa questi geni
facciano, e come interagiscano.
In modo analogo, il solo disporre di una mappa completa di ogni singola
connessione neuronale nel cervello non ci assicura che sapremo cosa questi
neuroni facciano, nè come reagiscano. Il reverse engineering è la parte
facile: quella difficile – dare un senso a tutti questi dati – comincia dopo.

Il futuro

Ma supponiamo per un istante che quel momento sia finalmente giunto


e che, con molto clamore, gli scienziati diano il solenne annuncio di aver
realizzato il reverse engineering dell’intero cervello umano.
A questo punto?
Un’applicazione immediata sarebbe quella di risalire fino alle origini di
alcuni disturbi mentali. Si ritiene che molti di essi non siano causati da una
massiccia distruzione di neuroni, ma da un semplice problema di
connessione: pensate a malattie genetiche provocate da una singola
mutazione, come la malattia di Huntington, la malattia di Tay-Sachs o la
fibrosi cistica. Su tre miliardi di paia di basi, un singolo errore di ortografia
(o una ripetizione) può provocare agitazione incontrollabile degli arti e
convulsioni. Se anche il genoma fosse corretto al 99,9999999 per cento, un
piccolo difetto potrebbe invalidare l’intera sequenza; ecco perché la terapia
genica si è concentrata sulle singole mutazioni, considerandole malattie
potenzialmente curabili.
Allo stesso modo, una volta effettuato il reverse engineering del
cervello, se ne potrebbero eseguire delle simulazioni, interrompendo di
proposito alcuni collegamenti per vedere se sia possibile indurre certe
malattie. Una manciata appena di neuroni “inceppati” può essere
responsabile di gravi disordini cognitivi: individuarli potrebbe essere uno
dei compiti del cervello ricostruito grazie al reverse engineering.
Un esempio potrebbe essere la sindrome di Capgras: chi ne è afflitto si
convince che i propri cari siano stati rimpiazzati da impostori. Secondo
Ramachandran, questa malattia rara potrebbe essere dovuta a una cattiva
connessione tra due parti del cervello9: il giro fusiforme nel lobo temporale
fa sì che riconosciate il volto di vostra madre, ma la risposta emotiva che
avete nel vederlo parte dall’amigdala; quando la connessione tra questi due
centri viene interrotta, un individuo può perfettamente riconoscere il viso di
sua madre, ma, dato che non vi è alcuna reazione emotiva, è anche convinto
di avere davanti una truffatrice.
Un altro uso del cervello ricostruito tramite reverse engineering
potrebbe essere quello di determinare con precisione quale ammasso di
neuroni si sia inceppato. La stimolazione cerebrale profonda, come abbiamo
visto, comporta l’uso di minuscole sonde per smorzare l’attività di una
piccola porzione del cervello, come l’area 25 di Brodmann, nel caso di
alcune gravi forme di depressione: utilizzando la mappa ottenuta con il
reverse engineering, potrebbe essere possibile trovare il punto preciso in cui
i neuroni si sono inceppati.
Un cervello così ricostruito sarebbe di grande aiuto anche nel campo
dell’IA. Il cervello non ha alcuna difficoltà a vedere e riconoscere i volti,
difficoltà che ancora incontrano, invece, i nostri computer più avanzati:
questi possono infatti riconoscere – con una precisione del 95 per cento o
più – volti umani che guardano dritto davanti a sé e fanno parte di una
piccola banca dati, ma se mostrate al computer lo stesso volto da
angolazioni differenti o un volto che non è nel database, molto
probabilmente fallirà il suo compito. Noi siamo in grado di riconoscere un
viso familiare in un decimo di secondo a prescindere, dall’angolazione da
cui lo vediamo; per il nostro cervello è un’operazione così facile che non ci
rendiamo nemmeno conto di eseguirla. Il reverse engineering del cervello
può svelare il mistero che si cela dietro una simile operazione.
Più complicato è il caso di malattie che comportano diversi
malfunzionamenti del cervello, come la schizofrenia: si tratta di un disturbo
che chiama in causa parecchi geni, più le interazioni con l’ambiente, che a
loro volta provocano un’insolita attività in diverse aree; tuttavia, anche in
questo caso, il reverse engineering sarebbe in grado di dirci con precisione
come si generano alcuni sintomi (come le allucinazioni), e ciò potrebbe
spianare la strada a una possibile cura.
Un cervello ricostruito attraverso il reverse engineering sarebbe anche
in grado di spiegare questioni fondamentali ma ancora irrisolte: per
esempio, come vengono memorizzati i ricordi a lungo termine. Sappiamo
che alcune parti del cervello, come l’ippocampo e l’amigdala,
immagazzinano il vissuto, ma non è ancora chiaro il meccanismo tramite
cui questo viene poi diffuso attraverso le varie cortecce e riassemblato per
creare una ricordo.
Quando il cervello ricostruito sarà operativo, allora sarà anche giunto il
momento di attivare tutti i suoi circuiti per vedere se possa reagire come
quello di un essere umano (così da capire, per esempio, se può superare il
test di Turing): dato che la memoria a lungo termine è già codificata nei
neuroni del cervello ricostruito, infatti, dovrebbe essere evidente da subito
se esso sia o meno in grado di dare risposte indistinguibili da quelle di un
essere umano.
C’è, infine, un impatto del reverse engineering del cervello di cui si
discute raramente, ma a cui pensano in molti: l’immortalità. Se la coscienza
può essere trasferita su un computer, ciò significa che non moriremo.

1
http://tinyurl.com/kvc3xgg.
2
http://tinyurl.com/pqtzjk9.
3
David Kushner, The Man Who Builds Brains, p. 19, in “Discover Magazine Presents the Brain”,
Kalmbach Publishing Co., Waukesha, WI, autunno 2001.
4
Ibidem, p. 2.
5
Sally Adee, Reverse Engineering the Brain, “IEEE Spectrum”, http://tinyurl.com/ouf58s4.
6
http://tinyurl.com/nlt272u.
7
http://tinyurl.com/mmuevah. Si veda anche Sebastian Seung, Connettoma. La nuova geografia
della mente, Codice edizioni, Torino 2013 (ed. orig. Connectome. How the Brain’s Wiring Makes
Us Who We Are, 2012).
8
http://tinyurl.com/kv2ckm7.
9
TED Talks, gennaio 2010, http://www.ted.com.
Capitolo 12
Il futuro. La mente oltre la materia

La speculazione non è mai una perdita di tempo. Taglia via i rami secchi dalla selva della
deduzione.
Elizabeth Peters

La nostra è una civiltà scientifica […]. Questo significa una civiltà in cui la conoscenza e la sua
integrità sono fondamentali. Scienza è solo una parola latina per conoscenza […]. La conoscenza è
il nostro destino.
Jacob Bronowski

Può la coscienza esistere di per sé, libera dai vincoli del corpo fisico?
Possiamo lasciare il nostro corpo mortale e, come spiriti, aleggiare in questo
parco giochi chiamato universo? Il tema ha ispirato l’episodio di Star Trek
in cui l’equipaggio della nave stellare Enterprise incontra una razza
sovrumana, quasi un milione di anni più avanzata rispetto alla Federazione
dei Pianeti: si tratta di esseri tanto evoluti da avere ormai da lungo tempo
abbandonato i propri fragili corpi mortali, per incarnarsi in globi pulsanti di
pura energia; da millenni non provano più sensazioni inebrianti come
respirare aria fresca, toccare una mano o sperimentare l’amore fisico. Il loro
leader, Sargon, è lieto di accogliere l’Enterprise sul pianeta, e il capitano
Kirk accetta l’invito (ben consapevole del fatto che, se lo volesse, la civiltà
potrebbe incenerire la sua nave in un istante).
I membri dell’equipaggio non lo sanno, ma tali entità superiori hanno
un grosso punto debole: da centinaia di migliaia di anni l’avanzatissima
tecnologia di cui sono in possesso li tiene separati dai loro corpi, e bramano
di poter riassaporare il tumulto delle sensazioni fisiche tornando ad essere
umani.
Una di esse, in effetti, è determinata a impossessarsi del corpo fisico di
uno dei membri dell’equipaggio: poco le importa se a tal fine deve
distruggere la mente che lo abita, e ben presto assume il controllo del corpo
di Spock. Sul ponte dell’Enterprise si accende la lotta con il resto
dell’equipaggio.
Gli scienziati si sono chiesti se esista una legge della fisica che
impedisce alla mente di esistere senza corpo; in altri termini, se la mente
umana cosciente è un dispositivo che crea costantemente modelli del
mondo e li proietta nel futuro, è possibile realizzare una macchina in grado
di simulare l’intero processo?
Abbiamo già accennato alla possibilità che il nostro corpo venga
collocato in capsule, come nel film Il mondo dei replicanti, mentre
controlliamo un robot con la mente. Il problema è che il nostro corpo
naturale andrebbe progressivamente avvizzendo, mentre il nostro surrogato
robot continuerebbe a funzionare. Illustri scienziati stanno valutando le
possibilità concrete di poter trasferire le nostre menti in un robot e diventare
così, davvero, immortali. E chi non vorrebbe avere una chance di vita
eterna? Come ha detto una volta Woody Allen: «Non voglio raggiungere
l’immortalità attraverso le mie opere; voglio raggiungerla non morendo».
In realtà, milioni di persone già sostengono che sia possibile per la
mente lasciare il corpo. E in molti affermano di aver vissuto di persona una
simile esperienza.

Esperienze extracorporee

Quella di una mente senza corpo è, con tutta probabilità, la più antica
delle superstizioni, radicata nel profondo dei nostri miti, nel folklore e nei
sogni; forse addirittura nei nostri geni. Non esiste cultura che non abbia le
sue storie di fantasmi e demoni in grado di entrare e uscire a piacimento dal
corpo di qualcuno.
Purtroppo, molti innocenti sono stati perseguitati per esorcizzare i
demoni che si credeva li possedessero; è ragionevole ritenere che soffrissero
di malattie mentali come la schizofrenia, dato che le sue vittime sono spesso
perseguitate da voci generate dalle proprie menti. A detta degli storici, una
delle streghe di Salem, impiccata nel 1692 con l’accusa di possessione, era
forse affetta dalla malattia di Huntington, che provoca movimenti inconsulti
degli arti.
Al giorno d’oggi ci sono persone che sostengono di essere entrate in un
stato di trance in cui la coscienza ha abbandonato il corpo per vagare
nell’etere (riuscendo addirittura a vedere il proprio corpo dall’esterno): in
un sondaggio su un campione di tredicimila europei, il 5,8 per cento degli
intervistati ha dichiarato di aver avuto un’esperienza extracorporea1,
percentuale non dissimile da quelle riscontrate nei sondaggi fatti negli Stati
Uniti.
Il premio Nobel Richard Feynman, sempre incuriosito dai nuovi
fenomeni, una volta si è calato in una vasca di deprivazione sensoriale nel
tentativo di lasciare il suo corpo fisico: il tentativo andò a buon fine, e più
tardi Feynman scrisse di aver avuto la sensazione di lasciare il corpo,
vagare nello spazio e, voltandosi indietro, vedere le proprie membra
immobili. Tuttavia, in seguito lui stesso concluse che, con tutta probabilità,
la deprivazione sensoriale aveva semplicemente scatenato la sua
immaginazione.
I neurologi che hanno studiato il fenomeno hanno una spiegazione più
prosaica; Olaf Blanke, con l’ausilio dei suoi colleghi in Svizzera, potrebbe
aver individuato il punto preciso del cervello che genera le esperienze
extracorporee. Una delle sue pazienti era una donna di quarantatré anni che
soffriva di attacchi epilettici causati dal lobo temporale destro. Per cercare
di individuare l’area responsabile delle convulsioni, le è stata applicata sul
capo una griglia da un centinaio di elettrodi: non appena questi hanno
stimolato l’area tra i lobi parietali e temporali, lei ha subito avuto la
sensazione di lasciare il corpo. «Mi vedo sdraiata sul letto, da sopra, ma
vedo solo le gambe e la parte inferiore del tronco!» ha esclamato2. Si
sentiva fluttuare a due metri dal corpo.
Disattivati gli elettrodi, tuttavia, la sensazione extracorporea si è dissolta
all’istante. Dunque, stimolando quest’area del cervello, Blanke ha scoperto
di poter ripetutamente innescare e disinnescare la sensazione extracorporea
come davanti a un interruttore. Abbiamo visto nel Capitolo 9 che le lesioni
del lobo temporale riconducibili all’epilessia possono indurre la sensazione
che dietro ogni disgrazia ci siano spiriti maligni: dunque, l’idea che uno
spirito possa lasciare il corpo è forse parte del nostro corredo neuronale (e
ciò potrebbe anche spiegare la presenza di esseri soprannaturali: quando
Blanke ha esaminato una donna di ventidue anni che soffriva di crisi
epilettiche non trattabili, ha scoperto che, stimolando la regione temporo-
parietale del cervello, avrebbe potuto indurre la sensazione di una presenza
oscura dietro di lei. La donna poteva descrivere questa presenza nel
dettaglio, sostenendo perfino che le avesse afferrato le braccia. La presenza
cambiava posizione ad ogni apparizione, ma le stava sempre alle spalle).
La coscienza umana, come ho già detto di ritenere, è il processo di
continua formazione di un modello di mondo al fine di simulare il futuro e
realizzare un obiettivo. In particolare, il cervello riceve sensazioni dagli
occhi e dall’orecchio interno per creare un modello di noi stessi nello
spazio; quando tali segnali sono in contraddizione ci sentiamo disorientati.
Possiamo avvertire un senso di nausea e lo stimolo a rimettere: per esempio,
molte persone soffrono il mal di mare quando sono su un’imbarcazione che
ondeggia perché i loro occhi, guardando le pareti della cabina, comunicano
loro che sono fermi, mentre l’orecchio interno dice loro che stanno
oscillando (il rimedio è quello di puntare lo sguardo sull’orizzonte in modo
che l’immagine visiva corrisponda ai segnali provenienti dall’orecchio
interno). Identico senso di nausea può essere indotto anche in chi è fermo:
se guardate rotolare un bidone dell’immondizia con sopra dipinte delle
strisce verticali colorate, vi sembrerà di vedere le suddette strisce muoversi
orizzontalmente, e questo vi darà la sensazione che siate voi a muovervi,
mentre l’orecchio interno vi dice che siete fermi (e anche se siete seduti su
una sedia, la mancata corrispondenza che ne deriva vi procurerà un senso di
nausea nel giro di pochi minuti).
I messaggi provenienti dagli occhi e dall’orecchio interno possono
essere disturbati anche elettricamente, lungo il confine tra i lobi temporali e
parietali, dando così origine a esperienze extracorporee: quando viene
toccata quest’area sensibile, il cervello perde la percezione della propria
collocazione nello spazio (anche una perdita temporanea di sangue o la
mancanza di ossigeno o, ancora, un’eccesso di anidride carbonica nel
sangue possono causare una perturbazione nella regione temporo-parietale e
indurre esperienze extracorporee: circostanze che possono spiegare la
prevalenza di tali sensazioni in concomitanza con incidenti, emergenze,
attacchi cardiaci ecc.)3.

Esperienze pre-morte

Ma forse la categoria più incredibile nell’ambito delle esperienze


extracorporee è quella costituita da storie di pre-morte, di individui, cioè,
che hanno ripreso misteriosamente conoscenza dopo che ne era stato
dichiarato il decesso. In effetti, tra il 6 e il 12 per cento dei sopravvissuti a
un arresto cardiaco riferisce di aver avuto un’esperienza di questo genere.
Le loro testimonianze sono drammaticamente simili: tutti ricordano di aver
lasciato il proprio corpo, attratti dalla luce intensa che appariva al termine di
un lungo tunnel.
I media hanno subito cavalcato l’argomento, numerosi best sellers e
documentari tv sono stati dedicati a queste storie, e molte sono le teorie
bizzarre avanzate. In un sondaggio condotto su un campione di duemila
persone, il 42 per cento degli intervistati si è detto convinto che le
esperienze di pre-morte siano la prova di un contatto con il mondo
spirituale (alcuni ritengono che in punto di morte il corpo rilasci endorfine,
ovvero narcotici naturali: ciò potrebbe spiegare l’euforia avvertita da molti
soggetti, ma non il tunnel e la luce intensa). Carl Sagan ha perfino
ipotizzato che le esperienze di pre-morte siano un rivivere il trauma della
nascita.
Il fatto che questi soggetti raccontino esperienze molto simili non
avvalla necessariamente il loro sguardo fugace sull’aldilà; piuttosto, sembra
indicare un qualche evento neurologico dalla portata molto profonda.
Esaminando il fenomeno con attenzione, i neurologi sono giunti a
sospettare che la chiave di tutto potrebbe essere la diminuzione del flusso
sanguigno al cervello, circostanza che spesso si verifica quando si ha un
mancamento. Thomas Lempert, neurologo alla Schlosspark-Klinik di
Berlino, ha condotto una serie di esperimenti su 42 persone in buona salute,
provocandone lo svenimento in laboratorio in condizioni controllate4. Il 60
per cento dei soggetti esaminati ha riferito di allucinazioni visive (come luci
e macchie di colore); il 47 per cento ha avuto la sensazione di entrare in un
altro mondo; il 20 per cento ha sostenuto di aver incontrato un essere
soprannaturale; il 17 per cento ha visto una luce brillante; l’8 per cento un
tunnel. Lo svenimento, dunque, sembra replicare tutte le sensazioni che le
persone dichiarano di percepire nel corso di un’esperienza di pre-morte. Ma
qual è il processo, esattamente?
Il mistero di come lo svenimento possa simulare le esperienze di pre-
morte può essere risolto analizzando le esperienze dei piloti militari. Nello
specifico, la US Air Force ha contattato il neurofisiologo Edward Lambert
per esaminare i piloti che svenivano non appena sottoposti a brusche
accelerazioni (per esempio, nell’eseguire una virata stretta a bordo di un jet
o riemergendo in fretta da un’immersione)5: Lambert ha collocato i piloti in
un’ultracentrifuga presso la Mayo Clinic di Rochester, in Minnesota,
facendoli girare e sottoponendoli, così, a un’elevata accelerazione. Nel giro
di quindici secondi, non appena il sangue defluiva dal cervello, i piloti
perdevano conoscenza.
Lambert ha scoperto che dopo soli cinque secondi il flusso di sangue
agli occhi dei piloti diminuiva al punto da offuscare la loro visione
periferica, creando l’immagine di un lungo tunnel. Questo potrebbe forse
spiegare il tunnel di cui parlano spesso i soggetti reduci da un’esperienza di
pre-morte: se la vostra visione periferica si oscura, tutto quello che vedrete
è un tunnel angusto di fronte a voi.

Può la coscienza lasciare il corpo?

Alcuni scienziati che hanno studiato le esperienze extracorporee e di


pre-morte sono convinti che si tratti di effetti collaterali prodotti dal
cervello che, in condizioni di stress, va in confusione. Tuttavia, altri studiosi
credono che un giorno, magari fra decenni, quando la nostra tecnologia sarà
sufficientemente avanzata, la coscienza potrà davvero lasciare il corpo.
Sono stati proposti diversi metodi, tutti alquanto controversi.
Uno di questi è stato ideato dal futurista e inventore Ray Kurzweil, il
quale si dice convinto che un giorno sarà possibile uploadare la coscienza
su un supercomputer. Una volta abbiamo parlato insieme a una conferenza,
e lui mi ha raccontato che l’attrazione che prova per i computer e
l’intelligenza artificiale risale a quando aveva cinque anni e i suoi genitori
gli compravano ogni genere di dispositivi e giocattoli meccanici6. Gli
piaceva armeggiare con quegli aggeggi, e già da bambino sapeva di essere
destinato a diventare un inventore. Al MIT ha svolto il suo dottorato di
ricerca con Marvin Minsky, uno dei fondatori dell’IA. In seguito, si è fatto
le ossa applicando la tecnologia del riconoscimento di pattern agli strumenti
musicali e ai sistemi text-to-sound, traducendo la ricerca sull’IA in questi
settori nella creazione di una serie di aziende (ha venduto la sua prima
azienda quando aveva appena vent’anni). Il suo lettore ottico, in grado di
riconoscere un testo e di convertirlo in suono, è stato acclamato come un
valido aiuto per i non vedenti, tanto da essere citato anche da Walter
Cronkite nell’edizione serale del tg della CBS.
Per diventare un inventore di successo, mi ha detto, devi sempre essere
lungimirante e anticipare il cambiamento, senza limitarti a reagire; in effetti,
Kurzweil ama fare previsioni, molte delle quali a proposito della crescita
esponenziale della tecnologia digitale. Per esempio:
Entro il 2019 un computer da 1000 dollari avrà la potenza di calcolo
del cervello umano: 20 milioni di miliardi di calcoli al secondo
(numero che si ottiene prendendo i 100 miliardi di neuroni del
cervello, moltiplicandoli per 1000 connessioni per neurone e poi per
200 calcoli al secondo per connessione).
Entro il 2029 un personal computer da 1000 dollari sarà 1000 volte più
potente del cervello umano; il reverse engineering del cervello sarà
portato a termine con successo.
Entro il 2055, 1000 dollari di potenza computazionale equivarranno
alla potenza di elaborazione di tutti gli esseri umani sul pianeta
(«Posso sbagliare di un anno o due» ha aggiunto con modestia
Kurzweil)7.

Per Kurzweil si preannuncia come particolarmente importante il 2045,


dal momento che sarà proprio quello, a parer suo, l’anno della singolarità.
Allora, sostiene, le macchine avranno superato gli uomini in intelligenza e
creato robot di nuova generazione ancora più intelligenti di loro. Dato che
questo processo può continuare all’infinito, secondo Kurzweil potrebbe
comportare un’accelerazione perpetua della potenza delle macchine: in uno
scenario simile dovremo fonderci con le nostre creazioni, o far loro spazio
(sebbene le date in questione si riferiscano a un futuro lontano, lui mi ha
confidato di voler vivere abbastanza per vedere il giorno in cui gli esseri
umani diventeranno finalmente immortali; detto in altri termini, vuole
vivere abbastanza a lungo da vivere per sempre).
Come dice la legge di Moore, a un certo punto la potenza dei computer
non potrà più avanzare tramite la semplice realizzazione di transistor
sempre più piccoli. A detta di Kurzweil, l’unico modo per espandere
ulteriormente la potenza di calcolo dei computer sarebbe quello di
aumentarne la dimensione complessiva, alternativa che vedrebbe i robot
perlustrare la superficie terrestre alla ricerca di minerali da divorare. Una
volta che il pianeta sarà diventato un gigantesco computer, i robot
potrebbero essere costretti ad andare nello spazio, alla ricerca di fonti di
alimentazione alternativa. Alla fine potrebbero prosciugare intere stelle.
Una volta gli ho chiesto se questa crescita cosmica dei computer
potrebbe alterare il cosmo stesso. Lui ha risposto di sì: mi ha confessato che
talvolta guarda il cielo di notte, chiedendosi se su qualche pianeta distante
degli esseri intelligenti abbiano già raggiunto la singolarità (se le cose
stanno così, forse dovrebbero lasciare qualche segno sulle stelle visibili a
occhio nudo).
Un limite di cui mi ha parlato è la velocità della luce: a meno che le
macchine non possano infrangere tale barriera, l’aumento esponenziale di
potenza raggiungerà un tetto massimo e, dice Kurzweil, quando ciò accadrà
forse modificheranno le leggi stesse della fisica.
Chiunque azzardi delle previsioni di una tale precisione e portata attira
critiche come fosse un parafulmine, ma la cosa non sembra turbarlo. La
gente può cavillare su questo o quel presagio o pronostico, dal momento
che Kurzweil ha mancato alcune delle sue scadenze, ma lui è preoccupato
più dal nucleo forte delle sue idee e dalla sua previsione di una crescita
esponenziale della tecnologia. Ad essere onesti, la maggior parte di quelli
che lavorano nel campo dell’IA e con cui io ho avuto modo di parlare si
dice d’accordo sul fatto che una qualche forma di singolarità avrà luogo, ma
c’è assoluta discordanza su quando potrebbe manifestarsi e con quali
modalità. Per esempio, Bill Gates è convinto che nessuno di noi sarà ancora
vivo il giorno in cui i computer saranno abbastanza intelligenti da poter
essere scambiati per un essere umano8; mentre Kevin Kelly, un tempo
direttore della rivista “Wired” ha osservato come le persone che predicono
un futuro utopico lo collochino invariabilmente prima della loro morte9.
In effetti, uno dei tanti obiettivi di Kurzweil è quello di riportare il padre
in vita; o, meglio, di realizzarne una simulazione realistica. Per farlo ci sono
diverse possibilità, ma tutte ancora molto congetturali.
Kurzweil ritiene che forse si potrebbe estrarre del DNA dal padre (dalla
sua tomba, o dai materiali organici che ha lasciato). Contenuta all’interno di
circa 23.000 geni ci sarebbe la formula completa in base a cui ricreare il
corpo di una persona: quindi, dal DNA si potrebbe ricavare un clone.
Questa è di certo una possibilità. Una volta ho chiesto a Robert Lanza,
dell’Advanced Cell Technology, come fosse stato in grado di “riportare alla
vita” una creatura morta da molto tempo: un evento che non poteva non
definirsi storico10. Lui ha risposto che lo zoo di San Diego gli aveva chiesto
di creare il clone di un banteng, un animale simile al bue, morto venticinque
anni prima. La parte difficile era stata, appunto, estrarre una cellula
utilizzabile ai fini della clonazione. Tuttavia, dopo essere riuscito
nell’impresa, Lanza ha spedito via FedEx la cellula a una fattoria, dov’è
stata impiantata in una vacca che poi ha, in effetti, partorito il banteng.
Nessun primate è mai stato clonato, e men che meno un essere umano, ma
Lanza crede si tratti di un problema tecnico e che sia solo una questione di
tempo.
Questa sarebbe la parte più semplice, però. Il clone sarebbe
geneticamente equivalente all’originale, ma senza i suoi ricordi. Dei ricordi
artificiali potrebbero essere caricati nel cervello utilizzando i metodi
pionieristici descritti nel Capitolo 5, come l’inserimento di sonde
nell’ippocampo o la creazione di un ippocampo artificiale, ma il padre di
Kurzweil è morto da tempo, cosa che tanto per cominciare rende
impossibile effettuare la registrazione dei suoi ricordi. Il meglio che si possa
fare è mettere insieme poco alla volta tutti i dati storici su quella persona,
intervistando magari altri individui che ne conservano ricordi pertinenti, o
avendo accesso alle transazioni effettuate dalle loro carte di credito, e poi
inserire tutto nel programma.
Un modo più pratico per conservare e trasmettere il carattere e il
patrimonio mnemonico di una persona potrebbe essere quello di creare un
grosso file contenente tutte le informazioni che si conoscono sulla sua vita e
le sue abitudini. Per esempio, oggi è possibile archiviare tutte le vostre e-
mail, le transazioni effettuate con carta di credito, i documenti, i
programmi, le agende elettroniche e la storia di un’esistenza su un singolo
file che può tracciare un quadro decisamente accurato di ciò che siete. Un
simile file rappresenterebbe per intero la vostra “firma digitale”, ovvero
tutto ciò che si sa sul vostro conto; sarebbe intimo e preciso, e in grado di
rivelare quali vini vi piacciono, come trascorrete le vacanze, che tipo di
sapone utilizzate, il vostro cantante preferito e via dicendo.
Inoltre, tramite un questionario si potrebbe ricreare con rozza
approssimazione la personalità del padre di Kurzweil: i suoi amici, parenti e
colleghi dovrebbero rispondere a decine di domande relative alla sua
personalità, in modo da sapere se fosse timido, curioso, onesto, laborioso
ecc. Poi dovrebbero assegnare un numero ad ogni tratto (per esempio, un
“10” per indicare che era davvero molto onesto): si creerebbe una stringa di
centinaia di numeri, ognuno dei quali teso a designare uno specifico tratto
della personalità. Una volta compilata questa serie numerica, un software
dovrebbe prendere i dati e ricavare un’approssimazione di come il soggetto
si sarebbe comportato in situazioni ipotetiche. Poniamo il caso che stiate
dando un discorso e che vi troviate costretti a confrontarvi con un
disturbatore particolarmente odioso: il software dovrebbe analizzare i
numeri e predire di conseguenza uno degli esiti possibili (per esempio,
ignorare il disturbatore, limitarsi a controbattere o scatenare una rissa). In
altre parole, la personalità di base di ciascuno di noi verrebbe ridotta a una
lunga sequenza di numeri, dall’1 al 10, tramite cui un computer potrebbe
prevedere la nostra reazione davanti a situazioni sempre nuove.
Il risultato sarebbe un software molto strutturato e in grado di reagire
alle situazioni nuove all’incirca nel modo in cui lo avrebbe fatto l’originale,
usando le stesse espressioni verbali e palesando le stesse fissazioni, il tutto
mescolato ai suoi ricordi.
Un’altra possibilità sarebbe quella di rinunciare all’intero processo di
clonazione per ripiegare sulla semplice realizzazione di un robot in tutto e
per tutto somigliante alla persona originale: basterebbe inserire il software
in un dispositivo meccanico che vi assomiglia, parla con il vostro accento,
mima i vostri vezzi e muove gli arti come lo fate voi. Anche aggiungere le
vostre espressioni preferite non sarebbe affatto un problema.
Certo, oggi sarebbe semplicissimo rilevare che questo robot è un falso;
tuttavia, nei decenni a venire sarà forse possibile avvicinarsi sempre più
all’originale, abbastanza magari da trarre in inganno alcune persone.
Il tutto solleva però una questione filosofica: questa “persona” sarebbe
identica all’originale? L’originale è comunque morto, e dunque il clone o
robot sarebbe, strettamente parlando, un impostore. Un registratore, per
esempio, può riprodurre alla perfezione una nostra conversazione: rimane
comunque il fatto che quella riproduzione non è l’originale. Possono un
clone o un robot che si comportano in tutto e per tutto come l’originale
rappresentare dei validi sostituti?

Immortalità

Questi metodi sono stati criticati perché il loro processo non ingloba in
modo realistico personalità e ricordi autentici. Una maniera più fedele di
riversare una mente in una macchina si avvale del Progetto Connettoma
Umano, di cui abbiamo parlato nel capitolo precedente e che si propone di
duplicare, neurone per neurone, tutte le vie cellulari del cervello: tutti i
ricordi e le peculiarità della personalità sono già incorporati nel connettoma.
Sebastian Seung, a capo del progetto, sottolinea come alcune persone
siano disposte a sborsare centomila dollari o più per farsi congelare il
cervello nell’azoto liquido. Certi animali, come pesci e rane, possono
arrivare a congelarsi del tutto durante l’inverno, per poi tornare in perfetta
salute dopo lo scongelamento, in primavera. Questo perché utilizzano il
glucosio come antigelo per modificare il punto di congelamento dell’acqua
nel sangue: in questo modo, anche se sono rivestiti di ghiaccio solido, il
loro sangue rimane liquido. Una simile concentrazione di glucosio nel
corpo umano, tuttavia, sarebbe probabilmente fatale: non solo l’espansione
dei cristalli di ghiaccio potrebbe provocare la rottura della parete cellulare
dall’interno, ma gli ioni di calcio provocherebbero l’espansione e, infine, la
rottura delle cellule cerebrali; esse, in ciascuno dei due casi, non
sopravviverebbero al processo di congelamento.
Anziché congelare il corpo, provocando la rottura delle cellule, un
processo più affidabile per ottenere l’immortalità potrebbe consistere nel
portare a compimento il proprio connettoma. I medici avrebbero a
disposizione le vostre connessioni neurali su un hard-disk, la vostra anima
verrebbe ridotta a mera informazione e inserita in un supporto rigido. In
futuro qualcuno potrebbe resuscitare il vostro connettoma e, in linea di
principio, utilizzare un clone o un ammasso di transistor per riportarvi in
vita.
Il Progetto Connettoma Umano, come abbiamo visto, è ancora lontano
dall’essere in grado di registrare le connessioni neurali di un essere umano;
ma, come dice Seung, «dovremmo ridicolizzare i moderni cacciatori di
immortalità, chiamandoli pazzi, o un giorno se la rideranno sulle nostre
tombe?»11.

Disturbi mentali e immortalità

L’immortalità, però, può anche avere i suoi svantaggi. I cervelli


elettronici costruiti finora contengono solo le connessioni tra la corteccia e
il talamo; il cervello ricostruito tramite reverse engineering, privo di un
corpo, potrebbe cominciare a soffrire di segregazione sensoriale e persino a
manifestare i segni di un disturbo mentale, come avviene appunto a
prigionieri e detenuti posti in isolamento. Forse il prezzo da pagare per la
creazione di un cervello immortale ottenuto attraverso il reverse
engineering è la follia.
I soggetti rinchiusi in celle di isolamento, e privati di contatti con il
mondo esterno, alla fine manifestano delle allucinazioni. Nel 2008, la BBC
mandò in onda un programma scientifico dal titolo Total Isolation, in cui si
seguivano le vicissitudini di sei volontari piazzati all’interno di un bunker
nucleare, soli e nella più completa oscurità12. Dopo appena due giorni, tre
dei volontari iniziarono a vedere e a sentire cose: serpenti, auto, zebre e
ostriche. Al loro rilascio, i medici constatarono segni evidenti di un regresso
mentale. La memoria di uno dei volontari aveva subito un calo del 36 per
cento. Facile supporre che, dopo poche settimane o mesi trascorsi in una
condizione simile, la maggior parte di essi potesse impazzire.
Per preservare l’integrità mentale di un cervello ricostruito con il
reverse engineering potrebbe essere essenziale collegarlo a sensori in grado
di ricevere segnali dall’ambiente circostante, così da metterlo nelle
condizioni di percepire le sensazioni provenienti dal mondo esterno. Sorge
però un altro problema: il cervello potrebbe percepire se stesso come un
grottesco scherzo della natura, un’ingombrante cavia in balia di un
esperimento scientifico. Dal momento che esso avrebbe lo stesso bagaglio
di ricordi e la stessa personalità del suo originale, potrebbe desiderare il
contatto umano; tuttavia, celato nella memoria di qualche supercomputer,
con una macabra giungla di elettrodi che penzolano all’esterno, il cervello
ricostruito risulterebbe ripugnante a qualsiasi essere umano. Non gli
sarebbe possibile instaurare alcun legame, per non parlare di un rapporto di
amicizia.

Il principio dell’uomo delle caverne

A questo punto entra in gioco quello che definisco il principio


dell’uomo delle caverne. Perché così tante previsioni ragionevoli si rivelano
sbagliate? E perché dovrebbe esserci qualcuno che non vuole vivere per
sempre dentro un computer?
Il principio dell’uomo delle caverne dice questo: posti davanti alla
possibilità di scegliere tra high-tech e high-touch, preferiamo puntualmente
la seconda opzione, ovvero il contatto umano. Se ci venisse proposto di
scegliere tra un biglietto per assistere a un concerto dal vivo del nostro
musicista preferito e un suo CD live, come ci orienteremmo? Oppure,
davanti alla possibilità di ricevere un biglietto per visitare il Taj Mahal o, in
alternativa, una sua bella foto, quale sarebbe la nostra inclinazione? Con
estrema probabilità, propenderemmo per il concerto dal vivo e per i biglietti
aerei.
Questo perché abbiamo ereditato la coscienza dei nostri antenati
scimmieschi. Alcuni elementi della nostra personalità di base non sono
probabilmente cambiati molto negli ultimi centomila anni, da quando cioè i
primi esseri umani moderni hanno fatto la loro comparsa in Africa. Una
vasta parte della nostra coscienza è dedicata al mantenimento di un
bell’aspetto e al tentativo di far buona impressione sui membri del sesso
opposto e i nostri simili: è una prerogativa innata del nostro cervello.
Considerato l’aspetto fondamentalmente scimmiesco della nostra
coscienza, dunque, è più verosimile che in futuro ci fonderemo con i
computer solo se ciò dovesse migliorare – e non rimpiazzare in toto – il
nostro corpo.
Il principio dell’uomo delle caverne spiega, forse, perché alcune
previsioni sensate sul futuro non si siano poi materializzate, come nel caso
dell’“ufficio senza carta”: l’avvento dei computer avrebbe dovuto bandire la
carta dagli uffici, ma per ironia della sorte ne ha invece aumentato
l’utilizzo. Questo perché discendiamo da cacciatori, che avevano bisogno
della “prova dell’avvenuta uccisione” (ci fidiamo, cioè, solo di prove
concrete, non di effimeri elettroni che danzano sullo schermo di un
computer per svanire non appena questo viene spento). Allo stesso modo,
non si è mai concretizzata nemmeno la “città senza persone”, quella cioè in
cui la gente avrebbe usato la realtà virtuale per prendere parte a una
riunione, abbattendo così il pendolarismo. Esso, al contrario, è più intenso
che mai. E perché? Perché siamo animali sociali che amano intrattenere
legami con gli altri. La videoconferenza, per quanto utile, non può captare
l’intero spettro di sottili informazioni offerte dal linguaggio del corpo. Il
capo di un’azienda, per esempio, potrebbe voler indagare su certi problemi
emersi tra i dipendenti: è normale, quindi, che voglia vederli contorcersi e
sudare sotto il peso delle sue domande, cosa che gli è possibile fare solo di
persona.

Uomini delle caverne e neuroscienza

Da bambino ho letto la Trilogia della Fondazione di Isaac Asimov,


rimanendone profondamente influenzato. In primo luogo, mi ha costretto a
pormi una semplice domanda: come sarà la tecnologia tra cinquantamila
anni, quando avremo un impero galattico? Inoltre, mentre leggevo non
potevo fare a meno di chiedermi come mai gli esseri umani del futuro
avessero lo stesso aspetto e gli stessi comportamenti che abbiamo noi
adesso. Pensavo che tra migliaia di anni avrebbero dovuto avere corpi
cibernetici dotati di abilità sovrumane. Che avrebbero rinunciato ai loro
gracili corpi già da millenni.
Mi sono venute in mente due risposte. Prima di tutto, Asimov intendeva
rivolgersi a un pubblico di giovani lettori, e questo lo ha portato a creare
personaggi in cui essi potessero identificarsi, difetti compresi. In secondo
luogo, forse in futuro gli umani avranno la possibilità di avere corpi con
superpoteri, ma per la maggior parte del tempo preferiranno sembrare
normali: questo perché le loro menti non saranno poi molto diverse da
quelle dei primi uomini emersi dalla foresta, e dunque l’accettazione da
parte dei simili e del sesso opposto determinerà ancora il loro aspetto, e ciò
che vogliono dalla vita.
Ora dobbiamo, perciò, applicare il principio dell’uomo delle caverne
alla neuroscienza del futuro: come minimo, ciò significa che qualsiasi
modifica della forma umana fondamentale dovrebbe essere quasi invisibile
dall’esterno. Dato che non ci piacerebbe assomigliare al tipico profugo dei
film di fantascienza (quello dotato di elettrodi che gli penzolano dalla testa,
per capirci), gli impianti cerebrali in grado di uploadare ricordi o accrescere
l’intelligenza diverranno di uso comune solo se la nanotecnologia riuscirà a
creare sensori microscopici e sonde invisibili a occhio nudo; e in futuro sarà
forse possibile realizzare nanofibre composte da nanotubi di carbonio spessi
una molecola, così sottili da toccare i neuroni con precisione chirurgica e
lasciare il nostro aspetto inalterato, accrescendo al contempo le nostre
capacità mentali.
Inoltre, se avessimo bisogno di essere collegati a un supercomputer da
cui uploadare le informazioni, non vorremmo essere legati a un cavo
inserito nel midollo spinale, come nel film Matrix: la connessione dovrebbe
essere wireless, così da consentirci l’accesso a un’enorme potenza di
calcolo semplicemente localizzando con la mente il server più vicino.
Oggi abbiamo impianti cocleari e retine artificiali in grado di restituire
l’udito e la vista ai pazienti, ma in futuro i nostri sensi saranno amplificati
grazie alla nanotecnologia, che ci permetterà di conservare l’aspetto umano
nei suoi tratti essenziali. Potremmo avere, per esempio, l’opportunità di
potenziare i muscoli tramite modifiche genetiche o esoscheletri; potrebbero
nascere “human body-shop” presso cui ordinare parti di ricambio via via
che quelle vecchie si usurano; in ogni caso, questi e altri miglioramenti
fisici dovranno evitare che la forma umana venga abbandonata.
Un altro modo di utilizzare questa tecnologia, in conformità al principio
dell’uomo delle caverne, sarebbe quella di ricorrervi come opzione,
piuttosto che intenderla come una scelta di vita permanente: si potrebbe,
cioè, desiderare di potervisi collegare e scollegare a piacimento. Gli
scienziati potrebbero voler accrescere la loro intelligenza per risolvere una
questione particolarmente complessa; poi dovrebbero poter rimuovere
caschi e impianti ed essere liberi di badare ai fatti loro. In questo modo gli
amici non ci sorprenderebbero agghindati come soldati spaziali, e avremmo
la possibilità di godere dei benefici di questa tecnologia senza forzature (e
senza dover apparire ridicoli).
Dunque, nei secoli a venire è probabile che i nostri corpi saranno molto
simili a quelli che possediamo oggi, tranne per il fatto che saranno perfetti e
godranno di potenzialità valorizzate; d’altronde, è un retaggio del nostro
passato scimmiesco il fatto che la nostra coscienza sia dominata da desideri
antichi.
Ma che dire dell’immortalità? Come abbiamo visto, un cervello
ricostruito mediante reverse engineering, con tutte le peculiarità caratteriali
della persona originale, finirebbe con ogni probabilità per impazzire se
collocato all’interno di un computer, mentre collegare il cervello a sensori
esterni perché possa provare sensazioni stimolate dall’ambiente circostante
creerebbe una mostruosità che ha del grottesco. Una parziale soluzione al
problema sarebbe quella di allacciare il cervello ricostruito a un
esoscheletro: se l’esoscheletro agisse da surrogato, il cervello ricostruito
potrebbe godere di sensazioni come il tatto e la vista senza apparire
grottesco. L’esoscheletro dovrebbe funzionare in wireless, e comportarsi
come un essere umano controllato da un cervello ricostruito che “vive”
dentro un computer.
Un simile surrogato avrebbe due vantaggi: essendo un esoscheletro
sarebbe perfetto, dotato di superpoteri e, in quanto connesso via wireless a
un cervello ricostruito all’interno di un computer di grandi dimensioni,
anche immortale; inoltre, dal momento che sarebbe in grado di percepire
l’ambiente circostante e che avrebbe l’aspetto di un uomo in carne e ossa,
non avrebbe tanti problemi a interagire con gli esseri umani (molti dei quali
avranno forse optato per la stessa procedura). Il vero connettoma starebbe
dunque all’interno di un supercomputer statico, mentre la sua coscienza si
manifesterebbe in un corpo surrogato e mobile.
Tutto ciò richiederebbe un livello di tecnologia che va ben al di là di
quella raggiunta ad oggi; tuttavia, considerata la rapidità del progresso
scientifico, potrebbe diventare una realtà entro la fine del secolo.

Trasferimento graduale

In questo momento il processo di reverse engineering comporta il


trasferimento delle informazioni all’interno del cervello neurone per
neurone. Il cervello deve essere sezionato in frammenti sottili, visto che le
macchine per la risonanza magnetica non sono ancora abbastanza avanzate
da poter identificare con precisione l’architettura neurale di un cervello
vivo. Lo svantaggio evidente di tale approccio è che prima che il vostro
cervello possa essere ricostruito mediante reverse engineering dovete essere
morti. Dato che il cervello degenera in fretta dopo la morte, il processo di
conservazione dovrebbe iniziare subito, cosa al momento molto difficile da
realizzare.
Ma potrebbe esserci un modo per raggiungere l’immortalità senza prima
dover morire: l’idea è stata sperimentata da Hans Moravec, ex direttore
dell’Artificial Intelligence Laboratory della Carnegie Mellon University.
Moravec mi ha chiesto di immaginare un futuro lontano in cui saremo in
grado di effettuare il reverse engineering del cervello per uno scopo
specifico: trasferire la mente in un corpo robotico immortale anche mentre
una persona è ancora cosciente13. Se siamo in grado di effettuare il reverse
engineering di ogni singolo neurone del cervello, perché non crearne una
copia fatta di transistor, duplicando con esattezza i processi di pensiero
della mente? In questo modo non dovremmo morire per vivere in eterno:
potremmo rimanere coscienti durante l’intero processo.
Secondo Moravec esso dovrebbe avvenire per gradi. Per prima cosa, ci
si ritrova su una barella, accanto a un robot privo di cervello. Poi, un
chirurgo meccanico estrae un paio di neuroni dal nostro cervello e li ricrea
con alcuni transistor collocati nel robot (dei fili collegano il nostro cervello
ai transistor nella testa vuota del robot). I neuroni vengono quindi gettati via
e sostituiti dal circuito con i transistor; dal momento che rimane collegato ai
transistor tramite dei fili, durante tutto il processo il nostro cervello
continuerà a funzionare in modo normale, lasciandoci del tutto coscienti. Il
superchirurgo continuerà a rimuovere sempre più neuroni, creandone ogni
volta una copia con i transistor nel robot. A metà operazione, il 50 per cento
del nostro cervello sarà vuoto, e l’altro 50 collegato tramite fili a una serie
di transistor nella testa del robot. Alla fine tutti i neuroni verranno rimossi e
trasferiti in un cervello robot che risulterà dunque essere una copia esatta
del nostro cervello originale, neurone per neurone.
Terminato il processo, ad ogni modo, ci alzeremo dalla barella
scoprendo di possedere un corpo perfetto: saremo belli oltre ogni
immaginazione, con poteri e capacità sovrumani. In più, saremo anche
immortali. Guardando il nostro corpo mortale originale, ci sembrerà un
vecchio guscio senza mente.
Questa tecnologia è, senza dubbio, molto più avanti rispetto al nostro
tempo; non siamo in grado di effettuare il reverse engineering del cervello
umano, figuriamoci di realizzarne una copia fatta di transistor (uno dei
principali appunti rivolti a questo approccio è che un cervello di transistor
non entrerebbe all’interno di un cranio: difatti, considerate le dimensioni dei
componenti elettronici, il cervello di transistor avrebbe la mole di un
enorme supercomputer. In tal senso, questa proposta inizia ad assomigliare
a quella precedente, in cui il cervello ricostruito viene archiviato in un
grosso supercomputer, che a sua volta controlla un surrogato. Il grande
vantaggio di questo approccio, però, è che non ci toccherebbe morire).
Nel contemplare queste prospettive viene il capogiro: ognuna di esse
sembra essere coerente con le leggi della fisica, ma le barriere tecnologiche
che ne ostacolano la realizzazione sono davvero cospicue. Tutte queste
proposte che prevedono di uploadare la coscienza in un computer
richiedono una tecnologia che appartiene a un futuro ancora molto distante.
Esiste tuttavia un’ultima proposta tramite cui raggiungere l’immortalità:
una proposta che non richiede alcun reverse engineering del cervello. Tutto
ciò che servirebbe è un nanobot microscopico in grado di manipolare i
singoli atomi. Allora perché non godersi l’immortalità nel proprio corpo
naturale, al costo di una periodica “messa a punto”?

Cos’è l’invecchiamento?

Questo nuovo approccio muove dalle più recenti ricerche sul processo
di invecchiamento. In passato tra i biologi non c’era accordo circa le sue
cause, ma nell’ultimo decennio una nuova teoria ha guadagnato sempre più
consensi, unificando molti filoni di ricerca: fondamentalmente,
l’invecchiamento è un accumulo di errori a livello genetico e cellulare. A
mano a mano che le cellule invecchiano, nel loro DNA iniziano a
raccogliersi errori e detriti cellulari, rendendole apatiche. Le cellule
cominciano a funzionare sempre peggio, la pelle inizia ad afflosciarsi, le
ossa diventano fragili, i capelli cadono e il nostro sistema immunitario si
deteriora. Alla fine, moriamo.
Le cellule hanno dei meccanismi di correzione degli errori. Solo che,
nel corso del tempo, anch’essi cominciano a fare cilecca, e
l’invecchiamento accelera. L’obiettivo, dunque, è quello di rafforzare i
meccanismi naturali di riparazione cellulare, cosa che può essere fatta
tramite la terapia genica e la creazione di nuovi enzimi. Ma c’è anche un
altro modo: utilizzando nanobot assemblatori.
Cardine di questa tecnologia futuristica è appunto il nanobot, una
macchina minuscola che pattuglia il flusso sanguigno eliminando le cellule
tumorali, riparando i danni del processo di invecchiamento e mantenendoci,
per sempre, giovani e in forma. La natura ha già creato dei nanobot sotto
forma di cellule immunitarie che perlustrano il corpo attraverso il sangue:
ma queste attaccano virus e corpi estranei, non il processo di
invecchiamento.
Se i nanobot potessero resettare i danni prodotti dal processo di
invecchiamento a livello molecolare e cellulare, attaccando le cellule
tumorali, neutralizzando i virus e sgombrando il campo dai detriti e dalle
mutazioni, l’immortalità sarebbe raggiungibile con i nostri stessi corpi, non
grazie a un robot o a un clone.

Nanobot: realtà o fantasia?

Il mio personale punto di vista è che se qualcosa è coerente con le leggi


della fisica, allora realizzarla è solo questione di costi e ingegneria. Anche
se gli ostacoli tecnici ed economici possono essere tanto scoraggianti da
rendere una strada impraticabile oggi, ciò non toglie che sia ancora
possibile intraprenderla in futuro.
Il nanobot ha sembianze semplici: un congegno minuscolo con braccia e
clipper in grado di afferrare le molecole, tagliarle in punti specifici e quindi
ricongiungerle. Tagliando e incollando i vari atomi, può in pratica creare
qualsiasi molecola conosciuta, come un mago che tiri fuori quello che vuole
dal suo cilindro. Dato che è anche capace di autoriprodursi, basta costruire
un solo nanobot che poi prenderà le materie prime, le selezionerà e creerà
milioni di altri nanobot; ciò potrebbe innescare una seconda Rivoluzione
industriale, abbassando drasticamente il costo dei materiali da costruzione.
Forse un giorno ogni abitazione disporrà del suo assemblatore molecolare, e
potremo avere tutto ciò che vogliamo semplicemente chiedendolo.
Ma la domanda fondamentale è: i nanobot sono in accordo con le leggi
della fisica? Già nel 2001 due personaggi visionari si accapigliarono sulla
cruciale questione: la posta in gioco era niente meno che un giudizio
complessivo del futuro della tecnologia. Da una parte c’era il compianto
Richard Smalley, premio Nobel per la chimica e scettico sui nanobot;
dall’altra Eric Drexler, uno dei padri fondatori della nanotecnologia. La loro
titanica battaglia a colpi di batti e ribatti si articolò sulle pagine di diverse
riviste scientifiche tra il 2001 e il 200314.
Smalley sosteneva che, su scala atomica, l’emergere di nuove forze
quantistiche avrebbe reso impossibile l’utilizzo dei nanobot: secondo lui,
l’errore commesso da Drexler e da altri stava nel fatto che, con le sue
braccia e i suoi clipper, il nanobot non può funzionare su scala atomica. Ci
sono forze nuove (come l’effetto Casimir) che fanno sì che gli atomi si
respingano o si attraggano l’un l’altro. Smalley lo etichettava come il
problema delle «fat fingers» e delle «sticky fingers» (“problema della dita
grasse e appiccicose”), intendendo sottolineare come le dita dei nanobot
non siano pinze delicate e precise; considerate le forze quantistiche in gioco
sarebbe come cercare di saldare dei metalli indossando guanti molto spessi.
Inoltre, ogni volta che cercate di saldare due pezzi di metallo, essi si
respingono o si attaccano, e vi sarà difficile afferrarne uno nel modo
corretto.
Drexler ribatté sostenendo che i nanobot non fossero fantascienza, e che
esistessero già: bastava pensare ai ribosomi nel nostro corpo, che svolgono
un ruolo essenziale nel creare e modellare le molecole di DNA (tagliando e
ricongiungendo le molecole in punti specifici, i ribosomi rendono possibile
la creazione di nuovi filamenti di DNA).
Non ritenendosi soddisfatto, Smalley affermò che i ribosomi non
fossero macchine multiuso in grado di tagliare e incollare tutto ciò che
vogliono, in quanto lavorano specificamente sulle molecole di DNA.
Inoltre, i ribosomi sono sostanze chimiche organiche che hanno bisogno di
enzimi per accelerare una reazione che, tra l’altro, si verifica solo in
ambiente acquoso; i transistor sono fatti di silicio, non di acqua, ragion per
cui i suddetti enzimi non avrebbero mai potuto funzionare. Drexel, a sua
volta, sottolineò come i catalizzatori possano funzionare anche in assenza di
acqua. Questo dibattito infervorato andò avanti per diversi round, finché
entrambi i contendenti si dichiararono esausti: Drexler dovette ammettere
che l’analogia con gli operai armati di cutter e fiamme ossidriche fosse
troppo semplicistica, e che talvolta le forze quantistiche, in effetti, si
mettono in mezzo; ma Smalley dovette concedere di non essere in grado di
assestare un colpo da KO. La natura ha escogitato almeno un modo per
eludere il problema “delle dita grasse e appiccicose” (con i ribosomi) e
forse potrebbero essercene altri più sottili e meno fantasiosi.
A prescindere dai dettagli di questo dibattito, Ray Kurzweil è convinto
che i nanobot, che abbiano o meno le dita grasse e appiccicose, un giorno
saranno in grado di modellare non solo le molecole, ma la società stessa.
Così ha riassunto la sua visione: «Non ho intenzione di morire […]. In
definitiva, prevedo un risveglio dell’intero universo. Penso che al momento
esso sia costituito sostanzialmente da materia ed energia inerte, e che si
risveglierà. E se dovesse trasformarsi in una materia e un’energia
immensamente intelligenti, spero di esservi parte»15.
Per quanto sbalorditive, queste congetture rappresentano solo un
preambolo al prossimo salto speculativo: forse un giorno la mente sarà non
solo svincolata dal corpo materiale, ma anche in grado di esplorare
l’universo come un essere di pura energia. L’idea che la mente un giorno
possa essere libera di vagare tra le stelle è il sogno umano più ardito; ma,
nonostante abbia dell’incredibile, secondo le leggi della fisica è
perfettamente plausibile.

1
Kevin Nelson, The Spiritual Doorway in the Brain, Dutton, New York 2011, p. 137.
2
Ivi, p. 140.
3
“National Geographic News”, 8 aprile 2010, http://tinyurl.com/qgu8yxy; si veda anche Nelson,
The Spiritual Doorway in the Brain, cit., p. 126.
4
Nelson, The Spiritual Doorway in the Brain, cit., p. 126.
5
Ivi, p. 128.
6
Dubai (EAU), novembre 2012. Intervistato nel febbraio del 2003 per la trasmissione radiofonica
Exploration. Intervistato nell’ottobre del 2012 per la trasmissione radiofonica Science Fantastic.
7
Bloom, Best of the Brain from Scientific American, cit., p. 191.
8
Sweeney, Brain, cit., p. 298.
9
Carter, Mapping the Mind, cit., pp. 298.
10
Intervista del settembre 2009 a Robert Lanza per il programma radiofonico Exploration.
11
Seung, Sebastian, TED Talks, http://tinyurl.com/7gxvzr9.
12
http://tinyurl.com/oycl34h.
13
Intervista del novembre 1998 ad Hans Moravec per il programma radiofonico Exploration.
14
Si veda la serie di lettere conclusive del lungo scambio pubblicate su “Chemical and Engineering
News” tra il 2003 e il 2004.
15
Garreau, Radical Evolution, cit., p. 128.
Capitolo 13
La mente come pura energia

L’idea che un giorno la coscienza possa espandersi nell’universo è stata


presa in seria considerazione dai fisici. Sir Martin Rees, Astronomo Reale
della Gran Bretagna, ha scritto: «I tunnel spaziotemporali, la elevata
dimensionalità e i computer quantistici aprono la strada alla possibilità di
trasformare il nostro intero universo in un “cosmo vivente”»1.
Ma è possibile che un giorno la mente possa divenire libera di esplorare
l’universo senza più essere legata a un corpo materiale? È questo il tema del
racconto di fantascienza di Isaac Asimov, L’ultima domanda (lui stesso l’ha
ricordato come quello a cui era più legato, tra i tanti scritti). Ambientato in
un futuro distante miliardi di anni, narra di come gli esseri umani abbiano
disposto i propri corpi fisici in capsule conservate su un pianeta lontano,
rendendo libere le menti di controllare l’energia pura della galassia; anziché
surrogati in acciaio e silicio, sono esseri di pura energia in grado di vagare
senza sforzo nelle profondità dello spazio, al di là di supernove, galassie in
collisione e simili meraviglie. Per quanto l’umanità sia evoluta, però, resta
impotente davanti alla prospettiva ineluttabile della morte termica
dell’universo. In preda alla disperazione, gli uomini costruiscono un
supercomputer che possa rispondere alla domanda definitiva: è possibile
invertire il processo di morte dell’universo? Il computer è così grosso e
complesso che deve essere collocato nell’iperspazio; tuttavia, l’unica
risposta che riesce a dare è che non ci sono informazioni sufficienti per
fornire una risposta.
A distanza di eoni, le stelle cominciano a spegnersi e l’universo sembra
in procinto di collassare. Ma ecco che il supercomputer scopre un modo per
invertire il processo: raccoglie tutte le stelle morte, le fonde in un enorme
bulbo cosmico e le accende. Mentre il bulbo esplode, il supercomputer
annuncia: «Sia fatta la luce!».
E luce fu.
Una volta sbarazzatasi del corpo fisico, dunque, l’umanità può
impersonare il ruolo divino e ricreare un nuovo universo.
Sulle prime, là dove parla di esseri fatti di pura energia che vagano per
l’universo, il racconto di Asimov sembra poco credibile: siamo abituati a
pensare ad esseri fatti di carne e sangue che, soggetti alle leggi della fisica e
della biologia, vivono e respirano sulla Terra, legati al nostro pianeta dalla
gravità. Il concetto di entità di energia coscienti, che si librano nella galassia
libere dalle limitazioni di un corpo fisico, ci suona un po’ strano.
Eppure, il sogno di poter esplorare l’universo come esseri di energia
pura non contraddice affatto le leggi della fisica: pensate alla forma più
familiare di energia pura, un raggio laser, in grado di contenere enormi
quantità di informazioni. Oggi migliaia di miliardi di segnali – sotto forma
di telefonate, pacchetti dati, video e messaggi di posta elettronica – sono
trasmessi regolarmente da cavi a fibre ottiche percorsi da raggi laser: un
giorno, forse nel prossimo secolo, saremo in grado di trasmettere la
coscienza dei nostri cervelli in tutto il sistema solare, riversando i nostri
connettomi su potenti raggi laser. Fra due secoli potremmo essere in grado
di inviare il nostro connettoma in direzione delle stelle (ciò sarà fattibile
perché la lunghezza d’onda di un raggio laser è microscopico, nell’ordine
dei milionesimi di metro, dunque nel suo modello d’onda è possibile
comprimere grandi quantità di informazioni: pensate al codice Morse, i cui
punti e linee possono essere facilmente sovrapposti al modello di onda di un
raggio laser. Un maggior numero di informazioni può essere trasferito su un
fascio di raggi X, che ha una lunghezza d’onda inferiore alle dimensioni di
un atomo).
Un modo per esplorare la galassia, svincolati dalle caotiche restrizioni
della materia ordinaria, sarebbe quella di riversare i nostri connettomi su
raggi laser diretti verso la luna, i pianeti e le stelle; considerato il
programma a tappe forzate volto a individuare i nostri sentieri neuronali, il
connettoma completo del cervello umano sarà disponibile verso la fine di
questo secolo, e una forma di connettoma in grado di essere riversato su un
raggio laser potrebbe essere utilizzabile nel prossimo.
Il raggio laser dovrebbe contenere tutte le informazioni necessarie per
ricomporre un essere cosciente. Se anche gli ci volessero anni, o addirittura
secoli, per giungere a destinazione, dal punto di vista del soggetto a bordo
del raggio laser il viaggio sarebbe istantaneo: la nostra coscienza resterebbe
sostanzialmente congelata mentre il raggio laser si invola attraverso lo
spazio vuoto (dunque il viaggio verso l’altro capo della galassia
sembrerebbe avvenire in un battibaleno).
Così, eviteremmo tutti gli sgradevoli inconvenienti di un viaggio
interplanetario e interstellare. In primo luogo, non vi sarebbe alcun bisogno
di costruire colossali razzi vettori: sarà sufficiente premere il tasto “on” di
un laser. In secondo luogo, il nostro corpo non sarebbe soggetto a
schiaccianti forze di accelerazione mentre percorriamo lo spazio: essendo
immateriali, saremo proiettati all’istante alla velocità della luce. Terzo, non
incorreremmo nei pericoli dello spazio esterno, come possibili impatti con
meteoriti e raggi cosmici letali, dato che questi ci passerebbero attraverso
senza arrecarci alcun danno. Quarto, non sarebbe necessario sottoporci a
criogenizzazione, o sopportare anni di noia mentre annaspiamo
penosamente su un comunissimo razzo: sfrecceremmo attraverso lo spazio
alla massima velocità, congelati nel tempo.
Una volta giunti a destinazione, dovrebbe esserci una stazione ricevente
per trasferire i dati del raggio laser su un sistema centrale, così da riportare
di nuovo in vita la coscienza. Il codice impresso sul raggio laser
prenderebbe il controllo del mainframe e ne reindirizzerebbe la
programmazione, e questo, sottoposto al coordinamento da parte del
connettoma, darebbe avvio alla simulazione del futuro in conformità ai suoi
obiettivi (diventerebbe, cioè, cosciente).
L’essere cosciente all’interno del mainframe invierebbe, quindi, segnali
in modalità wireless a un surrogato robotico già in attesa a destinazione:
così, ci “sveglieremmo” improvvisamente su un pianeta o su una stella
lontana, dentro il corpo robotico del mostro surrogato, come se il viaggio
fosse avvenuto in un batter d’occhio (tutti i calcoli complessi verrebbero
effettuati da un grande computer mainframe, che coordinerebbe i
movimenti del surrogato in modo da consentirci di portare avanti le nostre
attività su una stella lontana). Saremmo del tutto inconsapevoli dei pericoli
dei viaggi spaziali, come se nulla di tutto ciò fosse accaduto.
Ora immaginate una vasta rete di queste stazioni sparse per il sistema
solare e per la galassia: dal nostro punto di vista, saltellare di stella in stella
sarebbe semplicissimo, perché viaggeremmo alla velocità della luce lungo
tratte praticamente istantanee. Ad ogni stazione ci attenderebbe il corpo di
un surrogato robotico, come fosse una vuota camera d’albergo pronta per il
check-in: in pratica, arriveremo a destinazione riposati ed equipaggiati di un
corpo sovrumano.
Il tipo di corpo robotico surrogato che ci attende alla fine del viaggio
dipenderebbe dalla missione: se si trattasse di esplorare un mondo nuovo
dovrebbe probabilmente lavorare in condizioni difficili, ed essere in grado
di adattarsi a un diverso campo gravitazionale, un’atmosfera venefica,
temperature gelide o infuocate, differenti cicli giorno-notte e una pioggia
costante di radiazioni mortali. Per sopravvivere in una simile situazione
impossibile, il corpo surrogato dovrebbe essere dotato di forza e sensi
potenziati.
Se l’intento del viaggio fosse invece ricreativo, allora il corpo surrogato
sarebbe appositamente progettato per attività piacevoli: massimizzerà per
esempio la gioia di librarsi nello spazio su sci, tavole da surf, aquiloni,
alianti o aerei, o quello di lanciare una palla servendosi di mazze o
racchette.
Se invece il compito da svolgere fosse di mescolarsi ai locali per
studiarli, il surrogato dovrebbe avere le caratteristiche fisiche della
popolazione indigena (come nel film Avatar).
Certo, per creare questa rete di stazioni laser potrebbe essere necessario
innanzitutto raggiungere i pianeti e le stelle alla vecchia maniera, a bordo
cioè di astronavi più convenzionali; solo allora si potrebbe costruire la
prima serie di queste stazioni laser (forse il modo più rapido, economico ed
efficiente per creare una simile rete interstellare sarebbe quello di inviare
sonde robotiche autoreplicanti in tutta la galassia: potendo produrre infinite
copie a partire da un esemplare, dopo molte generazioni ci sarebbero
miliardi di sonde in ogni angolo, ognuna con il compito di creare una
stazione laser ovunque atterri. Approfondiremo il discorso nel prossimo
capitolo).
Una volta stabilita la rete per intero, sarà possibile immaginare un flusso
continuo di esseri coscienti a spasso tra le stelle, con un numero altissimo di
soggetti in partenza per, o in arrivo da, svariati punti della galassia.
Qualsiasi stazione laser della rete potrebbe avere l’aspetto della Grand
Central Station di New York.
Per quanto tutto ciò possa apparire futuristico, la fisica che vi è alla base
è già assodata, in quanto include l’immissione di grandi quantità di dati sui
raggi laser, il loro invio a migliaia di chilometri di distanza e la loro
decodifica una volta ricevuti. Gli ostacoli principali sono quindi dei
problemi non di natura fisica, bensì di progettazione, e a causa loro
potrebbe volerci ancora un secolo prima di poter inviare tutto il nostro
connettoma su raggi laser abbastanza potenti da raggiungere altri pianeti; e
forse un altro ancora per riuscire a proiettare le nostre menti sulle stelle.
Per verificare la fattibilità della cosa potrebbe essere istruttivo fare un
paio di calcoli a spanne. Il primo problema è che, per quanto sembrino in
formazione parallela, all’interno di un raggio laser pur sottilissimo i fotoni
divergono, seppur di poco (da bambino, certe volte puntavo una torcia
contro la luna e mi chiedevo se la luce potesse raggiungerla. La risposta è
sì: l’atmosfera assorbe oltre il 90 per cento del fascio originale, ma il resto
procede fino alla superficie lunare. Il vero problema è che l’immagine che
la torcia proietta infine sulla luna ha un diametro di diversi chilometri. Il
fenomeno è dovuto al principio di indeterminazione; pefino i raggi laser
pian piano divergono, e per le leggi della fisica quantistica, dal momento
che non potete conoscere la posizione esatta del raggio laser, esso si
espande).
Ma proiettare i nostri connettomi sulla luna non ci arreca grossi
vantaggi, dal momento che è più facile rimanere sulla Terra e controllare il
surrogato lunare direttamente via radio (il ritardo con cui il surrogato riceve
il comando emesso è di appena un secondo); un vantaggio reale si avrebbe
nel caso in cui si controllassero surrogati su altri pianeti, dal momento che
un messaggio radio richiederebbe anche ore per raggiungerli (emettere una
serie di comandi radio verso un surrogato, attendere una risposta e inviare
un nuovo comando potrebbe rivelarsi un processo lento, lungo anche
giorni).
Se vorremo inviare un raggio laser verso altri pianeti, dovremo prima
stabilire una batteria di laser sulla luna, ben al di là dell’atmosfera, dove
non c’è aria che possa assorbire il segnale. Emanato dalla luna, un raggio
laser potrebbe arrivare su altri pianeti in un lasso di tempo che va da pochi
minuti ad alcune ore. Una volta che il raggio laser avrà inviato il
connettoma ai pianeti, sarà possibile controllare il surrogato senza più
fattori di ritardo.
La creazione di una rete di stazioni laser in tutto il sistema solare
potrebbe essere portata a termine entro il prossimo secolo; ma i problemi
risulteranno ingigantiti quando cercheremo di indirizzare il laser verso le
stelle, perché avremo bisogno di ripetitori collocati su asteroidi e stazioni
spaziali posti lungo tutto il tragitto, al fine di amplificare il segnale, ridurre
gli errori e inviare il messaggio alla stazione di collegamento successiva.
Questo potrebbe in teoria essere fatto utilizzando le comete che si trovano
tra il nostro sole e le stelle vicine: per esempio, a circa 1,5 anni luce dal sole
(o a un quarto della distanza dalla stella più vicina) si estende la nube di
Oort: si tratta di un guscio sferico composto da miliardi di comete, molte
delle quali giacciono immobili nel vuoto. Con ogni probabilità esiste una
simile nube di comete intorno al sistema stellare Alfa Centauri, il più vicino
al sistema solare. Supponendo che anche questa nuova nube si estenda a
circa un anno luce da quelle stelle, una buona metà della distanza tra il
nostro sistema solare e il sistema successivo conterrebbe comete stazionarie
su cui poter installare stazioni di collegamento laser.
Un altro problema concerne l’enorme mole di dati da inviare via laser.
Secondo Sebastian Seung, il totale delle informazioni contenute in un
singolo connettoma è di circa uno zettabyte (vale a dire, un 1 seguito da
ventuno zeri), più o meno l’equivalente di tutte le informazioni contenute
attualmente sul web. Ipotizziamo adesso di proiettare nello spazio una
batteria di raggi laser per trasmettere questa mole immensa di informazioni.
Le fibre ottiche possono trasportare terabyte di dati al secondo (un 1 seguito
da dodici zeri). Nell’arco del prossimo secolo, i progressi in fatto di
memorizzazione delle informazioni, compressione dei dati e concentrazione
dei raggi laser potranno incrementare tale efficienza di un milione di volte:
ciò significa che servirebbero un paio d’ore o giù di lì per inviare un fascio
nello spazio che contenga tutte le informazioni contenute all’interno di un
cervello.
Il problema non è quindi l’enorme quantità di dati inviati tramite raggi
laser: in linea di principio i raggi laser possono trasportare una quantità
illimitata di dati, ma il vero collo di bottiglia sono le stazioni riceventi, che
devono avere commutatori in grado di manipolare una simile quantità di
dati a una velocità esorbitante. I transistor al silicio potrebbero non essere
abbastanza veloci per gestire il volume di traffico; piuttosto, potremmo
dover ricorrere a computer quantistici, che elaborano non tramite transistor
al silicio ma singoli atomi. Allo stato attuale i computer quantistici sono a
uno stadio primitivo, ma di qui a un secolo potrebbero essere abbastanza
potenti da gestire zettabyte di informazioni.

Esseri di energia fluttuanti


Un altro vantaggio di utilizzare i computer quantistici per elaborare
questa montagna di dati risiede nella possibilità di creare esseri di energia in
grado (come spesso si vede nelle opere di fantascienza e nei fantasy) di
librarsi e fluttuare nell’aria. Questi esseri rappresenterebbero la coscienza
nella sua forma più pura. A un primo esame, tuttavia, sembrerebbero
violare le leggi della fisica, dal momento che la luce viaggia, sempre, alla
velocità della luce.
Negli ultimi dieci anni, però, la scena è stata occupata dai fisici
dell’università di Harvard, che hanno annunciato di essere in grado di
arrestare un raggio di luce. A quanto pare, infatti, hanno compiuto
l’impossibile, ovvero rallentare un fascio luminoso a un punto tale da
poterlo catturare in una bottiglia; ma osservando con attenzione un
bicchiere d’acqua si nota come non sia un’operazione così inverosimile.
Quando un raggio di luce entra nell’acqua, lo fa con un certo angolo di
inclinazione che lo induce a rallentare e, allo stesso modo, la luce devia la
propria traiettoria penetrando attraverso un vetro (circostanza che rende
possibile l’esistenza di telescopi e microscopi). La ragione di tutto ciò trova
spiegazione nella teoria quantistica.
Pensate al vecchio pony express che nel diciannovesimo secolo
recapitava la posta nel West: ogni pony poteva correre a gran velocità tra le
stazioni postali, ma il fattore di ritardo era il collo di bottiglia che si creava
ad ogni stazione, dove la corrispondenza andava prelevata e/o depositata, e
il cavaliere e il pony sostituiti. Allo stesso modo, nel vuoto tra gli atomi la
luce viaggia sempre alla velocità della luce (c), pari a circa trecentomila
chilometri al secondo. Tuttavia, quando colpisce gli atomi la luce rallenta:
viene da essi fugacemente assorbita e quindi riemessa, ma con una frazione
di secondo di ritardo (responsabile del fatto che i raggi di luce sembrino
rallentare nel vetro o nell’acqua).
Gli scienziati di Harvard hanno sfruttato il fenomeno, prendendo un
contenitore di gas e portandolo progressivamente a una temperatura vicina
allo zero assoluto. A simili temperature, gli atomi di gas trattengono la luce
per periodi sempre più lunghi prima di riemetterla. Incrementando tale
fattore di ritardo, sono riusciti a frenare il raggio di luce fino ad arrestarlo: i
raggio viaggiava sempre alla velocità della luce tra gli atomi, ma veniva
rallentato da questi ultimi per un lasso di tempo via via più lungo.
Le possibilità che, invece di assumere il controllo di un surrogato, un
essere cosciente possa preferire un forma di energia pura che gli consenta di
vagare come uno spettro, a questo punto, aumentano.
In futuro, quando i nostri connettomi verranno inviati sulle stelle tramite
raggi laser, questi ultimi potranno essere trasferiti in una nuvola di molecole
di gas e quindi compressi in una bottiglia: una simile “bottiglia di luce” è
qualcosa di analogo a un computer quantistico, dal momento che entrambi
hanno un insieme di atomi che vibrano all’unisono (essendo in fase tra loro)
e possono eseguire calcoli complessi ben al di là delle capacità di un
normale computer. Dunque, risolvere i problemi connessi ai computer
quantistici potrebbe offrirci anche la possibilità di controllare le “bottiglie di
luce”.

Più veloce della luce?

Risulta evidente, allora, che tutti i problemi di cui abbiamo parlato


riguardano l’aspetto progettuale: non c’è nessuna legge della fisica che ci
impedisca in futuro di viaggiare su un fascio di energia. Forse sarà questo,
quindi, il modo più conveniente di visitare pianeti e stelle… anziché
cavalcarlo, come sognavano i poeti, diventeremo un raggio di luce.
Per comprendere la visione delineata nel racconto fantascientifico di
Asimov, dobbiamo chiederci se i viaggi intergalattici a una velocità
superiore a quella della luce siano davvero possibili. Nella storia esseri
dotati di immenso potere spaziano liberamente tra galassie distanti fra loro
milioni di anni luce.
Ma ciò è possibile? Per rispondere a questa domanda, dobbiamo forzare
i confini stessi della moderna fisica quantistica. In pratica, quelle cose che
chiamiamo wormhole potrebbero offrire una scorciatoia nella vastità dello
spazio-tempo; ed esseri composti di pura energia godrebbero di un bel
vantaggio nell’attraversarle.
In un certo senso, Einstein è il poliziotto che ci sbarra la strada
sostenendo che non si possa andare più veloce della luce, essendo quella la
velocità massima raggiungibile nell’universo. Difatti perfino su un raggio
laser, tanto per fare un esempio, attraversare la Via Lattea richiederebbe
centomila anni (anche se per il viaggiatore sarebbe trascorso solo un
istante), e andare da una galassia all’altra milioni o miliardi di anni luce.
Lo stesso Einstein, però, nel suo lavoro ha suggerito una scappatoia
possibile. Nella sua teoria della relatività generale del 1915, infatti, ha
dimostrato come la gravità nasca dalla curvatura dello spazio-tempo: essa
non è l’“attrazione” di una forza misteriosa e invisibile, come credeva
Newton, bensì una “spinta” causata dallo spazio stesso che si ripiega
intorno a un oggetto. Ciò non solo spiegava in modo brillante la curvatura
della luce stellare e l’espansione dell’universo, ma ha lasciato aperta la
possibilità che il tessuto dello spazio-tempo possa estendersi fino a
strapparsi.
Nel 1935 Einstein e il suo studente Nathan Rosen illustrarono
l’eventualità che due buchi neri possano essere uniti e combacianti, come
gemelli siamesi, di modo che, cadendo in uno di essi, diventi possibile, in
linea di principio, riemergere dall’altro (immaginate di unire le estremità di
due imbuti: l’acqua che gocciola in uno fuoriesce dall’altro). Questo
wormhole, chiamato anche ponte di Einstein-Rosen, ci ha portati a
immaginare l’esistenza di portali o gateway tra universi. Lo stesso Einstein
ha scartato la possibilità di passare attraverso un buco nero, dal momento
che nel farlo si rimarrebbe schiacciati, ma diversi sviluppi successivi hanno
ventilato la possibilità di viaggiare a velocità superiori a quella della luce
attraverso un wormhole.
Nel 1963 il matematico Roy Kerr scoprì che un buco nero rotante non
collassa in un singolo punto, come si pensava, ma in un anello che ruota a
una velocità tale che le forze centrifughe gli impediscono di crollare.
Finendo dentro l’anello, ci si potrebbe ritrovare in un altro universo. Le
forze gravitazionali sarebbero enormi, ma non infinite: sarebbe come
infilare la mano attraverso lo specchio di Alice e riaffiorare in un universo
parallelo (il bordo dello specchio sarebbe l’anello formato dal buco nero).
Dalla scoperta di Kerr, decine di altre soluzioni delle equazioni di Einstein
hanno dimostrato che, in linea di principio, è possibile passare da un
universo all’altro senza restare all’istante schiacciati nel passaggio. Dato
che ogni buco nero osservato finora nello spazio ruota a velocità
elevatissime (alcuni raggiungono il milione e mezzo di chilometri all’ora),
questi gateway cosmici potrebbero essere davvero comuni.
Nel 1988 il fisico Kip Thorne del Caltech, assieme ai suoi colleghi, ha
dimostrato che, con abbastanza “energia negativa”, potrebbe essere
possibile stabilizzare un buco nero così da rendere un wormhole
“attraversabile” (dunque, liberamente, da entrambi i versi e senza rimanerne
schiacciati); l’energia negativa è forse la materia più esotica dell’universo,
ma esiste davvero e può essere ricreata (in quantità microscopiche) in
laboratorio.
Ecco, perciò, il nuovo paradigma. In primo luogo, una civiltà avanzata
dovrebbe concentrare sufficiente energia positiva in un unico punto,
paragonabile a un buco nero, per aprire un varco nello spazio che metta in
collegamento due punti distanti. Dopodiché, dovrebbe accumulare
sufficiente energia negativa per mantenerlo aperto, affinché rimanga, cioè,
stabile e non si richiuda mentre lo si attraversa.
Adesso possiamo mettere questa idea nella giusta prospettiva. Entro la
fine di questo secolo si potrebbe riuscire a mappare l’intero connettoma
umano. All’inizio del prossimo potrebbe essere messa a punto una rete laser
interplanetaria, così da irradiare la coscienza in tutto il sistema solare, e per
farlo non servirebbe nessuna nuova legge della fisica. Per una rete laser
interstellare potrebbe essere necessario attendere il secolo successivo; ma
dal punto di vista tecnologico una civiltà capace di giocare con i wormhole
sarebbe migliaia di anni avanti a noi, e in grado di espandere i confini della
fisica conosciuta.
Tutto questo, dunque, ha delle implicazioni dirette quando ci si chiede
se la coscienza possa o meno passare da un universo all’altro. Se vi
avvicinaste in carne e ossa a un buco nero, la forza di gravità sarebbe così
intensa da rendervi simili a tanti spaghetti, perché quella esercitata sulla
gamba sarebbe maggiore di quella esercitata sulla testa (e il vostro corpo
finirebbe per essere allungato dalle forze di marea). In realtà,
nell’avvicinarvi a un buco nero anche gli atomi del vostro corpo verrebbero
deformati fino al punto da strappar via gli elettroni dai nuclei, e verrebbero
disintegrati. Per avere un’idea delle forze in gioco, considerate le maree
sulla Terra e gli anelli di Saturno. La gravità della luna e quella del sole
esercitano una tale attrazione sulla Terra da provocare un consistente
innalzamento degli oceani durante quella che viene definita, appunto, alta
marea; e se una luna finisse troppo vicina a un pianeta gigante come
Saturno, le forze di marea la deformerebbero fino a distruggerla (la distanza
in prossimità della quale i singoli satelliti verrebbero distrutti dalla forza di
marea è conosciuta come limite di Roche: gli anelli di Saturno si trovano
esattamente su tale limite, e quindi potrebbero essere ciò che rimane di un
satellite finito troppo vicino al pianeta madre).
Se anche riuscissimo a entrare in un buco nero rotante e a utilizzare
l’energia negativa per stabilizzarlo, i campi gravitazionali potrebbero essere
ancora così potenti da “spaghettizzarci”.
Ma è proprio questo il punto in cui raggi laser registrano un vantaggio
importante sulla materia quando si parla di attraversamento di wormhole:
essendo immateriale, nell’avvicinarsi a un buco nero il laser non potrebbe
essere deformato dalle forze di marea; piuttosto, subirebbe uno
“spostamento verso il blu” (ovvero, guadagnerebbe energia e aumenterebbe
di frequenza). E se anche il laser subisse una distorsione, le informazioni
che convoglia rimarrebbero intatte. Tanto per fare un esempio, un
messaggio in codice Morse veicolato da un raggio laser si comprime, ma il
suo contenuto informativo rimane invariato. L’informazione digitale non
viene toccata dalle forze di marea: dunque, le forze gravitazionali, che
possono risultare fatali per gli esseri composti da materia, potrebbero invece
rivelarsi innocue per gli esseri che viaggiano su fasci di luce.
E non sarebbe il solo vantaggio di cui godrebbe un raggio laser.
Secondo il calcolo di alcuni fisici, un wormhole microscopico – delle
dimensioni di un atomo, diciamo – potrebbe essere più semplice da creare:
mentre la materia non sarebbe in grado di passare attraverso un wormhole
così minuscolo, i laser a raggi X, avendo una lunghezza d’onda inferiore
all’atomo, potrebbero riuscirci senza difficoltà.
Sebbene il brillante racconto di Asimov fosse chiaramente un’opera di
fantasia, per ironia della sorte, nella galassia potrebbe già esistere una vasta
rete interstellare di stazioni laser: solo che saremmo così arretrati da
ignorarlo. Per una civiltà migliaia di anni più avanti rispetto alla nostra sotto
il profilo tecnologico, digitalizzare i propri connettomi per spedirli sulle
stelle sarebbe un gioco da ragazzi. In tal caso, si potrebbe ipotizzare che
degli esseri intelligenti stiano già facendo viaggiare le proprie coscienze
lungo una vasta rete di raggi laser nella galassia. Nulla di ciò che
osserviamo con i nostri telescopi e i nostri satelliti più avanzati potrebbe
consentirci di rilevare una simile rete intergalattica.
Una volta Carl Sagan si rammaricò dell’eventualità che potessimo
vivere in un mondo circondato da civiltà aliene senza disporre della
tecnologia per poterlo appurare.
La domanda che ne deriva potrebbe dunque essere: cosa si nasconde in
una mente aliena?
Se dovessimo incontrare una civiltà avanzata, che tipo di coscienza
potrebbe mai avere? Un giorno, il destino della razza umana potrebbe
dipendere dalla risposta a questo interrogativo.
1
Martin Rees, Il secolo finale: perché l’umanità rischia di distruggersi nei prossimi cento anni,
Mondadori, Milano 2005, p. 191 (ed. orig. Our Final Hour, 2003).
Capitolo 14
La mente aliena

A volte penso che la certezza dell’esistenza di una vita intelligente da qualche parte nell’universo
ci sia data dal fatto che nessuno ha mai cercato di contattarci.
Bill Watterson

O siamo soli nell’universo, o non lo siamo. Entrambe le ipotesi sono terrificanti.


Arthur C. Clarke

Ne La guerra dei mondi di H.G. Wells alieni provenienti da Marte


attaccano la Terra perché il loro pianeta natale sta morendo. Armati di raggi
mortali e di giganti tripodi meccanici, inceneriscono svariate città e sono sul
punto di prendere il controllo del pianeta; ma, proprio quando stanno per
annientare ogni tentativo di resistenza, si arrestano misteriosamente. La loro
scienza e le loro armi avanzate non li avevano preparati al violento attacco
da parte delle più piccole tra le creature: i nostri germi.
Il romanzo di Wells ha creato un intero genere, aprendo la strada a
migliaia di pellicole come La Terra contro i dischi volanti e Independence
Day. Tuttavia, la maggior parte degli scienziati avverte un brivido quando
osserva il modo in cui sono descritti gli alieni, spesso raffigurati come
creature che ostentano emozioni e valori umani. Perfino con la pelle verde
fosforescente e la testa enorme, in una certa misura continuano ad
assomigliarci; hanno inoltre la curiosa tendenza a parlare la nostra lingua
alla perfezione.
Come hanno sottolineato molti scienziati, però, potremmo avere molte
più cose in comune con un’aragosta o con una lumaca di mare che con un
alieno venuto dallo spazio.
Come per la coscienza di silicio, probabilmente la coscienza aliena avrà
le caratteristiche generali descritte nella nostra teoria spazio-temporale;
ovvero, la capacità di creare un modello di mondo e di valutarne
l’evoluzione nel tempo in vista di un determinato obiettivo. Solo che,
mentre i robot possono essere programmati perché leghino emotivamente
con gli esseri umani e perché abbiano obiettivi compatibili con i nostri, una
coscienza aliena potrebbe non avere nessuna di queste due caratteristiche:
forse avrà valori e obiettivi propri e indipendenti da quelli dell’umanità. Su
quali potrebbero essere, possiamo fare solo delle ipotesi.
Freeman Dyson, fisico dell’Institute for Advanced Study di Princeton,
ha svolto attività di consulenza per il film 2001: Odissea nello spazio.
Quando alla fine ha visto il film, ne è rimasto molto soddifsatto: e non per
via degli straordinari effetti speciali, ma perché si trattava del primo film
hollywoodiano a presentare una coscienza aliena con intenzioni, desideri e
obiettivi del tutto estranei ai nostri. Per la prima volta, gli alieni non erano
semplici attori umani che si agitavano in orrendi costumi nel tentativo di
risultare minacciosi. Piuttosto, nel film la coscienza aliena appariva
lontanissima rispetto all’esperienza umana, e per noi incomprensibile.
Nel 2011 Stephen Hawking ha sollevato un’altra questione: il celebre
cosmogonista ha fatto notizia sostenendo che dovremmo tenerci pronti per
un possibile attacco alieno. In pratica, dato che se mai dovessimo avere un
contatto con una civiltà extraterrestre questa sarebbe più avanzata della
nostra, ne consegue che rappresenterebbe una minaccia mortale per la
nostra esistenza.
Basta solo ripensare a cosa è successo agli aztechi quando vennero in
contatto con il sanguinario Hernán Cortés e i suoi conquistadores per
immaginare quale potrebbe essere il nostro destino: armato di una
tecnologia che gli aztechi, fermi all’Età del Bronzo, non avevano mai visto
prima (come spade di ferro, polvere da sparo e cavalli), un ristretto
manipolo di tagliagole fu in grado nel 1521 di schiacciare in pochi mesi
l’antica civiltà precolombiana. Tutto questo pone una serie di domande:
come sarà la coscienza degli alieni? In che modo i loro processi di pensiero
e i loro obiettivi differiranno dai nostri? Cosa potrebbero volere?

Primo contatto in questo secolo

Non si tratta di una questione accademica: considerati i notevoli


progressi in campo astrofisico, potremmo davvero entrare in contatto con
un’intelligenza aliena nei prossimi decenni. Il modo in cui sapremo reagire
a tale eventualità potrebbe decidere l’esito di uno degli eventi più
importanti della storia umana, e numerosi sviluppi la stanno rendendo
sempre più verosimile.
Tanto per cominciare, nel 2011 il satellite Kepler ha “censito” per la
prima volta nella storia la Via Lattea. Dopo aver analizzato la luce di
migliaia di stelle, ha scoperto che una su duecento potrebbe consentire la
vita su un ipotetico pianeta simile alla Terra. Per la prima volta, quindi, c’è
stata offerta la possibilità di calcolare quanti pianeti nella Via Lattea
potrebbero avere caratteristiche analoghe a quelle della Terra: circa un
miliardo. Quando guardiamo una stella lontana abbiamo valide ragioni per
chiederci se qualcun altro non stia guardando verso di noi.
Finora sono più di mille gli esopianeti analizzati in dettaglio da
telescopi terrestri, e gli astronomi ne scoprono di nuovi al ritmo di circa due
alla settimana1. Purtroppo, sono quasi tutti delle dimensioni di Giove,
probabilmente desolati e disabitati; esistono, però, anche alcune “super
Terre”, pianeti rocciosi molto più grandi del nostro. Il satellite Kepler ha già
individuato circa 2500 pianeti candidati ad essere classificati come
extrasolari, alcuni dei quali simili alla Terra: essi si trovano alla giusta
distanza dalla rispettiva stella madre perché possano ospitare oceani liquidi,
e l’acqua allo stato liquido è il “solvente universale” che discioglie la
maggior parte delle sostanze chimiche organiche, come DNA e proteine.
Nel 2013 gli scienziati della NASA hanno annunciato la scoperta più
spettacolare ottenuta grazie a Kepler: due pianeti extrasolari gemelli della
Terra, a milleduecento anni luce di distanza, nella costellazione della Lira.
Rispettivamente, sono più grandi della Terra solo del 60 e del 40 per cento
e, cosa ancora più importante, si trovano entrambi all’interno della zona
abitabile della loro stella madre, per cui è possibile che ospitino oceani
liquidi2.
Inoltre, il telescopio spaziale Hubble ci ha fornito una stima del numero
totale di galassie nell’universo visibile: cento miliardi. Pertanto, possiamo
calcolare il numero di pianeti simili alla Terra nell’universo visibile: un
miliardo di volte cento miliardi, ovvero cento quintilioni.
Dal momento che si tratta di cifre astronomiche, lo sono altrettanto le
probabilità che esista altra vita nell’universo, soprattutto se si considera che
esso ha quasi quattordici miliardi di anni, e che c’è stato tutto il tempo per
assistere all’ascesa – e forse al crollo – di imperi intelligenti. In realtà,
avrebbe più del miracoloso l’eventualità che un’altra civiltà avanzata non
esista.
Il SETI e le civiltà aliene

In secondo luogo, la tecnologia dietro i radiotelescopi è sempre più


sofisticata; ad oggi sono circa un migliaio le stelle analizzate con attenzione
in cerca di segni di vita intelligente, ma nel prossimo decennio questo
numero potrebbe raggiungere il milione.
L’utilizzo di radiotelescopi per la ricerca di civiltà aliene risale al 1960,
quando l’astronomo Frank Drake avviò il Progetto Ozma (come la regina di
Oz), impiegando un radiotelescopio di 25 metri a Green Bank, in West
Virginia, segnando la nascita del progetto SETI (Search for Extraterrestrial
Intelligence). Purtroppo nessun segnale alieno venne captato. Nel 1971 la
NASA propose il progetto Cyclops, che avrebbe dovuto contare sul
supporto di 1500 radiotelescopi per un costo di 10 miliardi di dollari. Il
Congresso non gradì, e non sorprende che la cosa sia finita nel nulla.
Il finanziamento divenne disponibile nel 1971 per una proposta molto
più modesta: inviare nello spazio un messaggio codificato per gli alieni,
contenente 1679 bit di informazioni. Trasmesso tramite il radiotelescopio
gigante di Arecibo, in Porto Rico, verso l’ammasso globulare M13 (a circa
venticinquemila anni luce di distanza) esso fu il primo “biglietto di auguri
cosmico” al mondo, contenente importanti informazioni sulla razza umana;
rimase però senza risposta. Gli alieni non ne risultarono colpiti, o forse a
mettersi di mezzo fu semplicemente la velocità della luce: viste le enormi
distanze, la prima data possibile per un messaggio di risposta si colloca a
più di cinquantamila anni a partire da oggi.
Da allora, alcuni scienziati hanno espresso dubbi sull’opportunità di
reclamizzare la nostra esistenza presso gli alieni, almeno prima di conoscere
le loro intenzioni nei nostri confronti. Sono insomma in disaccordo con i
sostenitori del progetto METI (Messaging Extra-Terrestrial Intelligence),
che invece promuovono l’invio attivo di segnali nello spazio: dato che la
Terra invia già una grande quantità di segnali radio e tv nello spazio esterno,
dicono, un paio di messaggi in più non farà una grande differenza. Ad ogni
modo, secondo i detrattori del METI dovremmo astenerci dall’aumentare le
probabilità di essere scoperti da alieni potenzialmente ostili.
Nel 1995 gli astronomi si rivolsero a fonti private per avviare il SETI
Institute di Mountain View, in California, così da accentrare la ricerca e
dare inizio al progetto Phoenix, che sta tuttora cercando di studiare un
migliaio di stelle simili al sole nell’estensione radio compresa tra i 1200 e i
3000 megahertz. La strumentazione è tanto sensibile da raccogliere le
emissioni provenienti dal sistema radar di un aeroporto distante 200 anni
luce. Sin dalla sua fondazione, Il SETI Institute ha esaminato più di mille
stelle a un costo di cinque milioni di dollari all’anno, senza però nessuna
fortuna.
Un approccio più insolito è quello portato avanti dal progetto
SETI@home, avviato nel 1999 dagli astronomi dell’università della
California, a Berkeley, avvalendosi di un esercito di milioni di informatici
dilettanti. Chiunque può partecipare a questa impresa storica: la notte,
mentre dormite, il vostro screensaver potrebbe macinare alcuni dei dati che
affluiscono dal radiotelescopio di Arecibo. Finora al progetto si sono iscritti
più di cinque milioni di utenti in 234 paesi; forse ognuno di questi dilettanti
sogna di essere il primo nella storia umana a entrare in contatto con la vita
aliena, e che il proprio nome finisca sui libri come quello di un novello
Cristoforo Colombo. Il progetto SETI@home è andato crescendo con una
rapidità tale da essere diventato, in realtà, il più grande progetto informatico
di questo tipo mai intrapreso.
Ho chiesto a Dan Wertheimer, direttore del SETI@home, come sarebbe
possibile, eventualmente, distinguere i messaggi falsi da quelli reali3. La
sua risposta mi ha sorpreso: a volte, infatti, “infarciscono” di proposito i
dati forniti dai radiotelescopi con falsi segnali provenienti da
un’immaginaria civiltà intelligente (se nessuno li raccoglie, vuol dire che
qualcosa non va nel loro software). La morale è che se lo screensaver del
vostro computer dovesse annunciarvi di aver decifrato il messaggio di una
civiltà aliena, siete pregati di non chiamare subito la polizia: potrebbe
essere un falso allarme.

Cacciatori di alieni

Un mio collega che ha dedicato la propria vita alla ricerca di vita


intelligente nello spazio è Seth Shostak, direttore del SETI Institute. Visto il
Ph.D. in fisica ottenuto al California Institute of Technology, mi sarei
aspettato di vederlo diventare un distinto professore intento a dare lezioni a
dottorandi entusiasti. Invece impiega il suo tempo in modo diverso:
chiedendo donazioni per il SETI Institute ai benestanti, studiando con
attenzione i possibili segnali provenienti dallo spazio e conducendo uno
show radiofonico. Una volta gli ho chiesto del “fattore risatina”4: i colleghi
scienziati ridacchiano ancora quando afferma di tendere l’orecchio verso
segnali alieni provenienti dallo spazio? Non più, ha risposto. Con le recenti
scoperte in campo astronomico, la marea è cambiata.
Non solo: si è perfino esposto dicendo chiaro e tondo che in un futuro
molto prossimo entreremo in contatto con una civiltà aliena; ha infatti
affermato pubblicamente che l’Allen Telescope Array, in implementazione,
«si imbatterà in qualche segnale entro il 2025»5.
Da parte mia, gli ho chiesto se la previsione non sia troppo azzardata.
Insomma, cos’è che lo rende così sicuro? Un fattore in suo favore è stata
l’esplosione del numero di radiotelescopi negli ultimi anni. Anche se il
governo americano non finanzia il suo progetto, il SETI Institute ha di
recente trovato una sua miniera d’oro riuscendo a convincere Paul Allen (il
miliardario di Microsoft) a finanziare con una donazione di oltre trenta
milioni di dollari l’Allen Telescope Array a Hat Creek, in California: oggi il
radiotelescopio scruta i cieli con 42 radiotelescopi, che a progetto ultimato
diverrano 350 (un problema a cui vanno incontro questi esperimenti
scientifici è la mancanza di finanziamenti cronica; per compensare i tagli di
bilancio, il complesso di Hat Creek è tenuto in vita grazie a un
finanziamento parziale da parte delle forze armate).
Una cosa, mi ha confessato, lo fa agitare un po’, e cioè il fatto che la
gente confonda il progetto SETI con i cacciatori di ufo: il SETI, afferma
Shostak, poggia su solide basi di fisica e astronomia, e si avvale della
tecnologia più avanzata. I cacciatori di ufo, invece, fondano le proprie
teorie su prove aneddotiche e sul sentito dire. Il problema è che la massa di
avvistamenti ufo di cui gli arriva notizia via email non è riproducibile, né
verificabile. Perciò esorta chiunque sostenga di essere stato rapito dagli
alieni e portato su un disco volante a rubare qualcosa – una penna o un
fermacarte alieno, per esempio – che funga da prova. Insomma: mai lasciare
un ufo a mani vuote.
Infine, ha concluso Shostak, non ci sono prove certe del fatto che gli
alieni siano mai venuti sul nostro pianeta. Gli ho allora domandato se
ritenga che il governo stia occultando di proposito le prove di un contatto
alieno, come sostengono molti teorici della cospirazione; ecco la sua
risposta: «Sarebbero davvero così bravi da tenere nascosta una cosa tanto
grossa? […] Non dimentichiamo che stiamo parlando dello stesso governo
che gestisce gli uffici postali...»6.
L’equazione di Drake

Quando ho chiesto a Wertheimer perché sia così sicuro dell’esistenza di


vita aliena nello spazio, lui ha risposto che i numeri giocano a suo favore.
Già nel 1961 l’astronomo Frank Drake aveva tentato di stimare il numero
delle civiltà intelligenti elaborando ipotesi plausibili: a partire dal numero di
100 miliardi di stelle presenti nella Via Lattea, possiamo calcolare quante di
esse, in percentuale, siano simili al nostro sole. Possiamo poi ridurre
ulteriormente il numero stimando quante tra queste stelle, in percentuale,
abbiano nei loro sistemi pianeti simili alla Terra. Dopo aver stilato una serie
di ipotesi ragionevoli, abbiamo elaborato una stima di diecimila civiltà
avanzate nella nostra galassia (stima che per Carl Sagan si avvicinerebbe al
milione).
Dagli anni sessanta ad oggi gli scienziati sono divenuti in grado di fare
delle valutazioni molto più accurate. Per esempio, adesso sappiamo che ci
sono più pianeti orbitanti attorno alle stelle di quanti in origine ne avesse
calcolati Drake, e un maggior numero di pianeti più simili alla Terra. Ma
siamo tuttora di fronte a un problema: anche se sappiamo quanti gemelli
della Terra ci sono nello spazio, ignoriamo quanti di questi diano ospitalità
a forme di vita intelligente. Anche sulla Terra ci sono voluti quattro miliardi
e mezzo di anni prima che degli esseri intelligenti (noi) emergessero dalle
paludi. Forme di vita abitano la Terra da circa tre miliardi e mezzo di anni,
ma solo negli ultimi centomila o giù di lì si sono sviluppati esseri
intelligenti come noi. Quindi, anche su un pianeta simile alla Terra l’ascesa
di una forma di vita davvero intelligente potrebbe essere altrettanto
difficoltosa.

Perché non vengono a farci visita?

Ma ecco la domanda cruciale che ho posto, infine, a Shostak: se nella


galassia ci sono così tante stelle, e così tante civiltà aliene, allora perché
nessuno è ancora venuto a farci visita? In altre parole, si tratta del
paradosso di Fermi, dal nome del premio Nobel che contribuì a costruire la
bomba atomica e a svelare i segreti del nucleo dell’atomo.
Sono state avanzate molte teorie sull’argomento. Secondo una di queste,
la distanza tra le stelle potrebbe essere troppo grande: ai nostri razzi
occorrerebbero circa settantamila anni per raggiungere le stelle più vicine
alla Terra; ma forse una civiltà più avanzata della nostra di migliaia o
milioni di anni potrebbe ovviare al problema. C’è anche un’altra possibilità:
forse queste stesse civiltà si sono autoannientate in una guerra nucleare.
Come disse una volta John F. Kennedy: «Mi dispiace dire che c’è fin troppa
verità nella battuta secondo cui la vita si è estinta su altri pianeti perché i
loro scienziati erano più avanti dei nostri».
Ma forse la ragione più logica è questa: immaginate di camminare lungo
una strada di campagna e di imbattervi in un formicaio. Andate dalle
formiche e dite loro: «Vi porto gioielli e perline. Vi do energia nucleare.
Creerò un paradiso delle formiche per voi. Mi volete come leader?».
Probabilmente la risposta è no.
Immaginate adesso che degli operai stiano costruendo un’autostrada a
otto corsie accanto allo stesso formicaio. Le formiche potrebbero mai
sapere con quale frequenza parlano gli operai? O cosa sia un’autostrada a
otto corsie? Così, una civiltà intelligente in grado di raggiungere la Terra
dalle stelle sarebbe avanti rispetto a noi migliaia se non addirittura milioni
di anni e, dunque, potremmo non avere nulla da offrirle: in altre parole, è
parecchio presuntuoso credere che gli alieni sarebbero disposti a percorrere
migliaia di miliardi di chilometri solo per venirci a vedere.
È molto probabile che non siamo sui loro schermi radar. Vi sembrerà
ironico, ma la galassia potrebbe essere piena di forme di vita intelligente,
solo che siamo tanto primitivi da non poterlo sapere.

Primo contatto

Supponiamo però, per un istante, che arrivi il momento – prima di


quanto immaginiamo, magari – in cui entreremo in contatto con una civiltà
aliena: esso rappresenterebbe un punto di svolta nella storia dell’umanità.
Le domande da porci subito sono: cosa potrebbero volere gli alieni, e che
tipo di coscienza sarebbe, la loro?
Nei film e nei romanzi di fantascienza, il più delle volte gli alieni
vogliono mangiarci, conquistarci, accoppiarsi con noi, renderci schiavi o
depredare il nostro pianeta di risorse preziose. Ma tutte queste eventualità
sono assai improbabili.
Difficilmente il nostro primo contatto con una civiltà aliena avrà inizio
con l’atterraggio di un disco volante sul prato della Casa Bianca; è invece
più verosimile che qualche adolescente collegato con il progetto
SETI@home annunci un bel giorno che il suo pc ha decodificato i segnali
provenienti dal radiotelescopio di Arecibo, o che il progetto SETI ad Hat
Creek rilevi un messaggio inviato da una forma di vita intelligente.
Il nostro primo incontro sarebbe quindi un evento a senso unico: saremo
in grado, cioè, di intercettare un messaggio intelligente, ma il nostro segnale
di risposta potrebbe impiegare decenni o secoli a raggiungerne la fonte.
I dibattiti alla radio possono fornirci informazioni preziose sulla
presunta civiltà aliena, ma gran parte dei messaggi veicolati sarà forse a
base di gossip, intrattenimento, musica o costume, e a scarso contenuto
scientifico.
Quindi ho chiesto a Shostak: una volta avvenuto il primo contatto,
intendete tenerlo segreto? Dopotutto, non potrebbe provocare panico, isteria
religiosa, caos e fughe di massa? Devo ammettere che la sua risposta mi ha
un po’ sorpreso: no, intendono diffondere tutti i dati ai governi e ai popoli
di tutto il mondo.
Ma come potrebbero essere questi alieni? In che modo potrebbero
pensare?
Per comprendere la coscienza aliena sarebbe forse istruttivo analizzare
un altro tipo di coscienza che ci risulta abbastanza estranea, ovvero quella
degli animali: viviamo con loro, ma siamo del tutto all’oscuro di quanto
accada nelle loro menti.
Comprendere la coscienza animale potrebbe aiutarci a comprendere la
coscienza aliena.

La coscienza animale

Gli animali pensano? E, se sì, cosa? Questa domanda disorienta le menti


più illuminate da migliaia di anni. All’argomento, tuttora irrisolto, si
interessavano già gli antichi greci e romani, come testimoniano gli scritti di
Plutarco e Plinio7. Nel corso dei secoli, i giganti della filosofia hanno
avanzato le risposte più svariate.
Un cane percorre una strada in cerca del suo padrone, quando si trova
davanti a un trivio. Imbocca la strada a sinistra, annusa un po’ in giro e
quindi ritorna sui suoi passi, certo che il padrone non abbia seguito quella
strada. Quindi sceglie la strada a destra, annusa e si rende conto che il
padrone non ha preso nemmeno quella direzione. Alla fine, però, il cane
prende trionfalmente la via di mezzo, senza annusare.
Cos’è accaduto nella mente del cane? Alcuni dei più grandi filosofi
hanno affrontato la questione, senza profitto. Per Michel de Montaigne il
cane aveva senza dubbio concluso che l’unica soluzione possibile fosse
quella di prendere la via di mezzo, conclusione che sta a dimostrare come i
cani siano capaci di pensiero astratto.
Ma san Tommaso d’Aquino, nel tredicesimo secolo, aveva sostenuto il
contrario: dare all’esterno l’impressione di essere impegnati in un pensiero
è qualcosa di ben diverso dal pensare sul serio. In pratica, l’intelligenza può
apparire anche laddove non esiste8.
Secoli dopo, John Locke e George Berkeley intrattennero un celebre
scambio di vedute sulla coscienza degli animali. «Gli animali non sono
capaci di astrazione» dichiarò categorico Locke. Al che il vescovo Berkeley
rispose: «Se il fatto che le bestie non sono capaci di astrazione deve
costituire il loro carattere distintivo, temo che una gran parte di coloro che
passano per uomini debbano essere compresi in quel numero»9.
Nel corso del tempo i filosofi hanno cercato di analizzare la questione
sempre nello stesso modo: imponendo una coscienza umana al cane. È il
classico errore dell’antropomorfismo, ovvero l’attribuire i nostri pensieri e
comportamenti agli animali; la soluzione potrebbe forse risiedere nel
guardare il tutto dal punto di vista del cane, che magari differisce
completamente dal nostro.
Nel Capitolo 2 ho dato una definizione di coscienza secondo cui gli
animali erano parte di un continuum, nel senso che possono differenziarsi
da noi per quel che riguarda i parametri utilizzati per creare un modello di
mondo. David Eagleman dice che gli psicologi chiamano questa differenza,
ovvero la realtà percepita dagli animali, Umwelt. E osserva: «Nel mondo
cieco e sordo degli acari, i segnali importanti sono la temperatura e l’odore
dell’acido butirrico. Per il pesce Apteronotus albifrons, l’importante sono i
campi elettrici. Per il pipistrello, che è guidato dagli ultrasuoni, essenziali
sono le onde sonore. […] Ciascun organismo ha il proprio Umwelt, e tende
a credere che si tratti di tutta la realtà oggettiva, là fuori»10.
Prendiamo in considerazione il cervello di un cane, che vive in un
continuo turbinio di odori grazie a cui va a caccia di cibo o in cerca di un
compagno, e da cui costruisce una mappa mentale di ciò che esiste intorno a
sé: quest’ultima è del tutto diversa da quella che ricaviamo dai nostri occhi,
e trasmette un altro tipo di informazioni (nel Capitolo 1 abbiamo visto come
Penfield abbia costruito una mappa della corteccia cerebrale recante
un’immagine distorta del corpo. Ora immaginate un diagramma di Penfield
del cervello di un cane: la maggior parte sarebbe dedicata al naso, non alle
dita. E quello degli alieni sarebbe, probabilmente, ancora più strano).
Insomma: abbiamo la tendenza, errata, ad assegnare una coscienza
umana agli animali, per quanto questi ultimi potrebbero avere una visione
del mondo del tutto diversa dalla nostra. Per esempio, quando un cane
segue fedelmente gli ordini del suo padrone, siamo portati a concludere che
sia il miglior amico dell’uomo, perché ci ama e ci rispetta. Ma siccome
discende dal Canis lupus (il lupo grigio), che caccia in branco con una
gerarchia rigida, è più che probabile che il cane veda il suo padrone come
una sorta di maschio alfa, o di leader del branco (questo è uno dei motivi
per cui è molto più semplice addestrare dei cuccioli che non degli esemplari
più anziani: questi ultimi si rendono conto del fatto che gli esseri umani non
sono parte del loro branco).
Quando un gatto entra in una stanza nuova e urina sul tappeto, ci viene
da pensare che possa essere arrabbiato o nervoso, e cerchiamo di scoprirne
il motivo; il gatto, però, sta solo marcando il territorio per tenerne alla larga
altri. Non è affatto turbato; sta semplicemente avvertendo gli altri gatti di
non entrare in casa, perché adesso è sua.
Se il gatto poi fa le fusa e ci si strofina contro le gambe, crediamo ci sia
riconoscente per il fatto che ci prendiamo cura di lui, e che si tratti, dunque,
di un modo per manifestare il suo affetto; quasi di certo, invece, ci sta
lasciando addosso il suo ormone per rivendicare il suo possesso (cioè noi)
di fronte agli altri gatti. Dal suo punto di vista siamo dei servitori addestrati
a dargli da mangiare più volte al giorno: strofinandoci addosso il suo odore,
non fa che comunicare ai suoi simili che siamo “roba sua”.
Come scrisse de Montaigne: «Quando gioco con la mia gatta, come
faccio a sapere che non è lei che sta giocando con me?».
E se la bestiola poi si allontana per starsene un po’ da sola, ciò non va
necessariamente inteso come segno di rabbia o di distacco: il gatto discende
da quello selvatico, che, a differenza del cane, è un cacciatore solitario e
non ha bisogno di pendere dalle labbra di nessun maschio alfa. Il proliferare
di programmi televisivi in stile Uno psicologo da cani è forse un segno dei
problemi che incontriamo quando cerchiamo di applicare agli animali
coscienza e intenzioni umane.
Anche la coscienza del pipistrello dovrebbe essere molto diversa,
essendo dominata dai suoni: quasi del tutto cieco, ha bisogno del costante
feedback dei piccoli squittii che emette, che gli consente di individuare
insetti, ostacoli e altri pipistrelli tramite sonar. La mappa di Penfield del suo
cervello sarebbe di nuovo del tutto diversa dalla nostra, con una porzione
enorme dedicata alle orecchie; allo stesso modo, dato che si basa sul sonar,
anche la coscienza dei delfini è ben diversa da quella degli umani. Dal
momento che hanno una corteccia frontale di dimensioni più piccole, un
tempo si pensava che i delfini non fossero poi così intelligenti; in realtà
compensano lo svantaggio con una massa cerebrale più grande. Dispiegata,
la neocorteccia del cervello dei delfini coprirebbe una superficie pari a
quella di sei pagine di una rivista, laddove la neocorteccia di un essere
umano ne ricoprirebbe quattro. I delfini hanno anche cortecce parietali e
temporali molto ben sviluppate per analizzare i segnali sonar nell’acqua e,
forse per questo, sono tra i pochi animali capaci di riconoscersi in uno
specchio.
Inoltre, il cervello dei delfini è davvero strutturato in modo diverso da
quello degli umani, perché le rispettive linee evolutive si sono separate
quasi cento milioni di anni fa: dal momento che non hanno bisogno di un
naso, il bulbo olfattivo dei delfini scompare subito dopo la nascita, mentre
trenta milioni di anni fa, quando hanno imparato a usare l’ecolocalizzazione
per procurarsi il cibo, le dimensioni della loro corteccia uditiva hanno
registrato un aumento clamoroso. Come per i pipistrelli, il mondo dei
delfini deve essere fatto di echi e vibrazioni vorticose, e rispetto agli esseri
umani hanno un lobo in più nel loro sistema limbico (detto regione
paralimbica), lobo che forse aiuta nell’instaurazione di forti relazioni
sociali.
Anche i delfini, inoltre, hanno un linguaggio intelligente. Una volta, in
occasione di uno speciale tv per Science Channel, mi è capitato di nuotare
con loro in una piscina dove avevo fatto installare dei sensori sonar in grado
di rilevarne gli schiocchi e i fischi utilizzati per comunicare tra loro; una
volta registrati, questi segnali sono stati analizzari al computer. C’è un
modo semplice per capire se in questo insieme casuale di stridii si celi o
meno una qualche intelligenza. Nella lingua inglese, per esempio, la lettera
dell’alfabeto più ricorrente è la e: possiamo creare un elenco di tutte le
lettere dell’alfabeto con le relative frequenze, e a prescindere da quali libri
in inglese analizzeremo, l’elenco delle frequenze sarà pressappoco sempre
lo stesso.
In modo analogo, lo stesso software può essere utilizzato per prendere
in esame il linguaggio dei delfini e per ritrovare con altrettanta certezza il
ripetersi di un simile modello che indica intelligenza. Analizzando il
linguaggio di altri mammiferi, tuttavia, il modello comincia a cedere, per
franare del tutto non appena prendiamo in considerazione animali posti più
in basso sulla scala evolutiva e con cervelli dalle dimensioni inferiori: a
quel punto i segnali diventano, infatti, quasi casuali.

Api intelligenti?

Per avere un’idea di come potrebbe essere la coscienza aliena,


consideriamo le strategie adottate dalla natura per riprodurre la vita sulla
Terra: quelle riproduttive fondamentali sono due, ciascuna delle quali
comporta implicazioni profonde per l’evoluzione e la coscienza.
La prima, quella utilizzata dai mammiferi, consiste nel mettere al
mondo una prole ristretta nel numero di cui prendersi cura fino all’età
matura; si tratta di una strategia rischiosa, perché ogni generazione prevede
solo pochi discendenti, e dunque presuppone che l’accudimento possa
aumentare le probabilità di sopravvivenza. Significa, quindi, che ogni vita è
considerata preziosa e che va sostenuta con cura per un certo periodo di
tempo.
L’altra strategia, molto più antica, viene utilizzata dalla gran parte del
regno vegetale e animale, compresi insetti, rettili e moltissime altre forme di
vita sulla Terra: prevede la produzione di un gran numero di uova o di semi
che poi vengono lasciati a se stessi. Senza nutrimento la maggior parte della
prole non sopravviverà, e solo pochi individui, i più resistenti, daranno vita
alla generazione successiva: dunque l’energia investita in ogni generazione
da parte dei genitori è pari a zero e, per far propagare la specie, la
riproduzione fa affidamento esclusivamente sulla legge dei grandi numeri.
Queste due strategie generano atteggiamenti molto differenti verso la
vita e l’intelligenza. Nella prima, che dà grande importanza ad ogni singolo
individuo, l’amore, le cure, l’affetto e l’attaccamento sono molto richiesti
dai suoi membri, dunque essa può funzionare solo se i genitori investono
una notevole quantità di preziosa energia nel preservare i piccoli. Nella
seconda, nessuna importanza è assegnata al singolo: l’accento è invece
posto sulla sopravvivenza della specie o del gruppo nel suo complesso, e
l’individualità non significa nulla.
Oltretutto, la strategia riproduttiva ha profonde implicazioni per
l’evoluzione dell’intelligenza. Quando due formiche si incontrano, per
esempio, si scambiano una quantità limitata di informazioni usando tracce
chimiche e gesti: per quanto ridottissime, queste informazioni consentono
loro di costruire l’intricato reticolo di camere e cunicoli che costituisce un
formicaio. Allo stesso modo le api comunicano tra loro eseguendo una
danza, ma tutte quante insieme possono costruire favi complessi e
individuare campi fioriti distanti. La loro intelligenza, dunque, non risiede
tanto nel singolo quanto nell’interazione olistica in seno all’intera colonia, e
nel patrimonio genetico collettivo.
Consideriamo dunque l’ipotesi di una civiltà extraterrestre intelligente
basata sulla seconda strategia, al pari di una razza intelligente di api. In un
simile tipo di società, le api operaie che volano ogni giorno in cerca di
polline sono sacrificabili; non si riproducono e vivono per un unico scopo,
quello di servire l’alveare e la regina, per i quali si sacrificano volentieri.
Per loro, i legami che tengono uniti i mammiferi non significano nulla.
In via ipotetica, ciò potrebbe influenzare lo sviluppo di un programma
spaziale: risorse ingenti vengono investite per riportare indietro ciascun
astronauta sano e salvo, dal momento che facciamo tesoro di ogni singola
vita; gran parte del costo del viaggio spaziale serve a sostenere condizioni
di sicurezza, perché gli astronauti possano riguadagnare l’atmosfera sulla
via del ritorno. Per una civiltà di api intelligenti, invece, la vita di ogni
singola operaia non varrebbe più di tanto, quindi il loro programma spaziale
costerebbe molto meno. Il rientro delle operaie non verrebbe preso in
considerazione; ogni viaggio potrebbe essere di sola andata.
Immaginate quindi se dovessimo incontrare un alieno simile, sotto
questo aspetto, a un’ape operaia. Di solito, quando incontriamo un’ape,
questa ci ignora del tutto a meno che non ci consideri una minaccia per se
stessa o per l’alveare; per lei è come se non esistessimo. Allo stesso modo,
l’alieno-ape operaia non avrebbe il minimo interesse a entrare in contatto
con noi o a condividere le proprie conoscenze: andrebbe avanti nella sua
missione principale, ignorandoci. Inoltre, i valori che a noi stanno tanto a
cuore, ai suoi occhi non significherebbero nulla.
Negli anni settanta, sulle sonde Pioneer 10 e 11 vennero inseriti dei
medaglioni contenenti informazioni fondamentali sul nostro mondo e sulla
nostra società, che esaltavano la diversità e la ricchezza della vita sulla
Terra; allora gli scienziati ritenevano che gli alieni potessero essere, come
noi, curiosi e interessati a stabilire un contatto. Ma se a imbattersi in un
simile medaglione fosse il nostro alieno-operaia, è probabile che non vi
riscontrerebbe alcun significato. Per di più, non è richiesto che le operaie
siano molto intelligenti: devono esserlo quanto basta a servire l’interesse
dell’alveare. Quindi, se dovessimo inviare un messaggio verso un pianeta
abitato da api intelligenti, è probabile che queste nutrirebbero scarso
interesse a risponderci.
E se anche riuscissimo a contattare una civiltà del genere, la
comunicazione potrebbe risultare molto difficile. Quando comunichiamo fra
noi, spezzettiamo le idee in frasi con una struttura soggetto-verbo, al fine di
costruire una narrazione, spesso una storia personale. La maggior parte
delle nostre frasi hanno la seguente struttura: “Ho fatto questo”, “Hanno
fatto quello”. In effetti, la letteratura e le conversazioni umane ricorrono
quasi sempre a una forma di narrazione che chiama in causa esperienze
nostre o dei nostri modelli, e ciò presuppone che esse siano il canale
dominante attraverso cui trasmettere informazioni.
Tuttavia, una civiltà di api intelligenti può non avere il minimo interesse
nei confronti della forma di narrazione personale: trattandosi di una civiltà
altamente collettiva, i suoi messaggi potrebbero non essere di natura
individuale quanto, piuttosto, meri dati di fatto contenenti informazioni
vitali per l’alveare, anziché curiosità e pettegolezzi in grado, forse, di far
avanzare la posizione sociale di un individuo. In realtà, potrebbero
addirittura trovare ripugnante il nostro linguaggio narrativo proprio per il
fatto che antepone il ruolo del singolo ai bisogni della collettività.
Inoltre, le api operaie avrebbero un senso del tempo del tutto diverso dal
nostro: dato che sono sacrificabili, potrebbero godere di un arco di vita non
molto lungo e, di conseguenza, portare avanti solo progetti a breve termine
e ben definiti.
Ad ogni modo, oltre un’aspettativa di vita molto più estesa, noi umani
abbiamo anche un senso tacito del tempo: ci impegnamo, cioè, in progetti e
occupazioni che ci aspettiamo di vedere compiuti. A livello inconscio
calibriamo i nostri progetti, rapporti e obiettivi perché si adattino a
un’esistenza limitata nel tempo, in altre parole, a una vita scandita in fasi
distinte: vita da single, vita di coppia, vita con i figli e, infine, vita da
pensionati.
Immaginate invece il caso di esseri che possano vivere per migliaia di
anni, o che siano addirittura immortali: le loro priorità, mete e ambizioni
differirebbero in maniera sostanziale dalle nostre, e potrebbero imbarcarsi
in progetti che richiederebbero decine di vite umane vissute una dopo
l’altra. Il viaggio interstellare viene spesso liquidato come pura fantascienza
perché, come abbiamo visto, il tempo necessario perché un razzo
convenzionale raggiunga le stelle più vicine è pari circa a settantamila anni:
un arco di tempo per noi proibitivamente lungo. Per una forma di vita
aliena, tuttavia, un simile lasso di tempo potrebbe essere irrilevante. Gli
alieni potrebbero essere in grado, per esempio, di andare in letargo, o di
rallentare il proprio metabolismo o, magari, di vivere per un arco di tempo
illimitato.

Che aspetto hanno?

Le nostre prime traduzioni dei messaggi da parte degli alieni ci daranno


presumibilmente qualche informazione sulla loro cultura e sul loro stile di
vita; potrebbe essere, per esempio, che si siano evoluti a partire da predatori
e che quindi ne conservino ancora alcune caratteristiche (in generale, sulla
Terra i predatori sono più intelligenti delle prede: cacciatori come tigri,
leoni, gatti e cani usano la loro astuzia per nascondersi, tendere agguati e
inseguire una preda, attività che richiedono tutte una certa dose di
intelligenza. Tutti hanno gli occhi sulla parte anteriore del volto,
caratteristica che consente loro di concentrare la propria attenzione su una
visione stereoscopica, mentre le prede, che hanno gli occhi ai lati del volto
per meglio individuare un possibile predatore, devono solo correre. Ecco
perché diciamo “scaltro come una volpe” e “stupido come una gallina”). Le
ipotetiche forme di vita aliena potrebbero aver superato molti degli istinti
predatori dei loro lontani antenati, ma anche conservato, in parte, la
coscienza di un predatore (per esempio, istinto alla territorialità,
all’espansione e, se necessario, alla violenza).
Prendendo in esame la razza umana, possiamo selezionare almeno tre
elementi che hanno posto le basi della nostra intelligenza:

Il pollice opponibile, che ci permette di manipolare e rimodellare


l’ambiente attraverso l’uso di appositi strumenti.
La visione stereoscopica (o 3D) tipica dei cacciatori.
Il linguaggio, che ci consente di acquisire e accumulare conoscenza,
cultura e saggezza nel corso delle generazioni.
Se confrontiamo i tre elementi con i tratti presenti nel regno animale,
non possiamo che osservare come siano pochi gli animali che rispondono a
tali criteri. Gatti e cani, per esempio, non hanno la capacità di afferrare gli
oggetti, né un linguaggio complesso; i polpi hanno tentacoli sofisticati, ma
non godono di buona vista né possiedono un linguaggio complesso.
I tre criteri potrebbero presentare delle variazioni: al posto di un pollice
opponibile, un alieno potrebbe avere artigli o tentacoli (basta che gli
consentano di manipolare il suo ambiente con strumenti creati per mezzo di
tali appendici); invece di due occhi potrebbe averne molti di più, come gli
insetti, o essere dotato di sensori che rilevano il suono o la luce UV
(piuttosto che la luce a noi visibile); avrebbe la visione stereoscopica di un
cacciatore, per via del suo alto livello di intelligenza ma, al posto di un
linguaggio basato sui suoni, potrebbe comunicare con i suoi simili tramite
differenti forme di vibrazione (basta che lo scambio di informazioni sia
mirato alla creazione di una cultura che attraversi molte generazioni).
Al di là di questi tre criteri, va bene tutto.
Gli alieni potrebbero avere poi una coscienza “colorata” dall’ambiente
in cui vivono. Oggi gli astronomi sono dell’idea che gli habitat favorevoli
alla vita nell’universo possano non essere tanto i pianeti simili alla Terra,
quelli cioè su cui crogiolarsi al calore della stella madre, ma i satelliti
ghiacciati che orbitano intorno a pianeti delle dimensioni di Giove posti a
miliardi di chilometri dalla stella stessa. È opinione diffusa che, sotto la
superficie ghiacciata, Europa – una luna di Giove – nasconda un oceano
liquido riscaldato dalle forze di marea: orbitando intorno a Giove, Europa
viene sollecitata in direzioni diverse dall’enorme forza gravitazionale del
pianeta madre, forza che provoca un attrito fin sotto la sua stessa superficie.
Tale attrito genera calore che dà vita a vulcani e a sfoghi oceanici, e questi,
sciogliendo il ghiaccio, creano a loro volta oceani liquidi. Si stima che gli
oceani di Europa siano abbastanza profondi, e che il loro volume possa
essere di molto superiore a quello degli oceani della Terra. Dal momento
che il 50 per cento di tutte le stelle può ospitare nel proprio sistema pianeti
delle dimensioni di Giove (e che essi sono cento volte più numerosi dei
pianeti simili alla Terra), la forma di vita più frequente potrebbe essere
quella sviluppatasi su satelliti ghiacciati appartenenti a giganti gassosi.
Pertanto, la prima civiltà aliena che incontreremo potrebbe aver avuto
un’origine acquatica; è inoltre plausibile che si sia spostata dagli oceani e
abbia imparato a vivere sulla superficie del proprio satellite, per una serie di
ragioni: innanzitutto, qualsiasi specie viva perennemente sotto una
superficie ghiacciata avrà una visione piuttosto limitata dell’universo (e se è
convinta che esso termini con l’oceano sotto la crosta, non svilupperà mai
un pensiero astronomico o un programma spaziale); inoltre, dato che
l’acqua manda in cortocircuito i componenti elettrici, non potrà mai
sviluppare qualcosa di simile alla radio o alla tv (ma se vuole progredire
deve saper padroneggiare l’elettronica).
Ma cosa succede se questa forma di vita si evolve fino a creare una
civiltà in grado di dedicarsi all’esplorazione spaziale e raggiungere la Terra?
Ci troveremo davanti a organismi biologici, come noi, oppure
postbiologici?

L’era postbiologica

Una persona che ha dedicato molto tempo a riflettere su queste


domande è il mio collega Paul Davies dell’Arizona State University, vicino
a Phoenix. Nel corso di un’intervista mi ha detto che, per prevedere
l’aspetto di una civiltà più avanzata della nostra di migliaia di anni o anche
più, dovremmo espandere i nostri orizzonti11.
Considerati i pericoli a cui si va incontro viaggiando nello spazio,
Davies ritiene che questi esseri potrebbero aver abbandonato la loro forma
biologica, proprio come le menti incorporee che abbiamo esaminato nel
capitolo precedente. Scrive infatti: «La mia conclusione è sorprendente:
penso che sia molto probabile – per non dire inevitabile – che l’intelligenza
biologica sia soltanto un fenomeno transitorio, una fase effimera
dell’evoluzione dell’intelligenza nell’universo. Se mai incontreremo
un’intelligenza aliena, credo che sia del tutto probabile che sia di natura
postbiologica, una conclusione che ha per SETI conseguenze ovvie e
radicali»12.
In effetti, se ci sopravanzano di migliaia di anni da un punto di vista
evolutivo e tecnologico, è probabile che gli alieni abbiano abbandonato i
loro corpi biologici eoni fa per creare il più efficiente corpo computazionale
possibile: un pianeta la cui superficie è ricoperta da computer. Dice ancora
Davies: «Non è difficile immaginare l’intera superficie di un pianeta
coperta da un singolo sistema integrato che elabori informazioni. […]
Robert Bradbury ha coniato per queste entità terrificanti il termine cervelli
matrioska»13.
Per Davies, dunque, la coscienza aliena potrebbe perdere il concetto di
“sé” ed essere assorbita in una sorta di world wide web della saggezza
collettiva in grado di ammantare l’intera superficie di un pianeta. Aggiunge
infatti: «Una potente rete informatica con nessun senso del sé avrebbe un
vantaggio enorme sull’intelligenza umana perché non avrebbe paura dei
cambiamenti; potrebbe ridisegnare “se stessa”, unirsi ad altri sistemi e
crescere. Prenderla sul personale è un bell’intralcio al progresso»14.
Così, in nome dell’efficienza e di una maggiore capacità di calcolo,
Davies prevede che i membri di una simile civiltà avanzata rinuncerebbero
alla propria identità per essere assorbiti da una coscienza collettiva.
Davies è consapevole del fatto che chi critica la sua idea possa trovarla
piuttosto ripugnante: è come se la specie aliena da lui descritta stesse
sacrificando l’individualità e la creatività per il bene superiore del collettivo
o dell’alveare. Non si tratta, però, di una scelta inevitabile, avverte, ma solo
della più efficace.
Davies ha fatto anche una congettura che ammette essere alquanto
deprimente: quando gli ho chiesto perché queste civiltà non si prendano la
briga di contattarci mi ha risposto che, a parer suo, se fossero così avanzate
avrebbero sviluppato anche delle realtà virtuali molto più interessanti e
stimolanti della nostra realtà “concreta” (mentre la realtà virtuale a cui
siamo abituati oggi sembrerebbe loro un giocattolo per bambini).
Questo forse significa che le menti migliori di queste ipotetiche civiltà
potrebbero aver deciso di impersonare vite immaginarie in mondi virtuali
diversi; si tratta, per sua stessa ammissione, di un pensiero scoraggiante. Ma
è comunque una possibilità, oltre che un monito rivolto agli umani stessi,
così intenti a perfezionare la loro realtà virtuale.

Cosa vogliono?

In Matrix le macchine prendono il sopravvento sugli umani, che


tengono in vita in apposite vasche per poterli usare come pile; ma dato che
una singola centrale elettrica produce più energia di milioni di corpi umani,
qualsiasi alieno in cerca di risorse energetiche si accorgerebbe in fretta
dell’inutilità di una batteria umana (circostanza passata inosservata alle
dispotiche macchine di Matrix, ma che spero gli alieni prendano in giusta
considerazione).
Un’altra possibilità è che abbiano voglia di mangiarci: un tema
esplorato in un episodio di Ai confini della realtà in cui gli alieni sbarcano
sulla Terra promettendoci tutti i vantaggi della loro tecnologia avanzata e
chiedendo volontari disposti a visitare il loro bel pianeta madre. Per caso,
gli alieni dimenticano un libro, intitolato Servire l’uomo: quando gli ansiosi
scienziati si mettono a decifrarlo per scoprire quali meraviglie gli alieni
condivideranno con noi, scoprono che in realtà si tratta di un ricettario (però
abbiamo DNA e proteine del tutto diversi, e potremmo risultare un tantino
indigesti ai loro stomaci).
Un’altra possibilità ancora è che gli alieni intendano depredare la Terra
di risorse e minerali preziosi: in questa ipotesi potrebbe esserci qualcosa di
vero ma, se gli alieni fossero così evoluti da poter affrontare senza difficoltà
un viaggio interstellare, avrebbero a disposizione un sacco di pianeti
disabitati da saccheggiare, senza doversi preoccupare di indigeni
recalcitranti; dal loro punto di vista, sarebbe una perdita di tempo cercare di
colonizzare un pianeta abitato quando ci sono tante alternative più semplici.
Se dunque gli alieni non volessero schiavizzarci o saccheggiare le
nostre risorse, quali pericoli potrebbero incarnare? Pensate ai cervi in una
foresta: chi dovrebbero temere di più, il bieco cacciatore armato di fucile o
il mite imprenditore armato di progetto? Per quanto il primo possa incutere
paura, costituisce una minaccia solo per pochi cervi. Assai più pericoloso è
il secondo, perché le bestiole non sono nemmeno nelle sue mire: lui è
focalizzato sull’obiettivo di trasformare la foresta in un’area edificabile.
Alla luce di questo fatto, come potrebbe svolgersi in concreto un’ipotetica
invasione?
I film commettono un errore madornale: sul piano tecnologico gli alieni
ci sopravanzano solo di un secolo o giù di lì, e di solito gli umani riescono a
respingerli architettando un’arma segreta o sfruttando una semplice falla nel
loro sistema difensivo, come in La Terra contro i dischi volanti. Ma, come
ha detto una volta Shostak, uno scontro con una civiltà aliena avanzata
sarebbe come uno scontro tra Bambi e Godzilla.
In realtà gli alieni potrebbero essere in possesso di armi più avanti delle
nostre di migliaia o milioni di anni, e avremmo ben poco da fare per
difenderci. Forse, però, potremmo imparare qualcosa dai barbari che
sconfissero il più grande impero militare del loro tempo, quello romano.
I romani erano maestri di ingegneria in grado di realizzare armi che
potevano radere al suolo i villaggi dei barbari e creare le strade attraverso
cui rifornire gli avamposti militari più lontani. I barbari, appena emersi da
un’esistenza nomade, avevano ben poche possibilità contro il colossale
esercito dell’impero.
Ma la storia ci dice che, nella sua espansione, l’impero andò
assottigliandosi: troppe guerre da combattere, troppi trattati a frenarlo e
un’economia non abbastanza solida a sostenerlo, soprattutto per via del
graduale declino della popolazione. Inoltre, essendo a corto di truppe,
l’impero dovette arruolare giovani soldati barbari e promuoverli a posizioni
di comando: in modo inevitabile, la tecnologia superiore di cui disponevano
i romani cominciò a filtrare presso i barbari, e col passare del tempo, questi
ultimi impararono a padroneggiare le tecniche militari che in un primo
momento erano servite a conquistarli.
Verso la fine, indebolito da intrighi di palazzo, gravi carestie, guerre
civili e un esercito logorato, l’impero si trovò a dover fronteggiare, in una
situazione di stallo, barbari ormai in grado di combattere. Il sacco di Roma
del 410 d.C. e poi quello del 455 d.C. spianarono la strada alla caduta
dell’impero nel 476 d.C.
Allo stesso modo, è probabile che sulle prime i terrestri non saranno in
grado di opporre alcuna resistenza a un’invasione aliena; ma poi potrebbero
individuarne i punti deboli, le fonti di approvvigionamento, i centri di
comando e gran parte dell’armamentario. Per poterci controllare gli alieni
dovrebbero assumere dei collaboratori umani e promuoverli, e ciò potrebbe
tradursi in una diffusione della loro tecnologia presso di noi.
A quel punto, un esercito raffazzonato di terrestri potrebbe riuscire a
organizzare un contrattacco. Nella strategia militare orientale, come si legge
nei precetti classici di Sun Tzu ne L’arte della guerra, esiste un modo per
sconfiggere un esercito anche superiore: per prima cosa, consentirgli di
invadere il proprio territorio, perché trovandosi sparpagliato in un ambiente
sconosciuto, sarà possibile contrattaccarlo nei punti in cui è più debole.
Un’altra tecnica richiede di ritorcere la forza del nemico contro se
stesso. L’idea, alla base del judo, prevede che chi si difende trasformi in un
vantaggio per sé lo slancio di chi attacca: si deve, cioè, lasciare che
l’avversario attacchi per poi sgambettarlo o proiettarlo a terra, sfruttandone
la massa e l’energia. Più grosso è l’avversario, più rovinosa sarà la caduta.
In modo analogo, forse launica possibilità di combattere un esercito alieno
più avanzato consiste nel permettere che ci invada, per poi carpirne
tecnologia e segreti, e cercare di sconfiggerlo con le sue stesse armi.
Un simile esercito, dunque, non potrà essere sconfitto in un faccia a
faccia; se non dovesse vincere, però, e se il costo di un assedio si rivelasse
troppo alto, magari sarebbe costretto al ritiro. Successo significa privare il
nemico della vittoria.
Ma ritengo più plausibile che gli alieni siano benevoli e, alla fin fine,
propensi a ignorarci: semplicemente, non abbiamo nulla da offrirgli. Se un
giorno dovessero contattarci sarà soprattutto a fini esplorativi o per mera
curiosità (dal momento che la curiosità si è rivelata una caratteristica
essenziale all’evoluzione della nostra intelligenza, è probabile che tutte le
specie aliene siano curiose, e che quindi possano volerci studiare, anche se
questo non per forza implica entrare in contatto con noi).

Incontrare un astronauta alieno

A differenza di quanto accade nei film, è probabile che non


incontreremo gli alieni in carne e ossa: sarebbe troppo pericoloso, oltre che
inutile. Allo stesso modo in cui abbiamo inviato il Mars Rover in
esplorazione, quasi senza dubbio gli alieni invieranno surrogati biologici o
meccanici o, ancora, loro avatar in grado di far fronte allo stress del viaggio
interstellare. Così, gli alieni che incontreremo potrebbero non assomigliare
affatto ai loro padroni di stanza sul pianeta madre; piuttosto, sarebbe come
se avessero inviato la loro coscienza nello spazio “per delega”.
Sarà ancora più probabile, però, che inviino una sonda robotica sulla
nostra luna, che è geologicamente stabile e non subisce erosione. Si tratterà,
magari, di una sonda autoreplicante – in grado, cioè, di riprodurre un
migliaio di copie identiche all’originale (macchine di questo tipo sono
chiamate sonde di von Neumann, dal nome del matematico che gettò le basi
del computer digitale: John von Neumann fu il primo matematico a
inquadrare sul serio la questione inerente a macchine in grado di
riprodursi). Tali sonde di seconda generazione verrebbero poi lanciate verso
altri sistemi stellari, dove ciascuna di esse potrebbe dare vita, a sua volta, a
mille sonde di terza generazione, per un totale di un milione: ben presto,
partendo da una sola sonda, se ne otterrebbero un miliardo, e alla quinta
generazione si toccherebbe il quadrilione. Alla fine, espandendosi quasi alla
velocità della luce, una sfera gigante contenente miliardi di miliardi di
sonde, colonizzerebbe l’intera galassia in poche centinaia di migliaia di
anni.
Davies ha preso tanto sul serio questa idea da richiedere un
finanziamento che gli permetta di esaminare la superficie lunare alla ricerca
di emissioni radio o radiazioni anomale, indici di una visita aliena avvenuta
forse milioni di anni fa. Insieme a Robert Wagner, Davies ha pubblicato un
articolo nella rivista scientifica “Acta Astronautica” per richiedere un
attento esame delle foto scattate dal Lunar Reconnaissance Orbiter con una
risoluzione di circa 50 centimetri.
Nell’articolo si legge: «Anche se esiste solo una minima probabilità che
una tecnologia aliena possa aver lasciato tracce sulla luna sotto forma di un
artefatto o di una modifica delle caratteristiche della superficie lunare, la
postazione ha il pregio di essere vicina»15. Inoltre, dato che sulla luna non
vi è erosione, tali ipotetiche tracce potrebbero rimanere visibili per lunghi
periodi di tempo (allo stesso modo in cui, in linea di principio, lo saranno
ancora per miliardi di anni le impronte lasciate dai nostri astronauti negli
anni settanta).
Il problema è che le sonde di von Neumann potrebbero essere anche
molto piccole: le nanosonde utilizzano macchine molecolari e MEMS e,
quindi, potrebbero essere grandi quanto un portapane o meno (se una sonda
simile atterrasse sul vostro cortile, potreste anche non accorgervene).
Questa autoreplica esponenziale, tuttavia, rappresenta la strategia più
efficiente per colonizzare la galassia, oltre ad essere anche quella con cui le
infezioni virali aggrediscono il nostro corpo (una manciata di virus atterra
sulle nostre cellule, ne dirotta il meccanismo riproduttivo e le converte in
fabbriche adibite alla creazione di nuovi virus; nel giro di due settimane un
singolo virus può infettare migliaia di miliardi di cellule provocando, infine,
il nostro primo starnuto).
Se lo scenario è corretto, significa che la nostra luna è il luogo più
propizio per una visita aliena. Teoria alla base di 2001: Odissea nello
spazio, ancora oggi la rappresentazione più plausibile dell’incontro con una
civiltà extraterrestre: nel film una sonda è stata posta sulla luna milioni di
anni fa, al fine soprattutto di osservare l’evoluzione della vita sulla Terra. A
volte interferisce con la nostra evoluzione, dandole una spinta. Le
informazioni vengono poi inviate su Giove, la stazione che ritrasmette il
segnale verso il pianeta madre dell’antica civiltà aliena che ci osserva.
Dal punto di vista di una simile civiltà avanzata, che può esaminare allo
stesso tempo miliardi di sistemi stellari, è evidente che la scelta dei sistemi
planetari da colonizzare è notevole: dunque, considerata l’enormità della
galassia, gli alieni necessitano di raccogliere dei dati per poter scegliere
quali pianeti o lune dispongano delle risorse migliori. E, per loro, la Terra
potrebbe non essere poi così attraente.

1
http://kepler.nasa.gov.
2
Ibidem.
3
Intervista del giugno 1999 a Dan Wertheimer per il programma radiofonico Exploration.
4
Intervista del maggio 2012 a Seth Shostak per il programma radiofonico Science Fantastic.
5
Ibidem.
6
Paul Davies, Uno strano silenzio: siamo soli nell’universo?, Codice edizioni, Torino 2012, p. 25
(ed. orig. The Eerie Silence. Renewing Our Search for Alien Intelligence, 2010).
7
Carl Sagan, I draghi dell’Eden: considerazioni sull’evoluzione dell’intelligenza umana,
Bompiani, Milano 1979, p. 207 (ed. orig. The Dragons of Eden: Speculations on the Evolution of
Human Intelligence, 1977).
8
Ibidem.
9
Ivi, p. 109.
10
Eagleman, In incognito, cit., p. 88.
11
Intervista dell’aprile 2012 a Paul Davies per il programma radiofonico Science Fantastic.
12
Davies, Uno strano silenzio, cit., p. 166.
13
Ivi, p. 168.
14
Ibidem.
15
“Discovery News”, 27 dicembre 2011, http://tinyurl.com/n8ld2wf.
Capitolo 15
Osservazioni conclusive

Gli imperi del futuro saranno imperi della mente.


Winston Churchill

Se continuiamo a sviluppare tecnologia senza saggezza né prudenza, il nostro servo potrebbe


rivelarsi il nostro carnefice.
Generale Omar Bradley

Nel 2000 una furiosa polemica scosse la comunità scientifica. Uno dei
fondatori di Sun Computer, Bill Joy, scrisse un articolo infuocato per
denunciare la minaccia mortale rappresentata dal progresso tecnologico.
L’articolo, comparso su “Wired” con il titolo provocatorio Il futuro non ha
bisogno di noi, diceva tra l’altro: «Le nostre più potenti tecnologie del
ventunesimo secolo – robotica, ingegneria genetica e nanotecnologia –
minacciano di trasformare gli esseri umani in una specie in via di
estinzione»1. L’articolo incendiario metteva in discussione l’etica di
centinaia di scienziati dediti a un duro lavoro in laboratori all’avanguardia,
ma soprattutto il nucleo stesso della loro ricerca, affermando che i benefici
delle tecnologie da loro sviluppate fossero molto inferiori alle enormi
minacce che esse pongono all’umanità.
L’articolo descriveva, insomma, una sorta di macabra distopia in cui
tutte le nostre tecnologie cospirano per distruggere la civiltà: tre delle nostre
più importanti realizzazioni si rivolteranno contro di noi, ammoniva:

Un giorno, germi ottenuti tramite la bioingegneria potrebbero


fuoriuscire dai laboratori e gettare il mondo nello scompiglio. Non
potendo essere ricatturate, queste forme di vita potrebbero proliferare
liberamente e scatenare epidemie peggiori di quelle medioevali. La
biotecnologia potrebbe perfino alterare l’evoluzione umana, creando
«numerose specie separate e ineguali […] che potrebbero minacciare
la nozione di uguaglianza che costituisce la pietra angolare della nostra
democrazia»2.
Un giorno, i nanobot potrebbero impazzire ed emettere quantità
illimitate di grey goo (“viscidume grigiastro”) che ricopriranno la
Terra, soffocando ogni forma di vita. Dal momento che questi nanobot
“digeriscono” materia ordinaria per creare nuove forme di materia,
eventuali esemplari malfunzionanti potrebbero finire fuori controllo e
digerire il pianeta: «Il grey goo sarebbe certo un finale deprimente per
la nostra avventura umana sulla Terra, molto peggio perfino del fuoco
o del ghiaccio, e potrebbe scaturire da un semplice incidente di
laboratorio. Oops».
Un giorno, i robot prenderanno il sopravvento e rimpiazzeranno
l’umanità. Saranno così intelligenti da metterla semplicemente da
parte. Diventeremo un dettaglio dell’evoluzione. «I robot non
sarebbero affatto i nostri figli. […] Su questa strada potremmo
smarrire la nostra umanità».

A detta di Joy, i pericoli derivanti da queste tre tecnologie ridicolizzano


quelli scatenati dalla bomba atomica negli anni quaranta. Ai tempi, Einstein
ci aveva messo in guardia sull’eventualità che la potenza della tecnologia
nucleare potesse distruggere la civiltà. «È ormai spaventosamente evidente
che la nostra tecnologia ha superato la nostra umanità». Ma la bomba
atomica fu costruita tramite un titanico programma di governo strettamente
regolato, mentre queste tecnologie vengono sviluppate da aziende private su
cui, secondo Joy, nella pratica non esiste alcun controllo.
Certo, per sua stessa ammissione esse potrebbero alleviare qualche
sofferenza, nel breve periodo; ma a lungo termine i benefici verranno
travolti dalla possibilità concreta che un Armageddon scientifico possa
condannare la razza umana.
L’articolo di Joy se la prendeva anche con gli scienziati, accusati di
egoismo e ingenuità nella loro aspirazione a migliorare la società: «L’utopia
tradizionale è una buona vita in seno a una buona società. Una buona vita
chiama in causa anche gli altri. Questa tecnoutopia è tutta un: “Non mi
ammalo; non muoio; voglio una vista migliore e voglio essere più
intelligente”. Roba così. Socrate o Platone ne avrebbero riso»3.
Per poi chiosare: «Ritengo non sia esagerato dire che ci troviamo sulla
soglia della perfezione del male estremo, un male le cui possibilità vanno
ben oltre quelle lasciate agli stati-nazione dalle armi di distruzione di
massa…». A quale conclusione porta tutto questo? «A qualcosa come
l’estinzione».
Come previsto, l’articolo scatenò un uragano di polemiche.
Fu scritto oltre un decennio fa: in termini tecnologici, una vita. Ora è
possibile esaminare alcune delle sue previsioni con il senno di poi, e
metterne gli ammonimenti nella giusta prospettiva: ci si rende allora
facilmente conto di come Bill Joy abbia esagerato molte delle minacce
proniosticate, e di come abbia al tempo stesso spinto gli scienziati ad
affrontare le conseguenze etiche, morali e sociali del loro lavoro (il che è
sempre una cosa positiva).
Il suo articolo ha aperto una discussione su ciò che siamo: nel disvelare
i segreti molecolari, genetici e neuronali del cervello, non abbiamo in un
certo senso disumanizzato l’umanità, riducendola a un pentolone di atomi e
neuroni? Mappare ogni neurone del cervello, e tracciare ogni percorso
neurale, non riduce forse il mistero e la magia dell’esistenza?

Una risposta a Bill Joy

A posteriori, le minacce sollevate dalla robotica e dalle nanotecnologie


sono più distanti di quanto pensasse Bill Joy, e direi che con un preavviso
sufficiente possiamo prendere una serie di contromisure, come vietare
ipotesi di ricerca che possano condurre a robot incontrollabili, o prevedere
l’inserimento di chip grazie a cui disattivare quelli divenuti troppo
pericolosi, o ancora creare dispositivi fail-safe per immobilizzarli tutti in
caso di emergenza.
Più immediata è la minaccia posta dalla biotecnologia, dato il pericolo
concreto di una fuga di biogermi dai laboratori. In effetti, Ray Kurzweil e
Bill Joy hanno scritto insieme un articolo che criticava la pubblicazione del
genoma completo del virus dell’influenza spagnola del 1918 (uno dei germi
più letali della storia moderna, responsabile di più morti di quante non ne
abbia causate la prima guerra mondiale): esaminando i cadaveri e il sangue
delle sue vittime, gli scienziati sono infatti stati in grado di riassemblarlo,
nonostante fosse ormai estinto da tempo, e dopo averne sequenziato i geni,
hanno pubblicato i risultati della ricerca sul web.
Esistono già misure di salvaguardia contro il rilascio di un virus così
pericoloso, ma è necessario adottare provvedimenti ulteriori per rafforzarle.
In particolare, nel caso in cui un nuovo virus si manifesti all’improvviso in
qualche luogo sperduto della Terra, gli scienziati devono potenziare le
squadre di rapido intervento per isolarlo, ricostruirne la sequenza genetica e
mettere a punto in tempi brevi un vaccino che ne prevenga la diffusione.

Implicazioni per Il futuro della mente

Questo dibattito ha anche un impatto diretto sul futuro della mente. Allo
stato attuale, le neuroscienze sono ancora a uno stadio piuttosto primitivo:
gli scienziati possono leggere e registrare pensieri elementari dal cervello di
una persona viva, censire qualche ricordo, collegare il cervello a bracci
meccanici, abilitare pazienti immobilizzati al controllo di macchine,
silenziare specifiche regioni del cervello attraverso il magnetismo e
identificare quelle responsabili dei disturbi mentali.
Nei prossimi decenni, tuttavia, il potere delle neuroscienze potrebbe
diventare esplosivo: oggi la ricerca è sulla soglia di nuove scoperte
scientifiche che, con ogni probabilità, ci lasceranno senza fiato. Un giorno
potremmo controllare gli oggetti intorno a noi con la forza della nostra
mente, downloadare i ricordi, curare le malattie mentali, potenziare la
nostra intelligenza, comprendere il cervello neurone per neurone, crearne
copie di backup e comunicare tra noi per via telepatica. Il mondo del futuro
sarà il mondo della mente.
Bill Joy non intendeva contestare le potenzialità di questa tecnologia
nell’alleviare la sofferenza dei malati; a terrorizzarlo era semmai la
prospettiva di individui potenziati che potrebbero invece frammentare la
razza umana. Il suo articolo traccia una sorta di cupa distopia in cui solo
una ristretta élite gode di intelligenza e processi mentali potenziati, mentre
le masse vivono nell’ignoranza e nella povertà. Il suo timore era che la
razza umana potesse scindersi, o cessare addirittura di essere tale.
Come abbiamo sottolineato, quando le tecnologie vengono introdotte
sono quasi tutte costose e quindi ad uso esclusivo dei benestanti, ma grazie
alla produzione di massa, al crollo del prezzo dei computer, alla
concorrenza e al costo sempre più basso dei trasporti, ognuna di esse finisce
inevitabilmente per divenire appannaggio anche dei meno abbienti. Questa
è stata la traiettoria seguita da fonografi, radio, tv, personal computer,
laptop, telefoni cellulari e smartphone.
Lungi dal voler creare un mondo di ricchi e poveri, la scienza è stata il
motore della prosperità; di tutti gli strumenti che l’umanità ha sfruttato fin
dagli albori del tempo, si è rivelata di gran lunga il più potente e produttivo,
ed è alla scienza che dobbiamo gran parte dell’incredibile ricchezza che
vediamo intorno a noi. Per apprezzare il modo in cui la tecnologia riduce,
anziché accentuare, le fratture sociali, prendiamo in considerazione la vita
dei nostri antenati intorno al 1900: all’epoca, negli Stati Uniti l’aspettativa
di vita era di quarantanove anni e molti bambini morivano in tenera età.
Per comunicare con un vicino bisognava gridare dalla finestra; la posta
veniva consegnata a cavallo, quando veniva consegnata; la medicina era in
larga parte olio di serpente – gli unici trattamenti che funzionavano davvero
erano le amputazioni (senza anestesia) e la morfina per attutire il dolore. Il
cibo marciva in pochi giorni, gli impianti idraulici erano inesistenti, le
malattie una minaccia costante. L’economia poteva sostentare solo una
manciata di ricchi e una sparuta classe media.
La tecnologia ha cambiato tutto: non dobbiamo più andare a caccia per
procurarci il cibo, ci basta entrare in un supermercato; non dobbiamo più
trasportare pesi massacranti, ci basta prendere l’auto (in realtà, la minaccia
principale derivante dalla tecnologia, una minaccia che ha in effetti ucciso
milioni di persone, non ha nulla a che fare con i robot assassini o i nanobot
impazziti, quanto con il nostro indulgente stile di vita, che ha creato diabete,
obesità, malattie cardiache, cancro ecc. prossimi ai livelli di un’epidemia –
e si tratta di una minaccia autoinflitta).
Applichiamo il ragionamento su scala globale: negli ultimi decenni, per
la prima volta nella storia, il mondo ha visto uscire milioni di persone da
uno stato di povertà opprimente. Allargando il quadro, possiamo dire che
una porzione significativa della razza umana abbia abbandonato lo stile di
vita legato all’agricoltura di sostentamento per entrare nei ranghi della
classe media.
Ci sono voluti centinaia di anni perché i paesi occidentali
raggiungessero un certo livello di industrializzazione, ma Cina e India lo
stanno facendo nel giro di pochi decenni, e tutto grazie alla diffusione
dell’alta tecnologia. Grazie a internet e al wireless, queste nazioni possono
scavalcare quelle più sviluppate che stanno, con fatica, cablando le proprie
città; mentre l’Occidente combatte contro l’invecchiamento e il degrado
delle infrastrutture urbane, le nazioni in via di sviluppo edificano intere
spumeggianti città servendosi della tecnologia più avanzata.
Quando ero uno studente appena laureato intento a ottenere il mio
dottorato di ricerca, le mie controparti in Cina e in India avrebbero dovuto
aspettare da diversi mesi a un anno perché venisse consegnato loro il
numero di una rivista scientifica che avevano richiesto. Inoltre, non
avevano quasi nessun contatto diretto con scienziati e ingegneri occidentali,
perché erano in pochi a potersi permettere di venire nella nostra parte del
mondo. Tutto ciò non faceva che ostacolare il flusso tecnologico, che in
queste nazioni si muoveva a ritmi assai fiacchi. Oggi, però, gli scienziati
possono leggere ognuno i documenti dell’altro non appena vengono postati
su internet, e collaborare via computer con i colleghi di tutto il mondo,
accelerando in modo considerevole il flusso di informazioni; e questa
tecnologia ha portato con sé progresso e prosperità.
Non è così evidente, inoltre, che una qualche forma di intelligenza
potenziata debba causare una scissione catastrofica della razza umana,
nemmeno nel caso in cui molta gente non abbia i mezzi per permettersela. Il
più delle volte l’essere in grado di risolvere equazioni matematiche
complesse o il possedere una memoria perfetta non garantisce un reddito
più alto o una maggior popolarità presso l’altro sesso, che sono poi gli
incentivi che motivano la maggior parte delle persone. Il principio
dell’uomo delle caverne surclassa il potenziamento del cervello.
Osserva Gazzaniga: «L’idea di mettere sottosopra le nostre viscere
risulta allarmante ai più. Cosa ce ne faremo di un’intelligenza potenziata?
La useremo per risolvere i problemi, o servirà solo ad allungare l’elenco di
persone a cui inviare i biglietti natalizi?»4.
Come abbiamo visto nel Capitolo 5, i lavoratori disoccupati potrebbero
beneficiare di questa possibilità, riducendo in modo drastico il tempo
necessario a padroneggiare nuove tecnologie e competenze. E ciò potrebbe
non solo alleviare i problemi legati alla disoccupazione, ma avere anche un
impatto sull’economia mondiale, rendendola più produttiva e reattiva ai
cambiamenti.

Buon senso e dibattito democratico

In risposta all’articolo di Joy, alcuni critici hanno sottolineato che la


disputa non riguarda uno scontro fra scienziati e natura, come l’articolo
stesso tendeva a far credere. Il dibattito, in realtà, coinvolge tre parti: gli
scienziati, la natura e la società.
Gli informatici John Brown e Paul Duguid risposero all’articolo come
segue: «Le innovazioni tecnologiche (come la polvere da sparo, la stampa,
la ferrovia, il telegrafo e internet) possono imprimere molti profondi
cambiamenti nella società. D’altra parte, però, i sistemi sociali – sotto
forma di governi, tribunali, organizzazioni formali e informali, movimenti
sociali, reti professionali, comunità locali, istituzioni di mercato e via
dicendo – hanno il potere di modellare, moderare e reindirizzare la forza
bruta di queste innovazioni tecnologiche»5.
Tutto sta nel mettere in relazione le innovazioni con il tessuto sociale: in
fin dei conti, spetta a noi adottare una nuova visione del futuro che
incorpori le idee migliori.
A parer mio, sotto questo aspetto la massima fonte di buon senso
scaturisce da un vigoroso dibattito democratico: nei prossimi decenni la
gente sarà invitata a esprimersi su una serie di questioni scientifiche
fondamentali. La tecnologia non può essere discussa in un vuoto
decontestualizzato.

Questioni filosofiche

Da ultimo, alcuni critici hanno sostenuto che la marcia della scienza si


sia spinta fin troppo oltre nel voler svelare i segreti della mente, in un
disvelamento disumano e degradante: perché gioire per una nuova scoperta,
per l’aver appreso una nuova abilità, o godersi una piacevole vacanza
quando tutto può essere ridotto a una manciata di neurotrasmettitori che
attivano un paio di circuiti neurali?
In altre parole, proprio come l’astronomia ci ha ridotto a insignificanti
frammenti di polvere cosmica galleggianti in un universo indifferente, la
neuroscienza ci ha ridotti a segnali elettrici trasmessi da circuiti neurali. Ma
le cose stanno davvero così?
Abbiamo iniziato la discussione mettendo in evidenza i due massimi
misteri in ambito scientifico: la mente e l’universo. Non solo questi due
misteri hanno una storia e una narrativa comune, ma condividono anche una
filosofia e, forse, un destino; e la scienza, che ha reso ormai possibile
scrutare nel cuore dei buchi neri e atterrare su pianeti lontani, ha dato vita a
due filosofie onnicomprensive sulla mente e sull’universo, il principio
copernicano e il principio antropico. Pur essendo entrambi coerenti con
tutto ciò che ha un sapore scientifico, questi due principi sono
diametralmente opposti.
Il primo dei due, il principio copernicano, è nato più di quattro secoli fa
con la scoperta del telescopio, e afferma che l’umanità non gode di alcuna
posizione privilegiata; quest’idea sorprendentemente semplice ha ribaltato
migliaia di anni di miti rispettati e radicati.
Fin dal racconto biblico di Adamo ed Eva esiliati dal giardino dell’Eden
per aver morso la mela della conoscenza, non è stato che un susseguirsi di
umilianti detronizzazioni: prima il telescopio di Galileo dimostrò con
evidenza che la Terra non rappresentava il centro del sistema solare –
occupato, per l’appunto, dal sole; poi il quadro fu di nuovo ribaltato quando
venne fuori che il sistema solare era solo un puntino nella Via Lattea,
distante circa trentamila anni luce dal centro della galassia; negli anni venti
del Novecento Edwin Hubble scoprì l’esistenza di una moltitudine di
galassie, e in un istante l’universo divenne miliardi di volte più esteso; ora il
telescopio spaziale Hubble riesce a cogliere fino a un massimo di cento
miliardi di galassie nell’universo visibile, e la nostra, la Via Lattea, si è
ridotta a un puntino in un’arena cosmica molto più vasta.
Le più recenti teorie cosmologiche declassano ulteriormente la
posizione dell’umanità: quella dell’universo inflazionario afferma che il
nostro universo visibile, con i suoi cento miliardi di galassie, sia la punta di
uno spillo su un universo molto più vasto, talmente vasto che la maggior
parte della luce proveniente dalle regioni più distanti non ha ancora avuto il
tempo di raggiungerci (ci sono, cioè, vaste distese di spazio che non
possiamo vedere con i nostri telescopi e che non saremo mai in grado di
raggiungere perché non possiamo andare più veloci della luce); e se la
teoria delle stringhe, la mia specialità, è corretta, perfino l’intero universo
coesiste con altri universi in un iperspazio a undici dimensioni: anche lo
spazio tridimensionale, dunque, non avrebbe l’ultima parola, e la vera arena
per i fenomeni fisici sarebbe un multiverso in cui i singoli universi
galleggiano come bolle.
Lo scrittore di fantascienza Douglas Adams ha cercato di riassumere il
senso di questo costante rovesciamento inventando il Vortice di Prospettiva
Totale nella sua Guida galattica per autostoppisti, progettato per fare
impazzire le persone sane di mente: entrando nel macchinario tutto ciò che
si vede è una gigantesca mappa dell’intero universo, e su di essa c’è una
freccia minuscola, quasi invisibile, che dice: “Voi siete qui”.
Così, da un lato, il principio copernicano ci dice che siamo insignificanti
detriti cosmici alla deriva, senza meta, tra le stelle. Dall’altro, però, tutti gli
ultimi dati cosmologici sono coerenti con un’altra teoria, che suggerisce
l’opposto: il principio antropico.
Essa sostiene che l’universo sia compatibile con la vita. Ancora una
volta, quest’affermazione in apparenza banale comporta implicazioni
profonde: è impossibile contestare il fatto che esista vita nell’universo, ma è
evidente che le forze debbano essere assai ben calibrate per renderla
possibile. Come disse una volta Freeman Dyson: «L’universo sembrava
sapere che stavamo arrivando».
Per esempio, se la forza nucleare fosse stata solo un po’ più forte, il sole
si sarebbe esaurito miliardi di anni fa, troppo presto per consentire al DNA
di emergere dalla superficie terrestre; se la forza nucleare fosse stata un po’
più debole, il sole non si sarebbe mai acceso, e noi non saremmo ancora
qui.
Allo stesso modo, se la gravità fosse stata più forte, l’universo sarebbe
collassato in un Big Crunch miliardi di anni fa, arrostendo tutto; se fosse
stata un po’ più debole, si sarebbe espanso così in fretta da raggiungere il
Big Freeze, congelando tutto.
Questo bilanciamento perfetto si estende ad ogni atomo del corpo. I
fisici sostengono che siamo fatti di polvere di stelle, che gli atomi che
vediamo intorno a noi sono stati forgiati nel calore di una stella, che siamo
letteralmente figli delle stelle.
Ma le reazioni nucleari che bruciano idrogeno per creare gli elementi
superiori del nostro corpo sono molto complesse, e sarebbero potute
deragliare in un’infinità di passaggi; nel qual caso, adesso, non
esisterebbero né gli atomi di DNA né la vita.
In altre parole, la vita è un miracolo prezioso.
Sono così tanti i parametri da bilanciare nel modo corretto che alcuni
sostengono non possa trattarsi di una coincidenza: la forma debole del
principio antropico implica che l’esistenza della vita costringa i parametri
fisici dell’universo ad allinearsi in modo estremamente preciso. La forma
forte va anche oltre, affermando che Dio o qualche progettista abbia creato
un universo “perfetto” che ospitasse la vita.
Filosofia e neuroscienza

La disputa tra principio copernicano e principio antropico riecheggia


anche nel campo delle neuroscienze: per esempio, alcuni sostengono che,
essendo riducibili ad atomi, molecole e neuroni, gli esseri umani non
occupino una posizione particolare in seno all’universo. Scrive David
Eagleman: «L’io che i nostri amici conoscono e amano non può esistere se i
transistor e le viti cerebrali non sono al loro posto. Se non ci credete, entrate
nel reparto neurologico di un ospedale qualsiasi. Una lesione ad aree anche
piccole del cervello provoca la perdita di facoltà incredibilmente specifiche,
come la capacità di dire il nome degli animali, ascoltare la musica, gestire
un comportamento di rischio, distinguere i colori o affrontare semplici
decisioni»6.
Si direbbe che il cervello non possa funzionare senza tutti i suoi
“transistor” e le sue “viti”. Conclude Eagleman: «Chi siamo, la nostra
identità, dipende dalla somma totale della nostra neurobiologia»7. Così, da
un lato il nostro ruolo nell’universo sembra essere sminuito se possiamo
essere ridotti, come i robot, a dadi e bulloni (biologici, beninteso): siamo
soltanto wetware, l’esecuzione di un software chiamato mente, niente di più
niente di meno; i nostri pensieri e desideri, come le nostre speranze e
aspirazioni, possono essere ridotti a impulsi elettrici che scorrono in
determinate aree della corteccia prefrontale: questo è il principio
copernicano applicato alla mente.
Ma anche il principio antropico può essere applicato alla mente, e con
opposte conclusioni: esso, infatti, ci dice soltanto che le condizioni
dell’universo rendono possibile la coscienza, per quanto sia molto difficile
che la mente sia il risultato di una serie di eventi casuali. Diceva Thomas
Huxley: «Come avvenga che qualcosa di tanto degno di nota come uno
stato di coscienza si produca quale risultato di una stimolazione del tessuto
nervoso, è inspiegabile quanto l’apparire del genio ad Aladino quando
strofinava la lampada»8.
Inoltre, la maggior parte degli astronomi ritiene che, se anche un giorno
troveremo la vita su altri pianeti, si tratterà probabilmente di vita microbica,
la stessa che ha governato i nostri oceani per miliardi di anni. Invece che
grandi città e imperi, potremmo imbatterci in semplici oceani di
microrganismi fluttuanti.
Parlando dell’argomento con il compianto Stephen Jay Gould9, questi
mi spiegò che se riuscissimo in qualche modo a ricreare un pianeta gemello
della Terra di quattro miliardi e mezzo di anni fa, molto probabilmente il
risultato dopo quattro miliardi e mezzo di anni non sarebbe lo stesso; è anzi
molto probabile che nessuna forma di vita emergerebbe, tanto meno una
cosciente e intelligente.
Scriveva Gould: «L’Homo sapiens è solo un piccolo ramo [dell’albero
della vita] …Eppure il nostro ramoscello, bene o male che sia, ha
sviluppato la nuova qualità più straordinaria in tutta la storia della vita
pluricellulare dopo l’esplosione del Cambriano. Abbiamo inventato la
coscienza con tutto ciò che ne è seguito, da Amleto a Hiroshima»10.
In effetti, nel corso della storia della Terra la vita intelligente è stata più
volte sul punto di estinguersi; e oltre ai dinosauri, spazzati via dalle
estinzioni di massa, anche noi abbiamo dovuto affrontare situazioni simili.
Per fare un esempio, sul piano genetico gli esseri umani sono tutti legati tra
loro in misura considerevole, molto più di quanto non lo siano tra loro due
esemplari di qualsiasi altra specie animale: anche se all’esterno certe
differenze possono apparire marcate, i nostri geni e la chimica interna
raccontano una storia diversa, ovvero che in realtà siamo così legati che è in
effetti possibile calcolare quando un “Adamo genetico” e un’“Eva genetica”
hanno dato vita all’intera razza umana, e quanti fossimo in passato.
I numeri fanno una certa impressione. La genetica dimostra che nell’era
compresa tra settantamila e centomila anni fa esistevano solo poche
centinaia o poche migliaia di esseri umani, da cui poi è discesa l’intera
razza (una teoria sostiene che l’esplosione titanica del vulcano Toba, in
Indonesia, avvenuta circa settantamila anni fa, abbia provocato un calo
delle temperature così drastico da risparmiare solo una manciata di esseri
umani, i quali in seguito hanno ripopolato la Terra). Da quel gruppo ristretto
sarebbero discesi gli avventurieri e gli esploratori che avrebbero finito per
colonizzare l’intero pianeta.
In vari momenti della storia della Terra, quindi, la vita intelligente ha
rischiato di finire in un vicolo cieco, e se siamo sopravvissuti è per puro
miracolo. Possiamo altresì concludere che, se anche su altri pianeti possa
esserci vita, solo una minuscola parte di essi ospiterà una forma di vita
cosciente. Di conseguenza, dovremmo tenere in grande considerazione la
coscienza che si è evoluta sulla Terra: è la più alta forma di complessità
conosciuta nell’universo e, probabilmente, anche la più rara.
A volte, riflettendo sul futuro della razza umana, mi trovo a dover fare i
conti con la possibilità concreta della sua autodistruzione: per quanto
possiamo essere in balia di eruzioni vulcaniche e terremoti, infatti, i nostri
incubi peggiori potrebbero avverarsi a causa di disastri causati da noi stessi,
come guerre nucleari o germi ricavati dalla bioingegneria. Se le cose
dovessero prendere questa piega, allora forse il risultato sarà l’estinzione
dell’unica forma di vita cosciente in questo settore della Via Lattea; e
un’eventualità simile, sento di poter dire, sarebbe una tragedia non solo per
noi, ma per l’universo intero. Diamo per scontata la nostra coscienza, senza
avere idea della tortuosa sequenza di eventi biologici che si sono dovuti
verificare perché essa fosse possibile. Scrive lo psicologo Steven Pinker:
«Direi che nulla dà più senso alla vita che il rendersi conto che ogni istante
di coscienza è un dono prezioso e fragile».

Il miracolo della coscienza

Per concludere, due parole sull’appunto mosso alla scienza secondo cui
giungere alla comprensione di un fenomeno significhi sminuirne il mistero
e la magia. Sollevando il velo che nasconde i segreti della mente, la scienza
la sta rendendo una materia comune e banale; tuttavia, per quanto mi
riguarda, più apprendo della complessità del cervello, più aumenta il mio
stupore di fronte al fatto che una cosa che ci sta sopra il collo sia l’oggetto
più sofisticato nell’universo noto. Come dice David Eagleman: «Che
sconcertante capolavoro è il cervello, e come siamo fortunati ad appartenere
a una generazione che ha la tecnica e la volontà di studiarlo. È la cosa di
gran lunga più bella che abbiamo scoperto nell’universo, e quella cosa
bellissima siamo noi». Conoscere meglio il cervello non può sminuire il
senso di meraviglia; al contrario, può solo amplificarlo.
Più di duemila anni fa Socrate disse: «Conoscere se stessi è l’inizio
della saggezza». Ci siamo messi in viaggio per esaudire questo auspicio.

1
“Wired”, aprile 2000, http://tinyurl.com/a6i2.
2
Garreau, Radical Evolution, cit., p. 139.
3
Ivi, p. 180.
4
Ivi, p. 353.
5
Ivi, p. 182.
6
Eagleman, In incognito, cit., p. 227.
7
Ivi, p. 230.
8
Pinker, Come funziona la mente, cit., p. 141.
9
Intervista del novembre 1996 a Stephen Jay Gould per la trasmissione radiofonica Exploration.
10
Pinker, Come funziona la mente, cit., p. 142.
Appendice
Una coscienza quantistica?

Nonostante i progressi miracolosi compiuti nel campo delle scansioni


cerebrali e dell’alta tecnologia, c’è chi sostiene che non riusciremo mai a
carpire il segreto della coscienza, essendo quest’ultima ben oltre le esili
possibilità del nostro sapere tecnologico. Secondo quest’ottica, la coscienza
è un elemento ancor più essenziale rispetto ad atomi, molecole e neuroni;
sarebbe, in pratica, l’entità fondamentale da cui prende forma il mondo
materiale. A sostegno di questa teoria si fa riferimento a uno dei più grandi
paradossi della scienza: il paradosso del gatto di Schrödinger. Ancora oggi
non esiste consenso universale sulla questione, e diversi premi Nobel hanno
assunto posizione divergenti in proposito. La posta in gioco è niente meno
che la natura stessa della realtà e del pensiero.
Il paradosso del gatto di Schrödinger colpisce al cuore le fondamenta
della meccanica quantistica, un campo che rende possibili i laser, le
scansioni RM, la radio e la tv, i sistemi elettronici moderni, il GPS e le
telecomunicazioni – e quindi l’economia mondiale (molte delle predizioni
della teoria quantistica sono state testate con un margine di errore di uno su
cento miliardi).
Ho dedicato la mia intera carriera professionale alla teoria quantistica,
eppure so che essa poggia su piedi d’argilla; prendere atto del fatto che il
lavoro di tutta una vita riposa su una teoria basata su un paradosso suscita
una sensazione inquietante.
Il dibattito in oggetto venne innescato dal fisico austriaco Erwin
Schrödinger, uno dei padri fondatori della teoria quantistica. Schrödinger
stava cercando di spiegare lo strano comportamento degli elettroni, che
sembrano mostrare sia le proprietà delle onde sia quelle delle particelle: a
volte, come onde, passano attraverso piccoli fori creando modelli di
interferenza ondulatori (simili a quelli apprezzabili sulla superficie di uno
stagno); altre volte, come particelle, creano tracce ben definite in una
camera a nebbia. Ma come può un elettrone, una particella puntiforme,
assumere due comportamenti divergenti?
Nel 1925 Schrödinger propose la sua celebre equazione d’onda (che
porta per l’appunto il suo nome), una delle equazioni più importanti mai
formulate. Essa – che fece subito scalpore e gli valse il premio Nobel nel
1933 – descrive con precisione il comportamento ondulatorio degli elettroni
e, applicata all’atomo di idrogeno, ne spiega le proprietà; è incredibile, ma
può essere applicata a qualsiasi atomo e spiegare la maggior parte delle
caratteristiche della tavola periodica degli elementi. Sembrava dunque che
tutta la chimica (e quindi la biologia) non fosse altro che l’insieme delle
soluzioni di questa equazione d’onda. Alcuni si spinsero perfino a sostenere
che l’intero universo – con tutte le stelle, i pianeti e noi esseri umani – non
fosse altro che una soluzione dell’equazione.
Ma poi i fisici presero a porsi una questione che riecheggia ancora oggi:
se l’elettrone è descritto da un’equazione d’onda, allora cos’è che
ondeggia?
Nel 1927 Werner Heisenberg propose un nuovo principio che divise la
comunità dei fisici: il celebre principio di indeterminazione, il quale
afferma che non è possibile conoscere con certezza sia la posizione sia la
quantità di moto di un elettrone. Tale incertezza non è una funzione che
descrive il grado di elementarità degli strumenti di misurazione: è intrinseca
alla fisica stessa. Perfino Dio o un essere celeste potrebbe non conoscere la
posizione precisa e la quantità di moto di un elettrone nello stesso
momento.
Dunque, in realtà, la funzione d’onda di Schrödinger descrive la
probabilità di trovare l’elettrone; da migliaia di anni gli scienziati tentavano
con fatica di eliminare il caso e la probabilità nel loro lavoro, ed ecco che
Heisenberg li reintroduceva dalla porta sul retro.
La nuova filosofia può essere riassunta come segue: l’elettrone è una
particella puntiforme, ma la probabilità di trovarlo è espressa da un’onda. E
quest’onda, che obbedisce all’equazione di Schrödinger, dà origine al
principio di indeterminazione.
La comunità dei fisici si divise a metà. Da un lato vi erano Niels Bohr,
Werner Heisenberg e la maggior parte dei fisici atomici, impazienti di
adottare la nuova formulazione: quasi non passava giorno senza che
annunciassero nuovi progressi nella comprensione delle proprietà della
materia, i premi Nobel venivano assegnati ai fisici quantistici come fossero
Oscar e la meccanica quantistica stava diventando un libro di ricette. Non
c’era bisogno di essere un maestro della fisica per fornire contributi stellari:
bastava seguire le ricette della meccanica quantistica per fare scoperte
mozzafiato.
Dall’altro lato, a sollevare obiezioni filosofiche c’erano vecchi premi
Nobel come Albert Einstein, Erwin Schrödinger e Louis de Broglie
(Schrödinger, il cui lavoro aveva contribuito ad avviare questo processo,
lamentò che se avesse saputo che la sua equazione avrebbe introdotto il
concetto di probabilità nella fisica, non l’avrebbe mai formulata).
I fisici diedero inizio a una disputa che a distanza di ottant’anni non si è
ancora placata: da una parte Einstein proclamava che «Dio non gioca a dadi
con l’universo», e dall’altra Niels Bohr pare gli abbia risposto: “Smettila di
dire a Dio cosa fare”.
Nel 1935, per demolire i fisici quantistici una volta per tutte,
Schrödinger propose il suo celebre paradosso del gatto. Mettete un gatto in
una scatola sigillata, con all’interno un contenitore di gas venefico; nella
scatola c’è un blocco di uranio. L’atomo di uranio è instabile ed emette
particelle che possono essere rilevate da un contatore Geiger; il contatore
innesca un martello che, cadendo, rompe il vetro, rilasciando il gas che può
uccidere il gatto.
Come si fa a descrivere il gatto? Un fisico quantistico direbbe che
l’atomo di uranio è descritto da un’onda, che può decadere o meno.
Dunque, se l’uranio si innesca e il gatto muore, la circostanza è descritta da
un’onda; in caso contrario il gatto vive, circostanza descritta da un’altra
onda. Per descrivere il gatto, bisogna dunque sommare l’onda di un gatto
morto all’onda di un gatto vivo.
Ciò equivale a dire che il gatto non è né morto né vivo! È in una specie
di limbo, tra la vita e la morte.
Questo è il nodo della questione che ha tenuto banco nelle aule di fisica
per quasi un secolo: come si risolve il paradosso? Ci sono almeno tre modi
(più centinaia di varianti).
Il primo è l’originale interpretazione di Copenaghen proposta da Bohr e
Heisenberg, e citata nei libri di testo di tutto il mondo (ed è ciò con cui
inizio quando insegno meccanica quantistica): dice che per determinare lo
stato del gatto è necessario aprire la scatola e fare una misurazione. L’onda
del gatto (che era la somma dell’onda di un gatto morto e l’onda di un gatto
vivo) ora “collassa” in una sola onda, così che adesso sappiamo se il gatto è
vivo o morto. L’osservazione determina l’esistenza e lo stato del gatto: il
processo di misurazione è quindi responsabile del fatto che due onde si
dissolvano per magia in un’unica onda.
Un ragionamente che Einstein detestava. Gli scienziati si erano battuti
per secoli contro quel qualcosa chiamato solipsismo o idealismo soggettivo,
ovvero la pretesa che gli oggetti non esistano se non c’è qualcuno ad
osservarli. Su questa base solo la mente sarebbe reale, e il mondo materiale
esisterebbe solo sotto forma di idee da essa concepite. Così, per i solipsisti
(come George Berkeley), se un albero cade nella foresta ma non c’è
nessuno ad osservarlo, forse non è mai caduto. Einstein, che riteneva tutto
ciò una pura assurdità, propugnava una teoria di segno opposto, vale a dire
quella della realtà oggettiva, che afferma semplicemente che l’universo
esiste in un unico stato definito e indipendente da qualsiasi osservazione
umana; teoria che incarna il senso comune della maggior parte delle
persone.
La realtà oggettiva si rifà a Isaac Newton, e in questo scenario le
particelle atomiche e subatomiche sono come piccole sfere di acciaio che
esistono in punti precisi, nello spazio e nel tempo. Non esiste ambiguità né
probabilità nel localizzarne la posizione, e i loro movimenti possono essere
determinati in base alle leggi del moto. La realtà oggettiva si era dimostrata
perfetta nel descrivere i moti di pianeti, stelle e galassie; e, tramite la
relatività, anche i buchi neri e l’universo in espansione. Ma c’è un luogo in
cui fallisce miseramente: all’interno dell’atomo.
I fisici classici come Newton ed Einstein pensavano che la realtà
oggettiva potesse bandire il solipsismo dalla fisica. Concetto così riassunto
dall’editorialista Walter Lippmann: «La novità radicale della scienza
moderna sta proprio nel rifiuto della credenza […] che le forze che
muovono le stelle e gli atomi siano condizionate dalle preferenze del cuore
umano».
Ma la meccanica quantistica ha reintrodotto una nuova forma di
solipsismo: prima che venga osservato, un albero può esistere in ogni stato
possibile (come alberello, tronco bruciato, segatura, stuzzicadenti, in
putrefazione); al momento dell’osservazione, però, l’onda collassa
all’improvviso e l’albero si presenta come un albero. I solipsisti originali
parlavano di alberi al tempo stesso caduti e non, i nuovi solipsisti quantistici
introducevano progressivamente tutti i suoi possibili stati.
Per Einstein era davvero troppo, e pare che chiedesse ai suoi ospiti:
«Forse la luna esiste solo perché un topo la guarda?». In un certo senso, per
un fisico quantistico la risposta potrebbe essere sì.
Einstein e i colleghi sfidarono Bohr chiedendo: come può il
micromondo quantistico (con i suoi gatti vivi e morti allo stesso tempo)
coesistere con il mondo del buonsenso che vediamo intorno a noi? La
risposta è che c’è un “muro” che separa il nostro mondo da quello atomico:
da un lato vige il buonsenso, dall’altro la teoria quantistica. Spostando il
muro, il risultato sarà sempre lo stesso.
Questa interpretazione, per quanto strana possa sembrare, è stata
insegnata per ottant’anni dai fisici quantistici. In tempi recenti, però, è stato
avanzato qualche dubbio sull’interpretazione di Copenhagen, dato che oggi
disponiamo di una nanotecnologia con cui manipolare i singoli atomi a
nostro piacimento. Sullo schermo di un microscopio a scansione a effetto
tunnel, gli atomi sembrano palle da tennis lanuginose (ho avuto
l’opportunità di visitare, per conto della BBC, gli Almaden Lab di IBM a
San Jose, in California, e di comandare davvero a bacchetta singoli atomi
grazie a una sonda minuscola; ora è possibile giocare con gli atomi, una
volta ritenuti così piccoli da essere destinati a rimanere invisibili).
Come abbiamo detto, l’Età del Silicio sta lentamente volgendo al
termine, e alcuni ritengono che i transistor al silicio saranno rimpiazzati da
quelli molecolari. Se le cose stanno così, allora i paradossi della teoria dei
quanti potrebbero stare alla base di tutti i computer del futuro; anzi,
dell’intera economia del mondo.

Coscienza cosmica e universi paralleli

Ci sono due interpretazioni alternative del paradosso del gatto che ci


introducono nel regno più strano di tutte le scienze: quello di Dio e degli
universi multipli.
Nel 1967 la seconda soluzione del paradosso del gatto fu formulata dal
premio Nobel Eugene Wigner, il cui lavoro si rivelò fondamentale nel porre
le basi della meccanica quantistica e nella realizzazione della bomba
atomica. Wigner sostenne che solo un essere cosciente possa compiere
un’osservazione in grado di far collassare la funzione d’onda. Ma chi può
dire che costui esista? Non si può separare l’osservatore dall’osservato,
quindi esso è forse morto e vivo allo stesso tempo. In altre parole, deve
esistere una nuova funzione d’onda che comprenda sia il gatto sia
l’osservatore. Per sapere che l’osservatore è vivo è necessario che a
osservarlo ci sia un secondo osservatore; questo secondo osservatore,
chiamato amico di Wigner, serve appunto a guardare il primo, così da far
collassare tutte le onde. Ma come facciamo a sapere che il secondo
osservatore è vivo? Deve essere incluso in una funzione d’onda ancora più
grande che ci assicuri che è vivo, e questo ragionamento può continuare
all’infinito. Dal momento che avremmo bisogno di un numero infinito di
“amici” per far collassare la funzione d’onda precedente e assicurarci, così,
di essere vivi, alla fine sarà necessaria una qualche forma di “coscienza
cosmica”, o Dio.
Questa fu la conclusione di Wigner: «Non era possibile formulare le
leggi della meccanica quantistica in modo del tutto coerente senza far
riferimento alla coscienza». Nell’ultima fase della sua vita, Wigner si
interessò alla filosofia induista Vedānta.
Secondo questo approccio, Dio o una qualche coscienza eterna veglia su
tutti noi, facendo in tal modo collassare le nostre funzioni d’onda così da
consentirci di affermare che siamo vivi. Una simile interpretazione produce
gli stessi risultati fisici dell’interpretazione di Copenhagen, ragion per cui
non può essere confutata; ma implica che la coscienza sia l’entità
fondamentale dell’universo, ancor più degli atomi. Il mondo materiale può
andare e venire, ma la coscienza resta l’elemento definitorio: il che equivale
a dire che essa, in un certo senso, crea la realtà, e che l’esistenza stessa
degli atomi intorno a noi si basa sulla nostra capacità di vederli e toccarli (a
questo punto è importante notare che, secondo alcuni, dal momento che la
coscienza determina l’esistenza, allora può anche controllarla, magari
tramite la meditazione; sarebbe insomma possibile creare la realtà secondo i
nostri desideri. Per quanto possa suonare attraente, questa teoria va contro
la meccanica quantistica: nella fisica dei quanti, infatti, la coscienza osserva
e dunque determina lo stato della realtà, ma non può scegliere in anticipo
quale stato della realtà esista davvero. La meccanica dei quanti permette
solo di determinare la probabilità di trovare uno stato, non di piegare la
realtà ai nostri desideri. Per esempio, nel gioco d’azzardo è possibile
calcolare matematicamente le probabilità di ottenere una scala reale;
tuttavia, ciò non equivale a esercitare un qualche controllo sulle carte in
modo da ottenerla. Non possiamo scegliere gli universi, così come non
abbiamo alcun controllo sull’eventualità che il gatto sia vivo o morto).

Universi multipli

Il terzo modo per risolvere il paradosso è l’interpretazione Everett, o a


molti mondi, proposta per l’appunto da Hugh Everett nel 1957. È la teoria
più strana di tutte, e sostiene che l’universo non faccia che dividersi
costantemente in un multiverso di universi: in un universo abbiamo un gatto
morto, in un altro universo un gatto vivo. Questo approccio può essere
sintetizzato come segue: le funzioni d’onda non collassano mai, si separano
soltanto. La teoria a molti mondi di Everett differisce dall’interpretazione di
Copenaghen in quanto fa cadere l’ipotesi finale: il collasso della funzione
d’onda. In un certo senso, è la formulazione più semplice della meccanica
quantistica, ma anche la più inquietante.
Questo terzo approccio ha conseguenze profonde: comporta il fatto che
potrebbero esistere tutti gli universi possibili, anche quelli più bizzarri e
improbabili (ad ogni modo, più bizzarro è l’universo e più è improbabile).
Ciò significa che le persone che sono morte nel nostro universo sono ancora
vive in un altro; ed esse insistono sul fatto che il loro universo sia quello
reale, mentre il nostro (in cui sono appunto morte) è falso. Ma se questi
“fantasmi” delle persone morte sono ancora vivi da qualche parte, perché
non possiamo incontrarli? Perché non possiamo toccare questi mondi
paralleli?
Inoltre, alcuni di questi universi potrebbero essere morti, senza vita,
mentre altri potrebbero apparire esattamente come il nostro, tranne che per
una differenza fondamentale. Per esempio, l’impatto di un singolo raggio
cosmico è un piccolo evento quantistico: ma cosa succede se esso attraversa
la madre di Adolf Hitler, provocandole un aborto spontaneo? Ecco che
l’impatto di un singolo raggio cosmico divide l’universo in due universi: nel
primo la seconda guerra mondiale non ha mai avuto luogo, e sessanta
milioni di persone sono state risparmiate; nell’altro abbiamo subito ogni
sorta di devastazione. Questi due universi sono andati via via
differenziandosi sempre più, ma all’inizio sono stati separati da un
minuscolo evento quantistico.
Questo fenomeno è stato esplorato da Philip K. Dick nel suo romanzo
La svastica sul Sole, dove a determinare l’apertura di universo parallelo è,
per l’appunto, un singolo evento: il proiettile di un assassino toglie la vita a
Franklin Roosevelt. L’evento fa sì che gli Stati Uniti non siano pronti ad
affrontare la guerra e che, ottenuta la vittoria, nazisti e giapponesi se ne
spartiscano il territorio.
Ma lo scoppio di un proiettile o il suo incepparsi dipendono, a loro
volta, dall’avvio o meno di una microscopica scintilla nella polvere da
sparo, che a sua volta dipende da reazioni molecolari complesse che
coinvolgono i movimenti degli elettroni: dunque, delle fluttuazioni
quantistiche nella polvere da sparo sono forse in grado di determinare
l’inceppamento o meno di una pistola, che a sua volta determinerà la
vittoria degli alleati o dei nazisti.
Quindi non c’è alcun “muro” che separi il mondo quantistico e il
macromondo, e le bizzarre caratteristiche della teoria quantistica possono
insinuarsi nella nostra realtà improntata al “buonsenso”. Queste funzioni
d’onda non collassano, ma continuano a dividersi all’infinito in realtà
parallele. La creazione di universi alternativi non si ferma mai. I paradossi
del micromondo, cioè l’essere vivi e morti (o in due posti diversi) allo
stesso tempo, o lo scomparire per riapparire da qualche altra parte,
penetrano nel nostro mondo.
Ma se la funzione d’onda non fa che scindersi di continuo, dando vita
così a nuovi universi, perché non possiamo entrare in contatto con nessuno
di essi?
Il premio Nobel Steven Weinberg paragona la situazione al momento in
cui ascoltate la radio in salotto. Centinaia di onde radio provenienti da tutto
il mondo riempiono simultaneamente il vostro salotto, ma la manopola della
radio è sintonizzata su una sola frequenza. In altre parole, la radio è
“decoerente” da tutte le altre stazioni (coerenza è lo stato in cui tutte le onde
vibrano all’unisono, come in un raggio laser; la decoerenza si verifica
quando queste onde cominciano ad andare fuori fase, così da non vibrare
più all’unisono). Tutte le altre frequenze esistono, ma la radio non può
coglierle perché non vibrano alla nostra stessa frequenza: si sono
disaccoppiate, desincronizzate rispetto a noi.
Allo stesso modo, con il passare del tempo le funzioni d’onda del gatto
vivo e morto e sono diventate decoerenti. Le implicazioni sono piuttosto
impressionanti: coesistiamo con le onde di dinosauri, pirati, alieni spaziali e
mostri, eppure siamo beatamente inconsapevoli di questi strani abitanti
dello spazio quantistico, perché i nostri atomi non vibrano più all’unisono
con i loro; e questi universi paralleli non si trovano in qualche lontano
luogo immaginario, ma nel nostro salotto.
Per penetrare in uno di questi mondi paralleli serve quello che viene
chiamato salto quantico o slittamento, una delle trovate preferite dagli
autori di fantascienza (c’era anche una serie tv chiamata Sliders – I
viaggiatori, i cui protagonisti facevano la spola tra universi paralleli, e che
cominciava con un ragazzo intento a leggere un libro, il mio Iperspazio, in
realtà; ma non mi assumo alcuna responsabilità per le nozioni di fisica su
cui si basa la serie).
Ma non è così semplice saltare da un universo all’altro. Un problema
che spesso sottoponiamo ai nostri dottorandi è quello di calcolare le
probabilità di riuscire a oltrepassare un muro di mattoni da parte a parte. Il
risultato dà da pensare: dovremo attendere ancora per un tempo superiore
alla durata dell’universo per sperimentare il salto o lo scivolamento
attraverso un muro.

Allo specchio

Quando mi guardo allo specchio non mi vedo davvero per quello che
sono: in primo luogo, mi vedo per com’ero circa un miliardesimo di
secondo prima, dal momento che questo è l’intervallo di tempo che impiega
un raggio di luce a lasciare il mio viso, colpire lo specchio e quindi i miei
occhi; in secondo luogo, l’immagine che vedo è davvero una media di
miliardi e miliardi di funzioni d’onda, una media che si avvicina di certo
alla mia immagine, ma che non è esatta. Tutt’intorno ci sono immagini
multiple di me che irradiano in tutte le direzioni. Sono perennemente
circondato da universi alternativi, che si diramano di continuo in mondi
diversi, ma la probabilità di scivolare da uno all’altro è così ridotta che la
meccanica newtoniana sembra essere corretta.
A questo punto, alcune persone si porranno di certo la seguente
domanda: per quale motivo gli scienziati non conducono, semplicemente,
degli esperimenti per determinare quale sia l’interpretazione valida?
Conducendo un esperimento con un elettrone tutte e tre le interpretazioni
produrranno lo stesso risultato sul piano fisico: tutte e tre sono, quindi,
interpretazioni serie e attuabili della meccanica quantistica, supportate dalla
stessa teoria dei quanti. Ciò che le distingue è il modo in cui spieghiamo i
risultati ottenuti.
Fra centinaia di anni fisici e filosofi potrebbero essere ancora intenti a
discutere la questione senza disporre di una soluzione chiara. Ma forse c’è
un ambito in cui questo dibattito chiama in causa il cervello: il problema del
libero arbitrio, che a sua volta interessa il fondamento morale della società
umana.

Il libero arbitrio

La nostra civiltà è basata per intero sul concetto di libero arbitrio, che ha
ricadute sui concetti di ricompensa, punizione e responsabilità personale.
Ma il libero arbitrio esiste davvero? O è solo uno scaltro espediente con cui
tenere insieme la società in barba ai principi scientifici? La polemica va
dritta al cuore della meccanica quantistica stessa.
Possiamo dire con certezza che sempre più neuroscienziati stiano piano
piano giungendo alla conclusione che il libero arbitrio non esiste, almeno
non nel senso in cui viene comunemente inteso. Se certi comportamenti
bizzarri possono essere messi in relazione a precisi difetti nel cervello, ne
consegue che una persona non è, dal punto di vista scientifico, responsabile
per i crimini che potrebbe commettere; forse, potrebbe essere pericoloso
lasciarla circolare per strada e potrebbe rivelarsi necessario rinchiuderla in
un istituto di qualche tipo, ma è sbagliato, si sostiene, punire qualcuno per il
fatto di essere stato vittima di un ictus o di un tumore al cervello. Tutto
quello che serve al soggetto in questione è un supporto medico e
psicologico: se il danno cerebrale potesse essere trattato (per esempio,
rimuovendo un tumore), costui potrebbe essere restituito al suo ruolo di
membro produttivo della società.
Nel corso di un’intervista, Simon Baron-Cohen, psicologo
dell’università di Cambridge, mi ha rivelato che molti (anche se non tutti)
gli assassini patologici hanno una qualche anomalia al cervello1. Le
scansioni cerebrali di questi soggetti mostrano un’assoluta mancanza di
empatia quando sono posti davanti a qualcuno che prova dolore; in effetti,
potrebbero addirittura provare piacere dall’assistere alle sofferenze altrui (in
tale circostanza la loro amigdala e il nucleo accumbens, il centro del
piacere, si accendono).
La conclusione che alcuni potrebbero trarre da tutto ciò è che queste
persone non siano davvero responsabili dei loro atti atroci, anche se devono
comunque essere isolate dal tessuto sociale; hanno un qualche problema al
cervello, e dunque necessitano di aiuto – non di punizioni. In un certo
senso, nel commettere i propri crimini potrebbero non agire sulla scorta del
libero arbitrio.
Un esperimento condotto da Benjamin Libet nel 1985 ne mette in
dubbio l’esistenza stessa. Poniamo di chiedere a dei soggetti di guardare un
orologio e di annotare con precisione l’istante in cui decidono di muovere
un dito; grazie alle scansioni EEG è possibile rilevare con esattezza il
momento in cui il cervello prende tale decisione. Se si confrontano i due
tempi, emergerà una mancata corrispondenza: le scansioni EEG dimostrano
infatti che il cervello ha, in effetti, preso la decisione circa trecento
millisecondi prima che la persona ne venga a conoscenza.
Ciò significa che, in un certo senso, il libero arbitrio è un falso: le
decisioni vengono prese in anticipo dal cervello, senza il contributo della
coscienza, e solo dopo il cervello cerca di occultare la cosa (come è solito
fare), dando a credere che la decisione fosse cosciente. Sweeney conclude:
«I risultati ottenuti da Libet suggeriscono che il cervello sa ciò che una
persona deciderà prima che lo sappia la persona stessa […] Il mondo deve
rivalutare non solo l’idea di ripartire i movimenti volontari da quelli
involontari, ma anche l’idea stessa di libero arbitrio»2.
Tutto ciò sembra indicare che il libero arbitrio, la pietra angolare su cui
poggia la società, sia una finzione, un’illusione creata dalla parte sinistra del
nostro cervello. Siamo dunque padroni del nostro destino, o solo pedine di
un raggiro architettato dalla mente?
Ci sono vari modi per affrontare questo problema spigoloso. Il libero
arbitrio va contro una filosofia chiamata determinismo, secondo cui tutti gli
eventi futuri sono determinati da leggi fisiche; Newton stesso considerava
l’universo come una specie di orologio avviatosi all’inizio del tempo e
obbediente alle leggi del moto, con la conseguenza che tutti gli eventi
sarebbero prevedibili.
Siamo parte di questo orologio? Anche tutte le nostre azioni sono
predeterminate? Domande gravide di implicazioni filosofiche e teologiche.
La maggior parte delle religioni, per esempio, aderisce a una qualche forma
di determinismo e predestinazione: essendo onnipotente, onnisciente e
onnipresente Dio conosce il futuro, che dunque è determinato prima del
tempo. Dio sa se siete destinati al paradiso o all’inferno prima ancora che
nasciate.
Proprio su tale questione la Chiesa cattolica ha subito una netta
scissione durante la rivoluzione protestante: secondo la dottrina cattolica del
tempo era possibile mutare il proprio destino ultimo tramite un’indulgenza
(ovvero per mezzo di donazioni generose, dunque il determinismo poteva
essere influenzato dalle dimensioni del vostro portafoglio); Martin Lutero
individuò la corruzione della Chiesa al riguardo, e nel 1517 affisse le sue 95
tesi sul portone della chiesa di Wittenberg, innescando, così, la Riforma
protestante. Questo fu uno dei motivi principali che portarono alla frattura
in seno alla Chiesa, e a morte e devastazione in intere regioni d’Europa.
Dopo il 1925, però, la meccanica quantistica ha introdotto l’incertezza
nella fisica. Tutto si è fatto improvvisamente incerto: non ci si poteva che
limitare a un calcolo di probabilità. In questo senso, forse il libero arbitrio
esiste ed è una manifestazione della meccanica quantistica: c’è, infatti, chi
sostiene che la teoria quantistica ristabilisca il concetto di libero arbitrio.
Un’idea, tuttavia, respinta dai deterministi, i quali affermano che gli effetti
quantistici siano estremamente ridotti (a livello di atomi) e dunque troppo
scarsi per dare conto del libero arbitrio degli esseri umani.
Oggi, in realtà, la situazione è alquanto confusa. Forse chiedersi se il
libero arbitrio esiste è un po’ come chiedersi cos’è la vita: la scoperta del
DNA ha reso la domanda sulla vita obsoleta, perché adesso sappiamo che
nasconde molti strati e molte complessità; e forse lo stesso vale per il libero
arbitrio.
Se le cose stanno così, diviene arduo dare una definizione di libero
arbitrio che non sia ambigua; un modo, per esempio, consiste nel chiedersi
se il comportamento possa essere predetto (se il primo esiste, allora il
secondo non può essere determinato in anticipo). Pensate a un film: la sua
trama è determinata, senza libero arbitrio di sorta, dunque è assolutamente
prevedibile. Ma il nostro mondo non può essere come un film, per due
motivi. Il primo, come abbiamo visto, risiede nella teoria quantistica,
perché il film rappresenta solo una possibile sequenza temporale; il secondo
risiede nella teoria del caos, perché sebbene la fisica classica affermi che
tutti i movimenti degli atomi sono totalmente determinati e prevedibili, in
pratica è impossibile prevederli, visto il numero di atomi coinvolti (il
minimo disturbo causato da un singolo atomo può innescare un effetto a
catena, che a sua volta può riversarsi a cascata fino a creare perturbazioni
enormi).
Pensate al tempo atmosferico. In linea di principio, conoscendo il
comportamento di ogni atomo nell’aria e disponendo di un computer
abbastanza potente, si potrebbero fare previsioni da qui al prossimo secolo.
In pratica, però, si tratta di una cosa impossibile: dopo poche ore il tempo
diventa così turbolento e complesso da rendere inutile qualsiasi simulazione
al computer.
Ciò dà vita a quel che chiamiamo effetto farfalla, per indicare il fatto
che anche il battito d’ali di una farfalla può causare piccole increspature
che, ingigantendosi di volta in volta, possono degenerare in un temporale
(quindi, se anche il battito d’ali di una farfalla può creare temporali, la
speranza di prevedere il tempo con precisione è inverosimile).
Ma torniamo all’esperimento mentale descrittomi da Stephen Jay
Gould. Pensate alla Terra di quattro miliardi e mezzo di anni fa, ovvero
appena nata. Ora immaginate di crearne in qualche modo una copia
identica, e di farla evolvere. Saremmo ancora qui, su questa Terra diversa,
quattro miliardi e mezzo di anni dopo?
È facile dedurre che, considerati gli effetti quantistici o la natura caotica
del tempo e degli oceani, gli esseri umani non si evolverebbero nelle stesse
creature che popolano la nostra Terra; quindi, in definitiva, sembra proprio
che una combinazione di incertezza e di caos renda impossibile un mondo
perfettamente deterministico.

Il cervello quantistico

Questo dibattito riguarda anche il reverse engineering del cervello. Se


fosse possibile effettuare il reverse engineering di un cervello fatto di
transistor, ciò ne implicherebbe la natura deterministica e prevedibile:
ponendogli una determinata domanda, darebbe sempre la medesima
risposta, come i computer (che in tal senso sono, appunto, deterministici).
Si direbbe, dunque, che abbiamo un problema. Da un lato, la meccanica
quantistica e la teoria del caos affermano che l’universo non è prevedibile, e
dunque l’esistenza del libero arbitrio; ma un cervello di transistor, ottenuto
tramite reverse-engineering, sarebbe per definizione prevedibile. Dato che
il cervello ricostruito è in teoria identico a un cervello vivente, allora
sarebbe deterministico anche il cervello umano, e questo vorrebbe dire che
non c’è alcun libero arbitrio. Il che contraddice la prima affermazione.
Una minoranza di scienziati sostiene che non sia possibile realizzare un
reverse engineering del cervello, né creare una vera macchina pensante, e
questo proprio per via della teoria quantistica: il cervello, secondo loro, è un
dispositivo quantistico, non un semplice insieme di transistor. Di
conseguenza, il progetto è destinato a fallire. In questo campo è il fisico di
Oxford Roger Penrose, un’autorità sulla teoria della relatività di Einstein,
ad affermare che proprio i processi quantistici potrebbero spiegare la
coscienza del cervello umano. Penrose inizia il suo ragionamento partendo
dal fatto che il matematico Kurt Gödel ha dimostrato che l’aritmetica è
incompleta; ovvero, che nel campo dell’aritmetica esistono affermazioni
vere che non possono essere provate ricorrendo agli assiomi dell’aritmetica
stessa. Allo stesso modo, non è incompleta solo la matematica: lo è anche la
fisica. Penrose conclude affermando che il cervello è fondamentalmente un
dispositivo meccanico quantistico, e che esistono problemi che nessuna
macchina può risolvere per le ragioni che sottendono al teorema di
incompletezza di Gödel. Gli esseri umani, tuttavia, possono cercare di dare
un senso a questi enigmi tramite l’intuizione.
Dunque, il cervello ricostruito tramite reverse engineering – non
importa quanto complesso – rimane pur sempre un insieme di transistor e
fili, e in un sistema deterministico del genere è possibile prevedere con
precisione ogni comportamento futuro, perché le leggi del moto sono ben
note; tuttavia, un sistema quantistico è intrinsecamente imprevedibile, e
tutto quel che è possibile calcolare sono le probabilità che un qualcosa si
verifichi, per via del principio di indeterminazione.
Se viene fuori che il cervello ricostruito tramite reverse engineering non
è in grado di riprodurre il comportamento umano, allora gli scienziati
potrebbero essere costretti ad ammettere che all’opera ci sono forze
imprevedibili (per esempio, effetti quantici dentro il cervello); e secondo
Penrose, all’interno di un neurone ci sono minuscole strutture, chiamate
microtubuli, in cui i processi quantistici la fanno da padroni.
Al momento non c’è accordo sulla questione. A giudicare dalla prima
accoglienza riservata alla proposta di Penrose, potremmo tranquillamente
dire che la maggior parte della comunità scientifica sia scettica sul suo
approccio. Ma la scienza non è una gara di popolarità: a segnarne il
progresso sono invece teorie verificabili, riproducibili e falsificabili.
Per quanto mi riguarda, credo che i transistor non possano ripercorrere
davvero tutti i comportamenti dei neuroni, che svolgono calcoli sia
analogici sia digitali. Sappiamo che i neuroni sono disordinati, che possono
subire dispersioni, non attivarsi, invecchiare e morire, e che sono sensibili
all’ambiente: per me, tutto ciò suggerisce che un insieme di transistor possa
ricreare un modello solo approssimativo del comportamento dei neuroni.
Discutendo in precedenza della fisica del cervello abbiamo visto che, se si
assottiglia, l’assone del neurone comincia a registrare delle perdite, e non
riesce più a innescare nel modo corretto determinate reazioni chimiche.
Parte della dispersione e delle mancate accensioni sarà dovuto a effetti
quantistici: se immaginate i neuroni sempre più sottili, densi e veloci, gli
effetti quantistici vi appariranno più evidenti. Ciò significa che anche per i
neuroni normali ci sono problemi di dispersione e instabilità, e che essi
sono rilevati sia dalla fisica classica sia dalla meccanica quantistica.
In conclusione, un robot realizzato mediante reverse engineering fornirà
una buona approssimazione del cervello umano, ma non una sua copia
perfetta. A differenza di Penrose ritengo possibile, grazie ai transistor,
creare un robot deterministico che restituisca l’apparenza della coscienza,
ma senza alcun libero arbitrio. Un robot del genere supererà il test di
Turing; tuttavia, penso che questi piccoli effetti quantistici lo
differenzieranno sempre da un essere umano.
In definitiva, dunque, credo che il libero arbitrio esista, ma che sia da
intendere alla maniera di certi robusti individualisti che affermano di essere
padroni assoluti del proprio destino. Il cervello è influenzato da migliaia di
fattori inconsci che ci predispongono a compiere determinate scelte, anche
se poi siamo convinti di averle intraprese di nostra iniziativa; ma ciò non
significa necessariamente che siamo attori di una pellicola che può essere
riavvolta in qualsiasi momento: il finale del film non è ancora stato scritto,
e dunque il determinismo rigoroso viene demolito da una sottile
combinazione di effetti quantistici e teoria del caos. Alla fine, siamo ancora
padroni del nostro destino.

1
Intervista del luglio 2005 a Simon Baron-Cohen per il programma radiofonico Exploration.
2
Sweeney, Brain, cit., p. 150.
Ringraziamenti

È con grande piacere che ho conosciuto e intervistato alcuni grandi


scienziati, i cui nomi riporto qui di seguito. Ciascuno di loro è un esperto
conoscitore del proprio campo di studi e vorrei ringraziarli tutti per avermi
gentilmente dedicato parte del proprio tempo per queste interviste sul futuro
della scienza. Le discussioni con loro mi hanno guidato e ispirato, e mi
hanno fornito una solida base di conoscenze in ciascun rispettivo ambito.
Vorrei ringraziare questi pionieri e innovatori, in modo particolare chi
ha accettato di prendere parte ai programmi televisivi che conduco per la
BBC/Discovery e per i canali di Science TV, nonché ai programmi
radiofonici nazionali che presento, Science Fantastic ed Explorations.
Peter Doherty, premio Nobel, St. Jude Children’s Research Hospital
Gerald Edelman, premio Nobel, Scripps Research Institute
Leon Lederman, premio Nobel, Illinois Institute of Technology
Murray Gell-Mann, premio Nobel, Santa Fe Institute e Caltech
Henry Kendall (†), premio Nobel, MIT
Walter Gilbert, premio Nobel, università di Harvard
David Gross, premio Nobel, Kavli Institute for Theoretical Physics
Joseph Rotblat (†), Premio Nobel, St. Bartholomew’s Hospital
Yoichiro Nambu, premio Nobel, università di Chicago
Steven Weinberg, premio Nobel, università del Texas
Frank Wilczek, premio Nobel, MIT
Amir Aczel, autore di Uranium Wars
Buzz Aldrin, ex astronauta NASA, secondo uomo ad aver messo piede sulla luna
Geoff Andersen, United Stases Air Force Academy, autore di The Telescope
Jay Barbree, autore di Moon Shot
John Barrow, fisico, università di Cambridge, autore di Impossibiltà: i limiti della scienza e la
scienza dei limiti
Marcia Bartusiak, autrice di Einstein’s Unfinished Symphony
Jim Bell, professore di astronomia, Cornell University
Jeffrey Bennet, autore di Beyond Ufos
Bob Berman, astronomo, autore di Secrets of the Night Sky
Leslie Biesecker, National Institutes of Health
Piers Bizony, autore di How to Build Your Own Starship
Michael Blaese, National Institutes of Health
Alex Boese, fondatore del Museum of Hoaxes
Nick Bostrom, transumanista, Oxford University
Tenente Colonnello Robert Bowman, Institute for Space and Security Studies
Cynthia Breazeal, intelligenza artificiale, MIT Media Lab
Lawrence Brody, National Institutes of Health
Rodney Brooks, direttore dell’Artificial Intelligence Laboratory al MIT
Lester Brown, Earth Policy Institute
Michael Brown, professore di astronomia, Caltech
James Canton, autore di The Extreme Future
Arthur Caplan, direttore del Center for Bioethics, università della Pennsylvania
Fritjof Capra, autore di La scienza universale: arte e natura nel genio di Leonardo
Sean Carroll, cosmologo, Caltech
Andrew Chaikin, autore di A Man on the Moon
Leroy Chiao, astronauta della NASA
Eric Chivian, International Physicians for the Prevention of Nuclear War
Deepak Chopra, autore di Super Brain
George Church, direttore del Center for Computational Genetics, Harvard
Thomas Cochran, fisico, Natural Resources Defense Council
Francis Collins, National Institutes of Health
Vicki Colvin, nanotecnologa, università del Texas
Christopher Cokinos, astronomo, autore di Fallen Sky
Neal Comins, autore di Hazards of Space Travel
Steve Cook, portavoce della NASA
Christine Cosgrove, autrice di Normal at Any Cost
Steve Cousins, CEO di Willow Garage Personal Robots Program
Phillip Coyle, ex vice segretario della difesa americana
Daniel Crevier, AI, CEO della Coreco
Ken Croswell, astronomo, autore di Magnificent Universe
Steven Cummer, informatico, Duke University
Mark Cutkowsky, ingegnere meccanico, università di Stanford
Paul Davies, fisico, autore di Superforza: verso una teoria unificata dell’universo e di Uno strano
silenzio. Siamo soli nell’universo?
Michael Dertouzos (†), informatico, MIT
Daniel Dennet, filosofo, Tufts University
Jared Diamond, premio Pulitzer, UCLA
Marriette DiChristina, “Scientific American”
Peter Dilworth, MIT AI Lab
John Donoghue, creatore di BrainGate, Brown University
Ann Druyan, vedova di Carl Sagan, Cosmos Studios
Freeman Dyson, Institute for Advanced Study, Princeton
David Eagleman, neuroscienziato, Baylor College of Medicine
Paul Erlich, ambientalista, università di Stanford
John Ellis, fisico, CERN
Daniel Fairbanks, autore di Relics of Eden
Timothy Ferris, università della California, autore di L’avventura dell’universo: da Aristotele alla
teoria dei quanti e oltre
Maria Finitzo, esperto di cellule staminali, vincitore del premio Peabody
Robert Finkelstein, esperto di AI
Christopher Flavin, WorldWatch Institute
Louis Friedman, cofondatore del Planetary Society
Jack Gallant, neuroscienziato, università della California, Berkeley
James Garwin, scienziato capo della NASA
Evelyn Gates, autrice di Einstein’s Telescope
Michael Gazzaniga, neurologo, università della California, Santa Barbara
Jack Geiger, cofondatore, Physicians for Social Responsibility
David Gelertner, informatico, Yale University, università della California
Neal Gershenfeld, MIT Media Lab
Daniel Gilbert, psicologo, università di Harvard
Paul Gilster, autore di Centauri Dreams
Rebecca Goldberg, Environmental Defense Fund
Don Goldsmith, professore di astronomia, autore di The Runaway Universe
David Goodstein, vice preside, Caltech
J. Richard Gott III, università di Princeton, autore di Viaggiare nel tempo
Stephen Jay Gould(†), biologo, università di Harvard
Ambasciatore Thomas Graham, esperto di satelliti spia
Eric Green, National Institutes of Health
Ronald Green, autore di Babies by Design
Brian Greene, Columbia University, autore di L’universo elegante: superstringhe, dimensioni
nascoste e la ricerca della teoria ultima
John Grant, autore di Corrupted Science
Alan Guth, fisico, MIT, autore di The Inflationary Universe
William Hanson, autore di The Edge of Medicine
Leonard Hayflick, università della California, San Francisco Medical School
Donald Hillebrand, Argonne National Labs
Frank N. von Hippel, fisico, università di Princeton
Douglas Hofstadter, università dell’Indiana, premio Pulitzer e autore di Gödel, Escher, Bach
Allan Hobson, psichiatra, università di Harvard
John Horgan, Stevens Institute of Technology, autore di La fine della scienza
Jeffrey Hoffman, astronauta della NASA, MIT
Jamie Hyneman, conduttore di MythBusters
Chris Impey, astronomo, autore di The Living Cosmos
Robert Irie, MIT AI Lab
P. J. Jacobowitz, “PC magazine”
Jay Jaroslav, MIT AI Lab
Donald Johanson, antropologo, scopritore di Lucy
George Johnson, giornalista scientifico, “New York Times”
Tom Jones, astronauta della NASA
Steve Kates, astronomo
Jack Kessler, esperto di cellule staminali, vincitore del premio Peabody
Robert Kirshner, astronomo, università di Harvard
Kris Koenig, astronomo
Lawrence Krauss, università statale dell’Arizona, autore di La fisica di Star Trek
Ray Kurzweil, inventore, autore di The Age of Spiritual Machines
Lawrence Kuhn, regista e filosofo, creatore della serie Closer to Truth
Robert Lanza, biotecnologo, Advanced Cell Technologies
Roger Launius, autore di Robots in Space
Stan Lee, creatore del fumetto Marvel Spiderman
Michael Lemonick, editore capo di “Time”
Arthur Lerner-Lam, geologo e vulcanologo
Simon LeVay, autore di When Science Goes Wrong
John Lewis, astronomo, università dell’Arizona
Alan Lightman, MIT, autore di Einstein’s Dreams
George Linehan, autore di Space One
Seth Lloyd, MIT, autore di Il programma dell’universo
Werner R. Loewenstein, ex direttore del Cell Physics Laboratory, Columbia University
Joseph Lykken, fisico, Fermi National Labortory
Robert Mann, autore di Forensic Detective
Michael Paul Mason, autore di Head Cases: Stories of Brain Injury and Its Aftermath
Patrick McCray, autore di Keep Watching the Skies
Glenn McGee, autore di The Perfect Baby
James McLurkin, MIT AI Lab
Paul McMillan, direttore di Space Watch
Pattie Maes, MIT Media Lab
Fulvia Melia, astronomo, università dell’Arizona
William Meller, autore di Evolution Rx
Paul Meltzer, National Institutes of Health
Marvin Minsky, MIT, autore di The Society of Minds
Hans Moravec, autore di Robot
Phillip Morrison (†), fisico, MIT
Richard Muller, astrofisico, università della California, Berkeley
David Nahamoo, IBM Human Language Technology
Christina Neal, vulcanologa
Miguel Nicolelis, neuroscienziato, Duke University
Shinji Nishimoto, neurologo, università della California, Berkeley
Michael Novacek, American Museum of Natural History
Michael Oppenheimer, ambientalista, università di Princeton
Dean Ornish, oncologo e cardiologo
Peter Palese, professore di microbiologia, Mount Sinai School of Medicine
Charles Pellerin, dirigente NASA
Sidney Perkowitz, autore di Hollywood Science
John Pike, GlobalSecurity.org
Jena Pincott, autrice di Perché gli uomini preferiscono le bionde?
Steven Pinker, psicologo, università di Harvard
Thomas Poggio, MIT, intelligenza artificiale
Correy Powell, editore della rivista “Discover”
John Powell, fondatore di JP Aerospace
Richard Preston, autore di The Hot Zone and The Demon in the Freezer
Raman Prinja, astronomo, University College London
David Quammen, biologo evoluzionista, autore di L’evoluzionista riluttante: il ritratto privato di
Chales Darwin e la nascita della teoria dell’evoluzione
Katherine Ramsland, scienziata forense
Lisa Randall, autore di Passaggi curvi: i misteri delle dimensioni nascoste dell’universo, università
di Harvard
Sir Martin Rees, astronomo reale del regno Unito, università di Cambridge, autore di Prima
dell’inizio: il nostro universo e gli altri
Jeremy Rifkin, Foundation for Economic Trends
David Riquier, MIT Media Lab
Jane Rissler, Union of Concerned Scientists
Steven Rosenberg, National Institutes of Health
Oliver Sacks, neurologo, Columbia University
Paul Saffo, futurologo, Institute of the Future
Carl Sagan (†), Cornell University, autore di Cosmo
Nick Sagan, coautore di You Call This the Future?
Michael H. Salamon, dal programma Beyond Einstein della NASA
Adam Savage, conduttore di MythBusters
Peter Schwartz, futurologo, fondatore del Global Business Network
Michael Shermer, fondatore della Skeptic Society e della rivista “Skeptic”
Donna Shirley, NASA Mars program
Seth Shostak, SETI Institute
Neil Shubin, autore di Il pesce che è in noi: la scoperta del fossile che ha cambiato la storia
dell’evoluzione
Paul Shurch, SETI League
Peter Singer, autore di Wired for War
Simon Singh, autore di The Big Bang
Gary Small, autore di iBrain
Paul Spudis, autore di Odyssey Moon Limited
Stephen Squyres, astronomo, Cornell University
Paul Steinhardt, università di Princeton, autore di Universo senza fine: oltre il Big Bang
Jack Stern, neurochirurgo
Gregory Stock, UCLA, autore di Riprogettare gli esseri umani
Richard Stone, autore di NEOs e Tunguska
Brian Sullivan, Hayden Planetarium
Leonard Susskind, fisico, università di Stanford
Daniel Tammet, autore di Nato in un giorno azzurro
Ted Taylor (†), progettista delle testate nucleari USA
Geoffrey Taylor, fisico, università di Melbourne
Max Tegmark, cosmologo, MIT
Alvin Toffler, autore di The Third Wave
Patrick Tucker, World Future Society
Chris Turney, università di Wollongong, autore di Ice, Mud and Blood
Neil de Grasse Tyson, direttore del Hayden Planetarium
Sesh Velamoor, Foundation for the Future
Robert Wallace, autore di Spycraft
Kevin Warwick, università di Reading, UK
Fred Watson, astronomo, autore di Stargazer
Mark Weiser (†), Xerox parc
Alan Weisman, autore di Il mondo senza di noi
Daniel Wertheimer, seti@Home, università della California, Berkeley
Mike Wessler, MIT AI Lab
Roger Wiens, astronomo, Los Alamos National Laboratory
Author Wiggins, autore di The Joy of Physics
Anthony Wynshaw-Boris, National Institutes of Health
Carl Zimmer, biologo, autore di Evolution
Robert Zimmerman, autore di Leaving Earth
Robert Zubrin, fondatore della Mars Society
Vorrei inoltre ringraziare il mio agente, Stuart Krichevsky, che in tutti
questi anni è stato al mio fianco dandomi consigli utilissimi: il suo giudizio
è sempre andato a mio beneficio. Vorrei ringraziare anche i miei editori,
Edward Kastenmeier e Melissa Danaczko, che hanno coordinato il lavoro e
mi hanno dato consigli editoriali inestimabili; la dottoressa Michelle Kaku,
neurologa al Mount Sinai Hospital di New York, per le discussioni
stimolanti e produttive; e i colleghi del City College di New York e del
Graduate Center della City University di New York.
Bibliografia

Adams, Douglas, Guida galattica per autostoppisti, Mondadori, Milano 1996 [ed. orig. The
Hitchhiker’s Guide to the Galaxy, Pan Books, Londra 1979].

Baker, Sherry, Helen Mayberg, in “Discover Magazine Presents the Brain”, Kalmbach Publishing
Co., Waukesha (WI), autunno 2012.
Bloom, Floyd, Best of the Brain from Scientific American: Mind, Matter, and Tomorrow’s Brain,
Dana Press, New York 2007.
Boleyn-Fitzgerald, Miriam, Pictures of the Mind: What the New Neuroscience Tells Us About Who
We Are, Pearson Education, Upper Saddle River (NJ) 2010.
Brockman, John (a cura di), The Mind: Leading Scientists Explore the Brain, Memory, Personality,
and Happiness, Harper Perennial, New York 2011.

Calvin, William H., A Brief History of the Mind, Oxford University Press, New York 2004.
Carter, Rita, Mapping the Mind, University of California Press, Berkeley, 2010.
Crevier, Daniel, AI: The Tumultuous History of the Search for Artificial Intelligence, Basic Books,
New York 1993.
Crick, Francis, La scienza e l’anima, Rizzoli, Milano 1994 [ed. orig. The Astonishing Hypothesis:
The Science Search for the Soul, Touchstone, New York 1994].

Damasio, Antonio, Il sé viene alla mente: la costruzione del cervello cosciente, Adelphi, Milano
2012 [ed. orig. Self Comes to Mind: Constructing the Conscious Brain, Pantheon Books, New
York 2010].
Davies, Paul, Uno strano silenzio: siamo soli nell’universo?, Codice Edizioni, Torino 2012 [ed. orig.
The Eerie Silence: Renewing Our Search for Alien Intelligence, Houghton Mifflin Harcourt,
Boston 2010].
Dennett, Daniel C., Rompere l’incantesimo: la religione come fenomeno naturale, Raffaello Cortina
editore, 2007 [ed. orig. Breaking the Spell: Religion as a Natural Phenomenon, Viking, New
York 2006].
Dennett, Daniel C., Coscienza: che cosa è, Laterza, Roma-Bari 2012 [ed. orig. Conscious Explained,
Back Bay Books, New York 1991].
DeSalle, Rob e Ian Tattersall, Brain – Il cervello: istruzioni per l’uso, Codice Edizioni, Torino 2013
[ed. orig. The Brain: Big Bangs, Behaviors, and Beliefs, Yale University Press, New Haven
2012].

Eagleman, David, In incognito: la vita segreta della mente, Mondadori, Milano 2012 [ed. orig.
Incognito: The Secret Lives of the Brain, Pantheon Books, New York 2011].
Fox, Douglas, The Limits of Intelligence, in “Scientific American”, luglio 2011.

Garreau, Joel, Radical Evolution. Corpo, mente, anima. Come genetica, robotica e nanotecnologia
stanno cambiando il nostro futuro, Sperling&Kupfer, Milano 2007 [ed. orig. Radical Evolution:
The Promise and Peril of Enhancing Our Minds, Our Bodies – and What It Means to Be Human,
Random House, New York 2005].
Gazzaniga, Michael S., Human: quel che ci rende unici, Raffaello Cortina Editore, Milano 2009 [ed.
orig. Human: The Science Behind What Makes Us Unique, HarperCollins, New York 2008].
Gilbert, Daniel, Stumbling on Happiness, Alfred A. Knopf, New York 2006. Gladwell, Malcolm,
Fuoriclasse: storia naturale del successo, Mondadori, Milano 2009 [ed. orig. Outliers: The Story
of Success, Back Bay Books, New York 2008].
Gould, Stephen Jay, Intelligenza e pregiudizio, il Saggiatore, Milano 2008 [ed. orig. The Mismeasure
of Man, W.W. Norton, New York 1996].

Horstman, Judith, The Scientific American Brave New Brain, John Wiley and Sons, San Francisco
2010.

Kaku, Michio, Fisica del futuro. Come la scienza cambierà il destino dell’umanità e la nostra vita
quotidiana entro il 2100, Codice Edizioni, Torino 2012 [ed. orig. Physics of the Future. How
Science Will Shape Human Destiny and Our Daily Lives by the Year 2100, Doubleday, New York
2009].
Kurzweil, Ray, Come creare una mente: i segreti del pensiero umano, Apogeo, Milano 2013 [ed.
orig. How to Create a Mind: The Secret of Human Thought Revealed, Viking Books, New York
2012].
Kushner, David, The Man Who Builds Brains, in “Discover Magazine Presents the Brain”, Kalmbach
Publishing Co., Waukesha (WI), autunno 2001.

Moravec, Hans, Mind Children: The Future of Robot and Human Intelligence, Harvard University
Press, Cambridge (MA) 1988.
Moss, Frank, The Sorcerers and Their Apprentices: How the Digital Magicians of the MIT Media
Lab Are Creating the Innovative Technologies That Will Transform Our Lives, Crown Business,
New York 2011.

Nelson, Kevin, The Spiritual Doorway in the Brain, Dutton, New York 2011.
Nicolelis, Miguel, Il cervello universale: la nuova frontiera delle connessioni tra uomini e computer,
Bollati Boringhieri, Torino 2013 [ed. orig. Beyond Boundaries: The New Neuroscience of
Connecting Brains with Machines – and How It Will Change Our Lives, Henry Holt and Co.,
New York 2011].

Pinker, Steven, Come funziona la mente, Mondadori, Milano 2000 [ed. orig. How the Mind Works,
W.W. Norton, New York 1997].
Pinker, Steven, Fatti di parole: la natura umana svelata dal linguaggio, Mondadori, Milano 2009
[ed. orig. The Stuff of Thought: Language as a Window into Human Nature, Viking, New York
2007].
Pinker, Steven, The Riddle of Knowing You’re Here, in “In Your Brain: A User’s Guide”, Time Inc.
Specials, New York 2011.
Piore, Adam, The Army’s Bold Plan to Turn Soldiers Into Telepaths, in “The Brain, Discover
Magazine Special”, primavera 2012.
Purves, Dale et al., Neuroscienze, Zanichelli, Bologna 2005 (a cura di), [ed. orig. Neuroscience,
Sinauer Associates, Sunderland (MA), 2001].

Ramachandran, V.S., The Tell-Tale Brain: A Neuroscientist’s Quest for What Makes Us Human, W.W.
Norton, New York 2011.
Rose, Steven, The Future of the Brain: The Promise and Perils of Tomorrow’s Neuroscience, Oxford
University Press, Oxford 2005.

Sagan, Carl, I draghi dell’Eden: considerazioni sull’evoluzione dell’intelligenza umana, Bompiani,


Milano 1979 [ed. orig. The Dragons of Eden: Speculations on the Evolution of Human
Intelligence, Ballantine Books, New York 1977].
Seung, Sebastian, Connettoma. La nuova geografia della mente, Codice edizioni, Torino 2013 (ed.
orig. Connectome. How the Brain’s Wiring Makes Us Who We Are, Mariner Books, New York
2012).
Sweeney, Michael S., Brain: The Complete Mind: How It Develops, How It Works, and How to Keep
It Sharp, National Geographic, Washington (DC) 2009.

Tammet, Daniel, Nato in un giorno azzurro: il mistero della mente di un genio dei numeri, Rizzoli,
Milano 2008 [ed. orig. Born on a Blue Day: Inside the Extraordinary Mind of an Autistic Savant,
Free Press, New York 2006].

Wade, Nicholas (a cura di), The Science Times Book of the Brain, New York Times Books, New York
1998.

Potrebbero piacerti anche