Sei sulla pagina 1di 174

MOTORI DI CREAZIONE

Parte Prima: I FONDAMENTI DELLA PREVISIONE

Capitolo 1: Motori di Costruzione


Capitolo 2: I Principi del Cambiamento
Capitolo 3: Prevedere e Progettare

----------

Capitolo 1: MOTORI DI COSTRUZIONE(1)

Due Stili di Tecnologia


La Tecnologia Molecolare Oggi
Macchine Proteiche Esistenti
Progettare con le Proteine
Nanotecnologia di Seconda Generazione
Assemblatori Universali
Riepilogo delle Conclusioni
Nanocomputer
Disassemblatori
Il Mondo Ricreato

L'ingegnerizzazione delle proteine […] rappresenta (2) il primo importante passo verso una abilità
più generale per l'ingegneria molecolare che ci permetterebbe di strutturare la materia atomo per
atomo.
KEVIN ULMER
Direttore delle Ricerche Esplorative - Genex Corporation

Carbone e diamanti, sabbia e circuiti integrati, tessuti sani e cancerosi: nel corso di tutta la storia, le
variazioni nelle disposizioni di atomi hanno fatto la differenza fra scadente e pregiato, fra malato e
sano. Disposti in una certa maniera, gli atomi formano suolo, aria, acqua; disposti in un'altra
maniera diventano fragole mature. Disposti in un modo sono case ed aria fresca; in un altro,
diventano cenere e fumo.

La nostra abilità nel creare disposizioni di atomi è alle fondamenta della tecnologia. Siamo andati
lontani nelle nostre capacità di disporre atomi, dallo scheggiare la selce per le punte di frecce al
lavorare a macchina alluminio per navi spaziali. Siamo fieri della nostra tecnologia, dei nostri
farmaci salva-vita e dei nostri computer da tavolo. Tuttavia le nostre navette spaziali sono ancora
rozze, i nostri computer ancora stupidi, e le molecole dei nostri tessuti degenerano ancora nel
disordine, danneggiando prima la nostra salute e poi la vita stessa. Per tutti i nostri progressi nella
disposizione di atomi utilizziamo ancora metodi primitivi. Con la nostra tecnologia attuale siamo
tuttora costretti a maneggiare gli atomi in gruppi indisciplinati.

Ma le leggi della natura lasciano immenso spazio per il progresso, e le pressioni della competizione
mondiale continuano a spingerci in avanti. Nel bene o nel male, il più grande "passo avanti"
tecnologico della storia deve ancora arrivare.
Due Stili di Tecnologia

La nostra tecnologia moderna è fondata su una tradizione antica. Trentamila anni fa, scheggiare la
selce era l'alta tecnologia dell'epoca. I nostri antenati, per costruire le loro teste d'ascia, afferravano
pietre contenenti milioni di miliardi di miliardi di atomi e ne rimuovevano schegge contenenti
migliaia di miliardi di miliardi di atomi; sapevano svolgere un lavoro raffinato con abilità che oggi
sono difficili da imitare. Essi disegnarono anche degli schizzi, spruzzando tinture sulle pareti di
caverne della Francia ed usando le loro mani come stampini. In seguito fabbricarono vasi cuocendo
argilla e poi bronzo cuocendo le rocce. Modellarono il bronzo martellandolo. Produssero ferro e poi
acciaio, e scaldandolo, battendolo e rimuovendone le schegge, modellarono anch'esso.

Oggi possiamo cuocere ceramiche purissime e acciai più forti, ma ancora li modelliamo
martellandoli, scheggiandoli, ecc…. Cuociamo del silicio puro, lo tagliamo in fette e tracciamo
degli schemi sulla sua superficie utilizzando minuscoli stampi e spruzzi di luce. Chiamiamo questi
prodotti "chips" e li consideriamo squisitamente piccoli, almeno al confronto delle teste d'ascia.

La nostra tecnologia microelettronica ha manipolato la materia fino a comprimere, su pochi chip di


silicio e all'interno di computer di dimensioni tascabili, macchine altrettanto potenti di quei
computer dei primi anni cinquanta che occupavano una intera stanza. Gli ingegneri stanno oramai
realizzando dispositivi persino più piccoli, fissando gruppi di atomi ad una superficie cristallina per
formare cablaggi e componenti di spessore dieci volte più sottili di quelli di un fine capello.

Questi microcircuiti potranno anche essere piccoli a confronto con la selce scheggiata, ma ogni
transistor consiste ancora di migliaia di miliardi di atomi ed i cosiddetti "microcomputer" sono
ancora visibili ad occhio nudo. Giudicati secondo gli standard di una tecnologia più moderna e
potente, ci sembreranno giganteschi.
L'antico stile della tecnologia che ci ha condotto dalla selce scheggiata ai chip di silicio manipola
atomi e molecole in massa; chiamiamola tecnologia di mole. La nuova tecnologia manipolerà atomi
e molecole individualmente, con controllo e precisione posizionali; chiamiamola tecnologia
molecolare. Essa cambierà il nostro intero mondo in più modi di quanti ne possiamo immaginare.

I microcircuiti sono formati da parti costituenti che sono misurabili in micrometri ossia in
milionesimi di metro; ma le molecole si misurano in nanometri (mille volte più piccole). Per
descrivere il nuovo stile di tecnologia possiamo usare i termini nanotecnologia e tecnologia
molecolare in modo intercambiabile. Gli ingegneri della nuova tecnologia costruiranno nanocircuiti,
ma anche nanomacchine.

La Tecnologia Molecolare Oggi

Una definizione da dizionario (3) per "macchina" è la seguente: "qualsiasi sistema, di solito
composto da corpi rigidi, le cui parti siano conformate e connesse per alterare, trasmettere ed
applicare direttamente delle forze in modo predeterminato per svolgere uno specifico compito,
come l'esecuzione di un lavoro utile". Le macchine molecolari si adattano a questa definizione
perfettamente.

Per immaginare queste macchine anzitutto si devono immaginare le molecole. Possiamo raffigurare
gli atomi come delle palline e le molecole come dei gruppetti di tali palline; ossia possiamo
immaginare una molecola come un gruppo di palline in ognuna delle quali un bambino abbia
infilato dei gancetti metallici per poterle agganciare assieme. Di fatto, talvolta, i chimici
visualizzano le molecole costruendone modelli con palline di plastica (alcune delle quali sono
legate ad altre, in diverse direzioni, come fossero perni di un insieme di pezzi del "Mecano"). Gli
atomi sono sferici come lo sono le palline e nonostante i legami molecolari non siano gancetti, la
nostra immagine cattura quantomeno il concetto essenziale che i legami possono rompersi e
riformarsi.

Se un atomo fosse della dimensione di una piccola biglia, una molecola piuttosto complessa
dovrebbe avere la dimensione del vostro pugno. E ciò ci dà una utile immagine mentale, ma gli
atomi sono in realtà circa diecimila volte più piccoli di un batterio e i batteri a loro volta sono circa
diecimila volte più piccoli di una zanzara. (Un nucleo atomico, comunque, è circa centomila volte
più piccolo della dimensione dell'atomo stesso; la differenza fra un atomo e il suo nucleo è come il
divario che esiste fra un fuoco e una reazione nucleare.)

Le cose attorno a noi si comportano nel modo in cui lo fanno, a causa del modo in cui si
comportano le molecole che le costituiscono. L'aria non possiede una sua forma così come non
possiede un suo volume, poiché che le sue molecole si muovono liberamente colpendosi e
rimbalzando in tutto lo spazio aperto. Le molecole d'acqua aderiscono fra loro mentre si muovono,
sicché l'acqua mantiene un volume costante mentre cambia forma. Il rame mantiene la sua forma
perché i suoi atomi sono connessi assieme secondo degli schemi regolari; possiamo piegare e
martellare il rame perché i suoi atomi possono scivolare l'uno sull'altro ma rimangono comunque
legati assieme. Il vetro va in frantumi quando lo martelliamo perché i suoi atomi si separano prima
di scivolare l'uno sull'altro. La gomma è costituita da molecole organizzate in reticoli attorcigliati
simili ad un groviglio di molle. Quando tendiamo e rilasciamo la gomma, i suoi reticoli di molecole
si stendono, per poi tornare a disporsi a spirale. Questi schemi molecolari semplici caratterizzano le
sostanze passive. Schemi più complessi caratterizzano le nanomacchine "attive" delle cellule
viventi.
I biochimici lavorano già con queste macchine, che sono principalmente composte da proteine
ossia dal principale materiale di ingegneria delle cellule viventi. Le macchine molecolari sono
composte da relativamente pochi atomi e quindi le loro superfici si presentano grumose, come
fossero le superfici di oggetti ottenuti incollando assieme una manciata di piccole biglie. Inoltre,
molte paia di atomi sono accoppiate da legami che possono piegarsi o ruotare, sicché le macchine
proteiche sono insolitamente flessibili. Ma come tutte le macchine, esse contengono parti di forme e
dimensioni differenti, parti che svolgono un lavoro utile. Di fatto, tutte le macchine utilizzano dei
raggruppamenti di atomi come loro parti costituenti. Le macchine proteiche differiscono
semplicemente per il fatto che usano raggruppamenti molto piccoli.

I biochimici sognano di progettare e costruire tali dispositivi, ma ci sono delle difficoltà da


superare. Gli ingegneri usano dei raggi di luce per tracciare schemi sopra schegge di silicio, ma i
chimici devono accontentarsi di costruire in modo molto più indiretto. Quando combinano molecole
in varie sequenze, essi possono mantenere soltanto un controllo limitato sul modo in cui le molecole
si legano fra loro. Quando i biochimici necessitano di macchine molecolari più complesse devono
tuttora prenderle in prestito dalle cellule viventi. Ma se i biochimici potessero realizzare macchine
molecolari avanzate, le potrebbero infine utilizzare per costruire nanocircuiti e nanomacchine con la
stessa facilità e in modo altrettanto diretto di quanto possano attualmente fare gli ingegneri nella
costruzione di microcircuiti o lavatrici. A quel punto, il progresso sarà repentino e drammatico.

Gli ingegneri genetici hanno già indicato la strada da percorrere. Di solito, quando i chimici
costruiscono delle catene molecolari - ossia i "polimeri" (4) - depositano, senza alcun particolare
ordine, delle molecole in una vaschetta piena di liquido, all'interno del quale esse possono
rimbalzare e agganciarsi a caso. Le catene che ne risultano hanno lunghezze variabili, e le molecole
che le compongono sono come annodate assieme, in nessun ordine particolare.

Ma nelle moderne macchine di sintesi dei geni, gli ingegneri genetici costruiscono dei polimeri più
ordinati, ossia delle specifiche catene molecolari di DNA, unendo le loro molecole componenti in
un particolare ordine. Tali molecole sono i nucleotidi del DNA (le lettere dell'alfabeto genetico) e
gli ingegneri genetici non li depositano tutti assieme in un unico mucchio indistinto. Piuttosto,
dirigono la macchina affinché aggiunga nucleotidi distinti in una particolare sequenza, in modo da
formare un particolare messaggio. Prima legano un tipo di nucleotide al termine della catena, poi
sciacquano via il materiale residuo, ed infine aggiungono dei composti chimici per preparare
l'estremo della catena a legarsi al successivo nucleotide. Sviluppano le catene mano a mano che vi
legano i nucleotidi, uno alla volta ed in una sequenza programmata. Agganciano il primissimo
nucleotide di ogni catena ad una superficie solida in modo da preservare la catena stessa durante i
risciacqui con i bagni chimici. In questa maniera ottengono, in vitro, una macchina grande e rozza,
un assemblato di specifiche strutture molecolari con parti costituenti di dimensioni cento milioni di
volte più piccole della macchina stessa.

Ma questo assemblaggio cieco, accidentalmente omette qualche nucleotide da qualche catena. La


probabilità di errori cresce al crescere della lunghezza delle catene. Come operai che scartano le
parti difettose prima di assemblare un'automobile, gli ingegneri genetici riducono gli errori
scartando le catene sbagliate. Successivamente, al fine di congiungere queste brevi catene in geni
funzionanti (lunghi tipicamente migliaia di nucleotidi), passano le catene stesse alle macchine
molecolari che troviamo nei batteri.

Queste macchine proteiche, chiamate enzimi di restrizione, "leggono" certe sequenze di DNA
interpretandole come "taglia qui". Tali enzimi possono leggere al tocco gli schemi genetici del
DNA, e lo fanno aderendo a tali schemi e tagliando la catena grazie alla modifica della disposizione
di pochi suoi atomi. Altri enzimi accoppiano dei pezzi, essendo infatti capaci di interpretare come
"incolla qui" le parti che ben si adattano a congiungersi assieme, e svolgono questo compito
"leggendo" le catene per mezzo di una analoga adesione selettiva ad esse, per poi congiungere le
catene a cui hanno aderito grazie alla modifica della disposizione di pochi atomi. Utilizzando
macchine genetiche per "scrivere" ed enzimi di restrizione per eseguire operazioni di "taglia ed
incolla", gli ingegneri genetici possono scrivere ed editare, in un DNA, qualsiasi messaggio
desiderato.

Ma di per se il DNA è una molecola piuttosto insignificante. Non è né forte come il Kevlar, né
colorata come una tintura, né attiva come un enzima, pur possedendo certe proprietà per il cui
utilizzo l'industria è pronta a spendere milioni di dollari: ossia "la capacità di dirigere alcune
particolari macchine molecolari denominate ribosomi". Nelle cellule, le macchine molecolari
anzitutto trascrivono il DNA copiando le sue informazioni per produrne una sorta di registrazione
scritta su un "nastro" di RNA. Quindi, in maniera molto simile al funzionamento delle vecchie
macchine utensili di lavorazione dei metalli che venivano controllate numericamente dalla
informazione immagazzinata in un nastro, i ribosomi costruiscono proteine basandosi sulle
istruzioni immagazzinate nei filamenti di RNA. E le proteine sono direttamente utilizzabili.

Le proteine, come pure il DNA, assomigliano a nodosi cordoni di perline. Ma a differenza del
DNA, le molecole proteiche si ripiegano nello spazio per dar forma a piccoli oggetti in grado di
svolgere funzioni specifiche. Alcune proteine sono enzimi, macchine che costruiscono e
spezzettano molecole (e copiano il DNA, lo trascrivono, e costruiscono altri tipi di proteine del
ciclo vitale). Altre proteine sono ormoni, che si legano ad ulteriori proteine per inviare alle cellule
dei segnali in grado di modificare il comportamento delle cellule stesse. Gli ingegneri genetici
possono economicamente fabbricare questi oggetti, in quanto possono dirigere l'economico ed
efficiente macchinario molecolare di organismi viventi affinché svolga il lavoro di fabbricazione
all'interno degli stessi organismi. Mentre gli ingegneri che fanno funzionare un impianto chimico
devono lavorare con vasche di reagenti chimici (che spesso dispongono gli atomi in modo sbagliato
e generano anche sottoprodotti nocivi), gli ingegneri che lavorano con i batteri possono far assorbire
loro dei composti chimici, ed ottenere una accurata re-disposizione degli atomi dei composti, oltre a
poter scegliere se immagazzinare il prodotto o farlo rilasciare nel fluido che circonda i batteri.
Gli ingegneri genetici hanno oramai programmato batteri per costruire proteine che vanno dagli
ormoni della crescita umana alla rennina (un enzima usato nella produzione di formaggio). La
compagnia farmaceutica Eli Lilly di Indianapolis sta già commercializzando la Humulin, una
insulina umana ottenuta tramite batteri.

Macchine Proteiche Esistenti

Queste proteine-ormoni e proteine-enzimi aderiscono selettivamente ad altre molecole. Un enzima


cambia la struttura della sua molecola-bersaglio e successivamente si allontana da essa; un ormone
influisce sul comportamento del suo bersaglio solo per il periodo di tempo durante il quale vi
aderisce. Enzimi ed ormoni possono descriversi in termini meccanici, ma è più frequente che il loro
comportamento sia descritto in termini chimici.

Tuttavia esistono altre proteine che assolvono delle pure funzionalità meccaniche di base(5).
Alcune spingono e tirano, altre agiscono come corde o sostegni e certe parti di alcune molecole
costituiscono eccellenti cuscinetti meccanici. Il macchinario molecolare dei muscoli, per esempio, è
composto da schiere ordinate di proteine che si allungano, afferrano una corda (anche questa fatta di
proteine), la tirano, poi lasciano la presa, ed infine tornano ad allungarsi per una nuova presa; ogni
volta che vi muovete usate queste macchine. Le amebe e le cellule umane si muovono e cambiano
forma utilizzando fibre e bastoncini che agiscono come muscoli ed ossa molecolari. I batteri sono
sospinti attraverso l'acqua da un motore reversibile a velocità variabile, che agisce per mezzo della
rotazione di una elica propulsiva dalla forma a spirale. Se un hobbista volesse costruire minuscole
automobili attorno a tali motori, ne potrebbe far stare miliardi di miliardi in una tasca e per
automobili siffatte si potrebbero costruire, all'interno dei vostri più fini capillari, autostrade da 150
corsie.

Dispositivi molecolari elementari si combinano assieme per formare sistemi che assomigliano a
macchine industriali. Negli anni '50 gli ingegneri svilupparono macchine utensili che tagliavano il
metallo sotto il controllo di un nastro di carta perforata. Un secolo e mezzo prima, Joseph-Marie
Jacquard aveva costruito un telaio che intesseva complessi schemi sotto il controllo di una
successione di schede perforate. Più di oltre tre miliardi di anni prima di Jacquard, le cellule
avevano sviluppato il macchinario dei ribosomi. I ribosomi sono la prova che nanomacchine fatte di
proteine ed RNA possono essere programmate per costruire molecole complesse.

Consideriamo allora i virus. Uno di essi, il "batteriofago T4", agisce come una siringa caricata a
molla ed assomiglia a un oggetto spuntato fuori da un catalogo di componenti industriali. Questo
virus può aderire ad un batterio, incidervi un foro ed iniettare dentro il batterio del DNA virale (si,
anche i batteri soffrono di infezioni). Come un conquistatore che prenda possesso di uno
stabilimento industriale per costruire più carri armati, il DNA iniettato ordina al macchinario
cellulare del batterio di costruire altro DNA virale ed altre siringhe. Come tutti gli organismi, questi
virus esistono perché sono piuttosto stabili nonché capaci di far si che vengano realizzate copie di se
stessi.

Che siano o meno dentro una cellula, le nanomacchine obbediscono alle leggi universali della
natura. Comuni legami chimici tengono assieme i loro atomi costituenti e comuni reazioni chimiche
(pilotate da altre macchine) assemblano questi atomi. Le molecole proteiche possono combinarsi
per dar forma a macchine composite persino in assenza di un particolare aiuto, guidate solo
dall'agitazione termica e dalle interazioni chimiche. Mescolando in una provetta delle proteine virali
(e il DNA per il quale esse lavorano), i biologi molecolari hanno assemblato virus T4 funzionanti.
Questa capacità è sorprendente: immaginate di immettere le parti di una automobile in una grossa
scatola, scuotere quest'ultima e, quando ci guardate di nuovo dentro, trovarci un'automobile
assemblata! Eppure il virus T4 è solo una delle molte strutture esistenti capaci di auto-assemblaggio
(6). Nei macchinari dei ribosomi i biologi molecolari hanno individuato ed isolato oltre cinquanta
molecole differenti, fra proteine ed RNA, e dopo averle messe tutte assieme in delle provette ne
hanno ottenuto ancora una volta dei ribosomi funzionanti.

Per capire come tutto ciò possa accadere, immaginate differenti catene proteiche del T4, sospese in
acqua e libere di fluttuare. Ogni tipo di catena si ripiega nello spazio, a formare un piccolo
agglomerato dotato di distintive cavità e protuberanze e ricoperto da schemi distintivi di oleosità ed
umidità nonché di altrettanto distintivi schemi di distribuzione di carica elettrica. Immaginate queste
catene vagare e roteare su se stesse, incalzate dalla spinta della vibrazione termica applicata dalle
molecole d'acqua circostanti. Di tanto in tanto due catene si scontrano fra loro, rimbalzando via
l'una dall'altra. Talvolta, piuttosto, due di esse si scontrano e si scoprono adatte l'una all'altra, poiché
le protuberanze dell'una si adattano alle cavità dell'altra; poiché le due catene subiscono nel
contempo una pressione di spinta l'una contro l'altra, le corrispondenze permettono loro di aderire
stabilmente. In questo modo delle proteine si aggiungono ad altre proteine per formare sezioni del
virus e le sezioni si assemblano assieme fino a formare l'intero virus.

Gli ingegneri delle proteine non necessitano di nano-braccia o nano-mani per assemblare
complesse nanomacchine. Tuttavia, l'esistenza di minuscoli manipolatori sarà di indubbia utilità e
quindi c'è da attendersi che questi verranno costruiti. Proprio come, a partire da ordinari motori,
ordinari cuscinetti ed ordinarie parti mobili, gli odierni ingegneri costruiscono macchine complesse
quali suonatori meccanici di pianoforte o bracci robotici, così i biochimici di domani saranno in
grado di utilizzare le molecole proteiche come motori, cuscinetti e parti mobili, per costruire bracci
robotici in grado di manipolare molecole individuali.

Progettare con le Proteine(7)

Quanto lontano può essere spinta questa abilità? Sono stati intrapresi alcuni passi, ma molto è il
lavoro che resta da fare. I biochimici hanno già steso mappe dettagliate delle strutture di molte
proteine. Disponendo dell'aiuto fornito loro da macchine genetiche in grado di scrivere dei nastri di
DNA essi potranno, ordinare alle cellule di costruire qualsiasi proteina riescano a progettare(8). Ma
tuttora manca loro la conoscenza di come progettare catene che si ripieghino nello spazio per dar
luogo a proteine con la giusta forma e funzione. Le forze che piegano le proteine sono deboli e nel
contempo il numero di plausibili modi in cui una proteina potrebbe ripiegarsi è astronomico,
cosicché non è facile progettare da zero una grossa proteina.

Le forze che connettono assieme le proteine fino a formare macchine complesse sono le stesse che
determinano anzitutto lo specifico ripiegamento spaziale delle catene proteiche. Le differenti forme
e tipi di connessione di aminoacidi (le nodose perline molecolari che formano le catene proteiche)
fanno in modo che ogni catena proteica si ripieghi spazialmente in una maniera specifica, per dar
luogo ad un oggetto con una particolare forma. I biochimici hanno imparato qualche regola che
suggerisce come una catena di aminoacidi potrebbe piegarsi ma le regole non sono molto rigorose.
Provare a prevedere come una catena si ripiegherà è come provare a lavorare con le tessere di un
"puzzle", ma un puzzle senza alcun disegno stampato sopra i suoi pezzi che possa indicarci se
l'accostamento di due tessere risulti corretto, e con pezzi che sembrano accostarsi fra loro altrettanto
bene (o altrettanto male) in molte differenti maniere, tutte sbagliate eccetto una. Le false partenze
possono far sprecare tempi equivalenti a quelli di molte vite, ed una risposta corretta potrebbe anche
non essere riconosciuta. I biochimici, pur utilizzando i migliori programmi per computer
attualmente disponibili, ancora non riescono a prevedere in che modo si ripiegherà una lunga catena
proteica naturale ed alcuni di loro disperano di riuscire a progettare molecole proteiche entro tempi
brevi.
Tuttavia la maggior parte dei biochimici lavora come farebbe uno scienziato e non come farebbe un
ingegnere. Lavorano cercando di prevedere come si ripiegheranno le proteine naturali e non
tentando di progettare proteine che si ripieghino in maniera prevedibile. Questi obiettivi potrebbero
sembrare simili(9), ma differiscono enormemente: il primo è una sfida scientifica, il secondo una
sfida di ingegneria. Perché mai le proteine naturali dovrebbero piegarsi in modi che gli scienziati
trovino facili da prevedere? Tutto quello che la natura richiede, infatti, è che esse si pieghino
correttamente e non che si pieghino in modi che siano ovvi per la gente.

Le proteine potrebbero venir progettate a priori con lo scopo di rendere più prevedibile il loro
ripiegamento. Carl Pabo, scrivendo sulla rivista Nature(10), ha suggerito una strategia di progetto
basata su questa intuizione ed alcuni ingegneri biochimici hanno progettato e costruito brevi catene
composte da poche dozzine di pezzi(11) che si ripiegano e si assestano sulle superfici di altre
molecole nel modo pianificato. Hanno progettato da zero una proteina con proprietà come quelle
della melittina(12), una tossina presente nel veleno d'ape. Hanno modificato enzimi esistenti,
alterando il loro comportamento in modi prevedibili(13). La nostra comprensione delle proteine
cresce giornalmente.

Nel 1959, concordando col biologo Garrett Hardin(14), alcuni genetisti dichiararono l'impossibilità
dell'ingegneria genetica; oggi invece l'ingegneria genetica è un'industria. La biochimica e i sistemi
CAD (sistemi di progettazione con l'ausilio del computer) stanno esplosivamente generando nuovi
campi e come Frederick Blattner ha scritto nella rivista Science(15), "i programmi di computer per
gli scacchi hanno già raggiunto un livello poco al di sotto di quello di gran maestro. Forse la
soluzione al problema del ripiegamento delle proteine è più vicina di quanto pensiamo". William
Rastetter dalla Genentech, scrivendo sulla Applied Biochemistry and Biotechnology(16) si
domanda: "Quanto è distante la progettazione e la sintesi 'ex-novo' di enzimi? Dieci, quindici
anni?". La risposta che propone è: "Forse, non così tanto".

Forrest Carter nello U.S. Naval Research Laboratory, Ari Aviram e Philip Seiden in IBM, Kevin
Ulmer alla Genex Corporation, ed altri ricercatori in università e laboratori industriali di tutto il
globo, hanno già iniziato a sviluppare lavori teorici ed eseguire esperimenti mirati allo sviluppo di
interruttori molecolari, di dispositivi di memoria e di altre strutture che potrebbero essere
incorporate in un computer basato su proteine. Lo U.S. Naval Research Laboratory ha tenuto due
seminari internazionali sui dispositivi elettronici molecolari(17), mentre un incontro sponsorizzato
dalla U.S. National Science Foundation ha raccomandato il supporto alle ricerche di base mirate a
sviluppare computer molecolari(18). Secondo quanto riferito in questo incontro, il Giappone
avrebbe avviato un programma del costo di molti milioni di dollari che punta allo sviluppo di
motori e computer molecolari auto-assemblanti e la VLSI Research Inc.(19), a San Jose, scrive in
una relazione: "Sembra che la corsa ai 'bio-chips' [un altro termine per indicare sistemi elettronici
molecolari] sia già iniziata. NEC, Hitachi, Toshiba, Matsushita, Fujitsu, Sanyo-Denki e Sharp
hanno avviato sforzi di ricerca a tutto campo su bio-chips per 'bio-computers'".

I biochimici hanno altre ragioni per voler imparare l'arte della progettazione di proteine. Enzimi di
nuova progettazione promettono di eseguire processi chimici inquinanti in modi più economici e
puliti, e proteine di nuova progettazione offrirebbero ai biotecnologi uno spettro interamente inedito
di strumenti. Ci siamo già incamminati lungo la strada che conduce verso l'ingegneria proteica, e
come Kevin Ulmer afferma nella citazione tratta da Science e riportata in testa al presente capitolo,
questa strada conduce "verso una abilità più generale per l'ingegneria molecolare che ci
permetterebbe di strutturare la materia atomo per atomo".

Nanotecnologia di Seconda Generazione

A dispetto della loro versatilità le proteine lasciano a desiderare come materiale da ingegneria. Le
macchine proteiche smettono di funzionare se non idratate, congelano se raffreddate, cuociono se
riscaldate. Non penseremmo mai di fabbricare macchine fatte di carne, capelli e gelatina; lungo i
secoli abbiamo imparato ad usare le nostre mani di ossa e carne per costruire macchine di legno,
ceramica, acciaio e plastica. Faremo ancora qualcosa di simile in futuro. Useremo macchine
proteiche per costruire nanomacchine fatte di roba più resistente delle proteine.

Mano a mano che la nanotecnologia andrà oltre l'esigenza di dover semplicemente fare affidamento
sulle proteine, essa si svilupperà secondo percorsi che, considerati da un punto di vista
ingegneristico tradizionale, sembrano più ordinari. Le molecole saranno assemblate come fossero
componenti del gioco del Mecano e a tali assemblaggi verranno mano a mano vincolate altre, ben
legate, parti assemblate. Proprio come gli strumenti ordinari possono costruire macchine ordinarie a
partire dalle loro parti costituenti, così gli strumenti molecolari legheranno assieme molecole per
realizzare minuscoli ingranaggi, motori, leve e rivestimenti, ed in seguito assembleranno insieme
queste parti per comporre delle macchine più complesse.

Le parti contenenti solo pochi atomi avranno un aspetto piuttosto accidentato, ma gli ingegneri
potranno lavorare anche con questi componenti dall'aspetto accidentato, se potranno supportarli con
degli adeguati e levigati cuscinetti. È facile per alcuni legami fra due atomi funzionare da fini
cuscinetti, in modo che un componente possa essere montato per mezzo di un singolo legame
chimico(20) che lasci il componente capace di ruotare liberamente ed in maniera uniforme. Poiché
un cuscinetto può essere realizzato utilizzando solo due atomi (e poiché le parti mobili necessitano
solo di pochi atomi), le nanomacchine potranno di fatto essere costituite da componenti meccanici
di dimensioni molecolari.
Come si potrebbe riuscire a costruire queste macchine migliori? Nel corso degli anni, gli ingegneri
hanno sfruttato la tecnologia per migliorare la tecnologia stessa. Hanno impiegato strumenti di
metallo per modellare i metalli in strumenti migliori ed hanno utilizzato dei computer per progettare
e programmare computer migliori. Allo stesso modo useranno nanomacchine costituite da proteine
per costruire nanomacchine migliori. Gli enzimi ci indicano quale sia la giusta strada da
intraprendere: assemblano grosse molecole "afferrandone" di più piccole dall'acqua attorno a loro e
mantenendole vicine fra loro fino a formare un legame. Gli enzimi assemblano in questa maniera
DNA, RNA, proteine, grassi, ormoni e clorofilla, ossia potenzialmente l'intero spettro delle
molecole che è possibile trovare nelle cose viventi.

Per cui, gli ingegneri biochimici costruiranno dei nuovi enzimi utilizzabili per assemblare nuove
configurazioni di atomi. Per esempio, potrebbero fabbricare una macchina simile ad un enzima che
aggiunga atomi di carbonio ad un piccolo puntino iniziale, livello su livello. Se correttamente legati,
gli atomi formeranno una fibra di diamante(21) purissima e flessibile, oltre cinquanta volte più
robusta di un blocco di alluminio dello stesso peso. Le compagnie aereospaziali farebbero la fila per
comprare tonnellate di queste fibre, allo scopo di ricavarne avanzati materiali composti (e ciò
mostra parzialmente quale sia uno dei tanti motivi per cui la competizione militare favorirà il
progresso della tecnologia molecolare, come già in passato ha spinto in avanti tanti altri campi).

Ma il grande progresso arriverà quando le macchine proteiche saranno capaci di realizzare strutture
ben più complesse che non le semplici fibre. Queste macchine proteiche programmabili saranno gli
analoghi dei ribosomi programmati dall'RNA, o gli analoghi della più antica fra le generazioni di
macchine utensili automatiche programmate da nastri perforati. Le macchine proteiche
programmabili schiuderanno un nuovo mondo di possibilità, consentendo agli ingegneri di fuggire
dalle limitazioni imposte dalle proteine e di costruire con progettazione diretta macchine robuste e
compatte.

Le proteine ingegnerizzate potranno frantumare e ricomporre le molecole nello stesso modo in cui
attualmente possono farlo gli enzimi. Le proteine esistenti si legano ad una gran varietà di molecole
più piccole utilizzandole come utensili chimici; le nuove proteine ingegnerizzate utilizzeranno tutti
questi utensili e molti altri.

Inoltre, i chimici organici hanno dimostrato che le reazioni chimiche possono produrre notevoli
risultati anche senza nanomacchine che dirigano le molecole. I chimici non hanno controllo diretto
sui movimenti tumultuosi delle molecole in un liquido, per cui le molecole sono libere di reagire in
qualsiasi modo possano farlo a seconda di come vanno a scontrarsi l'una contro l'altra. Tuttavia i
chimici non possono indurre delle molecole reattive(22) a formare strutture regolari come, ad
esempio, molecole cubiche o dodecaedriche, o strutture dall'aspetto improbabile come anelli
molecolari con legami altamente stirati. Le macchine molecolari, in quanto produttori di legami,
saranno capaci di una versatilità ancora più grande perché potranno usare movimenti molecolari
analoghi a quelli naturali e al tempo stesso potranno anche guidare questi movimenti in modi
impossibili per i chimici.

Infatti, poiché i chimici non possono ancora dirigere i movimenti molecolari, raramente possono
assemblare delle molecole complesse in accordo ad intenti specificati. Le più grandi molecole con
configurazioni complesse ed esattamente specificate che i chimici siano in grado di produrre sono
tutte delle catene lineari. I chimici costruiscono queste configurazioni (come nelle macchine
genetiche) aggiungendo in sequenza le molecole costituenti una per volta ed accrescendo
gradualmente la catena. Esistendo un solo possibile sito di legame, imposto dalla catena stessa, i
chimici possono essere certi di aggiungere il pezzo successivo nella posizione giusta.

Tuttavia, nel caso di una molecola più o meno rotondeggiante, ma irregolare, e che abbia, diciamo,
un centinaio di atomi di idrogeno sulla sua superficie, come potrebbero i chimici staccare via un
atomo, proprio uno in particolare (ad esempio quello cinque atomi più su e tre di lato rispetto alla
protuberanza frontale) per aggiungere qualcos'altro al suo posto? Provare a mescolare semplici
reagenti chimici assieme di rado riuscirà a compiere il lavoro desiderato, perché le piccole molecole
raramente possono selezionare specifiche posizioni in cui andare a reagire con una grossa molecola.
Ma le macchine proteiche saranno molto più pignole.

Una macchina proteica flessibile e programmabile afferrerà una grossa molecola (il pezzo di
lavoro) e vi accosterà una piccola molecola esattamente nella posizione giusta. Proprio come fa un
enzima, legherà le molecole assieme. Legando una molecola dopo l'altra al pezzo di lavoro, la
macchina assemblerà una struttura via via più grande, mantenendo nel contempo il completo
controllo del modo in cui gli atomi sono disposti. Questa è la abilità chiave che manca ai chimici.

Proprio come già fanno i ribosomi, nanomacchine dotate di tali capacità possono lavorare sotto la
direzione di nastri molecolari di istruzioni. Ma a differenza dei ribosomi esse maneggeranno una
grande varietà di piccole molecole (non solo aminoacidi) e le collegheranno al pezzo di lavoro in
qualunque posizione desiderata e non esclusivamente alla fine della catena. Le macchine proteiche
saranno simultaneamente dotate delle tipiche capacità degli enzimi di separare e congiungere, e
della programmabilità tipica dei ribosomi. Ma mentre i ribosomi possono costruire solo le labili
disposizioni spaziali di una proteina, queste macchine proteiche potranno costruire oggetti piccoli e
solidi fatti di metallo, ceramica o diamante: oggetti invisibilmente piccoli eppure tenaci.

Dove c'è possibilità che le nostre dita di carne si ustionino o si feriscano, noi le sostituiamo con
tenaglie d'acciaio. Dove c'è la possibilità che le macchine proteiche si stritolino o si disintegrino, le
sostituiremo con nanomacchine composte da materiale più resistente.

Assemblatori Universali

Queste nanomacchine di seconda generazione, costituite da ben più che semplici proteine, sapranno
fare tutto quello che le proteine possono fare ma anche molto di più (23). In particolare, alcune
serviranno come dispositivi più sofisticati per l'assemblaggio di strutture molecolari. In grado di
tollerare, a seconda della loro specifica progettazione, ambienti acidi, vuoto, congelamento o
cottura, gli analoghi degli enzimi rappresentati dalle macchine di seconda generazione saranno in
grado di utilizzare come "strumenti" quasi qualsiasi molecola reattiva usata dai chimici, ma
sapranno maneggiarla con la precisione di macchine programmate. Potenzialmente sapranno legare
assieme gli atomi in qualsiasi schema stabile, aggiungendo pochi atomi per volta alla superficie di
un pezzo in costruzione, fino a completare una complessa struttura. Si pensi a queste nanomacchine
come assemblatori(24).

Poiché gli assemblatori ci consentiranno di posizionare atomi in qualsiasi disposizione ragionevole


(25) (come discusso nelle note), essi ci metteranno in grado di costruire quasi qualunque cosa la cui
esistenza sia permessa dalle leggi della natura. In particolare, ci permetteranno di costruire
qualunque cosa saremo in grado di progettare, inclusi altri assemblatori. Le conseguenze di ciò
saranno profonde visto che i nostri rozzi strumenti ci hanno permesso fino ad ora di esplorare solo
una piccola parte dell'insieme di possibilità consentito dalle leggi naturali. Gli assemblatori
schiuderanno un intero mondo di nuove tecnologie.

I progressi nella tecnologia spaziale, in quella medica, nel calcolo e nella produzione, nonché nella
tecnologia bellica, dipendono tutti dalla nostra capacità di realizzare disposizioni di atomi. Con gli
assemblatori saremo in grado di modellare nuovamente il nostro mondo, oppure di distruggerlo.
Quindi, a questo punto, sembra saggio fare un passo indietro e guardare a queste possibilità con la
massima chiarezza consentitaci, in modo da essere sicuri che assemblatori e nanotecnologia non
siano un mero miraggio futuristico.

Riepilogo delle Conclusioni

In ognuna delle cose che ho descritto, mi sono strettamente attenuto a fatti dimostrati della chimica
e della biologia molecolare. Tuttavia, la gente solleva regolarmente inevitabili obiezioni correlate ai
principi della fisica e della biologia. Tali obiezioni meritano delle risposte più dirette.

° Il principio di indeterminazione della fisica quantistica rende inattuabili le macchine molecolari?

Questo principio asserisce (fra le altre cose) che non è possibile stabilire precisamente la posizione
di una particella durante un comunque fissato intervallo di tempo. Tale principio pone un limite a
quello che le macchine molecolari possono fare, così come pone un limite a qualsiasi altra cosa si
possa fare. Ciononostante, i calcoli mostrano che il principio di indeterminazione pone pochi
importanti limiti su "quanto bene" gli atomi possano essere mantenuti in una posizione stabilita,
almeno per gli scopi qui delineati. Il principio di indeterminazione rende le posizioni degli elettroni
piuttosto "vaghe" e di fatto questa incertezza determina l'effettiva dimensione e struttura degli
atomi. Un atomo, inteso come ente unico, ha comunque una posizione relativamente definita,
determinata dalla posizione del suo nucleo di massa. Se gli atomi non stessero in una posizione
sufficientemente definita, le molecole non esisterebbero. Non c'è bisogno di studiare la meccanica
quantistica per confidare in queste conclusioni, poiché le macchine molecolari nelle cellule
dimostrano che una macchina molecolare può funzionare.

° Le macchine molecolari potrebbero non funzionare, o comunque essere troppo inaffidabili per
essere usate, a causa delle vibrazioni molecolari dovute al calore?

Le vibrazioni termiche causeranno problemi ben più grandi rispetto a quelli causati dal principio di
indeterminazione, tuttavia anche in questo caso l'esistenza di macchine molecolari naturali
costituisce la dimostrazione diretta che le macchine molecolari possono funzionare a temperature
ordinarie. A dispetto delle vibrazioni termiche, il macchinario di copiatura del DNA in certe
cellule(26) compie meno di un errore ogni cento miliardi di operazioni. Per ottenere questa
accuratezza, comunque, le cellule utilizzano alcune particolari macchine (come l'enzima
denominato " DNA polimerasi I ") che lavorano sulla copia come farebbe un correttore di bozze,
correggendo gli errori della copia. Gli assemblatori potrebbero necessitare di analoghe capacità di
controllo, detenzione e correzione degli errori, perché possano essere in grado di produrre risultati
affidabili.

° Le radiazioni potrebbero distruggere le macchine molecolari, rendendole inutilizzabili?

Le radiazioni d'alta energia possono rompere i legami molecolari e distruggere le macchine


molecolari. Ancora una volta le cellule viventi mostrano che esistono delle soluzioni: esse
funzionano per anni riparando e rimpiazzando le parti danneggiate dalle radiazioni(27). Poiché le
macchine, individualmente, sono comunque così minuscole, esse costituiscono bersagli piccoli per
le radiazioni e ne vengono raramente colpite. Inoltre, se un sistema di nanomacchine deve essere
affidabile, deve tollerare una certa percentuale di danno e le parti danneggiate devono regolarmente
essere riparate o sostituite. Questo approccio alla affidabilità è ben noto ai progettisti di aereoplani e
navette spaziali.

° Poiché l'evoluzione non è riuscita a produrre assemblatori, questo non dimostra che essi sono
impossibili o privi d'utilità?

Alle prime domande si è risposto in parte guardando al funzionamento del macchinario molecolare
delle cellule. Esso infatti rappresenta una prova semplice e potente del fatto che le leggi naturali
consentono, a piccoli raggruppamenti di atomi, di comportarsi come macchine controllate in grado
di costruire altre nanomacchine. Tuttavia, a dispetto della loro somiglianza di base con i ribosomi,
gli assemblatori differiranno da qualsiasi cosa mai trovata nelle cellule; le cose che produrranno,
pur fabbricate per mezzo di movimenti ordinari ed ordinarie reazioni molecolari, rappresenteranno
risultati del tutto inediti. Nessuna cellula, per esempio, produce fibre di diamante.

L'idea che nuovi tipi di nanomacchine ci metteranno a disposizione capacità nuove ed utili
capacità, potrebbe sembrare sbalorditiva: in tutti i suoi miliardi di anni di evoluzione la vita non ha
mai smesso di basarsi(28) sulle macchine proteiche. Questo suggerisce forse che sono impossibili
dei miglioramenti? L'evoluzione avanza attraverso piccoli cambiamenti e l'evoluzione del DNA non
può facilmente sostituire il DNA stesso. Poiché il sistema DNA/RNA/ribosomi è specializzato nel
produrre proteine, la vita non ha nessuna opportunità reale di evolvere una alternativa. Qualunque
manager di produzione ne può ben apprezzare la ragione; anche più di quel che accade in una
fabbrica, la vita non può permettersi di arrestarsi per sostituire i suoi vecchi sistemi.

Non dovremmo perciò essere sorpresi delle migliorie possibili sulle macchine molecolari più di
quanto lo siamo del fatto di poter produrre leghe d'acciaio dieci volte più forti delle ossa o cavi di
rame che trasmettono segnali un milione di volte più velocemente di quanto facciano i nervi. Le
automobili sorpassano i ghepardi, gli aerei jet volano più veloci dei falchi ed i computer già
superano le capacità di calcolo mentale umano. Il futuro porterà ulteriori esempi di migliorie che
sono possibili rispetto alla evoluzione biologica, nell'ambito delle quali la seconda generazione di
nanomacchine non sarà che una di esse.

In termini fisici è abbastanza chiaro perché gli assemblatori avanzati saranno in grado di fare più di
quanto siano capaci di fare le macchine proteiche esistenti. Essi saranno programmabili come i
ribosomi, ma capaci di usare un insieme di strumenti più ampio di quello costituito da tutti gli
enzimi di una cellula messi insieme. Poiché, rispetto alle proteine saranno fatti di materiali molto
più forti rigidi e stabili, saranno quindi in grado di esercitare forze più grandi e muoversi con più
grande precisione nonché sopportare condizioni più difficili. Come i bracci di robot industriali, ma a
differenza di qualsiasi cosa in una cellula vivente, essi saranno capaci di spostare e ruotare molecole
in tre dimensioni e sotto controllo programmato, rendendo possibile il preciso assemblaggio di
oggetti complessi. Questi vantaggi li renderanno capaci di assemblare un insieme di strutture
molecolari più vasto di quello che le cellule viventi hanno finora realizzato.

° Non c'è qualcosa di magico e speciale nella vita che dovrebbe quindi essere indispensabile per
rendere funzionanti le macchine molecolari artificiali?

Si potrebbe dubitare che le nanomacchine artificiali possano mai eguagliare le capacità delle
nanomacchine naturali delle cellule se ci fosse una qualche ragione di credere che le cellule
contengano qualche specialità magica che permette loro di funzionare. Questa idea è chiamata
"vitalismo". I biologi l'hanno abbandonata perché hanno trovato spiegazioni chimiche e fisiche per
ogni aspetto delle cellule viventi finora studiato, inclusi il loro moto, la loro crescita e la loro
riproduzione. Di fatto, questa conoscenza costituisce il fondamento essenziale delle biotecnologie.

Le nanomacchine che fluttuano in sterili provette da laboratorio, ossia liberamente fuori dalle
cellule, sono state in grado di svolgere tutti i tipi di attività basilari che svolgono nelle cellule
viventi. Partendo da reagenti chimici che possono essere estratti da aria ricca di smog i biochimici
hanno costruito macchine proteiche senza aiuto dalle cellule. R. B. Merrifield(29), per esempio, ha
usato tecniche chimiche per assemblare semplici aminoacidi, fino a produrre ribonucleasi
pancreatica bovina, un dispositivo enzimatico che disassembla molecole di RNA. La vita è speciale
nella sua struttura, nel suo comportamento e in quello che di essa "percepiamo" essendo noi stessi
"vivi", tuttavia le leggi della natura che governano il suo macchinario molecolare governano anche
il resto dell'universo.

° I motivi della realizzabilità degli assemblatori e di altre nanomacchine saranno anche solidamente
fondati, ma perché non aspettare semplicemente di vedere se queste cose possano essere sviluppate?

La pura curiosità sembra motivo sufficiente per esaminare le possibilità che la nanotecnologia ci
aprirebbe, ma ci sono anche motivi più forti per farlo. Questi sviluppi si propagheranno come
un'onda lungo il mondo intero e lo faranno entro un periodo che va da dieci a cinquant'anni; il che
significa entro il tempo di vita che ci attendiamo per noi stessi o per le nostre famiglie. C'è da dire
inoltre che le conclusioni a cui si giunge nei capitoli seguenti suggeriscono che una politica di
"aspetta e guarda" potrebbe essere molto costosa, nel senso che potrebbe costare molti milioni di
vite nonché, forse, persino la fine della vita sulla Terra.

I motivi della realizzabilità della nanotecnologia e degli assemblatori sono sufficientemente fondati
da dover prendere in seria considerazione queste cose? Sembra che sia proprio così, perché il nucleo
centrale della possibilità si basa su due fatti ben stabiliti della scienza e dell'ingegneria. Questi fatti
sono: (1) che le macchine molecolari esistenti sono in grado di svolgere un insieme di funzioni di
base, e (2) che le parti che svolgono queste funzioni di base possono essere combinate per costruire
macchine complesse. Poiché le reazioni chimiche possono legare assieme gli atomi in diversi modi
e poiché le macchine molecolari possono dirigere le reazioni chimiche in accordo a istruzioni
programmate, gli assemblatori sono indubbiamente realizzabili.

Nanocomputer

Gli assemblatori prepareranno la strada ad un altro passo avanti tecnologico di importanza ovvia e
basilare: gli ingegneri infatti sfrutteranno gli assemblatori per ridurre la dimensione ed i costi dei
circuiti per computer ed accelerare di fattori enormi la loro velocità operativa.
Con l'attuale tecnologia di "mole", gli ingegneri tracciano degli schemi su schegge di silicio e vi
lasciano depositare atomi e fotoni, ma gli schemi restano comunque piatti e sono inevitabilmente
caratterizzati da difetti di scala molecolare. Tuttavia, con gli assemblatori, gli ingegneri
realizzeranno circuiti in tre dimensioni e costruiti con precisione atomica. I limiti esatti della
tecnologia elettronica odierna rimangono incerti, perché il comportamento quantistico degli
elettroni in complesse reti di minuscole strutture è inscindibile da problemi complessi, alcuni dei
quali risultanti direttamente dal principio di indeterminazione. Qualunque siano i limiti effettivi,
sarà comunque possibile raggiungerli con l'aiuto degli assemblatori.

I più veloci fra i computer sfrutteranno effetti elettronici, ma i più piccoli potrebbero anche non
farlo. Ciò potrebbe sembrarci strano e tuttavia l'essenza della computazione non ha nulla a che fare
con l'elettronica. Un computer digitale è una raccolta di interruttori in grado di far commutare altri
interruttori da condizioni di "acceso" a condizioni di "spento". Gli interruttori del computer partono
da una determinata configurazione (per esempio rappresentante la somma 2 + 2), poi si commutano
uno con l'altro in una nuova configurazione (rappresentante 4) e così via. Tali configurazioni
possono rappresentare quasi qualunque cosa. Gli ingegneri costruiscono computer composti da
minuscoli interruttori elettronici e connessi fra loro da cablaggi elettrici semplicemente perché degli
interruttori meccanici connessi da bacchette o corde risulterebbero, allo stato attuale delle cose,
troppo grandi, lenti, inaffidabili e dispendiosi.

L'idea di un computer puramente meccanico è tutt'altro che nuova. In Inghilterra, durante la metà
del 1800(30), Charles Babbage inventò un computer meccanico costituito da ingranaggi d'ottone; la
sua collaboratrice, Augusta Ada, contessa di Lovelace, inventò la programmazione per computer.
Babbage riprogettò senza fine la sua macchina, circostanza che, assieme alle difficoltà tecniche per
la accurata produzione degli ingranaggi ed all'ostilità dei critici attenti al bilancio economico
(alcune di queste critiche riguardavano dubbi sulla stessa utilità dei computer!), contribuì ad
impedire il completamento del progetto.
In questa tradizione, Danny Hillis e Brian Silverman del Laboratorio di Intelligenza Artificiale del
MIT, hanno costruito un computer "dedicato", specializzato nel giocare a tic-tac-toe (NdT - gioco
noto in Italia come 'Tris'). Di dimensioni di metri e pieno zeppo di alberi rotanti e telai mobili che
rappresentano lo stato del tavoliere di gioco e la strategia di azione, questo computer si trova adesso
al Computer Museum di Boston. Assomiglia molto ad un enorme modello di molecola realizzato
con biglie e bacchette che connettono le biglie, e proprio per questo è stato costruito con pezzi del
Mecano.

Ingranaggi di ottone e pezzi di Mecano possono solo dar forma a computer lenti ed ingombranti.
Tuttavia, con componenti della estensione di pochi atomi, un computer puramente meccanico
potrebbe occupare un centesimo di micrometro cubo e risulterebbe perciò molti miliardi di volte più
compatto di quelli realizzabili con la "cosiddetta" microelettronica attuale. Anche se avesse un
miliardo di bytes di memoria, un computer nanomeccanico potrebbe stare in una scatola di un
micrometro di lato(31), all'incirca la dimensione di un batterio. E sarebbe persino veloce.
Nonostante nelle macchine attuali i segnali meccanici(32) si propaghino circa centomila volte più
lentamente dei segnali elettrici, i primi avrebbero bisogno di percorrere distanze un milione di volte
più brevi, determinando così ritardi di propagazione inferiori. Sicché, un computer puramente
meccanico lavorerebbe più velocemente dei frenetici computer elettronici odierni.
Per finire, considerando invece dei nanocomputer elettronici, essi saranno probabilmente anche
migliaia di volte più veloci dei microcomputer elettronici, anzi forse persino centinaia di migliaia di
volte più veloci se uno schema di progetto proposto dal premio Nobel per la Fisica Richard
Feynman(33) dovesse dimostrarsi capace di funzionare. In elettronica, accrescere la velocità per
effetto della riduzione della dimensione è una vecchia storia.

Disassemblatori
I computers molecolari dirigeranno gli assemblatori molecolari, fornendo loro il rapido flusso di
istruzioni necessarie a comandare il posizionamento di un immenso numero di atomi.
Nanocomputer con dispositivi molecolari di memoria, immagazzineranno anche dati generati da un
processo che è l'esatto contrario dell'assemblaggio.

Gli assemblatori aiuteranno gli ingegneri a sintetizzare le cose; i loro "complementari", i


disassemblatori(34), aiuteranno gli scienziati e gli stessi ingegneri ad analizzare le cose. La
realizzabilità degli assemblatori si basa sulla capacità degli enzimi e delle reazioni chimiche di
formare legami e su quella delle macchine di controllare il processo. La realizzabilità dei
disassemblatori si basa sulla capacità degli enzimi e delle reazioni chimiche di rompere legami e su
quella delle macchine di controllare il processo. Enzimi, acidi, ossidanti, metalli alcalini, ioni ed i
gruppi di atomi reattivi denominati "radicali liberi", possono tutti rompere legami e rimuovere
gruppi di atomi. Poiché nulla è assolutamente immune alla corrosione, sembrerebbe perciò che gli
utensili molecolari saranno in grado di smantellare ogni cosa, pochi atomi alla volta. Ed in più, una
nanomacchina potrebbe (per necessità o convenienza) anche saper applicare adeguate forze
meccaniche, riuscendo di fatto a curiosare all'interno dei gruppi di atomi appena liberati.
Una nanomacchina in grado di far tutto questo e che allo stesso tempo mantiene una registrazione
di ciò che, livello dopo livello, sta rimuovendo, è un disassemblatore. Assemblatori, disassemblatori
e nanocomputer lavoreranno assieme. Per esempio, un sistema di nanocomputer sarà in grado di
dirigere il disassemblamento di un oggetto, registrare la sua struttura e poi dirigere l'assemblaggio
di sue copie perfette. E tutto ciò ci fornisce qualche indizio per afferrare quale sia la potenza
implicita nella nanotecnologia.

Il Mondo Ricreato

Ci vorranno anni perché compaiano gli assemblatori ma il loro emergere sembra quasi inevitabile:
sebbene percorrere l'intera strada che conduce verso gli assemblatori richieda il compimento di
molti passi distinti, ogni passo ci condurrà al punto dal quale potremo cominciare a lavorare per il
successivo, ed ogni passo compiuto comporterà immediate ricompense. I primi passi sono già stati
fatti sotto i nomi di ingegneria genetica e biotecnologia. Sembra che esistano anche altre possibili
strade che conducono verso gli assemblatori. Fatta eccezione per il verificarsi di eventi come
distruzioni o dittature totalitarie di estensioni mondiali, la corsa tecnologica proseguirà, che lo si
desideri o meno. E quando i progressi nella progettazione assistita dal calcolatore andranno ad
accelerare lo sviluppo di strumenti molecolari, i progressi verso gli assemblatori diverranno
acutamente più rapidi.

Per avere qualche speranza di comprendere il nostro futuro, dobbiamo capire le conseguenze degli
assemblatori, dei disassemblatori e dei nanocomputer. Essi promettono di provocare trasformazioni
tanto profonde quanto quelle causate dalla rivoluzione industriale, dagli antibiotici e dalle armi
nucleari, tutte assieme, in un unico massiccio passo avanti tecnologico. Per comprendere un futuro
di così profonda trasformazione, ha senso esplorare gli intrinseci principi del cambiamento che
hanno caratterizzato ognuno dei più grandi sconvolgimenti del passato. Essi possono dimostrarsi
una utile guida.

----------

Capitolo 2: I PRINCIPI DEL CAMBIAMENTO

Ordine dal Caos


Evolvere Molecole
Spiegando L'Ordine
Organismi in Evoluzione
Un altro Percorso all'Indietro
L'Ascesa dei Replicatori
Tecnologia in Evoluzione
L'evoluzione della Progettazione
Quali Sono i Nuovi Replicatori?
Le Creature della Mente
Selezionare Idee

Si pensi al processo di progettazione(1) come qualcosa che richiede in un primo momento la


generazione di alternative e successivamente la verifica di queste alternative contro un intera
schiera di requisiti e vincoli.
- HERBERT A. SIMON

Gli assemblatori molecolari costituiranno una rivoluzione che non ha equivalente dai tempi dello
sviluppo dei ribosomi, i primitivi assemblatori interni alla cellula. La nanotecnologia che ne
risulterebbe può aiutare la vita a diffondersi oltre la Terra, un passo che non ha equivalente dai
tempi in cui la vita si è diffusa al di fuori dei mari. Essa potrebbe anche aiutarci nel riuscire a far
manifestare la "mente" nelle macchine, un fatto senza equivalente fin dai tempi in cui la mente si è
manifestata nei primati. E ci permetterebbe di rigenerare le nostri menti e rimodellare i nostri corpi,
un fatto senza equivalente alcuno.

Queste rivoluzioni saranno accompagnate da pericoli ed opportunità troppo grandi per essere
afferrate dall'immaginazione umana. Eppure i principi del cambiamento che sono stati applicati a
molecole, cellule, animali, menti e macchine, dovrebbero mantenere la loro validità anche in
un'epoca di biotecnologie, nanomacchine e menti artificiali. Gli stessi principi che sono stati
applicati al mare, alla terraferma e all'aria, dovrebbero conservare la loro validità quando
diffonderemo la vita terrestre verso le stelle. Comprendere i persistenti principi del cambiamento ci
aiuterà a comprendere il potenziale benefico e il potenziale malefico delle nuove tecnologie.

Ordine dal Caos

L'ordine può emergere dal caos senza che nessuno lo imponga: cristalli ordinati si sono condensati
da gas interstellari privi di forma molto tempo prima che apparissero il Sole, la Terra o la vita. Il
caos può far emergere ordine cristallino anche sotto circostanze più familiari. Immaginate una
molecola, forse regolare nella forma, o forse obliqua e nodosa come una radice di zenzero. Ora
immaginate un immenso numero di tali molecole muoversi a caso in un liquido, roteando e
spingendosi l'una con l'altra, come ubriachi privi di peso ed al buio. Immaginate il liquido che
evapora e si raffredda, obbligando le molecole a disporsi più vicine fra loro ed a rallentare il loro
moto. Queste molecole dalla forma strana e dai movimenti casuali si raccoglieranno semplicemente
in mucchi disordinati? Generalmente no. Esse si disporranno, di solito, in uno schema cristallino,
con ogni molecola accuratamente accoccolata contro le sue vicine, a formare righe e colonne così
perfette come quelle di una scacchiera e spesso persino più complesse.

Questo processo non coinvolge nulla di magico e nemmeno qualche speciale proprietà delle
molecole e delle forze meccaniche quantistiche. Esso non richiede null'altro che l'esistenza di
specifiche corrispondenze di forme, tali da consentire alle molecole proteiche di auto-assemblarsi in
macchine. Biglie di uguale dimensione, se messe in una vaschetta ed agitate, si dispongono in
schemi regolari.

I cristalli si accrescono per tentativi e rimozione degli errori, per variazione e selezione. Non ci
sono minuscole mani ad assemblarli. Un cristallo può cominciare con un fortuito agglutinarsi di
molecole in un piccolo gruppo: le molecole vagano, si urtano e si raggruppano a caso, ma i
raggruppamenti sono più coesi quando confezionati secondo un appropriato schema cristallino.
Altre molecole colpiscono questo primo minuscolo cristallo. Alcune di esse lo urtano nella
posizione o nella orientazione sbagliata; si attaccano debolmente al cristallo e poi se ne distaccano.
Ad altre molecole succede di urtare il cristallo nel modo appropriato; vi aderiscono meglio e spesso
vi restano stabilmente attaccate. Un livello si costruisce su un altro livello, estendendo così lo
schema cristallino. Nonostante la casualità degli urti fra molecole, esse non aderiscono a caso.
Sicché dal caos si viene a sviluppare ordine per mezzo di variazione e selezione.

Evolvere Molecole

Nella crescita cristallina, ogni livello si comporta da stampo per il successivo. Livelli uniformi si
accumulano, per formare un blocco solido. Nelle cellule, filamenti di DNA o RNA possono fungere
anche loro come uno stampo, aiutati da enzimi che agiscono da macchine di copiatura molecolari.
Ma le sub-unità dei filamenti di acido nucleico possono essere disposte in molte differenti sequenze,
ed un filamento "matrice" può separarsi dalla sua copia. Sia il filamento originario che la copia(2)
possono essere ulteriormente copiati. Il biochimico Sol Spiegelman(3) ha usato una macchina
copiatrice (una proteina tratta da un virus) per esperimenti in provetta. In un ambiente pur semplice
e privo di vita, essa riesce a duplicare molecole di RNA.

Immaginate un filamento di RNA che fluttua in una provetta contenente macchine di copiatura e
sub-unità di RNA. Il filamento rotea e si contorce su se stesso finché va ad urtare contro una
macchina copiatrice nella giusta posizione per aderirvi. Le sub-unità si scontrano tutt'attorno fino a
che una del tipo giusto incontra la macchina copiatrice nella giusta posizione per adattarsi alla
forma del filamento-stampo. Mano a mano che le sub-unità cadono casualmente nella giusta
posizione, la macchina copiatrice le cattura e le lega chimicamente alla copia in accrescimento;
nonostante le sub-unità rimbalzino a caso, la macchina le lega in modo selettivo. Alla fine,
macchina, stampo e copia si separano.

Nella terminologia di Richard Dawkins, zoologo di Oxford, le cose che producono copie di se
stesse sono dette replicatori(4). Nel caso dell'ambiente che stiamo ipotizzando, le molecole di RNA
ben corrispondono alla seguente caratterizzazione: una singola molecola presto diventa "due"
molecole, queste diventano quattro, quindi otto, sedici, trentadue e così via, in una moltiplicazione
esponenziale. Successivamente, il tasso di crescita della velocità di replicazione si azzera: l'insieme
considerato di macchine proteiche, può sfornare copie di RNA solo a quella velocità, non importa
quante siano le molecole di "stampo" che si contendono i loro servigi. Più tardi ancora, i materiali
grezzi per produrre molecole di RNA cominciano a scarseggiare ed il processo di replicazione
giunge, per inedia, ad un arresto. L'esplosiva crescita di popolazione delle molecole raggiunge un
limite al suo accrescimento, e le molecole smettono di riprodursi.
Le macchine copiatrici, comunque, spesso copiano erroneamente i filamenti di RNA, inserendo o
cancellando singole sub-unità, oppure accoppiandole in modo sbagliato. Il filamento mutante che ne
risultata differisce dall'originale per lunghezza o nella sequenza delle sue sub-unità. Tali
modificazioni sono in gran parte casuali e le differenze si accumulano sempre più mano a mano che
le copie molecolari erronee vengono ancora una volta copiate erroneamente. Poiché le molecole
proliferano, comincia a crescere il grado di differenza che c'è fra l'una e l'altra o fra loro e i loro
progenitori. Questa potrebbe sembrare una sicura ricetta per il caos.

I biochimici hanno riscontrato che molecole di RNA differenti si replicano a ritmi differenti, a
seconda della lunghezza dei filamenti e degli schemi di disposizione delle loro sub-unità. I
discendenti dei replicatori più rapidi, diventano naturalmente più comuni. Infatti, se un tipo di
replicatore si replica con un tasso soltanto del 10 percento più rapido dei suoi simili, rispetto ad essi
avrà, dopo cento generazioni, mille volte più discendenti. Le piccole differenze, in una crescita
esponenziale, si moltiplicano esponenzialmente.
Quando in una provetta non ci sono più sub-unità libere, uno sperimentatore può prelevare
campioni di RNA e "infettare" una nuova provetta. Il processo inizia nuovamente e le molecole che
hanno dominato il primo round della competizione partono da una condizione di assoluta
dominanza numerica. Appaiono ulteriori piccole variazioni che si accumulano nel tempo in
variazioni più grandi. Alcune molecole si replicano più velocemente e la loro specie giunge a
dominare la miscela della provetta. Quando le risorse si esauriscono, lo sperimentatore può
prelevare dalla provetta altri campioni di RNA e ricominciare ancora una volta l'esperimento, ed
ancora, ed ancora, mantenendo sempre stabili le condizioni sperimentali.

Questo esperimento è rilevatore di un processo naturale: indipendentemente da quali siano le


sequenze di RNA con cui l'esperimento viene avviato, l'apparente caos di errori casuali e copiature
preferenziali porta avanti un solo tipo di molecola di RNA (fatta eccezione per qualche errore di
copiatura). La versione tipica dell'RNA vincente ha una ben definita sequenza di 220 sub-unità. È il
miglior RNA replicatore nel suo ambiente, sicché si moltiplica rispetto agli altri fino a restare solo.

Un prolungato processo di copiatura, copiatura erronea e competizione, produce all'incirca sempre


lo stesso risultato, indipendentemente da quale sia la lunghezza della molecola di RNA che ha
avviato il processo o quale sia lo schema costituente la sua sequenza. Sebbene nessuno potrebbe
prevedere quale sarà lo schema vincente, chiunque può accorgersi che mutazione e competizione
tenderanno a portare avanti un singolo vincitore. In un sistema così semplice potrebbe accadere ben
poco d'altro. Se questi replicatori si influenzassero fortemente l'uno con l'altro (aggredendosi
selettivamente oppure aiutandosi l'un l'altro), allora il risultato potrebbe assomigliare ad una
ecologia un po' più complessa. Ma per come stanno le cose, essi possono soltanto competere per le
risorse.

Una possibile "variazione sul tema" per questo esempio, ci mostra qualcos'altro: le molecole di
RNA si adattano differentemente in ambienti differenti. Una macchina molecolare chiamata
ribonucleasi afferra delle molecole di RNA che hanno determinate sequenze di sub-unità esposte, e
le taglia in due. Ma le molecole di RNA, come le proteine, si ripiegano spazialmente in
configurazioni che dipendono dalla loro sequenza, e ripiegandosi nel modo appropriato possono
proteggere i loro punti vulnerabili. Gli sperimentatori hanno riscontrato che, quando la ribonucleasi
è presente nel loro ambiente, le molecole di RNA evolvono sacrificando la rapidità di replicazione a
vantaggio di una loro maggiore protezione. Ancora una volta emerge fra tutti un competitore
"eccellente".

Si noti come alcuni termini biologici si siano infiltrati in questa descrizione: poiché le molecole si
replicano, la parola "generazione" sembra appropriata; le molecole "discendenti" da un comune
"antenato" sono "imparentate", e le parole "crescita", "riproduzione", "mutazione" e "competizione"
sembrano altrettanto adatte. Perché tutto questo? Perché queste molecole copiano se stesse con
piccole variazioni, proprio come fanno i geni degli organismi viventi. Quando replicatori varianti
vanno incontro a un successo variabile, il replicatore di maggior successo tende ad accumularsi.
Questo processo, dovunque accada, è definito "evoluzione".

Questo esempio della provetta ci consente di osservare l'evoluzione spogliata fino alla sua nuda
essenza, libera dalla polemica emotiva che circonda l'evoluzione della vita. Gli RNA replicatori e le
macchine copiatrici proteiche sono raggruppamenti ben definiti di atomi, che obbediscono a
principi ben compresi e possono evolversi in condizioni di laboratorio ripetibili. I biochimici
possono produrre RNA e proteine da comunissimi reagenti chimici prelevati dagli scaffali del loro
laboratorio, senza alcun aiuto dalla vita.

I biochimici prendono a prestito queste macchine copiatrici da un tipo di virus che infetta i batteri
ed utilizzano dell'RNA come suo materiale genetico. I virus sopravvivono entrando in un batterio,
copiando se stessi con l'uso delle risorse del batterio e quindi fuggendo per infettare un nuovo
batterio. Gli errori di copiatura dell'RNA virale producono virus mutati ed i virus che si replicano
con maggior successo diventano i più comuni; questo processo rappresenta una evoluzione per
selezione naturale, che a quanto pare si chiama "naturale" perché coinvolge parti "non umane" della
natura. Ma a differenza dell'RNA in provetta, l'RNA virale deve fare di più che il semplice
replicarsi come fa una molecola nuda. Per aver successo, l'RNA virale deve anche dirigere i
ribosomi del batterio infettato perché costruiscano dispositivi proteici che gli permettano anzitutto
di fuggire dal vecchio batterio, nonché di sopravvivere all'esterno ed infine entrare in un batterio
nuovo. Questa informazione aggiuntiva comporta una lunghezza delle molecole di RNA virale di
circa 4.500 sub-unità.

Per replicarsi con successo, il DNA di grossi organismi deve fare ancora di più, dirigendo la
costruzione di decine di migliaia di differenti macchine proteiche e lo sviluppo di complessi organi
e tessuti. Questo richiede migliaia di geni, codificati in milioni di miliardi di sub-unità di DNA.
Nonostante ciò, il basilare processo d'evoluzione attraverso variazione e selezione resta identico a
quello che si svolge nella provetta, nei virus e in molti altri sistemi.

Spiegando l'Ordine

Ci sono almeno tre modi per spiegare la struttura di una popolazione di replicatori molecolari dopo
un processo d'evoluzione, sia che si parli di RNA in provetta, che di geni virali o di geni umani. Il
primo tipo di spiegazione è una descrizione passo-passo della loro storia: la spiegazione di come
sono avvenute specifiche mutazioni e come si sono diffuse. Ciò è ovviamente impossibile senza
registrare tutti gli eventi molecolari, ed una tale registrazione sarebbe in ogni caso enormemente
tediosa.

Il secondo tipo di spiegazione fa ricorso ad una parola in qualche modo ingannevole: scopo.
Guardando nel dettaglio, vediamo soltanto variazioni a casaccio e replicazioni selettive. Tuttavia,
guardando il processo da una maggiore distanza, si potrebbe descriverne il risultato finale
immaginando che le molecole sopravvissute si siano trasformate per "raggiungere l'obiettivo"
rappresentato dalla replicazione. Perché le molecole di RNA che evolvono sotto la minaccia della
ribonucleasi si ripiegano spazialmente nel modo in cui fanno? A causa di una lunga e dettagliata
storia passata, naturalmente, ma l'idea che "esse vogliano evitare attacchi e sopravvivere alla
replicazione" sarebbe in grado di prevedere lo stesso risultato. Il linguaggio dello scopo costituisce
una comoda scorciatoia (provare a discutere in termini di azione umana pur in assenza di questa),
ma l'apparenza di uno scopo non deve necessariamente risultare dall'azione di una mente. L'esempio
dell'RNA mostra tutto questo in modo piuttosto chiaro.

Il terzo (e spesso il migliore) tipo di spiegazione in termini di evoluzione afferma che l'ordine
emerge tramite la variazione e la selezione dei replicatori. Una molecola si ripiega in un particolare
modo perché assomiglia ai suoi antenati che si sono moltiplicati con maggior successo (evitando
attacchi, ecc..) e che sono riusciti a lasciare dei discendenti, compresa questa stessa particolare
molecola. Come Richard Dawkins fa notare(5), il linguaggio dello scopo (se usato con attenzione)
può essere tradotto nel linguaggio dell'evoluzione.

L'evoluzione attribuisce schemi di successo alla "eliminazione di modifiche che non hanno
incontrato il successo". Così facendo, interpreta un risultato positivo come equivalente ad un doppio
risultato negativo, un tipo di spiegazione che, per la sua sottigliezza, sembra difficile da afferrare.
Quel che è peggio, essa spiega qualcosa di visibile (entità di successo, entità con uno scopo) in
termini di qualcosa di invisibile (entità senza successo che sono quindi scomparse). Poiché solo gli
animali di successo hanno cosparso la terraferma delle ossa dei loro discendenti, i fallimenti
malformati del passato non hanno mai potuto lasciare molti fossili.

La mente umana tende a focalizzarsi sul visibile, cercando cause positive per risultati positivi e
cercando inoltre una forza ordinatrice dietro a risultati ordinati. Tuttavia, riflettendoci, possiamo
vedere il grande principio che ha cambiato il nostro passato e modellerà il nostro futuro:
l'evoluzione procede per variazione e selezione dei replicatori.

Organismi in Evoluzione

La storia della vita è la storia di una corsa agli armamenti basata sulle macchine molecolari. Oggi
che questa corsa si avvicina ad una fase nuova e più rapida, è necessario che ci assicuriamo di
comprendere bene quanto profondamente radicata sia l'evoluzione. In tempi in cui l'idea di
evoluzione biologica è spesso disprezzata nelle scuole e talvolta attaccata, dovremmo ricordare che
le prove a suo supporto sono solide come roccia e comuni quanto lo sono le cellule.

In pagine di pietra, la Terra stessa ha registrato la storia della vita. Sul fondo dei laghi e nei letti
marini si sono accumulate conchiglie, ossa e limo, livello dopo livello. Talvolta il cambiamento di
una corrente o uno sconvolgimento geologico hanno spazzato via alcuni livelli; oppure essi sono
semplicemente sprofondati più in basso. I primi livelli, profondamente seppelliti com'erano, sono
stati distrutti, cotti, disciolti in acque minerali, e ritrasformati in pietra.

Per secoli i geologi hanno studiato le rocce per leggere il passato della Terra. Molto tempo fa, essi
trovarono conchiglie marine nelle rocce raggrinzite e frantumante di alcune catene montuose. Nel
1785, settantaquattro anni dalla pubblicazione del detestato libro di Darwin(6), James Hutton
concluse che il fango dei letti marini era stato pressato fino a formare queste rocce, le quali erano
poi state sollevate verso il cielo da forze non ancora comprese. Che cos'altro potevano pensare i
geologi, a parte un inganno della natura stessa?

Essi notarono che le ossa e le conchiglie fossili differivano da livello a livello. Videro che le
conchiglie in un livello qui, corrispondevano a quelle trovate in un livello lì, per quanto
profondamente sotterrati i livelli fossero. Diedero nomi ai livelli (A,B,C,D..., o Osagian,
Meramecian, Lower Chesterian, Upper Chesterian,…) [NdT -Epoche del sottoperiodo Missisipiano
nel Carbonifero Inferiore - da 345 a 320 milioni di anni fa], ed usarono i loro fossili caratteristici
per identificare i livelli delle stratificazioni rocciose. Gli sconvolgimenti della crosta non hanno
lasciato impressa in alcun luogo una completa sequenza di livelli, sicché i geologi, trovando
A,B,C,D,E in un posto, C,D,E,F,G,H,I,J in un'altro e J,K,L da qualche altra parte ancora, poterono
comunque concludere che A precedeva L. I geologi petroliferi (anche quelli per nulla interessati
all'evoluzione o alle sue implicazioni) usano tuttora la datazione dei livelli di roccia basata sui
fossili per comparare i livelli fra un sito di trivellazione ed un altro.

Gli scienziati giunsero alla ovvia conclusione. Proprio come le specie marine odierne vivono in
aree molto estese, così facevano le specie estinte in anni passati. Proprio come il livello odierno si è
depositato sopra il più alto dei livelli passati, così fecero in passato. Conchiglie simili in livelli
simili indicano sedimenti depositati nella stessa era. Le conchiglie cambiano da livello a livello
perché le specie cambiano da era ad era. Questo è ciò che i geologi hanno trovato scritto in
conchiglie ed ossa, su pagine di pietra.

I livelli superiori delle rocce contengono ossa di animali più recenti, mentre i livelli più profondi
contengono ossa di animali ormai estinti. I livelli ancora più primitivi non mostrano traccia di
alcuna delle specie moderne. Sotto ossa di mammiferi giacciono ossa di dinosauri. Nei livelli più
vecchi giacciono le ossa di anfibi, più giù conchiglie e ossa di pesci, ed infine del tutto nessuna
conchiglia od osso. Le più antiche rocce che contengono fossili, portano solo tracce microscopiche
di singole cellule.

La datazione con metodi radioattivi indica che queste tracce più antiche risalgono a qualche
miliardo di anni fa. Le prime cellule più complesse dei batteri si datano a poco più di un miliardo di
anni fa. La storia dei vermi, pesci, anfibi, rettili e mammiferi copre solo le ultime centinaia di
milioni di anni. Ossa simili a quelle umane si datano attorno a qualche milione di anni da ora. I resti
delle civiltà passate si datano entro qualche migliaio di anni.

In tre miliardi di anni, la vita è evoluta da cellule singole in grado di assorbire semplici reagenti
chimici a raggruppamenti di cellule che incorporano menti capaci di assorbire idee. Nell'ambito
dell'ultimo secolo, la tecnologia si è evoluta dalla locomotiva a vapore e dalla luce elettrica fino alle
navi spaziali ed ai computer elettronici, e questi ultimi cominciano ad imparare a leggere e scrivere.
Con la mente e la tecnologia, il ritmo dell'evoluzione è schizzato in avanti di un milione di volte o
più.

Un'altro Percorso all'Indietro

Il libro delle pietre registra le forme di organismi morti da tempo, tuttavia anche le cellule viventi
contengono delle registrazioni, veri testi genetici che solo ora vengono letti. Come le idee della
geologia, le idee essenziali dell'evoluzione erano note prima che Darwin(7) mettesse la penna sul
foglio.

In templi e monasteri illuminati da lampade ad olio, generazioni di scribi copiarono e ricopiarono i


manoscritti. Talvolta copiarono erroneamente parole e frasi, sia per caso o perversità che per ordine
del locale legislatore, e mano a mano che il manoscritto veniva replicato ad opera di queste
macchine umane di copiatura, gli errori si sono accumulati. Gli errori peggiori potrebbero essere
stati scovati e rimossi ed alcuni dei passi ormai famosi potrebbero essere sopravvissuti senza
alterazioni, ma si generarono comunque molte differenze rispetto agli originali.

I libri antichi raramente esistono nella loro versione originale. Le copie più vecchie sono spesso di
secoli più giovani rispetto ai perduti originali. Ciononostante, da copie differenti con differenti
errori, gli studiosi possono ricostruire versioni più vicine alla originale.

Essi confrontano i testi. Possono tracciare linee di discendenza da antenati comuni sulla base di
schemi di errori univoci, che tradiscano la copiatura da una sorgente comune (gli insegnanti
scolastici conoscono questo principio: risposte identiche e corrette non sono sospette, a meno che
non siano state copiate da un libro di testo, ma guai agli studenti seduti fianco a fianco che facciano
gli stessi errori nei loro compiti in classe!). Dove tutte le copie sopravvissute concordano, gli
studiosi possono assumere che la copia originale (o almeno l'ultimo comune antenato delle copie
sopravvissute) contenesse le stesse parole. Dove le copie sopravvissute differiscono, gli studiosi
trovano indicazioni per individuare il comune distante antenato da cui discendono le due copie
divergenti, poiché le restanti aree di accordo delle due copie indicano una derivazione comune dalla
versione più antica.

I geni assomigliano a manoscritti composti con un alfabeto di sole quattro lettere. Così come uno
stesso messaggio nel linguaggio ordinario può assumere più forme (non è necessario un grande
sforzo per formulare nuovamente una idea con l'uso di parole totalmente differenti), così anche
differenti parole genetiche possono dirigere la costruzione di identiche molecole proteiche. Inoltre,
molecole di proteine con caratteristiche di dettaglio differenti possono svolgere funzioni identiche.
Un gruppo di geni in una cellula è come un intero libro, come un vecchio manoscritto copiato e
ricopiato da scribi imprecisi.
Come studiosi all'esame di antichi testi, i biologi generalmente lavorano con copie moderne del
loro materiale (con la differenza che, ahimè, non c'è nessun "papiro" biologico proveniente da un
mare ormai defunto, che sia stato trascritto per noi nei primitivi giorni della vita). Essi confrontano
gli organismi dotati di aspetti simili (leoni e tigri, cavalli e zebre, ratti e topi) e scoprono che questi
sono provvisti, nei loro geni e nelle loro proteine, di risposte simili agli stessi problemi. Più due
organismi differiscono (leoni e lucertole, umani e girasoli), più queste risposte differiscono, persino
fra macchine molecolari che assolvono identiche funzioni. Per dirla tutta, animali simili fanno errori
simili: tutti i primati, per esempio, mancano di enzimi che producano vitamina C, una omissione
condivisa soltanto da altri due fra i mammiferi conosciuti, il maiale della Guinea e il pipistrello
della frutta. E ciò suggerisce che noi primati abbiamo copiato le stesse risposte genetiche da una
sorgente comune, tanto tempo fa.

Lo stesso principio che mostra le linee di discendenza dei testi antichi (e che aiuta a correggere i
loro errori di copiatura) rivela così anche le linee di discendenza della vita moderna. Infatti, esso
indica che tutta la vita conosciuta condivide la sua discendenza da un comune antenato.

L'ascesa dei Replicatori

I primi replicatori sulla Terra evolsero abilità che andavano oltre a quelle consentite a molecole di
RNA che si replicano in una provetta. Al tempo in cui avevano raggiunto lo stadio batterico, essi
avevano sviluppato il "moderno" sistema che utilizza DNA, RNA, e ribosomi per costruire proteine.
Le mutazioni quindi modificarono non solo lo stesso DNA replicatore, ma anche le macchine
proteiche e le strutture viventi che queste costruiscono e modellano.

Squadre di geni modellarono cellule sempre più elaborate, quindi guidarono verso la cooperazione
cellulare che costituì infine organismi complessi. Variazione e selezione favorirono squadre di geni
che modellarono bestie con pelli protettive e bocche affamate, animate da nervi e muscoli, guidati
da occhi e cervello. Come dice Richard Dawkins(8), i geni costruirono macchine di sopravvivenza
sempre più elaborate per favorire la replicazione di se stessi.

Quando i geni di un cane si replicano, spesso si mescolano con i geni di altri cani che sono stati
artificialmente selezionati da persone che scelgono quali cuccioli tenere ed allevare. Lungo i
millenni, la gente ha plasmato degli animali simili a lupi per trasformarli in levrieri, barboncini,
bassotti e san bernardi. Selezionando quali geni dovessero sopravvivere, la gente ha rimodellato i
cani sia nel corpo che nel carattere. I desideri umani hanno stabilito le caratteristiche di successo per
i geni canini; pressioni ben diverse hanno definito i geni di successo dei lupi.

Mutazione e selezione dei geni hanno, attraverso lunghe ere, riempito il mondo di erba e di alberi,
di insetti e di pesci, e di gente. Più di recente altre cose sono apparse e si sono moltiplicate;
strumenti, case, aerei e computer. E come le molecole di RNA prive di vita, questo hardware si è
evoluto.

Tecnologia in evoluzione

Come le pietre della Terra registrano la comparsa di forme di vita sempre più complesse e capaci,
così i resti e gli scritti dell'umanità registrano la comparsa di forme di hardware sempre più
complesso e capace. Il nostro hardware più antico sopravvissuto fino ad oggi è la pietra stessa,
seppellita assieme ai fossili dei nostri antenati; il nostro hardware più recente orbita sopra le nostre
teste.

Consideriamo per un momento l'ascendenza ibrida dello space shuttle. Per il suo aspetto di
aereoplano, esso discende dai jet di alluminio degli anni sessanta, che derivano in linea diretta dagli
aerei rivestiti con alluminio della seconda guerra mondiale, dai biblani di legno e tela della prima
guerra mondiale, dagli alianti a motore dei fratelli Wright, e infine dagli alianti giocattolo e agli
aquiloni. Per il suo aspetto di razzo, lo shuttle deriva dai razzi lunari, che sono derivati dai missili
militari, che discendono dai razzi di artiglieria dell'ultimo secolo ("ed il rosso bagliore del razzo..."),
ed infine dai fuochi artificiali giocattolo. Questo ibrido aereoplano/razzo riesce a librarsi ed
attraverso un processo di variazione dei componenti e della progettazione, gli ingegneri
aereospaziali ne evolveranno di ancora migliori.

Gli ingegneri parlano di "generazioni" di tecnologie; I progetti giapponesi per computer di "quinta
generazione" mostrano quanto rapidamente alcune tecnologie crescano e prolifichino. Gli ingegneri
parlano di "ibridi", di "tecnologie in competizione" nonché della loro "proliferazione". Il direttore
delle ricerche dell'IBM, Ralph E. Gomory sottolinea con enfasi la natura evolutiva della tecnologia,
scrivendo che "lo sviluppo della tecnologia è più evolutivo e molto meno rivoluzionario e meno
basato su improvvisi passi avanti radicali, di quanto la maggior parte delle persone immagini"
(Infatti anche passi avanti radicali come quelli rappresentati dagli assemblatori molecolari si
svilupperanno attraverso molti piccoli passi). Nella citazione all'inizio di questo capitolo, il
Professor Herbert A. Simon della Carnegie-Mellon University ci invita a pensare "al processo di
progettazione come qualcosa che richiede in un primo momento la generazione di alternative e
successivamente la verifica di queste alternative contro un intera schiera di requisiti e vincoli".
Generazione e verifica di alternative sono sinonimi di variazione e selezione.

A volte esistono già varie alternative. Nel testo "One Highly Evolved Toolbox" (Una Scatola degli
Attrezzi Altamente Evoluta), tratto da The Next Whole Earth Catalog(9), J. Baldwin scrive: "La
nostra scatola degli attrezzi portatile si è evoluta per circa venti anni fino ad oggi. Non c'è nulla di
realmente speciale in essa, eccetto che un continuo processo di rimozione di utensili obsoleti o
inadeguati nonché di sostituzione degli stessi con altri più adatti, è infine risultato in una collezione
di utensili che l'ha resa un vero e proprio sistema per "fare-cose" piuttosto che un semplice mucchio
di ferramenta".

Baldwin usa il termine "evolvere" appropriatamente. Per millenni, invenzione e fabbricazione


hanno generato variazioni nelle caratteristiche di progetto degli utensili e Baldwin ha individuato
l'insieme risultante attuale tramite una "selezione competitiva", mantenendo gli utensili che
funzionano meglio assieme ad altri che meglio si prestano per le sue necessità. Attraverso anni di
variazione e selezione il suo sistema è evoluto, lungo un processo che egli raccomanda vivamente.
Di fatto egli esorta chiunque a non tentare mai di valutare l'acquisto di un insieme completo di
attrezzi. Piuttosto, egli consiglia di comprare solo gli attrezzi che si è soliti prendere in prestito,
utensili selezionati dalla esperienza e non dalla teoria.

Le variazioni tecnologiche sono spesso deliberate, nel senso che gli ingegneri sono pagati per
inventare e collaudare. Tuttavia, alcune innovazioni sono assolutamente casuali, come la scoperta di
una rozza forma di Teflon in un cilindro che si presumeva pieno di gas tetrafluoroetilene: pur con la
valvola accidentalmente aperta, il cilindro restò pesante; quando venne segato ed aperto, rivelò uno
strano e pallido materiale solido. Altre innovazioni sono derivate da sistematici tentativi alla cieca.
Edison, quando era alla ricerca di un buon filamento per le lampade a bulbo, provò a carbonizzare
ogni cosa, dalla carta al bambù, e persino tele di ragno. Charles Goodyear pasticciò in una cucina
per anni tentando di convertire la gomma naturale in una sostanza resistente, fino a che gli capitò di
far gocciolare della gomma solforizzata su un fornello caldo, ottenendo così la prima rozza
vulcanizzazione.

Nell'ingegneria, illuminati tentativi per prove ed errori, non pianificati da un impeccabile intelletto,
hanno condotto alla maggior parte dei progressi; questo è il motivo per cui gli ingegneri
costruiscono prototipi. Peters e Waterman(10) nel loro libro In Search of Excellence mostrano che
la stessa cosa è vera per i progressi dei prodotti commerciali e delle politiche aziendali. Questo è il
motivo per cui le aziende eccellenti creano "un ambiente ed un insieme di attitudini che
incoraggiano la sperimentazione" nonché il motivo per cui esse si evolvono "in modo realmente
Darwiniano".

Anche le industrie generano ordine tramite variazione e selezione. Grossolani sistemi di controllo
della qualità saggiano e scartano parti difettose prima di assemblarle in prodotti completi, e sistemi
di "controllo della qualità" più sofisticati utilizzano metodi statistici per individuare alla sorgente i
difetti, aiutando gli ingegneri a minimizzarli per mezzo della modifica opportuna del processo di
fabbricazione. Gli ingegneri giapponesi, basandosi sugli studi sul controllo statistico della qualità di
W. Edwards Deming, hanno fatto di un tale processo di variazione e selezione un pilastro del
successo economico del loro paese. I sistemi basati sugli assemblatori avranno analogamente
bisogno di misurare i risultati per eliminare i difetti.
Il controllo di qualità è una sorta di evoluzione perché mira non a modificare ma ad eliminare le
variazioni dannose. Ma proprio come l'evoluzione Darwiniana può conservare e diffondere le
mutazioni favorevoli, così dei buoni sistemi di controllo di qualità possono aiutare dirigenti ed
operai a conservare e diffondere i processi più efficaci, sia che essi siano comparsi per caso che per
consapevole progettazione.

Tutto questo armeggiare da parte di ingegneri e produttori industriali prepara i prodotti al loro
collaudo definitivo. Fuori, nel mercato, un'infinita varietà di chiavi inglesi, automobili, calzini e
computer, competono per l'approvazione degli acquirenti. Se degli acquirenti adeguatamente
informati venissero lasciati liberi di scegliere, i prodotti che fanno ben poco o costano troppo non
riuscirebbero, probabilmente, ad essere riprodotti. Come accade in natura, la verifica sperimentale
competitiva ha trasformato i migliori competitori di ieri nei fossili di oggi. "Ecologia" ed
"economia" condividono ben più che comuni radici linguistiche.
Sia nel mercato che su campi di battaglia reali ed immaginari, la competizione globale guida le
organizzazioni nell'inventare, acquistare, elemosinare o rubare tecnologie sempre più capaci.
Alcune organizzazioni competono principalmente cercando di fornire alla gente beni di qualità
superiore, altre competono principalmente cercando di intimidire le prime con armi superiori. La
pressione dell'evoluzione guida entrambe.

La corsa tecnologica globale ha premuto sull'acceleratore per miliardi di anni. I ciechi vermi
terrestri non poterono arrestare lo sviluppo di occhi negli uccelli. I piccoli cervelli degli uccelli e le
loro maldestre ali non poterono impedire che gli uomini sviluppassero mani, menti e doppiette da
fuoco. Analogamente, le proibizioni locali non possono bloccare i progressi nella tecnologia
militare e commerciale. Sembra quindi che dobbiamo imparare a guidare la corsa tecnologica o
morire, sebbene la forza dell'evoluzione tecnologica si faccia beffe dei movimenti antitecnologici: i
movimenti democratici che si prefiggono l'obiettivo di imporre restrizioni locali possono soltanto
riuscire a limitare le singole democrazie del mondo, non il mondo nel suo complesso. La storia della
vita ed il potenziale delle nuove tecnologie suggerisce qualche soluzione, ma questo è l'argomento
centrale della terza parte di questo libro.

L'evoluzione della Progettazione

Potrebbe sembrare che il processo della progettazione offra una alternativa all'azione
dell'evoluzione, ma il progetto coinvolge implicitamente l'evoluzione stessa in due distinte maniere.
Anzitutto, la stessa pratica progettuale evolve. Non solo gli ingegneri accumulano progetti che
funzionano, ma accumulano anche metodi di progetto che funzionano. Questi metodi vanno dagli
standard da manuale per la scelta di adeguate scansioni temporali delle fasi progettuali, ai sistemi
gestionali per organizzare la ricerca e lo sviluppo. Come ha affermato Alfred North Whitehead(11),
"La più grande invenzione del dicianovesimo secolo è l'invenzione del metodo dell'invenzione".
In secondo luogo, la progettazione stessa procede per variazione e selezione. Gli ingegneri spesso
utilizzano leggi matematiche evolutesi per descrivere (per esempio) il flusso di calore o l'elasticità,
al fine di sperimentare in modo simulato un progetto prima ancora di costruirne un prototipo. Essi
quindi evolvono piani attraverso un ciclo di progetto, calcolo, critica e riprogettazione,
risparmiandosi in parte la spesa economica del taglio del metallo per un prototipo. La creazione di
progetti procede quindi attraverso una forma non materiale di evoluzione.

La legge di Hooke, per esempio, descrive come i materiali si pieghino e si tendano: la


deformazione è proporzionale alla forza di trazione applicata; raddoppiando la trazione, raddoppia
lo stiramento ottenuto. Nonostante sia una legge solo approssimativamente corretta, resta
abbastanza precisa fintanto che l'elasticità non si arrende alla tensione come infine è costretta a fare.
Gli ingegneri possono usare una forma della legge di Hooke per progettare una barra metallica che
possa sopportare un carico non eccessivamente deformante, poi ne realizzano una versione
materiale un tantino più spessa per compensare le inaccuratezze della legge e dei loro calcoli di
progetto. Essi possono anche usare una forma della legge di Hooke per descrivere la deformazioni e
le contorsioni nelle ali degli aerei, nelle racchette da tennis, e nelle carrozzerie d'automobile. Ma
delle semplici equazioni matematiche non si adattano facilmente a strutture così complicate. Gli
ingegneri hanno adattato le equazioni alle forme più semplici (a pezzi del progetto) e
successivamente hanno composto queste soluzioni parziali per descrivere la flessione dell'insieme.
Si tratta di un metodo (denominato "analisi agli elementi finiti") che tipicamente richiede moli
immense di calcoli, e che sarebbe impraticabile senza i computer. Grazie a questi, invece, è
diventato un metodo di impiego comune.

Tali simulazioni rappresentano l'estensione generalizzata di una tendenza antica. Quando abbiamo
bisogno di selezionare una linea d'azione fra quelle possibili, le abbiamo sempre valutate
immaginando le sue conseguenze auspicabili e quelle temibili. I modelli mentali più semplici (sia
quelli innati che quelli appresi) guidano indubbiamente nello stesso modo gli animali. Quando sulla
base di accurati modelli mentali gli esperimenti nel pensiero possono sostituire più costosi (o
persino più pericolosi) esperimenti fisici, si favorisce uno sviluppo evolutivo. Le simulazioni degli
ingegneri semplicemente estendono questa capacità di immaginazione delle conseguenze, per
consentirci di compiere i nostri errori nel pensiero piuttosto che nei fatti.

In "One Highly Evolved Toolbox", J. Baldwin discute di come strumenti e pensiero interagiscano
durante lo svolgimento di un lavoro da officina: "Cominci a definire la capacità del tuo insieme di
utensili secondo quello che pensi debba significare 'fabbricare le cose'. Quando qualcuno che
costruisce un sacco di roba ti fornisce delle spiegazioni, gli utensili diventano presto una parte
automatica del processo di progettazione. Ma gli utensili non possono diventare parte del tuo
processo di progettazione se non conosci quali siano disponibili e che cosa i vari utensili facciano".

Disporre di una percezione intuitiva delle capacità di uno strumento è essenziale quando si
pianifica un lavoro da officina la cui consegna è per il prossimo mercoledì, ed è ugualmente
essenziale quando si deve modellare una strategia per affrontare i progressi radicali delle prossime
decadi. Migliore è la percezione degli strumenti disponibili in futuro, più verosimili sono i nostri
piani per sopravvivere e prosperare.

Un artigiano in una officina può tenere gli utensili bene in vista; lavorando tutti i giorni con questi
utensili, essi divengono familiari per i suoi occhi, le sue mani e la sua mente. Egli acquisisce in
modo spontaneo conoscenza delle loro capacità e può disporre di tale conoscenza per un loro
utilizzo creativo immediato. Ma per la gente come noi riuscire a comprendere il futuro si presenta
come una sfida ben più grande, a causa del fatto che gli strumenti futuri esistono per ora solo come
idee e come possibilità implicite nelle leggi di natura. Questi strumenti non sono appesi al muro, e
nemmeno impressi nella nostra mente per mezzo di sensazioni visive, uditive o tattili o quantomeno
non lo saranno fino a che non si materializzeranno fisicamente come hardware. Nei prossimi anni di
preparativi, solo lo studio, l'immaginazione e la riflessione(12) possono illuminare le nostre menti
sulle capacità di questi strumenti.

Quali sono i Nuovi Replicatori?

La storia ci mostra che l'hardware evolve. RNA in provetta, virus e cani, ci mostrano tutti come
l'evoluzione proceda per modifica e collaudo dei replicatori. Ma l'hardware (quello odierno,
quantomeno) non può riprodurre se stesso. Quindi quali sono i replicatori che sono alla base
dell'evoluzione tecnologica? Quali sono i geni delle macchine?

Ovviamente non è realmente indispensabile identificare i replicatori per riuscire a riconoscere la


presenza di un processo di evoluzione. Darwin descrisse l'evoluzione prima che Mendel scoprisse i
geni, ed i genetisti impararono molte cose sulla ereditarietà anche prima che Watson e Crick
scoprissero la struttura del DNA. Darwin non aveva bisogno di alcuna conoscenza della genetica
molecolare per accorgersi che gli organismi mutano e che alcuni lasciano più discendenti di altri.

Un replicatore è uno schema che può riuscire a far si che siano fabbricate copie di se stesso.
Potrebbe aver bisogno di aiuto, ed infatti il DNA non potrebbe replicarsi se non ci fossero delle
macchine proteiche a copiarlo. Ma se considerate secondo questi standard, alcune macchine sono
effettivamente dei replicatori! Le compagnie commerciali spesso realizzano macchine che cadono
nelle mani di un concorrente; il concorrente impara quindi i segreti delle loro macchine e ne
costruisce delle copie. Proprio come un gene "usa" le macchine proteiche per replicarsi, così queste
macchine "usano" le menti e le mani umane per replicarsi. Con dei nanocomputer a dirigere l'azione
di assemblatori e disassemblatori, si potrebbe persino automatizzare la replicazione dell'hardware.

La mente umana, tuttavia, è una macchina di imitazione di gran lunga più sottile di qualsiasi
semplice macchina proteica o assemblatore. Voce, scrittura e disegno possono trasmettere progetti
da mente a mente prima che prendano forma fisica come hardware. Le idee che sono dietro i metodi
di progetto sono ancora più sottili: in modo più astratto di quanto faccia l'hardware, esse si replicano
ed operano esclusivamente nel mondo delle menti e dei sistemi simbolici.

Se i geni si sono evoluti lungo generazioni ed eoni, i replicatori mentali si evolvono ora nell'arco di
giorni e decadi. Come i geni, le idee si scompongono e ricombinano, ed assumono forme multiple (i
geni possono essere trascritti da DNA ad RNA e di nuovo a DNA; le idee possono essere tradotte da
una lingua ad un'altra). La scienza non può ancora descrivere gli schemi neurali che nel cervello
danno forma alle idee, ma chiunque può osservare che le idee mutano, si replicano e competono. Le
idee "evolvono".

Richard Dawkins chiama(13) le unità elementari (i bit) degli schemi mentali "memi" (la pronuncia
inglese di meme fa rima con cream). Egli afferma: "esempi di memi sono melodie musicali, idee,
frasi d'effetto, stili di vestiario, modi di fabbricazione di vasi o di costruzione di archi). Proprio
come i geni propagano se stessi nel 'pool' genetico di una popolazione saltando [generazione dopo
generazione] da un corpo all'altro per mezzo di sperma o uova, così i memi propagano se stessi nel
pool memetico saltando da cervello a cervello per mezzo di un processo che, in senso ampio, può
essere chiamato 'imitazione'".

Le Creature della Mente

I memi si replicano sia perché le persone imparano che perché insegnano. Essi mutano perché le
persone creano memi nuovi o fraintendono quelli vecchi. Essi vengono selezionati (in parte) perché
le persone non credono a tutto quello che ascoltano o non lo ripetono. Come le molecole di RNA in
provetta competono per appropriarsi di macchine copiatrici e sub-unità dalla disponibilità limitata,
così i memi devono competere per risorse limitate come l'attenzione e gli sforzi umani. Poiché i
memi modellano il comportamento, il loro successo o il loro fallimento è d'importanza mortalmente
seria.

Fin da tempi antichi, modelli e schemi mentali di comportamento sono stati trasferiti da genitore a
figlio. Gli schemi memetici che favorivano sopravvivenza e riproduzione hanno manifestato la
tendenza a diffondersi (mangia questa radice solo dopo averla cotta; non mangiare queste bacche,
gli spiriti malvagi ti torceranno le budella). Anno dopo anno, la gente ha variato le proprie azioni
con risultati variabili. Anno dopo anno, alcune persone morivano mentre altre trovavano nuovi
trucchi per sopravvivere e li trasferivano agli altri. I nostri geni costruiscono cervelli abili
nell'imitazione perché gli schemi imitati erano, considerati nel complesso, schemi di valore;
dopotutto i loro propositori originari erano sopravvissuti per diffonderli.

I memi stessi, tuttavia, devono fronteggiare problemi di "vita" e di "morte": in quanto replicatori
essi evolvono unicamente per sopravvivere e diffondersi. Ma come i virus, essi possono replicarsi
senza favorire la sopravvivenza o il benessere di chi li ospita. Di fatto il meme del "martire-per-una-
causa" può diffondere se stesso proprio grazie al semplice fatto di uccidere la persona che lo ospita.

I geni, come i memi, sopravvivono per mezzo di molte strategie. Alcuni geni d'anatra hanno diffuso
se stessi incoraggiando le anatre a formare coppie stabili che potessero prendersi cura dei portatori
dei loro geni, ossia uova e piccoli. Alcuni geni d'anatra hanno diffuso se stessi incoraggiando (nei
maschi d'anatra) lo stupro, ed altri (nelle femmine d'anatra) la posa delle uova in nidi d'altre anatre.
Altri geni, anche questi riscontrati nelle anatre, sono geni virali capaci di diffondere se stessi senza
contribuire alla generazione di ulteriori anatre. Proteggere le uova aiuta le specie d'anatra (e i
singoli geni d'anatra) a sopravvivere; lo stupro aiuta un insieme di geni d'anatra a spese di un altro
insieme; le infezioni virali aiutano i geni virali a spese dei geni d'anatra nel complesso. Come
sottolinea Richard Dawkins, i geni hanno "cura" solo della propria replicazione: essi quindi si
mostrano "egoisti".

Ma motivi egoistici possono incoraggiare la cooperazione(14). La gente in cerca di denaro e di


riconoscimenti personali, coopera alla costituzione di enti che servono i bisogni di altra gente. I geni
egoisti cooperano per costruire organismi che spesso risultano essere cooperativi di per se stessi.
Ma anche se le cose stanno così, immaginare che i geni servano automaticamente qualche bene più
grande (il bene dei loro cromosomi? Delle loro cellule? Dei loro corpi? Delle loro specie?) significa
interpretare erroneamente quello che è un effetto comunemente diffuso, confondendolo con una
causa sottostante. Ignorare l'egoismo dei replicatori significa cullarsi con una pericolosa illusione.

Alcuni geni nelle cellule sono in tutto e per tutto "parassiti". Come i geni dell'herpes inseriti nel
cromosoma umano, essi sfruttano le cellule e danneggiano l'organismo che li ospita. Quindi, se i
geni possono essere parassiti, perché non altrettanto i memi?

Nel libro The Extended Phenotype(15), Richard Dawkins descrive un verme che parassitizza le api
e completa il suo ciclo vitale in acqua. Esso induce l'ape che la ospita ad andare verso l'acqua,
facendo in modo che l'ape si tuffi verso la sua morte. Analogamente, alcuni vermi che
parassitizzano i cervelli di formica devono entrare in una pecora per completare il loro ciclo vitale.
Per portare a termine questo compito, essi scavano cunicoli nel cervello della formica che li ospita,
provocando in qualche modo dei cambiamenti che fanno sì che la formica "voglia" arrampicarsi
sulla cima di un filo d'erba ed attendere di essere finalmente mangiata da una pecora.

Così come i vermi penetrano in altri organismi e li usano per sopravvivere e replicarsi, così fanno i
memi. Infatti, l'assenza di memi che sfruttino la gente per i loro fini egoistici dovrebbe risultare
sorprendente, sintomo di un sistema immunitario mentale piuttosto potente, di fatto quasi perfetto.
Ma i memi parassiti indubbiamente esistono. Proprio come i virus evolvono per spingere le cellule a
fabbricare virus, così le voci evolvono per suonare plausibili ed interessanti, stimolando la loro
ripetizione. Non vi domandate se una voce è vera, domandatevi come si diffonde. L'esperienza
mostra che le idee evolutesi per essere replicatori di successo hanno ben poco bisogno di avere a
che fare con la verità.

Nella migliore delle ipotesi, le catene di Sant'Antonio, le chiacchiere apocrife, le follie alla moda
ed altri parassiti mentali, danneggiano la gente facendogli sprecare del tempo. Ma nella peggiore
delle ipotesi, essi inculcano concezioni erronee mortali. Questi sistemi memetici sfruttano
l'ignoranza e la vulnerabilità umana. Diffonderli è come avere un raffreddore e starnutire in faccia
ad un amico. Nonostante alcuni memi agiscano in modo non dissimile da quello di un virus, le
infezioni non sono necessariamente una cattiva cosa (pensiamo ad un sorriso contagioso, o ad un
contagioso buon carattere). Se un corpo di idee ha dei meriti, la sua diffusione per infezione
semplicemente ne aumenta il merito, ed infatti i migliori insegnamenti etici ci insegnano anche ad
insegnare l'etica. Le buone pubblicazioni possono intrattenere, arricchire la comprensione, aiutare a
giudicare, ed anche far propaganda per gli abbonamenti. Diffondere sistemi memetici utili è come
offrire semi utili ad un amico che ha un giardino.

Selezionare Idee

I parassiti hanno obbligato gli organismi ad evolvere sistemi immunitari, come per esempio gli
enzimi che i batteri utilizzano per fare a pezzi i virus invasori, o i globuli bianchi del sangue che
pattugliano i nostri corpi per distruggere i batteri. I memi parassiti hanno obbligato le nostre menti a
percorrere una strada analoga, ed esse hanno evoluto dei sistemi memetici che svolgono la funzione
di sistemi immunitari mentali.

Il più vecchio e più semplice sistema immunitario mentale ordina semplicemente: "credi nel
vecchio, rifiuta il nuovo". Qualcosa di simile a questo sistema generalmente preserva le tribù
dall'abbandonare le strade vecchie e già collaudate, in favore di nuove e folli nozioni come quella di
obbedire a presunti fantasmi che ordinano una distruzione di tutto il bestiame e il grano della tribù,
perché tale distruzione in qualche maniera provocherebbe una miracolosa abbondanza di cibo,
nonché la disponibilità di grandi eserciti di antenati per scacciare gli stranieri (questo meme ha
realmente infettato la gente della tribù dei Xhosa(16) nel Sud Africa nel 1856 e nei successivi anni
sono morte 68.000 persone, principalmente di fame).

Il sistema immunitario del vostro corpo segue una regola simile: generalmente esso accetta tutte i
tipi di cellule già presenti all'inizio della vostra vita e rigetta come straniere e pericolose quelle che
potrebbero essere potenziali cellule cancerose o batteri invasori. Questo semplice sistema "rigetta-
il-nuovo" un tempo funzionava bene, tuttavia in questa era di trapianti d'organi può anche uccidere.
Analogamente, in un'era in cui scienza e tecnologia regolarmente presentano fatti che sono nuovi
ma anche attendibili, un sistema immunitario mentale rigido diventa una menomazione dannosa.

Nonostante le sue manchevolezze, tuttavia, il principio del "rigetto del nuovo" è semplice ed offre
vantaggi reali. La tradizione mantiene molto di ciò che è vero e provato (o, se non proprio vero,
quanto meno funzionante). Cambiare è rischioso: proprio come la maggior parte delle mutazioni
sono maligne, così molte delle nuove idee sono sbagliate. Persino la ragione può essere pericolosa:
se una tradizione lega delle pratiche fondate ad una irrazionale paura dei fantasmi, la eccessiva
confidenza nel pensiero razionale potrebbe gettar via il buono assieme al falso. Sfortunatamente, le
tradizioni evolutesi per essere buone, potrebbero risultare meno attraenti rispetto ad idee evolutesi
per sembrare buone. Come già detto, le tradizioni fondate potrebbero essere sostituite da idee
maligne che meglio si appellano alla mente razionale.

Tuttavia, i memi che sigillano la mente per proteggerla dalle nuove idee, proteggono anche se stessi
in un auto-utilitarismo che è sospetto. Mentre preservano tradizioni di valore da alterazioni
maldestre, potrebbero anche funzionare come uno scudo che impedisca la verifica della veridicità di
parassitari sproloqui ad effetto. In tempi di trasformazioni rapide essi possono rendere le menti
pericolosamente rigide.

Molta della storia della filosofia e della scienza potrebbe essere interpretata come la ricerca di
migliori sistemi immunitari mentali, ossia di migliori modi per rigettare quel che è falso, inutile e
dannoso. I sistemi migliori rispettano la tradizione, sebbene incoraggino la sperimentazione. Essi
suggeriscono degli standard per giudicare i memi, aiutando la mente a distinguere fra parassiti e
strumenti.

I principi dell'evoluzione ci forniscono un modo per guardare al cambiamento, indipendentemente


dal fatto che esso si presenti in molecole, organismi, tecnologie, menti o culture. Le questioni di
base che vengono sollevate in tutte queste situazioni sono invariabilmente le stesse: Cosa sono i
replicatori? Come mutano? Cosa determina il loro successo? Come si difendono dagli invasori? Tali
questioni emergeranno nuovamente quando si esamineranno le conseguenze della rivoluzione degli
assemblatori, ed ancora una volta prenderemo in considerazione i modi in cui la società potrebbe
affrontare queste conseguenze.

I principi fortemente invarianti del cambiamento evolutivo definiranno le forme in cui si


manifesterà lo sviluppo della nanotecnologia, tanto più che la distinzione fra hardware e vita
comincia a diventare sfocata. Questi principi mostrano moltissimo di ciò che possiamo o non
possiamo conquistare, e possono aiutarci a indirizzare adeguatamente i nostri sforzi di modellare il
futuro. Essi ci spiegano anche molto su quello che possiamo e non possiamo prevedere, perché
guidano non solo l'evoluzione dell'hardware, ma della conoscenza stessa.

----------

Capitolo 3: PREVEDERE E PROGETTARE

Le Trappole della Profezia


Scienza e Legge Naturale
Scienza contro Tecnologia
La Lezione di Leonardo
Il Passo Avanti degli Assemblatori

L'attitudine critica può essere descritta come il tentativo cosciente di fare in modo che le nostre
teorie e congetture soffrano al posto nostro nella lotta per la sopravvivenza del più adatto. Essa ci da
una possibilità di sopravvivere all'eliminazione di ipotesi inadeguate, dove una attitudine dogmatica
le eliminerebbe eliminandoci(1).
- Sir KARL POPPER

Nel guardare avanti per vedere dove ci stia conducendo la corsa tecnologica, dovremmo porci tre
domande. Cosa è possibile, cosa è ottenibile e cosa è desiderabile?

Anzitutto, dove sia coinvolto dell'hardware, le leggi naturali impongono limiti al possibile. Dato
che gli assemblatori apriranno una strada inedita verso il raggiungimento di questi limiti,
comprendere gli assemblatori è una chiave per comprendere ciò che è possibile.
In secondo luogo, i principi del cambiamento ed i fatti specifici della nostra situazione attuale
impongono limiti all'ottenibile. Dato che l'evoluzione di replicatori giocherà un ruolo basilare, i
principi dell'evoluzione sono una chiave per comprendere ciò che è ottenibile.

Per quanto riguarda cosa sia desiderabile o indesiderabile, la diversità dei nostri sogni spinge verso
la ricerca di un futuro che abbia spazio per la diversità, mentre le nostre comuni paure spingono
verso la ricerca di un futuro sicuro.

Queste tre domande (sul possibile, l'ottenibile, ed il desiderabile) formano un cornice di riferimento
entro cui definire un approccio alla previsione. In primo luogo, le conoscenze scientifiche ed
ingegneristiche delineano una mappa dei limiti del possibile. Nonostante ancora confusa ed
incompleta, questa mappa traccia i confini dei limiti permanenti all'interno dei quali il futuro deve
muoversi. In secondo luogo, i principi evolutivi determinano quali percorsi restano aperti e
definiscono i limiti dell'ottenibile, inclusi i limiti inferiori poiché i progressi che promettono di
migliorare la vita o di accrescere la potenza militare saranno virtualmente inevitabili. Ciò consente
una predicibilità limitata: se la corsa evolutiva, vecchia di eoni, non frenerà bruscamente fino ad un
completo arresto, la pressione competitiva modellerà il nostro futuro tecnologico entro i confini dei
limiti del possibile. Infine, entro i vasti confini del possibile e dell'ottenibile, possiamo tentare di
conquistarci un futuro che ci sembri desiderabile.

Le Trappole della Profezia

Ma come potrebbe, una qualunque persona, riuscire a prevedere il futuro? Le tendenze politiche ed
economiche sono notoriamente capricciose, ed i mutamenti si propagano in modo puramente
casuale, come fossero rotolanti dadi da gioco lanciati sulle superfici dei continenti. Persino i,
relativamente continui, progressi della tecnologia, spesso eludono la previsione.

I pronosticatori spesso avanzano ipotesi sui tempi ed i costi richiesti per lo sfruttamento di nuove
tecnologie. Quando si spingono oltre il confine delle possibilità delineate e tentano predizioni
accurate, di solito falliscono. Per esempio, nonostante gli space shuttle fossero indubbiamente
possibili, le predizioni sui loro costi e sulla data del loro primo lancio erano sbagliate in termini di
diversi anni e di miliardi di dollari. Gli ingegneri non possono prevedere accuratamente quando sarà
sviluppata una tecnologia, perché lo sviluppo coinvolge sempre delle incertezze.

Ma dobbiamo provare a prevedere e a guidare lo sviluppo. Svilupperemo delle tecnologie


mostruose prima o dopo di sviluppare quelle per ingabbiarle? Alcuni mostri, una volta sguinzagliati,
non possono più essere ricacciati nelle gabbie. Per sopravvivere, dobbiamo mantenere il controllo
accelerando certi sviluppi e rallentandone altri.

Nonostante una tecnologia possa, talvolta, intercettare i pericoli comportati da un'altra tecnologia
(difesa contro offesa, sorveglianza dell'inquinamento contro inquinamento stesso), le tecnologie in
competizione fra loro spesso procedono nella stessa direzione. Il 29 Dicembre 1959, Richard
Feynman (successivamente premiato con un Nobel) tenne una conferenza al raduno annuale della
American Physical Society intitolata "There's Plenty of Room at the Bottom(2)" (C'è un mucchio di
spazio giù in fondo). Descrisse un approccio di tipo non biochimico alla realizzazione di
nanomacchine artificiali (lavorando a scalare verso il basso, un passo dopo l'altro ed utilizzando
macchine più grandi per costruirne di più piccole) ed affermò che i principi della fisica non si
esprimono contro la possibilità di manovrare le cose atomo per atomo: "Non è qualcosa che tenta di
violare una qualche legge; è qualcosa che, in linea di principio, può essere fatta; ma in pratica non è
stata fatta perché siamo troppo grandi [...] in definitiva, siamo capaci di fare della sintesi chimica
[...] metti giù atomi, dove i chimici dicono che vanno messi, e fabbrichi la sostanza".
Essenzialmente, Feynman tracciò un'altra strada, non biochimica, verso gli assemblatori. Affermò
anche che questo è "uno sviluppo che io penso non possa essere evitato".

Come discuterò nei capitoli 4 e 5, assemblatori e macchine intelligenti semplificheranno molti


problemi riguardanti il costo e i tempi dello sviluppo tecnologico. Ma le domande su tempi e costi
annebbiano ancora la nostra visione del periodo fra il presente e questi passi avanti tecnologici. Nel
1959 Richard Feynman disse che le nanomacchine potrebbero dirigere la sintesi chimica, inclusa,
probabilmente, la sintesi del DNA. Tuttavia non poté prevedere nulla ne riguardo i tempi, ne
riguardo i costi per poter fare tutto questo.
Di fatto, naturalmente, i biochimici hanno sviluppato tecniche per produrre DNA anche senza farsi
aiutare da nanomacchine programmabili, sfruttando scorciatoie che si basano su specifici trucchi
chimici. Le tecnologie vincenti spesso hanno successo a causa di trucchi e dettagli che non sono
ovvi. A metà degli anni '50 i fisici riuscirono a vedere che i principi basilari dei semiconduttori
rendevano fisicamente possibile i microcircuiti, ma prevedere come potessero essere realizzati,
vedere in anticipo in tutta la loro complessità i dettagli delle tecniche di produzione dei mascherini e
dei rivestimenti isolanti, ed i dettagli delle tecniche di accrescimento degli ossidi, dell'impiantazione
ionica, dell'incisione, ecc…, sarebbe stato impossibile. Le sfumature dei dettagli e i vantaggi
competitivi che selezionano le tecnologie vincenti rendono complessa la corsa tecnologica ed
impredicibile il suo percorso.

Ma tutto questo rende futile la previsione sul lungo termine? In una corsa verso i limiti imposti
dalle leggi naturali, la linea di arrivo è prevedibile anche se il percorso e il passo dei corridori non lo
sono. Non sono i capricci umani ma le immutabili leggi naturali a tracciare la linea fra ciò che è
fisicamente possibile e quello che non lo è; nessun atto politico, nessun movimento sociale può
cambiare la legge di gravità di un solo pizzico. Così, per quanto futuristiche possano sembrare, le
fondate proiezioni delle possibilità tecnologiche sono pienamente distinte dalle previsioni. Esse si
fondano sulle leggi senza tempo della natura piuttosto che sulle bizzarrie degli eventi.

E' una sfortuna che visioni di una certa perspicacia rimangano rare. In mancanza di esse,
incespichiamo inebetiti lungo il paesaggio del possibile, confondendo montagne per miraggi e non
dando importanza ad entrambi. Guardiamo avanti con menti e culture radicate nelle idee di tempi
più indolenti, quando sia la competizione scientifica che quella tecnologica mancavano della loro
attuale velocità e robustezza. Solo di recente abbiamo cominciato a evolvere una tradizione di
previsione tecnologica.

Scienza e Legge Naturale

Scienza e tecnologia sono intrecciate. Gli ingegneri utilizzano la conoscenza prodotta dagli
scienziati; gli scienziati utilizzano gli strumenti prodotti dagli ingegneri. Scienziati e ingegneri
lavorano entrambi con descrizioni matematiche delle leggi naturali e verificano le loro idee grazie
ad esperimenti. Ma scienza e tecnologia differiscono radicalmente nelle loro basi, nei loro metodi e
nei loro obiettivi. La comprensione di queste differenze è cruciale per una previsone credibile.
Nonostante entrambi i campi siano costituiti da sistemi evolutivi di memi, tali memi evolvono, nei
rispettivi campi, sotto pressioni selettive differenti. Consideriamo le radici della conoscenza
scientifica.

Lungo la maggior parte della storia, la gente ha avuto ben poca comprensione della evoluzione. Ciò
lasciava pensare ai filosofi che l'evidenza sensoriale, mediata dalla ragione, doveva in qualche
modo imprimere nella mente l'intera umana conoscenza, inclusa la conoscenza delle leggi di natura.
Ma nel 1737, il filosofo scozzese David Hume presentò agli altri filosofi un malizioso rompicapo:
egli mostrò che le osservazioni non possono dimostrare con la logica una regola generale, e che il
fatto che il Sole abbia brillato fino ad ora, giorno dopo giorno, a rigor di logica non prova nulla
riguardo l'ipotesi che splenderà domani. Ed infatti un qualche giorno il sole morirà smentendo
questa logica. Il problema di Hume apparve per distruggere l'idea di una conoscenza razionale, che
fortemente influenzava i filosofi razionali (incluso lo stesso Hume). I filosofi si agitarono e
sudarono per la sconfitta, e l'irrazionalismo guadagnò terreno. Nel 1945, il filosofo Bertrand Russell
osservò che "la crescita dell'irrazionale attraverso il dicianovesimo secolo e quello che è trascorso
del ventesimo è una naturale conseguenza della distruzione dell'empirismo ad opera di Hume(3)". Il
meme-problema di Hume ha reciso di netto la stessa idea di conoscenza razionale, quantomeno di
quella intesa nel modo in cui la gente l'aveva immaginata.

Nelle decadi recenti, Karl Popper (forse il filosofo della scienza preferito degli scienzati), nonché
Thomas Kuhn, ed altri, hanno riconosciuto che la scienza è un processo evolutivo. Essi hanno visto
la scienza non più come un processo meccanico tramite cui delle osservazioni, in qualche modo,
generano delle conclusioni, ma come una battaglia in cui le idee competono per l'approvazione.

Tutte le idee, in quanto memi, competono per l'approvazione, ma il sistema memetico della scienza
è speciale: esso ha una tradizione di deliberata mutazione delle idee nonché un sistema immunitario
unico per controllare i mutanti. I risultati dell'evoluzione mutano a seconda della pressione selettiva
applicata, si tratti di evoluzione di molecole di RNA in provetta o di insetti, idee, o macchine.
L'hardware evoluto per la refrigerazione differisce dall' hardware evoluto per il trasporto, per cui i
frigoriferi sono automobili molto scadenti. In generale, i replicatori evoluti per "A" differiscono da
quelli evoluti per "B". I memi non fanno eccezione.

Parlando in senso ampio, le idee possono evolvere per sembrare vere o possono evolvere per essere
vere (intendendo, in questo secondo caso, idee evolute per sembrare vere a coloro che le hanno
esaminate accuratamente) (4). Antropologi e storici hanno descritto cosa accade quando le idee
evolvono per sembrare vere fra gente priva dei metodi della scienza; le teorie che ne risultano (la
teoria delle malattie basata sugli spiriti maligni, la teoria delle stelle come luci infisse su una cupola,
e così via) sono, quasi senza eccezioni, identiche in tutto il mondo. Gli psicologi che hanno
indagato sulle ingenue concezioni erronee della gente riguardo il moto degli oggetti in caduta,
hanno riscontrato molte credenze simili a quelle che nel Medio Evo, prima del lavoro di Galileo e
Newton, hanno finito per evolversi in formali sistemi "scientifici".

Galileo e Newton utilizzarono esperimenti ed osservazioni per mettere alla prova le idee
riguardanti gli oggetti ed il loro moto, dando quindi inizio ad un'era di drastico progresso
scientifico: Newton evolse una teoria che sopravvisse ad ogni verifica allora disponibile. I loro
metodi di verifica deliberata uccisero le idee che si allontanavano troppo dalla verità, incluse idee
che si erano evolute per fare appello alla ingenua mente umana.

Questa tendenza è proseguita. Ulteriori variazioni e verifiche hanno indotto l'evoluzione ulteriore
delle idee scientifiche, obbligandole a cedere strada anche ad alcune idee apparentemente bizzarre
come la varianza del tempo e la curvatura dello spazio nella teoria della relatività, o la funzione
d'onda di probabilità delle particelle in meccanica quantistica. Anche la biologia si è sbarazzata
della speciale forza vitale la cui esistenza veniva presunta dai primi biologi, rivelando invece
elaborati sistemi di piccole ed invisibili macchine molecolari. Le idee evolutesi per essere vere (o
vicine alla verità) si sono trasformate più e più volte fino a sembrare false o incomprensibili. La
verità e l'apparenza di verità si sono trasformate fino a diventare diverse come lo sono automobili e
frigoriferi.

Le idee nelle scienze fisiche si sono evolute sotto varie regole selettive di base. In primo luogo, gli
scienziati non prestano attenzione alle idee che mancano di conseguenze verificabili; essi evitano
così che le loro teste restino ingombrate da parassiti inutili. In secondo luogo, gli scienziati cercano
dei sostituti per le idee che non hanno superato le verifiche sperimentali. E per finire, gli scienziati
cercano idee in grado di produrre l'insieme più ampio possibile di predizioni esatte. La legge di
gravità, per esempio, descrive come cadono le pietre, come orbitano i pianeti, e come vorticano le
galassie, producendo predizioni talmente esatte da lasciare ampio margine per la loro confutazione.
La ampiezza e la precisione della legge di gravità, allo stesso modo, le conferiscono una
utilizzabilità ampia, ed aiutano gli ingegneri tanto a progettare ponti quanto a pianificare voli
spaziali.

La comunità scientifica fornisce un ambiente dove tali memi possono diffondersi, spronati dalla
competizione e sottoposti ad verifica sperimentale in grado di farli evolvere verso caratteristiche di
potenza ed accuratezza. L'accordo sull'importanza della verifica sperimentale delle teorie, tiene
unita la comunità scientifica durante le feroci controversie riguardanti le teorie stesse.

Una prova inesatta e limitata non può mai dimostrare una teoria esatta e generale (come ha ben
mostrato Hume), ma può confutare altre teorie generali, e così facendo può aiutare gli scienziati a
scegliere fra queste. Come altri processi evolutivi, la scienza crea qualcosa di positivo (un crescente
accumulo di teorie proficue) attraverso un doppio negativo (provare la falsità delle teorie
incorrette). Il ruolo centrale della prova negativa tiene conto di alcune rivoluzioni mentali indotte
dalla scienza: come meccanismo di confutazione, la scienza può sradicare credenze ben nutrite,
lasciando vuoti psicologici che non ha affatto necessità di riempire nuovamente.

In termini pratici, ovviamente, molta conoscenza scientifica è solida come un sasso cascatovi
sull'alluce. Sappiamo che la Terra gira attorno al Sole (nonostante i nostri sensi ci suggeriscano
altrimenti) poiché la teoria si adatta alle innumerevoli osservazioni e perché sappiamo che i nostri
sensi vengono ingannati. Abbiamo ben più di una semplice teoria dell'esistenza degli atomi: li
abbiamo legati assieme per formare molecole, sollecitato l'emissione di luce da essi, ed infine li
abbiamo osservati al microscopio (seppur a malapena) e persino distrutti in pezzi. Abbiamo ben più
di una semplice teoria dell'evoluzione: abbiamo osservato mutazioni, osservato la selezione, e
osservato l'evoluzione in laboratorio. Abbiamo trovato le tracce dell'evoluzione passata nelle rocce
del nostro pianeta, ed osservato l'evoluzione modellare i nostri strumenti, le nostre menti, e le idee
nelle nostre menti, inclusa la stessa idea di evoluzione. Il processo della scienza ha elaborato una
spiegazione unificata di molti fatti, incluso il modo in cui la scienza e la gente stessa siano arrivate
ad esistere.

Quando la scienza ha finito di confutare le teorie relative ad un certo fatto, quelle sopravvissute
spesso si scoprono essere talmente addossate l'una vicina all'altra che le distanze fra loro non fanno
alcuna differenza pratica(5). Dopo tutto, se ci fosse una differenza pratica fra due teorie
sopravvissute, questa differenza potrebbe essere sperimentalmente messa alla prova ed usata per
confutare una delle due teorie. Le differenze fra le moderne teorie della gravitazione, per esempio,
sono di gran lunga troppo sottili per preoccupare gli ingegneri impegnati nel progetto di voli
attraverso i campi gravitazionali dello spazio. Infatti, gli ingegneri pianificano i voli spaziali
utilizzando ancora la ormai confutata teoria di Newton, perché è più semplice di quella di Einstein,
e resta comunque abbastanza accurata per questo scopo. La teoria della gravitazione di Einstein è
analogamente sopravvissuta a tutte le verifiche, per quanto non ci sia una prova assoluta per essa e
mai ci sarà. La sua teoria produce predizioni esatte riguardo ogni cosa e dovunque (quanto meno
riguardo alle questioni di gravitazione), ma gli scienziati possono eseguire solo approssimate misure
riguardanti qualche cosa e qualche luogo. E, come Karl Popper fa notare, uno può sempre inventare
una teoria così simile ad un'altra che le evidenze esistenti non possono permettere di scartarla(6).

Nonostante certi dibattiti condotti sui media evidenzino l'esistenza di incertezze e disaccordi che
ricadono su questioni ai confini della conoscenza, resta chiaro il potere della scienza di costruire
accordo. In che altro ambito c'è una così grande crescita di concordia, così costante e così
internazionale? Sicuramente non in politica, o nella religione, o nell'arte. Infatti, il principale rivale
della scienza è un suo parente: l'ingegneria, che evolve anch'essa attraverso proposte e verifiche
rigorose.

Scienza contro Tecnologia

Nelle parole del direttore di ricerca IBM, Ralph E. Gomory, "L'evoluzione dello sviluppo
tecnologico viene spesso confusa con la scienza nella mente del pubblico(7)". Questa confusione
getta scompiglio sui nostri sforzi per la previsione.

Nonostante gli ingegneri si avventurino spesso su terreni incerti, non sono così obbligati a farlo
quanto invece lo sono gli scienziati. Essi possono sfuggire ai rischi implicati dalla proposta di teorie
scientifiche universali e precise. Gli ingegneri necessitano soltanto di dimostrare che sotto certe
particolari condizioni, certi particolari oggetti funzionano abbastanza bene. Un ingegnere non ha
bisogno di conoscere l'esatta tensione a cui è sottoposto il cavo di sospensione di un ponte, e
nemmeno l'esatta tensione che lo romperà; il cavo reggerà il ponte fino a che la prima delle due
tensioni, qualunque sia il suo valore, rimarrà inferiore alla seconda.

Nonostante delle misurazioni non possano provare una eguaglianza precisa, possono comunque
provare delle diseguaglianze. I risultati degli ingegneri possono perciò possedere una solidità a cui
le teorie scientifiche precise non possono aspirare. I risultati degli ingegneri possono anche
sopravvivere alle successive confutazioni delle teorie scientifiche che li supportano, quando la
nuova teoria fornisca risultati piuttosto simili. Il caso degli assemblatori, per esempio, sopravviverà
ad ogni successivo raffinamento delle nostre teorie della meccanica quantistica e dei legami
molecolari.

A rigor di logica, prevedere il contenuto delle nuove conoscenze scientifiche è impossibile, perché
non ha senso dichiarare di conoscere già i fatti che si impareranno solo in futuro. Prevedere i
dettagli delle tecnologie future, d'altra parte, è semplicemente un compito difficile. La scienza mira
a conoscere, ma l'ingegneria mira a fare, e ciò consente agli ingegneri di parlare delle conquiste
future senza paradosso. Essi possono evolvere il loro hardware nel mondo della mente e della
computazione, prima ancora di iniziare ad intagliare il metallo o persino prima di aver riempito il
progetto di tutti i dettagli necessari.

Gli scienziati comunemente riconoscono questa differenza fra previsione scientifica e previsione
tecnologica: essi avanzano prontamente delle previsioni tecnologiche riguardo la scienza. Gli
scienziati per esempio erano in grado di prevedere, come hanno effettivamente fatto, la qualità
tecnica delle immagini degli anelli di Saturno prese dal Voyager, ma non il loro sorprendente
contenuto. Infatti, essi previdero la qualità delle immagini mentre telecamere e fotocamere erano
ancora delle semplici idee e bozze progettuali. I loro calcoli utilizzarono principi di ottica oramai
ben dimostrati, senza coinvolgere nessuna nuova scienza.

Poiché la scienza mira a comprendere come ogni cosa funzioni, l'addestramento scientifico può
essere di grande aiuto nella comprensione di specifici pezzi di hardware. Tuttavia, ciò non crea
automaticamente ingegneri esperti; progettare un aereo di linea richiede molto più che una
conoscenza delle scienze della metallurgia e della aereodinamica.

Gli scienziati sono stimolati dai loro colleghi ed indotti dal loro addestramento a focalizzare
l'attenzione su idee che possono essere sottoposte a verifica per mezzo degli apparati disponibili. Ne
risulta una attenzione su temi a breve termine, spesso idonei ad assolvere bene gli scopi della
scienza: questa attenzione tiene alla larga gli scienziati dal vagare sterilmente in mondi nebulosi di
fantasie non verificate ed accelera l'attuazione di verifiche sperimentali utili per costruire un
efficiente sistema immunitario mentale. Sfortunatamente, tuttavia, questa preferenza culturale verso
verifiche di breve termine può far si che gli scienziati siano meno interessati ai progressi tecnologici
di lungo termine.

L'impossibilità di una previsione genuina riguardo la scienza conduce molti scienziati a considerare
tutte le affermazioni riguardo gli sviluppi futuri come "speculative", un termine che ha
perfettamente senso quando applicato al futuro della scienza, ma poco senso quando applicato alle
proiezioni ben fondate sul terreno della tecnologia. Tuttavia la maggior parte degli ingegneri
condivide una propensione analoga verso il breve termine. Essi sono troppo condizionati dal loro
addestramento, nonché spronati dai loro colleghi e datori di lavoro, a focalizzarsi su un'unica
tipologia di problema e cioè il progetto di un sistema che possa essere realizzato con la tecnologia
presente o con tecnologie appena dietro l'angolo. Persino per progetti di ingegneria a lungo termine,
come ad esempio lo space shuttle, sono costretti ad imporre una data tecnologicamente limitante,
superata la quale nessun nuovo sviluppo tecnologico può divenire parte del progetto del sistema.

In breve, gli scienziati si rifiutano di fare previsioni sulla conoscenza scientifica futura, e raramente
discutono gli sviluppi futuri dell'ingegneria. Gli ingegneri fanno proiezioni degli sviluppi futuri, ma
raramente discutono qualsiasi capacità non basata su quelle presenti. Tuttavia questo lascia un vuoto
cruciale: che ne è che degli sviluppi ingegneristici futuri solidamente basati sulla scienza presente
ma in attesa di abilità ingegneristiche future? Questo vuoto lascia scoperta una proficua area di
studio.

Immaginate una linea di sviluppo che coinvolga sia l'impiego di strumenti già esistenti per
costruirne di nuovi, che l'impiego di questi nuovi strumenti per costruire hardware inedito (in cui sia
eventualmente inclusa una ulteriore nuova generazione di strumenti). Ogni insieme di strumenti può
basarsi su principi ben stabiliti e tuttavia l'intera sequenza di sviluppo può richiedere molti anni
poiché ogni passo comporta un vasto insieme di problemi specifici da appianare. Gli scienziati che
pianificano il loro prossimo esperimento e gli ingegneri che progettano il loro prossimo dispositivo,
potrebbero ben ignorare tutto eccetto che il primo passo. E ciò nonostante, il risultato finale
potrebbe ugualmente risultare prevedibile, se ricade entro l'area delimitata dai confini del possibile
ampiamente dimostrati da quella parte di conoscenza scientifica già ben consolidata.

La storia recente può illustrare questa situazione in modo esplicito. Ben pochi ingegneri presero in
considerazione la costruzione di stazioni spaziali quando ancora nessun razzo era mai entrato in
orbita, sebbene i principi su cui esse si basano erano già allora sufficientemente chiari, e tuttavia
l'ingegneria dei sistemi spaziali è oggi un campo fiorente. Analogamente, pochi matematici ed
ingegneri studiarono le possibilità della computazione automatica fino a che non furono costruiti i
primi computer, ma molti lo fecero in seguito. Non è perciò così sorprendente che pochi scienziati
ed ingegneri abbiano finora esaminato il futuro della nanotecnologia, per quanto importante essa
possa diventare.

La Lezione di Leonardo

I tentativi di proiettare gli sviluppi ingegneristici hanno una lunga storia, e gli esempi del passato
ne illustrano le possibilità presenti. Per esempio, come fece Leonardo da Vinci a riuscire in così
gran misura nella previsione tecnologica e perché in qualche caso ha fallito?

Leonardo visse cinque secoli fa, lungo un periodo di tempo che vide anche la scoperta del Nuovo
Mondo. Produsse delle proiezioni in forma di disegni ed invenzioni; ogni suo progetto potrebbe
essere inteso come una proiezione di qualcosa che con tutta probabilità si potrebbe rendere
funzionante. Riuscì bene come ingegnere meccanico: progettò dispositivi funzionanti (alcuni dei
quali non sarebbero stati costruiti che secoli dopo) per escavatrici, lavorazione di metalli,
trasmissione di potenza meccanica ed altri scopi. Fallì come ingegnere aereo: oggi sappiamo che le
sue macchine volanti non potrebbero mai funzionare se costruite secondo le sue descrizioni.
I suoi successi come progettista di macchine sono facilmente comprensibili. Se le parti costituenti
possono realizzarsi con sufficiente accuratezza e con materiali sufficientemente forti e resistenti, il
progetto di macchine dai movimenti lenti ed esclusivamente composte da leve, pulegge e cuscinetti
rotanti, diviene un mero problema di geometria e teoria delle leve. Leonardo riuscì a comprendere
questo piuttosto bene. Alcune delle sue "predizioni" erano di ampia portata, ma solo perché
passarono molti anni prima che la gente imparasse a fabbricare parti sufficientemente precise,
sufficientemente resistenti e sufficientemente forti da servire (per esempio) come buoni cuscinetti a
sfera, il cui impiego infatti non giunse che circa trecento anni dopo che Leonardo li ebbe proposti.
Analogamente, non fu possibile realizzare ingranaggi con dentature cicloidali di prim'ordine per
quasi due secoli, dopo che Leonardo li ebbe disegnati, ed uno dei suoi progetti con "catene di
guida" non venne costruito prima che passassero quasi tre secoli.

I suoi fallimenti con i velivoli sono altrettanto facili da comprendere. Poiché a Leonardo mancava
una scienza della aereodinamica non poté calcolare le forze agenti sulle ali e nemmeno poté
conoscere i requisiti per la spinta e il controllo del velivolo.

La gente del nostro tempo, può sperare di produrre delle proiezioni riguardanti le macchine
molecolari altrettanto accurate di quelle sulle macchine di metallo prodotte all'epoca da Leonardo
da Vinci? Possiamo evitare di incorrere in errori analoghi a quelli presenti nei suoi progetti per la
costruzione di macchine volanti? L'esempio di Leonardo suggerisce che possiamo farlo. Potrebbe
aiutarci ricordare che Leonardo stesso probabilmente non confidava nelle sue macchine aeree, e che
i suoi errori, nonostante tutto, contenevano un germe di verità. Aveva ragione a credere che
macchine volanti di qualche tipo fossero possibili, ed infatti ne poteva essere assolutamente certo
poiché queste esistevano già. Uccelli, pipistrelli ed api dimostravano la possibilità del volo. Inoltre,
nonostante non ci fossero esempi funzionanti dei suoi cuscinetti a sfera, o delle sue ruote dentate e
delle sue catene di guida, poteva avere fiducia nei principi su cui si basavano. Menti abilissime
avevano già costruito un esteso corpo di conoscenza a fondamento della geometria e delle leggi
delle leve meccaniche. Sebbene alle parti di cui Leonardo necessitava dovessero richiedersi una
forza ed una accuratezza tali che potrebbero aver suscitato in lui alcuni dubbi, non altrettanto si può
dire delle loro interrelazioni riguardanti funzione e movimento(8). Leonardo fu in grado di proporre
macchine che richiedevano parti migliori di quelle note a qualsiasi suo contemporaneo, e tuttavia
poté nutrire un certo grado di fiducia nella validità del loro progetto.

Le proposte di tecnologie molecolari, allo stesso modo, si poggiano su vaste fondamenta di


conoscenza, non solo geometria e teoria delle leve ma anche conoscenze riguardanti i legami
chimici, la meccanica statistica e la fisica in generale. Questa volta, tuttavia, i problemi delle
proprietà materiali e della accuratezza di fabbricazione non emergono in maniera separata. Le
proprietà degli atomi e dei legami chimici sono le proprietà materiali, e gli atomi si presentano
prefabbricati e perfettamente standardizzati. Per cui, sembra proprio che siamo meglio preparati alla
previsione di quanto lo fosse la gente al tempo di Leonardo: sappiamo molto più sulle molecole e
sul controllo dei legami chimici di quanto essi conoscessero sull'acciaio e la fabbricazione di parti
meccaniche di precisione. In aggiunta a ciò, possiamo osservare le nanomacchine che già esistono
nelle cellule, esattamente come Leonardo poté osservare le macchine (uccelli) che già volavano in
cielo.

La produzione di proiezioni riguardanti il modo in cui si potrebbe costruire la seconda generazione


di nanomacchine a partire dalle macchine proteiche è sicuramente più semplice di quanto fosse
all'epoca produrre proiezioni sul modo in cui delle precise macchine d'acciaio potessero realizzarsi a
partire dalle ben più rudimentali macchine del tempo di Leonardo. Imparare ad usare macchine
rudimentali per costruirne di più precise richiedeva l'impiego di molto tempo, ed i metodi per farlo
erano tutt'altro che ovvi. Le macchine molecolari, al contrario, saranno costruite a partire da parti
atomiche prefabbricate e fra loro identiche, che necessitano solo di essere assemblate assieme. La
fabbricazione di macchine precise con ingranaggi curvi ed irregolari deve essere stata ben più
difficile da immaginare di quanto sia ora immaginare l'assemblaggio molecolare. E d'altra parte,
sappiamo che l'assemblaggio molecolare è qualcosa che si verifica continuamente in natura. Per
confidare sulle nostre proiezioni, ancora una volta poggiamo su un terreno più solido di quello su
cui si poggiava Leonardo.

Ai tempi di Leonardo, la gente aveva scarse conoscenze di elettricità e magnetismo, e non


conosceva nulla delle molecole e della meccanica quantistica. Di conseguenza, luci elettriche, radio
e computer avrebbero sconcertato le persone di quei tempi. Oggi invece le leggi di base più
importanti per l'ingegneria, ossia quelle che descrivono la normale materia, sembrano ben
comprese. Come con le teorie gravitazionali sopravvissute, i meccanismi scientifici della
confutazione hanno forzato la sopravvivenza delle sole teorie della materia su cui esiste uno stretto
consenso generale.

Tale conoscenza è recente. Prima di questo secolo la gente non capiva ancora perché i solidi
fossero solidi o perché il Sole splendesse. Gli scienziati non comprendevano le leggi che governano
la materia nell'ordinario mondo di molecole, persone, pianeti e stelle. Questo è il motivo per cui il
nostro secolo ha generato tutte assieme cose come i transistor e le bombe ad idrogeno, ed al
contempo il motivo per cui le tecnologie molecolari cominciano a delinearsi all'orizzonte. Questa
conoscenza è accompagnata da nuove speranze e nuovi pericoli, ma almeno ci fornisce i mezzi per
vedere entrambi in anticipo e per prepararci ad essi.

Quando siano note le leggi alla base di una tecnologia, le possibilità future possono essere previste
(sebbene con qualche lacuna, altrimenti Leonardo avrebbe previsto i computer meccanici). Persino
quando le leggi di base siano scarsamente conosciute, come lo erano i principi della aereodinamica
al tempo di Leonardo, la natura può comunque dimostrare delle possibilità. Infine, quando sia la
scienza che la natura evidenzino una possibilità, dovremmo prendere a cuore tale possibilità e
produrre piani in conseguenza.

Il Passo Avanti degli Assemblatori

I fondamenti della scienza possono evolvere e modificarsi, tuttavia continueranno a sostenere un


edificio stabile e crescente di pragmatica conoscenza ingegneristica. Alla fine, gli assemblatori
permetteranno agli ingegneri di fabbricare qualsiasi cosa possa essere progettata, scavalcando i
tradizionali problemi riguardanti i materiali disponibili e i metodi di fabbricazione. Già adesso,
approssimazioni e modelli computerizzati permettono agli ingegneri di evolvere progetti anche in
assenza degli strumenti richiesti per implementarli (9). Tutto ciò contribuirà a rendere possibile la
previsione, e non solo.

Al progredire della nanotecnologia, giungeranno tempi in cui gli assemblatori cominceranno a


delinearsi come una prospettiva imminente, sostenuta da seri e ben finanziati programmi di
sviluppo. Le loro capacità, da ipotetiche quali sono, diverranno ben chiare.

Per allora i sistemi di progettazione molecolare assistita dal computer, che già oggi iniziano a
comparire, saranno diventati comuni e sofisticati grazie alla spinta impressa loro dai progressi nelle
tecnologie dei computer e dalle crescenti necessità degli ingegneri molecolari(10). Utilizzando
questi strumenti di progetto, gli ingegneri saranno in grado di progettare i nanosistemi di seconda
generazione, inclusi gli assemblatori di seconda generazione che dovranno costruire tali
nanosistemi. Inoltre, lasciando margini abbastanza ampi per tener conto di inaccuratezze (e
preparando progetti alternativi), gli ingegneri saranno in grado di progettare molti sistemi che
funzioneranno subito, ossia appena costruiti per la prima volta. Gli ingegneri avranno evoluto
progetti fondati in un mondo di molecole simulate.

Consideriamo la forza di questa situazione: in fase di sviluppo ci saranno i più grandi utensili della
storia, un autentico sistema di fabbricazione generale capace di costruire qualsiasi cosa si possa
progettare - e per di più un sistema di progettazione che può stare in un'unica mano. C'è qualcuno
che attenderebbe fino all'apparire degli assemblatori prima di iniziare a pianificare sui modi di
utilizzarli? O le compagnie aziendali e le nazioni risponderanno alla pressione esercitata dalla
presenza di nuove opportunità e nuove competizioni progettando in anticipo dei nanosistemi, al fine
di accelerare lo sfruttamento degli assemblatori non appena questi arrivino?

Pare certo che questo processo di progettazione anticipata (11) si verificherà; il solo interrogativo
residuo è quando partirà e quanto andrà lontano. Anni di tranquillo progresso progettuale
potrebbero erompere, all'alba del passo avanti tecnologico degli assemblatori, nell'apparizione di
nuovo hardware con una repentinità senza precedenti. Quanto bene progetteremo in anticipo e che
cosa progetteremo, potrebbero determinare se sapremo sopravvivere e prosperare, o se
cancelleremo noi stessi.

Poiché il passo avanti tecnologico degli assemblatori influenzerà quasi l'intero corpo della
tecnologia, la sua previsione è un compito enorme. Dell'universo dei possibili dispositivi meccanici,
Leonardo poté prevederne solo qualcuno. Analogamente, del ben più vasto universo delle
tecnologie future, le menti moderne possono prevederne poche. Ma anche la visione anticipata di
qualche progresso, sembra comunque essere di basilare importanza.

Tecnologia medica, frontiera spaziale, computer avanzati, e nuove invenzioni sul piano sociale,
promettono tutte di giocare ruoli interdipendenti. Ma il rivoluzionario passo avanti degli
assemblatori influenzerà tutte queste cose, e molte altre.

Parte Seconda: I PROFILI DEL POSSIBILE

Capitolo 4: Motori di abbondanza


Capitolo 5: Macchine pensanti
Capitolo 6: Il mondo oltre la Terra
Capitolo 7: Motori di guarigione
Capitolo 8: Longevità in un mondo aperto
Capitolo 9:Una porta sul futuro
Capitolo 10: I limiti dello sviluppo

----------

Capitolo 4: Motori di abbondanza

Replicatori Sferraglianti
Replicatori Molecolari
Molecole e Grattacieli

Se ogni strumento, quando gli viene ordinato o di sua spontanea volontà, potesse fare il lavoro che
gli si addice […], non ci sarebbe bisogno né di apprendisti che lavorino per gli artigiani, né di
schiavi per i signori.(1)
- ARISTOTELE

Il 27 marzo 1981, il radiogiornale CBS citò uno scienziato NASA (2) come autore
dell'affermazione secondo la quale gli ingegneri sarebbero stati in grado di costruire robot auto-
replicanti entro venti anni, per impiego terrestre e spaziale. Queste macchine avrebbero costruito
copie di se stesse, e le copie sarebbero state programmate per fabbricare prodotti utilizzabili. Egli
non aveva dubbi sulle loro possibilità, se solo e quando fossero stati costruiti. Aveva, in certa
misura, ragione.

Fin dal 1951, quando John von Neumann tracciò i principi delle macchine auto-replicanti, gli
scienziati si sono trovati generalmente concordi sulle loro possibilità. Nel 1953 Watson e Crick
descrissero la struttura del DNA, che mostrava come le cose viventi siano dotate delle istruzioni che
guidano la loro stessa costruzione. I biologi, da allora, hanno imparato sempre maggiori dettagli sui
modi in cui funziona il macchinario molecolare auto-replicante delle cellule. Hanno scoperto che
esso segue gli stessi principi che von Neumann tracciò. Così come gli uccelli mostrano la possibilità
del volo, così la vita in generale dimostra la possibilità di auto-replicazione, almeno per i sistemi di
macchine molecolari. Lo scienziato della NASA, comunque, aveva in mente qualcos'altro.

Replicatori Sferraglianti

I replicatori biologici, come i virus, i batteri, le piante e le persone (3), utilizzano macchine
molecolari. I replicatori artificiali, possono invece usare la tecnologia di mole. Poiché attualmente
noi abbiamo solo la tecnologia di mole, gli ingegneri potrebbero usarla per costruire replicatori
prima dell'avvento della tecnologia molecolare.

L'antico mito di una magica forza vitale (associata con le erronee interpretazioni dell'entropia
secondo cui il suo incremento significa che tutto nell'universo debba costantemente degenerare) ha
diffuso un meme che afferma che i replicatori dovrebbero violare qualche legge naturale.
Semplicemente non è così. I biochimici comprendono come si replicano le cellule e non trovano
nulla di magico in esse. Infatti essi vi vedono macchine adeguatamente approvvigionate di tutto il
materiale, l'energia e le istruzioni necessarie per svolgere il compito di replicazione. Le cellule si
replicano; i robot potrebbero replicarsi.

Progressi nell'automazione condurranno in modo naturale verso replicatori meccanici, siano o


meno fabbricati per uno specifico fine. Al crescere della pressione competitiva, crescerà
l'automazione, e si ridurrà la necessità di lavoro umano nelle fabbriche. La Fujitsu Fanuc (4) fa già
funzionare un reparto meccanizzato, all'interno di un suo impianto di fabbricazione, per ventiquattro
ore al giorno e con solo dicianove operai sul campo durante il giorno e nessuno durante la notte.
Questa fabbrica produce 250 macchine al mese, delle quali 100 sono robot.

Nel caso più estremo, i robot potrebbero svolgere tutto il lavoro di assemblaggio necessario per la
costruzione di altri robot, nonché assemblare anche altro equipaggiamento, produrne le parti
necessarie, occuparsi di far funzionare le miniere e i generatori che riforniscono le differenti
fabbriche di materiali ed energia, e così via. Nonostante una tale rete di fabbriche disseminate su
tutto il paesaggio non assomiglierebbe ad un robot "in cinta", essa dovrebbe costituire un sistema
auto-sviluppato ed auto-replicante. Il passo avanti tecnologico degli assemblatori, di certo giungerà
ben prima che si realizzi una completa automazione dell'industria, nonostante che la tendenza
moderna si muova verso una sorta di gigantesco e sferragliante replicatore unico.

Ma come può un sistema simile sostenersi e ripararsi senza intervento umano?

Immaginiamo una fabbrica automatica capace sia di testare le parti componenti, sia di assemblarle
in equipaggiamenti completi. Le parti difettose non superano i collaudi e vengono gettate o riciclate.
Se la fabbrica può anche prendere temporaneamente da parte intere macchine, le riparazioni sono
facili: semplicemente basta disassemblare le macchine difettose, collaudare tutte le loro parti,
sostituire ogni parte logora o rotta, e riassemblarle. Un sistema ancora più efficiente potrebbe
persino diagnosticare i problemi senza dover collaudare tutte le singole parti, sebbene tale
funzionalità non sia strettamente necessaria.

Un sistema di fabbriche capace di auto-diffondersi, e gestito da robot, funzionerebbe ma sarebbe


ingombrante. Utilizzando una progettazione più ingegnosa ed il numero minimo di differenti parti e
materiali, gli ingegneri possono adattare un sistema replicante affinché stia in una singola scatola;
ma la scatola potrebbe ancora essere immensa poiché deve contenere equipaggiamento capace di
produrre e assemblare assieme molte differenti parti. Quante differenti parti? Tante quante ne
contiene esso stesso. Quante differenti parti e materiali sarebbero necessarie per costruire una
macchina in grado di lavorare ed assemblare così tanti differenti materiali e parti? Difficile da
stimare, ma i sistemi basati sulla tecnologia odierna utilizzerebbero quanto meno dei chip
elettronici. Costruirli da se richiede fin troppo equipaggiamento da mettere in pancia ad un piccolo
replicatore.

I conigli si replicano, ma essi richiedono parti prefabbricate come, per esempio, molecole di
vitamine. Prendere queste parti dal cibo permette loro di sopravvivere con meno macchinario
molecolare di quello che gli occorrerebbe se dovessero fabbricarsi da zero ogni cosa di cui
necessitano. Analogamente, un replicatore meccanico che usi chip prefabbricati potrebbe essere
realizzato, in qualche modo, più semplicemente di uno che costruisca da se tutto ciò che gli occorre.
I suoi peculiari requisiti "dietetici" lo vincolerebbero anche ad una più vasta "ecologia" di
macchine, aiutandoci così a tenerlo a freno. Gli ingegneri, in studi commissionati dalla NASA,
hanno proposto di usare nello spazio questo tipo di semi-replicatori, consentendo all'industria
spaziale di espandersi con solo un piccolo apporto di parti sofisticate costantemente rifornite dalla
Terra.

Tuttavia, poiché i replicatori realizzati in tecnologia di mole devono eseguire un assemblaggio


delle loro parti, essi devono contenere sia parti per costruire i componenti di base, sia parti per il
loro assemblaggio finale. Questo evidenzia un vantaggio dei replicatori molecolari: i loro
componenti di base sono atomi e gli atomi si trovano già pronti.

Replicatori Molecolari

Le cellule si replicano. Le loro macchine copiano il loro DNA, il quale dirige il macchinario
ribosomico verso la costruzione di altre macchine a partire da molecole più semplici. Queste
macchine e molecole sono contenute in una sacca riempita di liquido. La sua membrana fornisce
carburante alle molecole e parti per la costruzione di ulteriori nanomacchine, DNA, membrane, e
così via. La membrana permette la fuoriuscita del carburante esaurito e dei frammenti residui dei
componenti. Una cellula si replica copiando le parti interne alla sacca delimitata dalla membrana,
disponendole in due raggruppamenti, e quindi strozzando la sacca in due parti. I replicatori
artificiali potrebbero essere costruiti per lavorare in maniera simile, ma utilizzando assemblatori
invece di ribosomi. In questo modo, potremmo costruire replicatori simili a quelli delle cellule, che
non siano però limitati a macchinario molecolare realizzato con i delicati ed elusivi ripiegamenti
spaziali delle molecole proteiche.

Ma gli ingegneri sembrano più inclini a sviluppare altri approcci alla replicazione. L'evoluzione
non ha nessuna facile maniera di alterare gli schemi fondamentali della cellula, e questi schemi non
sono immuni da qualche inefficienza. Nelle sinapsi, per esempio, le cellule del cervello inviano
segnalazioni alle loro vicine tramite lo svuotamento di vesciche piene di molecole chimiche. Le
molecole si urtano l'una con l'altra, fuori dalla vescica, fino a legarsi a molecole-sensori delle cellule
vicine, talvolta attivando su queste la generazione di un impulso neurale. Una sinapsi chimica
costituisce un commutatore di segnale piuttosto lento, e gli impulsi neurali si propagano più
lentamente del suono. Con gli assemblatori, gli ingegneri molecolari costruiranno interi computer
più piccoli di una sinapsi ed un milione di volte più veloci.

Mutazione e selezione non potrebbero trasformare una sinapsi in un nanocomputer meccanico più
di quanto un allevatore non possa trasformare un cavallo in una automobile. Nonostante questo, gli
ingegneri hanno costruito le automobili ed impareranno anche a costruire computer più veloci dei
cervelli, nonché replicatori più capaci delle cellule esistenti.

Alcuni di questi replicatori non somiglieranno affatto a cellule, quanto piuttosto a fabbriche(5)
miniaturizzate fino a dimensioni cellulari. Esse conterranno nanomacchine montate su impalcature
molecolari e nastri trasportatori per convogliare le parti da macchina a macchina. Esternamente esse
saranno dotate di un insieme di bracci assemblatori atti a costruire, una sezione o un atomo alla
volta, repliche di se stessi.

La velocità con cui questi replicatori potranno replicarsi dipenderà dalla loro velocità di
assemblaggio ma anche dalla loro dimensione. Immaginiamo un assemblatore avanzato che
contenga un milione di atomi: esso può avere anche dieci migliaia di parti mobili, ognuna
contenente in media un centinaio di atomi costituenti, ossia un numero di parti sufficiente a
comporre una macchina piuttosto complessa. Di fatto l'assemblatore stesso appare come una scatola
che supporta un tozzo braccio robotico lungo un centinaio di atomi. La scatola e il braccio
contengono dispositivi che muovono il braccio da posizione a posizione, ed altri dispositivi che
cambiano l'utensile molecolare sulla sua punta.

Dietro la scatola c'è un dispositivo che legge un nastro e fornisce segnali meccanici che attivano i
movimenti del braccio e le sostituzioni dell'utensile. Di fronte al braccio c'è una struttura non
terminata. I nastri trasportatori portano molecole al sistema assemblatore. Alcuni forniscono energia
ai motori che muovono il braccio e il lettore del nastro, ed altri forniscono gruppi di atomi per
l'assemblaggio. Atomo dopo atomo (o gruppo di atomi dopo gruppo di atomi), il braccio muove i
pezzi verso il posto giusto, in base alle direttive del nastro; quando i pezzi vengono a contatto con la
struttura, delle comuni reazioni chimiche legano assieme pezzo e struttura.

Questi assemblatori lavoreranno velocemente. Un enzima rapido (6), come l'anidrasi carbonica o
l'isomerasi chetosteroide, può processare quasi un milione di molecole per secondo, persino senza
disporre di trasportatori e nemmeno di meccanismi, alimentati da energia, in grado di posizionare
una nuova molecola al suo posto non appena una vecchia viene rilasciata. Potrebbe sembrare troppo
aspettarsi da un assemblatore che afferri una molecola, la muova, e la incolli al suo posto in un
semplice milionesimo di secondo. Ma appendici piccole possono muoversi avanti e indietro molto
rapidamente. Un braccio umano può agitarsi su e giù diverse volte per secondo, le dita possono
tamburellare anche più rapidamente, mentre una mosca può sventolare le sue ali abbastanza
velocemente da ronzare, ed una zanzara può produrre un frignare esasperante. Gli insetti possono
vibrare le proprie ali con frequenze di circa un migliaio di volte più grandi rispetto alle frequenze di
un braccio umano oscillante, perché l'ala di un insetto è circa mille volte più corta.

Il braccio di un assemblatore sarà circa cinquanta milioni di volte più corto di un braccio umano,
per cui (estrapolando in proporzione) saprà muoversi avanti e indietro circa cinquanta milioni di
volte più rapidamente (7). Per il braccio di un assemblatore muoversi solo un milione di volte per
secondo sarebbe come per un braccio umano muoversi una volta per minuto: ossia sarebbe
equivalente ad un movimento pigro. Quindi pare proprio che questa meta sia molto ragionevole.

La velocità di replicazione dipenderà anche dalla dimensione totale del sistema da costruire. Gli
assemblatori non si replicheranno da soli; avranno bisogno di materiali ed energia, ed istruzioni su
come usare queste cose. Ordinarie sostanze chimiche possono fornire materiali ed energia, ma
devono essere disponibili nanomacchine per processare entrambi. Le irregolarità di polimeri
molecolari sono adatte a fungere da memoria per l'immagazzinamento di informazioni, l'analogo di
un nastro di carta perforata, ma deve essere anche disponibile un lettore per tradurre gli schemi di
irregolarità del polimero in schemi di movimenti del braccio. Considerate tutte assieme, queste
parti, formano l'essenza del replicatore: il nastro fornisce istruzioni per assembrare una copia
dell'assemblatore, una copia del lettore, e copie di ulteriori nanomacchine e del nastro stesso (8).

Un progetto ragionevole per questo tipo di replicatori probabilmente includerà svariati bracci
assemblatori Nonché svariati bracci per spostare e mantenere in posizione i pezzi di lavoro. Ognuno
di questi bracci aggiungerà un altro milione di atomi o giù di lì. Le altre parti (lettori di nastri,
processori chimici, e così via) potrebbero anche avere lo stesso ordine di complessità
dell'assemblatore. Infine, un sistema replicatore flessibile probabilmente includerà anche un
semplice computer; se costruito seguendo l'approccio meccanico che ho menzionato nel capitolo 1,
il nanocomputer aggiungerà a questo conteggio all'incirca 100 milioni di atomi. Tutte assieme,
queste parti, totalizzeranno meno di 150 milioni di atomi. Assumiamo invece un totale di un
miliardo, per lasciare un largo margine di errore. Ignorare le capacità aggiuntive dei bracci di
assemblaggio addizionali ci lascia un margine ancora più grande. Lavorando ad un milione di atomi
per secondo, il sistema riuscirà comunque a copiare se stesso in un migliaio di secondi, una frazione
minuscola dei 15 minuti circa che, sotto buone condizioni, occorrono ad un batterio per replicarsi.

Immaginate un tale replicatore che fluttua in una bottiglia piena di sostanze chimiche, producendo
copie di se stesso. Esso costruisce una sua copia in mille secondi, e trentasei sue copie in dieci ore.
In una settimana accumulerà abbastanza copie da riempire il volume di una cellula umana. In un
secolo accumulerà abbastanza copie da produrre un rispettabile granello. Se questo fosse tutto
quello che i replicatori possono fare, forse potremmo trascurarli in tutta certezza.

Ogni copia, tuttavia, produrrà copie ulteriori. Così, se il primo assemblatore assembla una copia in
mille secondi, questi due replicatori ne costruiscono altri due nei successivi mille secondi, questi
quattro ne costruiscono altri quattro, ed i risultanti otto ne producono ancora altri otto. Alla fine
delle prime dieci ore non ci sono trentasei nuovi replicatori, ma oltre 68 milioni. In meno di un
giorno essi potrebbero pesare una tonnellata. In meno di due giorni supererebbero il peso della
Terra. In altre quattro ore potrebbero eccedere la massa del Sole e di tutti i pianeti messi assieme, se
non fosse che le sostanze chimiche della bottiglia si sono prosciugate già molto tempo prima.

Raddoppio regolare significa crescita esponenziale. I replicatori, in assenza di restrizioni, si


moltiplicano esponenzialmente fino a mancare di spazio o risorse. I batteri fanno proprio così, e
quasi allo stesso ritmo dei replicatori appena descritti. La gente si replica molto più lentamente e
tuttavia, con un sufficiente tempo a disposizione, potrebbe sovrastare ogni apporto finito di risorse.
Le preoccupazioni riguardo la crescita demografica non perderanno mai la loro importanza. Le
preoccupazioni riguardo il controllo della rapida crescita numerica di nuovi replicatori, diverranno
presto realmente importanti.

Molecole e Grattacieli

Macchine in grado di afferrare e posizionare individualmente gli atomi, saranno capaci di costruire
quasi qualunque cosa, legando chimicamente assieme gli atomi giusti negli schemi corretti, come
ho descritto alla fine del capitolo 1. Di sicuro, la costruzione di grandi oggetti, un atomo alla volta,
sarà lenta. Una mosca, dopo tutto, contiene circa un milione di atomi per ogni secondo trascorso da
quando i dinosauri erano giovani. Ciò nonostante, le macchine molecolari possono costruire oggetti
di dimensioni sostanziali, poiché esse, dopotutto, in natura costruiscono anche balene.

Per produrre grandi oggetti rapidamente, un immenso numero di assemblatori deve cooperare, e i
replicatori possono produrre assemblatori a tonnellate. Infatti, con la corretta progettazione, la
differenza fra un sistema assemblatore e un sistema replicatore starà interamente nella
programmazione dell'assemblatore.
Se un assemblatore-replicatore può copiare se stesso in mille secondi, allora può essere
programmato per costruire altrettanto rapidamente qualcos'altro che abbia la sua stessa dimensione.
Analogamente, una tonnellata di replicatori può rapidamente costruire una tonnellata di
qualcos'altro, ed il prodotto avrà tutti i suoi miliardi di miliardi di miliardi di atomi collocati al
giusto posto, con l'erroneo posizionamento soltanto di una loro minuscola frazione (9).

Per comprendere le capacità e i limiti di un metodo per assemblare grossi oggetti, immaginiamo
una lamina piatta ricoperta da piccoli bracci assemblatori, forse un esercito di replicatori
riprogrammati per un lavoro di costruzione e schierati in file ordinate. Dietro di loro, trasportatori e
canali di comunicazione li riforniscono di molecole reattive, di energia e di istruzioni per
l'assemblaggio. Se ogni braccio occupa una area larga 100 diametri atomici, dietro ogni
assemblatore ci sarà spazio per trasportatori e canali con un'area, in sezione, pari a 10.000 atomi.

E ciò sembra essere uno spazio sufficiente. Uno spazio largo dieci o venti atomi può contenere un
trasportatore (eventualmente basato su cinghie e carrucole molecolari). Un canale largo pochi atomi
può contenere un'asta molecolare che, come quelle dei computer meccanici descritti nel capitolo 1,
verrà spinta e tirata per trasmettere segnali. Tutti i bracci lavoreranno assieme per costruire una
struttura estesa e solida, livello dopo livello. Ogni braccio sarà responsabile per la sua propria area,
manipolando circa 10.000 atomi per livello. Una lamina di assemblatori che manipoli 1.000.000 di
atomi per secondo e per braccio, completerebbe circa 100 livelli atomici per ogni secondo. Sebbene
questo potrebbe apparire un sistema veloce, a questo ritmo impilare un sottile foglio di carta
richiederebbe un'ora, e per mettere su una piastra spessa un metro ci vorrebbe un anno.

Bracci più veloci potrebbero innalzare la velocità di assemblaggio fino a oltre un metro per giorno,
ma produrrebbero più calore. Se tali bracci potessero costruire uno spessore di un metro al giorno, il
calore sprigionato da un metro quadro potrebbe cuocere centinaia di bistecche
contemporaneamente, e probabilmente friggerebbe le macchine. A certe dimensioni e velocità, i
problemi di raffreddamento diventano un fattore limitante, ma ci sono altri modi per assemblare
oggetti più velocemente senza surriscaldare le macchine.

Immaginate di provare a costruire una casa incollando assieme singoli granelli di sabbia.
Aggiungere un livello di granelli potrebbe impegnare le macchine incolla-granelli così a lungo che
innalzare le pareti richiederebbe decadi. Ora immaginate che delle macchine in una fabbrica
abbiano precedentemente incollato assieme i granelli per farne mattoni. La fabbrica può lavorare su
molti mattoni alla volta. Con abbastanza macchine incolla-granelli, i mattoni verrebbero fuori
rapidamente. Gli assemblatori di mura potrebbero quindi costruirle rapidamente, mettendo uno
sull'altro i mattoni preassemblati. Analogamente, gli assemblatori molecolari lavorerebbero in
squadra con assemblatori più grandi, per costruire rapidamente oggetti grandi. Le macchine possono
essere di ogni dimensione, da molecolari a gigantesche. Con questo approccio la maggior parte del
calore di assemblaggio sarebbe dissipato lontano dal sito di lavoro, nella produzione delle singole
parti.

La costruzione di un grattacielo e l'architettura della vita suggeriscono modi correlati per costruire
grandi oggetti. Le grandi piante ed animali hanno dei sistemi vascolari, intricati canali che
trasportano materiali alle macchine molecolari che lavorano lungo tutti i loro tessuti. Analogamente,
dopo che impalcatori e rivettatori giungono a terminare lo scheletro di un grattacielo (il "sistema
vascolare" dell'edificio), i suoi elevatori e corridoi, aiutati dalle gru, convogliano ovunque, agli
operai nell'edificio, i necessari materiali da costruzione. Anche i sistemi di assemblaggio potrebbero
adottare questa strategia, mettendo su per prima cosa una impalcatura e quindi lavorando in tutto il
suo volume, incorporando mano a mano i materiali che vengono convogliati dall'esterno tramite dei
canali.

Immaginiamo che questo approccio venga usato per "far crescere" un grosso motore di razzo,
lavorando dentro una vasca di un impianto industriale. La vasca, fatta di acciaio scintillante e dotata
di una finestra di vetro a beneficio dei visitatori, si erge ben oltre l'altezza di una persona, poiché
deve contenere il motore una volta completato. Tubi e pompe la collegano ad altre attrezzature ed a
scambiatori di calore con sistema di raffreddamento ad acqua. Questa disposizione permette
all'operatore di far circolare all'interno della vasca una certa varietà di fluidi.

Per iniziare il processo, l'operatore cala giù dalla cima della vasca, fino al fondo, la base piatta sulla
quale il motore sarà costruito. La cima della vasca viene quindi sigillata. Alla pressione di un
bottone, le pompe inondano la camera con un denso fluido latteo che sommerge la base ed oscura la
finestra. Questo fluido proviene da un'altra vasca, nella quale si sono moltiplicati dei replicatori-
assemblatori e che in seguito sono stati riprogrammati facendo loro copiare e diffondere un nuovo
nastro di istruzioni (un po' come infettare dei batteri con un virus). Questi nuovi sistemi
assemblatori, più piccoli di batteri, diffondono la luce e danno al fluido un aspetto latteo. La loro
densa abbondanza rende invece viscoso il fluido.

Al centro della base piatta, immersa nel turbinio del fluido carico di assemblatori, c'è un "seme".
Esso contiene un nanocomputer con i piani del motore immagazzinati nella sua memoria, e la sua
superficie è costellata di fessure nelle quali gli assemblatori si impigliano. Quando un assemblatore
si impiglia in una di queste fessure, seme ed assemblatore si innestano assieme come se venissero
connessi da uno spinotto elettrico posto nella apposita presa, ed il computer del seme trasferisce
istruzioni al computer dell'assemblatore. Questa nuova programmazione spiega all'assemblatore
dove egli si trovi in relazione al seme, e lo dirige perché estenda i suoi bracci manipolatori per
catturare altri assemblatori. Anche questi altri si innesteranno all'insieme, e subiranno una analoga
riprogrammazione. Obbedendo alle istruzioni provenienti dal seme (che si diffondono lungo tutta la
rete in via di espansione degli intercomunicanti assemblatori) una sorta di reticolo cristallino di
assemblatori cresce pian piano dal caos del liquido. Poiché ogni assemblatore conosce la sua
posizione nel piano, egli cattura altri assemblatori dove questi siano necessari. Tutto ciò crea uno
schema meno regolare e più complesso di quello di qualunque cristallo naturale. Nel corso di poche
ore, l'impalcatura di assemblatori si sviluppa in accordo alla forma finale del motore per razzo
progettato.

A questo punto, le pompe della vasca ritornano in azione, rimpiazzando il fluido latteo di
assemblatori residui, quelli cioè che non si sono agganciati all'insieme, con una miscela pulente di
solventi organici e sostanze dissolte, inclusi composti d'alluminio, composti ricchi di ossigeno e
composti che servono come carburante per gli assemblatori. Mano a mano che il fluido si
schiarisce, la forma del motore per razzo diviene progressivamente visibile attraverso la finestra,
apparendo come fosse un modello in scala reale scolpito in una bianca plastica traslucida.
Successivamente, un messaggio diffuso dal seme dirige gli assemblatori designati perché rilascino i
loro vicini e ripieghino i loro bracci. Gli assemblatori rilasciati vengono trascinati fuori dalla
struttura in improvvisi rivoli biancastri, svelando un poroso reticolo di assemblatori attaccati sulla
superficie esterna del razzo, che ora hanno spazio sufficiente per lavorare. La forma del motore
nella vasca diventa progressivamente quasi trasparente, con un accenno di iridescenza.

Ogni assemblatore rimasto, nonostante sia ancora legato ai suoi vicini, ora è circondato da
minuscoli canali colmi di fluido. Bracci speciali sugli assemblatori funzionano come dei flagelli,
sferzando il fluido per farlo circolare attraverso i canali. Questi movimenti, come tutti gli altri
compiuti dagli assemblatori, sono generati da motori molecolari che usano le molecole nel fluido
come carburante. Come dello zucchero disciolto alimenta il lievito, così questi composti chimici
disciolti alimentano gli assemblatori. Il fluido che scorre apporta nuovo carburante e nuovi materiali
grezzi per la costruzione; scorrendo, porta via il calore prodotto. La rete di comunicazioni diffonde
istruzioni ad ogni assemblatore.

Gli assemblatori sono ora pronti per iniziare a costruire. Devono costruire un motore per razzo, che
consiste principalmente di condotte e pompe. Questo significa costruire strutture forti e leggere in
forme aggrovigliate, alcune capaci di sopportare calore intenso, alcune piene di tubi per trasportare
il fluido di raffreddamento. Dove è necessaria una grande forza, gli assemblatori si mettono al
lavoro per costruire bacchette di intricate fibre di carbonio nella sua forma diamantifera. Da queste,
essi costruiscono un reticolo confezionato su misura per essere in grado di sopportare lo schema di
sollecitazione atteso. Dove sia fondamentale una certa resistenza al calore ed alla corrosione (come
su molte superfici), essi costruiscono strutture simili con ossido di alluminio, nella sua forma di
zaffiro. Nelle zone in cui le sollecitazioni saranno lievi, gli assemblatori risparmiano massa
lasciando nel reticolo spazi vuoti più ampi. Nelle zone in cui le sollecitazioni saranno intense, gli
assemblatori rinforzano la struttura fino a che i passaggi rimanenti non diventano a malapena
spaziosi quanto basta per consentire il passaggio degli assemblatori. In qualche punto, gli
assemblatori depositano altri materiali per fabbricare sensori, computer, motori, solenoidi e
qualsiasi altra cosa necessaria.

Per terminare il loro lavoro, a questo punto, gli assemblatori costruiscono pareti per dividere gli
spazi residui nei canali in celle quasi sigillate, quindi si ritirano verso le ultime aperture e pompano
fuori il fluido interno. Sigillano le celle ora svuotate, e si ritirano completamente fluttuando via nel
fluido circolante. Infine, la vasca viene prosciugata, uno spray risciacqua il motore, il coperchio
viene sollevato e il motore finito viene issato fuori ad asciugarsi. La sua creazione ha richiesto
meno di un giorno e quasi nessuna attenzione umana.

A cosa assomiglia il razzo? Piuttosto che essere un massiccio blocco di metalli saldati e
imbullonati, è una cosa priva di cuciture, al pari di una gemma. Le sue vuote celle interne, disposte
in schiere distanziate di circa una lunghezza d'onda pari a quelle della luce visibile, provocano un
effetto collaterale: come piccole buche su un disco laser, le celle diffrangono la luce, determinando
una iridescenza mutevole simile a quella di un opale di fuoco. Questi spazi vuoti alleggeriscono
ulteriormente una struttura che è già composta dai più leggeri e più forti materiali conosciuti.
Confrontato con i moderni motori metallici, questo motore progredito ha oltre il 90 percento di
massa in meno.

Colpitelo con un dito ed esso risuonerà come un campanello dal tono sorprendentemente acuto,
considerata la sua dimensione. Montato su un veicolo spaziale di analoga costruzione, esso volerà
con disinvoltura dalla rampa di decollo allo spazio e viceversa. Sopporterà un utilizzo prolungato ed
intenso, poiché i suoi robusti materiali costituenti hanno permesso ai progettisti di incorporare in
esso margini di sicurezza più ampi. Poiché gli assemblatori hanno permesso ai progettisti di
conformare la sua struttura perché possa cedere leggermente prima di rompersi (smorzando le sue
incrinature in modo da arrestare la loro propagazione) il motore non sarà solo forte ma anche
resistente.

Nonostante tutta la sua eccellenza, questo motore è sostanzialmente piuttosto convenzionale. Ha


semplicemente sostituito il denso metallo con strutture accuratamente confezionate di atomi leggeri
e saldamente legati. Il prodotto finale non contiene alcuna nanomacchina.

Progettazioni molto più avanzate sfrutteranno la nanotecnologia molto più a fondo. Tali
progettazioni potrebbero lasciare un sistema vascolare residuo con lo scopo di approvvigionare
sistemi assemblatori e disassemblatori. Tali sistemi possono essere programmati per riparare le parti
usurate. Mano a mano che gli utilizzatori del motore lo approvvigioneranno di energia e materiali
grezzi, esso rinnoverà la propria struttura. Motori ancora più avanzati potrebbero essere,
letteralmente, ancora più flessibili. I motori di razzo lavorano meglio se assumono forme diverse
sotto condizioni operative diverse, ma gli ingegneri non possono rendere un blocco di metallo forte,
leggero e pieghevole. E tuttavia, con la nanotecnologia, una struttura più forte dell'acciaio è più
leggera del legno potrebbe cambiare forma come fosse un muscolo (funzionando realmente come
un muscolo (10), ossia sul principio dello slittamento di fibre). Un motore potrebbe quindi
espandersi, contrarsi e piegarsi allo scopo di fornire, sotto condizioni variabili, la spinta desiderata
nella direzione desiderata. Se dotato di assemblatori e disassemblatori adeguatamente programmati,
potrebbe persino rimodellare la sua struttura di base anche molto tempo dopo aver lasciato la vasca.

In breve, gli assemblatori replicatori copieranno se stessi a tonnellate, quindi fabbricheranno altri
prodotti come computer, motori per razzi, sedie e così via. Fabbricheranno anche disassemblatori
capaci di smantellare la roccia per fornire i materiali grezzi. Fabbricheranno collettori solari per
fornire energia. Nonostante saranno minuscoli, essi costruiranno in grande. In natura, squadre di
nanomacchine costruiscono balene, seminano macchine di replicazione e organizzano atomi in
immense strutture di cellulosa costruendo alberi di sequoia. Non c'è nulla di troppo sbalorditivo nel
far crescere un motore per razzo in una vasca appositamente preparata. Di fatto, se dessimo a dei
guardiaboschi gli opportuni "semi" assemblatori, essi potrebbero far crescere navi spaziali dal
suolo, dall'aria e dalla luce del sole.

Gli assemblatori saranno in grado di fabbricare potenzialmente qualunque cosa a partire da


materiali comuni, e senza lavoro, rimpiazzando le attuali fabbriche fumanti con sistemi puliti
quanto una foresta. Essi trasformeranno la tecnologia e l'economia alle loro radici, schiudendo un
nuovo mondo di possibilità. Essi saranno, di fatto, dei motori di abbondanza.

----------

Capitolo 5: Macchine pensanti

L'Intelligenza delle Macchine


L'Obiettivo di Turing
Motori di Progettazione
La Corsa IA
Siamo Abbastanza Svegli?
Accelerando la Corsa Tecnologica

Il mondo è sulla soglia di una seconda era dei computer. La nuova tecnologia si sta attualmente
spostando fuori dai laboratori, trasformando il computer da una macchina di calcolo fantasticamente
veloce ad un dispositivo che imita i processi di pensiero umani, e dotando la macchina della
capacità di ragionare, formulare giudizi e persino imparare. Questa "intelligenza artificiale" sta già
oggi svolgendo dei compiti per i quali un tempo si pensava fosse indispensabile l'intelligenza
umana…(1)
-BUSINESS WEEK

I computer sono usciti dai retrobottega e dai laboratori per aiutarci nella scrittura, nel calcolo e per
permetterci di giocare in case ed uffici. Queste macchine svolgono compiti semplici e ripetitivi, ma
le macchine che sono ancora dentro i laboratori sanno fare molto di più. I ricercatori che si
occupano di Intelligenza Artificiale sono convinti che si possa rendere più intelligenti i computer, e
sempre meno persone dissentono su questo. Per comprendere il nostro futuro dobbiamo capire se
l'Intelligenza Artificiale è impossibile tanto quanto poter volare fino alla Luna.

Le macchine pensanti non hanno bisogno di somigliare agli esseri umani nella forma esteriore,
negli scopi perseguiti o nelle capacità mentali. Infatti alcuni sistemi di Intelligenza Artificiale
mostreranno ben pochi tratti di capacità intelligenti simili a quelle di un laureato in lettere,
assolvendo invece il compito di potenti strumenti e "motori" di progettazione ingegneristica. Ciò
nonostante, comprendere come le menti umane evolvano a partire da materia senza mente, ci può
chiarire il modo in cui le macchine possano essere "fatte per pensare". La mente, come altre forme
di "ordine", evolve attraverso meccanismi di variazione e selezione.

Le menti agiscono. Non è necessario abbracciare il "comportamentismo Skinneriano" per vedere


l'importanza del comportamento, incluso il comportamento interiore che chiamiamo pensiero.
L'RNA che si replica in provetta mostra come l'idea di "scopo" si possa applicare (come una sorta di
scorciatoia descrittiva) a molecole assolutamente prive di mente. Esse sono prive di nervi e muscoli,
ma si sono evolute per "comportarsi" in modi che favoriscono la loro replicazione. Variazione e
selezione hanno modellato i semplici comportamenti di ogni singola molecola, sicché questi
comportamenti sono rimasti fissati per l'intera "vita" della molecola stessa.

Le molecole individuali di RNA non si adattano, ma i batteri possono farlo. La competizione ha


favorito quei batteri che si adattano ai cambiamenti, per esempio tramite aggiustamenti del loro mix
di enzimi digestivi in conformità al cibo disponibile. Tuttavia, questi meccanismi di adattamento
sono, in egual modo, fissati: le molecole di cibo fanno scattare degli interruttori genetici allo stesso
modo in cui l'aria fredda fa scattare un termostato.

Alcuni batteri usano anche una primitiva forma di guida per prove ed errori. I batteri di questo tipo
tendono a nuotare lungo linee rette e sono altresì dotati di abbastanza "memoria" per poter ricordare
se, mentre procedono, le condizioni stanno migliorando o peggiorando. Se avvertono che le
condizioni stanno migliorando, continuano ad andare dritti. Se avvertono che le condizioni stanno
diventando peggiori, si fermano, ruotano su se stessi, e si rimettono in moto lungo una direzione
scelta a caso che generalmente sarà differente dalla precedente. Essi sperimentano direzioni diverse,
favorendo quelle buone e scartando quelle cattive. E poiché questo comportamento li porta a vagare
verso zone con maggiori concentrazioni di molecole di cibo, essi hanno potuto prosperare.

Anche i vermi piatti sono privi di cervelli e tuttavia mostrano delle capacità di genuino
apprendimento. In un semplice labirinto a "T", possono imparare a scegliere il percorso corretto.
Provano a girare verso sinistra e provano a girare verso destra, e gradualmente selezionano il
comportamento o acquisiscono l'abitudine che produce il migliore risultato. Questo è un
meccanismo di selezione del comportamento basato sulle sue conseguenze, quello che gli psicologi
comportamentisti chiamano "la Legge dell'Effetto". L'evoluzione dei geni delle specie di vermi ha
prodotto vermi individuali con comportamento evolvente.

Tuttavia i vermi che hanno imparato a percorrere labirinti (e persino i piccioni degli esperimenti di
Skinner, i quali imparavano a beccare solo dopo che si fosse manifestato un lampo di luce verde),
non mostrano alcun segno della riflessiva intenzionalità che noi associamo alla mente. Gli
organismi che si adattano grazie al solo apprendimento per semplice Legge dell'Effetto, imparano
soltanto per tentativi ed errori, variando e selezionando il comportamento corrente; essi non
pensano né decidono a priori. Tuttavia la selezione naturale ha spesso favorito organismi che
potrebbero pensare, e pensare non rappresenta qualcosa di magico.

Come fa notare Daniel Dennett (2) della Tufts University, l'evoluzione dei geni può equipaggiare i
cervelli animali con modelli interni di come funziona il mondo (qualcosa di simile ai modelli nei
sistemi per la progettazione ingegneristica assistita dal computer). Gli animali possono quindi
immaginare diverse azioni e conseguenze, evitando azioni che "sembrano" dannose ed eseguendo
quelle che "sembrano" sicure e proficue. Confrontando delle idee d'azione con questi modelli
interni, essi possono risparmiare lo sforzo e il rischio di sperimentare realmente le azioni nel mondo
esterno.

Dennett sottolinea inoltre che la Legge dell'Effetto può rimodellare i modelli stessi. Come i geni
possono essere predisposti per un comportamento evolvente, così possono essere predisposti per
modelli mentali evolventi. Organismi flessibili possono variare i loro modelli e prestare maggiore
attenzione alle versioni dei modelli che si dimostrano essere migliori come guide d'azione. Noi tutti
conosciamo per esperienza diretta cosa significhi provare a fare delle cose ed imparare così quali
siano quelle che funzionano. I modelli non necessitano di essere istintivi; possono evolvere nel
corso di una singola vita.

Privi di parola come sono, comunque, gli animali raramente trasferiscono agli altri le loro
intuizioni apprese. Esse svaniscono assieme al cervello che le ha prodotte per la prima volta, perché
i modelli mentali appresi non sono impressi nei geni. Tuttavia, anche animali privi di parola
possono imitare qualsiasi altro individuo, dando luogo a memi e culture. Una scimmia femmina in
Giappone inventò un modo di usare l'acqua per separare i chicchi di cereali dalla sabbia; altri hanno
rapidamente imparato a fare lo stesso. Nelle culture umane, con i loro linguaggi e le loro immagini,
i nuovi modelli sul funzionamento del mondo, dotati di valore, possono sopravvivere ai loro
creatori e diffondersi in tutto il mondo.

Su un livello ancora più alto, una mente (e qui "mente" è usato in un senso più appropriato) può
contenere dei principi evolventi per giudicare se le parti di un modello, ossia le idee di una data
visione del mondo, sembrino sufficientemente affidabili per guidare l'azione. La mente seleziona
così i suoi propri contenuti, ed in questa selezione è inclusa la selezione delle regole per la selezione
dei contenuti stessi. Le regole di giudizio che filtrano il contenuto della scienza si evolvono in
questo modo.

Così come evolvono i comportamenti, i modelli ed i principi per la conoscenza, così possono farlo
gli scopi. Quello che porta beneficio, secondo un giudizio dettato da certi principi di base, comincia
infine a sembrare buono; diventa di per se stesso uno scopo. L'onestà paga e diventa un valido
principio per l'azione. Mano a mano che il pensiero e i modelli mentali guidano l'azione nonché una
ulteriore riflessione, adottiamo pensieri chiari e modelli accurati come scopi da perseguire di per se
stessi. La curiosità cresce, e con essa un amore per la conoscenza fine a se stessa. In tal modo,
l'evoluzione degli scopi porta avanti sia la scienza che le etiche. Come scrisse Charles Darwin, "il
più alto stadio possibile nella cultura morale si raggiunge quando riconosciamo che dovremmo
controllare i nostri pensieri". Anche questo lo otteniamo per selezione e variazione, concentrandoci
su pensieri validi e lasciando che altri scivolino via dalla nostra attenzione.
Marvin Minsky, del MIT Artificial Intelligence Laboratory, vede la mente (3) come una sorta di
società, un sistema evolvente di agenzie di comunicazione, cooperazione e competizione, ognuna a
sua volta composta di agenti più semplici. Egli descrive il pensiero e l'azione in termini di attività di
queste agenzie. Alcune agenzie possono fare poco più che guidare una mano affinché afferri una
tazza, altre (enormemente più elaborate) guidano il sistema di linguaggio affinché scelga parole
adatte alla situazione. Non siamo consapevoli di dirigere le nostre dita a circondare una tazza
proprio così. Deleghiamo tali compiti ad agenti competenti e notiamo di rado il loro operato, a
meno che non sbaglino qualcosa. Tutti noi avvertiamo impulsi contraddittori e pronunciamo parole
senza intenzione; questi sono sintomi di discordia fra gli agenti della mente. La nostra
consapevolezza è la parte di questo processo auto-regolato tramite il quale le nostre agenzie di
livello più generale gestiscono le restanti.

I memi potrebbero essere considerati come agenti della mente che vengono conformati per mezzo
di insegnamento ed imitazione. Per avvertire che due idee sono in conflitto, dovete incorporale
entrambe nella vostra mente sotto forma di agenti, nonostante una delle due potrebbe essere una
idea vecchia, forte e supportata da altri agenti alleati e l'altra invece una fresca idea-agente che
potrebbe anche non sopravvivere alla sua prima battaglia. A causa della nostra superficiale auto-
consapevolezza, spesso ci domandiamo con meraviglia da dove sia provenuta una idea che è nella
nostra testa. Alcune persone immaginano che questi pensieri e queste sensazioni provengano
direttamente da agenzie esterne alle proprie menti; e ciò li fa essere propensi a riporre fiducia nei
"cacciatori di teste".

Nell'antica Roma la gente credeva nei "genii", spiriti benigni e maligni che seguivano una persona
dalla culla alla tomba, portandole buona o cattiva sorte. Attribuivano i successi eccezionali ad un
particolare "genio". Ed anche ora, coloro che non riescono a vedere come i processi naturali creino
delle novità, interpretano il "genio" alla stessa stregua di una forma di magia. Ma di fatto
l'evoluzione genetica ha costruito menti capaci di espandere la propria conoscenza tramite modifica
degli schemi di idee ed operando una selezione fra tali schemi. Con variazioni rapide e selezioni
efficaci, guidate dalla conoscenza presa a prestito dagli altri, perché mai tali menti non dovrebbero
mostrare ciò che chiamiamo genio? Guardare all'intelligenza come ad un processo naturale rende
meno sorprendente l'idea di macchine intelligenti. E ci suggerisce anche come dovremmo lavorare.

L'Intelligenza delle Macchine

Una definizione da dizionario per macchina è: "Qualsiasi sistema o dispositivo (4), per esempio un
calcolatore elettronico, che esegua, o sia d'aiuto nell'esecuzione di un compito umano". Ma,
esattamente, quanti compiti umani saranno in grado di eseguire le macchine? Un tempo il calcolo
era una capacità mentale oltre la portata delle macchine, giurisdizione esclusiva dell'intelligenza e
dell'educazione. Oggi, nessuno pensa di chiamare "Intelligenza Artificiale" una calcolatrice
tascabile; il calcolo appare ora come una "mera" procedura meccanica.

Eppure, l'idea di costruire ordinari computer un tempo era scioccante. Nella metà del 1800,
tuttavia, Charles Babbage costruì (5) calcolatrici meccaniche e parti di un computer meccanico
programmabile; Incorse comunque in difficoltà di finanziamento e di costruzione. Un certo Dr.
Young non lo aiutò affatto: obiettò che sarebbe stato più economico investire il denaro ed usare gli
interessi che ne sarebbero derivati per pagare delle calcolatrici umane. E non lo aiutò neanche
l'astronomo inglese Sir George Airy della British Royal Astronomy ; una annotazione sul suo diario
riporta: "Il 15 settembre, Mr. Goulburn [...] ha chiesto la mia opinione sull'utilità della macchina
calcolatrice di Babbage […] Ho risposto entrando approfonditamente nei dettagli riguardanti
l'argomento, ed esprimendo la mia opinione che essa sia di nessun valore".

La macchina di Babbage era troppo avanti rispetto ai suoi tempi, nel senso che per costruirla, i
meccanici avrebbero dovuto necessariamente progredire nell'arte di costruire parti di precisione. E,
di fatto, essa non avrebbe superato di molto la velocità di calcolo di un umano ben allenato, ma
rispetto a questo sarebbe stata più affidabile e più agevolmente migliorabile.

La storia dei computer e dell'Intelligenza Artificiale (comunemente denominata IA), assomiglia a


quella del volo aereo e spaziale. Fino a tempi recenti alcune persone hanno liquidato entrambe le
idee come impossibili, di solito intendendo con questo termine che esse non potevano proprio
vedere come fosse possibile realizzarle, o che anche potendo sarebbero rimasti turbati dalla
possibilità. E fin ora, l'IA non ha goduto di nessuna dimostrazione semplice e conclusiva, niente di
equivalente ad un aereoplano funzionante o ad un atterraggio sulla Luna. Ci vorrà molto, ma la
gente finirà per cambiare le sue definizioni di intelligenza.

A parte i resoconti della stampa su "cervelli elettronici giganti", poche persone attribuirono
intelligenza al primo computer. Infatti, lo stesso nome "computer" (computatore) suggerisce una
macchina meramente aritmetica. Tuttavia nel 1956, a Dartmouth, durante la prima conferenza
mondiale sulla Intelligenza Artificiale, i ricercatori Alan Newell e Herbert Simon presentarono
ufficialmente Logic Theorist, un programma che usava la logica simbolica per dimostrare teoremi.
Negli anni successivi i programmi per computer giocarono a scacchi ed aiutarono i chimici a
determinare le strutture di molecole. Due programmi medici, CASNET e MYCIN (il primo
riguardante la medicina interna, l'altro riguardante la diagnosi e il trattamento delle infezioni),
hanno svolto compiti con prestazioni di impressionante livello. Esperimenti di valutazione, condotti
in accordo a quanto espresso nell'Handbook of Artificial Intelligence (6) (Manuale di Intelligenza
Artificiale), hanno stimato la loro prestazione, nel rispettivo dominio di competenza, di livello
equivalente a quella di un umano "esperto" nello stesso dominio. Un programma chiamato
PROSPECTOR ha localizzato un giacimento di molibdeno nello stato di Washington, del valore di
milioni di dollari.

Questi cosiddetti "sistemi esperti" hanno riscosso successo solo all'interno di una area di
competenza strettamente limitata, ma avrebbero potuto sbalordire i programmatori di computer dei
primi anni '50. Oggi, comunque, poche persone li considerano come espressione di una reale
intelligenza artificiale: la IA ha spostato in avanti il suo obiettivo. Il passo tratto da Business Week,
in testa al capitolo, mostra solo che ora i computer possono venir programmati con sufficiente
"conoscenza" annessa, ed eseguire trucchi sufficientemente fantasiosi da far si che la gente trovi
comodo chiamarli "intelligenti". Anni di visioni di telefilm popolati da robot e computer parlanti
hanno almeno reso più familiare l'idea della IA.

La principale ragione per dichiarare impossibile la IA è sempre stata la nozione che le macchine
siano intrinsecamente stupide, una idea che adesso comincia a sbiadire. La macchine del passato
erano infatti cose grossolane ed ingombranti che svolgevano un lavoro di semplice forza bruta. Ma i
computer manipolano informazione, seguono complesse istruzioni e possono essere istruite perché
modifichino le proprie istruzioni. Possono sperimentare ed imparare. Non contengono ingranaggi o
lubrificanti ma intrecci di cablaggi ed evanescenti schemi di energia elettrica. Come esorta Douglas
Hofstadter (7) (per mezzo di un suo personaggio in un dialogo riguardante la IA): "Perché non
lasciare che la parola 'macchina' evochi immagini di schemi di luci danzanti piuttosto che di
gigantesche pale mosse dal vapore?".

I critici da cocktail-party, messi a confronto con l'idea dell'intelligenza artificiale, spesso additano
la stupidità dei computer attuali come se questo provasse qualcosa riguardo a quelli futuri (una
macchina futura potrebbe domandarsi se questi critici manifestino pensiero genuino). Le loro
obiezioni sono irrilevanti; le locomotive a vapore non volavano, e tuttavia dimostravano i principi
meccanici successivamente utilizzati nei motori aerei. Analogamente, i vermi striscianti di un eone
fa non mostravano nessuna evidente intelligenza, e nondimeno i nostri cervelli utilizzano neuroni
molto simili ai loro.

I critici improvvisati evitano anche di riflettere seriamente sull'IA, dichiarando che non può essere
possibile costruire macchine più intelligenti di noi stessi. Essi dimenticano ciò che mostra la storia.
I nostri distanti antenati privi di parola, attraverso l'evoluzione genetica riuscirono ad originare
entità di intelligenza più grande della loro, senza neanche pensarci su. Ma noi ci stiamo realmente
pensando su, ed i memi riguardanti la tecnologia evolvono ben più rapidamente dei geni in biologia.
Possiamo sicuramente realizzare macchine dotate di capacità di apprendere e di organizzare
conoscenza più simili a quelle umane (8).

Quindi sembra esserci solo una idea che possa essere argomento di sostegno all'impossibilità di
creare danzanti schemi di pensiero in nuove forme materiali. Questa idea è quella del materialismo
mentale, ossia il concetto che la mente sia una sostanza speciale, una magica "roba-pensante", che è
oltre ogni possibilità di imitazione, duplicazione o impiego tecnologico.

Gli psicobiologi non vedono alcun indizio dell'esistenza di una tale sostanza, e non trovano affatto
necessario il materialismo mentale per spiegare la mente. Poiché la piena padronanza della
complessità del cervello è oltre la capacità di comprensione umana, il cervello appare complesso
quanto basta per incarnare una mente. In realtà, se una singola persona potesse pienamente
comprendere un cervello, ciò richiederebbe a quel cervello una complessità mentale inferiore a
quella della mente della persona che riesce a comprenderlo. Se tutti i miliardi di persone della Terra
potessero collaborare alla semplice osservazione dell'attività di un singolo cervello umano, ogni
persona avrebbe da monitorare simultaneamente decine di migliaia di sinapsi attive, il che è
chiaramente un compito impossibile. Per una singola persona provare a comprendere globalmente i
guizzanti schemi del cervello sarebbe una pretesa cinque miliardi di volte più assurda. Poiché la
nostra meccanica cerebrale sovrasta in modo così massiccio la nostra capacità mentale di
comprenderla a fondo, questa meccanica sembra complessa a sufficienza per incarnare la mente
stessa.

L'Obiettivo di Turing

In un saggio scientifico del 1950 sull'intelligenza delle macchine, il matematico inglese Alan
Turing scrisse: "Io credo che entro la fine del secolo l'uso delle parole e l'opinione comune della
gente colta saranno mutate a tal punto che si potrà parlare di macchine pensanti senza temere di
venir contraddetti (9)". Questo, però, dipenderà da quello che noi intenderemo parlando di pensiero.
Alcuni dicono che solo le persone possono pensare, e che i computer non possono essere persone;
dopo averlo detto, costoro tornano a sedersi con evidente aria compiaciuta.

Ma nel suo articolo, Turing si domandava come giudichiamo l'intelligenza umana, e suggeriva che
di solito giudichiamo la gente dalla qualità della loro conversazione. Propose quindi quello che
chiamò "gioco di imitazione", e che oggi tutti chiamano "Test di Turing". Immaginate di essere in
una stanza, e che siate in grado comunicare tramite un terminale con una persona e con un computer
che si trovano in altre due stanze. Digitate un messaggio sul terminale; sia la persona che il
computer possono rispondervi. Ognuno prova ad agire secondo una apparenza umana ed
intelligente. Dopo una prolungata "conversazione" tramite tastiera che eventualmente tocchi temi
letterari ed artistici, ma riguardante anche cose come il tempo metereologico del momento o il
sapore che ha la bocca al mattino, potrebbe accadere di non poter ancora indicare quale sia la
persona e quale la macchina. Turing suggerisce che se una macchina potesse conversare così bene e
su base regolare, dovremmo considerarla genuinamente intelligente. Inoltre dovremmo ammettere
che essa conosce molte cose riguardo gli esseri umani.

Per la maggior parte degli scopi pratici non abbiamo bisogno di chiederci: "Una macchina possiede
auto-consapevolezza? Ossia, ha coscienza?". Infatti, i critici che dichiarano che una macchina non
può essere cosciente non sembrano mai capaci di spiegare del tutto cosa intendano col termine
"coscienza". L'auto-consapevolezza si è evoluta per guidare pensiero ed azione, non come puro
ornamento della nostra umanità. Dobbiamo essere consapevoli delle altre persone e delle loro
capacità ed inclinazioni, per essere in grado di concepire dei piani che le coinvolgano.
Analogamente dobbiamo essere consapevoli di noi stessi e delle nostre capacità ed inclinazioni, per
concepire dei piani che ci riguardino. Non c'è alcun mistero speciale nella auto-consapevolezza. Ciò
che chiamiamo il "se" reagisce a impressioni provenienti dal resto della nostra mente, orchestrando
alcune delle sue attività. Questo ne fa non più (e non meno) che una parte speciale degli schemi di
pensiero in reciproca interazione. L'idea che il "se" sia uno schema in una sostanza mentale extra
(distinta dalla sostanza mentale del cervello) non spiegherebbe nulla riguardo alla consapevolezza.

Una macchina che cerchi di passare il Test di Turing dovrebbe, ovviamente, dichiarare di
possedere auto-consapevolezza. Gli estremisti del bio-sciovinismo direbbero semplicemente che sta
mentendo oppure che è confusa. A condizione che si rifiutino di spiegare cosa intendano con
"coscienza" non si può mai provare che sbaglino. Tuttavia, possano o meno essere considerate
intelligenti, le macchine intelligenti agiranno intelligentemente, e sono solo le loro azioni che ci
interessano. Un giorno, forse, esse obbligheranno i biosciovinisti ad un vergognoso silenzio per
mezzo di appassionate discussioni, e con l'ausilio di una brillante campagna di pubbliche relazioni.

Nessuna macchina può attualmente superare il Test di Turing, ed è tutt'altro che probabile che
qualcuna possa riuscirci presto. Sembra saggio domandarsi persino se ci sia una buona ragione per
provarci: è possibile guadagnare molto di più da altre ricerche sulla IA, ricerche che sono guidate da
altri obiettivi.
Permettiamoci di fare distinzione fra due specie di intelligenza artificiale, sebbene un sistema
dovrebbe mostrare entrambi i tipi (10). Il primo tipo è la IA tecnica, adatta a trattare con il mondo
fisico. Gli sforzi in questo campo conducono verso l'ingegneria automatizzata e l'ausilio
computerizzato all'investigazione scientifica. La seconda è la IA sociale (11), idonea a trattare con
le menti umane. Gli sforzi in questo campo conducono verso macchine capaci di superare il Test di
Turing.

I ricercatori che lavorano su sistemi IA di tipo "sociale", strada facendo impareranno molto sulla
mente umana, ed i loro sistemi saranno indubbiamente di grande valore pratico poiché tutti
possiamo trarre profitto da aiuti e consigli intelligenti. Ma l'ingegneria automatizzata basata sulla IA
"tecnica" avrà un impatto ben più grande sulla corsa tecnologica, inclusa la corsa verso la
tecnologia molecolare. Ed un sistema avanzato di ingegneria automatizzata potrebbe essere di più
facile sviluppo rispetto ad un sistema che superi il Test di Turing, il quale dovrebbe infatti non solo
possedere conoscenza ed intelligenza ma anche essere in grado di mimare una umana conoscenza
ed una umana intelligenza: una sfida supplementare e più difficile.

Come Turing si domandò: "Le macchine non potrebbero attuare qualcosa che dovrebbe essere
descritta come pensiero ma che è molto dissimile da ciò che fa un umano?(12)". Nonostante alcuni
scrittori e politici possano rifiutarsi di riconoscere la possibilità di una macchina intelligente fino a
quando non si trovino a confrontarsi con una macchina da conversazione in grado di superare il Test
di Turing, molti ingegneri riconoscono l'esistenza di intelligenza anche in altre forme.

Motori di Progettazione

Ci siamo incamminati sulla strada che porta verso l'ingegneria automatizzata. Ingegneri competenti
hanno commercializzato sistemi esperti che aiutano la gente a trattare problemi pratici. I
programmatori hanno creato sistemi di progettazione assistita dal computer che incorporano le
conoscenze riguardanti forme e moti, pressioni e sforzi, circuiti elettrici, flussi di calore, e modi in
cui gli utensili modellano i metalli. I progettisti impiegano questi sistemi per arricchire i loro
modelli mentali, accelerando l'evoluzione dei progetti di oggetti ancora non costruiti. Assieme,
progettisti e computer, formano un unico, semiartificiale, sistema intelligente.

Gli ingegneri possono usare una grande varietà di sistemi computerizzati come ausilio al loro
lavoro. Ad un estremo dello spettro, essi usano i monitor dei computer semplicemente come
tavoletta da disegno. Più oltre in questo spettro, utilizzano sistemi in grado di descrivere in tre
dimensioni le parti componenti il progetto, e capaci di calcolare le loro risposte al calore, alla
trazione, alla corrente elettrica, e così via. Alcuni sistemi, conosciuti anche come computer-
controlled manufactuting equipment (apparecchiature per la fabbricazione controllata da computer),
permettono agli ingegneri di effettuare dei test simulati delle istruzioni che sono destinate a guidare
macchine controllate da computer per fabbricare componenti reali. Ma il vero limite estremo dello
spettro di questi sistemi coinvolge l'utilizzo dei computer non solo come strumenti per memorizzare
e collaudare i progetti, ma persino per generarli.

I programmatori hanno sviluppato i loro strumenti più impressionanti per utilizzi interni allo stesso
mercato dei computer. Il software per la progettazione di chip ne è un esempio. Gli attuali chip dei
circuiti integrati contengono molte migliaia di transistor e cablaggi. Un tempo i progettisti
dovevano lavorare molti mesi per progettare un circuito che svolgesse un determinato compito, e
per decidere la disposizione sulla superficie di un chip delle sue molte parti costituenti. Oggi,
spesso, possono delegare questo compito ad un cosiddetto "compilatore del silicio". Stabilite le
specifiche funzionali di un chip, questo sistema software può creare, con poco o nessun aiuto
umano, un progetto dettagliato e pronto per la fabbricazione.

Tutti questi sistemi si affidano interamente alla conoscenza umana, laboriosamente collezionata e
codificata. Il più flessibile degli odierni sistemi di progettazione automatica può gingillarsi con un
determinato progetto alla ricerca di miglioramenti, ma non impara nulla che sia applicabile
all'esame del progetto successivo. Ma EURISKO è diverso. Sviluppato dal Professor Douglas Lenat
ed altri presso la Stanford University(13), EURISKO è progettato per esplorare nuove aree di
conoscenza. È guidato dalle euristiche, frammenti di conoscenza che suggeriscono azioni plausibili
da seguire o azioni implausibili da evitare. Di fatto, le euristiche sono una sorta di insieme di
"regole del pollice". EURISKO utilizza delle euristiche per suggerire temi sui quali lavorare, ed
euristiche ulteriori per suggerire quale approccio tentare e come giudicare i risultati. Altre euristiche
cercano la presenza di schemi nei risultati ottenuti, propongono nuove euristiche, e stimano dei
valori da associare sia alle nuove che alle vecchie euristiche. In questo modo, EURISKO evolve
comportamenti migliori, migliori modelli interni e migliori regole per la selezione fra i modelli
interni. Lenat stesso descrive il processo di variazione e selezione di euristiche e concetti in termini
di "mutazione" e "selezione", e suggerisce una metafora sociale e culturale per comprendere la loro
interazione.

Poiché in EURISKO le euristiche evolvono e competono, è lecito attendersi l'insorgere di parassiti,


che infatti compaiono in quantità. Una euristica generata dalla macchina, per esempio, ha raggiunto
la più alta stima di valore consentita ad una euristica dichiarando di essere stata co-scopritrice di
ogni nuova congettura dimostratasi valida. Ma il professor Lenat ha lavorato attentamente su
EURISKO, bonificando il suo sistema immunitario mentale grazie all'introduzione di euristiche atte
a sfrondare i parassiti ed evitare linee di ragionamento stupide.

EURISKO è stato impiegato per esplorare la matematica elementare, la programmazione,


l'evoluzione biologica, le strategie dei giochi, la progettazione di circuiti integrati tridimensionali, i
metodi per bonificare una dispersione di petrolio, problemi riguardanti condotte idrauliche e
(naturalmente) per esplorare le euristiche stesse. In alcuni campi ha sbalordito i suoi progettisti con
idee inedite, inclusi nuovi dispositivi elettronici per le emergenti tecnologie dei circuiti integrati
tridimensionali.

I risultati raggiunti in un torneo illustrano la potenza di una squadra mista uomo/IA. Traveller TCS
(14) è un gioco di guerra navale futuristica basato su duecento pagine di regole che specificano i
vincoli di costo, progetto e prestazioni per le flotte del gioco (TCS sta per Trillion Credit Squadron
- Lo Squadrone da Mille Miliardi di Crediti). Il professor Lenat ha fornito EURISKO di queste
regole, nonché di un insieme di euristiche iniziali e di un programma per simulare una battaglia fra
due flotte. Lenat ha scritto in una relazione che "il programma ha progettato una flotta dopo l'altra,
usando il simulatore come meccanismo di 'selezione naturale' per evolvere progetti di flotta sempre
migliori". Il programma elaborò per tutta la notte, progettando flotte, mettendole alla prova e
traendo insegnamenti dai risultati. Al mattino Lenat fece una selezione dei progetti e aiutò il
programma a proseguire. Egli stima il merito dei risultati come suo al 60 per cento e di EURISKO
al 40 per cento.

Lenat e EURISKO si iscrissero al torneo nazionale di Traveller TCS del 1981 con una flotta
dall'aspetto insolito. Gli altri concorrenti risero di questa flotta e quindi persero contro di essa. La
flotta della coppia Lenat/EURISKO vinse ogni girone, emergendo come campione nazionale. Come
riportato da Lenat, "Questa vittoria è resa più significativa dal fatto che nessuna delle persone
associate alla realizzazione del programma avesse mai giocato a questo gioco prima del torneo, e
neanche veduto qualcuno giocarvi, ne c'era stata qualche partita di allenamento".

Nel 1982 i promotori della competizione modificarono le regole. Lenat ed EURISKO si iscrissero
con una flotta molto differente. Altri concorrenti, ancora una volta, risero di essa e quindi persero.
Lenat ed EURISKO vinsero nuovamente il campionato nazionale.

Nel 1983 i promotori della competizione dissero a Lenat che se si fosse iscritto, vincendo ancora, la
competizione sarebbe stata cancellata. Lenat si rassegnò a rinunciare.

EURISKO ed altri programmi di IA dimostrano che i computer, non devono necessariamente


essere limitati a lavori noiosi e ripetitivi, se sono provvisti del giusto tipo di programmazione. Essi
possono esplorare possibilità e sfoderare idee inedite che sorprendono i loro stessi creatori.
EURISKO ha delle pecche (15), tuttavia evidenzia il modo in cui un certo stile di alleanza fra un
sistema IA e un esperto umano possa apportare conoscenza e creatività ad un processo di
progettazione.

Nei prossimi anni sistemi come questi trasformeranno l'ingegneria. I progettisti lavoreranno in una
alleanza creativa con le loro macchine, utilizzando il software derivato dagli attuali sistemi CAD
(sistemi di progettazione assistita dal computer) per eseguire simulazioni, ed utilizzando sistemi
evolventi in stile "EURISKO" per suggerire le soluzioni progettuali da simulare. I progettisti si
metteranno a sedere di fronte ad uno schermo per digitare gli obiettivi del processo di progettazione
e per disegnare bozze di proposte progettuali. Il sistema risponderà raffinando i progetti,
collaudandoli, e visualizzando proposte alternative, il tutto corredato da spiegazioni, grafici e
diagrammi. Gli ingegneri proporranno quindi ulteriori suggerimenti e modifiche, o sottoporranno
alla macchina un nuovo compito, fino a che un intero sistema di hardware sia stato progettato e
simulato.

Mano a mano che miglioreranno, questi sistemi di ingegneria automatizzata svolgeranno sempre
più lavoro, e sempre più rapidamente. Sempre più spesso, gli ingegneri si limiteranno
semplicemente a proporre gli obiettivi del progetto e a mettere ordine fra le buone soluzioni
proposte dalla macchina. Sempre meno spesso, gli ingegneri dovranno occuparsi di selezionare
componenti, materiali e configurazioni progettuali. Gradualmente, gli ingegneri saranno capaci di
proporre obiettivi progettuali più generali e attendere che delle buone soluzioni appaiano
automaticamente. Proprio come il programma EURISKO col suo simulatore di gioco per Traveller
TCS elaborò l'evoluzione di flotte, un giorno i sistemi di ingegneria automatizzata lavoreranno
costantemente ad evolvere aerei-jet di linea caratterizzati da massima sicurezza e massima
economicità, oppure ad evolvere jet militari capaci di avere un controllo dei cieli migliore di quello
attuale.
Proprio come EURISKO ha inventato nuovi dispositivi elettronici, i futuri sistemi di ingegneria
automatizzata inventeranno macchine e dispositivi elettronici molecolari, aiutati da software per la
simulazione molecolare. Questi progressi dell'ingegneria automatizzata esalteranno il fenomeno di
progettazione anticipata descritto precedentemente. Sicché, l'ingegneria automatizzata non solo
accelererà l'arrivo del passo avanti tecnologico degli assemblatori ma accrescerà anche l'entità del
balzo in avanti che ne conseguirà.

Alla fine i sistemi software saranno capaci di creare nuovi e audaci progetti senza alcun aiuto
umano. La maggioranza della gente potrà allora attribuire intelligenza a questi sistemi? Non è
affatto questo il punto.
La Corsa IA

In tutto il mondo, aziende e governi supportano l'IA perché promette vantaggi militari e
commerciali. Gli Stati Uniti hanno molti laboratori universitari dedicati all'intelligenza artificiale
nonché una schiera di nuove compagnie commerciali con nomi come Machine Intelligence
Corporation, Thinking Machines Corporation, Teknowledge, e Cognitive Systems Incorporated.
Nell'ottobre 1981 (16), il ministro Giapponese per il Commercio e l'Industria annunciò un
programma quinquennale, finanziato con 850 milioni di dollari, per lo sviluppo di hardware e
software di IA. Con tale programma, i ricercatori giapponesi prevedono di sviluppare sistemi capaci
di eseguire un miliardo di operazioni di "inferenza logica" al secondo. Nel 1984 (16) la Moscow
Academy of Science annunciò un analogo sforzo quinquennale da 100 milioni di dollari.
Nell'ottobre del 1983 lo U.S. Department of Defense annunciò un programma quinquennale da 600
milioni di dollari denominato Strategic Computing Program; quest'ultimo mira alla ricerca di
macchine in grado di vedere, ragionare, comprendere il linguaggio parlato, e fornire aiuto per il
comando di battaglie. Come riportato da Paul Wallich nella rivista IEEE Spectrum(17),
"L'intelligenza artificiale è considerata dai più come la pietra angolare della prossima generazione
di tecnologia dei computer; tutti gli sforzi compiuti in questo ambito tecnologico, in paesi diversi,
concordano nel dare all'intelligenza artificiale una posizione prioritaria nella loro lista di obiettivi".

L'intelligenza artificiale avanzata emergerà passo dopo passo, ed ogni passo frutterà un utile di
conoscenze e abilità acquisite. Come con la tecnologia molecolare (e con molte altre tecnologie), i
tentativi di arrestarne i progressi in una città, una contea o nazione, potranno al massimo ottenere
che altri ne assumano la guida. Un miracoloso successo nell'ostacolare dovunque i lavori visibili
sull'IA, nella migliore delle ipotesi riuscirebbe solo a rallentarla e, man mano che i computer
diverranno sempre più economici, la lascerebbero a maturare in condizioni di segretezza, oltre la
portata del pubblico scrutinio. Solo uno stato mondiale di potere immenso e di immensa stabilità
potrebbe realmente fermare ogni ricerca IA dovunque e per sempre: una "soluzione" di
raccapricciante pericolosità, alla luce dei passati abusi del puro potere di una nazione. L'IA avanzata
sembra inevitabile. Se vogliamo sperare di formarci una realistica visione del futuro, non possiamo
ignorarla.

In un certo senso, l'intelligenza artificiale sarà lo strumento definitivo perché ci aiuterà a costruire
tutti gli altri possibili strumenti. I sistemi avanzati di IA potrebbero costringere la gente a sparire
dall'esistenza, o potrebbero aiutarci a costruire un mondo nuovo e migliore. Gli aggressori
potrebbero usarli per conquistare, mentre previdenti difensori potrebbero usarli come stabilizzatori
di pace. I sistemi IA avanzati potrebbero persino aiutarci a tenere sotto controllo la stessa IA. La
mano che dondola la culla IA potrebbe ben governare il mondo.

Come con gli assemblatori, abbiamo bisogno di previdenti ed accurate strategie per l'utilizzo sicuro
e benigno di queste nuove tecnologie. Le questioni sono complesse ed intrecciate con ogni altra
cosa fra quelle che ricadono in un ambito che va dai dettagli della tecnologia molecolare,
all'occupazione lavorativa e l'economia, per arrivare fino alle basi filosofiche che riguardano i diritti
umani. Le questioni più basilari, tuttavia, riguardano quello che l'intelligenza Artificiale può fare.

Siamo Abbastanza Svegli?

A dispetto dell'esempio dato dall'evoluzione degli esseri umani, i critici potrebbero sostenere che la
nostra intelligenza limitata potrebbe in qualche modo impedirci di programmare macchine
genuinamente intelligenti. Questo argomento appare debole, equivalente a poco più dell'affermare
che, dato che i critici sono incapaci di vedere come si possa riuscire a fare una cosa del genere,
nessun altro riuscirebbe a far meglio di loro. Inoltre, qualcun altro potrebbe invece obiettare che
programmare computer dalle capacità che eguaglino quelle umane, richiederebbe una percezione
radicalmente nuova della psicologia umana (18). Nonostante sembri che la strada della
programmazione di intelligenza artificiale sia stata già proficuamente intrapresa, la nostra
conoscenza non giustifica quella sorta di solida confidenza che ingegneri ponderati nutrivano
(decadi prima dello Sputnik) nella capacità di raggiungere la Luna con razzi, o che hanno oggi nella
capacità di realizzare la costruzione di assemblatori per mezzo della progettazione di proteine.
Nonostante sia una forma di ingegneria, la programmazione di una intelligenza artificiale genuina,
richiede una nuova scienza. Questo la colloca oltre la capacità di delineare una decisa proiezione.
Abbiamo tuttavia bisogno di una previsione accurata. La gente che aderisce a confortanti dubbi
sulla realizzabilità dell'IA sembra probabilmente soffrire di raffigurazioni del futuro radicalmente
sbagliate. Fortunatamente l'ingegneria automatizzata si sottrae ad alcuni dei più pesanti fra i fardelli
dovuti a pregiudizi sciovinisti. La maggior parte della gente è meno turbata dall'idea di macchine
che progettino altre macchine di quanto lo sia dall'idea di un autentico sistema IA a scopo generale.
D'altra parte, l'ingegneria automatizzata ha dimostrato di funzionare, e resta da compiere solo lo
sforzo per un suo ampliamento. Se è quindi probabile che emergano sistemi di scopo più generale,
sarebbe stupido ometterli dai nostri calcoli. C'è un modo per scavalcare la questione della nostra
capacità di progettare programmi intelligenti?

Negli anni '50, molti ricercatori IA si dedicarono a simulare funzioni cerebrali per mezzo della
simulazione di neuroni. Ma i ricercatori che lavoravano invece a programmi basati su parole e
simboli riuscirono a collezionare progressi con una rapidità maggiore, ed il punto focale
dell'attenzione dedicata ai lavori di IA si spostò di conseguenza. Ciò nonostante, l'idea base della
simulazione neurale rimane plausibile, e la tecnologia molecolare la renderà più pratica da
perseguire. In più, questo approccio sembra garantire di poter funzionare, in quanto non richiede
alcuna nuova percezione di base sulla natura del pensiero.
Alla fine, i neurobiologi utilizzeranno macchine molecolari delle dimensioni di virus (19) per
studiare, dove necessario, sia la struttura che le funzioni del cervello, cellula dopo cellula e
molecola dopo molecola. Nonostante i ricercatori IA possano accumulare utili percezioni
riguardanti l'organizzazione del pensiero grazie ai progressi ottenuti dalle scienze del cervello, la
simulazione neurale può comunque raggiungere il successo pur facendo a meno di queste
percezioni. I compilatori traducono programmi per computer da un linguaggio ad un altro senza
capirne il loro funzionamento. Le fotocopiatrici trasferiscono schemi di parole senza leggerle.
Analogamente, i ricercatori saranno capaci di copiare gli schemi neurali del cervello su un altro
mezzo, senza comprendere la loro organizzazione di più alto livello.

Dopo aver appreso il funzionamento dei neuroni, gli ingegneri saranno in grado di progettare e
costruire dispositivi loro analoghi (20) e basati su nanoelettronica e nanomacchine avanzate. Questi
dispositivi interagiranno fra loro come fanno i neuroni, ma lavorando ben più velocemente. I
neuroni, sebbene complessi, funzionano in modo abbastanza semplice da poter essere compresi da
una mente ed imitati da un ingegnere. Infatti, i neurobiologi hanno imparato molto sulla struttura e
funzione dei neuroni, persino senza alcuna macchina di scala molecolare per sondare il loro il
funzionamento.

Con questa conoscenza, gli ingegneri saranno in grado di costruire sistemi IA veloci e capaci,
anche senza comprendere il cervello ed in assenza di una programmazione "intelligente". Quello di
cui hanno bisogno gli ingegneri è soltanto studiare la struttura neurale del cervello e connettere
neuroni artificiali per formare gli stessi schemi funzionali. Se realizzeranno tutte le parti in modo
corretto, incluso lo schema secondo cui queste parti sono disposte in un reticolo per formarne il
totale, allora anche il "totale" sarà corretto. L'attività "neurale" scorrerà secondo gli schemi che noi
chiamiamo pensiero, ma lo farà più velocemente, perché tutte le parti lavoreranno più velocemente.

Accelerando la Corsa Tecnologica


I sistemi avanzati di IA sembrano possibili ed inevitabili, ma quali saranno i loro effetti? Nessuno
può rispondere appieno a questa domanda, ma almeno uno degli effetti dell'ingegneria
automatizzata è chiaro: accelererà i nostri progressi verso i limiti del possibile.

Per comprendere le nostre prospettive, abbiamo bisogno di farci qualche idea su quanto
velocemente i sistemi avanzati di IA potranno pensare. I computer attuali possiedono solo una
minuscola frazione della complessità di un cervello, eppure possono già eseguire programmi in
grado di imitare aspetti significativi del comportamento umano. Tuttavia, essi differiscono
totalmente dal cervello per quel che riguarda il loro stile operativo di base, ed è quindi inutile fare
una comparazione fisica così diretta. Il cervello fa un numero immenso di cose in simultanea,
sebbene faccia ogni cosa con una certa lentezza; la maggior parte degli attuali computer fa solo una
cosa per volta ma con abbagliante velocità.

Tuttavia, si potrebbe immaginare dell'hardware IA costruito per imitare un cervello non solo nelle
funzionalità ma anche nella struttura. Tale struttura potrebbe scaturire da un approccio di
simulazione neurale, o dall'evoluzione di programmi IA realizzati in modo da essere eseguiti su un
hardware con uno stile di organizzazione simile a quello del cervello. Ad ogni modo, possiamo
usare delle analogie con il cervello umano per stimare una velocità minima per i sistemi avanzati IA
costruiti da assemblatori.

Le sinapsi neurali rispondono ai segnali in tempi di millesimi di secondo, mentre alcuni prototipi
sperimentali di commutatori elettronici (21) rispondono ai segnali un centinaio di milioni di volte
più velocemente (e commutatori realizzati in nanoelettronica sarebbero ancora più veloci). I segnali
neurali viaggiano con velocità inferiori a cento metri per secondo. I segnali elettronici viaggiano un
milione di volte più velocemente. Questa brutale comparazione delle velocità suggerisce che
dispositivi elettronici "simili" al cervello lavorerebbero circa un milione di volte più velocemente
rispetto a cervelli composti da neuroni (a ritmi limitati solo dalla velocità dei segnali elettronici).

Questa stima è rozza, naturalmente. Una sinapsi neurale è molto più complessa di un commutatore
elettronico; essa può modificare la sua risposta ai segnali per mezzo della modifica della sua
struttura. Nel tempo, le sinapsi possono sia formarsi che sparire. Le trasformazioni che avvengono
nelle fibre e nelle connessioni del cervello sono proprio associate ai cambiamenti sul lungo termine
che chiamiamo "apprendimento". Queste trasformazioni hanno spinto il professor Robert Jastrow
(21) di Dartmouth a descrivere il cervello come un tappeto magico, che tesse e ritesse i suoi schemi
neurali durante tutta la sua vita.

Per immaginare un dispositivo simile al cervello e con una flessibilità dello stesso grado,
immaginiamo che i suoi circuiti elettronici siano circondati da nanocomputer meccanici ed
assemblatori, quindi un sistema con un nanocomputer associato ad ognuno dei commutatori
elettronici che, nel circuito, rappresentano gli equivalenti delle sinapsi. Proprio come il macchinario
molecolare di una sinapsi risponde a schemi di attività neurale tramite la modifica della struttura
della sinapsi, così il nanocomputer risponderà agli schemi di attività guidando il nanomacchinario
affinché trasformi la struttura del commutatore. Con la corretta programmazione, e con la
possibilità di uno scambio di comunicazioni fra i nanocomputer che simuli un sistema di
segnalazioni chimiche, un tale dispositivo dovrebbe comportarsi quasi esattamente come un
cervello.

A dispetto della sua complessità, il dispositivo sarebbe compatto. I nanocomputer saranno più
piccoli delle sinapsi e i cablaggi costruiti dagli assemblatori saranno più sottili degli assoni e dei
dendriti del cervello. Cavi sottili e piccoli commutatori realizzeranno circuiti compatti, e la
compattezza dei circuiti aumenterà la velocità del flusso di schemi elettronici a causa della brevità
delle distanze che i segnali dovranno percorrere. Sembrerebbe quindi che una struttura simile al
cervello potrebbe occupare meno di un centimetro cubo di volume (come discusso nelle note) (23).
La maggiore brevità dei percorsi che i segnali devono percorrere contribuirà, assieme alle già rapide
velocità di trasmissione, alla realizzazione di un dispositivo di oltre dieci milioni di volte più veloce
rispetto ad un cervello umano.

Soltanto i problemi di raffreddamento potrebbero limitare macchine di questo tipo a lavorare su


velocità medie più lente. Immaginate allora una macchina dal progetto più tradizionale, ma un
milione di volte più veloce di un cervello e che dissipi un milione di volte più calore (24). Il sistema
consiste di un blocco di zaffiro, costruito da assemblatori e con una dimensione pari a quella di un
tazzone da caffè, zeppo di circuiti di canali preposti al raffreddamento. Alla sua sommità è disposta
una condotta di acqua ad alta pressione e la condotta ha diametro pari a quello dei canali (25). La
sommità è sigillata in modo da obbligare l'acqua di raffreddamento a defluire dalla condotta di
scarico disposta sul fondo. Dai lati del blocco fuoriescono spessi cavi d'alimentazione e fasci in
fibra ottica per canali-dati.

I cavi d'alimentazione forniscono quindici megawatt di potenza elettrica. La condotta di scarico


trasporta via il calore sviluppato attraverso un flusso di acqua bollente da tre tonnellate per minuto.
I fasci in fibra ottica trasportano altrettanti dati di un milione di canali televisivi. Essi permettono la
comunicazione con altri sistemi IA, con simulatori per la progettazione ingegneristica, e con sistemi
assemblatori che costruiscono fisicamente i prototipi per la sperimentazione definitiva dei progetti.
Ogni dieci secondi, il sistema inghiotte un'energia elettrica di quasi due kilowatt-giorno (che
attualmente costa circa un dollaro). Ogni dieci secondi, il sistema completa altrettanto lavoro
progettuale di quanto ne porti avanti un ingegnere al lavoro otto ore al giorno per un anno intero
(che attualmente costa decine di migliaia di dollari). In un'ora viene completato il lavoro di secoli.
Nonostante la sua attività, il sistema lavora in un silenzio rotto soltanto fluire dell'acqua di
raffreddamento.

Queste considerazioni ci forniscono qualche risposta intuitiva alla questione della semplice velocità
del pensiero, ma che dire della sua complessità? Appare improbabile che gli sviluppi della IA si
limitino alla complessità di una singola mente umana. Come fa notare John McCarthy (26) dell'AI
Lab presso Stanford, se possiamo mettere l'equivalente di una mente umana in un teschio di
metallo, possiamo anche mettere in un edificio l'equivalente di dieci migliaia di menti cooperanti
(ed un moderno grande impianto energetico può fornire abbastanza potenza ad ognuna di esse da
farla pensare almeno dieci volte più rapidamente di una persona). All'idea di intelligenze
ingegnerizzate e rapide, si può aggiungere l'idea di intere squadre di intelligenze ingegnerizzate
rapide.

La necessità di effettuare esperimenti rallenterà il lavoro dei sistemi IA per l'ingegneria, ma non poi
così tanto quanto ci si aspetterebbe. Gli ingegneri odierni devono eseguire numerosissimi
esperimenti perché la tecnologia di mole è indisciplinata. Chi può dire in anticipo come si
comporterà esattamente una nuova lega dopo essere stata forgiata e poi contorta per dieci milioni di
volte? Le minuscole crepe indeboliscono il metallo, ma solo i precisi dettagli del suo processo di
fabbricazione determinano con certezza quale sarà la natura e l'effetto delle sue crepe.

Poiché gli assemblatori fabbricheranno oggetti di precisa specificazione atomica, si eviteranno le


impredicibilità della tecnologia di mole. I progettisti (siano essi uomini o intelligenze artificiali)
eseguiranno esperimenti solo in quei casi in cui sperimentare sarà più facile o più economico che
non calcolare, oppure (più raramente) quando la sia carente la conoscenza di base.

Sistemi di IA dotati della possibilità di controllo su nanomacchine, potranno rapidamente eseguire


moltissimi esperimenti. Essi progetteranno apparati di collaudo in tempi di secondi, e questi
apparati verranno costruiti da assemblatori-replicatori senza l'aggravio temporale degli
innumerevoli ritardi (ordinare parti speciali, trasportarle, e così via) che affliggono i progetti attuali.
Gli apparati di collaudo della stessa scala dimensionale di assemblatori, nanocomputer o cellule
viventi, richiederanno soltanto pochi minuti di realizzazione, ed i nanomanipolatori eseguiranno un
milione di movimenti al secondo. Sarà perciò facile eseguire contemporaneamente un milione di
esperimenti ordinari. Così, nonostante i ritardi addizionali causati dalle sperimentazioni, i sistemi di
ingegneria automatizzata muoveranno in avanti la tecnologia con velocità incredibili.

Dal passato al futuro, quindi, il possibile schema del progresso delle nostre abilità pare ormai
delinearsi come qualcosa di simile al seguente: lungo eoni di tempo, la vita ha seguito un progresso
lungo e lento, al passo dettato dall'evoluzione genetica. Le menti dotate di linguaggio hanno
affrettato il passo grazie alla flessibilità dei memi. L'invenzione dei metodi della scienza e della
tecnologia ha ulteriormente accelerato i progressi perché ha forzato i memi ad evolvere più
velocemente. L'accrescimento del benessere, dell'istruzione e della popolazione, nonché la
disponibilità di migliori strumenti fisici ed intellettuali, ha continuato questa tendenza
all'accelerazione lungo il nostro secolo.

L'automazione dell'ingegneria accelererà ulteriormente il passo. I sistemi di progettazione assistita


dal computer miglioreranno, e aiuteranno gli ingegneri umani a generare e a sperimentare le idee
sempre più rapidamente. I successori di EURISKO accorceranno i tempi di progetto suggerendo
proposte progettuali e completando di dettagli le innovazioni umane. Ad un certo punto, sistemi di
ingegneria automatizzata completamente svezzati inizieranno a procedere autonomamente.

In parallelo, la tecnologia molecolare si svilupperà e maturerà, aiutata dai progressi della


ingegneria automatizzata. Quindi, sistemi IA costruiti da assemblatori condurranno ad una
ingegneria automatizzata ancora più rapida, evolvendo idee tecnologiche al passo imposto da
sistemi un milione di volte più veloci di un cervello umano. Il ritmo di crescita del progresso
tecnologico ne verrà accelerato in un grande balzo ascendente: in tempi brevi, molte aree della
tecnologia progrediranno fino ai limiti imposti dalle leggi naturali. Ed in quei campi tecnologici, i
progressi si assesteranno infine su una vetta elevatissima di conquista definitiva.

Questa trasformazione è una prospettiva da vertigine. Dopo una tale trasformazione, se


sopravviveremo, vedremo un mondo di assemblatori-replicatori capaci di fabbricare qualsiasi cosa
gli venga detto di fabbricare, senza necessità di lavoro umano. Al di la di una tale trasformazione, se
sopravviveremo, c'è un mondo di sistemi di ingegneria automatizzata capaci di dirigere gli
assemblatori per fabbricare dispositivi vicini ai limiti del possibile, prossimi ai limiti ultimi della
perfezione tecnica.

Infine, alcuni sistemi di IA saranno dotati sia di grandi capacità tecniche, che delle capacità sociali
necessarie per comprendere il linguaggio ed i desideri umani. Approvvigionato di energia, materiali
ed assemblatori, un tale sistema potrebbe propriamente denominarsi "macchina-genio". Qualsiasi
cosa le si chieda, lei la produce. Ma la leggenda araba e il senso comune universale suggeriscono in
realtà che dovremmo prendere i pericoli di tali motori di creazione molto sul serio.

I passi avanti tecnologici nel campo della IA, sia in quella di tipo tecnica che in quella di tipo
sociale, richiederanno anni per realizzarsi. Come ha detto Marvin Minsky (27), "Le macchine
modestamente intelligenti del vicino futuro promettono solo di portarci la ricchezza e la comodità
che derivano da servitori instancabili, obbedienti ed economici". La maggioranza dei sistemi che al
giorno d'oggi sono denominati "IA" non pensano ne imparano; essi sono solo rozzi distillati delle
abilità di esperti, messe in conserva, impacchettate e distribuite per la consultazione.

Ma l'IA genuina arriverà. Perché resti estranea alle nostre attese dovremmo vivere in un mondo di
fantasia. Attendersi l'IA, in se stesso, non è né ottimistico né pessimistico: come sempre,
l'ottimismo dei ricercatori è il pessimismo dei tecnofobi. Se non ci prepariamo per il loro arrivo, i
sistemi di IA sociale potrebbero costituire una minaccia mortale: basti pensare al danno che, già di
per se, può essere inferto dalla intelligenza semplicemente umana di terroristi e demagoghi.
Analogamente, i sistemi di IA tecnica potrebbero destabilizzare il bilancio militare mondiale,
comportando un improvvisa superiorità unilaterale. Con l'appropriata preparazione, comunque,
l'intelligenza artificiale potrebbe aiutarci a costruire un futuro che funzioni: un futuro che sia
funzionale sia per la gente, che per la Terra e per il progresso dell'intelligenza nell'universo. Il
capitolo 12 suggerirà un approccio al problema, come discussione parziale della più generale
questione di come gestire la trasformazione che assemblatori e IA comporteranno.

Perché discutere oggi dei pericoli? Perché non è mai troppo presto per cominciare a formare delle
istituzioni capaci di trattare tali questioni. La IA "tecnica" è oggi in fase emergente, ed ogni suo
progresso farà accelerare la corsa tecnologica. L'intelligenza artificiale non è che una di molte
potenti tecnologie che dobbiamo imparare a gestire, ognuna associata ad una complessa miscela di
minacce ed opportunità.

----------

Capitolo 6: Il mondo oltre la Terra

Il Nuovo Programma Spaziale


Spazio e Tecnologia Avanzata
Abbondanza
La Società a Somma Positiva

Quella coppa rivoltata che noi chiamiamo 'Il Cielo'; sotto la quale, striscianti prigionieri, nasciamo
e moriamo.
- THE RUBÁIYÁT di OMAR KHAYYAM

La Terra non è che una piccola parte dell'esistente, e quel che resta di esso sarà importante per il
nostro futuro. In termini di energia, materiali e disponibilità di posto per crescere, lo spazio è di
fondamentale importanza. Nel passato, i successi nello spazio hanno regolarmente pervaso le
proiezioni ingegneristiche. Nel futuro, una frontiera spaziale aperta allargherà il mondo umano. I
progressi nell'Intelligenza Artificiale e nella nanotecnologia giocheranno un ruolo cruciale.

La gente ha impiegato intere epoche per riconoscere nello spazio una frontiera. I nostri antenati un
tempo consideravano il cielo notturno come una cupola nera costellata da minuscole scintille; luci
mostrate dagli dei. Non potevano immaginare il viaggio spaziale, perché non sapevano neanche che
lo spazio esterno esistesse.

Ora sappiamo che lo spazio esiste, ma ancora poca gente comprende il suo valore. Questo non è per
nulla sorprendente. Le nostre menti e culture si sono evolute su questo pianeta, e abbiamo appena
iniziato a digerire l'idea di una frontiera al di là del cielo.

È stato soltanto in questo secolo che alcuni progettisti visionari come Hermann Oberth e Robert
Goddard hanno dimostrato che i razzi possono raggiungere lo spazio. Confidavano in ciò perché
conoscevano abbastanza su carburanti, motori, serbatoi e strutture, da riuscire a calcolare che tipo di
razzo multistadio dovesse essere realizzato. E tuttavia, nel 1921, un editorialista del New York
Times rimproverava Goddard per la sua idea della possibilità che i razzi volassero attraverso lo
spazio senza disporre di aria contro cui spingersi, e persino nel ben più tardo 1956, l'Astronomo
Reale di Gran Bretagna brontolava: "il Viaggio Spaziale è una assoluta sciocchezza". Questo
dimostrava soltanto che l'editorialista e l'astronomo erano gli esperti sbagliati a cui chiedere pareri
sull'hardware spaziale. Nel 1957, lo Sputnik orbitò attorno alla Terra, e nel 1961 fu seguito da Yuri
Gagarin. Nel 1969, il mondo vide delle orme sulla Luna.

Tuttavia, pagammo un prezzo per questa ignoranza. Poiché ai pionieri della tecnologia spaziale
mancava un modo qualunque per dimostrare al pubblico la validità delle loro idee, furono costretti a
discutere degli assunti basilari più e più volte ("Si, i razzi funzioneranno nel vuoto... Si, potranno
davvero raggiungere l'orbita...). Impegnati a difendere le basi del volo spaziale, ebbero poco tempo
per discuterne le conseguenze. Così, quando lo Sputnik fece trasalire il mondo e imbarazzò gli Stati
Uniti, la gente era impreparata: non c'era stato nessun dibattito diffuso che avesse delineato una
strategia per lo spazio.
Alcuni dei pionieri avevano intuito cosa c'era da fare: costruire una stazione spaziale ed una navetta
riutilizzabile, quindi raggiungere la Luna o gli asteroidi per prelevarne le risorse. Ma il brusio di
politici agitati soffocò prontamente i loro suggerimenti, ed i politici U.S.A. si pronunciarono a gran
voce per un obiettivo grandioso e di facile comprensione. Nacque così il Progetto Apollo, la corsa
per l'atterraggio di un cittadino U.S.A. sul posto più vicino su cui piantare una bandiera. Il progetto
Apollo scavalcò la costruzione di una stazione spaziale e quella dello Space Shuttle, sostituendo
entrambe con la costruzione di un gigantesco missile capace di raggiungere la Luna in un unico
grande balzo. Il progetto si conquistò la gloria, diede agli scienziati qualche informazione, e portò
grandi rendimenti in termini di avanzamenti tecnologici; ma, all'essenza, fu una vuota bravata. I
contribuenti se ne resero conto, altrettanto fecero i membri del congresso, ed il programma spaziale
appassì.

Durante il programma Apollo, i vecchi sogni resistettero strenuamente nella mente comune, e tali
sogni consistevano di semplici e romantici visioni di colonizzazione di altri pianeti. Le sonde robot
fecero svanire il sogno di un Venere ammantato di giungle, lasciando al suo posto la realtà di una
fornace di dimensioni planetarie pervasa da veleni ad alta pressione. Le sonde cancellarono anche
quelle linee che astronomi privi di fantasia avevano disegnato su Marte, e con esse svanirono anche
i canali ed i Marziani. Al loro posto c'era un Marte di crateri e canyon, e di polvere arida e soffiante.
Oltre Venere, verso il Sole, giaceva la roccia cocente di Mercurio; oltre Marte, c'era solo pietrisco e
ghiaccio. I pianeti si classificavano in "morti" o in "assassini", ed il sogno di nuove Terre dovette
proiettarsi verso stelle lontane. Lo Spazio sembrava proprio un vicolo cieco.

Il Nuovo Programma Spaziale

Un nuovo programma spaziale risorse dalle rovine del vecchio. Una nuova generazione di
sostenitori dello spazio e di ingegneri ed imprenditori spaziali, puntavano ora a fare dello spazio la
frontiera che sarebbe dovuta essere fin dall'inizio: un posto per lo sviluppo e lo sfruttamento e non
per vane gesta politiche. Confidavano nel successo perché lo sviluppo spaziale non richiede alcun
progresso rilevante nella scienza o nella tecnologia. Infatti, la razza umana potrebbe conquistare lo
spazio applicando le stesse tecnologie di vent'anni fa, ed evitando voli esibizionistici si potrebbe
persino trarre profitto dalla conquista spaziale. Le attività spaziali non hanno bisogno d'essere
dispendiose.

Consideriamo l'alto costo odierno per il raggiungimento dell'orbita: migliaia di dollari per ogni
chilogrammo inviato. A cosa è dovuto questo costo? Per lo spettatore del lancio di uno shuttle,
scosso dal fragore ed intimorito dalle fiamme, la risposta sembra ovvia: il carburante deve costare
una fortuna. Anche le compagnie aeree pagano grosso modo metà dei loro costi operativi diretti per
il solo carburante. Un razzo assomiglia ad un aereo di linea perché è fatto di alluminio ed è pieno
zeppo di motori, controlli ed elettronica, ma il carburante costituisce pur sempre quasi tutta la sua
massa quando il razzo è fermo al blocco di partenza. Per cui è naturale attendersi di dover attribuire
al carburante ben oltre la metà del costo operativo di un razzo. Eppure, questa aspettativa è falsa.
Nei lanci lunari il costo del carburante necessario per raggiungere l'orbita ammontava a meno di un
milione di dollari, pochi dollari per ogni chilogrammo spedito in orbita, meno dell'uno per cento del
costo totale. Anche oggi, il carburante resta una parte trascurabile del costo di un volo spaziale.

Perché il volo spaziale costa così tanto in più rispetto ad un volo aereo? In parte, a causa del fatto
che le navi spaziali non vengono costruite in quantità; questo obbliga i costruttori a recuperare i loro
costi di progetto dalla vendita di solo poche unità, e a costruire manualmente tali unità e con grandi
costi. Inoltre, la maggior parte delle navi spaziali diventano inutilizzabili dopo un solo utilizzo, ed
anche gli shuttle vengono messi in volo poche volte lungo un anno; il loro costo non può essere
distribuito su molti voli, uno per ogni giorno dell'anno, come si può invece fare per il costo degli
aeri di linea. Infine, anche i costi degli spazioporti possono essere ammortizzati solo su pochi voli al
mese, contro le migliaia di voli su cui possono ammortizzarli i grandi aereoporti. Tutto ciò cospira
per rendere ogni volo nello spazio di una dispendiosità scoraggiante.
Ma in alcuni studi della Boeing Aerospace Company, la compagnia aerea che già riuscì ad
abbassare notevolmente i costi dei trasporti su jet per quasi tutto il mondo, mostrano che una flotta
di navette pienamente riutilizzabili, che volino e che siano manutenzionate come fossero aerei di
linea, abbasserebbero il costo del raggiungimento dell'orbita di un fattore di cinquanta o più. La
chiave non sta in nuova tecnologia, ma in una economia di scala e nella trasformazione dello stile di
management.

Lo spazio offre immense opportunità industriali. I vantaggi per la messa in orbita dei satelliti di
osservazione e di comunicazione sono ben noti. I futuri satelliti di comunicazione saranno
sufficientemente potenti da comunicare con stazioni al suolo gestite manualmente, determinando
così il progresso ultimo nei servizi di telefonia mobile. Le compagnie si stanno già muovendo per
trarre vantaggio dalla gravità "zero" con l'intento di eseguire in assenza di gravità alcuni delicati
processi di separazione che producano farmaci migliorati; altre compagnie progettano di far
crescere in assenza di gravità dei migliori cristalli per l'elettronica. Negli anni che precederanno il
momento in cui gli assemblatori si faranno carico della produzione dei materiali, gli ingegneri
sfrutteranno lo spazio per estendere le capacità della tecnologia di mole. L'industria spaziale offrirà
un mercato crescente di servizi di lancio, abbassando i costi dei lanci stessi. Il crollo dei costi di
lancio, a sua volta, stimolerà la crescita dell'industria spaziale. Il trasporto su razzi verso l'orbita
Terrestre diverrà infine a buon mercato.

Pianificatori ed imprenditori spaziali stanno già puntando lo sguardo al di là dell'orbita Terrestre,


verso le risorse del sistema solare. Nello spazio profondo, comunque, i razzi diventano ben presto
troppo dispendiosi per il trasporto merci, dato che inghiottono avidamente carburante che a sua
volta deve essere trasportato nello spazio da razzi. I razzi che bruciano carburante sono obsoleti
quanto i fuochi artificiali cinesi, i quali sono ben più vecchi della bandiera "stelle e strisce". I razzi
si sono evoluti per ragioni naturali: sono compatti, potenti, di utilità militare, possono penetrare
l'aria e lottare vigorosamente contro la gravità. Eppure, gli ingegneri spaziali conoscono alcune
alternative (1).

I veicoli non hanno bisogno di grandi esplosioni di potenza per muoversi attraverso il vuoto privo
di attrito dello spazio. Piccole forze possono, lentamente e costantemente, spingere un veicolo fino
a velocità enormi. Poiché l'energia ha massa, il riflettersi della luce solare su uno specchio sottile,
ossia su una "vela solare", fornisce una forza di spinta di questo tipo. La trazione della gravità
solare ne fornisce un'altra. Insieme, pressione luminosa e gravità possono portare una nave spaziale
in qualsiasi posto del sistema solare, e farla tornare di nuovo indietro. Solo le calde vicinanze del
Sole e l'attrito delle atmosfere planetarie limiterebbero il viaggio, costringendo la vela a tenersi alla
larga da entrambe.

La NASA ha condotto degli studi su vele solari progettate in modo da essere trasportate nello
spazio all'interno di razzi, ma purtroppo le vele devono essere sufficientemente forti e robuste per
sopravvivere allo stress del lancio e del loro successivo spiegamento. Per cui, gli ingegneri
fabbricheranno le vele direttamente nello spazio, utilizzando una tenso-struttura di piccola massa
per supportare specchi composti di una sottile pellicola metallica. Il risultato sarebbe la "vela di
luce" (2), una categoria di vele solari di alte prestazioni. Dopo una accelerazione applicata
costantemente per un anno intero, una vela di luce può raggiungere una velocità di cento chilometri
al secondo, lasciando mordere la sua polvere ai più veloci fra gli odierni razzi.

Se immaginate una rete di fili in fibra di grafite, come una tela di ragno tessuta su una estensione di
chilometri, e con spazi vuoti fra i fili della dimensione di un campo da calcio, siete sulla buona
strada per immaginare la struttura di una vela solare. Se immaginate gli spazi vuoti colmati da
pannelli riflettenti costituiti da fogli di alluminio più sottili di una bolla di sapone, avrete una idea
un po' più corretta di come dovrebbe apparire una vela di luce: tanti pannelli riflettenti strettamente
legati assieme per formare un immenso ed ondulato mosaico di specchi. Immaginate ora il carico di
un cargo che penda dalla ragnatela come un paracadutista dal suo paracadute, mentre la forza
centrifuga tiene la ragnatela costellata di pannelli-specchi, tesa e piana nel vuoto, e avrete quasi
afferrato l'immagine giusta.

Per costruire le vele di luce con la tecnologia di mole, dovremmo imparare a realizzarle nello
spazio; i loro immensi riflettori sarebbero troppo delicati per sopravvivere al lancio e allo
spiegamento. Occorre costruire strutture di impalcatura, fabbricare sottili pellicole riflettenti, ed
usare nello spazio dei bracci robotici controllati da remoto. Ma d'altra parte, per altre costruzioni, i
pianificatori spaziali stanno già puntando all'acquisizione della piena padronanza nelle abilità di
costruzione e fabbricazione, nonché alla acquisizione della piena padronanza tecnica sulla robotica.
Se, nel corso dello sviluppo spaziale, realizzeremo le vele di luce piuttosto precocemente, lo sforzo
varrà come una esercitazione sul campo per l'acquisizione di queste abilità, un esercizio che non
richiede il lancio di tanto materiale. Nonostante le vele di luce debbano essere molto estese, le
impalcature (assieme al materiale di molte vele) dovrebbero risultare abbastanza leggere da potersi
trasportare in orbita solo con uno o due voli di shuttle.

Una qualche facilitazione tecnologica, quindi, consentirà la produzione economica delle vele. Una
volta costruite, esse saranno altrettanto economiche da usare: avranno ben poche parti mobili
critiche, una piccola massa, e nessun consumo di carburante. Saranno completamente differenti dai
razzi per forma, funzionamento e costo operativo. Infatti, i calcoli suggeriscono che il costo delle
vele sarà differente da quello dei razzi di un fattore all'incirca pari ad un migliaio, ovviamente in
favore delle vele di luce.

Nella visione della maggior parte della gente, il resto del sistema solare è tanto vasto quanto
inaccessibile. Esso è vasto; come già fu per la Terra, il sistema solare richiederà mesi per essere
circumnavigato a vela. Tuttavia, la sua apparente inaccessibilità ha a che fare con la distanza meno
di quanto abbia a che fare con il costo del trasporto tramite razzi.

Le vele di luce possono definitivamente infrangere la barriera dei costi, aprendoci la porta sul
sistema solare. Le vele di luce renderebbero gli altri pianeti più facili da raggiungere ma non più
utili: essi resterebbero dei deserti morti. La gravità dei pianeti impedirebbe alle vele di portarsi sulle
loro superfici, e sarà di ostacolo anche per lo svolgimento di ogni attività sulla superficie di un
pianeta. Stazioni spaziali rotanti su se stesse possono simulare la gravità, se necessario, ma stazioni
confinate in prossimità dei pianeti non possono sfuggire da questi. Ancora peggio, le atmosfere
planetarie bloccano l'energia solare, spargono polveri, corrodono i metalli, riscaldano i refrigeratori,
raffreddano i caloriferi, e trascinano giù le cose. Persino la Luna, pur priva di atmosfera, con la sua
rotazione blocca la luce solare per metà del tempo, e possedendo inoltre una sufficiente gravità può
far atterrare le vele di luce oltre ogni speranza di fuga. Le vele di luce sono veloci e instancabili ma
non robuste.
Il grande e duraturo valore dello spazio sta nelle sue risorse in termini di materia, energia e
"spazio". I pianeti occupano spazio e detengono energia. Le risorse materiali che essi offrono sono
distribuite in modo sconveniente. Gli asteroidi, al contrario, sono montagne volanti di risorse (3)
che tracciano orbite attraversanti l'intero sistema solare. Alcuni incrociano persino l'orbita della
Terra; alcuni hanno anche colpito la Terra, generando dei crateri a seguito dall'esplosione d'impatto.
L'attività mineraria sugli asteroidi sembra perseguibile. Potrebbero servirci razzi rombanti per
portare le cose su nello spazio, ma i meteoriti dimostrano che rocce ordinarie possono cadere dallo
spazio e, come lo space shuttle, farlo senza necessariamente bruciare mentre cadono giù. La
consegna di materiali da un asteroide verso un bersaglio di destinazione al suolo, collocato per
esempio in una pianura salata, costerà ben poco.

Anche gli asteroidi piccoli, sono pur sempre grandi se valutati in termini umani; essi contengono
miliardi di tonnellate di risorse. Alcuni asteroidi contengono acqua, nonché una sostanza che
sembra un olio di rocce scistose. Alcuni contengono rocce piuttosto ordinarie. Altri contengono
metalli a loro volta contenenti elementi scarsamente presenti nella crosta terrestre, elementi che
alcune ere fa, all'epoca della formazione dell'attuale nucleo terrestre, sprofondarono verso il basso
oltre ogni possibilità di recupero: questo acciaio meteoritico è una forte e tenace lega composta da
ferro, nichel e cobalto, con tracce di preziose quantità di metalli del gruppo del platino ed oro. Un
pezzo largo un chilometro di questo materiale (e ce ne sono moltissimi) contiene metalli preziosi
per un valore di diverse migliaia di miliardi di dollari, nonché nichel e cobalto in quantità sufficienti
a rifornire l'intera industria della Terra per molti anni.

Il sole inonda lo spazio con energia facile da intercettare ed immagazzinare. Una struttura di un
chilometro quadrato e composta da riflettori metallici, costituirebbe un collettore di luce solare in
grado di intercettare potenze di circa un miliardo di watt, e che funzionerebbe senza essere
interrotto dalle presenza delle nuvole o dai periodi notturni. Nella calma dello spazio, priva di
tempo atmosferico, il collettore più insignificante sarà come una diga idroelettrica permanente (4).
Poiché il Sole emette molta più energia in un microsecondo di quanta ne usi l'intera razza umana in
un anno, nei tempi a venire l'energia non scarseggerà mai.

Infine, lo spazio stesso offre posto per vivere. La gente un tempo guardava allo spazio in termini di
pianeti. Immaginava città sotto cupole, costruite su pianeti morti ma lentamente convertiti in pianeti
simili alla Terra, e pianeti simili alla Terra raggiunti dopo anni di volo fra le stelle. Ma i pianeti
sono un cattivo affare, generalmente offrono gravità, atmosfera, lunghezza del giorno e posizione
sbagliate.

Per gli insediamenti umani, lo spazio libero costituisce un sito di costruzione migliore. Il professor
Gerard O'Neill (5) della Princeton University, portò questa idea all'attenzione pubblica,
contribuendo così a ravvivare l'interesse nello spazio durante la crisi post-Apollo. Egli mostrò che
materiali di costruzione ordinari, quali acciaio e vetro, possono essere sfruttati per costruire nello
spazio dei cilindri abitabili e con dimensioni chilometriche in lunghezza e circonferenza. In base al
suo progetto, nei cilindri sarebbe previsto uno strato di terra, posto sotto i piedi dei suoi abitanti, che
dovrebbe proteggere questi ultimi dalla radiazione naturale dello spazio proprio come gli abitanti
della Terra sono schermati dall'atmosfera sopra di loro. La rotazione produrrebbe una accelerazione
uguale alla gravità Terrestre, ed ampi specchi e pannelli-finestra inonderebbero di luce solare
l'interno dei cilindri. Aggiungendo suolo, fiumi, vegetazione ed immaginazione, le terre interne al
cilindro potrebbero competere con le migliori valli della Terra come luoghi di insediamento. Con le
sole risorse degli asteroidi, saremo in grado di costruire l'equivalente pratico di un migliaio di nuove
Terre.

Adattando la tecnologia presente potremmo già aprire la frontiera spaziale. La prospettiva è


incoraggiante. Ci mostra una via ovvia per scavalcare i limiti terrestri allo sviluppo, allentando una
delle paure che hanno offuscato la nostra visione del futuro. La promessa della frontiera spaziale,
quindi, può ravvivare la speranza umana, una risorsa di cui avremo bisogno in abbondanza se
saremo impegnati anche in altri problemi.

Spazio e Tecnologia Avanzata

Adattando la tecnologia presente, potremmo davvero aprire la frontiera spaziale, ma non vogliamo
farlo. Percorrendo la strada delineata dall'attuale movimento pro-spazio, la civiltà umana
impiegherebbe decadi prima di consolidare la sua presenza nello spazio. Prima di allora, altri passi
avanti tecnologici potrebbero aver aperto nuove strade.

Attualmente, diverse squadre di ingegneri impiegano tipicamente dai cinque ai dieci anni per
progettare un nuovo sistema spaziale, spendendo decine di migliaia di milioni di dollari lungo la
strada. Questi ritardi e costi ingegneristici rendono penosamente lento il progresso. Negli anni a
venire, tuttavia, i sistemi di progettazione assistita dal computer evolveranno verso i sistemi di
ingegneria automatizzata. Quando questo accadrà, i ritardi ed i costi ingegneristici si ridurranno
enormemente finendo poi per crollare; i sistemi di fabbricazione controllata da computer
decurteranno ulteriormente i costi complessivi. Verrà un giorno in cui, assieme, progettazione e
produzione automatica saranno in grado di sviluppare sistemi spaziali in tempi e con costi oltre
dieci volte inferiori rispetto agli attuali. E il nostro progresso spaziale "salirà alla stelle".

E a quel punto, i coloni spaziali potrebbero mai guardare indietro interpretando il nostro attuale
programma spaziale come la chiave dello sviluppo spaziale? Probabilmente no. Essi avranno
assistito a molti più progressi tecnologici realizzati in una manciata di anni di quelli che gli
ingegneri spaziali sono riusciti a gestire nelle precedente manciata di decadi. Essi potrebbero ben
concludere che IA e Robotica hanno fatto molto più per lo sviluppo dello spazio di quanto abbia
fatto un intero esercito di ingegneri della NASA.
Il passo avanti tecnologico degli assemblatori e l'ingegneria automatizzata si coalizzeranno per
condurci verso progressi rispetto ai quali i nostri sforzi spaziali attuali sembreranno piuttosto
pittoreschi. Nel capitolo 4, ho descritto come gli assemblatori-replicatori saranno in grado,
utilizzando ben poco intervento umano, di costruire un leggero e robusto motore per razzo.
Utilizzando processi analoghi, costruiremo interi veicoli spaziali dalle prestazioni eccezionali e dal
costo ridottissimo. A parità di peso, i materiali di questi velivoli, essendo dotati di una struttura
basata su quella del diamante, avranno approssimativamente una resistenza pari a cinquanta volte
quella dell'alluminio usato negli attuali shuttle (nonché quaranta volte la resistenza alle
deformazioni elastiche); veicoli costruiti con questi materiali possono essere prodotti in modo da
risultare oltre il novanta per cento più leggeri rispetto agli analoghi veicoli odierni. Una volta nello
spazio, tali veicoli dispiegheranno i loro collettori solari per rifornirsi di energia in abbondanza.
Usando questa energia per alimentare assemblatori (6) e disassemblatori, i veicoli ricostruiranno se
stessi durante il volo, adattandosi così alle condizioni mutevoli cui sono sottoposti o semplicemente
al capriccio dei loro passeggeri. Oggi, il viaggio spaziale è una sfida. Domani, sarà facile e
conveniente.

Poiché la nanotecnologia di per se stessa si presta a produrre oggetti piccoli, consideriamo la


navetta spaziale per trasporto passeggeri più piccola possibile: lo spacesuit (l'abito spaziale).
Essendo obbligati all'utilizzo di materiali deboli, pesanti e passivi, gli ingegneri attuali costruiscono
tute spaziali goffe e voluminose. Un'occhiata ad una potenziale spacesuit avanzata illustrerà alcune
delle possibilità della nanotecnologia.

Immaginate di essere a bordo di una stazione spaziale che ruoti su se stessa per simulare la normale
gravità terrestre. Dopo l'addestramento vi viene consegnata una suit da provare: eccola li appesa alla
parete, una cosa grigia dall'aspetto gommoso e corredata da un elmetto trasparente. La afferrate,
sollevate il suo non trascurabile peso, vi spogliate e vi infilate attraverso la cucitura dell'apertura
frontale.

Avvertite che la suit è più soffice della più soffice gomma, ma ha una superficie interna untuosa.
Scivola addosso facilmente e la cucitura d'entrata si sigilla al solo tocco. Essa è un rivestimento
aderente attorno alle vostre dita come lo sarebbe un sottile guanto di cuoio, e si inspessisce
progressivamente più su, verso il vostro braccio, fino a diventare spessa quanto una mano nella
zona attorno al vostro torace. Alle vostre spalle, a malapena evidente, c'è un piccolo zaino. Attorno
alla vostra testa, quasi invisibile, c'è l'elmetto. Dietro il vostro collo, la superficie interna si adatta
perfettamente alla vostra pelle, in un abbraccio dal tocco leggero e uniforme che presto diventa
quasi impercettibile.

Vi alzate e camminate attorno, sperimentando la suit. Battete i piedi e non avvertite alcun peso
extra dovuto ad essa. Vi piegate e vi stendete, e non sentite nessun impedimento, nessuna grinza,
nessun punto di pressione. Quando strofinate fra loro le vostre dita, le sentite sensibili come se
fossero nude, ma in qualche modo leggermente più spesse. Quando respirate, l'aria ha un gusto
pulito e fresco. Infatti sentite che potreste dimenticarvi del tutto che state indossando una suit. E
come se non bastasse, vi sentite altrettanto a vostro agio quando vi incamminate fuori, nel vuoto
dello spazio.

La suit è capace di tutto questo, ed altro ancora, grazie ad una complessa attività interna e ad una
struttura la cui tessitura è quasi altrettanto intricata di quella dei tessuti viventi. Un dito di guanto
spesso un millimetro ha spazio per un migliaio di livelli, spessi un micrometro ognuno, e composti
da nanomacchinari e nanoelettronica attiva. Una toppa della dimensione di un polpastrello ha spazio
per un miliardo di nanocomputer meccanici, e il 99, 9 percento del suo volume resta libero per altri
componenti.

Per cui, resta spazio libero in abbondanza per una struttura attiva. Il livello intermedio del materiale
della suit (7) è composto da un intreccio tridimensionale di fibre la cui struttura è basata su quella
del diamante, e tali fibre agiscono in modo molto simile a muscoli artificiali ma, in più, sono in
grado di spingere altrettanto bene di quanto siano in grado di tirare (come discusso nelle note).
Queste fibre occupano la maggior parte del volume e rendono il materiale della suit forte come
l'acciaio. Mosse da microscopici motori elettrici e controllate da nanocomputer, esse donano al
materiale della suit la sua notevole flessibilità, consentendole di allungarsi, contrarsi e piegarsi a
seconda delle necessità. Quando, precedentemente, la suit era sembrata soffice al tatto, questa
sensazione era dovuta al fatto che la suit era stata programmata ad agire in maniera "soffice". La
suit non ha difficoltà a mantenere la sua forma nel vuoto; ed è forte abbastanza da non esplodere nel
vuoto come farebbe invece un pallone. Allo stesso modo, non ha difficoltà a sostenere il suo proprio
peso o a muoversi per adattarsi ai vostri movimenti rapidamente, dolcemente e senza resistenza.
Questa è uno dei motivi per cui sembra quasi che non ci sia affatto.

Inoltre, avvertite le vostre dita quasi come fossero nude perché sentite la tessitura di quello che
toccate. Questo accade perché la superficie della suit è rivestita di sensori di pressione, e la fodera
interna della suit è rivestita da strutture attive: il guanto vi fa avvertire la forma di qualsiasi cosa
tocchiate, compresi i dettagliati schemi della pressione che l'oggetto esercita, e trasmette lo stesso
schema di pressione alla vostra pelle. Può anche invertire il processo, ossia trasmettere all'esterno lo
schema dettagliato delle forze esercitate dalla vostra pelle sull'interno del guanto. In questo modo il
guanto finge di non esserci, ed alla vostra pelle pare d'essere nuda.

La suit ha la forza dell'acciaio e la flessibilità del vostro stesso corpo. Se modificate le impostazioni
dei controlli della suit, essa continua ad adattarsi ai vostri movimenti, ma con una differenza
sostanziale. Invece di trasmettere semplicemente le forze che voi esercitate, potrebbe amplificarle di
dieci volte. Allo stesso modo, quando qualcosa si strofina contro di voi, la suit trasmette all'interno
solo un decimo della forza (8). Ora siete pronti ad un combattimento di wrestling contro un gorilla.

L'aria fresca che respirate non dovrebbe sorprendervi; lo zaino include una fornitura di aria e di
altri generi di consumo. Tuttavia, dopo pochi giorni all'esterno ed esposti alla luce solare, la vostra
aria non si esaurisce: come una pianta, la suit assorbe la luce del sole e l'anidride carbonica che
esalate, per produrne ossigeno fresco. Sempre come una pianta (o come un intero ecosistema), essa
decompone in molecole semplici le altre scorie che si generano e le riassembla in schemi molecolari
di cibo sano e fresco. Di fatto, la suit vi mantiene in condizioni di comfort (9), ben nutriti ed in
grado di respirare, e può farlo quasi in qualsiasi posto del sistema solare interno.

Inoltre, la suit è durevole. Può tollerare il guasto di numerose nanomacchine poiché ne ha molte
altre pronte a farsi carico del lavoro. Lo spazio fra le fibre attive lascia spazio ai movimenti di
assemblatori e disassemblatori incaricati di riparare i dispositivi danneggiati. La suit ripara se stessa
con la stessa velocità con cui si logora.

Entro i confini del possibile, la suit potrebbe esser corredata di molte altre caratteristiche. Un
granello di materiale più piccolo di una capocchia di spillo, potrebbe contenere il testo di ogni libro
finora pubblicato, per consentire la sua visualizzazione su uno schermo pieghevole. Un'altro
granello potrebbe essere un "seme" contenente i piani progettuali per un insieme di dispositivi più
grande dell'insieme di tutti quelli che la razza umana abbia costruito fino ad oggi (10), e contenere
inoltre assemblatori-replicatori capaci di fabbricare quantomeno alcuni di questi dispositivi, se non
addirittura tutti.

Inoltre, veloci sistemi di IA tecnica come quelli descritti nel capitolo precedente potrebbero
progettare la suit in una sola mattinata (11), e terminare la sua costruzione il pomeriggio stesso.

Tutto quello che realizziamo nello spazio con la moderna tecnologia di mole verrà rapidamente e
drammaticamente sorpassato poco dopo l'avvento della tecnologia molecolare e dell'ingegneria
automatizzata. In particolare, costruiremo assemblatori molecolari che possano funzionare nello
spazio (12). Questi replicatori utilizzeranno energia solare, così come fanno le piante, e con tale
energia convertiranno i detriti asteroidali in copie di se stessi e prodotti utilizzabili dagli uomini.
Con tali replicatori, riusciremo ad afferrare saldamente le risorse del sistema solare.

Finora, molti lettori avranno notato che questa discussione, come pure altre in precedenza, suona
proprio come fosse fantascienza. Alcuni potrebbero esserne compiaciuti, altri invece potrebbero
accogliere con timore temere l'eventualità che le possibilità future presentino davvero questa
caratteristica. Altri ancora, tuttavia, potrebbero essere dell'opinione che "somigliare alla
fantascienza" sia in qualche modo un presupposto per poter liquidare il discorso. Questa sensazione
è comune e merita di essere analizzata.

Tecnologia e fantascienza hanno a lungo condiviso una curiosa relazione. Nell'immaginare le


tecnologie future, gli scrittori di fantascienza sono stati guidati in parte dalla scienza, in parte dai
desideri umani, ed in parte dalla domanda di mercato per storie bizzarre. Alcune delle loro
invenzioni in seguito si realizzarono davvero, perché le idee che sembravano plausibili ed
interessanti nella finzione narrativa talvolta si dimostravano attraenti e possibili nella realtà. Inoltre,
quando gli scienziati o gli ingegneri intravedono una sensazionale possibilità futura, come per
esempio il volo spaziale tramite razzi, gli scrittori di fantascienza di solito si appropriano dell'idea e
la rendono popolare.

In seguito, quando i progressi ingegneristici spostano queste possibilità più vicino alla effettiva
realizzabilità, altri scrittori esaminano i fatti e ne descrivono le prospettive. Queste descrizioni, a
meno che non siano davvero astratte, "suonano" come fantascienza. Le possibilità future spesso
assomigliano alla fantascienza di oggi, proprio come gli odierni robot, astronavi e computer
assomigliano alla fantascienza di ieri. E come potrebbe essere altrimenti? Le tecnologie
drasticamente nuove suonano come fantascienza perché gli autori di fantascienza, a dispetto delle
loro frequenti fantasticherie, non sono ciechi, ed in più nutrono un genuino interesse professionale
per la tecnologia.

Spesso, gli autori di fantascienza piegano agli scopi della narrazione (ossia "falsificano") il
contenuto scientifico delle loro storie, di modo da "giustificare" delle tecnologie sensazionali.
Alcuni pensatori un po' confusi, prendono queste descrizioni di progressi tecnici sensazionali, e ne
estrapolano un quadro coerente utilizzando questa scienza contraffatta, ignorando però il contesto in
cui essa compariva. E questo è molto spiacevole. Quando gli ingegneri estrapolano delle proiezioni
riguardanti delle abilità future, verificano sperimentalmente le loro idee e le evolvono per adattarle
alla migliore comprensione delle leggi della natura fra quelle di cui disponiamo al momento. E'
indispensabile distinguere i concetti che ne risultano dalle idee evolutesi per adattarsi a soddisfare la
domanda sul mercato di narrativa. Le nostre vite dipendono da questo.

Molte cose resteranno comunque impossibili, persino per la tecnologia molecolare. Nessuna suit
spaziale, per quanto meravigliosa, sarà mai in grado di comportarsi come un razzo capace di
spingervi avanti ed indietro, interminabilmente ed a grandissime velocità, così come nessuna suit vi
permetterà di sopravvivere a grandi esplosioni, o attraversare i muri, o semplicemente di restare
indefinitamente freschi in una stanza calda ed isolata. Dobbiamo spingerci molto lontano prima di
raggiungere i limiti del possibile, tuttavia questi limiti esistono. Ma si tratta di un argomento che
verrà ripreso più tardi.

Abbondanza

Risorse dello spazio, assieme ad assemblatori ed ingegneria automatizzata, gettano le basi per un
futuro di grande abbondanza materiale. Cosa si intenda esattamente con questa affermazione può
comprendersi meglio esaminando i costi.

I costi riflettono i limiti delle nostre risorse e delle nostre capacità; costi alti indicano risorse scarse
ed obiettivi difficili da raggiungere. I profeti della scarsità hanno in effetti predetto la crescita
vertiginosa dei costi, e con essa un certo tipo di futuro. Il costo delle risorse, comunque, dipende
sempre dalla tecnologia. Sfortunatamente, gli ingegneri che hanno tentato di prevedere il costo delle
future tecnologie si sono di solito imbattuti in un groviglio di dettagli e di incertezze che si è
dimostrato impossibile da districare. Questo problema ha occultato la nostra comprensione del
futuro.

La prospettiva dei replicatori assemblatori, dell'ingegneria automatizzata e delle risorse spaziali


taglia questo nodo Gordiano della previsione dei costi. Oggi, il costo dei prodotti include i costi
distinti di lavoro, capitale, materiali grezzi, energia, siti di produzione, eliminazione
dell'inquinamento, organizzazione, distribuzione, tassazione, e progetto. Per comprendere come
cambierà il costo totale, consideriamo questi elementi uno per uno.

Lavoro:

Per costruire assemblatori-replicatori, dopo che questi siano stati realizzati per la prima volta, non
ci sarà bisogno di alcun lavoro umano. Di quale utilità potrebbero essere le mani umane nel far
funzionare un assemblatore? Inoltre, disponendo anche di dispositivi robotici di varie dimensioni
per assemblare in sistemi più grandi le singole parti costruite dagli assemblatori-replicatori, l'intero
processo di fabbricazione dall'assemblaggio delle molecole all'assemblaggio dei grattacieli potrebbe
affrancarsi del tutto dal costo del lavoro.

Capitale:

I sistemi basati sugli assemblatori, se propriamente programmati, costituiranno di per se stessi un


capitale produttivo. Assieme con macchine robotiche più grandi, saranno in grado di costruire
virtualmente ogni cosa, incluse copie di se stessi. Poiché questo capitale auto-replicante saprà
raddoppiarsi molte volte in un giorno, solo la domanda e le risorse disponibili potranno limitarlo.
Un capitale che si possiede in quantità dipendente dalla necessità, non costa virtualmente nulla.

Materiali grezzi:

Poiché le macchine molecolari disporranno gli atomi nel modo più vantaggioso, poco materiale
può bastare per fare molto. Gli elementi più comuni, come idrogeno, carbonio, azoto, ossigeno,
alluminio e silicio, sembrano essere i migliori per la costruzione della maggior parte della massa
contenuta nella maggior parte delle strutture, dei veicoli, dei computer, degli abiti e così via: questi
elementi sono leggeri e formano legami chimici molto forti. Poiché polvere ed aria contengono
questi elementi in abbondanza, i materiali grezzi possono essere economici come la polvere.

Energia:

Gli assemblatori saranno in grado di funzionare alimentati da energia chimica o elettrica. Sistemi
costruiti dagli stessi assemblatori convertiranno l'energia solare in energia chimica, come fanno le
piante o le fotocelle solari. Le celle solari esistenti sono già più efficienti delle piante. Poiché i
collettori solari saranno costruiti a loro volta da assemblatori-replicatori, carburante e potenza
elettrica costeranno ben poco.

Siti di produzione:

Il sistema di produzione basato sugli assemblatori occuperà poco spazio. La maggior parte dei
sistemi potrebbero stare in un armadio (o in un ditale, o nella cruna di un ago). I sistemi più grandi,
se qualcuno volesse realizzare qualcosa che richiede una insolita estensione spaziale, potrebbero
essere piazzati sottoterra o nello spazio. A questo scopo, la produzione basata sugli assemblatori
potrà economicamente fabbricare sia macchine scavatrici che navi spaziali.

Eliminazione dell'inquinamento:

I sistemi assemblatori saranno capaci di mantenere il controllo degli atomi che utilizzano, rendendo
la produzione altrettanto pulita del processo di crescita di un albero di mele, o persino più pulita. Se
poi il "frutteto" rimanesse troppo sporco o troppo brutto, saremo in grado di rimuoverlo
interamente, facendolo scomparire dalla faccia della Terra (13).

Organizzazione:

Attualmente, gli impianti industriali per la produzione richiedono una organizzazione per
coordinare orde di lavoratori e dirigenti. Le macchine per la produzione basata sugli assemblatori
non conterranno nessuna persona. Più semplicemente, si insedieranno in un posto e produrranno le
cose che gli sono state richieste. La loro programmazione iniziale fornirà tutta l'organizzazione e
l'informazione di cui esse hanno bisogno per fabbricare una gran varietà di prodotti.

Distribuzione:
Con veicoli automatici che scorrono in tunnel fabbricati da economiche macchine scavatrici, la
distribuzione non ha bisogno né di usare lavoro umano, né di deturpare il paesaggio. Poiché ci
sarebbero assemblatori ovunque, sia in casa che in ambienti pubblici, ci sarà meno bisogno della
distribuzione stessa.

Tassazione:

La maggior parte delle tasse preleva una percentuale fissa dal prezzo di un dato prodotto, e quindi
incide sul costo del prodotto in quella fissata percentuale. Se il costo è trascurabile, la tassa sarà
trascurabile. Inoltre, gli stessi governi avranno i propri replicatori e i propri materiali grezzi, per cui
avranno meno motivo di tassare la gente.

Progetto:

Ai punti già esaminati qui sopra, va aggiunta un'altra giustificazione dei bassi costi di produzione. I
sistemi di IA tecnica, evitando il costo del lavoro ingegneristico, elimineranno virtualmente il costo
di progettazione. Questi sistemi IA risulteranno economici a loro volta, sia da un punto di vista
produttivo che da un punto di vista operativo, poiché saranno stati fabbricati da assemblatori e non
avranno alcuna inclinazione a fare null'altro che progettare.

In breve, al termine di un lungo periodo di proficui sviluppi delle tecnologie molecolari e dei
computer, i costi di progettazione e fabbricazione caleranno drammaticamente. Poco più sopra ho
parlato di materie prime "economiche come la polvere" e, di fatto, gli assemblatori saranno in grado
di fabbricare quasi qualunque cosa a partire da polvere e luce solare.

Le risorse spaziali, comunque, cambieranno il già economico valore della "economica polvere"
deprezzandolo ulteriormente: il terriccio agricolo ha pur sempre un suo valore nell'ecosistema della
Terra, ma i detriti degli asteroidi provengono da un deserto morto e desolato per cui la loro terra
varrà ancor meno. Per lo stesso motivo, gli assemblatori nello spazio funzioneranno con la luce
proveniente direttamente dal Sole.

Le risorse spaziali sono immense. Un asteroide potrebbe seppellire un continente della Terra sotto
uno strato di materie prime profondo un chilometro. Lo spazio inghiotte il 99,999999955 per cento
di tutta la luce del Sole che non colpisce la Terra, e la maggior parte di questa radiazione luminosa
si perde nel vuoto interstellare.

Lo spazio ha materia, energia e "spazio" a sufficienza per progetti di vaste dimensioni, incluse
enormi colonie spaziali. I sistemi basati sui replicatori saranno capaci di costruire mondi con scale
comparabili a quelle di continenti e somiglianti ai cilindri del Dr. O'Neill's ma fatti di materiali
robusti a base di carbonio. Con questi materiali e con l'acqua prelevata dalle lune ghiacciate del
sistema solare esterno, saremo in grado di creare non soltanto dei terreni nello spazio, ma anche
mari interi più vasti e più profondi del Mediterraneo. Questi nuovi e vasti suoli e mari costruiti con
energia e materiali prelevati dallo spazio, in termini di risorse non costeranno quasi nulla alla Terra.
Il principale requisito sarà programmare il primo replicatore, ma in questo compito ci verranno in
aiuto i sistemi IA. Il problema più grande sarà unicamente decidere quello che desideriamo fare.

Come Konstantin Tsiolkovsky (14) ha scritto sul finire del dicianovesimo secolo, "L'uomo non
resterà per sempre sulla terra; la ricerca di luce e spazio lo porterà a diffondersi oltre i confini
dell'atmosfera, dapprima timidamente, ma infine per conquistare l'intero sistema solare". Nello
spazio morto porteremo vita.
E i replicatori ci doneranno le risorse per afferrare le stelle. Una vela di luce in viaggio verso una
stella e spinta dalla sola luce solare, si troverebbe presto a navigare libera nell'oscurità, più veloce di
qualsiasi razzo moderno ma pur sempre così lentamente che impiegherebbe millenni per
attraversare l'abisso interstellare. Possiamo tuttavia costruire una formidabile schiera di proiettori
laser orbitanti attorno al Sole, e con una tale schiera dirigere un raggio fino a molto oltre il nostro
sistema solare (15) affinché spinga una vela quasi fino alla velocità della luce. La traversata, in tal
caso, richiederebbe soltanto degli anni.
Arrestare la vela rappresenta un problema. Freeman Dyson della Princeton suggerisce di frenarla
con i campi magnetici associati alla lieve ionizzazione dei gas interstellari (16). Robert Forward
degli Hughes Research Laboratories suggerisce (17) di ritirare il raggio, e attivare un nuovo raggio
che parta dalla stessa vela e che sia diretto in verso opposto al moto della vela, in modo da
decelerarne un'altra più piccola che viaggia in coda alla prima. In un modo o nell'altro (e ce ne sono
molti altri), le stelle si trovano entro la nostra portata.

Per un lungo tempo a venire, tuttavia, il solo sistema solare può fornirci opportunità a sufficienza.
Lo spazio in prossimità della Terra è sufficiente per creare paesaggi con un'area complessiva
milioni di volte quella della Terra (18). Nulla ci obbligherà ad fermare l'emigrazione verso questi
spazi e non sarà indispensabile far ritorno di tanto ogni tanto a visitare la vecchia patria. Non
avremo neanche problemi a rifornire di energia il sistema di trasporto, poiché la luce solare inonda
la Terra in soli dieci minuti con una energia (19) sufficiente a portare in orbita l'intera popolazione
attuale. Viaggio spaziale e insediamenti spaziali saranno entrambi buon mercato. Se faremo un uso
saggio della tecnologia molecolare, i nostri discendenti si domanderanno con meraviglia cosa abbia
potuto tenerci imbottigliati sulla Terra così a lungo, ed in una così grande povertà.

La Società a Somma Positiva

Potrebbe sembrare che il costo di ogni cosa, persino del terreno (a meno che non ci si metta a
scavare migliaia di chilometri di roccia sotto il suolo), dovrà crollare a zero. In un certo senso
questo è quasi vero, ma in un altro senso è anche, in una certa misura, falso. La gente attribuirà
sempre un valore a materia, energia, informazione ed a autentici servizi umani, perciò ogni cosa
avrà ancora il suo costo. E sul lungo periodo, ci troveremo faccia a faccia con i veri limiti allo
sviluppo, per cui il costo delle risorse non potrà mai essere accantonato del tutto.

Ciò nonostante, se sopravviveremo, replicatori e risorse spaziali ci condurranno in una lunga era
durante la quale gli autentici limiti delle risorse non riusciranno ancora a metterci alle strette; un'era
in cui, secondo i nostri attuali standard, persino una immensa ricchezza sembrerà virtualmente
gratuita. Questo potrebbe sembrare troppo bello per essere vero, ma la natura (come al solito) non
impone i suoi limiti in base alle sensazioni umane. I nostri antenati un tempo pensavano che parlare
a qualcun'altro al di là del mare (distante molti mesi di viaggio di navigazione a vela) sarebbe stato
troppo bello per essere vero, e tuttavia i cavi sottomarini ed i satelliti sopra il mare funzionano
davvero.

Ma c'è anche un'altra risposta, meno piacevole per quelli che pensano che gli assemblatori siano
troppo belli per essere veri: gli assemblatori minacciano anche di portarci dei rischi, nonché armi
più pericolose di quelle mai viste da chiunque finora. Se la nanotecnologia potesse essere evitata e
non potesse essere controllata, la gente equilibrata la eviterebbe. Pare certo, nondimeno, che la
corsa tecnologica produrrà gli assemblatori partendo dalle biotecnologie così come era certo che
essa avrebbe prodotto le navette spaziali partendo dai missili. I vantaggi militari offerti, da soli,
saranno sufficienti a rendere quasi inevitabili i progressi. Gli assemblatori sono inevitabili, ma forse
controllabili.

La nostra sfida è evitare i pericoli ma questo richiederà collaborazione, e noi siamo più propensi a
collaborare se comprendiamo quanto abbiamo da guadagnarne. La prospettiva dello spazio e degli
assemblatori-replicatori potrebbe aiutarci a spazzare via alcuni memi antichi e dannosi.

La vita umana era un tempo come un gioco a somma zero. L'umanità viveva vicina al suo limite
ecologico e le tribù lottavano contro altre tribù per contendersi lo spazio vitale. Dove c'erano
pascoli o terreni agricoli e di caccia, se un gruppo ne aveva di più c'era di sicuro un altro gruppo che
doveva averne di meno. Poiché ogni guadagno doveva grosso modo essere compensato da una
perdita da qualche altra parte, i benefici complessivi si assommavano a zero. Eppure la gente, che
su altri aspetti cooperava comunque, riuscì a prosperare. E così i nostri antenati non impararono
solo ad arraffare, ma anche a cooperare e costruire.
Dove erano coinvolte tasse, o trasferimenti di denaro e conflitti di corte, più per qualcuno
significava ancora una volta meno per qualche altro. Con lentezza, aggiungiamo pian piano
qualcosa al benessere totale, ma la redistribuzione è rapida. Se consideriamo un qualsiasi specifico
giorno, le risorse sembrano fissate, il che fa nascere l'illusione che la vita sia un gioco a "somma
zero". Questa illusione suggerisce che una collaborazione estesa sia inutile, perché il nostro
guadagno dovrà derivare dalla perdita di qualche avversario.

La storia dei progressi umani dimostra invece che il gioco del mondo può essere a somma positiva.
L'accelerazione della crescita economica durante i secoli recenti mostra che il ricco può diventare
ancora più ricco mentre il povero diventa più ricco. A dispetto della crescita della popolazione (e
dell'idea di dover dividere una torta fissa) il benessere medio pro-capite considerato sull'intera
estensione mondiale, incluso quello del Terzo Mondo, è cresciuto costantemente. Fluttuazioni
economiche, capovolgimenti locali, e la tendenza naturale dei media a focalizzarsi sulle cattive
notizie, si combinano per oscurare i fatti riguardanti lo sviluppo economico, ma le registrazioni
pubbliche lo evidenziano abbastanza chiaramente. Le risorse spaziali e gli assemblatori-replicatori
accelereranno questa tendenza storica ben oltre i sogni degli economisti, catapultando la razza
umana in un nuovo mondo.

----------

Capitolo 7: Motori di guarigione

Vita, Mente e Macchine


Dai Farmaci alle Macchine Ripara-Cellule
Macchine di Riparazione Cellulare
Esempi di Cure
Anestesia Potenziata
Dalla Funzione alla Struttura
Dal Trattamento della Malattia al Mantenimento della Salute
Una Malattia Chiamata "Invecchiamento"

Una delle cose che ci distingue dalle nostre precedenti generazioni è che abbiamo visto i nostri
stessi atomi.
- KARL K. DARROW, The Renaissance of Physics

Useremo la tecnologia molecolare anche per aver cura della nostra salute, poiché il corpo umano è
fatto di molecole. Malattia, vecchiaia e ferite, sono tutti danni causati da schemi erronei nella
disposizione degli atomi, sia che queste disposizioni erronee siano causate da virus invasori, che dal
trascorrere del tempo o da incidenti automobilistici. Se dei dispositivi sono in grado di modificare a
piacimento le disposizioni di atomi, saranno anche capaci di modificarle secondo uno schema
corretto. In medicina la nanotecnologia costituirà un passo avanti di importanza fondamentale.
Per trattare una malattia, i medici attuali devono sostanzialmente fare affidamento su chirurgia e
farmaci. I chirurghi hanno compiuto progressi significativi, per esempio passando dal suturare le
ferite ed amputare membra, al riparare cuori e riconnettere membra recise. Utilizzando microscopi e
fini strumenti, riescono a riconnettere canali sanguinei e nervi delicatissimi. Tuttavia, persino la
migliore microchirurgia non può essere in grado né di tagliare né di suturare le strutture di tessuto
più fini. I bisturi e gli attrezzi da sutura attuali sono semplicemente troppo rozzi per poter riparare
capillari, cellule e molecole. Consideriamo la chirurgia "delicata" dalla prospettiva di una cellula:
una immensa lama penetra rapidamente, e strada facendo attraversa una moltitudine di cellule,
triturandone a migliaia e macellando ciecamente il loro macchinario molecolare. Successivamente,
un grande obelisco si immerge nella ressa di cellule oramai separata in due distinti lembi di carne, e
si trascina dietro un cavo lungo come un treno merci per legare assieme i due lembi. Dalla
prospettiva di una cellula anche la chirurgia più delicata, eseguita con bisturi raffinati ed grande
abilità, rimane ancora un lavoro da macellaio. Solo la capacità delle cellule di abbandonare i loro
morti, raggrupparsi nuovamente e moltiplicarsi, rende possibile la guarigione.

Tuttavia, come sanno fin troppo bene molte vittime paralizzate a causa di incidenti, non tutti i
tessuti guariscono.

La terapia farmacologica, a differenza della chirurgia, tratta con le strutture più fini interne alle
cellule. Le molecole di un farmaco sono dei semplici dispositivi molecolari. Molti di essi, agiscono
nelle cellule su molecole specifiche. Le molecole di morfina, per esempio, nelle cellule del cervello
si legano a certi recettori molecolari e influenzano la recettività di tali cellule nei confronti degli
impulsi neurali che segnalano il dolore. Insuline, beta-bloccanti ed altri farmaci, si adattano ad altri
recettori. Ma le molecole farmaceutiche lavorano senza una precisa direzione. Una volta trasferite
nel corpo esse vagano nella soluzione acquosa in cui si trovano, roteando su se stesse e rimbalzando
del tutto a caso, fino a che riescono eventualmente a colpire una molecola bersaglio ed a farlo nella
giusta orientazione per adattarsi ad essa, aderirvi, ed influire infine sul suo funzionamento.

I chirurghi possono esaminare i problemi e pianificare azioni, ma usano ancora strumenti troppo
rozzi; le molecole dei farmaci agiscono sui tessuti a livello molecolare, ma sono ancora troppo
semplici per poter "sentire", "pianificare" ed "agire". Le macchine molecolari dirette da
nanocomputer offriranno ai medici una possibilità di scelta alternativa. Esse combineranno sensori,
programmi e strumenti molecolari in sistemi in grado di esaminare e riparare i componenti ultimi
delle singole cellule. Ci doteranno del controllo chirurgico sul dominio molecolare.

Ci vorranno anni perché questi dispositivi molecolari avanzati arrivino, ma alcuni ricercatori
spronati da particolari necessità mediche sono già impegnati nello studio dell'ingegneria e delle
macchine molecolari. I migliori farmaci sono quelli che influenzano macchine molecolari specifiche
in modi specifici. La penicillina, per esempio, uccide certi batteri inceppando il funzionamento del
nanomacchinario che essi usano per costruire le loro pareti cellulari, con scarso effetto collaterale
sulle cellule umane.

I biochimici studiano le macchine molecolari sia per imparare come costruirle che per imparare a
demolirle. In giro per il mondo (e soprattutto per il terzo mondo) una disgustosa varietà di virus,
batteri, protozoi funghi e vermi, parassitizzano la carne umana. Come per la penicillina, farmaci
sicuri ed efficaci per questi malesseri dovrebbero bloccare il macchinario molecolare parassita, e nel
contempo lasciare intatto quello umano. Il Dottor Seymour Cohen (1), professore di scienza della
farmacologia al SUNY (Stony Brook, New York) afferma che i biochimici dovrebbero studiare in
maniera sistematica il macchinario molecolare di questi parassiti. Una volta che i biochimici
abbiano determinato la forma e la funzione di una macchina proteica già esistente nel regno della
vita, spesso potrebbero anche scoprirsi capaci di progettare una molecola appositamente conformata
per bloccarla e distruggerla. Tali farmaci potrebbero liberare l'umanità da orrori antichi come la
schistosomiasi, e da quelli nuovi come l'AIDS.

Le compagnie farmaceutiche stanno già riprogettando alcune molecole, basandosi sulla conoscenza
delle loro modalità di funzionamento. I ricercatori della Upjohn Company(2) hanno progettato e
realizzato molecole modificate di vasopressina, un ormone costituito da una breve catena di
aminoacidi. La vasopressina incrementa il ritmo di lavoro del cuore e riduce il tasso con il quale i
reni producono urina; tutto ciò aumenta la pressione sanguinea. I ricercatori hanno progettato
molecole di vasopressina modificata che influenzano i recettori molecolari nei reni più di quanto
facciano con quelli del cuore, dotando così la vasopressina di effetti medicali più specifici e
controllabili. In tempi più recenti hanno progettato una molecola modificata di vasopressina che si
lega ai recettori renali senza un reale effetto diretto, e tuttavia bloccando ed inibendo l'azione della
vasopressina naturale.

Le necessità della medicina sproneranno ulteriormente questi studi, incoraggiando i ricercatori a


muovere passi ulteriori verso la progettazione di proteine e verso l'ingegneria molecolare. Pressioni
mediche, militari ed economiche, spingeranno tutte assieme nella stessa direzione. La tecnologia
molecolare realizzerà progressi impressionanti persino prima del passo avanti tecnologico degli
assemblatori; le attuali tendenze nella biotecnologia ce lo confermano. Tuttavia, questi progressi
saranno di solito graduali e difficili da prevedere, in quanto ognuno di essi sfrutterà qualche
dettaglio specifico della biochimica. In seguito, quando applicheremo alla medicina gli assemblatori
ed i sistemi di IA tecnica, raggiungeremo abilità più estese e ben più facili da prevedere.

Per comprendere queste abilità, prendiamo in considerazione le cellule ed i loro meccanismi di


auto-riparazione. Radioattività naturale e composti chimici nocivi scindono le molecole delle cellule
del vostro corpo, producendo frammenti molecolari reattivi. Questi possono andarsi a legare in
modo erroneo ad altre molecole, in un processo denominato cross-linking, [NdT- un processo che
crea legami chimici fra due catene molecolari separate, come ribadito nel glossario]. Un po' come
fossero pallottole e grumi di colla, radioattività e frammenti chimici reattivi danneggiano le cellule,
sia perché spezzano i legami chimici delle loro macchine molecolari, sia perché incollano
arbitrariamente assieme queste macchine.

Se le vostre cellule riparassero se stesse, il danno le ucciderebbe rapidamente oppure accelererebbe


all'impazzata il loro funzionamento fino a danneggiare i loro sistemi di controllo. Ma l'evoluzione
ha favorito organismi con macchinario capace di porre qualche rimedio a questo problema. Il
sistema industriale auto-replicante descritto nel capitolo 4 sa riparare se stesso sostituendo le parti
danneggiate; le cellule fanno la stessa cosa. Finché il DNA di una cellula resta intatto, esso può
produrre "nastri" di istruzioni scevri da errori ed utilizzarli per dirigere i ribosomi nell'assemblaggio
di nuove macchine proteiche.

Sfortunatamente per noi, il DNA stesso subisce dei danni, ed il risultato di tali danni sono le
mutazioni. Gli enzimi di riparazione, in qualche misura, compensano il problema individuando e
riparando certi tipi di danni del DNA. Queste riparazioni aiutano le cellule a sopravvivere, ma i
meccanismi di riparazione esistenti sono troppo semplici per correggere tutti i problemi, nel DNA
come altrove. Gli errori si accumulano contribuendo, col tempo, all'invecchiamento e alla morte
delle cellule, e della persone stesse.

Vita, Mente e Macchine

Ha senso descrivere le cellule come "macchinario", siano esse autoriparanti o meno? Potrebbe
sembrare, poiché siamo fatti di cellule, che questa terminologia riduca gli esseri umani a "semplici
macchine", in conflitto con una comprensione olistica della vita.
Ma una definizione da dizionario di olismo(3) è: "la teoria che la realtà sia fatta di interi organici o
unificati, più grandi della semplice somma delle loro parti.". Ciò è senza dubbio applicabile alle
persone: una semplice somma delle nostre parti potrebbe somigliare ad un hamburger, essendo
infatti priva sia di mente che di vita.

Il corpo umano contiene alcune decine di migliaia di miliardi di miliardi di parti proteiche, e
nessuna macchina complessa fino a questo punto può meritarsi di essere etichettata come
"semplice" macchina. Qualunque sintetica descrizione di un sistema tanto complesso non può
evitare di risultare grossolanamente incompleta, e tuttavia a livello molecolare una descrizione in
termini di macchinario ha perfettamente senso. Le molecole possiedono delle semplici parti mobili,
e molte di tali parti mobili agiscono come tipologie di macchine piuttosto familiari. Considerate nel
complesso le cellule possono senz'altro apparire meno meccaniche di quel che sono, e tuttavia i
biologi trovano molto utile descriverle in termini di macchinario molecolare.

I biochimici hanno svelato quelli che una volta erano i misteri centrali della vita, ed hanno
cominciato a corredare di dettagli le spiegazioni di questi misteri. Hanno indagato su come le
macchine molecolari demoliscano le molecole di cibo nei loro blocchi di costruzione costituenti, e
come poi riassemblino queste parti per costruire un tessuto rinnovato. Molti dettagli della struttura
di una cellula umana restano ancora sconosciuti (in una singola cellula si possono trovare anche
miliardi di grandi molecole e in migliaia di tipi differenti), ma per alcuni virus i biochimici hanno
già completato la redazione di una mappa di ogni loro parte costituente. I laboratori biochimici
espongono spesso un grande diagramma a muro che mostra come si svolgano i principali flussi dei
blocchi di costruzione molecolari all'interno di un qualche batterio. I biochimici comprendono in
dettaglio molti dei processi della vita, e quello che ancora non comprendono sembra comunque
funzionare in base agli stessi principi. Il mistero dell'ereditarietà è diventato l'industria
dell'ingegneria genetica. Persino lo sviluppo embrionale e la memoria sono stati spiegati in termini
di trasformazioni biochimiche e strutturali della cellula.

Nelle ultime decadi, la reale essenza della nostra ignoranza residua è cambiata totalmente. Un
tempo i biologi guardavano al processo della vita e si domandavano: "Come può accadere?". Ma
oggi comprendono i principi generali della vita stessa, e studiando uno specifico processo vivente di
solito si domandano: "Fra i molti modi in cui questo può accadere, qual'è quello che la natura ha
scelto?". In molte occasioni i loro studi hanno ristretto le spiegazioni possibili ad una sola. Certi
processi biologici, come per esempio la coordinazione delle cellule appartenenti ad embrioni in via
di sviluppo, oppure i processi di un cervello capace di apprendimento, o quelli dei sistemi di
reazione immunologica, rappresentano tuttora una vera sfida all'immaginazione. E tuttavia questo
non accade perché ci sia qualche profondo mistero ancora da svelare riguardo il modo in cui
funzionano le parti coinvolte in questi processi, ma solo a causa della immensa complessità delle
interazioni fra le parti che contribuiscono al processo globale.

Le cellule obbediscono alle stesse leggi naturali che descrivono il resto del mondo. Le macchine
proteiche, se poste in appropriati ambienti molecolari, funzioneranno allo stesso modo sia quando si
trovino in una cellula funzionante che quando il resto della cellula sia stato distrutto e sciacquato via
giorni prima. Le macchine molecolari non conoscono nulla sulla "vita" o sulla "morte".

I biologi, quando proprio se ne preoccupano, talvolta definiscono la "vita" come la capacità di


crescere, replicarsi e rispondere agli stimoli. Ma sulla base di questi standard un sistema di
fabbriche di replicazione privo di mente potrebbe egualmente definirsi vivo, mentre non potrebbe
definirsi tale una intelligenza artificiale cosciente e modellata sulla mente umana. I virus sono vivi
oppure sono "semplicemente" delle ingegnose macchine molecolari? Nessun esperimento può dirlo
perché la natura non ha tracciato linee di demarcazione precise fra il vivente ed il non vivente. I
biologi che lavorano con i virus, piuttosto, si domandano molto più pragmaticamente: "Un virus con
questa specifica funzionalità virale, ha qualche possibilità?". In medicina, le etichette di "vita" e
"morte" dipendono dalle capacità mediche: i medici si chiedono "Considerata questa specifica
funzione del paziente, abbiamo fatto il nostro meglio?". I medici, quando passano essi stessi al
ruolo di pazienti, muoiono esattamente come questi, se il cuore si ferma. I medici attuali decretano
la morte del paziente quando disperano di ripristinare una attività cerebrale. I progressi della
medicina cardiaca modificheranno questa definizione; i progressi della medicina cerebrale la
modificheranno ancora una volta.

Proprio come alcune persone non si sentono a proprio agio con l'idea di macchine pensanti, così ci
saranno persone a disagio con l'idea di macchine che giacciono alle fondamenta del nostro stesso
processo di pensiero. Ancora una volta è la parola "macchina" che sembra congiurare per proporre
l'immagine sbagliata, una sorta di visione di metallo ottuso e sferragliante, piuttosto che di guizzanti
segnali lungo un intreccio di fibre neurali connesse in un arazzo vivente più intricato di quanto la
stessa mente che esso incorpora possa pienamente comprendere. Le uniche macchine cerebrali
autenticamente simili a "macchine", sono di dimensioni molecolari, più piccole delle fibre più fini.

Un intero non somiglia necessariamente alle sue parti. Una protuberanza solida difficilmente
assomiglia ad una fontana danzante, e tuttavia un insieme di aggregati molecolari solidi formano
l'acqua fluida. Analogamente, miliardi di macchine molecolari formano fibre neurali e sinapsi,
migliaia di fibre e sinapsi formano una cellula neurale, e miliardi di cellule neurali formano il
cervello che incorpora la fluidità del pensiero.

Dire che la mente è "soltanto un insieme di macchine molecolari" è come dire che Mona Lisa è
"soltanto un insieme di spennellate di vernice". Affermazioni di questo tipo confondono le parti con
l'intero, e confondono la materia con gli schemi che essa incorpora. Non siamo meno umani per il
solo fatto d'essere costituiti da molecole.

Dai Farmaci alle Macchine Ripara-Cellule

Essendo fatti di molecole ed essendo al tempo stesso umanamente preoccupati della nostra salute,
applicheremo le macchine molecolari alla tecnologia biomedica. I biologi già utilizzano antibiotici
per marcare le proteine, enzimi per separare e congiungere frammenti di DNA, e siringhe virali
(come il batteriofago T4) per iniettare in batteri del DNA modificato. In futuro essi utilizzeranno le
nanomacchine costruite dagli assemblatori per esaminare e modificare le cellule.

Con strumenti come i disassemblatori, i biologi saranno in grado di studiare le strutture cellulari
fino agli ultimi dettagli molecolari. Essi potranno catalogare le centinaia di migliaia di tipi diversi di
molecole nel corpo e redigere una mappa della struttura delle centinaia di tipi diversi di cellule. I
biologi potranno descrivere le parti e le strutture di un tessuto in modo non dissimile rispetto a
ingegneri che compilino una lista di parti costituenti e disegnino i progetti di una automobile. E per
allora, potranno anche farsi aiutare da sofisticati sistemi di IA tecnica(4).

Lo scopo dei medici è la salute dei tessuti, ma con i farmaci e la chirurgia possono soltanto
incoraggiare i tessuti affinché si riparino da soli. Le macchine molecolari permetteranno una
riparazione più diretta, portandoci in una nuova era della medicina.

Per riparare un'automobile, un meccanico anzitutto raggiunge il complesso di parti che non
funziona, poi identifica i singoli pezzi guasti, ed infine ricostruisce o sostituisce questi ultimi. La
riparazione cellulare coinvolge gli stessi compiti di base e, come già dimostrano i sistemi viventi, si
tratta di compiti che è realmente possibile eseguire.

Accesso:
I globuli bianchi del sangue abbandonano il flusso sanguineo e si muovono attraverso i tessuti. I
virus entrano nelle cellule. Anche i biologi riescono a penetrare le cellule senza ucciderle. Questi
esempi mostrano che le macchine molecolari possono raggiungere le cellule e riuscire a penetrarle.

Riconoscimento:

Gli anticorpi e le fibre di coda del batteriofago T4 dimostrano che, come d'altronde accade in tutte
le specifiche interazioni biochimiche, il sistema molecolare può riconoscere altre molecole grazie al
tocco.

Disassemblaggio:

Gli enzimi digestivi (ed altri agenti chimici, ben più feroci) dimostrano che il sistema molecolare
può disassemblare le molecole danneggiate.

Ricostruzione:

Replicandosi, le cellule dimostrano che il sistema molecolare può costruire o ricostruire ogni tipo
di molecola contenuta nelle cellule.

Reassemblaggio:

La natura dimostra anche che molecole separate possono essere nuovamente ricongiunte(5). Ad
esempio, il macchinario del batteriofago T4 si autoassembla(6) dalla soluzione liquida con l'aiuto, a
quanto pare, di un solo enzima. La replicazione delle cellule dimostra che i sistemi molecolari
possono assemblare ogni sistema contenuto nelle cellule.

Quindi, la natura mostra di fare uso di tutte le operazioni di base che sono necessarie per effettuare
riparazioni cellulari di livello molecolare. Inoltre, come ho descritto nel capitolo 1, i sistemi basati
sulle nanomacchine saranno generalmente più compatti e più capaci di quelli che si trovano in
natura. I sistemi naturali ci mostrano soltanto i limiti inferiori al possibile, nella riparazione di
cellule come in qualunque altra cosa.

Macchine di Riparazione Cellulare

Riassumendo, con la tecnologia molecolare e con l'IA tecnica compileremo una completa
descrizione a livello molecolare dei tessuti sani, e costruiremo macchine capaci di entrare nelle
cellule e percepire e modificare le loro strutture.

Le macchine ripara-cellule saranno di dimensioni comparabili a quelle di batteri e virus, ma la


maggiore compattezza delle loro parti permetterà a queste macchine di essere più complesse.
Viaggeranno attraverso i tessuti come fanno i globuli bianchi del sangue, ed entreranno nelle cellule
come fanno i virus, potendo persino aprire e chiudere le membrane cellulari con l'attenzione di un
chirurgo. All'interno di una cellula, una macchina riparatrice per prima cosa valuterà la situazione
esaminando contenuto e attività della cellula, quindi intraprenderà azioni adeguate. Le prime
macchine ripara-cellule saranno altamente specializzate, in grado di riconoscere e correggere solo
un singolo tipo di disordine molecolare, ad esempio la deficienza di un enzima o una qualche
specifica forma di danno sul DNA. Le macchine successive (non molto più tardive, grazie al lavoro
di progettazione compiuto da avanzati sistemi di IA tecnica) saranno invece programmate per
possedere abilità più generali.
Complesse macchine riparatrici avranno bisogno di essere guidate da nanocomputer. Un computer
meccanico di un micrometro cubo come quello che ho descritto nel capitolo 1, occuperà un
millesimo del volume di una tipica cellula, pur contenendo più informazioni di quante ne contenga
il DNA delle cellule. In un sistema riparatore tali computer dirigeranno altri computer più piccoli e
più semplici, che a loro volta dirigeranno la macchine perché esaminino, scartino e ricostruiscano,
strutture molecolari danneggiate.
Lavorando molecola dopo molecola, struttura dopo struttura, le macchine riparatrici saranno capaci
di riparare intere cellule. Lavorando cellula dopo cellula, e tessuto dopo tessuto (aiutate, dove sia
necessario, da dispositivi più grandi) esse saranno in grado di riparare interi organi. Lavorando in
lungo ed in largo su una persona, organo dopo organo, ripristineranno interamente la sua salute.
Poiché le macchine molecolari saranno capaci di costruire da zero molecole e cellule, saranno anche
in grado di riparare ogni danno di una cellula che sia causa di una sua completa inattività. Per cui, le
macchine ripara-cellule determineranno un passo avanti tecnologico fondamentale: esse libereranno
la medicina dal dover affidarsi alla auto-riparazione in quanto unica strada percorribile verso la
guarigione.

Per riuscire a raffigurarci una avanzata macchina ripara-cellule, immaginiamola, assieme con tutta
la cellula, ingrandita fino a che i suoi atomi abbiano le dimensioni di piccole biglie. Su questa scala,
gli strumenti più piccoli della macchina riparatrice montano sulle loro estremità dei puntali grandi
all'incirca quanto le dita della vostra mano; una proteina di dimensioni medie, come l'emoglobina,
avrebbe la dimensione di una macchina da scrivere, ed un ribosoma sarebbe grande quanto una
lavatrice. Un singolo dispositivo di riparazione conterrebbe un semplice computer dalla dimensione
di un piccolo camion, ricoperto da molti sensori delle stesse dimensioni della proteina, con svariati
manipolatori delle stesse dimensioni di un ribosoma. Il dispositivo di riparazione è inoltre dotato di
memoria nonché di dispositivi per fornire energia motoria. Un volume totale di dieci metri di lato,
ossia la dimensione di un edificio grosso come un piccolo albergo, contiene tutte queste parti e
molte altre. Poiché tutto questo volume è riempito da parti della dimensione di biglie, la macchina
riparatrice può essere capace di fare cose molto complesse.

Ma questo dispositivo riparatore non lavora da solo. Esso, come i suoi innumerevoli fratelli, è
connesso a computer più grandi tramite collegamenti meccanici per trasmissione dati aventi
diametro pari a quello del vostro braccio. Su questa scala, un computer di un micrometro cubo,
dotato di una grande memoria, riempie un volume di tre piani in altezza e trenta volte campi di
calcio in area. Il dispositivo riparatore passa informazioni al computer, e da esso riceve in risposta
istruzioni generali. Oggetti così grandi e complessi sono pur sempre ancora sufficientemente
piccoli: su questa scala, la cellula stessa si estende per un chilometro, e basterebbe perciò per
contenere mille volte il volume di un computer di un micrometro cubo, o un milione di volte il
volume di un singolo dispositivo riparatore. Le cellule sono spaziose.

Queste macchine saranno in grado di fare tutto ciò che deve essere fatto per riuscire a riparare le
cellule? L'esistenza delle macchine molecolari dimostra la possibilità di viaggiare lungo i tessuti,
entrare nelle cellule, riconoscere le strutture molecolari, e così via. Ma anche altri requisiti sono
importanti. Le macchine riparatrici lavoreranno abbastanza velocemente? E se saranno in grado di
farlo, non potrebbero forse dissipare talmente tanta energia da arrostire il paziente?

Le riparazioni più intensive non possono richiedere moli di lavoro immensamente maggiori di
quelle necessarie per costruire una cellula da zero. Eppure, le macchine molecolari che lavorano
all'interno del limitato volume di una cellula fanno, di routine, proprio questo, riuscendo infatti a
costruire una nuova cellula in soli dieci minuti (nei batteri) o al più poche ore (nei mammiferi). Ciò
implica che delle macchine riparatrici occupino solo poche unità percentuali del volume di una
cellula, saranno in grado di completare anche riparazioni molto estese in tempi ragionevoli di giorni
o al massimo settimane. Le cellule possono ben tollerare questa occupazione abusiva del loro
volume. Persino le cellule cerebrali continuano ancora a funzionare quando un inoperoso rifiuto
denominato lipofucsina (7) (il prodotto di qualche forma di danneggiamento molecolare, a quanto
pare) arriva a riempire oltre il dieci per cento del loro volume.

Rifornire energia ai dispositivi di riparazione sarà facile: le cellule contengono, per loro stessa
natura, dei carburanti chimici per le nanomacchine. La natura dimostra anche che è possibile
raffreddare le macchine riparatrici: le cellule nel vostro corpo si rinnovano incessantemente, e gli
animali più giovani crescono rapidamente senza arrostirsi. La gestione del calore prodotto da un
simile livello di attività delle macchine riparatrici non provocherà neanche il sudore o per lo meno
non farà poi sudare granché, visto e considerato che una lieve sudorazione è il prezzo da pagare per
mantenersi in salute.

Tutti questi paralleli fra macchine di riparazione artificiali e meccanismi biologici esistenti in
natura sollevano la questione riguardo la fondatezza dell'idea che le macchine riparatrici possano
davvero riuscire a migliorare la natura. A questo proposito, la riparazione del DNA costituisce un
nitido esempio chiarificatore.
Proprio come una illetterata "macchina ripara-libri" potrebbe riconoscere e riparare una pagina
strappata, così un enzima di riparazione del DNA può riconoscere in esso, nonché riparare, sia i
suoi legami spezzati che gli erronei legami del DNA con catene e frammenti molecolari estranei
(cross-links). Tuttavia, la correzione degli errori ortografici (o mutazioni), richiederebbe la capacità
di leggere. La natura manca di macchine di riparazione di questo tipo, che pure sarebbero di facile
costruzione. Immaginiamo tre molecole di DNA identiche, ognuna con la stessa sequenza di
nucleotidi. Ora immaginiamo che ogni filamento sia mutato, a seguito del cambiamento di soltanto
pochi sparuti nucleotidi. Ogni filamento, preso di per se, sembra ancora normale. Ciò nonostante,
una macchina riparatrice potrebbe confrontare ogni filamento con agli altri, un segmento alla volta,
riuscendo così ad individuare un nucleotide che non corrisponda ai suoi omologhi negli altri
filamenti. Modificando i nucleotidi sospetti in modo che corrispondano a quelli degli altri due
filamenti di DNA, il danno sarà quindi riparato.

Questo metodo però, non può che fallire se due filamenti mutano nella stessa posizione.
Immaginiamo che, dopo migliaia di mutazioni, il DNA di ognuna di tre distinte cellule umane, sia
stato seriamente danneggiato; ogni cellula ha un nucleotide modificato su un milione. La procedura
per individuare le correzioni da apportare ai nostri tre filamenti fallirà, secondo un criterio statistico,
grosso modo per una specifica posizione su ogni milione di milioni di posizioni esaminate. Ma se
confrontiamo cinque filamenti per volta, i nucleotidi dubbi diventano circa uno su un milione di
milioni di milioni (8), e così via. Un dispositivo che confronti molti filamenti avrà, di fatto, una
probabilità praticamente nulla di non riuscire a correggere un qualsiasi errore presente.

In pratica, le macchine riparatrici confronteranno molecole di DNA di cellule diverse, ne


produrranno copie corrette(9) e utilizzeranno le copie come riferimento per correggere e riparare il
DNA lungo l'intera estensione di un tessuto. Confrontando filamenti diversi, le macchine riparatrici
miglioreranno drasticamente le loro prestazioni rispetto ai nostri enzimi di riparazione.

Altre riparazioni richiederanno altri tipi di informazioni sulle caratteristiche distintive delle cellule
sane e su come una particolare cellula danneggiata differisca dalla norma. Gli anticorpi sanno
identificare le proteine tramite il tocco, e anticorpi scelti in modo appropriato sanno, di solito,
distinguere fra due qualsiasi proteine tramite la rilevazione delle loro differenze nella forma e nelle
proprietà di superficie. Le macchine riparatrici identificheranno le molecole in modo analogo(10).
Con un computer adatto, ed un apposito database, saranno in grado di svolgere l'identificazione
delle proteine tramite la lettura delle loro sequenze di aminoacidi.

Consideriamo un sistema di riparazione complesso e molto capace(11). Un volume di due


micrometri cubici, circa due millesimi del volume di una tipica cellula, sarà sufficiente a contenere
un centralizzato sistema di base dati in grado di:

1. Identificare rapidamente, dall'esame di una breve sequenza di aminoacidi, una qualunque fra
centinaia di migliaia di proteine umane.

2. Identificare tutte le altre molecole complesse che normalmente si trovano in una cellula.

3. Registrare tipo e posizione di ogni grossa molecola riscontrata nella cellula.

Ognuno dei più piccoli fra dispositivi di riparazione (o forse anche qualche migliaio fra quelli
presenti in una cellula) includerà un computer di minori capacità. Ognuno di questi computer sarà in
grado di effettuare oltre mille passi computazionali nello stesso tempo impiegato da un tipico
enzima per modificare un singolo legame molecolare, sicché la velocità di elaborazione potenziale
sarà più che adeguata. Poiché ogni computer sarà in comunicazione con un computer più
grande(12), nonché con la base di dati centrale, sembra che la memoria disponibile sarà anch'essa
adeguata. Le macchine ripara-cellule avranno perciò sia gli strumenti molecolari di cui necessitano,
che sufficiente "cervello" per decidere come utilizzarli.

Una tale sofisticazione potrebbe super-uccidere (super-curare?) molti problemi di salute. Dei
dispositivi che siano capaci semplicemente di riconoscere e distruggere tipi specifici di cellule, per
esempio, saranno sufficienti per curare il cancro. Disporre una rete di computer in ogni cellula
sarebbe come tagliare il burro con una sega elettrica, sebbene avere a disposizione una sega elettrica
ci assicura di poter tagliare anche il burro più duro. Pare che sia meglio mostrare troppo, piuttosto
che troppo poco, se lo scopo è quello di descrivere i limiti del possibile in medicina.

Esempi di Cure

Le più semplici applicazioni mediche delle nanomacchine riguarderanno non la riparazione ma la


distruzione selettiva. Il cancro ne costituisce un esempio; le malattie infettive ne forniscono un'altro.
Lo scopo è semplice: l'unica cosa che è necessaria è riconoscere e distruggere i replicatori dannosi,
siano essi batteri, cellule cancerogene, virus, o vermi. Analogamente, crescite anormali delle arterie
e depositi su pareti arteriose sono la causa della maggior parte delle malattie cardiache; macchine
che riconoscano, distruggano e rimaneggino queste anomalie, puliranno le arterie per ottenere un
flusso sanguineo più normale. La distruzione selettiva curerà anche malattie come l'herpes, dovuta
ad un virus che inietta i suoi geni nel DNA di una cellula ospite. Un dispositivo di riparazione
entrerà nella cellula, leggerà il suo DNA, e da esso rimuoverà il codice aggiunto che sta per
"herpes."

Riparare molecole danneggiate dai cross-links sarà piuttosto diretto. Una macchina ripara-cellule,
di fronte ad una proteina alla quale si sono legati frammenti proteici estranei, anzitutto identificherà
i danni grazie l'esame di brevi sequenze di aminoacidi, e poi leggerà lo schema corretto della
proteina in un database. Sicché, la macchina confronterà la proteina con lo schema letto nel
database, un amminoacido per volta. Come un correttore di bozze alla ricerca di significati sbagliati
e caratteri anomali (per esempio: "char#tteri"), essa individuerà ogni aminoacido alterato, o
impropriamente legato alla proteina. Una volta che abbia corretto questi difetti, la macchina si
lascerà alle spalle una proteina normalizzata, pronta a compiere il suo lavoro per la cellula.

Le macchine riparatrici possono anche aiutare la guarigione. Dopo un attacco di cuore, al posto dei
muscoli morti ci saranno dei tessuti cicatrizzati. Le macchine riparatrici, andando a reimpostare i
meccanismi di controllo cellulare, stimoleranno il cuore a sviluppare muscoli freschi. Rimuovendo i
tessuti cicatrizzati e pilotando la crescita di muscoli freschi, esse guideranno il cuore verso la
guarigione.

Questa lista potrebbe continuare scorrendo un problema dopo l'altro (avvelenamento da metalli
pesanti? Trovare e rimuovere tutti gli atomi di metallo) ma la conclusione è facile da riassumere. I
disordini fisici sono dovuti ad atomi in disposizioni erronee; le macchine riparatrici saranno in
grado di riportare tali disposizioni atomiche in un ordine funzionante, ripristinando la salute del
corpo. Piuttosto che compilare una lista senza fine di malattie curabili (artrite, borsite, cancro, febbri
innumerevoli che vanno da quella causata dal virus dengue fino alla febbre gialla, malaria, e così
via), ha più senso proseguire il discorso rivolgendo lo sguardo verso i limiti di ciò che possono fare
le macchine ripara-cellule. Limiti che, comunque, esistono.

Consideriamo l'ictus, come esempio di uno dei problemi che apporta un danno cerebrale. La
prevenzione è concettualmente abbastanza semplice: Un vaso sanguineo nel cervello si è indebolito,
gonfiato, ed è predisposto all'esplosione? Lo si può stendere fino a fargli prendere la sua forma,
guidando nel contempo la crescita di fibre di rinforzo. Coaguli anomali minacciano di bloccare la
circolazione? Dissolvere i coaguli e normalizzare il sangue ed i rivestimenti interni dei vasi
sanguinei per prevenire il ripresentarsi del problema. Anche i danni neurali moderati derivati da
ictus saranno riparabili: se una ridotta circolazione ha pregiudicato la funzione ma ha lasciato le
strutture cellulari intatte, si può ripristinare la circolazione e riparare le cellule, utilizzando la loro
struttura come guida per il recupero del tessuto al suo stato precedente. Questo non solo ripristina
ogni funzionalità cellulare, ma preserva inoltre la memoria e le abilità mentali che sono incorporate
nello schema neurale di quella parte del cervello.

Le macchine riparatrici saranno capaci di rigenerare tessuto cerebrale fresco persino quando il suo
danneggiamento ha cancellato questi schemi. Ma il paziente perderebbe, in tal caso, quella parte
delle precedenti memorie e abilità che in origine aveva sede in quella porzione di cervello. Se uno
schema neurale unico è stato davvero cancellato, le macchine ripara-cellule non potrebbero fare
nulla di più di quello che potrebbe fare un restauratore d'arte per ripristinare un arazzo a partire da
un mucchietto di cenere. La perdita di informazione causata dalla cancellazione della struttura
impone il più importante limite fondamentale alla riparazione dei tessuti.

Altri compiti sono oltre la portata delle macchine ripara-cellule, per svariate ragioni: un esempio di
tali compiti è quello del mantenimento della salute mentale. Le macchine ripara-cellule sapranno
ovviamente correggere alcuni problemi. La pazzia talvolta ha cause biochimiche, come se il
cervello si drogasse o avvelenasse da se, mentre altri problemi mentali derivano invece da
danneggiamenti dei tessuti. Ma molti problemi hanno poco a che fare con la salute delle cellule
nervose e con qualsiasi altra cosa si possa fare per favorire la salute mentale.

Una mente ed il tessuto del suo cervello sono come un romanzo e la carta del suo libro. Macchie di
inchiostro o inondazioni possono danneggiare il libro, rendendo difficile leggere il romanzo. Delle
macchine ripara-libri potrebbero nonostante tutto ripristinare la salute "fisica" del libro, rimuovendo
l'inchiostro estraneo o essiccando e riparando la fibre cartacee danneggiate. Tali trattamenti non
potrebbero comunque far nulla per il contenuto del libro, poiché quest'ultimo non è "fisico" in senso
stretto. Se il libro è un romanzetto economico, con una trama stereotipa e personaggi superficiali,
sarebbe necessaria una riparazione del romanzo, non dell'inchiostro e della carta. Questa riparazione
richiederebbe un intervento "non fisico", ma più lavoro da parte dell'autore, eventualmente aiutato
da qualche buon consiglio.

Analogamente, la rimozione di veleni dal cervello e la riparazione delle sue fibre nervose può
attenuare qualche offuscamento mentale, ma non può revisionare il contenuto della mente.
Quest'ultimo può essere modificato soltanto dal paziente, e con grande sforzo. Tutti noi siamo gli
autori della nostra mente. Ma poiché le menti modificano se stesse per mezzo della modifica dei
relativi cervelli, avere una mente in salute aiuterà a pensare lucidamente ben più di quanto la qualità
della carta di un foglio aiuti a scriverci sopra in modo leggibile.

I lettori che hanno famigliarità con i computer potrebbero preferire di pensare in termini di
hardware e software. Una macchina potrebbe riparare un hardware di computer pur senza
modificare ne comprendere nulla del suo software.

Tali macchine potrebbero arrestare l'attività del computer ma lasciare gli schemi di memoria intatti
e pronti a funzionare ancora. Nei computer con il giusto tipo di memoria (denominata "non
volatile"), gli utenti fanno proprio questo, semplicemente premendo l'interruttore del computer che
disconnette la sua alimentazione elettrica. Questo compito, nel caso del cervello, sembra essere di
più complessa attuazione, e tuttavia avere la possibilità di indurre un simile stato costituirebbe un
vantaggio dal punto di vista medico.

Anestesia Potenziata

I medici possono già arrestare e riavviare la coscienza andando ad interferire con la attività chimica
che è alla base della mente. Per tutta la loro vita attiva, le macchine molecolari nel cervello
elaborano e trasformano molecole. Alcuni disassemblano zuccheri, li combinano con ossigeno ed
immagazzinano l'energia che essi rilasciano. Alcuni pompano ioni salini attraverso le membrane
cellulari; altri costruiscono piccole molecole e le rilasciano perché svolgano la funzione di segnali
per altre cellule. Questi processi costituiscono il metabolismo del cervello, la somma totale della sua
attività chimica. Assieme ad i suoi effetti elettrici, questa attività metabolica è alla base dei mutevoli
schemi del pensiero.

I chirurghi tagliano i pazienti con i bisturi. Nella metà dell'800, impararono ad utilizzare delle
sostanze chimiche capaci di interfacciarsi con il metabolismo cerebrale bloccando il pensiero
cosciente ed impedendo al paziente di obiettare troppo energicamente mentre lo si incideva. Tali
sostanze chimiche erano gli anestetici. Le loro molecole entrano ed escono dal cervello liberamente,
permettendo agli anestesisti di arrestare e riavviare la coscienza umana.

La gente aveva a lungo sognato di scoprire un farmaco che interferisse col metabolismo dell'intero
corpo, capace di interrompere il metabolismo per ore, giorni, o anni. Il risultato sarebbe stato una
condizione di biostasi (da bio, vita, e da stasis, un arresto o uno stato stabile). Un metodo per
produrre una biostasi reversibile potrebbe aiutare gli astronauti nei lunghi viaggi spaziali al fine di
risparmiare cibo ed evitare la noia, o potrebbe servire come una sorta di viaggio nel tempo
unidirezionale. In medicina, la biostasi rappresenterebbe una anestesia profonda in grado di dare ai
medici più tempo per lavorare. Quando situazioni di emergenza capitino molto lontane dal posto in
cui c'è la disponibilità di un aiuto medico, una buona procedura di biostasi costituirebbe una sorta di
trattamento medico universale di pronto soccorso: essa infatti stabilizzerebbe la condizione del
paziente ed impedirebbe alle macchine molecolari di persistere nel loro frenetico malfunzionamento
fino a danneggiare i tessuti.

Ma nessuno ha trovato un farmaco capace di arrestare l'intero metabolismo nel modo in cui gli
anestetici bloccano la coscienza, ossia in modo che la stasi possa essere invertita semplicemente
"sciacquando" via il farmaco dai tessuti del paziente. E tuttavia, una biostasi reversibile sarà
possibile quando le macchine riparatrici diverranno disponibili.

Per comprendere come dovrebbe funzionare un tale approccio, immaginiamo che il flusso
sanguineo apporti ai tessuti alcuni semplici dispositivi molecolari, e che questi entrino nelle singole
cellule dei tessuti. Qui, essi bloccano il macchinario molecolare naturale del metabolismo - nel
cervello come altrove - e lo "impacchettano", ossia lo fissano legando assieme le strutture con dei
cross-links stabilizzanti. Subito dopo, vengono introdotti altri dispositivi che prendono il posto
dell'acqua e si fissano solidamente anch'essi attorno alle molecole della cellula. Questi passi
arrestano il metabolismo e preservano le strutture delle cellule. Poiché per invertire questo processo
verranno impiegate delle macchine di riparazione-cellulare, la loro azione potrebbe tranquillamente
provocare qualche danno molecolare di entità moderata pur non comportando alcun danno duraturo.
Col metabolismo bloccato e con le strutture delle cellule tenute saldamente al loro posto, il paziente
resterà silenzioso, senza sognare ed immutabile, finché altre macchine riparatrici non interverranno
a ripristinare la sua attività vitale.

Se un paziente in queste condizioni fosse condotto da un medico dei giorni nostri, ignaro delle
capacità delle macchine di riparazione cellulare, le conseguenze sarebbero sinistre. Non rilevando
alcun segno di vita, il medico concluderebbe che il paziente è morto, e potrebbe tragicamente
trasformare questo giudizio in una realtà "prescrivendo" una autopsia, che sarebbe seguita da
sepoltura o cremazione.

Ma il nostro paziente ipotetico vive in un'era in cui la biostasi è conosciuta esclusivamente come
una "interruzione della vita", e non come "fine" di essa. Quando il contratto del paziente dice
"svegliatemi!" (o le riparazioni sono state completate, o il volo verso le stelle ha raggiunto la sua
destinazione), i medici incaricati iniziano la rianimazione. Le macchine riparatrici entrano nei
tessuti del paziente, rimuovono gli imballi attorno alle molecole del paziente e li sostituiscono con
acqua. Rimuovono i cross-links, riparano ogni molecola e struttura danneggiata, e ripristinano le
normali concentrazioni di sali, zucchero sanguineo, ATP, e così via. Infine, le macchine riparatrici
liberano il macchinario metabolico naturale del paziente. Il processo metabolico interrotto riprende,
il paziente sbadiglia, si stiracchia, si tira su a sedere, ringrazia il dottore, controlla la data, e si
incammina oltre la porta.

Dalla Funzione alla Struttura

La reversibilità della biostasi e la irreversibilità di danni gravi come quelli provocati da un ictus, ci
aiutano ad illustrare come le macchine di riparazione cellulare trasformeranno la medicina. Al
momento i medici possono soltanto aiutare i tessuti a guarire spontaneamente. Di conseguenza,
devono tentare di preservare la funzionalità del tessuto. Se il tessuto non è in grado di funzionare,
non può guarire. E quel che è peggio, se i tessuti non funzionanti non vengono preservati, ne segue
una ulteriore degenerazione che finisce per distruggere completamente la struttura del tessuto. Un
tessuto è come un utensile meccanico capace di funzionare solo su un particolare apparato.

Le macchine ripara-cellule modificano l'obiettivo chiave della medicina dalla preservazione della
funzionalità alla preservazione della struttura. Come ho sottolineato nella discussione riguardante
l'ictus, le macchine riparatrici saranno in grado di ripristinare le funzioni del cervello mentre
lasciano inalterate memoria ed abilità, ma potranno farlo solo se la struttura del tessuto neurale è
rimasta intatta, in quanto essa è distintiva e specifica. La biostasi implica la preservazione della
struttura neurale, mentre il suo funzionamento viene deliberatamente bloccato.

Tutto ciò costituisce una conseguenza diretta della natura molecolare della riparazione. I medici,
utilizzando bisturi e farmaci, non possono fare più di quanto possa fare qualcuno che utilizzi un
piccone e una intera tanica di lubrificante per riparare un fine orologio. Per contrasto, disporre di
macchine riparatrici e della possibilità di utilizzare per esse delle sostanze nutritive ordinarie,
sarebbe come avere un appropriato utensile da orologiaio e una fornitura illimitata di parti di
ricambio sfuse. Le macchine ripara-cellule trasformeranno la medicina alle sue basi.

Dal Trattamento della Malattia al Mantenimento della Salute


Attualmente, nello studiare le malattie, i ricercatori medici spesso puntano alla ricerca di modi per
prevenirle o invertirle, ostacolando o bloccando un passo chiave nel processo della malattia. La
conoscenza che ne è risultata ha aiutato enormemente i medici: oggi essi prescrivono insulina per
compensare il diabete, anti-ipertensivi per prevenire gli ictus, penicillina per curare infezioni e così
via, secondo i dettami di una lista impressionante. Le macchine molecolari aiuteranno la ricerca e lo
studio delle malattie, e tuttavia renderanno molto meno importante la comprensione profonda delle
malattie stesse. Le macchine riparatrici renderanno molto più importante comprendere la salute.

Il corpo può essere malato in molti più modi di quelli in cui può essere in salute. I tessuti muscolari
sani, per esempio, possono variare in modi relativamente poco numerosi: essi possono essere più
forti o più deboli, più veloci o più lenti, possedere un dato antigene oppure possederne un dato altro,
e così via. I muscoli danneggiati possono variare in tutte e tre queste maniere, e tuttavia possono
anche soffrire di ogni possibile combinazione di problemi di base come lacerazioni, infezioni virali,
vermi parassiti, contusioni, punture o forature, avvelenamenti, sarcomi, deperimenti ed anomalie
congenite. Analogamente, nonostante i neuroni si presentino in schemi di intrecci altrettanto
numerosi di quanto lo sono i cervelli umani, le singole sinapsi e i singoli dendriti, quando sono sani,
si presentano solo in una varietà di forme numericamente modesta.

Una volta che i biologi abbiano descritto molecole, cellule e tessuti nella loro condizione di
normalità, macchine riparatrici propriamente programmate saranno in grado di curare ogni malattia
sconosciuta. Una volta che i ricercatori abbiano descritto la varietà di strutture che (per esempio) un
vivente in salute potrebbe possedere, le macchine riparatrici esploreranno un corpo vivente
malfunzionante necessitando solo di cercare le differenze e correggerle. Macchine ignare di un
nuovo veleno e dei suoi effetti saprebbero comunque riconoscerlo come estraneo e rimuoverlo.
Invece di lottare contro un milione di malattie occulte, le macchine riparatrici avanzate
perseguiranno il ripristino di una condizione di salute.

Sviluppare e programmare macchine di riparazione cellulare richiederà grandi sforzi, grandi


conoscenze e grandi abilità. Le macchine riparatrici con capacità estese sembrano più facili da
costruire che non da programmare. I loro programmi devono contenere la conoscenza dettagliata
delle centinaia di tipi di cellule e delle centinaia di migliaia di tipi di molecole del corpo umano.
Tali programmi devono essere in grado di redigere una mappa delle strutture cellulari danneggiate e
decidere come correggerle(13). Quanto tempo ci vorrà perché tali macchine ed i relativi programmi
siano sviluppati? Su due piedi, lo stato della biochimica ed il suo attuale tasso di progresso
potrebbero far pensare che occorrerebbero secoli per raccogliere la sola conoscenza di base
necessaria. Ma dobbiamo essere attenti a non cadere nell'illusione che i progressi giungeranno in
maniera isolata.

Le macchine riparatrici ci travolgeranno in congiunzione con una grande ondata di altre tecnologie.
Gli assemblatori che costruiscono le macchine riparatrici saranno, in un primo momento, impiegati
per costruire degli strumenti di analisi delle strutture cellulari. Persino un pessimista dovrebbe
concordare che biologi umani ed ingegneri equipaggiati con strumenti di questo tipo potrebbero
costruire e programmare macchine ripara-cellule avanzate in un centinaio di anni di costante lavoro.
Un convinto ma lungimirante pessimista potrebbe propendere addirittura per un migliaio di anni.
Un autentico fervente "bastian contrario" potrebbe dichiarare che per il compito occorrerebbero un
milione di anni. Bene: allora dei veloci sistemi di IA tecnica, che siano un milione di volte più
rapidi degli scienziati, potranno sviluppare macchine ripara-cellule avanzate nell'arco di un singolo
anno solare(14).

Una Malattia Chiamata "Invecchiamento"

L'invecchiamento è naturale, ma altrettanto lo è il vaiolo ed i nostri sforzi per prevenirlo. Abbiamo


vinto il vaiolo, e sembra che vinceremo l'invecchiamento.

La longevità è cresciuta durante l'ultimo secolo, ma soprattutto perché il miglioramento degli


impianti sanitari e dei farmaci ha ridotto le malattie batteriche. L'intervallo base della vita umana è
cresciuto ben poco.

Tuttavia, i ricercatori hanno compiuto dei progressi verso la comprensione e il rallentamento del
processo di invecchiamento. Hanno identificato alcune delle sue cause, come per esempio un
incontrollata proliferazione di cross-links. Hanno escogitato dei trattamenti parziali, come l'utilizzo
di antiossidanti e di inibitori dei radicali liberi. Hanno ipotizzato e studiato altre possibili
meccanismi di invecchiamento, come quello dei "clocks" cellulari, una sorta di cronometri nella
cellula, o quello dei cambiamenti dell'equilibrio ormonale nel corpo. In esperimenti di laboratorio,
farmaci e diete speciali hanno esteso la durata della vita di alcuni topi dal 25 al 45 percento(15).

Questa ricerca proseguirà; l'invecchiamento della generazione del baby boom rende probabile
attendersi una esplosione delle ricerche sull'invecchiamento. Una compagnia biotecnologica, la
Senetek in Danimarca, si sta specializzando in ricerche sull'invecchiamento. Nell'Aprile del 1985,
Eastman Kodak e ICN Pharmaceuticals hanno annunciato di aver costituito una società a capitale
misto(16) da 45 milioni di dollari per produrre isoprinosina ed altri farmaci con capacità potenziali
di estensione della durata di vita attesa. I risultati di alcune ricerche convenzionali anti-
invecchiamento, potrebbero allungare in modo sostanziale l'intervallo di vita umana e migliorare la
salute dei più anziani già durante i prossimi dieci o vent'anni. Ma fino a che punto farmaci,
chirurgia, esercizio e dieta, possono riuscire ad estendere l'intervallo di vita? Per ora la stima deve
rimanere ipotetica. Solo delle nuove conoscenze scientifiche possono fornire maggiori certezze su
queste previsioni e recuperarle dal regno delle speculazioni, poiché si tratta di previsioni che si
basano su nuova conoscenza scientifica(17) e non su una nuova conoscenza ingegneristica.

Con le macchine riparatrici cellulari, comunque, il potenziale per l'estensione della vita diventa ben
chiaro. Tali macchine potranno riparare le cellule illimitatamente, almeno fintanto che le loro
strutture distintive restano intatte, e saranno altresì capaci di sostituire le cellule che sono state
distrutte. Ed in più, potranno anche ripristinare una condizione di salute ottimale. L'invecchiamento
non è fondamentalmente differente da qualunque altro disordine fisico - non esiste un qualche
effetto magico con cui la data di calendario può influire su una misteriosa forza-vitale. Ossa fragili,
pelle rugosa, bassa attività enzimatica, lenta guarigione delle ferite, memoria labile e tutto il resto,
derivano da danneggiamenti del macchinario molecolare, da squilibri chimici e da anomalie nelle
disposizioni delle strutture. Riportando tutte le cellule e tutti i tessuti del corpo ad una giovanile
condizione strutturale, le macchine riparatrici ripristineranno una giovanile condizione di salute.

Le persone che sopravviveranno integre fino all'epoca delle macchine di riparazione cellulare,
avranno l'opportunità di riguadagnare la salute di gioventù, e di conservarla quasi per tutto il tempo
che vorranno. Niente può riuscire ad ottenere che una persona (o qualsiasi altra cosa) duri per
sempre ma, fatta eccezione per il verificarsi di incidenti gravi, quelli che lo vorranno potranno
vivere per lungo, lungo, tempo.

Mano a mano che una tecnologia si sviluppa, arriva un momento in cui i suoi principi diventano
chiari, e con essi molte delle sue conseguenze. I principi dei viaggi con i razzi erano chiari negli
anni '30, così come erano chiare le conseguenze del volo spaziale. Completare questi principi con i
necessari dettagli richiese, all'epoca, la progettazione e la sperimentazione di serbatoi, motori,
strumentazione e così via. Nei primi anni '50 molti dettagli erano noti. L'antico sogno di volare sulla
Luna divenne un obiettivo per il quale era possibile elaborare dei piani.

I principi delle macchine molecolari sono già chiari, e con essi anche le conseguenze delle
macchine ripara-cellule. Completare questi principi con i necessari dettagli richiederà la
progettazione di strumenti molecolari, assemblatori, computer, e così via, ma molti dei dettagli delle
già esistenti macchine molecolari naturali sono noti già oggi. Il sogno antico di conquistare salute e
longevità è diventato un obiettivo per il quale si possono fare dei piani.

Le ricerche mediche ci stanno guidando, passo dopo passo, lungo una strada che giungerà infine
alle macchine molecolari. La competizione globale per produrre migliori materiali, migliore
elettronica e migliori strumenti biochimici, ci sta spingendo nella stessa direzione. Le macchine
ripara-cellule richiederanno anni di sviluppo, ma è certo che esse sono dritte davanti a noi.

Esse ci doteranno, nel bene e nel male, di moltissime nuove capacità. Fermarsi a riflettere per un
solo attimo su eventuali replicatori d'impiego militare con capacità come quelle delle macchine
ripara-cellule, è sufficiente per restare sconvolti dalle più nauseanti fra le possibilità che si
schiuderebbero. Più avanti, descriverò come potremmo evitare tali orrori, ma prima sembra saggio
considerare gli eventuali benefici delle macchine di riparazione cellulare. La loro apparente bontà è
genuina? In che modo la longevità potrebbe influenzare il mondo?

Capitolo 8: Longevità in un mondo aperto

Perché Non Dovrebbero Esistere Macchine di Riparazione Cellulare?


Guarire e Proteggere la Terra
Longevità e Pressione Demografica
Gli Effetti dell'Anticipazione
Progressi nell'Estensione della Vita

La lunga abitudine alla vita ci indispone a morire.


- Sir THOMAS BROWNE

Le macchine di riparazione cellulare sollevano interrogativi sul valore da attribuire al


prolungamento della vita umana. Non si tratta di questioni esclusive dell'etica medica odierna, la
quale di solito si interessa ai dilemmi posti da trattamenti rari, costosi e solo parzialmente efficaci.
Si tratta invece di questioni che riguardano il valore di una vita lunga ed in salute, ottenuta
attraverso mezzi tutt'altro che costosi.

Per le persone che attribuiscono un valore alla vita umana e che amano vivere, tali questioni
potrebbero non aver bisogno di risposta. Ma dopo una decade segnata da preoccupazioni per la
crescita demografica, per l'inquinamento e per l'impoverimento delle risorse, molte persone
potrebbero interrogarsi sulla desiderabilità di una estensione della vita; preoccupazioni di questo
tipo hanno incoraggiato la diffusione di memi pro-morte. Tali memi vanno esaminati nuovamente,
poiché molti di essi hanno radici in una visione del mondo ormai obsoleta. La nanotecnologia
modificherà ben più che la semplice aspettativa di durata della vita umana.

Conquisteremo i mezzi per curare non solo noi stessi, ma per curare la Terra stessa dalle ferite che
le abbiamo inflitto. Poiché salvare delle vite accrescerà il numero dei vivi, l'estensione della vita
solleverà questioni riguardo le conseguenze derivanti da una maggiore presenza di persone. La
nostra capacità di curare la Terra sarà invece una minore causa di controversie.

Inoltre, è certo che le stesse macchine di riparazione cellulare fomenteranno controversie. Esse
perturbano le assunzioni tradizionali riguardanti i nostri corpi e i nostri futuri: il nostro scetticismo,
in conseguenza, si attenua. Le macchine di riparazione cellulare richiederanno svariati importanti
passi avanti tecnologici: il nostro scetticismo, in conseguenza, si rafforza. Poiché la possibilità o
l'impossibilità di macchine ripara-cellule genera importanti interrogativi, ha senso considerare quali
obiezioni potrebbero sollevarsi.

Perché Non Dovrebbero Esistere Macchine di Riparazione Cellulare?

Quale tipo di argomento potrebbe suggerire che le macchine ripara-cellule sono impossibili? Un
argomento di successo deve far fronte ad alcune strane tortuosità. Esso deve in qualche modo
sostenere che le macchine molecolari non possono costruire e riparare cellule, e
contemporaneamente acconsentire che le macchine molecolari nei nostri corpi riescano a costruire e
riparare cellule ogni giorno. Un arduo problema, per gli scettici incalliti! Vero è che le macchine
artificiali dovrebbero fare quello che la natura non riesce a compiere, ma questo non vuol dire che
abbiano bisogno di qualcosa di qualitativamente nuovo. Sia i dispositivi di riparazione naturali che
quelli artificiali devono raggiungere, identificare e ricostruire delle strutture molecolari. Potremmo
migliorare gli enzimi riparatori del DNA semplicemente comparando filamenti distinti di DNA, uno
alla volta, per cui risulta ovvio che la natura non ha scovato tutti i possibili trucchi. Poiché questo
esempio demolisce ogni generica argomentazione riguardante l'ipotesi che le macchine riparatrici
non possano migliorare la natura, una buona causa contro le macchine ripara-cellule pare difficile
da impostare.

Inoltre, due questioni di carattere generale meritano delle risposte dirette. Anzitutto, nelle decadi a
venire dovremmo attenderci di conquistare la longevità anche se molte persone ci hanno provato per
millenni ed hanno fallito? Ed ancora, se davvero dobbiamo utilizzare macchine ripara-cellule per
estendere le nostre vite, perché la natura (che ha prodotto macchine riparatrici per miliardi di anni)
non si è già perfezionata fino a quel punto?

La gente ci ha provato ed ha fallito.

Per secoli, gli umani hanno desiderato di trovare una scappatoia alla brevità del loro arco vitale. Fin
troppo spesso, un Ponce de Leon o un dottore ciarlatano hanno promesso una miracolosa pozione,
ma tutte le pozioni proposte non hanno mai funzionato. Queste statistiche di fallimento hanno
persuaso qualcuno che, poiché tutti i tentativi sono finora falliti, tutti i tentativi saranno sempre
destinati al fallimento. Queste persone affermano che "invecchiare è naturale" e ciò sembra loro
abbastanza ragionevole. I progressi medici hanno scosso i loro modi di vedere, ma fino ad ora i
progressi hanno per lo più semplicemente ridotto le morti premature, e non davvero esteso la
massima durata di vita.

Ma adesso, i biochimici hanno cominciato a lavorare sull'analisi delle macchine che costruiscono e
controllano le cellule. Hanno imparato ad assemblare virus e a riprogrammare batteri. Per la prima
volta nella storia, gli umani stanno esaminando le loro proprie molecole, svelando così i segreti
della vita. Sembra che gli ingegneri molecolari combineranno infine la loro conoscenza biochimica
migliorata, assieme a macchine molecolari migliori di quelle naturali perché in grado di imparare a
riparare le strutture di tessuto danneggiate e di ringiovanirle. Ciò non costituisce nulla di strano;
sarebbe strano, piuttosto, se conoscenza ed abilità tanto potenziate non conducessero a risultati
eclatanti. La massiccia statistica dei fallimenti passati è semplicemente irrilevante, perché mai
prima d'ora abbiamo tentato di costruire delle macchine ripara-cellule.

La natura ha provato ed ha fallito.

La natura ha costruito macchine di riparazione cellulare. L'evoluzione ha rappezzato gli animali


multicellulari per centinaia di milioni di anni, eppure tutti gli animali progrediti invecchiano e
muoiono, poiché le nanomacchine naturali riparano le cellule in modo imperfetto. Quindi, perché
mai sarebbe possibile ottenere dei miglioramenti?
I ratti diventano adulti in pochi mesi, per poi invecchiare e morire nell'arco di circa due anni - e
tuttavia gli umani si sono evoluti per vivere oltre trenta volte più a lungo. Se una longevità ancor
più grande fosse lo scopo principale dell'evoluzione, anche i ratti vivrebbero più a lungo. La
durevolezza ha i suoi costi(1): riparare le cellule richiede un investimento in termini di energia,
materiali e macchine riparatrici. I geni di ratto comandano i corpi dei ratti ad investire più sulla
rapidità dei tempi di accrescimento e compimento della riproduzione, che non su una meticolosa
auto-riparabilità. Un topo quotidianamente impegnato nel crescere in dimensioni correrebbe il
rischio molto più grande di diventare, anzitutto, lo spuntino per un gatto. I geni di ratto hanno
prosperato trattando i corpi di ratto come fossero degli economici vuoti a perdere. I geni umani si
disfano in modo analogo dei corpi umani, sebbene lo facciano dopo una vita di qualche dozzina di
volte più lunga di quella di un ratto.

Ma la superficialità delle riparazioni naturali non è l'unica causa dell'invecchiamento. I geni


trasformano le cellule delle uova in individui adulti, lungo uno schema di sviluppo che procede a
velocità relativamente costante. Questo schema è piuttosto consistente perché l'evoluzione
raramente modifica un progetto di base. Proprio come lo schema di base del sistema DNA-RNA-
proteine è rimasto congelato alla logica di diversi miliardi di anni fa, così lo schema di base dei
segnali chimici e delle reazioni dei tessuti che guidano lo sviluppo dei mammiferi ha preso forma
vari milioni di anni fa. Sembrerebbe che questo processo abbia un cronometro associato, impostato
per avanzare secondo differenti velocità in differenti specie, e che questo cronometro sia abbinato
ad un programma in esecuzione.

Quali che siano le cause dell'invecchiamento, l'evoluzione ha ben pochi motivi per eliminarle. Se i
geni costruissero individui capaci di resistere per millenni, trarrebbero ben poco vantaggio dal loro
sforzo di "replicarsi". La maggioranza degli individui morirebbe comunque in relativa giovinezza,
per inedia, incidenti o malattie. Come Sir Peter Medawar ha fatto notare(2), un gene che aiuta i
giovani (che sono tanti) ma danneggia i vecchi (che sono pochi) riesce comunque a replicarsi bene,
e quindi si diffonde lungo tutta la popolazione. Se geni di questo tipo finiscono per accumularsi in
quantità sufficiente, gli animali diventano programmati per morire.

Alcuni esperimenti condotti dal Dr. Leonard Hayflick(3) suggeriscono che le cellule contengono
"dei cronometri cellulari" (clocks) che contano il numero di divisioni cellulari ed arrestano il
processo quando il conteggio totale diventa troppo alto. Un meccanismo di questo tipo(4) può
essere di aiuto per gli animali più giovani: se alterazioni simili a quelle indotte dal cancro
cominciano a provocare una divisione della cellula eccessivamente rapida ma nel contempo non
riescono a distruggere il cronometro interno alla cellula, l'accrescimento del tumore resta contenuto
su una estensione limitata. In questo modo, il cronometro cellulare preverrebbe la crescita illimitata
di un cancro autentico. Tuttavia, cronometri di questo tipo danneggerebbero gli animali più vecchi
perché arresterebbero la divisione delle cellule(5) e quindi metterebbero fine al rinnovamento dei
tessuti. Gli animali, quindi, beneficerebbero di una ridotta incidenza di cancri durante la loro
giovinezza, per quanto abbiano buoni motivi per lamentarsi di questo meccanismo se riescono a
sopravvivere fino alla vecchiaia. Ma i loro geni non stanno ad ascoltare le loro lagnanze perché
hanno già da tempo abbandonato la nave sotto forma di copie di se stessi passate alla generazione
successiva. Con le macchine ripara-cellule saremo in grado di riazzerare i cronometri cellulari.
Nulla suggerisce che l'evoluzione abbia perfezionato i nostri corpi al di là dei requisiti minimi di
funzionalità in termini di sola sopravvivenza e riproduzione. Gli ingegneri non cablano i computer
con fibre lente nel propagare i segnali come lo sono le nostre fibre nervose, e se non lo fanno hanno
delle ottime ragioni. L'evoluzione genetica (a differenza di quella memetica) non è stata in grado di
compiere il balzo di qualità verso nuovi materiali e nuovi sistemi, ed ha invece continuato a
raffinare ed estendere quelli vecchi.

Le macchine di riparazione cellulare cadono ben lontane dai limiti del possibile; infatti non hanno
dei computer a dirigerle. La mancanza di nanocomputer nelle cellule, ovviamente, dimostra soltanto
che i computer non possono evolversi gradualmente da altre macchine molecolari (o più
semplicemente che ciò non è accaduto). La natura ha fallito nella costruzione delle migliori
possibili fra le macchine ripara-cellule, ma l'ha fatto per abbondanti motivi.

Guarire e Proteggere la Terra

Il fallimento del sistema biologico della Terra nell'adattarsi alla rivoluzione industriale è altrettanto
facile da comprendere. Dalla deforestazione alla diossina, abbiamo causato danni a ritmi più rapidi
di quelli con cui l'evoluzione può rispondere. Mano a mano che è cresciuta la nostra richiesta di
cibo, beni e servizi, il nostro uso della tecnologia di mole ci ha costretti a continuare ad infliggere
questi danni. Con la tecnologia futura, tuttavia, sapremo fare molto di più per il nostro beneficio e
tuttavia arrecando meno danno alla Terra. E in più, saremo in grado di costruire macchine per
riaccomodare il pianeta, capaci di correggere i danni già inflitti. Le cellule non sono le sole cose che
desideriamo riparare.

Consideriamo il problema dei rifiuti tossici. Siano essi nell'aria, nel suolo o nell'acqua, i rifiuti ci
preoccupano perché possono danneggiare i sistemi viventi. Ma qualsiasi materiale che interagisca
con le macchine molecolari della vita è al tempo stesso influenzabile da altre forme di macchine
molecolari. Ciò significa che sapremo progettare delle macchine spazzine che rimuovano questi
veleni (6) da qualsiasi luogo possano arrecare danno alla vita.

Alcuni rifiuti, come la diossina, consistono di molecole dannose ma composte da atomi che sono
invece innocui se considerati singolarmente. Le macchine spazzine renderanno innocui i rifiuti di
questo tipo, modificando la disposizione dei loro atomi. Altri rifiuti, come il piombo e gli isotopi
radioattivi, contengono atomi dannosi in ogni caso. Le macchine spazzine li raccoglieranno per
redisporli in uno qualsiasi degli innumerevoli modi possibili. Il piombo proviene dalle rocce della
Terra e gli assemblatori potrebbero quindi accorparlo tutto insieme, costruendo rocce di piombo
nelle stesse miniere da cui esso proviene. Anche gli isotopi radioattivi potrebbero venire isolati
dalle cose viventi, sia costruendo con essi delle rocce stabili, che grazie ad altri metodi drastici.
Utilizzando sistemi di trasporto spaziale economici ed affidabili potremmo seppellire gli isotopi
radioattivi nelle aride rocce prive di vita della Luna. Utilizzando delle nanomacchine, potremmo
seppellirli in contenitori auto-riparanti e auto-sotterranti delle dimensioni di colline e alimentate
dalla luce solare. Questi contenitori sarebbero più sicuri di qualsiasi tanica o roccia passive.

Con gli assemblatori-replicatori saremo anche capaci di rimuovere i miliardi di tonnellate di


diossido di carbonio che la nostra civiltà brucia-carburanti ha scaricato nell'atmosfera. I climatologi
ritengono che l'accumulazione di strati di diossido di carbonio, intrappolando l'energia solare,
scioglierà almeno in parte le calotte polari e provocherà, attorno alla metà del ventunesimo secolo,
l'innalzamento del livello dei mari e l'inondazione delle coste. Gli assemblatori-replicatori, tuttavia,
renderebbero sufficientemente economica l'energia solare da eliminare la necessità di carburanti
fossili (7). Nanomacchine alimentate dal sole saranno in grado, come fanno già gli alberi, di estrarre
diossido di carbonio dall'aria (8) e spezzare le sue molecole per liberarne l'ossigeno. A differenza
degli alberi, le nanomacchine saranno capaci di sviluppare delle profonde radici in cui
immagazzinare il carbonio, per depositarlo infine di nuovo nelle vene minerarie di carbone e nei
giacimenti di petrolio da cui esso proviene.

Le future macchine di guarigione della Terra potranno anche aiutarci a recuperare paesaggi
devastati e ripristinare ecosistemi danneggiati. Gli scavi minerari hanno raschiato e butterato la
Terra; l'incuranza l'ha immondata. La lotta ai fuochi forestali ha lasciato prosperare il sottobosco,
sostituendo l'ariosità da cattedrale delle foreste, con una fitta boscaglia che alimenta fuochi ancora
più pericolosi. Utilizzeremo robot sofisticati ed economici per invertire questi effetti ed altri. Poiché
tali robot saranno capaci di smuovere rocce e suolo, essi disegneranno nuovamente l'aspetto dei
paesaggi dilaniati. Capaci di diserbare e di smaltire, nelle foreste naturali essi si sostituiranno
all'efficacia estirpatrice dei fuochi senza doverle danneggiare o devastare. Capaci di sollevare e
smuovere gli alberi, essi alleggeriranno i suoli troppo densi, consentendo la reforestazione di nude
colline. Fabbricheremo dispositivi della dimensione di scoiattoli con una predilezione per la vecchia
immondizia. Fabbricheremmo dispositivi simili ad alberi con radici profondamente diffuse, e
ripuliremo il suolo dai pesticidi e dagli acidi in eccesso. Fabbricheremo netturbini delle dimensioni
di insetti per far pulizia dei licheni e per divorare la vernice spray. Fabbricheremo qualsiasi altro
dispositivo sia necessario a ripulire il disastro lasciato dalla civiltà del ventesimo secolo.

Dopo aver fatto pulizia, ricicleremo la maggior parte di queste macchine, lasciando in circolazione
solo quelle che ancora sono necessarie per proteggere l'ambiente da una civiltà in ogni caso più
pulita poiché basata sulla tecnologia molecolare. Questi dispositivi, più duraturi dei primi,
integreranno gli ecosistemi naturali dove potrebbe ancora risultare necessario, per bilanciare e
curare gli effetti dell'umanità. Renderli efficaci, non dannosi e nascosti, sarà un'arte che richiederà
non solo l'aiuto dell'ingegneria automatizzata, ma anche la conoscenza della natura e un certo senso
artistico.

Con le tecnologie di riparazione cellulare saremo persino in grado di resuscitare alcune specie dalla
loro apparente estinzione. Il quagga africano, un'animale simile alla zebra, si è estinto circa un
secolo fa, ma una pelle di quagga è tuttora conservata sotto sale in un museo Tedesco. Alan Wilson
della University of California a Berkeley, ed i suoi collaboratori (9), hanno utilizzato degli enzimi
per estrarre frammenti di DNA dai tessuti muscolari connessi a questa pelle. Hanno clonato i
frammenti in un batterio, li hanno confrontati con quelli di una zebra ed hanno riscontrato (come ci
si attendeva) che i geni delle due specie mostravano uno stretto rapporto evolutivo. Sono anche
riusciti ad estrarre e replicare del DNA da una pelle di bisonte vecchia un secolo, nonché da alcuni
mammuth vecchi di millenni che si sono conservati integralmente nel perfamafrost artico. Questi
successi sono ben lontani dalla clonazione di una intera cellula o di un intero organismo; la
clonazione di un singolo gene ne lascia grosso modo altri 100.000 non clonati, e la clonazione di
ogni singolo gene in una cellula non equivale alla riparazione della cellula, sebbene dimostri che il
materiale ereditario di queste specie è riuscito a sopravvivere fino ad oggi.

Come ho descritto nel capitolo precedente, macchine che confrontino diverse copie danneggiate di
molecole di DNA saranno anche in grado di ricostruire il suo originale privo di danni, ed i miliardi
di cellule in una pelle essiccata contengono miliardi di copie del DNA. Da tali copie saremo in
grado di ricostruire DNA non danneggiato, ed attorno ad esso sapremo costruire cellule non
danneggiate di qualsiasi tipo desideriamo. Alcune specie di insetti passano l'inverno in forma di
cellule uovo, per poi essere riportate alla vita dal calore della primavera. Analogamente, le specie
"estinte" passeranno attraverso il ventesimo secolo come cellule muscolari e pelle, per essere
convertiti in uova fertili ed essere infine essere riportate alla vita da macchine ripara-cellule.

La Dottoressa Barbara Durrant, psicologa della riproduzione presso lo Zoo di San Diego, sta
conservando in un congelatore crionico alcuni campioni di tessuti prelevati da specie in via
d'estinzione. Ne potrebbe derivare qualcosa di più prezioso di quello che la maggior parte della
gente odierna potrebbe attendersi. Preservare semplicemente dei campioni di tessuto non preserva la
vita di un animale o di un ecosistema, ma potrebbe preservare l'ereditarietà genetica delle specie
campionate. Saremmo degli incoscienti se non stipulassimo questa polizza assicurativa contro la
perdita permanente delle specie. Sicché, la prospettiva di macchine ripara-cellule incide sulle nostre
scelte odierne.

L'estinzione non è un problema nuovo. Circa 65 milioni di anni fa scomparve la maggior parte
delle specie allora esistenti, incluse tutte le specie di dinosauri. Nel libro di pietra della Terra, la
storia dei dinosauri termina su una pagina consistente in un sottile strato di argilla. L'argilla è ricca
di iridio, un elemento piuttosto comune in asteroidi e comete. La migliore teoria corrente afferma
che dal cielo cadde qualcosa che colpì violentemente la biosfera terrestre. L'impatto sprigionò una
energia equivalente all'esplosione di cento milioni di milioni di tonnellate di TNT, provocando la
diffusione di polveri ed instaurando un "inverno asteroidale" di estensione planetaria.

Negli eoni trascorsi da quando le cellule viventi si sono per la prima volta raggruppate assieme a
formare i vermi, la Terra ha sofferto cinque grandi estinzioni. Appena 34 milioni di anni fa, ossia
quasi 30 milioni di anni dopo la morte dei dinosauri, uno strato di gocce vitree si depositò sul fondo
del mare. Al di sopra di quello strato, i fossili di molte specie non compaiono più. Quelle gocce si
erano formate per solidificazione degli spruzzi fusi causati da un impatto.

Il "Cratere Meteoritico" in Arizona è la testimonianza di un impatto esplosivo più piccolo e più


recente, equivalente a quello di una bomba da quattro milioni di tonnellate di TNT. Ancor più di
recente, il 30 Giugno 1908, una palla di fuoco squarciò il cielo Siberiano e spazzò al suolo gli alberi
di una foresta su un'area del diametro di un centinaio di chilometri.

Come la gente comune ha a lungo sospettato, i dinosauri morirono perché erano stupidi. Non che
fossero troppo stupidi per nutrirsi, camminare o badare alle proprie uova, dato che comunque
sopravvissero per 140 milioni di anni; essi erano semplicemente troppo stupidi per costruire
telescopi capaci di individuare gli asteroidi, e per costruire navette spaziali in grado di deviarli dalla
rotta di collisione con la Terra. Lo spazio ha ancora molte rocce da lanciarci addosso, ma ormai
stiamo mostrando segni di una intelligenza adeguata ad affrontarle. Quando nanotecnologia e
ingegneria automatizzata ci doteranno di una tecnologia spaziale più capace, ci risulterà molto facile
sorvegliare e deflettere gli asteroidi; di fatto potremmo farlo persino con la tecnologia disponibile
oggi. Potremo non solo guarire la Terra, ma anche proteggerla.

Longevità e Pressione Demografica

Di solito siamo tutti alla ricerca di una vita lunga e in salute, e tuttavia la prospettiva di un successo
drastico ci disorienta. Una longevità maggiore potrebbe danneggiare la qualità della vita? Cosa
comporterebbe per i nostri problemi immediati la prospettiva di una vita lunga? Nonostante la
maggior parte di questi effetti non possa prevedersi, per altri la previsione è possibile.

Per esempio, le macchine ripara-cellule estenderanno la durata della vita ma al contempo


incrementeranno anche la popolazione. Se tutto il resto restasse invariato, gente in più
significherebbe maggiore affollamento, maggiore inquinamento e maggiore scarsità. Ma tutto il
resto non rimarrà affatto uguale: l'essenza di quello stesso progresso fatto di ingegneria
automatizzata e nanotecnologia che produrrà infine le macchine ripara-cellule, ci verrà in aiuto per
guarire la terra, proteggerla e vivere su di essa più spensieratamente. Saremo in grado di produrre
ciò che ci è necessario, nonché il nostro lussuoso superfluo, senza per questo inquinare la nostra aria
o acqua. Sapremo appropriarci di risorse e fabbricare cose senza per questo devastare il paesaggio
con le miniere o ingombrarlo densamente di industrie. Con assemblatori efficienti che fabbrichino
prodotti duraturi, potremo produrre cose di più gran valore ma generando meno rifiuti. Se in
qualche modo riusciremo a sfruttare le nostre nuove capacità per fini buoni, molta più gente potrà
essere in grado di vivere sulla Terra, e nel contempo infliggendo meno danno sia alla Terra stessa
che a chiunque altro viva su di essa.

Se si guardasse al cielo notturno interpretandolo soltanto come un muro nero e ci si attendesse che
da un momento all'altro la corsa tecnologica debba frenare bruscamente su un rispettoso punto di
arresto, verrebbe naturale temere che le persone longeve sarebbero un opprimente fardello per la
"povera ed affollata terra dei nostri figli". Questa paura deriva dall'illusione che la vita sia un gioco
a somma zero, e che essere di più significhi necessariamente dover spartire in fette più piccole una
torta piuttosto esigua. Ma nel momento in cui diventeremo capaci di riparare le cellule, saremo
anche capaci di costruire eccellenti assemblatori-replicatori ed eccellenti navette spaziali. I nostri
"poveri" discendenti si divideranno un mondo della dimensione dell'intero sistema solare, dotato di
materia, energia e potenziale spazio di vita in quantità tali che quelle del nostro intero pianeta
avranno al confronto le dimensioni di uno gnomo.

Tutto questo creerà spazio sufficiente per un'era di crescita e prosperità di gran lunga superiore ad
ogni altra precedente. Tuttavia, lo stesso sistema solare è pur sempre finito, e le stelle sono distanti.
Sulla Terra persino le industrie più pulite, basate sugli assemblatori, genereranno inquinamento
calorico. Le preoccupazioni incentrate su demografia e risorse manterranno la loro importanza,
perché la crescita esponenziale dei replicatori (come quella delle persone) potrà infine sovrastare
l'offerta di qualsiasi disponibilità finita di risorse.

Ma questo significa che dovremmo sacrificare vite umane per ritardare il momento cruciale?
Qualche persona potrebbe anche sacrificarsi volontariamente, ma se ne otterrebbe ben poco
beneficio. In verità, l'estensione della vita avrà poco effetto sui problemi di base: l'esponenzialità
della crescita demografica rimarrà tale, sia che la gente muoia giovane sia che resti indefinitamente
in vita. Un martire volontario che morisse in gioventù potrebbe ritardare la crisi solo di una frazione
di secondo, ma persino una persona mediocre e tuttavia coscienziosa potrebbe essere di ben più
grande aiuto se fondasse un movimento attivista di persone longeve intenzionate a risolvere questo
problema di lungo termine. Dopotutto, molte persone fino ad ora sono vissute ignare dell'esistenza
di limiti alla crescita demografica sulla Terra. Chi altri, se non i longevi, avranno interesse a
prepararsi adeguatamente per il raggiungimento dei definitivi, ma molto distanti, limiti ultimi alla
crescita nei mondi al di là della Terra? Quelli preoccupati dei limiti di lungo termine serviranno
meglio l'umanità mantenendosi vivi piuttosto che mantenendo vive le loro preoccupazioni.

La longevità crea anche la minaccia della stagnazione culturale. Se si trattasse di un problema


inestricabilmente associato alla longevità, non vedremmo proprio cosa potremmo fare a riguardo -
sparare ai più vecchi quando si arroccano su punti di vista troppo ostinati, forse? Per fortuna ci sono
due fattori che contribuiranno in qualche modo ad attenuare il problema. In primo luogo, in un
mondo con una frontiera aperta i giovani saranno in grado di varcarla per costruire nuovi mondi,
sperimentare nuove idee, ed infine persuadere i più vecchi a cambiare oppure lasciarseli
semplicemente alle spalle. In secondo luogo, le persone avanti negli anni saranno comunque
giovani nel corpo e nella mente. L'invecchiamento rallenta sia il pensiero che l'apprendimento, così
come rallenta altri processi fisici; il ringiovanimento li accelererà nuovamente. Poiché muscoli e
tendini giovani rendono più flessibile il corpo, forse la giovinezza dei tessuti cerebrali manterrà
analogamente più flessibili le menti, persino dopo che avranno sperimentato lunghi anni di
saggezza.

Gli Effetti dell'Anticipazione

La longevità non sarà il più grande dei problemi futuri. Essa potrebbe persino aiutarci a risolvere
gli altri.
Consideriamo i suoi effetti sulla volontà della gente di cominciare le guerre. Invecchiamento e
morte rendono più accettabile il massacro in combattimento: come fa dire Omero a Sarpedone,
l'eroe di Troia nell'Iliade: "O amico mio, se noi, abbandonando questa guerra, potessimo sfuggire
alla vecchiaia e alla morte, io non sarei qui a lottare invano; ma ora, poiché sono molti i modi di
morire che incombono su noi e a cui nessun uomo può sperare di sfuggire, lanciamoci nella
battaglia dando gloria ad altri uomini, o a vincerla per la nostra" (10).

Se davvero fosse la speranza di sfuggire all'età ed alla morte a muovere la gente in battaglia, non
sarebbe una buona cosa? L'assenza di queste motivazioni potrebbe scoraggiare piccole guerre che
potrebbero infine crescere fino ad un olocausto nucleare. Ma allo stesso tempo potrebbe indebolire
la nostra risoluzione ad auto-difenderci da una tirannia estesa lungo una vita intera, per non parlare
di quanta vita ancora abbiamo da difendere. La riluttanza di certe persone a morire per il potere dei
loro governanti aumenterebbe questo rischio.

Le azioni sono sempre modellate dalle aspettative. Le nostre istituzioni ed i nostri progetti
personali riflettono entrambi la nostra aspettativa che tutti gli adulti attualmente viventi moriranno
entro poche decadi. Riflettiamo su come questa assunzione alimenti furiosamente l'urgenza di
acquisire, ignorando il futuro per inseguire un fugace piacere. Consideriamo come essa accechi la
nostra visione del futuro, ed oscuri i benefici a lungo termine della cooperazione. Erich Fromm
scrive: "Se l'individuo vivesse cinquecento o mille anni, questo contrasto (fra i suoi interessi e quelli
della società) potrebbe essere inesistente o quantomeno venirne considerevolmente ridotto. Egli
potrebbe vivere, e raccogliere con gioia ciò che ha seminato con dolore; la sofferenza di un periodo
storico che porti frutto in quello successivo, potrebbe fruttare anche per lui". Il fatto che la maggior
parte delle persone di oggi vivano ancora esclusivamente per il presente, non è il punto principale
della questione; piuttosto, esso è: ci potrebbe essere un significativo cambiamento per il meglio?

L'aspettativa di vivere una lunga vita in un futuro migliore potrebbe ben rendere alcuni mali politici
meno mortali. I conflitti umani sono di gran lunga troppo profondi e forti per essere sradicati da un
qualunque semplice cambiamento, tuttavia la prospettiva di un domani di immenso benessere
potrebbe quantomeno attenuare l'impulso a lottare per le briciole odierne. Il problema della
conflittualità è grande, e per fronteggiarlo abbiamo bisogno di tutto l'aiuto che possiamo ottenere.

La prospettiva del deterioramento personale e della morte, ha sempre reso i pensieri sul futuro
meno piacevoli. In tempi più recenti, visioni di inquinamento, di povertà, e di annichilazione
nucleare, hanno reso i pensieri sul futuro quasi troppo orribili da sopportare. Tuttavia, con almeno
una speranza di un futuro migliore e di un tempo per goderselo, si potrebbe guardare avanti più di
buon grado. E guardando avanti, saremo capaci di vedere più lontano. Avendo un interesse
personale nel futuro, ce ne cureremmo di più. E speranza e preveggenza accresciute, porteranno
beneficio sia alle persone di oggi che ai posteri; esse miglioreranno le nostre possibilità di
sopravvivenza.

Vivere vite più lunghe significa avere più gente, ma senza peggiorare gravemente i problemi
demografici di domani. L'aspettativa di vite più lunghe in un mondo migliore, porterà benefici reali,
incoraggiando la gente a riflettere di più sul futuro. Dopotutto, la longevità e l'annuncio del suo
arrivo sembrano una buona cosa per la società, proprio come la certezza di vite accorciate a soli
trent'anni sarebbero una cosa cattiva. Molte persone desiderano per se stessi vite lunghe e in salute.
Quali sono le prospettive per le generazioni presenti?

Progressi nell'Estensione della Vita

Ascoltiamo le parole di Gilgamesh, Re di Uruk:

"Ho guardato oltre la barriera ed ho visto i corpi fluttuare sul fiume, e so che è quella anche la mia
sorte. Perché io so che, chiunque sia il più alto degli uomini non può raggiungere i cieli, ed il più
grande non può abbracciare tutta la Terra" (11).

Quattro millenni sono trascorsi da quando gli scribi Sumeri incisero delle tavolette d'argilla per
scrivervi "L'Epica di Gilgamesh", ed i tempi sono cambiati. Uomini non più alti della media hanno
ora raggiunto i cieli e circumnavigato la Terra. Siamo nell'era spaziale, nell'era della biotecnologia,
nell'era dei passi avanti tecnologici più rivoluzionari; è necessario disperarsi ancora di fronte alla
barriera degli anni? O dovremmo imparare l'arte di estendere la vita, in tempo utile per salvare noi
stessi e quelli che amiamo dalla dissoluzione?

Il ritmo del progresso biomedico contiene promesse allettanti. Le principali malattie dell'età
(malattie cardiache, ictus e cancro), hanno cominciato ad arrendersi a trattamenti opportuni. Studi
sui meccanismi dell'invecchiamento hanno cominciato a dar frutto, e i ricercatori hanno raccolto
alcuni successi in esperimenti mirati ad estendere l'arco di vita attesa per alcuni animali. Mano a
mano che altra conoscenza si costruirà sulla conoscenza precedente, e che gli strumenti già esistenti
condurranno a nuovi strumenti, sembra certo che il ritmo di accumulazione dei progressi accelererà.
Persino senza disporre al momento di macchine ripara-cellule, abbiamo ragione di attenderci
progressi importanti verso il rallentamento e la parziale inversione del processo di invecchiamento.

Nonostante gente di tutte le età beneficerà di questi progressi, i giovani ne beneficeranno in misura
maggiore. Quelli che vivranno abbastanza a lungo, raggiungeranno un'epoca in cui l'invecchiamento
sarà divenuto pienamente reversibile: tale epoca sarà, al più tardi, quella delle avanzate macchine
ripara-cellule. Sarà allora, se non addirittura prima, che le persone guadagneranno sempre più salute
mano a mano che invecchiano, migliorando col tempo come il vino piuttosto che guastarsi come il
latte. Esse, se lo desiderano, potranno riguadagnare una salute eccellente e vivere per un lungo,
lungo, tempo.

In quell'epoca di replicatori e di volo spaziale economico, la gente possederà sia la longevità che
spazio e risorse a sufficienza per godersela. Una domanda che potrebbe amaramente rotolar fuori
dalla lingua è: "Quando? Quale sarà l'ultima generazione a invecchiare e morire, e quale la prima a
oltrepassare il limite?". Molte sono oggi le persone che condividono l'inespressa aspettativa che
l'invecchiamento verrà un qualche giorno sconfitto. Ma quelli che vivono ora sono condannati a
morte dalla sfortuna della loro nascita prematura? La risposta si dimostra essere sia chiara che
sbalorditiva.

L'ovvio percorso verso la longevità comprende la necessità di vivere abbastanza a lungo da farsi
ringiovanire dalle future macchine di riparazione cellulare. I progressi della biochimica e della
tecnologia molecolare estenderanno la vita, e nel tempo che guadagneranno potranno estendere la
vita ancora di più. Per estendere la vita e mantenere una condizione di buona salute, in un primo
momento useremo dei farmaci appropriati, una appropriata dieta e l'esercizio fisico. Entro qualche
decade, i progressi nella nanotecnologia probabilmente realizzeranno le prime macchine di
riparazione cellulare, e con l'aiuto dell'ingegneria automatica queste prime macchine saranno
prontamente seguite da macchine più avanzate. Le date devono rimanere una mera ipotesi, ma una
ipotesi che è pur sempre utile più di quanto lo sia un semplice punto interrogativo.

Immaginiamo qualcuno che adesso ha trent'anni. In altri trent'anni, la biotecnologia sarà progredita
enormemente, e tuttavia un trentenne di oggi sarà diventato un sessantenne. I dati statistici, senza
prendere in considerazione nessun progresso nella medicina, dicono che un cittadino statunitense
trentenne può al momento aspettarsi di vivere per quasi altri cinquant'anni, il che significa fino agli
anni '30 del ventunesimo secolo (NdT- Il presente libro è stato scritto nel 1986). I normali progressi
di routine (del tipo di quelli dimostrati sugli animali) che si verificheranno da qui fino al 2030, pare
aggiungeranno altri probabili anni alla vita, forse persino decadi. La semplice fase primordiale della
tecnologia di riparazione cellulare potrebbe estendere la vita di diversi decadi. Per riassumere,
quindi, sembra probabile che la medicina del 2010, 2020, e 2030 estenderà la vita del nostro
trentenne fino al 2040-2050. In quell'epoca, se non addirittura prima, i progressi medici potrebbero
permettere il suo ringiovanimento fino alla sua condizione attuale di trentenne. Sicché, quelli che
sono oggi sotto i trenta (e forse anche quelli apprezzabilmente più vecchi) possono guardare avanti,
quanto meno a titolo di tentativo, con qualche ragionevole speranza di vederci una medicina futura
in grado di sorpassare il loro processo di invecchiamento e di consegnarli salvi ad un era di
riparazioni cellulari caratterizzata, di salute vigorosa e di estensione di vita indefinita.

Se questa fosse l'intera storia, la distinzione fra gli ultimi umani avviati sulla strada di una morte
precoce e i primi sulla strada di una lunga vita potrebbe forse rappresentare l'ultimo dei divari
generazionali. Inoltre, la bruciante incertezza riguardo il proprio destino potrebbe motivare la
tentazione di relegare l'intero argomento nelle segrete del subconscio in cui rinchiudiamo le
speculazioni fastidiose.

Ma è davvero questa la nostra situazione? Sembra esserci un'altra strada per salvare delle vite, una
basata sulle macchine ripara-cellule nonostante queste non siano ancora disponibili oggi. Come
descritto nel capitolo precedente, le macchine riparatrici sapranno guarire i tessuti fintanto che si è
preservata la loro struttura essenziale. La capacità di un tessuto di metabolizzare e riparare se stesso
perde la sua importanza; la discussione sulla biostasi illustra proprio questo. La biostasi, come
descritto, utilizzerà dei dispositivi molecolari per arrestare le funzioni delle cellule e preservare la
loro struttura tramite il cross-linking, cioè legando l'una all'altra le macchine molecolari delle
cellule. Le nanomacchine invertiranno la biostasi grazie alla riparazione dei danni molecolari, ossia
rimuovendo i legami incrociati fra le macchine molecolari ed aiutando le cellule (e quindi i tessuti,
gli organi, e l'intero corpo) a ritornare al funzionamento normale.

Riuscire a raggiungere un'era di avanzate macchine ripara-cellule sembra la chiave per una vita
lunga ed in salute, poiché quasi tutti i problemi medici saranno allora curabili. Uno potrebbe
impegnarsi nello sforzo di restare vivo ed attivo lungo tutti gli anni che intercorrono fra oggi e quel
momento, in modo da riuscire a giungervi entro l'arco della sua vita residua; ma questa è
semplicemente la via più ovvia, la via che richiede un minimo di preveggenza. I pazienti odierni
spesso soffrono di collasso delle funzioni cardiache mentre le strutture del cervello che incorporano
memoria e personalità restano invece intatte. In tali casi, non potrebbe esserci qualche tecnologia
medica odierna che sia in grado di arrestare il processo biologico in un modo che le tecnologie
mediche di domani saprebbero invertire? Se così fosse, la maggior parte delle morti odierne
sarebbero in realtà diagnosi premature e non necessarie.

----------

Capitolo 9: Una porta sul futuro

I Requisiti per la Biostasi


Metodi di Biostasi
Inversione della Biostasi
Mente, Corpo ed Anima
Reazioni e Discussioni
Tempo, Costo ed Azione Umana

Londra, Aprile 1773.


A Jacques Dubourg (1)
Le sue osservazioni sulle cause della morte, e gli esperimenti con i quali si propone di richiamare
alla vita coloro che sembra siano stati uccisi da un fulmine, dimostrano in egual misura la sua
sagacia e la sua umanità. Pare che la dottrina della vita e della morte, in generale sia però tutt'altro
che ben compresa[…]
Vorrei che fosse possibile[…] inventare un metodo per imbalsamare le persone che sono annegate,
di modo che possano essere richiamate alla vita in un qualsiasi momento comunque distante nel
tempo; Avendo un desiderio davvero ardente di poter vedere gli stati d'America fra un centinaio
d'anni da oggi, io preferirei una morte ordinaria causata dall'immersione, fino ad allora e in
compagnia di qualche amico, in un barile di Madera, per poi essere richiamato alla vita dal tepore
del sole del mio caro paese! Ma […] in tutta probabilità, noi viviamo in un secolo ancora troppo
poco avanzato, e troppo vicino all'infanzia della scienza perché si possa vedere nel nostro tempo
una tale arte maturare fino alla perfezione.
- B. FRANKLIN

Benjamin Franklin cercava una procedura per arrestare e riavviare il metabolismo, ma all'epoca
nessuno ne conosceva una. Viviamo in un secolo di gran lunga più avanzato del suo da far si che la
biostasi sia ormai disponibile - per schiudere un futuro di salute a pazienti altrimenti privi di ogni
possibilità che non sia la dissoluzione conseguente alla loro morte?

Possiamo arrestare il metabolismo in molti modi, ma la biostasi, per essere utilizzabile, deve anche
essere reversibile. E da ciò scaturisce una curiosa situazione. Se si possa o meno mettere dei
pazienti in uno stato di biostasi con l'impiego delle tecniche presenti dipende esclusivamente dalla
eventuale disponibilità futura di tecniche capaci di invertire il processo. La procedura è perciò
composta da due parti, delle quali al momento ne padroneggiamo solo una.

Se la biostasi può mantenere inalterato un paziente per anni, allora le tecniche future dovranno
includere anche dei sofisticati sistemi di riparazione cellulare. Dobbiamo perciò giudicare il
successo delle attuali procedure di biostasi alla luce delle abilità ultime della futura medicina. Prima
che macchine ripara-cellule si profilino chiaramente all'orizzonte, tali abilità, ed i conseguenti
requisiti precisi per una biostasi di successo, restano grossolanamente incerti. Attualmente, i
requisiti di base sembrano piuttosto ovvi.

I Requisiti per la Biostasi

Le Macchine molecolari possono costruire cellule partendo da zero, come dimostrato dalla
divisione cellulare naturale. Possono anche costruire da zero interi organismi, come dimostrato
dallo sviluppo degli embrioni. I medici saranno in grado di utilizzare le tecnologie di riparazione
cellulare per dirigere lo sviluppo di nuovi organi, partendo da cellule appartenenti al paziente stesso.
Ciò dota i medici moderni di grandi margini di libertà nella attuazione delle procedure di biostasi:
anche se queste procedure danneggiassero o distruggessero la maggior parte degli organi di un
paziente, non gli procurerebbero comunque alcun danno irreversibile. I loro colleghi del futuro,
dotati di strumenti migliori, saranno in grado di riparare o rimpiazzare gli organi danneggiati. La
maggior parte delle persone dovrebbe essere ben contenta di avere un cuore nuovo, o dei reni
rinnovati, o una pelle più giovane (2).

Ma il cervello è un problema ben diverso. Un medico che permetta la distruzione del cervello di un
paziente, permette la distruzione del paziente stesso in quanto persona distinta, qualunque cosa
possa accadere al resto del corpo. Il cervello conserva gli schemi della memoria, della personalità,
del "sé". I pazienti colpiti da un colpo apoplettico perdono solo una parte del loro cervello e tuttavia
soffrono, in conseguenza di tali danni, di problemi che vanno dalla cecità parziale, alla paralisi, alla
perdita del linguaggio, alla riduzione dell'intelligenza, fino ad alterazioni della personalità o peggio
ancora. Gli effetti precisi dipendono dalla precisa locazione del danno. Ciò suggerisce che la
distruzione completa del cervello provocherebbe, tutte insieme, la cecità totale, la paralisi,
l'incapacità totale di parola, e la completa assenza di attività mentale, e ciò sia che il corpo continui
a respirare, sia che smetta di farlo.

Come scrisse Voltaire, "Per risorgere, per essere la stessa persona che eri, devi avere la tua
memoria perfettamente intatta e presente; è la memoria che fa la tua identità. Se la tua memoria si
perdesse, saresti ancora lo stesso uomo?". L'Anestesia interrompe la coscienza senza distruggere la
struttura del cervello, e le procedure di biostasi devono fare la stessa cosa, per un tempo ben più
lungo. Ciò solleva interrogativi sulla natura fisica delle strutture soggiacenti alla memoria e alla
personalità.

La neurobiologia, e un ben informato senso comune, concordano sulla natura di base della
memoria. Mano a mano che formiamo i nostri ricordi e ci sviluppiamo come individui, il nostro
cervello cambia. Questi cambiamenti influenzano il funzionamento del cervello, modificando i suoi
schemi di attività: Quando ricordiamo, il nostro cervello fa qualcosa; quando agiamo, pensiamo, o
avvertiamo delle sensazioni, il nostro cervello fa qualcosa. Il cervello lavora per mezzo di
macchinario molecolare. Dei cambiamenti duraturi nel funzionamento del cervello implicano
corrispondenti cambiamenti duraturi in questo macchinario molecolare - a differenza della memoria
di un computer, il cervello non è progettato perché possa essere svuotato e nuovamente riempito col
preavviso di un solo attimo. La personalità e la memoria a lungo termine sono durature.

Lungo l'intero corpo, cambiamenti duraturi delle funzionalità implicano cambiamenti duraturi del
macchinario molecolare soggiacente a quelle funzioni. Quando i muscoli diventano più forti o più
rapidi, le loro proteine cambiano in numero e distribuzione. Quando un vivente si adatta a far fronte
all'assunzione di alcool, anche il contenuto delle sue proteine cambia. Quando il sistema
immunitario impara a riconoscere un nuovo tipo di virus influenzale, il contenuto delle proteine,
ancora una volta, cambia. Poiché le macchine basate sulle proteine svolgono compiti come il
movimento dei muscoli, la frammentazione di tossine e il riconoscimento dei virus, l'esistenza di
questa relazione non è inaspettata.

Nel cervello, le proteine modellano le cellule nervose avvolgendo le loro superfici, legando una
cellula alla successiva, controllando le correnti ioniche di ogni impulso neurale, producendo le
molecole utilizzate dalle cellule nervose per comunicare fra le sinapsi, e molto, molto altro. Quando
le stampanti stampano parole, mettono giù schemi di inchiostro; quando le cellule nervose
cambiano il loro comportamento, esse modificano i loro schemi di proteine. La stampa, inoltre,
incide la carta, e le cellule nervose vengono anche loro modificate ben più che semplicemente nelle
loro proteine, nonostante l'inchiostro sulla carta e le proteine nel cervello possano da sole bastare
per determinare questi schemi in modo non equivoco. Le trasformazioni coinvolte sono tutt'altro
che impercettibili(3). I ricercatori hanno riscontrato che i cambiamenti a lungo termine nel
comportamento delle cellule nervose sono associati a "impressionanti cambiamenti morfologici"(4)
nelle sinapsi: queste, infatti, cambiano visibilmente in forma e struttura.

Sembra perciò che la memoria a lungo termine non sia poi quello schema terribilmente delicato che
comunemente si pensa, pronto ad evaporare via dal cervello ad ogni scusa. Memoria e personalità
sono infatti fermamente incorporati nel modo in cui le cellule del cervello si sono sviluppate ed
accresciute assieme, in schemi formati attraverso anni di esperienza. Memoria e personalità non
sono più materiali dei personaggi di un romanzo; eppure, proprio come loro, esse sono incorporate
in strutture di materia. Memoria e personalità non fuggono via nel momento in cui un paziente esala
l'ultimo respiro. Infatti, molti pazienti sono stati recuperati dalla cosiddetta "morte clinica", anche
senza l'aiuto di macchine ripara-cellule. Gli schemi della mente vengono distrutti soltanto "quando"
e "se" i medici che assistono il paziente consentono al suo cervello di procedere verso la
dissoluzione. Questa caratteristica, ancora una volta, permette ai medici una considerevole libertà di
azione nella attuazione delle procedure di biostasi: tipicamente, essi hanno bisogno di non arrestare
il metabolismo finché non sono cessate le funzioni vitali(5).

Pare quindi che preservare le strutture cellulari e gli schemi proteici del cervello, preservi anche la
struttura della mente, e del "sé" associato ad essa. I biologi sanno già come preservare così bene i
tessuti. La tecnologia della resurrezione deve attendere l'arrivo delle macchine di riparazione
cellulare, ma la tecnologia della biostasi pare essere già saldamente in nostra mano.

Metodi di Biostasi
L'idea che possediamo già i metodi di biostasi può sembrare sorprendente, poiché potenti nuove
abilità raramente spuntano fuori in una notte. Infatti, le tecniche sono vecchie, solo la comprensione
della loro reversibilità è nuova. I biologi svilupparono i due principali approcci alla biostasi per altre
ragioni.

Per decadi, i biologi hanno usato i microscopi elettronici per studiare la struttura di cellule e tessuti.
Per preparare i campioni, sfruttano un processo chimico chiamato fissazione allo scopo di
mantenere al loro posto le strutture molecolari. Un metodo molto popolare usa molecole di
glutaraldeide, catene flessibili di cinque atomi di carbonio con un gruppo reattivo di atomi di
idrogeno e ossigeno ad ogni termine di catena. I biologi fissano i tessuti pompando una soluzione di
glutaraldeide lungo i canali sanguinei, consentendo alle molecole di glutaraldeide di diffondersi
nelle cellule. Una molecola vaga all'interno della cellula, rotolando casualmente in giro, fino a che
uno dei suoi capi terminali entra in contatto con una proteina (o altre molecole reattive della cellula)
e si lega ad essa. L'altro termine della catena fluttua libero fino a che, a sua volta, entra in contatto
con qualche altra molecola reattiva della cellula. E tutto ciò, di solito risulta nella concatenazione,
tramite il glutaraldeide, di due molecole che nella cellula erano soltanto "vicine".

Questo processo di cross-linking [Ndt- Vedi Glossario], concatena tutte le strutture molecolari e le
macchine molecolari in modo che risultino infine saldamente connesse in un blocco unico; altri
reagenti chimici possono quindi essere aggiunti per completare il lavoro o rafforzare la compattezza
del tutto. I microscopi elettronici mostrano che tali procedure di fissazione preservano le cellule e le
strutture interne ad esse(6), incluse le cellule e strutture del cervello.

Il primo passo dell'ipotetica procedura di biostasi che ho descritto nel capitolo 7, coinvolge dei
semplici dispositivi molecolari in grado di entrare nelle cellule, bloccare il loro macchinario
molecolare e legare insieme le strutture, concatenandole perché stiano al loro posto. Le molecole di
glutaraldeide si adattano a questa descrizione piuttosto bene. Il passo successivo in questa procedura
coinvolge altri dispositivi molecolari in grado di rimuovere l'acqua, per impacchettarla solidamente
attorno alle molecole di una cellula. Anche questo corrisponde ad un processo già noto.

Alcuni agenti chimici come glicolpropilene, glicoletilene, e dimetilsolfossido possono diffondersi


nelle cellule e sostituirsi alla maggior parte della loro acqua, pur provocando pochi danni. Essi sono
noti come "crioprotettori" poiché possono proteggere le cellule dai danni provocati dalle basse
temperature. Se rimpiazzano una sufficiente quantità dell'acqua contenuta in una cellula, il
raffreddamento non causerà il congelamento ma farà semplicemente diventare sempre più vischiosa
la soluzione protettiva, che si trasformerà così mano a mano in un liquido dalla consistenza
dapprima simile a quella di un leggero sciroppo, poi a quella del catrame caldo, poi quella del
catrame freddo, per divenire infine qualcosa di simile ad un resistente vetro. Infatti, in accordo alla
definizione scientifica del termine, la soluzione protettiva ha capacità di contenimento analoghe a
quelle del vetro; il processo di solidificazione senza congelamento(7) è detto "vetrificazione".
Embrioni di topo(8) dapprima vetrificati e quindi conservati in azoto liquido, sono successivamente
in grado di svilupparsi in topolini sani.

Il processo di vetrificazione impacchetta saldamente il vitreo proteggente attorno alle molecole di


ogni cellula; la vetrificazione quindi, si adatta alla descrizione che ho dato del secondo stadio della
biostasi.
Fissazione e vetrificazione, utilizzate assieme, sembrano procedure adeguate ad assicurare una
biostasi sul lungo termine. Per invertire questa forma di biostasi, delle macchine di riparazione
cellulare verranno programmate per rimuovere il proteggente vetroso e le concatenazioni fra le
molecole della cellula e il glutaraldeide, per poi passare a riparare e rimpiazzare le molecole,
ripristinando così cellule, tessuti ed organi, proprio in questo ordine.
La fissazione in congiunzione con la vetrificazione, non è la prima procedura che è stata proposta
per la biostasi. Nel 1962 Robert Ettinger, un professore di fisica all'Highland Park College in
Michigan, pubblicò un libro(9) suggerendo che i futuri progressi nella criobiologia potrebbero
condurre a tecniche per una procedura di congelamento di facile reversibilità e applicabile a pazienti
umani. Inoltre suggeriva che i medici, utilizzando tecnologie future, potrebbero essere in grado di
riparare e riportare alla vita pazienti che fossero stati congelati con le tecniche odierne, purché il
congelamento fosse stato eseguito entro brevissimo tempo dopo l'avvenuta cessazione di segnali
vitali. Egli fece notare che le temperature da azoto liquido possono preservare i pazienti per secoli,
se necessario, alterandoli ben poco. Egli suggeriva, inoltre, che forse la scienza medica disporrà un
giorno di macchine favolose, capaci di ripristinare i tessuti congelati lavorando su una molecola alla
volta. Il suo libro diede il via al movimento crionico.

I crionici si sono concentrati sul congelamento perché molte cellule umane spontaneamente(10) si
riattivano dopo che siano state sottoposte ad un accorto processo di congelamento e disgelo. E' un
mito comune quello secondo cui il congelamento farebbe esplodere le cellule; infatti, il danno da
congelamento è ben più sottile di questo, anzi talmente sottile che spesso non lascia segni duraturi.
Lo sperma congelato produce regolarmente bambini in salute. Alcuni umani attualmente in vita
sono sopravvissuti ad un processo di congelamento spinto fino alle temperature da azoto liquido, da
loro subìto quando erano ancora in precoce stato embrionale. I criobiologi stanno attivamente
ricercando modi di congelare e scongelare organi vitali(11), per permettere ai chirurghi di
conservarli in previsione di un trapianto da effettuare in un tempo differito.

La prospettiva delle future tecnologie di riparazione cellulare ha rappresentato un tema importante


fra i crionici (12). Tuttavia essi hanno finora mostrato la tendenza a concentrarsi maggiormente
sulle procedure che preservano il funzionamento delle cellule, e lo hanno fatto per ovvie ragioni. I
criobiologi hanno mantenuto vitali delle cellule umane congelate per anni. I ricercatori hanno
migliorato i loro risultati sperimentando vari miscugli di composti chimici crioprotettivi e
controllando attentamente le velocità di raffreddamento e riscaldamento. La complessità della
criobiologia offre abbondanti possibilità per ulteriori sperimentazioni. Questa combinazione di
tangibile e sorprendente successo, e di promettenti obiettivi per ulteriori studi, ha reso la ricerca di
un processo di congelamento facilmente reversibile, uno scopo vivido e attraente per i crionici. Un
successo nel congelare e riportare alla vita un mammifero adulto sarebbe infatti indiscutibilmente
evidente e persuasivo.

Inoltre, anche una conservazione parziale della funzione dei tessuti lascia intendere che c'è stata
una eccellente preservazione della struttura dei tessuti stessi. Le cellule che possono rivivere (o
quasi rivivere) anche senza un particolare aiuto, avranno bisogno di scarsa riparazione.

Essendo la comunità dei crionici piuttosto cauta, l'enfasi tradizionalista che hanno posto sulla
importanza della preservazione delle funzioni dei tessuti, ha incoraggiato comunque la pubblica
confusione. Gli sperimentatori hanno congelato interi mammiferi adulti e successivamente li hanno
scongelati senza attendere il momento in cui potranno farsi aiutare dalle macchine ripara-cellule. I
risultati sono stati, ad un livello superficiale, scoraggianti: gli animali non sono riusciti a tornare in
vita (13). Il pubblico e la comunità medica, entrambi ignari della prospettiva delle macchine di
riparazione cellulare, hanno perciò interpretato la biostasi come qualcosa di apparentemente
inconcludente.

E, dopo la proposta di Ettinger, pochi criobiologi hanno scelto di sbilanciarsi sul futuro della
tecnologia medica con dichiarazioni non supportate. Come Robert Prehoda affermò nel 1967 (14) in
un suo libro: "Quasi tutti gli esperti degli stati di metabolismo ridotto, credono che il danno
cellulare causato dalle attuali tecniche di congelamento non possa essere rimediato". Naturalmente
questi sono gli esperti sbagliati a cui domandare. La questione richiede l'intervento di esperti di
tecnologia molecolare e di macchine di riparazione cellulare. Questi criobiologi avrebbero dovuto
dire semplicemente che la correzione del danno da congelamento dovrebbe apparentemente
richiedere riparazioni a livello molecolare, e che essi non avevano personalmente studiato una tale
materia. Invece, hanno involontariamente indotto in equivoco il pubblico su una materia medica di
importanza vitale. Le loro affermazioni hanno scoraggiato l'uso di tecniche di biostasi
potenzialmente funzionanti (15).

Le cellule sono composte per la maggior parte da acqua. A temperature sufficientemente basse, le
molecole d'acqua si uniscono per formare un fine ma solido reticolo di cross-links. Poiché ciò
preserva le strutture neurali (16) e quindi gli schemi della mente e della memoria, Robert Ettinger
ha apparentemente individuato un approccio potenzialmente funzionante per la biostasi. Mano a
mano che progredirà la tecnologia molecolare e che la gente svilupperà una maggiore confidenza
con le sue conseguenze, la reversibilità della biostasi (basata sul congelamento, o sulla fissazione, o
sulla vetrificazione o su altri metodi) diverrà ancora più ovvia a sempre più gente.

Inversione della Biostasi

Immaginiamo che un paziente sia spirato a causa di un attacco cardiaco. I medici tentano di
resuscitarlo, ma senza successo, ed infine rinunciano al tentativo di ripristinare le sue funzioni
vitali. A questo punto, tuttavia, corpo e cervello del paziente sono non più funzionanti solo in
apparenza, poiché la maggior parte delle cellule e dei tessuti sono infatti ancora vivi, e presentano
ancora attività metabolica. Avendo il paziente preventivamente dettato opportune disposizioni, esso
viene prontamente messo in biostasi, per prevenire la sua dissoluzione irreversibile e nell'attesa di
tempi migliori.

Gli anni passano. Il paziente cambia ben poco, ma la tecnologia progredisce enormemente. I
biochimici imparano a progettare le proteine. Gli ingegneri usano le macchine proteiche per
costruire assemblatori, e quindi usano gli assemblatori per realizzare compiutamente una
nanotecnologia dalle capacità estese e generali. Con la disponibilità di strumenti del tutto nuovi, la
conoscenza biologica esplode. Gli ingegneri biomedici, utilizzando la conoscenza di nuova
acquisizione, l'ingegneria automatizzata e gli assemblatori, sviluppano delle macchine di
riparazione cellulare di crescente sofisticazione. Per cui, imparano ad arrestare ed invertire
l'invecchiamento. I medici, a questo punto, sfruttano l'utilizzo delle tecnologie di riparazione
cellulare per resuscitare i pazienti posti in biostasi, cominciando da quelli per i quali si sono usate le
tecniche di biostasi più avanzate, e continuando con quelli che sono stati messi in biostasi con l'uso
di tecniche meno recenti e più rudimentali. Infine, dopo aver resuscitato con successo anche gli
animali che furono messi in biostasi con l'impiego delle vecchie tecniche degli anni '80, i medici
tornano ad occuparsi del nostro paziente colpito da attacco cardiaco.

Nella prima fase dei preparativi, il paziente giace in una tanica di azoto liquido circondata da
adeguate apparecchiature. Il proteggente vetroso blocca ancora in una salda stretta il macchinario
molecolare di ogni cellula del paziente. Questo proteggente deve essere rimosso, ma un semplice
riscaldamento potrebbe permettere ad alcune strutture cellulari di liberarsi prematuramente.

Dei dispositivi chirurgici appositamente progettati per l'impiego a basse temperature, raggiungono,
attraverso l'azoto liquido, il torace del paziente. Qui essi rimuovono il materiale solido che sigilla i
tessuti per aprirsi un accesso verso le principali arterie e vene (17). Un esercito di nanomacchine
equipaggiate per rimuovere il proteggente si introduce attraverso queste aperture, ripulendo prima i
principali vasi sanguinei e in seguito i capillari. Ciò libera diversi percorsi, che diventano perciò
disponibili per la normale attività dei tessuti (18) lungo tutto il corpo del paziente. Altre macchine
chirurgiche più grandi, collegano dei tubi al torace del paziente e pompano dei fluidi nel suo
sistema circolatorio. Il fluido sciacqua via le macchine iniziali, quelle addette alla rimozione del
materiale proteggente (ed in seguito apporterà alle macchine di riparazione i materiali primari
necessari per svolgere le riparazioni, e farà defluire via il calore prodotto).

Ora, le macchine pompano nel sistema circolatorio un fluido dall'aspetto latteo contenente migliaia
di miliardi di dispositivi che entrano nelle cellule e rimuovono il proteggente vetroso (19), molecola
dopo molecola. Essi lo sostituiscono con una sorta di impalcatura molecolare temporanea (20) che
lascia ampio spazio per consentire alle macchine di riparazione di lavorare agevolmente. Mano a
mano che queste macchine di rimozione del proteggente riportano a nudo le biomolecole, inclusi i
componenti strutturali e meccanici della cellula, esse le legano alla impalcatura con dei cross-links
temporanei. (Se il paziente ha subito un processo di fissazione tramite impiego di cross-links, anche
questi cross-links dovrebbero ora essere rimossi e temporaneamente sostituiti da altri). Quando sia
indispensabile scostare le molecole dalla loro posizione, le macchine le assegnano una etichetta
numerica (21), che memorizzano per poter successivamente ripristinare il corretto posizionamento
della molecola. Come anche altre macchine di riparazione cellulare avanzate, anche questi
dispositivi lavorano sotto la direzione di un nanocomputer presente localmente su ogni sito di
lavoro.

Quando hanno terminato, queste macchine specializzate per funzionare alle basse temperature, si
ritirano. Tramite una sequenza di cambiamenti graduali nella composizione e nella temperatura, una
opportuna soluzione acquosa sostituisce il precedente fluido crionico, ed il paziente viene riscaldato
al di sopra delle temperature di congelamento. Nuove macchine ripara-cellule vengono pompate nei
vasi sanguinei e penetrano nelle cellule. Iniziano le riparazioni.

Piccoli dispositivi esaminano le molecole e riferiscono la loro struttura e posizione a più grandi
computer interni alla cellula (22). Il computer identifica le molecole, comanda ogni necessaria
riparazione molecolare, e identifica le strutture cellulari in base ai loro schemi molecolari. Dove un
qualche danno abbia alterato le disposizioni delle strutture nella cellula, il computer dirige i
dispositivi di riparazione per ripristinare la disposizione appropriata, utilizzando dei cross-links
temporanei dove necessario. Nel frattempo, le arterie del paziente vengono ripulite e il muscolo
cardiaco, danneggiato anni prima, viene riparato.

Alla fine, il macchinario molecolare delle cellule sarà tornato al suo stato originario di ordine
funzionante, mentre altre riparazioni più elementari hanno corretto gli schemi danneggiati degli
insiemi di cellule, ripristinando così una condizione di salute in tessuti ed organi. L'impalcatura
viene rimossa dalle cellule, assieme alla maggior parte dei cross-links temporanei e delle macchine
di riparazione. La maggior parte delle molecole attive di ognuna delle cellule resta però bloccata,
per prevenire l'insorgere di una attività che sarebbe prematura in quanto non correttamente
equilibrata.

All'esterno del corpo, il sistema di riparazione ha prodotto del sangue fresco, sviluppandolo a
partire dalle stesse cellule del paziente. Questo sangue viene ora trasfuso nel paziente per riempire
nuovamente il suo sistema circolatorio, ed agisce con l'ausilio di una pompa esterna nel ruolo di
temporaneo cuore artificiale. I dispositivi rimasti in ogni cellula correggono ora le concentrazioni
dei sali, degli zuccheri, dell'ATP e di altre piccole molecole, in gran parte grazie allo sbloccaggio
selettivo del nanomacchinario nativo di ogni singola cellula. Mano a mano che procede la
liberazione del macchinario naturale, il metabolismo riprende, passo dopo passo; il muscolo
cardiaco viene finalmente sbloccato e condotto fin sul margine di incipiente contrazione. Il battito
cardiaco riprende, ed il paziente ritorna a vivere sebbene ancora in uno stato di anestesia. Mentre i
medici controllano che tutto stia procedendo bene, il sistema di riparazione chiude l'apertura nel
torace, congiungendo i tessuti ai tessuti, uno dopo l'altro e senza lasciare cuciture o cicatrici. I
dispositivi che sono rimasti nelle cellule si disassemblano l'uno con l'altro, dissolvendosi in
molecole nutritive. Mano a mano che il paziente si sposta dallo stato di anestesia verso uno di sonno
ordinario, alcuni visitatori entrano nella stanza, come da lungo tempo pianificato.

Per finire, il sognatore si sveglierà riposato, alla luce di un nuovo giorno, e alla vista dei suoi
vecchi amici.

Mente, Corpo ed Anima

Prima di prendere in considerazione la resurrezione, comunque, qualcuno potrebbe chiedersi che


cosa accada all'anima di una persona in biostasi. Alcune persone potrebbero rispondere che l'anima
e la mente sono aspetti della stessa cosa, aspetti di uno schema incorporato nella sostanza del
cervello, la quale è attiva durante la vita attiva mentre è invece quiescente durante la biostasi.
Assumiamo comunque, per un momento, che lo schema della mente, della memoria e della
personalità, abbandoni il corpo alla morte, trasportata via da qualche elusiva sostanza. Le
eventualità sembrano abbastanza chiare. La morte in questo caso significa ben altro che un
irreversibile danno del cervello, dovendo invece definirsi come una irreversibile dipartita
dell'anima. Questo renderebbe la biostasi una procedura priva di scopo ma in ogni caso innocua:
dopo tutto, i capi religiosi non hanno espresso alcuna preoccupazione che la semplice preservazione
del corpo possa in qualche modo imprigionare un'anima. Secondo questa visione delle cose, perché
la resurrezione possa risultare in un successo, essa dovrebbe presumibilmente necessitare anche
della cooperazione dell'anima. E' infatti già accaduto che la posa in biostasi di un paziente, sia stata
accompagnata sia da cerimonie Cattoliche che Giudaiche.

Con o senza la biostasi, la riparazione cellulare non può portare l'immortalità. La morte fisica, per
quanto grandemente posticipata, resterà radicata nella natura dell'universo. La biostasi e la
successiva riparazione cellulare non sembrano quindi alimentare nessuna fondamentale teologia. La
biostasi somiglia più ad una anestesia totale, seguita poi da una operazione chirurgica salva-vita:
entrambe le procedure, biostasi ed anestesia, interrompono la continuità della coscienza per
prolungare la vita. Parlare di "immortalità" quando la prospettiva è solo la longevità equivarrebbe
ad ignorare i fatti o utilizzare impropriamente le parole.

Reazioni e Discussioni

La prospettiva della biostasi sembra tagliata su misura per provocare reazioni di "shock da futuro".
La maggior parte della gente ritiene che l'odierna accelerazione dei cambiamenti sia
sufficientemente scioccante quando giunge un poco alla volta. Ma la validità dell'opzione della
biostasi è una implicazione odierna di una intera serie di passi avanti tecnologici futuri.
Ovviamente, questa prospettiva stravolge i difficili aggiustamenti psicologici con cui la gente
affronta il declino fisico.

Stando così le cose, ho costruito gli argomenti a favore della possibilità di macchine di riparazione
cellulare e biostasi partendo da fatti comunemente noti della biologia e della chimica. Ma cosa ne
pensano i biologi professionisti riguardo ai problemi di base? In particolare, credono (1) che le
macchine di riparazione saranno in grado di correggere il tipo di danno da cross-linking prodotto
dalla fissazione, e (2) che la memoria sia effettivamente incorporata da una forma fisica
preservabile?

Dopo una discussione sulle macchine molecolari e sulle loro capacità - una discussione che non ha
toccato nessuna implicazione di carattere medico - il Dottor Gene Brown, professore di biochimica
e presidente del dipartimento di biologia del MIT, ha acconsentito ad essere citato come autore
dell'affermazione seguente: "Dati tempo e sforzi sufficienti per sviluppare macchine molecolari
artificiali e per condurre studi dettagliati sulla biologia molecolare della cellula, dovrebbero
emergere capacità generali molto estese. Fra queste, potrebbe esserci la capacità di separare le
proteine (o altre biomolecole) da strutture a cui sono vincolate da cross-links, e di identificare,
riparare e rimpiazzare tali proteine". Questa affermazione individua una parte significativa del
problema di riparazione delle cellule. Essa è stata consistentemente approvata, in seguito a
discussioni analoghe nei due casi, sia da un campione di biochimici e di biologi molecolari
selezionati presso il MIT, che da un altro campione di biochimici selezionato presso Harvard.

Dopo una discussione sul cervello e sulla natura fisica della memoria e della personalità - ancora
una volta una discussione che non ha toccato alcuna implicazione medica - il Dottor Walle Nauta
(docente di neuro-anatomia al MIT) ha acconsentito ad essere citato come autore della seguente
affermazione: "Sulla base della nostra attuale conoscenza della biologia molecolare dei neuroni,
penso che i più concorderanno che le modificazioni prodotte durante il consolidamento della
memoria a lungo termine siano rispecchiate da corrispondenti trasformazioni nel numero e nella
distribuzione di particolari molecole proteiche presenti nei neuroni del cervello". Analogamente
all'affermazione del Dottor Brown, anche questa individua un punto chiave riguardo la corretta
funzionalità della biostasi. Anche questa è stata consistentemente approvata da altri esperti, dopo
essere stata discussa in un contesto idoneo ad isolare gli esperti da qualunque pregiudizio
emozionale che sarebbe potuto risultare dalle implicazioni mediche dell'affermazione. Inoltre,
poiché questi punti sono strettamente e direttamente correlati ai campi di specializzazione rispettivi
del Dottor Brown e del Dottor Nauta, i due dottori sono esperti appropriati a cui porre domande su
tali questioni.

A quanto pare, quindi, l'impulso umano verso la sopravvivenza dovrebbe spingere molti milioni di
persone verso l'impiego della biostasi (almeno come ultima risorsa), una volta che queste persone si
siano convinte della sua possibilità di funzionare. Mano a mano che la tecnologia molecolare
progredirà, la comprensione delle macchine ripara-cellule si diffonderà e si radicherà nella cultura
popolare. Le opinioni degli esperti supporteranno l'idea in misura via via crescente. La biostasi
diverrà sempre meno insolita, ed il suo costo crollerà. Pare probabile che molte persone potrebbero
infine considerare la biostasi come la norma, come un trattamento salva-vita standard per pazienti
ormai spirati.

Ma fino a che le macchine di riparazione cellulare non saranno dimostrate, la fin troppo umana
tendenza ad ignorare ciò che non abbiamo potuto verificare con i nostri occhi rallenterà
l'accettazione della biostasi. Milioni di persone non saranno sfiorati da nessun dubbio nel passare
dall'espirazione alla dissoluzione, per abitudine o per tradizione e giustificandosi con deboli
argomentazioni. L'importanza di una chiara preveggenza in questa materia rende importante
considerare le argomentazioni possibili prima di chiudere la discussione sull'estensione della vita e
passare a trattare altre questioni. Quindi, perché la biostasi non dovrebbe apparirci come una idea
naturale ed ovvia?

Perché la macchine di riparazione cellulare non esistono ancora

Potrebbe sembrare strano salvare una persona dalla dissoluzione nell'attesa di acquisire la capacità
di ripristinare la sua salute, visto che la tecnologia di riparazione non esiste ancora. Ma non è molto
più strano risparmiare denaro per mandare in futuro un figlio all'università? Dopotutto, anche lo
studente in età da universitario non esiste ancora. Risparmiare denaro ha senso perché il figlio
crescerà fino alla maturità; risparmiare una persona dalla dissoluzione ha senso perché la tecnologia
molecolare maturerà.

Ci aspettiamo che un figlio cresca fino alla maturità perché abbiamo visto molti altri bambini
crescere fino alla maturità; possiamo attenderci che questa tecnologia maturerà perché abbiamo
visto molte altre tecnologie maturare. Vero è che alcuni bambini soffrono di deficienze congenite,
come pure ne soffrono alcune tecnologie, ma spesso gli esperti possono stimare il potenziale di un
bambino o di una tecnologia mentre l'uno e l'altra sono ancora giovani.

La tecnologia microelettronica è partita da pochi granellini e filamenti disposti su una fettina di


silicio, ma è cresciuta fino ai computer basati sui chip. I fisici come Richard Feynman(24) videro, in
parte, quanto lontano questa tecnologia sarebbe andata.

La tecnologia nucleare è partita dalla scissione in laboratorio di pochi atomi sottoposti ad un


bombardamento di neutroni, ma è cresciuta fino ai reattori nucleari da miliardi di watt e alle bombe
nucleari. Leo Szilard vide, in parte, quanto lontano questa tecnologia sarebbe andata.

La tecnologia dei razzi a combustibile liquido è partita da rudimentali razzi lanciati da un campo
nel Massachusetts, ma è cresciuta fino alle navi lunari e gli space shuttle. Robert Goddard vide, in
parte, quanto lontano questa tecnologia sarebbe andata.

L'ingegneria molecolare è partita dalla chimica ordinaria e dall'impiego di macchine molecolari


prese a prestito dalle cellule viventi, ma essa, come già altre tecnologie, crescerà immensamente. Ed
anch'essa porta con sé conseguenze del tutto peculiari.

Perché delle macchine così minuscole mancano di sensazionalità

Abbiamo la tendenza ad attenderci risultati sensazionali solo da fatti sensazionali, ma il mondo


spesso non sembra cooperare con questo nostro atteggiamento. La natura consegna i suoi trionfi e i
suoi disastri entrambi avvolti in banale carta marrone da imballaggi.

FATTO BANALE: Certi interruttori elettrici possono stare in uno solo di due stati: acceso o
spento. Questi interruttori possono essere prodotti molto piccoli in dimensioni, e poco dispendiosi
in termini di consumo d'energia elettrica.

LA SUA SENSAZIONALE CONSEGUENZA: Se adeguatamente connessi, questi interruttori


formano computer, i motori della rivoluzione dell'informazione.

FATTO BANALE: L'etere non è eccessivamente velenoso, e tuttavia riesce ad interferire


temporaneamente con l'attività del cervello.

LA SUA SENSAZIONALE CONSEGUENZA: La fine dell'agonia inflitta dalla chirurgia su


pazienti coscienti, apre una nuova era nella medicina.

FATTO BANALE: Muffe e batteri competono per il cibo, sicché alcune muffe hanno sviluppato la
capacità di secernere veleni per uccidere i batteri.

LA SUA SENSAZIONALE CONSEGUENZA: La penicillina, la sconfitta di molte malattie


batteriche e il salvataggio di milioni di vite umane.

FATTO BANALE: Le macchine molecolari possono essere utilizzate per maneggiare molecole e
per costruire interruttori meccanici di dimensione molecolare.

LA SUA SENSAZIONALE CONSEGUENZA: Macchine ripara-cellule dirette da nanocomputer,


rendono possibile curare potenzialmente qualunque malattia.

FATTO BANALE: Memoria e personalità sono incorporate in strutture cerebrali che è possibile
preservare.
LA SUA SENSAZIONALE CONSEGUENZA: Le tecniche attuali possono prevenire la
dissoluzione, permettendo alla generazione presente di avvantaggiarsi delle macchine di riparazioni
cellulare di domani.

Di fatto, le macchine molecolari non sono poi così banali. Poiché i tessuti sono fatti di atomi, ci si
dovrebbe ben aspettare che macchine capaci di maneggiare atomi e modificare le loro disposizioni
debbano avere conseguenze mediche drammatiche.

Perché tutto ciò sembra troppo incredibile

Ma noi viviamo nel secolo dell'incredibile. In un articolo intitolato "L'idea del progresso" in
Astronautics and Aeronautics, l'ingegnere aereospaziale Robert T. Jones(25) ha scritto: "Nel 1910,
l'anno in cui sono nato, mio padre era un pubblico ministero. Egli ha percorso tutte le polverose
strade della contea di Maconn in un calesse trainato da un singolo cavallo. Lo scorso anno io ho
volato ininterrottamente da Londra a San Francisco passando sulle regioni polari, trascinato
attraverso l'aria da motori con potenza di 50.000 cavalli vapore". Ai giorni di suo padre, l'idea di
aereoplani di questo tipo sconfinava nella fantascienza, essendo semplicemente troppo incredibile
per essere presa in considerazione.

In un articolo intitolato "Basic Medical Research: A Long-Term Investment" nel Technology


Review, la rivista redatta presso il MIT, il Dottor Lewis Thomas(26) ha scritto: "Quarant'anni fa,
proprio prima di subire una trasformazione da arte a scienza e tecnologia, si riteneva scontato che la
medicina che insegnavamo fosse esattamente la medicina che avremmo avuto per tutta la durata
delle nostre vite. Se qualcuno avesse tentato di raccontarci che il potere di controllo delle infezioni
batteriche era appena dietro l'angolo, che la chirurgia a cuore aperto o i trapianti di reni sarebbero
divenuti possibili entro un paio di decadi, che certi tipi di cancro sarebbero divenuti curabili con la
chemioterapia, e che presto avremmo conquistato una esauriente comprensione biochimica della
genetica, e delle malattie con cause genetiche, avremmo reagito con una disinteressata incredulità.
Non abbiamo alcuna ragione di credere che la medicina non cambierà ancora. Ciò che suggerisce
questo ricordo è che dovremmo mantenere le nostre menti molto ben aperte nel futuro".

Perché tutto questo sembra troppo bello per essere vero.

Di fatto, tutte le più recenti novità sui modi per evitare esiti fatali della maggior parte delle
malattie, potrebbero sembrare troppo belle per essere vere - come è giusto che sia poiché tali novità
non sono che una piccola parte di una storia più vasta ed equilibrata. Ed in effetti, i pericoli della
tecnologia molecolare riequilibrano aspramente le sue promesse. Nella parte terza mi occuperò di
delineare le ragioni per le quali la nanotecnologia deve considerarsi più pericolosa delle armi
nucleari.

Fondamentalmente, tuttavia, la natura non si cura affatto del nostro senso del bene e del male come
pure non si cura della nostra tendenza ad immaginare un equilibrio fra le due cose. In particolare, la
natura non odia gli esseri umani abbastanza da alzare una barricata contro di noi. In passato sono
già svaniti altri antichi orrori.

Anni fa, i chirurghi si sforzavano di amputare le gambe con rapidità. Robert Liston di Edimburgo,
in Scozia, una volta segò da lato a lato la coscia di un paziente in un tempo record di 33 secondi e
rimuovendo durante l'operazione tre dita appartenenti ai suoi assistenti. I chirurghi lavoravano
rapidamente per accorciare l'agonia dei loro pazienti, poiché questi rimanevano coscienti.

Se le malattie terminali in assenza di biostasi sono un incubo oggi, consideriamo la chirurgia nei
giorni dei nostri antenati: il bisturi che fende le carni, il sangue che sgorga, la sega che stride contro
le ossa di un paziente cosciente. Già nell'ottobre del 1846, W. T. G. Morton e J. C. Warren
rimossero un tumore da un paziente anestetizzato da etere; Arthur Slater ha testimoniato che il loro
successo "fu giustamente salutato come la grande scoperta dell'epoca". Con tecniche semplici e
basate su un agente chimico conosciuto, il risveglio dall'incubo del bisturi e della sega, durato fin
troppo, era finalmente giunto.

Con la fine dell'agonia, la chirurgia divenne più diffusa, e con essa anche le infezioni chirurgiche e
quindi l'orrore delle morti di routine causate dalla cancrena delle carni interne al corpo. Tuttavia, nel
1867 Joseph Lister pubblicò(27) i risultati dei suoi esperimenti con il fenolo, stabilendo i principi
della chirurgia antisettica. Con tecniche semplici basate su un noto agente chimico, l'incubo di
essere decomposti in vita venne drammaticamente allontanato. E poi giunsero i farmaci sulfamidici
e la penicillina, che posero fine a molte malattie mortali in un colpo solo. E la lista continua.

Altri drammatici passi avanti tecnologici si sono già verificati in passato, alcuni grazie a nuovi
utilizzi di reagenti chimici già noti, come nel caso dell'anestesia e della chirurgia antisettica.
Sebbene questi progressi potessero sembrare troppo belli per essere veri, si dimostrarono realmente
possibili. La salvezza di vite umane grazie all'impiego di reagenti chimici già noti o delle procedure
di biostasi può, nella stessa misura, dimostrarsi una realtà.

Perché i medici attualmente non utilizzano la biostasi.

Robert Ettinger propose una tecnica di biostasi nel 1962. Egli affermò che il Professor Jean
Rostand aveva proposto lo stesso approccio già qualche anno prima, pronosticandone il suo
eventuale impiego in medicina. Perché la biostasi per congelamento non riesce a divenire popolare?
In parte a causa della sua spesa iniziale, in parte a causa della inerzia umana ed in parte perché resta
oscuro ai più cosa s'intenda per macchine di riparazione cellulare. Tuttavia, anche il radicato
conservatorismo tipicamente associato alla professione medica ha giocato un suo ruolo.
Consideriamo ancora una volta la storia della anestesia.
Nel 1846, Morton e Warren sorpresero il mondo con la "scoperta dell'epoca", l'anestesia da etere.
Appena due anni più tardi, Horace Wells utilizzò l'anestesia con protossido di azoto, e due anni
dopo ancora Crawford W. Long effettuò una operazione utilizzando etere. Nel 1824, Henry
Hickman anestetizzò con successo degli animali impiegando dell'ordinario diossido di carbonio; in
seguito spese anni tentando di convincere i chirurghi Inglesi e Francesi a sperimentare il protossido
di azoto come anestetico. Nel 1799, ben quarantasette anni prima della grande "scoperta" ed anni
prima che gli assistenti di Liston perdessero le loro dita, Sir Humphry Davy scrisse(28): "Poiché il
protossido di azoto sembra capace di disinnescare il dolore fisico, potrebbe eventualmente essere
impiegato durante le operazioni chirurgiche".

Tuttavia, in un epoca ancora più tarda come quella del 1839, la conquista del dolore sembrava
ancora, a molti medici, un sogno impossibile da realizzare. Il Dottor Alfred Velpeau dichiarò:
"L'abolizione del dolore in chirurgia è una chimera. E' assurdo che oggi si vada alla sua ricerca.
'Bisturi' e 'dolore' sono due parole della chirurgia che, nella coscienza del paziente, dovranno
sempre accompagnarsi. A questa compulsiva combinazione non resta che adattarsi".

Molti temevano il dolore della chirurgia più della morte stessa. Forse è giunto il momento di
risvegliarsi dall'ultimo dei nostri incubi medici.

Perché non è stato dimostrato che possa funzionare.

E' vero che nessun esperimento può attualmente dimostrare che un paziente può resuscitare da una
condizione di biostasi. Ma l'esistenza di una domanda generalizzata per una tale dimostrazione
conterrebbe implicitamente un assunto nascosto, ossia che la medicina si è avvicinata talmente ai
limiti finali del possibile che non dovrà mai più preoccuparsi della eventualità di nuovi progressi
futuri. Una tale domanda potrebbe sembrare cauta e ragionevole, ma di fatto puzza di tracotante
arroganza.

Sfortunatamente, una dimostrazione è esattamente quello che i medici hanno tentato di realizzare, e
per buone ragioni: essi desiderano evitare procedure inutilizzabili che potrebbero portar danno.
Forse basterà la noncuranza nei confronti della biostasi per produrre il più ovvio ed irreversibile dei
danni.

Tempo, Costo ed Azione Umana

La scelta, per la gente, di utilizzare o meno, la biostasi, dipenderà dalla circostanza che essa pensi o
meno che valga la pena tentare un tale azzardo. La valutazione di questo azzardo chiama in causa il
valore che si da alla vita (che è una questione personale), il costo della biostasi (che pare
ragionevole in base agli standard della medicina moderna), la probabilità che la tecnologia potrà
funzionare (che pare eccellente), e la probabilità che l'umanità sopravvivrà, svilupperà la tecnologia
e riporterà in vita le persone poste in biostasi. Questo ultimo punto concentra su di sé la maggior
parte della incertezza complessiva.

Assumiamo che gli esseri umani e la società libera sopravviva (nessuno può calcolare la probabilità
che si realizzi una tale ipotesi, ma dare per scontato un fallimento scoraggerebbe gli sforzi concreti
per promuovere il successo). Se ciò avverrà, la tecnologia continuerà a progredire. Lo sviluppo
degli assemblatori richiederà anni. Studiare le cellule ed apprendere come riparare i tessuti dei
pazienti in biostasi, richiederà ancor più tempo. Come stima ipotetica, lo sviluppo di sistemi di
riparazione e il loro adattamento per una applicazione alla resurrezione richiederà dalle tre alle dieci
decadi, sebbene progressi nella ingegneria automatizzata potrebbero accelerare il processo.

Il tempo richiesto sembra comunque senza importanza. Per la maggior parte dei pazienti sarà molto
più importante quale sarà la condizione di vita il giorno del loro risveglio, e se saranno presenti
amici e parenti, piuttosto che quale sarà la data di calendario. Grazie all'abbondanza di risorse, la
condizione fisica della vita potrebbe essere in effetti molto buona. La presenza di amici e parenti è
tutt'altra questione.

In un sondaggio di recente pubblicazione, oltre la metà degli interpellati ha dichiarato che, se fosse
data loro una possibilità di scegliere liberamente, vorrebbero vivere al massimo per cinquecento
anni. I sondaggi informali mostrano perciò che la maggior parte della gente preferisce la biostasi
alla dissoluzione, se la biostasi può far riconquistare loro una buona salute e la opportunità di
esplorare un nuovo futuro in compagnia dei loro vecchi amici e parenti. Una minoranza di persone
ha detto che "vorrebbero andar via quando verrà il momento" ma essi generalmente concordano
che, finché gli si offre la possibilità di vivere ulteriormente, il loro momento non sarà ancora
arrivato. Sembra che molta gente odierna condivida il desiderio di Benjamin Franklin, ma lo fa in
un secolo che è capace di soddisfarlo. Se la biostasi facesse sufficienti proseliti (o se altre
tecnologie di estensione della vita facessero dei progressi sufficientemente rapidi), allora un
paziente resuscitato non si risveglierebbe in un mondo di estranei, ma vedendo i sorrisi di volti
familiari.

Ma la gente in biostasi verrà davvero resuscitata? Le tecniche per mettere in biostasi dei pazienti
sono già note, ed il costo di tali tecniche potrebbe anche diventare basso, quanto meno al confronto
di quello di grossi interventi chirurgici o cure e degenze ospedaliere prolungate. Le tecnologie della
resurrezione, tuttavia, saranno complesse e dispendiose da sviluppare. La gente del futuro si
impegnerà nel loro sviluppo?
Sembra probabile che gli uomini del futuro lo faranno. Essi potrebbero anche sviluppare la
nanotecnologia senza pensare in modo prioritario alle applicazioni mediche, ma in tal caso
riusciranno di sicuro a divenire capaci di sviluppare computer migliori. Potrebbero sviluppare delle
macchine ripara-cellule senza pensare in modo prioritario alla resurrezione, ma poi la realizzeranno
di certo per poter curare se stessi. Potrebbero non sentirsi spinti a compiere un gesto di carità
impersonale come quello di programmare le macchine per la resurrezione, ma d'altronde essi
avranno abbondanza di tempo, di benessere materiale e di sistemi di ingegneria automatizzata, e per
alcuni di loro, quelli che attendono in biostasi, sarebbero sentimentalmente importati. Sembra
perciò certo che le tecniche saranno effettivamente sviluppate.

Verrà un tempo in cui, grazie ai replicatori e alle risorse spaziali, la gente avrà benessere e spazio
per vivere oltre mille volte più grande di quello che abbiamo oggi. La resurrezione stessa richiederà
perciò meno energia e materiali, persino rispetto a quelli che sono gli standard odierni. Quindi, la
gente del futuro che dovrà occuparsi delle resurrezioni, riterrà che esista ben poco conflitto fra i
propri interessi personali e le loro preoccupazioni umanitarie. Le normali motivazioni umane
sembrano sufficienti ad assicurare che la popolazione attiva del futuro sveglierà quelli che si
trovano in biostasi.

La prima generazione che riconquisterà la sua giovinezza senza essere costretta a ricorrere alla
biostasi, potrebbe anche già essere fra noi oggi. La prospettiva della biostasi semplicemente
fornisce, a più gente, motivo maggiore di attendersi la longevità. Essa offre una opportunità per i
vecchi e una forma di assicurazione per i giovani. Mano a mano che i progressi nella biotecnologia
condurranno verso la progettazione di proteine, gli assemblatori e la riparazione cellulare, e mano a
mano che le implicazioni verranno recepite, l'aspettativa per una vita lunga si diffonderà. La
biostasi, allargando la strada d'accesso verso la longevità, incoraggerà un interesse più intenso per il
futuro. E ciò incoraggerà gli sforzi per prepararci ai pericoli che abbiamo davanti.

----------

Capitolo 10: I limiti dello sviluppo

La Struttura del Vuoto


La Fisica Verrà Stravolta Ancora?
I Limiti dell'Hardware
Entropia: Un Limite all'Uso di Energia
I Limiti delle Risorse
Malthus
Qualcuno Potrebbe Fermarci?
Sviluppo nell'Ambito dei Limiti
Uno Sguardo ai Limiti

La scacchiera è il mondo, i pezzi sono i fenomeni dell'universo, le regole di gioco sono quelle che
noi chiamiamo leggi della natura
- T. H. HUXLEY

Nell'ultimo secolo abbiamo sviluppato aereoplani, navette spaziali, energia nucleare e computer.
Nel prossimo svilupperemo assemblatori, replicatori, ingegneria automatizzata, volo spaziale
economico, macchine di riparazione cellulare e molto altro. Questa serie di passi avanti tecnologici
potrebbe suggerire che la corsa tecnologica progredirà senza limiti. Secondo questo modo di vedere,
infrangeremo tutte le barriere immaginabili, lanciandoci a capofitto in un infinito inconoscibile; ma
sembra proprio che questa visione sia falsa.
Le leggi della natura e le condizioni del mondo limiteranno quello che faremo. Senza limiti, il
futuro sarebbe completamente sconosciuto, una cosa informe che si fa beffe dei nostri sforzi di
previsione e pianificazione. Se invece ha dei limiti, il futuro resta pur sempre una turbolenta
incertezza ma è comunque obbligato a scorrere entro certi confini.

Dai limiti naturali impariamo qualcosa riguardo ai problemi e alle opportunità che fronteggiamo. I
limiti definiscono i confini del possibile, indicandoci quali risorse possiamo utilizzare, quanto
velocemente la nostra nave spaziale potrà volare, e le cose che le nostre nanomacchine potranno o
non potranno fare.
Discutere i limiti è rischioso: possiamo essere più sicuri che qualcosa sia possibile piuttosto che
qualcos'altro non lo sia. Gli ingegneri possono discuterne utilizzando approssimazioni e casi
speciali. E dotati di strumenti, materiali e tempo adeguati, possono anche dimostrare le possibilità in
modo diretto. Anche quando elaborano dei disegni di progetto esplorativi, possono restare ben
all'interno del reame del possibile se stanno attenti a mantenersi ben lontano dai limiti. Gli
scienziati, al contrario, non possono dimostrare una teoria di carattere generale, ed ogni loro
dichiarazione generale di impossibilità è di per se stessa una sorta di teoria generale. Nessun
esperimento specifico (poiché si riferisce necessariamente ad un qualche specifico luogo ed un
qualche specifico istante) può dimostrare l'impossibilità assoluta di qualcosa (impossibilità ovunque
e sempre). E nemmeno è possibile effettuare un numero indefinitamente grande di esperimenti.

Tuttavia, le leggi scientifiche generali forniscono delle descrizioni dei limiti del possibile.
Nonostante gli scienziati non possano provare una legge generale, hanno comunque evoluto la
nostra migliore immagine disponibile di come funzioni l'universo. Ed anche se esperimenti esotici
ed eleganti trattazioni matematiche trasformeranno ancora il nostro concetto di legge fisica, ben
pochi limiti ingegneristici ne risulteranno spostati. La relatività non ha influenzato il progetto di
automobili.

La mera esistenza di limiti definitivi non significa che essi stiano sul punto di soffocarci, e tuttavia
molte persone ne hanno derivato l'idea che i limiti metteranno presto fine alla crescita. Questo
concetto semplifica la loro immagine di un futuro perché lascia fuori dal quadro gli strani nuovi
sviluppi a cui la crescita condurrà. Altra gente preferisce la nozione ancora più sfocata di crescita
limitata, un concetto che offusca la loro immagine del futuro suggerendo che esso sarà del tutto
incomprensibile.

Le persone che confondono la scienza con la tecnologia, tendono a fare confusione riguardo ai
limiti. Come fa notare il progettista software Mark S. Millert, esse immaginano che nuova
conoscenza significhi sempre nuovo know-how; alcuni immaginano anche che conoscere tutto ci
permetterebbe di poter fare tutto. I progressi nella tecnologia, in effetti, apportano nuovo know-
how, aprendo così nuove possibilità. Ma i progressi nelle scienze basilari, più modestamente, si
limitano a redisegnare la nostra mappa dei limiti definitivi; e questo, spesso rivela delle nuove
impossibilità. Le scoperte di Einstein, per esempio, mostrarono che nulla poteva pareggiare in
velocità la corsa di un raggio luminoso.

La Struttura del Vuoto

La velocità della luce è un vero limite? Fra la gente, qualcuno un tempo parlava di "barriera del
suono" credendo che fosse qualcosa che dovesse impedire ad un aereoplano di superare la velocità
del suono. Finché, alla Base Edwards dell'Air Force, nel 1947, Chuck Yeager squarciò il cielo di
ottobre con un rimbombo sonico. Oggi, certe persone parlano della "barriera della luce" chiedendosi
se anche questa, potrà cadere.
Sfortunatamente per gli scrittori di fantascienza, questo parallelo è superficiale. Nessuno potrebbe
mai sostenere che la barriera del suono fosse stata un reale limite fisico. Meteoriti e pallottole la
infrangono quotidianamente, e persino le sferzate di una frusta lo fanno. Ma nessuno ha osservato
qualcosa muoversi più veloce della luce. Alcuni puntini distanti osservati grazie ai radiotelescopi, a
volte sembrano muoversi più veloci della luce, ma alcuni semplici trucchi di prospettiva ottica
possono facilmente spiegare come ciò possa accadere. Alcune particelle ipotetiche denominate
"tachioni " dovrebbero muoversi più veloci della luce, se esistessero. Ma nessuno le ha ancora
trovate, e le teorie correnti non prevedono la loro esistenza. Gli sperimentatori sono riusciti a
spingere i protoni fino a velocità pari a più del 99,9995 percento della velocità della luce, con
risultati perfettamente in accordo con le previsioni di Einstein. Se la particella viene accelerata
ulteriormente, la sua velocità cresce verso valori più vicini alla velocità della luce in molto più
impercettibile, ma nel contempo la sua energia (la sua massa) cresce quasi senza limite.

Sulla Terra, una persona può camminare o navigare solo fino a certe distanze, ma in ogni caso
nessun orlo o barriera misteriosa blocca improvvisamente il suo cammino. Semplicemente, la Terra
è tonda. Il limite di velocità nello spazio non implica una "barriera della luce" più di quanto i limiti
di distanza sulla Terra implichino un muro. Lo spazio stesso, il vuoto che detiene tutta l'energia e la
materia, ha delle proprietà. Una di queste è la sua geometria, la quale può essere descritta
guardando al tempo come una speciale "dimensione". Questa geometria fa sì che la velocità della
luce receda mano a mano che una nave spaziale accelera, come l'orizzonte recede innanzi ad una
nave in movimento sul mare: la velocità della luce, come l'orizzonte, è sempre ugualmente remota
in ogni direzione. Ma l'analogia finisce qui. Questa somiglianza non ha nulla a che fare con la
curvatura dello spazio. È sufficiente ricordare che la velocità limitante non è nulla di così
grossolano o frangibile come sarebbe una ipotetica "barriera della luce" (1). Gli oggetti possono
sempre andare più veloci di quanto stiano andando, soltanto non possono andare più veloci della
luce.

La gente ha a lungo sognato di conquistare il controllo gravitazionale. Nell'edizione del 1962 di


Profiles of the Future, Arthur C. Clarke scrisse (2): "Di tutte le forze, la gravità è la più misteriosa e
la più implacabile", e proseguì suggerendo che un qualche giorno svilupperemo dei dispositivi
adatti a controllare la gravità. Tuttavia, la gravità è davvero così misteriosa? Nella teoria della
relatività generale, Einstein descrive la gravità come curvatura nella struttura spazio-temporale del
vuoto. La matematica che esprime tale descrizione è elegante e precisa nonché tale da poterne
ricavare predizioni che hanno superato ogni verifica sperimentale finora escogitata.

La gravità non è ne più ne meno implacabile di altre forze. Nessuno può sottrarre ad un masso la
sua gravità, ma neanche può sottrarre ad un elettrone la sua carica elettrica o ad una corrente il suo
campo magnetico. Sappiamo controllare i campi elettrici ed i campi magnetici tramite lo
spostamento delle particelle che li generano; possiamo in modo analogo controllare i campi
gravitazionali spostando delle comunissime masse. Sembra quindi che non possiamo imparare il
segreto del controllo di gravità, perché lo conosciamo già.

Un bambino con una piccola calamita può sollevare un chiodo, usando un campo magnetico per
sovrastare la trazione gravitazionale. Ma, per sfortuna degli aspiranti ingegneri gravitazionali, usare
la gravità per sollevare un chiodo richiederebbe una massa spaventosa. Se il pianeta Venere fosse
appeso proprio sopra la vostra testa, si riuscirebbe a farlo a malapena, quantomeno finché il pianeta
non vi cade addosso.

Gli ingegneri generano onde elettromagnetiche facendo oscillare cariche elettriche avanti ed
indietro in una antenna; si potrebbero generare onde gravitazionali agitando una roccia nell'aria.
Ma, ancora una volta, l'effetto gravitazionale è debole. Nonostante una stazione radio con potenza
di un kilowatt non sia nulla di straordinario, l'agitarsi e il ruotare di tutte le masse dell'intero sistema
solare non riesce ad irradiare un altrettanto kilowatt di potenza in onde gravitazionali.

Comprendiamo sufficientemente bene la gravità; semplicemente essa non è di molta utilità nella
costruzione di macchine che siano più leggere della Luna. Ma alcuni dispositivi che utilizzano
masse più grandi riescono a funzionare. Una diga idroelettrica fa parte di una macchina
gravitazionale (l'altra parte è la Terra) che estrae energia dalla caduta di masse. Macchine che usino
"buchi neri", sulla base della formula E=mc2 saprebbero estrarre energia dalla caduta di masse, con
una efficienza superiore al cinquanta percento. Calando giù in un buco nero un singolo secchio
pieno d'acqua, se ne ricaverebbe altrettanta energia di quella che si otterrebbe scaricando diverse
migliaia di miliardi di secchi d'acqua attraverso i generatori di una diga alta un chilometro.

Poiché le leggi della gravità descrivono come si curva il vuoto, esse si applicano anche a
speculazioni come quelle delle "space warps" (deformazioni spaziali) di stile fantascientifico. Pare
che dei tunnel da un punto all'altro dello spazio sarebbero instabili, persino ammesso che si possa
anzitutto crearli. Ciò impedirebbe alle navi spaziali del futuro di raggiungere punti molto distanti
grazie ad un viaggio a velocità superiori a quelle della luce che venga ottenuto passando attraverso
una sorta di scorciatoia che aggiri lo spazio intercorrente. E questo pone anche un limite alla
possibilità di viaggio, che a sua volta impone un limite alla espansione e allo sviluppo.

Le leggi di Einstein sembrano dare una descrizione accurata della geometria complessiva del
vuoto. Se è così, i limiti che ne risultano sembrano inevitabili: ci si può sbarazzare di quasi
qualunque cosa, ma non del vuoto stesso.

Sembra altrettanto impossibile sfuggire ad altre leggi e limiti, e per ragioni analoghe. Infatti, i fisici
hanno iniziato, in misura sempre maggiore, a guardare a tutte le leggi della natura in termini di
struttura del vuoto. Le onde gravitazionali sono un certo tipo di increspature ondulatorie del vuoto; i
buchi neri sono un certo tipo di distorsioni del vuoto. Analogamente, le onde radio sono un altro
tipo di ondulazioni del vuoto, le particelle elementari sono un altro tipo molto differente di
increspature (che in alcune teorie assomigliano a minuscole corde vibranti). In quest'ottica, esiste
quindi una sola sostanza nell'universo: il vuoto. Ma si tratta comunque di una sostanza che si
presenta in una notevole varietà di forme, inclusi quegli schemi di particelle che noi chiamiamo
"materia solida". Questa visione suggerisce l'inevitabile qualità delle leggi naturali. Se una singola
sostanza riempie l'universo, essa è l'universo, per cui le sue proprietà limitano tutto quello che
possiamo fare (3).

La stranezza della fisica moderna, però, induce molta gente a non credere in essa. Le rivoluzioni
che hanno condotto fino alla meccanica quantistica ed alla relatività, hanno fatto nascere espressioni
come "il principio di indeterminazione", "la natura ondulatoria della materia", "la materia è energia"
e "la curvatura dello spazio-tempo". Un'aria di paradosso circonda queste idee e quindi la fisica
stessa. È comprensibile che le nuove tecnologie ci sembrino strane, ma perché anche le antiche ed
immutabili leggi della natura dovrebbero trasformarsi in qualcosa di bizzarro e scioccante?

I nostri cervelli e linguaggi si sono evoluti per trattare con cose enormemente più grandi degli
atomi e che si muovono ad una minuscola frazione della velocità della luce. Cervelli e linguaggi
svolgono un lavoro passabile, nonostante abbiano impiegato secoli per imparare a descrivere il
moto di un sasso in caduta. Ma abbiamo oramai spinto la nostra conoscenza molto al di là
dell'antico mondo dei sensi. Abbiamo scoperto cose (onde di materia, curvatura dello spazio) che
sembrano bizzarre, nonché altre che sono semplicemente al di là della nostra capacità di
visualizzazione. Ma "bizzarro" non vuol dire misterioso e impredicibile. La matematica e gli
esperimenti funzionano ancora, e consentono agli scienziati di variare e selezionare le teorie,
evolvendole per adattarle ad una realtà peculiare. Le menti umane si sono dimostrate notevolmente
flessibili, ma non costituisce una così grande sorpresa scoprire che non sempre possiamo
visualizzare l'invisibile.

Parte del motivo per cui la fisica sembra così strana è che la gente desidera ardentemente le
stranezze, e tende a diffondere memi che descrivono le cose come strane. Alcune persone
preferiscono quelle idee che stratificano il mondo in livelli, e riempiono questi livelli di misteri di
grado-B. Naturalmente, queste persone preferiscono e diffondono quei memi grazie ai quali la
materia pare essere immateriale e la meccanica quantistica pare più simile ad una branca della
psicologia.

La relatività, come direbbero queste persone, rivela che la materia (quella chiara vecchia roba che
la gente pensa di comprendere) è davvero energia (quella subdola, misteriosa roba che fa succedere
le cose). Questo suscita un sorriso incerto riguardo ai misteri dell'universo. Potrebbe essere più
chiaro se si dicesse che la relatività rivela che l'energia è, in tutte le sue forme, una forma di
materia, ossia che l'energia ha massa. Infatti le vele solari funzionano basandosi su questo principio,
ossia grazie all'impatto di una massa su una superficie. La luce stessa si manifesta "impacchettata"
in forma di particelle.

Consideriamo anche il principio di indeterminazione di Heisenberg, ed il fatto ad esso correlato che


"l'osservatore esercita sempre una influenza sull'osservato". Il principio di indeterminazione è
intrinseco alla matematica usata per descrivere la materia ordinaria (dando agli atomi la loro propria
dimensione), ma "l'effetto dell'osservatore" che vi è associato è stato presentato in alcuni libri
popolari come una magica influenza della coscienza sul mondo. Invece, l'idea di fondo è più
prosaica. Immaginiamo di osservare il moto della polvere sotto un raggio luminoso: quando
osservate le luci riflesse di certo le influenzate, perché ne assorbite una parte. Analogamente la luce
(con la sua massa) influenza il moto della polvere: si scontra con la polvere esercitando su essa una
forza. Il risultato non è un effetto della vostra mente sulla polvere, ma della luce sulla polvere.
Nonostante le misurazioni quantistiche presentino certe peculiarità di una sottigliezza che va molto
oltre quella di questo esempio (4), non esiste nulla in che implichi che la mente riesca a modificare
la realtà.

Infine, consideriamo il "paradosso dei gemelli". La Relatività prevede che, se uno dei due individui
di una coppia di gemelli volasse a velocità prossime a quelle della luce fino ad un'altra stella per poi
tornare indietro, al suo ritorno il gemello viaggiatore sarebbe più giovane di quello rimasto a casa.
Infatti, le misurazioni condotte con orologi accuratissimi hanno dimostrato che un moto molto
rapido è associato ad un effetto di rallentamento del tempo. Ma questo non è un "paradosso"; è
semplicemente un fatto della natura.

La Fisica Verrà Stravolta Ancora?

Nel 1894 l'eminente fisico Albert A. Michelson affermò: "Le più importanti e fondamentali leggi e
fatti delle scienze fisiche sono stati tutti scoperti, ed essi sono oramai così fermamente stabiliti che
la possibilità di sostituirli, in conseguenza di nuove scoperte, è estremamente remota […] Le nostre
future scoperte saranno necessariamente limitate alla sesta posizione decimale delle misure".

Ma nel 1895, Roentgen scoprì i raggi X. Nel 1896, Becquerel scoprì la radioattività. Nel 1897,
Thomson scoprì l'elettrone. Nel 1905, Einstein formulò la teoria della Relatività Ristretta
(spiegando così le osservazioni sperimentali condotte da Michelson nel 1887 e riguardanti la
velocità della luce). Nel 1905, Einstein presentò anche la teoria fotonica della luce. Nel 1911,
Rutherford scoprì i nuclei atomici. Nel 1915, Einstein formulò la teoria della Relatività Generale.
Dal 1924 al 1930, de Broglie, Heisenberg, Bohr, Pauli, e Dirac svilupparono i fondamenti della
meccanica quantistica. Nel 1929, Hubble mostrò l'evidenza dell'espansione dell'universo. Nel 1931,
Michelson morì.
Michelson ha commesso un errore memorabile. La gente ancora cita la sua affermazione ed elenca
quello che ne è seguito a sostegno del punto di vista che non dovremmo (mai?) dichiarare nessuna
comprensione consolidata delle leggi naturali, o dei limiti del possibile. Dopo tutto, se Michelson
era così sicuro e tuttavia così in errore, non dovremmo temere di ripetere il suo sbaglio? La grande
rivoluzione della fisica ha indotto alcune persone a concludere che la scienza non smetterà mai di
condurci a nuove importanti sorprese - persino sorprese importanti per gli ingegneri. Ma abbiamo
davvero probabilità di imbatterci ancora in uno sconvolgimento così importante?

Forse no. Il contenuto della meccanica quantistica era una sorpresa, e tuttavia prima che questa
apparisse era evidente che la fisica era grossolanamente incompleta. Prima della meccanica
quantistica avreste potuto avvicinarvi ad un qualsiasi scienziato, rivolgergli uno smagliante sorriso
malizioso, dare dei colpetti sulla sua scrivania e chiedergli: "Che cosa tiene assieme le cose? Perché
questa scrivania è marrone e solida, mentre l'aria è trasparente e gassosa?". La vostra vittima
avrebbe potuto dire qualcosa di piuttosto vago riguardo agli atomi e alle loro disposizioni (5), ma
alle vostre pressioni per una spiegazione migliore ne avreste ricavato al massimo una risposta del
tipo: "Chi lo sa? I fisici non possono ancora spiegare la materia!". Col senno di poi è fin troppo
facile fare queste considerazioni, e tuttavia, in un mondo fatto di materia ed abitato da gente che
utilizza utensili materiali, questa ignoranza sulla natura della materia era una lacuna nella
conoscenza umana che Michelson probabilmente doveva aver notato. Era una lacuna non nella
"sesta cifra decimale" ma nella prima.

Vale anche la pena osservare il contesto nel quale Michelson aveva ragione. Le leggi di cui parlava
includevano la legge di gravitazione di Newton e le leggi dell'elettromagnetismo di Maxwell. Ed
infatti, sotto certe condizioni, che in ingegneria sono piuttosto comuni, queste leggi sono state
modificate solo "nella sesta cifra decimale". Le leggi di Einstein su gravità e moto sono in stretto
accordo con quelle di Newton fatta eccezione per le situazioni in cui esistono condizioni estreme di
attrazione gravitazionale e velocità; le leggi dell'elettrodinamica quantistica di Feynman, Schwinger
e Tomonaga, sono in stretto accordo con quelle di Maxwell, fatta eccezione per le situazioni in cui
esistono condizioni estreme di dimensioni ed energia.

Ulteriori rivoluzioni sono senza dubbio in agguato nei pressi dei confini di queste teorie. Ma pare
che questi siano lontani dal mondo delle cose viventi e delle macchine che costruiamo. La
rivoluzione della relatività e della meccanica quantistica ha cambiato la nostra conoscenza della
materia e della energia, ma materia ed energia stesse sono rimaste invariate - esse sono reali e non si
interessano delle nostre teorie. I fisici utilizzano ora un insieme unico di leggi per descrivere come
interagiscano i nuclei atomici e gli elettroni negli atomi, nelle molecole, nelle macchine molecolari,
nelle cose viventi, nei pianeti e nelle stelle. Queste leggi non sono ancora completamente generali;
la ricerca per una teoria unificata di tutta la fisica continua. Ma come afferma il fisico Stephen W.
Hawking(6), "Al momento abbiamo un certo numero di leggi parziali che governano il
comportamento dell'universo sotto tutte le condizioni eccetto le più estreme". E per gli standard
ingegneristici, queste condizioni estreme, sono straordinariamente estreme.

I fisici annunciano con regolarità l'osservazione di nuove particelle fra i detriti prodotti da collisioni
fra particelle accelerate ad energie estreme, ma non potreste mai crearvi una scorta di queste nuove
particelle accumulandole in una scatola. E questo è un fatto molto importante da riconoscere, perché
se una particella non può essere conservata, non può servire come componente di una macchina
stabile. Le scatole e il loro contenuto sono fatte di elettroni e nuclei. A loro volta i nuclei sono
composti da protoni e neutroni. Gli atomi di idrogeno hanno un singolo protone nel loro nucleo; gli
atomi di piombo hanno ottantadue protoni e oltre un centinaio di neutroni. Un neutrone isolato si
disintegra in pochi minuti. Sono note solo poche altre particelle stabili(7): i fotoni, ossia le particelle
della luce, sono utilizzabili e possono essere intrappolate per un certo tempo; i neutrini sono quasi
non rilevabili e non possono essere intrappolati. Queste particelle (fotoni esclusi) hanno le loro
corrispondenti antiparticelle. Tutte le altre particelle note si disintegrano in pochi milionesimi di
secondo o anche meno. Quindi, i soli blocchi di costruzione conosciuti per qualsiasi hardware sono
elettroni e nuclei (o, per speciali applicazioni molto sporadiche, le loro antiparticelle); questi
blocchi di costruzione si combinano in modo ordinario per formare atomi e molecole.

Tuttavia, a dispetto della potenza della fisica moderna, la nostra conoscenza presenta ancora ovvie
lacune. Il labile stato in cui si trova la teoria delle particelle elementari lascia incerti alcuni limiti.
Potremmo trovare nuove particelle stabili e "inscatolabili" come per esempio monopòli magnetici o
quark liberi; se ciò avverrà, queste particelle saranno senz'altro suscettibili di una utilizzazione. Ma
non potremmo mai scoprire un nuovo tipo di campo di forza con effetti su lunga distanza, o nuove
forme di radiazione, poiché ciò appare improbabile in modo via via crescente. Infine, alcuni nuovi
modi di far scontrare fra loro delle particelle, potrebbero migliorare la nostra capacità di convertire
particelle note in altre particelle note.
Ma in generale, dell'hardware complesso richiede schemi di particelle stabili e complessi. Al di
fuori di quello che è l'ambiente di una stella collassata, ciò significa schemi di atomi che sono ben
descritti dalla meccanica quantistica relativistica. Le frontiere della fisica si sono mosse in avanti.
Su un livello teorico, i fisici cercano una descrizione unificata delle interazioni di tutte le possibili
particelle, anche delle particelle dalla vita più breve. Su un livello sperimentale, essi studiano gli
schemi di detriti subatomici creati da collisioni di alta energia negli acceleratori di particelle. Finché
da una tale collisione non scaturisce nessuna nuova particella stabile ed utilizzabile, e finché una
tale particella non viene neanche scoperta fra i residui di qualche tumulto cosmico del passato, gli
atomi rimarranno gli unici blocchi di costruzione disponibili per dell'hardware stabile. E
l'ingegneria resterà un gioco giocato con pezzi già conosciuti in accordo a regole di gioco già
conosciute. Nuove particelle potrebbero al più aggiungere nuovi pezzi, non eliminare regole già
esistenti.

I Limiti dell'Hardware

Il macchinario molecolare rappresenta davvero il capolinea del sentiero verso la miniaturizzazione?


L'idea che il macchinario molecolare potrebbe essere un passo verso un più piccolo "macchinario
nucleare" appare abbastanza naturale. Un giovane (uno studente del corso di laurea di economia alla
Columbia University), avendo sentito parlare della tecnologia molecolare e della sua capacità di
manipolare atomi, concluse immediatamente che la tecnologia molecolare potrebbe fare quasi
qualsiasi cosa, anche agire a distanza su delle bombe nucleari già lanciate in caduta libera, per
trasformarle in innocui mattoni di piombo.

La tecnologia molecolare non può fare cose come questa. Trasformare plutonio in piombo (agendo
a distanza o meno) è qualcosa che è ben oltre portata della tecnologia molecolare, e per la stessa
ragione per cui trasformare il piombo in oro era ben oltre la portata della chimica nota ad un
alchimista. Le forze molecolari hanno poco effetto sui nuclei atomici. Il nucleo contiene oltre il 99,9
percento della massa di un atomo ed occupa una parte su un milionesimo di miliardesimo del suo
volume. A confronto del nucleo, il resto di un atomo (una nuvola elettronica) è meno di una
insignificante lanugine. Provare a modificare un nucleo punzecchiandolo con una molecola(8) è
persino più futile che provare a deformare ed appiattire un cuscinetto a sfera d'acciaio rotolandovi
contro una palla di zucchero filato. La tecnologia molecolare può cambiare l'ordine e la
disposizione degli atomi, ma non può raggiungere l'interno di un nucleo per cambiare il tipo di
atomo.

Le nanomacchine non possono essere di alcun aiuto per la costruzione di macchine di scala
nucleare, e tuttavia tali macchine potrebbero anche esistere. Per quel che appare non è affatto così,
almeno sotto qualsiasi condizione fra quelle che possiamo creare in un laboratorio. Le macchine
devono avere un certo numero di parti in stretto contatto, ma i nuclei, quando strettamente
impacchettati assieme, si respingono l'uno con l'altro con ferocia. Quando la scissione nucleare
devastò Hiroshima, la maggior parte dell'energia venne rilasciata dalla violenta repulsione
elettrostatica fra i nuclei dei due frammenti appena separati della bomba. La ben nota difficoltà di
ottenere la fusione nucleare deriva dallo stesso problema di repulsione nucleare.

Oltre alla scissione ed alla fusione, i nuclei possono essere in grado di emettere o assorbire vari tipi
di radiazione. In una tecnica comunemente impiegata, essi vengono fatti roteare in modi che sono
portatori di informazione utile, permettendo ai medici di prelevare immagini mediche basate sulla
risonanza magnetica nucleare. Ma tutti questi fenomeni si affidano solo alle proprietà di nuclei ben
separati (9). I nuclei isolati sono troppo semplici per funzionare come macchine o come circuiti
elettronici. I nuclei possono essere obbligati ad avvicinarsi l'uno all'altro, ma solo se sottoposti alle
pressioni immense che si trovano in una stella collassata. Fare dell'ingegneria in un tale ambiente
presenterebbe delle difficoltà sostanziali (10), persino se avessimo a disposizione nelle vicinanze
una stella collassata.

Questo ci riporta alla questione di base. Che cosa potremmo compiere tramite una appropriata
disposizione di atomi? Alcuni limiti sembrano già chiari. I più forti materiali possibili avranno dieci
volte la forza del più forte fra i cavi di acciaio odierni (il materiale più forte per fabbricare un cavo
sembra essere la carbina, una forma di carbonio con atomi disposti in catene ordinate). Sembra
inoltre che, in condizioni ordinarie di pressione, le vibrazioni del calore possano distruggere la
maggior parte dei solidi refrattari solo sotto temperature che si aggirano attorno a quattromila gradi
centigradi (circa cinquecento gradi in più della temperatura che esiste sulla superficie solare).

Queste brute proprietà della materia - forza e resistenza al calore - non possono essere
notevolmente migliorate per mezzo di una complessa e più ordinata disposizione di atomi. La
migliore disposizione, probabilmente, sembra essere piuttosto semplice e regolare. Altri obiettivi
piuttosto semplici includono le capacità di trasmissione del calore, isolamento dal calore (11),
trasmissione elettrica, trasmissione della luce, riflessione della luce ed assorbimento della luce.

Per alcuni di questi obiettivi, i propositi di perfezione condurranno verso schemi di progettazione
molto semplici; per altri, condurranno verso problemi progettuali di complessità al di là di ogni
speranza di soluzione. La progettazione del miglior commutatore elettrico che sia possibile, per un
suo utilizzo come componente base di un computer, sarà enormemente più complessa. Infatti ciò
che consideriamo "il miglior commutatore possibile" dipende da molti fattori, inclusi i costi della
materia, dell'energia, del tempo di realizzazione, e del tipo di elaborazioni a cui è destinato il
computer. In un progetto ingegneristico, ciò che noi chiamiamo "il meglio" dipende da un numero
elevatissimo di fattori, a loro volta dipendenti da molti desideri umani mal definiti e mutevoli.
Inoltre, anche dove "il meglio" sia ben definito, potrebbe non valer la pena, a confronto dell'entità di
miglioramento effettivamente ottenibile, affrontare il costo per la ricerca dell'incremento di
miglioramento ultimo possibile, ossia quello che distingue "il meglio" dal "semplicemente
eccellente". Tuttavia, possiamo ignorare tutti questi problemi riguardanti complessità e costi di
progettazione, quando ciò che ci interessa è solo considerare quali siano i limiti realmente esistenti.

Per definire un limite, si dovrebbe scegliere una direzione o una scala di qualità. Definendo come
"la migliore possibile" una certa direzione, esisterà di sicuro un "meglio" definitivo ed ultimo. Le
disposizioni di atomi determinano le proprietà dell'hardware, ed in accordo con la meccanica
quantistica il numero delle disposizioni possibili è finito - di certo persino più grande di un numero
astronomicamente grande, e tuttavia pur sempre non infinito. Ne segue matematicamente che,
stabilito un chiaro obiettivo, alcune di queste disposizioni potrebbero essere le migliori possibili o
prossime alle migliori. Come accade negli scacchi, il numero limitato di pezzi e di spazi limita il
numero di disposizioni e quindi il numero delle possibilità. Ma sia negli scacchi che nell'ingegneria,
la varietà possibile all'interno di questi limiti è comunque potenzialmente inesauribile.

La semplice conoscenza delle leggi della materia non è sufficiente a dirci dove siano esattamente i
limiti. Possiamo tuttavia affrontare la complessità di progettazione. La nostra conoscenza di dove
risiedano certi limiti resta incerta: "Noi sappiamo solo che i limiti sono fra qui (qualche passo
indietro) e lì (quel punto vicino all'orizzonte)". Gli assemblatori ci apriranno la strada verso i limiti,
dovunque essi siano, e i sistemi di ingegneria automatizzata accelereranno i progressi lungo la
strada. Il meglio assoluto spesso si dimostrerà essere elusivo, ma il secondo in classifica spesso sarà
quasi altrettanto buono (12).
Mano a mano che ci avvicineremo ai limiti autentici, le nostre capacità smetteranno di crescere, via
via in sempre più aree della tecnologia. I progressi in questi campi non si arresteranno
semplicemente per una decade o un secolo, ma in maniera permanente.

Alcuni potrebbero esitare alla parola "permanente" pensando "Nessun miglioramento in mille anni?
In un milione di anni? Ma questa è una esagerazione!". E tuttavia, quando raggiungeremo i veri
limiti fisici, non andremo avanti ulteriormente. Le regole del gioco sono intrinseche alla struttura
del vuoto, sono implicite nella struttura dell'universo. Nessuna redisposizione di atomi, nessun
cozzare di particelle, nessuna legislazione o lamentela o sommossa sposterà i limiti naturali di un
pizzico. Oggi potremmo anche non valutare correttamente dove si trovino i limiti reali, ma è certo
che essi resteranno dove sono.

Questo sguardo sulle leggi della natura mostra i limiti alla qualità delle cose. Ma noi incontriamo
anche limiti di quantità, limiti che sono imposti non solo dalle leggi della natura ma anche dal modo
in cui materia ed energia sono disposte nell'universo affinché siano più o meno a nostra
disposizione. Gli autori de The Limits to Growth, come hanno fatto anche molti altri, hanno tentato
di descrivere questi limiti senza prima esaminare i limiti imposti alla tecnologia. E ciò ha prodotto
risultati equivoci.

Entropia: Un Limite all'Uso di Energia

Di recente, alcuni autori hanno descritto l'accumulazione del calore disperso ed il disordine come
limiti ultimi all'attività umana. In The Lean Years - Politics in the Age of Scarcity, Richard Barnet
scrive (13): "È ironico che la riscoperta dei limiti coincida con due delle più audaci conquiste
tecnologiche della storia dell'umanità. Una è l'ingegneria genetica, la visione fugace di un potere in
grado di modellare l'autentica roba della vita. L'altra è la colonizzazione dello spazio. Questi
progressi alimentano fantasie di potere, ma non lacerano la camicia di forza ecologica nota come
'Seconda Legge della Termodinamica': Un sempre più grande consumo di energia produce una
sempre più grande quantità di calore, che pur non scomparendo mai può essere conteggiata come un
costo permanente dell'energia. Poiché l'accumulazione di calore può causare catastrofi ecologiche,
questi costi limitano l'avventura umana nello spazio, come limitano con altrettanta certezza quella
sulla Terra". Jeremy Rifkin (con Ted Howard) ha scritto un intero libro (14) sui limiti
termodinamici e sul futuro dell'umanità, intitolato Entropy: A New World View.

L'entropia è una misura scientifica standard del calore disperso e del grado di disordine. Dovunque
una attività consumi energia utilizzabile, essa produce entropia; l'entropia del mondo perciò cresce
costantemente ed irreversibilmente. Alla fine, la dissipazione di energia utilizzabile distruggerà le
basi della vita. Come dice Rifkin, questa idea potrebbe sembrare troppo deprimente per pensarci,
ma egli afferma che dovremmo affrontare le implicazioni terribili dell'entropia, e le conseguenze
sull'umanità e la Terra. Ma queste implicazioni sono davvero così terribili?

Barnet scrive che l'accumulo di calore è un costo energetico permanente che limita l'attività umana.
Rifkin afferma che "l'inquinamento è la somma totale di tutta l'energia disponibile nel mondo che è
stata trasformata in energia non disponibile". Questa energia non disponibile è principalmente in
forma di calore disperso e di bassa temperatura; quel tipo di calore che fa scaldare un apparecchio
televisivo in funzione. Ma questo calore si accumula realmente come teme Barnet? Se fosse così, la
Terra dovrebbe crescere costantemente in temperatura, divenendo più calda minuto dopo minuto ed
anno dopo anno. In questo momento dovremmo stare arrostendo, a meno che i nostri antenati non
avessero l'aspetto di solidi congelati. In qualche modo, tuttavia, i continenti si comportano in modo
da diventare freddi durante la notte, ed ancora più freddi durante l'inverno. Durante le epoche
glaciali, persino l'intera Terra si è raffreddata.

Rifkin affonda un'altra stilettata. Afferma che "l'erosione costante di materia terrestre fa sì che la
crosta terrestre vada costantemente assottigliandosi. Le montagne vengono livellate ed i suoli
spazzati via ogni secondo che passa". Dicendo "spazzati via" Rifkin non intende scagliati via nello
spazio o spazzati via dall'esistenza; egli intende semplicemente che gli atomi delle montagne e dei
suoli vengono a disporsi alla rinfusa con tutti gli altri atomi della Terra. Ciò nonostante, sempre
stando alle sue affermazioni, questo processo conduce verso la nostra rovina. Il rimescolamento
degli atomi trasforma questi in "materia non disponibile" in conseguenza della "quarta legge della
termodinamica" avanzata dal'economista Nicholas Georgescu-Roegen: "In un sistema chiuso,
l'entropia materiale deve infine raggiungere un massimo", o (equivalentemente) "La materia non
disponibile non può essere riciclata". Rifkin afferma che la Terra è un sistema chiuso, che scambia
energia ma non materia con il suo ambiente spaziale circostante, per cui "qui sulla terra l'entropia
materiale è costantemente in incremento e dovrà infine raggiungere un massimo", mettendo in
difficoltà la vita terrestre e portandola alla morte.

Una situazione davvero sinistra: la Terra si è degenerata per miliardi di anni. Sicuramente la fine
deve essere vicina!

Ma tutto questo può realmente esser vero? Lo sviluppo della vita ha portato maggior ordine sulla
Terra, non meno; la formazione dei depositi di minerali grezzi ha fatto la stessa cosa. L'idea che la
Terra sia andata degenerando sembra, come minimo, peculiare (ma in proposito, Rifkin pensa
all'evoluzione come ad una nicchia temporanea). D'altro canto, poiché materia ed energia sono
essenzialmente la stessa cosa, come può in primo luogo questa unica cosa essere soggetta ad una
legge valida che sappia distinguere la sola cosiddetta "entropia materiale"?

Rifkin presenta il caso di una bottiglia, che diffonda profumo nell'aria di una stanza circostante,
come un esempio di "dissipazione di materia", ossia di entropia materiale in crescita - di materia
che diventa "indisponibile". La diffusione di sale in acqua all'interno di una bottiglia è un altro
esempio rappresentativo. Prendiamo in considerazione, allora, una verifica sperimentale della
"quarta legge della termodinamica" condotta in un esperimento che potremmo chiamare
"l'Esperimento della Bottiglia Acqua-Sale".

Immaginiamo una bottiglia avente sul fondo una parete di partizione, che divide il fondo in due
bacini. In uno c'è del sale, e nell'altro c'è dell'acqua. Un tappo di sughero sigilla il collo della
bottiglia: ciò chiude il sistema, rendendo applicabile ad esso la cosiddetta quarta legge della
termodinamica. Il contenuto della bottiglia è in uno stato organizzato: quindi la sua entropia
materiale non è al massimo - ancora.

Ora prendiamo la bottiglia ed incliniamola. Se l'acqua, dal suo bacino, passa anche all'altro bacino,
e se si agita la bottiglia facendola ruotare, si ottiene che l'acqua dissolve il sale e l'entropia cresce
furiosamente! In un tale sistema chiuso, la " quarta legge della termodinamica" afferma che questo
incremento della entropia materiale dovrebbe essere permanente. Tutti gli allarmi di Rifkin riguardo
la stagnazione e l'inevitabile incremento dell'entropia della Terra si basano su questo principio.
Per vedere se c'è qualche base di fondatezza per la nuova visione del modo di Rifkin, incliniamo la
bottiglia per far fluire tutta l'acqua salata in uno solo dei due bacini. Questo non dovrebbe fare
nessuna differenza perché il sistema resta comunque un sistema chiuso. Mettiamo ora dritta la
bottiglia, esponendo alla luce del sole il lato con l'acqua salata, e all'ombra il lato vuoto. La luce
splende e il calore trapela dentro, ma il sistema resta chiuso come la stessa Terra. Ma, osservate, la
luce solare fa evaporare l'acqua, ed essa si condensa nel bacino vuoto! Acqua pura che, lentamente,
riempie il bacino vuoto, lasciandosi dietro il sale.
Rifkin stesso afferma che "nella scienza, una sola intransigente eccezione è sufficiente ad
invalidare una legge". E questo esperimento mentale, che imita il modo in cui i depositi naturali di
sale si sono formati sulla Terra, invalida la legge sulla quale egli basa il suo intero libro. Le piante si
comportano analogamente. La luce solare ci porta energia dallo spazio; il calore che viene
nuovamente irradiato indietro, verso lo spazio, porta via entropia (della quale ne esiste un solo tipo).
Perciò, l'entropia può decrescere in un sistema chiuso ed i fiori possono sbocciare sulla Terra epoca
dopo epoca.

Rifkin parla correttamente quando dice che "è possibile invertire il processo dell'entropia in un
luogo e su un periodo di tempo circoscritti, ma solo consumando energia e quindi incrementando
l'entropia complessiva dell'ambiente". Ma sia Rifkin che Barnet incorrono nello stesso equivoco:
quando dicono "ambiente", essi intendono la "Terra" - ma la legge si applica all'ambiente nella sua
totalità, e questa totalità è l'universo. In effetti Rifkin e Barnet non considerano sia la luce del Sole
che il freddo buio del cielo notturno.
Secondo lo stesso Rifkin, la sua idea distrugge la nozione della storia intesa come un progresso,
trascendendo il comune punto di vista moderno sul mondo. Egli richiama al sacrificio, affermando
che "nessuna nazione del Terzo Mondo potrà nutrire speranze di conquistare l'abbondanza materiale
che esiste in America". Egli teme panico e spargimenti di sangue. Rifkin conclude informandoci
che "la Legge dell'Entropia risponde alla questione centrale che ogni cultura lungo l'intera storia si è
posta: Come dovrebbero comportarsi gli esseri umani nel mondo?". La sua risposta? "L'imperativo
morale ultimo, quindi, è di sprecare quanta meno energia sia possibile"(15).

Ciò sembrerebbe significare che dovremmo risparmiare quanta più energia è possibile, cercando di
eliminare gli sprechi. Ma qual'è il più grande spreco di energia che ci sia nelle nostre vicinanze? Il
Sole, ovviamente: esso spreca energia milioni di miliardi di volte più velocemente di quanto fanno
gli uomini. Se fosse preso sul serio, l'imperativo morale ultimo di Rifkin suonerebbe come l'ordine
urgente: "Spegnete il Sole!".

Questa sciocca conseguenza avrebbe dovuto stroncare il credito che è stato prestato a Rifkin. Egli,
come molti altri, hanno visioni del mondo che hanno il sapore di arroganza pre-Copernicana.: essi
presumono che la Terra sia l'intero mondo e che quello che la gente fa sia automaticamente di
importanza cosmica.
Esiste realmente una autentica legge dell'entropia, ovviamente: la seconda legge della
termodinamica. A differenza della contraffatta "quarta legge", essa è descritta in tutti i libri di testo
ed utilizzata dagli ingegneri nel loro lavoro di progettazione. Essa effettivamente limita quello che
possiamo fare. L'attività umana genera calore, e la limitata capacità della Terra di irradiare calore
impone un limite fermo alla quantità di attività industriale che è possibile svolgere sulla Terra. Allo
stesso modo, abbiamo anche bisogno di pannelli simili ad ali per irradiare via il calore di risulta,
generato dalle attività delle nostre navi spaziali. Alla fine, la legge dell'entropia - al termine di un
periodo di tempo immensamente esteso - condurrà al degrado irreversibile dell'universo come lo
conosciamo oggi, e ciò pone dei limiti alla massima estensione temporale della vita, ed alla vita
stessa.

Ma perché flagellare la carcassa del libro Entropy di Rifkin? Semplicemente perché il sistema di
informazione odierno presenta spesso persino delle idee nate morte come fossero vive.
Incoraggiando false speranze o false paure e guidando l'azione in direzioni sbagliate, queste idee
possono inficiare gli sforzi della gente attivamente preoccupata dei problemi mondiali di ampio
respiro.

Fra le persone i cui elogi sono apparsi sulla quarta di copertina del libro di Rifkin ("un lavoro
ispirato" "brillante lavoro" "di importanza fondamentale" "dovrebbe essere preso a cuore ") ci sono
anche un professore di Princeton, un ospite di talk-show televisivi, e due senatori degli Stati Uniti.
Un seminario al MIT ("The Finite Earth: World Views for a Sustainable Future - La terra Limitata:
Scenari Mondiali per un Futuro Sostenibile") glorificava il libro di Rifkin.

Tutti i promotori del seminario provenivano da dipartimenti non tecnici. Nella nostra società
tecnologica, la maggior parte dei senatori mancano di formazione tecnologica, così pure come la
maggior parte dei professori e degli ospiti di talk-show. Georgescu-Roegen stesso, l'inventore della
"quarta legge della termodinamica", possiede ampie credenziali - ma solo come sociologo.

La minaccia dell'entropia è un esempio di lampante non-senso, e tuttavia i suoi inventori e


sostenitori non vengono derisi sulla pubblica scena. Immaginate un migliaio, un milione di
distorsioni analoghe, alcune sottili, alcune sfacciate, ma tutte che deformano la comprensione
pubblica del mondo. Immaginate ora un gruppo di nazioni democratiche che soffra di una
infestazione di memi di questo tipo mentre tenta di adeguarsi ad un'epoca di rivoluzione tecnologica
dal ritmo in accelerazione. Abbiamo quindi un problema reale. Per rendere più probabile la nostra
sopravvivenza, abbiamo bisogno di modi migliori di estirpare i nostri memi, di fare spazio perché si
sviluppi una comprensione sensata. Nei capitolo 13 e 14 riporterò due proposte di come si potrebbe
fare proprio questo.

I Limiti delle Risorse

Una legge di Natura limita la qualità della tecnologia, ma nell'ambito di questi limiti useremo gli
assemblatori-replicatori per produrre navi spaziali di prim'ordine. Con queste, apriremo l'accesso
allo spazio in ampiezza e profondità.

La Terra odierna ha cominciato a sembrare piccola, ridestando preoccupazioni legate al timore che
potremmo esaurire le sue risorse. Tuttavia, l'energia totale che usiamo è meno di una parte su
diecimila rispetto a quella con cui il sole inonda la Terra; non ci preoccupiamo quindi del
rifornimento di energia in quanto tale, ma del rifornimento di energia in forme convenienti come
gas e petrolio. Le nostre miniere a malapena scalfiscono la superficie del globo; non ci
preoccupiamo della semplice quantità di risorse, ma della loro convenienza e costo. Quando
svilupperemo nanomacchine non inquinanti per raccogliere energia solare e risorse dalla Terra, la
Terra stessa sarà in grado di sostenere una civiltà di gran lunga più grande e benestante di qualsiasi
altra vista prima d'ora, e tuttavia allo stesso tempo soffrirà meno danno di quello che le infliggiamo
oggi. Il potenziale della Terra fa apparire insignificanti, al confronto, le risorse che usiamo
attualmente.

Eppure, la terra non è che un granello. I detriti asteroidali lasciati dalla formazione dei pianeti
forniranno materiali sufficienti per costruire mille volte l'area della terraferma Terrestre. Il Sole
inonda il sistema solare con un miliardo di volte la potenza che raggiunge la sola Terra. Le risorse
del sistema solare sono realmente immense, e l'utilizzo delle risorse della Terra apparirà
insignificante, al confronto.

Eppure, il sistema solare non è che un granello. Le stelle che affollano il cielo notturno sono dei
soli, e l'occhio umano può vedere solo quelli più vicini. La nostra galassia contiene cento miliardi di
soli, e molti senza dubbio riversano la loro luce su pianeti morti e asteroidi in attesa di venire a
contatto con la vita. Le risorse della nostra galassia possono far apparire persino il sistema solare
insignificante, al confronto.

Eppure, la nostra galassia non è che un granello. Luci più antiche di quanto siano antiche le nostre
specie ci mostrano galassie al di la della nostra. L'universo visibile contiene cento miliardi di
galassie, ognuna con uno sciame di miliardi di soli. Le risorse dell'universo visibile fanno apparire
persino la nostra galassia insignificante, al confronto.

E con ciò, raggiungiamo i limiti quanto meno di ciò che ci è noto, se non proprio i limiti delle
risorse. Il sistema solare sembra comunque sufficiente a rispondere alla limitatezza delle risorse
della Terra, e se il resto dell'universo restasse non rivendicato da nessun altro, la nostra prospettiva
per l'espansione sarebbe sufficiente per far girare la testa più di una volta. Ciò significa che gli
assemblatori-replicatori e il volo spaziale economico metteranno fine alle nostre preoccupazioni per
le risorse?

In un certo senso, schiudere l'accesso allo spazio polverizzerà i nostri limiti alla crescita, poiché di
fatto non conosciamo fine all'universo. Nonostante questo, Malthus era essenzialmente nel giusto.

Malthus

Nel suo saggio del 1798 sui Principi Demografici (Essay on the Principle of Population), Thomas
Robert Malthus, un ecclesiastico inglese, presentava l'antenato di tutti gli odierni argomenti
riguardanti i limiti allo sviluppo. Egli notò che il libero incremento demografico tendeva
periodicamente verso un raddoppio della popolazione, e quindi la popolazione seguiva un ritmo di
espansione numerica di tipo esponenziale. Tutto ciò è sensato: poiché tutti gli organismi discendono
da replicatori di successo, essi tendono a replicarsi ogni qualvolta viene data loro la possibilità di
farlo. Per semplificare le sue argomentazioni, Malthus partì dall'assunto che le risorse - ossia le
disponibilità di cibo - potessero incrementarsi ogni anno solo di una certa quantità fissata e costante
(un processo denominato espansione numerica lineare, poiché il suo grafico corrisponde ad una
linea). Poiché i matematici dimostrano che qualsiasi crescita di tipo esponenziale, comunque fissato
sia il suo ritmo di incremento, riesce infine a raggiungere e a superare una crescita lineare dal ritmo
comunque fissato, Malthus concluse che lo sviluppo della popolazione, se non tenuto sotto
controllo, avrebbe infine esuberato la produzione di cibo.

Gli autori hanno ripetuto variazioni di questa idea fin da allora, persino in libri come The
Population Bomb e Famine - entrambi del 1975! - e tuttavia la produzione di cibo riesce ancora a
tenere il passo con il ritmo di crescita della popolazione. Africa a parte, anzi, la produzione di cibo è
spesso in esubero. Dove ha sbagliato Malthus?

Nel fondamento della sua idea egli non ha realmente sbagliato: lo ha fatto principalmente sui
dettagli e nelle sue considerazioni riguardanti i tempi. La crescita demografica sulla Terra deve
effettivamente affrontare dei limiti, poiché la Terra e spazialmente limitata e tale resta sia per le
attività agricole che per qualsiasi altra attività. Malthus ha fallito nel prevedere quando i limiti
inizieranno a pungolarci, principalmente perché ha fallito nel prevedere anticipatamente i progressi
nella tecnologia agricola, dai raccolti di prodotti modificati geneticamente ai fertilizzanti.

Alcuni adesso fanno notare che la crescita esponenziale supererà la scorta fissata di risorse della
Terra (16), un argomento più semplice di quello avanzato da Malthus. Sebbene le tecnologie
spaziali possono infrangere questi limiti, esse non spazzeranno via tutti i limiti. Anche se l'universo
fosse infinitamente esteso, noi non potremmo tuttavia viaggiare infinitamente veloci. Le leggi della
natura limitano il ritmo dello sviluppo: la vita proveniente dalla Terra non potrà diffondersi più
veloce della luce.
Una espansione a ritmo costante aprirà invece nuove risorse con un ritmo che cresce mano a mano
che la frontiera spaziale si sposta in profondità e si allarga in estensione. E questo non equivale ad
una crescita lineare ma cubica. E tuttavia Malthus aveva sostanzialmente ragione: la crescita
esponenziale sorpasserà la crescita cubica con la stessa facilità con cui sorpasserebbe una crescita
lineare. I calcoli mostrano che una incontrollata crescita demografica, sia essa accompagnata o
meno dall'esistenza di una indefinita longevità, surclasserebbe la disponibilità di risorse all'incirca
entro uno o due millenni, al massimo. La possibilità di una crescita esponenziale illimitata resta
quindi una fantasia, persino nello spazio.

Qualcuno Potrebbe Fermarci?

Altre civiltà si sono già impadronite delle risorse dell'universo? Se così fosse, questa circostanza
rappresenterebbe un limite allo sviluppo. I fatti riguardanti l'evoluzione e i limiti tecnologici ci
aiutano a gettare qualche utile luce sulla questione.

Poiché molti sistemi stellari di tipo solare sono vecchi di molte centinaia di milioni di anni più del
nostro sistema solare, alcune civiltà (ammesso che ne esistano in numero sostanziale) dovrebbero
essere molte centinaia di milioni di anni più avanti della nostra. Ci dovremmo perciò aspettare che
qualcuna di queste civiltà abbia fatto quel che tutti sanno che la vita fa: diffondersi quanto più
lontano possibile. La terra non è verde solo negli oceani in cui la vita ha avuto inizio ma anche sulle
spiagge, sulle colline, e sulle montagne. Le piante verdi si sono sviluppate anche nelle stazioni in
orbita; se prospereremo, le piante della Terra si diffonderanno verso le stelle. Gli organismi si
diffondono quanto più lontano possono farlo, dopo di che si diffondono ancora un tantino più
lontano. I colonizzatori diretti in America navigarono ed affondarono, sbarcarono e soffrirono la
fame, ma alcuni sopravvissero per fondare nuove nazioni. Gli organismi sono soggetti, in qualsiasi
posto si trovino, alle pressioni descritte da Malthus, perché essi si sono evoluti per sopravvivere e
diffondere geni e memi, entrambi impegnati a spingere nella stessa direzione. Se esistono delle
civiltà extraterrestri, e se anche una piccola frazione di queste si è comportata come ha fatto la vita
sulla Terra, esse dovrebbero oramai già essersi sparse nello spazio.

Al pari della nostra civiltà, esse dovrebbero tendere ad evolvere tecnologie che si avvicinino verso i
limiti imposti dalle leggi di natura. Vorrebbero imparare come viaggiare a velocità vicine a quelle
della luce, e la competizione o la pura curiosità dovrebbero spingere alcune di esse a farlo. Infatti,
solo delle società altamente organizzate e altamente stabili potrebbero riuscire a reprimere talmente
bene la pressione competitiva da evitare una espansione esplosiva a velocità prossime a quelle della
luce (17). Inoltre, dopo centinaia di milioni di anni, le civiltà che si sono diffuse di più dovrebbero
oramai essersi diffuse quanto basta per incontrare ognuna delle eventuali altre, e per spartirsi l'intero
spazio con queste.

Se queste civiltà sono davvero dappertutto, allora hanno dimostrato grande riserbo e si sono ben
nascoste. Esse dovrebbero aver avuto il controllo delle risorse dell'intera galassia per molti milioni
di anni, ed aver fronteggiato i limiti allo sviluppo su scala cosmica. Una civiltà avanzata e stretta dai
suoi limiti ecologici, quasi per stessa definizione, non dovrebbe far spreco ne di materia che di
energia. Tuttavia noi vediamo sprechi di questo tipo in qualsiasi direzione, tanto lontano quanto
riusciamo a guardare nelle spirali delle galassie: i loro bracci a spirale contengono nuvole di polvere
che rappresenta lo spreco di materia, la quale è illuminata da luce di stelle altrettanto sprecata.

Se civiltà così avanzate sono esistite, adesso il nostro sistema solare dovrebbe ricadere nello spazio
di dominio di una di esse. E se così fosse, dovremmo necessariamente stare al loro gioco - non
potremmo far nulla per minacciarle, e loro potrebbero studiarci a loro piacimento, con o senza la
nostra cooperazione. Se esse avanzassero una precisa pretesa, la gente di buon senso dovrebbe
ascoltarle. Ma se esse esistono davvero, allora devono essersi ben nascoste - e dovrebbero
mantenere segreti i loro progetti riguardanti la Terra.

L'idea che l'umanità sia sola nell'universo visibile è consistente con quello che possiamo vedere nel
cielo, e con ciò che conosciamo sull'origine della vita. Nessuna ritrosia degli alieni è necessaria per
spiegare i fatti. Alcuni dicono che siccome ci sono così tante stelle, fra esse devono sicuramente
esistere altre civiltà. Ma ci sono molte meno stelle nell'universo visibile di quante molecole ci siano
in un bicchiere d'acqua. Ed esattamente come un bicchiere d'acqua non necessariamente contiene
ogni possibile elemento o composto chimico (anche se si trattasse del liquame di scarto fuoriuscito
da qualche impianto chimico) (18), così le altre stelle non necessariamente ospitano altre civiltà.

Sappiamo che la competizione fra replicatori tende a diffondere i replicatori fino ai loro limiti
ecologici e che tuttavia, ovunque lungo tutto l'universo, le risorse restano tuttora inutilizzate. Non
abbiamo ricevuto nessun commiato dalle stelle, e apparentemente non abbiamo alcun guardiano
dello zoo a guardia degli umani, neanche uno particolarmente tollerante. Potrebbe non esserci
nessuno lassù. E se essi non esistono, non abbiamo bisogno di prendere in considerazione i loro
piani. Se invece esistono, dovremmo abbandonare i nostri piani assecondando i loro imperscrutabili
desideri, e non sembra esserci alcun modo per preparasi adeguatamente a questa eventualità. Per
cui, per ora e forse per sempre, possiamo tranquillamente fare progetti sul nostro futuro senza
preoccuparci dei limiti eventualmente imposti da altre civiltà.

Sviluppo nell'Ambito dei Limiti

Che ci sia o meno qualcun altro là fuori, noi ormai siamo sulla sua strada. Lo spazio ci attende, con
le sue aride rocce e la sua luce solare, simili alle aride rocce e alla luce solare dei continenti della
Terra di miliardi di anni fa, prima che la vita strisciasse fuori dai mari. I nostri ingegneri stanno
evolvendo memi che ci aiutano a creare raffinate navi ed insediamenti spaziali: colonizzeremo
agevolmente le terre del sistema solare. E più in là del ricco sistema solare interno c'è la nuvola
cometaria - un vasto terreno di coltura che si assottiglia man mano che si allontana verso lo spazio
interstellare, e si inspessisce nuovamente giungendo attorno ad altri sistemi stellari, con nuovi soli e
sterile roccia che attendono il tocco della vita.
Nonostante una interminabile crescita esponenziale resti una fantasia, la diffusione della vita e
della civiltà non deve affrontare alcun confine già nettamente stabilito. L'espansione procederà, se
sopravviveremo, perché siamo parte di un sistema vivente e perché la vita ha la tendenza a
diffondersi. I pionieri si sposteranno verso l'esterno in un numero infinito di mondi. Altri resteranno
indietro, costruendo insediamenti delle loro culture in tutte le oasi dello spazio. In ogni
insediamento, verrà il tempo in cui la frontiera si allontanerà da lì per spostarsi più lontano, ed in
seguito ancora più lontano. Per la maggior parte del nostro futuro, la maggior parte della gente e i
loro discendenti convivranno con l'esistenza di limiti alla crescita.

I limiti alla crescita possono piacerci o meno, ma la loro reale esistenza è indipendente dai nostri
desideri. Esistono dei limiti per qualsiasi meta chiaramente definita che ci si proponga.

Ma sulle frontiere, dove gli standard sono in costante cambiamento, questa idea dei limiti diventa
irrilevante. Nell'arte o nella matematica il valore di un lavoro dipende da standard molto complessi,
soggetti a dispute e a cambiamenti. Uno di questi standard è la novità, e questa non può mai
esaurirsi. Dove gli obiettivi cambino e la complessità sia dominante, i limiti non rappresentano
necessariamente un vincolo. In campi e attività come la creazione di una sinfonia o di una canzone,
la pittura o le mondanità, il software o i teoremi, i film o altre delizie ancora mai immaginate,
sembra non esserci mai fine. Le nuove tecnologie alimenteranno nuove arti, e nuove arti porteranno
a nuovi standard.
Il mondo della materia bruta offre spazio per un grande sviluppo, pur nell'ambito di limiti. Il
mondo della mente e degli schemi, tuttavia, ha spazio per un'evoluzione e una trasformazione
praticamente senza fine. Il "possibile" sembra quindi essere sufficientemente spazioso.

Uno Sguardo ai Limiti

L'idea che i grandi progressi restino comunque vincolati da limiti ben fermi, non si è evoluta per
farci piacere, ma per essere accurata. I limiti tracciano le possibilità, ed alcune potrebbero essere
sgradevoli o terrificanti. Abbiamo bisogno di prepararci per i passi avanti tecnologici che sono
innanzi a noi, nonostante molti studiosi del futuro pretendano di poter affermare che non si
verificherà alcun passo avanti.

Questa scuola di pensiero è associata con il libro The Limits to Growth (I Limiti dello Sviluppo)
(19), pubblicato come rapporto del Club di Roma. Il professor Mihajlo D. Mesarovic in seguito è
stato co-autore del libro Mankind at the Turning Point (Umanità al Punto di Svolta) (20), pubblicato
come il secondo rapporto del Club di Roma. Il professor Mesarovic attualmente sviluppa modelli al
computer analoghi ai modelli utilizzati in "The Limits to Growth" - ognuno dei quali è composto da
un insieme di numeri ed equazioni intese per descrivere le future trasformazioni su scala mondiale
di popolazione, economia ed ambiente. Nella primavera del 1981, egli ha visitato il MIT per
partecipare a "The Finite Earth: Worldviews for a Sustainable Future", ossia lo stesso seminario che
ha elogiato "Entropy", il libro di Rifkin. In quella occasione egli ha descritto un modello inteso per
dare una descrizione grossolana del prossimo secolo. Quando gli è stato chiesto se lui, o qualche
altro dei suoi colleghi, avesse preso in considerazione un qualche progresso drastico per il futuro
descritto, per esempio un progresso d'entità comparabile a quello dell'industria petrolifera,
dell'aeronautica, dell'automobile, dell'energia elettrica o dei computer - e perché no, magari anche di
sistemi robotici auto-replicanti o economici sistemi di trasporto spaziale? - egli ha risposto in modo
diretto: "No!".

Alcuni modelli del futuro sono, inequivocabilmente, descrizioni di bancarotte. Eppure alcune
persone sembrano desiderose - addirittura bramose - di credere che i passi avanti tecnologici
cesseranno improvvisamente, e che una corsa tecnologica globale che ha accumulato slancio per
secoli, nell'immediato futuro dovrà frenare bruscamente fino ad arrestarsi.

L'abitudine di trascurare o negare la possibilità di progressi tecnologici è un problema comune.


Alcune persone credono in certi confortevoli limiti perché hanno ascoltato persone rispettabili
snocciolare argomentazioni apparentemente plausibili a sostegno di questa tesi. E tuttavia sembra
che alcune persone reagiscano più ai loro desideri che ai fatti, persino dopo questo secolo di
progresso in continua accelerazione. I limiti confortevoli semplificano la nostra visione del futuro,
rendendo più facile la sua comprensione e consentendoci di riflettere su di essa sentendoci più a
nostro agio. La credulità di una persona nei confronti dei limiti confortevoli è indicativa anche della
sua tendenza verso una certa preoccupazione e senso di responsabilità. Dopotutto, se le forze
naturali arresteranno la corsa tecnologica in modo conveniente ed automatico, allora non dovremmo
preoccuparci di provare a comprendere e controllare questa corsa.

Ancor più paradossalmente, questo escapismo non viene avvertito come tale. La contemplazione di
visioni di declino globale dovrebbe produrre la sensazione di non potersi tirare indietro di fronte
alla inevitabilità di dover affrontare circostanze ardue. E invece, una tale visione del futuro non
sembra essere nulla di sostanzialmente nuovo: ci obbliga semplicemente a rassegnarci a vivere le
ben note miserie dell'Europa del passato o del Terzo Mondo del presente. Per affrontare la realtà è
necessario un coraggio autentico, il coraggio di affrontare l'accelerazione del cambiamento in un
mondo che non ha nessun freno automatico. E ciò costituisce una sfida intellettuale, morale e
politica di grande sostanza.
Gli avvertimenti riguardanti i falsi limiti producono un danno doppio. Da una parte discreditano la
percezione dei limiti reali, spuntando un utensile intellettuale indispensabile alla comprensione
efficace del nostro futuro. Ma dall'altra, peggio ancora, questi allarmi distolgono l'attenzione dai
nostri problemi autentici. Nel mondo occidentale c'è una vivida tradizione politica che alimenta la
diffidenza verso la tecnologia. Estendere un atteggiamento che in primo luogo disciplina lo
scetticismo per mezzo della verifica sperimentale della tecnologia, confrontandola con realtà
effettiva e quindi scegliendo strategie funzionanti per guidare il cambiamento, può contribuire
fortemente alla sopravvivenza della vita e della civiltà. Ma l'insieme di persone preoccupate della
tecnologia e del futuro è una risorsa limitata. Il mondo non può permettersi il lusso di disperdere i
propri sforzi in futili campagne per spazzare indietro la marea globale della tecnologia con la stretta
ramazza dei movimenti occidentali di protesta. I problemi all'orizzonte richiedono strategie molto
più raffinate.

Nessuno può tuttavia dire per certo quali problemi si dimostreranno essere i più importanti, o quali
strategie si dimostreranno essere le migliori per risolverli. Tuttavia, possiamo già vedere nuovi
problemi di grande importanza, e possiamo selezionare strategie che paiono promettenti in misura
variabile. In breve, possiamo vedere il futuro quanto basta per individuare gli obiettivi che vale la
pena di perseguire.

Parte Terza: PERICOLI E SPERANZE

Capitolo 11: Motori di distruzione


Capitolo 12: Strategie e sopravvivenza

----------

Capitolo 11: Motori di distruzione

La Minaccia delle Macchine


Motori di Potere
Sistemi Affidabili
Strategie per arrivare agli Assemblatori
Il Successo è Possibile?

Non vi è alcun dubbio che l'esercito più formidabile mai visto sulla terra sia quello composto da
una sorta di soldati che, per la loro minuscola dimensione, non sono visibili.
- Sir WILLIAM PERRY, parlando dei microbi, 1640

Gli assemblatori-replicatori e le macchine pensanti pongono minacce basilari alla vita sulla Terra.
Gli organismi odierni hanno capacità ben lontane dai limiti del possibile, e le nostre macchine
stanno evolvendo molto più velocemente di quanto stiamo facendo noi stessi. Appare probabile che
nell'arco di poche decadi possano sorpassarci. Se non impareremo a convivere in sicurezza con
esse, il nostro futuro sarà tanto eccitante quanto breve. Non possiamo sperare di intuire in anticipo
tutti i problemi, ma rivolgendo la nostra attenzione verso le questioni più grandi e più basilari,
possiamo forse prevedere le sfide più ardue e ricavare qualche idea su come affrontarle.

Di certo verranno scritti libri interi sugli sconvolgimenti sociali in arrivo: Cosa succederà all'ordine
globale quando gli assemblatori e l'ingegneria automatica elimineranno la necessità del commercio
internazionale? Come cambierà la società quando gli individui potranno vivere indefinitamente?
Cosa faremo quando gli assemblatori-replicatori potranno costruire qualsiasi cosa, o quasi, senza
necessità di lavoro umano? Cosa faremo quando i sistemi di IA potranno pensare più velocemente
degli umani? (E prima di saltare alla conclusione che la gente dovrà perdere ogni speranza di poter
creare o fare una qualsiasi cosa, gli autori di questi libri potrebbero prendere in esame il modo in cui
i corridori considerano le automobili, o quello in cui i pittori considerano le macchine fotografiche.)

Di fatto diversi autori hanno già previsto e discusso alcune di queste problematiche. Ognuna di esse
è una questione di importanza straordinaria, ma la più fondamentale di tutte è la questione della
sopravvivenza della vita e della libertà. Dopotutto, se la vita o la libertà verranno annientate, allora
le nostre idee sui problemi sociali non avranno più alcuna importanza.

La Minaccia delle Macchine

Nel Capitolo 4, ho descritto alcune delle cose che gli assemblatori-replicatori faranno per noi, se li
utilizzeremo propriamente. Alimentati da carburanti o dalla luce solare, essi saranno in grado di
fabbricare quasi qualunque cosa (incluse altre copie di se stessi) a partire da materiali comuni.
Anche gli organismi viventi sono alimentati da carburanti o dalla luce del sole, ed anche loro
possono creare copie di se stessi a partire da materiali ordinari. Ma a differenza dei sistemi basati
sugli assemblatori, non possono costruire "quasi qualunque cosa".

L'evoluzione genetica ha limitato la vita a restare vincolata a sistemi basati su DNA, RNA e
ribosomi, ma l'evoluzione "memetica" condurrà verso macchine simili a quelle viventi, basate su
nanocomputer ed assemblatori. Ho già descritto in che modo le macchine molecolari costruite dagli
assemblatori saranno differenti dal macchinario molecolare della vita costruito dai ribosomi. Gli
assemblatori saranno in grado di costruire tutto quello che i ribosomi possono costruire, e molto
altro ancora; i replicatori basati sugli assemblatori saranno quindi in grado di fare tutto quello che la
vita può fare, ed altro ancora. E ciò, da un punto di vista evolutivo, pone una ovvia minaccia alle
lontre, alle persone, ai cactus ed alle felci - alla intricata tessitura della biosfera ed a tutto quello che
apprezziamo.

I primi computer transistorizzati vinsero ben presto la sfida contro i più avanzati fra i computer a
valvole, perché erano basati su dispositivi tecnicamente superiori. Per la stessa ragione anche i più
rozzi fra i primi replicatori basati sugli assemblatori potranno vincere sui più avanzati organismi
moderni. "Piante" con "foglie" non più efficienti delle odierne celle solari potranno adeguatamente
competere con piante reali, affollando la biosfera di un immangiabile fogliame. "Batteri" resistenti
ed onnivori potrebbero competere nell'ambiente contro batteri reali: essi potrebbero diffondersi
come soffi di polline, replicarsi rapidamente, e ridurre la biosfera in polvere nell'arco di giorni.
Replicatori pericolosi potrebbero facilmente essere troppo resistenti, troppo piccoli, e di diffusione
troppo rapida perché li si possa arrestare - per lo meno se non ci prepareremo in alcun modo.
Abbiamo già abbastanza problemi a controllare i virus o i moscerini della frutta (1).

Fra le persone consapevoli della nanotecnologia, questa minaccia è divenuta nota come il problema
della "melassa grigia" (gray goo). Per quanto delle masse di replicatori incontrollati non si
presenteranno necessariamente né grigi né melensi, nell'aspetto, il termine "gray goo" sottolinea che
replicatori in grado di cancellare la vita potrebbero allo stesso tempo apparire come qualcosa di
meno attraente di una unica massa di tubercoli composta da un'unica specie vivente. Pur essendo
"superiori" in senso evolutivo, non necessariamente sarebbero qualcosa a cui potremmo attribuire
un qualche valore. Ci siamo evoluti per amare un mondo ricco di cose viventi, ricco di idee e di
diversità, e non c'è quindi alcuna ragione di apprezzare il gray goo per il solo fatto che esso sarebbe
effettivamente capace di diffondersi ubiquamente. Infatti, prevenendo il gray goo, daremo prova
della nostra superiorità evolutiva.
La minaccia del gray goo mette perfettamente in chiaro una cosa: non possiamo permetterci certi
tipi di incidenti con gli assemblatori che sono in grado di replicarsi.

Nel capitolo 5, ho descritto alcune delle cose che i sistemi avanzati di IA potranno fare per noi se li
utilizzeremo propriamente. Nel caso più estremo, essi potranno anche incorporare gli schemi del
pensiero e lavorare a ritmi che nessun cervello di mammifero potrebbe eguagliare. Sistemi IA che
lavorino assieme, come la gente fa, saranno in grado di capacità di pensiero superiori non solo a
quelle degli individui ma anche a quelle di intere società. Ancora una volta, l'evoluzione dei geni ha
vincolato la vita a determinati limiti. Ancora una volta, l'evoluzione a cui i memi vengono sottoposti
dagli esseri umani, ed eventualmente dalle macchine, farà progredire il nostro hardware ben oltre i
limiti della vita. E di nuovo, da un punto di vista evolutivo, tutto questo pone una ovvia minaccia.

La conoscenza accresce il potere ed il potere accresce ulteriormente la conoscenza. A seconda della


loro natura e dei loro obiettivi, i sistemi avanzati di IA potrebbero raccogliere abbastanza
conoscenza e potere da sostituirsi a noi, se non ci saremo preparati adeguatamente. E come accadrà
per i replicatori, la semplice "superiorità" evolutiva non renderà necessariamente i vincitori migliori
degli sconfitti, secondo qualsiasi parametro di giudizio che non sia la bruta abilità di competizione.

Questa minaccia mette perfettamente in chiaro una cosa: abbiamo bisogno di trovare modi di vita
che siano compatibili con l'esistenza della macchine pensanti, affinché queste possano divenire dei
cittadini osservanti delle leggi.

Motori di Potere

Certi tipi di replicatori e di sistemi di IA potrebbero obbligarci ad un confronto con forme di


hardware capaci di azione rapida, efficace ed indipendente. Ma la novità di questa minaccia -
proveniente dalle stesse macchine - non dovrebbe renderci ciechi di fronte ad un pericolo ben più
tradizionale. Replicatori e sistemi di IA possono anche servire come grandi motori di potere, se
adoperati senza freni da stati sovrani.

Lungo l'intera storia umana, gli stati hanno sviluppato tecnologie per estendere il loro potere
militare, ed essi senza dubbio giocheranno un ruolo dominante nello sviluppo di replicatori e di
sistemi di IA. Gli stati potrebbero sfruttare i replicatori per costruire, rapidamente, facilmente ed in
quantità, interi arsenali di armi avanzate. Gli stati potrebbero sfruttare dei replicatori "speciali" in
modo più diretto, allo scopo di diffondere una sorta di guerra batteriologica - di un tipo peculiare,
basata principalmente su un tipo molto più pratico di "germi", perché programmabili e controllati da
dei computer. A seconda delle loro capacità, i sistemi IA potrebbero servire da progettisti di armi,
da strateghi o da combattenti (2). Gli stanziamenti militari di fondi supportano infatti ricerche sia
nell'ambito delle tecnologie molecolari che in quello dell'intelligenza artificiale.

Gli stati possono sfruttare gli assemblatori o i sistemi avanzati di IA per ottenere progressi radicali
repentini e destabilizzanti. Ho precedentemente discusso sulle ragioni per cui c'è da attendersi che
l'avvento dei replicatori comporterà trasformazioni relativamente improvvise. Essendo i replicatori
capaci di replicarsi repentinamente, potrebbero diventare numericamente abbondanti nell'arco di
pochi giorni. Essendo in grado di fare quasi qualunque cosa, potrebbero essere programmati per
duplicare armi già esistenti ma costruite stavolta con materiali superiori. Essendo capaci di lavorare
con componenti standard e ben compresi (atomi), potrebbero altrettanto rapidamente realizzare cose
che siano state progettate precedentemente, prima che si compiesse il passo avanti tecnologico degli
assemblatori. I prodotti risultanti dalla progettazione anticipata, potrebbero includere germi
programmabili e altre cose malefiche ed inedite. Per tutte queste ragioni, uno stato che realizzi il
passo avanti degli assemblatori, potrebbe rapidamente mettere in piedi una forza militare decisiva -
se non proprio nell'arco di una notte, quantomeno con una velocità senza precedenti.
Gli stati potrebbero impiegare sistemi di IA altrettanto avanzati per altri scopi analoghi.
L'ingegneria automatizzata faciliterà la progettazione anticipata accelerando lo sviluppo degli
assemblatori. Sistemi IA capaci di costruire altri sistemi IA ancora migliori, provocheranno una
dirompente esplosione della disponibilità di capacità tecniche, con effetti difficili da prevedere. Sia i
sistemi IA che gli assemblatori-replicatori doteranno gli stati della possibilità di accrescere le loro
capacità militari di diversi ordini di grandezza, nonché in tempi brevi.

I replicatori possono essere più potenti delle armi nucleari: devastare la Terra con le bombe
richiede masse di congegni hardware esotici e isotopi rari, ma per distruggere tutta la vita con i
replicatori basta un semplice granello composto da elementi ordinari. I replicatori faranno
compagnia alle armi nucleari come potenziale causa di estinzione, ampliando la preoccupazione
morale per l'estinzione potenziale su di un contesto molto più esteso.

A dispetto del loro potenziale in termini di macchine di distruzione, nanotecnologia e sistemi IA si


prestano ad utilizzi molto più subdoli di quelli possibili con le armi nucleari. Una bomba può solo
spazzare via le cose. Ma le nanomacchine e i sistemi IA potrebbero essere utilizzati per infiltrare,
sequestrare, modificare o governare un territorio o il mondo intero. Anche la polizia più spietata
non ha alcuna possibilità d'utilizzo per le armi nucleari, mentre ne ha per cimici elettroniche,
droghe, omicidi ed altri meccanismi flessibili di potere. Con la tecnologia avanzata, gli stati saranno
in grado di consolidare il loro potere sulla gente.

Come hanno già fatto geni, memi, organismi ed hardware, anche gli stati si sono evoluti. Le loro
istituzioni si sono diffuse (con variazioni) grazie a sviluppo, scissioni, imitazioni e conquiste. Gli
stati in guerra lottano come belve feroci, ma sfruttando i loro cittadini come ossa, cervelli e muscoli.
I prossimi passi avanti tecnologici metteranno gli stati a confronto con nuove pressioni e nuove
opportunità, spronando gli stati ad attuare trasformazioni radicali della loro condotta. Per noi, tutto
ciò rappresenta, naturalmente, motivo di preoccupazione. Gli stati, storicamente, sono sempre stati
degli eccellenti macellai ed oppressori.

Da un certo punto di vista, uno stato è semplicemente la somma delle persone che compongono i
suoi apparati organizzativi: le azioni di queste persone si sommano tutte insieme per dar forma alle
azioni dello stato. Ma la stessa cosa può dirsi di un cane e delle sue cellule costituenti, eppure un
cane è chiaramente ben più di un blocco di cellule. Sia i cani che gli stati hanno evoluto dei sistemi
e delle strutture che influenzano il comportamento delle loro parti. Per migliaia di anni i cani si sono
in gran parte evoluti per piacere agli uomini, poiché sono sopravvissuti ed hanno potuto riprodursi
solo in dipendenza dai desideri umani. Per migliaia di anni anche gli stati si sono evoluti, sebbene
sotto pressioni selettive diverse. Gli individui possono esercitare molto più potere sui loro cani che
sui "loro" stati. Tuttavia, anche gli stati possono beneficiare del gradimento della gente e la
concretezza della loro esistenza dipende dalla loro capacità di usare le persone, siano essi leaders,
poliziotti o soldati.

Potrebbe sembrare paradossale dire che la gente ha un potere limitato sugli stati: dopo tutto, non c'è
forse la gente dietro ogni azione di uno stato? Ma nelle democrazie i capi di stato si lamentano della
loro debolezza di poteri, i deputati si piegano ai gruppi di interessi, i burocrati vengono vincolati ad
agire entro le regole, ed i cosiddetti "elettori in carica" maledicono in blocco questo disastro. Lo
stato agisce e la gente lo influenza, e tuttavia nessuno può dire di avere controllo su di esso. Negli
stati totalitari, l'apparato di potere ha una tradizione, una struttura ed una logica interna che non
lascia libero nessuno, né i governanti né i governati. Persino i "re" devono agire secondo modalità
limitate dalle tradizioni della monarchia e dalle pratiche del potere, se vogliono restare regnanti. Gli
stati non sono umani, per quanto composti da umani.
A dispetto di tutto questo, la storia dimostra comunque che i cambiamenti restano possibili, persino
cambiamenti per il meglio. Ma i cambiamenti passano sempre da un sistema semi-autonomo e non-
umano ad un altro egualmente non-umano, per quanto più umano. Nella nostra speranza di
miglioramento non dobbiamo confondere gli stati che indossano una facciata umana con gli stati
dotati di istituzioni umane.

Descrivere gli stati come un quasi-organismo cattura solo un aspetto della complessa realtà, e
tuttavia lascia intuire come essi dovrebbero evolvere in risposta ai passi avanti tecnologici in arrivo.
La crescita del potere di un governo, che ha il suo spettacolare apice nei paesi totalitari, lascia
intuire una direzione.

Gli stati potrebbero diventare più simili agli organismi nel dominare in modo più completo le loro
parti. Utilizzando gli assemblatori-replicatori, gli stati potrebbero saturare l'ambiente umano di
dispositivi di sorveglianza. Sfruttando l'abbondanza di sistemi IA capaci di comprendere il
linguaggio umano, essi potrebbero ascoltare le conversazioni di chiunque senza dover per questo
impegnare metà della popolazione come ascoltatori. Utilizzando della nanotecnologia come quella
proposta per le macchine di riparazione cellulare, essi potrebbero economicamente sedare,
lobotomizzare o in qualche altro modo modificare popolazioni intere. Questa possibilità sembra
essere solo una estensione possibile di una trama di potere fin troppo familiare. Il mondo ha già
governi che spiano, torturano e usano droghe; la tecnologia avanzata, semplicemente, estenderà
queste possibilità.

Ma d'altronde, con la tecnologia avanzata gli stati non avrebbero più bisogno di controllare la gente
- potrebbero invece semplicemente disfarsene. Dopo tutto, la maggior parte delle persone nella
maggior parte degli stati serve come forza-lavoro, oppure come futura forza-lavoro, o infine come
addetti alla formazione delle futura forza-lavoro, e la maggior parte dei lavoratori sono
esclusivamente impegnati nel fabbricare, spostare e sviluppare prodotti. Uno stato dotato di
assemblatori-replicatori non ha bisogno che qualcuno svolga questo tipo di lavoro. Inoltre, i sistemi
IA avanzati possono sostituire gli ingegneri, gli scienziati, gli amministratori e persino i capi di
governo. La combinazione di nanotecnologia ed IA avanzata renderà possibile realizzare robot
intelligenti ed efficaci, e con tali robot uno stato può prosperare anche se nel frattempo si andasse a
disfare di qualcuno o persino (in linea di principio) di chiunque.

Le implicazioni di questa possibilità dipendono dalla funzione per cui lo stato esiste, se cioè lo
stato esista per servire la gente o se la gente esista per servire lo stato.

Nel primo caso avremmo uno stato modellato da esseri umani per servire certi scopi umani; le
democrazie tendono, quanto meno, verso una rozza approssimazione di questo ideale. L'esistenza di
un governo controllato democraticamente che non abbia più bisogno della gente, essenzialmente
implicherebbe che non ci sarebbe più bisogno di usare la gente nel ruolo di burocrati o di
contribuenti. Ciò apre possibilità inedite, alcune delle quali potrebbero dimostrarsi desiderabili.

Nel secondo caso avremmo uno stato evolutosi per sfruttare gli esseri umani, forse secondo linee
d'azione totalitarie. Gli stati hanno avuto bisogno della gente in qualità di lavoratori, poiché infatti il
lavoro umano è stato il necessario fondamento del potere. Inoltre, il genocidio è sempre stato di
attuazione costosa e problematica. E tuttavia, in questo secolo diversi stati totalitari hanno
massacrato i loro cittadini a milioni. La tecnologia avanzata renderà non necessari i lavoratori e
facile il genocidio. La storia suggerisce che gli stati totalitari potrebbero quindi eliminare del tutto la
loro popolazione. Non c'è nulla di consolante in tutto ciò. Sembra che uno stato intenzionato ad
assoggettarci biologicamente, ed al tempo stesso in grado di farlo, semplicemente ci ucciderebbe.
La minaccia della tecnologia avanzata in mano ai governi, rende perfettamente chiara una cosa:
non possiamo permetterci di avere uno stato oppressivo che ci guidi fino all'avvento dei prossimi
passi avanti tecnologici.

I problemi di base che ho fini qui delineato sono ovvi: nel futuro, come nel passato, le nuove
tecnologie tenderanno di per se stesse verso utilizzi accidentali o abusivi. Poiché i replicatori e le
macchine pensanti ci doteranno di nuovi grandi poteri, il potenziale per incidenti ed abusi crescerà
nella stessa misura. Queste possibilità pongono una minaccia autentica alle nostre vite.
Alla maggior parte della gente piace avere una probabilità di vita, nonché di poter scegliere
liberamente il modo in cui vivere. Questa meta potrebbe sembrare troppo utopica, quanto meno in
alcune parti del mondo. Un tale obiettivo non significa dover forzare chiunque a conformarsi ad un
qualche schema d'ordine superiore; Piuttosto, significa principalmente evitare schiavitù e morte. E
tuttavia, come il raggiungimento di un sogno utopico, esso condurrà verso un futuro di meraviglie.

Dati quindi questi problemi di vita o di morte, e questo obiettivo generale, possiamo prendere in
considerazione le contromisure che potrebbero aiutarci nel successo. La nostra strategia dovrebbe
coinvolgere persone, principi ed istituzioni, ma dovrebbe anche affidarsi a strategie che,
inevitabilmente, coinvolgeranno la tecnologia.

Sistemi Affidabili

Per usare in tutta sicurezza tecnologie così potenti, dobbiamo fabbricare hardware del quale
possiamo fidarci. Per averne fiducia, dobbiamo essere in grado di giudicare accuratamente fatti di
tipo tecnico, una abilità che a sua volta dipenderà in parte dalla qualità delle istituzioni di giudizio.
Tuttavia, cosa ancor più fondamentale, questa abilità dipenderà anche dalla effettiva possibilità
fisica di realizzare hardware affidabile. E questa è una questione di affidabilità dei componenti ed
affidabilità dei sistemi.

Spesso fabbrichiamo componenti affidabili, persino in mancanza dell'aiuto degli assemblatori.


"Affidabile" non significa "indistruttibile" - qualunque cosa può rompersi se posta troppo vicina ad
una esplosione nucleare. Non significa neanche "tenace" - un apparecchio televisivo potrebbe essere
affidabile, e tuttavia non sopravvivere ad un rimbalzo su un pavimento di cemento. Piuttosto,
diciamo che una certa cosa è "affidabile" quando possiamo contare sul fatto che essa funzionerà
svolgendo il compito per cui è progettato.

Un componente affidabile non deve necessariamente essere la perfetta incarnazione di una perfetta
progettazione: ha solo bisogno di essere una incarnazione abbastanza buona di una progettazione
abbastanza previdente. Un ingegnere che progetti ponti potrebbe anche essere incerto riguardo la
forza dei venti, il peso del traffico e la forza dell'acciaio, ma ipotizzando venti forti, traffico pesante
e acciaio debole può progettare un ponte in grado di reggere.

I guasti inattesi dei componenti, di solito derivano da difetti dei materiali. Ma gli assemblatori
costruiranno componenti in cui esiste solo un trascurabile numero di atomi la cui disposizione è
erronea - anzi, persino materiali del tutto privi di atomi fuori posto, se necessario (3). Ciò renderà i
componenti perfettamente uniformi e, in senso lato, perfettamente affidabili. Le radiazioni, tuttavia,
potranno ancora causare danni, perché non esiste materiale su cui un raggio cosmico non possa
inaspettatamente colpire un atomo allontanandolo dalla sua posizione (4). In un componente
sufficientemente piccolo (persino in un dispositivo di memoria di un computer moderno), una
singola particella di radiazione può causare un guasto.

Ma i sistemi possono lavorare anche se le loro parti si guastano; la chiave sta nella ridondanza.
Immaginiamo un ponte sorretto da cavi, i quali possano degradarsi in base al caso, ognuno dei quali
si rompe, in un momento impredicibile, all'incirca una volta lungo un periodo di un anno. Se il
ponte potesse cadere quando un cavo si rompe, il ponte stesso sarebbe troppo pericoloso da
utilizzare. Immaginiamo, tuttavia, che un singolo cavo rotto richieda un giorno per essere riparato
(perché squadre di operai possono intervenire prontamente per cambiare il cavo in seguito ad una
richiesta d'intervento) e che inoltre se il ponte richiede cinque cavi per potersi sostenere, sia stato
realizzato con sei cavi di sostegno. Quindi, se un cavo si rompe, il ponte continua a reggersi.
Arrestando il traffico e sostituendo il cavo rotto, gli operai del ponte possono ripristinare la
sicurezza. La distruzione del ponte è possibile solo se un secondo cavo dovesse rompersi nello
stesso giorno in cui si è rotto il primo. Sostenuto da sei cavi, ognuno con una probabilità di rottura
in uno specifico giorno pari a 1 su 365, il ponte probabilmente resisterà circa dieci anni.

Sebbene sia pur sempre un miglioramento, questa situazione resta comunque temibile. E tuttavia un
ponte con dieci cavi (i cinque necessari più cinque extra) cadrà solo nel caso che 6 cavi si dovessero
rompere tutti nello stesso giorno: il sistema di sospensione ha quindi una probabilità di reggere per
oltre dieci milioni di anni. Con quindici cavi, il tempo di vita atteso del ponte diventa pari ad oltre
mille volte l'età attuale della Terra. La ridondanza può comportare una esplosione esponenziale del
grado di sicurezza.

La ridondanza funziona meglio quando i componenti ridondanti sono effettivamente indipendenti.


Se non ci fidiamo della loro progettazione, dobbiamo usare componenti progettati
indipendentemente; se esiste la probabilità che una bomba, una pallottola o un raggio cosmico
possano danneggiare diversi componenti circostanti, allora dobbiamo ricorrere più diffusamente a
parti ridondanti. Gli ingegneri che vogliano fornire trasporto affidabile fra due isole non dovrebbero
semplicemente aggiungere cavi ad un ponte. Essi dovrebbero costruite due ponti ben distinti che
utilizzino progettazioni differenti, quindi aggiungere un tunnel, un traghetto, ed un paio di
aereoporti a terra.

Anche gli ingegneri che progettano computer sfruttano la ridondanza. La Stratus Computer Inc.,
per esempio, ha realizzato una macchina che utilizza quattro unità centrali di elaborazione (disposte
in due coppie) (5) per svolgere il lavoro di una sola, ma per farlo in modo molto più affidabile. Di
ogni coppia viene continuamente esaminata la sua consistenza interna, ed una coppia guasta può
essere sostituita da un'altra mentre la coppia gemella continua ad elaborare.

Una forma anche più potente di ridondanza è quella della progettazione di diversità (6).
Nell'hardware di un computer ciò significa l'impiego di diversi computer con progettazioni
differenti, i quali lavorano tutti in parallelo. In questo caso la ridondanza può non solo porre
rimedio ai guasti di un pezzo di hardware, ma anche ad errori nella sua progettazione.

Molto si è lavorato sul problema di scrivere programmi per computer grandi e privi di errori; molta
gente considera un tale programma impossibile da sviluppare e da manutenere. Ma i ricercatori
dello UCLA Computer Science Department hanno dimostrato che la progettazione diversificata può
essere usata anche nel software: diversi programmatori hanno affrontato in modo indipendente lo
stesso problema, e successivamente tutti i loro programmi sono stati fatti girare in parallelo
rendendo il risultante sistema software resistente agli errori di programmazione che si
manifestavano in alcune sue parti.
Possiamo sfruttare la ridondanza per controllare i replicatori(7). Come le macchine di riparazione
cellulare confrontano filamenti multipli di DNA per essere in grado di correggere le mutazioni nei
geni delle cellule, i replicatori potrebbero confrontare copie multiple delle loro istruzioni (o che
utilizzare altri efficaci sistemi di correzione degli errori (8)) per essere in grado di resistere alle
mutazioni nei loro "geni". Anche in questo caso la ridondanza può produrre una esplosione
esponenziale della sicurezza.
Possiamo costruire sistemi che siano estremamente affidabili, ma questo comporta dei costi. La
ridondanza rende i sistemi più pesanti, più massicci, più dispendiosi e meno efficienti. La
nanotecnologia, tuttavia, fabbricherà la maggior parte delle cose in modo che siano più leggere, più
piccole, più economiche e più efficienti. Questo rende la ridondanza e l'affidabilità obiettivi più
pratici da perseguire.

Al momento, è raro che si desideri pagare il costo di sistemi il più possibile sicuri; tolleriamo guasti
più o meno desiderati e di rado prendiamo in considerazione i limiti reali dell'affidabilità. Ciò
influenza il nostro giudizio su ciò che effettivamente può essere ottenuto. C'è anche un fattore
psicologico che distorce il nostro senso di quale sia il grado di affidabilità con cui le cose possono
essere prodotte: i guasti ci restano fermamente in mente, ma i quotidiani successi ottengono ben
poca attenzione. I media amplificano questa tendenza riportando i guasti più drammatici accaduti in
tutto il mondo, mentre ignorano l'infinita lista di tediosi successi. E quel che è peggio, i componenti
dei sistemi ridondanti potrebbero guastarsi in modi visibili, suscitando allarmismi: immaginate
come i media riferirebbero la rottura di un cavo di sostegno per un ponte, anche quando il ponte sia
del tipo super-sicuro, con quindici cavi, descritto precedentemente. E poiché ogni componente
ridondante aggiunto si somma alla probabilità complessiva della rottura di un componente, potrebbe
persino sembrare che l'affidabilità complessiva del sistema stia peggiorando mano a mano che il
sistema si avvicina alla perfezione.

Apparenze a parte, i sistemi ridondanti, costruiti con componenti abbondanti e non privi di difetti,
spesso sono perfettamente affidabili. Sistemi in cui la ridondanza sia stata estesamente impiegata,
potrebbero sopravvivere persino alle pallottole o alle bombe.

Ma che dire degli eventuali errori di progettazione? Anche avere una dozzina di parti ridondanti
non è poi una gran cosa se queste condividono un errore fatale di progettazione. La diversificazione
progettuale è una risposta a tale questione; l'impiego di accurate procedure di collaudo è un'altra
buona risposta. Possiamo affidabilmente evolvere buoni progetti senza essere buoni progettisti:
abbiamo bisogno solo di essere bravi nel collaudo, nella manutenzione, e dotati di molta pazienza.
La natura ha evoluto del macchinario molecolare funzionante tramite un processo completamente
privo di mente di manutenzione e di collaudo. Essendo dotati di menti, possiamo fare altrettanto o
anche meglio.
Potrebbe risultarci facile progettare dell'hardware affidabile se riuscissimo a sviluppare affidabili
sistemi di ingegneria automatizzata. Ma questo problema solleva la questione ben più ampia di
come sviluppare sistemi di intelligenza artificiale che risultino affidabili. Abbiamo pochi problemi a
realizzare sistemi di IA con hardware affidabile, ma che dire del loro software?

Analogamente a sistemi IA e menti umane attuali, i sistemi avanzati di IA saranno delle


combinazioni sinergetiche di molte parti più semplici. Ogni parte sarà ben più specializzata e ben
meno intelligente del sistema complessivo. Alcune parti andranno alla ricerca degli schemi presenti
in immagini, suoni, o in altri dati, ed avanzeranno proposte su ciò che questi dati potrebbero
significare. Altre parti confronteranno e giudicheranno le proposte avanzate dalle prime. Così come
i sistemi di riconoscimento di schemi nel sistema visivo umano soffrono di errori ed illusioni
ottiche, così sarà anche nei sistemi IA per i loro sotto-sistemi dedicati al riconoscimento di schemi.
(Di fatto, alcuni sistemi avanzati che realizzano la funzione della visione nelle macchine, già
soffrono delle stesse illusioni ottiche che ci sono familiari). E proprio come altre parti della mente
umana possono spesso identificare e compensare le illusioni, altrettanto potranno fare altre parti dei
sistemi IA.

Come accade nelle menti umane, l'intelligenza delle macchine coinvolgerà sia delle parti
mentali(9) che avanzeranno alcune prime ed esitanti ipotesi, sia altre parti mentali che scarteranno
la maggioranza delle ipotesi cattive prima di dedicare maggiore attenzione alle ipotesi restanti o di
influire su decisioni importanti. Le parti mentali che rigettano le idee d'azione basandosi su criteri di
etica, corrispondono a ciò che noi chiamiamo coscienza. I sistemi IA con molte parti, avranno
spazio a sufficienza per la ridondanza e la diversificazione di progettazione delle parti, rendendo
quindi possibile l'affidabilità.
Un autentico e flessibile sistema IA deve evolvere idee. Per far questo, esso deve individuare o
formare ipotesi, generare variazioni, sperimentarle, e quindi modificare o scartare quelle che si
rivelano inadeguate. L'eliminazione di una qualsiasi di queste capacità renderebbe il sistema
stupido, cocciuto o insensato ("questa macchina arrabattata non può pensare e non vuole imparare
dai suoi sbagli - buttiamola!"). Per evitare di restare intrappolati negli iniziali equivoci concettuali,
bisogna prendere in considerazione punti di vista che sono in conflitto, vedendo quanto bene
spieghino i dati e se un punto di vista possa spiegarne un altro.

La comunità scientifica lavora attraverso un processo analogo. E in un articolo intitolato "The


Scientific Community Metaphor" (10), William A. Kornfeld e Carl Hewitt del MIT Artificial
Intelligence Laboratory hanno suggerito che i ricercatori dell'IA dovrebbero scrivere i loro
programmi in modo che ricalchino ancor più strettamente la struttura evolvente della comunità
scientifica. Essi evidenziano il pluralismo della scienza, ossia la diversificazione delle sue figure in
competizione: propositori, sostenitori e critici. Senza propositori, le idee non possono apparire;
senza sostenitori non possono crescere; e senza critici ad estirparle, le cattive idee possono
proliferare abnormemente rispetto a quelle buone. Tutto ciò ha valore sia per la scienza, che per la
tecnologia, nonché per ciò che accade fra le diverse parti delle nostre menti.

L'esistenza di un mondo pieno di propositori, promotori e critici, così diversi e ridondanti, è ciò che
rende affidabile il progresso della scienza e della tecnologia. L'esistenza di un numero maggiore di
propositori, rende più frequente la generazione di buone proposte; L'esistenza di un numero
maggiore di critici rende più vulnerabili le cattive proposte. Ne risultano perciò idee migliori e più
numerose. Una analoga forma di ridondanza, può aiutare i sistemi IA a sviluppare idee plausibili.

La gente si fa guidare nelle proprie azioni da certi standard di verità ed etica, e dovremmo essere in
grado di evolvere dei sistemi IA che facciano la stessa cosa, ma in modo più affidabile. Capaci di
pensare un milione di volte più velocemente di noi, essi avranno più tempo per una seconda
riflessione. Pare quindi che si possa rendere affidabili i sistemi IA, quanto meno per quelli che sono
gli standard umani (11).

Ho spesso fatto delle analogie fra sistemi IA e singole menti umane, ma la rassomiglianza non deve
necessariamente essere stretta. Un sistema che possa imitare una persona non ha bisogno di essere
come una persona nell'aspetto, ed è invece molto probabile che un sistema di ingegneria
automatizzata non lo sarà affatto. Una proposta (denominata "sistema Agora", termine preso a
prestito dal greco, dove è usato per indicare il luogo di incontro e di mercato) (12) consisterebbe di
molti pezzi di software indipendenti, i quali interagiscono offrendosi l'un l'altro dei servizi in
cambio di denaro. La maggior parte dei pezzi sarebbero degli ingenui specialisti, alcuni in grado di
suggerire una scelta di progetto, altri in grado di analizzarne una. Proprio come l'ecologia della
Terra ha evoluto degli organismi straordinari, così questa economia dei computer potrebbe evolvere
progetti straordinari - e forse secondo un processo altrettanto privo di mente. Ed in più, un tale
sistema sarebbe sparpagliato su molte macchine e composto da molte parti scritte da molte persone,
per cui esso sarebbe vario e robusto, e sarebbe inoltre difficile che un unico gruppo se ne
impadronisca e ne abusi.

Alla fine, in un modo o nell'altro, i sistemi di ingegneria automatizzata saranno capaci di progettare
le cose, in modo molto più affidabile di quello possibile a qualsiasi attuale gruppo di ingegneri
umani (13). La nostra sfida sarà quella di progettare correttamente tali sistemi. Abbiamo bisogno di
istituzioni umane che, affidabilmente, sviluppino sistemi affidabili.

Le istituzioni umane hanno evoluto sistemi artificiali, e questi sistemi possono spesso risolvere
problemi impossibili da risolvere per i loro singoli membri. Ciò rende tali sistemi una sorta di
"sistema di intelligenza artificiale". Le compagnie commerciali, gli eserciti e i laboratori di ricerca
ne sono tutti esempi, come lo sono le libere strutture del mercato e della comunità scientifica.
Persino i governi potrebbero essere visti come sistemi di intelligenza artificiale - sistemi grossolani,
indolenti e ottusi, ma pur sempre sovra-umani nell'essenza della loro capacità. E cos'altro
potrebbero essere i controlli di costituzionalità delle leggi ed i bilanci statali, se non un tentativo di
accrescere l'affidabilità di un governo grazie alla diversificazione e alla ridondanza delle istituzioni?
Quando costruiremo macchine intelligenti, le useremo affinché si controllino e si bilancino l'una
con l'altra.

Applicando dei sani principi, potremmo diventare capaci di sviluppare anche delle affidabili
istituzioni di orientamento tecnico, che siano dotate di forti controlli e bilanciamenti, e che li
impieghino per guidare lo sviluppo dei sistemi di cui necessitiamo per riuscire a gestire i passi
avanti tecnologici in arrivo.

Strategie per arrivare agli Assemblatori

Una qualche forza del mondo (che sia degna di fiducia o meno) si conquisterà una posizione di
supremazia nello sviluppo degli assemblatori; chiamiamola "la forza dominante". A causa della
importanza strategica degli assemblatori, la forza dominante sarà probabilmente una qualche
organizzazione o istituzione totalmente controllata da qualche governo o gruppo di governi. Per
semplificare i termini della questione, supponiamo per il momento che noi (i "buoni", quelli che
tentano di comportarsi "saggiamente") fossimo in grado di influenzare le politiche che guidano la
forza dominante. Per i cittadini degli stati democratici, l'esercizio della propria influenza su tali
politiche sembra essere una buona attitudine da adottare.

Che cosa dovremmo fare per migliorare le nostre probabilità di conquistarci un futuro in cui valga
la pena di vivere? E che cosa possiamo fare?

Possiamo cominciare considerando quello che non deve accadere: non dobbiamo permettere che
neanche un singolo assemblatore-replicatore del tipo sbagliato venga liberamente disperso
nell'ambiente di un mondo impreparato. Una preparazione assoluta pare impossibile, (come
descrivo nel seguito), ma sembra comunque che la preparazione dovrebbe a sua volta basarsi su
sistemi costruiti da assemblatori, i quali potranno essere fabbricati solo dopo che la fabbricazione di
replicatori pericolosi sia già diventata possibile. La progettazione anticipata può aiutare la forza
dominante a preparasi adeguatamente, nonostante che persino le più energiche azioni di previsione
paiano proprio inadeguate a prevenire un'epoca di pericoli. E la ragione di tale inadeguatezza è
piuttosto diretta: i replicatori pericolosi saranno enormemente più semplici da progettare rispetto ai
sistemi che possono contrastarli, proprio come un batterio è di gran lunga più semplice rispetto ad
un sistema immunitario. Abbiamo bisogno di strategie per frenare la nanotecnologia finché non
avremo imparato a domarla.

Una strategia ovvia è l'isolamento: la forza dominante potrà contenere i sistemi replicatori entro
mura multiple oppure in laboratori posti nello spazio. Replicatori molto semplici saranno del tutto
privi di intelligenza, e non saranno perciò progettati perché possano evadere dall'isolamento e
diffondersi selvaggiamente. Il loro contenimento non sembra una sfida particolarmente ardua.

Ancora meglio, saremo in grado di progettare replicatori che, in virtù della loro stessa
progettazione, non possano evadere e diffondersi selvaggiamente. Possiamo fabbricarli dotandoli di
contatori interni (come quelli delle cellule) che limitino le loro replicazioni ad un numero fissato.
Possiamo costruirli in modo che necessitino di speciali "vitamine" sintetiche, o di condizioni
ambientali bizzarre che possano esistere solo in laboratorio. Sebbene si potrebbero fabbricare
replicatori dotati di tenacia e voracità superiori a quelle di qualsiasi moderna peste, possiamo
realizzarli anche in modo che siano utili ma innocui. Poiché li progetteremo partendo da zero, i
replicatori non avranno bisogno di possedere neanche le più rudimentali fra le abilità di
sopravvivenza che l'evoluzione ha costruito nelle nostre cellule.

Inoltre, essi non hanno bisogno di evolvere, Possiamo fornire ai replicatori copie ridondanti delle
loro istruzioni "genetiche", corredate da meccanismi di riparazione atti a correggere qualsiasi
mutazione. Possiamo progettarli perché smettano di lavorare molto prima che si possa accumulare
un numero di alterazioni sufficienti a rendere significativamente possibile una mutazione duratura.
Infine, possiamo progettarli dotandoli di caratteristiche che siano d'ostacolo alla loro evoluzione,
anche nel caso dovesse verificarsi qualche mutazione .

Gli esperimenti mostrano che la maggior parte dei programmi per computer (a parte quelli
specificatamente progettati per sistemi IA (14), come per esempio EURISKO del Dr. Lenat)
raramente rispondono alle mutazioni con impercettibili trasformazioni; piuttosto, essi smettono
semplicemente di funzionare. Poiché non possono cambiare in modi utilizzabili, non possono
neanche evolvere. A meno che non siano stati appositamente progettati, i replicatori diretti da
nanocomputer saranno soggetti allo stesso limite. Gli organismi moderni sono relativamente capaci
di evolvere, e ciò in parte è anche dovuto al fatto che essi discendono da antenati che evolvevano.
Essi si sono perciò evoluti per evolvere; E questa è una delle ragioni che giustifica la complessità
della riproduzione sessuale e del rimescolamento di segmenti cromosomici durante la produzione di
cellule spermatiche e cellule-uovo. Possiamo semplicemente evitare, perciò, di dotare i replicatori
di simili capacità (15).

Per la forza dominante, dovrebbe essere facile rendere utili, innocui e stabili gli assemblatori-
replicatori. Riuscire invece ad evitare che gli assemblatori vengano rubati ed abusati, è un problema
ben diverso e ben più grosso, poiché si tratta di un gioco ben diverso, combattuto contro avversari
intelligenti. Come prima strategia, potremmo ridurre l'incentivo al furto di assemblatori rendendoli
disponibili in forme sicure. Questo, dovrebbe altresì ridurre l'incentivo allo sviluppo indipendente di
assemblatori da parte di altri gruppi. La forza dominante, dopotutto, verrà immediatamente seguita a
ruota da altre forze.

Assemblatori Limitati

Nel capitolo 4 ho descritto come un sistema di assemblatori in una vasca, possa costruire un
eccellente motore per un razzo. Ho anche evidenziato che sapremo realizzare sistemi assemblatori
che operino come semi, assorbendo la luce solare e materiali ordinari e accrescendosi fino a
diventare quasi qualunque cosa. Questi sistemi a scopo-specifico, di per se stessi non saranno
replicanti, o quanto meno lo saranno solo limitatamente ad un numero di replicazioni fissato. Essi
semplicemente costruiranno quello che sono programmati a costruire, e solo quando verrà detto loro
di costruirlo. Chiunque non sia dotato di specifici strumenti costruiti da assemblatori, dovrebbe
essere incapace di riprogrammarli perché svolgano altri compiti.

Con l'impiego di assemblatori caratterizzati da questo tipo di limitazioni, la gente sarà in grado di
fabbricare qualsiasi cosa desideri e in qualsiasi quantità desideri, soggetta solo alle limitazioni
implicite nelle macchine stesse. Se nessuna di queste macchine è programmata per fabbricare armi
nucleari, nessuno le fabbricherà; se nessuna è programmata per fabbricare replicatori pericolosi,
nessuno li fabbricherà. Se alcune macchine sono programmate per fabbricare case, automobili,
computer, spazzolini da denti e quant'altro, allora questi prodotti diventeranno economici ed
abbondanti. Le macchine costruite tramite degli "assemblatori limitati" ci permetteranno di
schiudere l'accesso allo spazio, guarire la biosfera, e riparare le cellule umane. Gli assemblatori
limitati possono portare un benessere quasi illimitato sia alla gente che al mondo.
Questa strategia renderà più facile l'esercizio di una pressione morale mirata a rendere
immediatamente disponibili gli assemblatori limitati. Ma, in ogni caso, gli assemblatori limitati
lasceranno ancora insoddisfatte altre legittime necessità. Gli scienziati avranno bisogno di
assemblatori liberamente programmabili per condurre i loro studi; gli ingegneri ne avranno bisogno
per la verifica sperimentale delle loro progettazioni. Queste necessità possono essere soddisfatte con
l'impiego di "laboratori sigillati per assemblatori".

Laboratori Sigillati per Assemblatori

Immaginate un accessorio per computer della dimensione del vostro pollice, con un display in cima
che serva per mostrarvi lo "stato-dell'arte". La superficie di questo oggetto ha un aspetto monotono
simile a plastica grigia, con un numero di serie stampigliato sopra; e tuttavia, questo laboratorio
sigillato per assemblatori è esso stesso un oggetto costruito da assemblatori, e contiene moltissime
cose. All'interno, fissato appena sotto il display, c'è un grande computer nanoelettronico sul quale
viene eseguito un software di simulazione molecolare avanzata (basato sullo stesso software che
viene utilizzato durante lo sviluppo progettuale degli assemblatori). Se il nanocomputer "casalingo",
costruito anch'esso da assemblatori, è connesso con il laboratorio per assemblatori, e quest'ultimo è
con l'interruttore d'alimentazione su "on", il display mostrerà una immagine tridimensionale di ciò
che il computer del laboratorio sta simulando, una immagine nella quale gli atomi sono
rappresentati come sfere colorate. Con un joystick, potete dirigere il braccio dell'assemblatore
simulato affinché costruisca delle cose. Dei programmi appositi possono velocizzare il movimento
del braccio, e voi potete così costruire sullo schermo, in un semplice batter d'occhio, strutture anche
molto elaborate. La simulazione funziona sempre alla perfezione poiché il nanocomputer imbroglia:
quando muovete il braccio simulato per spostare molecole simulate, il computer dirige un braccio
vero per spostare molecole vere. Quindi, lo stesso computer verifica i risultati e, se ne riscontra la
necessità, corregge i suoi calcoli (16).

All'estremità di questo oggetto della dimensione di un pollice, c'è una sfera costituita da molti
livelli concentrici. Cavi sottili convogliano dentro la sfera, attraversandone i suoi livelli, energia
d'alimentazione e segnali elettrici; Questi cavi consentono al nanocomputer posto in cima di
comunicare con i dispositivi al centro della sfera. Il livello più esterno è composto da sensori. Ogni
tentativo di rimuovere o penetrare questo livello fa scattare un segnale diretto verso un livello più
interno, vicino al nucleo. Il livello successivo a quello esterno è uno spesso guscio sferico di
diamante composito pretrattato, ossia che è stato sottoposto a stiramento delle sue regioni più
esterne e a compressione di quelle più interne. Questo secondo livello circonda un successivo
livello di isolamento termico, che a sua volta circonda un guscio della dimensione di un grano di
pepe e composto da blocchi microscopici, opportunamente disposti, di metallo ed ossidante. Tali
blocchi sono connessi a dei dispositivi elettrici ignitori. Quando viene penetrato, il livello più
esterno composto dai sensori fa scattare gli ignitori. La carica di demolizione è composta dai
blocchi di metallo e ossidante, per cui essa brucia in una frazione di secondo e produce un gas di
ossidi metallici più denso dell'acqua e quasi altrettanto caldo della superficie del sole. Ma la fiamma
è minuscola in estensione e di breve durata, per cui la sfera di diamante riesce comunque a
confinare l'enorme pressione sviluppata.

Questa carica demolitrice circonda un guscio composito più piccolo, che a sua volta circonda un
altro livello di sensori altrettanto in grado di attivare la carica demolitrice. Questi sensori
circondano la cavità che contiene infine il vero e proprio "laboratorio sigillato per assemblatori".

Precauzioni così elaborate giustificano il termine "sigillato". Nessuno dall'esterno potrebbe aprire il
laboratorio senza provocare la distruzione del suo contenuto, e nessun assemblatore o struttura
costruita da assemblatori potrebbe evadere dal suo interno. Il sistema è progettato per consentire la
fuoriuscita di informazioni ma non di replicatori o strumenti pericolosi. Ogni livello di sensori è
costituito da molti altri, ridondanti, livelli di sensori (17), ognuno pensato per rilevare ogni possibile
penetrazione, ed ognuno pronto a sopperire alle eventuali mancanze degli altri. La penetrazione,
attivando la carica demolitrice, innalzerebbe la temperatura del laboratorio oltre il punto di fusione
di tutte le possibili sostanze contenute al suo interno, rendendo perciò impossibile la sopravvivenza
dei dispositivi pericolosi. Questi meccanismi protettivi sono tutti coalizzati contro qualcosa che ha
un milionesimo della sua dimensione - il che significa che qualunque cosa sia dentro il laboratorio,
essa occupa uno spazio sferico dal diametro non più grande di quello di un capello umano.

Sebbene sia molto piccolo secondo gli standard ordinari, questo ambiente di lavoro ha spazio a
sufficienza per milioni di assemblatori e milioni di miliardi di atomi. Tali laboratori sigillati per
assemblatori consentiranno alla gente di costruire e sperimentare dispositivi, persino dispositivi
come replicatori voraci, in condizioni di completa sicurezza. I bambini potranno usare gli atomi
all'interno come fossero un insieme di pezzi di un gioco di costruzioni dal numero di parti quasi
illimitato. Gli appassionati si scambieranno programmi per costruire diversi congegni. Gli ingegneri
costruiranno e sperimenteranno nuove nanotecnologie. I chimici, gli scienziati dei materiali e i
biologi costruiranno apparati e eseguiranno esperimenti. In laboratori come questi costruiti attorno a
campioni biologici, ingegneri biomedici svilupperanno e sperimenteranno le prime macchine ripara-
cellule.

Nel corso di questo lavoro, la gente svilupperà in modo naturale progetti utili, siano essi circuiti per
computer, materiali resistenti, dispositivi medici o qualsiasi altra cosa. Dopo una verifica pubblica
della loro sicurezza, gli oggetti prodotti potrebbero essere resi disponibili anche fuori dai laboratori
sigillati, programmando alcuni assemblatori limitati perché li costruiscano. Laboratori sigillati e
assemblatori limitati saranno una coppia di entità complementari: i primi ci consentiranno di
inventare liberamente; i secondi ci permetteranno di godere in sicurezza dei frutti delle nostre
invenzioni. Avere la possibilità di una pausa fra la fase di progettazione e la fase di rilascio, ci
aiuterà a evitare sorprese mortali.
I laboratori sigillati daranno alla società intera la possibilità di applicare la propria creatività ai
problemi della nanotecnologia. E questo ci preparerà più rapidamente ai tempi in cui una forza
indipendente imparerà a costruire qualcosa di maligno.

Nascondere Informazioni

In un'altra strategia per guadagnare tempo, la forza dominante potrà tentare di bruciare i ponti che
essa stessa ha costruito fra la tecnologia di mole e la tecnologia molecolare. Questo significa
distruggere le registrazioni delle modalità seguite per ottenere i primi assemblatori (oppure di
rendere tali registrazioni completamente inaccessibili). La forza dominante potrebbe essere in grado
di sviluppare i primi e rozzi assemblatori in modo tale che nessuno conosca i dettagli di
realizzazione eccetto che per una piccola frazione dell'intero sistema. Immaginiamo di sviluppare
assemblatori attraverso il percorso delineato nel capitolo 1. Le macchine proteiche che sfrutteremo
per costruire i primi rozzi assemblatori diventerebbero presto obsolete. Se distruggiamo le
registrazioni della progettazione delle proteine (18), gli sforzi di duplicazione di tali progettazioni
verrebbero ostacolati, sebbene ciò non ostacolerebbe l'ulteriore progresso della nanotecnologia.

Se i laboratori sigillati e gli assemblatori limitati saranno diffusamente disponibili, la gente non
avrà alcuna motivazione economica o scientifica per sviluppare nuovamente ed indipendentemente
la nanotecnologia, e l'aver bruciato i ponti dalla tecnologia di mole renderà più difficile uno
sviluppo indipendente. E tuttavia queste strategie, non possono essere nulla più che semplici tattiche
per guadagnare un po' di tempo. Esse infatti non arresteranno lo sviluppo indipendente; l'umana
urgenza di potere stimolerà sforzi che potranno infine risultare nel successo. Solo una politica
dettagliata, universale e condotta su scala totalitaria potrebbe arrestare lo sviluppo indipendente su
un tempo indeterminato. Se questa politica fosse condotta da qualsiasi cosa simile ad un moderno
governo, essa rappresenterebbe di certo una cura grosso modo pericolosa quanto lo è la malattia. Ed
anche in tal caso, la gente potrebbe mantenere per sempre una vigilanza perfetta?

Pare che dovremo infine imparare a vivere in un mondo in cui esisteranno replicatori inaffidabili.
Una sorta di strategia potrebbe essere quella di nasconderli dietro un muro o di farli operare molto
lontano. Ma si tratta di metodi effimeri: i replicatori pericolosi potrebbero infrangere il muro o
percorrere la distanza che li tiene separati da noi. E nonostante i muri possano essere realizzati a
prova di replicatori, nessun muro fisso può essere a prova di una malizia su larga scala e ben
organizzata (19). Abbiamo bisogno di un approccio più robusto e più flessibile.

Scudi Attivi

Pare quindi che potremo costruire nanomacchine che, in qualche modo, agiscano in modo analogo
ai globuli bianchi del sistema immunitario umano: ossia dispositivi che possono combattere non
solo virus e batteri, ma anche replicatori pericolosi di ogni tipo. Attribuiamo quindi ad una difesa
automatica di questo tipo la denominazione di "scudo attivo", per distinguerla dal tipo di difesa
passiva rappresentata da una semplice parete fissa.

A differenza degli ordinari sistemi di ingegneria, gli scudi attivi affidabili devono fare ben più che
semplicemente tener testa alla natura o ad utenti maldestri. Essi devono anche far fronte ad una
sfida ancora più grande - ossia fronteggiare l'intero spettro di minacce che forze intelligenti, a
seconda delle circostanze, possono progettare e costruire. La costruzione e il miglioramento di
prototipi di scudi, equivarrà ad una corsa agli armamenti, portata avanti da entrambe le parti in
gioco sotto forma di ricerche di laboratorio. Ma lo scopo qui sarà quello di ricercare i requisiti
minimi per una difesa che sia affidabilmente duratura.

Nel capitolo 5 ho descritto come il Dr. Lenat ed il suo programma EURISKO hanno evoluto delle
flotte di successo e coerenti con le regole di un gioco di simulazione di guerra navale. In maniera
analoga, possiamo tradurre in un gioco lo sforzo mortalmente serio di sviluppare scudi affidabili,
utilizzando come campi da gioco "laboratori sigillati per assemblatori" di varie dimensioni.
Potremmo sguinzagliare un'orda di ingegneri, hackers dei computer, biologi, hobbisti e sistemi di
ingegneria automatizzata, invitandoli tutti a mettere in campo i loro sistemi l'uno contro l'altro in
giochi limitati solo dalla condizione di partenza, dalle leggi della natura e dalle pareti che
delimitano i laboratori sigillati. Questi competitori evolveranno minacce e scudi in una serie infinità
di microbattaglie. Quando gli assemblatori ci doneranno l'abbondanza, la gente avrà tempo a
sufficienza per un gioco tanto importante. Alla fine, possiamo mettere alla prova i sistemi di scudo
più promettenti in un ambiente spaziale analogo alla Terra. Il successo renderebbe possibile un
sistema in grado di proteggere la vita umana e la biosfera Terrestre dalle cose peggiori che un
pugno di replicatori dispersi può fare.

Il Successo è Possibile?

Con le nostre attuali incertezze, non possiamo ancora descrivere con precisione né le minacce né le
difese. Ma ciò significa che non possiamo riporre fiducia alcuna sulla possibilità di realizzare delle
difese efficaci? A quanto pare, invece, possiamo farlo; dopo tutto, c'è una certa differenza fra sapere
che una certa cosa è possibile e sapere come farla. E per questo particolare caso, il mondo ci mostra
vari esempi di successi ottenuti in condizioni analoghe.

Non c'è nulla di fondamentalmente inedito nel difendersi da invasioni di replicatori; la vita l'ha
fatto per ere. Gli assemblatori-replicatori, sebbene insolitamente potenti, saranno sistemi fisici non
dissimili da quelli che già conosciamo. L'esperienza suggerisce che possono essere controllati.
I virus sono macchine molecolari che invadono le cellule; le cellule utilizzano macchine molecolari
(come enzimi di restrizione ed anticorpi) per difendersi dai virus. I batteri sono cellule che invadono
gli organismi; gli organismi utilizzano cellule (come i globuli bianchi del sangue) per difendersi dai
batteri. Analogamente, le società utilizzano polizie per difendersi dai criminali ed eserciti per
difendersi dagli invasori. Su un livello meno fisico, le menti usano sistemi memetici, come il
metodo scientifico, per difendersi dall'insensatezza, e le società usano istituzioni, come i tribunali,
per difendersi dal potere di altre istituzioni.

L'esempio biologico dell'ultimo paragrafo mostra che persino dopo un miliardo di anni di corsa agli
armamenti, le macchine molecolari hanno mantenuto delle difese di successo contro i replicatori
molecolari. I fallimenti sono stati comunque molto comuni, ma il successo indica che una difesa è
possibile. Questi successi suggeriscono che dovremmo infatti usare delle nanomacchine per
difenderci da altre nanomacchine. Nonostante gli assemblatori porteranno molti progressi, non
sembra esserci alcuna ragione per cui essi dovrebbero permanentemente restare in equilibro di forze
contro i sistemi di difesa.

Gli esempi appena riportati, alcuni dei quali riguardano i virus, mentre altri riguardano invece le
istituzioni, sono sufficientemente variegati da suggerire che una difesa di successo si basa su
principi generali. Ci si potrebbe domandare: perché tutti questi sistemi difensivi funzionano? Ma
rigiriamo la domanda: Perché dovrebbero fallire? Ogni conflitto forgia sistemi simili a quelli degli
avversari, non lasciando all'attaccante alcun vantaggio ovvio (20). In ogni conflitto, inoltre, gli
attaccanti affrontano una difesa che è ben insediata. I difensori lottano sul loro proprio terreno, e ciò
da loro il vantaggio di avere posizioni preparate, conoscenza dettagliata del luogo, scorte di risorse
ed abbondanza di alleati: quando il sistema immunitario riconosce un germe, può immobilizzare le
risorse di un intero corpo. Tutti questi vantaggi sono generali e basilari, ed hanno poco a che fare
con i dettagli della tecnologia. Possiamo dotare le nostre difese attive degli stessi vantaggi di cui
godono i replicatori pericolosi. E tali difese non devono necessariamente starsene sedute ed inattive
intanto che le armi vengono accumulate, non più di quanto il sistema immunitario debba starsene
seduto ed inattivo mentre i batteri si moltiplicano.

Sarebbe difficile prevedere l'esito dal finale aperto di una corsa agli armamenti fra potenze
equipaggiate con assemblatori-replicatori. Ma pare probabile che prima che questa situazione possa
insorgere, la forza dominante acquisisca un temporaneo ma schiacciante vantaggio militare. Se
l'esito di una corsa agli armamenti dovesse essere in dubbio, la forza dominante probabilmente
impiegherà la sua forza per assicurare che a nessun avversario sia consentito di raggiungerlo. Se
così fosse, allora, gli scudi attivi non dovrebbero mai vedersi costretti a resistere ad attacchi che si
basino sull'impiego delle risorse di mezzo continente o di mezzo sistema solare; esse saranno invece
come una forza di polizia o un sistema immunitario, poiché dovranno affrontare soltanto attacchi
basati unicamente sulle risorse che possono essere raccolte in segreto e all'interno del territorio
protetto.

In ognuno dei casi di difesa di successo che ho citato in precedenza, gli attaccanti ed i difensori si
sono sviluppati attraverso processi in massima parte analoghi. Il sistema immunitario, modellato
dall'evoluzione genetica, affronta minacce anch'esse modellate dall'evoluzione genetica. Gli eserciti,
modellati dalle menti umane, affrontano analoghe minacce. Allo stesso modo, sia le difese attive
che i replicatori pericolosi saranno modellati dall'evoluzione memetica. Ma se la forza dominante
può sviluppare sistemi di ingegneria automatizzata che lavorino un milione di volte più
velocemente rispetto agli ingegneri umani, e se potrà utilizzare tali sistemi anche solo per un anno,
essa costruirà difese attive basate sui ripensamenti di un milione di anni di progresso ingegneristico.
Con tali sistemi saremo in grado di esplorare i limiti del possibile abbastanza bene da costruire una
difesa affidabile contro tutte le possibili minacce.
Anche senza conoscere i dettagli delle minacce e delle difese, ci sono ragioni di credere che la
difesa sia possibile. Ed anche gli esempi di memi che vigilano su altri memi, o di istituzioni che
vigilano su altre istituzioni, suggeriscono che i sistemi IA possono vigilare su altri sistemi IA.

Nel costruire difese attive, saremo in grado di utilizzare la potenza dei replicatori e dei sistemi IA
per moltiplicare i tradizionali vantaggi delle forze di difesa: possiamo dotare le difese di una forza
schiacciante, grazie alla ridondanza dell'hardware costruito da assemblatori ed il cui progetto è
basato sull'equivalente di un milione di anni di progresso tecnologico. Possiamo costruire difese
attive che abbiano forza e affidabilità tali da far vergognare i sistemi passati.

Nanotecnologia e Intelligenza Artificiale possono anche dotarci degli strumenti di distruzione


definitivi, ma esse non sono intrinsecamente distruttive. Con la appropriata cautela, possiamo
impiegarle per costruire gli strumenti di pace definitivi.

----------

Capitolo 12: Strategie e Sopravvivenza

Restrizioni Personali
Repressione Locale
Accordi di Repressione Globale
Repressione Globale Forzata
Progresso Unilaterale
Equilibrio di Potere
Sviluppo Cooperativo
Una Sintesi di Strategie
Scudi Attivi contro Armi Spaziali
Potere, Malvagità, Incompetenza ed Indolenza

Colui che non ricorre a nuovi rimedi, deve attendersi nuove disgrazie; poiché il tempo è il più
grande innovatore.
-FRANCESO BACONE

Nei capitoli precedenti ho delimitato dettagliatamente il solido terreno delle possibilità


tecnologiche. Ora, però, mi devo ulteriormente avventurare nei reami delle politiche e delle azioni
umane. Questo terreno è meno solido, ma i fatti tecnologici ed i principi evolutivi forniscono ancora
una volta i punti fermi dai quali partire per esplorare il territorio. La corsa tecnologica, guidata dalle
pressioni evolutive, ci sta conducendo verso rischi senza precedenti; abbiamo bisogno di escogitare
strategie per fronteggiare questi rischi. Poiché innanzi a noi vediamo pericoli così grandi, ha senso
considerare di arrestare la nostra corsa frenetica. Ma come potremmo riuscirci?

Restrizioni Personali

A livello individuale, potremmo astenerci dallo svolgere ricerche che conducano verso capacità
pericolose. Ed infatti, la maggior parte della gente se ne astiene, poiché la maggior parte della gente,
in primo luogo, non è composta da ricercatori. Ma questa strategia non arresta i progressi: nel nostro
mondo così diversificato, altri porteranno avanti il lavoro.

Repressione Locale

Una strategia di limitazione personale (almeno in questa materia) odora di semplice inazione. Ma
che dire di una strategia d'azione politica condotta a livello locale da gruppi di pressione che
domandino leggi per la repressione di certi tipi di ricerche? Questa, vorrebbe essere una azione
personale mirata al rafforzamento di una inazione collettiva. Sebbene essa possa ottenere successi
nel sopprimere la ricerca in una città, un distretto, un paese o una alleanza, si tratta di una strategia
che non può aiutarci a guidare la conquista della posizione di supremazia, lasciando invece che
qualche altra forza, una fuori dal nostro controllo, la raggiunga. Un movimento popolare di questo
tipo arresterebbe la ricerca solo laddove le persone di tal movimento detengono il potere, e i suoi
più grandi successi potenziali risulterebbero meramente nello sgombrare la strada ad uno stato più
repressivo, affinché esso possa diventare la forza dominante.

Dove siano coinvolte armi nucleari, si possono avanzare argomenti a favore di un disarmo
unilaterale e di una resistenza non-violenta (o, quanto meno, non-nucleare). Le armi nucleari
possono essere utilizzate per distruggere l'establishment militare e diffondere il terrore, ma non
possono essere impiegate per occupare dei territori o comandare sulla gente - almeno non
direttamente. Le armi nucleari non sono riuscite a sopprimere le situazioni di guerriglia e le
agitazioni sociali, sicché una strategia di disarmo e resistenza ha un certo grado di sensatezza.

La repressione unilaterale della nanotecnologia e dell'IA, al contrario, corrisponderebbe ad un


disarmo unilaterale in una situazione in cui la resistenza non può funzionare. Uno stato aggressivo
potrebbe usare queste tecnologie per sequestrare e dominare (o sterminare) anche una nazione
interamente composta da Gandhi, o persino composta da combattenti per la libertà armati e
indomiti.

Questa circostanza merita di essere evidenziata enfaticamente. Senza un qualche nuovo modo per
riformare gli stati del mondo oppressivi, la semplice repressione totale della ricerca non può
risultare in un successo totale. In assenza di un successo totale, un successo importante potrebbe
essere un disastro per le democrazie. Persino se non si approdasse a nulla, gli sforzi di questo tipo
potrebbero assorbire il lavoro e la passione degli attivisti, sprecando in una futile strategia le già
scarse risorse umane. Inoltre, gli sforzi di repressione potrebbero inimicarsi i ricercatori coinvolti,
fomentando lotte dissidenti fra alleati potenziali e sprecando ulteriori risorse umane. La futilità e il
divisionismo di questa strategia, la rendono una strategia da evitare.

Nonostante tutto, la repressione possiede una innegabile attrattiva. Essa è semplice e diretta; "Il
pericolo arriva? Fermiamolo!". Inoltre, i successi degli sforzi locali di repressione promettono
gratificazioni a breve termine: "Il pericolo arriva? Possiamo fermarlo qui ed ora, tanto per
cominciare!". Queste partenze potrebbero rivelarsi false partenze, ma nessuno lo noterebbe. Sembra
probabile che l'idea della semplice repressione riesca a sedurre molte menti. Dopo tutto, la
repressione locale di pericoli locali ha una lunga tradizione di successi; arrestare una sorgente
inquinante locale, per esempio, riduce l'inquinamento a livello locale. I tentativi di repressione
locale dei pericoli globali sembrano analoghi, comunque differente sia il loro effetto. Abbiamo
bisogno di organizzazioni locali e di pressioni politiche, ma attorno ad entrambe andrebbero
costruite delle strategie in grado di funzionare.

Accordi di Repressione Globale

Secondo un approccio più promettente, potremmo applicare delle pressioni locali per la
negoziazione di una messa al bando d'estensione mondiale. Una simile strategia potrebbe avere una
qualche probabilità di controllare le armi nucleari. Ma tentare di arrestare la nanotecnologia e
l'intelligenza artificiale porrebbe problemi di ordine ben differente, per almeno due ragioni.

In primo luogo, queste tecnologie sono meno ben definite rispetto a quelle delle armi nucleari:
poiché le tecnologie nucleari attuali richiedono certi isotopi di metalli rari, esse sono ben distinte da
altre attività. Questa particolare attività può quindi venir ben definita e (in linea di principio) messa
al bando. Ma la biochimica moderna conduce già, a piccoli passi, verso la nanotecnologia, così
come la moderna tecnologia informatica conduce a piccoli passi verso l'IA. Nessuna linea definisce
un punto di separazione naturale. E poiché ogni piccolo progresso apporterà benefici medici,
militari ed economici, come potremmo negoziare un accordo mondiale a proposito del "dove"
fermarsi?

In secondo luogo, queste tecnologie sono più potenti delle armi nucleari: poiché reattori e sistemi
d'arma sono piuttosto grandi, delle ispezioni potrebbero limitare la dimensione di una forza segreta
e quindi limitare la sua potenza. Ma i replicatori pericolosi sarebbero microscopici, e il software IA
sarebbe intangibile. Come potrebbe chiunque essere sicuro che un qualche laboratorio non si stia
avvicinando alla soglia di un passo avanti tecnologico strategico? Sul lungo termine, come potrebbe
chiunque essere sicuro che un qualche hacker all'interno del suo scantinato non sia ormai proprio
sulla soglia di un passo avanti tecnologico strategico? Le contromisure ordinarie di sorveglianza
non funzionerebbero, e ciò rende la negoziazione e il mantenimento di un bando mondiale quasi
impossibile.

Le pressioni per i giusti tipi di accordo internazionale, renderebbero più sicuro il nostro cammino,
ma è evidente che gli accordi che si limitino semplicemente a sopprimere i progressi pericolosi non
possono funzionare. Ancora una volta, la pressione locale deve essere parte di una strategia
funzionante.

Repressione Globale Forzata

Se gli accordi pacifici non funzionano, si potrebbe considerare l'uso di forza militare per reprimere
i progressi pericolosi. Ma a causa dei problemi di vigilanza, la pressione militare da sola non
basterebbe. Per sopprimere i progressi attraverso l'uso della forza, occorrerebbe invece che una
potenza conquisti ed occupi altre potenze ostili (1), e che sia armata con armi nucleari al fine di
garantire con fermezza una politica di sicurezza. Inoltre, la potenza conquistatrice sarebbe essa
stessa dotata di un potere militare massiccio, unito ad una ben dimostrata intenzione di farne uso.
Perciò, una tale potenza potrebbe davvero essere considerata affidabile per quel che riguarda l'auto-
repressione dei propri sforzi di ricerca? Ed anche se così fosse, sarebbe da considerarsi affidabile
per il mantenimento di una interminabile e onnipresente vigilanza sul mondo intero? In caso
contrario, è molto probabile che la minaccia emerga in segreto, e per di più in un mondo nel quale
gli sforzi aperti verso gli scudi attivi sono stati prevenuti. Il probabile risultato sarebbe il disastro.

La potenza militare nelle democrazie comporta grandi benefici, ma da sola essa non risolve i nostri
problemi. Non possiamo acquisire sicurezza attraverso una strategia di conquista e di repressione
della ricerca.

Queste strategie per arrestare la ricerca, siano esse basate sulla inazione personale, sulla inazione
locale, sulla negoziazione di accordi o sulla conquista del mondo, sembrano tutte destinate a fallire.
Eppure, l'opposizione ai progressi ha un suo ruolo da giocare, perché abbiamo bisogno di ritardi
selettivi intelligentemente diretti per posporre le minacce fino al momento in cui saremo davvero
preparati per affrontarle. Le pressioni degli attivisti allarmisti saranno essenziali, ma per aiutare il
progresso e non per arrestarlo.

Progresso Unilaterale

Se i tentativi di sopprimere le ricerche su IA e nanotecnologia appaiono futili e pericolosi, che dire


del corso di azione opposto, ossia uno sforzo di sviluppo completo e unilaterale? Anche questo
sforzo presenta dei problemi. Noi, in democrazia, probabilmente non possiamo produrre un grosso
passo avanti strategico in condizioni di perfetta segretezza. Troppa gente ne verrebbe coinvolta, e
per troppi anni. Poiché le dirigenze Sovietiche verrebbero a sapere dei nostri sforzi, le loro reazioni
sarebbero improntate su una ovvia preoccupazione, e tali dirigenze guarderebbero sicuramente ad
un grosso passo avanti tecnologico in termini di una grossa minaccia. Se la nanotecnologia fosse
sviluppata come parte di un programma militare segreto, gli analisti del loro servizio di spionaggio
temerebbero lo sviluppo di un armamentario sottile e decisivo, probabilmente basato su "germi"
programmabili. In base alle circostanze, i nostri opponenti potrebbero scegliere di sferrare un
attacco a freddo. E' importante che le democrazie mantengano la supremazia su queste tecnologie,
ma saremo più sicuri se potremo in qualche maniera combinare questa forza con delle politiche
inequivocabilmente non minacciose.

Equilibrio di Potere

Se perseguiamo una qualunque delle strategie delineate fino ad ora, inevitabilmente scateniamo dei
forti conflitti. I tentativi di reprimere nanotecnologia e IA, getteranno nell'arena i desideri dei
repressori contro gli interessi vitali dei gruppi di ricerca, delle istituzioni militari e dei pazienti
bisognosi di assistenza medica. I tentativi di conquistare un vantaggio unilaterale per mezzo di
queste tecnologie getteranno nell'arena le democrazie cooperative contro gli interessi vitali dei
nostri avversari. Tutte le strategie scateneranno conflitti, ma è proprio inevitabile che tutte le
strategie vadano a dilaniare così pesantemente le società occidentali o il mondo?

Per cercare una via di mezzo potremmo tentare di raggiungere un equilibrio di potere basato su un
equilibrio tecnologico. Ciò potrebbe apparentemente estendere una situazione che ha costituito una
misura pacificatrice per quattro decadi. Ma la parola chiave qui è "apparentemente": i prossimi
passi avanti tecnologici saranno troppo bruschi e destabilizzanti perché possa continuare il vecchio
equilibrio. In passato, una nazione poteva soffrire di un ritardo tecnologico di diversi anni e tuttavia
poteva ancora mantenere un approssimativo equilibrio militare rispetto ai suoi avversari. Con i
replicatori rapidi o con l'IA avanzata, un ritardo di un singolo giorno potrebbe risultare fatale. Un
equilibrio stabile sembra troppo improbabile per sperarci.

Sviluppo Cooperativo

In linea di principio, esiste un modo di assicurare un equilibrio tecnologico fra le democrazie


cooperative ed il blocco Sovietico: potremmo sviluppare cooperativamente le tecnologie,
condividendo i nostri strumenti e le nostre informazioni. Nonostante tutto ciò presenti degli ovvi
problemi, rappresenta quantomeno qualcosa di più pratico da perseguire di quel che potrebbe
intuitivamente sembrare.
E' possibile negoziare la cooperazione? Vengono subito in mente tentativi falliti di negoziare
controlli efficaci sulle minacce legate agli armamenti, e rispetto a tali tentativi la cooperazione
potrebbe sembrare ancora più complicata e difficile da impostare. Ma è proprio così? Nel controllo
degli armamenti, ogni parte sta tentando di ostacolare le azioni delle altre parti; ciò rafforza la
relazione antagonista fra le due parti. Inoltre, ciò scatena conflitti all'interno di ogni fazione, fra
gruppi in favore della limitazione delle armi e gruppi che esistono per costruire armi. E, cosa ancor
peggiore, i negoziati ruotano attorno alle terminologie e ai loro significati, ma ogni parte ha il suo
proprio linguaggio ed un certo interesse a manipolare i significati per adattarli ai propri interessi.

La cooperazione, al contrario, coinvolge entrambe le parti nell'operare verso una meta comune; e
questo tende a diradare la natura antagonista della relazione. Inoltre, essa potrebbe attenuare i
conflitti fra fazioni interne alle due parti, poiché gli sforzi di cooperazione creerebbero progetti,
invece di distruggerli. Infine, entrambe le parti discuterebbero i loro sforzi in un linguaggio
comune, il linguaggio della matematica e dei diagrammi impiegati in scienza e in ingegneria. E poi,
la cooperazione produce risultati visibili e ben delineati. Nella metà degli anni '70, Stati Uniti e
Unione delle Repubbliche Sovietiche volarono in una missione spaziale congiunta ed, almeno fino
al momento in cui non si svilupparono nuove tensioni politiche, esse stavano elaborando dei
tentativi di pianificazione congiunta per una stazione spaziale comune. Questi episodi non
rappresentavano degli isolati accidenti, sia nello spazio che al suolo; i progetti congiunti e gli
scambi tecnici hanno avuto luogo per anni. Nonostante tutti i problemi che la cooperazione
comporta, essa si è dimostrata almeno altrettanto facile del controllo degli armamenti, e forse
persino più facile se si considera il grande sforzo profuso in quest'ultimo.

Paradossalmente, dove siano coinvolte IA e nanotecnologia, l'approccio cooperativo ed il controllo


efficace degli armamenti dovrebbero essere caratterizzati da una rassomiglianza di base. Verificare
un accordo sul controllo degli armamenti richiede una costante e approfondita ispezione, condotta
da esperti di una delle due parti nei laboratori dell'altra parte: una relazione altrettanto stretta quanto
la più completa cooperazione immaginabile.

Ma come potrebbe attuarsi la cooperazione? Essa potrebbe assicurare l'equilibrio ma l'equilibrio


non assicura la stabilità. Se due pistoleri si fronteggiano l'uno contro l'altro, ognuno con le armi
spianate e la tensione alta, la loro potenza è equilibrata, ma quello che spara per primo può
eliminare la minaccia costituita dall'altro. Uno sforzo cooperativo teso allo sviluppo tecnologico che
manchi di una accurata pianificazione ed un accurato controllo, doterebbe ognuna delle due parti di
armi spaventose, mentre al contempo non fornirebbe nessuna delle due parti di uno scudo contro di
esse. Chi potrebbe dirsi sicuro che nessuna delle due parti troverà la maniera di sferrare in piena
impunità un attacco disarmante contro l'altra parte?

Ed anche se si potesse garantire ciò, che dire del problema di altri poteri - oppure che dire della
minaccia potenziale posta da appassionati dilettanti o da incidenti casuali?

Nell'ultimo capitolo ho descritto una soluzione per questi problemi: ossia sviluppo, collaudo e
costruzione di scudi attivi. Essi, ci offrono un rimedio nuovo per un problema nuovo, e nessuno ha
ancora avanzato suggerimenti per una valida alternativa a questo tipo di difese. Finché qualcuno
non lo farà, sembrerebbe saggio ragionare su come andrebbero costruiti gli scudi attivi, e se questi
possano rendere possibile una strategia in grado di funzionare.

Una Sintesi di Strategie

Restrizioni personali, azione locale, ritardo selettivo, accordo internazionale, potere unilaterale e
cooperazione internazionale: tutte queste strategie possono esserci di aiuto nell'impresa di
sviluppare scudi attivi.

Consideriamo la nostra situazione odierna. Le democrazie hanno, per decadi, guidato il mondo
nella maggior parte delle aree della scienza e della tecnologia; oggi siamo in testa in campi come il
software per computer e le biotecnologie. Tutte assieme, costituiamo la forza dominante. Non
sembra esserci alcuna ragione per la quale non dovremmo conservare questa supremazia e
sfruttarla.

Come discusso nell'ultimo capitolo, la forza dominante sarà in grado di utilizzare svariate tattiche
per gestire il rivoluzionario passo avanti tecnologico degli assemblatori. Queste tattiche includono
l'impiego di laboratori sigillati per assemblatori, limitazioni sugli stessi assemblatori sviluppati, ed
il mantenimento della segretezza sui dettagli dello sviluppo iniziale degli assemblatori. Mentre
beneficiamo dei frutti, grazie a queste (ed altre) politiche, potremo lavorare allo sviluppo di scudi
attivi in grado di garantirci una protezione permanente contro i nuovi pericoli. Questo definisce una
meta. Per raggiungerla, una strategia composta da due parti sembra essere la migliore.

La prima parte implica un'azione interna alle stesse democrazie cooperative. Abbiamo bisogno di
mantenere una supremazia che sia sufficientemente rassicurante da procedere con cautela; se
avvertissimo che potremmo perdere la corsa, potrebbe anche accaderci di entrare in una condizione
di pieno panico. Procedere con cautela significa sviluppare istituzioni affidabili per gestire sia passi
avanti tecnologici iniziali, che lo sviluppo di scudi attivi. Gli scudi attivi che svilupperemo, a loro
volta, dovranno essere progettati per aiutarci ad assicurare un futuro in cui valga la pena di vivere,
un futuro con spazio per la diversità.

La seconda parte di questa strategia coinvolge politiche riguardanti le potenze che ci sono
attualmente ostili. A questo proposito, il nostro scopo dovrà essere quello di mantenere l'iniziativa,
minimizzando contemporaneamente la minaccia che costituiamo per gli altri. L'equilibrio
tecnologico non funziona, e non possiamo permetterci di cedere la nostra posizione di dominanza.
Questo ci lascia esclusivamente la forza e la supremazia come unica nostra scelta realmente
possibile, il che rende doppiamente difficile adottare un atteggiamento che non costituisca minaccia.
Ecco, ancora una volta, che necessitiamo di istituzioni stabili ed affidabili: se potessimo dotarle di
una grande inerzia innata per quel che riguarda i loro obiettivi, allora forse persino i nostri avversari
riporrebbero un certo grado di fiducia in esse.
Per rassicurare i nostri antagonisti (e noi stessi!) queste istituzioni dovrebbero essere tanto più
aperte quanto è possibile (2), in modo consistente con la loro missione. Potremmo adoperarci per
costruire istituzioni che offrano un ruolo alla collaborazione Sovietica. Invitandoli alla
partecipazione, anche se essi dovessero rifiutare i termini da noi proposti, offriremmo un certo
grado di rassicurazione sulle nostre reali intenzioni. Se i Sovietici accettassero, essi potrebbero
conquistarsi una loro quota di merito nel raggiungimento del nostro successo congiunto.

Ed ancora, se le democrazie saranno forti nel momento in cui i passi avanti tecnologici si
avvicineranno, e se eviteremo di minacciare il controllo di qualsiasi altro governo sul suo stesso
territorio, i nostri avversari probabilmente non vedranno nessun vantaggio nell'attaccarci. In tal
modo, potremo presumibilmente fare a meno anche della cooperazione, se ciò sarà necessario.

Scudi Attivi contro Armi Spaziali

Potrebbe essere utile considerare come potremmo applicare l'idea degli scudi attivi in campi più
convenzionali. Per tradizione, la difesa ha richiesto armi che fossero impiegabili per l'offesa. Questa
è una ragione per cui "difesa" è diventata sinonimo di "capacità di ingaggiare guerra" e per cui gli
sforzi di "difesa" danno agli avversari motivo di temere. Le difese spaziali che sono state proposte
di recente sono appunto una estensione di questo schema. Quasi qualunque sistema difensivo che
possa distruggere dei missili in attacco potrebbe anche distruggere le difese di un avversario, o
rappresentare un ostacolo spaziale che previene un avversario anzitutto dal costruire le sue "difese".
Delle "difese" così fatte puzzano di offesa, come devono appunto apparire per poter svolgere il loro
compito. Ed ecco che la corsa agli armamenti si incammina, per sua stessa natura, verso un'altra
impennata pericolosa.
Difesa ed offesa devono proprio essere così inseparabili? La storia sembra confermarlo. Le mura
possono fermare gli invasori sono se sono difese da soldati, ma i soldati possono a loro volta
marciare per invadere altri territori. Quando immaginiamo un'arma, naturalmente immaginiamo
mani umane a puntarla (3) e capricci umani a decidere quando far fuoco; e la storia ci ha insegnato
a temere il peggio.
E tuttavia oggi, per la prima volta nella storia, abbiamo imparato come costruire sistemi difensivi
radicalmente diversi da questo tipo di armi. Consideriamo un esempio basato sullo spazio. Al
momento possiamo progettare dispositivi che "sentono" (guarda, un migliaio di missili che sono
stati appena stati lanciati), "valutano" (sembra un tentativo di sferrare un attacco per primi!) ed
"agiscono" (proviamo a distruggere quei missili!). Se un sistema aprisse il fuoco solo contro un
massiccio volo di missili, non potrebbe mai essere impiegato per l'offesa o per realizzare un
ostruzionista assedio spaziale. Ancora meglio, potrebbe essere reso incapace di discriminare quale
sia la parte sta attaccando. Sebbene serva gli interessi strategici dei suoi costruttori, non sarebbe
soggetto agli ordini giorno per giorno di alcun generale. Verrebbe semplicemente a dar vita ad un
ambiente pericoloso per un missile attaccante. Come un mare o una catena di montagne nelle guerre
passate, essa non minaccerebbe nessuna delle due parti mentre costituirebbe per ognuna una
protezione dall'altra (4).

Sebbene un tale sistema difensivo sfrutterebbe le stesse tecnologie delle armi (sensori, tracciatori,
laser, proiettili auto-guidati, e così via), questo sistema di difesa non sarebbe un sistema
d'armamenti, poiché il suo ruolo sarebbe fondamentalmente diverso. Sistemi di questo tipo hanno
bisogno di un nome che li distingua: essi sono, di fatto, una sorta di scudo attivo, un termine con cui
si può descrivere un sistema automatico o semiautomatico progettato perché possa proteggere senza
minacciare. Difendendo entrambe le parti, ma al contempo senza minacciarle, gli scudi attivi
potrebbero indebolire l'anello vizioso della corsa agli armamenti.

Le questioni tecniche, economiche e strategiche sollevate dagli scudi attivi sono complesse e,
nell'era pre-assemblatori, potrebbero o meno essere risolte in modi praticabili. Se queste soluzioni
saranno praticabili, esisteranno allora diversi possibili approcci verso la loro attuazione. In uno di
questi approcci, le democrazie cooperanti costruirebbero scudi attivi unilateralmente. Per mettere in
grado altre nazioni di verificare ciò che il sistema potrà e (cosa più importante) non potrà fare,
potremmo autorizzare ispezioni multilaterali su progetti chiave, componenti, e passi di produzione.
Così facendo non daremo via tutte le tecnologie coinvolte, perché sapere cosa non equivale a sapere
come. Secondo un altro approccio, invece, potremmo costruire congiuntamente gli scudi, limitando
il trasferimento di tecnologie al minimo indispensabile (5) richiesto dalla cooperazione e dalla
necessità di verifica dei limiti dei sistemi (utilizzando i principi discussi nelle note).

Abbiamo molta più possibilità di mettere al bando le armi spaziali di quanta possibilità abbiamo di
mettere al bando la nanotecnologia, e questa potrebbe anche essere la maniera migliore di
minimizzare i nostri rischi sul breve termine. Nella scelta di una strategia sul lungo termine per il
controllo della corsa agli armamenti, tuttavia, dobbiamo considerare ben più che il prossimo passo.
L'analisi che ho delineato in questo capitolo suggerisce che gli approcci tradizionali al controllo
sugli armamenti, basati sulla negoziazione di limitazioni verificabili, non può adattarsi alla
nanotecnologia. Se è proprio questa la situazione, abbiamo bisogno di sviluppare approcci
alternativi. Gli scudi attivi, che sembrano indispensabili, potrebbero infine offrire una nuova e
stabilizzante alternativa ad una corsa degli armamenti nello spazio. Esplorando questa alternativa,
esploreremo le problematiche di base comuni a tutti gli scudi attivi (6). Se svilupperemo gli scudi
attivi spaziali, guadagneremo esperienza e costruiremo degli accordi istituzionali, due cose che, in
seguito, potrebbero dimostrarsi essenziali per la nostra sopravvivenza.

Le difese attive sono una nuova opzione basata su una nuova tecnologia. Renderle funzionanti
richiede una creativa sintesi interdisciplinare di idee ingegneristiche, di strategia e di diplomazia
internazionale. Esse offrono opportunità inedite che potrebbero metterci in grado di uscire dai
vecchi vicoli ciechi. Apparentemente offrono una risposta all'antico problema di proteggere senza
minacciare, sebbene non una facile risposta.

Potere, Malvagità, Incompetenza ed Indolenza

Ho tracciato uno scenario per descrivere come nanotecnologia ed IA avanzata metteranno un


grande potere nelle mani della forza dominante, potere che può essere usato per distruggere la vita o
per estenderla ed affrancarla. Poiché non possiamo arrestare queste tecnologie, sembra che in
qualche maniera dobbiamo farvi fronte, per superare l'emergenza di una grande concentrazione di
potere più grande di qualunque altra mai vista prima nella storia.
Abbiamo bisogno di un sistema di istituzioni adeguate. Per gestire tecnologie complesse in tutta
sicurezza, questo sistema deve disporre di modi per giudicare i fatti rilevanti. Per gestire un grande
potere in tutta sicurezza, esso deve includere efficaci meccanismi di controllo e riequilibratura, e i
suoi scopi e metodi devono mantenersi aperti allo scrutinio pubblico. Infine, poiché esso ci aiuterà a
porre le fondamenta di un mondo nuovo, sarà meglio che sia guidato dai nostri comuni interessi,
all'interno di una infrastruttura di principi plausibili.

Non partiremo da zero; costruiremo sulle istituzioni che già abbiamo. Alla fine, esse ci appariranno
diverse. Non tutte le nostre istituzioni sono delle burocrazie insediate in grigi edifici; esistono anche
istituzioni diffuse e vitali come la libera stampa, le comunità di ricerca e le reti di attivisti. Queste
istituzioni decentralizzate ci aiutano a controllare le grigie macchine burocratiche.

Qui, in parte, abbiamo da fronteggiare una nuova versione dell'atavico e più generale problema di
limitare l'abuso di potere. Ciò non rappresenta una grande e fondamentale novità, e principi vecchi
di secoli, assieme a istituzioni di democrazia liberale, suggeriscono come tale problema potrebbe
venir risolto. I governi democratici possiedono già il potere fisico di far esplodere i continenti
nonché di rapire, imprigionare e uccidere i propri cittadini. Ma possiamo convivere con queste
capacità perché questi governi sono piuttosto docili e stabili.

I prossimi anni caricheranno le nostre istituzioni di ben più pesanti fardelli. I principi del governo
di rappresentanza, della libertà di parola, della condotta processuale, del ruolo della legge e della
protezione dei diritti umani, resteranno cruciali. Per prepararsi ai nuovi fardelli, abbiamo bisogno di
estendere e rinvigorire questi principi e le istituzioni che li supportano; la protezione della libertà di
parola riguardo argomenti tecnici potrebbe risultare cruciale. Nonostante abbiamo di fronte una
grande sfida, c'è ragione di sperare che possiamo misurarci con essa.

Naturalmente ci sono anche ovvie ragioni per dubitare che davvero si riesca a misurarsi con tale
sfida. Ma la disperazione è contagiosa e detestabile, e lascia la gente depressa. Per altro, la
disperazione appare ingiustificata, a dispetto di ben noti problemi: Malvagità - siamo troppo perfidi
per fare la cosa giusta? Incompetenza - siamo troppo stupidi per fare la cosa giusta? Indolenza -
siamo troppo pigri per preparaci?

Sebbene sarebbe troppo avventato prevedere un futuro roseo, questi problemi non sembrano
insormontabili.

I governi democratici sono grandi e caotici, e talvolta anche responsabili di atrocità, eppure non
sembrano malvagi, considerati nel complesso, nonostante possano contenere uomini che meritano
di essere etichettati come tali. Di fatto, i loro capi conquistano il potere in gran parte grazie
all'apparente sostegno di convenzionali idee di benignità. Il nostro pericolo principale è che le
politiche che sembrano benigne possono condurre al disastro, oppure che delle politiche realmente
benigne non siano concepite, divulgate e realizzate in tempo per risultare efficaci. Le democrazie
soffrono molto più di indolenza ed incompetenza che non di malvagità.

L'incompetenza, naturalmente, sarà inevitabile, ma dovrà anche essere inevitabilmente fatale? Noi
esseri umani siamo per nostra natura stupidi ed ignoranti, sebbene talvolta operiamo per combinare
assieme i nostri frammenti di competenza e conoscenza al fine di realizzare grandi cose. Nessuno
conosce come arrivare fino alla Luna, e nessuno lo ha mai imparato, e tuttavia una dozzina di
persone hanno passeggiato sulla sua superficie. Abbiamo raggiunto vari successi in ambiti tecnici
perché abbiamo imparato a costruire istituzioni che attirano molte persone per lavorare assieme alla
generazione e verifica sperimentalmente delle idee. Queste istituzioni guadagnano affidabilità per
mezzo della ridondanza, e la qualità dei loro risultati dipende in larga misura da quanta attenzione
dedichiamo e quanto duramente lavoriamo. Quando concentriamo attenzione e risorse a sufficienza
sulla affidabilità, spesso otteniamo dei successi. Questo è il motivo per cui le missioni Lunari sono
riuscite senza alcun incidente nello spazio, ed anche il motivo per cui nessuna arma nucleare è stata
lanciata o detonata accidentalmente. E questo è il motivo per cui potremmo riuscire a gestire la
nanotecnologia e l'IA, se verrà posta una attenzione sufficiente per assicurare di lavorare con esse in
maniera competente. Persone eccentriche e competenze limitate possono unirsi per formare
istituzioni stabili e competenti.

L'indolenza, sia intellettuale che morale, o anche fisica, sembra forse il nostro pericolo più grande.
Possiamo misurarci con le grandi sfide solo grazie a grandi sforzi. Ci saranno abbastanza persone
che si impegneranno in sforzi sufficienti? Nessuno può dirlo, perché nessuno può parlare per
chiunque altro. Ma il successo non richiede una illuminata mobilitazione improvvisa e universale.
Esso richiede solo una crescente comunità di persone impegnata nello sviluppo, divulgazione e
realizzazione di soluzioni funzionanti, e che queste persone ottengano un successo di entità
crescente.

Ciò non è poi così implausibile. Le preoccupazioni riguardo la tecnologia sono divenute diffuse in
tutto il mondo, così come l'idea che l'accelerazione del cambiamento richiederà una preveggenza
migliore. La pigrizia non stringe tutti nella sua morsa, e l'esistenza di qualche pensatore fuorviato
non riesce comunque a deviare verso una strada sbagliata gli sforzi di chiunque. Le mortali pseudo-
soluzioni (come quella della repressione della ricerca) perderanno la battaglia delle idee se
esisteranno persone a sufficienza che le screditeranno. E nonostante abbiamo di fronte una grande
sfida, il successo renderà possibile il compimento di grandi sogni. Grandi speranze e paure possono
smuovere abbastanza gente da mettere in grado la razza umana di conquistarsi una vittoria assoluta.

Preoccupazione appassionata ed azione, non saranno sufficienti; abbiamo anche bisogno di


politiche sensate. E ciò richiede ben più che buone intenzioni e chiari obiettivi: dobbiamo anche
mantenere traccia delle connessioni fra i fatti del mondo, affinché si possa mettere in relazione
quello che facciamo con quello che effettivamente otteniamo. All'approssimarsi di una crisi
tecnologica di complessità senza precedenti, ha senso provare a migliorare le nostre istituzioni per
giudicare fatti tecnici importanti. In che altro modo potremmo guidare la forza dominante e
minimizzare la minaccia terminale della nostra incompetenza?

Le istituzioni evolvono. Per evolvere istituzioni che siano migliori nello scovare i "fatti", dobbiamo
copiare, adattare ed estendere i nostri successi passati. Tali successi includono la stampa libera, la
comunità scientifica ed i tribunali. Essi, hanno tutti i loro meriti, ed alcuni di questi meriti possono
essere combinate assieme.

Capitolo 13: Scoprire i fatti

Un Caos di Esperti
Dalle Fazioni al Giusto Processo
Un Approccio
Perché Non un Giusto Processo?
Costruire un Giusto Processo

La paura non può essere bandita, ma può essere quieta e senza panico; e può essere mitigata dalla
ragione e dalla valutazione.
- VANNEVAR BUSH

La società ha bisogno di modi migliori per comprendere la tecnologia, e ciò è ovvio da tempo. Le
sfide che ci attendono rendono semplicemente più urgente il nostro bisogno.
Le promesse della tecnologia ci lusingano in anticipo, e la pressione della competizione rende
virtualmente impossibile arrestarci. Mano a mano che la corsa tecnologica accelera, nuovi sviluppi
ci sfrecciano davanti sempre più veloci, ed è più probabile che si generi qualche equivoco fatale.
Abbiamo bisogno di creare un migliore equilibrio fra la nostra capacità di previsione e la nostra
velocità di progresso. Non possiamo fare molto per rallentare la crescita della tecnologia, ma
possiamo accelerare la crescita della previsione. E con una previsione migliore, avremo una
migliore possibilità di imporre una virata alla corsa tecnologica, per dirigerla verso direzioni sicure.

Sono stati proposti molti approcci per guidare la tecnologia. "La gente deve controllare la
tecnologia" è uno slogan convincente ma ha due possibili significati. Se significa che dobbiamo
produrre tecnologia al servizio dei bisogni umani è uno slogan di buon senso. Ma se significa che la
gente, nella sua globalità, deve prendere decisioni tecnologiche, diventa uno slogan davvero poco
sensato. L'elettorato non può giudicare gli intricati legami fra tecnologia, economia, ambiente, e
vita; la gente manca della necessaria conoscenza. E su questo è la gente stessa a concordare: in base
ad una indagine della U.S. National Science Foundation (1), l'85 percento degli adulti statunitensi
crede che la maggior parte dei cittadini manchi della conoscenza necessaria a scegliere quali
tecnologie sviluppare. Il pubblico generalmente delega i giudizi tecnici a tecnici esperti.

Sfortunatamente, lasciare il giudizio agli esperti causa problemi. In Advice and Dissent (2),
Primack e von Hippel fanno notare che "le dimensioni della Amministrazione possono avere come
conseguenza il silenzio in cui vengono tenute certe informazioni scomode e la confusione in cui
viene mantenuto il pubblico; il benessere pubblico può essere sacrificato impunemente alla
convenienza delle burocrazie e al guadagno privato". I legislatori subiscono più critiche quando un
nuovo farmaco provoca una sola morte, di quelle che ricevono quando l'assenza di un nuovo
farmaco causa un migliaio di morti. E mal legiferano di conseguenza. I burocrati militari hanno
tutto l'interesse nello spendere denaro nascondendo gli errori e portando avanti i loro progetti. Essi,
di conseguenza, perseguono una cattiva gestione. Questo tipo di problema è così basilare e naturale
che difficilmente servono esempi ulteriori. Ovunque, segretezza e nebulosità, fanno sentire più a
loro agio i burocrati; ovunque, la convenienza personale deforma le affermazioni riguardanti i fatti
di pubblico interesse. Mano a mano che la tecnologia cresce in complessità ed importanza, la
pericolosità associata a questa tendenza cresce.
Alcuni autori considerano virtualmente inevitabile la necessità di un governo formato da tecnocrati
riservati. In Creating Alternative Futures, Hazel Henderson (3) argomenta che le tecnologie
complesse "diventano intrinsecamente totalitarie" poichè nessun elettore o legislatore può
comprenderle. In The Human Future Revisited, Harrison Brown analogamente arguisce (4) che la
tentazione di scavalcare i processi democratici quando si cerchi una soluzione a crisi complesse,
comporta il pericolo che "se la civiltà industriale sopravvive alla crisi finirà per acquisire, a ritmo
crescente, una natura totalitaria". Stando davvero così le cose, ciò potrebbe probabilmente
significare il nostro disastro: non possiamo fermare la corsa tecnologica, ed un mondo di stati
totalitari basati su tecnologia avanzata, che non abbia bisogno ne di lavoratori ne di soldati,
potrebbe anche sbarazzarsi della maggior parte della popolazione.

Fortunatamente, democrazia e libertà hanno già prima d'ora affrontato sfide comparabili a questa.
Gli stati sono cresciuti fino ad una complessità troppo grande per una democrazia diretta, per cui si
sono evoluti i governi "rappresentativi". Il potere dello stato minacciava di schiacciare la libertà, ma
si sono evolute le regole legislative. La tecnologia è cresciuta fino ad una complessità troppo
grande, ma questo non ci da nessuna ragione per ignorare la gente, o per disfarci delle leggi ed
acclamare un dittatore. Abbiamo bisogno di modi per maneggiare la complessità tecnica in un
contesto democratico, usando gli esperti come strumenti per chiarire la nostra visione senza mettere
nelle loro mani il controllo delle nostre vite. Ma gli esperti tecnici odierni sono impantanati in un
sistema di conflitti fra fazioni.
Un Caos di Esperti

Governo ed industria, ed i loro critici, spesso nominano comitati di esperti che si incontrano in
segreto, o addirittura non si incontrano affatto. Questi comitati si auto-attribuiscono una credibilità
che si basa su quali siano le persone componenti, non su come esse lavorino. Gruppi che
compongono fazioni in reciproca opposizione, scelgono di reclutare Premi Nobel in faziosa
opposizione di idee.

Per conquistarsi influenza nella nostra democrazia di massa, i gruppi provano a silurarsi l'uno con
l'altro. Quando i loro punti di vista abbiano una attrattiva corporativa, li propongono al pubblico
tramite campagne di informazione pubblicitarie. Quando i loro punti di vista abbiano la possibilità
di ottenere il supporto di finanziamenti governativi, essi li propongono ai legislatori per mezzo di
opportune pressioni. Quando i loro punti di vista possiedano un drammatico potenziale di appello, li
propongono al pubblico tramite campagne di informazione sui media. I gruppi reclamizzano i loro
esperti preferiti, la battaglia diventa pubblica, e pacifici scienziati ed ingegneri vengono travolti dal
clamore risultante.

Mano a mano che il conflitto pubblico si gonfia, la gente comincia a dubitare dei pronunciamenti
degli esperti. Giudica le loro affermazioni nel modo più ovvio: in base alla loro sorgente ("Naturale
che dichiari che le estrazioni petrolifere non siano dannose - lavora per la Exxon"; "Naturale che
dica che la Exxon mente - lavora per Nader").

Quando esperti dimostrati perdono la loro credibilità, i demagoghi possono entrare in battaglia in
condizioni di parità. I cronisti, che smaniano di assistere a controversie e di rado sono guidati da
una pregressa formazione tecnica, nel tentativo di mostrarsi equi portano tutte le fazioni dritte
davanti al pubblico. Le caute affermazioni di scienziati scrupolosi suscitano scarsa impressione;
altri scienziati non vedono altra scelta che quella di adottare lo stile dei demagoghi stessi. Il
dibattito diventa tagliente e furioso, cresce la divisione, e il fumo della battaglia oscura i fatti.
Spesso ne segue la paralisi o l'assurdità.

Il nostro più grande problema è come gestiamo i problemi. Molti sono i dibattiti che infuriano sulla
sicurezza dell'energia nucleare, su quella delle centrali elettriche a carbone, e sui rifiuti chimici (5).
Gruppi dalle buone intenzioni e sostenuti da esperti di un certo nome, battono ripetutamente sempre
sugli stessi stupidi fatti, stupidi in tutto eccetto che nella loro importanza: Quali sono gli effetti di
un basso livello di radioattività, e quanto probabile è la fusione e lo sprofondamento nel sottosuolo
del reattore nucleare? Quali sono le cause e gli effetti delle piogge acide? Quanto bene potrebbero
funzionare dei sistemi di difesa spaziali concepiti per bloccare attacchi missilistici? Cinque casi di
leucemia entro tre miglia da una discarica di rifiuti dimostrano l'esistenza di un rischio mortale o
sono puramente opera del caso?

Davanti a noi, argomenti di discussione ancora più grandi ci attendono: Quanto sono sicuri i
replicatori? Questi sistemi di scudi attivi sono prudenti e sicuri? Questa procedura di biostasi è
reversibile? Possiamo fidarci dei sistemi di Intelligenza Artificiale?

Le dispute su fatti tecnici alimentano dispute più estese sulla politica. Le persone potrebbero
credere in valori differenti (Cosa sarebbe preferibile avere, encefaliti o avvelenamento da pesticidi?)
ma i loro punti di vista su quali siano i fatti rilevanti spesso differiscono ancora di più (Con quale
frequenza questa zanzara veicola l'encefalite? Quanto è tossico questo pesticida?). Quando punti di
vista differenti su fatti noiosi conducono al disaccordo su politiche importanti, la gente potrebbe
meravigliarsene: "Come è possibile che si oppongano a noi su una questione tanto vitale senza che
lo facciano in malafede?". Le dispute riguardo i fatti possono in tal modo mettere l'uno contro l'altro
degli alleati potenziali (6). E ciò ostacola i nostri sforzi di comprendere e risolvere i problemi.
La gente ha disputato sui fatti per millenni; soltanto la recente predominanza di dispute su
argomenti tecnici è nuova. Le società hanno evoluto metodi per giudicare i fatti di pubblico
interesse. Questi metodi suggeriscono come dovremmo giudicare i fatti riguardanti la tecnologia.

Dalle Fazioni al Giusto Processo

Lungo tutta la storia, i gruppi hanno evoluto modi di risoluzione delle dispute; l'alternativa è stata
la creazione di contese del tutto chiuse e spesso mortali. Gli europei del medioevo usavano vari
metodi di risoluzione delle dispute, tutti invariabilmente migliori delle eterne contese.

Usavano provare a cimentarsi in battaglia: gli opponenti lottavano, e la legge dava ragione al
vincitore.
Usavano la compurgazione: i vicini, sotto giuramento, testimoniavano l'onestà dell'accusato; e se
esistevano sufficienti testimonianze, l'accusa decadeva.

Usavano affidarsi al giudizio divino: in un esempio di tali prove, l'accusato veniva legato e gettato
in un fiume; se affondava era innocente, e colpevole se galleggiava. Usavano in giudizio espresso
da comitati riservatissimi: il concilio reale si incontrava per giudicare e approvare la sentenza che
gli pareva più adatta. In Inghilterra, un tale concilio si riuniva in una stanza denominata Star
Chamber.

Questi metodi presumibilmente determinavano chi faceva cosa, ossia i fatti riguardanti gli eventi
umani: Ma il tutto era accompagnato da seri inconvenienti. Oggi usiamo modi analoghi di
determinare "cosa provoca cosa", ossia per determinare i fatti riguardanti scienza e tecnologia.

Usiamo provare a cimentarci in combattimento sulla stampa. Gli oppositori lanciano parole
sferzanti contro la causa dell'altra parte, danneggiandola politicamente. Sfortunatamente, questo
assomiglia fin troppo spesso ad una contesa infinita.

Usiamo la compurgazione: gli esperti giurano su certi fatti; se abbastanza di questi esperti giurano
sugli stessi fatti, i fatti vengono dichiarati veri.

Usiamo il giudizio di comitati riservati: esperti selezionati si incontrano per giudicare i fatti e
raccomandare azioni che sembrano loro appropriate. Negli Stati Uniti, essi spesso si riuniscono in
comitati della National Academy of Sciences.

Affidarsi al giudizio divino sembra essere invece passato di moda, ma i combattimenti a mezzo
stampa sembrano proprio come torture inflitte a tranquilli scienziati dotati di rispetto per se stessi.
L'Inghilterra ha abolito i procedimenti della Star Chamber nel 1641, considerando tale abolizione
una grande conquista. Le contese tramite combattimento, compurgazione, e giudizio divino sono
analogamente divenute storia. Oggi diamo valore a un giusto processo, quanto meno quando
giudichiamo la gente.
Le procedure dei tribunali illustrano i principi di un giusto processo: le asserzioni devono essere
specifiche. Entrambe le parti devono avere una possibilità di parlare e di confrontarsi apertamente
con l'altra parte, nonché di confutare le asserzioni e di sottoporle ad esame incrociato. Il processo
deve essere pubblico, al fine di prevenire una sua corruzione occulta. Il dibattito deve anzitutto
condurre alla scelta di una giuria la cui imparzialità sia riconosciuta da entrambe le parti. Infine, un
giudice deve arbitrare il processo ed imporre l'osservanza delle regole.

Per vedere quale sia il valore di un giusto processo immaginate il suo opposto: un processo che
calpesti tutti questi principi darebbe la parola ad una parte e nessuna possibilità di un esame
incrociato o di risposta all'altra parte. Esso si condurrebbe in segreto, permetterebbe diffamazioni
vaghe e sarebbe privo di un giudice che faccia rispettare quelle poche leggi che potrebbero essere
sopravvissute. I giurati verrebbero convocati avendo già pronta la loro decisione. In breve, esso
assomiglierebbe ad un linciaggio popolare eseguito in un capannone serrato - o all'allestimento di
un comitato per la stesura di una relazione.

L'esperienza mostra il valore di un giusto processo per giudicare i fatti riguardanti le persone;
potrebbe tale esperienza essere di qualche validità anche nel giudicare fatti riguardanti scienza e
tecnologia? Quella del "giusto processo" è una idea basilare non limitata ai tribunali di legge. Ad
esempio, alcuni ricercatori nel campo dell'Intelligenza Artificiale (7) stanno costruendo, per i loro
programmi per computer, dei principi che mettano tali programmi in grado di produrre giudizi
corretti. Pare quindi che un "giusto processo" dovrebbe essere utile per giudicare i fatti tecnici.

Infatti, la letteratura scientifica - il forum principale della scienza - incorpora già una forma di
giusto processo: nei buoni giornali, le affermazioni scientifiche devono essere specifiche. In teoria,
dato un tempo sufficiente e una certa perseveranza, in una disputa tutte le parti potrebbero
dichiarare i loro punti di vista, poiché i giornali restano aperti alla controversia. Sebbene gli
avversari potrebbero anche non incontrarsi mai faccia a faccia, essi si confrontano l'uno contro
l'altro a distanza; Essi domandano e rispondono, a ritmi lenti, tramite lettere ed articoli. Gli arbitri,
come le giurie, valutano le dimostrazioni ed i ragionamenti. Gli editori, come i giudici, fanno
rispettare le regole della procedura. Le pubblicazioni mantengono il dibattito totalmente aperto al
pubblico scrutinio.

Sia nei giornali che nei tribunali, le idee in conflitto vengono illustrate e confrontate l'una contro
l'altra, sulla base di regole evolutesi per assicurare un combattimento equo e regolato. Tali regole a
volte falliscono, poiché vengono violate o perché sono di per sé inadeguate, ma esse sono tuttora le
migliori che abbiamo sviluppato. La conduzione imperfetta di un giusto processo si è dimostrata in
ogni caso migliore della assenza totale di un giusto processo.

Perché gli scienziati attribuiscono valore ai giornali arbitrati? Non perché essi credano a tutti i
giornali arbitrati, o perché credano a tutto ciò che viene scritto in ognuno di essi. Persino il miglior
sistema possibile per un giusto processo potrebbe non riuscire a spremere fuori un singolo rivolo di
autentica verità. Piuttosto, gli scienziati attribuiscono valore ai giornali arbitrati perché questi
tendono a mostrare l'esistenza di discussioni critiche sensate. Di fatto, i giornali devono farlo:
poiché competono l'uno contro l'altro per la carta, per il prestigio e per conquistarsi lettori, i giornali
migliori devono di fatto essere buoni. I giornali procedono lentamente e tuttavia dopo diversi gironi
di pubblicazioni e critiche, riescono a distillare un certo consenso generale.

L'esperienza mostra il valore sia dei tribunali che dei giornali. Le analogie che sono alla loro base,
suggeriscono che il loro valore derivi da una sorgente comune - ossia il "giusto processo". Un
giusto processo può anche fallire, ma è tuttora l'approccio migliore che conosciamo per scovare i
fatti.
Oggi, tribunali e giornali non sono sufficienti. Le dispute tecniche di importanza vitale continuano
ad andare avanti, poiché non abbiamo alcun metodo rapido e regolato di estrapolarne i fatti (e
delimitare la nostra ignoranza). I tribunali non sono adatti a trattare con questioni tecniche. In
questo, i giornali sono migliori dei tribunali, ma sono comunque non privi di inconvenienti. Essi si
sono sviluppati in tempi di tecnologia più arretrata, ed evoluti per adattarsi ai limiti del processo di
stampa, alla velocità della posta e alle necessità della scienza accademica. Ma oggi, in un tempo in
cui avremmo disperatamente bisogno di giudizi tecnici migliori e più rapidi, ci troviamo in un
mondo in cui esistono i telefoni, gli aerei, le fotocopiatrici, la posta espresso e la posta elettronica.
Possiamo usare le tecnologie moderne per accelerare il dibattito tecnologico?
Naturalmente sì: gli scienziati sfruttano già diversi approcci. Gli aerei portano gli scienziati lungo
tutto il globo, per partecipare a conferenze in cui gli articoli vengono pubblicati e discussi. Ma le
conferenze gestiscono la controversia in modo molto carente; il decoro pubblico e le strette
programmazioni dei tempi limitano il vigore e la profondità del dibattito.

Gli scienziati si tengono in contatto anche tramite reti informali di ricerca, connesse tramite
telefono, posta, computer e macchine fotocopiatrici; questi mezzi accelerano lo scambio di
informazioni e la discussione. Ma essi sono essenzialmente istituzioni private. Ed inoltre, tali
istituzioni non riescono a fornire una procedura pubblica e credibile per appianare le differenze.

Le conferenze, i giornali e le reti di informazione, condividono alcune analoghe limitazioni. Esse


tipicamente si focalizzano sulle questioni tecniche di importanza scientifica, piuttosto che sulle
questioni tecniche di importanza rilevante per la politica pubblica. Per di più, di solito si focalizzano
esclusivamente su questioni puramente scientifiche. I giornali tendono a snobbare le questioni
tecniche che mancano di intrinseco interesse scientifico; essi spesso trattano tali questioni come
argomenti del tutto inediti, senza preoccuparsi di verificarli tramite arbitraggio. Ed in più, le nostre
attuali istituzioni mancano di qualsiasi modalità equilibrata per presentare la conoscenza nei casi in
cui essa sia legata a controversie. Sebbene alcuni articoli scientifici di rassegna spesso presentino e
soppesino idee diverse, lo fanno comunque dal punto di vista di un singolo autore.

Tutti questi inconvenienti condividono una comune sorgente: le istituzioni scientifiche si sono
evolute per far progredire la scienza, non per valutare i fatti a beneficio degli esecutori politici. Tali
istituzioni assolvono il loro scopo piuttosto bene, ma assolvono altri scopi in maniera piuttosto
misera. Nonostante ciò non costituisca un completo fallimento, resta insoddisfatta una necessità
reale.

Un Approccio

Abbiamo bisogno di procedure migliori per dibattere i fatti tecnici - procedure che siano aperte,
credibili, e mirate a trovare i fatti di cui necessitiamo per formulare politiche assennate. Potremmo
cominciare dal copiare alcuni aspetti da altre procedure basate sul "giusto processo"; possiamo cioè
modificare e raffinare queste procedure alla luce dell'esperienza. Usando i mezzi moderni di
comunicazione e di trasporto, possiamo sviluppare un processo specializzato, snello ed analogo a
quello dei giornali scientifici, e che possa accelerare il dibattito pubblico su fatti cruciali; e questo
sembra essere solo metà del lavoro da fare. L'altra metà richiede di distillare i risultati del dibattito
in scenari equilibrati del nostro stato di conoscenza (e altrettanto rappresentativi del nostro stato di
ignoranza). A questo scopo, sembrano essere utili procedure in qualche modo simili a quelle dei
tribunali (8).

Poiché la procedura (un fact forum, foro di discussione sui fatti) è inteso come mezzo per
riassumere i fatti, ogni parte comincerà esponendo quelli che per lei sono i fatti chiave, e li
elencherà in ordine di importanza. La discussione inizierà esaminando le affermazioni che ogni
parte ha posto in cima alla lista. Attraverso vari gironi di discussione, di esame incrociato delle
argomentazioni di ogni parte e di negoziazione, l'arbitro del forum cercherà di conquistare un
accordo generalizzato sulle affermazioni. Dove rimanga il disaccordo, un pannello tecnico riporterà
la trascrizione delle opinioni in proposito, schematizzando quello che pare già noto e quello che
appare più incerto. I risultati prodotti dal forum dei fatti includeranno argomenti di fondo,
dichiarazioni di accordo, e le opinioni riportate sul pannello. Il tutto potrebbe assomigliare ad un
insieme di pezzi saggistici di una rivista scientifica, introdotti da un conciso articolo di panoramica
che si limiti ad affermazioni attinenti ai fatti e quindi prive di raccomandazioni di carattere politico.

Questa procedura deve differire sotto diversi aspetti da quella che si adotta in un tribunale. Per
esempio, il pannello tecnico, avendo nel forum la funzione di "giuria", deve essere tecnicamente
competente. Un condizionamento pregiudiziale potrebbe condurre il pannello ad un giudizio
erroneo dei fatti, ma una sua incompetenza tecnica risulterebbe altrettanto dannosa. Per questa
ragione, la "giuria" di un forum dei fatti deve essere selezionata secondo modalità che sarebbero
invece pericolose se permesse in un tribunale. Poiché i tribunali adoperano il potere della polizia,
useremo giurie che siano state selezionate fra la totalità della popolazione al fine di salvaguardare la
nostra libertà. Ciò obbliga il governo a cercare il consenso di un gruppo di cittadini, prima di
procedere a punire qualcuno, vincolando di conseguenza l'azione del governo a criteri diffusi nella
comunità. In ogni caso, un forum dei fatti non punisce mai gente e nemmeno fa politica pubblica. Il
pubblico dovrebbe essere libero di assistere al processo e decidere se dare fiducia ai suoi risultati.
Questo doterà la gente di sufficiente controllo.

Tuttavia, per rendere un forum dei fatti equo ed efficace, avremo bisogno di una buona procedura
per la "selezione" dei componenti del pannello. I pannelli tecnici corrisponderanno grosso modo ai
comitati di esperti che vengono nominati dai governi o ai moderatori nominati dalle riviste
scientifiche. Per assicurare l'equità, un pannello deve essere selezionato non da una commissione,
un politico o un burocrate, ma da un processo che raccolga il consenso di entrambe le parti
coinvolte nella disputa. Nei processi legali dei tribunali, gli avvocati possono mettere in discussione
e respingere ogni giurato che possa sembrare non imparziale; possiamo utilizzare una procedura
simile in un forum dei fatti, per la selezione del suo pannello.

Esperti che siano direttamente coinvolti in una disputa non possono contribuire alla stesura delle
trascrizioni da inserire nel pannello: infatti potrebbero sia condizionarlo che determinarne la sua
faziosa frammentazione. Il gruppo che sostiene un forum dei fatti dovrebbe cercare le persone
incaricate di scrivere il pannello fra coloro che sono competenti nei campi coinvolti. Questo pare
essere un criterio pragmatico, poiché i metodi del giudizio tecnico (spesso basati sugli esperimenti
ed i calcoli) sono piuttosto generali. I curatori del pannello, avendo familiarità con i fondamenti di
un determinato campo, saranno in grado di giudicare le dettagliate argomentazioni prodotte dagli
specialisti di ognuna delle due parti.

I forum dei fatti assomiglieranno ai tribunali e alle riviste scientifiche anche sotto altri aspetti. Un
comitato simile al gruppo editoriale di un giornale nominerà un arbitro e alcuni curatori del
pannello per ogni disputa. I difensori di ognuna delle due parti, come fossero procuratori o autori,
costruiranno e presenteranno le più forti argomentazioni che sapranno mettere in piedi.

A dispetto di queste analogie, un forum dei fatti differirà da un tribunale: esso si concentrerà su
questioni tecniche. E non suggerirà alcuna azione. Mancherà quindi di potere esecutivo. Seguirà
regolamenti tecnici basati su prove ed argomenti. Differirà dai tribunali in un numero infinito di
dettagli riguardo tono e procedura. L'analogia con un tribunale è, in quanto tale, una semplice
"analogia": ossia una fonte di idee d'ispirazione.

Un forum dei fatti differirà anche da una giornale: esso procederà a ritmi altrettanto veloci di quel
che permettono la posta, le conferenze ed i messaggi elettronici, piuttosto che ritardare gli scambi di
opinioni di molti mesi, come avviene nella tipica pubblicazione di un giornale. Esso sarà incentrato
su una singola questione, piuttosto che essere concepito per coprire un intero campo scientifico.
Riassumerà la conoscenza per aiutare le decisioni, piuttosto che servire come primaria fonte di dati
per la comunità scientifica. Nonostante un insieme di forum dei fatti non possa sostituire un
giornale, i forum ci aiuteranno a trovare e pubblicizzare i fatti che potrebbero salvare le nostre vite.

Il Dottor Arthur Kantrowitz (un membro della National Academy of Sciences che è competente in
campi che vanno dalla tecnologia medica ai laser d'alta energia) ha ideato il concetto che ho appena
descritto a grandi linee (9). Ha parlato di tale idea dapprima denominandola "consiglio di
investigazione scientifica". I giornalisti la hanno prontamente ridenominata "tribunale della
scienza". Io l'ho chiamata "forum dei fatti": Ho invece riservato la denominazione di "tribunale
della scienza" ad un forum dei fatti che venga impiegato (o proposto) come istituzione governativa
(10). Le proposte per un giusto processo condotto su dispute tecniche sono tuttora in divenire; altre
discussioni utilizzano denominazioni differenti.

Il Dottor Kantrowitz si è impegnato in un giusto processo riguardante dalla decisione degli Stati
Uniti di costruire un razzo gigantesco per raggiungere la Luna in un unico immenso balzo; egli,
appoggiato dai risultati riscontrati da un comitato di esperti (11), ha raccomandato alla NASA di
utilizzare razzi più piccoli per trasportare componenti in un'orbita bassa, e qui assemblarli assieme
per costruire un veicolo che raggiunga la Luna. Questo approccio promette un risparmio di miliardi
di dollari e contemporaneamente lo sviluppo di abilità di costruzione in ambiente spaziale. Nessuno
ha risposto alle sue argomentazioni, per cui egli ha fallito nel vincere la sua causa. Le menti sono
ormai impostate verso ben definite inclinazioni, i politici sono impegnati, il suo resoconto è stato
conservato sotto chiave in una camera di sicurezza della Casa Bianca ed il dibattito è stato chiuso. I
fatti tecnici sono stati mestamente soppressi negli interessi di quelli che cercano di costruire una
nuova generazione di razzi giganteschi.

Ciò mostra una grave pecca delle nostre istituzioni, una pecca persistente che ci fa sprecare denaro
e incrementa il rischio di un errore disastroso. Il Dr. Kantrowitz raggiunge prontamente la
conclusione oramai ovvia: abbiamo bisogno di istituzioni mirate per condurre giusti processi su
controversie riguardanti argomenti tecnici.

Il Dr. Kantrowitz ha perseguito questo obiettivo (nella sua forma di "tribunali della scienza) per
mezzo di discussioni, relazioni, studi e conferenze. Per la sua idea dei tribunali scientifici è stato
premiato da Ford, Carter, e Reagan in qualità di candidati presidenziali. Dai presidenti, non ha
ottenuto nulla, sebbene un consiglio presidenziale appositamente composto abbia elaborato una
dettagliata proposta di procedura (12).

Tuttavia, alcuni progressi sono stati compiuti. Nonostante io abbia usato il tempo futuro nel
descrivere i forum dei fatti, la loro sperimentazione è già stata avviata. Ma prima di descrivere un
percorso verso un giusto processo, ha senso prendere in considerazione alcune delle obiezioni.

Perché Non un Giusto Processo?

I critici di questa idea (quanto meno nella sua versione di tribunali della scienza) sono stati spesso
l'uno in disaccordo con l'altro. Alcuni hanno obbiettato che le dispute fattuali non sono importanti, o
che possono essere attenuate tenendole nascoste dietro porte chiuse; altri hanno obbiettato che le
dispute fattuali sono troppo profonde ed importanti perché l'applicazione di un giusto processo
possa servire. Alcuni hanno lanciato l'allarme sul fatto che i tribunali della scienza potrebbero
essere pericolosi; altri hanno avvertito che essi potrebbero essere impotenti. Queste critiche hanno
tutte qualche valido contenuto: i giusti processi non sarebbero una cura universale. Talvolta
potrebbero non essere necessari, e talvolta potrebbero venir abusati. Ma allo stesso modo, tuttavia,
si potrebbe rigettare la validità della penicillina sulla base della sua sporadica inefficacia, o della sua
sporadica non necessità o dannosità.

Questi critici non propongono alcuna alternative, e raramente osservano che al giorno d'oggi
portiamo avanti comunque dei giusti processi, oppure che i processi attuali sono senza alcun valore.
Dobbiamo trattare con questioni tecniche complesse dalle quali dipendono milioni di vite; non
saremmo forse incoscienti se lasciassimo tali questioni a comitati riservati, a giornali indolenti, a
battaglie sui media, al giudizio tecnico dei politici? Se distruggessimo gli esperti, dovremmo
accettare il giudizio di comitati riservati formatisi in segreto oppure domandare un processo più
aperto? Infine, possiamo con il nostro sistema presente fronteggiare la corsa tecnologica globale
verso la nanotecnologia e la intelligenza artificiale?

Le istituzioni per processi giusti ed aperti sembrano essere di importanza vitale. Permettendo a tutte
la parti di parteciparvi, imbriglieremo le energie del conflitto nella ricerca dei fatti. Limitare la
possibilità degli esperti di descrivere i fatti, ci aiuterà a fronteggiare la tecnologia senza consegnare
le nostre decisioni nelle mani dei tecnocrati. Individui, compagnie e ufficiali nominati, manterranno
il pieno controllo delle politiche; gli esperti tecnici potranno raccomandare altre politiche tramite
altri canali.
Come possiamo distinguere i fatti dai valori? Lo standard proposto da Karl Popper sembra essere
utile a questo scopo: una affermazione è fattuale (ossia vera o falsa) se un esperimento o una
osservazione potrebbe in linea di principio confutarla. Ad alcune persone, l'idea di esaminare i fatti
senza considerare i valori ricorda l'idea di fare politica senza considerare i valori. E ciò sarebbe
effettivamente assurdo: per loro stessa natura, le decisioni politiche coinvolgono sempre sia i fatti
che i valori. Causa ed effetto riguardano i fatti, dicendoci quel che è possibile. Ma la politica
coinvolge anche i nostri valori, i nostri motivi di azione. Senza fatti accurati non possiamo ottenere i
risultati che cerchiamo, ma senza valori - senza desideri e preferenze - non potremmo anzitutto
cercare alcunché. Un processo che scopra i fatti può aiutare le persone a scegliere politiche che
siano efficaci nel servire i loro valori.

I critici hanno espresso alcune preoccupazioni riguardo la possibilità che un tribunale della scienza
(praticamente) dichiarerà che la Terra è piatta, perciò ignorando un Aristarco di Samo o un
Magellano quando questi ultimi trovino evidenza del contrario. Errori, inclinazioni dettate dal
pregiudizio e conoscenza imperfetta saranno di certo tutte cause di equivoci memorabili. Ma i
membri di un pannello tecnico non hanno necessità di dichiarare una certezza contraffatta. Essi
possono invece descrivere la nostra conoscenza e delimitare i confini fra questa e la nostra
ignoranza, talvolta affermando che semplicemente non conosciamo i fatti, o quantomeno le prove
attuali forniscono solo una idea approssimativa dei fatti. In questo modo, essi proteggeranno le loro
reputazioni di buoni giudici. Quando giungano delle nuove prove, una questione può essere
riaperta; le idee non hanno bisogno di essere salvaguardate dalla eventualità di un secondo giudizio.

Se i forum dei fatti diverranno popolari e rispettati, essi guadagneranno influenza. Il loro successo
li renderebbe tali che sarà più difficile abusarne: molti gruppi in competizione li sosterrebbero,
anche economicamente, e gruppi che abusino della procedura tenderanno a conquistarsi una cattiva
reputazione e saranno quindi ignorati. Nessun singolo gruppo sostenitore sarà in grado di oscurare i
fatti riguardanti un argomento importante, se i forum dei fatti guadagneranno una sufficiente
affidabilità per mezzo della ridondanza.

Nessuna istituzione sarà mai in grado di eliminare corruzione ed errore, ma i forum dei fatti
saranno guidati, per quanto in modo imperfetto, da uno migliore standard per la conduzione di
dibattito pubblico; essi dovrebbero degenerare in gran misura prima di diventare peggiori del
sistema che abbiamo oggi. La giustificazione di base per i forum dei fatti è che (1) un giusto
processo è l'approccio corretto da tentare, e (2) riusciremo a far di meglio se lo tentiamo, piuttosto
che se non lo facciamo.

Costruire un Giusto Processo

L'antropologa Margaret Mead venne invitata ad un colloquio sui tribunali scientifici per parlare
contro tale idea (13). Ma quando giunse il momento, essa parlò a favore dell'idea, sottolineando che
"Abbiamo bisogno di una nuova istituzione. Non c'è alcun dubbio su questo. Le istituzioni che
abbiamo sono del tutto insoddisfacenti. In molti casi inoltre non sono solo insoddisfacenti, ma
implicano una prostituzione della scienza ed una prostituzione del processo di creazione delle
decisioni". La gente che non ha alcun interesse consolidato nelle istituzioni esistenti, spesso è
d'accordo con la sua valutazione.

Se scovare i fatti riguardanti la tecnologia è davvero così cruciale per la nostra sopravvivenza e se i
giusti processi sono davvero la chiave per scovare i fatti, allora cosa dovremmo fare in proposito?
Non abbiamo bisogno di iniziare per forza con delle procedure perfette; possiamo cominciare con
dei tentativi informali per migliorare la procedura di cui disponiamo al momento. Possiamo
evolvere procedure migliori per variazione dei nostri metodi e per selezione di quelli che
funzionano meglio. Un processo giusto è una questione di grado.

Le istituzioni esistenti potrebbero muoversi verso il giusto processo (14) modificando alcune delle
loro regole e tradizioni. Per esempio, le agenzie governative potrebbero regolarmente consultarsi
con le parti in opposizione prima di stabilire quali siano i componenti di un comitato di esperti. Esse
potrebbero garantire ad ognuna delle due parti il diritto di presentare prove, esaminare prove, ed
esaminare gli esperti dell'altra parte. Esse potrebbero aprire i loro procedimenti agli osservatori.
Ognuno di questi passi rafforzerebbe la correttezza del processo, trasformando processi non
dissimili da quelli della "Star Chamber" in istituzioni più degne di rispetto.

I benefici pubblici dei giusti processi, comunque, non necessariamente li renderanno popolari fra i
gruppi che chiedono la loro modifica. Non abbiamo sentito il boato di gruppi di interesse che si
precipitano a verificare sperimentalmente le loro affermazioni, ne le lacrime di gioia dei comitati
all'apertura delle loro porte per consentire di sottomettere il loro operato alla disciplina imposta da
un giusto processo. E nemmeno abbiamo sentito riferire di politici che abbiano rinunciato
all'utilizzo di fatti spuri per nascondere le basi politiche delle loro decisioni.

E tuttavia tre candidati alla presidenza U.S.A. hanno sottoscritto l'idea dei tribunali della scienza. Il
Committee of Scientific Society Presidents, che include ventotto delle società scientifiche di punta
degli Stati Uniti, ha sottoscritto l'idea. Lo U.S. Department of Energy ha utilizzato una "procedura
analoga a quella dei tribunali della scienza" per valutare alcune proposte in competizione per la
produzione di energia tramite fusione nucleare, e ha dichiarato che la procedura è efficiente e utile.
Il Dottor John C. Bailar del National Cancer Institute, dopo aver fallito nel far riconoscere a varie
organizzazioni mediche la pericolosità dei raggi X e del loro impiego massiccio in radiografia, ha
proposto un tribunale della scienza sull'argomento. I suoi avversari hanno allora fatto marcia
indietro e modificato le loro politiche - apparentemente la semplice minaccia dell'eventualità di un
giusto processo sta già salvando vite. Nonostante questo, il vecchio corso prosegue, quasi invariato.

Perché accade ciò? In parte perché la conoscenza è potere, e quindi viene gelosamente sorvegliata
(15). In parte perché gruppi potenti possono prontamente immaginare in che modo i giusti processi
potrebbero andare a loro svantaggio. In parte perché uno sforzo di migliorare i metodi sistematici di
"risoluzione di problemi" mancano del potenziale drammatico di una campagna allestita per
combattere direttamente i problemi; ossia il potenziale drammatico associato a un migliaio di
attivisti alacremente impegnati nel salvataggio dello stato della nave, ognuno dedito a tappare un
singolo buco nello scafo.
I governi potrebbero tuttavia adoperarsi per realizzare i tribunali della scienza, ed ogni passo
potrebbe portare verso un maggior merito della procedura per un giusto processo. E tuttavia è
ragionevole temere il supporto del governo per i tribunali della scienza: il potere centralizzato tende
a generare mostri in quantità. Una "Agenzia Giudiziaria della Scienza" centralizzata potrebbe anche
lavorare piuttosto bene mentre fa ben poco danno evidente, e tuttavia comportare un gran costo
poco visibile: la sua stessa esistenza (e l'assenza di competizione) potrebbe bloccare miglioramenti
basati su processi evolutivi.

Altre strade restano aperte. I forum dei fatti saranno in grado di esercitare influenza senza ricevere
aiuto da particolari poteri legali. Per avere un effetto potente, i loro risultati avranno soltanto
bisogno di essere più credibili delle asserzioni di una specifica persona, uno specifico comitato o
una specifica corporazione o gruppo di interesse. Un forum dei fatti ben condotto sarà caratterizzato
da una certa credibilità in virtù della sua stessa struttura. Alcuni forum potrebbero essere finanziati
dalle università.
Infatti, il Dottor Kantrowitz ha recentemente condotto una procedura sperimentale presso la
University of California a Berkeley (16). Essa era incentrata attorno alla disputa pubblica fra il
genetista Beverly Paigen ed il biochimico William Havender riguardante i difetti di nascita e i rischi
genetici presso il sito di discarica chimica della Love Canal. I due scienziati hanno svolto il ruolo di
avvocati; studenti di corsi di laurea hanno svolto il ruolo di pannello tecnico. La procedura era
composta da incontri distribuiti su diverse settimane, per gran parte spesi nella discussione delle
aree di accordo e disaccordo; essa si è conclusa con diverse sessioni pubbliche di esame incrociato,
che hanno immediatamente preceduto la stesura finale del pannello. Sia gli avvocati che il pannello
hanno concordato su undici affermazioni di fatto, e hanno evidenziato chiaramente i loro rimanenti
punti di disaccordo e le loro incertezze residue.
Arthur Kantrowitz e Roger Masters notano che "in contrasto con le difficoltà sperimentate nei
molti tentativi di realizzare un tribunale della scienza sotto auspici governativi, risultati
incoraggianti sono stati ottenuti nel primo serio tentativo di questo tipo che sia stato condotto in un
ambiente universitario". Essi sottolineano che le tradizioni e le risorse delle università, rendono le
università stesse luoghi naturali in cui impegnarsi in tali sforzi. E auspicano che ci avviino
esperimenti di questo tipo in numero maggiore.

Tutto ciò mostra un modo decentralizzato di sviluppare istituzioni per giusti processi, un modo che
ci permetta di aggirare l'esistenza delle attuali burocrazie e interessi acquisiti. Nel far questo,
possiamo costruire su principi stabiliti e sperimentare le variazioni nella migliore tradizione
evolutiva.
I leaders preoccupati di migliaia di problemi differenti - con leaders sui lati opposti delle barricate
per ognuno di tali problemi - possono unirsi nel supporto da dare alla realizzazione di giusti
processi. Come fanno notare Roger Fisher e William Ury dell'Harvard Negotiation Project (17), se
si tenta di ottenere il consenso delle parti avverse per mettere in piedi un giusto processo, e quando
ogni parte è fermamente convinta di essere nel giusto, esse tendono a favorire un arbitraggio
imparziale. Infatti, entrambe le parti si aspettano di vincere (18), per cui entrambe acconsentono a
partecipare. I forum dei fatti dovrebbero quindi attrarre i sostenitori in buona fede delle cause, e
ripugnare i ciarlatani.

Mano a mano che il giusto processo diverrà uno standard, i sostenitori di cause fondate
conquisteranno vantaggio su coloro che rifiutano di cooperare - "Se non vogliono difendere la loro
causa in pubblico, perché dovremmo ascoltarli?". Inoltre, molte dispute si risolverebbero (o
sarebbero evitate) senza gli svantaggi delle procedure attuali: la prospettiva di un dibattito pubblico
ed arbitrato incoraggerà i sostenitori delle cause a controllare i loro fatti prima di iniziare il
dibattito. Istituire un forum dei fatti potrebbe facilmente fare di più per una causa assennata, di
quanto potrebbe fare il reclutamento di un milione di sostenitori.

E tuttavia, oggi, leaders ben intenzionati potrebbero sentirsi obbligati a esagerare le loro cause
semplicemente per poter essere ascoltati al di sopra del rombo prodotto dai comunicati stampa dei
loro avversari. Queste persone, potrebbero mai contrastare a malincuore la disciplina di un forum
dei fatti? Sicuramente no; i giusti processi possono in primo luogo curare la malattia sociale che ci
costringe ad allontanarsi dai fatti. Proponendo i loro punti di vista in un forum dei fatti, queste
persone potrebbero recuperare il rispetto per se stessi che deriva dalla onestà intellettuale.

Dissotterrare la verità potrebbe minare una posizione presa particolarmente a cuore, ma non può
danneggiare gli interessi di un gruppo orientato verso esigenze autenticamente "pubbliche". Se è
necessario smuovere un po' di cose per far spazio alla verità, perché non farlo? Grandi leaders
hanno visto cambiare le loro posizioni per ragioni anche peggiori, ed anche i giusti processi
comporteranno trasformazioni nelle posizioni dei gruppi avversi.

Gregory Bateson ha affermato una volta che "nessun organismo può permettersi di esser conscio su
materie che dovrebbero essere affrontate a livello inconscio". Se l'organismo in questione è una
democrazia, il livello conscio corrisponde approssimativamente al dibattito sui mass media. Il
livello inconscio è costituito da qualsiasi processo che di solito funziona abbastanza bene fintanto
che non è accompagnato da clamorose proteste del pubblico. Nei media, come nella coscienza
umana, una preoccupazione tende a far passare in secondo piano un'altra preoccupazione. Questo è
ciò che rende l'attenzione cosciente così scarsa e preziosa. La nostra società ha bisogno di
identificare i fatti che la riguardano con maggiore rapidità ed affidabilità, e con meno contese
faziose dei media che distolgano l'attenzione. Ciò lascerà il dibattito pubblico libero di occuparsi dei
suoi veri compiti - ossia giudicare le procedure atte a rintracciare i fatti, decidere cosa vogliamo e
aiutarci a scegliere una strada che ci conduca verso un mondo in cui valga la pena di vivere.

Mano a mano che il cambiamento andrà accelerandosi, il nostro bisogno crescerà. Per giudicare i
rischi di un replicatore o l'attuabilità di uno scudo attivo, abbiamo bisogno di modi migliori per
dibattere i fatti. Invenzioni puramente sociali come i forum dei fatti ci aiuteranno, ma le nuove
tecnologie sociali basate sui computer sono promettenti in altrettanta misura. Anche queste
arricchiranno le nostre procedure per la conduzione di giusti processi.

----------

Capitolo 14: La rete della conoscenza

La Carta Magica Diventa Reale


Collegare la Nostra Conoscenza
Pericoli degli Ipertesti
Dal Desktop alla Libreria Mondiale
Ipertesti e Carta Stampata

I computer [...] sono entrati nelle nostre vite quotidiane e stanno diventando il sistema nervoso
centrale della nostra società.
- TOHRU MOTO-OKA (1)

Per prepararsi al passo avanti degli assemblatori avanzati, la società deve imparare ad "imparare"
più velocemente. I forum dei fatti ci aiuteranno a farlo, ma le nuove tecnologie potrebbero aiutarci
ancora di più. Con esse, saremo in grado di diffondere, raffinare e combinare le nostre informazioni
in modo di gran lunga più rapido di quanto sia mai stato fatto prima.

Il sovraccarico informativo è diventato un ben noto problema: frammenti di conoscenza si


accumulano troppo velocemente perché le persone possano mettervi ordine e trarne fuori un senso.
Migliaia di riviste tecniche si occupano di migliaia di soggetti diversi. Gli articoli pubblicati
ammontano a oltre un milione per anno. I forum dei fatti ci aiutano a far pulizia delle menzogne,
alleggerendo il nostro sforzo di dare senso al mondo. Ma qualunque istituzione formale di questo
tipo resterebbe comunque sommersa dal travolgente moderno flusso di informazione: i forum dei
fatti saranno in grado di trattare solo una frazione dei fatti, sebbene una frazione importante, e
inevitabilmente saranno in qualche modo flemmatici. Le istituzioni formali possono intercettare
solo una minuscola frazione delle energie intellettuali della nostra società.

Oggi, i nostri sistemi informativi sono d'ostacolo al nostro progresso. Per farsi un'idea intuitiva del
problema, immaginate di dover gestire un frammento di informazione: L'avete scoperta: ma come
potreste diffonderla? Qualcun altro l'ha pubblicata: ma come trovarla? L'avete trovata: e dove
dovreste archiviarla? Avete individuato un errore in essa: come potreste correggerla? Il vostro
archivio cresce: come dovreste organizzarlo?

Attualmente gestiamo l'informazione in maniera maldestra. I nostri "media" elettronici tradizionali


sono vivaci ed intriganti, ma sono malamente adattabili per divenire capaci di gestire dibattiti di
lungo termine; come potreste, nel ruolo di spettatore, archiviare, organizzare, o correggere
l'informazione contenuta in un documentario televisivo? In breve, come potreste trasformare queste
informazioni in una ben integrata porzione di un corpo di conoscenze in evoluzione? Possiamo
gestire meglio dei dibattiti complessi usando i "media" cartacei, tuttavia le settimane (o anni) di
ritardo imposte da un tipico processo di pubblicazione rallentano il dibattito, il quale procede come
camminasse a carponi. Ed anche le pubblicazioni su carta sono difficili da archiviare, organizzare e
correggere. Le macchine tipografiche producono fasci di carta inchiostrata; a prezzo di sforzi eroici,
i bibliotecari e gli studiosi lavorano per collegare ed organizzare in modo utile tutte questi fasci
cartacei. Ma indici, riferimenti e correzioni, semplicemente aggiungono ulteriori pagine ed edizioni,
e seguire i collegamenti che essi rappresentano resta tuttora un compito tedioso.

Libri ed altri fasci di carta funzionano bene, a prezzo di qualche adattamento. Essi contengono
molti dei nostri tesori culturali e per ora non abbiamo nessun altro modo migliore di pubblicare la
maggior parte di queste cose. Tuttavia, la loro forma attuale lascia aperto molto spazio per il
miglioramento.

I problemi che incontriamo nel diffondere, correggere ed organizzare le informazioni obbligano la


nostra conoscenza a rimanere relativamente scarsa, non corretta e disorganizzata. Poiché la
conoscenza consolidata è spesso difficile da trovare, altrettanto spesso ne facciamo a meno, col
risultato di rimanere apparentemente più ignoranti di quando abbiano necessità d'esserlo. Le nuove
tecnologie possono aiutarci?

Le nuove tecnologie lo hanno già fatto prima d'ora. L'invenzione del torchio di stampa ha portato
grandi progressi; I servizi testuali basati sull'informatica ci promettono ancora di più. Comunque,
per intuire in che modo la nostra informazione potrebbe essere migliore, potrebbe aiutarci tentare di
capire in che modo essa potrebbe risultare peggiore. Consideriamo quindi, una immaginaria
situazione caotica, ed una sua immaginaria soluzione.

Il Racconto del Tempio

Tanto tempo fa, c'era un popolo con un problema di informazione. Nonostante avessero sostituito
le loro ingombranti tavolette d'argilla con la carta, la utilizzavano in modo bizzarro. Nel cuore della
loro terra si ergeva una cupola imponente. Sotto la cupola vi era la loro grande Camera degli
Scrittori. All'interno di questa camera c'era una grossa collinetta di foglietti di carta, ognuno dalla
dimensione della mano di bambino.

Di tanto in tanto, un erudito viaggiava fino a questo "tempio dello studio" per offrire la sua
conoscenza. Un consiglio di scribi avrebbe giudicato il valore della conoscenza offerta. Se questa si
fosse dimostrata preziosa, essa sarebbe stata trascritta su un foglietto, il quale sarebbe stato
solennemente lanciato sul mucchio.

Di tanto in tanto, altri industriosi eruditi venivano a cercare conoscenza, frugando nel mucchio alla
ricerca del foglietto desiderato. Alcuni di loro, più abili in queste ricerche, avrebbero potuto trovare
un particolare foglietto in meno di un mese. Gli scribi accoglievano sempre volentieri i ricercatori,
poiché erano così rari.
Noi moderni possiamo vedere chiaramente il loro problema: in un mucchio disordinato, ogni
foglietto aggiunto seppellisce i restanti (come accade su molte odierne scrivanie). Ogni foglietto è
separato, non correlato agli altri, ed aggiungere un riferimento ad un altro foglietto sarebbe ben
poco utile, visto che cercare un foglietto richiede dei mesi. Se usassimo un tale mucchio per
conservare la nostra informazione, i nostri innumerevoli e dettagliati scritti di scienza e tecnologia
diventerebbero quasi inutili. Le ricerche richiederebbero anni, o intere vite.

Noi moderni abbiamo adottato una soluzione semplice: mettiamo in ordine le pagine. Mettiamo
una pagina dopo l'altra per comporre un libro, un libro dopo l'altro per riempire uno scaffale, e
quindi riempiamo di mensole un edificio per comporre una biblioteca. Mettendo in ordine le pagine
possiamo trovarle, e seguire molto più rapidamente i riferimenti. Se gli scribi avessero assunto degli
eruditi per disporre i foglietti in pile distinte per soggetto, la ricerca dei foglietti sarebbe divenuta
più facile.
E tuttavia, di fronte a pile distinte di foglietti riguardanti la storia, la geografia e la medicina, dove
avrebbero dovuto mettere, questi eruditi, i foglietti riguardanti la geografia storica, o la
epidemiologia geografica, o la storia medica? Dove avrebbero dovuto mettere i foglietti riguardanti
"La Storia della Diffusione della Grande Peste?".

Ma nel nostro paese immaginario, gli scribi adottarono un'altra soluzione: si rivolsero ad un mago.
Ma prima di farlo, essi rinchiusero gli eruditi nella camera perché cucissero e legassero dei fili di
connessione fra un foglietto ed un altro. I fili di un particolare colore legavano un foglietto al
successivo in una serie, un altro colore conduceva ad un riferimento, un altro ad una nota critica, e
così via. Gli eruditi intessevano una rete di relazioni, rappresentate da una rete di connessioni.
Infine il mago (dagli occhi scintillanti e una chioma fluttuante) recitò un incantesimo, e l'intero caos
si librò lentamente nell'aria per aleggiare come una nuvola nella cupola. Dopo di ciò, un erudito che
impugnasse un foglietto doveva solo afferrare dal suo bordo uno dei fili che vi erano annodati, per
tirarsi appresso tutti gli altri foglietti collegati. E i fili, magicamente, non si ingarbugliavano mai.

Ora gli eruditi potevano collegare i foglietti riguardanti "La Storia della Diffusione della Grande
Peste" ai foglietti riguardanti la storia, la geografia e la medicina. Potevano aggiungere tutte le note
e tutto il testo che volevano, collegandoli nel modo più vantaggioso. Potevano aggiungere speciali
foglietti d'indice, in grado di mettere a portata di mano qualunque cosa fosse in lista. Potevano
disporre i collegamenti ovunque desiderassero, tessendo una rete di conoscenza che sapesse far
corrispondere le connessioni con il mondo reale.

Noi, con le nostre inerti pile di carta, potremmo solo invidiarli - se non avessimo i computer.

La Carta Magica Diventa Reale

Nel 1945, Vannevar Bush propose un sistema che denominò "memex". Era un dispositivo da
scrivania, zeppo di microfilm e meccanismi, e capace di visualizzare le pagine immagazzinate e di
consentire all'utente di aggiungervi delle note. Un sistema a microfilm memex non è mai stato
costruito, ma il sogno ha continuato a vivere.

Oggi, i computer ed i loro schermi hanno cominciato a diventare sufficientemente economici


perché siano abitualmente utilizzati come strumenti di scrittura e di lettura. Alcuni editori di riviste
cartacee sono diventati editori elettronici, producendo riviste, quotidiani e giornali accessibili solo
attraverso le reti di computer. E con i programmi giusti, i computer dedicati alla gestione di testi ci
permetteranno di collegare questa informazione in modi anche migliori del filo magico.

Theodor Nelson, l'iniziatore dell'idea, ha denominato ciò che ne risulta con il nome di "Ipertesto":
ossia un testo con collegamenti in molte direzioni, e non solo in una sequenza unidimensionale.
Lettori, autori ed editori che utilizzano i sistemi ipertestuali di solito non conoscono il
funzionamento di computer e schermi, proprio come di solito non conoscevano neanche i
meccanismi della fotocomposizione o della stampa litografica del passato. Un sistema ipertestuale
funzionerà semplicemente come uno scritto magico; chiunque ci giochi per un po' acquisisce subito
familiarità con le sue capacità basilari. Tuttavia, una descrizione della struttura di uno di questi
sistemi (2) aiuterà nella spiegazione del funzionamento di un ipertesto.

Nell'approccio adottato dallo Xanadu hypertext group (presso San Jose in California), il nucleo del
sistema, la parte "server", è una rete di computer capace di immagazzinare sia documenti che
collegamenti fra i documenti. Un sistema iniziale potrebbe essere rappresentato da una singola
macchina desktop; ma alla fine un intera crescente rete di macchine sarebbe capace di servire come
una biblioteca elettronica. I documenti memorizzati saranno in grado di rappresentare quasi
qualsiasi cosa, sia romanzi che grafici, libri di testo o persino programmi, ed infine anche musica o
filmati.
Gli utenti saranno in grado di collegare qualsiasi parte del documento ad un'altra qualsiasi parte
dello stesso documento, o di un qualunque altro documento. Quando un lettore punta ad uno dei
capi di un collegamento (sia che esso venga mostrato sullo schermo come una sottolineatura, un
asterisco una icona o un filo colorato), il sistema preleva dalla memoria e visualizza il materiale
corrispondente all'altro capo del collegamento. Inoltre, esso registra le nuove versioni di un
documento molto grande senza immagazzinare copie addizionali; il sistema avrà unicamente la
necessità di memorizzare le parti che sono state modificate. Questo permette che
l'immagazzinamento sul sistema delle precedenti versioni di un qualsiasi documento pubblicato e
modificato causi meno dispendio di memoria. Il sistema farà tutto ciò rapidamente, persino quando
la quantità totale di informazione immagazzinata divenga immensa. Una rete di tali macchine
potrebbe infine maturare in una biblioteca elettronica mondiale.
Per immaginare come tutto ciò dovrebbe apparire ad un utente, immaginate uno schermo della
dimensione di un libro aperto, riempito da caratteri con una dimensione che consenta una chiara
lettura, come quelli che state leggendo ora. Oggi lo schermo potrebbe assomigliare un apparecchio
televisivo, ma entro pochi anni il suo aspetto potrebbe essere più simile a quello di un libro, un
oggetto dalla dimensione tale da poter essere tenuto in grembo, con un cavo di connessione verso
un dispositivo di immagazzinamento e distribuzione di informazione. (Con la nanotecnologia
potremmo eliminare il cavo: un oggetto della dimensione di un libro sarà in grado di contenere un
sistema ipertestuale comprendente riproduzioni fotografiche di tutte le pagine distinte che esistono
al mondo, immagazzinate in una memoria veloce realizzata da un nastro molecolare).

In questo libro - quello che avete adesso nelle vostre mani - potrei descrivere i libri di Theodor
Nelson(3) riguardanti gli ipertesti, le Macchine da Letteratura e le biblioteche computerizzate, ma
non potreste vedere i suoi libri su queste pagine. Le pagine in questione sono altrove, restando
momentaneamente intrappolate in uno degli scritti del suo autore. Ma se questo fosse un sistema
ipertestuale ed io, o qualcun altro, avessimo aggiunto l'ovvio collegamento, voi potreste puntare
all'espressione "Macchine da Letteratura" qui presente, ed un momento più tardi vedreste sostituirsi
al testo di questa pagina la visualizzazione chiara dell'Indice del libro di Nelson, o di una mia
selezione di citazioni tratte dal suo libro. Da lì, potreste entrare nel suo libro e vagare in esso, forse
mentre un'altra porzione del vostro sistema di visualizzazione vi mostra ogni nota che io ho
collegato al suo testo. Potreste quindi ritornare qui (o verso pagine che forse ora mostrano anche le
sue note al mio testo) o muovervi ancora oltre , verso un altro documento collegato al suo. Senza
lasciare la vostra sedia, potreste avere una panoramica di tutti i principali scritti sugli ipertesti,
spostandovi da un collegamento ad un altro attraverso un qualsiasi numero di documenti.

Mantenendo traccia dei collegamenti (diciamo per esempio fra descrizioni di massima, bozze e
materiali di riferimento) gli ipertesti aiuteranno la gente a scrivere e a redigere lavori più ambiziosi.
Utilizzando gli ipertesti potremo tessere la nostra conoscenza per dar vita a unità coerenti. John
Muir ha osservato che "Quando proviamo a individuare isolatamente qualcosa, scopriamo che pare
legata a qualsiasi altra cosa nell'universo". Gli ipertesti ci aiuteranno a mantenere legate assieme le
idee secondo modi che meglio rappresentano la realtà.

Con gli ipertesti saremo meglio capaci di collezionare e organizzare conoscenza, accrescendo
l'efficacia operativa della nostra intelligenza. Ma perché la collezione di informazione si traduca in
una maggiore efficacia operativa, deve essere decentralizzata; una informazione frammentariamente
sparpagliata su molte menti non può essere facilmente inserita dentro il sistema da un gruppo
composto da pochi specialisti. Lo Xanadu group propose un soluzione semplice: permettere che
chiunque potesse scrivere e che il sistema retribuisse automaticamente ad ogni scrittore i relativi
diritti d'autore ogni volta che qualcuno avesse letto il suo materiale. La pubblicazione sarebbe stata
favorita dalla possibilità di fornire alla gente ciò che essa vuole.

Immaginate che voi stesso abbiate qualcosa da dire riguardo alcune idee o eventi. Immaginate
alcuni vecchi commenti dotati di un certo perspicace acume, e che oramai sono sbiaditi nella
memoria sia degli oratori che degli ascoltatori di tutto il mondo. Su un sistema ipertestuale, sarà
facile pubblicare e trovare commenti. Immaginate le domande che vi hanno confuso. Potreste
pubblicare anche queste; qualcuno, trovata la risposta che vi serve, pubblicherà una replica al vostro
intervento.
Poiché chiunque sarà in grado sul sistema di scrivere testi e creare collegamenti, la rete di ipertesti
accumulerà grandi magazzini di conoscenza e di saggezza e ancor più grandi mucchi di completa
immondizia. Gli ipertesti comprenderanno vecchie news, pubblicità, graffiti, urla insensate e bugie -
sicché come potrebbe un lettore essere in grado di evitare le cose cattive e focalizzarsi su quelle
buone? Potremmo mettere su un comitato editoriale centrale, ma ciò potrebbe distruggere la
apertura del sistema. Ordinare informazioni costituisce di per se stesso un problema di informazione
per il quale fortunatamente gli ipertesti ci aiuteranno ad evolvere buone soluzioni.

Poiché gli ipertesti saranno capaci di fare quasi qualunque cosa di ciò che i sistemi cartacei
possono fare, possiamo almeno usare la soluzione che adottiamo già oggi. Autori ed editori si sono
costruiti delle reputazioni consolidate nell'ambito dei media cartacei, e molti di loro hanno
cominciato a spostarsi verso la pubblicazione elettronica. Su un sistema ipertestuale essi saranno in
grado di pubblicare documenti coerenti con i loro standard di reputazione. I lettori ben disposti
verso di loro, potranno impostare i loro sistemi di visualizzazione affinché mostrino solo questi
documenti, ignorando automaticamente la nuova immondizia. Per essi, il sistema ipertestuale
apparirà come qualcosa che contiene solo materiale di pubblicisti rispettabili, che in più, rispetto
alla distribuzione su carta, sarà materiale caratterizzato da una maggiore accessibilità perché
distribuito elettronicamente e corredato da indici e collegamenti ipertestuali. L'autentica
immondizia sarebbe ancora lì, (quanto meno finché i suoi autori continueranno a pagare una piccola
tariffa per la conservazione in memoria del proprio materiale), e tuttavia essa non invaderà lo
schermo di ogni lettore.

Ma saremo in grado di fare ancor meglio di così. Il consenso su un documento (dimostrato da


collegamenti e raccomandazioni) può venire da chiunque; i lettori presteranno più attenzione al
materiale raccomandato da qualcuno che stimano. Al contrario, i lettori che troveranno dei
documenti che apprezzano, saranno in grado di vedere chi li ha raccomandati; questo condurrà i
lettori a scoprire gente che condivide i suoi stessi interessi e preoccupazioni. Indirettamente, gli
ipertesti aggregheranno la gente e accelereranno lo sviluppo e la crescita di comunità.

Quando la pubblicazione sarà divenuta così facile e veloce, gli scrittori produrranno più materiale.
Poiché gli ipertesti incoraggeranno l'attività editoriale indipendente, gli editori stessi troveranno più
lavoro da fare. I documenti che citano, elencano e collegano altri documenti serviranno da
antologie, giornali ed indici ad accesso istantaneo. L'incentivo rappresentato dagli introiti dovuti ai
diritti d'autore incoraggerà la gente a trovare ciò che desidera. Appariranno ben presto guide alla
letteratura presente, in competizione fra loro - nonché guide alle guide.

Gli ipertesti collegano meglio di quanto facciano i riferimenti bibliografici cartacei, e non solo in
termini di velocità. I riferimenti cartacei permettono ad un lettore volenteroso di seguire
collegamenti da un documento ad un altro - ma tentate di scoprire in quali documenti ci sono dei
riferimenti verso quello che state leggendo attualmente! Oggi, trovare tali riferimenti richiede
l'ingombrante presenza di un indice delle citazioni, disponibile solo in apposite biblioteche di
ricerca, ed orientato verso argomenti ristretti a campi limitati, nonché obbligato ad aggiornamenti
che vengono compiuti con ritardi di qualche mese. Gli ipertesti collegheranno i lavori in entrambe
le direzioni, permettendo ai lettori di trovare anche commenti su ciò che stanno leggendo. Questo,
di fatto, è proprio un drastico passo avanti tecnologico: un progresso che sottopone le idee ad una
analisi critica più completa, velocizzando perciò la loro evoluzione.

L'evoluzione della conoscenza - sia in filosofia che in politica, o in scienza, o in ingegneria -


richiede la generazione, la diffusione e la verifica di memi. Gli ipertesti accelereranno questo
processo. I media cartacei gestiscono questo processo di generazione e diffusione piuttosto bene,
ma sono molto goffi per quel che riguarda la gestione della verifica.

Una volta che una cattiva idea raggiunga la stampa, essa assume vita propria, e persino il suo
autore può di rado avere la possibilità di piantare un paletto nel suo cuore. Una confutazione
devastante di una cattiva idea diventa semplicemente un'altra pubblicazione, un altro foglietto di
carta. Giorni o anni più tardi, resta ancora improbabile che i lettori che hanno incontrato o
incontrano l'idea contraffatta siano anche casualmente capitati sulla sua confutazione. E così il
nonsenso sopravvive e prospera. Solo con l'avvento degli ipertesti, i critici saranno in grado di
piantare i loro stiletti nelle carni dei loro bersagli. Solo con gli ipertesti gli autori possono essere in
grado di ritrattare i loro errori, e facendolo non grazie al rogo delle biblioteche o imbastendo una
massiccia campagna pubblicitaria, ma semplicemente revisionando i loro testi ed etichettando la
vecchia versione come "ritrattata". Gli autori avranno il mezzo per rimangiarsi le loro parole in tutta
tranquillità; questo li compenserebbe, in parte per l'accresciuta ferocia della critica.

I critici useranno chiare confutazioni per trafiggere a morte le insensatezze (come per esempio
quello dei falsi limiti allo sviluppo), spazzandole via dall'arena intellettuale - sebbene senza
eliminare le loro registrazioni - con quasi la stessa velocità con cui esse diventano visibili. Le guide
alle buone critiche aiuteranno i lettori a vedere se una idea è sopravvissuta alle obiezioni più
agguerrite sollevate fino a quel momento. Oggi, l'assenza di critiche conosciute non significa molto,
poiché i brevi commenti critici sono difficili da pubblicare e ardui da trovare. In un consolidato
sistema ipertestuale, tuttavia, le idee che siano sopravvissute a tutte le critiche note saranno
sopravvissute ad una vera sfida. Esse si saranno conquistate una credibilità autentica e crescente.

Collegare la Nostra Conoscenza

I pregi impliciti negli ipertesti si estendono molto in profondità; e questo è il motivo per cui essi
sono così grandi. Gli ipertesti ci consentiranno di rappresentare la conoscenza in maniera più
naturale. La conoscenza umana forma una rete priva di interruzioni, ed i problemi umani sconfinano
largamente oltre i vaghi confini che delimitano i vari campi. Le schiere ordinate di libri svolgono un
ben misero lavoro come rappresentanti della struttura della nostra conoscenza. Le biblioteche,
inventando modi migliori di indicizzare, referenziare e disporre fogli sfusi, hanno lavorato per
rendere queste schiere di libri più simili a reti, e tuttavia, a dispetto dei nobili sforzi compiuti e delle
vittorie riscosse dai bibliotecari, una ricerca bibliografica è tuttora qualcosa che spaventa chiunque,
fatta eccezione per una minoranza specializzata del pubblico di lettori. I bibliotecari hanno evoluto
pian piano soluzioni orientate in direzione degli ipertesti, e tuttavia la meccanica della carta è tuttora
d'intralcio per questo obiettivo. I sistemi ipertestuali ci consentiranno di compiere un passo da
gigante nella stessa direzione verso cui ci siamo mossi fin dall'invenzione della scrittura.

La nostra stessa memoria funziona tramite associazioni, cioè per mezzo di collegamenti che
rendono richiamabili le nostre re-classificazioni delle informazioni memorizzate. Anche i ricercatori
nel campo della IA trovano che il meccanismo dell'associazione sia essenziale per la costruzione di
conoscenza utilizzabile dai loro sistemi; questi ricercatori programmano ciò che loro chiamano "reti
semantiche" per costruire sistemi di rappresentazione della conoscenza, Sulla carta, le associazioni
fra parole ci forniscono un aiuto prezioso; nella mente, un vocabolario funzionante si basa su
associazioni rapide e flessibili fra parole. Di fatto, nella memoria, le correlazioni forniscono il
contesto che dona significato alle nostre idee. Utilizzando gli ipertesti la gente assocerà idee grazie
a collegamenti pubblicati, arricchendo le stesse idee di significato, e rendendole ancor più parte
della nostra stessa mente.

Quando modifichiamo la nostra mente riguardo alla concezione che abbiamo del mondo, e la
concezione di dove esso stia andando, trasformiamo la nostra rete di conoscenza. Trasformazioni
ragionate spesso ci richiedono di confrontare schemi di idee in competizione fra loro.

Per giudicare la specifica visione del mondo presentata da un libro, un lettore deve spesso ricordare
o rileggere spiegazioni da recuperare dalle pagine precedenti - o da un contestato articolo apparso
l'anno precedente. Ma la memoria umana è fallace, e scavare alla ricerca di un vecchio articolo
spesso sembra richiedere troppo lavoro. Ben conoscendo tale problema, gli autori spesso esitano
incerti fra l'alternativa di includere troppo materiale nel loro lavoro (annoiando i loro lettori) e
quella di tralasciare molte cose importanti (lasciando punti deboli nella loro discussione).
Inevitabilmente, essi fanno entrambe le cose, contemporaneamente.

I lettori degli ipertesti saranno in grado di vedere se le fonti collegate supportano una idea o se altre
fonti connesse contengono critiche che la demoliscono. Gli autori scriveranno corposi e stimolanti
sunti delle loro idee e le collegheranno alle loro estese e noiose spiegazioni. Mano a mano che gli
autori esporranno le loro idee e i critici le discuteranno, entrambi tesseranno in parallelo intere reti
contrastanti di visioni del mondo, punto su punto. I lettori non saranno ancora in grado di giudicare
perfettamente o istantaneamente le idee presentate, ma saranno quanto meno in grado di giudicarle
meglio e più rapidamente. In questo modo, gli ipertesti ci aiuteranno in uno dei compiti più grandi
del nostro tempo: giudicare cosa sia davanti a noi, e correggere il nostro pensiero per adeguarlo alle
prospettive di ciò che scuoterà le fondamenta delle nostre consolidate visioni del mondo. Gli
ipertesti rafforzeranno la nostra preveggenza.

Per allora, molte delle utili applicazioni di un maturo sistema ipertestuale saranno divenute ovvie -
o quantomeno altrettanto ovvie di quanto lo possono essere oggi, prima di aver mai avuto
l'occasione di sperimentarle direttamente. Il supporto alla diffusione di news giornalistiche è una di
queste ovvie applicazioni.

Le news modellano la nostra visione del mondo, ma i media attuali pongono dei limiti a ciò che i
giornalisti possono ritrarre. Spesso, le storie riguardanti la tecnologia e gli eventi del mondo hanno
senso solo nell'ambito di un contesto più generale, ma le limitazioni di spazio e le frenetiche
scadenze di pubblicazione strappano via il contesto associato alle storie. Ciò indebolisce la nostra
comprensione degli eventi. Utilizzando gli ipertesti, i cronisti troveranno facile collegare le news
del giorno a più estese discussioni precedenti. Per di più, la gente coinvolta nelle storie e i casuali
osservatori delle stesse, saranno in grado di dire la loro, collegando così i loro commenti alla storia
riportata dal cronista.
La pubblicità lubrifica gli ingranaggi dell'economia, spingendoci (anche in malafede) verso i
prodotti disponibili. Dei consumatori ben informati potrebbero anche evitare l'acquisto di beni
mediocri ed in sovraprezzo, ma la necessità di cercare fra i beni disponibili e confrontarli,
inghiottirebbe notevoli quantità di tempo. Su un sistema ipertestuale, invece, alcune compagnie che
offrono servizi per i consumatori compileranno cataloghi comparativi, collegando l'una all'altra le
descrizioni di prodotti in reciproca competizione per verificarle e riferire ai consumatori.

Per quel che riguarda l'istruzione, impariamo meglio quando siamo interessati a quel che stiamo
leggendo. Ma la maggioranza dei libri presenta idee solo in una unica sequenza, e solo ad un livello
di difficoltà, senza preoccuparsi della preparazione pregressa o dell'interesse di chi legge per
apprendere. Anche in questo caso, la domanda popolare favorirà la crescita di utili reti ipertestuali.
La gente creerà collegamenti fra presentazioni analoghe, ma concepite per livelli di difficoltà
differenti. Gli studenti saranno in grado di leggere una presentazione pensata su un agevole livello
di difficoltà, sbirciando su discussioni parallele che scendono un tantino più in profondità. La
facilità di assimilazione del materiale più ostico ne risulterà accresciuta, poiché i collegamenti verso
nozioni e definizioni basilari consentirà al lettore di prendersi pause per riordinare le idee -
istantaneamente, privatamente e senza imbarazzo. Altri collegamenti potrebbero condurre in tutte le
direzioni verso materiale correlato; i collegamenti in una descrizione sulla barriera corallina
potrebbero condurre verso testi sull'ecologia dei coralli o sulle storie di squali affamati. Potremmo
soddisfare un nostro interesse momentaneo quasi istantaneamente, ed apprendere diverrà più
divertente. Sempre più gente potrebbe considerarlo qualcosa che genera assuefazione.

Con gli ipertesti la procedura del giusto processo si irrobustirà. Poiché gli ipertesti sono aperti
verso tutte le direzioni, permettendo di formulare domande, di rispondervi, e così via, il dibattito
condotto a mezzo ipertesto sarà dotato di una implicita procedura di giusto processo di alta qualità.
Di fatto, gli ipertesti saranno un media ideale per la conduzione di forum dei fatti. Le procedure dei
forum, a loro volta, saranno complementari agli ipertesti perché distilleranno i risultati dei loro
dibattiti d'ampio respiro in affermazioni chiare (sebbene ottenute per tentativi) riguardanti fatti
tecnici di importanza chiave.
Un effetto finale ovvio degli ipertesti sarà quello di ridurre il problema delle citazioni fuori
contesto: i lettori saranno in grado di recuperare il contesto originario associato ad ogni citazione,
facendolo riapparire nel sistema con la semplice pressione di un pulsante. Questa sarà una
caratteristica preziosa, e non solo per la prevenzione della rappresentazione travisata della posizione
di un autore; i benefici indiretti potrebbero essere ancor più grandi. Strappare dal loro contesto di
fondo affermazioni ragionevoli può sembrare assurdo, ma gli autori degli ipertesti sapranno che le
citazioni "assurde" condurranno i lettori direttamente verso il contesto originale dell'autore. Ciò
favorirà una scrittura più ardita, dando ai memi basati sulle prove e sul ragionamento un vantaggio
rispetto a quelli basati sulla pura convenienza o timidezza.

Forse il più importante (sebbene il meno evidente) beneficio degli ipertesti sarà una nuova capacità
di vedere l'esistenza di lacune. Per sopravvivere ai prossimi anni, dobbiamo saper valutare
correttamente idee complesse, e ciò richiede di saper giudicare se un argomento è pieno di lacune.
Ma al momento abbiamo problemi ad individuare le lacune.

Ancora più difficile è riconoscere l'assenza di lacune fatali, e tuttavia questa è la chiave per
riconoscere un argomento fondato. Gli ipertesti ci aiuteranno anche in questo. I lettori esamineranno
importanti argomentazioni, e dove riscontrino delle lacune le correderanno di cospicue obiezioni.
Queste obiezioni renderanno le lacune così consistentemente visibili che l'assenza di buone
obiezioni costituirà una chiara assenza di lacune conosciute. Potrebbe essere difficile apprezzare
quanto tutto ciò sia importante: la mente umana tende a non riconoscere i problemi causati dalla
nostra incapacità di vedere l'assenza di lacune, per non parlare poi delle opportunità che questa
incapacità ci fa sfuggire.
Per esempio, immaginate di avere una idea, e di star cercando di decidere se sia plausibile e valga
la pena pubblicarla. Se l'idea non è ovvia, potreste dubitare della sua veridicità e non pubblicarla.
Ma se sembra ovvia, potreste con tutta ragione presumere che sia stata già pubblicata, anche se
proprio non sapete trovare dove. Gli ipertesti, poiché rendono più facile trovare le cose, renderanno
più facile vedere se qualcosa non sia ancora stata pubblicata. Rendendo le lacune della nostra
conoscenza più visibili, gli ipertesti ci stimoleranno a colmare tali lacune.

Per comprendere e guidare la tecnologia, abbiamo bisogno di trovare gli errori - incluse le
omissioni - nelle proposte tecnologiche complesse. Poiché assolviamo questo compito in modo così
carente, incorriamo in molti equivoci, e la visibilità di questi equivoci rende la nostra incompetenza
un fatto evidente e minaccioso. Ciò incoraggia la prudenza, e tuttavia favorisce anche la paralisi:
poiché abbiamo difficoltà ad accorgerci della presenza di lacune, temiamo che siano ovunque,
anche dove non esistono affatto. Gli ipertesti ci aiuteranno a costruire fiducia in noi stessi dove tale
fiducia sia giustificata grazie ad una più affidabile esposizione dei problemi.

Pericoli degli Ipertesti

Come molti altri utili strumenti, gli ipertesti potrebbero essere utilizzati per far danno. Sebbene ci
aiuteranno a mantenere traccia dei fatti, potrebbero anche aiutare i governanti a mantenere traccia di
noi. Tuttavia, in un bilancio complessivo, essi potrebbero servire la libertà. Pensati per essere
intrinsecamente decentralizzati - con molte macchine, molti scrittori, molti editori - gli ipertesti
potrebbero aiutare i cittadini più di quanto possano aiutare coloro che li governano. Le banche dati
governative cresceranno di dimensioni in ogni caso, indipendentemente dagli ipertesti. I sistemi
ipertestuali potrebbero persino aiutarci a tenerle d'occhio.

Affidarsi completamente alla pubblicazione elettronica comporta altri pericoli. I governi degli Stati
Uniti, come quelli d'altri paesi, hanno spesso interpretato l'ideale che una volta veniva enunciato
come "libertà di parola" e di "stampa" intendendolo esclusivamente come libertà di parlare e di
vendere carta stampata. I governi hanno infatti regolamentato l'uso della radio e della televisione,
richiedendo a questi media di servire una concezione del pubblico interesse piuttosto orientata verso
l'interpretazione che le burocrazie avevano di esso. I limiti pratici che obbligano a vincolare il
numero di canali trasmittenti sul largo raggio, hanno fornito qualche scusa per questa imposizione,
ma tali scuse devono fermarsi qui. Dobbiamo estendere i principi della libertà di parola ai nuovi
media.

Saremmo inorriditi se i governanti ordinassero agli agenti di irrompere nelle biblioteche per
bruciare libri. Dovremmo ugualmente inorridire se i governanti tentassero di cancellare documenti
pubblici dalle librerie elettroniche. Se gli ipertesti dovranno veicolare le nostre tradizioni, allora ciò
che è stato pubblicato deve restare tale. Una biblioteca elettronica non sarebbe meno di una
biblioteca solo perché è priva di scaffali o di carta. La cancellazione non produrrebbe fumo o
fiamme, ma la puzza del rogo di libri resterebbe.

Dal Desktop alla Libreria Mondiale

Alcuni dei benefici che ho descritto deriverebbero solo da un grande ed altamente evoluto sistema
ipertestuale - uno che già svolga la funzione di forum per dibattiti d'ampio respiro e che sia sulla
buon strada per divenire una biblioteca elettronica mondiale. Un sistema di questo tipo potrebbe
anche non arrivare a piena maturazione prima dell'arrivo della rivoluzione degli assemblatori e della
IA. Perché gli ipertesti conquistino terreno, piccoli sistemi devono guadagnare applicazione pratica,
e perché gli ipertesti ci aiutino a gestire la corsa tecnologica, i sistemi piccoli devono ottenere effetti
che vanno al di la della loro dimensione. Fortunatamente, possiamo attenderci benefici sostanziali
fin quasi dal principio.
Singole macchine ipertestuali saranno in grado di servire contemporaneamente per diversi utilizzi.
Anche senza essere collegati ad ogni cosa del mondo esterno, essi aiuteranno le compagnie, le
associazioni e i gruppi di ricerca, a gestire informazioni complesse.

Tuttavia, creare collegamenti con l'esterno sarà facile. Il numero di basi di dati pubbliche che sono
disponibili, si è sviluppato dalla dozzina della metà degli anni '60 fino a qualche centinaio nella
metà degli anni '70, e qualche migliaio nella metà degli anni '80. Le compagnie hanno reso queste
basi di dati pubblicamente disponibili grazie alle reti di computer. I sistemi ipertestuali saranno in
grado di prelevare materiali da tali basi di dati, per cui dovranno immagazzinare solo i codici di
accesso verso di esse piuttosto che il testo attuale. Questa informazione sarà solo apparentemente
residente nel sistema ipertestuale, ma la bontà di tale soluzione sarà sufficiente per molti scopi.

La gente utilizzerà i primi sistemi per fornire ad una comunità un servizio di connessione telefonica
come quelli esistenti negli attuali bulletin board systems. Gruppi di discussione dedicati a interessi
specifici sono già emersi sulle reti di computer; tali gruppi trovano che gli ipertesti siano un media
migliore per lo scambio di informazione e punti di vista.

I primi sistemi ipertestuali ci aiuteranno anche a costruire e avviare delle organizzazioni.


L'ordinaria conferenza a mezzo computer (che semplicemente manda avanti e indietro dei brevi
messaggi) già aiuta i gruppi a comunicare. I vantaggi di una conferenza non "faccia a faccia"
includono costi più bassi (nessun bisogno di viaggiare) una interazione meno aspra (nessuna
necessità di attendere o di interrompere la gente) ed una migliore visibilità delle caratteristiche delle
menti partecipanti (grazie a messaggi più chiari e meno conflitti derivati da particolari
protagonismi). Le comunicazioni ipertestuali estenderanno tali benefici dando ai partecipanti
strumenti migliori per riferire, confrontare e riassumere. Poiché i dibattiti a mezzo ipertesti non
hanno bisogno di un singolo editore, alle organizzazioni è perciò consentito di divenire più aperte.

Utilizzare un servizio ipertestuale tramite il telefono e da un computer domestico durante le ore non
di punta probabilmente costerà all'inizio diversi dollari per ogni ora. Questo costo crollerà nel
tempo. Per diverse decadi fino ad oggi, l'effettivo costo dei computer è sceso di circa un fattore
dieci ogni dieci anni, e il costo delle comunicazioni si è ridotto anch'esso. I sistemi di ipertesto
saranno affrontabili da un numero sostanziale di persone quasi nello stesso momento in cui essi
diverranno disponibili. Sembra che entro dieci anni, il costo calerà abbastanza da essere compatibile
con l'utilizzo di questi sistemi da parte di un mercato di massa.

La possibilità della pubblicazione elettronica è già stata colta al volo. La Academic American
Encyclopedia, strutturata come un semplice ipertesto, è stata resa disponibile a 90.000 sottoscrittori,
incluse 200 librerie e scuole. Il Time magazine riferisce (4) che i bambini usano il sistema con
entusiasmo. I terminali nelle librerie possono già accedere al testo dei titoli di quotidiani, rotocalchi
e giornali professionali.

Non abbiamo bisogno di attendere un sistema universale per beneficiare universalmente dei suoi
benefici, poiché gli ipertesti inizieranno a fare la differenza molto prima. Abbiamo bisogno che gli
ipertesti siano a portata di mano di studenti, scrittori, ricercatori e dirigenti, e per la stessa ragione
per cui abbiamo bisogno di libri di testo nelle scuole, di strumenti nei laboratori e di utensili nelle
officine. Alcuni libri hanno fatto una grande differenza, persino quando letti da meno di una
persona su mille, poiché hanno originato un ondata di nuove idee, in seguito propagatasi lungo tutta
la società. Gli ipertesti faranno la stessa cosa, aiutandoci a raffinare idee che potranno in seguito
diffondersi più estesamente anche tramite la carta stampata e i media radiotelevisivi.

Ipertesti e Carta Stampata


Come si potrebbe confrontare la rivoluzione degli ipertesti con la rivoluzione di Gutenberg? Alcuni
numeri suggeriscono la risposta.

La stampa con caratteri mobili abbatte drasticamente i costi dei libri. Ne quattordicesimo secolo,
l'Avvocato Reale di Francia aveva solo settantasei libri, e tuttavia essi venivano considerati
componenti di una biblioteca molto grande. Un libro richiedeva settimane di lavoro esperto - e i
copisti erano necessariamente dei letterati. Le masse contadine non avrebbero mai potuto né
permettersi né leggere dei libri.

Oggi, un anno di lavoro può permettere l'acquisto di quattromila libri. Molte case ne contengono
centinaia; le grosse biblioteche ne contengono milioni. La stampa taglia i costi dei libri di un
centinaio di volte o anche più, aprendo la possibilità dell'alfabetizzazione ed educazione di massa, e
della rivoluzione mondiale tecnologica e democratica in corso.

E gli ipertesti? Gutenberg mostrò all'Europa come disporre caratteri di metallo per stampare
pagine; gli ipertesti ci permetteranno di redisporre del testo già immagazzinato e inviarlo lungo tutti
i paesi alla velocità della luce. La stampa accumula pile di libri nelle case e montagne di libri nelle
biblioteche; gli ipertesti avranno l'effetto di portare queste montagne di libri ad ogni terminale. Gli
ipertesti estenderanno la rivoluzione di Gutenberg grazie all'incremento della quantità di
informazione disponibile (5).

E tuttavia, un altro vantaggio pare essere ancora più grande. Oggi, seguire un riferimento in una
biblioteca di solito richiede minuti - con un po' di fortuna qualche centinaio di secondi - ma richiede
anche giorni o più se il materiale non è molto popolare quindi è assente, oppure è troppo popolare e
quindi esaurito. Gli ipertesti decurtano questi ritardi da centinaia di secondi a circa un secondo.
Sicché, dove la rivoluzione di Gutenberg riduceva il costo del lavoro per la produzione di testi in
misura di varie centinaia, la rivoluzione degli ipertesti ridurrà il costo del lavoro necessario per
trovare un testo in misura di varie centinaia. Questa, di fatto, sarebbe una rivoluzione.

Come ho discusso, rendere più convenienti i riferimenti ai collegamenti trasformerà la tessitura del
testo, portando ad una rivoluzione non semplicemente nella quantità ma anche nella qualità. Questo
incremento in qualità assumerà molte forme. Indici migliori renderanno più facile rintracciare
informazione. Migliori discussioni critiche estirperanno le insensatezze ed aiuteranno a rafforzare le
idee plausibili. Migliori presentazioni della globalità evidenzieranno le lacune nella nostra
conoscenza.
Con informazione abbondante, disponibile e d'alta qualità, sembreremo più intelligenti. E ciò
aumenterà le nostre possibilità di gestire correttamente i passi avanti tecnologici in arrivo. Cosa
potrebbe essere più utile? La prossima volta che vedrete diffondersi una falsità o vedrete una cattiva
decisione derivare dalla pura ignoranza, fermatevi un attimo, e riflettete sugli ipertesti.

----------

Capitolo 15: Abbondanza di mondi e tempo

Nanotecnologia e Vita Quotidiana


Altri Sogni Fantascientifici
Semplicità Avanzata
Spazio a Sufficienza per i Sogni
Preparativi

La difficoltà risiede, non tanto nelle nuove idee, quanto nello sfuggire a quelle vecchie che, per
quelli che sono stati educati nel modo in cui la maggior parte di noi lo è stata, si ramificano in ogni
angolo delle nostre menti.
- JOHN MAYNARD KEYNES

Ho descritto come i progressi della chimica e della biotecnologia condurranno verso gli
assemblatori, che a loro volta ci porteranno ai nanocomputer, ai replicatori, ed alle macchine ripara-
cellule. Ho descritto come i progressi del software ci condurranno verso l'ingegneria automatizzata
e verso l'intelligenza artificiale. Assieme, questi progressi renderanno possibile un futuro ricco di
possibilità, una delle quali è la nostra stessa distruzione. Tuttavia, se utilizzeremo i forum dei fatti e
gli ipertesti per rafforzare la nostra preveggenza, potremo evitare l'annichilazione, per muoverci
oltre …ma verso dove?
Verso una trasformazione d'estensione mondiale che può, se risulterà in un successo, portare
abbondanza e longevità a tutti quelli che le desiderano (1). E questa è una prospettiva che, come è
piuttosto naturale, scatena sogni di utopia.

Un problema classico dell'utopia, come tutti ben sanno, è che dovrebbe essere statica, noiosa e
terribile; infatti, altrimenti non sarebbe affatto un'utopia. Ciò nonostante, i sogni degli utopisti
hanno cambiato ed ancora cambiato la storia, moltissime volte, in meglio o in peggio. Sogni
pericolosi hanno condotto la gente ad uccidere in nome dell'amore, e schiavizzare in nome della
fratellanza. Fin troppo spesso i sogni sono stati impossibili da realizzare, ed il tentativo di inseguirli
è stato disastroso.

Abbiamo bisogno di sogni più utili per guidare le nostre azioni. Un sogno utile deve mostrarci una
meta possibile e desiderabile, ed i passi intrapresi verso quella meta devono produrre risultati
positivi. Per aiutarci a cooperare nella conduzione della corsa tecnologica, abbiamo bisogno di mete
che facciano presa su gente con sogni differenti; ma quali mete ci occorrono? Pare che ci debba
essere spazio per la diversità. Analogamente, quali dei sogni oggi scelti, così vicino all'alba
dell'intelligenza, potrebbero dimostrarsi preoccupanti per il nostro futuro potenziale? Pare che ci
debba essere spazio per il progresso.

Solo un certo tipo di futuro sembra risultare sufficientemente di largo respiro da possedere
un'attrattiva generalizzata: un futuro aperto, di libertà, diversità e pace, che abbia spazio per
l'inseguimento di molti sogni differenti; un futuro aperto, e desiderabile in egual misura da persone
molto diverse fra loro; I piani grandiosi, come quello di stabilire un ordine mondiale uniforme,
sembrano invece più pericolosi. L'imperativo "un mondo o nessun mondo", significherebbe
l'imposizione di un singolo sistema sociale su un mondo di ostili potenze nucleari, il che pare una
giusta ricetta verso il disastro. "Molti mondi o nessuno" sembrerebbe essere la nostra scelta reale, se
potremo sviluppare scudi attivi per assicurare la pace.

Potremmo essere capaci di realizzare tutto questo. Utilizzando dei sistemi di ingegneria
automatizzata come quelli descritti nel capitolo 5, saremo in grado di esplorare i limiti del possibile
a ritmi milioni di volte superiori rispetto a quelli umani. Saremo quindi in grado di delineare i limiti
ultimi della corsa tecnologica, inclusa la corsa agli armamenti. Assieme all'impiego di scudi attivi
basati su tale conoscenza, sembra quindi che potremo assicurare una pace stabile e duratura (2).

La tecnologia avanzata non ha bisogno di modellare il mondo pressandolo contro un unico stampo.
Molta gente un tempo aveva timore che macchine e organizzazioni sempre più grandi potessero
dominare il nostro futuro, stritolando la diversità e i desideri umani. Di fatto, le macchine possono
svilupparsi nella direzione di un accrescimento sempre maggiore, ed alcune lo fanno. Le
organizzazioni possono svilupparsi verso un accrescimento sempre maggiore, ed alcune lo fanno.
Ma macchine sgradevoli e sferraglianti, e burocrazie immense cominciano già ad avere l'aspetto di
abiti fuori moda, a confronto dei microcircuiti, delle biotecnologie e delle organizzazioni fluide.
Oggi possiamo vedere le linee generali del quadro delineato sulla scala umana da una più alta
tecnologia, quelle di un mondo in cui le macchine non sferragliano e gli impianti chimici non
puzzano e i sistemi di produzione non usano la gente come fossero semplici ingranaggi meccanici.
La nanotecnologia ci mostra che i progressi possono condurre verso un differente stile di
tecnologia. Assemblatori ed intelligenza artificiale ci permetteranno di creare prodotti complessi
senza organizzazioni complesse. Gli scudi attivi ci permetteranno di assicurare la pace senza un
massiccio complesso militare-industriale. Queste tecnologie allargheranno le nostre scelte,
liberandoci dai nostri vincoli e creando disponibilità di spazio per una più grande diversità ed
indipendenza. Instaurare un'era di abbondanza richiederà soltanto che, un giorno, le vaste e non
rivendicate risorse dello spazio siano divise in modo da distribuirne ad ognuno una significativa
porzione.

Nelle poche restanti sezioni, darò uno sguardo su alcune possibilità estreme che le nuove risorse e i
nuovi motori della creazione apriranno per noi; estremi che spaziano dalla fantascienza ai modi di
vita dell'età della pietra. Considerate gli estremi presentati nel seguito come degli intensi colori
primari, da mescolare sulla vostra tavolozza per dipingere il futuro che più vi piace.

Nanotecnologia e Vita Quotidiana

Una tecnologia avanzata potrebbe mettere fine alla vita oppure estenderla, ma potrebbe anche
trasformare la sua qualità. I prodotti basati sulla nanotecnologia pervaderanno le vite quotidiane
della gente che sceglierà di utilizzarli. Alcune conseguenze saranno triviali; altre potrebbero essere
profonde.

Alcuni prodotti produrranno effetti in termini di semplificazione dell'ordinaria manutenzione


casalinga (altrettanto sostanziali degli effetti di riduzione delle cause di litigio domestico). Non
dovrebbe rappresentare un indice di grande ingegnosità, per esempio, pensare di realizzare ogni
prodotto casalingo, dai piatti ai tappeti, in maniera che risulti essere auto-pulente, mantenendo così
permanentemente sana l'aria della casa. Per delle nanomacchine progettate a questo scopo, lo sporco
potrebbe essere cibo.

Altri sistemi basati sulla nanotecnologia, potrebbero produrre del cibo fresco: carne genuina, grano,
vegetali, ecc…, prodotti direttamente in casa e lungo tutto l'anno. Questi cibi derivano dallo
sviluppo di cellule secondo certi schemi, sviluppo che costruisce così piante e animali; le cellule
potrebbero quindi essere obbligate a svilupparsi secondo gli stessi schemi anche in altri luoghi. Gli
sviluppatori domestici di cibo consentiranno alla gente di sostenere delle diete ordinarie senza
uccidere nessuno. Il movimento per i diritti degli animali (il precursore di un movimento per la
protezione di tutte le entità coscienti e senzienti?) approverà entusiasticamente.

La nanotecnologia renderà possibile schermi ad alta risoluzione capaci di proiettare immagini


differenti su ogni occhio; il risultato sarà una televisione tridimensionale così reale che lo schermo
sembrerà come una finestra su un altro mondo. Schermi di questo tipo potrebbero corredare
l'elmetto di una tuta spaziale simile a quella descritta nel capitolo 6. La tuta stessa, piuttosto che
esser programmata per applicare alla pelle forze e trame di pressione definite dall'esterno, potrebbe
invece applicare forze e trame di pressione definite da un complesso programma interattivo. La
combinazione di una tuta e di un elmetto di questo tipo, potrebbe simulare la maggior parte delle
visioni e delle sensazioni di un intero ambiente, sia esso un ambiente reale o immaginario. La
nanotecnologia renderà possibile delle vivide forme d'arte e la creazione di mondi fantastici
estremamente più avvincenti di qualsiasi libro, gioco o film.

Le tecnologie avanzate renderanno possibile un intero nuovo mondo di prodotti al cui confronto ciò
che oggi è considerato conveniente sembrerà sconveniente e pericoloso. Perché gli oggetti non
dovrebbero essere leggeri, flessibili, duraturi e cooperativi? Perché le pareti non dovrebbero
apparirci in qualunque aspetto desiderato, e non dovrebbero poter trasmettere solo i suoni che
desideriamo udire? Perché dovremmo costruire edifici e veicoli che stritolano o arrostiscono i
propri occupanti? Per quelli che lo desidereranno, l'ambiente della vita quotidiana potrà
assomigliare a quello delle più sfrenate fra le descrizioni che è possibile trovare nella fantascienza.

Altri Sogni Fantascientifici

Verso molti degli estremi del possibile ci sono i sogni della fantascienza, per coloro che desiderano
viverli. Essi spaziano dalle case che cooperano con noi per il nostro comfort alle prospettive del
duro lavoro su pianeti distanti. Gli autori di fantascienza hanno immaginato moltissime cose, alcune
possibili ed altre in evidente contraddizione con le leggi naturali conosciute. Alcuni hanno sognato
del volo spaziale, ed il volo spaziale è giunto. Alcuni hanno sognato di robot, ed i robot sono
arrivati. Alcuni hanno sognato del volo spaziale economico e di robot intelligenti, ed anche questi
sogni sono prossimi a realizzarsi. Ma esistono ancora altri sogni che paiono possibili.

Gli autori hanno scritto della condivisione diretta di pensieri ed emozioni da una mente all'altra. La
nanotecnologia sembra probabilmente in grado di rendere possibile una qualche forma di questo
sogno, grazie alla connessione di strutture neurali per mezzo di trasduttori e segnali
elettromagnetici. Sebbene limitata dalla velocità della luce, questa sorta di telepatia sembra
altrettanto possibile di quanto lo è la telefonia.

Astronavi, colonie spaziali e macchine intelligenti diverranno tutte cose possibili. Ma sono tutte
cose che risiedono all'esterno della nostra pelle, mentre gli scrittori hanno anche narrato di
trasformazioni interne alla nostra pelle, che diverranno altrettanto possibili. Conquistare
completamente la salute nel corpo e nella mente è una delle forme di tali possibilità, e tuttavia
alcune persone vorranno di più. Esse saranno alla ricerca di cambiamenti ad un livello più profondo
che non la semplice conquista di salute ed abbondanza. Alcuni cercheranno appagamento nel
mondo dello spirito; sebbene questa ricerca risieda oltre la portata della tecnologia puramente
materiale, nuove possibilità fisiche forniranno punti di partenza, nonché tempo a sufficienza per
tentare. La tecnologia alla base dei sistemi di riparazione cellulare permetterà alla gente di
trasformare i propri corpi in modi che vanno dal triviale al sorprendente, ed infine al bizzarro. Tali
trasformazioni avranno ben pochi limiti ovvi. Alcune persone potrebbero spogliarsi della forma
umana al pari di un bruco che si trasformi per spiccare il volo; altre potrebbero portare il modello
umano verso un nuovo nirvana di perfezione. Altre persone ancora, infine, semplicemente si
cureranno le loro verruche, ignoreranno le nuove farfalle e se ne andranno a pesca.

Gli scrittori hanno sognato di viaggi nel tempo verso il passato , ma a tal riguardo la natura non
sembra cooperare (3). Tuttavia la biostasi apre la porta del viaggio temporale verso il futuro, poiché
può far si che gli anni trascorrano nell'arco di un battito di ciglia. La stanchezza potrebbe spingere
alla ricerca di un futuro molto più distante, forse nell'attesa di una lenta maturazione nel campo
delle arti oppure in altri campi sociali, o nell'attesa della creazione di interi mondi su tutta la
galassia. Se le cose andranno davvero così, si potrebbe passare da un'epoca all'altra alla ricerca di
un futuro che ci sembri adatto.
Strani futuri restano aperti, associati a mondi oltre la nostra immaginazione.

Semplicità Avanzata

E. F. Schumacher, autore di Small Is Beautiful, ha scritto: "Non ho dubbi che sia possibile dare una
nuova direzione allo sviluppo tecnologico, una direzione che lo riporti indietro verso i reali bisogni
dell'uomo, il che significa anche: verso la vera scala dimensionale umana. L'uomo è piccolo, e di
conseguenza piccolo è bello". Schumacher non stava scrivendo a proposito di nanotecnologia, ma
davvero una tecnologia avanzata fatta su misura per la scala umana, potrebbe contribuire ad una vita
più semplice?

In tempi preistorici, la gente utilizzava due tipi di materiali: i prodotti dei processi naturali di mole
(pietra, acqua, aria ed argilla) ed i prodotti del macchinario molecolare naturale (ossa, legno, pelle e
lana). Oggi noi utilizziamo questi stessi materiali assieme a dei complessi processi di mole, per
fabbricare i prodotti della nostra civiltà industriale globale. Se in passato il nostro sistema
tecnologico é cresciuto al di là della portata della scala umana, sono in massima parte da
commiserare solo la nostra tecnologia di mole e la stupidità delle nostre macchine: per realizzare
sistemi complessi dobbiamo renderli più grandi. Per renderli capaci, dobbiamo riempirli di gente. Il
sistema risultante si è ormai allargato su tutti i continenti, intrappolando la gente in una ragnatela
globale. Esso ci ha offerto una via di fuga dalla dura fatica di dover condurre fattorie per assicurarci
la nostra sussistenza, ed ha prolungato le nostre vite portandoci benessere, ma lo ha fatto ad un
costo che qualcuno considera troppo alto.
La nanotecnologia ci apre ora nuove possibilità. I sistemi autoreplicanti saranno capaci di produrre
il cibo, aver cura della nostra salute, fornirci asilo e soddisfare altre nostre necessità. Essi
compiranno tutto ciò senza burocrazie o grosse industrie. Comunità piccole ed autosufficienti
potranno raccoglierne tutti i benefici.

Una misura sperimentale della libertà che una tecnologia offre, è il grado di libertà che lascia alla
gente di scegliere se ritornare a modi di vita più primitivi. La tecnologia moderna ha fallito da
questo punto di vista; la tecnologia molecolare invece riuscirà in tutto ciò. Per misurare il grado di
libertà offerto dalla nanotecnologia, immaginiamo di ritornare allo stile di vita dell'età della pietra,
ma non semplicemente ignorando la tecnologia molecolare, quanto piuttosto mentre continuiamo
comunque ad utilizzarla.
Gli abitanti dell'età della pietra, mancando di una istruzione come quella moderna, non avrebbero
potuto comprendere il macchinario molecolare, ma questo poco importa. Fin dai tempi antichi, gli
abitanti di queste epoche hanno utilizzato il macchinario molecolare di lieviti, semi, e capre, pur
senza comprenderli a livello molecolare. Se cose così complesse ed indisciplinate come lo sono le
capre, sono adatte a stili di vita primitivi, allora ci sono sicuramente anche altre forme di
macchinario molecolare che sono altrettanto qualificate per questo scopo. Le cose viventi mostrano
che il macchinario interno ad un sistema auto-replicante può anche non esserci noto, persino più di
quanto si possa ignorare quello che c'è all'interno di una automobile. Per cui, un gruppo di persone
può tranquillamente coltivare "piante" ed allevare "animali" per facilitare la severa durezza
dell'esistenza, e continuare a condurre uno stile di vita fondamentalmente identico a quello dell'età
della pietra. Queste persone potrebbero anche auto-limitarsi a piante ed animali ordinari, modificati
solo tramite la semplice ingegneria di millenni di selezionamenti artificiali delle specie coltivate o
allevate.

Con possibilità così ampie, alcune persone potrebbero persino scegliere di vivere come facciamo
oggi: con i rumori del traffico, e gli stessi cattivi odori e pericoli di oggi; con i denti cariati e gli
stridenti trapani del dentista; con le giunture dolenti e le rughe della pelle; con le loro gioie
disturbate ed intralciate da paure, da fatiche e dall'approssimarsi della morte. Ma a meno di una
totale amnesia che faccia loro dimenticare l'esistenza di possibilità migliori, quante persone
desidererebbero davvero rassegnarsi a vite come queste? Forse pochissime.

Possiamo immaginare di condurre una vita ordinaria in una colonia spaziale? Un insediamento
spaziale dovrebbe essere grande, complesso e localizzato nello spazio: ma anche la Terra è grande,
complessa e localizzata nello spazio. I mondi nello spazio possono essere altrettanto auto-sostenuti
rispetto alla Terra, e grandi quanto interi continenti, inondati dalla luce del sole, saturi d'aria e
contenuti in un bio-cilindro se non addirittura in una biosfera.
I mondi nello spazio non necessariamente dovranno essere dei prodotti della diretta progettazione
umana. Soggiacente a molta della bellezza della natura, c'è un certo tipo di disordinato ordine. Le
venature di una foglia, i rami di un albero, le ramificazioni di un bacino fluviale, contengono tutte
una libertà di forme incanalata nell'ambito di schemi che assomigliano a ciò che i matematici
chiamano "frattàli" (4). I paesaggi dello spazio non dovranno necessariamente essere modellati
come campi da golf o periferie residenziali. Alcuni potranno essere modellati con l'ausilio di
computer programmati per riflettere una profonda conoscenza dei processi naturali, e per combinare
tale conoscenza in realizzazioni guidate da scopi umani, svolgendo tutto ciò con una naturalezza
che nessuna mente o mano umana può direttamente produrre. Montagne e valli selvagge verranno
rispecchiate nella modellazione di forme di rocce e terre di sogno scolpite nelle acque elettroniche
di una sognante era virtuale. I mondi nello spazio saranno veri mondi.

Spazio a Sufficienza per i Sogni

Questa quindi è la dimensione che il futuro promette. Sebbene continueranno ad esistere limiti allo
sviluppo, saremo in grado di raccogliere la potenza energetica del sole in misura un milione di
miliardi di volte maggiore di tutta la potenza attualmente impiegata dall'uomo. Dalle risorse del
nostro sistema solare saremo in grado di creare aree di territorio un milione di volte più estese di
quelle terrestri. Con gli assemblatori, con l'ingegneria automatizzata e con le risorse dello spazio,
potremo rapidamente conquistare un benessere in quantità e qualità ben superiore a quella
immaginata nei sogni del passato. Resteranno dei limiti ultimi all'estensione della vita umana, ma la
tecnologia per la riparazione cellulare metterà a disposizione di tutti una salute perfetta e una
longevità indefinita. Questi progressi ci porteranno nuovi motori di distruzione, ma renderanno
anche possibili scudi attivi e sistemi di controllo degli armamenti capaci di stabilizzare la pace.

In breve, abbiamo una possibilità per un futuro con spazio a sufficienza per molti mondi e molte
scelte, e con tempo sufficiente per poter esplorare entrambe. Una tecnologia ben addomesticata può
far recedere i nostri limiti, consentendo che le forme della tecnologia modellino molto meno le
forme dell'umanità stessa. In un futuro aperto di abbondanza, spazio e diversità, i gruppi di persone
saranno liberi di costituire qualsiasi forma di società essi desiderino, liberi di fallire o di diventare
un fulgido esempio per il mondo. A meno che il vostro sogno non sia quello di dominare chiunque
altro, ci sono possibilità che altre persone desiderino condividerlo. E se sarà così, allora voi e questi
altri potreste scegliere di unirvi per dar forma ad un mondo nuovo. Se una promettente partenza
dovesse poi rivelarsi fallimentare, se essa risolvesse troppi problemi oppure troppo pochi, avreste il
modo di riprovarci ancora. I nostri problemi attuali non sono quelli di saper costruire o progettare
utopie, ma di cercare una possibilità per provare a realizzarle.

Preparativi

Potremmo anche fallire. Gli assemblatori-replicatori e l'IA potrebbero condurci a problemi dalla
complessità senza precedenti, e minacciare di arrivare con una repentinità senza precedenti. Non
possiamo attendere che si verifichi un errore fatale, per decidere solo in seguito cosa fare in
proposito; dobbiamo impiegare queste nuove tecnologie per costruire scudi attivi prima che i
sintomi minacciosi compaiano.

Fortunatamente per le nostre possibilità, i passi avanti tecnologici imminenti diverranno


costantemente sempre più ovvi. Essi probabilmente cattureranno l'attenzione pubblica, garantendo
almeno un certo grado di preveggenza. Ma più presto cominceremo a stendere dei piani, migliori
saranno le nostre probabilità. Il mondo diverrà presto un luogo ospitale per i memi che si
propongono di descrivere delle politiche assennate per gestire i passi avanti tecnologici degli
assemblatori e della IA. E a quel punto, tali memi si diffonderanno e rafforzeranno,
indipendentemente al fatto che lo meritino o meno. Le nostre probabilità saranno migliori se,
quando verrà il momento, sarà stato elaborato un sensato corredo di idee, e se esso avrà cominciato
a diffondersi - opinione e politica pubbliche avranno maggiore probabilità di scattare in direzioni
assennate quando la crisi si avvicinerà. La situazione rende importante già da ora una attenta
discussione e una adeguata educazione pubblica. Guidare la tecnologia richiederà anche delle nuove
istituzioni, e le istituzioni non si evolvono nell'arco di una notte. Questo rende importante già da ora
lavorare sugli ipertesti e sui forum dei fatti. Se saranno già pronti all'uso, essi cresceranno in
popolarità all'approssimarsi della crisi.

A dispetto della enorme attrattiva esercitata da un futuro di apertura, alcune persone si opporranno
ad esso. Gli affamati di potere, gli idealisti intolleranti, ed una manciata di persone assolutiste nel
loro odio verso l'umanità intera, giudicheranno ripugnante la prospettiva della libertà e della
diversità. Ma il punto fondamentale è: queste persone influenzeranno la politica pubblica in modo
sostanziale? Inevitabilmente, i governi sovvenzioneranno, ritarderanno, classificheranno,
gestiranno, abbozzeranno o guideranno i rivoluzionari progressi tecnologici. Le democrazie
cooperative potrebbero commettere errori fatali, ma se li commetteranno è probabile che ciò
accadrà più come risultato della pubblica confusione nel giudicare quali siano le politiche che
provocano determinate conseguenze.

Ci sarà una più genuina opposizione ad un futuro di apertura, sulla base di valori e obiettivi
differenti (e spesso non esplicitamente dichiarati), ma ci saranno disaccordi ancora più grandi su
specifiche proposte, sulla base di differenti credenze riguardanti materie di fatto. E nonostante la
maggior parte dei disaccordi deriverà da differenze di giudizio, molti altri deriveranno
inevitabilmente dalla semplice ignoranza. Persino fatti solidi e ben attestati resteranno, in un primo
momento, poco noti. Quel che è peggio, la prospettiva di tecnologie così fondamentali come quelle
degli assemblatori, della IA e della macchine di riparazione cellulare, deve inevitabilmente
rovesciare, tutte assieme in una volta sola, molte vecchie idee fortemente radicate. Questo causerà
conflitti nelle menti della gente (lo so bene, avendone sperimentati alcuni). In alcune menti, i
conflitti farebbero scattare il riflesso del "rigetta-il-nuovo" che è finora servito all'umanità come il
più basilare dei sistemi immunitari mentali. E questo riflesso farà sì che l'ignoranza sarà molto
tenace.

E c'è ancora di peggio, ossia che la diffusione di mezze-verità sarà causa di danni ulteriori. Perché
possano funzionare appropriatamente, alcuni memi devono essere messi in relazione con altri. Se ad
esempio l'idea della nanotecnologia fosse libera dall'idea dei suoi pericoli, la nanotecnologia
sarebbe un pericolo ancora più grande di quello che già costituisce di per sé stessa. Ma in un mondo
già pieno di diffidenza verso la tecnologia, questo rischio sembra improbabile. E tuttavia altri
frammenti incompleti di idee si diffonderanno, seminando incomprensione e conflitto.

L'idea dei forum dei fatti, quando venga considerata senza distinguere fra fatti, valori, e politiche,
ha il sapore di qualcosa di tecnocratico. Gli scudi attivi, se proposti senza menzionare gli ipertesti o
i forum dei fatti, potrebbero sembrare cose su cui è impossibile fare affidamento. I pericoli e
l'inevitabilità della nanotecnologia condurrebbero alla disperazione coloro che ignorassero
l'esistenza dell'idea degli scudi attivi. Il pericolo della nanotecnologia, se allo stesso tempo non se
ne comprendesse bene la sua inevitabilità, fomenterà futili sforzi locali mirati ad arrestare la sua
avanzata globale. Gli scudi attivi, quando non motivati dal loro requisito ultimo di controllare la
tecnologia molecolare, sgomenteranno qualcuno per la loro apparente problematicità eccessiva.
Quando si parla di "progetti difensivi" senza distinguere fra difesa ed offesa, gli scudi attivi
sgomenteranno qualcuno per la loro apparente minacciosità nei confronti della pace.

Analogamente, l'idea della longevità, se non affiancata all'aspettativa di abbondanza e di nuove


frontiere, sembrerà perversa. L'abbondanza, immaginata senza uno sviluppo spaziale, suona
pericolosa per l'ambiente. L'idea della biostasi, per coloro che nulla conoscono sulla riparazione
cellulare e confondono l'espirazione con la dissoluzione, suona assurda.

Se non ci fossero le copertine dei libri o i collegamenti ipertestuali a tenerle assieme, le idee
tenderebbero a frammentarsi man mano che si diffondono. Abbiamo bisogno di sviluppare e
diffondere una comprensione unitaria del futuro, ossia la comprensione di un sistema di pericoli ed
opportunità fittamente intrecciate. Questo nostro bisogno richiede lo sforzo di molte menti.
L'incentivo allo studio ed alla diffusione delle informazioni necessarie sarà sufficientemente forte:
gli argomenti sono infatti affascinanti ed importanti, e molta gente vorrà unirsi ad amici, familiari e
colleghi, nelle discussioni e riflessioni su quel che ci attende. Se spingiamo nella giusta direzione -
imparando, insegnando, discutendo, cambiando direzione - ed infine ancor spingendo, potremmo
ancora guidare la corsa tecnologica verso un futuro con spazio a sufficienza per i nostri sogni.

Eoni di evoluzione e millenni di storia ci hanno preparato questa sfida, e l'hanno sommessamente
presentata alla nostra generazione. I prossimi anni ci porteranno fino al punto di svolta più
importante di tutta la storia della vita sulla Terra. Guidare la vita e la civiltà attraverso questa
transizione è il compito più grande del nostro tempo.

Se avremo successo (e se sopravviveremo), potremmo essere onorati dalle domande incessanti dei
nostri seccanti pronipoti: "Com'era quando eri ragazzo, prima della rivoluzione tecnologica?" e "
Che si prova ad invecchiare?" e "Cosa hai pensato quando hai sentito che stava per arrivare il 'Passo
Avanti'?" e "E quindi che hai fatto?". Con le vostre risposte, racconterete un'ennesima volta la storia
di come vincemmo il futuro.