Sei sulla pagina 1di 61

MONDI VIRTUALI

(Benjamin Woolley)
INTRODUZIONE:
- Com’è possibile avere idee chiare sulla distinzione fra realtà e fantasia, quando si assiste
continuamente alla realizzazione dell’irreale?
- La tecnologia è in grado di manipolare la realtà fino al punto di poterla creare
- REALTA’ VIRTUALE = tecnologia che viene usata per creare una più intima “interfaccia” fra
l’essere umano e le immagini prodotte dai computer.
- Questo libro => 2 questioni (per comprendere le vicende che hanno condotto a qusta
brusca intrusione della metafisica nella nostra vita di tutti i giorni):
=>> SIMULAZIONE
=>> REALTA’ ARTIFICIALE (Krueger) + discussione sulla DIFFERENZA TRA R.A. e R.V.
(REALTA’ VIRTUALE)
=>> COME LE NEGAZIONI SULLA REALTA’ SIANO FALLACI, e di come la R.A. e R.V. stiano
creando una REALTA’ PUBBLICA.

PRIMO CAPITOLO: EUFORIA (pag. 23-57)


- SIGGRAPH (riunione annuale dedicata alla grafica computerizzata)
I convegni di SIGGRAPH sono probabilmente fra gli eventi annuali più importanti
dell’industria americana.
Congresso di SIGGRAPH del 1989, Boston. Due discussioni al congresso:
1) Che la grafica computerizzata fosse diventata un vero e proprio nuovo medium,
addirittura il potenziale successore della televisione e della stampa;
2) Se i computer potessero già essere impiegati come “arte”.
FU AL SIGGRAPH DELL’ ’89 CHE LA REALTA’ VIRTUALE FECE IL SUO INGRESSO TRIONFALE
“Ambienti virtuali e interattività: finestre sul futuro”
JARON LANIER è diventato il simbolo dell’industria della realtà virtuale.

2 compagnie: VPL (di Lanier) e Autodesk. Entrambe fornirono dimostrazioni di sistemi di realtà
virtuale.

VPL => Reality built for two (RB2)


Autodesk => Cyberspace
La tecnologia di cui si disponeva al momento, aveva dimostrato che la SIMULAZIONE era già in
grado di emulare la REALTA’.
La realtà virtuale era già stata identificata come la “Grande Idea”.
pag. 1
Movie Map: ponte fra un mezzo passivo come la televisione e un mezzo attivo come i videogiochi.
La realtà virtuale nacque in un ambiente di ricerca scientifica, in cui ci si era posto il compito di
sfidare la televisione: il che accade proprio coi videogiochi (Nintendo riuscì nell’impresa).
La comunità della realtà virtuale costituiva un gruppo assai poco unito. Era qualcosa che
assomigliava di più a un movimento artistico, completo di una propria retorica e proprio manifesto
politico.
È stata questa comunità che ha dato alla realtà virtuale il suo spirito e la sua identità, bisognava
assolutamente appartenervi per potersi dedicare alla ricerca in materia.
Per Lanier, la realtà virtuale viene amplificata dai mezzi di comunicazione, nel senso che “le
aspettative vengano spinte troppo in alto, e che l’attuale interesse è troppo prematuro”.

Uno degli slogan della realtà virtuale “LA PSICOLOGIA E’ LA FISICA DELLA REALTA’ VIRTUALE”.
TIMOTHY LEARY, incontro a Firenze con un vecchio compagno di Berkeley, FRANK BARRON:
recava con sé una bottiglia di whiskey e alcune notizie su certi FUNGHI.
Usando la psilocibina, la componente narcotica dei funghi messicani, Barron intraprese con Leary
una serie di esperimenti progettati per scoprire gli effetti psicoattivi di droghe come questa, e per
scoprire le ragioni della mente, altrimenti insondabili, che le stesse droghe sembravano poter
rivelare. In quel momento esperimenti del genere venivano considerati occupazioni accademiche
perfettamente rispettabili, anche perché quelli condotti da Leary facevano parte di un’indagine
riguardante una materia che veniva chiamata “PSICOLOGIA ESISTENZIAL-TRANSAZIONALE”.
Trattava il comportamento umano come gioco: un gioco in cui i diversi ruoli degli individui sono
visti come il prodotto di diversi sistemi di regole. Ciò che era iniziato come presunto programma di
seria ricerca scientifica andò assumendo sempre più connotati di un giochetto che di scientifico
aveva ben poco, e che dava segni allarmanti di starsi trasformando in una VERA E ROPRIA RIVOLTA
SOCIALE E CULTURALE.

L’ LSD cominciò a rimpiazzare la psilocibina. Leary vedeva addirittura i suoi esperimenti come
ESPRESSIONE DI UN NUOVO DIRITTO CIVILE.
Roosevelt aveva definito 4 libertà, Leary ne propose una quinta: “La libertà di fare qualsiasi cosa si
voglia con la propria coscienza”. Il diritto dell’individuo di cercare un’espansione della propria
coscienza.
Leary vedeva la realtà virtuale come una continuazione di quelle esplorazioni della coscienza ce
finora aveva condotto con altri mezzi.
Nella storia della realtà virtuale il rapporto con l’LSD venne a stabilirsi, quindi, molto presto. I
giornalisti non perdevano la più piccola occasione di attirare un molto cauto Leary , e anche Lanier,
nella trappola di definire la realtà virtuale come una nuova forma di allucinogeno. Questa
CONNESSIONE CON LE DROGHE era un sintomo delle relazioni di Leary con la realtà virtuale. Le
storie dell’una e dell’altro erano legate fra loro inestricabilmente.

pag. 2
STEWART BRAND, organizzatore di uno degli eventi più importanti dell’era dell’LSD: “TRIPS
FESTIVAL”, San Francisco (1966). Sedute di gruppo in cui l’acido scorreva a fiumi, mirate a
esplorare l’idea di “mente di gruppo”, uno stato di intimità psichica collettiva che avrebbe dovuto
favorire la fusione delle menti individuali in una singola inseparabile coscienza.
Brand nel 1968 scrisse “Whole Earth Catalog”, un libro che forniva in maniera completa le
necessarie conoscenze a chiunque avesse una mentalità ecologista. Si trattava di un libro radicale
non solo nel contenuto ma anche nella progettazione.
Intenzione di rendere evidente la libera filosofia dei suoi editori, lasciare che fosse il lettore a
decidere per proprio conto quali fossero le parti più importanti da leggere.

La California era la sede principale di quel tipo di compagnie ad alta tecnologia e di centri di ricerca
di alto prestigio accademico che avrebbero costituito la cosiddetta “Silicon Valley”, parecchi di
coloro che vi erano stati attratti dalla prospettiva di una RIVOLUZIONE cominciarono a considerare
il COMPUTER come il mezzo per REALIZZARLA.
C’è però una certa ironia sul fatto che a contribuire a questa speranza fosse proprio la filosofia del
libro di Brand, fondato sulla bassa tecnologia.
Questa unione fra alta e bassa tecnologia può esser fatta risalire, in parte, anche all’influenza di
BUCKMINSTER FULLER. Fuller sosteneva che esistono risorse sufficienti per servire a tutta
l’umanità: l’unico problema stava nel trovare il giusto sviluppo di queste risorse.
Così, Fuller, inventò il concetto di DYMAXION, una contrazione delle 3 parole: DYNAMIC,
MAXIMUM e ION, che nel suo pensiero sintetizzavano la necessità di elaborare tecnologie capaci
di sfruttare le risorse esistenti e di auto svilupparsi.
Fuller produsse un gioco che si chiamava “WORLD GAME”, attirò l’attenzione di numerosi
programmatori e filosofi californiani, che riuscirono a realizzare una versione computerizzata,
creando il primo simulatore del globo terrestre mai realizzato al mondo, e quindi un precedente
che avrebbe reso il concetto di “mondi virtuali” più accessibile.
Il libro di TED NELSON, “Computer Lib”, era una sonante, vertiginosa dichiarazione di fede nella
liberazione tecnologica.
Nelson era il candidato perfetto per il ruolo di rivoluzionario. Era carismatico, intelligente e sicuro
di sé, e portò uno spirito d’avventura nel mondo notoriamente grigio e conservatore dell’industria
dei computer. Il messaggio del libro è semplice: TUTTI DEBBONOIMPARARE A USARE I COMPUTER,
PERCHE’ I COMPUTER SONO MOLTO PIU’ INTERESSANTI E IMPORTANTI DI QUANTO
GENERALEMENTE SI CREDE.
Nei primi anni ’70 il monopolio dell’industria dei computer era in mano all’ IBM. Questa azienda
rappresentava l’antitesi del liberalismo tecnologico, accessibile solo a pochi privilegiati scelti dalla
direzione dell’azienda, la sua tecnologia era obsoleta, e intenzionalmente disegnata per ritardare il
più possibile la realizzazione del sogno di Nelson: IL CALCOLATORE UNIVERSALE.

pag. 3
Dall’altra estremità (dalla parte dei buoni), il vessillo era portato dalla DIGITAL EQUIPMENT
CORPORATION (DEC).
L’azienda costruiva piccoli computer e li dotava di completa documentazione. I suoi computer
erano “PROGETTATI DA PROGRAMMATORI PER PROGRAMMATORI”. I programmatori erano
l’eroica avanguardia, gli autentici pionieri della frontiera tecnologica: il sogno di Nelson era
appunto che un giorno la “terra incognita” da loro esplorata e domata, divenisse ospitale a
abitabile da tutti noi.
Nelson nel ritratto fotografico della scimmia “I COMPUTER APPARTENGONO A TUTTA
L’UMANITA’”.
La rivoluzione dei calcolatori era ormai in atto; e la campagna di Nelson aveva fatto sì che quel
giorno persino un gruppo di perplessi amministratori civici avesse dovuto applaudire.
ALTAIR 8800: Primo microcomputer del mondo ad essere messo a disposizione del pubblico.
Era una macchina che offriva ben magre risorse di calcolo, costava diverse migliaia di dollari in
qualsiasi versione appena appena operativa, e non serviva a nessuno scopo che avesse una
qualche utilità. Era purtuttavia un inizio.
Altair 8800 servì ad ispirare due giovani menti
STEVEN JOBS e STEVE WOZNIAK, essi riuscirono a costruire il computer APPLE. L’Apple si è
attribuita l’invenzione del personal computer, ERA L’AZIENDA CHE PROMETTEVA DI
TRASFORMARE IL SOGNO NELSONIANO “Il potere del computer a popolo!” IN UNA POSSIBILITA’
PRATICA.
Nel 1984 la compagnia lanciò la macchina che avrebbe consolidato il suo successo internazionale:
il MACINTOSH.
A dirigere l’intera campagna pubblicitaria fu chiamato il regista di Blade Runner, RIdlely Scott.
Decise di annunciare l’avvento di una nuova macchina come il momento della liberazione, il cui
totalitarismo dell’era dei grandi computer sarebbe finito, e avrebbe avuto inizio l’individualismo
dell’era dei personal computer (il tutto rappresentato dalla figura di una giovane atleta in
maglietta bianca, inseguita dalla polizia segreta.
ALLA CRESCITA DEL POTERE DELL’APPLE HA CORRISPOSTO PERO’ UNA DIMINUZIONE DELLA SUA
CREDIBILITA’ COME SIMBOLO DELLA CONTROCULTURA, ANCHE L’APPLE AVEVA DATO UNA MANO
PER CAMBIARE UN MOVIMENTO POLITICO RIVOLUZIONARIO IN UNO SLOGAN PUBBLICITARIO.
È significativo che proprio durante questo periodo di rivolgimenti aziendali abbia cominciato a
entrare nel linguaggio di tutti i giorni un termine finora poco conosciuto: quello di HACKER.
Per tutti il termine indicava un’ossessione.
Per gli hacker riguardava il modo in cui essi esploravano il funzionamento dei computer “l’accesso
ai computer deve essere totale e senza limiti” (etica degli hacker). Per loro è un piacere spezzare le
barriere che trovano sul loro cammino.

pag. 4
L’ironica di autodegradazione è un elemento caratteristico della cultura degli hacker, la quale
denigra il corpo e adora la macchina.
Gli hacker sono gli abitanti di un regno astratto, ed è a questo regno che veramente
appartengono, non già a quello dell’hardware (fisico, materiale, quindi brutto).
RICHARD STALLMAN definisce sé stesso come “l’ultimo degli autentici hacker”.

Stallman conduceva una CAMPAGNA A FAVORE di ciò che egli stesso chiamava “LIBERTA’ DI
PROGRAMMARE”.

Egli ha combattuto risolutamente per impedire che vengano erette palizzate intorno
all’informazione “da un clima di collaborazione e comunanza di beni, si è passati a una situazione
in cui la collaborazione viene in ogni modo impedita dai possessori dei software. S ha una
tendenza verso un maggior controllo di tutto ciò che a gente può fare con l’informazione”.
Il COPYRIGHT, lo STRUMENTO LEGALE PRINCIPE PER CONTROLLARE L’INFORMAZIONE.

Con l’introduzione delle tecnologie di copiatura a buon mercato il copyright è stato sempre più
usato dagli editori per proteggere i loro profitti. Ne è un esempio la decisione presa da compagnie
quali Apple, Lotus e Ashton-Tate, di far ricorso alla legge per tentare di impedire alle altre
compagnie di usare lo stesso look and feel (stesse caratteristiche visive e tattili dei loro prodotti).
Il solo fatto che le compagnie facciano il tentativo di reclamare giuridicamente tale diritto
dimostra quanto sia diventato commercialmente importante il controllo dell’informazione.
Secondo Stallman, i detentori dell’informazione sono divenuti pericolosamente possessivi: invece
di cercare di correre più svelti degli altri concorrenti si cerca di far loro lo sgambetto.
Lo SLOGAN della LIBERTA’ DELL’INFORMAZIONE già comincia a diventare di difficile comprensione,
per non parlare della difficoltà di applicarlo, in un’industria che ne trae un guadagno di miliardi di
dollari. L’Apple è stata accusata di tradimento.
Ma poi, il FENOMENO DELLA REALTA’ VIRTUALE ha messo in luce tutta una rete di reazioni
politiche di una certa complessità.
Stallman (etica hacker): non credono affatto che il personal computer sia uno strumento di libertà,
giacché esso non è riuscito a trasformare le strutture del potere commerciale che controllano la
tecnologia dell’informazione.
Brand: vede nella rivoluzione del personal computer la causa di un cambiamento politico di fondo;
per mantenere pienamente le promesse di questo cambiamento, tutto ciò che serve è un ulteriore
progresso tecnologico e qualche incoraggiamento politico.
Verso la metà degli anni ’80 nacque la realtà virtuale. Essa rappresentava la forma estrema di
presa del potere da parte dell’individuo, il punto d’arrivo della rivoluzione, perché dava a ciascuno
il controllo pieno dell’universo.

Nell’ottobre del 1990, dopo il congresso “Hip, hype, hope” del SIGGRAPH, quasi tutti i partecipanti
si spostarono a San Francisco per un altro convegno: il “CYBERTHON”.

pag. 5
Questo doveva essere, per la rivoluzione del computer, l’equivalente di quel “Trips Festival” che si
era tenuto nella stessa città 24 anni prima; ed era stato anche organizzato dalla stessa persona:
Stewart Brand.
FU un evento che anziché segnare la riscoperta dello spirito degli anni Sessanta parve
rappresentarne la fine.
PRIMO SEGNO CHE LA REALTA’ VIRTUALE STAVA OLTREPASSANDO IL PUNTO DI NON RITORNO:
MYRON KRUEGER, l’artista che usava il computer per le proprie opere, spinse da parte un
infuriato Bob Jacobson per proclamare che il termine di realtà virtuale gli apparteneva, avendolo
egli coniato negli anni 70.
Questa gara per ottenere il riconoscimento dei diritti di proprietà intellettuale è di per sé un chiaro
segno che le forze del commercio avevano preso saldamente in pugno la situazione.
Tutto questo rendeva perplesso e sconcertato WILLIAM GIBSON, il quale si riconosceva il merito di
aver ispirato per primo l’idea di realtà virtuale, col suo concetto di ciberspazio.
PHIL LOPICCOLO, direttore della rivista specializzata “Computer Graphics World”, scriveva che la
realtà virtuale stava minacciando di spaccare in due il mondo della grafica computerizzata.

La realtà virtuale si era talmente intessuta di metafore e di retorica che aveva perso ogni
possibilità di definizione. Era diventata una nuvola di idee, la cui la forma dipendeva da chi la
guardava:
- Una forma che poteva apparire quasi come una sensazionale scoperta tecnologica;
- Come uno strumento di trasformazione politica.

Non c’è modo di scoprire la vera forma della nuvola? Un modo c’è.
Sotto la retorica e le metafore ci sono questioni di fondo, che fecero della realtà virtuale una
risposta sia ai cambiamenti tecnologici che ai cambiamenti sociali.
Ma si può dire con assoluta certezza che non verrà mai il giorno in cui la realtà virtuale sarà
realizzata.
LA VERA IMPORTANZA DELLA REALTA’ VIRTUALE STA NEL FATTO CHE ESSA STESSA AFFRONTA
DIRETTAMENTE QUESTA DOMANDA: che cos’è la realtà?

pag. 6
SECONDO CAPITOLO: SIMULAZIONE (pag. 58-78)
Origini del concetto di realtà virtuale: prodotto del flusso di molti rivoli di idee diverse, ciascuno
alimentato da molte sorgenti d’ispirazione, che si sono sovrapposti l’uno sull’altro.
La tecnologia viene spesso presentata come l’attivatrice dei cambiamenti. Il problema di questa
interpretazione della tecnologia è che non ci dice nulla sull’origine delle sue conquiste.

Per quanto riguarda l’invenzione della realtà virtuale il candidato preferito è un lavoro accademico
di IVAN SUTHERLAND, “A head-mounted three-dimension display”. Questo articolo specifica una
delle tecnologie essenziali che verranno impiegate in successivi esperimenti di realtà virtuale.
MA, per capire a cosa mirasse Sutherland conviene rifarsi a un suo lavoro precedente: THE
ULTIMATE DISPLAY (Il display definitivo).

Sutherland è stata una delle persone più influenti nella storia del computer, è stato proclamato
padre della grafica computerizzata da coloro che lavorano in questo campo, ma è stato
importantissimo per lo sviluppo commerciale della simulazione al computer, essendo il fondatore
della Evans&Sutherland (simulatori di aeroplani).

Display definitivo: “Paese delle Meraviglie dentro il quale Alice si muove”, non avrebbe dovuto
essere visivo, neppure acustico, bensì “cinestetico”. La realtà virtuale è alimentata da un altro e
ben diverso fio di idee: quello della SIMULAZIONE DI VOLO.
Il pericolo insito nel pilotaggio degli aerei era evidente fin dal momento della loro invenzione, che
rese inevitabile lo sviluppo del simulatore di volo. I primi brevetti per i progetti delle relative
macchine si hanno a partire dal 1910.
EDWIN LINK, progettò il SIMULATORE LINK.

Edwin ottenne il suo primo brevetto per un congegno che migliorava il funzionamento dei
pianoforti meccanici. Il piano meccanico, noto anche come “pianola” (dimostrazione dei poteri
dell’automazione).

La dinamica di un’esecuzione al pianoforte suggerì a Link di vedere se per caso si potessero


impiegare dispositivi pneumatici anche per riprodurre i movimenti di un aeromobile.

Graduale abbandono degli elementi ridondanti è evidente: non c’è alcun bisogno di ali o di code
fittizie se tutto il resto – movimenti, strumentazione, comandi - è riprodotto con assoluto
realismo.

Tuttavia, esso non avrebbe mai saputo rappresentare fedelmente il volo reale di un aeroplano,
poteva IMITARE il volo, non SIMULARLO.

Per SIMULARE occorre qualcosa in più di una semplice imitazione; più della capacità di produrre
azioni simili a quelle che vogliono simulare. Occorre un modello operativo.
La distinzione tra SIMULAZIONE e IMITAZIONE è difficile, non è neppure del tutto chiara, è un
problema che sta proprio al cuore della realtà virtuale.

pag. 7
Altimetro: strumento che serve per calcolare l’altitudine, fa parte della dotazione strumentale di
qualsiasi aereo. Il collegamento che ne risulta è un modello meccanico della relazione fra
altitudine e pressione.
Il tipo di matematica che si usa in pratica a questo scopo si fonda sul “CALCOLO DIFFERENZIALE”
che è appunto il tipo di calcolo impiegato per esprimere relazioni fra quantità e tassi di variazione.
Il CALCOLO DIFFERENZIALE può essere usato per specificare un algoritmo (= procedimento che
darà un risultato a partire da un “input”, dai valori di partenza (una variazione di pressione nel
nostro caso). Il termine algoritmo viene utilizzato per indicare un qualsiasi procedimento
matematico che possa compiersi dal principio alla fine in modo automatico, meccanico, senza
bisogno di ricorrere all’immaginazione o alla creatività.
In tutti i sistemi in tempo reale, la cosa che conta non è soltanto ciò che l’algoritmo esegue, ma
quando lo esegue.
Tutto ciò che la macchina richiede è un apparato capace di eseguire le funzioni aritmetiche
fondamentali, quali l’addizione e la sottrazione.
CHARLES BABBAGE: “macchina delle differenze” (serviva a eseguire i calcoli ripetitivi che gli
impiegati dovevano fare per redigere le tavole matematiche.
VANNEVAR BUSH (calcolo differenziale = equazioni dalle quali non si ottiene un solo risultato, ma
un’altra equazione, che viene poi impiegata per trovare un risultato per ogni circostanza
particolare); la macchina creata da Bush per calcolare queste equazioni venne battezzata con il
nome di “analizzatore differenziale”.
La meccanizzazione delle equazioni differenziali fu la scoperta che rese possibile la produzione di
modelli matematici per rappresentare i fenomeni in trasformazione o in movimento, come per
esempio il volo di un aeroplano. Il volo può essere rappresentato in parte mediante numeri. Questi
numeri variano in funzione del modo col quale il pilota manipola i comandi, la cloche e i pedali. Ma
anche queste manipolazioni possono tradursi in numeri.

C’è un modo di calcolare le equazioni partendo dai numeri che appaiono sui voltometri e che
quindi rappresentano la posizione dei comandi?

Il problema era quello di trovare una tecnologia capace di risolvere le equazioni differenziali in
tempo reale, e cioè alla stessa velocità con la quale varia la posizione dei comandi (nessuna
tecnologia del genere esisteva alla fine degli anni Trenta).

Alla base dei simulatori di vola c’era ancora la tecnologia dei pianoforti meccanici. Fu la Seconda
Guerra Mondiale a stimolare la creazione di quella tecnologia che avrebbe potuto rendere
possibile l’autentica simulazione: il calcolatore elettronico digitale, la macchina capace di
elaborare qualsiasi algoritmo a velocità incomparabilmente maggiori di qualunque congegno
meccanico.
La guerra è la fucina dell’invenzione tecnologica, un altoforno in cui si compie la fusione delle
vecchie idee e si dà forma alle nuove. La Seconda Guerra Mondiale segna il periodo in cui il
termine “computer” non significa più il calcolatore umano, ma bensì una macchina che può essere
programmata per eseguire vari tipi di calcoli.
pag. 8
La spinta necessaria per la progettazione di una simile macchina fu soprattutto militare: più
specificamente per prevedere la traiettoria di bombe e missili.
ENIAC (Electronic Numerical Integrator and Computer), macchina progettata allo scopo di
alleggerire almeno un poco il lavoro che si svolgeva sul poligono di tiro dell’esercito americano, nel
Maryland, dove nel 1944 le richieste di nuove tavole di tiro arrivavano al ritmo di 6 al giorno.
L’esercito aveva bisogno di tempi di calcolo adeguati ai ritmi di fuoco e all’efficienza distruttiva
richiesta dalla moderna guerra di massa; l’incarico ENIAC prometteva di calcolare ciascuna
traiettoria in 30 secondi.
Da allora nacquero in pochi anni molte altre macchine (EDVAC, EDSAC, UNIVAC, SEAC, SWAC e
MANIAC) che sperimentavano nuove tecnologie, ma il disegno di fondamentale era comune; tutte
quante avevano la stessa “architettura”. Erano macchine elettroniche, il che significa che le
operazioni venivano eseguite da variazioni di correnti elettriche passanti attraverso circuiti, non da
movimenti di meccanismi fisici. Inoltre, erano macchine digitali, il che vuol dire che maneggiavano
quantità discrete di numeri, non continue.
Questi due elementi le rendevano un tempo più veloci e più precise dei calcolatori meccanici di cui
prendevano il posto: tanto veloci e tanto precise da poter calcolare il percorso di un proiettile in
tempo reale, o anche in tempo minore, come dimostrò di saper fare l’ENIAC.

JAY W. FORRESTER, 1944, cominciò a sviluppare per la Marina degli Sati Uniti un “ANALIZZATORE
DI CONTROLLO DI STABILITA’ DE VELIVOLI”. Usare la nuova tecnologia elettronico-digitale per
creare un simulatore di volo generalizzato, una macchina cioè che sapesse calcolare le equazioni
del moto e dell’aerodinamica del velivolo.
PROGETTO WHIRLWIND, 1949, pronto per essere collaudato, nel 1951 era pienamente operativo.

Mentre il progetto era ancora in fase di prova, il gruppo dei ricercatori cominciò a esplorare alcune
caratteristiche che non avevano mai fatto del disegno originale. Cominciarono a giocherellare con
gli schermi degli oscilloscopi che servivano a visualizzare le informazioni del sistema, notarono che
fornendo le appropriate istruzioni al computer, era possibile manipolare gli schermi fino a creare
certe traiettorie. Riuscirono a creare un gioco in cui un punto tracciava la traiettoria dei vari
rimbalzi di una palla: il carattere di gioco di questo esperimento proveniva dal fatto che,
manovrando le variabili dell’input, la palla stessa spariva attraverso un “buco nel pavimento”.
Tutto ciò era già una dimostrazione molto eloquente di come un computer possa essere impiegato
per riprodurre l’animazione, i movimenti, la “dinamica” di un vero gioco di palla senza usare
nient’altro che la matematica pura. Questo risultato venne rivendicato come primo esempio di
“controllo interattivo uomo-macchina del display”, e anche come PRIMO VIDEOGIOCO
COMPUTERIZZATO.
In confronto alle altre scoperte tecnologiche, questo esempio dimostrava l’impiego della
matematica pura per simulare una dinamica reale e la possibilità per l’uomo di interagire con
queste simulazioni (i due elementi che stanno alla base della simulazione al computer e della
realtà virtuale).
I ricercatori del PROGETTO WHIRLWIND erano riusciti a far sì che un puntino si comportasse come
una palla, che fosse una palla a tutti gli effetti. Un tale passaggio dall’ imitazione alla simulazione si
pag. 9
sarebbe dimostrato, per la tecnologia dei computer, della stessa importanza che ebbe per la
nascita del cinema e la scoperta che delle immagini proiettate in rapida successione possono
riprodurre il movimento.
Il progetto Whirlwind aveva compiuto un’impresa equivalente, animando una palla che non aveva
un’esistenza fisica, ma che neppure aveva un’esistenza immaginaria, giacché nessuna
immaginazione umana era richiesta per concepirla.
Pressappoco nello stesso periodo della prima diffusione del Whirlwind, all’Università della
Pennsylvania, i creatori dell’ENIAC stavano anch’essi utilizzando dei fondi della Marina degli Stati
Uniti per sviluppare un sistema di simulazione in tempo reale: Universal Digital Operational Flight
Trainer (UDOFT).
A differenza del Whriwind il progetto avrebbe raggiunto solo nel 1960 il suo scopo, di dimostrare
la possibilità di costruire un computer capace di creare modelli aerodinamici.
All’inizio degli anni Sessanta anche Link aveva completato il suo computer per la simulazione del
volo: MARK I.
Il Mark I era una macchina che simulava la dinamica del volo di un aeroplano piuttosto che
limitarsi ad imitarla. Come risultato si aveva una versione altamente specializzata del “display
definitivo” descritto da Sutherland nel 1965.
DISPALY DEFINITIVO
Il grande passo di immaginazione compiuto da Sutherland col suo articolo nel 1965 consisteva
nell’aver generalizzato l’idea di simulazione.
Sutherland si chiedeva se fosse possibile creare un’interfaccia che funzionasse con qualsiasi tipo di
simulazione; che sia capace non solo di riprodurre l’esperienza di trovarsi in volo su un aeroplano,
ma anche quella di essere in un qualunque spazio artificiale, uno spazio “entro il quale il computer
sia in grado di controllare l’esistenza della materia”.
Il display di Sutherland comprendeva due elementi principali: UN CASCO e UN SENSORE DI
CONTROLLO.
Lo spazio fisico monitorato dal SENSORE DI CONTROLLO viene tradotto dal computer nello spazio
matematico di ciascun oggetto. Col mutare della posizione e dell’orientamento del casco il
computer calcola (sulla base di informazioni che riceve dal sensore) in che modo dovrebbero
apparire gli oggetti se fossero visti dalle posizioni equivalenti nello spazio matematico.
RISULTATO: LA TERZA DIMENSIONE VIENE RICOSTRUITA IN TUTTO CIO’ CHE L’UTENTE OSSERVA.
Col “display definitivo” gli oggetti compresi nello spazio generato dal computer non sarebbero
stati soltanto visibili, ma anche tangibili. Infatti, così come le leggi della geometria possono venire
applicate per riprodurre dimensioni e forme, quelle della fisica, essendo la loro natura anch’essa
matematica, si possono applicare per riprodurre qualità come per esempio la massa!
Con l’impiego del display definitivo diventava possibile prendere in mano questi oggetti “fisici”,
lasciarli cadere, scagliarli in una data direzione, addirittura manipolarli e modellarli.

pag. 10
Qual è tuttavia la natura di questi oggetti simulati? Sono un prodotto della finzione o
dell’immaginazione? Sono essi allora veramente naturali, fisici, reali? Non nel senso normale di
questi termini. Essi esistono in quel ondo che a Sutherland piaceva chiamare “Il Paese delle
Meraviglie matematico”, un Paese determinato dalle leggi della matematica.
Ciò che conta dal punto di vista di Sutherland, è il fatto che queste forme sono altrettanti oggetti
matematici: è per questo che posseggono quella strana forma di esistenza indipendente che il
display rileva all’osservatore.
Il casco rivela la loro forma completa, la parte cinestetica del display le loro caratteristiche fisiche.
Non può esistere nessun “autore” di tali oggetti, non nel senso in cui esiste l’autore del libro
QUEGLI OGGETTI PARTECIPANO A UN NUOVO MODO DI ESISTENZA, UN MODO CHE NON È REALE
MA NON È NEPPURE IMMAGINARIO: E’ IL MODO CHE HA PRESO IL NOME DI “VIRTUALE”.

pag. 11
TERZO CAPITOLO: VIRTUALITA’ (pag. 78-94)
L’IBM lanciò un prodotto chiamato “MEMORIA VIRTUALE”, la introdusse in due dei suoi grandi
(mainframe) computer, i sistemi 370/158 e 370/168. Al tempo del loro lancio pubblicitario l’IBM
aveva già stabilito il suo predominio mondiale nel campo dei computer.
L’idea della MEMORIA VIRTUALE non era nuova: era già stata esplorata come un possibile modo
di superare uno dei più gravi limiti dell’architettura dei computer.
Questo limite era appunto la memoria. Esistono due tipi di memoria: la memoria veloce e la
memoria lenta. La memoria veloce è di solito elettronica, e nei primi computer consisteva in una
serie di cosiddetti “nuclei” magnetici (memoria centrale), ai nostri giorni consiste in una
piccolissima piastrina di silicio. La memoria lenta, solitamente elettromeccanica, prende la forma
di dischi o nastri.
Lo scopo della memoria virtuale era di creare, nella memoria veloce, più spazio di quanto ne
potessero fornire, nella loro realtà fisica, i circuiti di memoria del computer.
Un programma situato nella memoria virtuale potrà a volte essere sorpreso da un’inattesa
richiesta di qualche informazione che non è stata ancora trasferita nella memoria veloce,
causando un ritardo nel sistema, durante il quale, il programma cerca di trovare e trasferire dal
disco la relativa pagina d’informazione.
Il fatto che la memoria virtuale non sia una memoria reale è un dettaglio puramente tecnico: dal
punto di vista del computer e di chi lo usa, quella virtuale è altrettanto reale rispetto a quella vera.
Si tratta di una simulazione perfetta in ogni particolare di un sistema fisico, con l’unica eccezione
che potrebbe risultare più lenta della memoria “reale”.
Ogni computer è infatti “virtuale”: ciascuno è l’ombra di una macchina, una macchina che venne
specificata nel 1937 dal matematico inglese Alan Turing in un articolato intitolato “On Computable
Numbers”.
I fondamenti della matematica sembravano ancora abbastanza saldi, da quando Newton aveva
dimostrato che erano adeguati a descrivere la meccanica dell’universo. Né si sarebbe detto che
avessero bisogno di sostegni o conferme, quando il matematico francese Laplace scrisse il suo
forte pensiero al riguardo (“…”).
Ma, con l’inizio del ventesimo secolo, la matematica era cambiata oltre ogni altra immaginazione.
Non era più semplicemente una branca della scienza, era divenuta invece un sistema
apparentemente autonomo, che operava in maniera del tutto separata dal mondo reale
manipolando i suoi simboli. La matematica non era più l’ancella della scienza, ma era divenuta
assoluta padrona di sé stessa.
In matematica lo spazio viene trattato in maniera diversa dalla fisica p dalla geometria. Quella a
tre dimensioni è solo una fra tante versioni dello spazio fisico.
Lo SPAZIO MATEMATICO è più simile a un grafico, che però è pluridimensionale e contiene tanti
assi quante sono le proprietà che si desidera fissare su questo grafico.
DAVID HILBERT, matematico che formalizzò il concetto di spazio astratto.

pag. 12
Fornì un mezzo per spiegare i fenomeni, veramente assai poco reali, palesati dalle particelle
subatomiche di recente scoperta, quali per esempio gli elettroni. Il comportamento di queste
particelle appariva molto bizzarro quando lo si considerava iscritto nello spazio fisico.
JOHN VON NEUMANN (al quale viene attribuito il merito di aver elaborato i principi basilari per la
progettazione di tutti i computer moderni), osservò che si poteva ottenere un quadro molto più
chiaro dei modi di comportamento di queste particelle se le si collocava in uno “spazio di Hilbert”,
come se esse vi sentissero più a loro agio rispetto allo spazio fisico.
Questa scoperta di Neumann costituiva una sensazionale rivendicazione della potenza della
matematica astratta; dimostrava che la matematica astratta sta ala base della realtà fisica e non
viceversa. MA COSA STA ALLA BASE DELLA MATEMTICA ASTRATTA?
L’importanza del problema sta nel fatto che solleva la questione della natura stessa della
matematica. Esiste veramente un insieme di principi di base dai quali tutta la matematica possa
essere dedotta? E in caso affermativo, qual è l’origine di questi principi, insomma, da dove
vengono?
I PRINCIPI DELLA MATEMATICA PROVENGONO DALLA LOGICA.
Si usa dire che essa si occupa di stabilire la struttura della conoscenza e del ragionamento.
Come la matematica, la logica è astratta e fa uso di simboli: l’idea di utilizzarla come base della
matematica era troppo allettante perché la si scartasse, e così, al volgere del secolo; alcuni filosofi
si misero a lavorare per realizzare l’impresa, nella speranza di creare in tal modo un sistema
coerente e di pura conoscenza.
Un gruppo formato dai più brillanti fra i giovani matematici di Francia si riunì in un’associazione
segreta allo scopo di pubblicare un trattato di matematica, sotto lo pseudonimo di NICOLAS
BOURBAKI.
I bourbakisti decisero di lanciarsi in un ambizioso progetto, e produrre un loro testo definitivo di
scienza matematica da intitolarsi “Elèments de mathematique”, volevano lasciarne una
documentazione scritta, fondata su principi astratti e su dimostrazioni formali.
Ogni enunciato matematico dev’essere dimostrabile o refutabile, non può ammettersi nessun
genere di “non lo so”, e dev’esservi una procedura definita – un algoritmo – per decidere se sia
vero o falso. Hilbert aveva avanzato tutte queste esigenze perché aveva completa fiducia nella
possibilità che esse venissero soddisfatte, “un problema insolubile non esiste”.

Ma, sfortunatamente, il fato cedette alla tentazione di smentirlo.


KURT GODEL tre anni dopo, pubblicava un articolo dal titolo “Sulle proposizioni formalmente
indecidibili dei Principia Methematica e dei sistemi affini”. Il titolo diceva già tutto; con quei
“sistemi affini” Godel alludeva ai vari sistemi che Hilbert avrebbe voluto veder elaborati dai suoi
colleghi, anzi, a tutti i sistemi che tendessero a soddisfare il criterio hilbertiano della completezza.
Godel aveva elaborato un teorema che dimostrava come un qualsiasi sistema assiomatico “utile”,
ossia di quel genere che si poteva presumere capace di dare alla matematica la sua autorità sul

pag. 13
vero e sul falso, non sia in grado né di provare né di refutare tutte le proposizioni che può
formulare.
Inoltre, Godel aveva dimostrato che, per stabilire la “verità” di un tale sistema, si arriva per forza a
un certo punto in cui occorre appellarsi a un’autorità esterna: poco importa se umana, divina o
altro.
Nel 1928 BERTAND RUSSELL scrisse “Le macchine vengono venerate perché sono belle, e
apprezzate in quanto conferiscono un potere; e vengono odiate perché sono orrende, e aborrite
perché impongono schiavitù”. Nel 1936 uscì Tempi moderni di Charlie Chaplin, un film che coglieva
perfettamente l’ambiguità dell’atteggiamento generalmente diffuso negli anni precedenti la
Seconda guerra mondiale verso “l’era delle macchine”: un atteggiamento che è persistito a lungo
anche in quest’ultima parte del secolo.
Chaplin infatti si sottometteva alla tecnologia, e al tempo stesso attaccava la sua influenza
disumanizzante.
Turing: On Computable Numbers, stabilire la validità di un sistema matematico, la DECIDIBILITA’.
La “tavola di comportamento” (e non il disegno particolare di un qualsiasi elemento della
macchina), ne era l’elemento essenziale: anzi, la tavola era la macchina.
Fu questa ipotetica macchina che permise a Turing di dimostrare che non tutti i numeri sono
computabili: il che a sua volta voleva dire che l’ultimo criterio di Hilbert non può essere
soddisfatto, e che non c’era nessun metodo definito capace di risolvere tutti i problemi
matematici.
Nonostante il progetto di Hilbert fosse ormai andato in pezzi, e il lavoro di logici come Russell
fosse stato ormai abbandonato, l’idea di fondo, la fede nella matematica e nei suoi fondamenti in
quanto purissima espressione della verità, era sopravvissuta.
Ora la matematica era qualcosa di più di un semplice “gioco”, perché era stata sottoposta al
giudizio dei principi fondamentali della logica. Era infatti sui principi logici che Godel e Turing
basavano la validità dei loro argomenti: entrambi avevano messo in luce delle contraddizioni, cose
che la logica non può consentire.

LUDWIG WITTGENSTEIN, filosofo di Cambridge dalle idee selvagge, non era mai rimasto molto
impressionato da questa fiducia nei dogmi di un sistema logico formale.

Turing era convinto di trovarsi in un questo Eden (paradiso della matematica pura), ed ecco perché
la sua matematica doveva restare assolutamente incontaminata anche dalla più piccola possibilità
di contraddizione.

Al contrario, Wittgenstein non riusciva a capire quali danni potesse mai produrre una
contraddizione. Wittgenstein rispondeva che tutto quello che una contraddizione può fare è di
impedire l’applicazione di quel calcolo, semplicemente perché la cosa non funzionerebbe, non
causerebbe un risultato sbagliato: non produrrebbe nessun risultato di alcun genere.
Nel 1939 era il mondo che contava, non il paradiso e le idee di Turing si stavano rivelando molto
utili da un punto di vista molto pratico. Turing aveva dimostrato che era possibile meccanizzare ciò

pag. 14
che fino a quel momento poteva essere fatto soltanto coi mezzi della mente umana. Un tempo le
macchine avevano preso il posto del corpo; ora minacciavano di prendere il posto dello spirito.
QUAL È L’UTILITA’ DI UNA MACCHINA CHE PRODUCE SOLTANTO NUMERI?
Turing aveva dimostrato che alcuni numeri non sono computabili, aveva introdotto il concetto di
MACCHINA UNIVERSALE: una macchina che sa essere una quantità di macchine tutte diverse tra
loro, anzi, una macchina in grado di essere qualsiasi macchina capace di eseguire un calcolo.
Pensare a una macchina astratta e immateriale è difficile.

GILBERT RYLE definì l’“errore di categoria”, ovvero il confondere fra loro cose che appartengono a
categorie logiche incompatibili, come per esempio dire che “l’universo è più grande del numero
3”.

È facile commettere errori di categoria, anche se si tratta di errori di logica fondamentali.


Lo scopo di Ryle nell’isolare questo tipo di errore era esorcizzare un dogma da lui chiamato con un
altro termine rimasto famoso: quello del “fantasma nel computer”.
Ryle intendeva illustrare il fatto che il concetto di “mente” ha una relazione confusa con il corpo, e
che questa confusione è la stessa che commetteva il visitatore di Oxford quando confondeva il
concetto di “università” con gli edifici da lui visitati.
Ebbene, chiamare una macchina, un meccanismo che consta di materia, un “word processor” o
addirittura chiamarla “computer”, potrebbe definirsi un errore di categoria. Tutti i problemi di
questa natura potrebbero essere rimediabili con la distinzione di hardware e software.

Esiste una soluzione per questa confusione concettuale, che consiste nell’adottare il termine di
“VIRTUALE”. Un computer è una macchina “virtuale”: per essere più precisi è una macchina di
Turing virtuale. E un’entità astratta, un processo astratto che ha trovato espressione fisica, cioè
stato realizzato. E una simulazione: solo che non è necessariamente una simulazione di qualcosa
che esiste realmente.
IL VRTUALE È DUNQUE UNA MODALITA’ DI ESISTENZA SIMULATA CHE NASCE DAL CONCETTO DI
CALCOLO AUTOMATICO. GLI STESSI COMPUTER SONO ENTITA’ VIRTUALI, NON SOSTANZIALI.
L’unica idea che è rimasta assente è quella di INFORMAZIONE.
Poiché tutta la scienza dei computer viene talvolta chiamata “tecnologia dell’informazione”, una
tale omissione potrà sembrare perversa. L’idea di informazione viene utilizzata parecchio:
specificamente, si cita spesso in proposito il libro di Claude Shannon e Warren Weaver “Teoria
matematica della comunicazione”.
SHANNON ha usato il concetto di informazione per indicare un qualsiasi messaggio che venga
comunicato, indipendentemente dal suo significato. Con questa definizione Shannon intendeva
dire che è possibile prendere in esame i problemi insiti nella comunicazione di un messaggio (ossia
la distinzione tra il segnale – il messaggio originale – e il rumore – le interferenze -) senza bisogno
di ricorrere alla semantica: vale a dire ciò che il mittente intendeva dire col suo messaggio, e ciò
che il ricevente ha compreso.

pag. 15
Abbiamo:
- Spazio dell’informazione: ci sembra che si parli di qualcosa un po’ simile allo spazio di
Hilbert;
- Ansia dell’informazione: preoccupazione di non essere in grado di amministrare la
quantità d’informazione che ci viene dalle televisioni e dai giornali;
- Sovraccarico dell’informazione: conseguenza di una cattiva gestione di quell’ansia;
- Era dell’informazione: constatazione che nel nostro tempo tutti parlano molto
dell’informazione.
MA COSA PUO’ DIRCI TUTTO QUESTO?
Il concetto di informazione si presta difficilmente a una definizione: il significato della parola si è
andato facendo sempre più indefinito.
Un computer è una macchina che esegue una funzione molto precisa: il calcolo matematico.
Forse l’universo non è tanto un libro quanto piuttosto un computer, dove ogni cosa è il prodotto di
un qualche algoritmo.
Se fosse così vorrebbe dire che la macchina universale Turing è veramente universale: data la
giusta tavola di comportamento, potrebbe riprodurre un intero universo virtuale.
Una cosa è un simulatore di volo; ma che dire di un simulatore del mondo?

pag. 16
QUARTO CAPITOLO: COMPUTABILITA’ (pag. 95-123)
COMPUTAZIONALISTI = coloro che credono che il nostro universo potrebbe essere simulato e il
nostro destino calcolato.
Origini del progresso scientifico:

Galileo → inaugurò la regola secondo la quale si devono porre soltanto quelle questioni a cui può
essere data una risposta – è questo che ha strappato la scienza dalla schiavitù della filosofia-.
LA SCIENZA NON è DEFINITA DALL’ARGOMENTO CHE TRATTA, E’ UNA PROCEDURA
RIGOROSAMENTE SPECIFICATA E STRETTAMENTE GOVERNATA DA REGOLE.
Newton → Propone una serie di principi generali, o leggi, con le quali è possibile prevedere il
movimento dei corpi. Si tratta di principi astratti, applicati a oggetti ideali, quali per esempio corpi
senza attrito (dalle mele che cadono ai pianeti).
Contemporaneo di Newton: CHARLES BOYLE → ORRERY (simulazione astratta dell’universo
meccanico), senza le sue leggi la natura sarebbe totalmente incomprensibile.
La tecnologia non è mai stata strettamente legata alla scienza. Molta tecnologia si fonda su sue
proprie basi, fatte di conoscenze tradizionali e di esperienza. Il fatto stesso che la tecnologia non
sia un processo costante di invenzioni appare buona prova dell’esistenza di un qualche ordine
dell’universo (questo ordine sembra essere di natura matematica).
GALILEO CONSIDERAVA IL LIBRO DELL’UNIVERSO UN TESTO SCRITTO NEL LINGUAGGIO DELLA
MATEMATICA, CIO’ RENDE LE LEGGI DI NEWTON QUALCOSA DI PIU’ DI SEMPLICI OSSERVAZIONI E
GENERALIZZAZIONI → → → ESSE SANNO CALCOLARE IL MOTO DEI CORPI, SANNO REDIRE IL
FUTURO.
Di pari passo con la teoria della scienza si è sviluppata la potenza della matematica, tutto
l’universo è un calcolo. L’equazione tra universo e calcolo è qualcosa di più di una semplice
metafora, se le leggi della fisica sono leggi matematiche, forse sono anche COMPUTABILI → forse
l’universo è davvero una macchina di Turing, una forma di perpetuo computare.
Esiste un modo per visualizzare l’universo come un computer, consiste nell’utilizzare un’altra delle
metafore predominante ai nostri giorni: IL GIOCO.
In questa metafora del GIOCO UNIVERSALE vi sono parecchi punti deboli e punti di forza (…)
Le tre regole possono anche essere espresse matematicamente, oppure sotto forma di semplice
programma per il computer.
Dato che le sue leggi sono matematiche, non è necessario giocarla di persona: può essere eseguita
da un computer.
Glider (= piccoli gruppi di puntini che si dispongono in varie forme e disegni, “scivolano” da un
punto all’altro della scacchiera)
ESISTE UNA MACCHINA CHE SAPPIA FABBRICARE UNA COPIA DI SE STESSA, IVI COMPRESO IL
MECCANISMO NECESSARIO PER PRODURRE QUELLA COPIA?

pag. 17
Von Neumann → iniziò ad accostarsi al problema seguendo vie più formali e astratte, ricorrendo
alla fine a qualcosa cui diede il nome di “AUTOMI CELLULARI”.
AUTOMA CELLULARE => (usando le regole date e i dati tipi di pezzi) si aveva una macchina, o
meglio una configurazione, capace di riprodurre qualsiasi altra configurazione e anche copia di se
stessa → ciò dimostrava che anche attraverso l’applicazione delle più semplici regole poteva
aversi come risultato tutta la complessità del costruttore universale.
JOHN CONWAY→ matematico, diede origine al gioco LIFE, le più semplici regole immaginabili
potevano produrre un’immaginabile complessità.
IDEARE UNA CONFIGURAZIONE IN GRADO DI PRODURRE REALMENTE DEI GLIDER? Soluzione
trovata da: Bill Gosper → Glider Gun
Scoprì che l’universo era tale da prestarsi naturalmente al linguaggio della fisica e della biologia e
che offriva persino un mezzo giocoso per studiare certi fondamenti della fisica.
Analogamente era possibile giocare con una “scacchiera” → dimostrazione dei due concetti
“spazio ricurvo” e di universo “illimitato ma finito” che erano emersi nella teoria della relatività di
Einstein. Il gioco aveva anche un’altra attrattiva: generava un universo che sembrava avere una
sua vita propria, nel senso che poteva esser lasciato a svilupparsi per suo conto; questo produceva
risultati che non si sarebbero mai potuti prevedere dalla posizione di partenza.
ABBOTT → Flatlandia (esistenza di un universo a due dimensioni), A. Square cerca di dare un
senso a Spacelandia (il paese dello spazio, mondo tridimensionale)
Flatlandia → celebrazione del pensiero astratto, quel pensiero che può condurci oltre i confini del
punto di vista empirico.
DIONYS BURGER → Sphereland (tentativo di combinare i due mondi in un unico mondo che
dimostrasse il concetto di CURVATURA DELLO SPAZIO).
Tuttavia, si forzava quel legame fra i “giochi” con gli automi cellulari e la fisica del mondo reale che
tende a formarsi nell’immaginazione dei programmatori e dei ricercatori: un legame che
sembrerebbe confermare l’idea che l’universo possa essere esso stesso un immenso automa
cellulare a tre dimensioni.
L’universo è qualcosa di dimensioni potenzialmente infinite ed è semmai una madre di macchine.
Ma tutto ciò che interessa ai computazionalisti è di stabilire un principio → potrebbe essere il
nesso fra quelle famose configurazioni prodotte da programmi come LIFE e l’origine stessa della
vita.
HARVEY: livello di organizzazione della materia
SCHRODINGER: definì il cromosoma “una scrittura in codice”, collegando l’idea della formazione
degli organismi all’idea dell’informazione piuttosto che a quella di forma. Gli organismi viventi si
mantengono in uno stato ordinato ma instabile, senza mai raggiungere, mentre sono in vita, uno
stato di equilibrio. Le cose inanimate si consumano e perdono forma e struttura, quelle viventi le
creano → TURING: morfogenesi (è il processo che porta allo sviluppo di una determinata forma o
struttura).

pag. 18
Come accade spesso quando si dispone di un nuovo strumento scientifico, il computer aveva
rivelato qualcosa che prima non si sarebbe mai potuto scorgere: la generazione spontanea della
FORMA.
Turing aveva dimostrato che la morfogenesi non è necessariamente il risultato di qualche
misteriosa “forza” esterna che agisce sul materiale fisico della vita, bensì è una qualità della forma
stessa.
QUALI SONO LE ORIGINI DELLA STRUTTURA E DELL’ORGANIZZAZIONE DELL’UNIVERSO?
Se si pensa alla termodinamica dell’inizio dell’universo → come si arriva da una palla di gas
uniforme molto calda a una quantità di galassie disposte molto irregolarmente qua e là?
Meccanica statistica: non è possibile

Automa cellulare: è possibile


Gli automi cellulari sono considerati come elementi di prova del fatto che certe combinazioni di
semplici elementi sono capaci di “auto-organizzarsi”, dal caos salta fuori inaspettatamente una
struttura.

ILYA PRIGOGINE → sviluppato l’idea dell’auto-organizzazione al fine di mostrare come la seconda


legge della termodinamica possa produrre ordine anziché disordine.
Il caos non si limita a produrre l’ordine, ma lo contiene. Esistono cioè profonde strutture
all’interno dei comportamenti apparentemente caotici e casuali che caratterizzano tutti i
fenomeni naturali e sociali.

Alla forma che queste strutture possono prendere è stato dato il nome di “attrattore strano”.
“attratto” (=uno stato verso quale il sistema è attratto), “strano” (= quando è uno stato invisibile.
Individuabile solo mediante analisi di dati molto complessi). Essi ci suggeriscono che tutti i
fenomeni caotici potrebbero forse avere un loro attrattore strano.
Aspetto negativo: nonostante la possibilità che i sistemi caotici siano stabili, al livello al quale
facciamo direttamente esperienza essi sono estremamente instabili.

I sistemi caotici lineari possono subire mutamenti improvvisi alla minima provocazione. Ciò è noto
con il nome di “effetto farfalla”, QUEL MUTAMENTO SENSAZIONALE NEL COMPORTAMENTO DI
UN SISTEMA CAOTICO, CHE PUO’ RISULTARE DA UN MINUTISSIMO CAMBIAMENTO DELLE
“CONDIZIONI INIZIALI”.
Un atteggiamento più intuitivo e meno riduttivo verso una scienza del caos si deve a Mandelbrot,
che considera se stesso come il campione di questo atteggiamento.
Mandelbrot affrontava i problemi facendosi guidare dalla sua intuizione su strutture e forme.
Diffidava dell’analisi, mentre aveva fiducia nelle sue immagini mentali.
L’immagine più straordinaria che sia uscita da questo modo di procedere è il cosiddetto “INSIEME
DI MANDELBROT” → generato da una formula semplicissima, l’insieme in questione, se lo si
rappresenta graficamente, forma un’immagine complessa che possiede tutti gli elementi
dell’“autosomiglianza”.

pag. 19
Da quando Mandelbrot creò per la prima volta un’immagine dettagliata del suo insieme vi furono
varie parti e diverse rivendicazioni personali della scoperta della “TEORIA DELLE CATASTROFI”.
La TEORIA DELLE CATASTROFI è discussa perché insinua che la matematica che è stata alla base di
tre secoli di scienza avrebbe incoraggiato una visione unilaterale del concetto di cambiamento.
La TEORIA DELLE CATASTROFI si occupa soltanto di un diverso tipo di matematica, la “topologia”.

La TOPOLOGIA → scienza che si occupa di quelle caratteristiche degli oggetti che non cambiano se
vengono piegati, allungati, compressi o contorti (esempio dei due guanti e del quadrato che
diventa un cerchio).
TEORIA DELLE CATASTROFI E TEROIA DEL CAOS → entrambe si occupano del contrario di ciò che il
loro nome suggerisce, cioè della scoperta di un disegno e di un ordine. Tuttavia, un nesso col
mondo della realtà c’è eccome, e lo troviamo nelle applicazioni sia di una che dell’altra teoria.
Che ne è stato dunque della teoria delle catastrofi? Il problema di questa teoria non era solo di una
questione di stile; la teoria asseriva di poter fornire un modo per comprendere qualsiasi genere di
catastrofe. Sembrava non esservi limite nelle sue applicazioni: si sarebbe detto che funzionava
quasi troppo bene.

La teoria del caos, come quella delle catastrofi, poggia sull’ipotesi che il mondo reale e il mondo
della matematica siano in qualche modo collegati. La natura resta sdegnosamente silenziosa
sull’argomento: si rifiuta di dirci da dove le vengano i suoi misteriosi disegni.
Con il tramonto della teoria delle catastrofi e l’imminente perdita d’interesse verso la teoria del
caos, è emersa una TERZA TEORIA, che potremmo chiamare la TEORIA DELLE CRISI.
Questa teoria è una combinazione dei concetti di criticità e di auto-organizzazione, il termine
“criticità” denota un concetto forte.
Uno stato critico è quello che si trova sull’orlo della catastrofe.

I creatori del concetto di criticità auto-organizzata ritengono che la caratteristica più interessante
dei grandi eventi imprevedibili sia quella di essere, in realtà, un insieme di tanti eventi più piccoli e
indipendenti l’uno dall’altro e le componenti multiple che li compongono si organizzano tra loro.
L’universo si suppone procedere verso una situazione di equilibrio, tuttavia vi sono queste
strutture sempre in bilico, sull’orlo della crisi, ciò nondimeno sono abbastanza stabili, e persino
capaci di auto mantenersi.

TUTTE E TRE QUESTE TEORIE, CATASTROFE, CAOS E CRISI HANNO IMPIEGATO CON SUCCESSO LA
MATEMATICA PER ESPLORARE FENOMENI CHE SONO ASSOLUTAMENTE NATURALI.

La matematica deve avere una forte connessione col mondo, il computer è capace di dominare
quella matematica. I frattali e le teorie sembrano altrettante prove che il mondo, la natura e la vita
stessa a dispetto di tutto il loro disordine e di tutta la loro complessità, sono computabili.
Rimane tuttavia ancora una cosa da esaminare, ed è una prova che i computazionalisti devono
sperare che le loro dilette macchine riescano a superare: INTELLIGENZA ARTIFICIALE.
pag. 20
QUINTO CAPITOLO: INTELLIGENZA ARTIFICIALE (pag. 124-149)
L’intelligenza è qualcosa che non rientra nel campo di uno scienziato, è una parte delle misteriose
operazioni della mente.
La mente → origine della nostra identità, della nostra coscienza, della nostra stessa vita.

La scienza → terribilmente esigente, vuole che le sue teorie possano applicarsi a tutto ciò che le
riguarda.
La mente umana è la regione in cui regna il dubbio. Questo è il punto di vista noto come
“DUALISMO” → divide l’universo in due tipi di sostanza, una materiale e una spirituale. Le leggi
della natura si applicano solo alla sostanza materiale, la sostanza spirituale agisce secondo una
volontà sua e propria.

DUALISMO CARTESIANO
GILBERT RYLE → libro nel 1932 concetto di “errore di categoria” (= un errore molto semplice, che
però può essere difficile da scoprire e da correggere). Ryle sostiene che è proprio questo il tipo di
errore che facciamo parlando della “mente”.

Ogni essere umano possiede sia corpo che mente. I CORPI UMANI sono nello spazio, dominati da
forze meccaniche che governano tutti i corpi nello spazio. LE MENTI non sono nello spazio, né le
loro operazioni sono soggette alle leggi della meccanica.

Vi sono due mondi, quello mentale e quello fisico, così abbiamo creato un “FANTASMA DELLA
MACCHINA”; quando parliamo della mente non stiamo parlando di un mondo “separato” ma
stiamo usando quel tipo di linguaggio per descrivere una proprietà di un certo modo di
comportarsi.
B. F. SKINNER → psicologo americano, aveva esposto forti argomenti riguardo la dottrina
chiamata:
BEHAVIORISMO (= l’idea che gli stati mentali non siano altro che dei comportamenti → “scatola di
Skinner”) → tentativo di rendere la psicologia una vera scienza. Lo sforzo di Skinner è stato quello
di portare la mente nel regno della realtà scientifica.
MICHAEL POLANYI → si occupava attivamente dei rapporti fra la scienza e l’attività dell’individuo:
diffidava del materialismo e aveva accolto con entusiasmo l’incompletezza della matematica
(Godel) e che quindi => prova che vi fosse ancora spazio nell’universo per ciò che non è puramente
meccanicistico.
Polanyi e Turing cominciarono le discussioni sulla possibilità di meccanizzare la mente, articolo:
“Macchine calcolatrici e intelligenza”.
Il faticoso viaggio delle scienze informatiche alla ricerca dell’intelligenza artificiale era cominciato.
L’articolo di Turing si occupava più di principi che di possibili applicazioni pratiche. Non c’è nessun
legame essenziale tra esseri umani e intelligenza (TEST DI TURING).
Test di Turing è tuttora accettato da molti ricercatori nel campo dell’intelligenza artificiale come
criterio di successo.
pag. 21
Obiettivo di Turing: PROVARE CHE L’INTELLIGENZA È UNA QUALITA’ INDIPENDENTE, CHE RISIEDE
NEL MODO IN CUI VIENE UTILIZZATO IL LINGUAGGIO. CIO’ SIGNIFICA CHE, QUALSIASI COSA IN
GRADO DI MANIPOLARE SIMBOLI ALLO STESSO MODO DEGLI UMANI È CAPACE DI MANIFESTARE
INTELLIGENZA.
Il linguaggio naturale è computabile?
NOAM CHOMSKY mirava a scoprire una “grammatica universale” comune a tutti gli esseri umani
che impiegano il linguaggio; a tale scopo elaborò il concetto di “grammatica generativa” =
“macchina” che possa essere utilizzata per generare tutte le possibili frasi grammaticali di una
data lingua.
La macchina di Turing doveva essere usata per specificare ciò che è “esprimibile” col linguaggio
della matematica.
Chomsky indica tre tipi di macchine per la sua grammatica generativa, la più significativa è: la
“GRAMMATICA TRASFORMAZIONALE” (=> specifica la sintassi di un linguaggio – i modi di
disporre le parole indipendentemente dal loro significato- e la semantica – i modi in cui vengono
generati i significati-: “I like her cooking” (?)).
Il fatto che la sintassi di una lingua sia computabile dimostra che sia computabile anche la sua
semantica, ossia il significato delle sue frasi?
ARTHUR (Automatic Record Tabulator and Heuristically Unreliable Reasoner).
I computazionalisti partono dal presupposto che il linguaggio possa essere purificato. I fondamenti
della matematica sono indipendenti dalla realtà fisica, lo stesso potrebbe essere fatto con la
grammatica universale.
Da un punto di vista computazionale è un sistema astratto di simboli dove il significato appare a
partire dal momento in cui il sistema viene applicato a esperienze reali.
I linguaggi “naturali” non posseggono affatto le qualità di un sistema puramente formale: non
sono dei calcoli.
I linguaggi di programmazione sono linguaggi formali: sono stati progettati proprio per essere
computabili. L’impiego di parole riconoscibili come PRINT e LIST non significa che il calcolatore
comprenda il significato di queste due parole: esse vengono semplicemente usate come ausilio
mnemonico a beneficio del programmatore.
Anni Settanta, il mondo dell’Intelligenza Artificiale (AI) era più interessato alle questioni pratiche
piuttosto che ai principi filosofici o alle teorie (interesse anche da parte dell’esercito, loro
spingevano per le scoperte).
JAMES LIGHTHILL → matematico, iniziò a valutare la situazione delle ricerche sull’argomento e le
prospettive esistente (sotto richiesta dell’esercito), ma diceva che i risultati non sarebbero stati
riprodotti nel “mondo reale” semplicemente perché il mondo reale era troppo complesso per poter
essere ridotto a una grammatica formale.
In America, i ricercatori di AI cominciarono a concentrare gli sforzi sulla ricerca di applicazioni
pratiche a quelle situazioni del “Mondo reale” che potessero venir sufficientemente semplificate.
pag. 22
CIO’ CHE SCOPRIRONO FU QUALCOSA CHE CHIAMARONO “SISTEMA ESPERTO” (= un computer in
grado di eseguire il lavoro di un esperto).
Tuttavia, gli “esperti” lavorano servendosi di un insieme di regole tecniche ben specificate. Se si
riuscisse a codificarle, forse il computer sarebbe in grado di riprodurre, almeno in parte, i compiti
dell’esperto → → → si potrebbero automatizzare molte attività che si vanno facendo sempre più
costose.
Successivamente sono stati fatti dei tentativi di riprodurre i sensi umani, la capacità di riconoscere
certe forme e certi oggetti e la capacità di identificare certi suoni.
Nella ricerca MILITARE, il termine “intelligenza” è stato sostituito con il termine “destrezza” →
molto più adatta per una macchina.
Le macchine “destre” sono il diretto risultato di ricerche sui sistemi di riconoscimento di forme. La
“destrezza” di tali macchine si limita strettamente alla capacità di riconoscere un bersaglio e di
dirigersi verso di esso.
Nel corso degli anni Ottanta => corsa allo spazio tra America e Giappone: ARIVARE AL PRIMO
COMPUTER PENSANTE DI QUINTA GENERAZIONE. K
Il governo giapponese diede vita a un programma: ICOT
Gli americani programmavano: DARPA

La competizione che si accese tra questi due programmi di ricerca non era solo un tentativo di
arrivare per primi a raggiungere un particolare obiettivo tecnologico → RAFFORZARE LE
RISPETTIVE VOLONTA’ POLITICHE E GLI IMPEGNI DI BILANCIO.

Il progetto giapponese non diede buoni risultati, gli americani non erano stati realmente
competitivi, forse solo perché stavano correndo su una pista diversa.

Giappone → si lanciò in un progetto che venne battezzato “di sesta generazione” → produrre un
computer di un più alto ordine di complessità.

Anche l’Europa tentò di escogitare una risposta all’interno del suo progetto comunitario di ricerca
col programma detto “Alvey”. Nessuno di questi tentativi è riuscito a produrre una macchina che
possa dirsi capace di pensare; e certamente nessuno ha prodotto un serio candidato da prestare al
test di Turing.
I ricercatori di AI hanno già cominciato a prendere in considerazione non già la mente e il
linguaggio, ma il CERVELLO. Se fosse possibile alla complessità del cervello forse ci si
avvicinerebbe anche alla sua capacità di pensare.
La possibilità che un giorno i computer possano rivaleggiare con le capacità di elaborazione e con
la potenza di memoria del cervello umano È MOLTO SERIA.
HANS MORAVEC → scienziato della tecnologia informatica, segue una linea di pensiero che a suo
giudizio riflette lo sviluppo storico della robotica e dell’intelligenza artificiale.
Buona parte del suo metodo consiste in grafici, comparano le caratteristiche delle diverse
macchine descritte (sia reali che immaginarie) con le specie animali.
pag. 23
Le sue stime solo assolutamente temerarie, ma sono sostenute da presupposti e da calcoli
piuttosto solidi, la sua mente non è per nulla inibita dalle convenzioni del conservatorismo
scientifico:
Moravec → compatuzionalista forte, non vede limiti né possibilità del calcolo né alla potenza dei
calcolatori.
Moravec → idea che una sufficiente potenza di calcolo possa produrre intelligenza. Uno degli
sviluppi che lo incoraggiano in questa speranza è il fenomeno della “emergenza”.
Come è stato chiaramente dimostrato dal gioco LIFE o dai giochi di scacchiera, i sistemi più
semplici possono dar luogo a risultati del tutto inattesi e sorprendentemente complessi
 Forse il pensiero è una proprietà “emergente” di una macchina molto complessa basata su
principi semplicissimi.
 SI SCOPRONO QUESTI PRINCIPI, SI CREA UNA MACCHINA SUFFICIENTEMENTE COMPLESSA,
ED ECCO CHE DALLA MACCHINA EMERGE IL PENSIERO.
DANNY HILLIS → aveva progettato un “calcolatore parallelo”, chiamò il computer “Connection
Machine” e diede alla nuova compagnia il nome di Thinking Machines.
Sistema straordinario: un computer parallelo ha molti processori; nel caso della Connection
Machine i processori erano 65 536.
Progettare un calcolatore parallelo → perché risulti più efficiente è necessario escogitare un
modo per far sì che i molti suoi processori interagiscano fra loro.
CREARE L’EQUIVALENTE DI UNA RETE TELEFONICA, ATTRAVERSO LA QUALE I PROCESSORI
POTESSERO SCAMBIARSI MESSAGGI.
Rete in questione: disegno astratto, cubo a 12 dimensioni.

HILLIS → nutriva molte speranze e molta fiducia nel concetto di emergenza, insomma il fantasma
è tornato dentro la macchina.

Hillis resta sostenitore acceso dell’intelligenza artificiale => per lui l’emergenza è solo qualcosa che
offre una comoda linea di ricerca sull’intera materia.
TEORIA DELL’INTELLIGENZA EMERGENTE → entrò a far parte di un movimento, all’interno dell’AI,
che prese il nome di “CONNESSIONISMO”
CONNESSIONISMO = la mente si identifica con le connessioni esistenti nel cervello: una proprietà
nel cervello che può essere riprodotta facilmente in un computer, creando ciò che prese appunto il
nome di “rete neurale” → rete di neuroni simulati, capaci di interagire fra loro in modo simile a
quello con cui interagiscono i veri neuroni, quelli biologici.

La ricerca riguardante l’intelligenza artificiale si è articolata in due direzioni molto ben distinte tra
loro.

1) Tentare di usare i calcolatori per riprodurre i comportamenti tipici dell’intelligenza → AI


DEBOLE
2) Tentativo di scoprire se la mente sia essa stessa un calcolatore → AI FORTE
pag. 24
Al termine degli anni Ottanta i calcolatori erano in grado di competere coi Grandi Maestri
internazionali, dimostrando almeno che una forma d’intelligenza si poteva riprodurre
artificialmente con un computer.
DISTINZIONE TRA AI FORTE E AI DEBOLE viene di solito data grande importanza → non si tratta
invece di due estremi di una medesima scala? Qual è la differenza se si impiega un computer per
fare lo stesso lavoro?
LA DIFFERENZA STA TUTTA NELLA CAPACITA’ DEL COMPUTER DI SIMULARE L’INTELLIGENZA
ANZICHE’ IMITARLA, la qual cosa dipende dall’essere o no di natura meccanica (ovvero
computazionale) i processi che producono la mente umana l’intelligenza umana.
ATTACCO CONTRO L’INTELLGINEZA ARTIFICIALE → ROGER PENROSE
Assunto di Penrose → persino una macchina come questa (…) non sarà mai capace di rispondere a
una domanda riguardante i sentimenti.
Il suo vero bersaglio è il credo computazionalista. Contro l’opinione diffusa che “tutto è un
calcolatore”, egli tenta di dimostrare PERCHE’, e forse anche COME, ciò non sia affatto vero.
Stanza di Penrose, immagine stessa del caos, manca solo un computer → sua ferma convinzione
che la matematica non sia tutto e soltanto un calcolo.
L’INSIEME DI MANDELBROT → Mandelbrot voleva scoprire se certi numeri avessero una qualche
caratteristica interessante in comune (fine pag. 143): a questo fine cominciò a tracciarli sotto
forma di un grafico, e fu così che scoprì quella caratteristica forma di patata bitorzoluta.
Dato un qualunque numero di partenza, c’è un modo per sapere se esso appartenga o no
all’insieme? Ciò che occorre è un algoritmo che possa predire se il numero di partenza è o non è
un membro dell’insieme.
Il VERO SCOPO DI PENROSE è quello di postulare l’esistenza di una sorta di mondo “platonico”
distinto e separato dal mondo fisico, nel quale esistono oggetti del genere del frattale di
Mandelbrot → → questi oggetti sono stati inventati da dei matematici (non scoperti).
PENROSE è un platonico → è convinto che gli oggetti matematici abbiano una loro esistenza
indipendente, e che l’insieme di Mandelbrot sia una cospicua dimostrazione di questo fatto.
La realtà platonica non si può esplorare servendosi solo del computer. Se si vogliono scoprire
veramente i suoi segreti occorre soprattutto INSIGHT (= certo tipo di intuizione).
Penrose si affida a quel risultato di Godel secondo il quale l’aritmetica deve necessariamente
contenere una proposizione che non può essere dimostrata aritmeticamente. Tale proposizione
deve essere vera → è questa verità che può essere vista con l’aiuto dell’insight.
Penrose non è eccessivamente eccentrico come matematico, è certo che possiede una mente
molto indipendente, entusiasmo per l’invenzione della matematica,
per ogni forma di invenzione → INTUIZIONE, fattore molto importante per lui (portare alla luce
un problema che stava insondabilmente nascosto).

pag. 25
ESCHER “Salita e discesa” → vera sensazione di essere intrappolati nel cerchio chiuso di un sistema
formale: uno di quei sistemi che sembrano ermeticamente chiusi nel loro mondo autosufficiente
di autoreferenza.
Godel e John Lucas, stessa idea → teoremi che dimostrano in un modo o nell’altro l’impossibilità di
una mente meccanica.
DOUGLAS HOFSTADTER → come questi ultimi, anch’egli membro entusiasta del circolo di
matematici che potremmo chiamare “scuola di Penrose”. Per lui non esiste argomento che vada
immune dal poter essere riformulato in termini di evento ipotetico: sotto forma di teoria di un
dialogo platonico fra personaggi dal nome che è esso stesso un gioco di parole (Lukus il
Pensatore).
“PARADOSSO DELLA COSCIENZA” → essere consapevoli di sé stessi.
La controversia sull’intelligenza artificiale è un po’ come la scala impossibile di Penrose,
l’importanza che ha per noi sta tutta nel dilemma se l’universo sia o non sia un computer. La
risposta di Penrose a questo dilemma è un NO. Così facendo, egli nuota contro una fortissima
corrente di opinioni.
JULIAN HILTON => il teatro è una macchina che potrebbe essere usata per riprodurre l’intelligenza.
Si potrebbe usare una forma analoga di meccanismo di rappresentazione per riprodurre
l’intelligenza in un calcolatore.
Tuttavia, ciò che un meccanismo del genere potrebbe riuscire a fare non sarebbe una simulazione,
ma una imitazione dell’intelligenza. La SIMULAZIONE è possibile solo quando esiste un modello
matematico, una macchina virtuale che rappresenta il sistema da simulare. Il teatro, non è una
macchina, ed è per questo che è una forma espressiva tanto potente.

La coscienza e l’intelligenza non possono essere oggetto di misurazione, si tratta semplicemente di


qualità che non sono proprietà scientifiche e neppure parametri matematici.

La maggior parte del mondo in cui viviamo è destinata a prestarsi alla simulazione.
La sfera del mondo fisico potrebbe essere considerata tutta come una simulazione in realtà più
pura e più profonda, una REALTA’ VIRTUALE.
I paladini della realtà virtuale ne sono più che convinti. Per essi il display a cuffia di Ivan Sutherland
è qualcosa di più di uno schermo televisivo superlativo. È la via maestra che condurrà in un mondo
nuovo e inesplorato: il CIBERSPAZIO.

pag. 26
SESTO CAPITOLO: CIBERSPAZIO (pag. 150-167)
WILLIAM GIBSON → aveva definito la parola “ciberspazio” un’“allucinazione consensuale”. Col
ciberspazio ci si può letteralmente avvolgere nei media, senza più dover preoccuparsi di vedere
cosa sta accadendo attorno a noi.
Ciberspazio → si tratta di una versione romanzesca del concetto originale di IVAN SUTHERLAND: il
DISPLAY DEFINITIVO, una forma di presentazione contemporanea dell’informazione a tutti i sensi,
in una specie di immersione totale.
Gibson → aveva esteso il concetto, quello di Sutherland era quello di “uno specchio rivolto verso
un Paese delle meraviglie della matematica”; ma Gibson l’aveva estesa fino ad abbracciare
L’INTERO UNIVERSO DELL’INFORMAZIONE.
Con l’era delle esplorazioni spaziali giunta ormai al crepuscolo, il ciberspazio stava davvero
diventando la nuova, ultima frontiera, e la sua Enterprise era la realtà virtuale.
Al pari dello spazio astronomico, anche il ciberspazio veniva percepito in modo confuso dall’uomo
della strada; però regnava la speranza che un giorno la tecnologia avrebbe offerto a tutti la
possibilità di accedervi.
CHE COS’E’ DUNQUE IL CIBERSPAZIO???
Altrettanti sinonimi: cyberia, spazio virtuale, mondi virtuali, dataspace, regno digitale, mondo
elettronico, sfera dell’informazione.
Significa propriamente l’arte di governare un’imbarcazione, la scienza dei meccanismi di
controllo.

COME HA FATTO QUESTA PAROLA AD ACQUISTARE COSI’ TANTO VALORE???


MARSHALL MCLUHAN → “l’elettricità ha ridotto il globo a poco più di un villaggio”
Questo concetto di “villaggio globale” comincia ad essere visto come perfetta espressione della
nuova era finanziaria globale di reti telefoniche internazionali.
Il “villaggio globale” è tecnicamente fattibile.
L’immagine di “villaggio globale” suggerisce alla mente un quadro allettante: in virtù della
tecnologia delle comunicazioni, lo stato di alienazione e di dispersione dell’uomo urbanizzato
verrà estirpato e ridotto nei più confortevoli confini di un’età preindustriale.
MARSHALL MCLUHAN → vedeva la tecnologia come un’estensione del corpo umano: come la
ruota è un’estensione dei piedi, come il telescopio è un’estensione degli occhi, così LA RETE È
UN’ESTENSIONE DEL SISTEMA NERVOSO.
Noi abbiamo infranto la barriera terminale della nostra pelle.
La tecnologia che ha reso possibile tutto ciò è la tecnologia delle reti. Ciò che è nuovo è una
tecnologia della comunicazione che ha permesso all’informazione di ogni genere d’essere
trasmessa da un luogo all’altro indipendentemente dalla distanza.

pag. 27
Queste reti sono elettroniche → la trasmissione dei messaggi avviene istantaneamente, via cavo o
via fibra ottiche, o per radio e microonde.
Per quanto riguarda l’uso dei calcolatori → è sempre la rete ad essere considerata quella che
permette all’inevitabile progresso tecnologico di compiere il grande passo successivo. Il personal
computer sta per diventare “il calcolatore interpersonale”.
In origine, la rete ARPAnet era stata progettata per permettere a più ricercatori di disporre tutti
degli stessi dati. Venne poi utilizzata sempre più per scambiarsi messaggi. In un certo senso questa
fu la PRIMA COMUNITA’ “VIRTUALE” DEL MONDO: UNA COMUNITA’ CHE ESISTEVA SOLO IN
QUANTO INTERAGIVA ATTRAVERSO L’ ARPAnet.
La rete si sviluppò in due direzioni: crebbe sempre più verso l’esterno fino a coprire l’intero globo,
e alla fine cambiò nome, prendendo quello di Internet. Per molti l’Internet è il modello perfetto di
comunità virtuale.
L’ARPAnet subì anche delle contrazioni, cosa che ispirò la creazione della prima “rete di zona
locale” (LAN), l’Ethernet.
Maggiore la quantità d’informazione da trasmettere, e maggiore la distanza, più grandi sono i costi
da sostenere per trasmetterla.
Che cosa appartenga a chi non dipende più dalla collocazione fisica di queste cose in una macchina
particolare, bensì dal modo in cui sono organizzate attraverso la rete.
Verso la metà degli anni Ottanta, un dipartimento della NASA iniziò a lavorare su un progetto cui
diede lo stimolante appellativo di “TELEPRESENZA”. In origine la telepresenza veniva studiata
come un mezzo per controllare i robot.
La NASA mirava a sviluppare una tecnologia “avvolgente”, capace di dare all’operatore la
sensazione di trovarsi lui stessa nella macchina che veniva comandata da terra.
La NASA sperava che la comunicazione sufficientemente completa fra operatore e robot potesse
far sì che il robot divenisse quasi il corpo dell’operatore: il quale in tal caso sarebbe stato
“telepresente” → trasportato istantaneamente ovunque il robot stesse lavorando.
La comunicazione tra robot e operatore si realizza attraverso uno scambio di informazioni, forse
allora la “telepresenza” è possibile ovunque.
Basterà inserire i contatti fra il casco e una sorta di tuta che ricopra il corpo, da un lato, e il
telefono e la rete televisiva dall’altro, e si potrà partire alla scoperta del vero significato di
quell’illimitato sistema sensorio di cui parlava McLuhan. NON GUARDEREMO PIU’ LA TELEVISIONE,
LA “FAREMO”: POTREMO AFFACCIARCI ALLA FINESTRA DEL MONDO.
È DUNQUE QUESTO IL CIBERSPAZIO???
ESISTE VERAMENTE UN REGNO INDIPENDENTE CREATO DALL’INTERCONNESSIONE FRA I SISTEMI
DI COMUNICAZIONE DEL MONDO???
È UNO SPAZIO METAFORICO O UNO SPAZIO REALE???

pag. 28
Quando si pensa alle reti di comunicazione → entità trasparenti, sistemi capaci di portare
messaggi da un essere umano all’altro senza minimamente alterare o dare una forma diversa al
loro significato.
McLuhan → concetto di villaggio globale → ciò che intendeva è che le reti NON SONO AFFATTO
TRASPARENTI. La televisione non è una finestra sul mondo: al contrario, ha un effettivo ruolo nel
determinare ciò che il pubblico vede e interpreta. Tutto è stato creato specificatamente per le
telecamere.
WES THOMAS → aveva appreso la notizia della diffusione di un virus dei computer
particolarmente pericoloso, variamente denominato “12 ottobre”, “Datacrime”, e anche
“Columbs Day”.
Il virus dei computer è portatore di un elemento in codice, che è un programma genetico, e che
utilizza il meccanismo di replicazione del computer per produrre copie di sé stesso le quali si
diffondono poi su altri ospiti usando un qualsiasi mezzo che siano in grado di utilizzare.
La DIFFERENZA più importante tra un VIRUS DI COMPUTER e un VIRUS BIOLOGICO:
Virus di computer → è stato scritto appositamente da un programmatore a scopo di provocare
effetti perniciosi;
Virus biologico → si forma spontaneamente per natura.
Come risultò poco dopo, non si trattava che di un episodio di irregolarità di funzionamento in un
computer del Royal National Institute for the Blind, l’Istituto Nazionale dei ciechi.
Il lato più interessante della storia del virus di venerdì 13 è il fatto che le notizie sulla sua diffusione
non erano tanto un aspetto dell’epidemiologia del virus quanto della diffusione della stessa
notizia. Thomas aveva dato il via a una storia che evidentemente era altamente contagiosa.
Il termine “VIRUS” non era più semplicemente un termine medico, ma aveva acquistato
improvvisamente una RISONANZA MORALE. Ed era una risonanza che si trasferì al virus dei
computer con grande facilità.
Fin dal tempo dell’accettazione internazionale del personal computer dell’IBM come standard
tecnico, i personal erano diventati in grandissima maggioranza FUNZIONALMENTE IDENTICI. In
altre parole, era nata una nuova “specie” omogenea di macchine, con varianti troppo piccole per
essere protetta da insidiose infezioni. La DIFFUSIONE di un virus capace di riprodursi in modo
efficiente era un’autentica minaccia di danni gravi ed estesi.
Più significativa dell’impatto provocato dalla storia del virus era però la crescente
CONSAPEVOLEZZA che la RETE INTERNAZIONALE DEI MEDIA non era semplicemente un sistema di
comunicazioni passivo, ma era invece un AMBIENTE che sotto molti aspetti aveva una VITA SUA
PROPRIA.

Storia del virus → fenomeno da villaggio globale


AIDS → malattia da villaggio globale

pag. 29
Si aveva qui una prova della nascita di un ambiente artificiale (un’altra delle cose che McLuhan
aveva presagito).
RICHARD DAWKINS → esiste un elemento comune a tutte le forme di vita => REPLICATORE
Replicatore = meccanismo capace di immagazzinare l’informazione e replicarla.

Il REPLICATORE DELLA VITA NATURALE → GENE, costituito da un segmento di DNA


Concetto importante, importante DISTINZIONE nel concetto di replicatore:
da un lato c’è l’INFORMAZIONE che deve essere replicata => GENOTIPO
dall’altro lato c’è l’”espressione” del prodotto di questa informazione => FENOTIPO
L’informazione codificata nel gene è il genotipo, l’organismo che ne è il prodotto è il fenotipo.

Fenotipo → insieme degli strumenti che servono per fare le copie del genotipo.
I virus dei computer sono dei replicatori ma in un senso speciale → sono dei parassiti e non sono
provvisti dei mezzi necessari per l’espressione fenotipica.
Il programma del virus può essere considerato come il genotipo; l’effetto che esso ha sul computer
può essere considerato come la sua espressione fenotipica. Potrebbe anche accadere che il
programma venga copiato con delle inesattezze, e il risultato potrebbe essere allora una nuova
versione del programma originale, il quale potrebbe produrre un fenotipo che copia il virus con
maggior efficienza. → → → → → → INIZIO DI UN PROCESSO EVOLUTIVO!!!!!

 L’ambiente artificiale creato dai calcolatori diverrebbe l’ospite di una nuova forma di vita in
evoluzione, che si propagherebbe incontrollabilmente attraverso le reti di elaborazione
elettronica di tutto il mondo => idea di FENOTIPO ESTESO.

DAWKINS → tutto ciò che è CONSEGUENZA dell’ESPRESSIONE DEL GENE può essere considerato un
FENOTIPO (esempio: la diga costruita da un castoro è un effetto genetico, tale da poter contribuire
alle probabilità di riproduzione del gene del castoro).
Gli UTENTI UMANI:

 offrono un mezzo perfetto per l’acquisizione di nuove risorse riproduttive


 Sono influenzati dai computer che possono essere utilizzati in modi che sfuggono del tutto
dall’attenzione, e che favoriscono la propagazione di un virus particolare.

I REPLICATORI sono: insidiosi opportunisti. Quelli più riusciti coglieranno la minima occasione per
diffondersi → questa è la ragione del loro successo, ed è anche la ragione per cui essi sono
SOPRAVVISSUTI e si sono EVOLUTI.

Non c’era possibilità alcuna che a scatenare il crollo fosse stato il virus dei computer che erano
stati implicati nel crack del 1987.

Crack 1989 → segnale che i mercati finanziari di tutto il mondo erano ormai sfuggiti ad ogni
controllo umano. Negli ultimi tempi è diventato sempre più difficile stabilire una relazione fra i
movimenti del mercato e le reali condizioni economiche.

pag. 30
Il comportamento dei mercati azionari è sempre stato imprevedibile, ma l’avvento
dell’elettronica e delle reti globali computerizzate lo ha reso di gran lunga più INCOSTANTE.
L’economia da casinò sta diventando un gioco elettronico che nessuno dei giocatori può
controllare.
Gli improvvisi rialzi e le improvvise cadute dei mercati hanno un ANDAMENTO che sembra essere
il RISULTATO dell’INTERAZIONE DI ESSENZIALI PROPRIETA’ EMERGENTI DI UN SISTEMA
COMPLESSO, e non del capriccio di qualche individuo che agisce secondo i suoi interessi.
CIBERSPAZIO → forse non è altro che il luogo dove si trova il denaro.
CIBERSPAZIO → forse è il luogo dove sempre più accadono gli eventi, nel quale più si decidono le
nostre vite e il nostro destino; un luogo che ha un impatto molto diretto sulle nostre vite materiali.

CIBERSPAZIO → il potere di questo regno nasce dalla sua grande coesione. Esso è un continuo di
sistemi discreti che agiscono indipendentemente l’uno dall’altro.

I blip non sono eventi isolati, essi sono il risultato impalpabili interazioni fra milioni di dati in tutto
il mondo → CHIUNQUE SIA COLLEAGATO A QUESTE RETI PARTECIPA A QUESTI EVENTI, NESSUNO
PUO’ ESIMERSI DAL DIVENIRE UN CITTADINO ATTIVO DEL CIBERSPAZIO.

Alla fine degli anni Ottanta era nato tutto un nuovo mercato, un servizio di comunicazioni che
valeva molti miliardi di dollari.

L’accesso a questi servizi costituì un’esperienza tale da rinforzare grandemente l’idea


dell’esistenza di un “altro mondo”, un mondo nel quale poteva svolgersi gran parte dei loro
rapporti sociali, e dal quale potevano ricevere gran copia di informazioni.

FU L’ESPERIENZA ECCITANTE DI FAR PARTE DI QUESTO “MONDO” AD ACUIRE L’INTERESSE PER LA


REALTA’ VIRTUALE DA PARTE DELLA COMUNITA’ DEGLI UTENTI DI COMPUTER.

Era forse questo il mondo al quale appartenevano veramente gli abitanti del villaggio globale? E
poteva, questo mondo, essere davvero una REALTA’ NUOVA?

pag. 31
SETTIMO CAPITOLO: INTERFACCIA (pag. 168-182)
MATTEO RICCI

Oggi siamo portati a considerare la RETORICA come → artificio usato dai politici per gabbare chi li
ascolta. Prima dell’avvento della stampa e della diffusione della letteratura, la retorica era fra le
PRINCIPALI FRA LE ARTI DELLA COMUNICAZIONE

Retorica → era uno strumento il cui uso i narratori dovevano apprendere se volevano raccontare
le loro storie in modo efficace e convincente.

JONATHAN SPENCE → TRE TIPI DI LUOGHI IMMAGINARI CHE POSSONO DAR FORMA A UN
PALAZZO DELLA MEMORIA:

 Luoghi che possono basarsi sulla realtà


 Luoghi fittizi
 Luoghi per metà reali e per metà fittizi

Gli spazi creati da combinazioni del genere fra il reale e l’immaginario possono diventare tali quali
fossero reali.

1976: NICHOLAS NEGROPONTE cominciò a lavorare insieme a RICHARD BOLT su un’idea che
chiamò “GESTIONE SPAZIALE DEI DATI”
Gestione spaziale dei dati = consisteva nel trasformare il calcolatore in un UFFICIO DELLA
MEMORIA.
Tentativo di scoprire dei modi per collocare l’utente all’interno di questo “ufficio”.
Il gruppo concepì un “ufficio” che battezzò “stanza dei media” che Stewart brand definisce “un
personal computer delle dimensioni di una stanza, dove il corpo dell’utente è il cursore-puntatore,
e la voce della tastiera”.
Quello di Negroponte fu uno dei tentativi più importanti per i successivi sviluppi della realtà
virtuale, ma non era il primo.
1969: MYRON KRUEGER →
 Glowflow (scultura cinetico-ambientale, essa fu il prototipo di una tecnologia “degli
ambienti responsivi”);
 Metaplay (reazione dei visitatori alla loro immagine, e alla manipolazione di questa
immagine da parte di un’altra persona. Era questo che Krueger intendeva esplorare più a
fondo);
 Videoplace (creare uno spazio capace di riprodurre l’esperienza di incontrarsi in uno spazio
fisico: un mondo artificiale in cui le persone potessero vedersi, sentirsi e toccarsi a vicenda,
e potessero inoltre vedere e manipolare gli stessi oggetti).
Krueger trovò chi fosse disposto ad accogliere le sue idee (Dipartimento di informatica
dell’Università del Connecticut), fu là che costruì un’installazione basata sul Metaplay.
Stavolta l’immagine era elaborata da un computer, che “riconosceva” la forma della silhouette e
su questa base era in grado di generare una sua propria grafica che interagiva con quella.
pag. 32
Il quadro proiettato diventava così una specie di immagine bidimensionale di un ambiente, nel
quale l’utente era immerso, e col quale poteva interagire. Collegando insieme diverse di queste
installazioni, era possibile fondere diversi ambienti in uno solo, in modo che l’utente potesse
vedere l’immagine degli utenti presenti, ciascuno nel proprio ambiente, in altre installazioni, e
quindi “incontrarsi” con loro → la sua BELLEZZA stava nella sua relativa SEMPLICITA’
TECNOLOGICA.
Per creare degli ambienti responsivi di Krueger, bastava poco più che una normale videocamera e
un computer casalingo.
L’idea di usare un computer per creare un ambiente metaforico si è dimostrata importante, e una
di quelle che più hanno influenzato la progettazione dei calcolatori dal tempo dell’avvento dei
personal.
Va detto subito che i PERSONAL cominciarono col dimostrarsi tutt’altro che amici (Chaplin che
porgeva una rosa “user friendly”). Ripetutamente, si constatava che gli utenti non utilizzavano che
una minima parte delle possibilità della macchina.
Il problema sta in tutto ciò che poi venne chiamato “INTERFACCIA UOMO-MACCHINA”, ossia il
punto di contatto fra utente e macchina. Nei grandi computer di vecchia maniera questa
interfaccia era incredibilmente complicata.

Negli anni Settanta, entrarono in scena i minicomputer → sistemi in “tempo reale”, “interattivi”,
che eseguivano le operazioni al ritmo desiderato dell’utente grazie alla creazione di programmi
sofisticati detti “SISTEMI OPERATIVI”.

Tali sistemi operativi consentivano all’utente di “interagire” direttamente col sistema, questi
sistemi operativi più avanzati impiegavano una forma di “INTERFACCIA DELL’UTENTE” che prese il
nome di “Command Line Interpreter” (CLI).
CLI → era un servitore sotto il controllo più o meno diretto dell’utente; era in grado di tradurre in
istruzioni di forma appropriata i comandi che un utente non specialista poteva inviargli:

 NON SORPRENDE CHE SIA STATO QUESTO IL TIPO DI TECNOLOGIA A ISPIRARE I PROGETTI
DEI SISTEMI OPERATIVI DEI PRIMI PERSONAL.
 MS-DOS (MicroSoft Disk Operating System) → sistema operativo adottato dall’ IBM
quando lanciò i suoi personal.
➔ L’utente era pur sempre costretto a impegnarsi in questa strana, artificiosa forma di
comunicazione scritta con una “cosa” incorporea, qualcosa di alieno che con un
Chaplin non aveva proprio niente a che fare.
Emendamento Mansfield.
MENSFIELD → propose che tutti i progetti dell’ARPA dovessero aere d’ora in poi un orientamento
militare.
LICKLIDER → aveva concepito un progetto che prese il nome di “sogno ARPA”: TRASFORMARE IL
COMPUTER IN UNA MACCHINA CAPACE DI “AUMENTARE” L’INTELLETTO UMANO, COSI’ COME
ALTRE MACCHINE DEL PASSATO AVEVANO “AUMENTATO” IL CORPO UMANO (cioè ne avevano
ampliato le capacità).
pag. 33
LICKLIDER → intendeva scoprire una maniera di conciliare gli esseri umani e il computer.
LICKLIDER → diede così impulso a una grande campagna nazionale di scoperte nel campo dei
COMPUTER INTERATTIVI => cosa che rafforzò la convinzione che fossero rimaste ben poche
possibilità commerciali per i ritmi troppo rigidi e per il lavoro “a blocchi” dei grandi calcolatori.
➔ ESPLORARE NUOVE FORZE DI INTERAZIONE COL COMPUTER
➔ Trovare il modo di utilizzare delle figure per rappresentare le molte e mutevoli
informazioni create sugli schermi dei calcolatori dai nuovi sistemi interattivi.
XEROX => voleva estendere le sue opzioni sviluppando il settore dell’informazione
ALAN KAY → si mise a lavorare per creare un computer realmente INTERATTIVO, che fu chiamato
“ALTO”.

Alto → avrebbe dovuto essere il computer che rompeva davvero con il passato, abbandonando
l’INTERFACCIA CLI in favore di una completamente NUOVA e RIVOLUZIONARIA, che si basava sul
“sogno ARPA”.
TESLER → spiegò come avrebbe dovuto funzionare questa nuova interfaccia:

 Qualcosa che appare su uno schermo come se fosse un MONDO REALE


 Possibile analogia: VIDEOGIOCO
 L’utente sta agendo solo in un mondo immaginario, un MONDO SIMULATO creato da una
sequenza di passaggi di un programma.
 Rappresentare graficamente le risorse del computer (= raffigurare tutto ciò che il
computer è in grado di fare per mezzo di metafore)
I RICERCATORI → volevano creare un intero mondo metaforico, un mondo che l’utente potesse
esplorare per scoprirvi tutte le possibilità del computer.
Figurette = ICONE
Puntando il cursore sugli “oggetti” dell’ambiente rappresentati dalle icone, esse (le icone) possono
essere manipolate a piacere.

Mentre questo lavoro di ricerca era in corso, cominciavano a farsi strada sul mercato i primi
minicomputer; la Apple era destinata a diventare uno dei successi più spettacolari nella storia
industriale del dopoguerra.
Xerox → decise di non mettere sul mercato Alto → Steve Jobs →vide il computer Alto e lo trovò
davvero eccitante (“macchina a immagini”) → venne consentito a Jobs di trasformarla in un
PRODOTTO COMMERCIABILE → “LISA” di Apple.
LISA → il computer veniva presentato come una macchina rivoluzionaria, per imparare ad usare
Lisa ci si impiega 20 minuti.
Lisa → costituiva davvero una svolta storica, era il prototipo del Macintosh, il computer della
Apple ad avere un enorme successo, la macchina che avrebbe ispirato “Microsoft Windows”. Molti
dei sistemi dei minicomputer utilizzati oggi dagli specialisti impiegano interfacce di quel genere,
che vengono chiamate “Graphical User Interfaces”.

pag. 34
L’utente vede queste stanze proiettate in due dimensioni su uno schermo piatto: si può vedere il
PUNTATORE che si può muovere in uno spazio tridimensionale.
Per il realista virtuale è questo che si intende per CIBERSPAZIO ===== una tecnologia che offre la
possibilità di un’unione fra l’utente e il suo virtuale alter ego, tale da essere un’autentica
condizione di simbiosi uomo-macchina.
Gli ambienti del tipo qui descritto potranno “realmente” essere accessibili, il che decreterà la fine
dell’interfaccia utente e ci immergerà nell’universo dell’informazione.
Un mondo che fino ad oggi abbiamo vagamente percepito con l’immaginazione → → sarà quel
mondo che gli artisti si sono sempre sforzati di rivelarci → impiegando media muti e passivi
(carta, tela e colori).

pag. 35
OTTAVO CAPITOLO: IPERTESTO (pag. 183-200)
Biblioteca di Babele → JEORGE LUIS BORGES, forse la Biblioteca di Babele non esiste veramente;
ma i suoi libri sì: in un certo senso essi esistono come parte del mondo dell’informazione → è
forse possibile scoprire testi che finora nessun singolo autore ha mai trovato, magari un nuovo
testo che viene scoperto grazie alla sua collocazione accanto a un altro libro già esistente.
QUESTA ALMENO È LA SPERANZA DEI PALADINI DI UN NUOVO GENERE DI OGGETTO LETTERARIO,
IL COSIDDETTO → IPERTESTO
I libri sono scritti per essere letti nella stessa forma e nello stesso ordine che l’autore ha stabilito.
Con lo sviluppo del computer interattivo, la classica distinzione autore-lettore sta diventando
sempre MENO VALIDA.

NICHOLAS NEGROPONTE → speranza che la tecnologia possa distruggere la tirannia dell’autorità


biblica.

Questa speranza è nata da un CAMBIAMENTO: passaggi dell’interfaccia del computer DA ciò che
potrebbe definirsi IL MODELLO MECCANICO DI SÉ AL MODELLO DEL CIBERSPAZIO.

Gran parte del mondo dell’informatica non ha ancora compreso o riconosciuto questo passaggio.
Si fa ancora sentire il potere predominante di chi sostiene il vecchio modello di intelligenza
artificiale.

Nelle università di AI è tuttora il Santo Graal dei dipartimenti di informatica, perché rappresenta
una possibilità di realizzare la metamorfosi di un meccanismo morto in un essere pensante.

Nelle comunità dei ricercatori → programma di nuovi sviluppi della materia = programma che non
vede più l’interazione nei termini di una conversazione fra un’intelligenza naturale e una
artificiale, ma come un’esplorazione di certe forme di ciberspazio.

QUANDO SI INTERAGISCE CON UN COMPUTER NON SI STA CONVERSANDO CON UN’ALTRA


PERSONA: SI STA ESPLORANDO UN ALTRO MONDO.

Si tratta di un metodo di scrittura basato sul ritaglio (l’idea del ritaglio ha avuto origine dal
dadaismo)
“Il RITAGLIO è alla portata di tutti. Chiunque può fare dei ritagli.”
Ed è precisamente questo linguaggio liberatorio quello che fu ripreso dai rivoluzionari del
computer.
I ritagli poteva farli per conto vostro il computer, e poi incollarli insieme in modo talmente
invisibile che non avreste più nemmeno saputo che erano stati fatti. Era questa la promessa del
romanzo “interattivo”, il manufatto che il computer avrebbe consentito agli utenti di creare da sé
stessi.
LA LETTERATURA ALLA PORTATA DI TUTTI: CHIUNQUE PUO’ FARE LETTERATURA.
Il computer è quello che fornisce gli strumenti di navigazione per questo viaggio. L’utente lo compie
allo stesso modo con cui volerebbe attraverso un paesaggio artificiale stando seduto dentro un
simulatore di volo.
pag. 36
PROBLEMA TECNOLOGICO DELLA LETTERATURA INTERATTIVA → trovare un modo per trasformare
i mondi immaginari situati nella mente dello scrittore in mondi virtuali situati nella memoria del
computer.
Si trattava del gioco “Avventura”→ era stato creato negli anni Sessanta al SAIL (Stanford
University’s Artificial Intelligence Laboratory).
Avventura è una versione computerizzata di giochi basati sui “ruoli”, del tipo di “Dungeons and
Dragons”.
L’utente disegna una rotta più o meno “geografica” attraverso queste località, battendo sulla
tastiera delle istruzioni che specificano la direzione in cui vuole andare, e anche le azioni che vuole
intraprendere.
Sebbene sia soltanto un “gioco” è un po’ come leggere un romanzo.
MICHAEL JOYCE e J. DAVID BOLTER → produssero un programma che chiamarono “Storyspace”.

Storyspace => si tratta di un programma di “composizione letteraria”, uno strumento che


consente di unire insieme testi diversi dando loro una struttura e tracciando dei percorsi fra l’uno e
l’altro.

Un documento è un testo che consiste in un blocco lineare, con un inizio, un centro e una fine. In
un sistema di ipertesto come Storyspace, il documento è costituito da una serie di unità che
debbono essere messe insieme e assumere la struttura di una specie di rete.
Anziché essere formato da frasi, il sistema, quando l’utente sceglie e piacere fra tutta una serie di
strumenti di “navigazione”, può condurre a zig-zag verso varie frasi differenti, a seconda della
reazione del lettore a ciascuna di esse.
JOYCE → suo obiettivo era quello di costruire un romanzo interattivo suo personale.

JOYCE → dimostra come sia possibile creare un testo che non obbliga i lettori a seguire una strada
particolare, i lettori possono farsi beffa dei segnali di “Vietato l’ingresso” e delle frecce che
indicano il percorso da seguire → ESSI TRACCIANO LA ROTTA CHE PREFERISCONO.

C’è il rischio che i lettori rischiano di perdersi del tutto, in parte perché la trama è l’unico mezzo a
disposizione del lettore per orientarsi.
Un romanzo del genere potrebbe narrare in tante versioni differenti e sempre nuove una storia
amata e arcinota.
Il vero problema, nel concetto del romanzo interattivo, è l’ipotesi che vi è implicita, e cioè che la
narrazione, la trama, sia in un certo senso indipendente dal regno nel quale si muove.
È proprio la storia a creare quel regno immaginario, e a dare un senso alla finzione. Infatti, il
racconto è ciò che distingue un’esperienza a casaccio da un’esperienza che ha un significato.
Esempio => JOHN FOWLES, “la donna del tenente francese”, lo scrittore dà due significati diversi
al suo romanzo: 1) voleva mettere in evidenza la qualità spuria del significato del mondo fittizio da
lui creato; 2) stato di indeterminazione del mondo reale.

pag. 37
TED NELSON → aveva l’impressione che nell’ipertesto e negli ipermedia potesse trovarsi la base di
un genere assolutamente nuovo di pubblicistica: un medium che avrebbe trasformato i modi di
produzione e di consumo del libro e di altri tipi di testo, di ogni tipo di media.
Il NUOVO GENERE sarebbe finito per diventare un repertorio di testi → XANADU.
PROGETTO XANADU non è stato completato, era il concetto che contava, non la sua realizzazione.

Il sogno di Nelson si basava invece su un’idea che era stata avanzata per la prima volta da
VANNEVAR BUSH.

VENNEVAR BUSH → aveva descritto un’apparecchiatura delle dimensioni di un personal, che


chiamava “MEMEX” e che comprendeva uno schermo luminoso inclinato “sul quale il materiale
può essere letto comodamente” → una tastiera e una serie di leve e di pulsanti.

MEMEX → non venne mai costruito.


BUSH → dice che gli utenti del Memex possono creare i loro documenti ricavandoli dalle centinaia
e centinaia di pagine di testo immagazzinate nella macchina, semplicemente tenendo traccia della
“pista”, l’elenco degli indirizzi da usare per avere accesso ai dati rilevanti.

Le piste stesse potevano venir combinate e manipolate.


Un computer non è altro che una perfetta macchina Memex, capace di manipolare vaste
quantità di informazione.
Inoltre, il computer può cercare parole o frasi, può combinare al testo figure e suoni.
Lo Xanadu avrebbe dovuto essere costituito da due componenti principali:
1) “Hypermedia server program” = programma per la creazione e la fruizione degli
“ipermedia”.
2) Consisteva nella creazione di un mercato editoriale assolutamente nuovo, che avrebbe
dovuto essere formato da tutta una rete di database, alla quale i singoli editori dovevano
essere invitati a contribuire → fino a formare un grande repertorio globale di informazioni.
Era previsto che la rete di database dello Xanadu si sviluppasse sul modello della rete del
franchising dei “McDonald”, dove l’infrastruttura cresce di pari passo col mercato, evitando così
costosi e rischiosi investimenti a lungo termine.
L’idea di un mercato di “fast information”, che sforna dati e testi come i fast food McDonald
sfornano humburger, è bizzarra e interessante.
Con lo Xanadu ogni “lettore” è un potenziale “scrittore”, il sistema è stato progettato proprio per
permettere di dare il proprio contributo originale con la stessa facilità con cui i testi già esistenti
vengono consultati.
Il successo di un testo dipende semplicemente dal numero delle richieste di accesso che riceve.
Con lo Xanadu → il libro stesso diventa un prodotto culturale obsoleto.
Tutto, nello Xanadu, esiste solo in virtù dei collegamenti con tutto il resto, questi collegamenti
vengono costantemente stabiliti o spezzati.
pag. 38
Progetti come lo Xanadu hanno alimentato nella comunità informatica la crescente certezza che
alla fine i calcolatori porteranno a un nuovo assetto, liberatorio, di tutti i mezzi di comunicazione.
La REALTA’ VIRTUALE ha rinforzato questa convinzione, promettendo di fare per il teatro, per il
cinema e per la TV ciò che lo Xanadu intendeva fare per i libri.
RANDAL WALSER → aveva escogitato una nuova categoria di artista: lo SPACEMAKER o “creatore
di spazi” = non crea narrazioni, CREA IL CIBERSPAZIO NEL QUALE IL PUBBLICO POTRA’ POI
CREARE NARRAZIONI PER SUO CONTO.
WALSER → concepiva questo luogo come un “TEATRO IN CIBERSPAZIO” dove “la gente si reca per
assumere ruoli simulati”. Il teatro doveva contenere tutta l’attrezzatura necessaria per dare ai
partecipanti l’esperienza di una piena immersione fisica in una realtà virtuale.
A Chicago => “BattleTech Center”: primo simulatore interattivo del mondo. Gli spettatori-attori
siedono al posto di guida di un simulatore di carro armato, usando un imponente insieme di
comandi, entro uno spazio virtuale, visto attraverso uno schermo.
Tutti i “carri armati” sono collegati fra loro in un’unica rete, di modo che ciascun partecipante
vede tutti gli altri muoversi nei loro carri sullo stesso campo id battaglia.
Inghilterra => sistema chiamato “Virtuality” = pilotare un reattore a decollo verticale tipo
“Harrier”.
Il solo fatto di attirare una folla non basta a garantire il futuro successo di una certa tecnologia.
Una delle grandi questioni che restano insolute è in quale maniera un’intera infrastruttura
mediale, creata per i mercati di massa e per il consumo passivo, possa mantenere la promessa e
dar vita alla nuova era degli ipermedia interattivi e personalizzati.
La trasformazione dell’apparecchio televisivo in un computer, capace di elaborare tutta
l’informazione numerica che entrerà nelle case via cavo, via rete telefonica e anche via segnali
trasmessi dai satelliti.
Il televisore offrirebbe tutta questa informazione all’utente secondo i suoi bisogni e secondo le
specifiche capacità dell’apparecchio: gli apparecchi più costosi saranno in grado di gestire maggiori
quantità di informazione, e anche di presentarla, se l’utente lo vorrà, con un più alto e più brillante
grado di definizione.
In termini di realtà virtuale tutto questo → significa che la tv finirebbe per diventare un tipo di
medium che potrebbe prendere il nome di “medium immersivo”. Per usare il linguaggio di Welser,
la stanza di soggiorno diverrebbe un teatro in ciberspazio, e il televisore una macchina da
ciberspazio.
I programmi sarebbero fatti in parte sulla base di dati inviati dall’esterno, via una rete di cavi in
fibra ottica.

Guardare la tv → diventerà un’ESPERIENZA INTERATTIVA → tutto l’arredamento del soggiorno


partecipa alla creazione dei mondi virtuali abitati temporaneamente dall’abbonato.
“Essere immerso in un programma” → più che assorto, l’utente vi sarà assorbito.

pag. 39
I personal computer stanno trasformando tutti in autori.
Nel ciberspazio il fatto che tutti siano scrittori significa che nessuno lo è: la distinzione su cui si
fonda il concetto di scrittore, che è separato dal lettore, è scomparsa.
Esce di scena l’autore…

pag. 40
NONO CAPITOLO: FINZIONE (pag. 201-225)
“L’idea che vi sia una realtà fatta di parole e di carta” è una vera idea del nostro tempo, un tempo
che ha visto continui assalti contro il concetto fondamentale di realtà.
“POSTMODERNISMO” → termine che viene impiegato per indicare sia un movimento che un clima
intellettuale, sia una proposta per cambiare il mondo che un modo di comprenderlo.

CHARLES JENCKS = “nuova visione del mondo” → è perfettamente in grado di spiegare i fenomeni
dominanti del nostro tempo: l’era dei media, il villaggio globale, la catastrofe e il caos, l’iperrealtà
e il ciberspazio.
➔ L’autentica condizione postmoderna è la realtà artificiale; e la realtà virtuale è la sua
definitiva espressione tecnologica.

JEAN-FRANCOIS LYOTARD → postmodernismo, traccia gli argomenti che possono definirlo, 3


QUESTIONI DA CONSIDERARE (tutte e tre implicite e implicate nel termine postmodernismo):

 Prima: i modi di riflettere sull’arte e su altre forme di espressione;


 Seconda: perdita di fiducia nell’idea di progresso;
 Terza: il postmoderno rappresenta “una rottura” con la fede modernista in certe verità
universali.
MODERNITA’ → è possibile e necessario rompere con la tradizione, e dare inizio a un nuovo modo
di vivere e di pensare.
POSTMODERNISMO → rappresenta una rottura col “modernismo”, se vogliamo capire l’uno
dobbiamo sforzarci di capire l’altro.

È probabile che si debba proprio al cattivo nome che la parola “moderno” si è fatta grazie
all’architettura, se oggi siamo in grado di vedere molto chiaramente come mai questo termine
possa avere acquistato un significato diverso da quello più ovvio → e perché abbia finito per
connotare tutta una serie di opinioni sul modo con cui il mondo va avanti o con cui dovrebbe essere
organizzato.
PASSATO → esso può essere concepito come una serie di epoche distinte, che di solito non
vengono associate a eventi particolari, bensì a ciò che potrebbe definirsi l’umore culturale
prevalente => le IDEE e le CONVINZIONI più diffuse fra quante caratterizzano il modo di pensare
e di agire della gente in un’EPOCA PARTICOLARE, i loro punti di vista e i loro atteggiamenti.
OGNI EPOCA È DOMINATA DAL SUO ZEITGEIST (= spirito del tempo)
Se questa è l’era moderna, il modernismo può invece essere visto come la risposta consapevole
delle arti all’esperienza della modernità.
Al pari della sua morte, anche la nascita del modernismo è un evento che è possibile far risalire a
un momento preciso (anche se creato dalla finzione letteraria → 1) Charles Baudelaire, L’aureola
perduta, 2) Le Corbusier.
Il modernismo architettonico che Le Corbusier ha ispirato ha un suo slogan: LA FORMA DEVE
SEGUIRE LA FINZIONE → lo stile non conta nulla, l’efficienza è tutto.

pag. 41
Il progetto per un edificio dev’essere dettato dalla funzione che quell’edifico dovrà svolgere, e far
sì che la svolga nel miglior modo possibile.
NON DEVE ESSERE IL PRODOTTO DI UNA NECESSITA’ SOCIALE.
1916, Albert Einstein pubblicò la sua “Teoria generale della relatività” → non poteva farsi alcuna
distinzione fra gli attori e il palcoscenico: lo spazio e il tempo esistono nell’interazione fra energia e
materia allo stesso modo in cui l’energia e la materia esistono nello spazio e nel tempo.
DAVID HILBERT → l’era moderna aveva sottoposto il pensiero matematico a notevoli pressioni.

Quanto alle arti, modernismo → cubismo (Picasso)


Le arti visive in particolare si erano trovate in difficoltà fin dall’invenzione della fotografia, la
pittura doveva trovare nuovi modi per giustificare la sua esistenza. Vi si concede che la fotografia
possa venire accettata come segno di progetto artistico, ma si asserisce che l’arte conserva
inviolabile il suo accesso alla bellezza.

La fotografia viene usata come prova che l’arte riguarda ben più che la verità, almeno quella più
evidente del mondo fisico, e comunque una verità più alta e un più alto o più valido livello di
realtà.

Non si trattava semplicemente del fatto che il mondo moderno stava diventando intrattabile,
troppo refrattario a lasciarsi racchiudere entro un singolo e unitario sistema di valori; ma
soprattutto del fatto che l’arte, e così la matematica, erano andate al di là della pura e semplice
realtà fisica → per andare alla ricerca di qualcosa di più emozionante.
I pittori cominciarono a sperimentare questo nuovo tipo di LIBERTA’ → → CASIMIR MALEVIC,
formalizzò le sue scoperte lanciando un nuovo movimento artistico cui diede il nome di
“SUPREMATISMO”
Suprematismo → non si interessava di questioni di preminenza razziale, ma solo ESTETICA,
sosteneva di tendere a una sorta di superrealismo, capace di vincere le “influenze terrestri” del
realismo ingenuo.
“Quadrato nero su bianco” → questo è il genere di arte che chi di noi è al di fuori del mondo
dell’arte trova ancora difficile accettare (attribuendole un minimo di merito estetico).
Mark Rothko e Mies van der Rohe
L’uomo, secondo Malevic, sente una grande bramosia per lo spazio a “spezzare le catene che lo
tengono avvinto al globo”.

Ma a quale genere di spazio tendeva il desiderio dell’uomo?


FILIPPO BRUNELLESCHI → prospettiva
MALEVIC → la prospettiva non era vista come una liberazione, ma come una schiavitù.
Non c’era un calcolo del genere che potesse servire alla contemplazione della struttura disgiuntiva
e pluripartita dell’esperienza moderna. La PROSPETTIVA era divenuta un limite a ciò che l’artista
può dipingere, e non un’espansione di ciò che si può mostrare con un quadro.

pag. 42
L’eroe archetipo del modernismo è probabilmente il filosofo → FRIEDRICH NIETZSCHE. Si
potrebbe anzi pensare che sia stata proprio la contemplazione delle incertezze dell’esperienza
moderna a renderlo folle.
È a lui che si deve l’aver gettato il razionalismo e la verità nel gorgo della modernità.
“Né razionalismo né verità possono innalzarsi al di sopra di quel campo di battaglia che è la
vita”.
JOSE’ ORTEGA Y GASSET → esiste una sola realtà, che è quella della vita di ciascun individuo. “io
sono le mie circostanze”, cioè “io” esisto solo nell’interazione con l’ambiente nel quale “io” vivo.
Come BAUDELAIRE aveva previsto, l’ARTE era destinata a rispondere alla ricerca di verità condotta
esclusivamente sul mondo materiale cercandola al di fuori di esso.

Il modernismo ha significato soprattutto un disincantamento per la verità materiale, e la ricerca


di una verità astratta; e ha sviluppato una sua dinamica autodistruttrice per mostrare come il
mondo fisico venisse sempre più consumato
dal costante bisogno del capitalismo di rinnovare sé stesso → sostituire il VECCHIO col NUOVO e il
nuovo col NUOVISSIMO.
MARSHALL BERMAN → scopo di creare di più, di continuare a creare il mondo eternamente da
capo.
Nati da un impulso d’amore, questi movimenti raggiungono troppo rapidamente la maturità,
vengono prima volgarizzati, poi prodotti in massa, e finalmente condannati al deposito rottami
della storia.
In termini di ARCHETETTURA, il POSTMODERNISMO ha messo il PLURALISMO e la COMPLESSITA’.
Il postmodernismo è l’-ismo che non esiste → essi si adopera piuttosto a conciliare fra loro molti -
ismi differenti.
JAMESON sembra essere → perfetto esempio della condizione postmoderna. Non soltanto i suoi
testi sono in uno stato di flusso costante, che segue il ritmo dei cambiamenti culturali del mondo
circostante; ma egli stesso è il prodotto di un mondo accademico nel quale le normali, moderne
categorie degli universitari non sono più fisse, anzi subiscono attacchi e rivolgimenti.
Ulteriore sintomo di “postmoderno” → titoli universitari stanno diventando una caratteristica
comune della vita accademica americana; sia assiste a un disfacimento della classificazione
moderna del sapere in studi umanistici e studi scientifici.
Si tratta di critica letteraria? Di filosofia? Di sociologia?
Il sistema DEWEY di classificazione è ormai giunto al limite di rottura, dovendo adattarsi ad
argomenti che non erano previsti al tempo della sua elaborazione. Il sistema non è stato in grado
di trovare un numero per classificare la voce → “TEORIA”.
MA COS’E’ LA “TEORIA”?
Forse è meglio chiamarla “TEORIA CRITICA” → IMMANUEL KANT: “idealismo critico”

pag. 43
WALTER BENJAMIN → diede il suo grande contributo alla spiegazione della natura del
modernismo attraverso uno studio su Baudelaire.
Se la TEORIA CRITICA ha le sue origini nella cultura tedesca, l’altra componente principale della
“teoria”, lo strutturalismo, proviene dal mondo della cultura di lingua francese, e in particolare
dall’opera del linguista svizzero FERDINAND DE SAUSSURE.
SAUSSURE → concepiva il linguaggio come un sistema di segni in cui: UNA PAROLA STA IN
RELAZIONE PURAMENTE ARBITRARIA CON CIO’ CHE ESSA VUOL DIRE (non esiste nessun rapporto
speciale tra un albero e il suono della parola “albero”).
Il “significato” di una mossa in una partita di scacchi nasce soltanto dal contesto della partita
stessa.
Lo STRUTTURALISMO ha fornito una base per l’impiego di una nuova classe di tecniche per
analizzare il nostro modo di comprendere il mondo nel suo insieme.
CLAUDE LEVI STRAUSS → cerca di scoprire “se diversi aspetti della vita sociale non consistano per
caso in fenomeni la cui natura si ricollega a quella stessa del linguaggio”.
L’antropologia strutturale contiene la conclusione che il modo migliore per comprendere il mondo
moderno è considerato un vasto testo.
La faccenda è controversa quando si deve determinare se queste tecniche servano a qualcosa per
giudicare questioni di “fatto” anziché di “finzione”.
Nella teoria la distinzione tra le due è quasi invisibile: una è “reale”, l’altra no.

Secondo questo modo di vedere non può esservi alcuna spiegazione adeguata dei prodotti
dell’umana creatività.
Le arti sono un prodotto dell’immaginazione, quanto ai media essi comunicano informazione da
un punto a un altro passivamente → che significa che sono un prodotto dell’immaginazione
giornalistica: in un modo o nell’altro sono fuori questione anch’essi.

L’architettura serve a certi scopi pratici → prodotto inspiegabile di quella sua misteriosa
immaginazione.
Tecnologia → è un “dato” inspiegabile; perché una particolare tecnologia venga prodotta dipende
dalle forze del progresso e della praticità → questioni di opinione soggettiva, completamente al di
fuori delle possibilità di una spiegazione scientifica.

CRISI → → esigenza di basare tutti i dati su fenomeni misurabili e su ipotesi passibili di verifica.
La forza della “teoria” sta proprio in ciò che gli empirici considerano la sua debolezza di fondo:
ossia la sua dipendenza da una lettura del mondo che ci circonda.
LYOTARD → la scienza deve poter contare sulla potenza dei miti, isolarli e analizzarli. Lyotard ne
individua due: uno POLITICO e uno FILOSOFICO.
L’importanza delle idee di Lyotard sta tutta in questo concetto: è proprio il racconto che in ultima
analisi giustifica ciò che fa la scienza.

pag. 44
I quesiti di Hilbert e il teorema di Godel → hanno dimostrato come la scienza si affidi ormai a un
sistema matematico che in ultima analisi non è che una sorta di GIOCO (che non può avere un suo
punto fermo).
Il racconto già screditato dalla scienza come un mondo soggettivo e impreciso di rappresentazione
della realtà ha avuto il suo grande ritorno.
Dimostrazione: GIORNALISMO DEI MASS MEDIA → si affida interamente alla facilità e alla
bravura nel raccontare.
Ciò che è vero della scienza vale anche per la conoscenza in generale, per la politica, per la società,
per qualsiasi cosa si voglia.
L’idea che la scienza sia una specie di testo non è certo nuova → Galileo la concepiva come il
prodotto del “LINGUAGGIO DELLA NATURA” cioè della matematica.
WERNER HEISENBERG (fisico) → ciò che lo allarma e lo disturba è l’idea che egli non sia
impegnato in un’attività veramente oggettiva, e che una scoperta scientifica non sia qualcosa che
chiunque può riprodurre indipendentemente.
THOMAS KUHN → “La struttura delle rivoluzioni scientifiche” → ciò che lo ha reso famoso è
soprattutto il termine “PARADIGMA” (Kuhn gli ha dato un significato molto convincente e molto
utile).
Ciò che scosse e turbò il senso di sicurezza del mondo scientifico fu una asserzione che nessun
paradigma può pretendere di possedere una validità universale.
I paradigmi sono “incommensurabili”. Ogni paradigma è rilevante per l’epoca sua, e viene
adottato dall’élite intellettuale del tempo fino al momento in cui l’accumulo di ciò che Kuhn
chiama “ANOMALIE” lo rende indifendibile; a questo punto un nuovo sistema teoretico si afferma,
e si ha così un “CAMBIAMENTO DI PARADIGMA”.
Sfortunatamente per Kuhn → le sue idee erano destinate ad essere associate con quelle del
filosofo PAUL FEYERABEND → attacco contro l’idea che la scienza debba avere un “metodo”, un
metodo fondato sul razionalismo che permette l’accesso alla conoscenza soltanto a pochi
privilegiati.
Per Kuhn → la scienza è tutto fuorché quel “tutto è permesso”
PARADIGMI → forniscono “i solidi fondamenti di cui gli scienziati hanno bisogno per poter dare
un’organizzazione al caos dell’esperienza, e per risolvere gli enigmi che si fanno via via più
complessi”
Kuhn è riuscito a scardinare una convinzione radicata e raramente messa in discussione nel mondo
scientifico, la convinzione che soltanto gli scienziati possano svelare i segreti della realtà, perché
sono i soli che abbiano saputo elaborare un insieme di tecniche realmente oggettive.
“LE PAROLE NON CONTANO NULLA”
Nel mondo della scienza le “parole” veramente non contano nulla, perché non rappresentano
alcuna realtà, ma galleggiano al di sopra della superficie. Nel mondo della “teoria” è vero il

pag. 45
contrario. La REALTA’ esiste proprio nel linguaggio, nella storia, nella cultura; in tutte le
contingenze dell’azione e della creatività dell’uomo; nella vera sostanza dell’essere di Amleto.
L’ESISTESTA DI UNA REALTA’ OGGETTIVA E UNIVERSALE → grande mito che ha fatto da chiave di
volta dell’era moderna.
Cosa accade quando il paradigma viene cambiato? Cosa rimane, della REALTA’, nelle macerie del
Pruitt-Igoe?

pag. 46
DECIMO CAPITOLO: IPERREALTA’ (pag. 226-252)
GUERRA DEL GOLFO

BAUDRILLARD → intellettuale esibizionista per eccellenza, il filosofo eroe del postmodernismo.


SUE MASTERMAN → “il più grande videogioco di tutti i tempi viene giocato direttamente sotto i
vostri occhi”.
Un pilota fa una dichiarazione che equivale sicuramente a u giudizio definitivo sulla guerra che
non si fece “E’ stato esattamente come andare al cinema!”.
FRANK BARNABY → studio sulla tecnologia della legge moderna.
Non c’è alcun motivo tecnologico che possa impedire alle guerre di diventare completamente
automatizzate: combattute cioè con macchine e con missili computerizzati, senza alcun intervento
dell’uomo → la battaglia stessa diverrà sempre più simile a un gioco di guerra.
I calcolatori sono massicciamente presenti in questo processo di automazione.
Fra la guerra, l’informatica, e la realtà virtuale, un’intima connessione, per cui questi tre elementi
si compongono a vicenda, ciascuno di essi sarebbe impossibile a praticarsi o concepirsi senza gli
altri due.
La BBN Systems and Technologies ha creato il SIMNET → sistema per collegare fra loro diverse
reti di simulatori, in modo da poter condurre esercitazioni su campi di battaglia virtuali.
Identico effetto, è quello raggiunto dal gioco elettronico prodotto dalle W Industries e chiamato
“VIRTUALITY”: un ottimo esempio dello stretto rapporto che esiste fra guerra automatizzata e
videogiochi.
Con la guerra del Golfo la collaborazione fra l’informatica e la guerra doveva raggiungere la sua
apoteosi. Le “BOMBE INTELLIGENTI” divennero le eroine del nuovo fronte tecnologico.
Era cominciata L’ERA DELLA GUERRA “ELETTRONICA”, ed era la prima volta sul campo di
apparecchiature create in vista di quel confronto fra le due superpotenze che non sarebbe mai
avvenuto.
CONTROLLO, COMANDO, COMUNICAZIONI → è ciò che nella battaglia moderna i generali
chiamano il sistema che ne costituisce il cuore. “C”, “C^3”, “C al cubo”, è il nome dato alla
tecnologia che consente ai generali il monitoraggio e la gestione di una battaglia da un bunker.
Era compito dei sistemi C^3 fornire un “quadro generale” di ciò che stava accadendo.
Secondo il filosofo francese PAUL VIRILIO, David Griffith, l’unico regista cinematografico
autorizzato a girare scene dal vero sui fronti della Prima Guerra Mondiale, dichiarò una volta di
essere rimato → “molto deluso dalla realtà del campo di battaglia”.
La tesi di Virilio è che: la guerra e il cinema → due fenomeni connessi tra loro.
VIRILIO → “Nelle guerre industrializzate dove la rappresentazione degli eventi supera per
importanza la presentazione dei fatti, l’immagine comincia a prendere il sopravvento sull’oggetto,

pag. 47
e il tempo a diventare più importante dello spazio” → LE IMMAGINI DELLA GUERRA DIVENTANO
LA GUERRA.
La guerra è diventata la terza dimensione del cinema, le armi sono diventate una forma di
fotografia.
RICHARD HOLMES → tenta di mostrare quanto sia “squallido e vuoto” un campo di battaglia se
confrontato “col colore e col tessuto” che gli conferisce “la ricca tavolozza degli artisti, degli
scrittori e dei cineasti”.
Il campo di battaglia “reale” non diventa mai più reale di qualsiasi altro aspetto della conduzione
di guerra.
Da una parte la guerra mette l’uomo di fronte alla realtà estrema, al fatto della morte →
dall’altra, più il soldato si avvicina al campo di battaglia, meno reale diventa la guerra, come un
oggetto che da lontano è ben visibile, ma sembra svanire avvicinandosi.
SCONTRO FERROVIARIO DI CLAPHAM → il più grave disastro ferroviario occorso in Inghilterra
negli ultimi vent’anni → tutta la scena si era trasformata nel set di un film.
A un certo livello “il disastro ferroviario di Clapham” e quello scontro fra tre treni che avvenne nella
mattina del 12 dicembre 1988 sul tratto di binario che conduce alla stazione Claphan Junction →
SONO DUE AVVENIMENTI DIVERSI.
La differenza fra le due cose è stata espressa con bella laconicità.
Schermo della televisione: è da questo schermo che veniamo quotidianamente bombardati → era
una guerra fatta interamente dalle descrizioni dei media. Era una guerra “in diretta”, che la rete
di comunicazioni del villaggio globale ci portava fin dentro le nostre case, e che quindi si svolgeva
sotto i nostri occhi.
Non tutti vedevano la stessa identica cosa → ma era la stessa identica cosa che vedevano tutti, ma
mai gli oggetti reali, ma “la cosa in sé”.
Quelle immagini non dipingevano nessuna “cosa in sé”, nessuna guerra “reale”. Era una GUERRA
POSTMODERNA, una guerra dove la realtà non esiste, la sola cosa che esiste è la simulazione
della realtà.
La mise en scène è qualcosa che si potrebbe concepire come la meccanica dell’illusione
cinematografica, come il rapporto fra ciò che il pubblico vede, e la regia, cioè la preparazione e poi
la scelta dell’inquadratura di ciascuna scena, dall’altra.
BAUDRILLARD → la guerra del Golfo è stata un evento allestito, “messo in scena”, è stata una
guerra VIRTUALE”.
Laddove altri critici guardano all’esperienza postmoderna con fiducia e ottimismo, celebrandone il
PLURALISMO e la GIOCOSITA’, Baudrillard ne è disgustato → centro di questo disgusto: sta la
scoperta che la realtà non esiste più, e che anzi è diventata il suo contrario, pura finzione.
Persino la “TEORIA CRITICA” alla conclusione di tutti i discorsi, sarebbe rimasta finalmente
l’affermazione definitiva di ciò che si andava cercando: la base della verità, ossia la REALTA’.

pag. 48
Ora non più.
Baudrillard → la realtà è una copia perfetta di qualcosa di cui non è mai esistito l’originale.

La simulazione non è più la simulazione di un territorio, o di un’entità referenziale, o di una


sostanza. È qualcosa che attraverso modelli, genera un reale che non ha né origini né realtà:
un’IPERREALTA’.

È il territorio che scompare, ed è la mappa che sopravvive.


Adesso l’impero è capace di costruire esso stesso il reale, così da adattarsi perfettamente alla
forma della mappa.
Baudrillard → vede il controllo della realtà svilupparsi da una serie di STADI STORICI BEN
DISTINTI TRA LORO.
Questi stadi riguardano il modo con cui vengono impiegati i SEGNI (della relazione che assume un
quadro con ciò che rappresenta, o che assume una frase col suo contenuto). I diversi stadi
segnano la graduale separazione del segno da ciò che esso significa, la separazione fra natura e
cultura, la separazione fra “verità” e “realtà”.

1) PRIMO STADIO: il segno rispecchia una realtà di fondo;


2) SECONDO STADIO: nasconde quella realtà;
3) TERZO STADIO: nasconde l’assenza di quella realtà.

La tecnologia è arrivata al punto di poter soddisfare più che adeguatamente i bisogni fondamentali
della grande maggioranza della popolazione, sicché l’unica motivazione che spinge al consumo è
rimasta il desiderio o il capriccio del consumatore.

PUBBLICITA’ → assume il ruolo di generare il desiderio, manipola il significato del prodotto.


È dunque il desiderio che diviene materia del significato e della manipolazione dei segni.
Ciò che tiene in vita la società dei consumi è l’abilità dei produttori nell’eseguire queste
manipolazioni → ossia nel PRODURRE SIGNIFICATI.
RISULTATO ➔ IPERREALTA’ DI BAUDRILLARD.
DISNEY WORLD → stato totalitario che finalmente funziona: non esistono classi sociali, non c’è
povertà, non c’è la confusione del libero mercato. Nessuno è obbligato a nulla, nemmeno a essere
libero; unica eccezione, pagare.
Questo è il mondo che Baudrillard ritiene → “il modello perfetto di tutti i più intricati ordini di
simulazione”.
BAUDRILLARD → Disneyland della California → esiste in quanto surrogato di un senso della realtà
che va scemando, che esiste per rinforzare la sensazione che vi sia realmente un terrapieno, che
gli impedisce di riversarsi nella realtà.
Umberto Eco → “Disneyland ci dice che la tecnica può dare più realtà della natura”.
La stessa Parigi è tutta un parco tematico → grand projets = gruppo di monumenti celebrativi del
genio francese.
pag. 49
Quello che forse rappresenta meglio di tutti gli altri lo spirito dei grand projets è il parco della
Villette.
L’architetto era BERNARD TSCHUMI → esponente della scuola detta “DECOSTRUTTIVISTA”, il cui
intento è di creare edifici che non abbiano un singolo scopo o significato, giacché non esiste alcun
testo che abbia un solo significato.
TSCHUMI → cospargere il parco di piccoli edifici di metallo rosso a forma di scatola, cui diede il
nome di FOLIES (=FOLLIE) → si tratta di edifici folli, di pazzie architettoniche che consentono ai
visitatori di apprezzare al meglio le caratteristiche “costruite” della normalità.
➔ Si tratta insomma di edifici che sono stati progettati per non svolgere alcuna funzione
particolare: LA LORO FUNZIONE NASCE DAL MODO CON CUI I VISITATORI DEL PARCO
VI INTERAGISCONO.
RISULTATO FINALE: brillante esercizio intellettuale → questi progetti parigini sono stati creati per
uno scopo di natura sociale.
BAUDRILLARD → tutto quanto che viene creato dall’uomo è un falso, e tutto finisce per rientrare
nel gioco impalpabile e senza fine dei SEGNI.
1990 POLAROID → non c’è dubbio che i risultati fossero davvero sorprendentemente “reali”.
Per i critici postmoderni le repliche Polaroid sono sintomi della crescente paura di perdere quella
realtà che ha finora sostenuto il mondo moderno in assenza dell’autorità della religione.
Tutti i modi che abbiamo elaborato per far credere a noi stessi che quella realtà esista ancora.

È questa la “crisi” del postmoderno, e la sua causa è la tecnologia.


Il “costruttore universale” di Von Neumann era una macchina concettuale progettata per
esplorare il concetto di autoriproducibilità.
Ogni, nelle fabbriche giapponesi, si è vicini nel realizzare qualcosa di molto simile → “FABBRICA
UNIVERSALE”: una macchina capace di fabbricare qualsiasi prodotto. Se si è resa possibile la
realizzazione di questa macchina, ciò si deve al fatto di aver introdotto nel processo produttivo
l’altra grande macchina universale, il computer.
Nel 1980, in un rapporto del Consiglio per la struttura industriale si leggeva che
l’”informatizzazione” del Paese sarebbe avvenuta in due fasi:
1) PRIMA FASE: prodotta dalla computerizzazione delle aziende, era già stata completata alla
fine degli anni Settanta;
2) SECONDA FASE: “la società dell’informatizzazione ad alto livello”, era stata programmata
per avere il suo inizio negli anni Ottanta, e avrebbe segnato il punto in cui tutti i sistemi
computerizzati dovevano essere collegati fra loro.
Per la realizzazione della seconda fase → FABBRICA UNIVERSALE

Questa sarà simile a una stampante per computer, ma tridimensionale.

pag. 50
L’originale sarà virtuale; una simulazione al computer di un determinato prodotto, che viene
controllato nel suo ambiente anch’esso virtuale, e poi trasportato all’assemblaggio da robot
governati da computer.
Questa fabbrica universale sarà collegata a un PUNTO VENDITA UNIVERSALE.
FABBRICA UNIVERSALE e SISTEMA UNIVERSALE DI VENDITA sono ancora allo stato di sogno
“computopico”.
Le prime manifestazioni dell’idea di fondo → già cominciato a far sentire la loro influenza sul
mercato dei consumi giapponese.
NAOKI SAKAI (designer) → progettò un’automobile falso-antica che fu chiamata “Pau” e una
macchina fotografica chiamata “Ecru” → entrambe erano modernissime e tuttavia ispirate a una
tecnologia preindustriale, alla tecnologia di un’epoca di pionieri i cui prodotti non venivano
spediti in tutto il mondo in anonimi contenitori.
Questi progetti costituivano la prima generazione dei prodotti della fabbrica universale → lo
scopo di un qualsiasi prodotto non è più esplicitamente e strettamente legato a ciò che quel
prodotto significa.
Neppure la propria condizione sociale è uno stato oggettivo, stabile e determinato, e non c’è
prodotto che possa simboleggiarla.
L’industria si dimostra abbastanza flessibile da reggere questo libero gioco di segni e simboli.
L’asserzione che “l’obiettivo di una macchina fotografica non può mentire” è falsa.

Il grado di “verità” di una fotografia non è determinato dal procedimento in sé, ma dall’onestà del
fotografo.
La relazione fra la fotografia e ciò che essa rappresenta è rigida, ed è quasi sempre molto difficile
allentarla.
Non è possibile quando vi sono computer di mezzo. Con essi “la matita della natura” è caduta nelle
mani dell’uomo, che ne fa un uso troppo disinvolto → per dimostrare che la realtà stessa è
qualcosa che essi possono modificare a beneficio dei loro clienti.
Il “FOTOREALISMO” resta uno degli obiettivi che l’industria dell’elaborazione grafica
computerizzata si prefigge → ciò che lo rende desiderabile è una forma di simulazione della realtà
che crea un’immagine nella quale tutti i suoi attributi sono intatti tranne uno → relazione rigida fra
l’immagine e ciò che essa rappresenta.

La realtà di un obiettivo tecnologico → più ci sfugge dalle mani, più disperatamente le restiamo
aggrappati.

BAUDRILLARD → “tutto l’insieme della realtà quotidiana è incorporata nella dimensione


simulatrice dell’iperrealismo: noi stiamo già vivendo una specie di allucinazione ‘estetica’ della
realtà. LA REALTA’ SI È TRASFORMATA IN GIOCO DI REALTA’.”

pag. 51
UNDICESIMO CAPITOLO: REALTA’ (pag. 253-282)
GEORGE GILDER → “L’evento più importante del ventesimo secolo è la sconfitta della materia.
Ovunque i poteri della mente stanno prendendo il sopravvento sulla forza bruta delle cose.”
Nuova Era del ventesimo secolo → più grande cambiamento mai avvenuto nella nostra
concezione della realtà → evoluzione umana.

Un cambiamento nei fondamenti della scienza.


Che cos’è la realtà? => è l’insieme delle conquiste scientifiche, questo immane corpus di
conoscenze, ce ne dà conferma.
La realtà non ci mostra semplicemente i contenuti, ci mostra che esiste un principio.

Secondo questo principio → lo studio dell’esperienza per mezzo di procedure oggettive deve dare
i suoi frutti. Ed ecco perché è in opposizione alla religione e alla fede → nelle scienze i
procedimenti debbono condurre alla stessa scoperta indipendentemente dalla persona che li
mette in atto.
MARTIN FLEISCHMANN e STANLEY PONS avevano scoperto la fusione fredda → poi è risultato
falso.

Fu un episodio molto istruttivo perché rendeva palese come sia sottile la linea fra l’oggettività e il
conformismo sulla quale si muove la scienza.

I risultati degli esperimenti devono essere interpretati, ma non è facile → neppure gli scienziati
sanno decidere se le loro teorie sono valide perché concordano con la realtà dei fatti, oppure
perché concordano con le teorie di altri scienziati.

Tuttavia, persino oggi la caratteristica più notevole della scienza dev’essere la sua unità.
HERBERT SAMUEL → per lui è l’insieme delle conquiste scientifiche il corpus delle conoscenze =>
bisogna ammettere che la scienza è estremamente omogenea, stabile e consensuale.
I risultati che la scienza ottiene riflettono le preoccupazioni della società che la sostiene.
Eppure, la scienza resta un corpo compatto di conoscenze, che sembra aver resistito meglio di
qualsiasi altra cosa agli assalti del ventesimo secolo.
La scienza ammette nel suo canone solo quelle teorie che essa stessa può confutare e respingere.
Le ipotesi scientifiche sono un prodotto come un altro dell’ispirazione o dell’immaginazione
umana. Ciò che le distingue è il loro essere falsificabili: qualsiasi scienziato è in grado di provare la
loro falsità sol che possa dimostrare che esse non rispondono abbastanza bene all’osservazione.
La scienza deve essere forgiata sull’inflessibile incudine dell’OSSERVAZIONE.
Tutti gli esperimenti parevano dimostrarlo: la luce provoca figure di interferenza passando
attraverso le aperture di una barriera, il che non potrebbe accadere se fosse formata da particelle.
PLANCK → gli atomi possiedono una sorta di armonia interna, da cui consegue che essi possono
assorbire o emettere energia soltanto in quantità discrete.

pag. 52
Ogni forma di radiazione deve essere formata da “QUANTI” => particelle alle quali diede il nome
di “FOTONI”.
CONCETTO CHE L’ELETTRONE NON SI TROVI IN UN QUALSIASI ISTANTE NEL PUNTO CHE LA
FUNZIONE D’ONDA HA CALCOLATO, MA CHE INVECE SI SPARGA SU UN CAMPO DI PROBABILITA’,
IN UN MODO CHE PUO’ ESSERE DESCRITTO SOLTANTO RICORRENDO ALLA STATISTICA.
WERNER HEISENBERG → “qualcosa che stava a metà fra l’idea di un evento e l’evento reale, uno
strano tipo di realtà fisica a metà strada fra possibilità e realtà”.
Un gruppo di fisici, consultarsi → Centro di Fisica di Copenaghen.
La cosa più importante (e più misteriosa) del principio di indeterminazione è che l’incertezza non è
il risultato di una misurazione imperfetta: è semplicemente impossibile saperne di più, cioè
l’indeterminazione è insita nello stesso sistema, e non nel modo di misurarlo.
SCHRODINGER → stato di “SOVRAPPOSIZIONE” (esempio gatto)

Non appena la camera viene aperta, la sovrapposizione precipita in un’unica posizione, e solo
allora si può conoscere il destino del gatto.

HEISENBERG → “IL PASSAGGIO DAL ‘POSSIBILE’ AL ‘REALE’ HA LUOGO DURANTE L’ATTO


D’OSSERVAZIONE.” Possiamo dire che il passaggio dal “possibile” al “reale” si verifica non appena
l’interazione dell’oggetto del dispositivo di misurazione, e quindi del resto del mondo, è entrata in
gioco.”
L’INTERPRETAZIONE DI COPENAGHEN minacciava di → trasformare la fisica in un insieme di teorie
sull’osservazione anziché sulla reale natura dell’universo.

BORIS PODOLSKY, NATHAN ROSEN e EINSTEIN → “Paradosso EPR” = dimostrare che la


“descrizione quantistica” (= l’interpretazione di Copenaghen) non può essere una descrizione
completa della realtà.
JOHN BELL → gettò le fondamenta teoriche proprio per un esperimento del genere → avrebbe
dimostrato la certezza o la falsità dell’interpretazione di Copenaghen.

Il paradosso EPR presuppone una “localizzazione”: presuppone cioè che due oggetti lontani l’uno
dall’altro, e non direttamente connessi, non possano influenzarsi a vicenda.
Il teorema di Bell → proponeva un modo di determinare sperimentalmente se l’assunto della
localizzazione sia o non sia compatibile con dati osservabili.

ALAIN ASPECT → riuscì a dimostrare che non lo è => le particelle elementari riescono a
comunicare.
EINSTEIN → sua lettera => la realtà non è tanto una caratteristica del mondo, quanto un elemento
della teoria di cui ci serviamo per comprendere il mondo.
È implicita l’idea che il mondo sia creato semplicemente dalla percezione che ne abbiamo → idea
che in effetti minaccia di ricacciare la scienza nel regno speculativo della filosofia.

pag. 53
TUTTO QUESTO → ha spazzato via l’era della fisica classica e ciò che essa rappresentava. Pare
imminente un “cambiamento di paradigma” => THOMAS KUHN → le vecchie teorie vengono
costrette a cedere il passo alle nuove.
I filosofi e i fisici si sono adoperati per far emergere un nuovo paradigma. Se persino la scienza
comincia a mettere in dubbio la natura della realtà e la conoscenza che ne abbiamo, vuol dire che
qualcosa sta sicuramente accadendo.
Nuovo interesse da parte di alcuni scienziati → sulla natura della realtà che finora erano state
questioni di dominio dei filosofi.
Da molti di questi scienziati l’interpretazione di Copenaghen viene considerata un espediente, una
misura di comodo.
JOHN WHEELER → tipo di interpretazione: stato spesso citato dai non scienziati a sostegno della
tesi che la realtà non è più quel regno fisso e indipendente che si credeva nell’era moderna.
TIMOTHY LEARY → “Le realtà sono determinate da chiunque voglia determinarle.”
EVERETT → DECRETARE IL DESTINO DEL GATTO.

EUGENE WIGNER → A terminare la catena dell’osservazione deve essere la coscienza umana.


EVERETT → la decisione di misurare un solo attributo equivale alla decisione di vivere in un
particolare universo anziché nell’universo che ad esso è complementare.
Tutti i possibili stati di un sistema di quanti esistono realmente: solo che occupano universi
diversi e paralleli.
DAVID DEUTSCH → la TESI DEI MOLTI MONDI è qualcosa di più di una interpretazione → vi si
postula un universo che è fondamentalmente diverso.
Esiste una realtà oggettiva, che si scinde in un numero infinito di UNIVERSI PARALLELI. Deutsch è
dell’opinione che vi sia un modo di scoprire questi universi.
Interpretazione di Copenaghen => momento in cui il sistema considerato viene percepito
consciamente dall’osservatore;
Deutsch => è il punto in cui le diverse interpretazioni si dividono.
 L’esito dell’esperimento si ha nel punto in cui il campione radioattivo esercita il suo 50 per
cento di probabilità di emettere una particella;
 L’esito osservato dallo sperimentatore sarà diverso a seconda che egli si trovi nell’uno o
nell’altro mondo.
CREARE UNA MACCHINA QUANTICA → È POSSIBILE? Forse, nel ventunesimo secolo: una
macchina in grado di percorrere gli universi paralleli e visitarli per scoprire in quale di essi si vive
meglio. E forse su questa macchina ci sarà scritto: ACCESO – SPENTO – ACCESO E SPENTO.
BRIAN MCHALE → la NARRATIVA MODERNISTA si occupava di questioni GNOSEOLOGICHE (= i
modi del conoscere, i problemi di verità), mentre la NARRATIVA POSTMODERNISTA si occupa di
questioni ONTOLOGICHE (= i modi dell’essere, i problemi di realtà).

pag. 54
La SCIENZA → sembra riflettere, o addirittura a convalidare un modo particolare di CONSIDERARE
LA NATURA DELLA REALTA’.
Alcuni tra i fisici sono tutt’ora convinti che “là fuori” esista UN SOLO UNIVERSO.
DAVID BOHM → concetto di ORDINE “AVVOLTO” o “RIPIEGATO” => concetto che viene usato per
spiegare il modo in cui le particelle possono influenzarsi l’uno l’altra a distanza.

L’esempio preferito di Bohm per spiegare l’ordine avvolto delle cose è:


L’OLOGRAMMA → quel procedimento fotografico che serve a registrare e osservare immagini
tridimensionali su una lastra bidimensionale, l’intera immagine è contenuta in tutte le sue parti.
Per Bohm l’universo si presenta allo stesso modo → l’immagine di un sistema quantico non ha
una corrispondenza univoca con ciò che rappresenta, ma è una visione spiegata di un ordine
ripiegato.
La teoria meccanicistica ha un’idolatria per le misurazioni, il che significa fare a pezzi l’ordine
“ripiegato” delle cose in modo da poterlo confrontare con qualche standard arbitrario ad esso
esterno. Einstein ha messo tutto ciò in discussione con la TEORIA DELLA RELATIVITA’.
L’idea di ordine “avvolto” sembra esprimere perfettamente quel cambiamento di paradigma che
secondo molti sta cacciando dal suo piedistallo la visione meccanicistica del mondo.
FRITJOF CAPRA “Tao della fisica” → denunciava i valori scientifici meccanicistici sostenendo che
non solo erano diventati scientificamente insostenibili, ma minacciavano di provocare una
catastrofe globale.
JAMES LOVELOCK → “ipotesi di Gaia” => Lovelock non si proponeva di costituire un manifesto,
bensì veniva presentato come teoria scientifica in piena regola, che soddisfa completamente la
condizione popperiana della falsificabilità.
L’ipotesi postula che → → → IL NOSTRO PINETA SIA UN ORGANISMO VIVENTE.
La sicurezza del giudizio di Lovelock si fondava su una maniera ingegneristica di osservare sistemi
naturali che egli definiva “DALL’ALTO AL BASSO” (= considera il sistema nella sua globalità) → per
distinguerla da quella che riesce più naturale ai fisici => “DAL BASSO IN ALTO” (= per comprendere
le cose bisogna smontarle pezzo per pezzo).
Secondo L’IPOTESI GAIA → il mondo si direbbe simile alla piscina stagnante di Lovelock: anch’esso
sarebbe governato da effetti di feedback e di AUTOREGOLAZIONE.
Concetti come EQUILIBRIO e AUTOREGOLAZIONE → elementi essenziali della scienza del caos e
della dinamica non lineare.
Purtroppo, nessuno è riuscito a chiarire in che modo i cambiamenti che avvengono in un campo
possano influenzare i cambiamenti di un altro.
COS’E’ CHE COLLEGA LA REALTA’ QUANTISTICA LA POSTMODERNISMO?

Qualsiasi siano i meccanismi del cambiamento del paradigma, l’era del “realismo ingenuo” volge al
tramonto. La meccanica quantistica e il principio di indeterminazione non hanno invalidato il
principio di osservazione oggettiva.
pag. 55
PAUL DEVIES e JOHN GRIBBIN → “nel rovesciamento della vecchia visione del mondo, un
cambiamento di paradigma che sta trasformando drammaticamente il nostro modo di
comprendere la realtà, la vittima principale è il senso comune. Nell’astratto Paese delle Meraviglie
della nuova fisica si direbbe che solo la matematica molto sofisticata possa aiutarci a CAPIRE LA
NATURA.”
Un cambiamento nei fondamenti della conoscenza c’è stato realmente, o perlomeno è avvenuto
in maniera “esecutivamente produttiva”; ed è chiaro in quale direzione.
 LA REALTA’ HA LASCIATO IL MONDO FISICO → È PASSATA A UN MONDO VIRTUALE.

pag. 56
DODICESIMO CAPITOLO: SCOPERTA (pag. 283-304)
HOWARD RHEINGOLD → “Siamo sul punto di avere il potere di creare qualunque esperienza
desideriamo” => esprime una posizione che potrebbe essere definita “REALISMO VIRTUALE
INGENUO”.
Il computer è la macchina della realtà (per Rheingold), una macchina senza limiti, capace di creare
qualsiasi mondo nel quale si possa desiderare di vivere.
RHEINGOLD → avvento della “TELEDILDONICA” => dildonics (termine coniato per applicarlo a una
macchina capace di convertire il suono in sensazioni tattili), tele (venne aggiunto dopo, indica le
telecomunicazioni a distanza di tali sensazioni).
Che si può dire dell’informazione che essi trasmetteranno? Come sarà la realtà virtuale generata
dal calcolatore che verrà vissuta attraverso queste nuove intime interfacce?
Nei primi anni della realtà virtuale le simulazioni migliori venivano prodotte impiegando
workstation grafiche → sistemi a livello di personal computer progettati specificamente per
generare immagini grafiche → PARECCHI LIMITI.
Il problema sta → QUANTITA’ DI ELABORAZIONE NECESSARIA PER SIMULARE UNO SPAZIO
TRIDIMENSIONALE, E GLI OGGETTI IN ESSO CONTENUTI. Lo spazio, come gli oggetti che contiene,
vengono creati solo come una serie di descrizioni matematiche => il tutto viene poi “RESO” (=
trasformato in un’immagine visibile).
Questo processo di “RESA” (= trasformare il modello matematico in una scena osservabile) di
solito si deve realizzare “in tempo reale” per ciascuna immagine → POTENZA DI ELABORAZIONE
RICHIESTA DA TUTTE QUESTE OPERAZIONI È ENORME.
Per la fine di questo secolo i calcolatori saranno in grado di creare immagini relativamente
complesse. Resta aperta una questione importante: queste immagini saranno FOTOREALISTICHE?
FOTOREALISMO = il realismo è dato dal contenuto dell’immagine, non dalla qualità della sua
riproduzione. È fotorealistica un’immagine che fa apparire in un certo modo reale la cosa che
raffigura: ciò dipende dal GRADO DI SOTTIGLIEZZA DEI MODELLI COMPUTERIZZATI, dal modo in
cui gli oggetti e i paesi virtuali sono stati descritti.
La creazione di ambienti virtuali complessi rimane un’impresa piena di enormi difficoltà, che non
è resa più facile dall’attuale pratica di creare i modelli volta per volta.
Esperimenti che dimostrano che la simulazione di comportamenti molto primitivi è possibile per
la futura riproduzione di forme superiori di vita.
Idea che i sistemi di realtà virtuale saranno in grado fra pochissimo tempo di realizzare un mondo
fittizio indistinguibile da quello reale → gira attorno a questioni irrisolte, come: il computer è
davvero il nuovo medium creativo? I computer creano davvero la realtà? O non fanno che
scoprirla?
“Il computer non è tanto una macchina quanto un potente medium personale di espressione e di
comunicazione”. → Da questa interpretazione nascono numerose implicazioni:

pag. 57
 Essa incoraggia la tesi che sarà la PSICOLOGIA a rivelare tutte le possibilità dei computer:
“Il modo migliore di comprendere noi stessi è quello di osservare i bambini”.

L’esperimento che viene citato più spesso per illustrare come sia possibile studiare la creatività
osservando il comportamento infantile è quello ideato dallo psicologo → JEAN PIAGET.

LA MENTE VISIVA DOMINA QUELLA INTELLETTIVA (esempio dei due bicchieri) → per questo
motivo le interfacce grafiche sono considerate più “intuitive” di quelle basate sul testo, le risposte
di tipo infantile che ci riescono spontanee quando ci accingiamo a risolvere un nuovo tipo di
problema si affidano agli stimoli visivi piuttosto che al ragionamento di tipo simbolico.
Molti dubbi su questo dare importanza alla psicologia infantile.

 BRENDA LAUREL → “la creazione di realtà artificiali è cognitivamente, emotivamente ed


esteticamente accresciuto.”
Laurel e Rheingold esprimono l’opinione che la realtà sia un prodotto della cultura, e che il
calcolatore sia un modo per arricchirla, offrendo a un numero maggiore di persone un crescente
controllo sulla sua fabbricazione.

Le realtà virtuali sono reali grazie alla nostra interazione con esse, non già grazie a ciò che sono.
È per questa ragione che è la psicologia a determinare ciò che è e ciò che non è virtualmente
“reale”.

Sembra avventato pensare che “noi” potremmo mai arrivare a sapere in che modo pensiamo e in
che modo i processi sensoriali interagiscono con le emozioni.

Tutto ciò che vediamo con un computer è il risultato di un calcolo meccanico e non
dell’immaginazione umana: né della mia, né del grafico che le aveva progettate.
ESTHER DYSON → “non bisogna mai dimenticarsi dei SIMBOLI.”
In semiotica occorre distinguere TRE DIVERSE FORME DI RAPPRESENTAZIONE:
1) ICONICA:
Un’icona deve necessariamente avere qualche relazione formale con ciò che rappresenta.
2) INDIZIALE:
Un indizio è un segno che sta con ciò che rappresenta in una relazione causale o
consequenziale.
3) SIMBOLICA:
Un simbolo sta in una relazione del tutto arbitraria con ciò che rappresenta.

Dyson → difendeva il potere speciale dei simboli => essendo arbitrari possono essere impiegati
per compiere astratte generalizzazioni e osservazioni. I simboli sono gli strumenti
dell’immaginazione e della creatività.
I teorici dell’antropologia culturale e gli strutturalisti considerano i SIMBOLI come → FORMA
PRINCIPALE DI RAPPRESENTAZIONE. Tutto non è che un “testo” (anche la “realtà”).

pag. 58
L’apparente universalità del calcolatore ci ha fatto perdere di vista il fatto importante che l’unica
funzione che esso segue è quella di calcolare. Tutto ciò che sa fare è una serie di operazioni
meccaniche, di algoritmi.
Tutto è frutto di operazioni meccaniche, non dell’immaginazione dell’uomo. In questa stessa
misura la simulazione è iconica → è questa la cosa che la rende realistica, così come il
procedimento meccanico dello sviluppo e della stampa rende realistica una fotografia.
Tutta quanta la realtà è una costruzione linguistica, compresa la realtà che la matematica ci rivela.
Dal punto di vista della scienza si tratta di due linguaggi fondamentalmente diversi: l’uno è il
linguaggio degli umani, l’altro è il linguaggio della natura.
LA MECCANICA QUANTISTICA POGGIA SU UN’ESPRESSIONE MATEMATICA LA DESCRIZIONE
ULTIMA DELL’UNIVERSO.
PER I POSTMODERNISTI LA REALTA’ RISIEDE TUTTA NEL LINGUAGGIO, PER GLI SCIENZIATI VIENE
RIVELATA DALLA MATEMATICA.
L’industria informatica ha tentato di cavalcare entrambe le posizioni, sperando di riuscire la loro
unione nella realtà virtuale.
C’è infatti la speranza che sia possibile → IMPIEGARE LA MATEMATICA PER ESPLORARE IL REGNO
DELL’UMANA IMMAGINAZIONE ( → idea del film interattivo).
QUESTIONE: il regno dell’immaginazione è computabile? La questione sembrava ormai risolta,
quando MARVIN MINSKY, arrivò con il concetto dell’”intelligenza artificiale”. I REALISTI VIRTUALI
hanno fatto il passo successivo → cominciando a promuovere la simulazione come uno dei modi
per sviluppare la creatività.
L’informatica è al tempo stesso una tecnologia e una scienza.
IVAN SUTHERLAND → vede il suo congegno come “uno specchio che guarda nel Paese delle
meraviglie della matematica”. La scienza informatica mira a scoprire i confini di quel paese
incantato rispondendo a questa domanda “COSA PUO’, E COSA NON PUO’, ESSERE TRASFORMATO
IN UN MODELLO MATEMATICO?”
➔ I tecnologi si sono dati un altro programma: “display definitivo” per esplorare un altro
Paese delle Meraviglie, quello dell’IMMAGINAZIONE, per renderlo più reale.
Bisogna ammettere che i tecnologi sono riusciti a stabilire sul territorio dell’immaginazione umana
una testa di ponte che potrà dimostrarsi significativa.
Abbiamo molteplici esempi che ci mostrano che il computer può avere impieghi interessanti e
forse costruttivi come “STRUMENTO CREATIVO”.
- Utile per la manipolazione dei testi;
- Capace di combinare fra loro diversi media in modi nuovi e interessanti;
- Può accelerare il processo di creare e manipolare le immagini;
- Può generare animazioni convincente.

pag. 59
➔ NESSUNA È PIU’ REALE SOLO PERCHE’ VIENE ELABORATA DA UN COMPUTER; LA
RETORICA DELLA REALTA’ NON SI DOVREBBE USARE PER INDURRE LA GENTE A
PENSARE ALTRIMENTI.
Attribuire al computer il potere di “scoprire” il regno dell’immaginario è assurdo quanto
attribuire a una macchina da scrivere il potere di scoprire il mondo della lettura.
Invece sono un’altra cosa le prospettive scientifiche aperte dal computer in quanto “specchio che
guarda nel Paese delle Meraviglie della matematica” → capacità di svelare una realtà in
precedenza nascosta.
Spazio = Regno celeste → fa parte dello stesso universo e della stessa realtà di cui fa parte la
Terra.
Al Jet Propulsion Laboratory (JPL) di Pasadena, California, cominciarono a cercare di impiegare i
calcolatori per visualizzare tutto questo cumolo disorganizzato di dati provenienti dal Voyager 1 e
2.
I loro sforzi vennero premiati con una serie di immagini, dettagliate e realistiche, dei pianeti.
Gli scienziati del JPL riuscirono a produrre delle animazioni che simulavano ciò che una
videocamera vedrebbe se montata su una nave spaziale che vola a un miglio o poco più sopra la
superficie del pianeta → gli scienziati dichiararono anche che le immagini computerizzate della
grande “macchia rossa” di Giove risultavano tanto dettagliate da poter confermare la validità di un
modello matematico che spiegava la sua formazione!
NASA → uno dei finanziatori più importanti per la tecnologia della realtà virtuale.
Una delle ricerche fu condotta da MICHAEL MCGREEVY e SCOTT FISHER → i risultati rendono
possibile immaginare una nuova razza di esploratore:
 ESPLORATORE DELLO SPAZIO VIRTUALE;
➔ un’adeguata attrezzatura da realtà virtuale potrebbe dare a questo esploratore
l’interfaccia di cui ha bisogno per esaminare queste visualizzazioni, e forse anche per
camminare sulla superficie di un pianeta, ricostruendo in tutti i dettagli i dati inviati
dallo spazio da sonde simili a due Voyager.
Queste visualizzazioni possono vantare a buon diritto di rappresentare una specie di realtà,
perché sono il prodotto algoritmico di un modello matematico, cioè sono state generate da
processi che in ultima analisi sono indipendenti da ogni intervento umano.
“TERAFLOP” → macchina capace di mille miliardi di calcoli al secondo.
Festival del film computerizzato del 1990, ROBERT WILHELMSON → evoluzione di una tempesta.
Ha dimostrato chiaramente come le tecniche di visualizzazione siano in grado di rivelare
configurazioni e strutture all’interno di un sistema in movimento, quali non potrebbero mai
essere scoperte da un’analisi dei dati statici che l’hanno prodotto.

pag. 60
Noi tendiamo a pensare ai prodotti dell’uomo come a qualcosa che esiste indipendentemente da
ogni realtà. Il valore del denaro → deriva dalla nostra decisione di trattarlo come qualcosa che ha
valore.
1989 la Maxis → “Sim City” → riproduceva realisticamente alcune delle principali caratteristiche
dello sviluppo urbano, e dimostrava come possa essere difficile governare tale sviluppo senza
soffocarlo, ma anche senza perderne totalmente il controllo.
Il gioco offriva una visione molto interessante e convincente di certi FENOMENI SOCIALI → e che
essi possono essere SIMULATI impiegando un modello computerizzato relativamente semplice.
Ciò prova che esistono leggi matematiche che determinano certi aspetti della vita sociale e
culturale.

CONCLUSIONE:

Siamo circondati da ogni parte dalla realtà artificiale: tutt’intorno a noi ergono le costruzioni del
commercio e della cultura.

Per il POSTMODERNISTA e il REALISTA VIRTUALE → la realtà non esiste.


Postmodernista → → i valori razionali della verità e della certezza sono in via di distruzione.
Realista virtuale → → ottimista e fanfarone, convinto di saper fare qualcosa di meglio, crede
veramente che i sogni possano essere trasformati in realtà. Convinti di poter costruire il mondo
strada facendo.
Distinzione fra:
- simulazione e imitazione;
- virtuale e artificiale.
➔ spiraglio che indica dove potrebbe trovarsi questa realtà: forse nel regno formale e
astratto che ci viene rivelato dalla matematica e dai calcolatori.

Con tutto ciò NON vuol dire che SOLTANTO la MATEMATICA può scoprire la REALTA’ → il
CALCOLATORE, grazie alla sua capacità di SIMULAZIONE ci offre una PROVA (rassicurante) della
sua ESISTENZA.

FINEEEEEEEEEEEEEEEEEEEEEEEEEE.
pag. 61

Potrebbero piacerti anche