Sei sulla pagina 1di 42

La storia del World

Wide Web
Tesina per l’esame di Storia dell’Informatica

Tesi redatta da Emanuele Crivello


Anno Accademico 2008 -2009
“The process of technological development is like building a cathedral. Over the
course of several hundred years new people come along and each lays down a block
on the top of the old foundations, each saying, "I build a cathedral". Next month
another block is placed atop the previous one. Then come along an historian who
asks, "Well who built the cathedral?" Peter added some stones here, and Paul added
a few more. If you are not careful, you can con yourself into belief that you did the
most important part. But the reality is that each contribution has to follow onto
previous work. Everything is tied to everything else.”

Paul Baran, 5 marzo 1990

2
Sommario
1 – La storia di Internet ..................................................................................................................................... 4
1.1 - ARPANet e i padri della commutazione di pacchetto................................................................... 4
1.2 - Ethernet, TCP e l’interconnessione delle reti ............................................................................... 6
1.3 - La proliferazione delle reti ............................................................................................................ 7
2 – La storia dell’Ipertesto ................................................................................................................................ 8
2.1 - Vannevar Bush e Memex .............................................................................................................. 8
2.2 - Engelbart e NLS............................................................................................................................. 9
2.3 - Theodor Holm Nelson e Xanadu ................................................................................................. 10
2.4 - Andy van Dam e FRESS ............................................................................................................... 11
2.5 - Viewdata, Prestel e Minitel ........................................................................................................ 12
2.6 - Intermedia, Hypercard e altri sistemi ipertestuali...................................................................... 14
2.7 - Prima del World Wide Web: Archie, WAIS e Gopher ................................................................. 16
3 – Nascita del World Wide Web.................................................................................................................... 19
3.1 – Entrate pure per avere informazioni su qualsiasi argomento ! ................................................. 19
3.2 – Il ritorno di Tim Berners Lee al CERN ......................................................................................... 20
3.3 – Lo sviluppo del primo WWW ..................................................................................................... 21
3.4 – I primi browser........................................................................................................................... 23
3.5 – Il viaggio in USA di Tim Berners Lee ........................................................................................... 24
3.6 – Un consorzio per il World Wide Web ........................................................................................ 24
4 – La “guerra” dei browser ............................................................................................................................ 27
4-1 – Mosaic e l’alba di Netscape ....................................................................................................... 27
4-2 – Internet Explorer contro Netscape Navigator 2.0 ..................................................................... 28
4-3 – Il dominio di Internet Explorer .................................................................................................. 29
4-4 – La seconda “guerra” dei browser .............................................................................................. 30
5 – L’evoluzione del Web ...................................................................................................................... 33
5-1 – La bolla delle dot-com ............................................................................................................... 33
5-2 – Cos’è il Web 2.0 ? ...................................................................................................................... 33
5.3 – Differenze tra “Web 1.0” e Web 2.0 .......................................................................................... 35
5.4 – Un fenomeno recente: i Social Network.................................................................................... 38
5.5 – Il futuro della rete: il Web Semantico ........................................................................................ 39
5.6 – Conclusioni ................................................................................................................................. 41
Bibliografia ...................................................................................................................................................... 42

3
Il World Wide Web ha cambiato il modo di comunicare delle persone e anche il mondo degli affari. Siamo
testimoni di una rivoluzione che sta trasformando il mondo e viviamo in una società che possiamo definire
“della conoscenza”. Il web è come un’enciclopedia, un elenco telefonico, un supermercato, un luogo di
discussione… e tutta questa serie di informazioni e strumenti sono alla portata di un click da chiunque
disponga di una connessione Internet e un qualsiasi elaboratore.

Il World Wide Web ha acquisito così tanta importanza che molti – erroneamente – lo confondono con
Internet. In realtà stiamo parlando di due concetti piuttosto differenti: Internet è infatti come una rete di
strade elettroniche che attraversano il pianeta, un’autostrada dell’informazione; il web è solo uno dei molti
servizi che utilizzano questa rete, così come tante sono le tipologie di veicoli che utilizzano le strade.

1 – La storia di Internet
1.1 - ARPANet e i padri della commutazione di pacchetto
Internet ha rivoluzionato il mondo delle comunicazioni: esso rappresenta contemporaneamente un mezzo
di comunicazione globale, un meccanismo di disseminazione dell’informazione e uno strumento per la
collaborazione e l’interazione tra individui ed elaboratori, tra i quali favorisce il contatto senza curarsi della
loro posizione geografica.

La sua storia fa perno attorno a quattro aspetti distinti. Il primo di essi è l’evoluzione tecnologica che iniziò
con le prime ricerche sulla commutazione a pacchetto e ARPANet, e che ancora oggi continua con il fine di
espandere gli orizzonti infrastrutturali sotto diversi punti di vista, tra i quali la scalabilità, il miglioramento
delle performance e l’aggiunta di funzionalità ad alto livello. Va considerato poi un aspetto “operativo” e di
management legato a come questa evoluzione ha preso forma. C’è quindi l’aspetto sociale, che ha avuto
come risultante la nascita della comunità degli Internauti. E soprattutto c’è l’aspetto commerciale, quello
più importante ai fini della creazione di un’infrastruttura informativa a livello globale.

Il settore del computer networking e di Internet trae le sue origini dai primi anni ’60, un tempo in cui la rete
telefonica era quella dominante nelle comunicazioni mondiali. Questa utilizza la commutazione di circuito
per trasmettere informazioni dal mittente al destinatario.

Con la crescente importanza e gli alti costi dei calcolatori nei primi anni 60, era naturale considerare il
problema di come collegare tra loro gli elaboratori in modo che potessero essere condivisi da utenti
geograficamente distribuiti.

La prima descrizione delle interazioni sociali che sarebbero state abilitate attraverso il
networking è racchiusa in una serie di appunti scritti da J.C.R. Licklider (vedi figura 1) del
MIT nell’agosto del 1962, nei quali discute del concetto di una “Galactic Network”
(letteralmente “Rete Galattica”). Licklider sognava un insieme di elaboratori interconnessi
globalmente, attraverso i quali ognuno potesse velocemente accedere a dati e
programmi ovunque si trovasse: essenzialmente veniva descritto ciò che oggi è
rappresentato da Internet. Licklider fu messo a capo dell’Information Processing
(1) J.C.R. Licklider
Techniques Office (IPTO) della Advanced Reseach Project Agency - ARPA - nel 1962.

La sua visione influenzò gli studi di Leonard Kleinrock (vedi figura 3), diplomato e studente del MIT, che
pubblicò il suo primo documento sulla teoria della commutazione a pacchetto nel luglio del 1961 e il primo
libro sull’argomento nel 1964. Kleinrock convinse Lawrence Roberts, suo collega al MIT, della fattibilità
teorica di una comunicazione effettuata utilizzando pacchetti piuttosto che circuiti: questo rappresentò uno
4
dei più grandi passi verso l’attuale computer networking. L’altro punto chiave fu quello di mettere in
comunicazione due elaboratori: nel 1965 Roberts, lavorando con Thomas Merril, connesse un elaboratore
TX-2 in Massachussets con un Q-32 in California tramite una lenta connessione telefonica, creando di fatto
la prima (per quanto piccola) rete geografica. Il risultato di questo esperimento fu la comprensione del fatto
che gli elaboratori potevano eseguire programmi e recuperare dati da macchine remote quando
necessario, ma anche che il sistema di commutazione a circuito era totalmente inadeguato a questo scopo.

Nel 1964 Paul Baran (vedi figura 2) del Rand Institute cominciò ad indagare l’uso della commutazione di
pacchetto per la sicurezza della comunicazione vocale nelle reti militari; contemporaneamente, al National
Physical Laboratory (NPL) inglese, anche Donald Davies e Roger Scantlebury stavano sviluppando la loro
idea di commutazione a pacchetto.

In questo modo tre gruppi di ricerca sparsi per il mondo, ignorando ognuno il lavoro
degli altri, concepirono la nozione di commutazione di pacchetto, un’efficiente e valida
alternativa alla commutazione di circuito. La commutazione di pacchetto, a differenza
di quella di circuito, non comporta l'attivazione di una linea di comunicazione dedicata
fra un elaboratore ed un altro, ma consente lo svolgimento simultaneo di più
(2) Paul Baran comunicazioni fra computer, massimizzando così l'utilizzazione dei mezzi trasmissivi
impiegati. Il lavoro al MIT, al Rand e all’NPL portò di fatto alla fondazione dell’Internet attuale.

Verso la fine del 1966 Roberts assunse un ruolo chiave


nell’IPTO del Defense Advanced Research Project Agency
(DARPA), sviluppando velocemente il concetto di reti di
computer e definendo (con annessa pubblicazione) nel 1967 il
piano di sviluppo di ARPAnet, la prima rete di calcolatori a
commutazione di pacchetto e diretta antenata dell’Internet
pubblica dei giorni nostri. I primi commutatori di pacchetto
erano conosciuti come Interface Message Processor (IMP) e il
(3) Leonard Kleinrock e il primo IMP
contratto per costruire questi commutatori fu assegnato alla
società Boltek Beranek & Newman Technologies - BBN. Nel Labor Day del 1969 il primo IMP fu installato
all’UCLA con la supervisione di Kleinrock, e tre ulteriori IMP furono installati poco dopo allo Stanford
Research Institute (SRI), alla UC Santa Barbara e all’University of Utah. Kleinrock ricorda che al primo
impiego della rete per effettuare un login remoto da UCLA a SRI si verificò un blocco totale del sistema.

Intorno al 1972 ARPANet era cresciuta fino a circa quindici nodi, e la prima dimostrazione pubblica fu
presentata da Robert Kahn nel 1972 all’International Conference on Computer Communications. Il primo
protocollo host-to-host fra terminali di ARPAnet, conosciuto come Network Control Protocol (NCP), era
completato. Con la disponibilità di un protocollo di questo tipo fu possibile sviluppare le prime applicazioni
e così Ray Tomlinson, nel 1972, realizzò il primo software di posta elettronica spinto dalle necessità degli
sviluppatori di ARPANet, i quali necessitavano un semplice meccanismo di coordinamento.

5
1.2 - Ethernet, TCP e l’interconnessione delle reti
La prima versione di ARPANet altro non era che una singola rete chiusa: per comunicare con un elaboratore
in ARPAnet, occorreva collegarsi a un IMP ARPAnet. All’inizio e a metà degli anni ‘70 furono create altre reti
a commutazione di pacchetto oltre ad Arpanet; per citarne alcune:

• ALOHAnet, una rete a microonde che collegava tra loro le università delle isole Hawaii;
• Telenet, una rete commerciale della BBN basata sulla tecnologia ARPANet
• Cyclades, una rete francese a commutazione di pacchetto progettata da Louis Pourzin

Il numero delle reti cominciava a crescere. Nel 1973 la tesi di dottorarto di Robert Metcalfe anticipava il
principio di Ethernet, che avrebbe in seguito portato a una crescita impressionante delle cosiddette reti in
area locale (LAN).

I tempi erano maturi per lo sviluppo di un’architettura che


abbracciasse tutte le reti collegandole tra loro. Il lavoro pioneristico di
interconnessione delle reti fu effettuato ancora una volta con il
patrocinio della DARPA e aveva lo scopo di creare una rete di reti; tale
compito fu svolto da Vinton Cerf e Robert Kahn (vedi figura 4), e il
(4) Vinton Cerf e Robert Kahn termine internetting fu coniato per descrivere la loro attività.

NCP non aveva l’abilità di indirizzare le reti (e le macchine) se non ad un IMP di destinazione su ARPANet;
NCP basava inoltre la propria affidabilità su quella di ARPANet: se un pacchetto fosse stato perso, il
protocollo (e presumibilmente ogni applicazione basata sullo stesso) non avrebbe avuto modo di gestire
l’errore. Fu così che Kahn decise di sviluppare una nuova versione del protocollo che avrebbe potuto
incontrare I bisogni e le necessità di un’ambiente con architettura aperta. Questo protocollo sarebbe stato
poi chiamato Transmission Control Protocol (TCP).

Nelle prime elaborazioni di Kahn furono definite quattro regole chiave:

• Ogni rete distinta avrebbe potuto continuare a mantenere le proprie caratteristiche, senza la
necessità di modifiche interne per connettersi ad Internet;
• La comunicazione avrebbe seguito una filosofia “best effort”: se un pacchetto non fosse giunto alla
destinazione finale, sarebbe stato velocemente ritrasmesso dalla sorgente;
• Le reti sarebbero state connesse tramite delle periferiche apposite, che più tardi sarebbero state
identificate come gateway e router. Tali strumenti non avrebbero mantenuto informazioni, ma
semplicemente le avrebbero smistate;
• Non doveva esistere un punto di controllo globale e centralizzato.

Questi principi architettonici furono incorporati nel protocollo TCP, la cui prima versione, comunque, era
molto differente da quella attuale. Il primo TCP univa la consegna affidabile dei dati in sequenza attraverso
la ritrasmissione da parte del terminale (che è presente anche da parte dei TCP attuali) con una funzione di
ritrasmissione (che oggi è a carico del protocollo Internet, IP). Le prime sperimentazioni, combinate con il
riconoscimento dell’importanza di un servizio di trasporto non affidabile e privo di controllo di flusso
(utilizzabile per applicazioni quali ad esempio la voce “pacchettizzata”), portarono alla separazione di IP da
TCP e allo sviluppo del protocollo UDP. I tre protocolli chiave dell’Internet attuale (TCP, IP e UDP) furono
concettualmente definiti alla fine degli anni ’70.

6
Oltre alle ricerche correlate a Internet sponsorizzate dalla DARPA, erano partiti molti altri lavori importanti
sull’interconnessione delle reti. Nelle Hawaii, Norman Abramson stava sviluppando la già citata ALOHAnet,
una rete di trasmissione basata su pacchetti che permetteva di comunicare tra loro a molte località sparse
nelle isole. Il protocollo a ALOHA è stato il primo protocollo che permise a utenti geograficamente
distribuiti di condividere un singolo mezzo di trasmissione, in questo caso una frequenza radio. Il lavoro di
Abramson sui protocolli di questo tipo (definiti “ad accesso multiplo”) fu rielaborato da Metcalfe e Boggs
per lo sviluppo del protocollo Ethernet (1976). E’ interessante notare come le motivazioni che portarono
allo sviluppo del protocollo Ethernet furono la necessità di collegare insieme molti PC, stampanti e dischi
condivisi. Venticinque anni fa, molto prima della rivoluzione dei personal computer e dell’esplosione delle
reti, Metcalfe e Boggs stavano gettando le basi per le attuali LAN.

1.3 - La proliferazione delle reti


Alla fine degli anni ’70 circa 200 host erano collegati ad ARPAnet. Alla fine degli anni ’80 il numero di host
collegati all’Internet pubblica, un insieme di reti molto somigliante all’Internet attuale, raggiungeva i
100.000.

Gli anni ’80 furono teatro di una crescita impressionante, derivante dagli sforzi per creare una rete di
calcolatori che connettesse le università. BITNET forniva la posta elettronica e il trasferimento di file tra
parecchie università del nordest degli USA. CSNET (Computer Science Network) fu creata per collegare
ricercatori universitari privi dell’accesso ad ARPAnet. Nel 1986 fu creata NSFNET per fornire accesso a
grandi centri di calcolo sponsorizzati dalla NSF. Partendo da una rete dorsale a velocità di 56 kbit/s, NSFNET
arrivò a 1,5 Mbit/s alla fine del decennio, ed è servita come giunzione primaria tra le reti regionali.

Nella comunità ARPAnet, trovarono collocazione molti dei pezzi definitivi dell’architettura moderna di
Internet. Il primo gennaio 1983 TCP/IP sostituì NCP come nuovo protocollo host standard per ARPAnet,
tramite una transizione pianificata attentamente da diversi anni. Negli anni successivi fu apportata
un’importante estensione al TCP per implementare il controllo della congestione basato sull’host; fu inoltre
sviluppato il DNS (Domain Name System), usato per tradurre i nomi simbolici dei calcolatori (ad esempio
www.disi.unige.it) in equivalenti indirizzi IP a 32 bit. La diffusione delle reti rese necessaria la definizione di
tre classi (A, B e C) per differenziarne le diverse tipologie: la classe A rappresentava grandi rete a scala
nazionale; la classe B reti a scala regionale ed infine la classe C le LAN.

Queste innovazioni, assieme ad uno sviluppo delle tecnologie e degli algoritmi di routing, portarono di fatto
ad avere nei tardi anni ‘80 una rete Internet molto simile a quella che conosciamo, aperta non solo a
sviluppatori e ricercatori ma anche ad altre comunità.

Gli anni ’90 videro diversi eventi che favorirono l’evoluzione e la commercializzazione di Internet in breve
tempo. ARPAnet, il progenitore di Internet, cessò di esistere. La Military Network (MILNET), componente di
ARPAnet dedicata al traffico “non classificato” del Dipartimento di Difesa degli USA, in seguito alla propria
espansione negli anni ’80, divenne parte integrante del Defense Data Network, un sistema a livello globale
di reti a differente livello di sicurezza. Infine NSFnet cominciò ad essere utilizzata come rete portante per il
collegamento di reti regionali negli USA e di reti nazionali estere.

Nel 1991, la National Science Foundation (NSF) tolse le sue restrizioni sull’uso di NSFnet per scopi
commerciali. NSFnet stessa fu soppressa nel 1995 , e il traffico sulla rete di Internet venne a essere gestito
da service provider commerciali. L’evento principale degli anni ’90, comunque, fu l’introduzione del World
Wide Web, che portò Internet nelle case e negli uffici di milioni e milioni di persone. Questo tema verrà
approfondito nelle prossime pagine.
7
2 – La storia dell’Ipertesto
Internet non è l’unico ingrediente che ha concorso alla genesi del World Wide Web. La diffusione dei
personal computer si è dimostrata essere una componente vitale in questo processo, in quanto nulla di
simile alla grande Rete avrebbe preso forma se Internet avesse connesso solo super elaboratori. Il concetto
di ipertesto è altrettanto fondamentale. In questo capitolo verranno approfonditi aspetti storici relativi a
questa tematica.

2.1 - Vannevar Bush e Memex


Oggi è difficile immaginare una vita priva dei personal computer. Il loro uso è
diffuso non solo nelle istituzioni accademiche ma anche negli uffici, nelle
scuole e in ambito domestico. Tuttavia cinquanta anni fa i computer erano visti
come mere macchine calcolatrici, strumenti complessi il cui utilizzo era
riservato solo a ingegneri, matematici e fisici: mai nessuno avrebbe pensato ad
(5) Vannevar Bush
un loro impiego lontano da un laboratorio scientifico. Beh, quasi nessuno.

All’inizio del 1945 Vannevar Bush (vedi figura 5), direttore dell'Office of Scientific Research and
Development, pubblicò sull’Atlantic Monthly un articolo intitolato “As We May Think” nel quale prospettava
un’apparecchiatura futuribile, il Memex (abbreviazione di Memory Extender) utile per la consultazione, la
modifica e il salvataggio di informazioni.

Questo apparecchio non venne mai costruito, ma gettò le basi concettuali per lo sviluppo
dell’ipertestualità: si trattava di un sistema in grado di interconnettere informazioni archiviate su microfilm.
Il Memex aveva in sé i caratteri propri dell’interattività come la intendiamo oggi: nonostante fosse un
sistema analogico precorreva i tempi introducendo la possibilità di aggiungere note e commenti a margine
del testo e quindi permetteva un semplice livello di partecipazione del potenziale utente.

Il grande contributo teorico di Bush è ravvisabile certamente nell’ideazione di questo rivoluzionario


sistema, ma soprattutto nella critica che la sua ricerca muoveva in maniera diretta alla cosiddetta
“indicizzazione” della conoscenza, cioè alla tendenza di catalogare per indici alfabetici e numerici le
informazioni, un sistema che si discostava completamente dalla modalità di approccio della mente umana
all’informazione:

“La mente umana non funziona in questo modo. Essa funziona per associazione. Con
una sola informazione in suo possesso, essa scatta immediatamente alla prossima
che viene suggerita per associazione di idee, conformemente a un’intricata rete di
percorsi sostenuta dalle cellule del cervello …”. [3]

L’approccio di ricerca basato su un paradigma neurale che venne suggerito dal ricercatore del MIT era
motivato anche dalla prospettiva di sostituire con un modello meccanico il lavoro della mente umana in
determinate situazioni di approccio all’informazione:

“la mente umana [..] ha un’altra caratteristica, ovviamente: i percorsi che non sono
seguiti frequentemente tendono ad affievolirsi, le informazioni non sono del tutto
permanenti, la memoria è transitoria.” [3]

8
2.2 - Engelbart e NLS
Vannevar Bush morì nel 1974, troppo in anticipo rispetto all’avvento del World Wide Web, ma non troppo
tardi per assistere alla materializzazione della sua visione, quella di un personal computer capace di
collegamenti associativi piuttosto che gerarchici.

L’uomo dietro a questa realizzazione si chiamava Doug Engelbart (vedi figura 6);
questi lesse “As may We Think” nell’autunno del 1945 mentre prestava servizio
nella marina americana come tecnico radar, e ne rimase profondamente colpito.
Nel 1950, terminati gli studi come ingegnere elettronico, iniziò a sviluppare un suo
progetto, non spinto dal desiderio di denaro ma dall’ambizione di realizzare
qualcosa di utile per l’intera umanità.

Engelbart aveva letto qualcosa sui computer (un fenomeno relativamente recente
(6) Doug Engelbart all’epoca) e dalla sua esperienza all’esercito aveva appreso che le informazioni
potevano essere analizzate e visualizzate su un monitor a tubi catodici; con l’intento
di espandere le proprie conoscenze nell’ambito degli elaboratori elettronici, scelse di lasciare il lavoro e di
dedicarsi all’attività di dottorato presso l’Università di Berkeley.

Dopo aver ottenuto il PhD, ottenne un incarico di insegnamento; tuttavia la sua permanenza all’università
non fu lunga, e nel 1957 si trasferì allo Stanford Research Institute (SRI) , che era allora diventato il secondo
nodo di ARPANET: il suo sogno avrebbe preso forma di lì a tre anni quando, dopo essersi guadagnato una
reputazione di tutto rispetto, ricevette dei fondi prima dalla Air Force Office of Scientific Research (AFOSR)
e, successivamente, dalla stessa SRI. Tali fondi furono impiegati nella realizzazione di un progetto sul quale
Engelbart pubblicò un rapporto nel 1962, intitolato “Augmenting Human Intellect: A Conceptual
framework”.

Nel suo rapporto il ricercatore si chiedeva a quali abilità le persone si affidavano, oltre a quelle con cui
erano nati, per incrementare la propria capacità nel raggiungere obiettivi. I processi co-evolutivi tra gli
uomini e gli strumenti da loro realizzati avvengono molto lentamente e, in un contesto di progresso nel
quale le nuove tecnologie si sviluppano più velocemente delle abilità umane nell’utilizzarle, è necessario
trovare un modo per accelerare lo sviluppo intellettivo in maniera tale che l’umanità possa mantenersi al
passo con la tecnologia che essa stessa produce. Engelbart vedeva i computer come la chiave di questa
accelerazione e le sue idee ponevano gli elaboratori come strumenti atti ad esaltare l’abilità delle persone
nel loro lavoro, nonché a migliorare le attività di squadra e la suddivisione delle risorse nell’ambito delle
stesse.

La presentazione di questo rapporto gli permise di ottenere un finanziamento dall’ARPA, grazie al quale
ebbe modo di reclutare un’intera squadra di ricerca nel suo nuovo Augmentation Research Center (ARC) e
con la quale portò avanti progettazione e sviluppo dell’On-Line System – detto anche NLS.

NLS permetteva la manipolazione di documenti strutturati visualizzati su un monitor: gli utenti del sistema
potevano condividere documenti e modificarli in maniera collaborativa; era addirittura possibile
configurare una forma di teleconferenza tale che due operatori in postazioni differenti potessero vedere
l’uno il documento dell’altro. Inoltre, all’interno dei testi stessi, erano presenti dei collegamenti che
permettevano di saltare da un’informazione ad un’altra: si trattava di una prima implementazione
funzionante di ipertesto. Venne introdotto il concetto di finestre affiancate, ovvero finestre contenenti il
testo affiancate una all’altra (e non sovrapposte come ad esempio oggi in Windows o MacOs) e delle quali
era possibile modificare il contenuto selezionandole tramite un cursore sullo schermo.
9
La velocità e la comodità nell’interazione tra l’uomo e la macchina erano tematiche a cuore dei componenti
della squadra di NLS: proprio al fine di migliorarle questi progettarono delle periferiche che, seppur non
così intuitive da utilizzare, erano molto più pratiche di quelle esistenti all’epoca. La prima aveva l’aspetto di
una piccola tastiera e consisteva di cinque tasti che si potevano tenere comodamente sotto la mano
sinistra; combinando la pressione dei tasti era possibile ottenere tutte le lettere dell’alfabeto. Il secondo
era uno strumento per il puntamento a video che poteva essere manipolato tramite la mano destra:
qualcuno lo chiamò mouse.

Il 9 dicembre 1968, a San Francisco in occasione della Fall Joint Computer Conference, Engelbart presentò il
sistema realizzato tramite una dimostrazione oggi denominata “The Mother of all Demos” - La Madre di
tutte le Demo; la sessione, presentata con il titolo “A research center for augmenting human intellect”
ottenne consensi nell’ambito della conferenza, tuttavia non si tradusse in finanziamenti e aiuto per
sviluppare ulteriormente il sistema.

2.3 - Theodor Holm Nelson e Xanadu


La necessità di trovare criteri e metodi alternativi all’archiviazione tradizionale dei dati proseguiva. I
presupposti teorici gettati negli anni ‘40 si accompagnavano alla ricerca di soluzioni pratiche per far fronte
alle esigenze delle grandi multinazionali. Il presupposto per “l’information retrieval” era quello di creare gli
strumenti idonei per catalogare secondo schemi elastici una grande mole di informazioni, offrendo una
discreta flessibilità nel reperimento dei dati.

Nel 1965 fece la sua comparsa il “successore” del progetto di Vannevar Bush: dalle ceneri del teorizzato
Memex prendeva vita Xanadu, un software per l’archiviazione, la gestione e la distribuzione delle
informazioni, in grado di articolare il contenuto dei dati in moduli interconnessi. A differenza del Memex
esso estendeva gli obiettivi connaturati all’idea di Vannevar Bush, volendo proporsi anche come sistema di
editoria istantanea e collettiva. Ciò significava non accontentarsi più di una ricerca veloce e intelligente del
singolo dato, ma spingersi fino alla possibilità di articolare una rete di utenti in grado di interagire con le
informazioni e produrne di nuove. Anche se il primo prototipo di tale software vide la luce solo nel 1987, le
teorie che gravitavano interno alla sua ideazione influenzarono radicalmente il panorama degli anni
successivi.

Ideatore di questo nuovo ambizioso progetto era Theodor Holm Nelson (vedi
figura 7), eclettico portavoce di un liberalismo tecnologico che dalla metà degli
anni sessanta stava diffondendosi all’interno della ricerca scientifica. E proprio
Nelson solitamente si attribuisce la paternità del termine “Ipertesto”. Infatti, anche
se sono moltissimi i contributi che intellettuali, storici e accademici hanno dato a
tale concetto, sia ricercando e approfondendo le sue radici etimologiche, sia
muovendo dalle modalità di utilizzo e fruizione dello stesso, la definizione più (7) Ted Nelson

famosa e popolare è proprio quella che Nelson coniava nel 1965 durante la conferenza annuale
dell’Association for Computing Machinery:

“Con ipertesto intendo scrittura non sequenziale, testo che si dirama e consente al
lettore di scegliere e si fruisce al meglio davanti a uno schermo interattivo [..] un
ipertesto è una serie di brani di testo tra cui sono definiti legami che consentono al
lettore differenti cammini.” [3]

10
Alla domanda “Cos’è un computer?” Nelson avrebbe risposto “Non è un apparecchio meccanico, non è un
apparecchio numerico e per calcoli matematici, non è un apparecchio per ingegneri: è una macchina utile a
qualsiasi scopo!”

Nelson desiderava uno strumento che non solo catalogasse i suoi scritti, ma che tenesse traccia dei
cambiamenti effettuati, e gli permettesse di comparare le differenti versioni di un documento, magari
visualizzandole in parallelo, come poteva fare con il supporto cartaceo. E come se non bastasse, dato che la
memoria dei computer non doveva essere lineare, anche i documenti avrebbero dovuto avere una
struttura analoga: si trattava di un progetto ambizioso, e non c’è da stupirsi che non sia stato portato a
termine.

In 30 anni Xanadu non è mai stato completato, ma non ha fallito il suo scopo. Dal punto di vista di Nelson,
esso rappresenta la risposta ai problemi del World Wide Web: con Xanadu - ad esempio - non
esisterebbero i dead link (ovvero i misteriosi 404 – Pagina non trovata) perché nulla viene cancellato; in
Xanadu ognuno viene accreditato per il proprio lavoro perché quando si include un testo nel documento, il
sistema tiene traccia di chi ne è l’autore. Copyright, royalties e micro pagamenti fanno ancora parte del
futuro del web, ma Nelson sostiene che erano problemi teoricamente già risolti da Xanadu.

2.4 - Andy van Dam e FRESS


Nel 1967 Nelson alla Brown University di Providence - Rhode Island - si unì
all’informatico Andy van Dam (vedi figura 8) e a un gruppo di studenti di quest’ultimo
per implementare un secondo sistema ipertestuale che venne denominato HES -
HYPERTEXT EDITING SYSTEM. All’insaputa di Nelson e van Dam la IBM, che possedeva
HES, lo vendette alla NASA per la missione Apollo. Nelson smise di collaborare con la
Brown University nel 1968, ma per van Dam e i suoi studenti HES fu solo l’inizio:
iniziarono infatti a lavorare su un nuovo sistema denominato FRESS - File Retrieval
(8) Andy Van Dam
and Editing System.

FRESS era un passo avanti rispetto al suo predecessore: il sistema funzionava su un mainframe IBM e
permetteva link tra i soli documenti in quel sistema (il primo nodo ARPANET sarebbe arrivato solo l’anno
dopo); inoltre non era prevista alcuna funzionalità multimediale. Il mouse di
Engelbart non aveva catturato le attenzioni della IBM, di conseguenza per il
puntamento degli hyperlink si utilizzava una penna luminosa (vedi figura 9):
piuttosto che “punta e clicca” si sarebbe potuto dire “punta e calcia” in quanto,
per visualizzare un contenuto linkato, bisognava puntare il collegamento con la
penna e schiacciare un pedale. I link all’interno di un documento potevano (9) FRESS
puntare a note a piè e di pagina, definizioni, annotazioni o anche singoli caratteri; tutti i link raggiunti
tramite la penna aprivano nuove finestre, sia che il link puntasse allo stesso documento che ad altri nel
sistema.

Come alcuni precursori del web, FRESS era sotto certi aspetti più sofisticato: i link ad esempio erano
bidirezionali, nonchè potevano essere inoltre etichettati con parole chiave e utilizzati per definire cammini
personalizzati tra le varie pagine.

Se FRESS fosse stato utilizzato come strumento didattico, ad esempio, una classe di studenti avrebbe
potuto annotare i documenti aggiungendo collegamenti e appunti - oppure vedere quelli del professore. La
sperimentazione di FRESS avvenne effettivamente in ambito accademico, in due corsi universitari.
L’esperimento riscosse molto successo, tuttavia gli studenti, pur avendo scritto copiosamente, non avevano
11
utilizzato molto le funzionalità di linking degli ipertesti. Le ragioni sono molteplici, di cui una molto
semplice: seppur fossero disponibili molti terminali, solo su uno era presente l’interfaccia grafica che
permetteva di manipolare i collegamenti con semplicità. Inoltre, per persone abituate a media lineari, era
facile perdersi nella fitta rete di informazioni : sarebbe stata necessaria una guida alla navigazione.

2.5 - Viewdata, Prestel e Minitel


I cambiamenti apportati dal web, inclusi gli annessi problemi, erano già stati previsti più di venti anni fa
sull’onda della rivoluzione dell’informazione. La tecnologia che aveva reso questo passo possibile si
chiamava ViewData e Sam Fedida, il suo inventore, scriveva nel 1979:

“ Crediamo che Viewdata sia un nuovo grande media, comparabile a stampa, radio e
televisione e che - come questi ultimi - potrà avere effetti significativi sulla società e
sule nostre vite. Potrà portare a notevoli cambiamenti nelle abitudini sociali e negli
stili di vita, nonché avere alcuni effetti a lungo termine, ad esempio economici.
Viedata è il primo dei sistemi che rende fruibile l’offerta del mercato di massa
attraverso servizi che sono un misto di computing e telecomunicazioni. “ [1]

Per un certo periodo questo proclama non venne disatteso: fu organizzata una serie di conferenze
riguardanti Viewdata, e l’interesse per questa tecnologia si espresse in sperimentazioni in paesi Europei,
Nord Americani e addirittura dell’estremo oriente. Tuttavia tutti gli studi a riguardo, con la notevole
eccezione del Minitel francese, fallirono. Il problema sembrò proprio essere il rifiuto del mercato.

Il primo lavoro di Fedida fu l’analisi della tecnologia Viewphone, il cui obiettivo era quello di estendere le
capacità degli apparecchi telefonici e trasmettere un’immagine televisiva assieme alla voce in modo che le
persone ai due capi del telefono potessero vedersi. Viewphone sfruttava molta banda per trasmettere i dati
e Fedida comprese che trasmettere dati era molto più facile utilizzando le normale linea telefonica,
ammesso che ci fosse “qualcosa” atto al salvataggio dei dati in ricezione. La periferica per il salvataggio che
Fedida aveva in mente era sostanzialmente un televisore modificato: era stato concepito Viewdata, che fu
ufficialmente rilasciato dal Post Office Britannico nel 1973, ma che è conosciuto anche sotto il nome
generico Videotex.

Circa allo stesso tempo, la British Broadcasting Corporation (BBC) e la Indipendent Broadcast Authority (IBA)
stavano lavorando, contemporaneamente, a due progetti analoghi tra loro e al precedente: la loro idea era
quella di trasmettere testo sullo schermo della tv, sfruttando la banda che avanzava dalla trasmissione di
video e audio. Entrambi effettuarono dei test nel 1973 rilasciando rispettivamente Ceefax (il cui nome era
una semplici versione fonetica di “see facts”) e ORACLE (Optical Reception of Announcements by Coded
Line Electronics); per uniformità e comodità, vennero entrambi rinominati Teletext.

Viewdata aveva aperto le porte ad una possibile rivoluzione dell’informazione: dato che molti inglesi
possedevano sia televisione che telefono, Fedida e altri prefiguravano la possibilità per le persone di
accedere alle informazioni comodamente da casa. Lo scopo di questi sistemi era la creazione di un mondo
dove gli Information Providers (IP) avrebbero mantenuto i dati in elaboratori centralizzati e gli utenti li
avrebbero scaricati tramite piccoli decoder che ne permettevano la visione sullo schermo di una TV.
Viewdata, oltre alle informazioni, avrebbe reso possibile l’accesso a posta elettronica, banche, giochi e
bacheche virtuali; sarebbero stati inoltre predisposti servizi per i disabili, come ad esempio lettura del video
per i ciechi.

12
Il Post Office inglese pensava si trattasse di un ottimo affare, e per questo impiegò tempo e risorse nel
convincere i produttori di TV e i potenziali IP a sostenere il progetto: una prova di mercato, alla quale
presero parte 1000 utenti (per il 70% si trattava di utenza domestica) ebbe un particolare successo, per via
dei costi non elevati.

Fu così che l’ufficio postale decise di lanciare Prestel (il cui logo è visibile in figura 10), la
versione commerciale di Viewdata, che però risultò un flop: alla fine del marzo 1982
c’erano solo 14.400 utenti di cui la maggioranza (85%) erano legati al mondo delle
aziende. Seppur l’utilizzo giornaliero fosse quello atteso (circa sei minuti al giorno per
cliente), non c’erano abbastanza utenti: la stima effettuata ne prevedeva 700.000 con
(10) Prestel percentuali tra home e business invertite. In questo contesto, i 900 information provider,
che ospitavano oltre 200 mila pagine di informazioni, iniziavano ad essere troppi e alcuni iniziarono a
chiudere.

Una delle ragioni per cui Prestel non prese campo erano i costi: nello stesso periodo (e soprattutto allo
stesso prezzo) stavano iniziando a presentarsi al mercato i videoregistratori, senza contare che i personal
computer rappresentavano un’interessante alternativa per i consumatori ! Il decoder Prestel rappresentava
dunque un gadget di elite, senza contare che il servizio era a pagamento ed esistevano ancora Ceefax e
Oracle, che erano gratis.

Dall’altra parte del canale, in Francia, Gérard Théry (presso la Direction Générale des Télécomunications -
DGT), con lo scopo di rendere la rete telefonica digitale, voleva creare la versione francese di Prestel,
preliminarmente nominata Télétel. Il progetto ricevette approvazione ufficiale nel 1978 e la sua prima
sperimentazione, conosciuta come T3V (per Télétel e le iniziali delle tre città in cui ebbe luogo: Veldzy,
Varasvaia e Val de Bièvre) cominciò nel 1981: venivano offerti servizi dalle ferrovie francese nonché da
venditori e banche. La prova ebbe luogo da luglio a dicembre e, come nel caso del Post Office, ottenne un
grande successo.

C’erano però delle sostanziali differenze tra l’approccio Francese e quello britannico:
mentre questi ultimi aspettavano che l’utenza pagasse per i decoder Prestel o per le
televisioni abilitate, i francesi resero disponibili i loro gratis, e non si trattava di televisioni
modificate, ma terminali dedicati conosciuti come Minitel (che diedero al Videtex francese
il suo nome – vedi figura 11). (11) Minitel

Cosa veramente assicurò il successo di Minitel fu il continuare a distribuire gratuitamente i terminali anche
dopo le sperimentazioni. Le poste francesi non volevano far pagare Minitel sin dall’inizio: l’idea era quella di
sviluppare la domanda di servizi Minitel, che avrebbero reso possibile il recupero degli investimenti; la
produzione di massa avrebbe permesso la riduzione dei costi dei terminali (500 franchi, molto meno dei più
dispendiosi convertitori Prestel).

Nei primi anni ‘80, centinaia di migliaia di utenti scelsero Minitel; e nel 1989, quando Berners-Lee stava
iniziando a pensare a come tenere traccia di informazioni al CERN, c’erano cinque milioni di apparecchi
Minitel in uso, rendendo di fatto la Francia il paese più collegato nel mondo. Oltre all’intervento dello
stato, un elemento chiave fu la libertà di contenuti resi disponibili (ad esempio contenuti erotici, che gli
inglesi avevano invece reso vietati, e che nel 1994 rappresentavano una parte sostanziale di Minitel e
generavano un indotto di circa 500 bilioni di franchi). Minitel, di fatto, rappresentò un impedimento iniziale
all’introduzione di Internet in Francia, in quanto permetteva un accesso alla rete senza disporre di un

13
personal computer; successivamente costituì anche un incentivo, perché i francesi erano già abituati ad
effettuare transazioni online e ad utilizzare uno strumento di questo tipo.

2.6 - Intermedia, Hypercard e altri sistemi ipertestuali


L’interesse di Andy van Dam per gli ipertesti non si esaurì nella realizzazione di FRESS. Le sue ricerche si
protrassero per circa un decennio, rendendo lui – e di conseguenza la Brown University – una figura di
spicco mondiale nell’ambito dello sviluppo di sistemi ipertestuali.

Nel 1983 van Dam fondò IRIS (Institute for Research in Information and Scolarship) assieme a William S.
Shipp e Norman Meyrowitz. Nel 1985, IRIS contava su uno staff di 30 persone e il suo primo progetto
consistette nella realizzazione di un sistema ipertestuale per computer Macintosh. Il risultato, rilasciato nel
1987, fu Intermedia, un sistema ipertestuale particolarmente sofisticato.

Intermedia, sviluppato da un team di una ventina di giovani programmatori, era un sistema che raccoglieva
alcune delle peculiarità di FRESS, aggiungendo diverse funzionalità. Un aspetto interessante è che il
programma per la visualizzazione dei contenuti era anche lo strumento di editing, e poggiava sul semplice
concetto di taglia e incolla, rendendo di conseguenza il linking un’operazione semplice. Tramite Intermedia
era possibile selezionare un oggetto e collegarlo a qualunque altro, senza preoccuparsi del tipo di software
utilizzato per crearlo.

Intermedia gestiva il collegamento delle risorse tramite un database separato di link; la presenza di un
database, tra le altre cose, permetteva di spostare fisicamente i file senza perderne i collegamenti, che
venivano automaticamente aggiornati. Il vantaggio di avere una base dati di collegamenti separata dal
sistema dava non solo la possibilità di utilizzare tutta la potenza del DBMS per gestirla, ma anche la
possibilità di costruire reti multiple con gli stessi contenuti senza modificare gli stessi, caratteristica non
implementabile nel World Wide Web in quanto i link sono parte integrante delle pagine.

L’idea di mantenere l’archivio di link in un database divenne una pietra d’angolo del dogma ipertestuale,
ma d’altro canto fece sì che l’implementazione di sistemi ipertestuali rimanesse confinata a piccoli sistemi: i
realizzatori di Intermedia, come quelli di altri software che analizzeremo in questo paragrafo, non avevano
considerato il problema della scalabilità. Intermedia, infatti, lavorava bene in piccole reti di personal
computer con lo stesso sistema operativo, ma non poteva funzionare in reti estese in quanto il database
sarebbe presto cresciuto a dismisura; è anche da sottolineare che questo aspetto non rappresentava un
problema per il team di Intermedia: la popolazione di utenti era rappresentata da studenti universitari.

Electronic Book Technologies, un’azienda privata spin off della Brown University, produsse un ipertesto
commerciale di successo chiamato Dynatext, che però non fu il primo a giungere sul mercato. Dal 1987
infatti ogni utente di Macintosh disponeva di un sistema ipertestuale, rudimentale ma gratis: Hypercard fu
concepito da Bill Atkinson (autore tra l’altro del programma di disegno per Mac – Macpaint) e fu
probabilmente il primo sistema a rendere possibile la manipolazione di Ipertesti al mercato di massa.

Hypercard (vedi figura 12) si presentava come una pila di documenti indicizzati; la
comodità di questo strumento derivava dalla possibilità di accumulare una grande
quantità di informazioni nella pila e di ricercarle in maniera veloce. Non solo, con
Hypercard era possibile creare collegamenti tra le “Cards”. Atkinson aveva grandi
speranze per Hypercard e sosteneva che si trattasse del primo sistema tramite il quale
(12) Hypercard
ogni individuo avrebbe potuto costruire il proprio ambiente informativo senza aver alcuna
conoscenza di linguaggi di programmazione.
14
Hypercard è stato il primo sistema ipertestuale a larga diffusione, tuttavia non è stato il primo prodotto
commerciale: questo onore appartiene a Guide, un programma di editing di ipertesti sviluppato dalla
compagnia Office Workstations limited (OWL) di Edimburgo. Guide funzionava su Mac e PC, e rappresentò
l’introduzione dell’ipertesto nel mondo dei personal computers.

Fu attraverso Guide che Wendy Hall (vedi figura 13) incontrò il suo primo ipertesto. La
Hall stava cercando di immaginare come organizzare gli archivi storici dell’università di
Southampton, e aveva preso come una sfida questo incarico, ottenuto proprio
dall’archivista del dipartimento. Sin dall’inizio, dato che aveva a che fare con una gran
mole e varietà di materiale, la Hall desiderava che i link fossero capaci di collegare diverse
applicazioni, ad esempio un foglio di calcolo con un documento di testo. Arrivò dunque a
concepire i link come entità separate ed applicabili ad oggetti esterni, con il fine di (13) Wendy Hall
collegare lettere, figure e diari dell’archivio.

Per risolvere il proprio problema realizzò Microcosm che, in un certo senso era più potente e versatile di
quello che è diventato il WWW: oltre a permettere la navigazione di un collegamento ben definito tra un
documento A ed un documento B, i link di Microcosm permettevano di scegliere un’intera gamma di
pagine riguardanti l’argomento al quale si era interessati. Come Intermedia in precedenza, Microcosm
salvava i link in un database esterno; la novità rispetto a Intermedia fu l’introduzione di link dinamici: il
sistema sapeva come recuperare i documenti al volo. Tuttavia, la forza di Microcosm rappresentò anche la
sua debolezza: il sistema infatti non era scalabile.

Nello stesso periodo in cui la Hall seguiva lo sviluppo di Microcosm, Hermann Maurer sviluppò con il suo
team a Graz Hyper-G, una via di mezzo tra Microcosm e il Web. Hyper-G non gestiva i link in maniera
completa come Microcosm, tuttavia ottenne risultati migliori. Sviluppato per sopperire alle debolezze dei
sistemi di videotex realizzati a Graz, e introduceva molte funzionalità che sarebbero state poi adottate dal
World Wide Web. Hyper-G aveva capacità di ricerca sofisticate: i documenti erano arricchiti tramite meta
informazioni, e la gestione dei collegamenti scomparsi era gestita tramite procedure di sincronizzazione tra
i siti. Nel 1995 Hyper-G era capace di gestire suoni, immagini video e anche immagini 3D, e tutti questi
oggetti potevano contenere link! Tuttavia in quel periodo il WWW era già stato lanciato, e il team di Graz –
pragmaticamente – volse i propri sforzi e le proprie attività di sviluppo verso HyperWave, un porting di
Hyper-G basato sul Web.

Nel novembre del 1987 i diversi sforzi nel mondo della ricerca sull’ipertesto si espressero nella prima
conferenza mondiale sugli ipertesti a Chapel Hill, in North Carolina. Van Dam tenne un discorso nel quale
evidenziò l’importanza e l’ispirazione tratta dai pioneri Bush, Engerlbart e Nelson e terminò il suo
intervento con una lista di nove punti chiave che voleva fossero di ispirazione per i partecipanti alla
conferenza. Uno di essi fu profetico:

“Ted (Nelson) parlava molto di Docu-verse (universo di documenti), una mitica entità
che dovrebbe contenere ogni cosa. Invece, proprio adesso, stiamo costruendo Docu-
island (isole di documenti).” [1]

Van Dam parlò anche dei problemi di scalabilità:

“Siamo ancora nella fase dei prototipi giocattolo. Non è stato ancora costruito un
ipertesto di dimensioni decenti”. [1]

15
Nel giro di 3 anni il World Wide Web di Berners-Lee avrebbe dato una risposta ad entrambi i problemi.

2.7 - Prima del World Wide Web: Archie, WAIS e Gopher


Il WWW non è stato il primo sistema a rendere semplice l’accesso delle informazioni disponibili su Internet:
quando quest’ultimo cominciò a diventare un sistema macroscopico e diffuso, diventò chiaro a molti che
era necessaria una qualche sorta di mappa di contenuti per la ricerca delle informazioni. Non risulta quindi
sorprendente che nel 1989, quando Tim Berners-Lee sottomise la sua prima proposta di Web, alcuni altri
sistemi stavano germinando nelle menti dei loro inventori. Archie e WAIS furono entrambi concepiti
quell’anno, e Gopher li seguì nel 1991.

Il primo ad arrivare fu Archie, un software scritto da Alan Emtage (vedi figura 14) quando era uno studente
alla McGill University di Montreal, in Canada. Si trattava di un sistema client-server: il server era installato
su un elaboratore che forniva il servizio e i documenti in risposta alle richieste del client.

Emtage, nato nelle Barbados, si spostò a Montreal nel 1983 per studiare informatica.
Due anni dopo, durante il suo terzo anno di università, iniziò ad essere coinvolto
nell’amministrazione dei sistemi del dipartimento di informatica. Il primo nodo
Internet fu installato in Canada nello stesso periodo ed egli fece parte del gruppo di
persone che si occuparono della sua gestione. Una della responsabilità di Emtage era
(14) Alan Emtage
la ricerca del software per gli studenti e per la facoltà; di conseguenza navigava su
Internet alla ricerca di software libero (per assurdo, la facoltà spendeva cifre elevatissime per l’hardware
ma non voleva spenderne per il software).

Le sue ricerche avvenivano attraverso il protocollo FTP e, dopo un anno di attività “manuale”, Emtage si
decise a scrivere un software per automatizzare il suo lavoro; creò così una serie di script per la shell che
visitavano i server FTP scoperti e scaricavano la lista dei nomi dei software in essi contenuti. Tuttavia, dato
che i nomi dei file sui server non sempre erano rievocativi del software in essi contenuto, non risultava
comodo utilizzarlo !

Il programma di Emtage sarebbe rimasto limitato al suo utilizzo personale, se non fosse stato per Peter
Deutsch, che era manager del gruppo sistemi della facoltà, e che decise di aiutarlo nello sviluppo; ai due si
unì un altro informatico, Bill Heelan. Insieme riscrissero il software di Emtage rendendolo utilizzabile da
qualunque tipo di utente. Durante lo sviluppo, divenne chiaro che il programma necessitava di un nome:
perché non chiamarlo archive senza la v ? Di qui Archie (anche il nome di un famoso personaggio dei
fumetti). In tre settimane erano pronti ad installare il primo server. Si trattò di un successo immediato,
basti pensare che solo durante il primo giorno ebbe ben 100 utenti (che rappresentarono solo la punta
dell’icerberg, dato che nei tempi a seguire Archie sarebbe stato uno dei servizi più utilizzati in Canada).

La prima versione di Archie forniva una lista di documenti o programmi disponibili gratuitamente su
Internet. Era possibile indicare al servizio una parola chiave utile per trovare il software, che sarebbe stato
poi scaricato via FTP. Tuttavia lo strumento era stato progettato per amministratori di sistema e non
risultava essere user friendly: ecco perché Clifford Neuman, studente dottorando dell’università di
Washington, progettò un’interfaccia grafica chiamata Prospero, il cui scopo era proprio quello di renderlo di
utilizzo semplice ed immediato.

16
Mentre Archie cresceva come sistema di amministrazione, Wide Area Information
Servers (WAIS) era un’impresa all’inizio della sua avventura commerciale. Brewster
Kahle (vedi figura 15), che lavorava per la compagnia di supercomputer Thinking
Machines, era a capo del progetto e, tra le altre cose, era un grande fan di Minitel, di
cui ammirava il modello di business: il suo piano era infatti emulare quell’esperienza su
(15) Brewster Kahle
Internet.

WAIS assomigliava vagamente ad un moderno motore di ricerca: non era necessario conoscere particolari
sintassi e comandi per utilizzarlo, bastava sottomettere la propria ricerca in lingua inglese. Tutti gli archivi
erano descritti da parole chiave, quindi era possibile cercare non solo testi, ma anche immagini e suoni !

Dopo aver sperimentato con successo il prodotto, nell’aprile del 1991 fu rilasciata gratuitamente la prima
versione del client WAIS. Come con Archie, la novità si diffuse velocemente e, nell’estate successiva, il
prodotto fu pronto per il lancio commerciale: il successo fu elevatissimo, e portò la triplicazione della
diffusione di WAIS ogni anno. Nel 1995 WAIS fu acquistata da AOL per 15 milioni di dollari.

WAIS era sicuramente più semplice da utilizzare di Archie, ma entrambi richiedevano più che una
conoscenza superficiale dei computer. Nel 1991 venne lanciata un’applicazione capace di aprire Internet a
tutti: fu sviluppata alla University of Minnesota in risposta ad un bando del Campus Wide Information
System (CWIS) e fu chiamata Gopher. In molti volevano partecipare a questo progetto, e per questo fu
formato un gruppo con il fine di realizzare il progetto del sistema. Per Mark McCahill, che lavorava nella
sezione di microcomputing dell’università del Minnesota e che fu uno dei protagonisti nello sviluppo di
questo software, questo aspetto risultò problematico: 25 persone non possono realizzare il progetto di un
software o, in ogni caso, non possono farlo bene.

Il comitato rilasciò un progetto che piaceva alla maggior parte dei membri ma che
risultava essere veramente caotico e disordinato, tanto che il miglior programmatore
alle dipendenze di McCahill, Farhad Anklesiara, affermò che si trattava di un sistema
irrealizzabile. Seppur le specifiche non avessero senso, Anklesiara sapeva che al
successivo incontro del gruppo avrebbe dovuto presentare qualcosa; partì pensando a
qualcosa di semplice da implementare, tuttavia la sue idee erano troppo in disaccordo
con le specifiche e non gli fu permesso di presentarle. Fu altresì costretto a lavorare
(16) Il Golden Gopher
sulle linee guida imposte dalle specifiche fino a quando, nel febbraio del 1991, non si
accorse di aver accumulato un ritardo spaventoso; tornò così alla sua idea iniziale e scrisse assieme a
McCahill un client sulle basi di un altro progetto già realizzato con quest’ultimo (popmail, client di posta per
Mac) e fece in modo che fosse compatibile con Mac, Unix e Pc. Anklesiara decise di chiamare il programma
Gopher, questo perchè l’università del Minnesota aveva come mascotte il Golden Gopher (il citello dorato,
vedi figura 16) e la parola Gopher suonava come “go for”.

Lo schema di Gopher era semplice: un menu di voci selezionabili che, al click, portava su un altro menu o in
alternativa direttamente ad un contenuto. Ogni oggetto era accompagnato da informazioni sufficienti per
identificare il server sul quale era ospitato e questo aspetto rappresentava una funzionalità chiave: le
informazioni non dovevano risiedere necessariamente sul computer utilizzato, ma potevano essere
ovunque. Mancava ancora qualcosa: il comitato voleva che fosse possibile una ricerca per parola chiave,
ma dato che Gopher non aveva alcuna funzionalità di questo tipo venne interfacciato ad un motore di
ricerca full-text.

17
L’incontro con il comitato non fu affatto soddisfacente in quanto per molti dei presenti il software si
discostava dalle specifiche; addirittura alcuni desideravano che non venisse reso pubblico! Gopher,
fortunatamente, fu rilasciato – seppur in silenzio – il giugno del 1991, ottenendo un gran successo in
termini di download per via della facilità di installazione e anche per la varietà dei contenuti che via via
venivano pubblicati. Nel 1992 Anklesiara e McCahill presentarono Gopher ufficialmente ad un meeting
IETF; l’anno successivo fu pubblicato un documento RFC 1436 intitolato “The Internet Gopher Protocol” .

Nel 1993 la crescita degli utilizzatori di Gopher fu esponenziale: se ad aprile erano stati già installati oltre
460 server, a dicembre erano 4800. Uno dei fattori che rese Gopher così utilizzato fu il motore di ricerca
sviluppato dall’università del Nevada nel 1992 e denominato Veronica (anche questo con il nome di un
personaggio di fumetti della serie “Archie”). Nello stesso anno Gopher passò da un modello di distribuzione
completamente gratuito ad un sistema di licenze, e questo segnò l’inizio della sua decadenza.

18
3 – Nascita del World Wide Web
3.1 – Entrate pure per avere informazioni su qualsiasi argomento !
Nel 1980, il CERN stava sostituendo il sistema di controllo di due acceleratori di particelle. I lavori erano in
ritardo, e quindi c’era bisogno di qualcuno che desse una mano. Tim Berners Lee (vedi figura 17),
informatico britannico che si trovava in Svizzera per una consulenza, approfittò della possibilità offertaglisi
per inoltrare domanda di assunzione: venne ingaggiato con un contratto a tempo determinato di sei mesi.

Il più grosso problema per un programmatore a contratto era cercare di capire i sistemi, sia umani che
informatici, che caratterizzavano la realtà del CERN: buona parte delle informazioni cruciali, infatti,
risiedevano nella testa delle persone. Berners Lee imparò quasi tutto ciò di cui aveva bisogno durante le
conversazioni al bar con i colleghi, incontrando però la difficoltà di ricordare chi aveva progettato cosa,
difficoltà acuita dall’estrema complessità della struttura del CERN.

Fu per questo motivo che, approfittando dei tempi morti dello sviluppo del Proton Synchrotron Booster,
Berners Lee iniziò a sviluppare un software che battezzò Enquire. Il nome “Enquire” derivava da “Enquire
Within Upon Everything”, che possiamo tradurre come “Entrate pure per avere informazioni su qualsiasi
argomento”, il titolo di un libro, scritto in epoca vittoriana, che Tim aveva sfogliato in tenera età e che
conteneva consigli pratici di tutti i tipi, da come smacchiare i vestiti a come investire i propri risparmi.

Lo scopo del programmatore britannico era quello di


realizzare uno strumento personale atto alla
memorizzazione dei dati raccolti informalmente, in modo
da sapere chi aveva sviluppato tale software, quale
programma girava sulla tale macchina, chi faceva parte di
un determinato progetto. Su Enquire era possibile scrivere
una pagina a proposito di una persona, di una macchina o di
un programma. Ogni pagina era un nodo nel programma,
una specie di scheda, e l'unico modo per crearne una nuova
(17) Tim Berners Lee
era attuare un collegamento da un nodo già esistente. I
collegamenti da e per un nodo apparivano come un elenco numerato in fondo ad ogni pagina, un po’ come
la lista delle citazioni alla fine di una pubblicazione accademica. L’unico modo per individuare
un’informazione particolare era sfogliare tutti i contenuti partendo dalla pagina iniziale.

Enquire immagazzinava i dati senza usare strutture come matrici o alberi gerarchici: la mente umana
utilizza di continuo queste strutture organizzative, ma può anche evitarle per spiccare balzi intuitivi, le
cosiddette associazioni casuali. Enquire disponeva di due tipologie di “link”: interno - da una pagina ad una
altra nell’ambito di uno stesso file – ed esterno, che permetteva di saltare tra i diversi file. Un collegamento
interno aveva la caratteristica di essere bidirezionale, in quanto compariva su entrambi i nodi, mentre
quello esterno era unidirezionale: questo ultimo dettaglio risultava essere decisamente importante in
quanto, qualora molte persone che creavano un link con una pagina avessero potuto imporre un link
inverso, quella pagina avrebbe contenuto migliaia di link che il possessore della pagina forse non si sarebbe
preoccupato di conservare. Inoltre, se un link esterno fosse andato nei due versi, allora il cambiamento di
entrambi i file avrebbe comportato il salvataggio della medesima informazione in due posti differenti,
aspetto che nell’ambito informatico non risulta mai essere positivo.

19
Conclusa la consulenza al CERN, Tim Berners Lee non portò con sé il sorgente dell’applicazione realizzata:
scritta in Pascal, funzionava purtroppo solo sul sistema operativo proprietario Norsk Data SYNTRAN-III,
decisamente astruso. Il floppy disk contenente Enquire fu affidato ad un gestore del sistema, al quale venne
spiegato che si trattava di un programma che teneva conto delle informazioni. Il floppy passò ad uno
studente, interessato al modo in cui era stato scritto il programma, ma poi venne perduto.

3.2 – Il ritorno di Tim Berners Lee al CERN


Non appena lasciato il CERN Berners Lee tornò in Inghilterra, dove iniziò a lavorare in proprio ad un sistema
per la gestione di una stampante assieme ad un vecchio amico e collega, John Poole. Gli affari stavano
andando a gonfie vele, tuttavia le limitazioni della tecnologia utilizzata, nonché la possibilità di ottenere una
borsa di studio al CERN, spinsero lo sviluppatore a tornare in Svizzera. Ciò accadde nel 1984 e Poole, come
regalo di commiato, donò a Berners Lee un personal computer Compaq, propagandato all’epoca come uno
dei primi portatili, sebbene di portatile avesse ben poco!

Entusiasta del nuovo elaboratore a sua disposizione, Berners Lee scrisse un nuovo software, Tangle
(letteralmente “intrico”), tramite il quale si proponeva di studiare le informazioni come sequenze di
caratteri, di cui avrebbe analizzato i collegamenti. Tuttavia l’esperimento non ottenne risultati apprezzabili
e Berners Lee ne abbandonò lo sviluppo.

Assunto al CERN per occuparsi di “controllo e acquisizione dati” sotto la direzione di Peggie Rimmer,
partecipò allo sviluppo di uno strumento di "chiamata di procedura remota" (RPC), atto a rendere possibile
l'interazione tra due software installati su sistemi operativi differenti e scritti con differenti linguaggi di
programmazione. Nel frattempo Berners Lee cominciò a riscrivere Enquire sul Compaq, in modo che
potesse girare sia sul suo pc che sul minicomputer VAX della DEC che utilizzava al CERN; purtroppo
l’esperimento fallì in quanto il programmatore non replicò la gestione dei collegamenti esterni, rendendo lo
strumento molto meno duttile e utile. In ogni caso la natura invalidante della scelta di escludere i link
esterni risultò per Tim una lezione molto utile.

Spinto dal desiderio di realizzare qualcosa che funzionasse come Enquire e che potesse essere accettato
dalla vasta e variegata comunità di scienziati del CERN, Berners Lee decise di avvicinarsi all’infido terreno
dei sistemi di documentazione. Per riuscire ad ottenere questo risultato pensò di introdurre il concetto di
ipertesto nel suo Enquire, con l'obiettivo di ottenere una struttura decentralizzata.

Alla fine del 1988 Berners Lee stava studiando come far funzionare un sistema
ipertestuale, e quindi si consultò con il suo capo, Mike Sendall (vedi figura 18), il
quale trovò l’idea interessante ma che comunque gli indicò di redigere una proposta
formale. Tim non aveva affatto idea di come realizzare un documento di questo tipo,
e soprattutto di come presentare Enquire: avrebbe infatti dovuto spacciarlo come un
sistema di documentazione, una reale necessità del CERN, e non come un sistema
(18) Mike Sendall
ipertestuale, che poteva essere ritenuto troppo sofisticato; avrebbe dovuto inoltre
sottolineare che il suo software avrebbe permesso a ciascuno di mantenere il proprio metodo organizzativo
e i propri programmi sul computer, caratteristica la cui mancanza, in precedenza, aveva inciso sulla
dismissione di diversi sistemi di documentazione.

In quel periodo Ben Segal, che aveva lavorato negli USA ed era stato mentore di Berners Lee nel progetto
RPC, stava cercando di introdurre Internet e i suoi protocolli all'interno del CERN: in Europa Internet non
era ancora arrivato perché non era uno standard ISO, inoltre il CERN disponeva di una rete proprietaria,
CERN-net. Appreso che Unix e VAX potevano usare TCP/IP (i VAX tramite l’installazione di un software
20
esterno non sviluppato dai produttori) Tim ne risultò affascinato e modificò il suo modulo RCP per sfruttare
TCP/IP, facendo di fatto entrare Internet nella sua vita.

Nel marzo 1989 Berners Lee consegnò la proposta a Mike Sendall e al suo capo David Williams. La
proposta, basata sui concetti di Internet e soprattutto di Ipertesto Globale, spazio nel quale ognuno poteva
decidere come gestire le proprie informazioni, venne purtroppo ignorata. Una seconda proposta,
nient’altro che la prima presentata in maniera leggermente diversa, fu consegnata a Williams nel maggio
1990, ottenendo però lo stesso risultato.

In quel periodo Berners Lee stava discutendo con Sendall se fosse il caso di comprare un nuovo tipo di
personal, in particolare un NeXT, prodotto della nuova azienda di Steve Jobs. Sendall acconsentì,
aggiungendo:

“Appena arriva la macchina, perché non provi a programmarci sopra quella roba
dell’ipertesto?” [2]

Lo sviluppo della prima versione del World Wide Web avvenne proprio su quell’elaboratore !

3.3 – Lo sviluppo del primo WWW


L’acquisto del NeXT (vedi figura 19) sarebbe stato utile per giustificare il lavoro sul progetto di ipertesto in
quanto sperimentazione del nuovo sistema e relativo ambiente di sviluppo. Berners Lee iniziò subito a
pensare ad un nome per presentare il progetto: tra le varie opzioni “Information Mesh” (ma in inglese
suonava troppo vicino a “mess”, casino), “Mine of Information” (la cui sigla MOI significava “me” in
francese: un nome troppo egocentrico!), “The Information Mine” (acronimo TIM: ancora peggio di MOI !),
per poi passare a HT (HyperText, troppo generico).

“Poi saltò fuori un altro nome, un modo semplice per rappresentare un ipertesto
globale. […] Gli amici al CERN mi sconsigliarono dall’usarlo, sostenendo che non
avrebbe mai fatto presa, soprattutto con un acronimo lungo nove sillabe se
pronunciato per esteso. Ciononostante, decisi di insistere. Avrei chiamato il mio
sistema WWW, World Wide Web” [2]

L’applicazione da costruire doveva ricordare un word processor e gli strumenti di sviluppo del NeXT,
chiamati NextStep, si dimostrarono quelli adatti per l’obiettivo: tramite questi ultimi era possibile creare
senza problemi un programma con interfaccia grafica, questo grazie all’utilizzo del mouse con cui si
potevano disporre a video menu e finestre.

In poco tempo Tim Berners Lee realizzò un word processor pienamente


funzionante e completo di font, formattazione di paragrafi e persino
un correttore automatico: avrebbe dovuto trasformare questo
strumento in un editor per ipertesti, e ciò significava distinguere il
testo normale da quello che che corrispondeva ad un collegamento.
Per risolvere questo problema il programmatore inglese sfruttò al
massimo le potenzialità offerte dall’elaboratore a sua disposizione.
Cito testualmente quanto da lui riportato a riguardo nel suo libro (19) Il NeXT di Tim Berners LEE

“Weaving the Web” [2]:

21
Scavando nei file che definivano il funzionamento interno dell’editor di testo, ebbi la
fortuna di trovare un segmento di trentadue bit di memoria extra che i
programmatori del NeXT avevano gentilmente lasciato a diposizione di futuri
maneggioni come me, e me ne servii come puntatore da qualsiasi tratto di testo
verso l’indirizzo per i link ipertestuali. In questo modo l’ipertesto era facile.

Ottenuto questo risultato, il passo per giungere al codice dell’ Hypertext Transfer Protocol (HTTP) e di
Universal Resource Identifier (URI) fu breve. A metà novembre di quell’anno lo sviluppatore inglese aveva
già approntato un browser con funzioni di editing dal nome appunto di World Wide Web; a dicembre stava
già lavorando su Hypertext Markup Language (HTML), strumento per definire la formattazione delle pagine
contenenti i link ipertestuali. Il programma di navigazione avrebbe decodificato le URI e permesso di
visualizzare, creare e modificare le pagine HTML.

Berners Lee scrisse anche il primo server web che, come il primo client, girava sul NeXT nel suo ufficio. Il
server, formalmente noto nella rete interna come nxoc01.cern.ch, fu registrato con lo pseudonimo
info.cern.ch, indirizzo tramite il quale era possibile accedere ai primi contenuti web, in particolare gli
appunti del programmatore inglese, nonché le specifiche di HTML, URI, HTML e altre informazioni relative
al progetto.

Nonostante tutto WWW funzionava solo su NeXT e il server HTTP era abbastanza “grezzo”. Ben Segal, che
era molto abile nella gestione del personale, individuò Nicola Pellow, una giovane stagista che Berners Lee
impiegò per sviluppare un browser. Questo nuovo navigatore doveva essere realizzato tenendo basse le
esigenze, in modo tale che l'interfaccia potesse funzionare su qualsiasi computer dotato di una tastiera e
con la possibilità di produrre e visualizzare caratteri ASCII: il prodotto del suo lavoro venne definito browser
line-mode.

L’obiettivo era affermare che se un contenuto fosse stato pubblicato su WWW, allora tutti avrebbero
potuto accedervi. A scopo esplicativo, durante ogni sua conferenza e incontro, Berners Lee mostrava uno
schema di come tutti i tipi di macchine avrebbero potuto collegarsi al World Wide Web. E con lo scopo di
dimostrare come il web fosse uno spazio universale, fece in modo che il navigatore potesse seguire non
solo i link http, ma anche i server di newsgroup e quelli FTP.

Al CERN nessuno del settore elaboratori intuì le potenzialità del nuovo strumento; tuttavia Bernd
Pollerman, che al CERN si occupava di fornire l’elenco telefonico tramite diversi sistemi esistenti ai vari
utenti, acconsentì alla proposta di fornirlo tramite browser con i dati su un singolo server. Il server fu scritto
parzialmente in C da Tim Berners Lee e in REXX da Pollerman, e successivamente furono installati i client
realizzati dalla Pellow.

Nel frattempo stavano nascendo altri sistemi analoghi al WWW, in particolare Gopher, Wais e Prospero, i
quali stavano ottenendo consensi elevati, togliendo visibilità all’operato di Tim Berners Lee. Un’ottima
mossa strategica dello sviluppatore inglese fu quella di pubblicare e condividere le proprie idee sulla
newsletter relativa agli ipertesti (alt.hypertext.newsletter), grazie alla quale la comunità iniziò ad
interessarsi alla sua applicazione scaricandola, installandola e indicando possibili migliorie.

Nel 1991 era previsto a San Antonio un convegno sul mondo dell’ipertesto, HYPERTEXT 91. Volendo
promuovere il web durante quest’occasione, Berners Lee inviò una pubblicazione, che però non venne
accettata. Nonostante il rifiuto dell’articolo, questi riuscì a convincere gli organizzatori del convegno a

22
lasciargli lo spazio per una dimostrazione che lui stesso tenne con Robert Cailliau, un “veterano” del CERN
che lo aveva assistito nell’aspetto organizzativo/gestionale del progetto.

“Andammo così a San Antonio con il mio NeXT e un modem. Purtroppo, non potevamo
avere accesso diretto a Internet nell’albergo che ospitava la manifestazione. […] Come
facevamo a dimostrare il web se non potevamo comporre il numero di info.cern.ch?
Robert trovò una soluzione, convincendo il direttore dell’albergo a far passare la linea
telefonica nel corridoio accanto alla sala convegni principale.[…] Il problema successivo
era far funzionare il nostro modem svizzero con la rete americana […] Così ci tocco
smontare il modem, farci prestare un saldatore dall’albergo e connetterlo
direttamente. Robert riuscì a collegare tutto, e funzionò. ” [2]

Berners Lee e Cailliau furono gli unici ad effettuare un collegamento durante l’intero convegno . Due anni
dopo, durante la stessa manifestazione, tutti i progetti in mostra avrebbero avuto qualcosa a che fare con il
Web !

3.4 – I primi browser


Nel 1992 il Web stava iniziando lentamente a diffondersi, e Berners Lee iniziò a temere che le varie persone
che allestivano i server non utilizzassero in maniera propria HTTP, HTML e URI. Proprio per questo motivo,
oltre a pubblicare specifiche sempre più ricche e precise, pensò che fosse necessario standardizzare questi
tre elementi cruciali, conscio del fatto che il luogo più adatto per proporre un’iniziativa del genere era
l’Internet Engineering Task Force, IETF, un collettivo internazionale di persone la cui attività si basava su un
principio di partecipazione aperta e in cui chiunque interessato ad un gruppo di lavoro poteva dare il
proprio contributo.

Nell’ambito del primo degli incontri dell’IETF, nel marzo 1992, Tim ebbe modo di conoscere Larry Massinter
dello Xerox PARC e Karen Sollins del MIT. Entrambi invitarono Berners Lee negli USA, rispettivamente allo
Xerox PARC e al MIT, ed ambedue gli inviti risultarono estremamente interessanti, data l’importanza delle
due istituzioni e la possibilità di capire qual’era la situazione negli Stati Uniti rispetto a quella europea.

Al CERN, nel frattempo, il Web era ancora poco utilizzato, forse anche
per via della mancanza di browser “punta e clicca” per sistemi diversi
dal NeXT: seppur l’informatico britannico spingesse per la realizzazione
di un client web per il sistema X-Windows (sistema utilizzato da tutte le
postazioni Unix), le risorse per svilupparlo non erano sufficienti.
Quando Robert Cailliau visitò il Politecnico di Helsinki, si presentò però
una ghiotta occasione: un gruppo di studenti si sarebbe prestato alla
realizzazione di un navigatore con le caratteristiche desiderate come
tesi di laurea ! Il prodotto risultante, nominato Erwise (la sigla del
dipartimento era OTH, e le due parole unite formavano “Otherwise”,
letteralmente “altrimenti”), non raggiunse purtroppo un livello di
maturità tale per essere diffuso, e gli studenti che lo svilupparono né
(20) Una schermata di Viola WWW
avevano interesse per il web, né credettero abbastanza nelle
potenzialità che questo media avrebbe dimostrato di avere di lì a poco.

Fortunatamente nel maggio del 1992 venne rilasciato un altro browser, Viola WWW di Pei Wei (vedi figura
20). Si trattava di un ottimo progetto, il cui difetto principale era la difficoltà di installazione (prima
23
bisognava installare il software Viola, poi Viola WWW come applicazione del precedente). ViolaWWW
poteva mostrare l’HTML con grafica, gestiva le animazioni e permetteva di scaricare piccole applicazioni
interne (quelle che poi in futuro sarebbero state le “applet” java); sostanzialmente questo navigatore era in
anticipo sui tempi e proponeva numerose funzionalità, alcune delle quali sarebbero state “ripescate” e
commercializzate solo negli anni successivi. Dato che non esistevano ancora browser per Mac, il team di
Berners Lee si occupò di svilupparlo e lo chiamò Samba.

L’arrivo e la diffusione dei navigatori “punta e clicca” portò ad una forte crescita delle installazioni dei
server web e, a poco a poco, gli scienziati e le organizzazioni statali che volevano rendere disponibili i loro
dati capirono che era molto più semplice inserire le informazioni nella rete piuttosto che sviluppare un
programma ad hoc.

3.5 – Il viaggio in USA di Tim Berners Lee


Alle porte del giugno del 1992, Tim Berners Lee avvertì l’esigenza di un periodo sabbatico: lavorava al CERN
da sette anni e aveva bisogno di “schiarirsi” le idee, sia sull’andamento del suo progetto che sulla sua
crescita professionale e personale. David Williams, il suo responsabile al CERN, accortosi della situazione gli
propose di allontanarsi dal CERN per un anno, ma senza stipendio, oppure di partire per una lunga
trasferta di tre mesi a spese dell’istituto di ricerca: chiaramente la scelta ricadde sulla seconda opzione, e
Tim ne approfittò per accettare i due inviti ricevuti a marzo da Larry Massinter e Karen Sollins.

Alla riunione dell’IETF Tim presentò l’idea di Identificatore Universale dei documenti, incontrando però
l’avversione degli altri ricercatori presenti, i quali ritenevano arrogante il definire qualcosa come
“universale”; il programmatore britannico si dimostrò disposto a compromessi pur di passare alla
definizione degli aspetti tecnici, di conseguenza “universale” divenne “uniforme” e “documenti” divenne
“risorse”. Fu così aperto un settore di lavoro sull’Uniform Resource Identifier (URI), seppur “Identificatore”
non risultasse essere l’etichetta adatta per indicare un indirizzo transitorio: per questo motivo “Identifier”
fu sostituito da “Locator”, di qui l’acronimo oggi noto come URL. Il lavoro all’IETF procedette molto
lentamente, anche per via delle numerose problematiche filosofiche nelle quali venivano letteralmente
inghiottite le discussioni tecniche. Alla fine, quando il gruppo si trovò nella situazione di essere sull’orlo
dello scioglimento, Berners Lee scrisse una specifica, “Request For Comment 1630”, che – anche se redatta
in maniera affrettata – risultò essere la base per futuri progressi.

Il periodo successivo passato allo Xerox PARC risultò essere molto più prolifico. Lo sviluppatore inglese ebbe
infatti modo di conoscere Pei Wei, il realizzatore di Viola WWW, nonché Tony Johnson dello SLAC, un fisico
che – per fini e utilizzo personali – aveva realizzato un altro browser per il sistema X-Windows, chiamato
Midas. Tuttavia l’incontro più importante di Tim Berners Lee in quell’estate del 1993 fu quello con Ted
Nelson (vedi capitolo precedente): proprio nel giorno in cui era fissato il loro appuntamento la Autodesk -
società per la quale lavorava Nelson - aveva deciso di accantonare il progetto Xanadu, ritenuto poco
interessante. Si trattò, in un qual modo, del passaggio del testimone tra chi aveva concepito il concetto di
ipertesto e chi avrebbe reso di lì a poco quell’idea una realtà concreta e alla portata di tutti.

3.6 – Un consorzio per il World Wide Web


Nel 1993 la diffusione dei web server ebbe un’impennata frenetica, e nel contempo si potette assistere al
proliferare di navigatori - oltre ai già citati ViolaWWW, Erwise e Samba. Tra questi è doveroso citare Arena,
sviluppato da un dipendente della HP nel suo tempo libero, e soprattutto Lynx 2.0 di Lou Montulli, un
browser “screen mode” - a schermate - che permetteva di “scivolare” avanti e indietro in un documento.
Questa crescita di interesse nei confronti del Web coinvolse anche il Centro Nazionale per le Applicazioni
24
dei Supercomputer (NCSA) e il risultato di questo interesse fu la realizzazione di Mosaic, un nuovo browser
per X-Windows sviluppato da Marc Andreessen con Eric Bina, rilasciato nel febbraio del 1993 (vedi figura
21). Molto semplice da installare, questo nuovo navigatore fu accettato molto più velocemente degli altri:
presto sarebbe stato disponibile per altre piattaforme, quali Windows e Mac. Nel frattempo Tom Bruce,
presidente dell’istituto di Informazioni Giuridiche della Cornell University, sviluppò CELLO, il primo software
per la navigazione web fruibile sulla piattaforma Microsoft Windows.

In questo clima di innovazione e crescita, Berners Lee incontrò


tuttavia delle tensioni con gli sviluppatori di Mosaic e NCSA,
evidentemente intenzionati a prendersi il merito del concepimento
del Web, facendo spostare l’interesse degli organi di stampa sul
loro browser piuttosto che sulla piattaforma sviluppata al CERN.
Questi problemi e il contemporaneo tonfo di Gopher - dovuto
all’introduzione del modello a licenze (vedi capitolo precedente) -
portarono lo sviluppatore inglese a spingere sull’acceleratore,
ottenendo prima di tutto la possibilità di distribuire gratuitamente
(21) Una schermata di Mosaic
il codice del WWW al di fuori dell’istituto di ricerca svizzero.

Berners Lee iniziò ad avvertire anche la necessità di un organismo di supervisione del web, volendo evitare
con forza una scissione in fazioni della comunità della rete: proprio a questo fine ricevette l’aiuto di Michael
Dertouzos, un greco con affermata esperienza nella costituzione di strutture ad alto livello comprendenti
figure accademiche, governative e del mondo industriale. La prima occasione nella quale il programmatore
britannico ebbe modo di condividere le proprie idee relative al consorzio si presentò nel marzo del 1994,
quando la O’Reilly, nota casa editrice, organizzò a Cambridge il primo WWW Wizard Workshop
(letteralmente “Seminario dei maghi del World Wide Web”): 25 dei primi sviluppatori del Web si
incontrano, tra i quali i già noti Lou Montulli, Eric Bina, Marc Andreessen, Tom Bruce, Pei Wei. In
quell’occasione Berners Lee coinvolse tutti i presenti ad una discussione su come poteva essere organizzato
un consorzio e su quale forma questo avrebbe potuto assumere, terminando con il coordinare una riunione
speciale atta ad elencare i problemi da affrontare nei mesi successivi.

Ad ottobre di quell’anno esistevano già più di 200 server HTTP noti, e nel contempo venne avviato il primo
progetto web dell’unione europea, Webcore, con il fine di diffondere informazioni tecnologiche nei paesi
dell’ex blocco sovietico; a dicembre il Web iniziò ad attirare i media, che dedicarono ampio spazio ed intere
testate al tema. Anche la comunità degli sviluppatori era in forte crescita; di conseguenza Berners Lee e
Cailliau organizzarono il primo Convegno internazionale WWW che si sarebbe tenuto al CERN nel mese di
maggio. In tale occasione si ebbe l’ultimo atto della competizione con NCSA: Joseph Hardin, uno dei
responsabili di tale organizzazione, fu tra i primi a rispondere all’invito di Cailliau, specificando che anche
NCSA era intenzionata ad organizzare un convegno a Chicago nello stesso mese e richiedendo quindi la
cancellazione di quello al CERN. Al rifiuto netto di Robert e Tim, la contromossa di NCSA fu lo spostamento
del convegno di Chicago al novembre successivo!

Michael Dertouzos presentò a Berners Lee il suo vice direttore, Al Vezza: questi aveva partecipato alla
nascita e alla gestione di un consorzio già esistente, lo X Consortium, istituzione che aveva contribuito a far
diventare la piattaforma X-Windows quella utilizzata da quasi tutte le postazioni di lavoro Unix. Vezza fu
entusiasta di partecipare all’organizzazione di un consorzio per il WWW, e il suo apporto in termini di
esperienza fu notevole nel corso della fondazione di questa struttura.

25
Nel frattempo Marc Andreessen aveva abbandonato NCSA per passare alla Enterprise Integration
Technology; lì conobbe un uomo d’affari, Jim Clark, e con quest’ultimo fondò la Mosaic Communications
Corp. I due soci, assunto il già citato Lou Montulli, “strapparono” a NCSA il gruppo di sviluppatori di Mosaic
ed iniziarono a commercializzare il loro browser: di lì a pochi mesi, nell’aprile del 1994, si sarebbero
trasferiti a Mountain View e si avrebbero ribattezzato l’azienda come Netscape. Ma questa è un’altra storia
(vedi capitolo successivo).

Così, mentre gli occhi di tutti erano puntati sull’astro nascente della Mosaic Communications, ebbe luogo il
primo convegno del World Wide Web. Iniziato al CERN il 25 maggio, sarebbe durato tre giorni: i
partecipanti, inizialmente limitati a 300, raggiunsero il numero di 350, a sottolineare il crescente interesse
nei confronti del WWW anche da parte della stampa. Durante il convegno, tra le altre cose, fu fissato un
piano di sviluppo di HTML per gli anni successivi, con il fine di incorporare tabelle, grafici e gestire
l’inserimento di immagini, e furono anche presentate diverse proposte, tra le quali alcune molto innovative
(ad esempio quella di VRML, Virtual Reality Markup Language, un linguaggio per gestire grafica 3D
nell’ambito di pagine web).

“Per la prima vola quelli che stavano programmando il Web erano a contatto di
gomito con persone di tutti i tipi che lo usavano nelle maniere più disparate.
L’atmosfera era satura di elettricità. […] Tanto entusiasmo e fervore per lo sviluppo
del Web indussero i giornalisti presenti a battezzarlo il “Woodstock della Rete” […]
Quel convegno è stata la prima volta in cui coloro che stavano cambiando il mondo
con il Web si sono riuniti per dare la linea sui doveri e sulle responsabilità, e su come
avremmo realmente utilizzato questo nuovo mezzo. [2]

I preparativi del MIT per il consorzio, diretti da Al Vezza attraverso il


Laboratory for Computer Science - LCS, continuarono a ritmo serrato. Fu così
che una sera di luglio quest’ultimo comunicò a Berners Lee di aver ottenuto il
via libera dal MIT per la fondazione del consorzio. MIT e CERN stilarono un
accordo per avviare il World Wide Web Consortium (in breve W3C, il cui logo
è visibile in figura 22) e lo sviluppatore britannico lasciò la Svizzera per gli USA,
pronto a guidare la futura evoluzione del Web. Come l’IETF, il W3C avrebbe
(22) W3C
elaborato specifiche tecniche aperte, e il suo fine sarebbe stato quello di
spingere il Web al suo pieno potenziale, partecipando allo progettazione e allo sviluppo di protocolli di
interoperabilità. Il consorzio sarebbe stato caratterizzato da una spiccata “neutralità”, che lo avrebbe reso
di fatto un organismo in grado di cooperare con aziende, enti governativi, istituzioni accademiche e altre
realtà no-profit.

26
4 – La “guerra” dei browser
4-1 – Mosaic e l’alba di Netscape
Il primo browser per mercato di massa, Mosaic, fu sviluppato nella primavera del 1993 al NCSA
dell’Università dell’Illinois. A metà del ‘94 erano già state scaricate due milioni di copie del navigatore, il cui
successo fu guidato dalla semplicità dell’interfaccia, basata su bottoni, e dalla caratteristica di integrare
immagini con il testo. Alcune compagnie licenziarono Mosaic per creare il proprio browser commerciale,
come Spry Mosaic e Spyglass Mosaic; la concorrenza, seppur esistente, non rappresentava un vero
problema per NCSA (tra i vari navigatori dell’epoca vale la pena citare IBM Web Explorer, Navipress,
MacWeb). L’avanzamento e la profilerazione dei browser portarono alla crescita del Web, con il numero di
siti in crescita di venti volte tra il giugno ‘93 e il giugno ‘94.

Come già accennato nel capitolo precedente, nell’aprile del 1994 Marc Andreessen - membro leader del
team che aveva sviluppato Mosaic - partecipò alla fondazione di una startup tecnologica che avrebbe
creato il “Mosaic-killer”, un nuovo navigatore web che sarebbe stato più veloce, più stabile e più ricco di
funzionalità. Il suo partner era Jim Clark, il noto chairman della Silicon Graphics (SGI), un’altra startup dal
valore di milioni di dollari e con sede in Silcon Valley. Originalmente Mosaic Communications Corporations,
la società fu rinominata dai due soci in Netscape Communications Corporation (vedi logo in figura 23).

La Netscape svelò la prima versione beta del suo navigatore denominata Navigator
1.0 nell’ottobre del 1994 e rilasciò il prodotto a dicembre. Navigator non
rappresentava il primo caso di browser commerciale ad arrivare sul mercato (questo
merito va invece alla Spry di Seattle, il cui browser era sul mercato dall’agosto 1994),
ma risultò essere superiore a Mosaic e a tutta la concorrenza. Scaricava le pagine web
con maggiore velocità e offriva nuove estensioni al linguaggio HTML, molte delle quali
aggiungevano elementi di multimedialità alle pagine. Inoltre il navigatore era
(23) Netscape
arricchito da una funzionalità di sicurezza in più: Security Socket Layer (SSL), una
tecnologia atta a criptare le comunicazioni su Internet. Le estensioni di HTML non erano proprietarie: esse
erano pubblicamente documentate, e l’azienda si adoperò con forza affinchè fossero adottate dai
competitori.

Andresseen spinse per un’offerta di prezzi “gratis ma non gratis”, con la speranza che il browser acquisisse
velocemente mercato. Navigator 1.0 costava 39 dollari, ma era gratis se utilizzato per fini accademici e
nell’ambito di associazioni no profit. I singoli potevano scaricare copie del software dal sito web nella
versione commerciale - a pagamento - oppure nella versione di “valutazione” - che permetteva una prova
gratuita per 90 giorni. Oltre a rilasciare i suoi browser, Netscape rilasciò anche 2 server Web alla fine del 94,
una versione base per pubblicare documenti sul web (al prezzo di 1495 dollari) e una versione più
sofisticata che supportava commercio elettronico (prezzo 5000 dollari). Netscape successivamente
introdusse server specializzati, il cui prezzo era 50.000 dollari, che potevano gestire database di utenti.

Due mesi dopo il suo rilascio Navigator 1.0 aveva conquistato oltre il 60% del mercato. Sette mesi dopo due
terzi dei nove milioni di navigatori utilizzati nel web erano Navigator. Nell’estate del 95 più di 10 milioni di
persone lo utilizzavano! Nel 1994 Netscape incontrò nuovi concorrenti, tra i quali OmniWeb, Web Rouser e
soprattutto Internet Explorer 1.0 della Microsoft: proprio con quest’ultima si sarebbe scatenata la prima
“Guerra dei Browser”.

27
4-2 – Internet Explorer contro Netscape Navigator 2.0
Nella primavera del 1995, Bill Gates della Microsoft proclamò tramite un memo interno:

“A Internet sarà assegnato il più alto grado di importanza. Internet è il più grande
sviluppo tecnologico a cui assistiamo dall’introduzione dei PC IBM nel 1981 […] Il
Web è “un’onda di marea”. Esso cambia le regole. È una opportunità incredibile, e
anche un’incredibile sfida”. [5]

Prima del memo, la Microsoft aveva ottenuto la licenza di Mosaic dall’Università dell’Illinois nel dicembre
del 1994, dopo il rifiuto della Netscape.

Microsoft rilasciò il suo Internet Explorer (IE, vedi


figura 24) nell’agosto del 1995. La successiva ersoine di
Navigator, Navigator 2.0, non sarebbe stato rilasciata
(24) Il logo di una delle prime versioni di Internet Explorer
prima dell’inizio di febbraio del 1996, ma la versione
beta era già disponibile in Ottobre. Navigator 2.0 offriva diversi vantaggi rispetto ad IE. Il primo era quello di
aver ottenuto la licenza per l’utilizzo di Java all’interno del proprio browser. Java rendeva facile la
realizzazione di pagine web con audio ed effetti visuali. Inoltre i programmi scritti in Java potevano girare
sui diversi sistemi operativi: la promessa della Sun era “Write once, run everywhere” (traducibile in “scritto
una volta, funziona ovunque”). Un altro vantaggio del Navigator era l’offerta delle API plug-in, che
permettevano agli sviluppatori di estendere le capacità multimediali del navigatore. Netscape ebbe anche
beneficio dal fatto che IE non supportasse le estensioni HTML di Netscape, rendendo di fatto molto meno
ricca l’esperienza degli utenti che navigavano con il programma della Microsoft. In ogni caso il più grande
svantaggio di Explorer rispetto a Netscape era quello di essere disponibile solo per un sistema operativo,
Windows 95. Questo significava che Microsoft stava di fatto cedendo il mercato Mac e Unix, così come il
mercato delle precedenti versioni di Windows (che rappresentava la maggior parte dei personal computer
di quel periodo).

In ogni caso, nonostante tutte queste problematiche tecnologiche, IE della Microsoft aveva un enorme
vantaggio rispetto al concorrente: era incluso in tutte le installazioni del nuovo sistema operativo
Microsoft, Windows 95, e – in quanto parte del sistema operativo - era sostanzialmente gratis; al contrario
Netscape faceva ancora pagare il navigator ai suoi clienti corporate.

Stiamo fornendo un browser abbastanza buono come parte del sistema operativo.
Quanto a lungo potranno sopravvivere vendendolo ?
Steve Ballmer, CEO di Microsoft [5]

Il 7 Dicembre 1995 Bill Gates annunciò che Microsoft avrebbe “abbracciato ed esteso” gli standard Internet:
il successivo browser della Microsoft sarebbe stato disponibile per Mac, Windows 3.1 e Windows Nt;
avrebbe inoltre incluso il supporto per il linguaggio Java. Oltre a questo, le future versioni del navigatore
sarebbero state più veloci e migliori della concorrenza, senza contare che sarebbero state gratis. Dopo
l’annuncio, le azioni di Netscape subirono un immediato crollo in borsa.

Netscape rispose alla strategia di Microsoft migliorando il proprio browser, attraverso l’incorporazione nel
software di tecnologie prodotte da società come Apple Computer, Adobe System e Autodesk. Nel marzo
1996 Netscape controllava l’85% del mercato dei browser, contro il 4 % di Internet Explorer. Nel giugno

28
1996, Netscape annunciò che la base utenti del suo navigatore aveva raggiunto 38 milioni di utenti,
rendendola “l’applicazione più popolare del mondo per PC”.

4-3 – Il dominio di Internet Explorer


Nell’aprile del 1996, in un memo interno intitolato “Winning the Internet Platform Battle” (letteralmente
“Vincere la battaglia delle Piattaforme Internet”), il dirigente Microsoft Brad Chase sottolineava
l’importanza di “conquistare” una nuova categoria sviluppatori: i webmaster, coloro che realizzavano i siti
web, erano la nuova clientela da raggiungere. Dato che lo stesso codice HTML poteva risultare con aspetto
grafico differente su diversi navigatori, gli sviluppatori avrebbero dovuto scegliere per quale browser
scrivere le proprie applicazioni oppure sarebbero stati costretti ad aggiustare il loro codice per browser
differenti.

Microsoft rilasciò Internet Explorer 3.0 il 12 agosto del 1996, mentre Netscape rilasciò Navigator 3.0 solo
una settimana dopo. Confrontando il suo navigatore con IE 3.0, la Netscape annunciò che il suo prodotto
era più veloce (circa del 42%) e più piccolo (ben 2 megabyte), nonché in grado di provvedere maggior
sicurezza e il supporto per ben 16 piattaforme. Nonostante queste caratteristiche, lo share di mercato di
Netscape passò da 87% a 70% alla fine del ‘96, mentre Explorer passò dal 4% al 24% ! Il fatto che IE venisse
incluso nel sistema operativo Windows 95 fu sicuramente il fattore più importante ed incisivo tra quelli che
portarono a questo cambiamento.

Il successo del sistema operativo Microsoft contribuì in maniera indotta alla crescita di IE. Altro fattore che
contribuì alla crescita dell’utilizzo di IE furono gli accordi della casa di Redmond con gli Internet Service
Providers (ISP), tra i quali America Online (AOL). AOL accettò di rendere IE il browser di default per i suoi 5
milioni di iscritti in cambio dell’accesso diretto ad AOL tramite Windows 95 e un icona sui desktop dei
personal con il nuovo sistema operativo. Nell’estate del 1996, la Microsoft aveva fatto accordi con ben 200
ISP per distribuire IE.

Nell’ottobre 1996, la Netscape introdusse il suo Communicator 4.0, che avrebbe incluso il Navigator e altre
componenti, tra le quali alcune fornivano la possibilità per gli utenti di sincronizzare calendari e collaborare
su documenti di testo e fogli di calcolo. Communicator 4.0 fu rilasciato nel giugno 1997 , mentre Internet
Explorer 4.0 nel settembre del 1997. Alla fine del ‘97, le quote di mercato della Netscape erano scese al
50%, con perdite dichiarate di 88 milioni di dollari nell’ultimo quarto dell’anno !

Nel gennaio 1998 Netscape cominciò ad offrire i suoi Navigator e Communicator gratuitamente,
annunciando anche che avrebbe lasciato libero il download del codice sorgente; alla fine di quel mese la
Netscape subì perdite per 54 milioni di dollari e le entrate nei tre mesi successivi furono solo di 8 milioni.
Nel giugno 1998 Andreessen annunciò la fine formale di Netscape e pianificò di lavorare su un browser
interamente scritto in Java.

Nell’ottobre 1998, IE soverchiò Netscape nelle quote di mercato dei browser; in Novembre AOL annunciò
una trattativa per comprare Netscape a 4,2 bilioni di dollari, trattativa che si chiuse a 10 bilioni di dollari.
Seppur Netscape continuasse a rilasciare nuove versioni del suo browser, il mercato del 2002 mostrò che IE
controllava il 90% del mercato.

La “guerra” dei browser portò con sé tre aspetti negativi:

1. L’aggiunta di nuove funzionalità piuttosto che la correzione dei bachi.


2. L’aggiunta di estensioni proprietarie, che si trovavano in contrasto con gli standard.

29
3. La creazione involontaria di enormi problematiche di sicurezza: con il fine di aggiungere funzionalità
avanzate, si lasciò spazio a tecniche per iniettare codice malevolo nella visualizzazione di pagine
web.

Il supporto per gli standard fu gravemente minato e indebolito: per anni le innovazioni
nello sviluppo di pagine Web stagnarono per via del fatto che gli sviluppatori si trovavano
costretti ad utilizzare tecniche obsolete e inutili al fine di rendere le proprie pagine
compatibili con i browser più diffusi: Navigator 4 e Internet Explorer 6 (vedi logo in figura
25)erano
erano pesantemente carenti per quanto riguarda il supporto degli standard, inclusi
quelli relativi all’uso dei fogli di stile e al formato di immagini PNG. (25) Internet Explorer 6

Il 2 Febbraio 2008 fu rilasciato l’ultimo aggiornamento del Netscape Navigator 9,, basato su Mozilla Firefox
2. Non ottenendo più mercato, il software della Netscape fu dismesso il primo marzo 2008.

La battaglia tra Netscape e Microsoft non avvenne solo in termini tecnologici: l’Antitrust americano intentò
diverse azioni legali contro il colosso di Redmond,
Redmond le quali si protrassero a partire dal 1993 sino al 2002.

4-4 – La seconda “guerra” dei browser


Come già detto - dopo opo la caduta per mano della Microsoft - la Netscape rese il codice del suo browser open
source: questo portò all’istituzione della Mozilla Foundation,, il cui scopo sarebbe stato quello di sviluppare
il successore del Navigator. La prima versione del nuovo browser, frutto di alcuni anni di sviluppo, fu
inizialmente nominata Phoenix,, ma per motivi di trademark
trademark il nome fu cambiato prima in Firebird ed infine
in Firefox,, la cui versione 1.0 fu rilasciata il 9 novembre 2004 (il cui logo è visibile in figura 26).
26)

Nel frattempo, nel 2003, la Microsoft aveva annunciato che Internet Explorer 6 Service
Pack 1 sarebbe stata l’ultima versione stand-alone
alone del suo browser: i cambiamenti futuri
sarebbero dipesi dall’introduzione del nuovo sistema operativo Windows Vista, Vista che
avrebbe incluso nuovi strumenti per gli sviluppatori web, ad esempio Windows
Presentation Foundation (WPF, una libreria per lo sviluppo di interfacce grafiche).
grafiche) Come
risposta, nell’aprile 2004,
2004 Mozilla Foundation e Opera Software (produttore del browser
(26) Mozilla Firefox
Opera)) congiunsero i propri sforzi per sviluppare dei nuovi standard a tecnologia
“aperta”, con lo scopo di aprire nuovi orizzonti
or pur mantenendo la retro compatibilità con le tecnologie
esistenti. Il risultato di questa collaborazione fu il Web Hypertext Application Technology Working Group
(WHATWG), un gruppo di lavoro orientato alla creazione di nuovi standard da sottoporre per approvazione
al W3C.

Opera era stato a lungo un partecipante in secondo piano della ella guerra dei browser,
conosciuto soprattutto per l’introduzione di funzionalità innovative come la
navigazione multi tab e le mouse gestures.
gestures. Il software in questione, inizialmente
commerciale, diventò freeware nel 2005; la versione del 2006, Opera 9 (vedi edi figura 27),
27)
fu la prima a passare l’Acid2 Test (trattasi di una pagina web che fa un utilizzo intensivo
di HTML combinato alla tecnologia Cascade Style Sheet, CSS,, onde testare la
compatibilità del browser con gli standard),
standard) mentre Opera Mini detiene ancora ncora oggi (27) Logo di Opera
quote significative nel mercato dei browser per dispositivi mobili.

Il 15 febbraio 2005 la Microsoft annunciò la disponibilità di Internet Explorer 7 per il sistema Windows XP
SP2 e le successive versioni di Windows. Questa versione introdusse la navigazione multi tab, un filtro anti-
phishing (per contrastare una particolare di tipologia di truffa online) e un supporto migliore per gli
30
standard web: si trattava in ogni caso di funzionalità già disponibili per gli utenti di Firefox e Opera!
Microsoft, inizialmente, distribuì il nuovo browser ai soli Genuine Windows User (WGA, utenti con una
copia di Windows licenziata correttamente), indicandolo come aggiornamento di alta priorità tramite la
tecnologia Windows Update. Considerando le quote di mercato sfavorevoli a questa impostazione (il 35,4%
degli utenti della rete utilizzavano Firefox, il 34,9% Internet Explorer 6 e solo il 20,8% Explorer 7), Microsoft
decise di togliere la limitazione imposta tramite WGA e nell’ottobre del 2007 rese disponibile il nuovo
browser a tutti gli utenti Windows.

Un'altra novità del 2007 fu l’ingresso in campo di Apple sul mercato dei browser per Windows: dopo aver
avviato il progetto WebKit (un framework per lo sviluppo di browser) il 6 giugno di quell’anno rilasciò Safari
- inizialmente concepito nel 2003 come antagonista di Internet Explorer per Mac - nella versione 3 per
piattaforma Microsoft. Il 19 dicembre 2007 la Microsoft annunciò l’imminente rilascio di Internet Explorer
8, una delle quali caratteristiche era quella di aver passato l’Acid2 Test. Quasi un anno dopo, il 17 giugno
2008, Mozilla Foundation rilasciò Firefox 3.0, che rendeva disponibile, oltre al nuovo layout, delle ricche
API per la sua programmazione.

La guerra dei browser continua ancora oggi: il 4 settembre 2008, Google - il noto
motore di ricerca - ha pubblicato la prima versione beta di Google Chrome (vedi
figura 28), un nuovo navigatore basato su WebKit, e le cui caratteristiche principali
risultano essere la velocità di rendering delle pagine, la gestione sofisticata della
memoria e - chiaramente - il fatto che si tratti di un progetto open source. Larry
Page, uno dei fondatori di Google, afferma che il rilascio di Chrome non sia stato (28) Google Chrome
affatto condizionato da quello di Internet Explorer 8, tuttavia Sergey Brin, il suo socio, afferma che se il
rilascio di Internet Explorer 9 fosse conseguenza diretta di quello di Chrome, si potrebbe parlare
tranquillamente di successo !

Il tuo motore di ricerca è Google, la tua mail è Google Mail, i tuoi documenti sono su
Google Docs, le tue mappe sono su Google, gli Ads che vedi sono di Google, il tuo
sistema è Android, il tuo browser è Google Chrome. Qualcuno ha per caso sentito la
parola “monopolio” ?
Daniel Glazman, giornalista per Disruptive Innovation [15]

Forse parlare di monopolio in questo particolare contesto - considerando anche gli episodi eclatanti degli
anni precedenti - potrebbe risultare eccessivo. Tuttavia - notizia ufficiale del primo settembre 2009 -
Google ha ottenuto un accordo per preinstallare il suo browser sui computer Sony. E se il buongiorno si
vede dal mattino …

31
(29) In alto, le quote
uote di mercato dei browser dal 2000 a oggi;
oggi sotto le quote di mercato dei browser nel 2009

32
5 – L’evoluzione del Web
5-1 – La bolla delle dot-com
com
Nel 1994, con la quotazione in borsa di Netscape, ebbe inizio un ciclo economico, definito New Economy o
era delle dot.com,, che sarebbe terminato a cavallo tra il 2001 e il 2002 con lo scoppio della bolla
speculativa, la recessione economica e le conseguenze degli eventi dell'11 settembre 2001. Durante gli anni
della New Economy
conomy aumentarono in maniera esponenziale le quotazioni di nuove start-up start della Silicon
Valley, dell'high-tech e di Internet; nel contempo gli investimenti nel settore della information technology
diventarono una delle caratteristiche chiave dei piani strategici delle grandi e medie imprese.

Numerose aziende (appunto le cosiddette dot.com),


eccessivamente fiduciose nelle potenzialità della
rete, si illusero di aver individuato la chiave per una
facile espansione ma si ritrovarono,
trovarono, nella maggior
parte dei casi, a dover fare i conti con la mancanza di
idee innovative e di capacità gestionali. gestionali
Probabilmente a causa degli enormi proventi
scaturiti da un mercato così fertile e progredito, lo l
sgonfiarsi di questa bolla portò alla più grande
dispersione di ricchezza dalle due guerre mondiali,
mondiali
culminata nel crollo dell’indice Nasdaq:
quest’ultimo, dopo aver raggiunto il valore record di
5132,52 punti il 10 marzo 2000,2000 perse il 9% in tre
(30) L’andamento dell’indice Nasdaq dal 1994 al 2008
giorni (vedi figura 30), innescando così la caduta
delle quotazioni di varie dot.com e la scomparsa di molte di esse.

Lo scoppio della bolla segnò di fatto un punto di svolta per il Web. In molti giunsero alla conclusione che il
Web fosse stato assolutamente sopravvalutato seppure
seppur - di fatto - le bolle e le conseguenti crisi sembrano
essere una caratteristica comune a tutte le rivoluzioni
rivol tecnologiche.

Le crisi tipicamente segnano il punto in cui una tecnologia in crescita è pronta a


prendere il posto che le spetta, al centro del palcoscenico. Tra i diversi pretendenti si
distinguono quelli che hanno veramente successo, e si comprende
comprende il motivo di tale
successo. Tim O’ Reilly [6]

5-2 – Cos’è il Web 2.0 ?


Il Web, per via della sua natura intrinseca, non ha mai smesso di crescere e svilupparsi: da quando è stato
ideato si trova in una perpetua fase di miglioramento ed innovazione, oltre che di espansione - anche grazie
al maggior numero di persone che utilizzano questo strumento. Il Web 2.0 fa parte di questa crescita e può
essere visto come il prodotto non finale di anni di continuo avanzamento e sviluppo.
sviluppo

Il concetto di Web 2.0 fu coniato durante una sessione di brainstorming, tenutasi nell’ambito di una
conferenza, tra “esperti” di O’Reilly Media - casa editrice internazionale specializzata nella divulgazione di
testi di carattere tecnico/informatico - e di MediaLive International – azienda organizzatrice di convention a
sfondo tecnologico. Dale Dougherty,
Dougherty uno dei pionieri del Web (fu moderatore al primo WWW Wizard
Workshop citato nel capitolo precedente) e vice presidente di O’Reilly, fece notare che - tutt’altro che

33
crollata - la rete era più importante che mai, con nuovi siti ed interessanti applicazioni che nascevano con
sorprendente regolarità; inoltre le società sopravvissute al collasso sembravano avere alcune
caratteristiche, che verranno approfondite in seguito nel testo.

Il significato del termine “Web 2.0” è stato causa di ampi dibattiti: alcuni lo indicano come una “buzzword”
- una parola di moda, di solito inventata ed utilizzata soprattutto in ambiti aziendali e di marketing - nata
dall’esigenza di etichettare un “hype” (ovvero un’operazione pubblicitaria), mentre altri lo accettano come
uno standard di fatto per definire un certo insieme di cambiamenti e applicazioni che oggi popolano la
Rete.

Per definire il Web 2.0 possono essere utilizzate alcune sintetiche affermazioni di Tim O’Reilly, fondatore
della O’Reilly Media e illustre sostenitore del software gratuito e open source. A lui soprattutto va
riconosciuto il primo tentativo di definire questo termine.

“Il Web 2.0 è la rete come piattaforma, attraverso tutti i dispositivi ad essa collegati;
le applicazioni Web 2.0 sono quelle che permettono di ottenere la maggior parte dei
vantaggi intrinseci della piattaforma, fornendo il software come un servizio in
continuo aggiornamento che migliora grazie alle persone che lo utilizzano,
sfruttando e mescolando i dati ottenuti da sorgenti multiple - tra cui gli utenti stessi -
i quali forniscono i propri contenuti e servizi in un modo che permette il riutilizzo da
parte di altri utenti creando così una sorta di “architettura di partecipazione” e
andando oltre la metafora delle pagine del Web 1.0 per produrre così user
experience più significative” [6]

Da questa definizione si possono estrapolare alcuni concetti chiave, ovvero:

• La rete diventa una “piattaforma”, ove con piattaforma si intende un’infrastruttura hardware e
software che permetta l’esecuzione di applicazioni: questo chiaramente introduce diverse
problematiche, a partire dalla gestione della “digital identity” (ovvero il concetto di autenticazione),
la privacy e la sicurezza delle informazioni ;
• Il software è visto come “servizio”: non sono più necessarie applicazioni stand-alone, il software
viene erogato ed usufruito dai singoli e dalle aziende attraverso la rete, senza la necessità di adibire
particolari infrastrutture e/o installazioni locali;
• Si utilizzano dati ottenuti da sorgenti multiple, che le applicazioni aggregano ed interpolano:
un’esemplificazione di questo aspetto è rappresentata dalle Mash-up (letteralmente "poltiglia"),
delle applicazioni web che sfruttano il contenuto generato da terzi (solitamente altri siti web che
offrono delle API di interazione) per creare un servizio completamente nuovo;
• Gli utenti partecipano al miglioramento del software e producono contenuti, i cosiddetti User
Generated Content (UGC).

Una seconda e interessante definizione riguarda aspetti soprattutto sociali ed economici:

“Il Web 2.0 è un insieme di tendenze economiche, sociali e tecnologiche che formano
insieme la base per la prossima generazione di Internet – un più maturo e distinto
mezzo caratterizzato dalla partecipazione degli utenti, dal’apertura e dagli effetti
della rete” [6]

34
La terza ed ultima, prodotto di una discussione online tra O’Reilly e la comunità della rete, enuncia:

“Il Web 2.0 è la rivoluzione del business nell’industria informatica, causata dallo
spostamento verso Internet come piattaforma e da un tentativo di capire le regole
per il successo su questa nuova piattaforma. Il punto cardine di tutto questo è
costruire applicazioni che, sfruttando gli effetti della rete, migliorano man mano che
cresce il numero di persone che le utilizzano” [10]

Queste ultime due definizioni ci aiutano a capire come il Web 2.0 - oltre ad essere caratterizzato da aspetti
strettamente legati alla tecnologia - rappresenti una serie di tendenze sociali ed economiche, tra le quali
l’acquisita centralità dell’utente nel processo di partecipazione alla crescita della rete. Proprio perché il
software risulta essere realizzato in maniera partecipativa, un altro concetto chiave che si può estrapolare
dal contesto è quello di Permanent Beta (traducibile in “Beta perpetuo”, dove con Beta ci si riferisce alla
versione di un software), ovvero la costante evoluzione apportata dai produttori alle applicazioni e ai servizi
in base al feedback degli utilizzatori.

5.3 – Differenze tra “Web 1.0” e Web 2.0


Parlando di Web 2.0 si sottintende l’esistenza di una “versione precedente” del Web, il Web 1.0. Volendo
definirlo, potremmo dire che il Web 1.0 è semplicemente un media di comunicazione non partecipativo, nel
quale i soggetti che usufruiscono dei contenuti non sono coloro che li pubblicano. Decisamente esplicativa
l’immagine pubblicata su un blog francese, http://blog.aysoon.com, che riporto qui (vedi figura 31).

Questo tipo di definizione è decisamente


riduttiva, di conseguenza può risultare utile
elencare una serie di differenze a partire da
degli esempi significativi che lo stesso Tim
O’Reilly riportò nel proprio articolo divulgativo
“What is Web 2.0” [6].

Netscape (1.0) in confronto con Google (2.0)

Se Netscape rappresenta l’archetipo del Web


1.0, Google rappresenta quello del Web 2.0: le
rispettive Initial Pubblic Offering - IPO - hanno
influito sugli eventi di ciascuna delle due “ere”.
Netscape diede forma al “web come
piattaforma” nei termini del vecchio
paradigma software: il suo prodotto era un
browser web – tipica applicazione desktop – e
la sua strategia di mercato era quella di
utilizzare il predominio nel mercato dei (31) “Le Web2.0 illustré en une seule image”
navigatori per stabilire un mercato di prodotti
server di fascia alta. Il controllo sugli standard relativi alla visualizzazione avrebbe dovuto, almeno in teoria,
dare alla Netscape il tipo di potere di mercato che Microsoft aveva nel mercato dei PC. Alla fine, il valore sia
dei browser web che dei server si dimostrò accessorio rispetto a quello dei servizi offerti tramite il Web.

35
Google, a differenza di Netscape, nacque come applicazione web nativa, mai concepita come un pacchetto
in vendita, bensì fornita come servizio. Nessuna licenza o vendita, solo utilizzo; nessuna release
programmata, ma solo miglioramenti continui; nessuna necessità di distribuzione e di porting su
piattaforme differenti, in quanto il software può essere acceduto direttamente tramite un navigatore web.
Google non è un server, sebbene sia erogato tramite un’immensa rete di server web, né un browser,
seppur sia fruito dai suoi utenti tramite questo strumento; inoltre il suo eccellente servizio di ricerca non
ospita i contenuti che consente ai suoi utenti di trovare.

Double Click (1.0) in confronto con Overture e Google Adsense (2.0)

Come Google, DoubleClick tratta il software come servizio, ha una competenza fondamentale nella
gestione dei dati e, soprattutto, è stato un pioniere nell’ambito dei servizi web molto prima che questi
avessero un nome. Doubleclick, tuttavia, è un tipico modello di web 1.0 per via del suo modello di business:
condivise la convinzione degli anni ’90 secondo la quale fare web significava pubblicare e non partecipare e
che quello degli inserzionisti, e non dei consumatori, fosse il mercato a cui rivolgersi.

Il successo di Overture e di Google Adsense (vedi figura 32) derivò


dalla comprensione del concetto di long tail (“coda lunga”), il
potere collettivo dei piccoli siti che costituiscono la maggior parte
dei contenuti presenti sul WWW. Se le offerte di Double Click
richiedevano un contratto formale di vendita, limitando il proprio
mercato a poche migliaia di siti – quelli più noti – quelle di Overture
e Google resero potenzialmente possibile il posizionamento delle
pubblicità su qualsiasi pagina web; evitarono inoltre i formati
pubblicitari tipici delle agenzie pubblicitarie – quali banner e popup
– preferendo testi poco invasivi, sensibili al contesto e “consumer
(32) Esempio di Google Adsense
friendly”.

Per dovere di cronaca, Google ha acquistato Double Click l’11 marzo 2008.

Britannica Online (1.0) in confronto con Wikipedia (2.0)

L’Enciclopedia Britannica è stata pubblicata la prima volta nel 1768 ad Edimburgo, in Scozia, e tutt’ora
continua ad essere aggiornata: trattasi di un’opera colossale che conta, in una delle sue ultima edizioni, ben
32 volumi ed una partecipazione di 400 collaboratori. Oltre alla versione cartacea è disponibile una
versione in DVD contenente oltre 55 milioni di vocaboli e più di 100.000 articoli. Nel 1994 è stata resa
disponibile una versione online accessibile previo abbonamento annuale, con circa 120.000 articoli
consultabili ed aggiornata quotidianamente da scienziati, professori o esperti di qualunque argomento.

Wikipedia, al contrario dell’Enciclopedia Britannica, un progetto molto giovane nel panorama web, risulta
decisamente innovativo in questo settore. Nata il 5 gennaio 2001, Wikipedia è un’enciclopedia libera che
accetta il contributo degli utenti volontari per poter crescere: chiunque può scrivere, modificare o
aggiornare un articolo disponibile in archivio; nello stesso tempo, ogni articolo può essere tradotto in oltre
250 lingue, aumentando così il bacino del servizio.

Le differenze sono facilmente intuibili: mentre in Wikipedia si avvale di una soluzione interattiva che
permette ai suoi utenti (esperti, studiosi o semplici appassionati) non solo di consultare liberamente i

36
documenti, ma di partecipare attivamente alla crescita dei contenuti, l’Enciclopedia Britannica si affida
esclusivamente ai propri collaboratori e non fornisce il proprio materiale in forma gratuita.

Page View (Web 1.0) in confronto con Cost Per Click (2.0)

Page View, letteralmente “pagina vista”, è uno dei sistemi più utilizzati nel panorama dell’advertising online
per vendere campagne banner attraverso inserzioni in siti web. L’utilizzo del Page View permette agli
inserzionisti di quantificare il volume della propria campagna a seconda di quanta visibilità questi
desiderano ottenere. In questo modo è possibile acquistare pacchetti di esposizioni, sempre nell’ordine di
alcune migliaia, per ottenere la visualizzazione del proprio banner o elemento pubblicitario.

Lo svantaggio di questa soluzione è che non vi può essere garanzia del ritorno dell’investimento (ROI) dato
che gli utenti potrebbero semplicemente visualizzare la pagina con il banner, ma proseguire nella
navigazione senza cliccarvi sopra e senza entrare così nel sito che commercializza un prodotto o offre il
servizio promozionato. L’investimento sarebbe comunque effettuato senza ottenere in cambio alcun
guadagno o solamente una minima parte di interesse da parte del pubblico che ha generato una bassa
percentuale di click rispetto al numero di esposizioni (tale percentuale è detta Click-Through Rate).

Il Cost per Click (o pay per click) non è una nuova forma di advertising online, ma semplicemente un
metodo più sicuro per massimizzare il proprio ROI decidendo solamente quanto siamo disposti ad investire
su di un singolo click alla nostra inserzione pubblicitaria. Il nostro spot verrà visualizzato all’interno di un
circuito di banner un numero indefinito di volte, per un tempo predeterminato, fino a quando non avrà
ottenuto l’ammontare di click da noi fissato con il nostro investimento.

Sito Web Personale (1.0) confrontato con il Blog (2.0)

Per sito web personale si intende quel sito che un individuo ha registrato a proprio nome per parlare di sé
stesso, della propria vita e dei propri interessi. Per realizzarlo è necessario che l’individuo in questione
disponga di software di sviluppo visuale o conosca abbastanza bene le tecnologie del web. La struttura del
sito è fortemente personalizzata e non segue alcuno “standard”.

Il blog è un particolare tipo di home page personale pubblicata sotto forma


di “diario”; la sua organizzazione cronologica, che può sembrare una
differenza insignificante, definisce di fatto un sistema di erogazione, una
pubblicità e una catena del valore completamente differenti. Una delle
tecnologie relative ai blog che ha fatto veramente la differenza è Really
Simple Sindacation, RSS (il cui logo è visibile in figura 33), un formato di
distribuzione delle informazioni che non solo permette di visualizzare
quanto pubblicato su un sito, bensì di “abbonarsi” ad esso, ricevendo una
notifica ogni qualvolta questo venga aggiornato. Qualcuno definisce questa
(33) Il logo di RSS
serie di aspetti come “Web Incrementale”, mentre altri lo chiamano “Live
Web”.

In ogni caso non è solo la tecnologia RSS ad aver reso un blog differente da una semplice pagina personale: i
permalink (contrazione dell’inglese "permanent link") sono delle URL che si riferiscono ad una specifica
informazione e che sono implementate in modo da non cambiare o almeno per rimanere lo stesse per
lunghi periodi di tempo. Tom Coates, uno dei primi weblogger, ne spiega l’importanza [14]:

37
“Può sembrare una funzionalità insignificante ora, ma si tratta del dispositivo che ha
efficacemente trasformato i weblog da un fenomeno di “pubblicazione facile” in una
confusione conversazionale di comunità che si sovrappongono. Per la prima volta è
diventato relativamente semplice puntare direttamente a una sezione specifica del
sito di qualcun altro e parlarne. Sono nate discussioni. Sono nate conversazioni. E, di
conseguenza, sono nate amicizie. Il permalink è stato il primo, e più vincente,
tentativo di costruire punti tra i weblog.”

Ultimo aspetto da sottolineare è che, per pubblicare un blog, non è necessaria alcuna conoscenza tecnica: è
possibile infatti registrarsi in uno dei tanti portali che offrono questo servizio gratuitamente o, in
alternativa, installare con estrema semplicità un pacchetto software sul proprio spazio web.

5.4 – Un fenomeno recente: i Social Network


Nel 1929 uno scrittore ungherese pressoché sconosciuto, Frigyes Karinthy, scrisse un racconto intitolato
“Catene”, nel quale si fantasticava sull’ipotesi che una qualunque persona al mondo fosse separata da ogni
altra da un numero limitato di relazioni e pertanto che chiunque sarebbe potuto arrivare a contattare una
qualsiasi altra persona sconosciuta attraverso una catene di relazioni. Questa ipotesi prese il nome di
“Teoria dei sei gradi di separazione” e diventò popolare solo 60 anni dopo, quando uno scrittore
americano, John Guare, pubblicò un libro intitolato appunto “Sei gradi di separazione” e ispirato ad una
storia realmente accaduta. Il titolo del romanzo di Guare era ispirato alla cosiddetta “teoria dei piccoli
mondi” di Stanley Milgram (1967), il quale asserì che qualunque persona può essere collegata a qualunque
altra persona attraverso una catena di conoscenze con non più di 5 intermediari. La teoria dei sei gradi di
separazione è la chiave per interpretare la storia di successo delle reti sociali su Web, meglio note come
social network.

Un social network è uno strumento condiviso che abilita e facilita relazioni, distinguendosi però dalle
community (letteralmente “comunità”), le quali tendono ad aggregare le persone attorno ad un singolo
interesse. Sotto questo aspetto le community (anche riferendoci a quanto riportato nel capitolo
precedente) sono “1.0”, mentre i social network risultano essere “2.0”; in particolare, mentre il valore delle
community è prevalentemente determinato dalla quantità di partecipanti, il focus dei social network è nella
coesione delle relazioni, nonché dalla molteplicità e versatilità degli strumenti offerti per interagire e
relazionarsi.

Il fenomeno dei social network è nato nel 1995


grazie all’applicazione web Classmates.com – nata
per creare una rete di ex compagni di scuola -
seguita, due anni dopo, da Sixdegrees.com, che si
richiamava proprio alla teoria dei sei gradi di
separazione. Il 1999 segnò la biforcazione che ha
accompagnato il fenomeno fino ai giorni nostri, fra
reti di relazioni professionali e reti d’amicizia:
nacquero Circle Of Trust, che raccoglieva opinioni
dei propri clienti su ogni genere di tema, e Circle Of
Friends, più orientato alla gestione dei contatti di
amicizia. I social network si affermarono
(34) Il fenomeno social network nelle aziende Inc.500
definitivamente nel 2003, grazie al grande numero

38
di utilizzatori di applicazioni come Friendster, nato per gestire reti di amici, e LinkedIn, concepito invece
con lo scopo di gestire contatti di lavoro.

Un’evoluzione di questi strumenti è costituita dai semantic social network – che connettono sia persone
che blog – e dai social network “verticali” – che si focalizzano su tematiche specifiche. Il social networking,
inoltre, si sta affermando anche come importante habitat per operazioni di marketing: un esempio su tutti
è rappresentato da Coca-Cola con il suo social network Sprite Yard, realizzato per supportare in Cina il suo
prodotto. Il centro di Ricerche di Marketing dell’Università del Massachusetts ha verificato le dimensioni
del fenomeno da parte delle aziende presenti nell’indice Inc.500 (tale indice include le 500 imprese
americane che hanno registrato il più alto tasso di crescita e sviluppo annuale), riscontrando alti livelli di
familiarità (vedi figura 34), utilizzo e rilevanza.

Parlando di social network è impossibile non citare il fenomeno Facebook (il cui logo è
visibile in figura 35), una popolare applicazione di social networking ad accesso gratuito.
Il nome del sito si riferisce agli annuari pubblicati all'inizio di ogni anno accademico da
alcuni college e scuole statunitensi e contenenti le foto di ogni singolo studente (e
proprio per questo chiamati facebook, letteralmente “libri di facce”). Secondo i dati
forniti dal sito stesso, nel settembre 2009 il numero degli utenti attivi ha raggiunto i 300
milioni in tutto il mondo. In base all'acquisto di una quota del 1,6% da parte di
(35) Facebook Microsoft nel 2007 per 240 milioni di dollari e all'acquisto del 2% per 200 milioni di
dollari da parte di un gruppo di investitori russi, il valore del sito è stato stimato in 10 miliardi di dollari.

5.5 – Il futuro della rete: il Web Semantico


Il Web fu disegnato come uno spazio di informazioni, con l'obiettivo di essere utile non solo per la
comunicazione tra uomini, ma anche per fare in modo che fosse possibile una qualche tipo di automazione
tramite gli elaboratori. Uno dei maggiori ostacoli è stato il fatto che la maggior parte dell'informazione sul
Web è disegnata per essere fruita dall'uomo piuttosto che dai computer. Non ponendosi il problema
dell'intelligenza artificiale delle macchine, l'approccio del Web Semantico sviluppa linguaggi per esprimere
le informazioni in una forma accessibile e processabile da un elaboratore. Tim Berners Lee, nel suo libro
“Weaving The Web” [2], afferma a questo riguardo:

Il primo passo consiste nell’inserire i dati sul Web in una forma che le macchine
possano capire, o almeno convertire in tale forma, creando un “Web Semantico”,
una ragnatela di dati che possano essere elaborati dalle macchine direttamente o
indirettamente. Pensate alla quantità limitata di aiuto che abbiamo ricevuto finora
dalle macchine sul Web. I motori di ricerca si sono dimostrati utilissimi nel setacciare,
con grande rapidità, elenchi sterminati per rintracciare documenti negletti, ma
anche inutili, dal momento che non possono valutare la qualità del documento. Di
solito ci scaricano addosso un mucchio di spazzatura.

Con il termine Web Semantico (il cui logo è visibile in figura 36) si intende dunque la trasformazione del
World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, e così via) siano
associati ad informazioni e dati (i cosiddetti metadati) che ne specifichino il contesto semantico in un
formato adatto all'interrogazione, all'interpretazione e, più in generale, all'elaborazione automatica. Con
l'interpretazione del contenuto dei documenti che il Web Semantico propugna, saranno possibili ricerche
molto più evolute delle attuali, basate sulla presenza nel documento di parole chiave, ed altre operazioni

39
specialistiche come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più
elaborate del semplice link ipertestuale.

Per quanto riguarda la gestione delle informazioni, esistono due livelli distinti
di metadati: da un lato questi ultimi possono descrivere un documento (ad
esempio una pagina web) o parte di un documento (ad esempio un
paragrafo); d'altro canto, essi possono descrivere entità nel documento,
come una persona o un'azienda. In ogni caso, la cosa importante è che i
metadati sono "semantici", ovvero ci dicono qualcosa circa il contenuto del
documento o comunque circa entità descritte nel documento. Questo
chiaramente è in contrasto con i metadati oggi presenti sul Web, codificati in
HTML, linguaggio tramite il quale si descrive puramente il formato in cui le
informazioni dovrebbero essere rappresentate: utilizzandolo si può
(36) Logo del Semantic Web
specificare se una determinata stringa deve essere visualizzata in grassetto o
colorata di rosso, ma non si può specificare ad esempio che la stessa stringa denoti il prezzo di un prodotto,
il nome di un autore e così via. Tramite l'utilizzo della semantica, un elaboratore potrebbe capire quando
parole o frasi sono equivalenti: cercando "Barack Obama", si potrebbe ad esempio ottenere un documento
altrettanto valido riferendoci al "Presidente degli Stati Uniti". Oltre a questo si potrebbero ottenere risultati
di una ricerca collegati al contesto: ad esempio, nel cercare riferimenti a "Jaguar" nell'ambito della
produzione automobilistica, non ci sarebbe il rischio di trovare documenti riguardanti un felino.

Con il fine di concretizzare un processo di scambio di informazioni tra programmi è necessario


rappresentare il modello di uno specifico ambito di conoscenza codificandone le informazioni tramite i
concetti attinenti, ovvero le classi, le relazioni e le regole tra questi. Un’ontologia è una rappresentazione
formale, condivisa ed esplicita di una concettualizzazione di un dominio di interesse e, nell’ambito del Web
Semantico, può essere rappresentata tramite un documento scritto nel formato Web Ontology Language –
OWL - un linguaggio di markup basato su XML e utile a rappresentare esplicitamente significato e
semantica di termini con vocabolari e relazioni tra i termini.

Il linguaggio OWL fornisce meccanismi per creare tutte le componenti di


un'ontologia: concetti, istanze, proprietà (o relazioni) e assiomi. Possono essere
definiti due tipi di proprietà, le proprietà oggetto e le proprietà tipo di dato: le
prime relazionano due oggetti, le seconde servono per istanziare valori di un certo
tipo di dato, ad esempio stringhe o numeri. I concetti possono avere super e sotto
concetti, fornendo così un meccanismo per ragionamento a livello assuntivo e
ereditarietà di proprietà. Infine gli assiomi sono utilizzati per fornire informazioni
sulle classi e sulle proprietà, per esempio per specificare l'equivalenza di due classi
(37) Logo di RDF
o lo spettro di valori assumibili da una proprietà. OWL si appoggia sul Resource
Description Framework, RDF (il cui logo è visibile in figura 37), sostanzialmente un linguaggio di
modellazione dati definito dal W3C. Anche RDF è un formato di markup basato su XML e viene utilizzato
per serializzare grafi di "risorse", ovvero istanze di oggetti. L'aspetto interessante di RDF è quello di poter
assegnare un riferimento univoco (le già citate URI) a qualsiasi cosa: si pensi ad esempio che addirittura
una persona potrebbe essere identificata o rappresentata tramite l’indirizzo della sua pagina web o quello
della sua casella di posta elettronica.

Affinché questi strumenti siano fruibili nel modo più immediato possibile dagli utilizzatori, si rende
indispensabile la definizione di linguaggi atti alla ricerca, i cosiddetti linguaggi di querying. Simple Protocol
40
And RDF Query Language – SPARQL - è uno dei linguaggi definiti per interrogare sistemi che gestiscono
asserzioni RDF. Ad oggi sono disponibili altri linguaggi funzionalmente equivalenti, ma SPARQL è candidato
a divenire una raccomandazione W3C. Per interrogare OWL, invece, manca ancora uno standard, e
attualmente vengono implementati linguaggi di query proprietari.

È da segnalare che attualmente si sta lavorando molto per estendere le possibilità del Web Semantico
tramite l'applicazione di agenti semantici intelligenti, ovvero programmi in grado di esplorare ed interagire
autonomamente con i sistemi informatici. Ruolo di questi agenti nel Web Semantico sarebbe quello di
fornire più vaste capacità di inferenza realizzando quanto espresso in un articolo di Tim Berners-Lee su
"Scientific American" ed intitolato "The Semantic Web" [12]: in esso si prospetta un futuro in cui una
qualsiasi persona potrà, ad esempio, fissare una visita medica alla madre utilizzando alcuni agenti capaci di
"capire" la patologia, contattare i centri in grado di curarla e perfino di richiedere un appuntamento ai
relativi agenti, salvo poi lasciarle la decisione di confermare.

5.6 – Conclusioni
Il panorama del Web è al centro di un processo in continua evoluzione del quale ci troviamo ad essere
spettatori e, talvolta, anche protagonisti. Il Web Semantico è una tecnologia ad un passo dal grande salto,
mentre il Web 2.0 rappresenta l’attore principale dello scenario odierno.

Se il Web 2.0 non riserva grandi attenzioni alle tecnologie impiegata, favorendo aspetti di user experience e
quindi di immediato benificio dell’utenza, il Web Semantico rappresenta l’esatto opposto, in quanto pone
al centro gli standard finalizzati alla modellazione del dominio che si vuole descrivere. Web 2.0 nasce per
essere fruito dalle persone, e quindi si pone ad un livello di stratificazione più alto del Web Semantico, che
invece nasce per rendere i dati manipolabili in maniera migliore dagli elaboratori. Ambedue le tecnologie
appaiono simili al mondo esterno – servono per condividere ed aggregare dati – ma il Web 2.0 ha una
migliore interfaccia e soprattutto esiste ora !

I detrattori del Web Semantico seguono almeno tre correnti. Ad esempio alcuni si aspettano una debacle
simile a quella delle previsioni dei ricercatori sull’intelligenza artificiale dei primi anni ‘60. Altri imputano al
Web Semantico la difficoltà di implementazione e quindi dei costi decisamente troppo elevati rispetto ai
benefici ottenibili. Altri ancora, semplicemente, non vedono futuro per questo tipo di tecnologia - ma
questo accadde anche per il World Wide Web !

Tuttavia i tempi iniziano ad essere maturi perchè le tecnologie si muovano sempre di più verso un modello
come quello del Web Semantico: oggi abbiamo la potenza di calcolo necessaria per organizzare la
conoscenza e fare in modo che sia fruibile tramite strumenti sempre più avanzati.

Chiudo con un esortazione di Vannevar Bush contenuta nel suo “As May We Think” [11]:

“Presumably man’s spirit should be elevated if he can better review his shady past
and analyze more completely and objectively his present problems. He has built a
civilization so complex that he needs to mechanize his records more fully if he is to
push his experiment to its logical conclusion and not merely become bogged down
part way there by overtaxing his limited memory. His excursions may be more
enjoyable if he can reacquire the privilege of forgetting the manifold things he does
not need to have immediately at hand, with some assurance that he can find them
again if they prove important.”

41
Bibliografia

[1] James Gillies, Robert Cailliau (2000), How the Web was Born , Oxford University Press, New York.

[2] Tim Berners Lee (1999), Weaving The Web (versione tradotta in italiano: L'architettura del nuovo Web,
Feltrinelli Editore, Milano).

[3] Paolo D'Alessandro, Igino Domanin (2005) Filosofia dell'ipertesto, Apogeo Editore, Trento

[4] James Kurose, Keith Ross (2005), Reti di calcolatori e internet. Un approccio top-down 3ed, Pearson
Education, Milano.

[5] Kennet Corts, Debora Freier (2003), "A Brief History of the Browser Wars", Harward Buisness School,
Boston.

[6] Tim O' Reilly (2005), "What is web 2.0", disponibile all'indirizzo:
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html.

[7] Vito Di Bari (2007), Web 2.0, Il Sole 24 Ore, Milano.

[8] Giuliano Prati (2007), Web 2.0 - Internet è cambiato, UNI Service, Trento.

[9] Dan Zambonini (2005), "Is Web 2.0 killing the Semantic Web ?", disponibile all'indirizzo:
http://www.oreillynet.com/xml/blog/2005/10/is_web_20_killing_the_semantic.html

[10] Tim O' Reilly (2006), “Web 2.0 Compact Definition: Trying Again”, disponibile all’indirizzo:
http://radar.oreilly.com/2006/12/web-20-compact-definition-tryi.html

[11] Michael Daconta, Leo Obrst, Kevin Smith (2003), The Semantic Web, Wiley Publishing, Indianapolis

[12] John Davies, Rudi Studer, Paul Warren (2006), Semantic Web Technologies, John Wiley & Sons, Sussex

[13] Tim Berners Lee, James Hendler, Ora Lassila (2001)- "The Semantic Web", pubblicato su “Scientific
American” e disponibile all'indirizzo: http://kill.devc.at/system/files/scientific-american_0.pdf

[14] Tom Coates (2003), “On Permalinks and Paradigms...”, disponibile all’indirizzo:
http://www.plasticbag.org/archives/2003/06/on_permalinks_and_paradigms

[15] Daniel Glazman (2008), “Webkit Winz”, disponibile all’indirizzo:


http://www.glazman.org/weblog/dotclear/index.php?post/2008/09/02/WebKit-winz

[16] Wikipedia contributors, Wikipedia, L'enciclopedia libera, disponibile all'indirizzo


http://www.wikipedia.org

42